Sie sind auf Seite 1von 215

Diskrete Mathematik für Informatiker

Fakultät für Mathematik


Universität Duisburg-Essen
Campus Duisburg

October 15, 2013


Inhaltsverzeichnis

1 Grundlagen 1
1.0 Elementare Aussagen und Prädikatenlogik . . . . . . . . . . . . . . . 1
1.1 Grundlagen der Mengenlehre . . . . . . . . . . . . . . . . . . . . . . . 10
1.1.1 Der Mengenbegriff . . . . . . . . . . . . . . . . . . . . . . . . 10
1.1.2 Beschreibung von Mengen . . . . . . . . . . . . . . . . . . . . 11
1.1.3 Extensionalität von Mengen . . . . . . . . . . . . . . . . . . . 12
1.1.4 Die Russell’sche Antinomie . . . . . . . . . . . . . . . . . . . . 15
1.1.5 Mengenoperationen . . . . . . . . . . . . . . . . . . . . . . . . 16
1.1.6 Familien von Mengen . . . . . . . . . . . . . . . . . . . . . . . 17
1.2 Korrespondenzen, Relationen und Abbildungen . . . . . . . . . . . . 21
1.2.1 Eigenschaften von Korrespondenzen . . . . . . . . . . . . . . . 21
1.2.2 Eigenschaften von Relationen . . . . . . . . . . . . . . . . . . 24
1.2.3 Äquivalenzrelation . . . . . . . . . . . . . . . . . . . . . . . . 26
1.2.4 Äquivalenzklassen . . . . . . . . . . . . . . . . . . . . . . . . . 28
1.2.5 Ordnungsrelation . . . . . . . . . . . . . . . . . . . . . . . . . 32
1.2.6 Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
1.2.7 Eigenschaften von Abbildungen . . . . . . . . . . . . . . . . . 36

2 Algebraische Strukturen 41
2.1 Gruppen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
2.1.1 Abelsche Gruppen . . . . . . . . . . . . . . . . . . . . . . . . 44
2.1.2 Verknüpfungstafeln . . . . . . . . . . . . . . . . . . . . . . . . 46

1
2

2.1.3 Untergruppen . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
2.1.4 Abbildungen in Gruppen . . . . . . . . . . . . . . . . . . . . . 51
2.2 Ringe und Körper . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
2.2.1 Ringe und Unterringe . . . . . . . . . . . . . . . . . . . . . . . 54
2.2.2 Ringe und Abbildungen . . . . . . . . . . . . . . . . . . . . . 56
2.2.3 Körper und kommutativer Körper . . . . . . . . . . . . . . . . 59
2.2.4 Polynome . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61

3 Grundlagen der linearen Algebra 67


3.1 Vektorräume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
3.1.1 Vektorraum und Unterraum . . . . . . . . . . . . . . . . . . . 67
3.1.2 Linearkombination von Vektoren . . . . . . . . . . . . . . . . 72
3.1.3 Lineare Unabhängigkeit . . . . . . . . . . . . . . . . . . . . . 73
3.1.4 Basis von Vektorraum . . . . . . . . . . . . . . . . . . . . . . 76
3.2 Lineare Abbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
3.2.1 Eigenschaften von linearen Abbildungen . . . . . . . . . . . . 81
3.2.2 Dimensionsformel für Vektorraum . . . . . . . . . . . . . . . . 85
3.3 Matrizen und lineare Gleichungssysteme . . . . . . . . . . . . . . . . 86
3.3.1 Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
3.3.2 Lineare Gleichungssysteme . . . . . . . . . . . . . . . . . . . . 92
3.4 Der Gauß- Algorithmus . . . . . . . . . . . . . . . . . . . . . . . . . . 99
3.4.1 Elementare Zeilenumformungen . . . . . . . . . . . . . . . . . 99
3.4.2 Spaltenvertauschungen . . . . . . . . . . . . . . . . . . . . . . 101
3.4.3 Das Gaußsche Eliminationsverfahren . . . . . . . . . . . . . . 103
3.4.4 Rücksubstitution und Beispiele . . . . . . . . . . . . . . . . . 106

4 Determinanten 112
4.1 Determinanten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
4.2 Bemerkungen und Beispiele: . . . . . . . . . . . . . . . . . . . . . . . 122
4.3 Eigenwerte und Eigenvektoren . . . . . . . . . . . . . . . . . . . . . . 124
3

5 Elementare Zahlentheorie 134


5.1 Induktionsprinzip . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
5.2 Division mit Rest und Teilbarkeit . . . . . . . . . . . . . . . . . . . . 135
5.3 Eigenschaften von ggT . . . . . . . . . . . . . . . . . . . . . . . . . . 137
5.4 Der Euklidische Algorithmus . . . . . . . . . . . . . . . . . . . . . . . 140
5.5 Primzahlen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146
5.6 Das Sieb des Eratosthenes . . . . . . . . . . . . . . . . . . . . . . . . 150
5.7 Offene Probleme der Zahlentheorie . . . . . . . . . . . . . . . . . . . 153
5.8 Anwendungen der Zahlentheorie . . . . . . . . . . . . . . . . . . . . . 153
5.8.1 Anwendungen für Gruppen . . . . . . . . . . . . . . . . . . . 153
5.8.2 Der kleine Fermatsche Satz . . . . . . . . . . . . . . . . . . . 161
5.8.3 Das RSA-Verfahren . . . . . . . . . . . . . . . . . . . . . . . . 163
5.8.4 Anwendungen für Ringe und Körper . . . . . . . . . . . . . . 165

6 Grundlagen der Wahrscheinlichkeitsrechnung 178


6.1 Wahrscheinlichkeitsräume und Zähldichten . . . . . . . . . . . . . . . 178
6.2 Kombinatorische Formeln . . . . . . . . . . . . . . . . . . . . . . . . 181
6.2.1 Das Urnenmodell . . . . . . . . . . . . . . . . . . . . . . . . . 182
6.3 Klassische Wahrscheinlichkeitsverteilungen . . . . . . . . . . . . . . . 187
6.3.1 Hypergeometrische Verteilung . . . . . . . . . . . . . . . . . . 187
6.3.2 Bernoulli- Experiment . . . . . . . . . . . . . . . . . . . . . . 188
6.4 Bedingte Wahrscheinlichkeit und Unabhängigkeit . . . . . . . . . . . 190

7 Grundlagen der Codierungstheorie 197


7.1 Block-Codes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 197
7.2 Maximum-Likelihood-Decodierung . . . . . . . . . . . . . . . . . . . . 200
7.3 Lineare Codes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 204
7.4 Syndrom-Decodierung . . . . . . . . . . . . . . . . . . . . . . . . . . 208
Kapitel 1

Grundlagen

1.0 Elementare Aussagen und Prädikatenlogik


Definition 1.0.1 (Aussagen). Aussagen sind Sprachkonstrukte, die entweder wahr
oder falsch sind; wahr (w) bzw. falsch (f ) bezeichnen wir als den Wahrheitswert
der jeweiligen Aussage.

Beispiele: Welche der folgenden Formulierungen sind Aussagen?

(i) Pisa ist die größte Stadt Italiens.

(ii) Wann beginnen die nächsten Ferien?

(iii) 6 < 24.

(iv) Er hat morgen Geburtstag.

Beweis. (i) ist eine (falsche) Aussage. Man beachte, dass (i) zeitabhängig ist; dennoch
besitzt (i) zu jeden Zeitpunkt einen wohldefinierten Wahrheitswert.
(ii) ist keine Aussage.
(iii) ist eine (wahre) Aussage.
(iv) enthält zwei unbekannte (er und morgen). Solange diese nicht spezifiziert sind,
besitzt (iv) keinen Wahrheitswert. daher ist (iv) keine Aussage.

Definition 1.0.2 (Verknüpfungen von Aussagen). Eine unäre Verknüpfung


ist eine Operation, die einer Aussage eine neue Aussage zuordnet.
Eine binäre Verknüpfung ist eine Operation, die zwei Aussagen eine neue Aussage

1
2

zuordnet.
Die wichtigsten Verknüpfungen halten wir in folgenden Definition fest.

Definition 1.0.3. Es seien A und B Aussagen.


(i) Die Negation der Aussage A (in Zeichen: ¬A) ist genau dann wahr, wenn A
falsch ist.
(ii) Die Konjunktion von A und B (in Zeichen: A ∧ B) ist genau dann wahr, wenn
sowohl A als auch B wahr sind.
(iii) Die Disjunktion von A und B (in Zeichen: A∨B) ist genau dann falsch, wenn
sowohl A als auch B falsch sind.
(iv) Die Implikation von A und B (in Zeichen: A ⇒ B) ist genau dann falsch,
wenn A wahr und B falsch ist.
(v) Die Bijunktion von A und B (in Zeichen: A ⇔ B) ist genau dann wahr, wenn
A und B den gleichen Wahrheitswert haben.

Bemerkungen (i) Eine Übersichtliche Methode zur Darstellung von Verknüpfungen

sind die sogenannten Verknüpfungstafeln:

A B ¬A A∧B A∨B A⇒B A⇔B


w w f w w w w
w f f f w f f
f w w f w w f
f f w f f w w

(ii) Man beachte, dass die Reihenfolge bei der Implikation durchaus von Belang ist,

d.h. A ⇒ B ist nicht äquivalent zu B ⇒ A. Ferner beachte man, dass A ⇒ B stets

wahr ist, sobald A falsch ist. Um dies zu erläuteren betrachten wir die Aussage

Wenn Paul seine Prüfung besteht, dann wird er sich betrinken

Wir haben also eine Implikation A ⇒ B mit

A: Paul besteht seine Prüfung,

B: Paul betrinkt sich.

Die Aussage A ⇒ B sagt nichts darüber aus was Paul tun wird, wenn er die Prüfung

nicht besteht ( er kann sich betrinken, oder auch nicht; in keinen Fall könnte man
3

ihm vorwerfen eine falsche Aussage gemacht zu haben).

(iii) Die Bijunktion ist tatsächlich keine neue Verknüpfung, sondern die Konjunktion

von A ⇒ B und B ⇒ A.
Definition 1.0.4. (i) Eine zusammengesetzte Aussage (d.h. die Verknüpfung einer
oder mehrerer Teilaussagen) heisst Widerspruch, wenn sie für alle Kombinationen
der Wahrheitswerte ihrer Komponenten falsch ist.
(ii) Eine zusammengesetzte Aussage heißt Tautologie, wenn sie für alle Kombina-
tionen der Wahrheitswerte ihrer Komponenten wahr ist.
Beispiel (i) A ∧ ¬A ist ein Widerspruch.
(ii) ¬(A ∧ B) ⇔ (¬A ∨ ¬B) ist eine Tautologie.
Beweis: (i)
A ¬A A ∧ ¬A
w f f
f w f
(ii)
A B ¬(A ∧ B) ¬A ∨ ¬B
w w f f
w f w w
f w w w
f f w w

Definition 1.0.5 (Logische Äquivalenz und logische Implikation). Es seinen


A und B zwei (zusammengesetzte ) Aussagen.
(i) A und B heissen logisch äquivalent, wenn A ⇔ B eine Tautologie ist, d.h. A
und B haben identische Wahrheitswerte für sämtliche Kombinationen der Wahrheitswerte
ihrer Komponenten.
(ii) Wir sagen A impliziert B (oder auch aus A folgt B), wenn A ⇒ B eine
Tautologie ist, d.h. immer dann wenn A wahr ist muss auch B wahr sein.

Beispiel: (i) Wir betrachten folgende Aussagen:

A: Wenn morgen die Sonne scheint, dann werde ich, falls ich Zeit habe, zum See

fahren.

B: Wenn morgen die Sonne scheint und ich Zeit habe, dann fahre ich zum See.

Dann sind A und B logisch äquivalent. Setze dazu


4

C: Morgen scheint die Sonne,

D: Ich habe Zeit,

E: Ich fahre zum See.

Dann ist A äquivalent zu C ⇒ (D ⇒ E) und B ist äquivalent zu (C ∧ D) ⇒ E. Wir

haben dazu
C D E D⇒E C ⇒ (D ⇒ E) C ∧ D (C ∧ D) ⇒ E
w w w w w w w
w w f f f w f
w f w w w f w
w f f w w f w
f w w w w f w
f w f f w f w
f f w w w f w
f f f w w f w
Der Vergleich der fünften und letzten Spalte zeigt, dass A und B logisch äquivalent

sind.

(ii) Es seien A und B zwei beliebige Aussagen. Dann gilt: Aus (A ⇔ B) ∧ B folgt A!

A B A⇔B (A ⇔ B) ∧ B
w w w w
w f f f
f w f f
f f w f
Der Vergleich der ersten und letzten Spalte zeigt die Behauptung. Man beachte, dass

die erste und die letzte Spalte nicht übereinstimmen.

Schreibweise: Es seien A und B zwei Aussagen. Sind A und B logisch äquivalent,

so schreiben wir dafür

A ≡ B.
5

Falls gilt: Aus A folgt B, so schreiben wir dafür

A ` B.

Definition 1.0.6 (Logische Argumentation). Ein (logisches) Argument besteht


aus einer oder mehreren Aussage(n) P1 , P2 , ..., Pn (den so genannten Prämissen ) und
einer Aussage F (der sogenannten Folgerung).
Wir sagen, dass ein Argument gültig ist, falls die Konjunktion aller Prämissen die
Folgerung logisch impliziert, d.h.

(P1 ∧ P2 ∧ ... ∧ Pn ) ` F

(oder auch: P1 ∧ P2 ∧ ... ∧ Pn ⇒ F ist eine Tautologie).


Andernfalls nannen wir das Argument ungültig.

Beispiel: (i) Wir betrachten folgendes Argument: Wenn ihr eure Hausaufgaben

macht, werdet ihr die Klausur bestehen. Ihr habt eure Hausaufgaben gemacht, also

werdet ihr die Klausur bestehen.

Definiere

P : Ihr macht eure Hausaufgaben,

F : Ihr besteht die Klausur.

Die Prämissen des Arguments sind P ⇒ F und P . Die Folgerung ist F .

Damit das Argument gültig ist, muss gelten

(P ⇒ F ) ∧ P ` F.

P F P ⇒F (P ⇒ F ) ∧ P [(P ⇒ F ) ∧ P ] ⇒ F
w w w w w
w f f f w
f w w f w
f f w f w

Also ist das Argument gültig.

(ii) Wenn der Himmel bewölkt ist, scheint die Sonne nicht und wenn die Sonne nicht
6

scheint, dann sinkt die Temperatur. Die Temperatur sinkt nicht, also ist der Himmel

unbewölkt.

Wir definieren:

A: der Himmel ist bewölkt,

B: die Sonne scheint,

C: die Temperatur sinkt.

Die Prämissen des Arguments sind:

A ⇒ ¬B, ¬B ⇒ C und ¬C.

Die Folgerung lautet: ¬A. Damit das Argument gültig ist, muß gelten:

[(A ⇒ ¬B) ∧ (¬B ⇒ C) ∧ ¬C] ` ¬A.

A B C A ⇒ ¬B ¬B ⇒ C [(A ⇒ ¬B) ∧ (¬B ⇒ C) ∧ ¬C] ⇒ ¬A


w w w f w w
w w f f w w
w f w w w w
w f f w f w
f w w w w w
f w f w w w
f f w w w w
f f f w f w

D.h. das Argument ist gültig.


Definition 1.0.7 (Prädikate). Ein Prädikat ist ein sprachliches Gebilde, das eine
Eigenschaft von einem oder mehreren Objekten oder Individuum beschreibt.

Beispiele:

(i) ist rot,


7

(ii) hat lange Zähne,

(iii) ist grösser als,

(iv) erhält Geld von.

Mit Hilfe von Prädikaten erhält man durch Einsetzen eines Namens eines Objekts

bzw. eines Individuen an geeigneter Stelle eine Aussage (Prädikate sind selbst keine

Aussagen):

(1) Die Rose ist rot,

(2) Der Tiger hat lange Zähne,

(3) 4 ist grösser als 17,

(4) Lisa erhält Geld von Björn.

(iii) und (iv) sind Beispiele für sogenannte zweistellige Prädikate.

Eine Aussageform p(x, y, z, ...) besetzt aus einen Prädikat p und endlichen Anzahl

von Variablen x, y, z, ..., die jene Stellen kennzeichnen, an denen man Namen von

Objekten oder Individuum einsetzen kann, um Aussagen zu erhalten.

Beispiele: Wir betrachten die folgenden Prädikate:

p: ist rot,

q: hat lange Zähne,

r: ist grösser als,

s: erhält Geld von.

und bilden daraus die Aussageformen

p(x): x ist rot,

q(x): x hat lange Zähne,

r(x, y): x ist grösser als y,

s(x, y): x erhält Geld von y.


8

Man beachte, dass Aussageformen selbst keine Aussagen sind. Erst durch ersetzung

der Platzhalter durch Namen von Objekten oder Individuum entstehen Aussagen:

(1) p(Die Rose): Die Rose ist rot (ersetze x durch ”Die Rose”),

(2) q(Der Tiger): Der Tiger hat lange Zähne (ersetze x durch ”Der Tiger”),

(3) r(4, 17): 4 ist grösser als 17 (ersetze x durch 4 und y durch 17),

(4) s(Lisa, Björn): Lisa erhält Geld von Björn (ersetze x durch ”Lisa” und y durch

”Björn”).

Mittels der in Definition 1.0.3 definierten Verknüpfungen lassen sich in naheliegender

Weise aus gegebenen Aussageformen neue Aussageformen bilden. Dabei hat man

allerdings genau auf die Bezeichnung der Variablen zu achten. So ist zum Beispiel

(mit obigen Bezeichnungen)

p(x) ∧ q(x): x ist rot und x hat lange Zähne eine andere Aussageform, wie

p(x) ∧ q(y): x ist rot und y hat lange Zähne.

Eine weitere Möglichkeit aus Aussageformen Aussagen zu bilden sind die sogenannten

Quantoren:

Definition 1.0.8 (Allquantor). Ist p(x) eine Aussageform, dann definieren wir
damit die Aussage
(∀x)p(x) (sprich: Für all x gilt p(x))
folgendermaßen: (∀x)p(x) ist genau dann wahr, wenn für alle erdenklichen Ersetzun-
gen von x durch Namen von Objekten oder Individuum, eingesetzt in p(x), die daraus
resultierende Aussage stets wahr ist.

Beispiel: Die Aussage

Alle Papageien können sprechen

kann mit Hilfe der Aussageformen


9

p(x): x ist Papagei,

q(x): x kann sprechen

folgendermaßen umformuliert werden:

Für alle x gilt: Ist x ein Papagei, dann kann x sprechen, also:

(∀x)[p(x) ⇒ q(x)].
Definition 1.0.9 (Existenzquantor). Ist p(x) ein Aussageform, dann definieren
wir damit die Aussage
(∃x)p(x) (sprich: Es gibt ein x so dass gilt p(x))
folgendermaßen: (∃x)p(x) ist genau dann wahr, wenn man (mindestens!) einen Na-
men eines Objekten oder Individuum angeben kann, der, für x in p(x) eingesetzt, zu
einer wahren Aussage führt.

Beispiel: Die Aussage

Einige Papageien können sprechen

kann mit Hilfe der Aussageformen

p(x): x ist Papagei,

q(x): x kann sprechen

folgendermaßen umformuliert werden:

Es gibt ein x, so dass gilt: x ist ein Papagei und x kann sprechen, also:

(∃x)[p(x) ∧ q(x)].
Satz 1.0.10 (Eigenschaften von Quantoren). (i) Ist p(x) eine Aussageform, so
ergibt sich unmittelbar aus der Definition des All- bzw. Existenzquantors
¬[(∀x)p(x)] ≡ (∃x)¬p(x),
¬[(∃x)p(x)] ≡ (∀x)¬p(x).
(ii) Ist p(x, y) eine Aussageform, so sind die Aussagen
(∃x)(∀y)p(x, y) und (∀y)(∃x)p(x, y)
im allgemeinen nicht logisch äquivalent.
10

Sei zum Beispiel

p(x, y): x, y sind reelle Zahlen und x < y. Dann ist

(∃x)(∀y)p(x, y)

falsch; aber

(∀y)(∃x)p(x, y)

wahr. Dagegen gilt für jede Aussageform

(∀x)(∀y)p(x, y) ≡ (∀y)(∀x)p(x, y)

und

(∃x)(∃y)p(x, y) ≡ (∃y)(∃x)p(x, y).

1.1 Grundlagen der Mengenlehre


1.1.1 Der Mengenbegriff

Georg Cantor (1845-1918) versuchte den Begriff der Menge folgendermaßen zu definieren:

Unter einer Menge verstehen wir jede zusammenfassung M von bestimmten, wohlun-

terschiedenen Objekten unserer Anschauung oder unseres Denkens (welche Elemente

von M genannt werden) zu einem Ganzen.

Damit obiger Begriff sinnvoll ist, müssen wir voraussetzen, dass wir stets entschei-

den können, ob ein gegebenes Objekt Element einer Menge ist oder nicht (zumindest

prinzipiell; praktisch ist dies in vielen Fällen äußerst schwierig).

Ist a ein Objekt und M eine Menge die a als Element enthält, so kennzeichnen wir

diesen Sachverhalt durch

a ∈ M (a ist Element von M ).


11

Ist a nicht Element von M (also ¬(a ∈ M )), so schreiben wir dafür

a 6∈ M.

1.1.2 Beschreibung von Mengen

(i) Die einfachste Möglichkeit zur Beschreibung einer Menge ist die Auflistung ihrer

Elemente innerhalb geschweifter Klammerer:

M = {1, 2, 3, 4},

N = {2, 4, 6, 8, 10, ...}.

N ist ein Beispiel für eine Menge die unendlich viel Elemente enthält. Die ”...”-

Schreibweise sollte mit Vorsicht genossen werden und nur dann benutzt werden, wenn

durch die Auflistung endlich vieler Elemente zweifelsfrei feststeht, welche Elemente

die Menge enthalten soll.

(ii) Ist p(x) eine Aussageform, so kann man alle Objekte a, für die p(a) eine wahre

Aussage ist, zu einer Menge M zusammenfassen:

M = {x : p(x)}

(M ist die Menge aller x, für die gilt p(x))

Ist zum Beispiel

p(x): x ist eine ganze Zahl und 1 ≤ x ≤ 4,

q(x): x ist eine gerade natürliche Zahl,

dann ist

M = {x : p(x)} = {1, 2, 3, 4},


12

N = {x : q(x)} = {2, 4, 6, 8, 10, ...}.

Ist eine Menge M durch eine Aussageform p(x) definiert, d.h. M = {x : p(x)}, so

sind die Aussage a ∈ M und p(a) logisch äquivalent, d.h.

a ∈ M ⇔ p(a) ist stets wahr.

Beispiele: (i) Die Leere Menge ∅ ist diejenige Menge, die kein Element enthält.

Demnach ist a ∈ ∅ stets eine falsche Aussage. Man kann die leere Menge z. B. durch

∅ = {x : x 6= x}

beschrieben.

(ii) N := {1, 2, 3, 4, ...} ( Menge der natürlichen Zahlen)

N0 := {0, 1, 2, 3, ...} ( Menge der natürlichen Zahlen mit Null)

Z := {..., −3, −2, −1, 0, 1, 2, 3, ...} ( Menge der ganzen Zahlen)


m
Q := {q : q = n
∧ n 6= 0} ( Menge der rationalen Zahlen)

R := {x : x reell} ( Menge der reellen Zahlen)

C := {z : z = x + iy ∧ x, y ∈ R} ( Menge der komplexen Zahlen; i2 = −1)

(iii) ” Die Zehn besten Songs aller Zeiten” ist keine zulässige Mengenbeschreibung,

solange die Terme ” bester Song” bzw. ”aller Zeiten” nicht näher präzisiert werden.

1.1.3 Extensionalität von Mengen

Zwei Mengen M, N heißen gleich, wenn sie die gleichen Elemente enthalten, d.h.

M = N und (∀x)[x ∈ M ⇔ x ∈ N ] sind logisch äquivalente Aussagen.

Demnach sind die Mengen

1
M1 := {1, − , 1066, π},
2
13

1
M2 := {− , π, 1066, 1},
2
1 1 1
M3 := {1, − , − , π, 1066, − , 1}
2 2 2
alle gleich, d.h. es gilt M1 = M2 = M3 . Insbesondere gibt es nur eine leere Menge.

Sind p(x), q(x) zwei Aussageformen, dann sind die Mengen

M := {x : p(x)} und N := {x : q(x)}

genau dann gleich, wenn

(∀x)[p(x) ⇔ q(x)]

wahr ist.

Definition 1.1.1. Es seinen M und N zwei Mengen. M heißt Teilmenge von N


(in Zeichen: M ⊂ N ), wenn jedes Element von M auch Element von N ist, d.h. es
gilt
(∀x)[x ∈ M ⇒ x ∈ N ].

Bemerkung: (i) Ist M ⊂ N , so heißt N auch Obermenge von M .

(ii) Ist N eine Menge und p(x) eine Aussageform, so erhalten wir durch

M := {x : x ∈ N ∧ p(x)}

eine Teilmenge von N ; M enthält genau diejenigen Elemente von N , die die Eigen-

schaft p besitzen.

Schreibweise:

M = {x : x ∈ N ∧ p(x)} =: {x ∈ N : p(x)}.

(iii) Ist M eine beliebige Menge, so gilt

∅ ⊂ M und M ⊂ M.
14

(iv) Zwei Mengen M, N sind genau dann gleich, wenn gilt M ⊂ N und N ⊂ M .

Beispiele: (i) Es gilt

N ⊂ N0 ⊂ Z ⊂ Q ⊂ R ⊂ C aber N 6= N0 6= Z 6= Q 6= R 6= C.

(ii) Es sei M := {1, {1, 2}}. Dann gilt

{1} ⊂ M,

aber {1, 2} ist keine Teilmenge von M ; es gilt {1, 2} ∈ M und damit

{{1, 2}} ⊂ M.


Bemerkung: Die Tatsache Q 6= R folgt z. B. daraus, dass 2 6∈ Q ist. Denn

angenommen 2 wäre eine rationale Zahl, dann gäbe es teilerfremde ganze Zahlen

m, n ∈ Z, n 6= 0, so dass gilt
√ m
2= .
n
Daraus folgt

2n2 = m2 ,

d.h. m2 wäre eine gerade Zahl. Damit wäre auch m eine gerade Zahl (Quadrate

ungerader ganzer Zahlen sind stets ungerade!), d.h. es gibt eine ganze Zahl r ∈ Z, so

dass gilt

m = 2r.

Daraus ergäbe sich

2n2 = m2 = 4r2 ,

also

n2 = 2r2 ,
15

d.h. n2 und damit auch n wäre ebenfalls eine gerade Zahl. Dies widerspricht aber

der Teilfremdheit von m und n. Also muß die Annahme 2 ∈ Q falsch gewesen sein.

1.1.4 Die Russell’sche Antinomie

Nach der Cantor’schen Definition des Mengenbegriffs bilden Mengen selbst wieder

bestimmte und wahlunterschiedene Objekte. Demnach wären durchaus Mengen denkbar,

die sich selbst als Element enthalten (z. B. müßte die Menge aller Mengen, also

M := {x : x ist eine Menge} sich selbst als Element enthalten). Ebenso wäre

R := {x : x ist eine Menge ∧ x 6∈ x}

eine wohldefinierte Menge.

Nach Definition von R wäre demnach

R ∈ R ⇔ R 6∈ R

eine wahre Aussage, was offensichtlich nicht sein kann1 .

Die axiomatische Mengenlehre löst diesen Widerspruch dadurch auf, dass solche Ob-

jekte wie M bzw. R keine Mengen (sondern sogenannte Klassen) sind.


Definition 1.1.2. Es sei M eine Menge. Dann heißt
P(M ) := {A : A ⊂ M }
Potenzmenge von M . P(M ) ist also die Menge aller Teilenmengen von M ; es gilt
A ∈ P(M ) ⇔ A ⊂ M.

Bemerkungen und Beispiele: (i) Für jede Menge M gilt ∅ ∈ P(M ).

(ii) Sei M = {a, b, c}, dann gilt

P(M ) = {∅, {a}, {b}, {c}, {a, b}, {a, c}, {b, c}, {a, b, c}}.
1
Bertrand A. W. Russell; 1872-1970
16

1.1.5 Mengenoperationen

Es seinen A und B zwei Mengen.

(i) Die Vereinigung von A und B ist die Menge

A ∪ B := {x : x ∈ A ∨ x ∈ B}.

(ii) Der Durchschnitt von A und B ist definiert durch

A ∩ B := {x : x ∈ A ∧ x ∈ B}.

(iii) Die (mengentheoretische ) Differenz von A und B ist die Menge

A \ B := {x : x ∈ A ∧ x 6∈ B}.

Bemerkungen: (i) Sind p(x), q(x) Aussageformen und die Mengen A und B durch

A := {x : p(x)}, B := {x : q(x)}

gegeben, dann gilt

A ∪ B = {x : p(x) ∨ q(x)},

A ∩ B = {x : p(x) ∧ q(x)},

A \ B = {x : p(x) ∧ ¬q(x)}.

(ii) Zwei Mengen A und B heißen disjunkt, wenn

A ∩ B = ∅.

(iii) Ist M eine Menge und A ∈ P(M ), so heißt die Differenzmenge M \ A auch

Komplement von A (in M ).


17

Satz 1.1.3. Es Sei M eine Menge. Dann gilt für alle A, B, C ∈ P(M ):
(i) A ∩ B = A ⇔ A ⊂ B und A ∪ B = B ⇔ A ⊂ B.
(ii) A ∩ B = B ∩ A und A ∪ B = B ∪ A.
(iii) (A ∩ B) ∩ C = A ∩ (B ∩ C) und (A ∪ B) ∪ C = A ∪ (B ∪ C).
(iv) A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C) und A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C).
(v) M \ (M \ A) = A.
(vi) M \ (A ∩ B) = (M \ A) ∪ (M \ B) und M \ (A ∪ B) = (M \ A) ∩ (M \ B).
(vii) A ∩ (M \ A) = ∅ und A ∪ (M \ A) = M.
(viii) A \ B = A ∩ (M \ B).

Beweis. Übung.

1.1.6 Familien von Mengen

Es sei M eine Menge. Die Menge M heißt das Mengensystem bzgl. M , wenn M

eine Teilenmenge P(M ) ist. Die Potenzmenge P(M ) einer Menge M ist ein Beispiel

für ein Mengensystem bzgl. M . Entsprechend der Definition für die Vereinigung und

den Durchschnitt zweier (und damit endlich und unendlich vieler) Mengen setzen wir

für M bzgl. M
[
A := {x : (∃A)[A ∈ M ∧ x ∈ A]}
A∈M

und
\
A := {x : (∀A)[A ∈ M ⇒ x ∈ A]}.
A∈M

Bemerkung: Ist M eine beliebige Menge und p(x) eine Aussageform, dann ersetzen

wir die Aussage

(∃x)[x ∈ M ∧ p(x)] (Es existiert eine x, so dass gilt x ∈ M und p(x))

abkürzend durch die Schreibweise

(∃x ∈ M )p(x) (Es existiert ein x ∈ M mit p(x)).


18

Entsprechend schreiben wir für

(∀x)[x ∈ M ⇒ p(x)] (Für all x gilt: Aus x ∈ M folgt p(x))

abkürzend

(∀x ∈ M )p(x) (Für alle x ∈ M gilt p(x)).

Demnach erhalten wir


[
A = {x : (∃A ∈ M)x ∈ A}
A∈M

und
\
A = {x : (∀A ∈ M)x ∈ A}.
A∈M

Beispiele: (i) Sei M = ∅ bzgl. M . Dann gilt


[ \
A = ∅ und A = M.
A∈M A∈M

(ii) M = {{x} ∈ P(Z) : x ∈ Z} = {..., {−2}, {−1}, {0}, {1}, ...} bzgl. Z. So ist
[ \
A=Z und A = ∅.
A∈M A∈M

(iii) Für a, b ∈ R mit a < b sei

[a, b] := {x ∈ R : a ≤ x ≤ b}, ]a, b[:= {x ∈ R : a < x < b},

[a, b[:= {x ∈ R : a ≤ x < b}, ]a, b] := {x ∈ R : a < x ≤ b}.

Setze
n−1 n+1
M := {[ , ] ∈ P(R) : n ∈ N}
n n
bzgl. R, dann gilt
[ \
A = [0, 2] und A = {1}.
A∈M A∈M
19

Eine weitere Möglichkeit Kollektionen von Mengen anzugeben, bilden die sogenannten

Mengenfamilien bzgl. einer gegebenen Menge. Sei M eine Menge. Eine Familie

von Mengen bzgl. M besteht aus einer Indexmenge I und einer Zuordnung, die

jeden Index i ∈ I genau eine Menge Ai ⊂ M zuordnet (d. h. aus i, j ∈ I und i = j

folgt Ai = Aj ). Dabei ist es durchaus zulässig, dass mehreren verschieenen Indizes

die gleiche Menge Zugeordnet wird. Eine Familie von Mengen Ai bzgl. M mit der

Indexmenge I wird durch die Schreibweise (Ai )i∈I angegeben. Ist (Ai )i∈I eine Familie

von Mengen in M , so ist offensichtlich

M := {Ai ⊂ M : i ∈ I}

ein Mengensystem. Vereinigung und Durchschnitt von Mengenfamilien sind definiert

durch
[
Ai := {x : (∃i ∈ I)x ∈ Ai },
i∈I
\
Ai := {x : (∀i ∈ I)x ∈ Ai }.
i∈I

Beispiele: (i) A1 := ∅, A2 := ∅. Die Indexmenge ist I = {1, 2}. Es gilt

\ [
A i = A 1 ∩ A2 = ∅ = A 1 ∪ A2 = Ai .
i∈I i∈I

(ii) Für k ∈ Z sei Ak := {k}. Die Indexmenge ist also I = Z. Es gilt

[ \
Ak = Z und Ak = ∅.
k∈Z k∈Z

(iii) Für x ∈ R \ {0} sei Ax := [− x12 , x2 ]. Die Indexmenge lautet demnach I = R \ {0}

und es gilt
[ \
Ax = R und Ax = {0}.
x∈R\{0} x∈R\{0}
20

Definition 1.1.4 (Geordnete Paare und Kartesisches Produkt). Es seien


M, N zwei Mengen und x ∈ M, y ∈ N . Dann heißt

(x, y) := {{x}, {x, y}}

geordnetes Paar. Das kartesische2 Produkt M × N ist die Menge aller geord-
neten Paare (x, y) mit x ∈ M und y ∈ N , d.h.

M × N := {(x, y) : x ∈ M ∧ y ∈ N }.

Im Fall M = N schreiben wir auch

M 2 := M × M.

Satz 1.1.5. Es seien M, N Mengen und (x1 , y1 ), (x2 , y2 ) ∈ M × N . Dann gilt

(x1 , y1 ) = (x2 , y2 ) ⇔ [x1 = x2 ∧ y1 = y2 ].

Beweis. ”⇒” Aus {x1 } ∈ (x1 , y1 ) = (x2 , y2 ) = {{x2 }, {x2 , y2 }} folgt {x1 } = {x2 }
oder {x1 } = {x2 , y2 }. Letzteres kann nur im Fall x2 = y2 eintreten, also folgt x1 = x2 .
Wäre nun y1 6= y2 , so wäre auch {x1 , y1 } =
6 {x2 , y2 }, also (x1 , y1 ) 6= (x2 , y2 ). Also muß
auch y1 = y2 sein.
”⇐” Es folgt sofort {x1 } = {x2 } und {x1 , y1 } = {x2 , y2 }, also

{{x1 }, {x1 , y1 }} = (x1 , y1 ) = (x2 , y2 ) = {{x2 }, {x2 , y2 }}.

Bermerkungen: (i) Ist (x, y) ∈ M × N , so heißt x erste Komponente von (x, y)

und y zweite Komponente von (x, y) (aufgrund von Satz 1.1.5 sind diese Begriffe

wohldefiniert).

(ii) Für x 6= y ist (x, y) 6= (y, x).

(iii) Es gilt: M × N = N × M ⇔ M = N .

(iv) Es ist manchmal hilfreich, sich das kartesische Produkt M × N auf folgende

Weise zu visualisieren:
2
Reue Descartes; 1596-1650
21

Bild!

(v) Das kartesische Produkt von mehr als zwei Mengen M1 , M2 , ..., Mn wird rekursiv

durch

M1 × M2 × ... × Mn := (M1 × ... × Mn−1 ) × Mn

definiert. Ist x1 ∈ M1 , ..., xn ∈ Mn , so heißt

(x1 , ..., xn ) := ((x1 , ..., xn−1 ), xn ) ∈ M1 × ... × Mn .

geordnetes n-Tupel. Satz 1.1.5 gilt entsprechend:

Für (x1 , ..., xn ), (x01 , ..., x0n ) ∈ M1 × ... × Mn gilt

(x1 , ..., xn ) = (x01 , ...x0n ) ⇔ x1 = x01 ∧ ... ∧ xn = x0n .

Im Fall M1 = ... = Mn schreiben wir auch

M n := M1 × ... × Mn .

1.2 Korrespondenzen, Relationen und Abbildun-


gen
1.2.1 Eigenschaften von Korrespondenzen
Definition 1.2.1 (Korrespondenz und Relation). Es seinen N, M Mengen.
(i) Jede Teilmenge K ⊂ M × N heißt Korrespondenz zwischen M und N . Ist
(x, y) ∈ K so schreiben wir dafür auch xKy.
(ii) Jede Teilmenge R ⊂ M ×M heißt Relation auf M . Ist (x, y) ∈ R, so schreiben
wir dafür auch xRy.
22

Beispiel: (i) Ist M eine beliebige Menge, so heißt die Relation

∆(M ) := {(x, x) ∈ M × M : x ∈ M }

= {(x, y) ∈ M × M : x = y}

Diagonale auf M . ∆(M ) ist nichts anderes als die Gleichheitsrelation auf M .

(ii) Es sei K := {(x, y) ∈ N × Z : x teilt y}. (x, y) ∈ K (bzw. xKy) bedeutet also,

dass die Zahl x ∈ N ein Teiler der Zahl y ∈ Z ist.

(iii) Es sei M = {0, 1, 2, 3, 4} und

R := {(x, y) ∈ M × M : x < y}

= {(0, 1), (0, 2), (0, 3), (0, 4), (1, 2), (1, 3), (1, 4), (2, 3), (2, 4), (3, 4)}

Definition 1.2.2. (i) Es seinen N, M Mengen und K ⊂ M × N eine Korrespondenz


zwischen M und N . Dann ist

K−1 := {(y, x) ∈ N × M : (x, y) ∈ K}

eine Korrespondenz zwischen N und M , die sogenannte inverse Korrespondenz.


(ii) Es seinen L, M und N Mengen, sowie K1 ⊂ L × M, K2 ⊂ M × N Korrespon-
denzen. Dann ist

K2 ◦ K1 := {(x, z) ∈ L × N : (∃y ∈ M )[(x, y) ∈ K1 ∧ (y, z) ∈ K2 ]}

eine Korrespondenz zwischen L und N , die sogenannte Verkettung von K1 und


K2 .

Beispiel: Es sei L = N = R und M = [0, ∞[. Ferner seinen

K1 := {(x, y) ∈ L × M : y = x2 }, K2 := {(y, z) ∈ M × N : y = z 2 }.

Es gilt

K1−1 = {(x, y) ∈ M × L : (x, y) ∈ K1 }

= {(y, x) ∈ M × L : y = x2 } = K2 ,
23

K2−1 = {(z, y) ∈ N × M : (y, z) ∈ K2 }

= {(z, y) ∈ N × M : y = z 2 } = K1 .

Ferner gilt

K2 ◦ K1 = {(x, z) ∈ L × N : (∃y ∈ M )[y = x2 ∧ y = z 2 ]}

= {(x, z) ∈ L × N : x2 = z 2 }

= {(x, z) ∈ R × R : |x| = |z|},

dabei sei für eine reelle Zahl a ∈ R


(
a; a ≥ 0,
|a| :=
−a; a < 0.

K1 ◦ K2 = {(u, w) ∈ M × M : (∃v ∈ L)[u = v 2 ∧ w = v 2 ]}

= {(u, w) ∈ M × M : u = w} = ∆(M ).

Satz 1.2.3. Es seinen K, L, M und N Mengen, sowie K1 ⊂ K × L, K2 ⊂ L × M und


K, K3 ⊂ M × N Korrespondenzen. Dann gilt
(i) (K−1 )−1 = K,
(ii) ∆(N ) ◦ K = K ◦ ∆(M ) = K,
(iii) (K2 ◦ K1 )−1 = K1−1 ◦ K2−1 ,
(iv) (K3 ◦ K2 ) ◦ K1 = K3 ◦ (K2 ◦ K1 ).

Beweis. (i) Für all (x, y) ∈ M × N gilt nach Definition 1.2.2

(x, y) ∈ (K−1 )−1 ⇔ (y, x) ∈ K−1 ⇔ (x, y) ∈ K.

Nach 1.1.3 gilt daher (K −1 )−1 = K.


(ii) Für all (x, z) ∈ M × N gilt nach Definition 1.2.2

(x, z) ∈ ∆(N ) ◦ K ⇔ (∃t ∈ N )[(x, t) ∈ K ∧ t = z]


⇔ (x, z) ∈ K
⇔ (∃s ∈ M )[x = s ∧ (s, z) ∈ K]
⇔ (x, z) ∈ K ◦ ∆(M ).
24

Nach 1.1.3 folgt daher ∆(N ) ◦ K = K = K ◦ ∆(M ).


(iii) Für all (z, x) ∈ M × K gilt nach Definition 1.2.2

(z, x) ∈ (K2 ◦ K1 )−1 ⇔ (x, z) ∈ K2 ◦ K1


⇔ (∃y ∈ L)[(x, y) ∈ K1 ∧ (y, z) ∈ K2 ]
⇔ (∃y ∈ L)[(z, y) ∈ K2−1 ∧ (y, x) ∈ K1−1 ]
⇔ (z, x) ∈ K1−1 ◦ K2−1 .

Nach 1.1.3 folgt daher (K2 ◦ K1 )−1 = K1−1 ◦ K2−1 .


(iv) (Übung !) Es sei (s, v) ∈ (K3 ◦ K2 ) ◦ K1 beliebig vorgegeben. Dann existiert nach
Definition 1.2.2 ein t ∈ L, so dass gilt

(s, t) ∈ K1 ∧ (t, v) ∈ K3 ◦ K2 .

Wegen (t, v) ∈ K3 ◦ K2 existiert nach Definition 1.2.2 ein u ∈ M mit der Eigenschaft

(t, u) ∈ K2 ∧ (u, v) ∈ K3 .

Wieder nach Definition 1.2.2 gilt damit (s, u) ∈ K2 ◦ K1 . Daraus folgt schließlich
(s, v) ∈ K3 ◦ (K2 ◦ K1 ). Demnach gilt (K3 ◦ K2 ) ◦ K1 ⊂ K3 ◦ (K2 ◦ K1 ).
Der Beweis für ”⊃” ist analog.

1.2.2 Eigenschaften von Relationen


Definition 1.2.4 (Relation). Es sei M einen Menge und R ⊂ M ×M eine Relation
auf M .
(i) R heißt reflexiv, wenn für alle x ∈ M gilt: xRx ((∀x ∈ M )(x, x) ∈ R).
(ii) R heißt symmetrisch, wenn für alle (x, y) ∈ M × M gilt

xRy ⇒ yRx ((∀(x, y) ∈ R)(y, x) ∈ R).

(iii) R heißt antisymmetrisch, wenn für alle (x, y) ∈ M × M gilt

xRy ∧ yRx ⇒ x = y ((∀(x, y) ∈ M × M )[(x, y) ∈ R ∧ (y, x) ∈ R ⇒ x = y]).

(iv) R heißt transitiv, wenn für alle x, y, z ∈ M gilt

xRy ∧ yRz ⇒ xRz ((∀x, y, z ∈ M )[xRy ∧ yRz ⇒ xRz]).

(v) R heißt alternativ (oder auch total), wenn für alle (x, y) ∈ M × M gilt

xRy ∨ yRx ((∀(x, y) ∈ M × M )[(x, y) ∈ R ∨ (y, x) ∈ R]).


25

Lemma 1.2.5. Es sei M eine Menge und R ⊂ M × M eine Relation auf M . Dann
gilt
(i) R reflexiv ⇔ ∆(M ) ⊂ R,
(ii) R symmetrisch ⇔ R ⊂ R−1 ,
(iii) R antisymmetrisch ⇔ R ∩ R−1 ⊂ ∆(M ),
(iv) R transitiv ⇔ R ◦ R ⊂ R,
(v) R alternativ ⇔ M × M ⊂ R ∪ R−1 .
Beweis. Es gilt:
(i)
2.4
R reflexiv ⇔ (∀x)[x ∈ M ⇒ (x, x) ∈ R]
!
⇔ (∀x)[(x, x) ∈ ∆(M ) ⇒ (x, x) ∈ R]
1.1
⇔ ∆(M ) ⊂ R.

(ii)
2.4
R symmetrisch ⇔ (∀(x, y))[(x, y) ∈ R ⇒ (y, x) ∈ R]
2.2
⇔ (∀(x, y))[(x, y) ∈ R ⇒ (x, y) ∈ R−1 ]
1.1
⇔ R ⊂ R−1 .

(iii)
2.4
R antisymmetrisch ⇔ (∀(x, y))[(x, y) ∈ R ∧ (y, x) ∈ R ⇒ x = y]
2.2
⇔ (∀(x, y))[(x, y) ∈ R ∧ (x, y) ∈ R−1 ⇒ (x, y) ∈ ∆(M )]
1.5
⇔ (∀(x, y))[(x, y) ∈ R ∩ R−1 ⇒ (x, y) ∈ ∆(M )]
1.1
⇔ R ∩ R−1 ⊂ ∆(M ).

(iv) (1) ”⇒” Sei R transitiv. Wir wollen zeigen, dass daraus R ◦ R ⊂ R folgt.
Sei dazu (x, z) ∈ R ◦ R beliebig vorgegeben. dann existiert nach Definition 1.2.2
ein y ∈ M , so dass gilt (x, y) ∈ R und (y, z) ∈ R. Da R transitiv ist, folgt daraus
(x, z) ∈ R. Wir haben also gezeigt, dass gilt

(∀(x, z))[(x, z) ∈ R ◦ R ⇒ (x, z) ∈ R],

d. h. nach Definition 1.1.1


R ◦ R ⊂ R.
(2) ”⇐” Es gelt R ◦ R ⊂ R. Seien x, y, z ∈ M gegeben, so dass gilt (x, y) ∈ R und
(y, z) ∈ R. Nach Definition 1.2.2 gilt dann (x, z) ∈ R ◦ R und wegen R ◦ R ⊂ R
26

folgt daraus (x, z) ∈ R. Damit ist R nach Definition 1.2.4 transitiv.


(v)
2.4
R alternativ ⇔ (∀(x, y) ∈ M × M )[(x, y) ∈ R ∨ (y, x) ∈ R]
2.2
⇔ (∀(x, y) ∈ M × M )[(x, y) ∈ R ∨ (x, y) ∈ R−1 ]
1.5
⇔ (∀(x, y) ∈ M × M )[(x, y) ∈ R ∪ R−1 ]
1.1
⇔ M × M ⊂ R ∩ R−1 .

1.2.3 Äquivalenzrelation
Definition 1.2.6 (Äquivalenzrelation). Es sei M eine Menge und R ⊂ M ×
M eine Relation auf M . R heißt Äquivalenzrelation (auf M ), wenn R reflexiv,
symmetrisch und transitiv ist.

Beispiele 1.2.1: (i) Für jede Menge M ist die Gleichheitsrelation ∆(M ) stets eine

Äquivalenzrelation. Eine weitere triviale Äquivalenzrelation auf M ist R := M × M .

(ii) Es sei M := R2 \ {(0, 0)}. Für (x1 , y1 ), (x2 , y2 ) ∈ M definieren wir (x1 , y1 ) ∼

(x2 , y2 ) genau dann, wenn (∃λ ∈ R)[x1 = λx2 ∧y1 = λy2 ] (anschaulich: die ”‘Punkte”’

(x1 , y1 ) und (x2 , y2 ) liegen auf einer Geraden durch der Nullpunkt (0, 0)). Dann ist

∼ eine Äquivalenzrelation auf M .

(1) Reflexivität Für jeds (x, y) ∈ M gilt (x, y) ∼ (x, y), denn mit λ = 1 haben wir

x = λx und y = λy.

(2) Symmetrie: Es seien (x1 , y1 ), (x2 , y2 ) ∈ M gegeben mit (x1 , y1 ) ∼ (x2 , y2 ). Dann

existiert nach Definition ein λ ∈ R, so dass gilt

x1 = λx2 ∧ y1 = λy2 . (1.2.1)

Offensichtlich muß λ 6= 0 seien (ansonsten wäre (x1 , y1 ) = (0, 0) im Widerspruch zu

(0, 0) 6∈ M ). Wir setzen λ0 := 1


λ
und erhalten damit aus (1.2.1)

x 2 = λ0 x 1 ∧ y 2 = λ0 y 1 ,
27

also (x2 , y2 ) ∼ (x1 , y1 ).

(3) Transitivität: Es seien (x1 , y1 ), (x2 , y2 ), (x3 , y3 ) ∈ M gegeben, so dass gilt

(x1 , y1 ) ∼ (x2 , y2 ) ∧ (x2 , y2 ) ∼ (x3 , y3 ).

Dann existieren λ, λ0 ∈ R, so dass gilt

(x1 = λx2 ∧ y1 = λy2 ) ∧ (x2 = λ0 x3 ∧ y2 = λ0 y3 ). (1.2.2)

Mit λ00 := λ · λ0 folgt aus (1.2.2) sofort

x1 = λ00 x3 ∧ y1 = λ00 y3 ,

also (x1 , y1 ) ∼ (x3 , y3 ).

(iii) Es sei n ∈ N. Dann definieren wir eine Relation Rn auf Z durch

Rn := {(a, b) ∈ Z × Z : n teilt b − a}

(Für zwei Zahlen l, m ∈ Z, l 6= 0, sagen wir l teilt m in Zeichen l|m, wenn es eine

ganze Zahl k ∈ Z gibt, so dass gilt m = k · l). Dann ist Rn eine Äquivalenzrelation

auf Z:

(1) Reflexivität: Für jedes a ∈ Z ist (a, a) ∈ Rn , dann

0 = a − a = 0 · n,

d.h. n teilt a − a.

(2) Symmetrie: Ist (a, b) ∈ Rn , dann existiert nach Definition eine ganze Zahl

k ∈ Z, so dass gilt

k · n = b − a. (1.2.3)

Setze k 0 := (−k), dann folgt aus (1.2.3) k 0 · n = (−k) · n = a − b, d.h. n teilt a − b.

Damit folgt (b, a) ∈ Rn .


28

(3) Transitivität: Es seien a, b, c ∈ Z gegeben, so dass gilt (a, b), (b, c) ∈ Rn . Dann

existieren nach Definition ganze Zahlen k, k 0 ∈ Z, so dass gilt

kn = b − a ∧ k 0 n = c − b. (1.2.4)

Mit k 00 := k + k 0 folgt aus (1.2.4) k 00 n = kn + k 0 n = (b − a) + (c − b) = c − a, also n

teilt c − a, d.h. (a, c) ∈ Rn .

Schreibweise: Ist n ∈ N und sind a, b ∈ Z ganze Zahlen mit (a, b) ∈ Rn , so schreiben

wir dafür auch a ≡ b (mod n) (a kongruent b modulo n).

1.2.4 Äquivalenzklassen
Definition 1.2.7 (Äquivalenzklassen). Es sei R eine Äquivalenzrelation auf der
Menge M 6= ∅. Für x ∈ M ist die Äquivalenzklasse von x (bzgl. R) definiert
durch
[x]R := {y ∈ M : xRy} = {y ∈ M : (x, y) ∈ R}.

Die Menge aller Äquivalenzklassen von Elementen aus M bezeichnen wir mit M/R

(M modulo R), d. h. wir setzen

M/R := {[x]R ∈ P(M ) : x ∈ M } ⊂ P(M ).

Beispiele 1.2.2: (i) Ist M 6= ∅ eine beliebige Menge und x ∈ M , dann gilt (vgl.

Beispiele 1.2.1 (i))

[x]∆(M ) = {x}, [x]M ×M = M.

Daraus folgt

M/∆(M ) = {{x} ∈ P(M ) : x ∈ M }, M/(M × M ) = {M }.

(ii) Es sei M = R2 \{(0, 0)} und ∼ wie in Beispiele 1.2.1 (ii). Dann gilt für (x, y) ∈ M

[(x, y)]∼ = {(u, v) ∈ M : (∃λ ∈ R)[u = λx ∧ v = λy]}

= {(λx, λy) ∈ M : 0 6= λ ∈ R}.


29

([(x, y)]∼ besteht aus allen Punkten der Geraden durch (0, 0) und (x, y) ohne den

Nullpunkt).

Die Menge aller Äquivalenzklassen M/ ∼ wird auch mit P1 (R) (oder auch P(R2 ))

bezeichnet und heißt 1-dimmsionaler projektiver Raum über R.

(iii) Es sei Rn wie Beispiele 1.2.1 (iii) und a, b ∈ Z. Dann gibt es eindeutig bestimmte

Zahlen q1 , q2 ∈ Z und r1 , r2 ∈ {0, 1, ..., n − 1}, so dass gilt

a = q1 · n + r1 unf b = q2 · n + r2 (Division mit Rest).

Nun gilt

a≡b (mod n) ⇔ (∃k ∈ Z)[b − a = k · n]

⇔ (∃k ∈ Z)[n(q2 − q1 ) + (r2 − r1 ) = k · n]

⇔ (∃k ∈ Z)[r2 − r1 = n(q1 − q2 + k)]

⇔ n teilt r2 − r1 .

Wegen −(n − 1) ≤ r2 − r1 ≤ n − 1, haben wir

a≡b (mod n) ⇔ r1 = r2 .

Daraus erhalten wir: Ist a ∈ Z und sind q ∈ Z, sowie r ∈ {0, 1, ..., n − 1}, so dass gilt

a = q · n + r,

dann folgt

[a]Rn = {b ∈ Z : a ≡ b (mod n)}

= {s · n + r ∈ Z : s ∈ Z} =: r + nZ.
30

Ferner gibt es nur n verschiedene Äquivalenzklassen:

Zn : = Z/Rn = {[0]Rn , [1]Rn , ..., [n − 1]Rn }

= {nZ, 1 + nZ, ..., (n − 1) + nZ}.

Lemma 1.2.8. Es sei R eine Äquivalenzrelation auf der Menge M 6= ∅ und x, y ∈ M .


Dann gilt
xRy ⇔ [x]R = [y]R .
Beweis. ”⇒” Sei z ∈ [x]R beliebig vorgegeben. Dann gilt nach Definition xRz. Aus
xRy folgt wegen der Symmetrie von R

yRx.

Aufgrund der Transitivität von R erhalten wir damit yRz, also z ∈ [y]R . Wir haben
demnach gezeigt:
(∀z)[z ∈ [x]R ⇒ z ∈ [y]R ],
d.h. [x]R ⊂ [y]R . Die Inklusion [y]R ⊂ [x]R wird analog bewiesen.
”⇐” Wegen der Reflexivität von R gilt yRy, also y ∈ [y]R . Zusammen mit [x]R =
[y]R folgt daraus y ∈ [x]R , also xRy.
Definition 1.2.9. Es sei M 6= ∅ eine Menge und M ⊂ P(M ). M heißt Partition
auf M , wenn gilt:
S alle A ∈ M ist A 6= ∅,
(P1) Für
(P2) A∈M A = M ,
(P3) Für alle A, B ∈ M gilt: A ∩ B 6= ∅ ⇒ A = B.
Satz 1.2.10. Es sei M 6= ∅ eine Menge, R ⊂ M × M eine Äquivalenzrelation auf M
und M ⊂ P(M ) eine Partition auf M . Dann gilt.
(i) R(M) := {(x, y) ∈ M × M : (∃A ∈ M)x, y ∈ A} ist eine Äquivalenzrelation auf
M und es gilt
M/R(M) = M.
(ii) M/R ist eine Partition auf M und es gilt

R(M/R) = R.

Beweis. (i) Zu jedem x ∈ M existiert wegen (P2) ein A ∈ M mit x ∈ A, d.h. es gilt
(x, x) ∈ R(M). Damit ist R(M) reflexiv. Die Symmetrie von R(M) ist klar. Seien
nun x, y, z ∈ M gegeben mit

(x, y) ∈ R(M) ∧ (y, z) ∈ R(M).


31

Dann existiert nach Definition A, B ∈ M mit

x, y ∈ A ∧ y, z ∈ B.

Damit gilt insbesondere y ∈ A ∩ B, d, h, A ∩ B 6= ∅. Mit (P3) folgt daraus A = B


und damit
(x, z) ∈ R(M).
Also ist R(M) auch transitiv.
Sei nun x ∈ M beliebig vorgegeben, dann existiert nach (P2) ein A ∈ M mit x ∈ A.
Nach Definition von R(M) folgt daraus unmittelbar A ⊂ [x]R(M) . Anderseits gibt es
zu jedem y ∈ [x]R(M) ein B ∈ M, so dass gilt x, y ∈ B. Daraus folgt x ∈ A ∩ B, also
A ∩ B 6= ∅. Nach (P3)) gilt daher y ∈ B = A. Daraus folgt dann auch die Inklusion
[x]R(M) ⊂ A, also insgesamt [x]R(M) = A ∈ M. Da x ∈ M beliebig war, erhalten wir

M/R(M) ⊂ M.

Ist umgekehrt A ∈ M, dann existiert nach (P1)) ein x ∈ A. Wie oben zeigt man,
dass daraus A = [x]R(M) folgt, d. h. wir erhalten auch die Inklusion

M ⊂ M/R(M).

(ii) Für jedes x ∈ M gilt x ∈ [x]R (Reflexivität). Daraus folgt sofort (P1) und (P2).
Seien nun x, y ∈ M gegeben, so dass gilt

[x]R ∩ [y]R 6= ∅.

Dann existiert z ∈ [x]R ∩ [y]R , d.h. es gilt

xRz und yRz.

Aufgrund der Symmetrie und Transitivität von R folgt daraus xRy, also nach Lemma
1.2.8.
[x]R = [y]R .
Damit ist auch (P3) bewiesen, d. h. M/R ist eine Partition.
Ferner gilt

R(M/R) = {(x, y) ∈ M × M : (∃A ∈ M/R)x, y ∈ A}


= {(x, y) ∈ M × M : (∃z ∈ M )x, y ∈ [z]R }
= {(x, y) ∈ M × M : xRy} = R.
32

1.2.5 Ordnungsrelation
Definition 1.2.11 (Ordnungsrelation). Es sei M eine Menge und R ⊂ M × M
eine Relation auf M . R heißt (partielle) Ordnung, wenn R reflexiv, antisymmetrisch
und transitiv ist. Eine Ordnung R heißt totale (oder auch lineare) Ordnung , wenn
R außerdem alternativ ist.

Beispiele 1.2.3: (i) Für jede Menge M ist die Gleichheitsrelation ∆(M ) eine Ord-

nung auf M .

(ii) Die überliche ≤ Relation (kleiner oder gleich) ist eine totale Ordnung auf dem

Zahlenmengen N, N0 , Z, Q und R.

(iii) Es sei

R := {(n, m) ∈ N × N : n teilt m}.

Dann ist R eine Ordnung auf N. R ist keine totale Ordnung (es gilt weder 2|3 noch

3|2).

(iv) Es sei M eine Menge. Für A, B ∈ P(M ) definieren wir eine Relation R: ARB

genau dann, wenn A ⊂ B. Dann ist R eine Ordnung auf P(M ). Sobald M mehr als

ein Element enthält, ist R keine totale Ordnung. Sind nämlich a, b ∈ M und a 6= b,

so ist weder {a} ⊂ {b} noch {b} ⊂ {a}.


Definition 1.2.12. Es sei ≤ eine partielle Ordnung auf der Menge M und ∅ =
6 A⊂
M.
(i) u ∈ M heißt obere Schranke von A, wenn für alle x ∈ A gilt x ≤ u.
(ii) u0 ∈ M heißt kleinste obere Schranke von A (Supremum von A, in Zeichen
supA), wenn gilt:
(1) u0 ist obere Schranke von A,
(2) Für jede weitere obere Schranke u von A gilt u0 ≤ u.
(iii) m ∈ M heißt maximales Element von M , wenn gilt:

x ∈ M ∧ m ≤ x ⇒ x = m.

Bemerkungen und Beispiele: (i) Die Begriffe untere Schranke, größte untere

Schranke (Infimum), und minimales Element werden in naheliegender Weise analog


33

definiert.

(ii) Das Supremum bzw. Infimum einer Teilmenge A einer partiellen geordneten

Menge M ist eindeutig bestimmt (falls es existiert !). Dagegen sind maximale bzw.

minimale Elemente im allgemeinen nicht eindeutig.

(iii) Es sein die folgenden geordneten Mengen M (d.h. Mengen zusammen mit einer

Ordnungsrelation) und Teilmengen ∅ =


6 A ⊂ M gegeben (dabei sei a eine beliebige

reelle Zahl):

(1) A = M =] − ∞, a[ mit der überlichen ≤ Relation,

(2) A =] − ∞, a[, M = R mit der überlichen ≤ Relation,

(3) A = M =] − ∞, a] mit der überlichen ≤ Relation,

(4) A = M = {p : p ⊂ {1, 2, 3}∧p 6= {1, 2, 3}} = {∅, {1}, {2}, {3}, {1, 2}, {1, 3}, {2, 3}, }

mit der ⊂ Relation,

(5) A = {p : p ⊂ {1, 2, 3} ∧ p 6= {1, 2, 3}}, M = P({1, 2, 3}).

Dann gilt

(1) (2) (3) (4) (5)


supA existiert nein ja ja nein ja
supA ∈ A nein nein ja nein nein
A besitzt max. Element nein nein ja ja ja

In Beispiele (4), (5) sind {1, 2}, {1, 3} und {2, 3} die maximalen Elemente von A.

1.2.6 Abbildungen
Definition 1.2.13. Es seien M, N Mengen und f ⊂ M × N eine Korrespondenz
zwischen M und N . Dann heißt f von M in N , wenn gilt:
(F1) Zu jedem x ∈ M existiert ein y ∈ N , so dass gilt (x, y) ∈ f .
(F2) Für alle x ∈ M und y1 , y2 ∈ N gilt

(x, y1 ) ∈ f ∧ (x, y2 ) ∈ f ⇒ y1 = y2 .
34

Ist f eine Abbildung von M in N , so schreiben wir dafür


f : M → N.

Bemerkungen: (i) Die beiden Bedingungen (F1), (F2) kann man zusammenfassen:

(F3) Zu jedem x ∈ M existiert genau ein y ∈ N , so dass gilt (x, y) ∈ f .

(ii) Anschaulich bedeuten die definierenden Bedingungen, dass für jedes x ∈ M die

Menge {x} × N die Menge f ⊂ M × N in genau einem Punkt schneidet.

(iii) Ist f : M → N eine Abbildung und x ∈ M , dann bezeichnet man das nach (F1)

existierende und nach (F2) eindeutig bestimmte y ∈ N mit der Eigenschaft (x, y) ∈ f

auch mit f (x) (sprich: f an der Stelle x), d.h. wir setzen

y = f (x) :⇔ (x, y) ∈ f.

(iv) Ist für jedes x ∈ M das Bild von x unter der Abbildung f : M → N durch eine

Abbildungsvorschrift f (x) gegeben, so benutzen wir dafür die Schreibweise

f : M → N, x 7−→ f (x),

oder kürzer

f : x ∈ M 7−→ f (x) ∈ N.

(v) Ist f : M → N eine Abbildung, dann heißt M Urbildmenge (oder auch Defi-

nitionsbereich) von f und N Bildmenge von f ; zwei Abbildungen f : M → N, g :

M 0 → N 0 sind genau dann gleich, wenn gilt M = M 0 , N = N 0 und

f (x) = g(x) für alle x ∈ M = M 0 .

Beispiele: (i) M = {0, 1, 2, 3}, N = Z und

f = {(0, 0), (1, 1), (2, 8), (3, 27)}.


35

Dann ist f eine Abbildung von M in N . Ist der Definitionsbereich M einer Abbildung

f : M → N endlich, so bietet sich eine Wertetabelle an:


x 0 1 2 3
f (x) 0 1 8 27
Im vorliegenden Fall kann man f auch durch eine Abbildungsvorschrift angeben:

f : x ∈ {0, 1, 2, 3} → x3 ∈ Z.

m
(ii) Es sei f die Menge aller Paare (x, y) ∈ Q × N, die jeder rationalen Zahl x = n

(m ∈ Z, n ∈ N) ihren Nenner y = n zuordnet, d.h. wir setzen


m
f := {( , n) ∈ Q × N : m ∈ Z ∧ n ∈ N}.
n
Dann ist f keine Abbildung. Zwar besitzt jede rationale Zahl x einen Nenner y, aber

dieser ist nicht eindeutig. Es gilt z. B. ( 12 , 2), ( 24 , 4) ∈ f , aber 1


2
= 24 .

(iii) f : {(x, y) ∈ R × [0, +∞[: x = y 2 } ist keine Abbildung, da es zu x = −1 kein

y ∈ [0, +∞[ gibt mit (x, y) ∈ f .

(iv) Die Betragsfunktion


(
x, x ≥ 0,
f : x ∈ R 7−→
−x, x < 0
ist eine Abbildung f : R → R.

(v) Für jede Menge M ist ∆(M ) eine Abbildung, die sogenannte identische Abbil-

dung auf M (kürz: Identität auf M ). Wir bezeichnen die Identität auf M auch mit

idM ; es gilt also

idM : x ∈ M 7−→ x ∈ M.
Satz 1.2.14. Es seien K, L, M, N Mengen und f : K → L, g : L → M, h : M → N
Abbildungen. Dann gilt
(i) Die Komposition g ◦ f ist ebenfalls eine Abbildung und es gilt für alle x ∈ K
(g ◦ f )(x) = g(f (x)).
36

(ii) idL ◦ f = f ◦ idK = f.


(iii) h ◦ (g ◦ f ) = (h ◦ g) ◦ f.

Beweis. (i) Es sei x ∈ K beliebig vorgegeben. Dann existiert genau ein y ∈ L,


nämlich y = f (x), so dass gilt (x, y) ∈ f . Zu diesem y existiert ferner genau ein
z ∈ M , nämlich z = g(y), so dass gilt (y, z) ∈ g. Also existiert zu x ∈ K genau ein
z ∈ M mit (x, z) ∈ g ◦ f , nämlich

z = g(y) = g(f (x)).

(ii), (iii) folgen sofort aus Satz 1.2.3. (ii), (iv).


Beispiel: Es sei f : x ∈ R 7−→ x2 ∈ [0, +∞[ und g : y ∈ [0, +∞[7−→ y ∈ R. Dann

gilt

f ◦ g : y ∈ [0, +∞[7−→ f (g(y)) = ( y)2 = y ∈ [0, +∞[,

d.h. f ◦ g = id[0,+∞[ . Anderseits gilt


g ◦ f : x ∈ R 7−→ g(f (x)) = x2 = |x| ∈ R.

1.2.7 Eigenschaften von Abbildungen


Definition 1.2.15. Es sei f : M → N eine Abbildung.
(i) f heißt injektiv, wenn für alle x1 , x2 ∈ M gilt

x1 6= x2 ⇒ f (x1 ) 6= f (x2 ).

(ii) f heißt surjektiv, wenn es zu jedem y ∈ N mindestens ein x ∈ M gibt mit


y = f (x).
(iii) f heißt bijektiv, wenn f injektiv und surjektiv ist.

Bemerkungen: (i) Die Injektivität einer Abbildung f : M → N bedeutet an-

schaulich, dass für jedes y ∈ N die Menge M × {y} die Menge f ⊂ M × N in

höchstens einen Punkt schneidet.

(ii) Die Surjektivität einer Abbildung f : M → N bedeutet anschaulich, dass für

jedes y ∈ N die Menge M × {y} die Menge f ⊂ M × N in mindestens einen Punkt


37

schneidet.

(iii) Die Bijektivität einer Abbildung f : M → N bedeutet anschaulich, dass jedes

y ∈ N die Menge M × {y} die Menge f ⊂ M × N in genau einen Punkt schneidet.

Beispiele: (i) Die Abbildung f : x ∈ R 7−→ x2 ∈ R ist weder injektiv noch surjektiv.

(ii) Die Abbildung g : x ∈ Z 7−→ 3x ∈ Z ist injektiv. g ist aber nicht surjektiv.

(iii) Es sei M 6= ∅ eine Menge und R ⊂ M × M eine Äquivalenzrelation auf M . Dann

ist die sogenannte kanonische Projektion

p : x ∈ M 7−→ [x]R ∈ M/R

nach Definition von M/R surjektiv. p ist genau dann injektiv, wenn gilt R = ∆(M ).
Satz 1.2.16. Es seien f : L → M, g : M → N Abbildungen. Dann gilt:
(i) Aus der Injektivität von f, g folgt die Injektivität von g ◦ f .
(ii) Aus der Surjektivität von f, g folgt die Surjektivität von g ◦ f .
(iii) Aus der Bijektivität von f, g folgt die Bijektivität von g ◦ f .
Beweis. (i) Es seien x1 , x2 ∈ L gegeben, so dass gilt
(g ◦ f )(x1 ) = g(f (x1 )) = g(f (x2 )) = (g ◦ f )(x2 ).
Da g injektiv ist, folgt daraus
f (x1 ) = f (x2 ).
Mit der Injektivität von f schließen wir daraus
x1 = x2 .
(ii) Es sei z ∈ N beliebig vorgegeben. Da g surjektiv ist, gibt es ein y ∈ M , so dass
gilt
z = g(y). (1.2.5)
Die Surjektivität von f sichert zudem die Existenz eines x ∈ L mit
y = f (x).
Zusammen mit (1.2.5) erhalten wir also
z = g(f (x)) = (g ◦ f )(x).
38

Satz 1.2.17. Es sei f : M → N eine Abbildung. Dann sind folgende Aussagen


äquivalent:
(i) f ist bijektiv,
(ii) Die inverse Korrespondenz f −1 ist eine Abbildung N → M und es gilt

f ◦ f −1 = idN ∧ f −1 ◦ f = idM ,

(iii) Es existiert eine Abbildung g : N → M mit

f ◦ g = idN ∧ g ◦ f = idM .

Bemerkungen: (i) Ist f : M → N bijektiv, so heißt die Abbildung f −1 : N → M

Umkehrabbildung von f oder auch inverse Abbildung von f .

(ii) Zu f : M → N gibt es höchstens eine Abbildung g : N → M mit f ◦ g = idN

und g ◦ f = idM . Ist nämlich auch g̃ : N → M eine Abbildung mit f ◦ g̃ = idN und

g̃ ◦ f = idM , dann folgt

g̃ = g̃ ◦ idN = g̃ ◦ (f ◦ g) = (g̃ ◦ f ) ◦ g

= idM ◦ g = g.

Beweis von Satz 1.2.17. ”(i)⇒ (ii)” Offenbar ist f −1 bijektiv. So ist nach Satz 1.2.16
(iii) f −1 ◦ f auch bijektiv. Sei nun (x, y) ∈ f −1 ◦ f . So existiert ein z ∈ N mit

(x, z) ∈ f ∧ (z, y) ∈ f −1 .

Daher gilt
(x, z) ∈ f ∧ (y, z) ∈ f.
Aus der Bijektivtät von f folgt x = y. Also f −1 ◦ f = idM . Wegen (f −1 )−1 = f (vgl.
Satz 1.2.3 (i)), haben wir auch f ◦ f −1 = idN .
”(ii) ⇒ (iii)” ist trivial (setze g := f −1 ).
”(iii) ⇒ (i)” Sei (y, y) ∈ f ◦ g. So existiert z mit (y, z) ∈ g und (z, y) ∈ f . Da
y ∈ N beliebig ist, ist f nach der Definition surjektiv. Seien (x, x), (x0 , x0 ) ∈ g ◦ f .
So existieren z, z 0 mit (x, z) ∈ f, (z, x) ∈ g, (x0 , z 0 ) ∈ f und (z 0 , x0 ) ∈ g. Ist x 6= x0 , so
muß f (x) = z 6= z 0 = f (x0 ) seien, denn z = z 0 folgt x = g(z) = g(z 0 ) = x0 . Also ist f
auch injektiv. Damit ist f insgesamt bijektiv.
39

Definition 1.2.18. Es sei f : M → N eine Abbildung und A ⊂ M, B ⊂ N .


(i) Das Bild von A unter der Abbildung f ist die Menge

f (A) := {y ∈ N : (∃x ∈ A)y = f (x)}


= {f (x) ∈ N : x ∈ A}.

Insbesondere nennt man f (M ) die Wertemenge der Abbildung f .


(ii) Das Urbild von B unter der Abbildung f ist die Menge

f −1 (B) := {x ∈ M : (∃y ∈ B)y = f (x)}


= {x ∈ M : f (x) ∈ B}.

(iii) Die Restriktion (Einschränkung) von f auf A ist die Abbildung

f |A : A → N, x 7−→ (f |A )(x) := f (x).

Bemerkungen und Beispiele: (i) Eine Abbildung f : M → N ist genau dann

surjektiv, wenn die Wertemenge f (M ) von f mit N übereinstimmt, d.h. wenn gilt

f (M ) = N.

(ii) Ist f : M → N bijektiv, g := f −1 die Umkehrabbildung von f und B ⊂ N , dann

stimmt das Bild von B unter g mit dem Urbild von B unter f überein, d.h. es gilt

f −1 (B) = g(B).

(iii) Für jede Abbildung f : M → N gilt f −1 (N ) = M .

(iv) Es sei f : x ∈ Z 7−→ x2 ∈ Z. Dann gilt

f ({−3, −2, −1, 0, 1, 2, 3}) = {0, 1, 4, 9},

f ({0, 1, 2, 3}) = {0, 1, 4, 9},

f −1 ({4}) = {−2.2},

f −1 ({5, 6, 7, 8}) = ∅.
40

(v) Es sei f : (x, y) ∈ R2 7−→ x + y ∈ R. Dann gilt

f (R × {0}) = f ({0} × R) = R,

f −1 ({0}) = {(x, y) ∈ R2 : x + y = 0} = {(x, y) ∈ R2 : y = −x},

f −1 (] − ∞, 0]) = {(x, y) ∈ R2 : x + y ≤ 0} = {(x, y) ∈ R2 : y ≤ −x}.


Kapitel 2

Algebraische Strukturen

2.1 Gruppen
Definition 2.1.1. Es sei H eine Menge.
(i) Unter einer Verknüpfung ◦ auf H verstehen wir eine Abbildung
◦ : (a, b) ∈ H × H 7−→ a ◦ b ∈ H.
(ii) Eine Verknüpfung ◦ auf H heißt assoziativ, wenn für alle a, b, c ∈ H gilt
(a ◦ b) ◦ c = a ◦ (b ◦ c). (2.1.1)
Eine Menge H zusammen mit einer assoziativen Verknüpfung ◦ auf H heißt Halb-
gruppe.

Beispiele 2.1.1: (i) Es sei H = {0, 1, 2, 3}. Für a, b ∈ H definieren wir a◦b := a+b.

Dann ist ◦ keine Verknüpfung auf H (denn 2 ◦ 2 = 2 + 2 = 4 6∈ H).

(ii) Es sei H := Q \ {0}. Für a, b ∈ H definieren wir


a
a ◦ b := .
b
Dann ist ◦ eine Verknüpfung auf H. ◦ ist nicht assoziativ (denn für a = b = 1 und
1
c = 2 gilt: a ◦ (b ◦ c) = 2 6= 2
= (a ◦ b) ◦ c ).

(iii) Es sei M eine Menge und H die Menge aller Abbildungen f : M → M . Als

Verknüpfung betrachten wir die übliche Komposition ◦ von Abbildungen, also

(f, g) ∈ H × H 7−→ f ◦ g ∈ H.

41
42

Dann ist H zusammen mit ◦ eine Halbgruppe (siehe Satz 1.2.14).

(iv) Die übliche Addition und Multiplikation von Zahlen sind assoziative Verknüpfungen

auf den Zahlenmengen N, N0 , Z, Q, R und C.


Definition 2.1.2. Es sei G eine Halbgruppe bzgl. der assoziativen Verknüpfung ◦ :
G × G → G. Dann heißt das Paar (G, ◦) Gruppe, wenn gilt:
(G1) Es existiert ein (links-)neutrales Element e ∈ G, so dass gilt

e ◦ a = a für alle a ∈ G.

(G2) Zu jedem a ∈ G existiert ein (links-)inverses Element a0 ∈ G, so dass gilt

a0 ◦ a = e.

Bemerkung: Wenn klar ist, um welche Verknüpfung es sich handelt, spricht man

einfach von der Gruppe G anstatt (G, ◦). Für g, h ∈ G schreibt man dann auch

gh := g ◦ h.

Beispiele 2.1.2: (i) Beispiele für Gruppen sind:

(Z, +) mit e = 0 und a0 = −a (a ∈ Z),

(Q, +) mit e = 0 und a0 = −a (a ∈ Q),

(R, +) mit e = 0 und a0 = −a (a ∈ R),

(Q \ {0}, ·) mit e = 1 und a0 = 1


a
(a ∈ Q \ {0}),

(R \ {0}, ·) mit e = 1 und a0 = 1


a
(a ∈ R \ {0}).

Dagegen sind (N0 , +), (N, +), (Z \ {0}, ·) keine Gruppen.

(ii) Es sei n ∈ N und Zn die Menge aller Restklassen modulo n (vgl. Beispiel 1.2.2

(iii)). Für a ∈ Z definieren wir

[a]n := {b ∈ Z : b ≡ a (mod n)} ∈ Zn .

So werden durch

[a]n + [b]n := [a + b]n , [a]n · [b]n := [a · b]n , (a, b ∈ Z)


43

Verknüpfungen auf Zn definiert. Es gilt für a, b ∈ Z:

([a]n + [b]n ) + [c]n = [a + b]n + [c]n = [(a + b) + c]n

= [a + (b + c)]n = [a]n + [b + c]n

= [a]n + ([b]n + [c]n ),

([a]n · [b]n ) · [c]n = [a · b]n · [c]n = [(a · b) · c]n

= [a · (b · c)]n = [a]n · [b · c]n

= [a]n · ([b]n · [c]n ).

Damit sind (Zn , +) und (Zn , ·) Halbgruppen. (Zn , +) ist sogar eine Gruppe, denn es

gilt für alle a ∈ Z

[0]n + [a]n = [0 + a]n = [a]n

und

[−a]n + [a]n = [−a + a]n = [0]n ,

d.h. [0]n ist ein neutrales Element für (Zn , +) und [−a]n ist ein inverses Element zu

[a]n ∈ Zn . Dagegen ist (Zn \ {[0]n }, ·) im allgemeinen keine Gruppe (näheres dazu

später).

(iii) Es sei M 6= ∅ eine Menge und S(M ) die Menge alle bijektiven Abbildungen

σ : M → M . Dann ist S(M ) zusammen mit der üblichen Komposition von Abbil-

dungen eine Gruppe (Sätze 1.2.16, 1.2.14. (ii), (iii) und 1.2.17 (ii)) mit dem neutrales

Element idM . S(M ) ist die sogenannte Permutationsgruppe von M (die Ele-

mente von S(M ) heißen auch Permutationen von M ). Speziell bezeichnen wir die

Permutationsgruppe der Menge M = {1, 2, ..., n} (n ∈ N) mit Sn , d.h.

Sn := S({1, 2, ..., n}).


44

Für σ ∈ Sn benutzen wir die Schreibenweise


!
1 2 ··· n
σ= .
σ(1) σ(2) · · · σ(n)

So besteht z. B. die Gruppe S3 aus den Elementen:


! ! !
1 2 3 1 2 3 1 2 3
σ0 = , σ1 = , σ2 = ,
1 2 3 2 3 1 3 1 2
! ! !
1 2 3 1 2 3 1 2 3
τ1,2 = , τ1,3 = , τ2,3 = .
2 1 3 3 2 1 1 3 2

σ1 : Drehung um 3
gegen den Uhrzeigersinn,

σ2 : Drehung um 3
gegen den Uhrzeigersinn,

τ1,2 : Spiegelung an der c-Achse,

τ1,3 : Spiegelung an der b-Achse,

τ2,3 : Spiegelung an der a-Achse.

Wir haben z. B.
! !
1 2 3 1 2 3
τ1,3 ◦ τ1,2 = = σ1 , τ1,2 ◦ τ1,3 = = σ2 ,
2 3 1 3 1 2

d.h. in der Gruppe S3 ist die Reihenfolge der Operanden durchaus von Belang.

2.1.1 Abelsche Gruppen


Definition 2.1.3. Eine Gruppe (G, ◦) heißt abelsche1 (oder auch Kommutative)
Gruppe, wenn die Verknüpfung ◦ kommutativ ist, d.h. für alle g, h ∈ G gilt
(K) g ◦ h = h ◦ g.

Bemerkung: Ist G eine abelsche Gruppe, so benutzt man häufig das + Zeichen als

Verknüpfungssymbol (an Stelle des ◦).


1
Niels Henrik Abel, 1802-1829
45

Lemma 2.1.4. Es sei G eine Gruppe mit (links-)neutrales Element e ∈ G. Dann


gilt:
(i) Ist a ∈ G und a0 ∈ G gegeben mit a0 ◦ a = e, dann gilt auch a ◦ a0 = e, d.h. jedes
linksinverse Element ist auch rechtsinverse.
(ii) Es gilt für alle a ∈ G
a ◦ e = a,
d.h. linksneutrale Elemente sind auch rechtsneutrale Elemente.
Beweis. (i) Es seien a, a0 ∈ G gegeben mit a0 ◦ a = e. Zu a0 gibt es nach (G2) ein
a00 ∈ G mit
a00 ◦ a0 = e.
Damit folgt (vgl. (G1))

a ◦ a0 = e ◦ (a ◦ a0 ) = (e ◦ a) ◦ a0 = ((a00 ◦ a0 ) ◦ a) ◦ a0
= (a00 ◦ (a0 ◦ a)) ◦ a0 = (a00 ◦ e) ◦ a0 = a00 ◦ (e ◦ a0 )
= a00 ◦ a0 = e.

(ii) Sei a ∈ G beliebig vorgegeben. Dann existiert nach (G2) ein a0 ∈ G mit a0 ◦ a = e.
Damit folgt
a ◦ e = a ◦ (a0 ◦ a) = (a ◦ a0 ) ◦ a = e ◦ a = a.

Folgerung 2.1.5. Es sei G eine Gruppe. Dann gilt:


(i) Das neutrale Element e ∈ G ist eindeutig bestimmt.
(ii) Ist a ∈ G, so ist das inverse Element a0 ∈ G von a eindeutig bestimmt. So
a−1 := a0 .
(iii) Für jedes a ∈ G gilt
(a−1 )−1 = a.
Beweis. (i) Ist e0 ∈ G ein weiteres (links-)neutrales Element, dann folgt nach Lemma
2.1.4 (ii):
e = e0 ◦ e = e0 .
(ii) Ist ã ∈ G ein weiteres (links-)inverses Element zu a ∈ G, dann folgt nach Lemma
2.1.4
a0 = e ◦ a0 = (ã) ◦ a ◦ a0 = ã ◦ e = e ◦ ã = ã.
(iii) Für jedes a ∈ G gilt nach Lemma 2.1.4 (i)

a ◦ a−1 = e,

also folgt aus (ii): a = (a−1 )−1 .


46

Satz 2.1.6. Es sei G 6= ∅ und ◦ : G × G → G eine assoziative Verknüpfung auf G.


Dann sind die folgende zwei Behauptungen äquivalent:
(i) (G, ◦) ist eine Gruppe.
(ii) Für alle g, h ∈ G besitzen die Gleichungen

(1) g ◦ x = h, (2) y ◦ g = h

Lösungen x bzw. y in G.

Beweis. ”(i) ⇒ (ii)” Für beliebige g, h ∈ G setze x := g −1 ◦ h und y := h ◦ g −1 .


Dann löst x die Gleichung (1) und y die Gleichung (2).
”(ii) ⇒ (i)” Nach Voraussetzung ist (G, ◦) bereits eine Halbgruppe. Wegen G 6= ∅
existiert ein g0 ∈ G. Die Lösbarkeit von (2) für beliebige g, h ∈ G liefert mit g :=
g0 =: h ein y0 ∈ G mit
y0 ◦ g0 = g0 . (2.1.2)
Sei nun g ∈ G beliebig vorgegeben, dann existiert nach Voraussetzung ein x ∈ G mit
g0 ◦ x = g. Daraus folgt
(2.1.2)
y0 ◦ g = y0 ◦ (g0 ◦ x) = (y0 ◦ g0 ) ◦ x = g0 ◦ x = g.

Also ist y0 ein linksneutrale Element in G. Setze e := y0 .


Die Existenz linksinverser Elemente ist sofort durch (2) gesichert (mit h := e).

2.1.2 Verknüpfungstafeln

Es sei G = {g1 , ..., gn } eine n-elementige Menge und ◦ : G × G → G eine Verknüpfung

auf G. Dann kann man die endlich vielen ” Produkte” hν,µ := gν ◦ gµ , 1 ≤ ν, µ ≤ n

in einer sogenannten Verknüpfungstafel zusammenfassen

◦ g1 g2 ··· gµ ··· gn
g1 h1,1 h1,2 ··· h1,µ ··· h1,n
g2 h2,1 h2,2 ··· h2,µ ··· h2,n
.. .. .. .. ..
. . . . .
gν hν,1 hν,2 ··· hν,µ ··· hν,n
.. .. .. ..
. . . .
gn hn,1 hn,2 ··· hn,µ ··· hn,n
47

Ist (G, ◦) eine Gruppe, so nennt man die Verknüpfungstafel von ◦ auch Grup-

pentafel.

Folgerung 2.1.7. Es sei ∅ 6= G = {g1 , ..., gn } eine n-elementige Menge und ◦ :


G × G → G eine assoziative Verknüpfung auf G. Dann sind die folgende zwei Be-
hauptungen äquivalent:
(i) (G, ◦) ist eine Gruppe.
(ii) In jeder Zeile und in jeder Spalte der Verknüpfungstafel von ◦ tritt jedes Element
von G genau einmal auf.

Beispiele: (i) Wir betrachten die Verknüpfungstafeln von (Z3 , +) und (Z3 , ·):

+ [0]3 [1]3 [2]3


[0]3 [0]3 [1]3 [2]3
[1]3 [1]3 [2]3 [0]3
[2]3 [2]3 [0]3 [1]3

· [0]3 [1]3 [2]3


[0]3 [0]3 [0]3 [0]3
[1]3 [0]3 [1]3 [2]3
[2]3 [0]3 [2]3 [1]3

Also sind (Z3 , +) und (Z3 \ {[0]3 }, ·) Gruppen. Dagegen ist (Z3 , ·) keine Gruppe.

(ii) Wir betrachten die Verknüpfungstafeln von (Z4 , +) und (Z4 , ·). Für 0 ≤ k ≤ 3

setze gk := [k]4 :

+ g0 g1 g2 g3
g0 g0 g1 g2 g3
g1 g1 g2 g3 g0
g2 g2 g3 g0 g1
g3 g3 g0 g1 g2
48

· g0 g1 g2 g3
g0 g0 g0 g0 g0
g1 g0 g1 g2 g3
g2 g0 g2 g0 g2
g3 g0 g3 g2 g1

Also ist (Z4 , +) eine Gruppe. Dagegen ist weder (Z4 , ·) noch (Z4 \ {[0]4 }, ·) eine

Gruppe.

(iii) Mit den Bezeichnungen aus Beispiele 2.1.2 (iii) gilt für die Gruppe (S3 , ◦):

◦ σ0 σ1 σ2 τ1,2 τ1,3 τ2,3


σ0 σ0 σ1 σ2 τ1,2 τ1,3 τ2,3
σ1 σ1 σ2 σ0 τ1,3 τ2,3 τ1,2
σ2 σ2 σ0 σ1 τ2,3 τ1,2 τ1,3
τ1,2 τ1,2 τ2,3 τ1,3 σ0 σ2 σ1
τ1,3 τ1,3 τ1,2 τ2,3 σ1 σ0 σ2
τ2,3 τ2,3 τ1,3 τ1,2 σ2 σ1 σ0

2.1.3 Untergruppen
Definition 2.1.8. Es sei (G, ◦) eine Gruppe und U ⊂ G. U heißt Untergruppe
von G, wenn (U, ◦) selbst wieder eine Gruppe ist (in Zeichen: U < G).
Eie Untergruppe U < G heißt Normalteiler von G, wenn gilt

gU = U g für alle g ∈ G

(in Zeichen: U / G). Dabei ist die sogenannte Linksnebenklasse gU von g ∈ G


definiert durch
gU := {g ◦ u ∈ G : u ∈ U }
und entsprechend die Rechtsnebenklasse U g von g ∈ G definiert durch

U g := {u ◦ g ∈ G : u ∈ U }.

Bemerkungen und Beispiele: (i) Ist G eine abelsche Gruppe, so ist jede Unter-

gruppe auch ein Normalteiler.


49

(ii) Ist G eine beliebige Gruppe mit neutralem Element e, so sind {e} und G Nor-

malteiler von G.

(iii) Für jedes n ∈ N0 ist (nZ, +) ein Normalteiler von (Z, +).

(iv) Es gilt

(Z, +) / (Q, +) / (R, +)

und

(Q \ {0}, ·) / (R \ {0}, ·).

(iv) Mit den Bezeichnungen aus Beispiele 2.1.2 (iii) gilt

{σ0 , σ1 , σ2 } / S3 ,

{σ0 , τj,k } < S3 für 1 ≤ j < k ≤ 3.

Für 1 ≤ j < k ≤ 3 ist {σ0 , τj,k } aber kein Normalteiler von S3 .

Satz 2.1.9. Es sei G eine Gruppe und ∅ =6 U ⊂ G. Dann sind (i) und (ii) äquivalent.
(i) U ist eine Untergruppe von G.
(ii) Für alle g, h ∈ U gilt
g −1 · h ∈ U.

Beweis. ”(i) ⇒ (ii)” ist klar.


”(ii) ⇒ (i)” Wegen U 6= ∅, existiert g0 ∈ U . Damit folgt aus (ii) (mit h := g0 )

e = g0−1 · g0 ∈ U,

d.h. U besitzt ein neutrales Element. Ferner gilt für alle g ∈ U

g −1 = g −1 · e ∈ U,

also besitzt jedes Element g ∈ U ein inverses Element g −1 ∈ U .

Definition 2.1.10. Es seien G und H Gruppen. Eine Abbildung ϕ : G → H heißt


(Gruppen-)Honomorphismus, wenn für alle a, b ∈ G gilt

ϕ(a · b) = ϕ(a) · ϕ(b).


50

Bezeichnungen: Es sei ϕ : G → H ein Homomorphismus.

(i) ϕ heißt Monomorphismus, falls ϕ injektiv ist.

(ii) ϕ heißt Epimorphismus, falls ϕ surjektiv ist.

(iii) ϕ heißt Endomorphismus, falls G = H.

(iv) ϕ heißt Isomorphismus, falls ϕ bijektiv ist. In diesem Fall schreibt man

G∼
= H (G ist isomophismus zu H).

(v) ϕ heißt Automorphismus, falls ϕ bijektiv ist und G = H.

Beispiele 2.1.3: (i) Es sei n ∈ N0 und

ϕ1 : a ∈ Z 7−→ n · a ∈ Z.

Dann ist ϕ1 ein Endomorphismus auf (Z, +), denn für alle a, b ∈ Z gilt

ϕ1 (a + b) = n(a + b) = na + nb = ϕ1 (a) + ϕ1 (b).

(ii) Es sei n ∈ N0 und

ϕ2 : a ∈ Z 7−→ [a]n ∈ Zn .

Dann ist ϕ2 ein Epimorphismus von (Z, +) auf (Zn , +), denn für alle a, b ∈ Z gilt

ϕ2 (a + b) = [a + b]n = [a]n + [b]n = ϕ2 (a) + ϕ2 (b).

(iii) Es sei a ∈ R \ {0, −1, 1} und

ϕ3 : n ∈ Z 7−→ an ∈ R \ {0}.

Dann ist ϕ3 ein Monomorphismus von (Z, +) in (R \ {0}, ·).

(iv) Es sei R+ :=]0, +∞[ und

ϕ4 : x ∈ R+ 7−→ ln(x) ∈ R.
51

Dann ist ϕ4 ein Isomorphismus von (R+ , ·) auf (R, +).

2.1.4 Abbildungen in Gruppen


Definition 2.1.11. Es seien G, H Gruppen und ϕ : G → H ein Homomorphismus.
Dann heißt
Ker ϕ := {g ∈ G : ϕ(g) = e0 }
Kern von ϕ, und
Im ϕ := {ϕ(g) ∈ H : g ∈ G} = ϕ(G)
Bild von ϕ.
Lemma 2.1.12. Es seien G, H Gruppen mit den neutralen Elementen e ∈ G bzw.
e0 ∈ H und ϕ : G → H ein Homomorphismus. Dann gilt
(i) ϕ(e) = e0 ,
(ii) ϕ(g −1 ) = (ϕ(g))−1 , für alle g ∈ G,
(iii) Ker ϕ ist ein Normalteiler von G, d.h.
Ker ϕ / G.
(iv) Im ϕ ist eine Untergruppe von H, d.h.
Im ϕ < H.
Beweis. (i) Es gilt
(G1)
ϕ(e) = ϕ(e · e) = ϕ(e) · ϕ(e).

(G2)
e0 = (ϕ(e))−1 ϕ(e) = (ϕ(e))−1 (ϕ(e) · ϕ(e))
(G2) (G1)
= ((ϕ(e))−1 · ϕ(e))ϕ(e) = e0 · ϕ(e) = ϕ(e).
(ii) Sei g ∈ G beliebig vorgegeben, dann gilt
(i) (G2)
e0 = ϕ(e) = ϕ(g −1 · g) = ϕ(g −1 ) · ϕ(g).
Daraus folgt nach Folgerung 2.1.5 (ii)
ϕ(g −1 ) = (ϕ(g))−1 .
(iii) Nach (i) gilt Ker ϕ 6= ∅. Ferner folgt für a, b ∈ Ker ϕ
(ii)
ϕ(a−1 · b) = ϕ(a−1 )ϕ(b) = (ϕ(a))−1 · ϕ(b)
= e0 · e0 = e0 ,
52

d.h. mit a, b ∈ Ker ϕ ist auch a−1 · b ∈ Ker ϕ. Nach Satz 2.1.9 gilt daher

Ker ϕ < G.

Ferner gilt für jedes g ∈ G

a ∈ g · Ker ϕ ⇔ g −1 a ∈ Ker ϕ
2.1.11
⇔ ϕ(g −1 a) = ϕ(g −1 )ϕ(a) = e0
2.1.4(i)
⇔ ϕ(a)ϕ(g −1 ) = ϕ(ag −1 ) = e0
2.1.11
⇔ a · g −1 ∈ Ker ϕ
⇔ a ∈ ( Ker ϕ) · g,

Damit gilt auch


Ker ϕ / G.
(iv) Wegen e0 = ϕ(e) gilt Im ϕ 6= ∅. Seien u, v ∈ Im ϕ beliebig vorgegeben. Dann
existieren a, b ∈ G, so dass gilt

u = ϕ(a) und v = ϕ(b).

Mit a, b ∈ G ist auch a−1 b ∈ G also


(ii)
u−1 · v = ϕ(a)−1 ϕ(b) = ϕ(a−1 b) ∈ Im ϕ.

Nach Satz 2.1.9 ist daher Im ϕ eine Untergruppe von H.

Beispiele 2.1.4: (siehe auch Beispiele 2.1. 3 (i)-(iv))

(i) Für ϕ1 : a ∈ Z 7−→ n · a ∈ Z gilt


(
Z, falls n = 0,
Ker ϕ1 =
{0}, falls n > 0

und

Im ϕ1 = n · Z = {n · a ∈ Z : a ∈ Z}.

(ii) Für ϕ2 : a ∈ Z 7−→ [a]n ∈ Zn gilt

Ker ϕ2 = nZ = {n · a ∈ Z : a ∈ Z}, Im ϕ2 = Zn .
53

(iii) Für ϕ3 : n ∈ Z 7−→ an ∈ R \ {0} (a ∈ R \ {0}) gilt

Ker ϕ3 = {0}, Im ϕ3 = {an ∈ R \ {0} : n ∈ Z}.

iv) Für ϕ4 : x ∈ R+ 7−→ ln(x) ∈ R gilt

Ker ϕ3 = {1}, Im ϕ3 = R.
Satz 2.1.13. Es seien G, H Gruppen und ϕ : G → H ein Homomorphismus. Dann
sind äquivalent:
(i) ϕ ist injektiv (d.h. ϕ ist Monomorphismus),
(ii) Ker ϕ = {e}.
Beweis. ”(i) ⇒ (ii)” ist klar.
”(ii) ⇒ (i)” Seien a, b ∈ G gegeben, so dass gilt
ϕ(a) = ϕ(b),
dann folgt daraus
2.1.12
e0 = ϕ(a)−1 · ϕ(b) = ϕ(a−1 · b),
also wegen Ker ϕ = {e} ist a−1 b = e. Daher a = b.
Satz 2.1.14. Es seien F, G und H Gruppen , sowie ϕ : F → G, ψ : G → H Homo-
morphismus. Dann gilt
(i) ψ ◦ ϕ : F → H ist ebenfalls ein Homomorphismus.
(ii) Ist ϕ bijektiv (also ein Isomorphismus), so ist auch ϕ−1 : G → F ein Homomor-
phismus (sogar Isomorphismus).
Beweis. (i) Für all a, b ∈ F gilt
(ψ ◦ ϕ)(a · b) = ψ(ϕ(a · b)) = ψ(ϕ(a) · ϕ(b))
= ψ(ϕ(a))ψ(ϕ(b)) = (ψ ◦ ϕ)(a) · (ψ ◦ ϕ)(b).
(ii) Es sei u, v ∈ G beliebig vorgegeben. Dann existieren a, b ∈ F , so dass gilt
u = ϕ(a) und v = ϕ(b).
Also
a = ϕ−1 (u) und b = ϕ−1 (v).
Damit folgt
ϕ−1 (uv) = ϕ−1 (ϕ(a) · ϕ(b)) = ϕ−1 (ϕ(a · b))
= a · b = ϕ−1 (u) · ϕ−1 (v).
54

2.2 Ringe und Körper


2.2.1 Ringe und Unterringe
Definition 2.2.1 (Ring). (i) Ein Ring ist ein Tripel (R, +, ·) bestehend aus einer
Menge R und zwei Verknüpfungen auf R

+ : R × R → R, und · : R × R → R,

so dass gilt

(R1) (R, +) ist eine abelsche Gruppe,


(R2) (R, ·) ist eine Halbgruppe,
(R3) Für alle a, b, c ∈ R gelten die Distributivgesetze
(D1) a · (b + c) = a · b + a · c,
(D2) (a + b) · c = a · c + b · c.
(ii) Ein Ring (R, +, ·) heißt Ring mit Eins, wenn es ein Einselement η ∈ R
gibt, so dass für alle a ∈ R gilt

η · a = a · η = a.

(iii) Ein Ring (R, +, ·) heißt kommutativer Ring, wenn die Multiplikation · kom-
mutativ ist, d.h. für alle a, b ∈ R gilt

a · b = b · a.

Bemerkungen: (i) Wie schon bei den Gruppen, unterdrucken wir meistens die

ausfühliche Notation, und sprechen einfach von einem Ring R anstatt (R, +, ·).

(ii) Das neutrale Element der Gruppe (R, +) eines Ringes R bezeichnen wir mit 0R

oder auch einfach mit 0. Ist R ein Ring mit Eins, so ist das Einselement eindeutig

bestimmt und wird mit 1R oder auch einfach mit 1 bezeichnet.

Beispiele 2.2.1: (i) Es sei R = {o} eine einelementige Menge mit den trivialen

Verknüpfungen

o + o = o und o · o = o.
55

Dann ist (R, +, ·) ein kommutativer Ring mit Eins (Es gilt also ”1 = o”).

(ii) (Z, +, ·), (Q, +, ·) , (R, +, ·) und (C, +, ·) sind weitere kommutative Ring mit

Eins.

(iii) Für n ∈ N0 ist (Zn , +, ·) mit der in Aufgabe 15 definierten Verknüpfungen +

und · ein kommutativer Ring mit Eins.

(iv) Für n ∈ N0 ist (nZ, +, ·) ein kommutativer Ring. Ist n ≥ 2, so besetzt nZ kein

Einselement.

(v) Es sei (G, +) eine abelsche Gruppe mit dem neutralen Element 0 ∈ G und

End(G) = {ϕ : G → G : ϕ ist Endomorphismus}

die Menge aller Endomorphismus auf G. Für ϕ, ψ ∈ End(G) definieren wir

ϕ + ψ : a ∈ G 7−→ ϕ(a) + ψ(a) ∈ G, ϕ · ψ := ϕ ◦ ψ.

Dann ist (End(G), +, ·) ein Ring mit Einselement 1 = idG . (End(G), +, ·) ist im

Allgemeinen nicht kommutativ.


Lemma 2.2.2. Es sei R ein Ring. Dann gilt für alle a, b ∈ R
(i) 0 · a = a · 0 = 0,

(ii) (−a) · b = a · (−b) = −(a · b),

(iii) (−a) · (−b) = a · b.


Beweis. (i) Es gilt
(D2)
0 · a = (0 + 0) · a = 0 · a + 0 · a.
Daraus folgt

0 = −(0 · a) + (0 · a) = −(0 · a) + (0 · a + 0 · a) = 0 · a.

Analog folgt a · 0 = 0.
(ii) Es gilt
(i) (D2)
0 = 0 · b = (−a + a) · b = (−a) · b + a · b.
56

Nach Folgerung 2.1.5 ist (−a) · b = −(a · b). Analog folgt a · (−b) = −(a · b).
(iii) Es gilt
(ii) 2.1.4
(−a) · (−b) = a · (−(−b)) = a · b.

Definition 2.2.3. Es sei (R, +, ·) ein Ring.

(i) U ⊂ R heißt Unterring von R, wenn (U, +, ·) selbst wieder ein Ring ist.

(ii) V ⊂ R heißt (links)Ideal von R, wenn gilt

(I1) (V, +) ist Untergruppe von (R, +).


(I2) Für alle r ∈ R und a ∈ V gilt r · a ∈ V, d. h. für alle r ∈ R gilt r · V ⊂ V.

Bemerkung: Jedes Ideal eines Ringes R ist auch ein Unterring von R. Dagegen ist

nicht jeder Unterring auch ein Ideal, z. B. Ist (Z, +, ·) ein Unterring von (Q, +, ·),

aber kein Ideal von Q.

Beispiel 2.2.2: (i) Für jeden Ring R sind {0} und R Ideal von R.

(ii) Für n, m ∈ N sind äquivalent (Beweis: siehe Aufgabe)

(1) (nZ, +, ·) ist Ideal von (mZ, +, ·),

(2) m teilt n, d.h. m|n.

(iii) Man kann zeigen (vgl. (iii)): V ⊂ Z ist genau dann ein Ideal von Z, wenn es ein

n ∈ N0 gibt mit V = nZ.

2.2.2 Ringe und Abbildungen


Definition 2.2.4. Es seien R und R0 Ringe. Eine Abbildung ϕ : R → R0 heißt
(Ring-)Homomorphismus, wenn für alle r, s ∈ R gilt

(i) ϕ(r + s) = ϕ(r) + ϕ(s),

(ii) ϕ(r · s) = ϕ(r) · ϕ(s).


57

Bemerkung: Die Begriffe Mono-, Epi-, Endo-, Iso- und Automophismus

werden analog zu Definition 2.1.10 definiert.

Beispiel: Es sei n ∈ N0 und ϕ : a ∈ Z 7−→ [a]n ∈ Zn . Nach Beispiel 2.1.3 (ii) erfüllt

ϕ die Bedingung (i) von Definition 2.2.4. Ferner gilt für alle a, b ∈ Z

ϕ(ab) = [ab]n = [a]n · [b]n = ϕ(a) · ϕ(b).

Lemma 2.2.5. Es seien R, R0 und R00 Ringe, sowie ϕ : R → R0 , ψ : R0 → R00


Homomorphismen. Dann gilt:

(i) ϕ(0) = 00 ,

(ii) ϕ(−r) = −ϕ(r) für alle r ∈ R,

(iii) Ker ϕ := {r ∈ R : ϕ(r) = 00 } ist ein Ideal von R,

(iv) Im ϕ := ϕ(R) = {ϕ(r) ∈ R0 : r ∈ R} ist ein Unterring von R0 ,

(v) ϕ ist genau dann injektiv, wenn gilt Ker ϕ = {0},

(vi) Ist ϕ bijektiv, so ist auch ϕ−1 : R0 → R ein Homomorphismus,

(vii) ψ ◦ ϕ : R → R00 ist ein Homomorphismus.

Beweis. Übung.

Definition 2.2.6. Es sei R ein Ring mit Eins. a ∈ R heißt Einheit von R, wenn
es b, c ∈ R gibt, so dass gilt
a · b = c · a = 1.

Die Menge aller Einheiten von R wird mit R∗ bezeichnet. Also

R∗ = {a ∈ R : (∃b, c ∈ R)(a · b = c · a = 1)}.

Satz 2.2.7. Es sei R ein Ring mit Eins. Dann gilt

(i) Ist a ∈ R∗ und b ∈ R, so dass gilt ab = 1 oder ba = 1, dann folgt b ∈ R∗ .

(ii) Ist a ∈ R∗ und b, c ∈ R, so dass gilt ab = ca = 1, dann folgt b = c.

(iii) (R∗ , ·) ist ein Gruppe.


58

Beweis. (i) Es sei o. B. d. A. a · b = 1. Nach Definition 2.2.6 existiert ein c ∈ R mit


c · a = 1. Damit folgt

c = c · 1 = c(a · b) = (c · a) · b = 1 · b = b.

Daraus erhalten wir a · b = b · a = 1, also b ∈ R∗ .


(ii) siehe Beweis zu (i).
(iii) Es genügt zu zeigen:
a, b ∈ R∗ ⇒ a · b ∈ R∗ .
Zu a, b ∈ R∗ existiert nach (i), (ii) a0 , b0 ∈ R∗ , so dass gilt

a0 · a = a · a0 = 1 = b · b0 = b0 · b.

Daraus folgt mit c := ab

(b0 a0 )c = b0 (a0 c) = b0 ((a0 a)b) = b0 (1 · b) = b0 b = 1,

c(b0 a0 ) = (c · b0 ) · a0 = (a(bb0 ))a0 = (a · 1)a0 = a · a0 = 1,


d.h. es gilt a · b = c ∈ R∗ .

Bemerkung: Ist R 6= {0} mit Eins, dann gilt 0 6∈ R∗ .

Beispiel 2.2.3: Z∗ = {−1, 1}, Q∗ = Q \ {0}, R∗ = R \ {0}, C∗ = C \ {0}.

(ii) Es sei G eine abelsche Gruppe. Dann gilt

End(G)∗ = Aut(G) = {ϕ : G → G : ϕ ist Automorphismus}.

(iii) Es sei n ∈ N und n ≥ 2. Dann gilt

Z∗n = {[a]n ∈ Zn : a ∈ Z ∧ ggT(a, n) = 1}.

Die Gruppe (Z∗n , ·) heißt prime Restklassengruppe modulo n. In der Tat, für

a ∈ Z und [a]n ∈ Z∗n existiert ein m ∈ Z, so dass gilt

[m]n · [a]n = [m · a]n = [1]n ,

d.h.

ma − 1 ∈ nZ.
59

Also gibt es ein b ∈ Z, so dass gilt

ma − 1 = nb oder ma − nb = 1.

Ist nun d = ggT(a, n), dann folgt d|a und d|n, also auch d|1 und damit d = 1. Es sei

a ∈ Z und

V := aZ + nZ = {ax + ny ∈ Z : x, y ∈ Z}.

Dann ist V ein Ideal von Z, also existiert nach Beispiel 2.2.2 (iii) ein d ∈ N, so dass

gilt V = dZ. Wegen a ∈ V = dZ und n ∈ V = dZ folgt

d|a und d|n.

Ferner gilt für jeden gemeinsamen Teiler c ∈ Z von a und n

a∈c·Z und b ∈ c · Z.

Daraus folgt V = d · Z ⊂ c · Z, d.h. c|d. Damit gilt d = ggT(a, n). Ist also d =

ggT(a, n) = 1, dann folgt

1 ∈ Z = d · Z = V,

d.h. es existieren x, y ∈ Z, so dass gilt ax+ny = 1. Daher [1]n = [ax+ny]n = [a]n ·[x]n .

Wir haben [a]n ∈ Z∗n .

2.2.3 Körper und kommutativer Körper


Definition 2.2.8. Es sei (K, +, ·) ein Ring mit Eins. Dann heißt K Körper, wenn
(K \ {0}, ·) eine Gruppe ist.
K heißt kommutativer Körper, wenn die Multiplikation · kommutativ ist.

Bemerkung: Jeder Körper enthält also mindestens zwei Elemente, nämlich 0 und

1.
60

Folgerung 2.2.9. Es sei (K, +, ·) ein Ring mit Eins, dann sind äquivalent:

(i) K ist ein Körper,

(ii) K ∗ = K \ {0}.

Beweis. Folgt sofort aus Satz 2.2.7 (iii).

Beispiele 2.2.4: (i) (Q, +, ·), (R, +, ·) und (C, +, ·) sind jeweils kommutative Körper.

(ii) Für n ∈ N mit n ≥ 2 ist (Zn , +, ·) genau dann ein Körper, wenn n eine Primzahl

ist. Es gilt nämlich

2.2.9
Zn ist ein Körper ⇔ Z∗n = Zn \ {[0]n }
B.2.2.3(iii)
⇔ ggT(a, n) = 1, für alle a ∈ {1, 2, ..., n − 1}

⇔ n ist eine Primzahl.

(iii) Es sei F4 := {a0 , a1 , a2 , a3 } eine vierelementige Menge und + bzw. · definiert

durch

+ a0 a1 a2 a3
a0 a0 a1 a2 a3
a1 a1 a0 a3 a2
a2 a2 a3 a0 a1
a3 a3 a2 a1 a0

· a0 a1 a2 a3
a0 a0 a0 a0 a0
a1 a0 a1 a2 a3
a2 a0 a2 a3 a1
a3 a0 a3 a1 a2 .

Dann ist (F4 , +, ·) ein Körper mit Nullelement a0 und Einselement a1 .


61

Definition 2.2.10. Es sei R 6= {0} ein kommutativer Ring mit Eins (also insbeson-
dere 1 6= 0). R heißt Integritätsring (oder auch Integritätsbereich), wenn gilt

a, b ∈ R ∧ a 6= 0 ∧ b 6= 0 ⇒ a · b 6= 0

oder dazu äquivalent:

a, b ∈ R ∧ a · b = 0 ⇒ a = 0 ∨ b = 0.

Folgerung 2.2.11. Jeder kommutative Körper ist ein Integritätsring.


Satz 2.2.12. Es sei R 6= {0} ein endlicher kommutativer Ring mit Eins. Dann
sind äquivalent:
(i) R ist ein Integritätsring,
(ii) R ist ein kommutativer Körper.
Beweis. ”(i)⇒ (ii)” Es sei 0 6= a ∈ R und

ϕ : x ∈ R \ {0} 7−→ x · a ∈ R \ {0}.

Dann gilt für x1 , x2 ∈ R \ {0}

ϕ(x1 ) = ϕ(x2 ) ⇔ x1 a = x2 a
⇔ −x1 a + x2 a = 0
⇔ (−x1 + x2 )a = 0
⇔ −x1 + x2 = 0
⇔ x1 = x2 .

Damit ist ϕ injektiv, und da R \ {0} endlich ist, ist ϕ auch surjektiv. Also existiert
ein b ∈ R \ {0}, so dass gilt
1 = ϕ(b) = b · a.
Damit ist (R \ {0}, ·) ein Gruppe, also R ein Körper.
”(ii)⇒ (i)” ist trivial.

2.2.4 Polynome

Es sei R ein Ring und m, n ∈ Z mit m ≤ n. Dann definieren wir für am , am+1 , ..., an ∈

R
n
X
aj := am + am+1 + ... + an−1 + an .
j=m
62

Konvention: Für n < m setzen wir


n
X
aj := 0.
j=m

Rechenregeln: (i) Für m, n ∈ Z mit m ≤ n, am , am+1 , ..., an ∈ R und bm , bm+1 , ..., bn ∈

R gilt
n
X n
X n
X
aj + bj = (aj + bj ).
j=m j=m j=m

(ii) Für k, m, n ∈ Z mit k ≤ m ≤ n und ak , ..., an ∈ R gilt


n
X m
X n
X
aj = aj + aj .
j=k j=k j=m+1

(iii) Für r, m, n ∈ Z mit m ≤ n und am , ..., an ∈ R gilt


n
X n+r
X
aj = aj−r .
j=m j=m+r

(iv) Für m, n ∈ Z mit m ≤ n und am , ..., an ∈ R, b ∈ R gilt


n
X n
X n
X n
X
b· aj = b · aj , und ( aj ) · b = aj · b.
j=m j=m j=m j=m

(v) Für m, n ∈ N0 und a0 , ..., am ∈ R, b0 , ..., bn ∈ R gilt

Xm n
X m
X Xn n X
X m
( aµ )( bν ) = ( aµ b ν ) = ( aµ b ν )
µ=0 ν=m mu=0 ν=0 ν=0 µ=0
= a0 b0 + a0 b1 + ... + a0 bn +

+ a1 b0 + a1 b1 + ...a1 bn

...

+ am b0 + am b1 + ... + am bn
m+n
XX k m+n
XX k
= aj bk−j = ak−j bj .
k=0 j=0 k=0 j=0
63

Dabei setzen wir

am+1 = ... = am+n = 0, falls n ≥ 1,

bn+1 = ... = bn+m = 0, falls m ≥ 1.

Es sei R ein kommutativer Ring. Unter einem Polynom p(T ) in der Unbestimmten

T mit Koeffizienten in R verstehen wir einen Ausdruck der Form


n
X
p(T ) = av T v , n ∈ N0 , a0 , a1 , ..., an ∈ R.
v=0
Pn Pm
Zwei Polynome p(T ) = v=0 av T v und q(T ) = u=0 bu T
u
sind genau dann gleich,

wenn es ein r ∈ N0 gibt, so dass gilt

aj = b j , 0 ≤ j ≤ r

und

ar+1 = ... = an = 0, br+1 = ... = bm = 0.


Pn
Insbesondere ist p(T ) = v=0 av T v genau dann das Nullpolynom (in Zeichen: p =

0), wenn gilt:

av = 0, 0 ≤ v ≤ n.
Definition 2.2.13. Es sei R ein kommutativer Ring. Dann bezeichnen wir die Menge
aller Polynome in der Unbestimmten T mit Koeffizienten in R mit R[T ], also
Xn
R[T ] := { av T v : n ∈ N0 ∧ a0 , ..., an ∈ R}.
v=0
Pn Pm
Es sei R ein kommutativer Ring, p(T ) = v=0 av T v und q(T ) = u=0 bu T
u
zwei

Polynome mit Koeffiezienten a0 , ..., an ∈ R bzw. b0 , ..., bm ∈ R.

(i) Es sei o. B. d. A. n ≥ m. Dann gilt mit bm+1 = bm+2 = ... = bn := 0:


m
X n
X
u
q(T ) = bu T = bu T u .
u=0 u=0
64

Die Summe von p(T ) und q(T ) ist definiert durch


n
X
p(T ) + q(T ) := (av + bv )T v .
v=0

(ii) Wir definieren das Produkt von p(T ) und q(T ) durch
m+n
X Xk
p(T ) · q(T ) := ( aj bk−j )T k .
k=0 j=0

Satz 2.2.14. Es sei R ein kommutativer Ring. Dann ist R[T ] mit der oben definierten
Addition und Multiplikation ein kommutativer Ring.
Ist zusätzlich R ein kommutativer Ring mit Eins, so ist auch R[T ] ein kommutativer
Ring mit Eins.

Beweis. Übung.

Definition 2.2.15. Es sei R ein kommutativer Ring und p(T ) = nv=0 av T v ∈ R[T ].
P
Dann ist der Grad des Polynoms p definiert durch

max{v ∈ {0, ..., n} : av 6= 0}, p 6= 0,
grad(p) :=
−∞, p = 0.

Lemma 2.2.16 (Gradformel). Es sei R ein kommutativer Ring und


n
X m
X
v
p(T ) = av T , q(T ) = au T u ∈ R[T ]
v=0 u=0

zwei Polynome mit an · bm 6= 0 (daraus folgt insbesondere n = grad(p) und m =


grad(q)). Dann gilt
grad(p · q) = grad(p) + grad(q).

Beweis. Folgt sofort aus der Definition.

Folgerung 2.2.17. Ist R ein Integritätsring, dann gilt für alle p, q ∈ R[R]

grad(p · q) = grad(p) + grad(q).

Folgerung 2.2.18. Es sei R ein kommutativer Ring. Dann sind äquivalent:

(i) R ist ein Integritätsring,

(ii) R[T ] ist ein Integritätsring.


65

Lemma 2.2.19 (Division mit Rest). Es sei K ein kommutativer Körper und p, q ∈
K[T ] gegeben mit q 6= 0. Dann existiert eindeutig bestimmte Polynome s, r ∈ K[T ]
mit grad(r) < grad(q), so dass gilt
p(T ) = s(T )q(T ) + r(T ).
Beweis. Die Eindeutigkeit ist offensichtlich. Die Existenz von s, r kann durch den
folgenden Algorithmus bestätigen werden:
Divisionsalgorithmus Es sei K ein kommutativer Körper und p, q ∈ K[T ] gegeben
mit m := grad(q) ≥ 0 (also insbesondere q 6= 0). Wir setzen s(T ) := 0, r(T ) := p(T )
und führen folgende While-schleife aus:
While (grad(r) ≥ m) do
HK(r) grad(r)−m
(
s(T ) := s(T ) + HK(q) T ,
HK(r) grad(r)−m
r(T ) := r(T ) + T
HK(q)
· q(T )
Dabei bezeichnet HK(f ) den Höchst Koeffizient eines beliebigen Polynoms 0 6= f ∈
K[T ]. Nach Abbruch der Schleife gilt offenbar
p(T ) = s(T ) · q(T ) + r(T ) ∧ grad(r) < m.

Beispiel: Es sei K = Z7 und

p(T ) = 5T 4 + 3T 3 + 2T 2 + 1 ∈ Z7 [T ], q(T ) = 3T 2 + 4T + 4 ∈ Z7 [T ].

Polynomdivision liefert:

p(T ) = s(T )q(T ) + r(T )

mit

s(T ) = 4T 2 + 5T + 2 ∈ Z7 [T ], r(T ) = 2T ∈ Z7 [T ].
Definition 2.2.20 (Nullstellen von Polynomen). Es sei R ein kommutativer
Ring und
n
X
p(T ) = av T v ∈ R[T ].
v=0
r ∈ R heißt Nullstelle von p, wenn gilt
n
X
p(r) := av rv = 0.
v=0
66

Satz 2.2.21. Es sei K ein kommutativer Körper, 0 6= p ∈ K[T ] und a ∈ K eine


Nullstelle von p. Dann existiert genau ein Polynom s ∈ K[T ] mit grad(s) = grad(p)−
1, so dass gilt
p(T ) = (T − a) · s(T ).

Beweis. Nach Lemma 2.2.19 existiert eindeutig bestimmte s, r ∈ K[T ] mit grad(r) <
grad(T − a) = 1, so dass gilt

p(T ) = (T − a)s(T ) + r(T ).

Daher r(a) = p(a) − (a − a) · s(a) = 0 und wegen grad(r) ≤ 0 folgt daraus r = 0.

Folgerung 2.2.22. Es sei K ein kommutativer Körper und p ∈ K[T ] gegeben mit
m := grad(p) > 0. Dann besitzt p höchstens m Nullstellen in K.

Beispiele: (i) T 2 − 1 = (T − 1)(T + 1) ∈ Q[T ] hat die Nullstellen −1, 1 ∈ Q.

(ii) T 2 + 1 ∈ R[T ] hat keine Nullstelle in R.

(iii) T 2 + 1 = (T − i)(T + i) ∈ C[T ] besitzt die beiden Nullstellen i, −i ∈ C.

(iv) T 2 + T +1 ∈ Z3 [T ] besitzt die Nullstelle 1 in Z3 , denn T 2 + T +1 = (T − 1)(T + 2)

in Z3 .
Kapitel 3

Grundlagen der linearen Algebra

3.1 Vektorräume

Vereinbarung: Im folgenden verstehen wir unter einem Körper K stets einen kom-

mutativen Körper.

3.1.1 Vektorraum und Unterraum


Definition 3.1.1 (K-Vektorraum). Es sei K ein Körper. Ein K-Vektorraum (oder
auch Vektorraum über K) ist ein Tripel (V, +, ·) bestehend aus einer Menge V und
zwei Verknüpfungen

+ : (v, w) ∈ V × V −7 → v + w ∈ V,
· : (α, v) ∈ K × V −7 → αv ∈ V,

so dass gilt:

(V1) (V, +) ist eine abelsche Gruppe,

(V2) Für alle v, w ∈ V und α, β ∈ K gilt

(i) (α + β)v = αv + βv,


(ii) α(v + w) = αv + αw,
(iii) α(βv) = (αβ)v,
(iv) 1 · v = v.

67
68

Bemerkung: Ist V ein Vektorraum über dem Körper K, so heißen die Elemente

von V Vektoren und die Elemente von K Skalare. Das neutrale Element in (V, +) ist

der sogenannte Nullvektor ϑ ∈ V.

Beispiele 3.1.1: (i) Es sei K ein Körper, n ∈ N und

V := K n = {(x1 , ..., xn ) : x1 , ..., xn ∈ K}

die Menge aller geordneten n−Tupel von Elementen aus K. Wir definieren für x =

(x1 , ..., xn ) ∈ V , y = (y1 , ..., yn ) ∈ V und α ∈ K

x + y := (x1 + y1 , ..., xn + yn ),

α · x := (αx1 , ..., αxn ).

Zusammen mit diesen beiden Verknüpfungen + : V × V → V und · : K × V → V

ist V = K n ein K−Vektorraum mit dem Nullvektor ϑ = (0, ..., 0) ∈ K n , der zu

x = (x1 , ..., xn ) ∈ V inverse ( negative) Vektor ist gegeben durch −x = (−x1 , ..., −xn ).

Für K = R und n = 2 kann man auch solche Operationen anschaulich darstellen.

(ii) Beispiel (i) liefert für n = 1: Jeder Körper K ist ein Vektorraum über sich selbst.

(iii) Für jeden Körper K ist die Menge K[T ] aller Polynome zusammen mit der in

S. 64 definierten Addition eine abelsche Gruppe. Für p(T ) = nj=0 aj T j ∈ K[T ] und
P

α ∈ K sei
n
X
(α · p)(T ) := (α · aj )T j .
j=0

Damit wird K[T ] zu einem K−Vektorraum.

(iv) Es sei K ein Körper, χ 6= ∅ eine Menge und

K χ := {f : χ → K : f ist Abbildung}.
69

Für f, g ∈ K χ und α ∈ K definieren wir

f + g : x ∈ χ 7−→ f (x) + g(x) ∈ K,

α · f : x ∈ χ 7−→ α · f (x) ∈ K.

Zusammen mit diesen Verknüpfungen bildet K χ einen K−Vektorraum mit dem Nul-

lvektor (Nullabbildung)

ϑ : x ∈ χ 7−→ 0 ∈ K.
Lemma 3.1.2. Es sei V ein Vektorraum über den Körper K. Dann gilt
(i) 0 · v = ϑ für alle v ∈ V,

(ii) λ · ϑ = ϑ für alle λ ∈ K,

(iii) 0 6= λ ∈ K ∧ ϑ 6= v ∈ V ⇒ λv 6= ϑ,

(iv) (−1) · v = −v.


Beweis. (i) 0 · v = (0 + 0)v = 0 · v + 0 · v ⇒ ϑ = 0 · v.
(ii) λϑ = λ(ϑ + ϑ) = λϑ + λϑ ⇒ ϑ = λ · ϑ.
(iii) Angenommen es wäre λ · v = ϑ. Wegen λ 6= 0, existiert λ1 = λ−1 ∈ K \ {0}.
Damit folgt
(ii) 1 1 1
ϑ = · ϑ = · (λv) = ( ) · v = 1 · v = v.
λ λ λ
Also λ · v = ϑ ein Widerspruch zu v 6= 0.
(iv) Aus
(i)
ϑ = 0 · v = (−1 + 1)v = (−1)v + 1 · v = (−1)v + v
folgt −v = (−1) · v.
Definition 3.1.3. Es sei V ein K-Vektorraum und U ⊂ V . U heißt Untervektorraum
(oder auch kurz: Unterraum; in Zeichen U < V ) von V , wenn U selbst wieder ein
K−Vektorraum ist.
Satz 3.1.4. Es sei V ein K−Vektorraum und ∅ =
6 U ⊂ V . Dann sind äquivalent
(i) U ist ein Unterraum von V .

(ii) Für alle u, v ∈ U und α ∈ K gilt

u + v ∈ U ∧ αu ∈ U.
70

(iii) Für alle u, v ∈ U und α, β ∈ K gilt

αu + βv ∈ U.

Beweis. ”(i) ⇒ (ii)” ist klar.


”(ii) ⇒ (iii)” Für u, v ∈ U und α, β ∈ K gilt mit (ii)

αu, βv ∈ U.

Wieder nach (ii) folgt daraus αu + βv ∈ U.


”(iii) ⇒ (i)” Aus (iii) folgt zunächst (mit α = 1, β = −1), dass für alle u, v ∈ U das
Element u − v zu U gehört. Nach Satz 2.1.9 ist damit (U, +) eine Untergruupe von
(V, +). Ferner folgt aus (iii) (mit β = 0) αu ∈ U für alle u ∈ U und α ∈ K, d.h.

· : (α, u) ∈ K × U 7−→ α · u ∈ U

ist wohldefiniert. Da die Eigenschaften (V2)(i)-(iv) auf ganz V erfüllt sind, gelten sie
insbesondere auch in U . Damit ist U ein K−Vektorraum, also ein Unterraum von
V.
Satz 3.1.5. Es sei V ein K−Vektorraum und 0 6= V ⊂ P(V ) ein System von Un-
tervektorräumen von V (d.h. jedes U ∈ V ist Untervektorraum von V ). Dann ist
auch \
W := U
U ∈V

ein Untervektorraum von V .


Beweis. Für jedes U ∈ V gilt ϑ ∈ U , also
\
ϑ∈ U = W.
U ∈V

Damit gilt W 6= ∅. Seien nun u, v ∈ W und α, β ∈ K beliebig vorgegeben. Dann gilt


nach Satz 3.1.4 αu + βv ∈ U für alle U ∈ V. Daher ist αu + βv ∈ W. Mit Satz 3.1.4
folgt die Behauptung.
Definition 3.1.6. Es sei V ein K−Vektorraum und E ⊂ V . Wir setzen

V := {U < V : E ⊂ U }

(V=
6 ∅ wegen V ∈ V). Dann ist
\
spanE := U
U ∈V
71

nach Satz 3.1.5 ein Unterrektorraum von V . spanE heißt der von E in V aufgespannte
Untervektorraum.
Ist W ein Untervektorraum von V und E ⊂ V , so dass gilt
W = spanE,
so heißt E Erzeugendensystem von W .

Beispiel: Ist V ein K−Vektorraum, dann gilt

span ∅ = span{ϑ} = {ϑ},

spanV = V.
Lemma 3.1.7. Es sei V ein K−Vektorraum und E, E1 , E2 ⊂ V . Dann gilt
(i) E ⊂ span E,
(ii) E1 ⊂ E2 ⇒ span E1 ⊂ span E2 ,
(iii) U < V ∧ E ⊂ U ⇒ span E ⊂ U ,
(iv) span E = E ⇔ E ist Unterraum von V .
Beweis. Es seien
V := {U < V : E ⊂ U },
Vk := {U < V : Ek ⊂ U }, k = 1, 2.
(i) Wegen E ⊂ U für alle U ∈ V folgt
\
E⊂ U = span E.
U ∈V

(ii) Aus E1 ⊂ E2 folgt sofort V2 ⊂ V1 und damit


\ \
span E1 = U⊂ U = span E2 .
U ∈V1 U ∈V2

(iii) ist trivial.


(iv) ”⇒” gilt nach Definition.
”⇐” Ist E Unterraum von V , dann folgt aus (i) und (ii)
E ⊂ span E ⊂ E.

Bemerkung: Nach Lemma 3.1.7 (iii) ist span E der ” kleinste” Untervektorraum

von V (bzgl. der Ordnungsregel ⊂”), der E enthält.


72

3.1.2 Linearkombination von Vektoren

Es sei V ein K−Vektoraum und E ⊂ V . Dann heißt jede endliche Summe


n
X
αj vj = α1 v1 + ... + αn vn
j=1

mit n ∈ N, α1 , ...αn ∈ K und v1 , ..., vn ∈ E Linearkombination von Elementen

aus E. Eine Linearkombination heißt trivial, wenn man α1 = ... = αn = 0 wählt.


Satz 3.1.8. Es sei V ein K− Vektorraum und E ⊂ V . Dann gilt
n
X
span E = { αj vj ∈ V : n ∈ N ∧ α1 , ..., αn ∈ K ∧ v1 , ..., vn ∈ E},
j=1

d.h. der von E in V aufgespannte Untervektorraum besteht aus allen Linearkombi-


nationen von Elementen aus E.
Beweis. Wir setzen zunächst
n
X
W := { αj vj ∈ V : n ∈ N ∧ α1 , ..., αn ∈ K ∧ v1 , ..., vn ∈ E}.
j=1

(i) ”W ⊂ span E.” Seien n ∈ N, α1 , ..., αn ∈ K und v1 , ..., vn ∈ E beliebig vorgegeben.


Dann gilt nach Lemma 3.1.7 (i) und Satz 3.1.4
n
X
α1 v1 + ... + αn vn = αj vj ∈ span E.
j=1

Daraus folgt
W ⊂ span E.
(ii) ”span E ⊂ W ” Es gilt E ⊂ W , denn sei v ∈ E gegeben, dann gilt mit n =
1, α − 1 = 1, v1 = v
Xn
αj vj = 1 · v = v ∈ W.
j=1

Außdem ist W ein Untervektorraum von V (Beweis Übung), also folgt mit Lemma
3.1.7 (iii)
span E ⊂ W.
73

Beispiele 3.1.2: (i) Es sei K ein Körper und n ∈ N. Für 1 ≤ j ≤ n sei


j−te Stelle
ej := (0, ..., 0, 1 , 0, ..., 0) ∈ K n

und E = {e1 , e2 , ..., en } ⊂ K n . Dann folgt


n
3.1.8
X
span E = { αj ej ∈ K n : α1 , ..., αn ∈ K}
j=1
= {(α1 , ..., αn ) ∈ K n : α1 , ..., αn ∈ K} = K n .

(ii) Es sei K ein Körper. Für k ∈ N0 sei

v0 = 1 ∈ K, und vk := T k ∈ K[T ], k = 1, 2, ...

und

E := {vk ∈ K[T ] : k ∈ N0 } ⊂ K[T ].

Dann gilt
n
3.1.8
X
span E = { αk vk ∈ K[T ] : n ∈ N ∧ α1 , ..., αn ∈ K}
k=0
Xn
= { αk T k ∈ K[T ] : n ∈ N ∧ α1 , ..., αn ∈ K}
k=0
= K[T ].

3.1.3 Lineare Unabhängigkeit

Es sei V ein K−Vektorraum.

(i) Die (endlich vielen ) Vektoren v1 , ..., vn ∈ V heißen linear unabhängig, wenn

aus
n
X
αj vj = ϑ, und α1 , ..., αn ∈ K
j=1

stets folgt α1 = ... = αn = 0 (d.h. der Nullvektor läßt sich nur trivial aus den

Vektoren v1 , ..., vn kombinieren.)


74

(ii) Eine Teilmenge von Vektoren E ⊂ V heißt linear unabhängig, wenn je endlich

viele paarweise verschiedene Vektoren v1 , ..., vn ∈ E linear unabhängig sind.

(iii) Die Vektoren v1 , ..., vn ∈ V (bzw. die Teilmenge E ⊂ V ) heißt linear abhängig,

wenn sie nicht linear unabhängig sind (ist), d.h. es existieren Skalare α1 , ..., αn ∈ K

mit αl 6= 0 für ein l ∈ {i, 2, ..., n}, so dass gilt


n
X
αj vj = ϑ
j=1

(bzw. es existieren v1 , ..., vn ∈ E und α1 , ..., αn ∈ K mit αl 6= 0 für ein l ∈ {1, ..., n},

so dass gilt
n
X
αj vj = ϑ).
j=1

Beispiele 3.1.3: (i) Für jeden K−Vektoraum V ist der Nullvektor (bzw. E = {ϑ})

linear abhängig.

(ii) Ist V ein K−Vektoraum und E ⊂ V linear unabängig, so ist auch jede Teilmenge

E 0 ⊂ E linear unabhängig.

(iii) Es sei K ein Körper, n ∈ N und e1 , ..., en ∈ K n wie in Beispiel 3.1.2 (i). Dann sind

e1 , ..., en (bzw. E = {e1 , ..., en }) linear unabhängig. In der Tat, seien α1 , ..., αn ∈ K

gegeben mit
n
X
αj ej = ϑ,
j=1

dann folgt
n
X
αj ej = (α1 , ..., αn ) = (0, ..., 0),
j=1

also α1 = ... = αn = 0.

(iv) Es sei K ein Körper und

E := {T k ∈ K[T ] : k ∈ N}.
75

Dann ist E linear unabängig. Denn seien n ∈ N und α1 , ..., αn ∈ K gegeben mit
n
X
αj T j = ϑ,
j=1

dann folgt α1 , ..., αn = 0 (vgl. Abschnitt 2.2.4).

(v) Die Vektoren (1, 1, 3), (2, 0, 1), (2, 3, 1) ∈ R3 sind linear unabhängig, denn sind

α, β, γ ∈ K gegeben mit

α(1, 1, 3) + β(2, 0, 1) + γ(2, 3, 1) = ϑ,

dann folgt 
 α + 2β + 2γ = 0


α + 3γ = 0


 3α + β + γ = 0,

also α = −3γ. Dies in die erste und dritte Gleichung eingesetzt liefert
(
2β − γ = 0
β − 8γ = 0,

also γ = 2β. Eingesetzt in die letzte Gleichung erhalten wir daraus −15β = 0, d.h.

β = 0 und damit auch γ = α = 0.

(vi) Die Vektoren (1, 1, 3), (2, 0, 1), (2, 3, 1) ∈ Z35 sind linear abhängig, denn

3 · (1, 1, 3) + 2 · (2, 0, 1) + 4 · (2, 3, 1) = ϑ.

Satz 3.1.9. Es sei V ein K−Vektorraum und E ⊂ V . Dann sind äquivalent:


(i) E ist linear unabhängig.

(ii) Jedes v ∈ span E besitzt eine eindeutige Darstellung der Form


n
X
v= αj vj
j=1

mit n ∈ N, α1 , ..., αn ∈ K und paarweise verschiedenen v1 , ..., vn ∈ E.


76

Beweis. ”(i) ⇒ (ii)” Es seien v1 , ..., vn ∈ E und v10 , ..., vm


0
∈ E jeweils paarweise
verschiedene Vektoren, so dass gilt
n
X m
X
αj vj = αl0 vl0 (3.1.1)
j=1 l=1

mit α1 , ..., αn ∈ K und α10 , ..., αm


0
∈ K. Wir dürfen o.B.d.A annehmen, dass m = n
0 0
und v1 = v1 , ..., vn = vn gilt. Dann folgt aus (3.1.1)
n
X n
X n
X
ϑ= αj vj − αj0 vj = (αj − αj0 )vj ,
j=1 j=1 j=1

also ( E ist linear unabhängig!)


αj − αj0 = 0, 1 ≤ j ≤ n.
Daraus folgt
αj = αj0 , 1 ≤ j ≤ n.
”(ii) ⇒ (i)” Seien v1 , ..., vn ∈ E paarweise verschieden und α1 , ..., αn ∈ K gegeben
mit n n
X X
ϑ= 0 · vj = αj vj .
j=1 j=1

Dann folgt aus der Eindeutigkeit der Darstellung sofort α1 = ... = αn = 0.

3.1.4 Basis von Vektorraum


Definition 3.1.10. Es sei V ein K−Vektorraum und B ⊂ V . Dann heiß B Basis
von V , wenn gilt
(i) B ist linear unabhängig,
(ii) span B = V.

Beispiele 3.1.4: (i) Ist V = {ϑ} der Nullraum, so ist B = ∅ ein Basis von V .

(ii) Es sei K ein Körper. Dann bilden die in Beispiel 3.1.2(i) definierten Vektoren

e1 , ..., en ∈ K n (bzw. B = {e1 , ..., en }) nach Beispiel 3.1.2(i) und Beispiel 3.1.3 (iii)

eine Basis von K n . Die Basis e1 , ..., en heißt kanonische (Einheits-) Basis des K n .

(iii) Es sei K ein Körper. Dann bildet

B := {T k ∈ K[T ] : k ∈ N0 }
77

nach Beispiele 3.1.2 (ii) und Beispiele 3.1.3 (iv) eine Basis von K[T ].

Wir haben den folgende Basisergänzungssatz


Satz 3.1.11. Es sei V ein K−Vektorraum und E ⊂ V linear unabhängig. Dann gibt
es eine Basis B von V mit E ⊂ B (E läßt sich zu einer Basis von V ergänzen).
Beweis. Später.
Folgerung 3.1.12. Jeder K−Vektorraum besitzt eine Basis.
Beweis. Wende Satz 3.1.11 auf E = ∅ an.
Satz 3.1.13. Es sei V ein K−Vektorraum und B ⊂ V . Dann sind äquivalent:
(i) B ist Basis von V ,

(ii) B ist eine maximale linear unabhängige Teilmenge von V (d.h. für jede linear
unabhängige Teilmenge E ⊂ V mit B ⊂ E gilt B = E),

(iii) B ist ein minimales Erzeugendensystem von V (d.h. für jedes Erzeugendensys-
tem E ⊂ V mit E ⊂ B gilt E = B).
Beweis. ”(i) ⇒ (ii)” Es sei E ⊂ V linear unabhängig und B ⊂ E. Zu jedem a ∈ E
existieren paarweise verschiedene v1 , ..., vn ∈ B und α1 , ..., αn ∈ K mit
n
X
a= αj vj .
j=1

Nach Satz 3.1.9 existiert ein eindeutiges j0 ∈ {1, 2, ..., n} mit αj = 0 für j 6= j0 ∧ αj0 =
1 ∧ a = vj0 , also insbesondere a ∈ B. Da a beliebig war, folgt E ⊂ B, also E = B.
”(ii) ⇒ (i)” folgt sofort aus Satz 3.1.11.
”(i) ⇒ (iii)” Es sei E ⊂ V ein Erzeugendensystem mit E ⊂ B. Zu jedem a ∈ B
existieren paarweise verschiedene v1 , ..., vn ∈ E und α1 , ..., αn ∈ K mit
n
X
a= αj vj .
j=1

Wie im ersten Teil folgt daraus nach Satz 3.1.9 a ∈ E und damit insgesamt B ⊂ E.
”(iii) ⇒ (i)” Angenommen B wäre nicht linear unabhängig. Dann existieren paar-
weise verschiedene v1 , ..., vn ∈ B und α1 , ..., αn ∈ K mit (o.B.d.A.) αn 6= 0 und
n
X
αj vj = ϑ.
j=1
78

Daher gilt
n−1
X αj
vn = (− )vj ∈ span(B \ {vn })
j=1
αn

oder
B ⊂ span(B \ {vn }).
Nach Lemma 3.1.7 (iii) ist

V = span B ⊂ span(B \ {vn }),

im Widerspruch zur Minimalität von B.

Lemma 3.1.14 (Austauschlemma). Es sei V ein K−Vektorraum, v1 , ..., vn ∈ V


eine Basis von V und n
X
w= αj vj
j=1

mit α1 , ..., αn ∈ K und αk 6= 0 für ein k ∈ {1, ..., n}. Dann ist auch

v1 , ..., vk−1 , w, vk+1 , ..., vn

eine Basis von V (d.h. wir dürfen vk durch w ersetzen).

Beweis. Sei o.B.d.A. k = 1. Dann folgt


n
1 X αj
v1 = w − vj ∈ span{w, v2 , ..., vn }.
α1 α
j=2 1

So gilt
{v1 , ..., vn } ⊂ span{w, v2 , ..., vn }.
Nach Lemma 3.1.7 (iii) ist

V = span{v1 , ..., vn } ⊂ span{w, v2 , ..., vn } ⊂ V,

d.h. die Vektoren w, v2 , ..., vn bilden ein Erzeugendensystem von V . Seien nun
λ1 , ..., λn ∈ K gegeben mit
n
X n
X
ϑ = λ1 w + λj vj = λ1 α1 v1 + (λ1 αj + λj )vj ,
j=2 j=2

dann folgt λ1 α1 = λ1 α2 + λ2 = ... = λ1 αn + λn = 0. Damit sind die Vektoren


w, v2 , ..., vn auch linear unabhängig.
79

Das obige Lemma liefert den sogenannten Steinitzschen Austauschsatz1 :


Satz 3.1.15. Es sei V ein K−Vektorraum, v1 , ..., vn ∈ V eine Basis von V und
w1 , ..., wr ∈ V linear unabhängig. Dann gilt r ≤ n und nach einer geeigneten Um-
nummerierung der Vektoren v1 , ..., vn ist w1 , ..., wr , vr+1 , ..., vn ebenfalls eine Basis von
V.
Beweis. Ist r = 1, dann existieren α1 , ..., αn ∈ K mit αk 6= 0 für ein k ∈ {1, ..., n}, so
dass gilt
X n
w1 = αj vj .
j=1

Die Satzaussage folgt demnach sofort aus Lemma 3.1.14.


Sei die Aussage bereits für ein r ≥ 1 bewiesen.
Behauptung: Dann ist der Satz auch für r + 1 richtig.
Seien dazu w1 , ..., wr+1 ∈ V linear unabhängig. Dann sind auch w1 , ..., wr ∈ V linear
unabhängig, also gilt nach Induktionsvoraussetzung r ≤ n und w1 , ..., wr , vr+1 , ..., vn
ist nach geeigneter Umnummerierung der Vektoren v1 , ..., vn wieder eine Basis von V .
Also existieren α1 , ..., αn ∈ K mit
r
X n
X
wr+1 = αj wj + αj vj .
j=1 j=r+1

Wäre nun αr+1 = ... = αn = 0 oder r = n, so wäre w1 , ..., wr+1 linear abhängig.
Also gilt r < n (und damit r + 1 ≤ n) und es existiert ein k ∈ {r + 1, ..., n}
mit αk 6= 0. Sei o.B.d.A. k = r + 1 (Umnummerierung der vr+1 , ..., vn !), dann
ist w1 , ..., wr+1 , vr+2 , ..., vn nach Lemma 3.1.14 ebenfalls eine Basis von V .
Folgerung 3.1.16. Es sei V ein endlich erzeugter K−Vektorraum, d.h. es existieren
u1 , ..., um ∈ V mit
V = span{u1 , ..., um }.
Dann gibt es eine natürliche Zahl n ≤ m, so dass gilt: Jede Basis von V besteht aus
genau n Vektoren.
Definition 3.1.17. Ist V ein endlich erzeugter K−Vektorraum, dann heißt die nach
Folgerung 3.1.16 eindeutig bestimmte Anzahl n ∈ N0 der Vektoren einer Basis Di-
mension von V , in Zeichen
dimK V := n.
Besitzt V kein endliches Erzeugendensystem, so setzen wir

dimK V := ∞.
1
Ernst Steinitz, 1871-1928
80

Beweis von Folgerung 3.1.16. Es sei

W := {E ⊂ {u1 , ..., um } : E ist Erzeugendensystem}.

Unter den endlich vielen Elementen von W gibt es ein B ∈ W mit minimaler Ele-
mentanzahl n ≤ m. Offensichtlich ist B ein minimales Erzeugendensystem und damit
nach Satz 3.1.13 ein Basis.
Ist nun B 0 ⊂ V eine weitere Basis von V , so kann B 0 nach Satz 3.1.15 höchstens
k ≤ n Vektoren enthalten. Umgekehrt muß nach Satz 3.1.15 aber auch n ≤ k sein,
also k = n.

Satz 3.1.18. Es sei V ein n− dimensionaler K−Vektorraum und u1 , ..., un ∈ V .


Dann sind äquivalent:

(i) u1 , ..., un ist eine Basis von V ,

(ii) u1 , ..., un ist ein Erzeugendensystem von V ,

(iii) u1 , ..., un sind linear unabhängig.

Beweis. ”(i) ⇒ (ii)”, ”(i) ⇒ (iii)” trivial.


”(ii) ⇒ (i)”, ”(iii) ⇒ (i)” folgen sofort aus Folgerung 3.1.16 und Satz 3.1.13.

Satz 3.1.19. Es sei V ein n-dimensionaler K-Vektorraum und U ein Untervektor-


raum von V . Dann gilt

(i) dimK U ≤ dimK V,

(ii) dimK U = dimK V ⇔ U = V.

Beweis. Ist B ⊂ V eine Basis von U , dann kann B nach Satz 3.1.15 höchstens n
Vektoren enthalten, also dimK U ≤ n. Falls dimK U = n ist, so ist B nach Satz 3.1.18
bereits eine Basis von V , also U = V .

Beispiele 3.1.5: (i) Für jeden Körper K gilt

dimK K n = n, und dimK K[T ] = ∞.

(ii) Die Vektoren (1, 1, 3), (2, 0, 1) und (2, 3, 1) bilden nach Beispiele 3.1.3 (v) und

Satz 3.1.18 eine Basis von R3 .


81

3.2 Lineare Abbildungen


3.2.1 Eigenschaften von linearen Abbildungen
Definition 3.2.1. Es seien V, W K−Vektorraum und ϕ : V → W eine Abbildung.
Dann heißt ϕ (Vektorraum-)Homomorphismus oder kürzer: lineare Abbil-
dung), wenn gilt

(L1) ϕ(v1 + v2 ) = ϕ(v1 ) + ϕ(v2 ) für alle v1 , v2 ∈ V ,

(L2 ) ϕ(αv) = αϕ(v) für alle α ∈ K, v ∈ V .

Bemerkungen 1. (i) Die Begriffe Mono-, Epi-, Endo-, Iso- und Automophis-

mus werden analog zu Definition 2.1.10 definiert.

(ii) ϕ : V → W ist genau dann linear, wenn gilt

(L3) ϕ(αv1 + βv2 ) = αϕ(v1 ) + βϕ(v2 ) für alle v1 , v2 ∈ V, α, β ∈ K.

In der Tat, aus (L1) und (L2) folgt, für alle v1 , v2 ∈ V, α, β ∈ K

ϕ(αv1 + βv2 ) = ϕ(αv1 ) + ϕ(βv2 ) = αϕ(v1 ) + βϕ(v2 ).

Und aus (L3) folgt mit α = β = 1 (L1) bzw. mit β = 0 (L2).

Lemma 3.2.2. Es seien U, V, W K−Vektorraum und ϕ : U → V , ψ : V → W lineare


Abbildung. Dann gilt

(i) ϕ(ϑU ) = ϑV ,

(ii) ϕ(−u) = −ϕ(u) für alle u ∈ U ,

(iii) Ker ϕ ist ein Untervektorraum von U ,

(iv) Imϕ ist ein Untervektorraum von V

(v) ϕ ist genau dann injektiv, wenn gilt Ker ϕ = {ϑU },

(vi) Ist ϕ bijektiv, so ist auch ϕ−1 : V → U linear,

(vii) ψ ◦ ϕ : U → W ist linear.


82

Beweis. (Übung): (i) und (ii) folgen sofort aus Lemma 2.1.12(ii)
(iii) Wegen ϑU ∈ Ker ϕ gilt Ker ϕ 6= ∅. ferner gilt für α, β ∈ K und u1 , u2 ∈ Ker ϕ

ϕ(αu1 + βu2 ) = αϕ(u1 ) + βϕ(u2 ) = αϑV + βϑU = ϑU ,

also αu1 + βu2 ∈ Ker ϕ.


(iv) Wegen ϑV = ϕ(ϑU ) ∈ Im ϕ ist Im ϕ 6= ∅. Zu v1 , v2 ∈ Im ϕ existieren u1 , u2 ∈ U
mit
vj = ϕ(uj ) j = 1, 2.
Damit gilt für α, β ∈ K

αv1 + βv2 = αϕ(u1 ) + βϕ(u2 ) = ϕ(αu1 + βu2 ) ∈ Im ϕ.

(v) folgt sofort aus Satz 2.1.13.


(vi) Nach Satz 2.1.14 (ii) erfüllt ϕ−1 die Bedingung (L1). Seien α ∈ K und v ∈ V
beliebig vorgegeben. Mit u := ϕ−1 (v) folgt

ϕ−1 (αv) = ϕ−1 (αϕ(u)) = ϕ−1 (ϕ(αu))


= α · u = αϕ−1 (v).

(vii) Nach Satz 2.1.14(i) erfüllt ψ ◦ ϕ die Bedingung (L1). Seien α ∈ K und u ∈ V
beliebig vorgegeben. Dann gilt

(ψ ◦ ϕ)(αv) = ψ(ϕ(αu)) = ψ(αϕ(u))


= αψ(ϕ(u)) = α(ψ ◦ ϕ)(u).

Damit erfüllt ψ ◦ ϕ auch die Bedingung (L2).


Satz 3.2.3. Es seien V, W K−Vektorraum, E ⊂ V und ϕ : V → W linear. Dann
gilt

(i) spanϕ(E) = ϕ(spanE),

(ii) Sind v1 , ..., vn ∈ V linear abhängig, dann sind auch ϕ(v1 ), ..., ϕ(vn ) ∈ W linear
abhängig.
Beweis. (i) Aus E ⊂ spanE folgt ϕ(E) ⊂ ϕ(spanE), also mit Lemma 3.1.7 (iii)
spanϕ(E) ⊂ ϕ(spanE) ( ϕ(spanE) ist Untervektorraum in W ). Ist umgekehrt w ∈
ϕ(spanE), dann existiert ein v ∈ spanE mit w = ϕ(v). Nach Satz 3.1.8 existieren
α1 , ..., αn ∈ K und v1 , ..., vn ∈ E mit
n
X
v= αj vj .
j=1
83

daraus folgt nach (L3)


Xn n
X
w = ϕ(v) = ϕ( αj vj ) = αj ϕ(vj ) ∈ spanϕ(E).
j01 j=1

Daher gilt auch ϕ(spanE) ⊂ spanϕ(E).


(ii) Nach der Voraussetzung existieren α1 , ..., αn ∈ K mit α − k 6= 0 für ein k ∈
{1, ..., n}, so dass gilt
X n
αj vj = ϑV .
j=1

So haben wir n n
X X
αj ϕ(vj ) = ϕ( αj vj ) = ϕ(ϑV ) = ϑW ,
j=1 j=1

also sind auch ϕ(v1 ), ..., ϕ(vn ) linear abhängig.


Satz 3.2.4. Es seien V, W K−Vektorraum, B ⊂ V eine Basis von V und ϕ0 :
B → W Abbildung. Dann gibt es genau eine lineare Abbildung ϕ : V → W mit der
Eigenschaft ϕ|B = ϕ0 , d.h.

ϕ(u) = ϕ0 (u) für alle u ∈ B.

Ferner gilt:

(i) Im ϕ = spanϕ0 (B),


(ii) ϕ ist genau dann injektiv, wenn ϕ0 (B) linear unabhängig ist,

(iii) ϕ ist genau dann bijektiv, wenn ϕ0 (B) eine Basis von W ist.
Beweis. Es sei v ∈ V . Dann existieren nach Satz 3.1.9 eindeutig bestimmte α1 , ..., αn ∈
K und u1 , ..., un ∈ B, so dass gilt
n
X
v= αj uj . (3.2.1)
j=1

Wir definieren die Abbildung ϕ : V → W durch


n
X
ϕ(v) := αj ϕ0 (uj ).
j=1

Wegen der Eindeutigkeit der Darstellung (3.2.1) ist ϕ wohldefiniert und es gilt ϕ|B =
ϕ0 . Ist v 0 = m 0 0
α10 , ..., αm
0
∈ K und u01 , ..., u0m ∈ B ein weiterer Vektor aus
P
α v
l=1 l l mit
84

V , so dürfen wir o.B.d.A. m = n und uj = u0j für 1 ≤ j ≤ n annehmen. Mit λ, λ0 ∈ K


gilt dann
Xn
0 0
λv + λ v = (λαj + λ0 αj0 )uj ,
j=1
also
n
X
0 0
ϕ(λv + λ v ) = (λαj + λ0 αj0 )ϕ0 (uj )
j=1
Xn n
X
0
= λ αj ϕ0 (uj ) + λ αj0 ϕ0 (uj )
j=1 j=1
0 0
= λϕ(v) + λ ϕ(v ).
Damit ist ϕ nach Bemerkung 1(ii) (S. 81) linear.
Pnweitere lineare Abbildung ψ : V → W
Zu zeigen die Eindeutigkeit betrachten wir eine
mit ψ|B = ϕ|B , dann folgt für jedes v = j=1 αj uj ∈ V mit α1 , ..., αn ∈ L und
u1 , ..., un ∈ B
Xn n
X
ϕ(v) = ϕ( αj uj ) = αj ϕ(uj )
j=1 j=1
n
X Xn
= αj ψ(uj ) = ψ( αj uj ) = ψ(v).
j=1 j=1

(i) folgt sofort aus Satz 3.2.3 (i).


(ii) folgt sofort aus (3.2.1) und Satz 3.2.2 (v).
(iii) folgt aus (i) und (ii).
Folgerung 3.2.5. Es seien V, W K−Vektorraum mit dimK V = n ∈ N0 , v1 , ..., vn ∈
V eine Basis von V und w1 , ..., wn ∈ W beliebig. Dann gibt es genau eine lineare
Abbildung ϕ : V → W mit
ϕ(vj ) = wj für alle j = 1, 2, ..., n
und es gilt:
(i) Im ϕ = span{w1 , ..., wn },
(ii) ϕ ist genau dann injektiv, wenn w1 , ..., wn linear unabhängig sind,

(iii) ϕ ist genau dann Isomorphismus, wenn w1 , ..., wn eine Basis von W ist.
Beweis. Wende Satz 3.2.4 auf B = {v1 , ..., vn } und ϕ0 : B → W mit
ϕ0 (vj ) := wj , j = 1, ..., n.
an.
85

3.2.2 Dimensionsformel für Vektorraum


Satz 3.2.6. Es seien V, W K−Vektorraum mit dimK V < ∞ und ϕ : V → W linear.
Dann gilt
dimK V = dimK (Ker ϕ) + dimK (Im ϕ).
Beweis. Es sei v1 , ..., vk ∈ V eine Basis von Ker ϕ. Diese lässt sich nach Satz 3.1.11
zu einer Basis v1 , ..., vk , vk+1 , ..., vn von V ergänzen.
Behauptung: ϕ(vk+1 ), ..., ϕ(vn ) ist eine Basis von Im ϕ (und damit dimK (Im ϕ) =
n − k = dimk V − dimK (Ker ϕ)).
Sei dazu w ∈ Im ϕ, dann existiert ein v = nj=1 αj vj ∈ V mit α1 , ..., αn ∈ K, so dass
P
gilt
n
X
w = ϕ(v) = αj ϕ(vj )
j=1
Xn
= αj ϕ(vj ) ∈ span{ϕ(vk+1 ), ..., ϕ(vn )},
j=k+1

also Im ϕ ⊂ span{ϕ(vk+1 ), ..., ϕ(vn )}. Die umgekehrte Inklusion ist klar und damit
Im ϕ = span{ϕ(vk+1 ), ..., ϕ(vn )}.
Seien nun αk+1 , ..., αn ∈ K gegeben mit
n
X n
X
αj ϕ(vj ) = ϕ( αj vj ) = ϑW ,
j=k+1 j=k+1
Pn
d.h. j=k+1 αj vj ∈ Kerϕ = span{v1 , ..., vk }. Dann existieren α1 , ..., αk ∈ K mit
k
X n
X
αj vj = αj vj .
j=1 j=k+1

Also
k
X n
X
− αj vj + αj vj = ϑV ,
j=1 j=k+1

dies liefert α1 = ... = αk = αk+1 = ... = αn = 0, da v1 , ..., vk , vk+1 , ..., vn eine Basis
von V ist. Damit sind die Vektoren ϕ(vk+1 ), ..., ϕ(vn ) auch linear unabhängig.
Definition 3.2.7. Es seien V, W K−Vektorraum mit dimK V < ∞ und ϕ : V → W
linear. Dann heißt
rg(ϕ) := dimK (Im ϕ)
Rang der linearen Abbildung ϕ.
86

Satz 3.2.8. Es seien V, W K−Vektorraum mit dimK V = dimK W = n ∈ N0 und


ϕ : V → W linear. Dann sind folgende Aussagen äquivalent:
(i) ϕ ist bijektiv, also ein Isomorphismus,
(ii) ϕ ist injektiv, also ein Monomorphismus,
(iii) ϕ ist surjektiv, also ein Epimorphismus,

(iv) rg(ϕ) = n,

(v) dim(Ker ϕ) = 0.
Beweis. Dach Definition (ii) und (iii) folgen aus (i). Lemma 3.2.2 (v) liefert (ii) ⇔
(v). Aus Satz 3.2.6 folgt (v) ⇔ (iv). Aus Satz 3.1.19 (ii) folgt (iii) ⇔ (iv). Da
(ii) ⇒ (iii) ist, gilt (ii) ⇒ (i) und (iii) ⇒ (i).

Bemerkung 2. Zwei endliche dimensionale K−Vektorräume V und W sind genau

dann isomorph (d.h. es existiert ein Isomorphismus ϕ : V → W , in Zeichen V ∼


= W ),
wenn gilt

dimK V = dimK W.

Insbesondere gilt für jeden K−Vektorraum V

dimK V = n ⇐⇒ V ∼
= K n.

3.3 Matrizen und lineare Gleichungssysteme


3.3.1 Matrizen
Definition 3.3.1. Sei K ein Körper. Ferner seien m, n ∈ N und αi,j ∈ K für
1 ≤ i ≤ m, 1 ≤ j ≤ n. Dann heißt
 
α1,1 α1,2 · · · α1,n
 α2,1 α2,2 · · · α2,n 
A := (αi,j ) 1≤i≤m :=  ..
 
.. .. 
1≤j≤n  . . . 
αm,1 αm,2 · · · αm,n

Matrix über K mit m Zeilen und n Spalten. (kurz: m×n Matrix über K). Die Menge
aller m × n Matrizen über K bezeichnen wir mit Mat(m, n, K).
87

Bemerkungen 3. (i) Ist (αi,j ) 1≤i≤m ∈ Mat(m, n, K) eine m × n Matrix über K, so


1≤j≤n
schreiben wir dafür auch einfach (αi,j ), wenn die Anzahl der Zeilen und Spalten klar

ist.

(ii) Für zwei Matrizen A = (αi,j ) ∈ Mat(m, n, K) und B = (βρ,σ ) ∈ Mat(r, s, K) gilt

A = B genau dann, wenn m = r, n = s und αi,j = βi,j für alle 1 ≤ i ≤ m, 1 ≤ j ≤ n

sind.

(iii) Ist A = (αi,j ) ∈ Mat(m, n, K), so bezeichnen wir für 1 ≤ i ≤ m mit

Ai := (αi,1 , αi,2 , ..., αi,n ) ∈ Mat(1, n, K)

den i−ten Zeilenvektor der Matrix A und für 1 ≤ j ≤ n mit


 
α1,j
 . 
. 
 .  ∈ Mat(m, 1, K)
Aj := 
αm,j

den j-ten Spaltenvektor der Matrix A.

Satz 3.3.2. Für A = (αi,j ) ∈ Mat(m, n, K), B = (βi,j ) ∈ Mat(m, n, K) und λ ∈ K


definieren wir
 
α1,1 + β1,1 · · · α1,n + β1,n
.. ..
A + B := (αi,j + βi,j ) =   ∈ Mat(m, n, K),
 
. .
αm,1 + βm,1 · · · αm,n + βm,n

bzw.  
λα1,1 · · · λα1,n
λA := (λαi,j ) =  ... ..
 ∈ Mat(m, n, K).
 
.
λαm,1 · · · λαm,n
Dann bildet Mat(m, n, K) zusammen mit den oben definierten Verknüpfungen einen
K− Vektorraum mit
dimK Mat(m, n, K) = m · n.

Beweis. Übung.
88

Bemerkung 4. (i) Die Nullmatrix


 
0 ··· 0
 . .. 
.
ϑ := 
 .  ∈ Mat(m, n, K)
. 
0 ··· 0

ist der Nullvektor in Mat(m, n, K).

(ii) Für 1 ≤ i ≤ m, 1 ≤ j ≤ n sei Ei,j der Matrix mit i−te Zeile , j− Spalt Eins und

aller anderen Einträge Null, also


 
0 ··· 0 ··· 0
 . .. .. 
 .. . . 
 
 
Ei,j :=  0 · · · 1 · · · 0  ∈ Mat(m, n, K).
 
 . .. .. 
 .. . . 
 
0 ··· 0 ··· 0

Dann ist {Ei,j ∈ Mat(m, n, K) : 1 ≤ i ≤ m, 1 ≤ j ≤ 1n} eine Basis von Mat(m, n, K).

(iii) Nach Satz 3.3.2 und Bemerkung 2 (S. 86) gilt für n ∈ N

Mat(n, 1, K) ∼
= Kn ∼
= Mat(1, n, K).

Wir identifizieren im folgenden den Zeilenvektorraum Mat(1, n, K) mit dem Vektor-

raum K n und bezeichnen den Spaltenvektorraum Mat(n, 1, K) mit Kn , d.h. wir

setzen

Kn := Mat(n, 1, K).
Definition 3.3.3. Es seien l, m, n ∈ N und A = (αλ,µ ) ∈ Mat(l, m, K), B = (βµ,ν ) ∈
Mat(m, n, K). Dann heißt die Matrix C = (γλ,ν ) ∈ Mat(l, n, K) mit
m
X
γλ,ν := αλ,µ βµ,ν für 1 ≤ λ ≤ l, 1 ≤ ν ≤ n
µ=1

das Matrixprodukt von A und B in Zeichen

C = A · B.
89

Bemerkung 5. (i) Für l = n = 1 und

A = (α1 , ..., αm ) ∈ K m = Mat(1, m, K),



β
 . 
. 
 .  ∈ Mat(m, 1, K)
B=
βm
bezeichnen wir das Matrixprodukt
 
β m
 .  X
 .
A · B = (α1 , ..., αm ) ·  .  =
 αµ βµ ∈ K
µ=1
βm

auch als Skalarprodukt des Zeilenvektor A mit dem Spaltenvektor B.

(ii) Für
 
A1
 . 
. 
 .  ∈ Mat(l, m, K),
A = (αλ,µ ) = 
Am
B = (βµ,ν ) = (B1 , ..., Bn ) ∈ Mat(m, n, K)

ist der Koeffizient γλ,ν der Productmatrix C = A · B = (γλ,ν ) für 1 ≤ λ ≤ l, 1 ≤ ν ≤ n

gegeben durch das Skalarprodukt des λ−ten Zeilenvektor von A mit dem ν−ten

Spaltenvektor von B, d.h.


 
β1,ν
 . 
γλ,ν = Aλ · Bν = (αλ,1 , ..., αλ,m ) ·  . 
 . .
βm,ν
90

Insgesamt gilt also


 
α1,1 · · · α1,m
 . ..   
 .. .  β1,1 · · · β1,ν · · · β1,n
 
  . .. ..
 ·  ..
 
A·B = 
 αλ,1 · · · αλ,m   . . 

 . ..
 ..

 . 
 βm,1 · · · βm,ν · · · βm,n
αl,1 · · · αl,m
 
A1 · B1 · · · A1 · Bν · · · A1 · Bn
 .. .. .. 

 . . . 

 
=  λ λ λ .
 A · B1 · · · A · Bν · · · A · Bn 
 .. .. .. 

 . . . 

Al · B1 · · · Al · Bν ··· Al · Bn

Lemma 3.3.4. Es sei K ein Körper und k, l, m, n ∈ N. dann gilt für A, A0 ∈


Mat(k, l, K), B, B 0 ∈ Mat(l, m, K), C ∈ Mat(m, n, K) und λ ∈ K

(i) (A + A0 ) · B = A · B + A0 · B,

(ii) A · (B + B 0 ) = A · B + A · B 0 ,

(iii) (A · B) · C = A · (B · C),

(iv) λ(A · B) = (λA) · B = A · (λB).

Beweis. Übung.

Folgerung 3.3.5. Es sei K ein Körper, m, n ∈ N und A ∈ Mat(m, n, K). Dann ist
die Abbildung
ϕA : x ∈ Kn 7−→ A · x ∈ Km
linear.

Beweis. Für alle x, y ∈ Kn und α, β ∈ K gilt


3.3.4(ii)
ϕA (αx + βy) = A · (αx + βy) = A · (αx) + A · (βy)
3.3.4(iv)
= α(A · x) + β(A · y) = αϕA (x) + βϕA (y).
91

Bemerkung 6. Ist ϕ : Kn → Km ein beliebige lineare Abbildung und ist E =

{e1 , ..., en } bzw. E 0 = {e01 , ..., e0m } die kanonische Basis von Kn bzw. Km , dann gibt

es für jedes eν , 1 ≤ ν ≤ n eindeutig bestimmte Skalare α1,ν , ..., αm,ν ∈ K, so dass gilt

(vgl. Satz 3.1.9)


 
m
α1,ν
X  . 
ϕ(eν ) = αµ,ν e0µ =  . 
 . .
µ=1
αm,ν
Damit gilt für jedes 
x1 n
 .  X
.
x= . =
  xν eν ∈ Kn
ν=1
xn

Xn n
X n X
X m
ϕ(x) = ϕ( xν eν ) = xν ϕ(eν ) = xν αµ,ν e0µ
ν=1 ν=1 ν=1 µ=1
 Pn 
m X n ν=1 α 1,ν x ν
X
0
 .. 
= ( αµ,ν xν )eµ = 
 . 

µ=1 ν=1 Pn
ν=1 αm,ν xν
   
α1,1 · · · α1,n x1
 . .. 
..  ·  ...  = A · x
 
= 
 .   
αm,1 · · · αm,n xn

mit A := (αµ,ν ) ∈ Mat(m, n, K). Also lässt sich jede lineare Abbildung ϕ : Kn → Km

in der Form ” Matrix mal Vektor” darstellen.

Definition 3.3.6. Es sein K ein Körper, m, n ∈ N und A ∈ Mat(m, n, K). Dann


heißt
rg(A) := rg(ϕA ) = dimK (Im ϕA )
mit ϕA : x ∈ Kn 7−→ A · x ∈ Km Rang der Matrix A.
92

Bemerkung 7. Nach Folgerung 3.2.5 gilt für A ∈ Mat(m, n, K)

Im ϕA = span{ϕA (e1 ), ..., ϕA (en )}

= span{Ae1 , ..., Aen }

= span{A1 , ..., An } / Km .

Daraus folgt

rg(A) = dimK (span{A1 , ..., An }).

damit ergibt sich insbesondere

rg(A) ≤ min{m, n}.

3.3.2 Lineare Gleichungssysteme

Es sei K ein Körper und m, n ∈ N. Ferner A = (αµ,ν ) ∈ Mat(m, n, K) und


 
β1
 . 
. 
 .  ∈ Km .
b=
βm

Dann heißt 


 α1,1 x1 + α1,2 x2 + ... + α1,n xn = β1


 α x + α x + ... + α x = β
2,1 1 2,2 2 2,n n 2
(3.3.1)


 ...


 α x + α x + ... + α x = β
m,1 1 1,2 2 m,n n m

eine lineare Gleichungssystem (kurz LGS) mit der Koeffizientmatrix A und der rechten

Seite b. Fasst man die Unbestimmten x1 , ..., xn zu einen Spaltenvektor


 
x1
 . 
. 
x=  .  ∈ Kn
xn
93

zusammen, so lässt sich die LGS in der Form

A·x=b (3.3.2)

schreiben. Für b = ϑ ∈ Km heißt die LGS (3.3.2) homogen, ansonsten nennt man

(3.3.2) inhomogen.

Fragestellungen:

(i) Lösbarkeit, d.h. unter welchen Bedingungen an A bzw, b gibt es ein x ∈ Kn mit

A · x = b.

(ii) Universelle Lösbarkeit, d.h. unter welche Bedingungen an A ist (3.3.2) für alle

mögliche b ∈ Km lösbar.

(iii) Eindeutige Lösbarkeit, d.h. unter welche Bedingungen an A ist die Lösung

von (3.3.2) eindeutig bestimmt.

(iv) Berechnung der Lösungen.

Satz 3.3.7. Es sei K ein Körper und m, n ∈ N. Ferner sei A ∈ Mat(m, n, K) und
ϑ 6= b ∈ Km . Dann gilt

(i) Die Lösungsmenge


W := {x ∈ Kn : A · x = ϑ}
des homogenen Gleichungssystems ist ein Untervektorraum von Kn mit

dimK W = n − rg(A).

(ii) Die Lösungsmenge


X := {x ∈ Kn : A · x = b}
des inhomogenen Gleichungssystems ist entweder leer, oder es gilt für jedes x0 ∈
X
X = x0 + W = {x0 + w ∈ Kn : w ∈ W },
wobei W der in (i) definierte Untervektorraum von Kn ist.
94

Beweis. (i) Mit ϕA : x ∈ Kn 7−→ A · x ∈ Km gilt W = Ker ϕA . Die Behauptung folgt


daher sofort aus Lemma 3.2.2 (iv) und Satz 3.2.6.
(ii) Sei x0 ∈ X. Dann gilt

x∈X ⇔ A·x=b
⇔ A · (x − x0 ) = A · x − A · x0 = b − b = ϑ
⇔ x − x0 ∈ W
⇔ x ∈ x0 + W.

Beispiel: Es sei A = (α1 , α2 ) ∈ Mat(1, 2, R) mit α2 6= 0 und 0 6= b ∈ R. Für das

LGS

A · x = α1 x1 + α2 x2 = b

gilt
( ! ) ( ! )
x1 x1
W = ∈ R2 : A · x = 0 = ∈ R2 : α1 x1 + α2 x2 = 0
x2 x2
( ! )
x1 α1
= ∈ R2 : x 2 = − x 1
x2 α2
= span{w0 }

mit !
1
w0 = .
− αα12
Ferner ist offensichtlich !
0
x0 =
b
α2

eine Lösung der inhomogenen Gleichung

Ax = b.
95

Also ist

X = {x ∈ R2 : Ax = b} = {x0 + sw0 ∈ R2 : s ∈ R}
( ! )
s
= ∈ R2 : s ∈ R .
b−sα1
α2

Definition 3.3.8. Es sei K ein Körper und m, n ∈ N. Für A = (αµ,ν ) ∈ Mat(m, n, K)


und  
β1
b =  ...  ∈ Km
 
βm
heißt
 
α1,1 · · · α1,n β1
(A|b) := (A1 , ..., An , b) =  ... .. ..  ∈ Mat(m, n + 1, K)

. . 
αm,1 · · · αm,n βm

die erweiterte Matrix (oder auch Systemmatrix) des LGS A · x = b.

Satz 3.3.9. Für A ∈ Mat(m, n, K) und b ∈ Km sind folgende Aussagen äquivalent:

(i) Das LGS A · x = b ist lösbar,

(ii) b ∈ span{A1 , ..., An },

(iii) rg(A) = rg(A|b).

Beweis. Für jedes x ∈ Km gilt

A · x = x1 · A1 + ... + xn · An ∈ span{A1 , ..., An }.

daher gilt nach Bemerkung 7

A · x = b ist lösbar ⇔ b ∈ span{A1 , ..., An }


⇔ span{A1 , ..., An , b} = span{A1 , ..., An }
⇔ rg(A|b) = rg(A).

Folgerung 3.3.10. Für A ∈ Mat(m, n, K) sind folgende Aussagen äquivalent:


96

(i) Das LGS A · x = b ist universell lösbar (d.h. zu jedem b ∈ Km existiert ein
x ∈ Kn mit A · x = b),

(ii) rg(A) = m.

Beweis. Es gilt
3.3.9
A · x = b ist lösbar ⇔ b ∈ span{A1 , ..., An } für alle b ∈ Km
⇔ span{A1 , ..., An , b} = span{A1 , ..., An }, ∀ b ∈ K
⇔ Km = span{A1 , ..., An }
⇔ m = dim(span{A1 , ..., An })=rg(A).

Die letzte Gleichung folgt aus Bemerkung 7.

Satz 3.3.11. Es seien A ∈ Mat(m, n, K) und b ∈ Km gegeben, so dass A · x = b


mindestens eine Lösung x ∈ Kn besitzt. Dann sind äquivalent:

(i) Das LGS A · x = b ist eindeutig lösbar,

(ii) rg(A) = n,

(iii) Das zugehörige homogene LGS A · x = ϑ besitzt nur die triviale Lösung x = ϑ ∈
Kn .

Beweis. Es gilt
3.3.7(ii)
A · x = b ist eindeutig lösbar ⇔ A · x = ϑ besitzt nur die Lösung x = θ
3.3.7(i)
⇔ rg(A) = n.

Folgerung 3.3.12. Für eine quadratische Matrix A ∈ Mat(n, n, K) sind folgende


Aussagen äquivalent:

(i) Das LGS A · x = b ist für alle b ∈ Kn lösbar,

(ii) Das LGS A · x = b ist für (mindestens) ein b ∈ Kn eindeutig lösbar,

(iii) Das LGS A · x = ϑ besitzt nur die triviale Lösung x = ϑ,

(iv) Das LGS A · x = b ist für alle b ∈ Kn eindeutig lösbar,

(v) rg(A) = n.
97

Beweis. Folgt sofor aus Folgerung 3.3.10 und Satz 3.3.11.


Definition 3.3.13. Es sei K ein Körper und n ∈ N.

(i) Die quadratische Matrix


··· 0
 
1 0
. . . .. 
0 1 . 

En :=   ∈ Mat(n, n, K)

.. ... ...
 . 0 
0 ··· 0 1
heißt n × n Einheitsmatrix.

(ii) Die quadratische Matrix A ∈ Mat(n, n, K) heißt invertierbar (oder auch regulär),
wenn es ein A0 ∈ Mat(n, n, K) gibt, so dass gilt

A0 · A = En .

Die Menge aller invertierbaren n × n- Matrizen bezeichnen wir mit GL(n, K), d.h.

GL(n, K) := {A ∈ Mat(n, n, K) : A ist invertierbar}.

Lemma 3.3.14. Es sei K ein Körper und m, n ∈ N.

(i) Für alle A ∈ Mat(m, n, K) gilt

Em · A = A · En = A.

(ii) GL(n, K) ist zusammen mit der Matrizenmultiplikation eine Gruppe.


Beweis. (i) Für µ, ν ∈ N definieren wir das Kronecker2 -Symbol δj,k ∈ K durch

0, falls j 6= k,
δj,k :=
1, falls j = k.

Dann gilt für A = (αλ,µ ) ∈ Mat(m, n, K)

Em · A = (δλ,µ )1≤λ,µ≤m · (αµ,ν ) 1≤µ≤m


1≤ν≤n
m
!
X
= δλ,µ αµ,ν
1≤λ≤m
µ=1 1≤ν≤n
= (αλ,µ ) 1≤λ≤m = A,
1≤ν≤n

2
Leopold Kronecker, 1823-1891
98

A · En = (αµ,ν ) 1≤µ≤m · (δν,ρ )1≤ν,ρ,leqn


1≤ν≤n
n
!
X
= αµ,ν δν,ρ
1≤µ≤m
ν=1 1≤ρ≤n
= (αµ,ρ )1≤µ≤m = A.
1≤ρ≤n

(ii) Es genügt zu zeigen: Für A, B ∈ GL(n, K) gilt A·B ∈ GL(n, K). Nach Definition
3.3.13 existieren A0 , B 0 ∈ Mat(n, n, K) mit

A0 · A = B 0 · B = En .

Setze C := B 0 · A0 ∈ Mat(n, n, K) , dann folgt

C · (A · B) = (C · A) · B = (B 0 · (A0 · A)) · B
(i)
= (B 0 · En ) · B = B 0 · B = En .

Bemerkungen 8. (i) Nach Lemma 3.3.14 ist En das neutrale Element von GL(n, K).

Wie überlich, bezeichnen wie die inverse Matrix zu A ∈ GL(n, K) mit A−1 . Es gilt

(vgl. Lemma 2.1.4)

A−1 · A = A · A−1 = En .

(ii) Im allgemeinen ist die Gruppe GL(n, K) nicht kommutativ. Setze zum Beispiel
! !
1 1 1 0
A= , B= .
0 1 1 1

Dann gilt A, B ∈ GL(2, K) mit


! !
1 −1 1 0
A−1 = und B −1 = ,
0 1 −1 1

sowie ! !
2 1 1 1
A·B = 6= = B · A.
1 1 1 2
99

Folgerung 3.3.15. Für eine quadratische Matrix A ∈ Mat(n, n, K) sind folgende


Aussagen äquivalent:
(i) A ist regulär,

(ii) rg(A) = n.
Beweis. ”(i) ⇒ (ii)” Für alle b ∈ Kn gilt
A · x = b ⇔ A−1 · (A · x) = (A−1 · A) · x = En · x = x = A−1 · b,
d.h. für alle b ∈ Kn ist das LGS A·x = b eindeutig lösbar (mit der Lösung x = A−1 ·b).
Nach Folgerung 3.3.12 gilt daher rg(A) = n
”(ii) ⇒ (i)” Nach Folgerung 3.3.12 existiert für 1 ≤ ν ≤ n genau eine Lösung
Xν ∈ Kn des des LGS
A · Xν = ev .
Also erhalten wir mit X := (X1 , ..., Xn ) ∈ Mat(n, n, K)
A · X = (A · X1 , ..., A · Xn ) = (e1 , ..., en ) = En ,
d.h. X ∈ GL(n, K) und damit A = X −1 ∈ GL(n, K).

3.4 Der Gauß- Algorithmus

In diesem Abschnitt diskutieren wir den Gauß3 - Algorithmus zur Lösung von LGS.

3.4.1 Elementare Zeilenumformungen


Lemma 3.4.1. Ist A ∈ Mat(m, n, K) und b ∈ Km , dann bleibt die Lösungsmenge
des LGS
A·x=b
invariant unter folgenden Operationen:
(EZ1) Multiplikation einer Gleichung mit einen Skalar λ ∈ K \ {0},

(EZ2) Addition der i−ten Gleichung


αi,1 x1 + ... + αi,n xn = βi
zur j−ten Gleichung
αj,1 x1 + ... + αj,n xn = βj
für i, j ∈ {1, ..., m} mit i 6= j,
3
Johann Carl Friedrich Gauß, 1777-1855
100

(EZ3) Vertauschung zwei Gleichungen.


Beweis. Übung.

Bemerkungen 9. (i) Für A ∈ Mat(m, n, K) und b ∈ Km entsprechen die ele-

mentaren Zeilenumformungen (EZ1)-(EZ2) aus Lemma 3.4.1 folgenden Umformungen

der Systemmatrix (A|b) des LGS A · x = b:

(EZ1) entspricht der Multiplikation einer Zeile von (A|b) mit einem Skalar λ ∈ K\{0},

(EZ2) entspricht der Addition der i−ten Zeile von (A|b) zur j−ten Zeile von (A|b),

wobei i, j ∈ {1, ..., m} mit i 6= j ist,

(EZ3) entspricht der Vertauschung zwei Zeilen von (A|b).

(ii) Die Operationen (EZ1), (EZ2) (bzw. die entsprechenden Umformungen der Sys-

temmatrix (A|b)) kann man zusammenfassen zu

(EZ4) Addition des λ−fachen der i−ten Gleichung

αi,1 x1 + ... + αi,n xn = βi

zur j−ten Gleichung

αj,1 x1 + ... + αj,n xn = βj

mit λ ∈ K \ {0} und i, j ∈ {1, ..., m}, i 6= j.


Satz 3.4.2. Es sei A, à ∈ Mat(m, n, K) und à entstehe aus A durch elementare
Zeilenumformungen (EZ1)-(EZ3), dann gilt
rg(A) = rg(Ã),
d.h. durch die elementare Zeilenumformungen ändert sich der Rang einer Matrix
nicht.
Beweis. Nach Lemma 3.4.1 gilt
{x ∈ Kn : A · x = ϑ} = {x ∈ Kn : Ã · x = ϑ}.
Daher folgt aus Satz 3.3.7
n − rg(A) = n − rg(Ã).
101

3.4.2 Spaltenvertauschungen

Es sei A = (A1 , ..., An ) ∈ Mat(m, n, K), b ∈ Km und 1 ≤ i < j ≤ n. ist dann à :=

(A1 , ..., Ai−1 , Aj , Ai+1 , ..., Aj−1 , Ai , Aj+1 , ..., An ) ∈ Mat(m, n, K) diejenige Matrix, die

aus A durch Vertauschung der i−ten Spalte mit der j−ten Spalte entsteht, so gilt

A · x = b ⇔ Ã · x̃ = b

mit  
x1
 . 
 . 
 . 
 
 x 
 i−1 
 
 xj 
 
 
 xi+1 
 . 
 
x̃ :=  ..  ,
 
 xj−1 
 
 
 x 
 i 
 
 xj+1 
 
 .. 
 . 
 
xn
d.h. Spaltenvettauschungen in der Matrix A entsprechen einer Umnummerierung der

Koordinaten des Lösungsvektors x.

Wir wollen nun durch wiederholte Anwendung von elementaren Zeilenoperationen

und Spaltenvertauschungen die Systemmatrix (A|b) des LGS

A·x=b
102

auf die Gestalt


 
α̃ α̃ · · · α̃1,r α̃1,r+1 · · · α̃1,n β̃1
 1,1 1,2 
2,2 · · · α̃2,r α̃2,r+1 · · · α̃2,n
 0 α̃ β̃2 
 
 . . . . . . .. 
 .. .. .. .. .. .. . 
 
 
(Ã|B̃) = 
 0 ··· 0 α̃r,r α̃r,r+1 · · · α̃r,n β̃r 

 

 β̃r+1 

 .. 

 0 0 . 

β̃m

mit α̃1,1 · α̃2,2 · · · α̃r,r 6= 0 bringen.


Lemma 3.4.3. Es sei A = (αµ,ν ) ∈ Mat(m, n, K) gegeben mit α1,1 6= 0 und
 
β1
B =  ...  .
 
βm

Dann lässt sich die Systemmatrix (A|b) des LGS

A·x=b

durch Addition des (− ααµ,1


1,1
)−fachen der ersten Zeile zur µ−ten Zeile für µ = 2, ..., m
auf die Gestalt  
α1,1 α1,2 · · · α1,n β1
 0 α̃2,2 · · · α̃2,n β̃2 
(Ã|b̃) =  ..
 
.. .. .. 
 . . . . 
0 α̃m,2 · · · α̃m,n β̃m
bringen, d.h. wir setzen

α̃µ,ν := αµ,ν − ααµ,1


(
1,1
α1,ν für 2 ≤ µ ≤ m, 2 ≤ ν ≤ n,
αµ,1
β̃µ := βµ − α1,1 β1 für 2 ≤ µ ≤ m.

Es gilt
(i) A · x = b ⇔ Ã · x = b̃,
(ii)  
α̃2,2 · · · α̃2,n
rg  ... ..  = rg(A) − 1,

. 
α̃m,2 · · · α̃m,n
103

(iii)  
α̃2,2 · · · α̃2,n β̃1
rg  ... .. ..  = rg(A|b) − 1.

. . 
α̃m,2 · · · α̃m,n β̃m
Beweis. Folgt sofort aus Lemma 3.4.1 und Satz 3.4.2.

Bemerkung 10. Die in Lemma 3.4.3 beschriebene Umformung der Matrix (A|b) in

die Matrix (Ã|b̃) entspricht der Matrixmultiplikation

(Ã|b̃) = L · (A|b)

mit  
1 0 0 0
 
 − α2,1 1 0 0 
α1,1
L :=   ∈ GL(m, K).
 
.. .

 . 0 .. 0 

αm,1
− α−1,1 0 ··· 1
Wiederholte Anwendung von Lemma 3.4.3 liefert nun das Gaußsche Eliminationsver-

fahren.

3.4.3 Das Gaußsche Eliminationsverfahren

Es sei A = (αµ,ν ) ∈ Mat(m, n, K) eine matrix mit r := rg(A) > 0 (d.h. A 6= ϑ) und
 
β1
 . 
. 
 .  ∈ Km .
b := 
βm

Wir setzen ( (1)


αµ,ν := αµ,ν für 1 ≤ µ ≤ m, 1 ≤ ν ≤ n,
(1)
βµ := βµ für 1 ≤ µ ≤ m
Für k = 1, ..., min{r, m − 1} führen wir die folgenden Schritte aus:
104

1. Bestimme zk ∈ {k, ..., m} und sk ∈ {k, ..., n} mit

αz(k)
k ,sk
6= 0.

(k) (k) (k) (k)


2. Vertausche αk,ν mit αzk ,ν für ν = k, ..., n. Vertausche βk mit βzk . Vertausche
(k) (k)
αµ,ν mit αµ,sk für µ = k, ..., m.

3. Für µ = k + 1, ..., m und ν = k + 1, ..., n setze


 (k)
(k+1) (k) α (k)
 αµ,ν
 := αµ,ν − µ,k (k) αk,ν
αk,k
(k)
αµ,k
 βµ(k+1) := αµ(k) −

(k)
(k)
βk .
αk,k

Dann erhalten wir nach min{r, m − 1}-Schritten die umgeformte Systemmatrix


 
(1) (1) (1) (1) (1) (1)
α̃ α̃1,2 · · · α̃1,r α̃1,r+1 · · · α̃1,n β̃1
 1,1 
 0 α̃(2) · · · α̃(2) α̃(2) (2)
· · · α̃2,n β̃2
(2) 
 2,2 2,r 2,r+1 
 . .. .. .. .. .. .. 
 .. . . . . . . 
 
(r) (r) (r) (r) 
 
(Ã|b̃) = 
 0 ··· 0 α̃r,r α̃r,r+1 · · · α̃r,n β̃r 
 (r+1) 

 β̃r+1  
 .. 

 0 0 . 

(r+1)
β̃m

(1) (r)
mit α̃1,1 · · · α̃r,r 6= 0.

Ferner gilt

(i) rg(A) = rg(Ã), rg(A|b) = rg(Ã|b̃),

(r+1) (r+1)
(ii) A · x = b ist genau dann lösbar, wenn r = m oder βr+1 = ... = βm = 0 ist,

(iii) Im Fall r = n besitzt das LGS A · x = b höhstens eine Lösung.


105

Bemerkung 11.: (i) Im Vektor (z1 , ..., zr ) bzw. (s1 , ..., sr ) sind die zeilen- bzw.

Spaltenvertauschungen abgespeichert.

(ii) Mit Hilfe des Gauß-Algorithmus kann man leicht zeigen, dass gilt

rg(A) = dim(span{A1 , ..., Am }).

Übrigens ist dim(span{A1 , ..., Am } derb sogenannte Zeilenrang der Matrix A.

Beispiel 3.4.1: Es sei K = R. Betrachten das LGS A · x = b:





 x1 + 3x2 − 4x3 + 3x4 = 9

 3x + 9x − 2x − 11x = −3

1 2 3 4


 4x1 + 12x2 − 6x3 − 8x4 = 6


 2x + 6x + 2x − 14x = −12.
1 2 3 4

Wir formen nach dem angegebenen Schema mit z1 = 1, s1 = 1 und z2 = 2, s2 = 3 um:

x1 x2 x3 x4 b(1)
1 3 −4 3 9
3 9 −2 −11 −3
4 12 −6 −8 6
2 6 2 −14 −12
x1 x2 x3 x4 b(2)
1 3 −4 3 9
0 0 10 −20 −30
0 0 10 −20 −30
0 0 10 −20 −30
x1 x3 x2 x4 b(2)
1 −4 3 3 9
0 10 0 −20 −30
0 10 0 −20 −30
0 10 0 −20 −30
106

x1 x3 x2 x4 b(3)
1 −4 3 3 9
0 10 0 −20 −30
0 0 0 0 0
0 0 0 0 0

3.4.4 Rücksubstitution und Beispiele

Es sei A = (αµ,ν ) ∈ Mat(m, n, K) eine Matrix der Form


 
α1,1 α1,2 · · · α1,r α1,r+1 · · · α1,n
 
 0
 α2,2 · · · α2,r α2,r+1 · · · α2,n 

 .. .. .. .. .. .. 
 .
 . . . . . 

A= 0 ··· αr,r αr,r+1 · · ·
 
0 αr,n 
 
 
 
 

 0 0 

mit α1,1 · · · αr,r 6= 0 und


 
β1
 . 
. 
 .  ∈ Km
b=
βm
ein Vektor mit βr+1 = ... = βm = 0. ferner seien xr+1 , ..., xn ∈ K beliebig vorgegeben

und !
n
1 X
xν := bν − αν,j xj , ν = r, r − 1, ..., 2, 1.
αν,ν j=ν+1

Dann ist der Vektor 


x1
 . 
. 
 .  ∈ Kn
x := 
xn
107

eine Lösung des LGS A · x = b.

Wählt man insbesondere xr+1 = ... = xn = 0, so erhält man die spezielle Lösung
 
x
 .1 
 . 
 . 
 
 x 
 r 
x :=   ∈ Kn
 0 
 
 .. 
 . 
 
0

mit !
r
1 X
xν := bν − αν,j xj , ν = r, r − 1, ..., 2, 1.
αν,ν j=ν+1

Beispiel 3.4.2: Wir greifen nochmal das LGS aus Beispiel 3.4.1 auf. Nach den dort

durchgeführten Umformungen gilt bei beliebiger Wahl von x2 , x4 ∈ R: x ist genau

dann eine Lösung des LGS A · x = b, wenn gilt


(
x1 − 4x3 + 3x2 + 3x4 = 9,
0x1 + 10x3 + 0x2 − 20x4 = 30,

d.h.

x3 = −3 + 2x4

x1 = 9 + 4x3 − 3x2 − 3x4

= −3 − 3x2 + 5x4 .

Also  
−3 − 3x2 + 5x4
 
 x2 
A·x=b ⇔ x=  = x∗ + x2 w2 + x4 w4
 

 −3 + 2x4 

x4
108

mit      
−3 −3 5
     
 0   −1   0 
x∗ :=  w2 :=  w4 :==   .
     
 
 −3   0   2 
     
0 0 1
Insbesondere ist w2 , w4 eine Basis von

W := {x ∈ R4 : A · x = ϑ}.

Bemerkung 12. (i) Anstelle der beschriebenen Rücksubstitution kann man die

Matrix  
α1,1 α1,2 · · · α1,r α1,r+1 · · · α1,n β1
 
 0
 α2,2 · · · α2,r α2,r+1 · · · α2,n β2 
 .. .. .. .. .. .. .. 
 .
 . . . . . . 

(A|b) =  0 ··· 0 αr,r αr,r+1 · · · αr,n βr 
 
 
 
 
 

 0 0 0  

mit α1,1 · · · αr,r 6= 0 durch elementare Zeilenumformungen auf die Gestalt


 
(1) (1) (1)
α 0 0 0 α1,r+1 · · · α1,n β1
 1,1
.

 0 α2,2 . . 0 α2,r+1 · · ·
(2) (2) (2) 
α2,n β2 

 . .. .. .. 
 . .. ..
 . . . 0 . . . 

 
(r) (r) (r)
(Ã|b̃) =  0 · · · 0 αr,r αr,r+1 · · ·
 αr,n βr  
 
 
 
 

 0 0 0  

bringen. Dabei ist


( (r)
αµ,ν := αµ,ν für 1 ≤ µ ≤ r r + 1 ≤ ν ≤ n,
(r)
βµ := βµ für 1 ≤ µ ≤ r
109

und für k = r, r − 1, ..., 3.2



(k−1) (k) α (k)
 αµ,ν := αµ,ν − αµ,k
k,k
αk,ν für 1 ≤ µ ≤ k − 1 r + 1 ≤ ν ≤ n,
 βµ(k−1) := βµ(k) − αµ,k β (k) für 1 ≤ µ ≤ k − 1.
αk,k k

Ein Vektor x ∈ Kn ist demnach genau dann eine Lösung des LGS A · x = b, wenn gilt
n
!
1 X (ν)
xν = βν(ν) − αν,j xj
αν,ν j=r+1

mit beliebigen xr+1 , ..., xn ∈ K, d.h.


n
X

x=x + xj wj
j=r+1

mit der speziellen Lösung


(1)
 
β1
α1,1
 .. 
 
 . 
 (r) 
 βr 
x∗ :=  αr,r  ∈ Kn
 
 0 
 
 . 
 .. 
 
0
und  (1) 
α1,j
− α1,1
..
 
.
 
 
 (r)

 αr,j 
 αr,r

 
0
 
wj :=   für r + 1 ≤ j ≤ n,
 
..
.
 
 
 

 1 

 .. 

 . 

0
wobei das Eins an j−ten Zeile ist. Insbesondere bilden die Vektoren wr+1 , ..., wn eine

Basis von

W := {x ∈ Kn : A · x = ϑ}.
110

Beispiel 3.4.3: Es sei K := Z7 und


 
4 0 0 2 2 2
 
 5 1 3 0 0 3 
A=  ∈ Mat(4, 6, K),
 
 2 2 1 1 1 0 
 
3 0 3 6 4 3
 
5
 
 5 
b =   ∈ K4 .
 
 5 
 
2
Wir wenden zu nächst das Gaußsche Verfahren mit (z1 = 1, s1 = 1), (z2 = 2, s2 = 2)

und (z3 = 3, s3 = 3) an
x1 x2 x3 x4 x5 x6 b
4 0 0 2 2 2 5
5 1 3 0 0 3 5
2 2 1 1 1 0 5
3 0 3 6 4 3 2
4 0 0 2 2 2 5
0 1 3 1 1 4 4
0 2 1 0 0 6 6
0 0 3 1 6 5 0
4 0 0 2 2 2 5
0 1 3 1 1 4 4
0 0 2 5 5 5 5
0 0 3 1 6 5 0
4 0 0 2 2 2 5
0 1 3 1 1 4 4
0 0 2 5 5 5 5
0 0 0 4 2 1 3
111

Die Anwendung von Bemerkung 12 liefert

x1 x2 x3 x4 x5 x6 b
4 0 0 0 1 5 0
0 1 3 0 4 2 5
0 0 2 0 6 2 3
0 0 0 4 2 1 3
4 0 0 0 1 5 0
0 1 0 0 2 6 4
0 0 2 0 6 2 3
0 0 0 4 2 1 3

Daher ist

{x ∈ K6 : A · x = b} = x∗ + W

mit  
0
 

 4 

 
5 
x∗ := 


6 
 

 

 0 

0
und

W = {x ∈ K6 : A · x = ϑ} = span{w5 , w6 }

mit    
5 4
   

 5 


 1 

   
 4   6 
w5 :=   w6 :=  .
3  5 
   
 
   

 1 


 0 

0 1
Kapitel 4

Determinanten

4.1 Determinanten
Definition 4.1.1. Es sei K ein Körper und n ∈ N. Dann heißt eine Abbildung
det: Mat(n, n, K) → K
Determinante, wenn folgende Eigenschaften erfüllt sind:
(D1) det ist bzgl. jeder Zeile linear, d.h. für jedes 1 ≤ v ≤ n gilt
A1
 1   1 
A
 
A
.. ..  . 
.  .   .. 
   
 
det  Av + Ãv  = det  Av  + det  Ãv 
     
..  ...   ... 
     
 . 
An An An
und
A1 A1
   
 ..  .. 
 .  . 


det  λAv  = λdet  Av 
   
 .  .. 
 .. 

 . 
An An
für alle λ ∈ K, A1 , ..., Av , Ãv , ..., An ∈ K n
 .
A1
(D2) det ist alternierend, d.h. ist A =  ...  ∈ Mat(n, n, K) und existiert 1 ≤
 
An
u < v ≤ n mit Au = Av , dann folgt
det(A) = 0.

112
113

(Mit anderen Worten: stimmen in der Matrix zwei Zeilen überein, so verschwinde
die Determinante).
(D3) det ist normiert mit det(En ) = 1.
Satz 4.1.2. Zu jedem Körper K und jedem n ∈ N gibt es genau eine Determinante

det: Mat(n, n, K) → K.

Proof. relativ umständlich.


Satz 4.1.3. Es sei K ein Körper und n ∈ N. Dann erfüllt die nach Satz 4.1.2
eindeutig bestimmte Determinante

det: Mat(n, n, K) → K

die folgende Eigenschaften:


(D4) det(λ · A)= λn det(A)
 für alle λ ∈ K, A ∈ Mat(n, n, K),
1
A
 .. 
(D5) Ist A =  .  ∈ Mat(n, n, K) und Av = (0, ..., 0) für ein v ∈ {1, 2, ..., n},
An
dann folgt
det(A) = 0.
(D6) Ist A ∈ Mat(n, n, K), so gilt für 1 ≤ v < u ≤ n
 1 
A1
 
A
 ..  .. 
 .  . 


 v 
 A  Au 
 

 .   .. 
det(A) = det   .
.  = −det 
  .  .
 Au   A  v 
  
 .  .. 
 .. 

 . 
n
A An

(D7) Ist A ∈ Mat(n, n, K), so gilt für 1 ≤ v < u ≤ n


 1 
A1
 
A
 ..  ..
 .  .
 
 
 v 
 A  Av
 
 
 .   .. 
det(A) = det  ..  = det 
  . .

 Au   Au + λAv 
   
 .  ..
 .. 
 
 . 
n
A An
114

(D8) Ist A ∈ Mat(n, n, K) eine obere bzw. untere Dreiecksmatrix, d.h. es gilt αu,v =
0 für all 1 ≤ v < u ≤ n (bzw. 1 ≤ u < v ≤ n), so gilt
n
Y
det(A) = αk,k = α1,1 · · · αn,n .
k=1

(D9) Ist A ∈ Mat(n, n, K), so gilt


det(A) = 0 ⇐⇒ A1 , ..., An sind linear abhängig.
(D10) Ist A ∈ Mat(n, n, K), so gilt
det(A) 6= 0 ⇐⇒ A ∈ GL(n, K).
(D11) Es gilt der Determinanten-Multiplikationssatz: Für alle A, B ∈ Mat(n, n, K)
gilt
det(A · B) = det(A) · det(B).

Bemerkung 4.1: (i) Nach Satz 4.1.3 (D7) bleibt die Determinante einer Matrix

invariant unter der in §3.2 beschriebenen elementaren Zeilen-Operation (EZ4).

(ii) Im allgemeinen gilt

det(A + B) 6= det(A) + det(B).

Sei etwa ! !
1 0 0 0
A= , B= .
0 0 0 1
Dann folgt

det(A) = 0 = det(B),

aber

det(A + B) = det(E2 ) = 1 6= 0 = det(A) + det(B).


Beweis von Satz 4.1.3. (D4) und (D5) folgen sofort aus (D1). (D6) folgt aus der
folgenden Kalkulation:
.. ..
   
. .
 v   u
 A   A


 . 
 + det  ...
 
det 
 .
.  


 Au   Av 
   
.. ..
. .
115

.. .. .. ..
       
. . . .
Av Av Au Au
       
       

= det  ..   ..   ..
  ..
. + det   + det 
.  + det  . .
       

 Av   Au   Av   Au 
       
.. .. .. ..
. . . .
.. .. ..
     
. . .
Av Au
 v
 A + Au 
    
   

= det  ..  
 + det  ..  
 = det  .. 
 = 0.
 .   .   . 
 Av + Au   Av + Au   Av + Au 
     
.. .. ..
. . .
Zum (D7) Es gilt
.. .. ..
     
. . .
Av Av Av
     
     

det  ..  
 = det  .. 
 + λdet 
 .. 
 .   .   . 

 Au + λAv   Au   Av 
     
.. .. ..
. . .
..
 
.
Av 
 


= det  .. 
 .   = det(A).
u 

 A 
..
.
Zum (D8) Es sei A = (αµ,ν )1≤µ,ν≤n eine obere Dreiecksmatrix. Ist αk,k = 0 für ein
k ∈ {1, ..., n}, dann läßt sich A durch die elementaren Zeilenumformungen (EZ1) und
(EZ4) von der Form
α1,1
 
...

 
 
αk−1,k−1
 
 
 
 
0
 
A=
 
αk+1,k+1

 
 
 
 ... 

 0 

 
αn,n
116

auf die Gestalt  


α1,1
...

 
 
αk−1,k−1
 
 
B= ∗
 

 .. 

 0 . 

 ∗ 
0
bringen. Daraus folgt
det(A) = ±det(B) = 0 = α1,1 · · · αn,n .
Ist αν,ν 6= 0 für alle 1 ≤ ν ≤ n, dann läßt sich A durch Anwendung der elementaren
Zeilenoperation (EZ4) auf die Gestalt
 
α1,1 0
B=
 ... 

0 αn,n
bringen. Daraus folgt
 
1 0 ··· 0
 0 α2,2 
det(A) = det(B) = α1,1 det 
 
.. . . .. 
 . . . 
0 ··· 0 αn,n
n
Y
= ... = α1,1 · · · αn,n det(En ) = αν,ν .
ν=1

Die Aussage für untere Dreiecksmatrizen wird analog bewiesen.


Zur (D9) und (D10): Die Matrix A läßt sich durch Anwendung der elementaren
Zeilenumformungen (EZ1) und (EZ4) auf die Gestalt
 
α̃1,1 ∗ ∗
à = 
 .. .. 
. . 
0 α̃n,n

bringen und es gilt rg(A) = rg(Ã). Damit schließen wir:


A ∈ GL(n, K) ⇐⇒ rg(A) = n ⇐⇒ rg(Ã) = n
⇐⇒ α̃ν,ν 6= 0 für 1 ≤ ν ≤ n
⇐⇒ 0 6= α̃1,1 · · · α̃n,n = det(Ã) = ±det(A).
117

Zum (D11) Wir betrachten zunächst den Fall rg(A) < n. Dann gilt wegen

U := {(A · B) · x ∈ Kn : x ∈ Kn } ⊂ {A · y ∈ Kn : y ∈ Kn } =: V

nach Satz 5.25 und Definition 7.10

rg(A · B) = dimU ≤ dimV = rg(A) < n,

also
det(A · B) = 0 = det(A) · det(B).
Ist rg(A) = n, also A ∈ GL(n, K), so läßt sich A durch wiederholte Anwendung der
elementaren Zeilenoperation auf die Gestalt
 
α̃1,1 0
à = 
 .. 
. 
0 α̃n,n

bringen. Daraus folgt

det(A · B) = det(Ã · B)
 
α̃1,1 B 1
= det  ...
 

n
α̃n,n B
= α̃1,1 · · · α̃n,n det(B)
= det(Ã) · det(B)
= det(A) · det(B).

Bezeichnung: Für A = (αµ,ν )1≤µ,ν≤n ∈ Mat(n, n, K) schreiben wir auch



α
1,1 · · · α1,n

. .. ..
.. . . := det(A).


αn,1 · · · αn,n

Bemerkung 4.2: Ist K ein Körper, n ∈ N und

det : Mat(n, n, K) −→ K
118

die Determinante, dann gilten die Aussage (D1), (D2), (D5), (D6), (D7) und (D9)

entsprechend auch für die Spalten einer Matrix, d.h. wir haben:

(D1)’ Für jedes 1 ≤ ν ≤ n gilt

det(A1 , ..., Aν + Ãν , ..., An ) = det(A1 , ..., Aν , ..., An )

+det(A1 , ..., Ãν , ..., An )

und

det(A1 , ..., λAν , ..., An ) = λ · det(A1 , ..., Aν , ..., An )

für alle λ ∈ K, A1 , ..., Aν , Ãν , ..., An ∈ Kn .

(D2)’ Ist A = (A1 , ..., An ) ∈ Mat(n, n, K) und existieren 1 ≤ µ < ν ≤ n mit Aµ = Aν ,

dann folgt

det(A) = 0.
 
0
 . 
(D5)’ Ist A = (A1 , ..., An ) ∈ Mat(n, n, K) und Aν =  . 
 .  für ein ν ∈ {1, ..., n},
0
dann folgt

det(A) = 0.

(D6)’ Ist A = (A1 , ..., An ) ∈ Mat(n, n, K), so gilt für 1 ≤ µ < ν ≤ n

det(A1 , ..., Aµ , ..., Aν , ..., An ) = −det(A1 , ..., Aν , ..., Aµ , ..., An ).

(D7)’ Ist A = (A1 , ..., An ) ∈ Mat(n, n, K), so gilt für 1 ≤ µ < ν ≤ n und λ ∈ K

det(A) = det(A1 , ..., Aµ + λAν , ..., Aν , ..., An )

= det(A1 , ..., Aµ , ..., Aν + λAµ , ..., An ).

(D9)’ Ist A = (A1 , ..., An ) ∈ Mat(n, n, K), so gilt

det(A) = 0 ⇐⇒ A1 , ..., An sind linear abhängig.


119

Beispiel 4.1: Aufgrund von (D6)-(D8) kann man die Determinante einer Matrix mit

Hilfe des Gauß-Algorithmus berechnen. Sei z.B. K = R, n = 3 und


 
0 1 2
 
A=  3 2 1
.

1 1 0
Dann gilt

0 1 2 1 1 0


det(A) = 3 2 1 = − 3 2 1

1 1 0 0 1 2

1 1 0 1 1 0


= − 0 −1 1 = − 0 −1 1 = 3.

0 1 2 0 0 3
Definition 4.1.4. Es sei K ein Körper, n ≥ 2 und
 
A1
A = (αµ,ν )1≤µ,ν≤n =  ...  = (A1 , ..., An ) ∈ M at(n, n, K).
 
An
Dann definieren wir für 1 ≤ µ, ν ≤ n
· · · α1,ν−1 · · · α1,n
 
α1,1 0 α1,ν+1
 .. .
.. .. .. ..
 . . . .


 αµ−1,1 · · · αµ−1,ν−1 0 αµ−1,ν+1 · · · αµ−1,n
 

Aµν :=  0 ··· 0 1 0 ··· 0  ∈ Mat(n, n, K)
 
 αµ+1,1 · · · αµ+1,ν−1 0 αµ+1,ν+1 · · · αµ+1,n
 

 . .. .. .. ..
 ..

. . . . 
αn,1 · · · αn,ν−1 0 αn,ν+1 · · · αn,n
sowie
· · · α1,ν−1 · · · α1,n
 
α1,1 α1,ν+1
 .. .. .. ..
 . . . .


 α · · · αµ−1,ν−1 αµ−1,ν+1 · · · αµ−1,n
 
A0µν :=  µ−1,1  ∈ Mat(n − 1, n − 1, K).

 αµ+1,1 · · · αµ+1,ν−1 αµ+1,ν+1 · · · αµ+1,n 
 . .. .. ..
 ..

. . . 
αn,1 · · · αn,ν−1 αn,ν+1 · · · αn,n
120

A0µν ∈ Mat(n − 1, n − 1, K) ist die sogenannte Streichungsmatrix von A zum In-


dex (µ, ν). Ferner,definieren wir die zu A komplementäre Matrix à = (α̃µ,ν ) ∈
Mat(n, n, K) durch
α̃µ,ν := det(Aνµ ).

Lemma 4.1.5. Es sei K ein Körper, n ≥ 2 und A ∈ Mat(n, n, K). Dann gilt für
1 ≤ µ, ν ≤ n

(i) det(Aµν ) = (−1)µ+ν det(A0µν ).

(ii) Sei wie üblich eν := (0, ..., 1, ..., 0) ∈ K n mit ν−te Kompornant Eins

A1
 
 ..
 .


 µ−1
 A


det(Aµν ) = det  eν .
 
 µ+1
 A


 .
 ..


An

(iii) Ã · A = A · Ã = (det(A)) · En .

Beweis. (i) Durch (µ−1) Vertauschungen der ersten µ zeilen und (ν−1) Vertauschun-
gen der ersten ν Spalten können wir Aµν auf die Gestalt
 
1 0
0 A0µν

bringen. Nach (D6) und (D6)’ folgt daraus


 
1 0
det(Aµν ) = (−1)(µ−1)+(ν−1)
det = (−1)µ+ν det(A0µν ).
0 A0µν

(ii) Die Matrix Aµν entsteht aus der Matrix

A1
 
 .. 
 . 
B :=  eν 
 
 . 
 .. 
An
121

durch Addition des (−αk,ν )-fachen der µ-ten Zeile zur k-ten Zeile für 1 ≤ k ≤ n,
k 6= µ. Daraus folgt
(D7)
det(B) = det(Aµν ).
(iii) Es gilt für 1 ≤ µ, ν ≤ n
n
X n
X
αµ,k α̃k,ν = αµ,k det(Aνk )
k=1 k=1
A1
 
 ..
 .


 ν−1 
n  A 
(ii) X
= αµ,k det  ek
 

 ν+1 
k=1  A 
 .
 ..


An
 1
A1
  
A
 .. ..
 . .
  
  
 ν−1
 A Aν−1
  
  
 Pn k
= det  k=1 αµ,k e  = det  Aµ
  

 ν+1
 A Aν+1
  
  
 . ..
 ..
  
  . 
An An

det(A); µ = ν,
=
0; µ 6= ν.

Damit folgt A · Ã = det(A) · En . Die andere Gleichung wird analog bewiesen.

Nun sind wir in der Lage zu zeigen den Entwicklungssatz von Laplace1
Satz 4.1.6. Es sei K ein Körper, n ≥ 2 und A ∈ Mat(n, n, K). Dann gilt für jedes
µ ∈ {1, ..., n}
Xn
det(A) = (−1)k+µ αµ,k det(A0µk )
k=1

und für jedes ν ∈ {1, ..., n}


n
X
det(A) = (−1)k+µ αk,ν det(A0kν ).
k=1
1
Pierre Simon Laplace, 1749-1827
122

Beweis. Es gilt für 1 ≤ ν, µ ≤ n


n n
4.1.5(iii) X X
det(A) = αµ,k α̃k,µ = αµ,k det(Aµk )
k=1 k=1
n
4.1.5(i) X
= (−1)µ+k αµ,k det(A0µk ),
k=1

n n
4.1.5(iii) X X
det(A) = α̃ν,k αk,ν = αk,ν det(Akν )
k=1 k=1
n
4.1.5(i) X
= (−1)ν+k αk,ν det(A0kν ).
k=1

4.2 Bemerkungen und Beispiele:

(i) Der Vorzeichenfaktor (−1)µ im Entwicklungssatz von Laplace bewirkt eine Verteilung

von + und − im ” Schachbrettmuster”:


+ − + − ···
− + − + ···
+ − + − ···
− + − + ···
.. .. .. .. ..
. . . . .
(ii) Es sei K = R, n = 3 und
 
0 1 2
 
A=
 3 2 1 .

1 1 0
Entwicklung nach der ersten Zeile liefert

2 1 3 1 3 2
det(A) = 0 · −1· +2·


1 0 1 0 1 1
= −(3 · 0 − 1 · 1) + 2(3 · 1 − 1 · 2) = 3.
123

Entwicklung nach der ersten Spalte liefert



3 2 0 1 0 1
det(A) = 2 · −1· +0·


1 1 1 1 3 2
= 2(3 · 1 − 1 · 2) − 1(0 · 1 − 1 · 1) = 3.

Satz 4.2.1. Ist A ∈ GL(n, K), dann gilt


1
A−1 = · Ã.
det(A)

Beweis. Folgt sofort aus 4.1.5 (iii).


!
a b
Beispiel 4.2: (i) Ist A = ∈ GL(2, K), dann gilt
c d

α̃ν,µ = det(Aµν ) = (−1)µ+ν det(A0µν )





 d; µ = ν = 1,

 −c; µ = 1, ν = 2,

=


 −b; µ = 2, ν = 1,


 a; µ = ν = 2.

Daraus folgt !
1 d −b
A−1 = .
ad − bc −c a
(ii) Ist K = R, n = 3 und  
0 1 2
 
A=
 3 2 1 ,

1 1 0
dann gilt
α̃1,1 = det(A011 ) = −1, α̃2,1 = det(A012 ) = 1,
α̃1,2 = det(A021 ) = 2, α̃2,2 = det(A022 ) = −2,
α̃1,3 = det(A031 ) = −3, α̃2,3 = det(A032 ) = 6,
α̃3,1 = det(A013 ) = 1, α̃3,2 = det(A023 ) = 1,
α̃3,3 = det(A033 ) = −3.
124

Damit folgt  
−1 2 −3
1
A−1 =

1 −2 .
6 

3
1 1 −3
Wir haben die sogenannte Cramersche Regel2 zur Lösung von linearem Gleichungssys-

tem:
Satz 4.2.2. Für A ∈ GL(n, K) und b ∈ Kn ist die eindeutig bestimmte Lösung
x ∈ Kn des linearen Gleichungssystems
A·x=b
gegeben durch
1
xν = det(A1 , ..., Aν−1 , b, Aν+1 , ..., An ), 1 ≤ ν ≤ n.
det(A)
Beweis. Es gilt
n
X
b = A · x = x1 · A1 + ... + xn · An = x k · Ak .
k=1

Daraus folgt
n
X
det(A1 , ..., Aν−1 , b, Aν+1 , ..., An ) = det(A1 , ..., Aν−1 , xk · Ak , Aν+1 , ..., An )
k=1
n
(D1)0 X
= xk · det(A1 , ..., Aν−1 , Ak , Aν+1 , ..., An )
k=1
= xν det(A1 , ..., Aν−1 , Aν , Aν+1 , ..., An )
= xν det(A) für 1 ≤ ν ≤ n.

4.3 Eigenwerte und Eigenvektoren

In diesem Abschnitt sei K stets ein Körper mit der Eigenschaft

... + 1} 6= 0 für alle n ∈ N.


1| + {z
n Summanden
2
Gabriel Cramer, 1704-1752
125

Definition 4.3.1. Es sei V ein K-Vektorraum und ϕ : V −→ V ein Endomorphis-


mus. Dann heißt λ ∈ K Eigenwert von ϕ, wenn es einen Vektor v ∈ V \ {0} gibt, so
dass gilt
ϕ(v) = λ · v.
Der Vektor v ∈ V \ {0} heißt dann Eigenvektor von ϕ zum Eigenwert λ. Der Unter-
vektorraum
V (λ, ϕ) := {v ∈ V : ϕ(v) = λv} = Ker(λ · idV − ϕ)
heißt Eigenraum von ϕ zum Eigenwert λ.

Bemerkung 4.3: (i) Ist λ ∈ K ein Eigenwert des Endomorphismus ϕ : V −→ V ,

so ist der Nullvektor ϑ zwar Element des Eigenraums V (λ, ϕ) von ϕ zum Eigenwert

λ, aber ϑ ist kein Eigenvektor von ϕ.

(ii) Es gilt für einen Endomorphismus ϕ : V −→ V und λ ∈ K:

λ ist Eigenwert von ϕ ⇐⇒ V (λ, ϕ) = Ker(λ · idV − ϕ) 6= {ϑV }

⇐⇒ dimV (λ, ϕ) > 0

⇐⇒ λ · idV − ϕ ist nicht injektiv.


Lemma 4.3.2. Es sei V ein K-Vektorraum, ϕ : V −→ V ein Endomorphismus.
(i) Sind v1 , ..., vm ∈ V Eigenvektoren zu paarweise verschiedenen Eigenwerten λ1 , ..., λm ∈
K, so sind v1 , ..., vm linear unabhängig.
(ii) Ist dimV = n und besitzt ϕ n paarweise verschiedene eigenwerte λ1 , ..., λn ∈ K,
dann gibt es eine Basis von V aus Eigenvektoren.
Beweis. (i) (Beweis durch vollständige Induktion nach m): Für m = 1 gilt nach
Definition v1 6= ϑ, d.h. v1 ist linear unabhängig.
Sei die Aussage also bereits für ein m ≥ 1 bewiesen und seien v1 , ..., vm+1 ∈ V
Eigenvektor zu den paarweise verschiedenen Eigenwerten λ1 , ..., λm+1 ∈ K.
Sind dann α1 , ..., αm+1 ∈ K gegeben, so dass gilt
m+1
X
αµ vµ = ϑ,
µ=1

dann folgt
m+1
X m+1
X m+1
X
ϑ = ϕ(ϑ) = ϕ( αµ vµ ) = αµ ϕ(vµ ) = αµ λµ vµ
µ=1 µ=1 µ=1
126

und
m+1
X m+1
X
ϑ = λm+1 · αµ vµ = αµ λm+1 vµ .
µ=1 µ=1

Also
m+1
X m+1
X m
X
ϑ= αµ λµ vµ − αµ λm+1 vµ = αµ (λµ − λm+1 )vµ .
µ=1 µ=1 µ=1

Nach Induktionsvoraussetzung sind v1 , ..., vm linear unabhängig, also


α1 (λ1 − λm ) = ... = αm (λm − λm+1 ) = 0.
Da λ1 , ..., λm+1 paarweise verschieden sind, folgt daraus α1 = ... = αm = 0 und damit
auch αm+1 = 0. (ii) folgt sofort aus (i).

Bemerkung 4.4: Es sei V ein K-Vektorraum mit dimV = n und B = {v1 , ..., vn }

eine Basis von V . Dann ist die lineare Abbildung


n
X
PB : x ∈ Kn 7−→ xν · vν ∈ V
ν=1

ein Isomorphismus. Demnach ist auch die Umkehrabbildung φB := PB−1 : V −→ Kn

ein Isomorphismus; für v ∈ V nennt man die Komponenten des Vektors x := φB (v) ∈

Kn die B-Koordinaten von V . Ist nun ϕ : V −→ V ein Endomorphismus, dann gibt

es zu jedem ν ∈ {1, ..., n} eindeutig bestimmte α1,ν , ..., αn,ν ∈ K, so dass gilt
n
X
ϕ(vν ) = αµ,ν vµ .
µ=1

Ist nun v ∈ V und x := φB (v), dann folgt


Xn n
X
ϕ(v) = ϕ( xν vν ) = xν ϕ(vν )
ν=1 ν=1
n
X n
X n X
X n
= xν · αµ,ν vµ = ( αµ,ν xν )vµ .
ν=1 µ=1 µ=1 ν=1

Mit A := (αµ,ν )1≤µ,ν≤n ∈ Mat(n, n, K) gilt also

φB (ϕ(v)) = A · φB (v) für alle v ∈ V,


127

bzw.

ϕ = φ−1
B ◦ ϕA ◦ φB .

Dabei bezeichnen wir wie üblich mit ϕA die lineare Abbildung ϕA : x ∈ Kn 7−→

A · x ∈ Kn . Wir nennen A ∈ Mat(n, n, K) die darstellende Matrix von ϕ bzgl. der

Basis B. Ist nun λ ∈ K, dann gilt

λ ist Eigenwert von ϕ ⇐⇒ λ · idV − ϕ ist nicht injektiv

⇐⇒ φB ◦ (λ · idV − ϕ) ◦ φ−1
B = λ · idKn − ϕA

ist nicht injektiv

⇐⇒ rg(λ · idKn − ϕA ) = rg(λEn − A) < n

⇐⇒ det(λ · En − A) = 0.
Definition 4.3.3. Es sei V ein K- Vektorraum mit dimV = n und B = {v1 , ..., vn }
eine Basis von V , ϕ : V −→ V ein Endomorphismus und A ∈ Mat(n, n, K) die
darstellende Matrix von ϕ bzgl. B. Dann heißt die Abbildung
Pϕ = PA : t ∈ K 7−→ det(t · En − A) ∈ K
charakteristisches Polynom von ϕ (bzw. A).

Bemerkung 4.5: (i) Damit die obige Definition sinnvoll ist, darf Pϕ nicht von der

Auswahl der Basis abhängen. Sei dazu B 0 = {v10 , ..., vn0 } eine weitere Basis von V

und A0 ∈ Mat(n, n, K) die darstellende Matrix von ϕ bzgl. B 0 , dann gilt mit den

Bezeichnungen aus Bemerkung 4.3

ϕA0 = φB0 ◦ ϕ ◦ φ−1 −1 −1


B0 = φB0 ◦ (φB ◦ ϕA ◦ φB ) ◦ φB0

= (φB0 ◦ φ−1 −1
B ) ◦ ϕA ◦ (φB0 ◦ φB )

Also existiert eine eindeutig bestimmte Matrix S ∈ GL(n, K) mit

φB0 ◦ φ−1
B = ϕS ,
128

also folgt ϕA0 = ϕS ◦ ϕA ◦ ϕ−1


S , d.h.

A0 = S · A · S −1 .

Damit folgt

PA0 (t) = det(t · En − A0 ) = det(t · En − S · A · S −1 )

= det(S · (t · En − A) · S −1 )
(D11)
= det(S) · det(t · En − A) · det(S −1 )

= PA (t),

also ist das charakteristisches Polynom von Pϕ unabhängig von der Wahl der Basis.

(ii) Das charakteristisches Polynom Pϕ (t) ist stets ein Polynom n-ten Grades mit

Höchstkoeffizient 1, d.h. es gilt

Pϕ (t) = tn + q(t)

mit einem Polynom q mit grad(q) < n.

Lemma 4.3.4. Es sei V ein K-Vektorraum mit dimV = n, ϕ : V −→ V ein Endo-


morphismus und λ ∈ K, dann sind äquivalent:

(i) λ ist ein Eigenwert von ϕ,

(ii) λ ist Nullstelle des charakteristischen Polynom von Pϕ von ϕ, d.h. es gilt
Pϕ (λ) = 0.

Beweis. Siehe Bemerkung 4.3.

Definition 4.3.5. Es sei V ein K-Vektorraum mit dimV = n. Der Endomorphismus


ϕ : V −→ V heißt diagonalisierbar, wenn V eine Basis aus Eigenvektoren von ϕ
besitzt.

Lemma 4.3.6. Es sei V ein K-Vektorraum mit dimV = n und ϕ : V −→ V ein


Endomorphismus . Dann sind folgende Aussagen äquivalent:
129

(i) ϕ ist diagonalisierbar.

(ii) Es gibt eine Basis B von V , so dass die darstellende Matrix A ∈ Mat(n, n, K)
von ϕ bzgl. B eine Diagonalmatrix ist, d.h.
 
λ1 0
A=
 .. 
. 
0 λn

Beweis. folgt sofort aus Bemerkung 4.4.

Bemerkung 4.6: Ist A ∈ Mat(n, n, K) , dann heißt λ ∈ K Eigenwert von A, wenn

λ ein Eigenwert des Endomorphismus

ϕA : x ∈ Kn −→ A · x ∈ Kn

ist. Entsprechend werden die Begriff Eigenvektor, Eigenraum und Diagonalisier-

barkeit auf Matrizen übertragen.

Beispiel 4.3: Es sei K = R, n = 3 und


 
0 −1 1
 
A=
 −3 −2 3  .

−2 −2 3

dann gilt

t
1 −1

PA (t) = 3 t + 2 −3

2 2 t−3

t + 2 −3 3 −3 3 t+2
= t − −


2 t−3 2 t−3 2 2
= t((t + 2)(t − 3) + 6) − (3(t − 3) + 6) − (6 − 2(t + 2))

= t3 − t2 − t + 1 = (t − 1)2 (t + 1).
130

Damit sind λ1 = 1 und λ2 = −1 die Eigenwerte von A (bzw. ϕA ). Es gilt

V (λ1 , ϕA ) = {x ∈ R3 : (λ1 E3 − A) · x = 0}
 
1 1 −1
 
= {x ∈ R3 : 
 3 3 −3  · x = 0}.

2 2 −2

Offensichtlich gilt rg(λ1 E3 − A) = 1, also dimV (λ1 , ϕA ) = 3 − 1 = 2. Eine Basis von

V (λ1 , ϕA ) ist z.B. gegeben durch


   
1 0
   
v1 (λ1 ) := 
 0 ,
 v2 (λ1 ) := 
 1 .

1 1

Ferner ist

V (λ2 , ϕA ) = {x ∈ R3 : (λ2 E3 − A) · x = 0}
 
−1 1 −1
 
= {x ∈ R3 : 
 3 1 −3  · x = 0}.

2 2 −4

Anwendung des Gauß-Algorithmus auf λ2 E3 − A liefert das lineare Gleichungssystem


 
−1 1 −1
 
 0 4 −6  · x = 0,
 
0 0 0

d.h. rg(λ2 E3 − A) = 2 (also dimV (λ2 , ϕA ) = 1) und eine Basis von V (λ2 , ϕA ) ist

gegeben durch  
1
 
v3 (λ2 ) := 
 3 .

2
Damit ist B := {v1 (λ1 ), v2 (λ1 ), v3 (λ2 )} eine Basis von R3 aus Eigenvektoren von A

(bzw. ϕA ).
131

Definition 4.3.7. Es sei 0 6= p ∈ K[T ] ein Polynom, λ ∈ K und r ∈ N0 . Dann heißt


λ r-fache Nullstelle von p, wenn es ein Polynom q ∈ K[K] gibt, so dass gilt

q(λ) 6= 0, und p(T ) = (T − λ)r · q(T ).

Die Zahl r ∈ N0 heißt (algebraische ) Vielfachheit der Nullstelle λ ∈ K und wird mit
ord(λ, p) bezeichnet.

Bemerkung 4.7: (i) Für 0 6= p ∈ K[T ] und λ ∈ K gilt

p(λ) = 0 ⇐⇒ ord(λ, p) ≥ 1.

(ii) Für jedes 0 6= p ∈ K[T ] und λ ∈ K gilt

ord(λ, p) = max{r ∈ N0 : (∃q ∈ K[T ])p(T ) = (T − λ)r q(T )}.

(iii) Ist 0 6= p ∈ K[T ], so enthält die Menge

(i)
Z(p) := {λ ∈ K : p(λ) = 0} = {λ ∈ K : ord(λ, p) ≥ 1}

höchstens endlich viele Elemente, etwa

Z(p) = {λ1 , ..., λk }

mit paarweise verschiedenen λ1 , ..., λk ∈ K. Es gilt dann


k
X
ord(λj , p) ≤ gradp
j=1

und
k
Y
p(T ) = q(T ) · (T − λj )rj
j=1

mit rj := ord(λj , p), 1 ≤ j ≤ k und einem Polynom q ∈ K[T ] mit Z(q) = ∅.


Lemma 4.3.8. Es sei V ein K− Vektorraum mit dimV = n, ϕ : V −→ V ein Endo-
morphismus und Pϕ das charakteristische Polynom von ϕ. Ist λ ∈ K ein Eigenwert
von ϕ, so gilt
dimV (λ, ϕ) ≤ ord(λ, Pϕ ).
132

Beweis. Es sei v1 , ..., vs eine Basis von V (λ, ϕ). Dann existiert nach dem Basis-
ergänzungssatz Vektoren vs+1 , ..., vn ∈ V , so dass B = {v1 , ..., vn } eine Basis von
V ist. Die darstellende Matrix A ∈ Mat(n, n, K) von ϕ bzgl. B hat die Gestalt
 
λ 0
 .. 
 . ∗ 
 
 0 λ
A=


 
0
 
 0 A 

mit A0 ∈ Mat(n − s, n − s, K). Damit folgt



t−λ 0

. ..



Pϕ (t) = det(t · En − A) = 0
t−λ


t · En−s − A0


0


= det((t − λ) · Es ) · det(t · En−s − A0 )
= (t − λ)s det(t · En−s − A0 ).

Nach Bemerkung 4.3 (ii) folgt daher

ord(λ, Pϕ ) ≥ s = dimV (λ, ϕ).

Satz 4.3.9. Es sei V ein K−Vektorraum mit dimV = n, ϕ : V −→ V ein Endomor-


phismus und Pϕ das charakteristische Polynom von ϕ. Dann sind folgende Aussagen
äquivalent:

(i) ϕ ist diagonalisierbar.

(ii) Pϕ zerfällt vollständig in Linearfaktoren, d.h. es gilt


k
Y
Pϕ (t) = (t − λj )rj
j=1

mit paarweise verschiedenen λ1 , ..., λk ∈ K und es gilt rj = dimV (λj , ϕ), 1 ≤


j ≤ k.
133

Beweis. Es seien λ1 , ..., λk ∈ K die paarweise verschiedenen Eigenwerte von ϕ. Ferner


(j) (j)
sei v1 , ..., vsj für 1 ≤ j ≤ k eine Basis von V (λj , ϕ). Dann ist
(1) (2) (k)
B := {v1 , ..., vs(1)
1
, v1 , ..., vs(2)
2
, ..., v1 , ..., vs(k)
k
}
(1) (1) (k) (k)
linear unabhängig. Seien dazu α1 , ..., αs1 , ..., α1 , ..., αsk ∈ K gegeben, so dass gilt
sj
k X s1 sk
X X X
ατ(j) vτ(j) = ατ(1) vτ(1) + ... + ατ(k) vτ(k) = ϑ,
j=1 τ =1 τ =1 τ =1

dann folgt mit Lemma 4.3.2(i)


sj
X
ατ(j) vτ(j) = ϑ für alle 1 ≤ j ≤ k
τ =1

(j)
und damit ατ = 0 für 1 ≤ j ≤ k, 1 ≤ τ ≤ sj . Nun gilt

ϕ ist diagonalisierbar ⇐⇒ B ist Basis von V


Xk
⇐⇒ sj = n
j=1
4.3.8
⇐⇒ sj = dimV (λj , ϕ) = ord(λj , Pϕ ) für alle 1 ≤ j ≤ k
Yk
und Pϕ (t) = (t − λj )sj .
j=1
Kapitel 5

Elementare Zahlentheorie

5.1 Induktionsprinzip

Jede nichtleere Teilmenge M der natürlichen Zahlen N0 besitzt ein kleinstes Element,

d.h. es existiert ein n0 ∈ M , so dass gilt n0 ≤ n für alle n ∈ M .


Folgerung 5.1.1. Es sei M ⊂ N0 eine Teilmenge der natürlichen Zahlen mit folgen-
den Eigenschaften

(i) 0 ∈ M ,

(ii) n ∈ M =⇒ n + 1 ∈ M (d.h. {n + 1 ∈ N : n ∈ M } ⊂ M ).

Dann gilt M = N0 .
Beweis. Angenommen es gäbe ein n ∈ N0 mit n 6∈ M . Dann ist N0 \ M 6= ∅,
also besitzt die Menge N0 \ M ein kleinstes Element n0 ∈ N0 \ M . Wegen 0 ∈ M
gilt n0 ≥ 1, also ist auch n0 − 1 eine natürliche Zahl und wegen der Minimalität
von n0 gilt n0 − 1 6∈ N0 \ M , also n0 − 1 ∈ M . Nach (ii) wäre aber dann auch
(n0 − 1) + 1 = n0 ∈ M .

Beweisprinzip der vollständigen Induktion : Es sei A(n) eine Aussageform mit

folgenden Eigenschaften

(i) A(0) ist wahr (Induktionsanfang),

(ii) [n ∈ N ∧ A(n)] =⇒ A(n + 1) ist wahr (Induktionsschluss).

134
135

Dann ist A(n) wahr für alle n ∈ N.


Beweis. Die Menge
M := {n ∈ N0 : A(n) ist wahr}
erfüllt (i) und (ii) aus Folgerung 5.1.1.

5.2 Division mit Rest und Teilbarkeit


Lemma 5.2.1. Es seinen a, b ∈ Z gegeben mit b 6= 0. Dann existiert eindeutig bes-
timmte Zahlen q, r ∈ Z, so dass gilt

a = q · b + r und 0 ≤ r < |b|.

Beweis. Setze n := |b| und M := (a + nZ) ∩ N0 . Wegen b 6= 0 ist n = |b| ≥ 1 und


damit
a + n · |a| ≥ a + |a| ≥ 0,
d.h. a + n · |a| ∈ (a + n · Z) ∩ N0 = M , also insbesondere M 6= ∅. Daher besitzt M ein
kleinstes Element r ∈ M . Wegen r ∈ a + nZ = a + bZ, gibt es ein q ∈ Z so dass gilt

r = a − q · b =⇒ a = q · b + r.

Wegen r ∈ N0 gilt r ≥ 0. Wäre r ≥ |b|, so wäre r − |b| ∈ N0 und



a − |b|(q + 1), b ≥ 0,
r − |b| = a − q · b − |b| =
a + |b|(q − 1), b < 0,

also r − |b| ∈ M im Widerspruch zur Minimalität von r. Daraus folgt insgesamt


0 ≤ r < |b|. Zum Nachweis der Eindeutigkeit nehmen wir an, dass q 0 , r0 ∈ Z weitere
ganze Zahlen sind mit

a = q 0 · b + r0 und 0 ≤ r0 < |b|.

Daraus folgt

r − r0 = (q 0 − q)b =⇒ |b||q 0 − q| = |r − r0 | < |b|


=⇒ |q 0 − q| < 1
=⇒ q 0 = q und damit auch r0 = r.
136

Folgerung 5.2.2. Es sei A ein Ideal im Ring Z der ganzen Zahlen. Dann existiert
genau ein n ∈ N0 , so dass gilt

A = n · Z = {n · q ∈ Z : q ∈ Z}.

Beweis. Für A = {0} ist die Aussage klar (n := 0). Sei also A 6= {0}, dann existiert
ein a ∈ A mit a 6= 0. Damit ist auch −a ∈ A und da entweder a oder −a positiv ist,
folgt M := A ∩ N 6= ∅. Nach Induktionsprinzip existiert daher ein kleinstes Element
n ∈ M . Da A ein Ideal ist, folgt zunächst

nZ ⊂ A,

da für n ∈ A, n · a = n ... + n} ∈ A und n · −a = −n


| + {z | −{z... − n} ∈ A.
a−mal a−mal
Ist umgekehrt a ∈ A, so existiert nach Lemma 5.2.1 ganze Zahlen q, r ∈ Z mit
0 ≤ r < n und a = q · n + r. Wegen n ∈ A, folgt r = a − q · n ∈ A. Die Minimalität
von n liefert r = 0. Also a = q · n ∈ n · Z.
Definition 5.2.3. Es seien a, b ∈ Z. Wir sagen a teilt b, oder auch a ist ein Teiler
von b (in Zeichen a|b), wenn es eine ganze Zahl q ∈ Z gibt, so dass gilt

b = q · a.

Bemerkung 5.1 Für a, b ∈ Z gilt

a|b ⇐⇒ b ∈ a · Z ⇐⇒ b · Z ⊂ a · Z.

Lemma 5.2.4. Es seien a, b, c ∈ Z. Dann gilt

(i) a|a, −a|a, 1|a, −1|a,

(ii) a|0,

(iii) 0|b ⇐⇒ b = 0,

(iv) a|b ∧ b 6= 0 =⇒ 1 ≤ |a| ≤ |b|,

(v) a|b ∧ b|a =⇒ |a| = |b|,

(vi) a|b ∧ b|c =⇒ a|c,

(vii) a|b ∧ a|c =⇒ a|(xb + yc) für alle x, y ∈ Z,

(viii) a|b =⇒ a · c|b · c.


137

Beweis. Übung.

Bemerkung 5.2 Aufgrund von Lemma 5.2.4 (i), (v) und (vi) ist a|b eine partielle

Ordnung auf N0 .
Satz 5.2.5. Es seien a1 , ..., an ∈ Z. Dann gibt es genau eine Zahl d ∈ N0 , so dass
gilt
(i) d|av für alle 1 ≤ v ≤ n.
(ii) Ist c ∈ Z und gilt c|av für 1 ≤ v ≤ n, dann folgt c|d.
Die Zahl d heißt größter gemeinsamer Teiler von a1 , ..., an ; in Zeichen

ggT(a1 , ..., an ) := d.

Beweis. Es sei

A = a1 Z + a2 Z + ... + an Z = {a1 x1 + ... + an xn ∈ Z : x1 , ..., xn ∈ Z}.

Dann ist A ein Ideal in Z, also gibt es nach Folgerung 5.2.2 genau ein d ∈ N0 mit
A = d · Z. Wegen av ∈ A für 1 ≤ v ≤ n gilt damit auch av ∈ d · Z, d.h. d|av für
1 ≤ v ≤ n. Ist nun c ∈ Z und gilt c|av für 1 ≤ v ≤ n, dann existieren q1 , ..., qn ∈ Z,
so dass gilt
av = qv · c.
Daher

dZ = A = a1 Z + ... + an Z
= cq1 Z + ... + cqn Z ⊂ cZ.

Daraus folgt c|d.

5.3 Eigenschaften von ggT

Es seien a1 , ..., an ∈ Z und

T := {q ∈ N0 : q|av für 1 ≤ v ≤ n}.

Dann ist d := ggT(a1 , ..., an ) ∈ T das Supremum von T bzgl. der Teilbarkeitsrelation

(und damit auch bzgl. der 00 ≤00 Relation). Für a1 , ..., an , d ∈ Z, d ≥ 0 sind äquivalent:
138

(i) d = ggT(a1 , ..., an ),

(ii) dZ = a1 Z + ... + an Z.

Daraus folgt die Behauptung von Bézout1

Lemma 5.3.1. Es seien a1 , ..., an ∈ Z und d = ggT(a1 , ..., an ). Dann existieren ganze
Zahlen x1 , ..., xn ∈ Z, so dass gilt

d = a1 x1 + ... + an xn .

Lemma 5.3.2. Es seien a, b, c ∈ Z, dann gilt

(i) ggT(a, b) = ggT(b, a), ggT(a, 0) = |a|, ggT(a, b) = ggT(a, −b).

(ii) a|c ∧ b|c =⇒ a · b|ggT(a, b) · c.

(iii) a|b ⇐⇒ ggT(a, b) = |a|.


a b
(iv) Ist d = ggT(a, b) 6= 0, so sind d
und d
ganze Zahlen und es gilt

a b
ggT( , ) = 1.
d d

(v) ggT(ac, bc) = ggT(a, b) · |c|.

(vi) ggT(a, b) = ggT(a, b − ac).

(vii) ggT(a, c) = 1 ∧ ggT(b, c) = 1 =⇒ ggT(ab, c) = 1.

(viii) a|bc ∧ ggT(a, b) = 1 =⇒ a|c.

Beweis. (i) ist klar.


(ii) folgt aus Lemma 5.3.1, denn es gibt x, y ∈ Z mit

ax + by = ggT(a, b).

Ferner existieren nach der Voraussetzung s, t ∈ Z mit c = sa = tb. Damit folgt

ggT(a, b)c = acx + bcy = atbx + bsay


= ab(tx + sy),
1
E. Bézout, 1730-1783
139

also ab|ggT(a, b)c.


Zu (iii) a|b ⇐⇒ a|ggT(a, b) ⇐⇒ |a| = ggT(a, b).
Zu (iv) Nach Definition existieren s, t ∈ Z mit a = sd und b = td. Dies liefert
a
d
= s ∈ Z und db = t ∈ Z. Ferner existieren nach Lemma 5.3.1 x, y ∈ Z mit
d = ax + by, also 1 = ad x + db y. Daraus folgt ad Z + db Z = Z und somit ggT( ad , db ) = 1.
(v) ist klar.
Zu (vi) Nach Lemma 5.3.1 existieren x, y ∈ Z mit d := ggT(a, b) = ax + by. Also
d = a(x + cy) + (b − ac)y und dZ = aZ + (b − ac)Z. Damit d = ggT(a, b − ac).
Zu (vii) Nach Lemma 5.3.1 existieren s, t, x, y ∈ Z, so dass gilt 1 = ax + cy und
1 = bs + ct. Wir haben dann

1 = (ax + cy)(bs + ct) = ab(xs) + (axt + ybs + yct)c.

Also ggT(ab, c) = 1.
Zu (viii) Nach Voraussetzung existiert ein q ∈ Z mit bc = qa. ferner existieren nach
Lemma 5.3.1 x, y ∈ Z mit ax + by = 1. Nun c = acx + bcy = a(cx + qy), also a|c.

Sprachweise: Sind a1 , ..., an ∈ Z und gilt ggT(a1 , ..., an ) = 1, so heißen die Zahlen

a1 , ..., an teilerfremd oder auch relativ prim.


Satz 5.3.3. Es seien a, b, c ∈ Z, d := ggT(a, b) und

L := {(x, y) ∈ Z2 : ax + by = c}.

Dann gilt
L 6= ∅ ⇐⇒ d|c.
Für jedes (x0 , y0 ) ∈ L gilt dann
b a
L = {(x0 + q , y0 − q ) ∈ Z2 : q ∈ Z}.
d d
Beweis. Es gilt
dZ = aZ + bZ,
also
L 6= ∅ ⇐⇒ c ∈ aZ + bZ ⇐⇒ c ∈ dZ ⇐⇒ d|c.
Für (x0 , y0 ) ∈ L gilt außerdem
b a
a(x0 + q ) + b(y0 − q ) = ax0 + by0 = c,
d d
also
b a
{(x0 + q , y0 − q ) ∈ Z2 : q ∈ Z} ⊂ L.
d d
140

Ist nun (x, y) ∈ L, dann folgt


a b
a(x − x0 ) + b(y − y0 ) = 0 =⇒ (x − x0 ) = (y0 − y)
d d
a b
=⇒ | (y0 − y)
d d
5.3.2(iv)(viii) a
=⇒ |(y0 − y),
d
d.h. es existiert ein q ∈ Z mit
a a
q = (y0 − y) =⇒ y = y0 − q .
d d
Daraus folgt weiter
a b a b b
(x − x0 ) = (y0 − y) = q · =⇒ x − x0 = q
d d d d d
b
=⇒ x = x0 + q .
d
Damit ist auch die andere Inklusion bewiesen.

5.4 Der Euklidische Algorithmus

Man kann die Berechnung des ggT’s endlich vieler ganzer Zahlen auf die Berechnung

des ggT’s zweier ganzer Zahlen zurückführen. Ferner, kann man den ggT(a, b) zweier

ganzer Zahlen a, b ∈ Z durch den sogenannten Euklidischen2 Algorithmus berechnen:

Es sei o.B.d.A 0 < b < a (siehe Lemma 5.3.2). Wir setzen


(
m0 := a
m1 := b.

Nach Lemma 5.2.1 existieren q1 , m2 ∈ Z, so dass gilt

m 0 = q1 · m 1 + m 2 ∧ 0 ≤ m2 < m 1 .

Ist m2 = 0, dann folgt nach Lemma 5.3.2 (iii) m1 = b = ggT(a, b).


2
Euklid von Alexandrien, ca. 325-265 v.C.
141

Andernfalls existieren ganze Zahlen q2 und m3 mit

m 1 = q2 · m 2 + m 3 ∧ 0 ≤ m3 < m 2 .

Ist m3 = 0, so folgt nach Lemma 5.3.2 (iii)

m2 = ggT(m1 , m2 ) = ggT(m0 , m1 ) = ggT(a, b).

Andernfalls können wir dieses Verfahren solange fortsetzen, bis wir nach spätestens

k ≤ m1 schritten folgende Gleichungen erhalten





 m 0 = m 1 q1 + m 2 ∧ 0 < m2 < m1


 m 1 = m 2 q2 + m 3


 ∧ 0 < m3 < m2
··· (5.4.1)





 mk−2 = mk−1 qk−1 + mk ∧ 0 < mk < mk−1

 mk−1 = mk qk .

Wir erhalten also ganze Zahlen q1 , ..., qk ∈ Z und m0 , ..., mk ∈ Z, so dass gilt
(
0 = mk+1 < mk < ... < m1 < m0 ,
mj−1 = qj mj + mj+1 , für j = 1, ..., k.
daraus folgt

ggT(mj−1 , mj ) = ggT(mj , mj+1 ), j = 1, ..., k,

also insbesondere

ggT(a, b) = ggT(mk , 0).

Satz 5.3.3 sagt, wie man für ganze Zahlen a, b, c mit ggT(a, b)|c sämtliche Lösungen

der diophantischen Gleichung

ax + by = c (5.4.2)

erhält, sofern man bereits eine spezielle Lösung (x∗ , y ∗ ) ∈ Z2 dieser Gleichung kennt.

Wir wollen nun untersuchen, wie man eine solche spezielle Lösung der Gleichung

(5.4.2) mittels des sogenannten erweiterten Euklidischen Algorithmus ermitteln kann.


142

Sei dazu wieder o.B.d.A. 0 < b < a und m0 := a, m1 = b. Dann erhalten wir durch

umstellen der ersten k − 1 Gleichungen in (5.4.1):





 m 2 = m 0 − q1 m 1 ,


 m 3 = m 1 − q2 m 2 ,



...





 mk−1 = mk−3 − qk−2 mk−2 ,

 mk = mk−2 − qk−1 mk−1 ,

oder auch kürzer

mj+1 = mj−1 − qj mj für j = 1, ..., k − 1.

Setzen wir nun a = m0 und b = m1 in die erste Gleichung (j = 1) ein , so erhalten

wir daraus eine Darstellung von m2 als ganzzahlige ”Linearkombination” von a und

b:

m2 = ax2 + by2 mit x2 := 1 ∧ y2 := −q1 .

Setzen wir dies in die nächste Gleichung (j = 2) ein, so erhalten wir mit x3 =

−q2 x2 ∧ y3 := 1 − q2 y2

m 3 = m 1 − q2 m 2

= b − q2 (ax2 + by2 )

= ax3 + by3 .

Allgemein stellen wir fest: Ist für ein j ∈ {1, ..., k} bereits eine Darstellung der Form

mj−1 = axj−1 + byj−1 mit xj−1 , yj−1 ∈ Z,

mj = axj + byj mit xj , yj ∈ Z


143

gefunden, so erhalten wir daraus

mj+1 = mj−1 − qj mj

= axj−1 + byj−1 − qj (axj + byj )

= a(xj−1 − qj xj ) + b(yj−1 − qj yj ).

Wir definieren daher





 x0 = 1, x1 = 0,


 y = 0, y = 1,
0 1


 xj+1 = xj−1 − qj xj für j = 1, ..., k − 1,


j+1 = yj−1 − qj yj für j = 1, ..., k − 1.
 y

Dann gilt für 0 ≤ j ≤ k

mj = axj + byj ,

also insbesondere

mk = ggT(a, b) = axk + byk .

Ist nun c ∈ Z eine ganze Zahl mit ggT(a, b)|c, dann existiert ein q ∈ Z mit

c = qggT(a, b) = a(qxk ) + b(qyk ).

Daher ist (x∗ , y ∗ ) ∈ Z2 mit x∗ := qxk und y ∗ = qyk eine spezielle Lösung der Gleichung

(5.4.2). Durch Anwendung von Satz 5.3.3 erhalten wir daraus alle Lösungen dieser

Gleichung.

Satz 5.4.1. Es seinen a1 , ..., an ∈ Z \ {0}. Dann gibt es genau eine Zahl g ∈ N, so
dass gilt

(i) aν |g für alle 1 ≤ ν ≤ n,

(ii) Ist c ∈ Z und gilt aν |c für 1 ≤ ν ≤ n, dann folgt g|c.


144

Die Zahl g heißt kleinstes gemeinsames Vielfaches von a1 , ..., an ; in Zeichen

kgV(a1 , ..., an ) := g.

Beweis. Für 1 ≤ ν ≤ n ist Aν := aν · Z ein Ideal von Z. Daher ist auch


n
\
A := Aν = A1 ∩ ... ∩ An
ν=1

ein Ideal von Z. Wegen 0 6= a1 · · · an ∈ A gilt A 6= {0}. Also gibt es nach Folgerung
5.2.2 genau ein g ∈ N, so dass gilt

A = g · Z.

Daraus folgt insbesondere g · Z ⊂ Aν = aν · Z für 1 ≤ ν ≤ n. Nach Lemma 5.2 ist


aν |g für 1 ≤ ν ≤ n, also erfüllt g die Bedingung (i).
Ist nun c ∈ Z gegeben mit aν |c für 1 ≤ ν ≤ n, dann folgt daraus cZ ⊂ aν Z = Aν für
1 ≤ ν ≤ n, dies impliziert cZ ⊂ A1 ∩ ... ∩ An = A = gZ. Nach Lemma 5.2 gilt g|c,
d.h. g erfüllt auch die Bedingung (ii).

Bemerkung 5.3 (i) Es seien a1 , ..., an ∈ Z \ {0} und

V := {v ∈ N : aµ |v für 1 ≤ µ ≤ n}.

Dann ist g := kgV(a1 , ..., an ) ∈ V das Infimum von V bzgl. der Teilbarkeitsrelation
00
(und damit auch der ≤00 Relation).

(ii) Für a1 , ..., an ∈ Z \ {0}, g ∈ N sind äquivalent

(1) g = kgV(a1 , ..., an ),

(2) gZ = a1 Z ∩ ... ∩ an Z.

Lemma 5.4.2. Es seien a1 , ..., an ∈ Z \ {0} und a, b ∈ N. Dann gilt

(i) kgV(ba1 , ..., ban ) = b · kgV(a1 , ..., an ),

(ii) ab = ggT(a, b) · kgV(a, b).


145

Beweis. (i) Es sei g := kgV(a1 , ..., an ) und g 0 := kgV(ba1 , ..., ban ). Dann gilt nach
Satz 5.4.1 (i) für 1 ≤ ν ≤ n
5.2.4(viii) 5.4.1(ii)
aν |g =⇒ baν |bg =⇒ g 0 |bg.

Andererseits gilt für 1 ≤ ν ≤ n

b|baν ∧ baν |g 0

also nach Lemma 5.2.4 (vi) b|g 0 , d.h. existiert ein q ∈ Z mit g 0 = qb. Damit ist
0
q = gb ∈ Z und es gilt

g0 5.4.1(ii) g0 5.2.4(viii)
aν | für 1 ≤ ν ≤ n =⇒ g| =⇒ bg|g 0 .
b b
Mit Lemma 5.2.4 (v) folgt daraus g 0 = bg.
(ii) Es sei zunächst ggT(a, b) = 1. Wegen

a|ab und b|ab

folgt mit Satz 5.4.1 (ii)


kgV(a, b)|ab.
Andererseits existiert wegen a|kgV(a, b) ein q ∈ Z mit

kgV(a, b) = qa

und aus b|kgV(a, b)folgt damit


b|qa.
Wegen ggT(a, b) = 1 folgt daraus (siehe Lemma 5.3.2 (viii))
5.2.4(viii)
b|q =⇒ b · a|kgV(a, b).

Mit Lemma 5.2.4 (v) folgt also insgesammt

ab = kgV(a, b).

Ist nun d := ggT(a, b) beliebig, so folgt nach Lemma 5.3.2 (iv)

a b a b a b (i)
ggT( , ) = 1 =⇒ ab = d · d · · = ddkgV( , ) = dkgV(a, b).
d d d d d d
146

5.5 Primzahlen
Definition 5.5.1. Es sei p ∈ N und p ≥ 2. Dann heißt p Primzahl, wenn gilt

a ∈ Z ∧ a|p =⇒ |a| = 1 ∨ |a| = p,

d.h. p besetzt außer 1 und p keine weiteren Teiler in N. Eine Zahl a ∈ Z mit |a| ≥ 2
heißt reduzibel, wenn |a| keine Primzahl ist.
Lemma 5.5.2. Es sei p ∈ N und p ≥ 2. Dann sind folgende Aussagen äquivalent:
(i) p ist eine Primzahl,

(ii) a, b ∈ Z ∧ p|ab =⇒ p|a ∨ p|b,

(iii) pZ ist ein Primideal, d.h. es gilt a, b ∈ Z ∧ ab ∈ pZ =⇒ a ∈ pZ ∨ b ∈ pZ,

(iv) pZ ist ein maximales Ideal, d.h. es gilt: Ist A ⊂ Z ein Ideal mit pZ ⊂ A, dann
folgt A = pZ oder A = Z.
Beweis. 00 (i) ⇒ (ii)00 Da p außer 1 und p keine weiteren Teiler in N besitzt, gilt
entweder ggT(a, p) = p und damit p|a, oder es gilt ggT(a, p) = 1 und damit nach
Lemma 5.3.2(viii) p|b.
00
(ii) ⇒ (iii)00 Es gilt
5.2
ab ∈ pZ ⇐⇒ p|ab
(ii)
⇐⇒ p|a ∨ p|b
5.2
⇐⇒ a ∈ pZ ∨ b ∈ pZ.
00
(iii) ⇒ (iv)00 Es sei A ⊂ Z ein Ideal mit pZ ⊂ A. Nach Folgerung 5.2.2 existiert
genau ein a ∈ N mit A = aZ. Wegen pZ ⊂ A = aZ gilt daher a|p, d.h es existiert ein
b ∈ Z, so dass gilt p = ab. Daraus folgt ab ∈ pZ, also nach (iii) a ∈ pZ und damit
A = aZ = pZ, oder b ∈ pZ und damit a = 1, also A = Z.
00
(iv) ⇒ (i)00 Es sei a ∈ Z gegeben mit a|p. Dann folgt mit Bemerkung 5.1

pZ ⊂ aZ.

Nach (iv) folgt also entweder aZ = pZ und damit |a| = p, oder aZ = Z und damit
|a| = 1.
Lemma 5.5.3. (i) Ist p ∈ N eine Primzahl und a ∈ Z, dann gilt entweder p|a oder
ggT(a, p) = 1.

(ii) Zu jedem a ∈ Z mit |a| ≥ 2 gibt es eine Primzahl p ∈ N, so dass gilt p|a.
147

Beweis. (i) folgt unmittelbar aus Definnition 5.5.1.


Zur (ii). Setze
M := {q ∈ N : q ≥ 2 ∧ q|a}.
Dann gilt M 6= ∅ (wegen |a| ∈ M ), also existiert ein kleinstes Element p ∈ M . Jeder
Teiler von p ist auch Teiler von a, also kann es aufgrund der Minimalität von p außer
1 und p keine weiteren natürlichen Teiler von p geben, d.h. p ist eine Primzahl.

Nach Lemma 5.5.3 (i) sind je zwei verschiedene Primzahlen teilerfremd. Wir haben

nun die Primfaktorzerlegung für jedes 2 ≤ n ∈ N:

Satz 5.5.4. Jedes natürliche Zahl n ≥ 2 läßt sich als endliches Produkt von Primzahlen
p1 , ..., pk ∈ N darstellen, d.h. es gilt
k
Y
n = p1 · p2 · · · pk = pj .
j=1

Diese Darstellung ist bis auf die Reihenfolge der Faktor eindeutig.

Beweis. Existenz: Für n = 2 ist die Aussage klar. Sei also n > 2. Wir setzen
voraus, dass die Existenz einer Primfaktorzerlegung bereits für alle m ∈ N mit 2 ≤
m < n nachgewiesen ist. Nach Lemma 5.5.3 (ii) existiert eine Primzahl p1 mit p1 |n,
d.h. es gibt ein m ∈ N, so dass gilt

n = p1 m.

Daraus folgt 1 ≤ m < n. Falls m = 1, folgt n = p1 und damit die Induktionsbehaup-


tung. Sonst gilt 2 ≤ m < n, also gibt es nach Induktionsvoraussetzung Primzahlen
p2 , ..., pk ∈ N mit
m = p2 · p3 · · · pk .
Damit folgt
n = p1 · p2 · · · pk .
Eindeutigkeit: Es seien p1 , ..., pk und q1 , ..., ql Primzahlen, so dass gilt

p 1 · · · p k = q1 · · · ql .

Dann ist zu zeigen: k = l und es gibt eine Umnummerierung v1 , ..., vk der Zahlen
1, ..., k, so dass gilt
pj = qvj für 1 ≤ j ≤ k.
148

Wir führen den Beweis dieser Aussage durch vollständige Induktion nach k ∈ N. Für
k = 1 folgt die Behauptung sofort aus Definition 5.5.1. Sei die Aussage also bereits
für ein k ≥ 1 bewiesen. Sind dann p1 , ..., pk+1 und q1 , ..., ql Primzahlen mit

p1 · · · pk+1 = q1 · · · ql .

So folgt pk+1 |q1 · · · ql . Nach Lemma 5.5.2 (ii) gibt es daher ein λ ∈ {1, ..., l} mit
pk+1 |qλ . Da qλ eine Primzahl ist, folgt daraus pk+1 = qλ . Durch Umnummerierung
von q1 , ..., ql können wir o.B. d.A annehmen, dass λ = l, also pk+1 = ql ist. Durch
Kürzen erhalten wir
p1 · · · pk = q1 · · · ql−1 .
Nach Induktionsvoraussetzung gilt daher k = l − 1 (damit k + 1 = l) und es gibt eine
Umnummerierung v1 , ..., vk der Zahlen 1, ..., k, so dass gilt

pj = qvj für 1 ≤ j ≤ k.

Mit vk+1 := l = k + 1 folgt dann die Induktionsbehauptung.


Folgerung 5.5.5. Es gibt unendlich viele Primzahlen.
Beweis. Angenommen es gäbe nur endlich viele Primzahlen p1 , ..., pk ∈ N. Setze

n := p1 · · · pk + 1 ≥ 2.

Nach Lemma 5.5.3 (ii) gibt es eine Primzahl p ∈ N mit

p|n.

Wäre nun p ∈ {p1 , ..., pk }, so hätten wir

p|p1 · · · pk ,

also wäre p ein Teiler von n − p1 · · · pk = 1.


Definition 5.5.6. Es sei p ∈ N eine Primzahl. Wir definieren

Vp : a ∈ Z \ {0} 7−→ max{k ∈ N0 : pk |a} ∈ N0 .

Für 0 6= a ∈ Z heißt Vp (a) die Vielfachheit von p in a.

Bemerkung 5.4 Es sei (pj )j∈N eine Abzählung aller Primzahlen mit pj < pj+1 für

alle j ∈ N, d.h. es gilt

{pj : j ∈ N} = {p ∈ N : p ist Primzahl}.


149

Für eine natürliche Zahl a ∈ N ist

αj := Vpj (a)

nur für endlich viel j ∈ N von Null verschieden. Daher existiert der Grenzwert
∞ k
α α
Y Y
pj j := lim pj j
k→∞
j=1 j=1

und es gilt (siehe Satz 5.5.4)



α
Y
a= pj j .
j=1

Lemma 5.5.7. Es sei p ∈ N eine Primzahl und a, b ∈ N. Dann gilt


(i) Vp (kgV(a, b)) = max{Vp (a), Vp (b)},

(ii) Vp (ggT(a, b)) = min{Vp (a), Vp (b)},

(iii) Vp (ab) = Vp (a) + Vp (b).


Beweis. Übung.
Folgerung 5.5.8. Es seien a1 , ..., an ∈ Z \ {0}. Dann sind äquivalent:
(i) a1 , ..., an sind paarweise teilerfremd, d. h. es gilt

ggT(ai , aj ) = 1 für i 6= j.

(ii) kgV(a1 , ..., an ) = a1 · · · an .


Beweis. Es gilt für alle Primzahlen p ∈ N
5.5.4
kgV(a1 , ..., an ) = a1 · · · an ⇐⇒ Vp (kgV(a1 , ..., an )) = Vp (a1 · · · an )
n
5.5.7
X
⇐⇒ max Vp (ai ) = Vp (aj )
1≤i≤n
j=1
⇐⇒ min{Vp (ai ), Vp (aj )} = 0, i 6= j
5.5.7
⇐⇒ Vp (ggT(ai , aj )) = 0, i 6= j
5.5.4
⇐⇒ ggT(ai , aj ) = 1, i 6= j.
150

5.6 Das Sieb des Eratosthenes

Das Sieb des Eratosthenes3 ist ein Verfahren zur Bestimmung aller Primzahlen, die

kleiner oder gleich einer vorgegebenen Zahl n ∈ N sind. Bei diesem Verfahren geht

man folgendermaßen vor:

Aus der Menge

A0 := {2, 3, ..., n − 1, n}

streicht man zunächst alle Vielfachen von 2k mit k > 1, d.h. man bildet

A1 := A0 \ {2k ∈ N : k > 1} = {2, 3, 5, 7, 9, ...}.

Im nächsten Schritt streicht man alle Vielfachen der Form 3k mit k > 1, also

A2 := A1 \ {3k ∈ N : k > 1} = {2, 3, 5, 7, 11, 13, ...}.

Auf diese Weise fortfahrend, erhalten wir eine Liste aller Primzahlen zwischen 2 und

n. Dieses Verfahren eignet sich allerdings nur für ”kleine” n ∈ N.

Zur Bestimmung großer Primzahlen untersucht man die sogenannten Merseuneschen4

Zahlen. Dazu formulieren wir zunächst:

Lemma 5.6.1. Die folgende zwei Behauptungen sind wahr:

(i) Sind a, n ∈ N und gilt a ≥ 3 und n ≥ 2, so ist an − 1 keine Primzahl.

(ii) Ist n ∈ N, n ≥ 2 und ist 2n − 1 eine Primzahl, dann ist auch n eine Primzahl.

Beweis. (i) Es gilt


n−1
X
n
a − 1 = (a − 1) aj .
| {z }
≥2 j=0
| {z }
≥2

3
Eratosthenes von Kyrene, ca. 276-195 v.C.
4
Marin Mersune, 1588-1648
151

(ii) Ist n = pq mit p, q ≥ 2 zerlegbar, so ist auch


q−1
X
n p q p
2 − 1 = (2 ) − 1 = (2 − 1) 2pj
| {z }
≥2 j=0
| {z }
≥2

zerlegbar.

Definition 5.6.2. Es sei p ∈ N eine Primzahl. Dann heißt

Mp := 2p − 1

Merseunesche Zahl. Ist Mp eine Primzahl, so heißt Mp Merseunesche Primzahl.

Bemerkung 5.5 (i) Die ersten vier Merseuneschen Zahlen M2 = 3, M3 = 7, M5 = 31

und M7 = 127 sind Merseunesche Primzahlen. Dagegen ist

M11 = 2047 = 23 · 89

keine Primzahl.

(ii) Merseunesche Zahlen werden untersucht, um möglichst große Primzahlen zu

finden. Tatsächlich sind die neun größten derzeit bekannten Primzahlen Merseunesche

Primzahlen (Stand 2004, www.merseune.org):

M1.398.269 = 21.398.269 − 1, M20.996.011 = 220.996.011 − 1,


M2.976.221 = 22.976.221 − 1, M24.036.583 = 224.036.583 − 1,
M3.021.377 = 23.021.377 − 1, M25.964.951 = 225.964.951 − 1,
M6.972.593 = 26.972.593 − 1 M30.402.457 = 230.402.457 − 1
M13.466.917 = 213.466.917 − 1, M32.582.657 = 232.582.657 − 1.

Lemma 5.6.3. Es seien a, n ∈ N mit a, n ≥ 2.

(i) Ist a ungerade, so ist an + 1 gerade.

(ii) Ist n keine Zweipotenz, so ist an + 1 keine Primzahl.


152

Beweis. (i) a = 2k + 1 mit k ∈ N, dann folgt


n  
n n
X n
a + 1 = 1 + (2k + 1) = 1 + (2k)ν
ν=0
ν
n   n  
!
X n X n
= 2+ 2ν k ν = 2 1 + 2ν−1 k ν .
ν=1
ν ν=1
ν

(ii) Ist n keine Zweierpotenz, dann gibt es mindestens einen echten ungeraden Teiler
von n, d.h. es existieren m, k ∈ N, so dass gilt
n = (2k + 1)m.
Daraus folgt
2k
X
n m 2k+1 2k+1 m
a + 1 = (a ) − (−1) = (a + 1) ajm (−1)2k−j .
j=0

Definition 5.6.4. Für n ∈ N0 heißt


n
Fn := 2(2 ) + 1
n-te Fermatsche Zahl.

Bemerkung 5.6 (i) Die ersten fünf Fermatschen Zahlen F0 = 3, F1 = 5, F2 =

17, F3 = 257 und F4 = 65.537 sind Primzahlen. Dagegen ist F5 durch 641 teilbar.

(ii) Je zwei verschiedene Fermatsche Zahlen sind teilerfremd, d.h. es gilt ggT(Fm , Fn ) =

1 für n 6= m. Denn ist n = m + k mit k ∈ N und setzen wir

q := 2n , p := 2m , r := 2k ,

dann folgt
r−1
X
Fn − 2 = 2q − 1 = (2p )r − (−1)r = (2p − 1) 2jp (−1)r−1−j ,
| {z }
j=0
Fm | {z }
=:b

also 2 = Fn − bFm . Damit folgt


5.3.2(vi)
ggT(Fm , Fn ) = ggT(Fm , 2) = 1.
153

5.7 Offene Probleme der Zahlentheorie

Für die folgenden Aussagen der Zahlentheorie ist z.Z. weder ein Beweis noch eine

Widerlegung bekannt:

(1) Goldbachsche5 Vermutung: Jede gerade Zahl n ∈ N mit n > 2 läßt sich als

Summe zweier Primzahlen darstellen.

(2) Primzahlzwillinge: Es existieren unendlich viele Primzahlzwillinge. Dabei heißt

ein Paar (p, q) ∈ N×N Primzahlzwilling, wenn p und q Primzahlen sind mit q = p+2.

Z. B. lauten die ersten Primzahlzwillinge: (3, 5), (5, 7), (11, 13), (17, 19), (29, 31), ....

Der größte derzeit bekannte Primzahlzwilling lautet:

33.218.925 · 2169.690 ± 1.

(Stand 2002, www.utm.edu/research/primes)

(3) Merseunesche Zahlen: Es existiert unendlich viele Merseunesche Primzahlen.

(4) Fermatsche Zahlen: Außer F0 , ..., F4 gibt es keine weiteren Primzahlen unter den

Fermatschen Zahlen.

5.8 Anwendungen der Zahlentheorie


5.8.1 Anwendungen für Gruppen

Es sei G eine Gruppe und U < G eine Untergruppe von G. Dann definieren wir eine

Äquivalenzrelation auf G folgendermaßen: Für g, h ∈ G sei

g ∼ h :⇐⇒ g −1 · h ∈ U.
5
Christian Goldbach, 1690-1764
154

Man überzeugt sich leicht, dass eine Äquivalenzrelation auf G definiert. Ferner gilt

für jedes g ∈ G

[g]∼ = g · U = {g · u ∈ G : u ∈ U }.

Wir bezeichnen die Menge aller Äquivalenzklassen modulo ∼ mit G/U , d.h. wir

setzen

G/U := G/ ∼ = {[g]∼ ∈ P(G) : g ∈ G}

= {g · U ∈ P(G) : g ∈ G}.

Definition 5.8.1. Es sei G eine Gruppe und U < G eine Untergruppe von G. Die
Elemente von G/U heissen Linksnebenklassen bzgl. U .
Satz 5.8.2. Es sei G eine Gruppe und U / G ein Normalteiler von G. Dann wird
durch
◦ : (gU, hU ) ∈ G/U × G/U 7−→ (g · h)U ∈ G/U
eine Verknüpfung auf G/U definiert. Zusammen mit dieser Verknüpfung bildet G/U
eine Gruppe mit dem neutralen Element [e]∼ = U , das inverse Element zu [g]∼ = g ·U
ist gegeben durch [g −1 ]∼ = g −1 · U. Die Gruppe (G/U, ◦) heisst Faktorgruppe von G
nach U .
Beweisskizze. Zunächst ist zu zeigen, dass ◦ wohldefiniert ist, d.h. sind g1 , g2 , h1 , h2 ∈
G gegeben mit
g1 U = g2 U unf h1 U = h2 U,
dann folgt
g1 h1 U = g2 h2 U.
Da U ein Normalteiler von G ist, ist mit h−1 −1
1 · h2 auch h2 · h1 ∈ U . Daraus folgt

h2 (h−1 −1
1 g1 g2 ) ∈ U

und damit auch (U Normalteiler!) h−1 −1


1 g1 g2 h2 ∈ U . Rest als Übung.

Wir haben den Homomorphiesatz:


Satz 5.8.3. Es seien G, G0 Gruppen und ϕ : G −→ G0 ein Gruppe-Homomorphismus.
Dann ist U := Kerϕ ein Normalteiler von G und

ψ : g · U ∈ G/U 7−→ ϕ(g) ∈ G0


155

ein Monomorphismus. Insbesondere ist also G/U = G/Kerϕ isomorph zu Imϕ, in


Zeichen
G/Kerϕ ∼ = Imϕ.
Beweis. (1) Wohldefinition: Aus g1 U = g2 U folgt g1−1 g2 ∈ U = Kerϕ, also

(ϕ(g1 ))−1 ϕ(g2 ) = ϕ(g1−1 )ϕ(g2 ) = ϕ(g1−1 g2 ) = e0 .

Es gilt nun
ψ(g1 U ) = ϕ(g1 ) = ϕ(g2 ) = ψ(g2 U ).
(2) Homomorphismus: Für g1 U, g2 U ∈ G/U gilt

ψ(g1 U · g2 U ) = ψ(g1 g2 U ) = ϕ(g1 g2 )


= ϕ(g1 )ϕ(g2 ) = ψ(g1 U ) · ψ(g2 U ).

(3) Injektivität: Für gU ∈ G/U gilt

ψ(gU ) = ϕ(g) = e0 ⇐⇒ g ∈ U ⇐⇒ gU = U,

d.h. Kerψ = {U }.
Folgerung 5.8.4. Ist G eine Gruppe und sind U, V Normalteiler von G mit U < V ,
dann ist V /U ein Normalteiler von G/U und es gilt

(G/U )/(V /U ) ∼
= G/V.

Beweis. Wende Satz 5.8.3 auf den Epimorphismus

ϕ : gU ∈ G/U 7−→ gV ∈ G/V

an.
Definition 5.8.5. Es sei G eine Gruppe. Enthält G nur endlich viele Elemente, so
bezeichnet man die Anzahl der Elemente als Ordnung von G, in Zeichen

ordG := |G|.

Ist die Elementanzahl nicht endlich, so setzt man ordG := ∞. Ist g ∈ G und existiert
ein n ∈ N mit
g n := g · g · · · g = e,
| {z }
n−mal

so setzt man ordG g := min{k ∈ N : g k = e} (Ordnung von g in G). Falls {k ∈ N :


g k = e} = ∅, so setzt man ordG g = ∞.
156

Bemerkung 5.7 (i) Ist G eine Gruppe und k ∈ Z, so definieren wir für g ∈ G

 g · · · g, k > 0,


g k := e, k = 0,

 (g −1 )|k| , k < 0.

Dann wird durch

ϕ : k ∈ Z 7−→ g k ∈ G

eine Homomorphismus definiert: es gilt für alle m, n ∈ Z

g m+n = g m · g n = g n · g m .

(ii) Ist G eine abelsche Gruppe, so benutzen wir für k ∈ Z und g ∈ G die Schreibweise

 g + ... + g, k > 0,


k · g := oG , k = 0,


 −g − ... − g, k < 0.

Satz 5.8.6. Es sei G eine Gruppe und A ⊂ P(G) eine Familie von Untergruppen
von G (d.h. jedes U ∈ A ist eine Untergruppe von G). Dann ist
\
U
U ∈A

ebenfalls eine Untergruppe von G (Der Durchschnitt beliebig vieler Untergruppen ist
eine Untergruppe).

Definition 5.8.7. Ist G eine Gruppe und M ⊂ G, dann heisst


\
hM i := {U ⊂ G : U Untergruppe von G ∧ M ⊂ U }

die von M in G erzeugte Untergruppe.


Ist G = hM i, dann heisst M Erzeugendensystem von G.
G heisst endlich erzeugt, wenn es ein endliches Erzeugendensystem {g1 , ..., gn } ⊂ G
gibt.
G heisst zyklisch, wenn G von einem Element erzeugt wird, d.h. es existiert g ∈ G
mit G = h{g}i =: hgi.
157

Bemerkungen und Beispiele 5.8 (i) Ist g ∈ G, dann gilt

hgi = {g n ∈ G : n ∈ Z},

dann einerseits ist {g n ∈ G : n ∈ Z} eine Untergruppe von G, die {g} enthält, also

hgi ⊂ {g n ∈ G : n ∈ Z}. Andererseits gilt für jede Untergruppe U < G mit hgi ⊂ U :

{g n ∈ G : n ∈ Z} ⊂ U

und damit auch

{g n ∈ G : n ∈ Z} ⊂ hgi.

Wegen g n · g m = g m · g n = g m+n für alle m, n ∈ Z folgt insbesondere: Jede zyklische

Gruppe ist abelsch.

(ii) Für n ∈ N0 ist

nZ = {na ∈ Z : a ∈ Z} = hni

ein Normalteiler von Z und

Zn = Z/nZ = {a + nZ : a ∈ Z}

eine abelsche Gruppe. Wegen Z ∼


= Z0 = h1i,

Zn = {nZ, 1 + nZ, ..., (n − 1) + nZ} = h1 + nZi

für n > 0 ist Zn für jedes n ∈ N0 zyklisch. Ferner gilt


(
∞, n = 0,
ordZn =
n, n > 0.

(iii) Ist G = hgi eine zyklische Gruppe, so ist

ϕ : n ∈ Z 7−→ g n ∈ G
158

nach (i) ein Epimorphismus. Demnach gilt (Satz 5.8.3)

G∼
= Z/Kerϕ.

Zur Charakterisierung sämtlicher zyklischen Gruppen formulieren wir:


Satz 5.8.8. Jede Untergruppe einer zyklischen Gruppe ist selbst wieder zyklisch.
Beweis. Es sei G = hgi. O. B. d. A. sei U 6= {e} und e 6= u ∈ U . Dann existiert ein
k ∈ Z \ {0} mit u = g k . Mit u ist auch u−1 = g −k ∈ U und da entweder k oder −k
positiv ist, folgt
M := {k ∈ N : g k ∈ U } =
6 ∅.
Es gibt daher ein kleinstes Element n ∈ M . Damit gilt zunächst
hg n i = {g kn : k ∈ Z} ⊂ U.
Ist nun u ∈ U beliebig vorgegeben, dann existiert ein l ∈ Z, so dass gilt
u = gl .
Nach Lemma 5.2.1 existieren q, r ∈ Z mit
l = q · n + r und 0 ≤ r ≤ n − 1.
Wegen g (−q)n ∈ U folgt daher
g r = g −qn · g l = g (−q)n · u ∈ U.
Aufgrund der Minimalität von n muß daher r = 0 sein, d.h. u = g qn ∈ hg n i. Insgesamt
folgt daraus U = hg n i.
Folgerung 5.8.9. Ist G eine zyklische Gruppe, dann gilt

∼ Z, falls ordG = ∞,
G=
Zn , falls ordG = n.
Beweis. Es sei G = hgi und
ϕ : k ∈ Z 7−→ g k ∈ G.
Dann gilt nach 5.8.1 (iii)
G∼
= Z/Kerϕ.
Mit Z ist auch Kerϕ zyklisch, d.h. es existiert ein n ∈ N0 , so dass gilt
Kerϕ = hni = n · Z.
Für n = 0 gilt G ∼
= Z und ordG = ∞. Für n > 0 gilt G ∼
= Z/nZ = Zn und
ordG = n.
159

Folgerung 5.8.10. Ist G eine Gruppe und g ∈ G, dann gilt

ordhgi = ordG g.

Beweis. (Übung). Mit ϕ : k ∈ Z 7−→ g k ∈ G gilt

ordG g = ∞ =⇒ Kerϕ = {0} =⇒ hgi ∼


= Z =⇒ ordhgi = ∞

und
ordG g = n =⇒ Kerϕ = nZ =⇒ hgi ∼
= Zn =⇒ ordhgi = n.

Definition 5.8.11. Es sei G eine Gruppe und U < G eine Untergruppe von G.
Enthält G/U endlich viele Elemente, so heisst die Anzahl der Elemente Index von U
in G, in Zeichen
[G : U ] := |G/U |.
Ist die Anzahl der Elemente in G/U unendlich, so setzen wir

[G : U ] := ∞.

Bemerkung 5.9 Ist E die von e in G erzeugte Untergruppe (also E := {e}), dann

gilt offenbar

G/E ∼
= G und [G : E] = ordG.
Satz 5.8.12. Sind U, V Untergruppen einer Gruppe G mit V ⊂ U , so gilt

[G : V ] = [G : U ] · [U : V ].

Beweisskizze. Da Linksnebenklassen Äquivalenzklassen sind, gilt


[
G= gi U.
i∈I

Dabei seien die gi ∈ G so gewählt, dass die in der Vereinigung auftretenden Linksneben-
klassen paarweise disjunkt sind. Die Elementanzahl der Indexmenge I entspricht dann
genau [G : U ]. Entsprechend sei
[
U= ui V
j∈J
160

eine Darstellung von U als Vereinigung paarweise disjunkter Linksnebenklassen, wie


oben entspricht die Anzahl der Elemente der Indexmenge J gerade [U : V ]. Demnach
erhalten wir [
G= gi uj V.
(i,j)∈I×J

Da die Linksnebenklassen (gi uj ) · V, (i, j) ∈ I × J, ebenfalls paarweise disjunkt sind


(Beweis Übung!), folgt

[G : V ] = |I × J| = |I| · |J| = [G : U ] · [U : V ].

Wir präsentieren nun den Satz von Lagrange6 :

Satz 5.8.13. Es sei G eine Gruppe und U < G eine Untergruppe von G, dann gilt

ordG = [G : U ] · ordU.

Beweis. Setze in Satz 5.8.12 V := E = hei.

Folgerung 5.8.14. Ist G eine endliche Gruppe, dann ist ordG g für jedes g ∈ G ein
Teiler von ordG.

Beweis. Setze in Satz 5.8.13 U := hgi. Dann folgt

ordG = [G : hgi] · ordhgi = [G : hgi] · ordG g.

Folgerung 5.8.15. Ist G eine endliche Gruppe und ist ordG eine Primzahl, dann ist
G zyklisch (also insbesondere abelsch) und es gilt für alle e 6= g ∈ G

G = hgi.

Beweis. Für jedes e 6= g ∈ G gilt ordG g > 1. Da ordG Primzahl ist, muß daher nach
Folgerung 5.8.14 ordG g = ordhgi = ordG sein, also hgi = G.
6
J. L. Lagrange, 1736-1813
161

5.8.2 Der kleine Fermatsche Satz

Wir betrachten den kleine Fermatsche Satz:


Satz 5.8.16. Ist G eine endliche Gruppe, dann gilt für alle g ∈ G
g ordG = e.
Beweis. Mit n := ordG, m := ordG g und k := [G : hgi] gilt n = mk und
e = ek = (g m )k = g mk = g n .

Die Eulersche7 Funktion is gegeben durch


Definition 5.8.17. Für eine natürliche Zahl n ∈ N0 sei
ϕ(n) := |{m ∈ {1, ..., n} : ggT(m, n) = 1}|
die Anzahl aller natürlichen Zahlen 1 ≤ m ≤ n mit ggT(m, n) = 1. Die dadurch
definierte Abbildung
ϕ : N0 −→ N0
heisst Eulersche Funktion.
Folgerung 5.8.18. Ist G eine zyklische Gruppe der Ordnung n ∈ N, dann enthält G
genau ϕ(n) Elemente der Ordnung n.
Beweis. Nach Folgerung 5.8.9 dürfen wir o. B. d. A. annehmen, dass G = Zn ist.
Ferner sei n > 1. Dann gilt für alle a ∈ Z
ordG (a + nZ) = n ⇐⇒ ggT(a, n) = 1. (5.8.1)
n
In der Tat, sind ordG (a + nZ) = n und d := ggT(a, n) > 1. Dann ist q := d
< n.
Ferner sind nd , ad ∈ Z und
a
q(a + nZ) = qa + nZ = n( ) + nZ = nZ,
d
also ord(a + nZ) ≤ q < n.
Sei nun ggT(a, n) = 1, so sind die Mengen
a + nZ, 2a + nZ, ..., na + nZ
paarweise verschieden, denn sind r1 , r2 ∈ Z gegeben mit (o.B. d. A) 1 ≤ r1 ≤ r2 ≤ n
und r1 a + nZ = r2 a + nZ, so folgt (r2 − r1 )a ∈ nZ, also n|(r1 − r2 )a. Wegen
ggT(a, n) = 1 folgt daraus n|(r1 −r2 ). Nun gilt aber 0 ≤ r2 −r1 < n, also muß r2 = r1
sein. Damit folgt ordG (a + nZ) = n. Mit (5.8.1) folgt nun die Behauptung.
7
L. Euler, 1707-1783
162

Satz 5.8.19. Es sei (Z∗n , ·) die Einheitengruppe des Ringes (Zn , +, ·). Dann gilt
Z∗n = {a + nZ ∈ Zn : ggT(a, n) = 1}
und
ord(Z∗n ) = ϕ(n).

Bemerkung: Man bezeichnet die Gruppe (Z∗n , ·) auch als prime Restklassengruppe

modulo n.
Beweis von Satz 5.8.19. Es gilt für a ∈ Z:
a + nZ ∈ Z∗n ⇐⇒ (∃r ∈ Z)ra + nZ = 1 + nZ
⇐⇒ (∃r ∈ Z)1 ∈ ra + nZ
⇐⇒ 1 ∈ aZ + nZ
⇐⇒ Z = aZ + nZ
⇐⇒ ggT(a, n) = 1.

Der sogenannte Eulersche Satz läutet:


Satz 5.8.20. Für m, n ∈ N mit ggT(m, n) = 1 gilt
mϕ(n) ≡ 1 (mod n).
Beweis. Es gilt m + nZ ∈ Z∗n (Satz 5.8.19), also
(m + nZ)ϕ(n) = mϕ(n) + nZϕ(n) = 1 + nZ.

Folgerung 5.8.21. Ist p ∈ N eine Primzahl, dann gilt für alle m ∈ N


mp ≡ m (mod p).
Beweis. 1. Fall: ggT(m, p) > 1. Dann gilt p|m und damit auch p|mp . Daraus folgt
p|(mp − m), also
mp ≡ m (mod p).
2. Fall: ggT(m, p) = 1. Dann gilt nach Satz 5.8.20
mϕ(p) ≡ 1 (mod p) =⇒ mϕ(p)+1 ≡ m (mod p).
Nun gilt aber ggT(p, k) = 1 für alle k ∈ {1, ..., p − 1}, also ϕ(p) = p − 1.
163

5.8.3 Das RSA-Verfahren

Um vertrauliche Nachrichten von dem Zugriff Dritter zu schützen, verwendet man

Verschlüsselungsverfahren. Ein solches Verschlüsselungsverfahren ist das sogenannte

RSA-Verfahren (R. L. Rivest, A. Shamir, L. Addman, 1978). RSA ist ein sogenan-

ntes asymmetrisches Verfahren, d.h. wenn A ein Nachricht an B versenden will,

verschlüsselt A die Botschaft mit dem Öffentlichen Schlüssel (public key) von B; B

kann dann die Nachricht mit seinem nur ihm bekannten privaten Schlüssel (private

key) dechiffrieren.

Zur Erzeugung der Schlüssel wählen wir zunächst zwei verschiedene (moöglichst

große ) Primzahlen p, q ∈ N und setzen

n := p · q.

Es gilt dann

ϕ := ϕ(n) = (p − 1)(q − 1).

Weiter wählen wir ein e ∈ N mit

1 < e < ϕ und ggT(e, ϕ) = 1

(e ist der sogenannte Verschlüsselungsexponent). Damit gilt e ∈ Z∗ϕ (vgl. Satz 5.8.19),

also gibt es ein d ∈ Z, so dass gilt

d·e≡1 (mod ϕ).

Das Paar (n, e) bildet unseren öffentlichen Schlüssel, d ist unser geheimer Schlüssel.

Wollen wir nun eine Nachricht m ∈ N verschicken, so besorgen wir uns zunächst dem

öffentlichen Schlüssel (n, e) des Empfänger und bilden daraus das Chiffre

c ≡ me (mod n)
164

Der Empfänger kann die erhaltene Nachricht dann mittels seines geheimen Schlüssel

d dechiffrieren, da

m ≡ cd (mod n).

Denn nach Konstruktion existiert ein k ∈ Z, so dass gilt

d · e = k · ϕ + 1.

Daraus erhalten wir

cd ≡ (me )d ≡ me·d ≡ mkϕ+1 (mod n).

Wegen n = p · q können nur die vier folgenden Fälle auftreten:

1.Fall: ggT(m, n) = 1. Dann folgt aus dem Satz von Euler

mϕ + nZ = 1 + nZ.

Wir haben dann

mkϕ+1 + nZ = (mϕ + nZ) · (m + nZ)

= (1 + nZ)k (m + nZ) = m + nZ,

also

m ≡ cd (mod n).

2. Fall: ggT(m, n) = n. Dann ist m ∈ nZ, also

cd + nZ = mkϕ+1 + nZ = nZ = m + nZ,

d.h.

m ≡ cd (mod n).
165

3. Fall: ggT(m, n) = p (damit ggT(m, q) = 1). Dann folgt wegen ϕ(q) = q − 1 aus

dem Satz von Euler

mq−1 + qZ = 1 + qZ.

Wir haben dann

mkϕ + qZ = (mq−1 + qZ)k·(p−1)

= (1 + qZ)k(p−1) = 1 + qZ,

also q|(mkϕ − 1) und n|(mkϕ+1 − m) (da n|mq). Nun

n|(mkϕ+1 − m) ⇐⇒ mkϕ+1 + nZ = m + nZ ⇐⇒ m ≡ cd (mod n).

4. Fall: ggT(m, n) = q. Analog zum 3. Fall.

5.8.4 Anwendungen für Ringe und Körper


Definition 5.8.22. Es sei R ein Integritätsring (d.h. (R, +, ·) ist ein kommutative
Ring mit eins und a · b 6= 0 für alle a, b ∈ R \ {0} ) und

F := {a ∈ R \ {0} : ord(R,+) a < ∞}.

Dann heisst die Zahl



0, falls F = ∅,
charR :=
min{ord(R,+) a : a ∈ F }, falls F 6= ∅

Charakteristik von R.
Lemma 5.8.23. Es sei R ein Integritätsring und p = charR. Dann ist p = 0 oder p
ist eine Primzahl und es gilt
p·r =0
für alle r ∈ R.
Beweis. Für p = 0 ist nichts zu zeigen. Sei also p > 0. Dann folgt aus der Definition
p ≥ 2 und es existiert ein a ∈ R \ {0}, so dass gilt

p·a=a + a + a} = 0.
| + ...{z
p−Sum.
166

Daraus folgt für das Eins e ∈ R


0 = p · a = p · (ea) = (p · e)a
und wegen a 6= 0 folgt nun p · e = 0. Damit gilt für alle r ∈ R
p · r = p · (er) = (p · e)r = 0r = 0.
Angenommen es gäbe m, n ∈ N mit
1 < m, n < p unf p = m · n.
Dann wäre
0 = p · e = (m · e)(n · e),
also m · e = 0 oder n · e = 0. Daraus folgt aber ord(R,+) e ≤ max{m, n} < p in
Widerspruch zu charR = p.
Satz 5.8.24. Jeder endliche Integritätsring R 6= {0} ist ein Körper.
Beweis. Sei a ∈ R \ {0} beliebig vorgegeben und
ϕa : x ∈ R \ {0} 7−→ a · x ∈ R \ {0}.
Dann gilt für x1 , x2 ∈ R \ {0}
ϕa (x1 ) = ax1 = ax2 = ϕa (x2 ) ⇐⇒ a(x1 − x2 ) = 0
⇐⇒ x1 = x2 .
Also ist ϕa injektiv und damit auch bijektiv (wegen Endlichkeit). Es existiert daher
ein b ∈ R \ {0} mit ab = e, wobei e das Eins von R ist.
Folgerung 5.8.25. Für p ∈ N gilt
(Zp , +, ·) ist ein Körper ⇐⇒ p ist Primzahl.
Definition 5.8.26. Es sei (K, +, ·) ein Ring. L ⊂ K heisst Teilkörper von K, wenn
(L, +, ·) ein Körper ist. Ist (K, +, ·) selbst ein Körper und ist L ein Teilkörper von
K, so nennt man K eine Körpererweiterung von L, in Zeichen
K:L
(spricht : K über L). Zusammen mit der Skalarmultiplikation
(α, v) ∈ L × K 7−→ α · v ∈ K
ist K ein Vektorraum über L, Wir setzen
[K : L] := dimL K
(Grad der Körpererweiterung).
167

Beispiele: (i) R ist eine Körpererweiterung von Q mit

[R : Q] = ∞.

(ii) C ist eine Körpererweiterung von R mit

[C : R] = 2.

Satz 5.8.27. Es sei K ein Körper und K ⊂ P(K) eine Familie von Teilkörpern von
K. Dann ist auch \
L
L∈K

ein Teilkörper von K.


Definition 5.8.28. Es sei K ein Körper. Dann ist
\
P (K) := {L ⊂ K : L Teilkörper von K}

bzgl. der Inklusion der kleinste Teilkörper von K. P (K) heisst Primkörper von K.
Satz 5.8.29. Es sei K ein Körper. Dann gilt
(i) charK = p 6= 0 ⇐⇒ P (K) ∼
= Zp ,
(ii) charK = 0 ⇐⇒ P (K) ∼
= Q.
Beweis. (i) ” =⇒ ”. Wir definieren mit dem Eins e ∈ K

ϕ : a + pZ ∈ Zp 7−→ a · e ∈ K.

Dann ist ϕ wegen p = charK wohldefiniert und damit ein Ringhomomorphismus.


Nach Definition 5.8.22 gilt für 1 ≤ r ≤ p − 1

ϕ(r + pZ) = r · e

also Kerϕ = {pZ}. Daher ist ϕ injektiv, d.h. es gilt

Imϕ ∼
= Zp .

Da Zp nach Satz 5.8.25 ein Körper ist, ist Imϕ demnach ein Teilkörper von K.
Ist nun L ⊂ K ein beliebiger Teilkörper von K, dann gilt wegen e ∈ L

Imϕ = {a · e ∈ K : a ∈ Z} ⊂ L.
168

Daraus folgt sofort


Imϕ = P (K).
” =⇒ ”. Isomorphe Körper besitzen offensichtlich die gleiche Charakteristik. Daraus
folgt zunächst
charP (K) = charZp = p.
Mit Lemma 5.8.23 folgt daraus charK = p.
(ii) ” =⇒ ”. Für alle 0 6= n ∈ Z ist 0 6= n · e ∈ P (K), also existiert auch (n · e)−1 ∈
P (K). Daher ist

L := {(m · e)(n · e)−1 ∈ K : m, n ∈ Z ∧ n 6= 0}

ein zu Q isomorpher Teilkörper von K mit L ⊂ P (K). Daraus folgt sofort L = P (K).
” ⇐= ”. Folgt sofort aus (i).

Lemma 5.8.30. Es sei n ∈ N. Dann gilt


X
ϕ(n) = n.
d|n

Beweis. Es sei

S := {(f, d) ∈ N × N : 1 ≤ f ≤ d ∧ ggT(f, d) = 1 ∧ d|n},

sowie
Sd := {f ∈ {1, ..., d} : ggT(f, d) = 1}.
Dann gilt [
S= Sd × {d}
d|n

und damit
5.8.17
X X X
|S| = |Sd × {d}| = |Sd | = ϕ(d).
d|n d|n d|n

Andererseits gilt für die Abbildung


n
h : (f, d) ∈ S 7−→ f ∈ {1, 2, ..., n}
d
1) h ist injektiv.
2) h ist surjektiv: Sei dazu k ∈ {1, ..., n} und

k n
f := , und d := .
ggT(k, n) ggT(k, n)
169

Dann gilt wegen 1 ≤ k ≤ n

1 ≤ f ≤ d ∧ ggT(f, d) = 1 ∧ d|n,

also (f, d) ∈ S. Ferner gilt


n
h((f, d)) = f = k.
d
Daraus folgt insgesamt: h ist bijektiv, also |S| = |{1, ..., n}| = n.

Folgerung 5.8.31. Es sei R ein Integritätsring und (U, ·) < (R∗ , ·) ein Untergruppe
der Einheitengruppe mit endlicher Ordnung. Dann ist U zyklisch.

Beweis. Es sei n := ordU . Für d ∈ N mit d|n definieren wir

Md := {u ∈ U : ordu = d} und Hd := {v ∈ U : v d = 1}.

Da das Polynom T d −1 ∈ R[T ] höchstens d Nullstellen in R∗ (und damit in U ) besitzt,


gilt
|Hd | ≤ d.
Falls Md 6= ∅ ist, gilt hui ⊂ Hd für alle u ∈ Md . Wegen ordhui = ordu = d (vgl.
Folgerung 5.8.10) folgt daher hui = Hd für alle u ∈ Md . Damit ist Hd eine zyklische
Gruppe der Ordnung d. Nach Folgerung 5.8.18 gilt daher

|Md | = ϕ(d).

Falls Md = ∅ ist, so folgt |Md | = 0 < ϕ(d). Insgesamt gilt daher


[ X X
n = |U | = | Md | = |Md | ≤ ϕ(d) = n.
d|n d|n d|n

Also |Md | = ϕ(d) für alle d ∈ N mit d|n. Insbesondere ist Mn 6= ∅ und für jedes
u ∈ Mn gilt U = hui.

Folgerung 5.8.32. Es sei K ein endlicher Körper mit q ∈ N Elementen. Dann gilt

(i) p := charK ist eine Primzahl und q = pm mit m := [K : P (K)],

(ii) (K \ {0}, ·) ist zyklisch und für jedes d ∈ N mit d|(q − 1) gibt es genau ϕ(d)
Elemente der Ordnung d in (K \ {0}, ·),
r r r
(iii) Für jedes r ∈ N gilt (x + y)p = xp + y p für alle x, y ∈ K.
170

Beweis. (i) Da K endlich ist, besitzt K eine positive Charakteristik p ∈ N. Nach


Lemma 5.8.23, ist p eine Primzahl und nach Satz 5.8.29 gilt

P (K) ∼
= Zp .

Ferner muss auch m := [K : P (K)] = dimP (K) K endlich sein. Daher gilt

K∼
= P (K)m ∼
= Zm m m
p und |K| = |Zp | = p .

(ii) Wende Folgerung 5.8.31 auf U = K ∗ = K \ {0} an.


(iii) Nach dem Binomischen Lehrsatz gilt
r
p  r
pr
X p r −ν
(x + y) = xν y p .
ν=0
ν

Wegen  r
p
p|
ν
für alle ν ∈ {1, 2, ..., pr − 1}, gilt nach Lemma 5.8.23
r r r
(x + y)p = xp + y p .

Satz 5.8.33. Es sei R ein Ring und A ⊂ R ein Ideal von R. Dann bildet

R/A = {r + A ⊂ R : r ∈ R}

zusammen mit den Verknüpfungen

+ : (r + A, s + A) ∈ R/A × R/A 7−→ r + s + A ∈ R/A,

· : (r + A, s + A) ∈ R/A × R/A 7−→ r · s + A ∈ R/A


einen Ring. R/A ist das sogenannte Restklassenring R modulo A.

Bemerkungen: (i) Ist R kommutativ, dann ist auch R/A kommutativ. Ist R ein

R mit Eins, so ist auch R/A ein Ring mit Eins (mit dem Einselement 1 + A).

(ii) Ist R 6= {0} ein kommutative Ring mit Eins und A ⊂ R ein Ideal, dann sind

äquivalent
171

(P 1) R/A ist ein Integritätsring,

(P 2) A ist ein Primideal, d.h. es gilt r, s ∈ R ∧ r · s ∈ A =⇒ r ∈ A ∨ s ∈ A.

(iii) Sind R, R0 Ringe und ist ϕ : R −→ R0 ein Ring-Homomorphismus, dann gilt

analog zu Satz 5.8.3

(R/Kerϕ, +, ·) ∼
= Imϕ.

Insbesondere gilt für zwei Ideale A, B ⊂ R mit A ⊂ B: B/A ist ein Ideal von R/A

und es gilt

(R/A)/(B/A) ∼
= R/B.

Definition 5.8.34. Es sei R ein Ring und M = 6 R ein Ideal von R. Dann heisst
M maximal, wenn für jedes weitere Ideal A ⊂ R mit M ⊂ A folgt: M = A oder
A = R.

Satz 5.8.35. Es sei R 6= {0} ein Ring mit Eins und M ⊂ R ein Ideal von R. Dann
sind folgende Aussagen äquivalent:

(i) M ist maximal,

(ii) R/M ist ein Körper.

Beweis. ”(i) ⇒ (ii)” Es sei a + M =


6 M, d.h. a 6∈ M und

A := Ra + M = {r · a + m ∈ R : r ∈ R ∧ m ∈ M}.

Dann ist A ein Ideal von R und es gilt, wegen a 6∈ M,

M ⊂ A und M =
6 A.

Also folgt A = R, d.h. es existieren r ∈ R, m ∈ M, so dass gilt

1=r·a+m

und damit
(r + M)(a + M) = r · a + M = 1 + M,
d.h. a + M ist eine Einheit von R/M. Damit folgt

(R/M)∗ = (R/M) \ {0},


172

also ist R/M ein Körper.


”(ii) ⇒ (i)” Es sei A ein Ideal von R mit
M ⊂ A und M =
6 A.
Dann ist zu zeigen: A = R. Sei dazu a ∈ A \ M. Dann gilt a + M 6= M, d.h. es
existiert ein r ∈ R, so dass gilt
r · a + M = 1 + M,
oder 1 − r · a ∈ M ⊂ A. Daraus folgt, wegen r · a ∈ A, 1 ∈ r · a + A ⊂ A. Somit
A = R.

Beispiele: (i) Es sei f (T ) := T 2 + 1 ∈ R[T ]. Dann ist f irreduzibel über R

(andernfalls besäße f eine Nullstelle in R). Daher ist das von f erzeugte Ideal

M := {f (T ) · R[T ] = {f (T )g(T ) ∈ R[T ] : g(T ) ∈ R[T ]}

maximal, also ist

K := R[T ]/M = {α0 + α1 T + M ∈ R[T ]/M : α0 , α1 ∈ R}

ein Körper. Mittels der kanonischen Einbettung

α ∈ R 7−→ α + M ∈ K

sieht man, dass K einen zu R isomorphen Teilkörper enthält, d.h. K läßt sich als

Körpererweiterung von R auffassen.

Für α0 + α1 T + M, β0 + β1 + M ∈ K mit α0 , α1 , β0 , β1 ∈ R gilt

(α0 + α1 T + M) + (β0 + β1 + M) = (α0 + β0 ) + (α1 + β1 )T + M,

(α0 + α1 T + M) · (β0 + β1 + M) = α0 β0 + (α0 β1 + α1 β0 )T + α1 β1 T 2 + M

= (α0 β0 − α1 β1 ) + (α0 β1 + α1 β0 )T + α1 β1 f (T ) + M

= ((α0 β0 − α1 β1 ) + (α0 β1 + α1 β0 )T + M.
173

Daher ist die Abbildung

α0 + i · α1 ∈ C 7−→ α0 + α1 T + M ∈ K

ein Körperisomorphismus, d.h. es gilt

C∼
= K.

(ii) Es sei f (T ) := T 3 + T + 1 ∈ Z2 [T ]. Dann ist f irreduzibel über Z2 (wegen

f (0) = f (1) = 1 6= 0 und grad f = 3), also ist das Ideal

M := f (T )Z2 [T ]

maximal. Nach Satz 5.8.35 ist daher

F8 := Z2 [T ]/M = {α0 + α1 T + α2 T + M ∈ Z2 [T ]/M : α0 , α1 , α2 ∈ Z2 }

ein Körper. Zu jeder Zahl k ∈ {0, 1, ..., 7} existieren eindeutig bestimmte α0 , α1 , α2 ∈

{0, 1}, so dass gilt

k = α0 + α1 · 2 + α2 · 22 .

Wir setzen gk := α0 + α1 T + α2 T 2 + M ∈ F8 , also

g0 = 0 + M, g4 = T 2 + M,
g1 = 1 + M, g5 = 1 + T 2 + M,
g2 = T + M, g6 = T + T 2 + M,
g3 = 1 + T + M, g7 = 1 + T + T 2 + M.
174

+ g0 g1 g2 g3 g4 g5 g6 g7
g0 g0 g1 g2 g3 g4 g5 g6 g7
g1 g1 g0 g3 g2 g5 g4 g7 g6
g2 g2 g3 g0 g1 g6 g7 g4 g5
g3 g3 g2 g1 g0 g7 g6 g5 g4
g4 g4 g5 g6 g7 g0 g1 g2 g3
g5 g5 g4 g7 g6 g1 g0 g3 g2
g6 g6 g7 g4 g5 g2 g3 g0 g1
g7 g7 g6 g5 g4 g3 g2 g1 g0
Ferner gilt

g22 = g4

g23 = T 3 + M = T + 1 + =g3

g24 = T 3 4M = T 2 + T + 1 + =g6

g25 = T 5 + M = T 3 + T 2 + =T 2 + T + 1 + M = g7

g26 = T 6 + M = T 4 + T 3 + =T 2 + 1 + M = g5 ,

also
· g1 g2 g3 g4 g5 g6 g7
g1 g1 g2 g3 g4 g5 g6 g7
g2 g2 g4 g6 g3 g1 g7 g5
g3 g3 g6 g5 g7 g4 g1 g2
g4 g4 g3 g7 g6 g2 g5 g1
g5 g5 g1 g4 g2 g7 g3 g6
g6 g6 g7 g1 g5 g3 g2 g4
g7 g7 g5 g2 g1 g6 g4 g3

Satz 5.8.36. Es sei L ein Körper und f ∈ L[T ] ein Polynom mit gradf ≥ 1. Dann
gibt es einen Erweiterungskörper K von L, in dem f mindestens eine Nullstelle besitzt.
175

Beweisidee. Es sei o.B.d.A. f irreduzibel und M das von f in L[T ] erzeugte Haup-
tideal. Dann ist M maximal, also
K := L[T ]/M
ein Körper (vgl. Satz 5.8.35). Offensichtlich ist dann
L0 := {a + M ∈ K : a ∈ L}
ein zu L isomorpher Teilkörper von K, d.h. K läßt sich als Körpererweiterung von L
auffassen.
Ist nun m
X
f (T ) = fµ T µ
µ=0

mit f0 , ..., fm ∈ L, dann gilt für α := T + M ∈ K:


m
X m
X
µ
f (α) = fµ α = fµ (T + M)µ
µ=0 µ=0
Xm Xm
µ
= fµ (T + M) = ( fµ T µ ) + M
µ=0 µ=0
= f + M = 0 + M,
d.h. α ∈ K ist eine Nullstelle von f .
Folgerung 5.8.37. Es sei L ein Körper und f ∈ L[T ] ein Polynom mit gradf =: m ∈
N. Dann gibt es einen Erweiterungskörper K von L, so dass f über K vollständig
Linearfaktoren zerfällt, d.h. es existieren c, α1 , ..., αm ∈ K, so dass gilt
f (T ) = c(T − α1 ) · · · (T − αm ).
Beweis. Für m = 1 ist die Aussage trivial. Sei die Aussage also bereits für ein m ≥ 1
bewiesen und f ∈ L[T ] ein Polynom mit gradf = m + 1. Nach Satz 5.8.36 gibt es
einem Erweiterungskörper K0 von L und ein αm+1 ∈ K0 , so dass gilt
f (αm+1 ) = 0.
Daher existiert ein Polynom s ∈ K0 [T ] mit
f (T ) = s(T )(T − αm+1 ) ∧ grads = m.
Nach Induktionsvoraussetzung gibt es einen Erweiterungskörper K von K0 (und
damit auch von L), so dass s über K in Linearfaktoren zerfällt, d.h.
s(T ) = c(T − α1 ) · · · (T − αm )
176

mit c, α1 , ..., αm ∈ K. Daraus folgt

f (T ) = c(T − α1 ) · · · (T − αm )(T − αm+1 ).

Folgerung 5.8.38. Es sei p ∈ N eine Primzahl und m ∈ N. Dann gibt es einen


Körper mit q := pm Elementen.

Beweis. Es sei fq (T ) := T q − T ∈ Zp [T ]. Dann gibt es nach Folgerung 5.8.37 einen


Erweiterungskörper K0 von Zp , so dass fq über K0 vollständig in Linearfaktoern
zerfällt, d.h. es existieren α1 , ..., αq ∈ K0 mit

fq (T ) = (T − α1 ) · · · (T − αq ).

Setze K := {α1 , ..., αq }. Dann gilt

|K| = q,

den andernfalls gäbe es i, j ∈ {1, ..., q} mit i 6= j und αi = αj , d.h.

fq (T ) = (T − αi )2 s(T )

mit s ∈ K0 [T ] und damit (wegen p = charK0 ) für T = αi

−1 = q · T q−1 − 1 = (Dfq )(T )


= 2(T − αi )s(T ) + (T − αi )2 (Ds)(T ) = 0,

was unmöglich ist. Nun gilt für alle x, y ∈ K (vgl. Satz 5.8.32)

(x − y)q = x − y, und (xy)q = xq y q = xy,

d.h. (K, +, ·) ist ein endlicher, kommutativer Unterring von K0 mit 1 ∈ K. Da K


nullteilerfrei ist, gilt nach Satz 5.8.24: (K, +, ·) ist ein Körper.

Bemerkungen: (i) Man kann zeigen, dass der in Folgerung 5.8.38 konstruierte

Körper mit q = pm Elementen bis auf Isomorphie eindeutig bestimmt ist. Wir beze-

ichnen daher den Körper mit q = pm Elementen auch mit

Fq oder GF (q)
177

(GF ist eine Abkürzung für Galois8 -Field).

(ii) Eine Möglichkeit den Körper Fq zu realisieren ist die folgende: Zu m ∈ N bes-

timme ein irreduzibles Polynom f ∈ Zp [T ] mit gradf = m. Ist dann M das von f in

Zp [T ] erzeugte Hauptideal, so ist

Fq = Zp [T ]/M

ein Körper mit q = pm Elementen (Satz 5.8.35).

Dass es zu jedem m ∈ N ein irreduzibles Polynom f ∈ Zp [T ] mit gradf = m gibt,

folgt aus Folgerung 5.8.38.

8
E. Galois, 1811-1832
Kapitel 6

Grundlagen der
Wahrscheinlichkeitsrechnung

6.1 Wahrscheinlichkeitsräume und Zähldichten


Definition 6.1.1. Ein endlicher Wahrscheinlichkeitsraum ( odre W -Raum) ist ein
Paar (Ω, P ) bestehend aus einer endlichen menge Ω und einer Abbildung

P : P(Ω) −→ R

mit folgenden Eigenschaften:

(W1) 0 ≤ P (A) ≤ 1 für alle A ∈ P(Ω),

(W2) P (Ω) = 1,

(W3) P (A ∪ B) = P (A) + P (B) für alle A, B ∈ P(Ω) mit A ∩ B = ∅.

Die Abbildung P heisst Wahrscheilichkeitsmaß (oder W -Maß) auf Ω. Die Elemente


von P(Ω) nennt man auch Ereignisse, insbesondere ist Ω das sogenannte sichere
Ereignis und ∅ das unmögliche Ereignis. Die Elemente von Ω heissen auch Ele-
mentarereignisse.
Lemma 6.1.2. Es sei (Ω, P ) ein W -Raum. Dann gilt
(i) P (Ω \ A) = 1 − P (A) für alle A ∈ P(Ω).

(ii) P (∅) = 0.

(iii) P (B \ A) = P (B) − P (A ∩ B) für alle A, B ∈ P(Ω).

(iv) A, B ∈ P(Ω) ∧ A ⊂ B =⇒ P (A) ≤ P (B).

178
179

(v) Sind A1 , ..., An ∈ P(Ω) paarweise disjunkt, dann gilt


n
[ n
X
P( Aν ) = P (Aν ).
ν=1 ν=1

(vi) P (A ∪ B) = P (A) + P (B) − P (A ∩ B) für alle A, B ∈ P(Ω).


Beweis. (i) folgt aus (W 2) und (W 3) mit B = Ω \ A, denn A ∩ B = ∅.
(ii) zeigt man durch A = Ω in (i).
(iii) Wegen B = (B \ A) ∪ (A ∩ B) und (B \ A) ∩ (A ∩ B) = ∅, gilt bei (W 3)
P (B) = P (B \ A) + P (A ∩ B).
(iv) Für A ⊂ B gilt A = A ∩ B, also wegen (iii)
P (B) = P (B\) + P (A ∩ B) ≥ P (A ∩ B) = P (A).
(v) folgt sofort durch vollstandige Induktion nach n.
(vi) Setze A1 := B \ A, A2 := A \ B, A3 := A ∩ B. Dann sind A1 , A2 , A3 paarweise
disjunkt und es gilt
A ∪ B = A1 ∪ A2 ∪ A3 .
Damit folgt
P (A ∪ B) = P (A1 ) + P (A2 ) + P (A3 )
= P (B) − P (A ∩ B) + P (A) − P (A ∩ B) + P (A ∩ B)
= P (A) + P (B) − P (A ∩ B).

Definition 6.1.3. Es sei Ω eine endliche Menge und f : Ω −→ R eine Abbildung mit
folgenden Eigenschaften:
(Z1) f (ω) ≥ 0 für alle ω ∈ Ω.
P
(Z2) ω∈Ω f (ω) = 1.

Dann heisst f Zähldichte auf Ω.


Lemma 6.1.4. Es sei Ω eine endliche Menge.
(i) Ist f : Ω −→ R eine Zähldichte auf Ω, so ist die Abbildung
X
Pf : A ∈ P(Ω) 7−→ f (ω) ∈ R
ω∈A

ein W - Maß auf Ω, es gilt f (ω) = Pf ({ω}) für alle ω ∈ Ω.


180

(ii) Ist P ein W -Maß auf Ω, dann ist die Funktion

fP : ω ∈ Ω 7−→ P ({ω}) ∈ R

eine Zähldichte auf Ω, es gilt


X
P (A) = fP (ω)
ω∈A

für alle A ∈ P(Ω).

Bemerkung 6.1: Nach Lemma 6.1.4 kann man einen W -Raum sowohl durch die

Angabe eines W -Maß, als auch durch die Angabe einer Zähldichte beschreiben.

Definition 6.1.5. Ein W -Raum (Ω, P ) heisst Laplace-Raum, wenn das W -Maß P
gleichverteilt ist, d.h. es existiert eine Konstante c ∈]0, 1[, so dass gilt

P ({ω}) = c

für alle ω ∈ Ω.

Bemerkung und Beispiel 6.2: (i) (Ω, P ) ist genau dann ein Laplace1 -Raum, wenn

die Zähldichte

fP : ω ∈ Ω 7−→ P ({ω}) ∈ R

konstante ist. Die Konstante c aus Definition 6.1.5 ist nach (W 2) bzw. (Z2) gegeben

durch
1
c= .
|Ω|
Für jedes A ∈ (Ω) gilt dann
|A|
P (A) = .
|Ω|
(ii) Ein geeignetes Modell zur Beschreibung eines Würfelwurfs ist

Ω = {1, 2, 3, 4, 5, 6}
1
P. -S. Laplace, 1749-1827
181

mit der Zähldichte


1
f (ω) = P ({ω}) = , w ∈ Ω
6
(dies setzt natürlich einen idealen Würfel voraus). Die Wahrscheinlichkeit dafür, dass

das Würfelergebnis eines Wurfs gerade ist, wird dann durch

|{2, 4, 6}| 1
P ({2, 4, 6}) = =
6 2

gegeben.

6.2 Kombinatorische Formeln

Viele Fragestellungen aus dem Bereich der endlichen W -Räume (insbesondere der

Laplace-Räume) führen zu kombinatorischen Problemen. Wir wollen daher in diesem

Abschnitt einige grundlegende Sachverhalte der Kombinatorik diskutieren.

Bisher haben wir bereits stillschweigend folgende elementare Tatsachen hinsichtlich

der Mächtigkeit endlicher Mengen ausgenutzt: Sind A und B zwei endliche Mengen,

dann gilt

(1) A ∩ B = ∅ =⇒ |A ∪ B| = |A| + |B|,

(2) |A × B| = |A| · |B|.

In der Kombinatorik sind folgende Sprechweisen üblich:


Definition 6.2.1. Es sei Ω eine endliche Menge und k ∈ N. Jedes Element

x = (x1 , ..., xk ) ∈ Perk (Ω) := Ωk = Ω


| × {z
... × Ω}
k−mal

heisst k-Permutation aus Ω mit Wiederholung.


Jedes Element x = (x1 , ..., xk ) ∈ Perk (Ω) mit xi 6= xj für 1 ≤ i 6= j ≤ k heisst k-
Permutation aus Ω ohne Wiederholung. Wir bezeichnen die Menge aller k-Permutationen
aus Ω ohne Wiederholung mit Per∗k (Ω).
182

6.2.1 Das Urnenmodell

Zur Veranschaulichung der k-Permutationen aus einer endlichen Menge mit/ohne

Wiederholung, können wir das Urnenmodell heranziehen. Dabei denken wir uns eine

Urne gefüllt mit n ∈ N durchnummerierten Kugeln. Nun ziehen wir k-mal hin-

tereinander je eine Kugel aus der Urne (ohne hinzusehen) und notieren nach jeder

Ziehung die Nummer der gezogenen Kugel. Legen wir nach jeder Ziehung die gezo-

gene Kugel in die Urne zurück, so entspricht dieses Zufallsexperiment genau einer

k-Permutation einer n-elementigen Menge mit Wiederholung. Dagegen entspricht

das k-malige Ziehen einer Kugel ohne zurücklegen genau einer k-Permutation ohne

Wiederholung. Man betrachte, dass wir in beiden Fällen (d.h. mit/ohne Zurücklegen)

die Reihenfolge der gezogenen Kugel berücksichtigen müssen. Anhand des Urnenmod-

ells überlegt man sich leicht:


Satz 6.2.2. Es sei Ω eine endliche Menge mit n ∈ N Elementen und k ∈ N. Dann
gilt
(i) |Perk (Ω)| = nk ,
Qk
(ii) |Per∗k (Ω)| = n(n − 1) · · · (n − k + 1) = j=1 (n − j + 1) =: (n)k .
Folgerung 6.2.3. (i) |S(Ω)| = n!,

(ii) |P(Ω)| = 2n .
Dabei sei S(Ω) = {σ : Ω −→ Ω : σ ist bijektiv} die Permutationsgruppe von Ω.
Beweisidee. Sei o.B.d.A. Ω = {1, ..., n}.
(i) Definiere
f : σ ∈ S(Ω) 7−→ (σ(1), ..., σ(n)) ∈ Per∗k (Ω).
Dann ist f bijektiv, also gilt nach Satz 6.2.2 (ii)

|S(Ω)| = |Per∗k (Ω)| = (n)n = n!.

(ii) Wir definieren

f : (x1 , ..., xn ) ∈ {0, 1}n 7−→ {v ∈ Ω : xv = 1} ∈ P(Ω).


183

Dann ist f bijektiv, also gilt nach Satz 6.2.2 (i)

|(Ω)| = |{0, 1}n | = |Pern ({0, 1})| = 2n .

Bei k-Permutationen aus einer endlichen Menge Ω ist die Reihenfolge der ausgewählten

Elemente entscheidend. Bei vielen Zufallsexperimenten ist die Anordnung der Ele-

mente aber unerheblich. Wir definieren daher

Definition 6.2.4. Es sei Ω eine endliche Menge und k ∈ N. Zwei k-trupel x =


(x1 , ..., xk ), y = (y1 , ..., yk ) ∈ Ωk heissen äquivalent (in Zeichen: x ∼ y), wenn es ein
σ ∈ Sk = S({1, ..., k}) gibt, so dass gilt

yj = xσ(j)

für 1 ≤ j ≤ k, d.h. es gilt

(y1 , ..., yk ) = (xσ(1) , ..., xσ(k) ).

Dann ist ∼ eine Äquivalenzrelation auf Ωk . Ist x ∈ Perk (Ω) (bzw. x ∈ Per∗k (Ω)),

dann heisst die Äquivalenzklasse von x bzgl. ∼ k-Kombination aus Ω mit (bzw.

ohne) Wiederholung. Wir bezeichnen die Menge der k-Kombinationen aus Ω mit

(bzw. ohne ) Wiederholung durch Komk (Ω) (bzw. Kom∗k (Ω)).

Bemerkung 6.3: In unserem Urnenmodell entspricht das k-malige Ziehen einer

Kugel mit (bzw. ohne) zurücklegen ohne Berücksichtigung der Reihenfolge genau

einer k-Kombination mit (bzw. ohne) Wiederholung.

Satz 6.2.5. Es sei Ω eine endliche Menge mit n ∈ N Elementen und k ∈ N. Dann
gilt

(i) |Kom∗k (Ω)| = k!1 (n)k = kj=1 n−j+1 n


Q 
j
=: k
.

(ii) |Komk (Ω)| = n+k−1



k
.
184

Beweis. (i) Es sei r := |Kom∗k (Ω)|. Dann existieren x(1) , ..., x(r) ∈ Per∗k (Ω), so dass
gilt [
Per∗k (Ω) = [x(p) ]∼ .
1≤p≤r
(p) (p)
Sei nun p ∈ {1, ..., r} und x(p) = (x1 , ..., xk ). Dann gilt
(p) (p)
[x(p) ]∼ = {(xσ(1) , ..., xσ(k) ) ∈ Per∗k (Ω) : σ ∈ Sk }.
Mit Folgerung 6.2.3 folgt daher
|[x(p) ]∼ | = |Sk | = k!.
Also ist nach Satz 6.2.2
r
X
(n)k = |Per∗k (Ω)| = |[x(p) ]∼ | = r · (k!).
p=1

(ii) Es sei o.B.d.A. Ω = {1, 2, ..., n}. Wir definieren


Ωk0 := {x = (x1 , ..., xk ) ∈ Perk (Ω) : x1 ≤ ... ≤ xk }.
Dann ist die Abbildung
f : x ∈ Ωk0 7−→ [x]∼ ∈ Komk (Ω)
bijektiv. Daher gilt
|Ωk0 | = |Komk (Ω)|.
Setze nun B := {1, ..., n + k − 1} und
g : (x1 , ..., xk ) ∈ Ωk0 7−→ [x1 , x2 + 1, ..., xk + k − 1]∼ ∈ Kom∗k (B).
Dann ist auch g bijektiv, also gilt nach (i)
 
n+k−1
|Komk (Ω)| = |Ωk0 | = |Kom∗k (B)| = .
k

Folgerung 6.2.6. Es sei Ω eine endliche Menge mit n ∈ N Elementen und k ∈ N.


Wir bezeichnen mit Pk (Ω) die Menge aller k-elementigen Teilmengen von Ω, d.h.
Pk (Ω) := {A ∈ P(Ω) : |A| = k}.
Dann gilt  
n
|Pk (Ω)| = .
k
185

Beweis. Für A = {ω1 , ..., ωk } ∈ Pk (Ω) setze

f (A) := [{ω1 , ..., ωk }]∼ ∈ Kom∗k (Ω).

Durch diese Zuordnung wird eine bijektive Abbildung f : Pk (Ω) −→ Kom∗k (Ω)
definiert. Die Behauptung folgt daher sofort aus Satz 6.2.5.

Bemerkung 6.4: Zusammenfassend können wir für unser Urnenmodell folgende

Aussagen treffen: Die Anzahl der möglichen Ausgänge beim k-maligen Ziehen einer

Kugel aus einer Urne mit n durchnummerierten Kugeln ist

ohne Zurücklegen mit Zurücklegen


n n+k−1
 
ohne Berücksichtigung der Reihenfolge k k
k
mit Berücksichtigung der Reihenfolge (n)k n

Beispiele 6.5: (i) Beim Skatspiel werden aus 32 Karten je 10 Karten an die drei

Spieler ausgeteilt, 2 Karten bilden den sogenannten Skat. Wie groß ist die Wahschein-

lichkeit daf”ur, dass man nach dem Austeilen 3 Buben, darunter den Kreuzbuben hat.

Die Auszahl der möglichen 10 Karten, die wir nach dem Austeilen auf der Hand hal-

ten, entspricht genau der Anzahl der 10-elementigen Teilmengen einer 32-elementigen

Menge. Ist also Ω die Menge aller möglichen Handkarten nach dem Austeilen, so gilt
 
32
|Ω| = .
10

Sei nun A ⊂ Ω die Menge aller Skatblätter, die drei Buben, darunter den Kreuzbuben

enthalten. Für jedes ω ∈ Ω tritt genau einer der drei folgenden Fälle ein:

– es fehlt der Pik-Bube,

– es fehlt der Herz-Bube,

– es fehlt der Karo-Bube,


186

d.h. es gibt genau 3 Bubenkonfigurationen. Die restlichen 7 Karten sind eine Kom-

bination der 28 nicht-Buben. Daraus folgt


 
28
|A| = 3 .
7

Demnach ist die gesuchte Wahrscheinlichkeit

3 28

|A| 7
= 32 .
|Ω| 10

(ii) Das Geburtstagsproblem: n Personen besuchen eine Party. Wie gross ist die

Wahrscheinlichkeit dafür, dass mindestens zwei Personen am gleichen Tag Geburtstag

haben. (unter der Annahme, dass jedes Geburtsdatum gleichwahrscheinlich ist).

Wir nummerieren die Tage eine Jahres von 1 bis 365 durch und setzen

Ωn = {1, ..., 365}n .

das in Frage stehende Ereignis ist

An := {x ∈ Ωn : es existieren 1 ≤ i < j ≤ n mit xi = xj }.

Dazu betrachten wir das Komplementärereignis

Ωn \ An = {x ∈ Ωn : (∀1 ≤ i < j ≤ n)x : i 6= xj } = Per∗n ({1, 2, ..., 365}).

Also gilt nach Satz 6.2.2

|Ωn \ An | = (365)n .

Wegen |Ωn | = 365n (vgl. Satz 6.2.2) folgt aus Lemma 6.1.2

(365)n
P (An ) = 1 − P (Ωn \ An ) = 1 − .
365n
187

6.3 Klassische Wahrscheinlichkeitsverteilungen


Lemma 6.3.1. Es sei (Ω, P ) ein W -Raum und A0 , ..., An ∈ P(Ω) paarweise disjunkte
Teilmengen von Ω mit
n
[
Ω= Aj .
j=0

Dann ist
w : j ∈ {0, 1, ..., n} 7−→ P (Aj ) ∈ R
eine Zähldichte auf {0, 1, ..., n}.

6.3.1 Hypergeometrische Verteilung

Beispiel 6.6: Es sein r, s ∈ N0 und 0 ≤ n ≤ r + s. In einer Urne befinden sich

r rote Kugeln und s schwarze Kugeln. Wir ziehen nacheinander n Kugeln aus der

Urne ohne Zurücklegen. Wie groß ist die Wahrscheinlichkeit dafür, dass genau k der

n gezogenen Kugeln rot sind?

Wir denken uns die r + s Kugeln durchnummeriert, die Menge der roten Kugeln

bezeichnen wir mit R, die Menge der schwarzen Kugeln mit S. Unsere Elementar-

ereignisse sind dann die n-Kombinationen aus M := R ∪ S ohne Wiederholung, von

denen jede gleichwahrscheinlich ist, d.h. wir setzen Ω := Pn (M ) und

|A|
P : A ∈ (Ω) 7−→ ∈ R.
|Ω|

Es sei nun Ak ∈ P(Ω) die Menge aller n-Kombinationen aus M ohne Wiederholung,

die genau k rote Kugeln enthalten, also

Ak : {T ∈ Ω : |T ∩ R| = k}.

Für jedes T ∈ Ak ist T ∩ R eine k-Kombination aus R ohne Wiederholung, von denen

es nach Satz 6.2.5 genau kr gibt. Ferner ist T ∩ S eine (n − k)-Kombination aus S

188

s

ohne Wiederholung, von denen es n−k
gibt. Daraus erhalten wir
   
r s
|Ak | = ·
k n−k

und damit
    
r s r+s
P (Ak ) = .
k n−k n
Aus Lemma 6.3.1 folgt daher wegen Ω = A0 ∪ ... ∪ An .
n n     
X X r s r+s
P (Ω) = P (Ak ) = = 1.
k=0 k=0
k n − k n

Für r, s ∈ N0 und 0 ≤ n ≤ r + s ist die Funktion


    
r s r+s
Hn,r,s : k ∈ {0, ..., n} 7−→ ∈R
k n−k n

eine Zähldichte auf {0, 1, ..., n} Hn,r,s heisst hypergeometrische Verteilung.

6.3.2 Bernoulli- Experiment

Ein Zufallsexperiment, bei dem ein Ereignis A eintreten kann, werden n-mal wieder-

holt. Für 1 ≤ v ≤ n bezeichnen wir mit Av das Ereignis, dass Av beim v-tem Versuch

eintritt. Wir nennen die Versuchsreihe ein Bernoulli2 -Experiment von Umfang n,

wenn gilt

(i) P (A1 ) = P (A2 ) = ... = P (An ) = p.

(ii) Der Ausgang des v-ten Experiments hängt nicht vom Ausgang der vorangegan-

genen Versuche ab.

Sei nun A ein Ereignis und p := P (A). Wie hoch ist die Wahrscheinlichkeit dafür,

dass bei einem Bernoulli-Experimant von Umfang n das Ereignis A genau k-mal
2
J. Bernoulli, 1654-1705
189

vorkommt? zur Modellierung dieses Problem setzen wir

Ω := {0, 1}n .

Jedes Elementarereignis ω = (ω1 , ..., ωn ) ∈ Ω representiert genau eine mögliche Ver-

suchsreihe, dabei setzen wir für 1 ≤ v ≤ n


(
1, falls A im v − ten Versuch eintritt,
ωv :=
0, falls A im v − ten Versuch nicht eintritt.

Die Wahrscheinlichkeit dafür, dass A im v-ten Versuchen eintritt (also die ω für

ωv = 1) ist p und die Wahrscheinlichkeit dafür, dass A im v-ten Versuchen nicht

eintritt (also die ω für ωv = 0 ) ist 1 − p.

Daher ist die Wahrscheinlichkeit dafür, dass A in der Versuchsreihe genau k-mail

eintritt (also dass in ω genau k Einsen vorkommen ) gerade

pk (1 − p)n−k .

Wir müssen also noch die Anzahl der Elemente in der Menge

B(n, k) := {ω ∈ Ω : ω1 + ... + ωn = k}

bestimmen. Definiere dazu

f : ω ∈ B(n, k) 7−→ {v ∈ {1, 2, ..., n} : ωv = 1} ∈ Pk ({1, ..., n}).

Dann ist f bijektiv, also gilt nach Folgerung 6.2.6


 
n
|B(n, k)| = |Pk ({1, ..., n})| = .
k
Damit ist für 0 ≤ k ≤ n die Wahrscheinlichkeit dafür, dass bei einem Bernoulli-

Experiment vom Umfang n das Ereignis A genau k-mal vorkommt gerade


 
n k
Bn,p (k) := p (1 − p)n−k .
k
190

Aus Lemma 6.3.1 folgt daraus:

Für n ∈ N0 und p ∈ [0, 1] ist die Funktion


 
n k
Bn,p : k ∈ {0, 1, ..., n} 7−→ p (1 − p)n−k ∈ R
k

eine Zähldichte auf {0, 1, ..., n}. Bn,p heisst Binounialverteilung.

Beispiel 6.7: Bei dem Brettspiel ”MÄDN” braucht man zu Beginn mindestens eine

6 unter drei Würfelwürfen, um eine eigene Spielfigur ins Spiel zu bringen. Wie groß

ist die Wahrscheinlichkeit dafür, bereits in der ersten Runde herauszukommen?

Sei A das Ereignis: Der Würfelwurf ist 6= 6. Dann ist p = P (A) = 65 . Die Wahrschein-

lichkeit dafür, dass A dreimal hintereinander eintritt (d.h. man kommt nicht in der

ersten Runde heraus) ist


 
3 5 3 1 0 125
B3, 5 (3) = ( )( ) = .
6 3 6 6 216

Die gesuchte Wahrscheilichkeit ist somit

125
1− = 0, 4212....
216

6.4 Bedingte Wahrscheinlichkeit und Unabhängigkeit

Beispiel 6.8: Wir betrachten eine Urne, die mit r ∈ N0 roten und s ∈ N0 schwarzen

Kugeln gefüllt sei. Wir ziehen nacheinander zwei Kugeln ohne diese zurückzulegen

und fragen nach der Wahrscheinlichkeit der folgenden Ereignisse:

R1 : die erste Kugel ist rot,

S1 : die erste Kugel ist schwarz,

R2 : die zweite Kugel ist rot.

Um die Wahrcheinlichkeit für das Eintreten dieser Ereignisse zu berechnen, sei Ω :=


191

Per∗2 ({1, ..., r + s}),


|A|
P : A ∈ P(Ω) 7−→ ∈ R.
|Ω|
(Diese Definition ist sinnvoll, da wir jede Zugfolge als gleichwahrscheinlich annehmen

dürfen). Demnach erhalten wir:

|R1 | r(r+s−1) r
P (R1 ) = |Ω|
= (r+s)(r+s−1) = r+s ,
|S1 | s(r+s−1) s
P (S1 ) = |Ω|
= (r+s)(r+s−1) = r+s ,
|R2 | r(r+s−1) r
P (R2 ) = |Ω|
= (r+s)(r+s−1) = r+s .

Wann wir nun berücksichtigen, dass wir bereits nach dem ersten Ziehen wissen, dass

sich das Verhältinis der roten und schwarzen Kugeln geändert hat, so können wir die

Wahrscheinlichkeit dafür, dass bei der zweiten Ziehung eine rote Kugel ge zogen wird
r
nicht mehr durch r+s
berechnen.

War nämlich die erste Kugel schwarz, so ist die Wahrscheinlichkeit dafür, dass die

zweite Ziehung eine rote Kugel liefert

r sr r+s P (S1 ∩ R2 )
= · = .
r+s−1 (r + s)(r + s − 1) s P (S1 )

Entsprechend ist die Wahrscheinlichkeit dafür, dass man beim zweiten Ziehen eine

rote Kugel erhält unter der Voraussetzung, dass die erste gezogene Kugel ebenfalls

rot war
r−1 (r − 1)r r+s P (R1 ∩ R2 )
= · = .
r+s−1 (r + s)(r + s − 1) r P (R1 )
Diese Beobachtung führt zu

Satz 6.4.1. Es sei (Ω, P ) ein W -Raum und B ∈ P(Ω), so dass gilt P (B) > 0. Dann
ist
P (A ∩ B)
A ∈ P(Ω) 7−→ P (A|B) := ∈R
P (B)
ein W -Maß auf Ω. Für A ∈ P(Ω) heisst P (A|B) die bedingts Wahrscheinlichkeit von
A unter der Voraussetzung B.
192

Beweis. (Übung)
(W1) gilt nach Lemma 6.1.2 (iv) wegen A ∩ B ⊂ B.
(W2) P (Ω|) = P P(Ω∩B)
(B)
= PP (B)
(B)
= 1.
(W3) Sind A1 , A2 ∈ P(Ω) disjunkt, so sind auch A1 ∩ B und A2 ∩ B disjunkt, also
P ((A1 ∪ A2 ) ∩ B)
P ((A1 ∪ A2 )|B) =
P (B)
P ((A1 ∩ B) ∪ (A2 ∩ B))
=
P (B)
= P (A1 |B) + P (A2 |B).

Der sogenannte Multiplikationssatz ist


Satz 6.4.2. Es sei (Ω, P ) ein W -Raum und A1 , ..., An ∈ P(Ω), so dass gilt
P (A1 ∩ ... ∩ An−1 ) > 0.
Dann gilt
P (A1 ∩ ... ∩ An ) = P (A1 ) · P (A2 |A1 ) · · · P (An |A1 ∩ ... ∩ An−1 )
Yn
= P (A1 ) P (Aj |A1 ∩ ... ∩ Aj−1 ).
j=2

Bemerkung: Sind A1 , ..., An−1 ∈ P(Ω) gegeben mit P (A1 ∩ ... ∩ An−1 ) > 0, dann

folgt, wegen

A1 ∩ ... ∩ An−1 ⊂ A1 ∩ ... ∩ An−2 ⊂ ... ⊂ A1 ∩ A2 ⊂ A1 ,

aus Lemma 6.1.2 (iv)

0 < P (A1 ∩ ... ∩ An−2 ) ≤ ... ≤ P (A1 ∩ A2 ) ≤ (A1 ).

Daher ist die in Satz 6.4.2 behauptete Gleichung sinnvoll.


Beweis zu Satz 6.4.2. Für n = 1 ist die Gleichung klar. Sei die Ausage also bereits
für ein n ≥ 1 bewiessen.
Sind dann A1 , ..., An+1 ∈ P(Ω) gegeben mit
P (A1 ∩ ... ∩ An ) > 0,
193

dann folgt aus Satz 6.4.1

P (A1 ∩ ... ∩ An+1 ) = P (A1 ∩ ... ∩ An ) · P (An+1 |(A1 ∩ ... ∩ An ))


n
!
Y
= P (A1 ) P (Aj |(A1 ∩ ... ∩ Aj−1 )) · P (An+1 |(A1 ∩ ... ∩ An ))
j=2
n+1
Y
= P (A1 ) P (Aj |(A1 ∩ ... ∩ Aj−1 )).
j=2

Beispiel 6.9: Eine Lieferung von 60 Glühbirnen enthalte 6 defekte Glühbirnen. Wir

wählen nacheinander 5 Glühbirnen aus. Wie groß ist die Wahrscheinlichkeit dafür,

dass keine der ausgewählten Glühbirnendefekt?

Sei dazu Ak das Ereignis : In einer 5-Permutation aus der Menge der Glühbirnen

ohne Wiederlegung ist die k-te Birne nicht defekt. Gesucht ist

P (A1 ∩ ... ∩ A5 ) = P (A1 )P (A2 |A1 ) · · · P (A5 |(A1 ∩ ... ∩ A4 ))

mit
54(59)4 54 53(58)3 53
P (A1 ) = = , P (A2 |A1 ) = = ,
(60)5 60 (59)4 59
52(57)2 52 51(56)1 51
P (A3 |(A1 ∩ A2 )) = = , P (A4 |(A1 ∩ A2 ∩ A3 )) = = ,
(58)3 58 (57)2 57
50
P (A5 |(A1 ∩ ... ∩ A4 )) = .
56
Daraus folgt
   
54 · · · 50 54 60
P (A1 ∩ ... ∩ A5 ) = = ≈ 0, 579.
60 · · · 56 5 5

Nun zeigen wir den Satz von der totalen Wahrscheinlichkeit.

Satz 6.4.3. Es sei (Ω, P ) ein W -Raum und A1 , ..., An ∈ P(Ω) paarweise disjunkt, so
dass gilt
194

) > 0 für alle 1 ≤ j ≤ n,


(i) P (AjS
(ii) Ω = nj=1 Aj .
Dann gilt für alle E ∈ P(Ω)
n
X
P (E) = P (E|Aj )P (Aj ).
j=1

Beweis. Es ist n n
[ [
E = E∩ = E ∩ ( Aj ) = (E ∩ Aj ).
j=1 j=1

Aus (W3) und Satz 6.4.1 folgt


n
X n
X
P (E) = P (E ∩ Aj ) = P (E|Aj )P (Aj ).
j=1 j=1

Die Regel von Bayes3 ist


Satz 6.4.4. Es sei (Ω, P ) ein W -Raum und A1 , ..., An ∈ P(Ω) paarweise disjunkt, so
dass gilt
(i) P (AjS) > 0 für alle 1 ≤ j ≤ n,
(ii) Ω = nj=1 Aj .
Dann gilt für alle E ∈ P(Ω) mit P (E) > 0

P (Ak )P (E|Ak )
P (Ak |E) = Pn , 1 ≤ k ≤ n.
j=1 P (E|Aj )P (Aj )

Beweis. Nach Sätzen 6.4.1 und 6.4.3 gilt


P (Ak ∩ E) P (Ak )P (E|Ak )
P (Ak |E) = = Pn .
P (E) j=1 P (E|Aj )P (Aj )

Beispiel 6.10: In drei verschiedenen Anlagen A, B und C werden Glühbirnen hergestellt.

Der prozentuale Anteil an der Produktion und der prozentuale Ausschuss sind in fol-

gender Tabelle gegeben


3
T. Bayes, 1702-1761
195

Anlage A B C
Produktionsanteil 50% 40% 10%
Ausschuss 3% 4% 6%
a) Wie groß ist die Wahrscheinlichkeit dafür, dass eine zufällig gewählte Birne defekt

ist?

b) Wie groß ist die Wahrscheinlichkeit dafür, dass eine defekte Birne in Anlage A

produziert wurde?

Es sei E das Ereignis: Glühbirne defekt und A, B, C die Ereignisse: die Glühbirne

wurde in Anlage A, B, C hergestellt. Dann gilt nach Satz 6.4.3

P (E) = P (A)P (E|A) + P (B)P (E|B) + P (C)P (E|C)

= 0, 5 · 0, 03 + 0, 4 · 0, 04 + 0, 1 · 0, 06

= 0, 037.

Ferner gilt nach Satz 6.4.4:


P (A)P (E|A)
P (A|E) =
P (A)P (E|A) + P (B)P (E|B) + P (C)P (E|C)
0, 015
= ≈ 0, 4054.
0, 037
Definition 6.4.5. Es sei (Ω, P ) ein W -Raum und A1 , ..., An ∈ P(Ω).
(i) Die Ereignisse A1 , ..., An heissen paarweise unabhängig, wenn gilt
P (Aν ∩ Aµ ) = P (Aν )P (Aµ ), 1 ≤ ν 6= µ ≤ n.

(ii) Die Ereignisse A1 , ..., An heissen unabhängig, wenn gilt


P (Aν1 ∩ ... ∩ Aν ) = P (Aν1 ) · · · P (Aνk ), 1 ≤ ν1 < ... < νk ≤ n.

Beispiel 6.11: (i) Zwei ideale Münzen werden geworfen. Die Menge der Elementar-

ereignisse ist also Ω = {0, 1}2 = {(0, 0), (0, 1), (1, 0), (1, 1)} (0: Kopf, 1:Zahl) und
|A|
P : A ∈ P(Ω) 7−→ ∈ R.
|Ω|
196

Sei nun A das Ereignis: ”höchstens einmal Kopf” und B das Ereignis ” mindestens

einmal Kopf und mindestens einmal Zahl”. Dann gilt

A = {(0, 1), (1, 0), (1, 1)}, B = {(1, 0), (0, 1)} und A ∩ B = B.

Ferner haben wir


1 3
P (A ∩ B) = 6= = P (A)P (B).
2 8
Also sind A und B nicht unabhängig.

(ii) Nun werden drei ideale Münzen geworfen. A und B seien wie in (i), also Ω =

{0, 1}3 , P (ω) = 1/8 für alle ω ∈ Ω. Ferner gilt

A = {(0, 1, 1), (1, 0, 1), (1, 1, 0), (1, 1, 1)},

B = {(0, 1, 1), (0, 1, 0), (1, 0, 1), (1, 0, 1), (0, 0, 1), (1, 1, 0)}

und

A ∩ B = {(0, 1, 1), (1, 0, 1), (1, 1, 0)}.

Also ist
3 4 6
P (A ∩ B) = = · = P (A) · P (B),
8 8 8
d.h. A und B sind unabhängig.
Kapitel 7

Grundlagen der Codierungstheorie

7.1 Block-Codes

Die Codierungstheorie beschäftigt sich mit der Entwicklung von Verfahren, um Nachrichten

möglichst effizient und fehlerfrei zu übertragen. Die Problematik besteht darin, dass

Effizienz und Fehlerfreiheit einander widerstrebende Ziele sind. Möchten wir Daten

übertragen, so brauchen wir einen Sender, einen Kanal und einem Empfänger.

Sender −→ Kanal −→ Empfänger

Unter einem Kanal verstehen wir ein übertragungsmedium, z. B. eine Telefonleitung,

oder auch ein Speichermedium, z. B. eine CD. Eine Nachricht, die meist in dig-

italer Form vorliegt, soll über den Kanal an den Empfänger übertragen werden.

Dabei werden durch den Kanal häufig Störungen verursacht, beispielsweise atmo-

sphärisches Rauschen odre Kratzer auf der CD, so dass die Nachricht den Empfänger

in verfälschter Form erreicht. Der Codierungstheorie liegt nun die Idee zugrunde,

durch Senden zusätzlicher Information, also einer gewissen Redundanz, Übertragungsfehler

zu entdecken oder sogar zu korrigieren (damit beschäftigt sich die sogenannte Kanal-

codierung).

197
198

Sender −→ Codierer −→ Kanal −→ Decodierer −→ Empfänger

In der obigen Skizze hat der Codierer nun das ”‘Anhängen”’ der zusäthlichen Informa-

tion, bzw. die Umwandlung einer Nachricht in einen bestimmten Code zur Aufgabe.

Der Decodierer versucht, wie der Name schon sagt, aus einer empfangenen codierten

Nachricht, die ursprünglich gesendete zu rekonstruieren. Je mehr redundante In-

formationen gesendet werden, desto aufwändiger ist natürlich die Übertragung. So

beschäftig sich z.B. die Quellencodierung mit dem Problem, zu sendenden Nachrichten

in ein effiziente digitale Form zu bringen, also die Redundanz einer zu sendenden In-

formation zu reduzieren (Stichwort: Datenkompression). Letzteres wird jedoch nicht

Thema dieses Kapitels sein.


Definition 7.1.1. Sei F eine endliche Menge mit q Elementen. Eine Teilmenge C
von F n , also
C ⊂ F n = {(u1 , ..., un ) : ui ∈ F },
heisst Blockcode (kurz: Code) über dem Alphabet F . Die Elemente von C nennt man
Codewort. n heisst die Länge von C.

Für q = 2 nennen wir C binär. In der Praxis wird F für gewöhnlich als endlicher

Körper betrachtet, wobei binäre Codes (F = {0, 1} die am häufigsten Anwendung

finden. In der Praxis benötigt man häufig den Begriff des Abstandes zweier Codewörter.

Es gibt verschiedene Möglichkeiten diesen zu definieren, wir werden uns hier aber die

sogenannte Hamming-Distanz beschränken:


Definition 7.1.2. Es sei F ein Alphabet und u = (u1 , ..., un ), v = (v1 , ..., vn ) Elemente
in F n . Dann heisst
d(u, v) = |{i : ui 6= vi }|
die Hamming-Distanz von u und v.

Hier ergeben sich erste Beobachtungen:


Satz 7.1.3. Die Hamming-Distanz definiert auf F n eine Metrik, also eine nichtneg-
ative Funktion d : F n × F n −→ R+ mit folgenden Eigenschaften für alle u, v ∈ F n
199

(i) d(u, v) = 0 genau dann, wenn u = v.

(ii) d(u, v) = d(v, u).

(iii) d(u, v) ≤ d(u, w) + d(w, v).

Beweis. (i) und (ii) ergeben sich direkt aus der Definition der Hamming-Distanz.
(iii) Nach Definition der Hamming-Distanz ist d(u, v) die kleinste Anzahl von Ko-
ordinatenänderungen, die man braucht, um u in v zu überführen. Diese Zahl ist
natürlich kleiner oder gleich der kleinsten Anzahl von Koordinatenänderungen, die
wir benötigen, um zunächst u in w und dann w in v zu überführen.

Aufgrund der eingeführten Metrik können wir nun Kugelumgebungen um Codewörter

definieren.

Definition 7.1.4. Es sei F ein Alphabet und r ∈ N0 . Für u ∈ F n definiert

Br (u) := {v ∈ F n : d(u, v) ≤ r}

die Kugel vom Radius r mit dem Mittelpunkt u ∈ F n .

Definition 7.1.5. Es sei C ein Code.

(i) C heisst t-fehlererkennend, falls für alle c ∈ C die Kugel Bt (c) ausser c kein
weiteres Codewort aus C enthält, d.h. Bt (c) ∩ C = {c}.

(ii) C heisst e-fehlerkorrigierend, falls Be (c) ∩ Be (c0 ) = ∅ für alle Codeworte c 6= c0


gilt.

Definition 7.1.6. Es sei C ein Code der Länge n über dem Alphabet F .

(i) Ist |C| > 1, so nennen wir

d(C) = min{d(c, c0 ) : c, c0 ∈ C, c 6= c0 }

die Minimaldistanz von C. Für |C| = 1 setzen wir d(C) = 0.

(ii) Ist d(C) = d und |C| = M , so sagen wir, dass C ein (n, M, d)-Code über F ist.

Satz 7.1.7. Es sei C ein Code mit Minimaldistanz d.

(i) Ist d ≥ t + 1, so ist C ein t-fehlererkennender Code.

(ii) Ist d ≥ 2e + 1, so sit C ein e-fehlerkorrigierender Code.


200

Beweis. (i) Sei c ∈ C und v ∈ Bt (c). Dann gilt d(v, c) ≤ t ≤ d − 1. Also ist v = c
oder v ist kein Coderwort.
(ii) Für c, c0 ∈ C mit c 6= c0 erhalten wir Be (c) ∩ Be (c0 ) = ∅. Denn gäbe es ein v im
Durchschnitt, so wäre wegen der Dreiecksungleichung
2e + 1 ≤ d ≤ d(c, c0 ) ≤ d(c, v) + d(v, c0 ) ≤ 2e
ein Widerspruch.

Bemerkung 7.1: Bei der Auswahl eines ”guten” (n, M, d)-Codes wird man ver-

suchen, n möglichst klein zu wählen, M möglichst groß (um viele verschiedene Nachrichten

codieren zu können) und dabei möglichst großes d zu erhalten (um möglichst viele

Fehler zu erkennen und wenn möglich sogar zu korrigieren).

Beispiel 7.2: Sei F ein Alphabet. Der Code

C = {(c, c, ..., c) : c ∈ F } ⊂ F n

heisst Wiederholungscode der Länge n über F . Für |C| =


6 1 (trivialer Code) gilt

d(C) = n und damit kann C bis zu (n − 1)/2 Fehler korrigieren. Für diese gute

Fehlerkorrektur zahlen wir allerdings einen hohen Preis, denn von n übertragenen

Zeichen enthält nur eines die eigentliche Information. Allgemeiner können wir für

jeden Code C der Länge n über F die t-fache Wiederholung

{(c, ..., c) : c ∈ C} ⊂ F tn

von C definieren.

7.2 Maximum-Likelihood-Decodierung
Definition 7.2.1. Wir betrachten ein Alphabet F mit q Elementen, sowie einen Code
C ⊂ F n . Für c ∈ C und v ∈ F n bezeichne P (v|c) die Wahrscheinlichkeit, dass v emp-
fangen wird, unter der Bedingung, dass c gesendet wurde. Eine Maximum-Likelihood-
Decordierung, kurz MLD, decodiert einen Vektor v ∈ F n zu einem Codewort c ∈ C,
für welches
P (v|c) = max
0
P (v|c0 )
c ∈C
201

ist. Gibt es mehrere Codeworte, für die das Maximum angenommen wird, so wird
zufällig ausgewählt.

Wir machen nun die folgenden Annahmen, die für viele in der Praxis vorkom-

menden Kanäle realistisch sind:

q−1
(i) Jedes Symbol a ∈ F wird mit der Wahrscheinlichkeit p < q
verfälscht. Dies

besagt, dass die Wahrscheinlichkeit der korrekten Übertragung eines Symbols


1
gleich 1 − p > q
ist. Im Fall q = 2 passiert ein Bit den Kanal ungestört z. B.

mit Wahrscheinlichkeit 12 .

(ii) Wird ein Symbol falsch übertragen, so sind die (q − 1) möglichen Fehler all

geleich wahrscheinlich. Damit ist also die Wahrscheinlichkeit der Verfälschung


p
in ein vorgegebenes anderes Symbol gleich q−1
< 1q .

Kanäle mit den Eigenschaften (i) und (ii) nennen wir q-när symmetrisch. Im Spezial-

fall q = 2 heisst der Kanal binär symmetrisch. Unter diesen Voraussetzung ist die

bedingte Wahrscheinlichkeit P (v|c0 ), dass v mit d(v, c0 ) = l empfangen wird, unter

der Bedingung, dass c0 gesendet wurde, gleich


 l
0 p l p
P (v|c ) = ( ) (1 − p)n−l = (1 − p)n =: f (l).
q−1 (q − 1)(1 − p)
q−1 p
Die Bedingung p < q
liefert (q−1)(1−p)
< 1. Somit ist die Funktion f (l) mit wach-

sendem l monoton fallend. Also gilt

P (v|c) = max
0
P (v|c0 )
c ∈C

genau für diejenigen Codeworte c ∈ C, für die

d(v, c) = min
0
d(v, c0 )
c ∈C
202

ist.

Bemerkung 7.3: Unter den geschilderten Voraussetzungen verlangt die Maximum-

Likelihood-Decodierung also eine Decodierung zum nächstgelegenen Codewort, d.h.

zu demjenigen Codewort, welches minimalen Abstand zum empfangenen Wort hat

(Minimum-Distance-Decoding). Gilt nun Be (c) ∩ Be (c0 ) = ∅ für alle Codeworte c 6= c0

und einem geeigneten e ∈ N, so werden mit diesem Decodierungsverfahren bis zu e

Fehler korrigiert. Dabei wird für alle Codewort die Wahrscheinlichkeit einer falschen

Decodierung minimiert.

Definition 7.2.2. Es sei C ein Code der Länge n über dem Alphabet F . Wir nennen
C perfekt bzw. C einen perfekten Code, falls ein e ∈ N0 existiert, so dass
[
Fn = Be (c)
c∈C

die disjunkte Vereinigung der Kugeln Be (c) ist.

Aussage (i) im nachfolgenden Satz ist auch unter der Bezeichnung Kugelpackungss-

chranke zu finden:

Satz 7.2.3. Es sei C ein Code der Länge n über dem q-elementigen Alphabet F .

(i) (Hamming-Schranke) Ist d(C) ≥ 2e + 1 mit e ∈ N0 , so gilt


e  
n
X n
q ≥ |C| (q − 1)j .
j=0
j

(ii) Genau dann ist ein nicht-trivialer Code C perfekt, wenn in (i) die Gleichheit
gilt.

Beweis. (i) Die Bedingung d(C) ≥ 2e + 1 liefert Be (c) ∩ Be (c0 ) = ∅ für alle Codeworte
c 6= c0 . Für jedes u ∈ F n hat die Kugel Be (u) gleich viele Elemente, nämlich
e  
X n
|Be (u)| = (q − 1)j ,
j=0
j
203

denn |{v ∈ F n : d(u, v) = j}| = nj (q − 1)j . Daher können wir wie folgt abschätzen:


e  
n n
[ X X n
q = |F | ≥ Be (c) = |Be (c)| = |C| (q − 1)j . (7.2.1)


c∈C

c∈C j=0
j

(ii) Gilt in (i) die Gleichheit, so überdecken die Kugel vom Radius e um die Codeworte
ganz F n disjunkt und C ist perfekt. Ist umgekehrt C perfekt und wird daher ganz
F n mit Kugel von Radius e um die Codeworte disjunkt überdeckt, so gilt nun wegen
|C| > 1 auch d(C) ≥ 2e + 1 und die Abschätzung (7.2.1) ist ein Gleichheit.

Beispiel 7.4: Triviale Codes (|C| = 1) und der ganze Raum F n sind pefekt. Ferner

ist der binäre Wiederholungscode ungerader Länge n = 2e + 1 perfekt, denn er wird

von den Kugeln mit Radius e um die Beiden Codeworte überdeckt. Wir nennen diese

Codes die trivialen perfekten Codes.

Sei nun n ∈ N und F fest gegeben. Auf der Suche nach guten Codes C ⊂ F n möchten

wir einerseits eine große Informationsrate erreichen, d.h. |C| möglichst groß wählen,

andererseits aber auch viele Fehler korrigieren können d.h. eine große Minimaldistanz

haben. Diese Forderungen widersprechen sich offensichtlich, denn je größer |C| wird,

desto kleiner wird der minimale Abstand zwischen den Codeworten. Den Zusammen-

hang klärt die folgende von R. C. Singleton (1964) stammende Abschätzung für die

Minimaldistanz (Singleto-Schranke), die an dieser Stelle aus Zeitgründen ohne Beweis

zitiert wird.
Satz 7.2.4. Sei C ein Code der Länge n über dem Alphabet F mit q Elementen. Ist
d die Minimaldistanz von C, so gilt
d ≤ n − logq |C| + 1.

Es wird deutlich, dass die Singleton-Schranke eine obere Schranke darstellt, es gilt

nämlich:

|C| ≤ q n−d+1 .
204

Definition 7.2.5. Codes, welche die Singleton-Schranke erreichen, für welche also
d(C) = n−logq |C|+1 ist, heissen MDS-Codes (Maximum Distance Separable Codes).

7.3 Lineare Codes

Bei den bisher behandelten Codes ist es erforderlich jedes einzelne Codewort (und

insbesondere für jedes Wort, das mit dem jeweiligen Code codiert werden kann auch

die entsprechende Zuordnungsvorschrift ) zu speichern, um Verfahren für Codierung

und Decodierung zu implementieren (Z. B. die ML-Decodierung), da außer den Pa-

rametern n, M und d keine weiteren charakterisierende Eigenschaften für die Codes

bekannt sind. In diesem Abschnitt werden wir uns nun mit einer speziellen Klasse

von Codes beschäftigen, den sogenannten linearen Codes. Wir werden sehen, dass es

hierbei wesentlich einfachere Möglichkeiten gibt, als die Speicherung jedes einzelnen

Codewortes, um Verfahren für die Codierung und Decodierung zu realisieren.


Definition 7.3.1. Es sei F ein Körper mit q Elementen und n eine natürliche Zahl.
Ein linearer Code C ist ein Unterraum des F -Vektorraums F n . Ist k = dimC die
Dimension von C und d = d(C) die Minimaldistanz von C, so spricht man auch
von einem [n, k]-oder genauer [n, k, d]-Code über F . Man nennt [n, k, d], oder auch
[n, k, d]q die Parameter von C.

Hinweis: Es hat sich in der Codierungstheorie eingebürgert, die Codeworte als Zeilen-

vektoren zu schreiben.
Definition 7.3.2. Es sei F ein Körper und n ∈ N.
(i) Für u = (u1 , ..., un ) ∈ F n setzen wir
wt(u) = d(u, 0) = |{i ∈ {1, ..., n} : ui 6= 0}|
und nennen wt(u) das Gewicht von u. Die Abbildung wt : F n −→ N0 heisst die
Gewichtsfunktion auf F n .
6 C ⊂ F n , so nennen wir
(ii) Ist {0} =
wt(C) = min{wt(c) : 0 6= c ∈ C}
das Minimalgewicht von C. Für C = {0} setzen wir wt(C) = 0.
205

Um das nächste Lemma bewiesen zu können, benötigen wir noch eine weitere Eigen-

schaft der Hammingdistanz und zwar ist diese Metrik translationsinvariant ((d(u, v) =

d(u + w, v + w)) unter der Voraussetzung, dass F bzgl. + eine abelsche Gruppe ist.

In diesem Abschnitt beschreibt F einen Körper, (F, +) ist also in jedem Fall eine

abelsche Gruppe. Die Translationsinvarianz ergibt sich aus der Beziehung:

d(u, v) = |{i : ui 6= vi }| = |{i : ui + wi 6= vi + wi }| = d(u + w, v + w).

Die folgende Aussage erleichtert nun wesentlich den Aufwand zur Berechnung der

Minimaldistanz:
Lemma 7.3.3. Für einen linearen Code C gilt wt(C) = d(C).
Beweis. Ist |C| = 1, so gilt die Aussage aufgrund der gemachten Festsetzungen richtig.
Für nichttriviales C gilt

d(C) = min{d(c, c0 ) : c, c0 ∈ C, c 6= c0 }
= min{d(c − c0 , ) : c, c0 ∈ C, c 6= c0 }
= min{wt(c) : 0 6= c ∈ C}
= wt(C).

Bemerkung 7.5: Lemma 7.3.3 besagt, dass die Linearität eines Codes den Aufwand

zur Berechnung der Minimaldistanz reduziert. Statt den Abständen zwischen zwei

beliebigen Codeworten sind nur die Abstände zum Nullvektor zu berechnen. Wir wer-

den ferner sehen, dass algebraische Strukturen sowohl in der Codierung als auch in der

Decodierung äußerst effizient ausgenutzt werden können. So reicht zur Beschreibung

von linearen Codes einfach die Angabe einer Basis. Bei Codes ohne Struktur müssen

hingegen meist alle Codewörter abspeichert werden und Codierung und Decodierung

sind aufwändige Zuordnungsprobleme.

Für A ∈ Mat(k, n, F ) sei AT ∈ Mat(n, k, F ) die zu A transponierte Matrix.


206

Definition 7.3.4. Es sei C ein [n, k, d]-Code über F .


(i) Ist k ≥ 1, so heisst eine Matrix G ∈ Mat(k, n, F ) eine Erzeugermatrix (Gener-
atormatrix) für C, falls
F k G = {(u1 , ..., uk )G : ui ∈ F } = C
ist. Die Zeilen von G bilden also eine Basis von C. Im ausgearteten Fall
C = {0} sei G = (0, ..., 0) ∈ F n die Erzeugermatrix von C. Stets hat G den
Rang k = dimC.
(ii) Ist k < n, so heisst eine Matrix H ∈ Mat(n − k, n, F ) eine Kontrollmatrix für
C, falls
C = {u ∈ F n : HuT = 0}
ist. Im ausgearteten Fall C = F n sei H = (0, ..., 0) ∈ F n die Kontrollmatrix
von C. Stets gilt rgH = n − dim KerH = n − dimC = n − k.

Hinweis: Im Englischen bezeichnet man die Kontrollmatrix auch als parity check

matrix, betrachte ferner, dass in der Literatur manchmal auch die Transponierte von

H als Kontrollmatrix angesehen wird.

Bemerkung 7.6: (i) Für einen [n, k, d]-Code C über einem Körper F mit q Ele-

menten, kann eine erzeugende Matrix G ∈ Mat(k, n, F ) durch die Verwendung ele-

mentarer Zeilenumformulierungen, Spaltenvertauschungen oder Multiplikation einer

Spalte mit einem von Null verschiedenen Skalar auf die folgende Standardform
 
1 0 ··· 0
 0 1 . . . ...
 

A  =: (Ek |A)
 
 . . .
 .. . . .. 0 
 
0 ··· 0 1

mit einer Matrix A ∈ Mat(k, n − k, F ) transformiert werden.

(ii) Für die Generatormatrix G und die Kontrollmatrix H eines linearen Codes gelten

die folgenden Bezeichnungen:

H · GT = 0 und G · H T = 0.
207

Bei gegebener Generatormatrix in Normalform (Standardform) ist es relativ einfach

daraus eine Kontrollmatrix für den entsprechenden Code zu konstruieren. Wie genau

dies funktioniert besagt der folgende Satz:

Satz 7.3.5. Es sei C ein q-närer [n, k, d]-Code und

G = (Ek |A) ∈ Mat(k, n, F )

mit A ∈ Mat(k, n − k, F ) eine Erzeugermatrix in Standardform. Dann ist

H = (−AT |En−k ) ∈ Mat(n − k, n, F )

eine Kontrollmatrix von C in Standardform.

Beweis. Es seien g1 , ..., gk ∈ F n die Zeilenvektoren von G und h1 , ..., hn−k ∈ F n die
Zeilenvektoren von H. Dann genügt es zu zeigen, dass gilt:

hgi , hj i = 0 1 ≤ i ≤ k, 1 ≤ j ≤ n − k.

Nun ist für 1 ≤ i ≤ k, 1 ≤ j ≤ n − k:

gi = (0, ..., 0, 1, 0, ..., 0, ai,1 , ..., ai,n−k )

mit der Eins in der i-ten Spalte und der letzten Null in der k-ten Spalte. Außerdem
ist
hj = (−a1,j , ..., −ak,j , 0, ..., 1, ..., 0)
mit der Eins in der (k + j)-ten Spalte. Daraus ergibt sich:

hgi , hj i = −ai,j + ai,j = 0.

Es gibt eine Möglichkeit, wie man mit Hilfe einer Kontrollmatrix für einen lin-

earen Code auf sehr einfache Weise dessen Minimalabstand bestimmen kann. Diesen

Zusammenhang beschreibt der folgende Satz:

Satz 7.3.6. Ist C ein q-närer linearer Code der Länge n und der Dimension k über
F mit der Kontrollmatrix H. Dann sind die folgenden beiden Aussagen äquivalent:

(i) d = d(C).
208

(ii) Je d − 1Spalten von H sind linear unabhängig, aber es gibt d linear abhängig
Spalten.
Beweis. ”(i) =⇒ (ii)”, Seien h1 , ..., hn die Spaltenvektoren von H und 1 ≤ ν1 < ... <
νr ≤ n Indizes, so dass die Spalten hν1 , ..., hνr linear abhängig sind, wobei r minimal
gewählt ist. Dann gibt es einen Vektor 0 6= (cν1 , ..., cνr ) ∈ F r , so dass gilt:

cν1 hTν1 + ... + cνr hTνr = 0.

Setzen wir nun 


cνj , ν = νj ,
cν :=
0, ν ∈ {1, ..., n} \ {ν1 , ..., νr },
dann gilt für c = (c1 , ..., cn ) ∈ F n :
n
X
T
c·H = cν hTν = cν1 hTν1 + ... + cνr hTνr = 0.
ν=1

Daraus folgt c ∈ C, also


d(C) ≤ wt(c) ≤ r,
d.h. je d(C) − 1 der Spaltenvektoren von H sind linear unabhängig. Ist nun c ∈ C
ein Codewort mit wt(c) = d(C), dann gibt es 1 ≤ ν1 < ... < νd ≤ n mit

6= 0, ν =∈ {ν1 , ..., νd },

= 0, sonst.

Wegen 0 = c · H T = cν1 hTν1 + ... + cνr hTνd sind die d Spalten hν1 , ..., hνd linear abhängig.
”(ii) =⇒ (i)” folgt analog.

7.4 Syndrom-Decodierung

Wie die Linearität gewinnbringend beim Decodieren eingesetzt werden kann, zeigt

die folgende Syndrom-Decodierung. Es sei hier jedoch vermerkt, dass das Verfahren

nur bei kleinen Parametern praktikabel ist.


Definition 7.4.1. Es sei C ein q-närer [n, k, d]-Code und H ∈ Mat(n − k, n, F ) eine
Kontrollmatrix von C. Für jedes w ∈ F n heisst der Vektor

s(w) = w · H T

Syndrom von w.
209

Verfahren zur Syndrom-Decodierung: Es sei C ein [n, k, d]-Code über F mit

der Kontrollmatrix H. Bei der ML-Decodierung wird zu einem empfangenem Wort

c̃ ∈ F n ein Codewort c ∈ C gesucht, so dass der Fehler

f = c̃ − c ∈ c̃ + C

minimales Gewicht hat. Nun gilt, dass

vH T = uH T ⇐⇒ v − u ∈ C ⇐⇒ v + C = u + C,

zwei Vektoren haben also genau dann das gleiche Syndrom, wenn sie in der gleichen

Äquivalenzklasse des Faktorraum F n /C liegen. Damit legt des Syndrom von c̃ ein-

deutig die Äquivalenzklasse fest, in welcher der Fehler zu suchen ist.

Angenommen, wir können für jede Nebenklasse v + C einen Nebenklassenvertreter,

einen so genannten Nebenklassenführer, fv ∈ v + C mit

wt(fv ) = min{wt(v + c) : c ∈ C}

bestimmen (dies erfordert Aufwand, falls |C| groß ist), so wird bei der Syndrom-

Decodierung das empfangene Wort c̃ zum Codewort c = c̃ − fc̃ decodiert. Anstatt die

|F |k Abstände d(c̃, c) mit c ∈ C zu bestimmen, wird bei der Syndrom-Decodierung

unter den |F |n−k Nebenklassenführern derjenige gesucht, der das gleiche Syndrom wie

c̃ hat. Für 2k > n sind also weniger Vergleiche auszuführen.

Der Decodierungsvorgang kann durch ein sogenanntes Standard-Array beschrieben

werden:
0 c1 c2 ··· cM −1
a1 a1 + c1 a1 + c2 · · · a1 + cM −1
.. .. .. ..
. . . .
as as + c 1 as + c 2 · · · as + cM −1
210

Mit M = |C| = q k und s = q n−k −1. Dabei besteht die erste Zeile des Arrays aus allen

Codewörtern c ∈ C. Nun wählen wir a1 ∈ F n \ C mit minimalem Gewicht wt(a1 )

und schreiben in die zweite Zeile die Elemente a1 , a1 + c1 , ..., a1 + cM −1 . Allgemein

wählen wir für jedes 1 ≤ i ≤ s aus der menge F n \ (C ∪ (a1 + C) ∪ ... ∪ (ai−1 + C))

einen Vektor ai mit minimalem Gewicht und bilden die i-te Zeile des Arrays aus den

Vektoren ai , ai + c1 , ..., ai + cM −1 . Durch dieses Verfahren werden in obigem Array alle

Elemente von F n aufgelistet. Ist also w ∈ F n , dann gibt es 1 ≤ i ≤ s, 0 ≤ j ≤ M − 1,

so dass gilt:

w = ai + cj (c0 := 0),

d.h. wir decodieren w zu cj . Tatsächlich brauchen wir zur Decodierung nicht das

gesamte Array, sondern nur die Vektoren a1 , ..., as und die zugehörigen Syndroms

s(a1 ), ..., s(an ). Ist dann w ∈ F n und s(w) = HwT 6= 0, dann gibt es 1 ≤ i ≤ s mit

s(w) = s(ai ),

d.h. wir decodieren w zu c∗ := w − ai ∈ C.

Beispiel 7.7: Sei C = {0000, 1011, 0101, 1110}. Wir betrachten den von der Erzeuger-

matrix !
1 0 1 1
G=
0 1 0 1
erzeugten binären [4, 2, 2]-Code C. Mit Satz 7.3.5 erhalten wir als Kontrollmatrix
!
1 0 1 0
H= .
1 1 0 1

Es gilt mit C = {0000, 1011, 0101, 1110}

(x1 , x2 , x3 , x4 ) ∈ C ⇐⇒ x1 + x2 = 0 ∧ x1 + x2 + x4 = 0.
211

Als Standardarray von C ergibt sich:

0000 1011 0101 1110


a1 = 1000 0011 1101 0110
a2 = 0100 1111 0001 1010
a3 = 0010 1001 0111 1100.

Zur Syndromdecodierung benötigen wir nur die folgende Tabelle:

ai s(ai ) = ai · H T
0000 00
1000 11
0100 01
0010 10.

Wird also z.B. w = 1111 empfangen, so decodieren wir w wegen s(w) = 01 = s(a2 )

zu c∗ = w − a2 = 1011.