Sie sind auf Seite 1von 227

Mathematik fur Informatiker 1

Eine Vorlesung von


Dr. Alexandra K
othe
Institut f
ur angewandte Mathematik
Ruprecht-Karls-Universitat Heidelberg

Version vom 3. April 2014

Inhaltsverzeichnis

Inhaltsverzeichnis

Vorwort

1 Einleitung
1.1 Was ist Mathematik? . . . . . . . . . . . . . . . . . . .
1.2 Was ist Informatik? . . . . . . . . . . . . . . . . . . .
1.3 Woher kommt die Informatik? . . . . . . . . . . . . . .
1.4 Warum muss ich als Informatiker Mathematik lernen?
1.5 Ziele der Vorlesung Mathematik f
ur Informatiker . . .
1.6 Einige ermunternde Worte f
ur Mathe-Anfanger . . . .

5
5
6
6
7
7
9

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.

Grundlagen

11

2 Grundlagen der mathematischen Logik


2.1 Aussagen und Quantoren . . . . . . . .
2.2 Verkn
upfungen von Aussagen . . . . . .
2.2.1 Die Negation . . . . . . . . . . .
2.2.2 Zweiwertige Verkn
upfungen . . .
2.3 Beweisarten . . . . . . . . . . . . . . . .

.
.
.
.
.

12
12
15
16
17
20

3 Grundlagen der Mengenlehre


3.1 Notation und Operationen auf Mengen . . . . . . . . . . . . . . . . . . . . .
3.2 Abbildungen zwischen Mengen . . . . . . . . . . . . . . . . . . . . . . . . .
3.3 Relationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

22
22
28
36

4 Algebraische Strukturen
4.1 Gruppen . . . . . . . . . .
4.2 Gruppenhomomorphismen
4.3 Ringe und K
orper . . . .
4.4 Polynome . . . . . . . . .

.
.
.
.

39
39
42
44
46

.
.
.
.
.
.

50
50
53
60
62
63
67

5 Zahlenmengen
5.1 Die nat
urlichen Zahlen
5.2 Die ganzen Zahlen . .
5.3 Die rationalen Zahlen
5.4 Die reellen Zahlen . .
5.5 Die komplexen Zahlen
5.6 Restklassenringe . . .

.
.
.
.
.
.

.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

II Lineare Algebra

78

6 Vektorr
aume
79
6.1 Vektorr
aume und Untervektorraume . . . . . . . . . . . . . . . . . . . . . . 79
6.2 Basis und Dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
6.3 Summen und direkte Summen . . . . . . . . . . . . . . . . . . . . . . . . . . 91
7 Matrizen, LGS und lineare Abbildungen
7.1 Matrizen . . . . . . . . . . . . . . . . . . . .
7.2 Lineare Gleichungssysteme . . . . . . . . . .
7.3 Lineare Abbildungen . . . . . . . . . . . . .

7.4 Basiswechsel und Aquivalenz


von Matrizen

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

.
.
.
.

96
96
108
115
132

8 Determinanten und Diagonalisierbarkeit


147
8.1 Determinanten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
8.2 Eigenwerte und Eigenvektoren . . . . . . . . . . . . . . . . . . . . . . . . . 159
9 Bilinearformen, Skalarprodukte,
9.1 Bilinearformen . . . . . . . . .
9.2 Skalarprodukte . . . . . . . . .
9.3 Orthogonale Abbildungen . . .
9.4 Sebstadjungierte Abbildungen .
9.5 Die Singul
arwertzerlegung . . .

Spektralsatz
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

172
172
182
188
192
199

10 Anwendungen
205
10.1 Interpolation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205
10.2 Total Least Squares Regression . . . . . . . . . . . . . . . . . . . . . . . . . 209
10.3 Codierungstheorie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 216

Inhaltsverzeichnis

Inhaltsverzeichnis

Vorwort
Dieses Skript wurde erstellt um das Erarbeiten und Lernen des Stoffs der Vorlesung
Mathematik f
ur Informatiker 1 zu vereinfachen. Es gilt dabei zu beachten:
Das Skript basiert auf dem Skript des letzten Jahres von Dr. Daniel Kondermann und
Dr. Martin Rheinl
ander. Einige Abschnitte wurden u
bernommen, andere u
berarbeitet,
wieder andere v
ollig neu erstellt. So ist ein nicht ganz einheitlicher Stil entstanden,
der im Laufe der Zeit hoffentlich immer mehr angeglichen wird.
Manche Themen hier im Skript sind ausf
uhrlicher behandelt als in der Vorlesung.

F
ur die Klausur gilt: relevant ist alles, was in Ubung
und Vorlesung vorkam. Das
Skript soll helfen, eventuell fehlenden Mitschriften zu erganzen.
Das Skript ersetzt also auf keinen Fall die eigenen Mitschriften!
Es gibt hunderte (wenn nicht tausende) von Tippfehlern! Wenn Ihnen beim Lesen
des Skripts welche auffallen, dann teilt sie mir bitte mit, insbesondere wenn durch
den Tippfehler, der Inhalt falsch wird!!
Grundsatzlich gilt f
ur Skript und Vorlesung im Allgemeinen: Solltet ihr deshalb eigene
Beitrage, Fragen, Vorschl
age oder Kritik haben: immer her damit! Je mehr ihr zu einer
gelungenen Vorlesung beitragt, desto befriedigender wird das Ergebnis f
ur alle Beteiligten.

1. Einleitung Was hat Mathematik mit


Informatik zu tun?
1.1. Was ist Mathematik?
Die Mathematik wird neben der Philosophie (und vielleicht auch der Medizin) als die
alteste Wissenschaft angesehen. Der Name Mathematik entstammt der griechischen Sprache
und hat eine sehr universelle Bedeutung, die weit u
ber das hinausgeht, was heutzutage
unter Mathematik verstanden wird. Das griechische Wort beinhaltet so viel wie
Lernen, Erkennen vor allem durch Beobachtung und Nachdenken. Daraus leitet sich der
Begriff ab, was der Kunst des Lernens bzw. Erkennens (d.h. wie man
Erkenntnisse gewinnt) entspricht.
Als die Mathematik in Griechenland im Entstehen war, gab es weder etablierte Wissenschaften noch Universit
aten als Orte des Lernens, wie in unserer Zeit. Wissen und
Erkenntnisse mussten erst einmal zu einem ansehnlichen Lehrgebaude aufget
urmt werden.
Das Lernen bestand in jenen Tagen im wesentlichen aus dem, was man durch eigene Erfahrung, Beobachtung und gedankliche Reflexion herausfinden konnte. Es war kein relativ
passiver Wissenskonsum wie heute, wo vielfach das Auswendiglernen gewisser Fakten im
Vordergrund steht, sondern es war eine Aktivitat, ein Studium im Sinne einer Untersuchung
oder Analyse.

Wahrend andere V
olker wie die Babylonier und Agypter
es zwar bei einer beachtlichen
aber im wesentlichen doch rein praktisch orientierten Rechenkunst belieen, waren es
die Griechen, die als erste danach gesucht haben, mathematische Zusammenhange und
Gesetzm
aigkeiten (vor allem aus der Geometrie) jenseits von Beispielen in allgemeing
ultiger
Weise zu begr
unden. Daraus ist die Beweiskultur der Mathematik enstanden, die Prazision
des Denkens, die nicht nur innerhalb der Mathematik von Noten und von hohem Nutzem
ist. Ebenso waren es auch die Griechen, die gemerkt haben, da man nicht umhin kommt,
bestimmte Aussagen nicht mehr weiter zu hinterfragen. Diese sind klar und deutlich
zu benennen, um darauf aufbauend mit umso strengerer logischer Argumentation neue
Aussagen herzuleiten.
Trotz ihrer inzwischen f
ur eine einzelne Person kaum zu u
berschauende Auffacherung, versucht man die Mathematik oft eng abzugrenzen. Dennoch sind mathematische Methoden
und darauf beruhende Maschinen seit Jahrzehnten schon die Grundlage f
ur den Erkenntnisgewinn in allen Wissenschaften, die jenseits von Spekulation und Meinungsauerung
stehen. Somit ist die Mathematik der urspr
unglichen Bedeutung ihres Namens bis heute
treu geblieben.
Neben dem vordergr
undigen Lehrstoff hoffen wir, da es uns gelingt, in der Vorlesung
immer wieder die folgenden Aspekte mitschwingen zu lassen:
Mathematik Lernen ist kein stumpfes Pauken sondern erfordert eine intensive, kritische Auseinandersetzung mit gewissen Fragestellungen.
Genau darin liegt der Reiz, denn es macht Spa, Zusammenhange zu verstehen.

KAPITEL 1. EINLEITUNG

1.2. WAS IST INFORMATIK?

Mathematik ist n
utzlich, man kann damit tolle Dinge machen insbesondere auch mit
Blick auf die Informatik.
Mathematik ist das paradigmatische Warum-Fach, in dem man beispielhaft lernt
Dinge zu hinterfragen und zu begr
unden. Deshalb hilft Mathematik mittel- und
unmittelbar, sich andere F
acher besser zu erschlieen.
Aber nicht nur die Griechen pr
agten die Grundz
uge der modernen Mathematik. In Persien
schrieb ein Mathematiker aus Bagdad um das Jahr 820 ein Meisterwerk mit dem Titel
Kita-b al-muchtasar fi hisab al-dschabr wa-l-muqabala. Das Wort al-dschabr im Titel
wurde spater ins lateinische als Algebra u
bersetzt. Der Name des Authors war Abu Dschafar
Muhammad ibn Musa al-Chwarizmi. Sein Nachname al-Chwarizmi ist der Ursprung des
Begriffes Algorithmus. Ein Algorithmus ist eine Aneinanderreihung von Anweisungen, um
bereits vorliegende Eingabeinformationen umzuwandeln in Ausgabeformationen.
Als Informatiker wendet man Algorithmen an, indem man sie programmiert. Ein Computer
kann das so entstehende Programm ausf
uhren, um Menschen die Arbeit zu erleichtern.

1.2. Was ist Informatik?


Informatik kann als modernes Teilgebiet der Mathematik verstanden werden: Sehr grob
zusammengefasst ist das Ziel der Informatik als Wissenschaft, Algorithmen zu entwerfen,
auf ihre Eigenschaften (wie Genauigkeit, Komplexitat, usw.) zu untersuchen, Computer
(weiter-)zuentwickeln die man mit Algorithmen f
uttern kann, die Algorithmen moglichst
geschickt in Programmen zu implementieren, diese Programme gr
undlich zu testen und sie
bez
uglich ihrer Eigenschaften wie z.B. Geschwindigkeit oder Bedienbarkeit zu optimieren.

1.3. Woher kommt die Informatik?


Entstanden ist die Informatik zu keinem bestimmten Zeitpunkt, denn sie hat sich nach und
nach aus verschiedenen anderen Wissenschaftlichen Disziplinen herauskristallisiert. Die
wichtigste Disziplin war wie gesagt die Mathematik - dicht gefolgt von den Ingenieuren, die
durch Anwendung der zugrundeliegenden mathematischen Prinzipien die ersten Computer
entwickelt haben. Man kann leicht streiten, welche Mathematiker gleichzeitig auch zu
den wichtigsten Informatikern geh
oren. Einer der bedeutensten Preise der Informatik in
Deutschland ist der Leibniz-Preis. Er wurde nach Gottfried Wilhelm Leibniz benannt,
wahrscheinlich weil dieser lange vor jedem Computer um 1700 das Binarsystem entwickelt
hat. Dieses System arbeitet ausschlielich mit zwei Werten (z.B. 0 und 1). Darauf basierend
entwickelte eine Weile sp
ater (1854) George Boole die Boolesche Algebra. Jedes digitale
Gerat auf dieser Welt benutzt diese Methode um Informationen (Daten) und Algorithmen
(Programme) elektronisch zu reprasentieren. Deshalb werden wir diese Algebra etwas
ausf
uhrlicher besprechen und parallel dazu auch gleich im Programmierkurs den Datentyp
bool kennen lernen.
Diese Entwicklung f
uhrte schon damals zum Wunsch, Algorithmen vollig automatisch
von Maschinen ausf
uhren zu lassen. So stammt z.B. der Begriff etwas zu t
urken nicht
von vermeintlich betr
ugerischen Personen t
urkischer Herkunft, sondern von einem sehr
bekannten Betrug des ungarischen Erfinders Wolfgang von Kempelen. Dieser war zwar
weder Mathematiker noch Informatiker (er studierte Jura und Philosophie), aber er erfand
den sogenannten mechanischen T
urken. Der mechanische T
urke war ein Schachcomputer,

KAPITEL 1. EINLEITUNG

1.4. WARUM MUSS ICH ALS INFORMATIKER MATHEMATIK LERNEN?

der offenbar vollautomatisch so gut spielte, dass er die meisten Menschen besiegen konnte.
Erst etwa 50 Jahre sp
ater stellte sich heraus, dass sich in der Maschine versteckt ein echter
Mensch befand, der meistens ziemlich schacherfahren war.
Einer der wichtisten Mathematiker f
ur die Informatik war Alan Mathison Turing (19121954). Turing hat viele bedeutende Beitrage f
ur die Mathematik, die Informatik und sogar
die theoretische Biologie geleistet. Dass er 1953 eines der ersten wirklichen Schachprogramme
entwickelte, war vielleicht der unwichtigste davon. Er definierte den Turingtest, der festlegt,
unter welchen Kriterien man von einer echten k
unstlichen Intelligenz sprechen kann.
Im letzten Weltkrieg entzifferte er mit seinen Kollegen auch Nachrichten der deutschen
Verschl
usselungsmaschine Enigma. Der Turingpreis tragt seinem Namen ehre, denn es ist
so etwas wie der Nobel-Preis der Informatik. Mit seiner Turingmaschine legte er eine

wesentliche Grundlage der theoretischen Informatik. Sie ist der Stoff jeder Grundvorlesung
zu diesem Thema.
Claude Elwood Shannon sollte in dieser Liste ebenfalls genannt werden. Er war ebenfalls
Mathematiker; aber er studierte ebenfalls Elektrotechnik und war dadurch ein wichtiges
Bindeglied zur Entwicklung von elektrischen Maschinen, die mathematische Algorithmen
ausf
uhren k
onnen. In seiner theoretischen Arbeit begr
undete er die Informationstheorie
und formulierte den fundamentalen Satz von Nyquist-Shannon (Abtasttheorem). Als
Elektrotechniker wandte er 1937 als erster die Boolesche Algebra in seiner Masterarbeit an,
indem er sie in elektronischen Schaltern (Relais) realisierte.
In dieser Zeit besch
aftigte sich bereits eine Vielzahl von Ingenieuren (wie neben Shannon
z.B. auch George Stiblitz, John Atanasoff und Clifford Berry) mit der Entwicklung von
automatischen Rechenmaschinen. John von Neumann (1903-1957, ebenfalls Mathematiker)
setzte sich stark f
ur deren Entwicklung ein und die nach ihm benannte von Neumann
Rechnerarchitektur ist nach wie vor aktuell. 1941 stellte schlielich Konrad Zuse den
weltweit ersten universell programmierbaren binaren Digitalrechner namens Zuse Z3 vor
und begr
undete damit endg
utltig das Informationszeitalter.

1.4. Warum muss ich als Informatiker Mathematik lernen?


Mathematiker wie Leibniz, Boole, Turing und Shannon haben Wissen dokumentiert,
das nach wie vor absolut unabdinglich ist, wenn man heute in irgendeinem Teilgebiet
der Informatik arbeiten m
ochte. Als Informatiker mochte man Algorithmen verstehen,
anwenden und evtl. auch selbst entwickeln. Um diese mathematischen Modelle zu verstehen,
muss man einerseits lernen, wie ein Mathematiker denkt und arbeitet; andererseits benotigt
man Wissen u
ber die wichtigsten Grundlagen der Mathematik: lineare Algebra, Analysis
und - je nach sp
aterer Spezialisierung - auch Statistik und Numerik. Dies ist die erste
Vorlesung zu diesem Thema.

1.5. Ziele der Vorlesung Mathematik fu


r Informatiker
Informatiker haben eine besondere Sicht auf die Mathematik. Einerseits ist sie nur ein
Werkzeug; andererseits k
onnen neue Algorithmen oft nur entworfen werden, wenn man
sich sehr genau in der Mathematik auskennt. Da die Informatik aus so vielen und teilweise
stark unterschiedlichen Teildisziplinen besteht, ist es schwierig eine Vorlesung zu halten,
die allen gerecht wird. Wir wollen deshalb zwei unserer Meinung nach besonders wichtige
Aspekte betonen:

KAPITEL 1. EINLEITUNG

INFORMATIKER
1.5. ZIELE DER VORLESUNG MATHEMATIK FUR

Mathematisches Denken Wenn man neue Algorithmen entwirft oder auch nur existierende programmiert, muss man sich jedes Detail bewusst machen und verstehen. Ohne
diese Herangehensweise schleichen sich schnell Fehler in die Software ein (Bugs), die in der
Geschichte (wie zum Beispiel in der Raumfahrt) bereits mehrfach zum Tod der Anwender
der Software gef
uhrt hat. Die Mathematik ist besonders stark strukturiert und pflegt eine
strenge Vorgehensweise. Eine besondere Rolle haben hier Axiome, Definitionen, Satze
(zentrale mathematische Aussagen) und deren Beweise. Diese Struktur findet man auch
(vereinfacht betrachtet) beim Programmieren wieder: Variablen und Funktionen m
ussen
deklariert und definiert werden; S
atze fassen logische Schlussfolgerungen zusammen, was
im Falle eines konstruktiven Beweises auch einem Algorithmus entspricht.
Logische Programmiersprachen wie Prolog werden sogar zur automatischen Beweisf
uhrung
eingesetzt und funktionale Sprachen wie Haskell basierend fast ausschlielich auf der
Anwendung von mathematischen Funktionsdefinitionen. Deshalb ist es enorm wichtig,
jedes Problem (jede Aufgabe) aus der Informatik zunachst genau zu definieren: was
sind die Eingaben, wie sollen Ausgaben aussehen? Wie funktioniert ganz konkret jeder
einzelner Schritt des Algorithmus? Um sich so prazise ausdr
ucken zu konnen, wie ein
Computer es erwartet, sollte man sich eine mathematische Denkweise aneignen. Ein
wichtiger Unterschied zur Mathematik ist jedoch, dass Mathematiker in der Regel versuchen,
ein Problem so abstrakt wie m
oglich zu formulieren, um alle betrachtetenden Falle mit dem
gleichen theoretischen Unterbau betrachten zu konnen. Das reduziert die Schreibarbeit,
und verbindet zuvor scheinbar v
ollig unterschiedliche Gebiete. Wer hatte z.B. gedacht dass
die Primzahlzerlegung viel mit der Zerlegung eines Polynoms in seine irreduziblen Faktoren
zu tun hat?
Informatiker k
onnen es sich jedoch nicht leisten, ein Programm auf die abstraktest mogliche
Weise zu implementieren, weil eine abstrakte Formulierung des Problem oft Geschwindigkeitseinbuen bringt, den Code aufgrund der Komplexitat schlecht wartbar macht und den
Anwender wom
oglich u
berfordert.
Deshalb ist es f
ur Informatiker wichtig, den richtigen Abstraktionsgrad f
ur das gegebene
Problem zu finden. Wir werden uns deshalb in dieser Vorlesung besonders darum bem
uhen,
einen Grad zu finden, der einerseits so abstrakt wie moglich ist, um viele Anwendungen zu
ermoglichen, aber andererseits so konkret wie moglich ist, um den Stoff verstandlich und
u
bersichtlich zu gestalten.
Gru
ndliche Motivationen Auch wenn wahrend der Vorlesung selbst nicht immer genug
Zeit sein wird, um genau zu motivieren, was wir gerade erklaren, welche Ziele wir damit
erreichen und welche Anwendungen in der Informatik zu jedem Einzelthema vorhanden

sind, wollen wir doch in den Ubungen


und hier im Skript darauf eingehen, warum der Stoff
f
ur einen Informatiker so wichtig und auch interessant ist.
Dabei wollen wir einerseits illustrieren, welche Industrien oder auch konkrete Firmen sich
besonderns der erkl
arten Konzepte und Methoden bedienen. Andererseits wollen wir auch
immer wieder betonen, in welchen spateren Fachern des Studiums in Heidelberg der Stoff
als Grundlage ben
otigt wird.
Diese Herangehensweise soll auch dabei helfen zu entscheiden, ob man als Informatiker
lieber einen theoretischen, technischen oder praktischen Weg wahlen mochte. Ist vollig klar,
dass die Karriere in die theoretische Richtung, also die Entwicklung von neuen Algorithmen
gehen soll (und damit in Forschung oder in die Anwendungen im wissenschaftlichen Rechnen
wie Maschinenlernen, Optimierung und zahlreichen Ingineursdisziplinen), empfehlen wir
besonders die Vorlesungen in der reinen Mathematik, wo die vollstandige Abstraktion einen

KAPITEL 1. EINLEITUNG

MATHE-ANFANGER

1.6. EINIGE ERMUNTERNDE WORTE FUR

hoheren Stellenwert hat.

1.6. Einige ermunternde Worte fu


anger
r Mathe-Anf
Schulmathematik unterscheidet sich stark von Unimathematik. Wahrend man in der Schule
meistens ganz viel rechnet, haben an der Uni Beweise eine groe Bedeutung. Da Beweise in
der Schule gerne mal als besonders schwer oder fortgeschritten dargestellt werden, erzeugt
das immer wieder Angst und Unsicherheit und die Frage: Kann ich das?
Der zuvor erw
ahnte John von Neumann soll einmal gesagt haben: Mathematik kann man
nicht lernen, man muss sich daran gewohnen. Damit meint er wahrscheinlich, dass die
Denkweise nur erlernt werden kann, indem man immer wieder Definitionen versteht und
Satze beweist - bis man sich daran gewohnt hat. Es gibt angeblich sogar Forschungsergebnisse die gezeigt haben, dass sich die Struktur des Gehirns durch praktizierte Mathemtik
deutlich ver
andert! Das zu h
oren hatte Herrn Neumann mit Sicherheit gefreut.
Es ist hilfreich f
ur die Besch
aftigung mit dieser Vorlesung sie nicht als Fortsetzung des
Schulunterrichts, sondern als etwas Neues zu betrachten. Und wie bei einer neuer Sportart
oder einem neuen Musikinstrument kann es einiges an Zeit und Arbeit in Anspruch nehmen
bis man die Grundlagen verstanden hat und sicher beherrscht. Das ist vollig normal und
auch ihr werdet euch irgendwann wundern warum euch einiges am Anfang so schwer
gefallen ist.
Wir haben immer wieder festgestellt, dass starke Gef
uhle wie Frust das Erlernen der
Mathematik sehr erschweren k
onnen. Gerade wurde noch vom Dozenten verk
undet, dass
der Stoff doch trivial sei und der schlaue Student von nebenan pflichtet dem auch noch
eifrig bei. Zu Hause sitzt man dann vor einer Aufgabe, versteht scheinbar gar nichts und
ist abwechselnd w
utend und frustriert und fragt sich, ob der Dozent zu schlecht erklart
oder ob man einfach nicht f
ahig ist diesen Kram zu verstehen.
Das Wichtigste in solchen Momenten ist es, einerseits irgendwie entspannt zu bleiben,
und trotzdem in der Lage zu sein, mit den Zahnen zu knirschen und den Stoff so lange
durchzukauen, bis man ihn verdaut hat. Wichtig ist sich zu erinnern, dass fast jeder
Informatiker auf der Welt einmal eine ahnliche Vorlesung wie diese gehort und die Klausur
bestanden hat! Deshalb ein paar Tipps:
Jeder hat sein eigenes Tempo. Langsam im Verstehen zu sein bedeutet nicht, es gar
nicht zu k
onnen. Hat also der Nachbar bereits alles verstanden: ruhig bleiben und
weitermachen. Viele Wiederholungen des gleichen Denkprozesses helfen tatsachlich
nicht nur beim Auswendiglernen, sondern auch beim Nachvollziehen von logischen
Schlussfolgerungen.
ur sich selbst herausfinden, wie er am besten lernt. Es kann helfen
Jeder muss f
die Aufzeichnungen, das Skript oder ein Buch mehrfach zu lesen oder aber es ist
besser den Stoff abzuschreiben und zusammenzufassen. Oft hilft es unklare Gedanken
einfach auszusprechen um sie besser im Kopf sortieren zu konnen. Das geht nat
urlich
am besten mit anderen Studenten aus der Vorlesung, aber manchmal funktioniert es
auch, wenn ihr einfach eurem Mitbewohner sagt, was euch gerade durch den Kopf
geht.
Es hilft sehr, das Gelernte gemeinsam zu diskutieren und auswendig zu lernen. Am
einfachsten geht das fast immer in kleinen Gruppen von zwei oder hochstens drei

KAPITEL 1. EINLEITUNG

MATHE-ANFANGER

1.6. EINIGE ERMUNTERNDE WORTE FUR

Leuten. Erkl
art euch gegenseitig den Stoff, ihr werdet merken dass beide Seiten davon
profitieren.
Beweise sind keine Zauberei. In den meisten Fallen - und insbesondere bei den
hier behandelten - bedeutet Beweisen lediglich das Einsatzen von zuvor behandelte
Definitionen. Die beste Herangehensweise konnte also tatsachlich sein, Satze und
Definitionen gr
undlich auswendig zu lernen! Das kann jeder (mit unterschiedlichem
Zeitaufwand) und es erleichtert das Jonglieren mit den gelernten Begriffen spater
enorm.
Das Verstehen von Definitionen ist mal manchmal gar nicht so einfach. Hier hilft
ein Denken, das f
ur Informatiker typisch ist: man versuche, sich moglichst viele
Falle oder Situationen vorzustellen, bei denen die Definition erf
ullt ist, und ganz
besonders wann sie nicht erf
ullt ist. So finden Hacker zum Beispiel Sicherheitsl
ucken.
Das ist ein kreativer Prozess, der gemeinsam viel Spa machen kann. Manchmal
kann man sich auch als Abk
urzung eine vereinfachte, intuitiv anschauliche Version
der Definition ausdenken. Wichtig ist nur, dass man beim spateren Anwenden der
Definition sich dann immer wieder daran erinnert, dass man im Kopf vielleicht gerade
nur die vereinfachte Arbeitsversion hat!
In vielen mathematische Beweisen werden Aussagen in gleichbedeutende Aussagen
umformuliert. Daf
ur ist es hilfreich Formeln umzuschreiben um besser zu sehen
welche Aussage aus ihnen folgen. Nur ist es am Anfang nicht unbedingt klar, wie
man etwas geschickt umschreiben kann. Da hilft oft nur ausprobieren und die Tricks
zu verwenden, die mal jemand herausgefunden hat. Hier zwei einfache Beispiele, wie
man durch geschicktes Umschreiben etwas schneller ausrechnen kann:
ur schreiben wir 27 33 = (30 3) (30 + 3)
1. Wir wollen 27 33 ausrechnen. Daf
und verwenden jetzt die 3. binomische Formel und erhalten 30 30 3 3 =
900 9 = 891.
2. Um die Summe der ersten 100 Zahlen zu berechnen, hat schon der junge Gauss
festgestellt, dass es einfacher ist, wenn man die Zahlen umsortiert. So ergibt
1 + 100 = 2 + 99 = 3 + 98 = = 101, da wir genau 50 solcher Summen haben,
ist 1 + 2 + 3 + + 98 + 99 + 100 = 50 101 = 5050.
Mathematik kann man in den meisten Fallen nicht nur mal so grob verstehen.
Wie in der Informatik muss man jedes Detail verstehen, um eine Chance zu haben,
das gesamte System zu verstehen. Taucht also ein Beweis auf und man kommt an
einem Schritt an, den man einfach nicht versteht, hilft es selten bis nie, diesen
Schritt einfach in den Skat zu dr
ucken und zu u
berspringen. Der Rest des Beweises
wird wahrscheinlich auch nur noch wenig Sinn ergeben. Hier sind Geduld, Disziplin
und Ausdauer gefragt! Es hilft sehr, anderen sein Problem zu erklaren und ganz
konkrete Fragen zu formulieren und nochmal die vorher besprochenen Definitionen
nachzuschlagen. Es ist aber auch nicht falsch, den Schritt beim ersten Durchgang zu
u
uhl daf
ur bekommt, was man noch vor sich hat.
berspringen, damit man ein Gef

10

Teil I.

Grundlagen

11

2. Grundlagen der mathematischen Logik


Wie in vielen anderen Wissenschaften so ist man auch in der Mathematik standig mit
Satzen in der Form von Behauptungen und Vermutungen konfrontiert, deren Wahrheitsgehalt festzustellen ist. Im Unterschied zu experimentellen, empirischen oder investigativen

Wissenschaften erfolgt die Uberpr


ufung in der Mathematik meist anhand einer Argumentationskette, die entweder die G
ultigkeit der fraglichen Aussage belegt (beweist, verifiziert)
oder widerlegt (falsifiziert). Eine solche Argumentationskette wird als Beweis bezeichnet,
wenn sie streng nach den Regeln der formalen Logik durchgef
uhrt wird und sich nur auf
bereits gesicherte Aussagen st
utzt.
Aus diesem Grunde ist es geboten, sich mit den Regeln der Logik vertraut zu machen,
bevor man sich ernsthaft mit Mathematik beschaftigen kann. Die formale Logik ist jedoch
keineswegs nur ein mehr oder weniger lastiges, aber unentbehrliches Vorgeplankel sondern
bereits selbst eine mathematische Disziplin mit dem Teilgebiet der Schaltalgebra als einer
wesentlichen theoretischen Grundlage f
ur die Funktionsprinzipien von Computern.

2.1. Aussagen und Quantoren


Definition 2.1.1 Eine Aussage ist ein Satz von dem man eindeutig entscheiden kann,
ob er wahr oder falsch ist.
Einer wahren Aussage wird der Wahrheitswert wahr = w = true= 1 zugeordnet,
einer falschen Aussage wird der Wahrheitswert falsch= f = false= 0 zugeordnet.
In der gesprochenen und geschriebenen Sprache gibt es Satze, die keine Aussagen sind; dazu
gehoren vor allem Fragen, Meinungsauerungen, Befehle, Aufforderungen, W
unsche und
Klageausrufe. Dar
uberhinaus gibt es aber auch aussageahnliche Satze, denen aus verschiedenen Gr
unden nicht in eindeutiger oder sinnvoller Weise einer der beiden Wahrheitswerte
zugeordent werden kann.
Das Zweiwertigkeitsprinzip, dh. die Beschrankung auf das, was sich in sinnvoller und eindeutiger Weise als wahr oder falsch qualifizieren lasst, bzw. das Prinzip vom ausgeschlossenen
Dritten stellt daher eine erheblich vereinfachende bzw. einschrankende Reduktion der
Realitat dar, die aber erstaunlicherweise f
ur fast die gesamte Mathematik und viele andere
Wissenschaften v
ollig ausreichend ist.
Beispiel 2.1.2 Handelt es sich bei den folgenden Satzen um Aussagen?
1. Heidelberg ist die Hauptstadt von Deutschland.
2. 1 + 5 = 6
3. Guten Morgen!
4. Heute ist Dienstag.

12

KAPITEL 2. GRUNDLAGEN DER MATHEMATISCHEN LOGIK

2.1. AUSSAGEN UND QUANTOREN

Antwort:
1. ja, dies ist eine falsche Aussage
2. ja, dies ist eine wahre Aussage
3. nein, dies ist eine Begr
uungsformel, die zwar korrekt oder inkorrekt verwendet
werden kann, aber man kann ihr keinen Wahrheitswert zuordnen.
4. Wenn klar ist, was heute f
ur ein Wochentag ist, dann ist es eine Aussage. Sonst ist
dieser Satz eine Aussageform.

Bemerkung 2.1.3 Trotz ihrer enormen Leistungsfahigkeit kann man mit der zweiwertigen Logik schnell an Grenzen stoen. Ein Beispiel daf
ur stellen die sogenannten
Antinomien dar. Darunter versteht man Satze, die durch eine raffinierte R
uckbez
uglichkeit
widersinnig sind. Hier zur Illustration zwei Klassiker:
(i) In der Stadt schneidet der Barbier jedem Mann den Bart, der sich ihn nicht selbst
schneidet.
(ii) Ein Kreter sagt: Alle Kreter sind L
ugner.
Im ersten Fall l
at sich nicht entscheiden, ob der Barbier sich selbst rasiert oder nicht.
Denn wenn er zu den M
annern z
ahlt, die sich nicht selbst den Bart stutzen, dann m
ute
er die Dienste des Barbiers in Anspruch nehmen, sich also doch selbst den Bart schneiden.
Startet man jedoch mit der Annahme, da sich der Barbier den Bart selbst schneidet, so
ergibt sich kein Widerspruch.
Ebensowenig l
at sich im zweiten Fall entscheiden, ob nun alle Kreter L
ugner sind oder
nicht. Denn wenn tats
achlich alle Kreter L
ugner waren, dann auch derjenige, welcher
genau dieses behauptet. Da dieser Kreter dann die Unwahrheit sprache, ist die Aussage
gelogen ergo falsch, d.h. es g
abe auch ehrliche Kreter. Auch gilt, da sich aus der
umgekehrten Annahme (nicht alle Kreter sind L
ugner) kein Widerspruch entwickelt.

Bemerkung 2.1.4 Es sei noch angemerkt, da der osterreichische Logiker Kurt Godel
(1906-1978) mit seinem Unvollst
andigkeitssatz bewiesen hat, da praktisch in jeder Theorie Behauptungen bzw. S
atze formuliert werden konnen, die prinzipiell nicht beweisbar
bzw. entscheidbar sind.

Definition 2.1.5 Ersetzt man in einer Aussage a eine Konstante durch eine Variable x,
so entsteht eine Aussageform a(x).
F
ur einen festgew
ahlte Wert von x kann der Wahrheitswert von a(x) bestimmt werden.

13

KAPITEL 2. GRUNDLAGEN DER MATHEMATISCHEN LOGIK

2.1. AUSSAGEN UND QUANTOREN

Beispiel 2.1.6 a(x) : x > 50 ist eine Aussageform mit der Variablen x. Setzen wir f
ur
x Zahlen ein, so erhalten wir Aussagen, z. B.
a(100) : 100 > 50 ist eine wahre Aussage und
a(10) : 10 > 50 ist eine falsche Aussage.
Mithilfe von sogenannten Quantoren, konnen wir aus einer Aussageform wieder eine Aussage
machen.
Definition 2.1.7 Sei a(x) eine Aussageform.
Die Aussage F
ur alle x (aus einer vorgegebenen Menge) gilt a(x) ist genau
dann wahr, wenn a(x) f
ur alle in Frage kommenden x wahr ist. Dies ist eine
ALL-Aussage und wir schreiben abk
urzend
x : a(x).
ist der Allquantor und wird f
ur alle gelesen.
Die Aussage Es gibt ein x (aus einer vorgegebenen Menge) so dass a(x) ist genau
dann wahr, wenn a(x) f
ur mindestens ein in Frage kommendes x wahr ist. Dies ist
eine EXISTENZ-Aussage und wir schreiben abk
urzend
x : a(x).
ist der Existenzquantor und wird es gibt oder es existiert gelesen.
Die Aussage Es gibt genau ein x (aus einer vorgegebenen Menge) so dass a(x)
ist genau dann wahr, wenn a(x) f
ur genau ein in Frage kommendes x wahr ist. Wir
schreiben abk
urzend
!x : a(x).

Quantoren werden spielen in der Mathematik eine wichtige Rolle um Aussagen kurz und
prazise zu formulieren. Dabei ist zu beachten, dass die Reihenfolge der Quantoren eine
Rolle spielt.
Beispiel 2.1.8

x N : x + 1 > x ist eine wahre Aussage.

x N : x2 = 25 ist eine falsche Aussage, da sie z. B. f


ur x = 1 nicht stimmt.
x N : x2 = 25 ist eine wahre Aussage, da 52 = 25.
x Z : x2 = 25 ist eine wahre Aussage, da 52 = 25.
!x Z : x2 = 25 ist eine falsche Aussage, da 52 = 25 und (5)2 = 25.
F
ur den Nachweis eine Allaussage ist also zu pr
ufen, ob sie f
ur alle in Frage kommenden x
(das konnen unendlich viele sein) richtig ist. F
ur die Widerlegung einer Allaussage hingegen
gen
ugt ein Element x, f
ur das die Aussage a(x) falsch ist.

14

KAPITEL 2. GRUNDLAGEN DER MATHEMATISCHEN LOGIK

2.2. VERKNUPFUNGEN
VON AUSSAGEN

F
ur den Nachweis einer Existenzaussage gen
ugt ein x f
ur das a(x) richtig ist. Zur Widerlegung einer Existenzaussage hingegen muss f
ur alle in Frage kommenden x gepr
uft werden,
ob a(x) falsch ist.

2.2. Verknu
pfungen von Aussagen
Das Anliegen der Aussagenlogik ist es, die Regeln des Argumentierens und Schlufolgerns
auf eine solide Basis zu stellen, ihnen eine Form zu geben, sie zu formalisieren. Da Argumentationsstrukturen nicht an den Inhalt gebunden sondern allein durch die Logik
vorgegeben sind, besch
aftigt sich die Aussagenlogik mit Aussagen von einem rein formalen
Standpunkt aus, der sowohl den sprachlichen Aufbau (Syntax) einer Aussage als auch ihre
inhaltliche Bedeutung (Semantik) auer Acht lat. Eine Aussage ist dann nichts anderes
als der Tr
ager eines Wahrheitswertes. Daher identifizieren wir Aussagen mit sogenannten
logischen Variablen, welche wir etwas miverstandlich auch Aussagevariablen1 nennen,
obwohl sie weniger f
ur Aussagen selbst als vielmehr f
ur ihre Wahrheitswerte stehen. Eine
Aussagenvariable a ist also nicht Element der Menge aller Aussagen sondern es gilt lediglich
a {wahr, falsch} {0, 1}. Gegenstand der Aussagenlogik ist zunachst die Beantwortung
der beiden folgenden, eng zusammenhangenden Fragen:
Wie lassen sich aus gegebenen (Elementar)Aussagen a, b, c, . . . neue Aussagen gewinnen, d.h. welche Verkn
upfungsmoglichkeiten gibt es u
berhaupt?
Wie h
angt der Wahrheitswert der zusammengesetzten Aussage von den Wahrheitswerten der Elementaraussagen ab?
Die verschiedenen Verkn
upfungsmoglichkeiten von Aussagen, welche wir weiter unten
behandeln, werden auf der Ebene der Aussagevariablen durch Verkn
upfungszeichen oder
Junktoren bzw. logische Operatoren angedeutet.
Definition 2.2.1
Eine Aussagevariable ist eine Variable a die nur die Werte 0
oder 1 annehmen kann.
Ein logischer Ausdruck (eine aussagenlogische Formel) ist eine Aneinanderreihung von Aussagevariablen und Junktoren.
Enth
alt ein logischer Ausdruck n verschiedene Aussagevariablen, dann definiert er
einen Funktion (Logikfunktion) von {0, 1}n {0, 1}, diese wird auch als n-stellige
Verkn
upfung bezeichnet.

Korrekter w
are es von Wahrheitswertvariablen zu sprechen, denn die Variablen u
bernehmen nur den
Wahrheitswert nicht aber den Inhalt einer Aussage. So ist im Sinne der Aussagenlogik die Zuweisung
a = Alle Fische k
onnen fliegen.
gleichbedeutend mit a = 0, da die Aussage Alle Fische k
onnen fliegen bekanntermaen falsch ist. Man
kann den Satz als eine etwas l
angliche, alternative Bezeichnungsweise f
ur falsch betrachten. Alternative
Schreibweise: a wirklich als Platzhalter f
ur Aussage betrachten und nicht a = 0 sondern w(a) = 0
schreiben.

15

KAPITEL 2. GRUNDLAGEN DER MATHEMATISCHEN LOGIK

2.2. VERKNUPFUNGEN
VON AUSSAGEN

2.2.1. Die Negation


Betrachten wir zun
achst eine einzelne Aussage a. Da a nichts weiter ist als eine Variable
mit dem Wahrheitswert 0 oder 1, gibt es nur eine Moglichkeit, aus a etwas Neues zu
schaffen, n
amlich den Wert von a zu invertieren bzw. zu negieren.
Definition 2.2.2 Die Verneinung (Negation) einer Aussage a ist genau dann wahr,
wenn a falsch ist. Wir schreiben a f
ur die Verneinung von a und lesen nicht a oder
es trifft nicht zu, dass a.
Dies kann mithilfe einer Wahrheitstabelle ausgedr
uckt werden:
a a
0 1
1 0

Beispiel 2.2.3 Wir betrachten folgende Aussagen:


1. Der Tank ist voll.
2. 1 + 3 = 6
3. 7 < 10
und ihre Verneinung:
1. Der Tank ist nicht voll.
2. 1 + 3 6= 6
3. 7 10
Wie man leicht der Defintion des Negationsoperators entnimmt, liefert die doppelte
Verneinung die urspr
ungliche Aussage zur
uck. Es gilt also
(a) = a .
Man kann als eine spezielle logische Funktion auf der Menge der moglichen Wahrheitswerte, d.h. auf der Menge {0, 1}, auffassen. Wieviele verschiedene logische Funktionen gibt

es eigentlich auf {0, 1}? Eine kurze Uberlegung


zeigt, da genau vier Funktionen existieren,
die in der Tabelle
A 1 2 3 4
0 0
0
1
1
1 0
1
0
1
dargestellt sind. Neben der Negation 3 = gibt es nur noch die langweilige Identitat
2 und die beiden konstanten Funktionen 1 und 4 .
Neben der Aussagenlogik, ben
otigen wir in der Mathematik auch die Pradikatenlogik,
die eine Erweiterung der Aussagenlogik darstellt. Um Aussagen in der Pradikatenlogik
formulieren zu k
onnen, ben
otigen wir den Existenz- und den Allquantor.

16


2.2. VERKNUPFUNGEN
VON AUSSAGEN

KAPITEL 2. GRUNDLAGEN DER MATHEMATISCHEN LOGIK

F
ur die Verneinung von Existenz- und Allaussagen m
ussen wir besonders aufpassen, da sie
in der Umgangssprache nicht immer formal korrekt verwendet werden.
Satz 2.2.4 Durch die Verneinung einer All-Aussage entsteht eine Existenz-Aussage und
umgekehrt. Es gilt:

x : a(x) = x : a(x)

x : a(x) = x : a(x)

Beispiel 2.2.5 Wir betrachten folgende Aussagen


1. Alle Menschen m
ogen Mathe,
2. x : x > 0,
3. x : x2 + 1 = 0.
und ihre Verneinungen
1. Es gibt einen Menschen, der nicht Mathe mag,
2. x : x 0,
3. x : x2 + 1 6= 0.

2.2.2. Zweiwertige Verknu


pfungen
Im nachsten Schritt wollen wir zwei von einander unabhangige Aussagen zu einer Neuen
verkn
upfen und deren Wahrheitswert bestimmen. Auf diese Weise erhalten wir zweiwertige
(binare) Verkn
upfungen. Insgesamt gibt es davon 16:
A B
1 1
1 0
0 1
0 0

1
0
0
0
0

2 3 4 5
1 0 0 0
0 1 0 0
0 0 1 0
0 0 0 1

6 7 8
1 0 0
1 1 1
0 1 0
0 0 1

9
1
1
1
1

10 11 12 13
0
1
1
1
1
0
1
1
1
1
0
1
1
1
1
0

14 15 16
0
1
1
0
0
0
1
0
1
1
1
0

Die sechzehn logischen Verkn


upfungen sind nicht unabhangig voneinander. Ist ? eine der
sechzehn logischen Verkn
upfungen, dann definiert (A?B) eine andere logische Verkn
upfung,
welche sich ebenfalls unter den sechzehn befinden mu. Auf diese Weise sieht man, da
nicht wirklich sechzehn Verkn
upfungen zu unterscheiden sind sondern lediglich nur acht,
weil sich die restlichen acht dann als Verneinung ergeben. So gilt f
ur alle k {1, ..., 8}
A 8+k B = (A 8 B) .
Wir wollen hier den wichtigsten zweiwertigen Verkn
upfungen einen Namen geben.

17

KAPITEL 2. GRUNDLAGEN DER MATHEMATISCHEN LOGIK

2.2. VERKNUPFUNGEN
VON AUSSAGEN

Definition 2.2.6
Die UND-Verkn
upfung (Konjuktion) zweier Aussagen a und b
ist eine Aussage, die genau dann wahr ist, wenn beide Aussagen wahr sind. Wir
schreiben a b und lesen a und b.
Die ODER-Verkn
upfung (Disjuktion) zweier Aussagen a und b ist eine Aussage, die
genau dann wahr ist, wenn mindestens eine der Aussagen wahr sind. Wir schreiben
a b und lesen a oder b.
Das ausschlieende Oder (eXclusive OR) zweier Aussagen a und b ist eine Aussage,
die genau dann wahr ist, wenn entweder a oder b (aber nicht a und b) wahr ist.
Wir schreiben a xor b und lesen entweder a oder b.
Die Wahrheitstabelle dieser Verkn
upfungen ist die folgende:
a
1
1
0
0

b a b a b a xor b
1
1
1
0
0
0
1
1
1
0
1
1
0
0
0
0

In der Umgangssprache benutzen wir meistens das Wort oder im ausschlieenden Sinn,
wahrend in der Mathematik h
aufiger das einschlieende oder verwendet wird.
Definition 2.2.7 Die WENN-DANN-Verkn
upfung (Subjunktion) a b, die wenn
a, dann b gelesen wird, und die GENAU-DANN-WENN-Verkn
upfung (Bijunktion)
a b, die a genau dann, wenn b gelesen wird, von zwei Aussagen sind durch
folgende Wahrheitstabellen definiert:
a
1
1
0
0

b a b a b
1
1
1
0
0
0
1
1
0
0
1
1

Definition 2.2.8
Ist die verkn
upfte Aussage a b wahr, so spricht man von
einem logischen Schlu (Implikation) und schreibt
a b.
Wir sagen dann aus a folgt b, a impliziert b, wenn a, dann b, a ist hinreichend
f
ur b oder b ist notwendig f
ur a.

upfte Aussage a b wahr ist, dann spricht man von Aquivalenz


Wenn die verkn
und schreibt
a b.

Mithilfe der Aquivalenz


lassen sich die Rechenregeln f
ur andere Verkn
upfungen formulieren.

18


2.2. VERKNUPFUNGEN
VON AUSSAGEN

KAPITEL 2. GRUNDLAGEN DER MATHEMATISCHEN LOGIK

Satz 2.2.9 F
ur die UND- sowie die ODER-Verkn
upfung gelten das Kommutativgesetz
ab ba
a b b a,
das Assoziativgesetz:
a (b c) (a b) c
a (b c) (a b) c

und das Distributivgesetz:


a (b c) (a b) (a c)
a (b c) (a b) (a c)

onnen den Wahrheitsgehalt dieser Aussagen mittels Wahrheitstabellen


Beweis. Wir k
u
ufen.
berpr
Die GENAU-DANN-WENN-Verkn
upfung zweier Aussagen ist genau dann wahr, wenn
entweder beide Aussagen wahr sind oder wenn beide Aussagen falsch sind. Somit m
ussen
wir pr
ufen, ob die Eintr
age in der Wahrheitstabelle f
ur den Ausdruck auf der rechten Seite

des Aquivalenzpfeils
gleich der Tabelle f
ur den Ausdruck auf der linken Seite ist.
Wir zeigen hier exemplarisch das erste Distributivgesetz:
a
1
1
1
1
0
0
0
0

b
1
1
0
0
1
1
0
0

c b c a (b c)
1
1
1
0
1
1
1
1
1
0
0
0
1
1
0
0
1
0
1
1
0
0
0
0

a
1
1
1
1
0
0
0
0

b
1
1
0
0
1
1
0
0

c a b a c (a b) (a c)
1
1
1
1
0
1
0
1
1
0
1
1
0
0
0
0
1
0
0
0
0
0
0
0
1
0
0
0
0
0
0
0

Konvention: Die Verneinung bindet starker als und . Das heit, der Ausdruck a b
ist gleichbedeutend mit (a) b und nicht mit (a b).
Einen Zusammenhang zwischen Verneinung und der UND und ODER- Verkn
upfung liefern
die De Morganschen Gesetze.
Satz 2.2.10 Es gelten die de Morganschen Gesetze:
(a b) a b
(a b) a b,

19

KAPITEL 2. GRUNDLAGEN DER MATHEMATISCHEN LOGIK

2.3. BEWEISARTEN

Beweis. Der Beweis funktioniert genauso wie der zu Satz 2.2.9. Wir zeigen hier die Wahrheitstabellen zur zweiten Regel.
a
1
1
0
0

b a b (a b)
1
1
0
0
1
0
1
1
0
0
0
1

a
1
1
0
0

b a b a b
1 0
0
0
0 0
1
0
1 1
0
0
0 1
1
1

Definition 2.2.11 Eine Tautologie ist ein logischer Ausdruck, der immer wahr ist. Eine
Kontradiktion ist ein logischer Ausdruck, der immer falsch ist.

Beispiel 2.2.12

a a ist eine Tautologie.

Die Verwendung des Aquivalenzpfeils


in den letzten zwei Satzen besagt gerade
dass die verkn
upfte Aussage wahr ist, und daher ist zum Beispiel (a b)
a b eine Tautologie.

2.3. Beweisarten
Satz 2.3.1 F
ur zwei beliebige Aussagen a, b gilt:
a) (a b) (b a) ist eine Tautologie
b) (a b) (a b) ist eine Tautologie

Beweis.
a
0
1
0
1

b a b
0
1
0
0
1
1
1
1

a
0
1
0
1

b a b b a
0 1
1
1
0 0
1
0
1 1
0
1
1 0
0
1

a
0
1
0
1

b b a b (a b)
0 1
0
1
0 1
1
0
1 0
0
1
1 0
0
1


Satz 2.3.2 (a b) (b a) (a b) ist eine Tautologie.

direkter Beweis a b
indirekter Beweis b a
Beweis durch Widerspruch: b a ist eine Kontradiktion.

20

KAPITEL 2. GRUNDLAGEN DER MATHEMATISCHEN LOGIK

2.3. BEWEISARTEN

Beispiel 2.3.3 Seien x, y > 0 reelle Zahlen. Wir betrachten die Aussagen
a : x2 > y 2

b: x>y

und wollen zeigen, dass aus Aussage a die Aussage b folgt.


Wir d
urfen dabei folgende Rechenregeln verwenden, wobei x, y, z reelle Zahlen sind:
i) die Rechengesetze der Addition und Multiplikation in den reellen Zahlen
ii) Wenn z > 0 dann gilt: x < y x z < y z
iii) x < y x + z < y + z
iv) x < y und y < z impliziert x < z.
direkter Beweis
x2 > y 2

iii)

ii)

iii)

x2 y 2 > 0

i)

(x y)(x + y) > 0
1
1
i)
(x y)(x + y)
>0
xy >0
x+y
x+y

x>y

indirekter Beweis Zun


achst m
ussen die Aussage a und b negiert werden
a : x2 y 2

b : x y

Nun gilt

xy

ii)

xx xy

und xy yy

iv)

x2 y 2

Beweis durch Widerspruch

21

3. Grundlagen der Mengenlehre


In diesem Kapitel ist das Ziel zu lernen, mit Mengen zu jonglieren und auch komplizierte
Mengen formal und kompakt aufzuschreiben. Die Symbole, die wir daf
ur verwenden, kann
man fast wie eine Programmiersprache verstehen. Ganz genau wie bei Programmiersprachen
muss man diese Symbole erst einmal m
uhsam lesen und schreiben lernen, bevor man wirklich
in der Lage ist, von der formalen, knappen Schreibweise zu profitieren. Deshalb ist es in
diesem Kapitel besonders wichtig darauf zu achten, die Symbole schlicht und ergreifend
auswendig zu lernen und darauf zu vertrauen, dass dies einem spater die Arbeit mit
komplexerer Mathematik sehr erleichtert.

3.1. Notation und Operationen auf Mengen


Eine Menge wurde im Jahr 1895 in Halle von Georg Cantor(1845-1918), dem Begr
under
der Mengenlehre so definiert:
Definition 3.1.1 Eine Menge ist eine Zusammenfassung von bestimmten und wohlunterschiedenen Objekten unserer Anschauung oder unseren Denkens zu einem Ganzen.
Die Objekte einer Menge heien Elemente.

Bemerkung 3.1.2 Formal korrekt wird die Mengenlehre durch ein System von 10
Axiomen, die Zermelo-Fraenkel-Axiome, begr
undet. Uns soll hier aber die einfachere
Definition von Cantor gen
ugen.
Um leichter mit Mengen arbeiten zu konnen, hat man sich auf einen Satz von Begriffen
und Symbolen geeinigt:
Notation 3.1.3

Wir bezeichnen Mengen mit einfachen Grobuchstaben.

Wenn a ein Element der Menge M ist, schreiben wir a M .


Wenn a kein Element der Menge M ist, schreiben wir a
/ M , dies entspricht der
Negation (a M ).

Notation 3.1.4 Die Elemente einer Menge werden zusammengefasst mit geschweiften
Klammern. Dabei haben wir verschiedene Moglichkeiten Mengen anzugeben:
durch direktes Hinschreiben der Elemente, z. B. M = {1, 3, 5}.

22

KAPITEL 3. GRUNDLAGEN DER MENGENLEHRE

3.1. NOTATION UND OPERATIONEN AUF MENGEN

durch die Angabe von Eigenschaften, z. B. M = {n N | n < 6 n ist ungerade}


das sind alle nat
urlichen Zahlen, die kleiner als 6 und ungerade sind. (alternativ
kann auch ein Doppelpunkt, statt des Strichs | verwendet werden: M = {n N :
n < 6 n ist ungerade})
Dabei ist zu beachten:
Jedes Element einer Menge wird nur einmal gezahlt, z. B. gilt {1, 1, 2} = {1, 2}.
Deshalb schreibt man jedes Element nur einmal in eine Menge.
Die Reihenfolge der Elemente spielt keine Rolle, z. B. {1, 2, 3} = {3, 2, 1} = {1, 3, 2}

Beispiel 3.1.5 Einige wichtige Mengen:


die leere Menge, die kein Element enthalt = {}.
N = {0, 1, 2, . . . } die nat
urlichen Zahlen.
Z = {. . . , 2, 1, 0, 1, 2, . . . die ganzen Zahlen.
Q = { ab | a Z, b N, b > 0} die rationalen Zahlen.
R die reellen Zahlen.
All diese Regeln f
ur Mengen sind in vielen Programmiersprachen bereits implementiert.
Wir werden zum Beispiel gegen Ende des Programmierkurses ein C++-Objekt mit dem
Namen set (englisch f
ur Menge) kennenlernen. F
ugt man dort ein neues Element in eine
bestehende Menge ein und dieses Element liegt bereits in der Menge, wird das Einf
ugen
abgebrochen. Dieses Verhalten folgt der Regel nach der jedes Element nur einmal in einer
Menge enthalten sein darf.
Mengen und die nun folgenden Operationen auf Mengen spielen insbesondere in der
theoretischen Informatik und z.B. f
ur Datenbanksysteme eine sehr groe Rolle. Es ist
sinnvoll mit den Kurzschreibweisen zunachst stur auswendig zu lernen, um sie anschlieend
immer zu verwenden, wenn sich etwas durch Mengen ausdr
ucken lasst. Das Umsetzen
der nat
urlichen Sprache in die Mengenschreibweise ahnelt sehr stark dem Programmieren,

spart Zeit beim Schreiben und ermoglicht (mit etwas Ubung)


das Erfassen der Elemente
einer Menge auf einen Blick.
Definition 3.1.6 Die Anzahl der Elemente einer Menge nennt man ihre M
achtigkeit
(oder Kardinalit
at) und schreibt #M (oder |M |).
Eine endliche Menge M ist eine Menge mit endlicher Machtigkeit #M < .
Wir konnen also endliche Menge dadurch unterscheiden, wie viele Elemente sie haben. Aber
es gibt auch bei Mengen mit unendlich vielen Elementen verschiedene Kardinalitaten.
Definition 3.1.7
Seien A und B Mengen. Dann heit A Teilmenge von B genau
dann, wenn jedes Element von A auch in B liegt, d.h. wenn gilt x : x A x B.
Wir schreiben A B und nennen dies eine Inklusion.

23

KAPITEL 3. GRUNDLAGEN DER MENGENLEHRE

3.1. NOTATION UND OPERATIONEN AUF MENGEN

Wenn A B und B A, dann sind A und B gleich, d. h. sie enthalten diesselben


Elemente und wir schreiben A = B.
Ist A eine echte Teilmenge von B, d. h. ist A B und A 6= B, dann schreiben
wir A ( B.
Der zweite Punkt ist zum Beweisen von Mengengleichheiten besonders wichtig. Um zu
zeigen, dass zwei Mengen gleich sind, muss gezeigt werden, dass sie jeweils Teilmenge der
anderen sind. Man sagt es m
ussen beide Inklusionen A B und B A gezeigt werden.
Beispiel 3.1.8

F
ur alle Mengen A gilt A und A A.

{2, 5} ( {2, 3, 4, 5}
N(Z(Q(R

Proposition 3.1.9 Seien A, B Mengen. Wenn A B, dann gilt #A #B.


Beweis. Da jedes Element aus A auch in B liegt, muss B mindestens so viele Elemente
wie A besitzen.
Definition 3.1.10 Die Menge P (A) = {M | M A} heit Potenzmenge von A.
Die Potenzmenge ist also die Menge aller Teilmengen einer vorgegebenen Menge A. Aufgrund
von Beispiel 3.1.8 ist immer die leere Menge und die Menge A selbst ein Element der
Potenzmenge.
Proposition 3.1.11 Sei A eine Menge mit n < Elementen. Dann ist die Machtigkeit
der Potenzmenge #P (A) = 2n .

Der Beweis dieser Proposition wird in K


urze eine Ubungsaufgabe
sein. Er beruht darauf
zu zahlen wie viele k-elementige Teilmenge die Menge A besitzt, wobei 0 k n.
Wir wollen uns hier an Beispielen u
berzeugen, dass diese Aussage richtig ist.
Beispiel 3.1.12
Sei A = , dann ist #A = 0, da die leere Menge kein Element
enth
alt. Die Potenzmenge von A besteht nur aus der leeren Menge, d.h. P () =
und somit gilt #P () = 1 = 20 .
Sei B = {1} eine einelementige Menge, dann ist #B = 1. Die Potenzmenge von
B besteht der leeren Menge und B selbst, d. h. P (B) = {, B} und somit gilt
#P (B) = 2 = 21 .
Sei C = {1, 2} eine zweielementige Menge, dann ist #C = 2. Die Potenzmenge von
C besteht der leeren Menge, zwei einelementigen Teilmengen und C selbst, d. h.
P (C) = {, {1}, {2}, C} und somit gilt #P (C) = 4 = 22 .

24

KAPITEL 3. GRUNDLAGEN DER MENGENLEHRE

3.1. NOTATION UND OPERATIONEN AUF MENGEN

Die wichtigsten Operationen um aus zwei Mengen eine neue Menge zu bilden sind Durchschnitt und Vereinigung.
Definition 3.1.13 Seien A, B Mengen.
Die Menge A B = {x | x A x B} nennt man den Durchschnitt von A
und B.
Wenn A B = , dann nennt man A und B disjunkt,
Die Menge A B = {x | x A x B} nennt man die Vereinigung von A und
B.

Bemerkung 3.1.14 Zur Veranschaulichung dieser Mengenoperationen sind sogenannte


Venn-Diagramme gut geeignet.
Der Durchschnitt zweier Mengen A und B:
A

Die Vereinigung zweier Mengen A und B:

Beispiel 3.1.15 Seien A = {1, 2, 3, 4} und B = {3, 4, 5}, dann ist A B = {1, 2, 3, 4, 5}
und A B = {3, 4}.
Aus der Definition von Durchschnitt und Vereinigung mithilfe der logischen Verkn
upfungen
und folgen direkt einige Rechengesetze f
ur Mengen.
Satz 3.1.16 Seien A, B, C Mengen. Es gelten die Kommutativgesetze
AB =BA
A B = B A,
die Assoziativgesetze
A (B C) = (A B) C
A (B C) = (A B) C,
und die Distributivgesetze
A (B C) = (A B) (A C)
A (B C) = (A B) (A C).

25

KAPITEL 3. GRUNDLAGEN DER MENGENLEHRE

3.1. NOTATION UND OPERATIONEN AUF MENGEN

Beweis. Der Beweis dieser Regeln folgt direkt aus den entsprechenden Regeln f
ur und
(s. Satz 2.2.9). Wir zeigen hier exemplarisch das Kommutativgesetz f
ur die Vereinigung.
Um die Gleichheit von Mengen zu beweisen m
ussen wir die zwei Inklusionen A B B A
und B A A B zeigen.
Um A B B A zu zeigen, betrachten wir ein beliebiges Element aus A B und zeigen,
dass es auch in B A enthalten ist.
xAB

Def. von

xAxB

Kommutativit
at von

xBxA

Def. von

xBA

Analog k
onnen wir B A A B beweisen, woraus die Gleichheit der beiden Mengen
folgt.
Bemerkung 3.1.17 Wir veranschaulichen die Distributivgesetze mithilfe von VennDiagrammen.
A (B C) = (A B) (A C)
A (B C) = (A B) (A C)
A

Notation 3.1.18 F
ur den Durchschnitt und die Vereinigung mehrerer Mengen, verwenden wir folgende Bezeichnungen:
ni=1 Ai = A1 A2 An = {x | i {1, 2, . . . , n} so dass x Ai }
ni=1 Ai = A1 A2 An = {x | i {1, 2, . . . , n} gilt x Ai }

Definition 3.1.19 Seien A und B Mengen.


Die Menge A\B = {x | x A x
/ B} nennt man die Differenz zwischen A und
B. Man spricht auch: A ohne B.

Wenn B A, dann nennen wir A\B = B c das Komplement von B (in A).

26

KAPITEL 3. GRUNDLAGEN DER MENGENLEHRE

3.1. NOTATION UND OPERATIONEN AUF MENGEN

Bemerkung 3.1.20 Wir veranschaulichen die Differenz und Komplement mithilfe von
Venn-Diagrammen.
A\B
Ac = M \A
A

Satz 3.1.21 Seien A und B die Teilmengen einer Menge M sind. Dann gelten die de
Morganschen Gesetze
(A B)c = Ac B c
(A B)c = Ac B c .
Dabei sind immer die Komplemente in M gemeint.
Beweis. Wir beweisen hier die erste Regel (A B)c = Ac B c . Der zweite Beweis ist
analog.
Wir zeigen zun
achst, dass (A B)c Ac B c . Da immer gilt, dass x M , verzichten wir
zur besseren Lesbarkeit der Umformungen darauf dies in jeder Zeile zu schreiben.
x (A B)c x
/ AB

Definition des Komplements

(x A B)

Definition von
/

(x A x B)

Definition der Vereinigung

(x A) (x B) De Morgansche Regel f
ur logische Operatoren
x
/ Ax
/B
c

xA xB
c

xA B

Definition von
/
c

Definition des Komplements


Definition des Durchschnitts

Analog wird die umgekehrte Inklusion Ac B c (A B)c bewiesen.


Bemerkung 3.1.22 Wir veranschaulichen die de Morganschen Gesetze mithilfe von
Venn-Diagrammen.
(A B)c = Ac B c
(A B)c = Ac B c
A

27

KAPITEL 3. GRUNDLAGEN DER MENGENLEHRE

3.2. ABBILDUNGEN ZWISCHEN MENGEN

Bei der Schreibung von Mengen mithilfe von geschweiften Klammern ist es wichtig, dass
die Reihenfolge der Elemente keine Rolle spielt. Oft aber ist auch die Reihenfolge von
Elementen relevant. Daf
ur verwenden wir dann runde Klammern.
Definition 3.1.23 Seien A, B Mengen und a A, b B.
Man bezeichnet mit (a, b) ein geordnetes Paar (Tupel). Zwei geordnete Paare
(a, b) und (a0 , b0 ) sind genau dann gleich, wenn a = a0 und b = b0 gilt.
Die Menge aller geordneten Paare (a, b) nennt man das kartesische Produkt von
A und B und schreibt A B = {(a, b) | a A b B}. Man spricht: A kreuz B.
A1 A2 An = {(a1 , , an ) | a1 A1 , , an An } ist das n-fache
kartesische Produkt und besteht aus allen n-Tupeln (a1 , , an ).
Wir bezeichnen mit An = A A A das n-fache kartesische Produkt der
Menge A mit sich selbst.

Beispiel 3.1.24

{1} {1, 2} = {(1, 1), (1, 2)}

{2, 4} {1, 3} = {(2, 1), (2, 3), (4, 1), (4, 3)}
{1, 3} {2, 4} = {(1, 2), (1, 4), (3, 2), (3, 4)}
R2 ist die Menge aller Punkte der Ebene.
Aus der Definition eines geordneten Paares folgt, dass (1, 2) 6= (2, 1) ist und daher gilt auch
f
ur die Mengen {2, 4} {1, 3} =
6 {1, 3} {2, 4}.

3.2. Abbildungen zwischen Mengen


Neben dem Begriff der Menge ist der Begriff der Abbildung von grundlegender Bedeutung
f
ur die gesamte Mathematik. Unter diesem Aspekt betrachtet zeichnen sich die verschiedenen Teilgebiete der Mathematik lediglich dadurch aus, da sie sich dem Studium jeweils
besonderer Abbildungen widmen bzw. gewisse Abbildungen auf bestimmte Eigenschaften
hin untersuchen.
Abbildung zwischen Mengen werden benutzt, um Elemente aus verschiedenen Mengen
einander zuzuordnen. Diese sind wichtig um mehr Informationen u
ber eine Menge zu
erhalten.
Definition 3.2.1 Seien A, B nichtleere Mengen. Eine Abbildung f von einer Menge
A in eine Menge B ist eine Vorschrift, die jedem x A genau ein f (x) B zuordnet.
Wir schreiben:
f :AB
a 7 f (a)

28

KAPITEL 3. GRUNDLAGEN DER MENGENLEHRE

3.2. ABBILDUNGEN ZWISCHEN MENGEN

und sagen a wird auf f (a) abgebildet.


In Bezug auf die Abbildung f heit A die Definitionsmenge und B die Wertemenge
von f .
Folgendes ist zu beachten:
Zur Definition einer Abbildung gehort neben der Zuordnungsvorschrift ganz wesentlich
die Nennung der Definitionsmenge (Ausgangsmenge) und auch der Wertemenge
(Zielmenge). So stellen
f : Z N0 , n 7 n2
g : R R, x 7 x2
ganz unterschiedliche Abbildungen dar, obwohl die Zuordnungsvorschrift namlich
zu quadrieren die gleiche ist, wenn man von den unterschiedlichen Variablennamen
n und x absieht, die man auch hatte gleich wahlen konnen.
Jedem a A wird ein b B zugeordent, die Umkehrung gilt im allgemeinen jedoch
nicht, d.h. es kann durchaus vorkommen, dass es Elemente b B gibt, denen kein
oder auch zwei verschiedene Elemente zugeordnet werden.
Um eine Abbildung zu definieren, kann man explizit die Zuordnung angeben, welches
Element aus A auf welches Element aus B abgebildet wird. Dies ist aber nur f
ur endliche
Mengen m
oglich und auch da m
uhsam. Alternativ kann man Abbildung durch eine oder
mehrere Formeln definieren.
Beispiel 3.2.2

f :NN
n 7 n2

ist eine wohldefinierte Abbildung.


Der ASCII-Code ordnet den Zahlen von 0 bis 127 bestimmte Steuerzeichen zu.
f : {0, 1, 2, . . . , 127} {0, 1, 2, . . . , a, b, . . . , A, B, . . . , %, ?, . . . }
48 7 0
61 7 =
..
..
.
.

Wir nennen eine Abbildungsvorschrift wohldefiniert, wenn dadurch wirklich eine Abbildung definiert wird.
Beispiel 3.2.3 Um zu sehen, was genau wohldefiniert bedeutet, ist es am besten sich
einige Beispiele nicht wohldefinierter Abbildungsvorschriften anzuschauen.

29

KAPITEL 3. GRUNDLAGEN DER MENGENLEHRE

3.2. ABBILDUNGEN ZWISCHEN MENGEN

Die Abbildungsvorschrift
f : {1, 3, 5} {2, 3}
1 7 2
3 7 2
5 7 3
1 7 3

ist nicht wohldefiniert, da dem Element 1 {1, 3, 5} zwei verschiedene Elemente


zugeordnet werden.
Die Abbildungsvorschrift
f : {1, 3, 5} {2, 3}
1 7 2
3 7 2

ist nicht wohldefiniert, da dem Element 5 {1, 3, 5} kein Element zugeordnet wird.
Die Abbildungsvorschrift
f : {1, 3, 5} {2, 3}
1 7 2
3 7 2
5 7 5

ist nicht wohldefiniert, da dem Element 5 ein Element zugeordnet wird, das nicht
in der Menge {2, 3} liegt.
Die Abbildungsvorschrift
f :NN
n 7 n2

wenn n eine Primzahl ist,

n 7 3n

wenn n eine gerade Zahl ist.

ist nicht wohldefiniert, da zum einen die Zahl 2, die eine Primzahl ist und gerade auf
verschiedene Zahlen abgebildet wird (Aus der Vorschrift folgt einerseits 2 7 22 = 4,
da 2 eine Primzahl ist, andererseits gilt 2 7 3 2 = 6, da 2 gerade ist). Auerdem
gibt es keine Vorschrift f
ur ungerade Zahlen, die nicht prim sind.

30

KAPITEL 3. GRUNDLAGEN DER MENGENLEHRE

3.2. ABBILDUNGEN ZWISCHEN MENGEN

Definition 3.2.4 Seien A, B Mengen.


Die Abbildung idA : A A, a 7 a heit Identit
at.
Sei f : A B eine Abbildung. Dann heit die Menge
f (A) = {b B | a A so dass giltf (a) = b} B
das Bild von f .
Sei f : A B eine Abbildung und M B. Dann heit die Menge
f 1 (M ) = {a A | f (a) M } A
das Urbild der Menge M unter f .

Beispiel 3.2.5 Wir betrachten folgende Abbildung


f : {1, 2, 3} {4, 5, 6}
1 7 4
2 7 4
3 7 5

Dann ist das Bild f ({1, 2, 3}) = {4, 5} und wir berechnen die Urbilder f 1 ({4}) = {1, 2},
f 1 ({5}) = {3} und f 1 ({6}) = .
Eigenschaften von Abbildungen, die eine besondere Rolle spielen geben wir einen Namen
und versuchen sie genau zu charakterisieren.
Definition 3.2.6 Seien A, B Mengen und sei f : A B, a 7 f (b) eine Abbildung.
ur alle a, a0 A gilt: wenn f (a) = f (a0 ), dann
f heit genau dann injektiv, wenn f
0
ist a = a .
f heit genau dann surjektiv, wenn f
ur alle b B ein a A existiert, so dass gilt
f (a) = b.
f heit genau dann bijektiv, wenn f injektiv und surjektiv ist.

Bemerkung 3.2.7 Um besser zu verstehen, was diese Begriffe bedeuten, ist es g


unstig
sie auf verschiedene Art und Weisen umzuformulieren.
In der Definition von injektiv steht eine Aussage der Form x y, diese ist genau dann
richtig, wenn y x richtig ist (s. Satz 2.3.1). Somit lautet eine alternative Definition

31

KAPITEL 3. GRUNDLAGEN DER MENGENLEHRE

3.2. ABBILDUNGEN ZWISCHEN MENGEN

von Injektivit
at: f heit genau dann injektiv, wenn f
ur a, a0 A gilt: wenn a 6= a0 , dann
0
ist f (a) 6= f (a ).
Oder noch anders formuliert: bei einer injektiven Abbildung hat jedes Element b B
h
ochstens ein Urbild in A, d. h. #f 1 ({b}) = 0 oder #f 1 ({b}) = 1. Denn hatte b
zwei Urbilder a, a0 A, d. h f (a) = f (a0 ) = b, dann m
ussen diese ja gleich sein a = a0 .
Also hat b h
ochstens ein Urbild.
Beim genauen Angucken der Definition des Bildes einer Abbildung sieht man, dass f
genau dann surjektiv ist, wenn f (A) = B gilt.
Das wiederum bedeutet, dass bei einer surjektiven Abbildung jedes Element b B
mindestens ein Urbild in A hat.
Somit hat bei einer bijektiven Abbildung jedes Element b B genau ein Urbild in A.
Schrankt man die Wertemenge B einer Abbildung f : A B auf f (A) ein, dann erhalt
man eine neue Abbildung f : A f (A), die surjektiv ist. Die Eigenschaften injektiv
und surjektiv h
angen also nicht nur von der Abbildungsvorschrift ab, sondern auch ganz
wesentlich von der Definitions- und Wertemenge.
Beispiel 3.2.8 Die Abbildung
f : {1, 2} {4, 5, 6}
1 7 4
2 7 6

ist injektiv, aber nicht surjektiv, da 5 kein Urbild hat.


Die Abbildung
f : {1, 2, 3} {4, 5}
1 7 4
2 7 5
3 7 5

ist surjektiv, aber nicht injektiv, da 5 zwei Urbilder hat.

Proposition 3.2.9 Seien A, B Mengen mit endlich vielen Elementen, #A = n und


#B = m und sei f : A B eine Abbildung. Dann gilt:
Wenn f injektiv ist, dann ist n m.
Wenn f surjektiv ist, dann ist n m.
Beweis. Die Methode diese Aussagen zu beweisen wird als Schubfachprinzip bezeichnet.
Daf
ur konnen wir uns anschaulich die Menge A als Menge von n Kugeln vorstellen und

32

KAPITEL 3. GRUNDLAGEN DER MENGENLEHRE

3.2. ABBILDUNGEN ZWISCHEN MENGEN

B als Menge von m Schubladen. Die Abbildung f entspricht dann dem Hineinlegen von
Kugeln in die Schubladen.
Ist f injektiv, dann heit das, dass in jede Schublade hochstens eine Kugel gelegt wird.
Dies ist nur dann m
oglich, wenn es mindestens so viele Schubladen wie Kugeln gibt.
Ist f surjektiv, dann heit das, dass in jede Schublade mindestens eine Kugel gelegt wird.
Dies ist nur dann m
oglich, wenn es mindestens so viele Kugeln wie Schubladen gibt.
Satz 3.2.10 Seien A, B endliche Mengen mit gelicher Machtigkeit, d. h. #A = #B <
und sei f : A B eine Abbildung, dann ist aquivalent:
a) f ist injektiv
b) f ist surjektiv.
c) f ist bijektiv.

Beweis. Auch dieser Beweis ist mit dem Schubfachprinzip moglich. Wenn es gleich viele
Kugeln und Schubladen gibt und wir wissen in jeder Schublade liegt hochstens eine Kugel,
dann muss schon in jeder Schublade genau eine Kugel liegen, da dies sonst nicht moglich
ist.
Umgekehrt, wissen wir dass in jeder Schublade mindestens eine Kugel liegt, dann muss
schon in jeder Schublade genau eine Kugel liegen.
Definition 3.2.11 Seien A, B, C Mengen und seien f : A B, g : B C Abbildungen.
Dann heit die Abbildung
gf :AC
a 7 (g f )(a) = g(f (a))
Hintereinanderausf
uhrung von f und g.
Beim ersten Lesen erscheint die Schreibweise g f vielleicht etwas unlogisch, da wir ja
zuerst ein Element mithilfe von f abbilden und dann mithilfe von g. Allerdings macht es
nur Sinn f (a) zu betrachten f
ur ein Element a A. Da dann f (a) B liegt, macht es Sinn
g(f (a)) zu betrachten. Man muss also die Verkn
upfung von Abbildungen von innen nach
auen lesen.
Proposition 3.2.12 Seien A, B, C Mengen und seien f : A B, g : B C Abbildungen. Dann gilt:
(i) Wenn f und g injektiv sind, dann ist auch (g f ) injektiv.
(ii) Wenn f und g surjektiv sind, dann ist auch (g f ) surjektiv.
(iii) Wenn f und g bijektiv sind, dann ist auch (g f ) bijektiv.

33

KAPITEL 3. GRUNDLAGEN DER MENGENLEHRE

3.2. ABBILDUNGEN ZWISCHEN MENGEN

Beweis. (i) Angenommen g(f (a)) = g(f (a0 )), dann folgt aus der Injektivitat von g, dass
f (a) = f (a0 ), aus der Injektivitat von f , folgt dann wiederum, dass a = a0 . Und somit
ist auch (g f ) injektiv.
(ii) Da f sujektiv ist, gilt f (A) = B, da g surjektiv ist, folgt g(B) = C. Also ist
g(f (A)) = C und (g f ) ist surjektiv.
(iii) Folgt direkt aus (i) und (ii)
Satz 3.2.13 Seien A, B nichtleere Mengen und f : A B eine Abbildung. Dann gilt:
a) f ist genau dann injektiv, wenn f eine Linksinverse hat, d. h. wenn es eine
Abbildung g : B A gibt, f
ur die gilt g f = idA .
b) f ist genau dann surjektiv, wenn f eine Rechtsinverse hat, d. h. wenn es eine
Abbildung g : B A gibt, f
ur die gilt f g = idB .
c) f ist genau dann bijektiv, wenn f eine Inverse hat, d. h. wenn es eine Abbildung
g : B A gibt, f
ur die gilt f g = idB und g f = idA .

das heit es m
ussen immer beide Implikationen
Beweis. Alle Aussagen sind Aquivalenzen,
gezeigt werden.
a) Wir zeigen zun
achst die Implikation: Wenn f injektiv ist, dann gibt es eine Abbildung
g : B A, f
ur die g f = idA gilt.
Wir nehmen also an f sei injektiv und definieren eine Abbildung g durch
g:BA
b 7 a f 1 ({b})

wenn b f (A)

b 7 a beliebig

wenn b
/ f (A)

Diese Abbildung ist wohldefiniert, da die Menge f 1 ({b}) aus nur einem Element
besteht, da f injektiv ist. Wenn b
/ f (A), dann ist f 1 ({b}) leer und wir konnen ein
beliebiges Element w
ahlen auf das b abgebildet wird.
Nun k
onnen wir pr
ufen, dass die so definierte Abbildung die Eigenschaft g f = idA
hat. Sei also a A ein beliebiges Element, dann ist g(f (a)) = g(b) = a, da b = f (a)
ein Element aus dem Bild f (A) ist und f 1 ({b}) = {a} das Urbild ist.
Im zweiten Schritt zeigen wir die Implikation Wenn es eine Abbildung g : B A,
f
ur die g f = idA gilt gibt, dann ist f injektiv.
Diesen Teil des Beweises f
uhren wir per Widerspruch, dass heit wir nehmen an es
gebe diese Abbildung g mit der geforderten Eigenschaft, aber f ist nicht injektiv.
Wenn f nicht injektiv ist, dann gibt es Elemente a, a0 A, die ungleich sind a =
6 a0 ,
0
aber f
ur die f (a) = f (a ) gilt.
Da a 6= a0 , ist auch idA (a) 6= idA (a0 ).
Andererseits gilt aber (g f )(a) = g(f (a)) = g(f (a0 )) = (g f )(a0 ). Da nach Annahme
g f = idA gilt erhalten wir daraus a = a0 im Widerspruch zur vorherigen Zeile.

34

KAPITEL 3. GRUNDLAGEN DER MENGENLEHRE

3.2. ABBILDUNGEN ZWISCHEN MENGEN

b) : Angenommen f ist surjektiv, dann ist f 1 (b) nicht leer wie auch immer b B
vorgegeben ist. F
ur jedes b B lat sich ein a f 1 (b) auswahlen, welches dazu
verwendet werden kann, die Funktion h : B A durch die Setzung h(b) := a zu
definieren.
 Aus der Definition von h folgt dann unmittelbar die behauptete Eigenschaft
f h(b) = b. Auch hier ist h nicht eindeutig festgelegt, sondern es gibt alternative
Definitionsm
oglichkeiten, wenn f nicht injektiv ist.
: Angenommen es sei eine derartige
Funktion h vorhanden. Ist b B beliebig

aber fest vorgegeben, so gilt f h(b) = b. Damit wird h(b) A auf b abgebildet. Da
b beliebig, l
at sich somit zu jedem b B ein Element aus A finden namlich h(b)
welches auf b abgebildet wird, d.h. f ist surjektiv.
c) folgt direkt aus a) und b)
Definition 3.2.14 Seien A, B Mengen und f : A B eine bijektive Abbildung. Dann
heit die Abbildung f 1 : B A, f (a) 7 a Umkehrabbildung von f .
Die Umkehrabbildung entspricht der Abbildung g aus Satz 3.2.13 und erf
ullt somit
f f 1 = idB und f 1 f = idA .
Achtung! Es ist wichtig die Umkehrabbildung nicht mit dem Urbild zu verwechseln,
obwohl daf
ur die gleiche Notation verwendet wird. Das Urbild einer Menge unter einer
Abbildung f : A B ist eine Menge und kann f
ur alle Abbildungen f und alle Teilmengen
M B bestimmt werden.
Die Umkehrabbildung hingegen kann nur von bijektiven Abbildungen f : A B bestimmt
werden und sie ordnet dann einem Element b B, das eindeutig bestimmte Element
a f 1 ({b}) zu.
Definition 3.2.15 Seien A, B Mengen und f : A B eine Abbildung und A0 A,
dann definiert
f | A 0 : A0 B
a 7 f (a)
eine Abbildung die Einschr
ankung von A auf A0 .

Proposition 3.2.16 Seien A0 A, B Mengen und f : A B eine Abbildung. Dann


gilt:
i) Ist f injektiv, dann ist auch f |A0 injektiv.
ii) Die Abbildung g : A f (A), a 7 f (a) ist surjektiv.
Beweis. i) Wenn f
ur alle a1 , a2 A aus a1 6= a2 folgt, dass f (a1 ) 6= f (a2 ) gilt. Dann gilt
das ebenfalls f
ur alle a1 , a2 A0 A.
ii) Per Definition ist f (A) das Bild der Abbildung f . Da f
ur alle Elemente a A gilt
f (a) = g(a) per definition von g, ist also auch f (A) das Bild von g und damit ist g
surjektiv.

35

KAPITEL 3. GRUNDLAGEN DER MENGENLEHRE

3.3. RELATIONEN

3.3. Relationen
Relationen sind ein Mittel um Beziehungen zwischen Elementen einer Menge herzustellen,
die wichtige zus
atzliche Informationen liefern.
Definition 3.3.1 (Relation)
Es seien A und B zwei nichtleere Mengen. Eine (binare) Relation R zwischen den
Mengen A und B ist eine Teilmenge des kartesischen Produkts A B, d. h.
R A B = {(a, b) | a A, b B} .
F
ur (a, b) R schreibt man auch aRb, d.h. a steht in Relation R zu b. Ist A = B so
spricht auch von einer Relation auf bzw. in der Menge A.

Definition 3.3.2 (Eigenschaften von Relationen)


Eine Relation R A A auf einer Menge A heit
reflexiv genau dann, wenn f
ur alle a A gilt, dass (a, a) R.
symmetrisch genau dann wenn gilt: (a, b) R (b, a) R.
antisymmetrisch genau dann, wenn aus (a, b) R (b, a) R folgt, dass a = b.
transitiv genau dann, wenn gilt: (a, b) R (b, c) R (a, c) R.

Bemerkung 3.3.3 Die Definition von antisymmetrisch ist von der Art A B und
somit genau dann richtig, wenn B 6= A richtig ist (s. Satz 2.3.1). Somit kann diese
Definition mithilfe der De Morganschen Gesetze (s. Satz 2.2.10) umformuliert werden zu:
Eine Relation R A A auf einer Menge A heit antisymmetrisch genau dann, wenn
aus a 6= b folgt, dass (a, b)
/ R (b, a)
/ R.

Definition 3.3.4 (Aquivalenzrelation)

Eine Relation R A A heit Aquivalenzrelation


auf A, wenn sie reflexiv, symme
trisch und transitiv ist. Anstatt (a, b) R schreibt man im Falle von Aquivalenzrelationen
haufiger a b, d.h. a ist
aquivalent zu b.

Definition 3.3.5 (Aquivalenzklasse


und Quotientenmenge)

Es sei eine Aquivalenzrelation


auf A. F
ur a A heit die Teilmenge von A
[a] := {x A : a x } A

Aquivalenzklasse
von a. Die Elemente von [a] nennt man die zu a aquivalenten
Elemente.

36

KAPITEL 3. GRUNDLAGEN DER MENGENLEHRE

3.3. RELATIONEN

Die Menge aller Aquivalenzklassen


einer Aquivalenzrelation
heit Quotientenmenge
A/ := {[a] | a A}.
Es gibt eine kanonische surjektive Abbildung
: A A/ , a 7 [a].

Eine Aquivalenzklasse
enth
alt alle Elemente, die bez
uglich eines bestimmten Aspekts,

der durch die Aquivalenzrelation


definiert wird, als gleich betrachtet werden kann. Die

Quotientenmenge enth
alt dann all diese Aquivalenzklassen.
Beispiel 3.3.6 Sei A = {Sch
uler einer Schule}, dann ist a b := a ist in der selben

Schulklasse wie b, eine Aquivalenzrelation


und die Menge der Schulklassen ist die
Quotientenmenge bez
uglich dieser Relation. Will man zum Beispiel einen Stundenplan
entwerfen, dann ist es hilfreich nicht jeden Sch
uler einzeln zu betrachten, sondern den
Stundenplan f
ur jede Schulklasse zu erstellen.

Aquivalenzrelationen
sind ein wichtiges Hilfsmittel um aus einer bekannten Menge eine
neue Menge konstruieren zu k
onnen, die dann bestimmte gew
unschte Eigenschaften hat.
Wir werden dies in Abschnitt 5 mehrfach benutzen um Zahlenmengen zu konstruieren.

Satz 3.3.7 Es sei eine Aquivalenzrelation


auf A. Dann bildet die Menge der

Aquivalenzklassen
eine Partition von A. Das bedeutet, dass zwei Aquivalenzklassen
entweder gleich oder disjunkt sind und auerdem gilt aA [a] = A.

Beweis. Um zu beweisen, dass zwei Aquivalenzklassen


entweder gleich oder disjunkt sind,
zeigen wir dass sie gleich sind, sobald ihr Durchschnitt nicht leer ist.

Wir betrachten zwei Aquivalenzklassen


[a] und [a0 ] in deren Durchschnitt ein Element c
0
liegt, das heit c [a] [a ]. Dies ist gleichbedeutend mit c a und c a0 .
Wir wollen nun zeigen, dass [a] [a0 ] gilt:
Sei x [a], d. h. x a. Aufgrund der Symmetrie der Relation folgt aus c a auch a c.
Aufgrund der Transitivit
at folgt aus x a und a c dass auch x c. Und somit wieder
aufgrund der Transitivit
at folgt aus x c und c a0 die Beziehung x a0 . Damit liegt
0
nun x [a ] und wir haben gezeigt, dass [a] [a0 ] gilt.
Auf analoge Weise (wir tauschen die Rollen von a und a0 ) folgern wir [a0 ] [a], woraus

folgt, dass die Aquivalenzklassen


gleich sind.
Im nachsten Schritt wollen wir zeigen, dass aA [a] = A gilt. Zunachst bemerken wir, dass

Aquivalenzklassen
[a] immer einer Teilmenge von A sind und damit auch ihre Vereinigung.
Das heit es gilt aA [a] A.
F
ur die umgekehrte Inklusion m
ussen wir zeigen, dass jedes Element a A in einer

Aquivalenzklasse
liegt. Aufgrund der Reflexivitat einer Aquivalenzrelation
ist aber jeder
Element zu sich selbst
aquivalent a a und somit liegt a [a], woraus wir A aA [a]
folgern und damit die Gleichheit beider Mengen.

37

KAPITEL 3. GRUNDLAGEN DER MENGENLEHRE

3.3. RELATIONEN

Neben Aquivalenzrelationen
sind Ordnungsrelationen wichtige und haufig benutzte Relationen.
Definition 3.3.8 (Ordnungsrelation)
Eine Ordnungsrelation oder kurz eine Ordnung v in der Menge A ist eine reflexive,
antisymmetrische und transitive Relation in A.

Definition 3.3.9 (Vergleichbarkeit zweier Elemente)


Zwei Elemente a, b A heien vergleichbar bez
uglich der Ordnung v in A, wenn
entweder a v b oder b v a gilt.

Definition 3.3.10 (Totale und partielle Ordnung)


Eine Ordnung v in der Menge A heit total, wenn je zwei Elemente aus A vergleichbar
sind bez
uglich v. Ist die Vergleichbarkeit nicht f
ur alle Elementpaare gegeben, so spricht
man zur Abgrenzung gegen
uber totalen Ordnungen von einer partiellen Ordnung
oder Teilordnung.

Beispiel 3.3.11 definiert auf den reellen Zahlen eine Totalordnung. Diese Relation
ist reflexiv, da f
ur jedes Element a a gilt. Sie ist antisymmetrisch, da f
ur zwei
unterschiedliche Elemente a 6= b entweder a b oder b a gilt, woraus auch die
Vergleichbarkeit zweier Elemente folgt. Die Transitivitat gilt, da aus a b, b c folgt,
dass a c ist.
definiert auf der Potenzmenge P (A) einer Menge A eine partielle Ordnung. Schon
wenn A die M
achtigkeit 2 hat, also A = {a, b}, dann hat A die Teilmengen {a} und {b},
die nicht vergleichbar sind, da weder {a} {b} noch {b} {a} gilt.

38

4. Algebraische Strukturen
Nachdem wir nun mit Mengen und Abbildungen zwischen ihnen hantieren konnen, wollen
wir nun Mengen betrachten mit denen man auch rechnen kann.

4.1. Gruppen
Definition 4.1.1 Sei G eine Menge mit einer Verkn
upfung , d. h.
:GGG
(g, h) 7 g h.
(G, ) heit Gruppe, wenn gilt:
i) Es existiert genau ein Element e G, das f
ur alle g G g e = e g = g erf
ullt.
e heit neutrales Element.
ii) Zu jedem g G gibt es genau ein Element g 1 G, so dass g g 1 = g 1 g = e
gilt. g 1 heit das zu g inverse Element.
iii) F
ur alle g1 , g2 , g3 G gilt: g1 (g2 g3 ) = (g1 g2 ) g3 . (Assoziativgesetz)
Gilt auerdem
iv) F
ur alle g1 , g2 G : g2 g1 = g1 g2
Dann heit die Gruppe abelsch oder kommutativ.

Bemerkung 4.1.2 In der Definition einer Gruppe konnen die Forderungen i) und ii)
durch die (auf dem ersten Blick) schwacheren Forderungen
i) Es existiert ein linksneutrales Element Element e G, d. h. das f
ur alle g G gilt:
e g = g erf
ullt,
ii) Zu jedem g G gibt es ein linksinverses Element g 1 G, d. h. es gilt g 1 g = e,
ersetzt werden. Dabei ist zu beachten, dass es hier nicht die Eindeutigkeit des Linksneutralen und Linksinversen gefordert wird. Es ist moglich durch einfache Rechnungen aus
den Bedingungen i),ii) und iii) zu folgern, dass dann auch i),ii) und iii) gelten.
Der Vorteil an der schw
acheren Definition ist nun, dass es bei einem konkreten Beispiel
gen
ugt die schw
acheren Eigenschaften nachzuweisen um zu beweisen, dass es sich um
eine Gruppe handelt.

39

KAPITEL 4. ALGEBRAISCHE STRUKTUREN

4.1. GRUPPEN

Proposition 4.1.3 Sei G, eine Gruppe und g, h G, dann gilt:


i) (g 1 )1 = g und
ii) (g h)1 = h1 g 1 .
ussen zeigen, dass g ein zu g 1 inverses Element ist. Aber dies gilt
Beweis.
i) Wir m
aufgrund der Definition von g 1 als zu g inverses Element: g g 1 = e. Aufgrund der
Eindeutigkeit des Inversen ist daher (g 1 )1 = g.
ii) Wir m
ussen zeigen, dass h1 g 1 ein zu (g h) inverses Element ist. Dies ist der
Fall, da aufgrund des Assoziativgesetzes gilt:
(h1 g 1 ) (g h) = h1 (g 1 g) h = h1 e h = h1 h = e.

Beispiel 4.1.4

(Z, +) ist eine Gruppe

(Q\{0}, ) ist eine Gruppe


Sei M eine Menge, dann definieren wir die Menge der bijektiven Abbildungen von
M in sich selbst
Bij(M ) := {f : M M | f ist bijektiv}
Die Menge Bij(M ) zusammen mit der Hintereinanderausf
uhrung von Abbildungen
als Verkn
upfung ist eine Gruppe.
Das neutrale Element der Gruppe ist die Identitat idM .
Zu einer Abbildung f Bij(M ) gibt es eine eindeutig bestimmte Umkehrabbildung f 1 Bij(M ), diese ist das zu f inverse Element in Bij(M ), denn
es gilt f f 1 = f 1 f = idM .
Das Assoziativgesetz gilt, da per Definition der Hintereinanderausf
uhrung
gilt:


f (g h) (m) = f (g h)(m) = f (g(h(m)))
und


(f g) h (m) = (f g) h(m) = f (g(h(m))).
Diese Gruppe ist nicht abelsch, wenn M mehr als 2 Elemente hat. Als Beispiel
betrachten wir M = {1, 2, 3} und die bijektiven Abbildungen
f :M M

g:M M

1 7 1

1 7 2

2 7 3

2 7 3

3 7 2

3 7 1

40

KAPITEL 4. ALGEBRAISCHE STRUKTUREN

4.1. GRUPPEN

Wir rechnen nach, dass (f g)(1) = f (g(1)) = f (2) = 3 gilt, aber


(g f )(1) = g(f (1)) = g(1) = 2. Anschaulich konnen wir uns die Menge M als
Eckpunkte eines gleichseitigen Dreiecks vorstellen, dann ist f eine Spiegelung
und g eine Drehung um 120 Grad.
g f = Drehen um 120 Spiegeln:
1

f =Spiegeln
2

g =Drehen
3

f g = Spiegeln Drehen um 120 :


1

g=Drehen
2

f =Spiegeln
1

Definition 4.1.5 Sei (G, ) eine Gruppe und H G eine Teilmenge. H heit Untergruppe von G, wenn H mit der von G geerbten Verkn
upfung eine Gruppe (H, )
definiert.
Wichtig um zu zeigen, dass eine Teilmenge Untergruppe ist, ist neben den Gruppen axiomen
auch die Abgeschlossenheit der Verkn
upfung. Das heit, dass f
ur g1 , g2 H auch g1 g2 H
liegt.
Proposition 4.1.6 Sei (G, ) eine Gruppe und H G eine Teilmenge, so dass gilt:
g1 , g2 H

g11 g2 H,

dann ist H eine Untergruppe von G.


Beweis. Wir m
ussen zeigen, dass alle Gruppenaxiome erf
ullt sind.
i) Sei g1 = g2 = g, wobei g ein beliebiges Element in H ist. Dann ist auch g 1 g H
und somit das neutrale Element e.
ur setzen wir g1 = g und g2 = e (von
ii) Sei g H. Wir zeigen, dass auch g 1 H. Daf
dem wir ja schon wissen, dass es enthalten ist) und somit ist g 1 e = g 1 H.
iii) Das Assoziativgesetz u
agt sich sich direkt, da alle Element in H ja auch in G
bertr
liegen.
iv) Auerdem m
ussen wir noch zeigen, dass f
ur zwei Elemente g1 , g2 H auch g1 g2 in
H liegt (dies nennt man Abgeschlossenheit der Verkn
upfung). Dies folgt, da wir ja
bereits wissen, dass g11 H und somit auch (g11 )1 g2 = g1 g2 H.

41

KAPITEL 4. ALGEBRAISCHE STRUKTUREN

Beispiel 4.1.7

4.2. GRUPPENHOMOMORPHISMEN

(Z, +) ist Untergruppe von (Q, +)

(R>0 , ) ist Untergruppe von (R\{0}, )


({1, 1}, ) ist Untergruppe von (R\{0}, )

4.2. Gruppenhomomorphismen
Besitzt eine Menge eine zus
atzliche Struktur, wie in unserem Fall eine Verkn
upfung,
dann spielen Abbildungen eine besondere Rolle, die diese Struktur erhalten.
Definition 4.2.1 Seien (G, ) und (H, ) Gruppen. Eine Abbildung f : G H heit
Gruppenhomomorphismus, wenn f
ur alle g1 , g2 G gilt:
f (g1 g2 ) = f (g1 )  f (g2 ).

Es ist also egal, ob ich erst g1 und g2 in G verkn


upfe und dann g1 g2 G nach H abbilde
oder ob beide Elemente zuerst nach H abgebildet werden (f (g1 ), f (g2 ) H) um dann dort
verkn
upft werden.
Proposition 4.2.2 Seien (G, ) und (H, ) Gruppen, sowie f : G H ein Gruppenhomomorphismus. Dann gilt:
i. f (eG ) = eH und
ii. f (g 1 ) = f (g)1 .
Hier bezeichnet eG das neutrale Element in G und eH das neutrale Element in H.
Beweis.
i. Aus der Eigenschaft neutrales Element zu sein folgt eG eG = eG und somit
durch Anwenden der Abbildung f erhalt man f (eG ) = f (eG eG ) = f (eG )  f (eG ).
Wir verkn
upfen die Elemente auf beiden Seiten der Gleichung von rechts mit dem
Element f (eG )1 und erhalten

f (eG )  f (eG )1 = f (eG )  f (eG )  f (eG )1

eH = f (eG )  f (eG )  f (eG )1
| Assoziativgesetz
= f (eG )  eH

| Eigenschaft des Inversen

= f (eG )

| Eigenschaft des neutralen Elements

ii. Wir rechnen


f (g 1 )  f (g) = f (g 1 g) = f (eG ) = eH .
Somit hat das Element f (g 1 ) die Eigenschaft eines inversen Elements zu f (g). Und
da Inverse eindeutig sind folgt die Behauptung.

42

KAPITEL 4. ALGEBRAISCHE STRUKTUREN

4.2. GRUPPENHOMOMORPHISMEN

Beispiel 4.2.3 Ein wichtiger Gruppenhomomorphismus ist die Exponentialfunktion


exp : (R, +) (R>0 , )
x 7 exp(x) = ex .
Die Funktionalgleichung exp(x + y) = ex ey = exp(x) exp(y) entspricht genau der
Definition eines Gruppenhomomorphismus. Wir sehen, dass Proposition 4.2.2 i) genau
der Eigenschaft e0 = 1 entspricht und Proposition 4.2.2 ii) der Tatsache, dass ex = e1x .

Satz 4.2.4 Seien (G, ) und (H, ) Gruppen. Das Bild f (G) eines Gruppenhomomorphismus f : G H ist eine Untergruppe von H.
Beweis. Aufgrund von Proposition 4.1.6 gen
ugt es zu u
ufen, ob f
ur alle Element
berpr
h1 , h2 f (G) gilt, dass dann auch h1

h
in
H
liegt.
2
1
Seien also h1 , h2 f (G), d. h. es gibt Elemente g1 , g2 G mit f (g1 ) = h1 und f (g2 ) = h2 .
Dann konnen wir nachrechnen, dass
1
 f (g2 ) = f (g11 )  f (g2 ) = f (g11 g2 ) f (G).
h1
1  h2 = f (g1 )

Definition 4.2.5 Seien (G, ) und (H, ) Gruppen, sowie f : G H ein Gruppenhomomorphismus. Dann heit die Menge
Kern(f ) = {g G | f (g) = eH } G
der Kern von f .
Der Kern von f ist dasselbe wie das Urbild der neutralen Elements, d. h. Kern(f ) =
f 1 ({eH }).
Satz 4.2.6 Seien (G, ) und (H, ) Gruppen, sowie f : G H ein Gruppenhomomorphismus. Der Kern von f ist eine Untergruppe von G.
ugt es zu u
ufen, ob f
ur alle Element
Beweis. Aufgrund von Proposition 4.1.6 gen
berpr
1
g1 , g2 Kern(f ) gilt, dass dann auch g1 g2 in Kern(f ) liegt. Daf
ur rechnen wir
f (g11 g2 ) = f (g11 )  f (g2 ) = f (g1 )1  f (g2 ) = e1
H  eH = eH .
Satz 4.2.7 Seien (G, ) und (H, ) Gruppen. Ein Gruppenhomomorphismus
f : G H ist genau dann injektiv, wenn Kern(f ) = {eG } gilt.
Beweis. Wenn f injektiv ist, dann gilt f
ur alle Elemente g G mit g 6= eG , dass
f (g) 6= f (eG ) = eH . Somit ist eG das einzige Element, dass im Kern liegt, d. h. Kern(f ) =
{eG }.

43


4.3. RINGE UND KORPER

KAPITEL 4. ALGEBRAISCHE STRUKTUREN

Die R
uckrichtung zeigen wir durch einen Widerspruchsbeweis. Wir nehmen also an
es gelte Kern(f ) = {eG } und f ist nicht injektiv. Letzteres bedeutet, dass es Elemente
g1 , g2 G gibt f
ur die gilt: g1 6= g2 , aber f (g1 ) = f (g2 ). Durch Verkn
upfen von links mit
f (g1 )1 erhalten wir
f (g1 )1  f (g1 ) = f (g1 )1  f (g2 )
eH = f (g11 )  f (g2 ) = f (g11 g2 )
Somit liegt also das Element g11 g2 im Kern von f . Da nach Annahme g1 6= g2 ist
g11 g2 6= eG , was im Widerspruch zur Annahme Kern(f ) = {eG } steht.
Aufgrund von Proposition 4.2.2i gilt immer f (eG ) = eH , das heit eG liegt immer im Kern
eines Homomorphismus. Man sagt deshalb, dass der Kern trivial ist, wenn er nur das
Element eG enth
alt.

4.3. Ringe und K


orper
In der Definition einer Gruppe kommt nur eine Verkn
upfung vor. Da die bekannten
Zahlenmengen aber zwei Verkn
upfungen haben, benotigen wir weitere Begriffe.
Definition 4.3.1 Ein K
orper (K, +, ) ist Tripel bestehend aus einer Menge K mit
zwei Verkn
upfungen
+:K K K
(x, y) 7 x + y

:K K K
(x, y) 7 x y

so dass gilt:
i. (K, +) ist eine abelsche Gruppe. Das neutrale Element heit 0 und das zu x inverse
Element heit x.
ii. (K\{0}, ) ist eine abelsche Gruppe. Das neutrale Element heit 1 und das zu x
inverse Element heit x1 = x1 .
iii. F
ur alle x, y, z K gilt: (x + y) z = x z + y z (Distributivgesetz).

Bemerkung 4.3.2 Es gilt 0 x = x 0 = 0 f


ur alle x K. Das konnen wir zeigen
mithilfe der Rechnung
x 0 = x (0 + 0) = x 0 + x 0
Durch Addition des Elements x 0, das zu x 0 invers ist, erhalten wir:
0 = x 0 x 0 = (x 0 + x 0) x 0 = x 0
Die Kommutativit
at liefert dann auch 0 x = 0.
Wir verwenden die Konvention Punktrechnung geht vor Strichrechnung, das heit
a b + c = (a b) + c 6= a (b + c).

44


4.3. RINGE UND KORPER

KAPITEL 4. ALGEBRAISCHE STRUKTUREN

Proposition 4.3.3 In einem K


orper K gilt immer: Wenn a b = 0, dann ist entweder
a = 0 oder b = 0. Man sagt ein Korper ist nullteilerfrei.
Beweis. Wenn a = 0 ist, dann sind wir fertig, also nehmen wir an es gilt a 6= 0. Dann
besitzt a ein Inverses bez
uglich der Multiplikation a1 mit dem wir die Gleichung ab = 0
multiplizieren:
ab=0

Beispiel 4.3.4

a1 (a b) = a1 0

(a1 a) b = 0

b=1b=0

(Q, +, ) und (R, +, ) sind Korper.

Die Menge F2 := {0, 1} mit den Verkn


upfungen
+ 0 1
0 0 1
1 1 0

0 1
0 0 0
1 0 1

ist ein K
orper.

Definition 4.3.5 Seien K, L K


orper. Ein K
orperhomomorphismus ist ein Abbildung f : K L, f
ur die gilt:
f (k1 + k2 ) = f (k1 ) + f (k2 )

f (k1 k2 ) = f (k1 ) f (k2 )

Ein Korperhomomorphismus ist also ein Gruppenhomomorphismus f


ur die additive Gruppe
(K, +) und f
ur die multiplikative Gruppe (K\{0}, . Insbesondere gilt also f (1K ) = 1L und
f (0K ) = 0L .
Definition 4.3.6 Ein Ring (R, +, ) ist eine Menge R zusammen mit zwei Verkn
upfungen
+:RRR
(x, y) 7 x + y

:RRR
(x, y) 7 x y

so dass gilt:
i) (R, +) ist eine abelsche Gruppe. Das neutrale Element heit 0 und das zu x inverse
Element heit x.
ii) F
ur alle x, y, z R gilt: (x y) z = x (y z) (Assoziativgesetz).
iii) F
ur alle x, y, z R gilt: (x + y) z = x z + y z (Distributivgesetz).
iv) Der Ring heit kommutativ, wenn das Kommutativgesetz gilt: x y = y x f
ur
alle x, y R.
v) Ein Ring heit mit Eins, wenn ein neutrales Element 1 f
ur die Multiplikation
existiert, also x 1 = 1 x = x f
ur alle x R.

45

KAPITEL 4. ALGEBRAISCHE STRUKTUREN

Beispiel 4.3.7

4.4. POLYNOME

(Z, +, ) ist ein kommutativer Ring mit Eins.

Jeder K
orper ist ein kommutativer Ring mit Eins.

Definition 4.3.8 Seien R, S Ringe. Ein Ringhomomorphismus ist eine Abbildung f :


R S, f
ur die gilt:
f (r1 + r2 ) = f (r1 ) + f (r2 )

f (r1 r2 ) = f (r1 ) f (r2 )

Definition 4.3.9 Ein Ring R heit nullteilerfrei, wenn f


ur alle Elemente r, s R gilt,
dass aus r s = 0 folgt, dass r = 0 oder s = 0 gilt.

Definition 4.3.10 Sei R ein Ring mit 1, dann heit die Menge
R := {a R | b R, so dass, a b = b a = 1}
Menge der Einheiten in R.

Beispiel 4.3.11

Z = {1, 1}

Sei K ein K
orper, dann ist K = K\{0}.

Proposition 4.3.12 Sei R ein Ring mit 1, dann ist (R , ) eine Gruppe.
Beweis. Das neutrale Element in R ist die 1, da 1 1 = 1.
Wenn a R , dann gibt es ein b R, so dass a b = b a = 1 und damit liegt auch b R
und ist das zu a inverse Element.
Das Assoziativgesetz u
agt sich direkt aus den Rechengesetzen im Ring R.
bertr
Die Menge der Einheiten ist abgeschlossen, denn wenn a, a0 R , dann gibt es b, b0 R ,
so dass a b = a0 b0 = 1 und damit gilt (a a0 ) (b0 b) = a a0 b0 b = a 1 b = a b = 1.

4.4. Polynome
Definition 4.4.1 Sei K eine K
orper, dann heit ein formaler Ausdruck der Form
p(t) := an tn + an1 tn1 + + a1 t + a0

46

KAPITEL 4. ALGEBRAISCHE STRUKTUREN

4.4. POLYNOME

Polynom in der Unbekannten t mit Koeffizienten aus K. Wir bezeichnen die Menge
aller Polynome mit
K[t] := {p(t) | p(t) ist ein Polynom in t mit Koeffzienten aus K}.
Sei p(t) ein Polynom mit dem Koeffizienten an =
6 0 und ak = 0 f
ur alle k > n, dann ist n
der Grad von p
deg p = n.
Ein Polynom vom Grad n heit normiert, wenn an = 1.

Definition 4.4.2 Sei p K[t] ein Polynom, dann heit K Nullstelle von p, falls
gilt
p() = 0.

Proposition 4.4.3 Sei p K[t] ein Polynom und K eine Nullstelle von p. Dann
gibt es ein Polynom q K[t] vom Grad deg q = deg p 1, so dass gilt:
p(t) = (t )q(t).

Definition 4.4.4 Ein Polynom der Form (t ) nennen wir einen Linearfaktor.
Sei p K[t] ein Polynom, wir sagen dass p in Linearfaktoren zerf
allt, wenn es
1 , . . . , n K gibt, so dass gilt:
p(t) = an (t 1 ) . . . (t n ).
Dabei ist n = deg p.
Wenn ein Polynom in Linearfaktoren zerfallt, dann sind seine Nullstellen durch i (i =
1, . . . , n) gegeben, die nicht zwangslaufig verschieden sind.
Definition 4.4.5 Sei p K[t] ein Polynom und K eine Nullstelle von p. Wir sagen,
dass eine Nullstelle der Vielfachheit k ist, wenn es ein Polynom q K[t] gibt, so
dass
p(t) = (t )k q(t)
gilt, wobei keine Nullstelle von q(t) ist, das heit q() 6= 0.
Wenn ein Polynom in Linearfaktoren zerfallt, dann schreiben wir es meistens in der Form
p(t) = an (t 1 )k1 . . . (t r )kr ,

47

KAPITEL 4. ALGEBRAISCHE STRUKTUREN

4.4. POLYNOME

wobei die Nullstellen i paarweise verschieden sind. In dieser Schreibweise kann man direkt
die Vielfachheiten der jeweiligen Nullstellen ablesen.
Definition 4.4.6 Sei p K[t] ein Polynom vom Grad deg p 1. Wir sagen, dass p
u
ber K irreduzibel ist, wenn es nicht als Produkt zweier Polynome p1 , p2 K[t] mit
deg p1 < deg p und deg p2 < deg p geschrieben werden kann.
Wichtig bei dieser Definition ist, dass sie vom Korper K abhangt.
Beispiel 4.4.7 Ein Linearfaktor ist immer irreduzibel.
Polynome vom Grad 2 und 3 sind genau dann irreduzibel, wenn sie keine Nullstellen
besitzen.
Ein Polynom vom Grad 4 oder hoher kann hingegen auch dann nicht irreduzibel sein,
wenn es keine Nullstellen besitzt. So ist zum Beispiel das Polynom p(t) = t4 + 1 u
ber
dem K
orper Q irreduzibel, wohingegen es u
ber
R
in
zwei
irreduzible
Faktoren
vom
Grad

2 zerfallt

t4 + 1 = (t2 + 2t + 1)(t2 2t + 1)
und u
ber C sogar in Linearfaktoren zerfallt.

t4 + 1 = (t 2(1 + i))(t 2(1 i))(t 2(1 + i))(t 2(1 i))

Proposition 4.4.8 Sei f K[t] ein normiertes Polynom vom Grad 2


f (t) = t2 + pt + q,
p, q K. Dann hat dieses Polynom die Nullstellen
r
r
p
p2
p
p2
1 = +
q 2 =
q.
2
4
2
4
Diese liegen in K, vorausgesetzt die Zahl D = p2 4q ist ein Quadrat in K, das heit es
gibt eine Zahl x K, so dass x2 = D.
Beweis. Wir m
ussen nachrechnen, dass (t 1 )(t 2 ) = f (t) gilt um zu zeigen, dass 1
und 2 Nullstellen von f sind:
(t 1 )(t 2 ) = t2 (1 + 2 )t + 1 2
!
r
r
2
2
p
p
p
p
q
q t+
= t2 +
2
4
2
4
!2
r
 p p
 p 2
2
p
= t2
t+

q
2 2
2
4

p
+
2

p2
q
4

p

2

p2
q
4

= t2 + pt + q = f (t).

48

KAPITEL 4. ALGEBRAISCHE STRUKTUREN

4.4. POLYNOME

Es gibt ahnlich Formeln, die cardanischen Formeln, f


ur die Berechnung von Nullstellen von
Polynomen dritten und vierten Grades. Allerdings sind diese Formeln bereits so kompliziert,
dass sie praktisch keine Bedeuting haben. F
ur Polynome hoheren Grades hingegen gibt es
keine allgemeine L
osungsformel.
Beispiel 4.4.9 Wenn f (t) = t2 + pt + q R[t] ein normiertes Polynom vom Grad 2 ist,
dann hat diese Polynom entweder zwei verschiedene reelle Nullstellen, wenn p2 4q > 0
ist. Es hat eine reelle Nullstelle der Vielfachheit 2, wenn p2 4q = 0 ist. Ist hingegen
p2 4q < 0, dann ist das Polynom u
ber R irreduzibel, hat aber u
ber C zwei zueinander
konjugierte Nullstellen.
Die Beobachtung, dass sich die Koeffizienten eines Polynoms mithilfe der Nullstellen
ausdr
ucken lassen motiviert die folgende Definition
Definition 4.4.10 Sei p K[t] ein normiertes Polynom vom Grad n
p(t) = tn + an1 tn1 + + a1 t + a0 .
Dann nennen wir Norm und Spur des Polynoms die folgenden Ausdr
ucke:
Norm(p) = (1)n a0

Spur(p) = an1 .

Satz 4.4.11 Sei p K[t] ein normiertes Polynom vom Grad n mit den Nullstellen
1 , . . . , n (die eventuell auch in einem groeren Korper L mit K L liegen konnen),
dann gilt:
Norm(p) = 1 . . . n
Spur(p) = 1 + . . . + n .

Beweis.
Dieser Satz hat eine wichtige Konsequenz f
ur Polynome deren Koeffizienten in Z liegen.
Wenn dieses Polynom alle Nullstellen in Z hat, dann sind diese Nullstellen ein Teiler des
konstanten Terms a0 .
Beispiel 4.4.12 Wir betrachten das Polynom p(t) = t3 + 3t2 + 5t + 3 Z[t] Kandidaten
f
ur ganzzahlige Nullstellen sind 1 und 3. Durch Probieren erhalten wir p(1) = 0.
Also konnen wir schreiben p(t) = (t + 1)q(t), wobei q(t) ein Polynom vom Grad 2 ist.
Um dieses Polynom zu bestimmen verwenden wir Polynomdivision:
(t3 +
(t3 +

3t2
+
2
t )
2t2 +
(2t2 +

5t

+ 3) : (t + 1) = t2 + 2t + 3

5t
2t)
3t + 3
(3t + 3)

49

5. Zahlenmengen
Nachdem wir bisher eher abstrakt mit Mengen und Abbildungen hantiert haben wollen wir
in diesem Kapitel die wichtigsten Zahlenmengen, die bereits aus der Schule bekannt sind,
genauer anschauen. Auerdem werden wir zwei Mengen kennenlernen, die interessante
Eigenschaften haben und uns deshalb ofter begegnen werden.

5.1. Die natu


rlichen Zahlen
Kronecker sagte:
Die nat
urlichen Zahlen sind gottgegeben, alles andere ist Menschenwerk.

Definition 5.1.1 (Die Peano-Axiome)


Die natu
rlichen Zahlen bilden eine Menge N in der ein Element 0 existiert und es eine
Abbildung s : N N gibt, so dass gilt:
i) s ist injektiv,
ii) 0
/ s(N),
iii) f
ur jede Menge M N mit den Eigenschaften
a) 0 M
b) s(M ) M
gilt: M = N.
Wir nennen den Nachfolger der Zahl 0 die Eins 1 := s(0) und konnen so eine Vorschrift f
ur
die Abbildung s (engl. successor=Nachfolger) angeben
s:NN
n 7 n + 1.
Somit lassen sich alle Elemente aus N durch sukzessives Anwenden der Nachfolgerabbildung
s konstruieren, n := (s s s s s)(0) = 1 + 1 + + 1.
|
{z
}
|
{z
}
nmal

nmal

Direkt aus den Peano-Axiomen erhalten wir das wichtige Beweisprinzip der vollstandigen
Induktion.
Satz 5.1.2 (Beweisprinzip der vollst
andigen Induktion)
Sei A(n) eine Aussage u
urliche Zahl n. Es gelte:
ber eine nat
i) Der Induktionsanfang: A(0) ist wahr.

50


5.1. DIE NATURLICHEN
ZAHLEN

KAPITEL 5. ZAHLENMENGEN

iI) Der Induktionsschritt: F


ur alle n N gilt: wenn A(n) wahr ist, dann ist auch
A(n + 1) wahr.
Dann ist A(n) wahr f
ur alle n N.
Beweis. Der Beweis folgt direkt aus Punkt iii) in Definition 5.1.1, wobei wir die Menge
M = {n N | A(n) ist wahr} betrachten. Aus i) folgt, dass 0 M und somit a). Aus der
Forderung ii) folgt, dass s(M ) M ist und damit Punkt b). Somit ist M = N und die
Aussage A(n) ist f
ur alle n N wahr.
Bemerkung 5.1.3 Der Induktionsanfang muss nicht immer null sein. Normalerweise
wahlt man die kleinste Zahl n0 N, so dass A(n0 ) wahr ist.

Notation 5.1.4 Zur einfacheren und kompakteren Schreibung von Summen und Produkten, verwenden wir folgende Bezeichnungen:
n
X
i=n0
n
Y

ai := an0 + an0 +1 + . . . + an
ai := an0 an0 +1 . . . an

i=n0

Beispiel 5.1.5 Wir beweisen die Formel f


ur die Summe der ersten n nat
urlichen Zahlen.
Sei also
n
X
n(n + 1)
.
A(n) :
i = 1 + 2 + 3 + ... + n =
2
i=1

F
ur den Beweis pr
ufen wir zun
achst den Induktionsanfang und wahlen daf
ur n = 1. Wir
m
ussen also zeigen, dass A(1) wahr ist, d. h. ob die Formel stimmt, wenn wir f
ur n = 1
setzen. Dies ist richtig, da
1
X
i=1

i=1

und ebenso

1(1 + 1)
= 1.
2

Nun nehmen wir an, dass die Formel A(n) f


ur ein beliebiges (aber festes) n N wahr ist

51


5.1. DIE NATURLICHEN
ZAHLEN

KAPITEL 5. ZAHLENMENGEN

und folgern daraus, dass sie auch f


ur den Nachfolger n + 1 stimmt. Daf
ur rechnen wir:
n+1
X

i=

i=1

n
X

i + (n + 1)

Aufspalten der Summe

i=1

n(n + 1)
+ (n + 1)
Verwenden der Voraussetzung, dass A(n) wahr ist
2
n(n + 1) + 2(n + 1)
=
Hauptnenner bilden
2
(n + 1)(n + 2)
=
(n + 1) ausklammern
2
P
(n+1)(n+2)
Insgesamt gilt also n+1
, was wir auch erhalten, wenn wir A(n + 1)
i=1 i =
2
ausrechnen. Somit ist der Induktionsschritt bewiesen und die Formel A(n) gilt f
ur alle
n 1.
=

Definition 5.1.6 Wir definieren zwei Verkn


upfungen auf N durch
+:NNN

:NNN

(n, m) 7 n + m = 1 + 1 + + 1
|
{z
}
n+mmal

(n, m) 7 n m = 1 + 1 + + 1
{z
}
|
nmmal

Proposition 5.1.7 F
ur die Verkn
upfungen + und auf N gilt:
das Assoziativgesetz
das Kommutativgesetz
das Distributivgesetz
0 ist das neutrale Element der Addition
1 ist das neutrale Element der Multiplikation
Aber es gibt f
ur beide Verkn
upfungen keine inversen Element in N, somit ist N mit keiner
Verkn
upfung eine Gruppe und daher auch kein Ring.

Proposition 5.1.8 Die Relation auf N, die durch


nm

c N, s. d. n + c = m

definiert ist, ist eine totale Ordnungsrelation.


Beweis. Wir zeigen die Eigenschaften einer Ordnungsrelation
i. Reflexivit
at: da n + 0 = n gilt n n.

52

KAPITEL 5. ZAHLENMENGEN

5.2. DIE GANZEN ZAHLEN

ii. Transitivit
at: Sei n m und m p, dann gibt es c1 , c2 N, so dass n + c1 = m und
m + c2 = p. Daraus folgt, dass n + (c1 + c2 ) = p und somit n p.
iii. Antisymmetrie: Aus n m und m n, folgt dass n + c1 = m und m + c2 = n und
somit n + c1 + c2 = n. Da c1 , c2 N muss also c1 = c2 = 0 sein um diese Gleichung
zu erf
ullen. Und daher ist n = m.
Die Ordnung ist total, da entweder n + c = m gilt oder m + c = n und somit zwei nat
urliche
Zahlen immer vergleichbar sind.
Definition 5.1.9 Sei M eine Menge und f : M N eine Bijektion. Dann nennt man
die Machtigkeit der Menge M abz
ahlbar unendlich.
Insbesondere sind die nat
urlichen Zahlen selbst abzahlbar unendlich.

5.2. Die ganzen Zahlen


Da in N keine Inversen bez
uglich der Addition enhalten sind, lassen sich nicht alle Gleichungen der Form a + x = b, mit gegebenen a, b N losen. Um dieses Problem zu beheben
definieren wir die ganzen Zahlen.
Definition 5.2.1 Sei 1 die Losung der Gleichung 1 + x
n := (1) + (1) + + (1). Die Menge
{z
}
|

0 und sei

nmal

Z := {. . . , 3, 2, 1, 0, 1, 2, 3, . . . }
heit die Menge der ganzen Zahlen.
Wir setzen die Verkn
upfungen + und auf die ganzen Zahlen fort.

Proposition 5.2.2 (Z, +, ) ist ein kommutativer nullteilerfreier Ring.

Bemerkung 5.2.3 Die Notwendigkeit die ganzen Zahlen zu betrachten entsteht sobald
wir Differenzen nat
urlicher Zahlen berechnen wollen. So ist zum Beispiel 2 = 3 5.
Allerdings ist dies nicht die einzige Moglichkeit die Zahl 2 als Differenz nat
urlicher
Zahlen zu schreiben, weitere M
oglichkeiten sind
2 = 1 3 = 7 9 = 1000 1002.
Allgemein gilt: Wenn eine ganze Zahl z die Differenz von m und n ist, dann gilt auch
z = m n = (m + a) (n + a),
wobei a N eine beliebige Zahl ist.

53

KAPITEL 5. ZAHLENMENGEN

5.2. DIE GANZEN ZAHLEN

Dies motiviert die alternative und formal korrektere Methode die ganzen Zahlen mithilfe

von Aquivalenzrelationen
aus N zu konstruieren.
Daf
ur betrachten wir das kartesische Produkt N N und definieren darauf eine

Aquivalenzrelation
(m, n) (m0 , n0 ) : m + n0 = m0 + n.

Die ganzen Zahlen werden nun als Menge der Aquivalenzklassen


definiert:
Z := (N N)/
Wir stellen zun
achst fest, dass f
ur eine feste Zahl a N immer
(m, n) (m + a, n + a),

da

m + (n + a) = (m + a) + n

gilt. Somit liegen zwei Zahlenpaare (m, n) und (m0 , n0 ) genau dann in der selben

Aquivalenzklasse,
wenn ihre Differenz gleich ist
m n = m0 n0 .

Auf der Menge der Aquivalenzklassen


wollen wir nun eine Addition und eine Multiplikation definieren.
+:

ZZZ

(m1 , n1 ), (m2 , n2 ) 7 (m1 , n1 ) + (m2 , n2 ) := (m1 + m2 , n1 + n2 ),
ZZZ

(m1 , n1 ), (m2 , n2 ) 7 (m1 , n1 ) (m2 , n2 ) := (m1 m2 + n1 n2 , m1 n2 + n1 m2 ).

Warum diese Verkn


upfungen so definiert werden m
ussen, sieht man, wenn man die
Zahlen m1 n1 und m2 n2 miteinander addiert, bzw multipliziert
(m1 n1 ) + (m2 n2 ) = (m1 + m2 ) (n1 + n2 ).
Der positive Teil des Ergebnisses entspricht der ersten Komponente von (m1 , n1 )+(m2 , n2 )
und der negative Teil der zweiten Komponente. F
ur die Multiplikation erhalten wir
(m1 n1 ) (m2 n2 ) = (m1 m2 + n1 n2 ) (m1 n2 + n1 m2 ).
Der positive Teil des Ergebnisses entspricht der ersten Komponente von (m1 , n1 )(m2 , n2 )
und der negative Teil der zweiten Komponente.
Beide Verkn
upfungen sind wohldefiniert. Um dies zu zeigen seien
(m1 , n1 ) (m01 , n01 ),
(m2 , n2 )

(m02 , n02 ),

m1 + n01 = m01 + n1
m2 +

n02

m02

+ n2 .

(5.1)
(5.2)

F
ur die Wohldefiniertheit der Addition m
ussen wir jetzt zeigen, dass gilt:
(m1 , n1 ) + (m2 , n2 ) (m01 , n01 ) + (m02 , n02 )

(m1 + m2 , n1 + n2 ) (m01 + m02 , n01 + n02 )

(m1 + m2 ) + (n01 + n02 ) = (m01 + m02 ) + (n1 + n2 )

(5.3)

54

KAPITEL 5. ZAHLENMENGEN

5.2. DIE GANZEN ZAHLEN

Daf
ur gen
ugt es die Gleichungen (5.1) und (5.2) zu addieren um
(m1 + n01 ) + (m2 + n02 ) = (m01 + n1 ) + (m02 + n2 )
(m1 + m2 ) + (n01 + n02 ) = (m01 + m02 ) + (n1 + n2 )
zu erhalten. Dies entspricht aber genau Gleichung (5.3).
F
ur die Wohldefiniertheit der Multiplikation m
ussen wir zeigen, dass gilt:
(m1 , n1 ) (m2 , n2 ) (m01 , n01 ) (m02 , n02 )

(m1 m2 + n1 n2 , m1 n2 + n1 m2 ) (m01 m02 + n01 n02 , m01 n02 + n01 m02 )

(m1 m2 + n1 n2 ) + (m01 n02 + n01 m02 ) = (m01 m02 + n01 n02 ) + (m1 n2 + n1 m2 )

(5.4)

Daf
ur multiplizieren wir (5.1) und (5.2), addieren auf beiden Seiten der Gleichung den
Term n01 n02 + n1 n2 und erhalten so
(m1 + n01 ) (m2 + n02 ) = (m01 + n1 ) (m02 + n2 )

m1 m2 + m1 n02 + n01 m2 + n01 n02 = m01 m02 + m01 n2 + n1 m02 + n1 n2

(m1 m2 + m1 n02 + n01 m2 + n01 n02 ) + (n01 n02 + n1 n2 ) =


(m01 m02 + m01 n2 + n1 m02 + n1 n2 ) + (n01 n02 + n1 n2 )
m1 m2 + n1 n2 + n01 (m2 + n02 ) + (n01 + m1 )n02 = m01 m02 + n01 n02 + (m01 + n1 )n2 + n1 (m02 + n2 )

Nun verwenden noch einmal die Gleichungen (5.1) und (5.2) und die Ausdr
ucke in den
Klammern zu ersetzen und erhalten somit
m1 m2 + n1 n2 + n01 (m02 + n2 ) + (n1 + m01 )n02 = m01 m02 + n01 n02 + (m1 + n01 )n2 + n1 (m2 + n02 )

m1 m2 + n1 n2 + n01 m02 + n01 n2 + n1 n02 + m01 n02 = m01 m02 + n01 n02 + m1 n2 + n01 n2 + n1 m2 + n1 n02

im letzten Schritt subtrahieren wir auf beiden Seiten n01 n2 n02 n1 wodurch wir
m1 m2 + n1 n2 + n01 m02 + m01 n02 = m01 m02 + n01 n02 + m1 n2 + n1 m2
erhalten. Dies entspricht aber nach Umsortieren genau Gleichung (5.4).
Wir konnen nun nachrechnen, dass die Menge Z mit diesen Verkn
upfungen ein Ring
bildet. Dabei k
onnen wir im wesentlichen die Rechenregeln auf die Rechenregeln in den
nat
urlichen Zahlen N zur
uckf
uhren.
(Z, +) ist eine abelsche Gruppe
[(0, 0)]
ist
neutrales
[(m, n)] + [(0, 0)] = [(m + 0, n + 0)] = [(m, n)] gilt.

Element,

da

[(n, m)] ist das zu [(m, n)] inverse Element, da [(m, n)] + [(n, m)] =
[(m + n, n + m)] = [(0, 0)] gilt.
Es gilt das Kommutativgesetz, da [(m, n)] + [(m0 , n0 )] = [(m + m0 , n + n0 )] =
[(m0 + m, n0 + n)] = [(m0 , n0 )] + [(m, n)] aufgrund des Kommutativgesetzes in
N.
Es gilt das Assoziativgesetz, aufgrund des Assoziativgesetzes in N.
(Z, +, ) ist ein kommutativer Ring mit Eins
[(1, 0)] ist neutrales Element der
Multiplikation, da [(m, n)] [(1, 0)] = [(m 1 + n 0, m 0 + n 1)] = [(m, n)]
gilt.

55

KAPITEL 5. ZAHLENMENGEN

5.2. DIE GANZEN ZAHLEN

Satz 5.2.4 Z ist abz


ahlbar.
Beweis. Wir definieren eine Abbildung von N nach Z durch
f :NZ
n
n 7
2
n 7

wenn n gerade
n+1
2

wenn n ungerade

und behaupten, dass diese Abbildung eine Bijektion ist. Um dies zu zeigen verwenden wir
Satz 3.2.13 und definieren eine zu f inverse Abbildung:
g:ZN
m 7 2m

wenn m 0

m 7 (2m + 1)

wenn m < 0

Wir konnen nachrechnen, dass g f = idN , denn wenn n gerade ist, dann gilt g(f (n)) =
g( n2 ) = 2 n2 = n, da n2 0. Wenn n ungerade ist, dann ist g(f (n)) = g( n+1
2 ) =
n+1
2( 2 ) + 1 = n. Ebenso k
onnen wir pr
ufen, dass f g = idZ .
Definition 5.2.5
Seien n, m Z. Wir sagen n teilt m und schreiben n|m
genau dann, wenn es c Z gibt, so dass n c = m.
Seien n, m Z. d heit gr
oter gemeinsamer Teiler von n und m und wir
schreiben d = ggT(n, m), wenn d|n und d|m und auerdem muss gelten dass jede
Zahl d0 , f
ur die gilt d0 |n und d0 |m, dass dann auch d0 |d.
n, m Z heien teilerfremd, wenn ggT(n, m) = 1.
p Z heit prim, wenn aus n|p folgt, dass n = 1 oder n = p.

Proposition 5.2.6 Der gr


ote gemeinsame Teiler ist bis auf ein Vorzeichen eindeutig
bestimmt.
Beweis. Angenommen d1 und d2 sind grote gemeinsame Teiler der Zahlen n und m. Aus
der Definition des ggT folgt, dass dann sowohl d1 |d2 als auch d2 |d1 . Somit gibt es Zahlen
c1 , c2 Z f
ur die d1 c1 = d2 und d2 c2 = d1 gilt. Daraus folgt d2 c2 c1 = d2 , was
gleichbedeutend mit c1 c2 = 1 ist und daraus folgt, dass c1 = 1 und c2 = 1.
Satz 5.2.7 (Division mit Rest)
Sei a Z und b N, dann gibt es eindeutig bestimmte Zahlen q Z und
r {0, 1, 2, . . . , b 1} so dass gilt
a = q b + r.

(5.5)

56

KAPITEL 5. ZAHLENMENGEN

5.2. DIE GANZEN ZAHLEN

Beweis. Zun
achst zeigen wir die Existenz einer solchen Darstellung. Daf
ur betrachten wir
die Menge M = {x Z | a bx 0}, die ein grotes Element q besitzt. Wir setzen dann
r := abq, wodurch folgt, dass r 0, da q M . Es gilt aber auch r < q, denn angenommen
r q, dann w
are rq = abqq = aq(b+1) 0 im Widerspruch zur Definition von q als
maximales Element in M . Aus der Definition von r folgt die Existenz einer Darstellung (5.5).
Um die Eindeutigkeit dieser Darstellung zu zeigen, nehmen wir an es gabe zwei verschiedenen
Darstellung
a = q1 b + r1 = q2 b + r2 .
(5.6)
Wir konnen ohne Beschr
ankung der Allgemeinheit annehmen, dass r1 r2 ist (sonst
vertauschen wir die Rollen.) Aus Gleichung (5.6) folgt die Gleichung r2 r1 = b(q1 q2 )
und somit ist r2 r1 ein Vielfaches von b. Andererseits folgt aus 0 r1 r2 < b, dass
0 r2 r1 < b. Beides zusammen ist nur moglich, wenn r2 r1 = 0, woraus wiederum
q1 q2 = 0 folgt und damit die Behauptung.
Satz 5.2.8 (Euklidischer Algorithmus)
Seien a, b Z wobei a > b. Wir setzen r0 = a, r1 = b und definieren rekursiv Zahlen
rk+2 Z durch die Division mit Rest von rk durch rk+1 :
rk = qk rk+1 + rk+2 ,

wobei rk+2 < rk+1

Wenn rn+1 = 0 und rn 6= 0, dann ist rn = ggT(a, b).


Beweis. Zuerst bemerken wir, dass rk+1 < rk , wodurch die Folge der rk nach endlich vielen
Schritten null wird.
Um zu sehen, dass dieses Verfahren den groten gemeinsamen Teiler liefert, schreiben wir
einige Schritte hin
a = q1 b + r2

0 < r2 < b

(5.7)

b = q2 r2 + r3

0 < r3 < r2

(5.8)

r2 = q3 r3 + r4
..
.

0 < r4 < r3
..
.

(5.9)

rn3 = qn2 rn2 + rn1

0 < rn1 < rn2

(5.10)

rn2 = qn1 rn1 + rn

0 < rn < rn1

(5.11)

rn1 = qn rn + 0

(5.12)

Wenn d|a und d|b, dann gilt d|r2 , denn aus a = d ca und d cb folgt aus Zeile (5.7), dass
d (ca q1 cb ) = r2 gilt. Da wir nun wissen, dass d|r2 und d|b folgt aus Zeile (5.8), dass
auch d|r3 gilt. Auf diese Weise k
onnen wir sukzessive zeigen, dass d|rn . Also ist jeder Teiler
von a und b auch ein Teiler von rn .
Umgekehrt folgt aus Zeile (5.12), dass jeder Teiler von rn auch ein Teiler von rn1 ist. Aus
Zeile (5.11) folgt, dass Teiler von rn und rn1 auch rn2 teilen, etc. Letztendlich teilt also
rn auch a und b.

57

KAPITEL 5. ZAHLENMENGEN

5.2. DIE GANZEN ZAHLEN

Satz 5.2.9 Seien a, b Z und d = ggT(a, b). Dann gibt es Zahlen x, y Z f


ur die gilt:
ax + by = d.

Beweis. Der Beweis dieser Aussage erfolgt mithilfe des sogenannten erweiterten euklidischen Algorithmus. Wir verwenden daf
ur die Gleichungen (5.7)-(5.12) des euklidischen
Algorithmus und setzen diese ineinander ein.
Da d = rn ist erhalten wir aus Zeile (5.11) d = rn = rn2 qn1 rn1 . In dieser Gleichung
konnen rn1 durch Zeile (5.10) ersetzen und erhalten d = rn = rn2 qn1 rn1 =
rn2 qn1 (rn3 qn2 rn2 ), usw. Durch sukkessives Einsetzen aller Gleichungen bis hin
zu Zeile (5.7) erhalten wir einen Ausdruck in a und b.
Beispiel 5.2.10 Wir wollen den groten gemeinsamen Teiler der Zahlen a = 299 und
b = 104 bestimmen. Daf
ur rechnen wir
299 = 2 104 + 91
104 = 1 91 + 13
91 = 7 13 + 0
Somit ist also ggT(299, 104) = 13. Zur Bestimmung der Zahlen x und y aus Satz 5.2.9
beginnen wir mit der vorletzten Zeile und ersetzen im nachsten Schritt 91 durch die
erste Zeile:
13 = 104 91
= 104 (299 2 104) = 3 104 + (1) 299
Wichtig beim Berechnen der Zahlen x und y ist, dass immer nur die Ausdr
ucke vor den
Zahlen rk zusammengefasst werden d
urfen.

Satz 5.2.11 Sei a N und b N mit b > 1. Dann hat a eine eindeutige Darstellung
der Form
n
X
a=
ai bi
ai {0, 1, . . . , b 1}.
(5.13)
i=0

Beweis. Wir zeigen diese Aussage mithilfe vollstandiger Induktion f


ur alle a < bn+1 .
Induktionsanfang: Sei n = 0. Wir m
ussen die Aussage also f
ur alle a < b zeigen. In diesem
Fall ist a0 = a und ai = 0 f
ur alle i > 0. Diese Darstellung ist nach Satz 5.2.7 eindeutig.
Induktionsschritt: Wir nehmen an f
ur alle Zahlen a < bn konnen wir zeigen, dass es eine
Darstellung der Form (5.13) gibt. Wir m
ussen zeigen, dass es dann diese Darstellung
auch f
ur alle Zahlen a < bn+1 gibt. Um dies zu sehen teilen wir a durch b mit Rest,
d. h. a = qb + r, dabei ist 0 r < b und q < bn . Denn ware q bn , dann ware
a = qb+r qb bn b = bn+1 im Widerspruch zur Annahme. Nach Induktionsvoraussetzung

58

KAPITEL 5. ZAHLENMENGEN

5.2. DIE GANZEN ZAHLEN

P
i
hat q eine eindeutig bestimmte Darstellung der Form (5.13) q = n1
i=0 qi b . Durch Einsetzen
erhalten wir nun
n1
n
X
X
a = qb + r = (
qi bi )b + r =
ai bi
i=0

i=0

wobei a0 = r und ai+1 = qi .


Definition 5.2.12 Sei a N und b N mit b > 1. Die b-adische Darstellung von a
ist durch a = (an an1 . . . a1 a0 )b gegeben, wobei die ai durch Gleichung (5.13) definiert
sind.
F
ur b = 10 erhalten wir die u
bliche Dezimaldarstellung von Zahlen.
F
ur b = 2 heit a = (an an1 . . . a1 a0 )2 mit ai {0, 1} Binardarstellung.
F
ur b = 16 heit a = (an an1 . . . a1 a0 )16 mit ai {0, 1, . . . , 9, A, B, C, D, E, F } Hexadezimaldarstellung.

Beispiel 5.2.13 Wir wollen die Zahl 23 (in Dezimaldarstellung) als Binarzahl schreiben.
Daf
ur zerlegen wir 23 in Zweierpotenzen
23 = 16 + 4 + 2 + 1 = 1 24 + 0 23 + 1 22 + 1 21 + 1 20
und somit hat (23)10 die Bin
ardarstellung (10111)2 .
Alternativ erhalten wir diese Darstellung indem wir wie im Beweis zu Satz 5.2.11
vorgehen.
23 =11 2 + 1

= 11 2 + a0

11 =5 2 + 1

= 5 2 + a1

5 =2 2 + 1

= 2 2 + a2

2 =1 2 + 0

= 1 2 + a3

1 =0 2 + 1

= 0 2 + a4

Wir erhalten wenn wir die Reste von unten nach oben lesen wiederum die Binardarstellung
(a4 a3 a2 a1 a0 )2 = (10111)2 .
Um die Hexadezimaldarstellung zu berechnen gehen wir analog vor, nur dass wir jetzt
die Zahl als Summe von 16er Potenzen schreiben, bzw. eine Division mit Rest durch 16
durchf
uhren.
975 = 3 256 + 12 16 + 15 = 3 162 + 12 161 + 15 160
und somit erhalten wir die Hexadezimaldarstellung (975)10 = (3CF )16 . Wir haben dabei
die Symbole A = 10, B = 11, C = 12, D = 13, E = 14, F = 15 verwendet.
Wir erhalten dasselbe Ergebnis wenn wir rechnen
975 = 60 16 + 15

= 60 16 + F

60 = 3 16 + 12

= 3 16 + C

3 = 0 16 + 3

= 0 16 + 3

59

KAPITEL 5. ZAHLENMENGEN

5.3. DIE RATIONALEN ZAHLEN

5.3. Die rationalen Zahlen


Da in Z keine Inversen bez
uglich der Multiplikation enhalten sind, lassen sich nicht alle
Gleichungen der Form a x = b, mit gegebenen a, b Z losen. Um dieses Problem zu
beheben definieren wir die rationalen Zahlen.
Definition 5.3.1 Auf der Menge Z Z\{0} definieren wir eine Relation durch
(p, q) (p0 , q 0 )

pq 0 = p0 q.

Proposition 5.3.2 Die Relation auf der Menge Z Z\{0} ist eine Aquivalenzrelation.
Beweis. Die Relation ist
reflexiv: es gilt pq = pq und somit ist (p, q) (p, q)
symmetrisch: es gilt pq 0 = p0 q = pq 0 und somit gilt (p, q) (p0 , q 0 ) genau dann wenn
(p0 , q 0 ) (p, q).
transitiv: Wenn (p, q) (p0 , q 0 ) und (p0 , q 0 ) (p00 , q 00 ) gilt, dann bedeutes dies pq 0 = p0 q
und p0 q 00 = p00 q 0 . Durch Multiplikation dieser Gleichungen mit q 00 , bzw q erhalten wir
pq 0 q 00 = p0 qq 00

p0 q 00 q = p00 q 0 q

pq 0 q 00 = p00 q 0 q

pq 00 = p00 q

Und daher ist (p, q) (p00 , q 00 ). Im letzten Schritt verwenden wir, dass q 6= 0 und dass
der Ring der ganzen Zahlen nullteilerfrei ist.

Definition 5.3.3 Die Menge der Aquivalenzklassen


der Relation auf der Menge
Z Z\{0} heit Menge der rationalen Zahlen
Q := Z Z\{0}/ = {[(p, q)] | p, q Z, q 6= 0}.
Wir schreiben

p
q

f
ur die Aquivalenzklasse
[(p, q)].

Wir wollen hier erkl


aren, warum es notwendig ist die rationalen Zahlen mithilfe der

Aquivalenzrelation
zu erkl
aren. Auf dem ersten Blick konnte man die rationalen Zahlen als
geordnetes Paar von ganzen Zahlen (Zahler, Nenner) definieren, wobei der Nenner nicht
null werden darf. Allerdings ist das geordnete Paar (1, 2) ungleich dem geordneten Paar
(2, 4). Als Bruch hingegen sind diese beiden Elemente gleich 12 = 24 , da man den zweiten
Bruch k
urzen kann und so den ersten erhalt.
Genau diese Eigenschaft der rationalen Zahlen, dass man durch K
urzen oder Erweitern

dieselbe Zahl erh


alt, steckt nun in der Aquivalenzrelation. Denn sind zwei Br
uche gleich,
dann erhalten wir durch Multiplikation mit beiden Nennern
p
p0
= 0
q
q

pq 0 = p0 q

60

KAPITEL 5. ZAHLENMENGEN

5.3. DIE RATIONALEN ZAHLEN

also die Aquivalenzrelation.


In der Aquivalenzklasse
eines Bruches pq liegen also alle Br
uche,
p

die man durch K


urzen oder Erweitern aus q erhalt. Jedes Element der Aquivalenzklasse
ist dann eine andere Darstellung desselben Elements aus Q.
Definition 5.3.4 Wir definieren auf der Menge Q zwei Verkn
upfungen
+:QQQ
p1 p2
p1 p2
p q + p 2 q1
:= 1 2
( , ) 7
+
q1 q2
q1
q2
q1 q2
und eine Relation

:QQQ
p1 p2
p1 p2
p p
:= 1 2
( , ) 7

q1 q2
q1 q2
q1 q2

p1
p2

p1 q2 p2 q1 .
q1
q2

Satz 5.3.5 (Q, +, ) ist ein K


orper mit einer Totalordnung .
Beweis. Wir zeigen zun
achst die Wohldefiniertheit der Verkn
upfungen. Der Begriff Wohldefi
niertheit bedeutet f
ur Verkn
upfungen, die auf Aquivalenzklassen
definiert sind, insbesondere,

dass es egal ist, welchen Repr


asentanten der Aquivalenzklasse man wahlt.
Seien also (p1 , q1 ) (p01 , q10 ) zwei Reprasentanten desselben Bruches, sowie (p2 , q2 ) (p02 , q20 ).
Somit gilt
p1 q10 = p01 q1

(5.14)

p2 q20

(5.15)

p02 q2

Wir wollen zeigen, dass nun auch (p1 , q1 )+(p2 , q2 ) (p01 , q10 )+(p02 , q20 ) und (p1 , q1 )(p2 , q2 )
(p01 , q10 ) (p02 , q20 ).
Um die Wohldefiniertheit der Addition zu zeigen, addieren wir die Gleichungen (5.14) und
(5.15) und erhalten
p1 q10 + p2 q20 = p01 q1 + p02 q2

(p1 , q1 ) + (p2 , q2 ) = (p1 + p2 , q1 + q2 ) (p01 + p02 , q10 + q20 ) = (p01 , q10 ) + (p02 , q20 )
F
ur die Wohldefiniertheit der Multiplikation multiplizieren wir Gleichung (5.14) mit q2 q20
und Gleichung (5.14) mit q1 q10 und addieren diese
(p1 q10 )(q2 q20 ) = (p01 q1 )(q2 q20 )

und

(p2 q20 )(q1 q10 ) = (p02 q2 )(q1 q10 )

p1 q10 q2 q20 + p2 q20 q1 q10 = p01 q1 q2 q20 + p02 q2 q1 q10

(p1 q2 + p2 q1 )q10 q20 = (p01 q20 + p02 q10 )q1 q2

Die letzte Zeile bedeutet aber genau, dass gilt


(p1 , q1 ) (p2 , q2 ) = (p1 q2 + p2 q1 , q1 q2 ) (p01 q20 + p02 q10 , q10 q20 ) = (p01 , q10 ) (p02 , q20 ).
Nun bleibt zu zeigen, dass (Q, +, ) ein Korper ist.
(Q, +) ist eine abelsche Gruppe:

61

KAPITEL 5. ZAHLENMENGEN

0
1

p
q

5.4. DIE REELLEN ZAHLEN

ist das neutrale Element, da


ist das zu

p
q

p
q

0
1

inverse Element, da

=
p
q

p1+0q
q1

p
q

p
q

gilt.

pq+(p)q
qq

0
qq

= 01 .

Das Kommutativgesetz und das Assoziativgesetz folgt direkt aus den entsprechenden Gesetzen in Z.
(Q\{ 10 }, ) ist eine abelsche Gruppe:

1
1
q
p

ist das neutrale Element, da


ist das zu

p
q

inverse Element,

p
q

p1
p
1
1 = q1 = q gilt.
1
da pq pq = pq
qp = 1 .

Das Kommutativgesetz und das Assoziativgesetz folgt direkt aus den entsprechenden Gesetzen in Z.
Das Distributivgesetz folgt direkt aus dem entsprechenden Gesetz in Z.
Satz 5.3.6 Q ist abz
ahlbar.
ur die rationalen Zahlen (wir schreiben ein
Beweis. Wir verwenden folgende Schreibweise f
mogliches Minuszeichen immer in den Nenner):
na
o
Q=
| a Z und b N>0 .
b
Um die Bijektion zu konstruieren legen wir folgendes Schema zugrunde:
. . . 3 2 1 0

...

...

3
1

2
1

1
1

0
1

1
1

2
1

3
1

...

...

3
2

2
2

1
2

0
2

1
2

2
2

3
2

...

...
.
..

3
3

2
3

1
3

0
3

1
3

2
3

3
3

..
.

..
.

..
.

..
.

..
.

..
.

..
.

...
..
.

In der oberen Zeile stehen die Werte des Zahlers und in der linken Spalte die des Nenners.
Der Eintrag in der m-ten Spalte (die nullte ist die mittlere) und der n-ten Zeile ist m
n . So
sind alle Elemente von Q enthalten. Weil jeder Bruch unendlich viele Darstellungen besitzt
und jede dieser Darstellungen in dieser Tabelle vorkommt, ist sogar jedes Element von Q
unendlich oft enthalten. Die Forderung, dass die Abbildung bijektiv ist, jedes Element also
nur einmal getroffen wird, muss besonders ber
ucksichtigt werden. Die Abbildung verlauft
im Halbkreiszickzack von 0 nach auen:
f : N Q, 0 7 0, 1 7

1
1
1
1
2
2
1
, 2 7
, 3 7 , 4 7 , 5 7 , 6 7 , 7 7
1
2
2
1
1
3
3

Eigentlich h
atte man 6 7 22 abbilden m
ussen, aber da
da er bereits getroffen wurde.

2
2

1
1

wird dieser Wert ausgelassen,

5.4. Die reellen Zahlen


Auch in den rationalen Zahlen ist es nicht moglich alle Gleichungen zu losen. So hat die
Gleichung x2 = 2 keine L
osung x Q. Auch Zahlen wie e und sind nicht rational.

62

KAPITEL 5. ZAHLENMENGEN

5.5. DIE KOMPLEXEN ZAHLEN

Zur Definition der reellen Zahlen benotigen wir Begriffe wir Folgen Grenzwerte und
Vollstandigkeit, mit denen wir uns im nachsten Semester genauer beschaftigen werden.
Satz 5.4.1 Die Menge der reellen Zahlen R sind ein vollstandiger archimedisch angeordneter K
orper.

Satz 5.4.2 R ist nicht abz


ahlbar.
Die Beweise zu beiden S
atzen verschieben wir in die Vorlesung IMI2.

5.5. Die komplexen Zahlen


Auch in den reellen Zahlen gibt es immer noch Gleichungen, die keine Losung besitzen.
Die Gleichung z 2 = 1 ist durch kein z R losbar.
Unser Ziel besteht jetzt also darin eine Zahlenmenge zu konstruieren, in der diese Gleichung
eine Losung hat und die immer noch ein Korper ist. Daf
ur betrachten wir die Menge R2
und wollen sie mit einer geeigneten Addition und Multiplikation versehen.
Definition 5.5.1 Die komplexen Zahlen C sind die Menge R2 = {(x, y) | x, y R}
mit den Verkn
upfungen
+:CCC

(x1 , y1 ), (x2 , y2 ) 7 (x1 , y1 ) + (x2 , y2 ) := (x1 + x2 , y1 + y2 )
:CCC

(x1 , y1 ), (x2 , y2 ) 7 (x1 , y1 ) (x2 , y2 ) := (x1 x2 y1 y2 , x1 y2 + x2 y1 )

(5.16)

(5.17)

Satz 5.5.2 (C, +, ) ist ein K


orper
Beweis. Wir m
ussen beweisen, dass (C, +) und (C\{(0, 0)}, ) abelsche Gruppen sind und
dass das Distributivgesetz gilt.
(C, +) ist abelsche Gruppe
(0, 0) ist das neutrale Element, da (x, y) + (0, 0) = (x +
0, y + 0) = (x, y) gilt. Wir verwenden hier die Tatsache, dass x, y R und 0 das
neutrale Element der Addition in R ist.
Das zu (x, y) inverse Element ist (x, y) = (x, y), denn (x, y) + (x, y) =
(x x, y y) = (0, 0), wobei wir benutzen, dass x das zu x inverse Element in
R ist.

63

KAPITEL 5. ZAHLENMENGEN

5.5. DIE KOMPLEXEN ZAHLEN

Assoziativgesetz:


(x, y) + (x0 , y 0 ) + (x00 , y 00 ) = x + x0 , y + y 0 + (x00 , y 00 )
= (x + x0 ) + x00 , (y + y 0 ) + y 00


= x + (x0 + x00 ), y + (y 0 + y 00 )

= (x, y) + x0 + x00 , y 0 + y 00

= (x, y) + (x0 , y 0 ) + (x00 , y 00 )

Auch in diesem Beweis verwenden wir die Eigenschaften reeller Zahlen, konkret
das Assoziativgesetz.
Kommutativgesetz: Kann analog zum Assoziativgesetz gezeigt werden, indem
man es auf das Kommutativgesetz in R zur
uckf
uhrt.
(C\{(0, 0)}, ) ist abelsche Gruppe
(1, 0) ist das neutrale Element, da (x, y) (1, 0) =
(x 1 + y 0, x 0 + y 1) = (x, y) gilt. Wir verwenden hier die Tatsache, dass
x, y R und 1 das neutrale Element der Multiplikation in R ist.


y
x
Das zu (x, y) inverse Element ist (x, y)1 = x2 +y
,
2 x2 +y 2 , denn es gilt


x
y
, 2
2
2
x + y x + y2


(x, y) =

x x (y y) xy yx
, 2
x2 + y 2
x + y2


= (1, 0)

Das Assoziativgesetz und das Kommutativgesetz konnen analog wie die entsprechenden Gesetze der Addition gezeigt werden, indem man sie auf die Gesetze in
R zur
uckf
uhrt.
Distributivgesetz Auch das Distributivgesetz kann gezeigt werden, indem man es auf das
Distributivgesetz in R zur
uckf
uhrt.
F
ur die Existenz eines inversen Elements der Multiplikation zu zeigen, haben wir benutzt,
dass f
ur (x, y) 6= (0, 0) gilt x2 + y 2 6= 0. Dies gilt in R aufgrund der Ordnungsstruktur.
Um eine einfachere Darstellung von komplexen Zahlen zu erhalten, die es ermoglicht sich
die Regel f
ur die Multiplikation zu merken, setzen wir
i := (0, 1).
Man bezeichnet i als die imagin
are Einheit. Es gilt dann
(x, y) = (x + 0, 0 + y) = (x, 0) + (0, y) = (x, 0) + (0, 1) (y, 0) = x + iy,
wobei wir die Teilmenge R {0} = {(x, 0) | x R} ( C mit R identifizieren und x statt
(x, 0) schreiben.
Wir stellen fest, dass das Element i C eine bemerkenswerte Eigenschaft hat
i2 = i i = (0, 1) (0, 1) = (0 1, 0) = 1.

64

KAPITEL 5. ZAHLENMENGEN

5.5. DIE KOMPLEXEN ZAHLEN

Mithilfe dieser Information k


onnen wir uns die Multiplikation in C leichter merken, denn
durch Ausmultiplizieren der Klammern erhalten wir:
(x1 + iy1 )(x2 + iy2 ) = x1 x2 + x1 iy2 + iy1 x2 + iy1 iy2
= x1 x2 + ix1 y2 + ix2 y1 + i2 y1 y2
= x1 x2 + ix1 y2 + ix2 y1 y1 y2
= (x1 x2 y1 y2 ) + i(x1 y2 + x2 y1 )
Die Eigenschaft der Zahl i im Quadrat minus eins zu ergeben liefert uns auch die Losung
der anfangs gestellten Gleichung z 2 = 1. Wir sehen, dass die Zahl z = i eine Losung
dieser Gleichung ist.
Satz 5.5.3 (Fundamentalsatz der Algebra)
Jedes Polynom
P (X) = X n + a1 X n1 + . . . + an1 X + a0

n N, n 1, ai C

besitzt eine komplexe Nullstelle z C, das heit P (z) = 0.


Beweis. Der Beweis dieses Satzes geht weit u
ber diese Vorlesung hinaus und wird u
blicherweise in einer Vorlesung Funktionentheorie behandelt.
Aus dem Fundamentalsatz folgt nun, dass jedes Polynom n-ten Grades n (nicht zwangslaufig
verschiedene) Nullstellen hat. Denn hat P (X) die Nullstelle z C, dann konnen wir
P (X) = (X z)Q(X) schreiben, wobei Q ein Polynom vom Grad n 1 ist. Durch erneutes
Anwenden des Fundamentalsatzes auf Q sehen wir, dass P eine weitere Nullstelle hat, usw.
bis P vollst
andig in Linearfaktoren zerfallt.
Die Gleichung z 2 = a mit a R die Losungen
(
wenn a 0,
a
p
z1/2 =
i |a| wenn a < 0.
Definition 5.5.4 Sei z := x + iy C. Dann heit Re(z) := x R der Realteil und
Im(z) := y R der Imagin
arteil der komplexen Zahl z.
Den Betrag einer komplexen Zahl z C ist analog zur euklidischen Lange im R2
definiert durch
p
|z| := Re(z)2 + Im(z)2 .
Desweiteren definieren wir die zu z = x + iy konjugiert komplexe Zahl durch
z := x iy = Re(z) iIm(z).
Es gilt dann Re(z) = Re(z) aber Im(z) = Im(z).

65

KAPITEL 5. ZAHLENMENGEN

5.5. DIE KOMPLEXEN ZAHLEN

Satz 5.5.5 Die komplexe Konjugation C 3 z 7 z ist ein K


orperautomorphismus, d.h. C
wird durch die Konjugation bijektiv auf sich selbst abgebildet und es gilt
z+w =z+w

und

zw =zw

f
ur alle z, w C. Ferner besteht f
ur z = x + iy der folgende Zusammenhang zum Betrag:

zz = Re(z)2 + Im(z)2 = x2 + y 2
also
|z| = zz .
Auerdem k
onnen wir zu z 6= 0 das Inverse mithilfe des komplex konjugierten angeben
z
z 1 = z1 = zz
und sehen so, dass gilt:
Re(z 1 ) =

Re(z)
x
= 2
zz
x + y2

und

Im(z 1 ) =

Im(z)
y
= 2
.
zz
x + y2

ur die Addition
Beweis. Sei z = x1 + iy1 und w = x2 + iy2 , dann rechnen wir nach, dass f
gilt:
z + w = (x1 + iy1 ) + (x2 + iy2 )
= (x1 + x2 ) + i(y1 + y2 )
= (x1 + x2 ) i(y1 + y2 )
= (x1 iy1 ) + (x2 iy2 )
=z+w
Und ebenso f
ur die Multiplikation:
z w = (x1 + iy1 ) (x2 + iy2 )
= (x1 x2 y1 y2 ) + i(x1 y2 + x2 y1 )
= (x1 x2 y1 y2 ) i(x1 y2 + x2 y1 )
= (x1 iy1 ) (x2 iy2 )
=zw
F
ur z = x + iy rechnen wir mithilfe der 3. binomischen Formel nach, dass gilt:
zz = (x + iy)(x iy) = x2 i2 y = x2 + y 2 .

Beispiel 5.5.6 Sei z = 2+2i, dann ist


konjugierte Zahl
p
z = 22i
die komplex
zu z durch
gegeben. Der Betrag von z ist |z| = zz = (2 + 2i)(2 2i) = 4 + 4 = 8. und die
1
22i
1
1
zu z inverse komplexe Zahl ist z 1 = 2+2i
= (2+2i)(22i)
= 22i
8 = 4 4 i.

Bemerkung 5.5.7 Da die komplexe Zahlen als Menge dasselbe sind wie R2 ist es
moglich komplexe Zahlen als Punkte, bzw Vektoren in der sogenannten komplexe Zahlenebene zu betrachten.

66

KAPITEL 5. ZAHLENMENGEN

5.6. RESTKLASSENRINGE

Im(z) 6
3

 z = 3 + 2i
3

2











-2



Q
Q

-1

Re(z)

Q
-1

Q
Q
Q
Q
Q
Q
Q

-2

s z = 3 2i
Q

5.6. Restklassenringe
Alle bisher betrachteten Zahlenmengen haben unendlich viele Elemente. Gerade aber in der
Informatik ist es wichtig auch in endlichen Mengen, insbesondere der Menge {0, 1} rechnen
zu konnen. Aus diesem Grund konstruieren wir hier die sogenannten Restklassenringe, in
denen man im wesentlichen wie in den ganzen Zahlen rechnet, die aber nur endlich viele
Elemente besitzen.
Definition 5.6.1 Sei m N, m 2, dann definieren wir eine Relation a b mod m
auf Z durch:
a b mod m : m|(a b).
Zwei Zahlen sind
aquivalent zueinander, wenn ihre Differenz durch m teilbar ist.

Proposition 5.6.2 Die Relation mod m ist eine Aquivalenzrelation


auf Z.
Beweis. Die Relation ist
reflexiv: a a mod m, da m|a a = 0. Die null wird von jeder Zahl geteilt, da es laut
Definition der Teilbarkeit immer ein Element c Z gibt, so dass m c = 0. Dies ist
richtig f
ur c = 0.
symmetrisch: Wenn m den Ausdruck a b teilt, dann teilt m auch b a und somit gilt
a b mod m genau dann, wenn b a mod m.

67

KAPITEL 5. ZAHLENMENGEN

5.6. RESTKLASSENRINGE

transitiv: Wenn a b mod m und b c mod m, dann gibt es Element d1 , d2 Z, so


dass m c1 = a b und m c2 = b c. Addition dieser zwei Gleichungen ergibt
m c1 + m c2 = m (c1 + c2 ) = (a b) + (b c) = a c, woraus folgt, dass auch
a c mod m gilt.

Definition 5.6.3 Die Menge der Aquivalenzklassen


bez
uglich der Aquivalenzrelation
a b mod m wird mit Z/mZ bezeichnet und heit Restklassenring.
Z/mZ := Z/ = {[a] | a Z}.
Wir definieren auf dieser Menge zwei Verkn
upfungen durch:
+ : Z/mZ Z/mZ Z/mZ
0

: Z/mZ Z/mZ Z/mZ


0

([a], [a ]) 7 [a] + [a ] := [a + a ]

([a], [a0 ]) 7 [a] [a0 ] := [a a0 ]

Bevor wir die Eigenschaften der Restklassenringe genauer unter die Lupe nehmen (indem
wir zum Beispiel zeigen werden, dass sie wirklich Ringe sind) wollen wir besser verstehen,

welche Elemente sich in einer Aquivalenzklasse,


die wir in diesem Kontext auch Restklasse
nennen, befinden.

Wir betrachten zun


achst die Aquivalenzklasse
der null
[0] = {a Z | a 0

mod m} = {a Z | m|(a 0)}.

Da nun m genau dann a teilt, wenn a ein Vielfaches von m ist erhalten wir
[0] = {0, m, 2m, m, 2m, . . .} = mZ = {a Z | b Z : a = mb}.
Und daraus folgt auch, dass [0] = [m] = [2m] = . . . .
Sei jetzt a Z eine beliebige Zahl, dann konnen wir a mit Rest durch m teilen und erhalten
a = qm + r, wobei 0 r < m. Daraus folgt, dass a r = qm gilt, woraus wiederum per
Definition der Teilbarkeit folgt, dass m|(a r) und somit a r mod m. Jede Zahl ist also

von a sind daher


aquivalent zu ihrem Rest bei Division durch m. In der Aquivalenzklasse
alle Elemente b Z, die bei Division durch m den gleichen Rest wie a lassen.
Sei 0 a < m, dann gilt
[a] = {a, m + a, 2m + a, m + a, 2m + a, . . .} = {b Z | c Z : b = mc + a}.

Aus diesen Uberlegungen


folgt, dass sich in jeder Aquivalenzklasse
ein Element der Menge
{0, 1, 2, . . . , m 1} befindet und wir dadurch wissen, dass wir schreiben konnen:
Z/mZ = {[0], [1], [2], . . . , [m 1]}
Wir nennen die Menge {0, 1, 2, . . . , m 1} ( Z eine mogliche Menge von Reprasentanten
f
ur die Restklassen, da jedes Element genau eine Restklasse reprasentiert.
Dies erkl
art auch den Namen Restklassenring. Jedes Element in Z/mZ kann als Rest
bei Division durch m aufgefasst werden.

68

KAPITEL 5. ZAHLENMENGEN

5.6. RESTKLASSENRINGE

Dies ist eine m


ogliche Darstellung. Da [0] = [m] konnen wir alternativ auch schreiben:
Z/mZ = {[1], [2], . . . , [m 1], [m]}.
Die Menge {1, 2, . . . , m 1, m} ist also auch eine Menge von moglichen Reprasentanten.
Satz 5.6.4 (Z/mZ, +, ) ist ein kommutativer Ring mit Eins.
Die Abbildung
: Z Z/mZ
a 7 [a]
ist ein surjektiver Ringhomomorphismus mit Kern() = mZ.
Beweis. Wir m
ussen zun
achst die Wohldefiniertheit der beiden Verkn
upfungen zeigen.
Das bedeutet, dass das Ergebnis der Addition und Multiplikation unanhangig von den
Reprasentanten sein muss, die gew
ahlt wurden um sie zu berechnen. Daf
ur seien a und b
0
0
zueinander kongruente Zahlen, ebenso wie a und b , d. h.
a b mod m
0

a b

mod m

c sodass m c = a b
0

(5.18)
0

c sodass m c = a b

(5.19)

F
ur die Wohldefiniertheit der Addition addieren wir die Gleichungen (5.18) und (5.19) und
erhalten
m (c + c0 ) = (a b) + (a0 b0 ) = (a + a0 ) (b + b0 )

a + a0 b + b0

mod m.

Anders ausgedr
uckt, wenn f
ur die Aquivalenzklassen
gilt: [a] = [b] und [a0 ] = [b0 ], dann gilt
auch [a + a0 ] = [b + b0 ]
F
ur die Wohldefiniertheit der Multiplikation berechnen wir unter Verwendung von (5.18)
und (5.19)
(a b) (a0 b0 ) = (aa0 ab0 ba0 + bb0 ) + bb0 bb0 = aa0 + b0 (b a) + b(b0 a0 ) bb0
= aa0 bb0 + mcb0 + mc0 b
und somit ist (wieder unter Verwendung von (5.18) und (5.19) )
aa0 bb0 = (a b)(a0 b0 ) (mcb0 + mc0 b) = mcmc0 (mcb0 + mc0 b) = m(cmc0 cb0 c0 b),

das heit m teilt aa0 bb0 . Anders ausgedr


uckt, wenn f
ur die Aquivalenzklassen
gilt: [a] = [b]
0
0
0
0
und [a ] = [b ], dann gilt auch [aa ] = [bb ].
(Z/mZ, +, ) ist ein kommutativer Ring mit Eins:
[0] = [m] ist das neutrale Element der Addition, da [a] + [0] = [a + 0] = [a]
[m a] ist das zu [a] inverse Element, denn [a] + [m a] = [a + m a] = [m] = [0].
[1] ist das neutrale Element der Multiplikation, da [a] [1] = [a 1] = [a].

69

KAPITEL 5. ZAHLENMENGEN

5.6. RESTKLASSENRINGE

Assoziativgesetze, Kommutativgesetze, sowie das Distributivgesetz u


bertragen sich
direkt aus den entsprechenden Gesetzen in Z.
Die Abbildung : Z Z/mZ, a 7 [a] ist ein Ringhomomorphismus aufgrund von
(a+a0 ) = [a+a0 ] = [a]+[a0 ] = (a)+(a0 )

und (aa0 ) = [aa0 ] = [a][a0 ] = (a)(a0 ).

Der Kern dieser Abbildung sind alle Elemente a Z, die auf [0] abgebildet werden.
Da aber die Restklasse der null genau alle durch m teilbaren Elemente enthalt, gilt
Kern() = mZ = {a Z | a = m c f
ur ein c Z}. Die Surjektivitat folgt direkt aus der
Definition.
Wir sind es in unserem Alltag gewohnt mit Restklassen zu rechnen ohne es wirklich zu
bemerken. Das passiert immer dann, wenn wir mit Zeitangaben wie Wochentagen oder
Uhrzeiten hantieren. Die Menge Z/7Z kann mit der Menge der Wochentage Montag,
Dienstag, usw. identifiziert werden. Der Montag entspricht dann der [1], der Dienstag der
[2], usw. Wenn wir wissen wollen, welcher Wochentag 10 Tage nach einem Dienstag ist,
dann m
ussen wir also nur rechnen
Dienstag+10 Tage = [2] + [10] = [12] = [5 + 7] = [5] = Freitag.
Ebenso ist jeden klar, dass ein Student, der sagt er habe ab 22 Uhr 9 Stunden lang gezockt,
dass dieser Student bis 7 Uhr morgens gezockt hat. Hier lautet die Rechnung:
22 Uhr+9 Stunden = [22] + [9] = [31] = [24 + 7] = [7] = 7 Uhr.
F
ur Uhrzeiten rechnen wir also in Z/24Z oder Z/12Z.
Beispiel 5.6.5 Eine einfache Methode Nachrichten zu verschl
usseln, ist der sogenannte
Caesarchiffre. Dabei wir zur Verschl
usselung zum Beispiel jeder Buchstabe des Alphabets,
durch den Buchstaben ersetzt, der 2 Stellen weiter im Alphabet steht. Wenn wir Z/26Z
mit den Buchstaben { A,B,...,Y,Z} identizieren, dann entspricht der Caesarchiffre einer
Abbildung
Caesar : Z/26Z Z/26Z
[a] 7 [a + 2]
A = [1] 7 [3] = A
B = [2] 7 [4] = B
..
..
.
.
Y = [25] 7 [27] = [1] = A
Z = [26] 7 [28] = [2] = B

Jetzt wollen wir die Gruppe der Einheiten (s. Def. 4.3.10) im Restklassenring bestimmen
um zu sehen, ob und unter welchen Bedingungen Z/mZ sogar ein Korper ist.

70

KAPITEL 5. ZAHLENMENGEN

5.6. RESTKLASSENRINGE

Proposition 5.6.6 Die Einheiten in Z/mZ sind Restklassen von Zahlen a Z, die
teilerfremd zu m sind
Z/mZ = {[a] Z/mZ | ggT(a, m) = 1}.

Beweis. Wenn ggT(a, m) = 1, dann gibt es aufgrund des erweiterten euklidischen Algorithmus (s. Satz 5.2.9) Zahlen x, y Z so dass
xa + ym = 1
gilt. Bilden wir nun die Restklassen modulo m, dann erhalten wir
[1] = [xa + ym] = [xa] + [ym] = [xa] + [0] = [xa] = [x] [a].
Also ist [x] das zu [a] inverse Element.
Umgekehrt, wenn [a] eine Einheit ist, dann gibt es eine Restklasse [x], sodass [1] = [x] [a] =
[xa] gilt. Das ist gleichbedeutend mit
1 xa mod m

m|(1 xa)

y Z sodass gilt:1 xa = ym.

Und somit sind a und m teilfremd zueinander.


Satz 5.6.7 Sei p eine Primzahl, dann ist Z/pZ ein Korper, der mit Fp bezeichnet wird.
Beweis. Die Menge Fp besteht aus den Restklassen {[0], [1], [2], . . . , [p 1]}. Da p eine
Primzahl ist, gilt f
ur Zahlen a Z mit 1 a p 1, dass sie zu p teilerfremd sind, das
heit ggT(a, p) = 1.
Also sind alle Elemente aus Fp auer null eine Einheit und daher invertierbar. Also ist Fp
ein Korper.
Beispiel 5.6.8 F
ur Mengen mit wenigen Elementen ist es oft praktisch die Verkn
upfung
durch eine Verkn
upfungstafel anzugeben. Wir betrachten hier die Multiplikation in
F5 = Z/5Z, sowie in Z/4Z im Vergleich. Wir schreiben hier vereinfachend die Restklassen
ohne die eckigen Klammern [].
Z/5Z

0
1
2
3
4

0
0
0
0
0
0

1
0
1
2
3
4

Z/4Z
2
0
2
4
1
3

3
0
3
1
4
2

4
0
4
3
2
1

0
1
2
3

0
0
0
0
0

1
0
1
2
3

2
0
2
0
2

3
0
3
2
1

In der Tafel f
ur F5 befindet sich in jeder Zeile und in jeder Spalte eine 1. So konnen wir
die jeweils zueinander inversen Elemente ablesen. In der Tafel f
ur Z/4Z hingegen, stehen
in Spalte und Zeile der 2 nur die Zahlen 0 und 2, somit hat 2 keine multiplikativ inverses
Element in Z/4Z.

71

KAPITEL 5. ZAHLENMENGEN

5.6. RESTKLASSENRINGE

Beispiel 5.6.9 Mithilfe des erweiterten euklidischen Algorithmus ist es moglich auch
f
ur Korper mit vielen Elementen multiplikative Inverse zu bestimmen.
Sei die Primzahl p = 293 gegeben. Wir wollen das multiplikative Inverse zu a = 103
bestimmen. Mithilfe des erweiterten euklidischen Algorithmus berechnen wir:
293 = 2 103 + 87
103 = 1 87 + 16
87 = 5 16 + 7
16 = 2 7 + 2
7=32+1
Durch R
uckw
artseinsetzen erhalten wir nun
1=732
= 7 3 (16 2 7) = 3 16 + 7 7
= 3 16 + 7 (87 5 16) = 7 87 38 16
= 7 87 38 (103 1 87) = 38 103 + 45 87
= 38 103 + 45 (293 2 103) = 45 293 128 103
Also ist 128 165 mod 293 die zu 103 multiplikativ inverse Zahl in F293 .

Satz 5.6.10 (Chinesischer Restsatz)


Seien n, m Z teilerfremd, dann gibt es einen bijektiven Ringhomomorphismus
f : Z/(nm)Z Z/nZ Z/mZ

Beispiel 5.6.11 Der chinesische Restsatz war bereits im 3. Jahrhundert in China


bekannt und wurde dort zum Z
ahlen der Armee benutzt.
Da es zu umst
andlich war die Soldaten der Reihe nach durchzuzahlen, hat man sie in
Reihen antreten lassen um die Reste modulo gewisser Zahlen zu bestimmen. Wollen wir
zum Beispiel den Rest modulo 11 wissen, dann lassen wir die Soldaten in 11 Reihen
antreten. Die Reihen sollen gleichmaig aufgef
ullt werden, so dass in jeder Reihe gleich
viele Soldaten stehen. Am Ende bleiben dann zwischen 0 und 10 Soldaten u
brig. Dass
ist der Rest der Anzahl modulo 11.
Angenommen wir wissen, dass die Anzahl der Soldaten nicht groer als 100 ist. Wahlen
wir die Primzahlen p1 = 11 und p2 = 13, dann ist deren Produkt p1 p2 = 143 > 100.
Durch bestimmen der Reste modulo 11 und modulo 13 konnen wir die Gesamtzahl s der
Soldaten bestimmen.
Wir nehmen an, dass wir durch Zahlen folgende Reste bestimmt haben
s 10

mod 11

s9

mod 13.

72

KAPITEL 5. ZAHLENMENGEN

5.6. RESTKLASSENRINGE

Wir suchen jetzt also eine Zahl 0 < s < 143, die diese Kongruenzen erf
ullt.
Um diese Zahl zu berechnen, ben
otigen wir den erweiterten euklidischen Algorithmus
um Zahlen x, y zu bestimmen f
ur die x 11 + y 13 = 1 gilt. Diese Zahlen gibt es, da 11
und 13 Primzahlen sind und daher teilerfremd zueinander.
Wir rechnen
13 = 1 11 + 2
11 = 5 2 + 1
und erhalten durch R
uckw
artseinsetzen
1 = 11 5 2
= 11 5 (13 1 11) = 5 13 + 6 11.

Also ist x = 6 und y = 5. Somit gilt


5 13 = 1 6 11 1

mod 11

6 11 = 1 + 5 13 1

mod 13

10 (5) 13 10
9 6 11 9

mod 11
mod 13.

Andererseits gilt
5 13 0

mod 13

10 (5) 13 0

mod 13

6 11 0

mod 11

9 6 11 0

mod 11

und damit insgesamt


10 (5) 13 + 9 6 11 10
10 (5) 13 + 9 6 11 9

mod 11
mod 13

Also erhalten wir die gesuchte Gesamtzahl der Soldaten.


s = 10 (5) 13 + 9 6 11 = 650 + 594 = 56 87

mod 143.

Definition 5.6.12 Die Anzahl der Einheiten im Restklassenring Z/mZ wird mit (m)
bezeichnet. Die definiert eine Abbildung
:ZN
m 7 (m)
die sogenannte Eulersche Phi-Funktion.

Proposition 5.6.13 Es gilt f


ur (m) folgende Eigenschaften:
Sei p eine Primzahl, dann ist (p) = p 1.

73

KAPITEL 5. ZAHLENMENGEN

5.6. RESTKLASSENRINGE

Seien m, n teilerfremde Zahlen, dann ist (nm) = (n)(m).

Beweis. Die Zahl (p) gibt an wie viele Element aus Z/pZ Einheiten sind, also in Z/pZ
liegen. Da Fp = Z/pZ ein K
orper ist, sind alle Element auer der Null invertierbar und
somit eine Einheit. Also ist (p) = #Fp 1 = p 1.
Wenn m, n teilerfremde Zahlen sind, dann ist nach dem chinesischem Restsatz Z/(nm)Z =
Z/nZ Z/mZ und somit gilt auch f
ur die Einheiten Z/(nm)Z = Z/nZ Z/mZ .
Daraus folgt, dass die Anzahl der Elemente in diesen Gruppen gilt (nm) = (n)(m).
Aus dieser Proposition folgt insbesondere, dass (pq) = (p 1)(q 1) ist, wobei p, q
Primzahlen sind.
Satz 5.6.14 (Kleiner Fermatscher Satz)
Sei a Z, so dass f
ur die Restklasse [a] Z/mZ ist, dann gilt:
a(m) 1

mod m.

Beweis. Wir betrachten die Abbildung


a Z/mZ Z/mZ
[b] 7 [ab]
bei der jedes Element mit [a] multipliziert wird. Diese Abbildung ist bijektiv, da sie mit
a1 eine Umkehrabbildung besitzt.
Im nachsten Schritt wollen wir das Produkt aller Elemente [r] Z/mZ betrachten. Da
jedes Element im Bild der Abbildung a liegt, konnen wir auch das Produkt aller Elemente
[ar] Z/mZ betrachten ohne, dass sich etwas andert. Dadurch gilt
Y
Y
Y
[r] =
[ar] = [a](m)
[r]
(5.20)
[r]Z/mZ

[r]Z/mZ

[r]Z/mZ

Im letzten Schritt haben wir aus jedem Faktor das [a] ausgeklammert. Da es genauso viele
Faktoren gibt wie Elemente in Z/mZ , muss [a] mit dieser Anzahl potenziert werden.
Aber diese Anzahl
wir nun in Gleichung 5.20 beide Seiten mit dem
Q ist genau (m). Wenn

Inversen von [r]Z/mZ [r] Z/mZ multiplizieren, dann erhalten wir


[a](m) = [1]

a(m) 1

mod m.

Satz 5.6.15 (Das RSA-Verfahren)


1. W
ahle zwei groe Primzahlen p, q.
2. Bestimme ihr Produkt N = pq.
3. Berechne (N ) = (p)(q) = (p 1)(q 1).
4. W
ahle eine Zahl e Z f
ur die gilt 0 < e < (N ) und ggT(e, (N ))

74

KAPITEL 5. ZAHLENMENGEN

5.6. RESTKLASSENRINGE

5. Berechne d Z, so dass gilt 0 < d < (N ) und d e + k (N ) = 1 (erweiterter


euklidischer Algorithmus).
Nun konnen wir ausgehend davon den offentlichen und den privaten Schl
ussel angeben:
o
ussel: (N, e)
ffentlicher Schl
privater Schl
ussel: (p, q, d)
Will nun der Sender eine Nachricht m Z/N Z verschl
usseln, dann berechnet er
c me

mod N

mithilfe des
offentlichen Schl
ussels.
Der Empf
anger kann dies nun entschl
usseln, indem er rechnet
m cd

mod N.

Wir konnen nachrechnen, dass wir auf diese Art und Weise wirklich die urspr
ungliche
Nachricht erhalten, denn
cd = (me )d = med = m1k(N ) = m (m(N ) )k m mod N.
Im letzten Schritt haben wir den kleinen Fermatschen Satz verwendet.

Bemerkung 5.6.16 Die Berechnung von me mod N ist mit groen Rechenaufwand
verbunden. Es ist bei realistischen Zahlen nicht moglich me Z zu rechnen und dann
erst die Division mit Rest durchzuf
uhren.
Machbarer, aber immer noch mit zu groen Rechenaufwand ist es zuerst m m zu
berechnen und den Rest bei Division durch N zu bestimmen. Dann multipliziert man das
Ergebnis wieder mit m und bestimmt erneut den Rest bei Division durch N . Auf diese
Weise werden die Zahlen nicht zu gro, aber man muss e1 Multiplikationen durchf
uhren.
Die Anzahl der Multiplikationen lassen sich erheblich reduzieren,
indem man die
P
Binardarstellung des Exponenten verwendet. Sei daf
ur e = ni=0 ai 2i , dann ist
me = m(2

n +a
n1 +a
n2 +...+a 2+a )
n1 2
n2 2
1
0

n1

= m2 m2

an1

n2

m2

an2

. . . m2

a1

ma0
i

Die Zahlen ai sind entweder 1 oder 0, daher besagt ai = 1, dass der Faktor m2 in dem
Produkt vorkommt, wohingegen er nicht vorkommt, wenn ai = 0 ist.
i
Die Faktoren m2 mod N kann man durch sukzessives Quadrieren bestimmen. Zunachst
quadrieren wir m und bestimmen den Rest bei Division durch N . Durch quadrieren von
2
m2 mod N erhalten wir (m2 )2 = m22 = m2 = m4 mod N . Es gilt immer
i

i+1

(m2 )2 = m2 2 = m2

mod N.

75

KAPITEL 5. ZAHLENMENGEN

5.6. RESTKLASSENRINGE

Beispiel 5.6.17 Wir w


ahlen p = 5 und q = 11, somit ist N = 55 und
(N ) = (5 1)(11 1) = 40. Wir wahlen e = 9 eine zu (N ) teilerfremde Zahl.
mithilfe des euklidischen Algorithmus berechnen wir
40 = 4 9 + 4
9 = 2 4 + 1.

und somit gilt


1=924
= 9 2 (40 4 9)
= 2 40 + 9 9
Also ist d = 9 und wir u
ufen, dass
berpr
9 9 = 81 1

mod 40.

Die Nachricht muss nun eine Zahl 0 < m < N sein, die teilerfremd zu N ist. Unsere
Nachricht sei m = 13.
Die verschl
usselte Nachricht ist dann c me = 139 mod 55. Zur Berechnung dieses
Werts gehen wir vor wie es in Bemerkung 5.6.16 beschrieben wurde.
Wir bestimmen zuerst die Bin
ardarstellung des Exponenten:
e = 9 = 8 + 1 = 23 + 20 .
Nun berechnen wir die Zweierpotenzen von m:
m 13

mod 55

m = 169 = 3 55 + 4 4
4

2 2

m = (m ) = 4 16

mod 55

mod 55

m8 = (m4 )2 = 162 = 256 = 4 55 + 36 36

mod 55

Am Ende m
ussen noch die Zweierpotenzen miteinander multipliziert werden, so wie es
die Bin
ardarstellung des Exponenten vorschreibt:
m9 = m8 m 36 13 468 = 8 55 + 28 28

mod 55.

Somit ist die verschl


usselte Nachricht c 28 mod 55.

Zur Uberpr
ufung wollen wir ausrechnen ob cd m mod 55. Daf
ur benotigen wir die
Zweierpotenzen von c:
c 28

mod 55

c2 = 784 = 14 55 + 14 14
4

2 2

mod 55

c = (c ) = 14 196 = 3 55 + 31 31
c8 = (c4 )2 = 312 = 961 = 17 55 + 26 26

mod 55
mod 55

76

KAPITEL 5. ZAHLENMENGEN

5.6. RESTKLASSENRINGE

Da die Bin
ardarstellung des Exponenten d = 9 = 8 + 1 ist, m
ussen wir berechnen:
c9 = c8 c 26 28 728 = 13 55 + 13 13

mod 55.

woraus folgt, dass m 13 mod 55, wie wir erwartet haben.

77

Teil II.

Lineare Algebra

78

6. Vektorr
aume
In vielen Bereichen der Mathematik wird man auf die algebraische Struktur des Vektorraums
gef
uhrt, so da diesem Begriff eine fundamentaler Bedeutung in den verschiedensten
Teilgebieten der Mathematik zukommt. Um Vektorraume besser zu verstehen, ist es
sinnvoll, diese losgel
ost von speziellen Kontexten in einem abstrakten Setting zu betrachten
und zu studieren. Dies ist die Aufgabe der Linearen Algebra, welche man als die Theorie
der Vektorr
aume vor allem der endlich dimensionalen ansehen kann. Nat
urlich dreht
sich die Lineare Algebra nicht ausschlielich um den Vektorraumbegriff; darauf aufbauend
gibt es etliche weitere grundlegende Konzepte wie z.B. der Begriff der linearen Abbildungen,
welche verschiedene Vektorr
aume miteinander in Beziehung setzen und den theoretischen
Hintergrund f
ur lineare Gleichungssysteme liefern, welche bereits in einfacher Form aus der
Schule bekannt sein d
urften.
Neben der pr
azisen Definition des Vektorraumbegriffs besteht das zentrale Anliegen dieses
Kapitels darin, eine sehr einfache Charakterisierung f
ur die Groe eines Vektorraums zu
schaffen.

6.1. Vektorr
aume und Untervektorr
aume
Notation: In den folgenden Abschnitten bezeichnet K einen Korper. Griechische Buchstaben wie , , , stehen f
ur Elemente dieses Korpers. Mit den lateinischen Buchstaben
u, v, w, x, y, z werden Elemente eines oder verschiedener Vektorraume bezeichnet.
Definition 6.1.1 (Vektorr
aume)
Sei K ein K
orper. Ein Vektorraum u
ber dem Korper K (kurz ein K-Vektorraum) ist
ein Tripel (V, +, ) bestehend aus einer Menge V , einer inneren Verkn
upfung
+ : V V V,

(u, v) 7 u + v,

welche als Addition bezeichnet wird, und einer aueren Verkn


upfung
: K V V,

(, v) 7 v =: v,

die sogenannte Skalarmultiplikation. Dabei sollen sich die beiden Verkn


upfungen durch
folgende Eigenschaften auszeichnen:
(V1) (V, +) ist eine abelsche Gruppe.
(V2) F
ur alle u, v V und alle , K gilt:
(u + v) = u + v
(Distributivgesetz der Skalarmultiplikation f
ur die Addition V ),
( + )v = v + v
()v = (v)
1v =v

(Distributivgesetz der Skalarmultiplikation f


ur Addition in K),
(Assoziativgesetz der Skalarmultiplikation),
(Wirkung der 1)

79


KAPITEL 6. VEKTORRAUME

6.1. VEKTORRAUME
UND UNTERVEKTORRAUME

Bemerkung 6.1.2
Die Bezeichnung K-Vektorraum bzw. Vektorraum wird sehr
oft f
ur die Tr
agermenge V allein verwendet, wobei die beiden algebraischen Verkn
upfungen als bekannt oder (im abstrakten Kontext) als existent vorausgesetzt
werden. Wir werden uns im folgenden dieser vereinfachenden Sprechweise bedienen. Vorsicht ist jedoch geboten, wenn dieselbe Menge mit unterschiedlichen
Verkn
upfungen ausgestattet wird, die sie jeweils zu einem Vektorraum machen.
Die Elemente von V heien Vektoren, die Elemente des zugehorigen Korpers K
nennt man Skalare. Der K
orper K, welcher dem K-Vektorraum zugrunde liegt,
wird gelegentlich auch Skalarenkorper genannt.
Die Addition in V wird auch als Vektoraddition oder Vektorraumaddition bezeichnet,
wenn sie deutlich von der Addition in K unterschieden werden soll.
Das neutrale Element der Additionion in V heit Nullvektor. Um Verwechselungsgefahr mit dem Skalar 0 K zu vermeiden, schreiben wir daf
ur 0V .
F
ur das zu v V inverse Element bez
uglich der Vektoraddition schreibt man v
analog zu der u
ur v + (w).
blichen Notation bei Korpern. Ebenso steht v w f
Bei der Skalarmultiplikation schreibt man meist v statt v. Nach der bei Korpern
u
bliche Konvention Punktrechnung vor Strichrechnung soll die Skalarmultiplikation
st
arker binden als Addition in V und K; dies spart Klammern, wodurch sich
Rechnungen u
bersichtlicher gestalten lassen. Man unterscheide zum Beispiel u + v
und (u + v); ebenso ( + )v und + v, wobei der letzte Term keinen Sinn
ergibt, da die Addition zwischen Skalaren und Vektoren nicht erklart ist.

Satz 6.1.3 (Einige Rechenregeln)


Es sei V ein K-Vektorraum. Dann gilt f
ur alle v V und K:
(i) 0 v = 0V .
(ii) 0V = 0V .
(iii) v = 0

= 0 oder v = 0V .

(iv) (1) v = v.

Beweis. i) Anwendung der Vektorraumaxiome sowie der Rechenregeln im Korper K liefert


zunachst:
0 v = (0 + 0) v
= 0v+0v

|0 = neutrales Element von (K,+)


|Distributivgesetz der Skalarmultiplikation fur Addition in K .

80


KAPITEL 6. VEKTORRAUME

6.1. VEKTORRAUME
UND UNTERVEKTORRAUME

Unter Ausnutzung dieser Gleichung im zweiten Umformungsschritt erhalten wir nun



0V = 0 v + (0 v)
|Eigenschaft inverser Elemente in (V, +)



= 0 v + 0 v + (0 v)
|Einsetzen der obigen Gleichung


= 0 v + 0 v + (0 v)
|Assoziativgesetz in (V, +)
= 0 v + 0V
= 0v

|Eigenschaft inverser Elemente in (V, +)


|0V = neutrales Element in (V, +)

womit die Behauptung gezeigt ist.


ii) Der Nachweis von ii) verl
auft im Prinzip analog zur obigen Rechnung. Statt 0 = 0 + 0
benutzt man hier die Neutralit
at von 0V hinsichtlich der Vektoraddition, d.h. 0V = 0V + 0V .
iii) : Es sind zwei F
alle zu unterscheiden: entweder = 0 oder 6= 0. Im ersten Fall
ergibt sich die Behauptung als unmittelbare Konsequenz von i). Im zweiten Fall ist v = 0V
zu zeigen. Dazu nutzen wir aus, da nach den Korperaxiomen das multiplikativ Inverse
1 zu 6= 0 existiert:
v =
=
=
=
=

1v
(1 ) v
1 ( v)
1 0V
0V

|Wirkung der 1
|Definition des multiplikativ Inversen in K
|Assoziativgesetz fur Skalarmultiplikation
|Voraussetzung
|nach ii)

Die R
uckrichtung folgt direkt aus i) und ii).
iv) Anwendung der Vektorraumaxiome sowie der Rechenregeln im Korper K liefert:
v + (1) v = 1 v + (1) v

= 1 + (1) v
= 0v
= 0V

|Wirkung der 1
|Distributivgesetz der Skalarmultiplikation fur Addition in K
|Rechenregeln fur K
|nach i)

Da die Vektoraddition von v und (1) v auf das neutrale Element 0V der Vektoradition
f
uhrt, stellt sich (1) v als das inverse Element zu v heraus, d.h. es gilt wie behauptet
v = (1) v. Man beachte, da dabei die Eindeutigkeit inverser Elemente eingeht.
Beispiel 6.1.4
u
ber K.

Die Menge, die nur aus der null besteht {0} ist ein Vektorraum

Jeder K
orper K ist ein Vektorraum u
ber sich selbst.
C ist ein R-Vektorraum.
Das n-fache kartesische Produkt eines Korpers mit sich selbst, das heit die Menge
aller geordneten n-Tupel von Elementen aus K
K n = {(a1 , a2 , . . . , an ) | ai K}

81


KAPITEL 6. VEKTORRAUME

6.1. VEKTORRAUME
UND UNTERVEKTORRAUME

ist ein K-Vektorraum mit den Verkn


upfungen
(a1 , a2 , . . . , an ) + (b1 , b2 , . . . , bn ) := (a1 + b1 , a2 + b2 , . . . , an + bn )
(a1 , a2 , . . . , an ) := (a1 , a2 , . . . , an )
Das neutrale Element in (K n , +) ist der Nullvektor
(0, 0, 0, . . . , 0, 0).
Das zum Vektor (a1 , a2 , . . . , an ) inverse Element ist der Vektor (a1 , a2 , . . . , an ).
Samtliche Rechenregeln, die in einem Vektorraum gelten m
ussen lassen sich auf
Rechenregeln im K
orper K zur
uckf
uhren. Wir zeigen hier das Distributivgesetz
der Skalarmultiplikation f
ur die Addition in K.

(a1 , a2 , . . . , an ) + (b1 , b2 , . . . , bn ) = (a1 + b1 , a2 + b2 , . . . , an + bn )

= (a1 + b1 ), (a2 + b2 ), . . . , (an + bn )

= a1 + b1 , a2 + b2 ), . . . , an + bn

= (a1 , a2 , . . . , an ) + (b1 , b2 , . . . , bn )
Hier haben wir das Distributivgesetz in K verwendet.

Definition 6.1.5 Eine nicht leere Teilmenge eines K-Vektorraums U V heit Untervektorraum bzw. Unterraum von V , falls folgende Bedingungen erf
ullt sind:
(U1) U ist abgeschlossen gegen
uber der Addition, d.h. u1 , u2 U u1 + u2 U .
(U2) U ist abgeschlossen gegen
uber der Skalarmultiplikation, d.h. u U, K
u U .
Dank (U1) und (U2) induzieren die Vektoraddition und Skalarmultiplikation in V entsprechende Verkn
upfungen in U , mit denen U als eigenstandiger Vektorraum interpretiert
werden kann. Es bleibt daf
ur lediglich nachzuweisen, da U auch abgeschlossen ist hinsichtlich der Bildung additiv inverser Elemente. Dies folgt aber direkt aus U2) und der
Rechenregel iv) in Satz 6.1.3, wonach u = (1) u.
Beispiel 6.1.6 Sei K ein K
orper. Die Menge
U = {(a1 , a2 , 0, 0) | a1 , a2 K} ( K 4
ist ein Untervektorraum des K 4 , denn es gilt
(a1 , a2 , 0, 0) + (b1 , b2 , 0, 0) = (a1 + b1 , a2 + b2 , 0, 0) U

und

(a1 , a2 , 0, 0) = (a1 , a2 , 0, 0) U

82


KAPITEL 6. VEKTORRAUME

6.2. BASIS UND DIMENSION

Proposition 6.1.7 Sei K ein K


orper und V ein K-Vektorraum mit U1 , U2 V Untervektorr
aumen. Dann ist der Durchschnitt U1 U2 ein Untervektorraum von V .
Beweis. Seien v, w U1 U2 , das heit v, w U1 und v, w U2 . Da sowohl U1 als auch
U2 Untervektorr
aume sind, liegt auch die Summe v + w U1 und v + w U2 . Daraus folgt
dass v + w U1 U2 .
Wir zeigen analog die Abgeschlossenheit bez
uglich der Skalarmultiplikation. Sei v U1 U2 ,
das heit v U1 und v U2 . Da sowohl U1 als auch U2 Untervektorraume sind, liegt f
ur
alle K auch v U1 und v U2 . Daraus folgt dass v U1 U2 .
Bemerkung 6.1.8 Die Vereinigung zweier Untervektorraume ist im Allgemeinen kein
Untervektorraum. Wir wollen dies an einem Beispiel zeigen.
Sei V = K 3 , dann sind die Mengen
U1 = {(a1 , 0, 0) | a1 K} ( K 3

und U2 = {(0, a2 , 0) | a2 K} ( K 3

Untervektorr
aume von V (Begr
undung analog zu Beispiel 6.1.6), aber ihre Vereinigung
ist kein Untervektorraum, da zum Beispiel u1 = (1, 0, 0) U1 und u2 = (0, 1, 0) U2
und somit beide Vektoren u1 , u2 U1 U2 liegen, aber ihre Summe nicht
u1 + u2 = (1, 0, 0) + (0, 1, 0) = (1, 1, 0)
/ U1 U2 .
In der Vereinigung U1 U2 liegen nur Vektoren, die hochstens an einer Stelle einen Eintrag ungleich null haben, aber u1 + u2 hat an zwei Stellen einen Eintrag, der nicht null ist.
Die Vereinigungsmenge U1 U2 genau dann ein Untervektorraum ist, wenn U1 U2
oder U2 U1 .

6.2. Basis und Dimension


Wir wollen in diesem Abschnitt Vektroraume versuchen einfacher zu beschreiben. Daf
ur
nutzen wir aus, dass die Vektorraumaxiome genau besagen, dass wir einen Vektor mit
einem Skalar multiplizieren k
onnen und immer noch einen Vektor erhalten, ebenso konnen
wir zwei Vektoren addieren und erhalten wieder einen Vektor.
Definition 6.2.1 Ein Vektor v V eines K-Vektorraums V heit Linearkombination
der Vektoren v1 , ..., vk V , falls Skalare 1 , . . . , k K existieren mit
v = 1 v1 + + k vk .
Man sagt auch, v l
at sich aus v1 , . . . , vk linear kombinieren.
Es seien v1 , . . . , vk V Vektoren eines K-Vektorraums. Die Menge aller Linearkombinationen, welche sich aus v1 , . . . , vk bilden lassen, bezeichnet man als die von v1 , . . . , vn

83


KAPITEL 6. VEKTORRAUME

6.2. BASIS UND DIMENSION

erzeugte Lineare Hu
ur
lle (auch Spann). Man schreibt daf
LH(v1 , . . . , vk ) := Kv1 + + Kvk
:= {v V : 1 , . . . , k K mit v = 1 v1 + + k vk } .

Proposition 6.2.2 Sei V ein K-Vektorraum. Die lineare H


ulle der Vektoren
v1 , ..., vk V ist ein Untervektorraum von V . Die lineare H
ulle ist der kleinste Vektorraum, der die Vektoren v1 , ..., vk V enthalt.
Beweis. Seien u, v LH(v1 , . . . , vk ), das heit es gibt 1 , . . . , k , 1 , . . . , k K so dass
gilt: u = 1 v1 + + k vk und v = 1 v1 + + k vk . Dann ist
u+v = (1 v1 + +k vk )+(1 v1 + +k vk ) = (1 +1 )v1 + +(k +k )vk LH(v1 , . . . , vk )
ebenso gilt:
v = (1 v1 + + k vk ) = (1 v1 + + k vk ) LH(v1 , . . . , vk ).
Beispiel 6.2.3
Sei V = K 3 , dann betrachten wir die Vektoren v1 = (1, 0, 0) und
v2 = (0, 1, 0) aus V . Ein Vektor v V ist Linearkombination von v1 und v2 , wenn
es Skalare 1 , 2 gibt, so dass
v = 1 v1 + 2 v2 = 1 (1, 0, 0) + 2 (0, 1, 0) = (1 , 0, 0) + (0, 2 , 0) = (1 , 2 , 0).
Somit besteht die lineare H
ulle der Vektoren v1 , v2 aus allen Vektoren, deren dritte
Komponente null ist, d. h.
LH(v1 , v2 ) = {(1 , 2 , 0) | 1 , 2 K}.
Wir betrachten jetzt die Vektoren v1 = (1, 1, 0) und v2 = (1, 0, 1) aus K 3 .
Der Vektor v = (1, 2, 1) liegt in der linearen H
ulle von v1 und v2 , denn es gilt
v = 2v1 v2 = 2(1, 1, 0) (1, 0, 1) = (2, 2, 0) (1, 0, 1) = (1, 2, 1).
Der Vektor u = (1, 2, 0) hingegen liegt nicht in LH(v1 , v2 ), denn angenommen es
g
abe 1 , 2 K, so dass 1 v1 + 2 v2 = u, das heit
1 (1, 1, 0) + 2 (1, 0, 1) = (1 , 1 , 0) + (2 , 0, 2 ) = (1 + 2 , 1 , 2 ) = (1, 2, 0)
dann w
aren die i L
osung des Gleichungssystems
1 + 2 = 1
1 = 2
2 = 0
Allerdings liefert Einsetzen von 1 = 2 und 2 = 0 in die erste Zeile 1 + 2 =
2 + 0 = 2 6= 1. Dies bedeutet, dass man u nicht aus v1 und v2 linear kombinieren
kann, also u
/ LH(v1 , v2 ).

84


KAPITEL 6. VEKTORRAUME

6.2. BASIS UND DIMENSION

Bisher haben wir uns nur mit der Frage beschaftigt, ob man einen Vektor aus einer
vorgegebenen Menge von Vektoren linear kombinieren kann. Nun kommen wir dazu, ob
diese Linearkombination eindeutig ist. Dies ist der Fall, wenn die Vektoren linear unabhangig
sind.
Definition 6.2.4 (i) Endlich viele Vektoren v1 , . . . , vk eines K-Vektorraums heien
linear unabh
angig, falls die Gleichung
1 v1 + + k vk = 0V
nur die L
osung 1 = = k = 0 besitzt. Dies dr
uckt man auch folgendermaen
aus: Die Vektoren v1 , . . . , vk nennt man linear unabh
angig, genau dann wenn sich
der Nullvektor nur auf die triviale Weise aus ihnen linear kombinieren lat.
(ii) Die Vektoren v1 , . . . , vk heien linear abh
angig, falls sie nicht linear unabhangig
sind. Der Nullvektor l
at sich dann nicht trivial aus ihnen linear kombinieren,
d.h. in der obigen Darstellung des Nullvektors kann mindestens ein Koeffizient i
mit i {1, . . . , k} von Null verschieden gewahlt werden.

Proposition 6.2.5 (Charakterisierung linear abh


angiger Vektoren)
F
ur die Vektoren v1 , . . . , vk sind folgende Aussagen aquivalent:
(i) v1 , . . . , vk sind linear abh
angig.
(ii) Es existiert ein l {1, . . . , k} f
ur das gilt:
vl = 1 v1 + . . . + l1 vl1 + l+1 vl+1 + k vk .

Beweis. (ii) (i) Wir setzen l = 1 und erhalten eine nichttriviale Linearkombination
des Nullvektors
0V = 1 v1 + . . . + l1 vl1 + (1)vl + l+1 vl+1 + k vk .
P
(i) (ii) Sei 0V = ki=1 i vi eine nichttriviale Linearkombination des Nullvektors. Dann
gibt es ein l so dass l 6= 0 und wir konnen schreiben
l vl =

k
X

i vi

i=1,i6=l

vl =

k
X
i=1,i6=l

i
vi .
l

Aus diesem Satz folgt, dass die lineare H


ulle der Vektoren {v1 , . . . , vk } sich nicht von der
linearen H
ulle von {v1 , . . . , vk }\{vl } unterscheidet, da vl LH(v1 , . . . , vl1 , vl+1 , . . . , vk ).
Wir konnen diesen Vektor also einfach weglassen ohne etwas zu verlieren.
Proposition 6.2.6 (Charakterisierung linear unabh
angiger Vektoren)
F
ur die Vektoren v1 , . . . , vk sind folgende Aussagen aquivalent:
(i) v1 , . . . , vk sind linear unabhangig.

85


KAPITEL 6. VEKTORRAUME

6.2. BASIS UND DIMENSION

(ii) Jeder Vektor v LH(v1 , . . . , vk ) besitzt eine eindeutige Darstellung als Linearkombination der v1 , . . . , vk .

Beweis. (i) ii) Wir f


uhren diesen Beweis per Widerspruch: Angenommen es gibt einen
Vektor v mit zwei verschiedenen Darstellungen
v = 1 v1 + + k vk = 1 v1 + + k vk ,
so da mindestens f
ur ein j {1, . . . , k} gilt j 6= j . Subtraktion der beiden Darstellungen
f
uhrt auf die Gleichung
0V = (1 1 )v1 + + (k k )vk .
Da die Vektoren v1 , . . . , vk linear unabhangig sind, gilt i i = 0 und somit i = i f
ur
alle i = 1, . . . , vk . Dies ist ein Widerspruch dazu, dass es mindestens einen Koeffizienten,
namlich j j gibt, der von Null verschieden ist.
(ii) i) Der Nullvektor kann immer auf die triviale Art und Weise linear kombiniert
werden, d. h. in der Darstellung
0V = 1 v1 + + k vk
Kann immer 1 = . . . = k = 0 gewahlt werden. Da nach Voraussetzung jeder Vektor
eindeutig als Linearkombination dargestellt werden kann, gilt dies insbesondere f
ur den
Nullvektor. Das heit die triviale Linearkombination ist die einzig mogliche. Dies bedeutet,
aber genau, dass die Vektoren v1 , . . . , vk linear unabhangig sind.
Beispiel 6.2.7 Sei V = R3 , wir wollen uns geometrisch u
berlegen, was linear abhangig
und unabh
angig bedeutet.
Schauen wir zun
achst einen einzelnen Vektor v V an. Dieser Vektor ist linear
unabh
angig, wenn aus v = 0V folgt, dass = 0 ist. Dies ist genau dann der Fall,
wenn v 6= 0V ist (s. Satz 6.1.3). Der Nullvektor hingegen ist linear abhangig, da
f
ur alle K gilt: v = 0V .
Daraus folgt direkt, dass jede Menge von Vektoren in der der Nullvektor vorkommt
auch linear abh
angig ist.
Betrachten wir jetzt zwei Vektoren v1 , v2 V . Diese sind linear abhangig, wenn
es 1 , 2 K gibt, die nicht beide null sind, so dass 1 v1 + 2 v2 = 0V . Nach
Proposition 6.2.5 ist dies gleichbedeutend damit, dass v1 = 2 /1 v2 , also ein
Vektor ein Vielfaches des anderen ist. Geometrisch bedeutet dies, dass beide
Vektoren auf der gleichen Gerade durch den Ursprung liegen.
Liegen zwei Vektoren nicht auf der gleichen Geraden durch den Ursprung, dann
sind sie linear unabh
angig.

86


KAPITEL 6. VEKTORRAUME

6.2. BASIS UND DIMENSION

Definition 6.2.8
i) Eine Menge von Vektoren v1 , v2 , . . . V heit Erzeugendensystem von V , wenn V = LH(v1 , ..., vk ) gilt.
ii) V heit endlich erzeugt, falls ein Erzeugendensystem bestehend aus endlich
vielen Vektoren v1 , ..., vk V gibt. d.h. falls sich jeder Vektor von V aus dem
Erzeugendensystem v1 , ..., vk linear kombinieren lat.

Definition 6.2.9 Sei V ein endlich erzeugter K-Vektorraum. Ein Erzeugendensystem


v1 , ..., vk V wird Basis genannt, falls die Vektoren linear unabhangig sind. Die Anzahl
der Basisvektoren (hier k) bezeichnet man als L
ange der Basis.

Bemerkung 6.2.10 Wir k


onnen die obigen Definitionen auch ein wenig anders formulieren:
v1 , ..., vk V sind ein Erzeugendensystem von V , wenn sich jeder Vektor v V auf
mindestens eine Art und Weise durch v1 , ..., vk linear kombinieren (oder erzeugen)
lasst.
v1 , ..., vk V sind linear unabhangig in V , wenn sich jeder Vektor v V auf
ho
chstens eine Art und Weise durch v1 , ..., vk linear kombinieren (oder erzeugen)
lasst (s. Prop. 6.2.6).
v1 , ..., vk V sind eine Basis von V , wenn sich jeder Vektor v V auf genau eine
Art und Weise durch v1 , ..., vk linear kombinieren (oder erzeugen) lasst.

Satz 6.2.11 (Charakterisierung von Basen)


Sei V ein endlich erzeugter K-Vektorraum. F
ur B = {v1 , . . . , vk } V sind aquivalent
(i) B ist eine Basis von V .
(ii) B ist ein minimales Erzeugendensystem von V .
(iii) B ist eine maximale Menge linear unabhangiger Vektoren.

Beweis.(i) (ii) Jede Basis ist per Definition ein Erzeugendensystem, bleibt also zu
zeigen, dass es minimal ist. Angenommen es ist nicht minimal, das heit es gibt einen
Vektor vl B, so dass B 0 = B\{vl } immer noch ein Erzeugendensystem ist, das heit aber,
dass vl LH(B 0 ) und somit ist mit Proposition 6.2.5 die Menge B linear abhangig, im
Widerspruch zur Definition einer Basis.
(ii) (i) Wir nehmen an B sei ein minimales Erzeugendensystem von V , aber nicht
linear unabh
angig. Aufgrund von Proposition 6.2.5 gibt es dann einen Vektor vl B, der
Linearkombination der Vektoren in B 0 = B\{vl } ist. Dann ist die lineare H
ulle von B 0
gleich der linearen H
ulle von B im Widerspruch zur Minimalitat.

87


KAPITEL 6. VEKTORRAUME

6.2. BASIS UND DIMENSION

(i) (iii) Jede Basis ist per Definition linear unabhangig, bleibt also zu zeigen, dass sie
maximal mit dieser Eigenschaft ist. Angenommen sie ware nicht maximal, d. h. es gibt
einen Vektor v V , so dass die Menge B 0 = B {v} immer noch linear unabhangig ist.
Das ist aber nur dann m
oglich, wenn v
/ LH(B) (folgt aus Proposition 6.2.5) und damit
ist B kein Erzeugendensystem.
(iii) (i) Wir nehmen an B sei eine maximale Menge linear unabhangiger Vektoren in
V , aber kein Erzeugendensystem von V . Dann gibt es einen Vektor v V der nicht in
der linearen H
ulle LH(B) liegt. Dann ist aber nach Proposition 6.2.5) die Menge B {v}
immer noch linear unabh
angig, was im Widerspruch zur Maximalitat steht.
Beispiel 6.2.12
Sei V = K 3 und v1 = (1, 2, 0) V . Dieser Vektor ist linear
unabh
angig, da es nicht der Nullvektor ist. Aber die Menge {v1 } ist nicht maximal,
da zum Beispiel v2 = (1, 2, 1) linear unabhangig zu v1 ist.
Es ist nicht sehr schwierig einen Vektor v2 = (a1 , a2 , a3 ) zu finden, der linear
unabh
angig zu v1 ist. Selbst wenn wir die ersten beiden Komponenten gleich
wahlen, d. h. a1 = 1, a2 = 2, dann f
uhrt nur die Wahl a3 = 0 zu einem Vektor,
der von v1 abh
angig ist, wohingegen jede Wahl a3 K\{0} zu einem zu v1 linear
unabh
angigen Vektor f
uhrt.
Die Menge {v1 , v2 } ist also per Konstruktion linear unabhangig, allerdings ist
sie immer noch nicht maximal. Daf
ur wahlen wir zum Beispiel den Vektor v3 =
(0, 1, 0). Die Menge B = {v1 , v2 , v3 } ist linear unabhangig, aber sie ist auch
maximal mit dieser Eigenschaft, so dass sie eine Basis ist.
Wir betrachten den Vektorraum V = K 2 und darin die Vektoren
v1 = (1, 1) v2 = (2, 2) v3 = (1, 0)

v4 = (2, 1)

Diese bilden ein Erzeugendensystem von V . Allerdings ist es nicht minimal, da


offensichtlich v2 = 2v1 und somit auch die Menge {v1 , v3 , v4 } ein Erzeugendensystem
ist. Aber auerdem gilt v4 = v1 + v3 , so dass man auch den Vektor v4 noch
entfernen kann ohne die lineare H
ulle zu andern. Somit ist B = {v1 , v3 } ein
Erzeugendensystem von V . Dies ist minimal, da beide Vektoren linear unabhangig
sind.

Satz 6.2.13 (Existenz von Basen)


Jeder endlich erzeugte Vektorraum V 6= {0V } besitzt eine Basis.
Beweis. W
ahle ein Erzeugendensystem von B V und entferne solange Vektoren v B
aus der Menge B, bis B die Definition einer Basis erf
ullt.
Der Nullvektorraum {0V } hat keine Basis, da er nur aus einem einzigen Vektor besteht,
namlich dem Nullvektor und dieser ist linear abhangig.
Im nachsten Schritt wollen wir die Anzahl der Elemente einer Basis, also ihre Lange,
untersuchen und werden dabei feststellen, dass diese nur vom Vektorraum abhangt, aber
nicht von der speziell gew
ahlten Basis. Daf
ur benotigen wir folgenden Satz.

88


KAPITEL 6. VEKTORRAUME

6.2. BASIS UND DIMENSION

Satz 6.2.14 (Austauschsatz)


Sei V ein Vektorraum mit endlicher Basis B := {b1 , . . . , bk }, sowie 0V =
6 v V . Dann
gibt es ein bl B, sodass
B 0 := {b1 , . . . , bl1 , v, bl+1 , . . . , bk }
eine Basis von V ist.
Pk
Beweis. Da B eine Basis von V ist, existieren 1 , . . . , k K mit v =
i=1 i bi . Da
v 6= 0V , ist eines der i von Null verschieden. Durch Umnummerieren erhalt man 1 6= 0
und B 0 = {v, b2 , . . . , bk }. Es ist also zu zeigen, dass zum einen LH(B 0 ) = V gilt, und dass
B 0 linear unabh
angig ist.
(i) Zeige: LH(B 0 ) = V .
Sei u
P V . Weil B eine Basis von V ist, existieren 1 , . . . , k K, sodass
u = ki=1 i bi . Da oben gew
ahltes 1 6= 0, ist
k

b1 =

X i
1
v
bi .
1
1
i=1

Ersetzt man das b1 auf diese Weise in der Darstellung von u, so erhalt man eine
Linearkombination von u in den Vektoren aus B 0 .
(ii) Zeige: B 0 ist linear unabh
angig.
P
Seien 1 , . . . , k K, sodass 1 v + ki=2 i bi = 0. Durch Einsetzen der Darstellung
von v erh
alt man
!
k
k
X
X
0 = 1
i bi +
i bi
i=1

= (1 1 )b1 +

i=2
k
X

(1 i + i )bi .

i=2

Da B eine Basis ist, verschwinden all diese Koeffizienten. Insbesondere ist 1 1 = 0,


also wegen 1 6= 0 bereits 1 = 0. F
ur die weiteren Koeffezienten gilt demnach f
ur
alle i {2, . . . , k}
0 = 1 i + i = i .
Satz 6.2.15 (Eindeutige L
ange einer Basis)
Sei V ein endlich erzeugter K-Vektorraum. Dann haben je zwei Basen von V gleich viele
Elemente.
Beweis. Seien B := {b1 , . . . , bn } und C := {c1 , . . . , cm } Basen von V und ohne Einschrankung n > m. Der Austauschsatz 6.2.14 besagt, dass m Vektoren von B durch
m Vektoren aus C ausgetauscht werden. Man erhalt (durch geeignetes Umnummerieren)
B 0 := {c1 , . . . , cm , bm+1 . . . bn } als Basis von V.
Da C eine Basis und damit eine maximale linear unabhangige Menge ist, muss B 0 linear
abhangig sein. Dies steht im Widerspruch dazu, dass B eine Basis ist.

89


KAPITEL 6. VEKTORRAUME

6.2. BASIS UND DIMENSION

Definition 6.2.16 (Dimension)


Sei B = {b1 , . . . , bk } eine Basis eines Vektorraums V . Dann heit
dim(V ) = dimK (V ) := k
die Dimension von V . F
ur V = {0V } setzen wir dim(V ) := 0.

Beispiel 6.2.17 Der K n hat die Basis B = {e1 , e2 , . . . , en } wobei die Vektoren ei an
allen Stellen den Eintrag null haben auer an der i-ten Stelle
ei = (0, 0, . . . , 0, 1, 0, . . . , 0).
Dies ist eine Basis, die sogenannte Standardbasis, da der Vektor v = (1 , 2 , . . . , n )
als Linearkombination der ei geschrieben werden kann:
v = (1 , 2 , . . . , n ) =

n
X

i ei .

i=1

Also ist B ein Erzeugendensystem. Es folgt, aber auch, dass die Menge B eine Basis ist,
denn wenn
n
X
0V =
i ei = (1 , 2 , . . . , n )
i=1

gilt, dann muss schon 1 = 2 = = n = 0 gelten.


Somit hat der K n die Dimension n.

Satz 6.2.18 (Basiskriterien)


Sei V ein Vektorraum der Dimension k N und B V .
(i) Ist B linear unabh
angig und #B = k, so ist B eine Basis von V .
(ii) Ist B ein Erzeugendensystem von V und #B = k, so ist B eine Basis von V .

Beweis. (i) Angenommen B = {v1 , . . . , vk } sei keine Basis, das heit sie ist kein Erzeugendensystem. Dann k
onnten Vektoren vk+1 , . . . , vn hinzuf
ugen, so dass die Menge
{v1 , . . . , vn } eine Basis ist. Dann hatten wir allerdings eine Basis mit n > k Elementen
in einem k-dimensionalen Vektorraum im Widerspruch zu Satz6.2.15.
(ii) Angenommen B = {v1 , . . . , vk } sei keine Basis, das heit nicht linear unabhangig.
Aufgrund von Proposition 6.2.5 konnen wir dann Vektoren vl aus B entfernen, bis
B 0 = B\{vl | l I {1, . . . , k}} linear unabhangig ist. Aber dann ware B 0 eine
Basis mit n < k Elementen in einem k-dimensionalen Vektorraum im Widerspruch
zu Satz6.2.15.
Dieser Satz ist sehr praktisch, da es nun gen
ugt eine der beiden Eigenschaften lineare Unabhangigkeit oder Erzeugendensystem zu zeigen, wenn die Dimension des Vektorraums
bekannt ist.

90


KAPITEL 6. VEKTORRAUME

6.3. SUMMEN UND DIREKTE SUMMEN

Satz 6.2.19 (Basiserg


anzung)
Sei V ein endlich erzeugter Vektorraum der Dimension n N und v1 , . . . , vk V linear
unabhangig (k n). Dann existieren vk+1 , . . . , vn V , sodass {v1 , . . . , vk , vk+1 , . . . , vn }
eine Basis von V ist.
Beweis. Ist k = n, so bildet {v1 , . . . , vk } nach Satz 6.2.18 bereits eine Basis. Sei also k < n
und B = {b1 , . . . , bn } eine Basis von V . Durch Anwenden des Austauschsatzes 6.2.14 und
geeignetem Umnummerieren erh
alt man
{v1 , . . . , vk , bk+1 , . . . , bn } als Basis von V.

6.3. Summen und direkte Summen


U und V seien Unterr
aume eines Vektorraums W . Im Gegensatz zu dem Durchschnitt
U V ist die Vereinigungsmenge U V im allgemeinen kein Unterraum. Der kleinste
Untervektorraum von W , in welchem sowohl U als auch V enthalten sind, entspricht der
Menge aller (endlichen!) Linearkombinationen LH(U V ), welche sich aus Vektoren von U
und V bilden lassen. Diesen Vektorraum bezeichnet man als Summe U + V der Unterraume
U und V .
Definition 6.3.1 Es seien U, V W zwei Unterraume eines K-Vektorraums W . Dann
bezeichnet man
U + V := {w W | u U undv V, so dass gilt:w = u + v}

(6.1)

als die Summe von U und V .

Satz 6.3.2 Es seien U, V zwei endlich dimensionale Unterraume eines K-Vektorraums


W . Dann ist die Dimension ihrer Summe gegeben durch
dim(U + V ) = dim U + dim V dim(U V ) .

(6.2)

Beweis. Die Vorgehensweise des Beweises besteht darin, eine Basis von U + V zu wahlen
und die Anzahl der Vektoren zu z
ahlen. Dabei besteht die Schwierigkeit im wesentlichen
darin, da die Vektoren, welche sich in nat
urlicher Weise als Basis anbieten auch tatsachlich
eine Basis darstellen, d.h. insbesondere auch linear unabhangig sind.
Es sei y1 , . . . , yk eine Basis von U V .
Nach dem Basiserg
anzungssatz gibt es u1 , .., um U , so da y1 , . . . , yk , u1 , . . . , um
eine Basis von U ist.
Ebenso lassen sich v1 , . . . , vn V finden, so da y1 , . . . , yk , v1 , . . . , vn eine Basis von
V ist.

91


KAPITEL 6. VEKTORRAUME

6.3. SUMMEN UND DIREKTE SUMMEN

zeige: y1 , . . . , yk , u1 , . . . , um , v1 , . . . , vn bilden ein Erzeugendensystem von U + V .


Sei x U + V vorgegeben. Dann existieren u U und v V mit x = u + v. Also gibt
es Skalare 1 , . . . , k , 1 , . . . , m K und 1 , . . . , k , 1 , . . . , n K derart, da
u = 1 y1 + + k yk + 1 u1 + + m um

und

v = 1 y1 + + k yk + 1 v1 + + n vn .
Mithin erhalten wir
x = u + v = (1 + 1 )y1 + + (k + k )yk + 1 u1 + + m um + 1 v1 + + n vn ,
woraus U + V LH(y1 , . . . , yk , u1 , . . . , um , v1 , . . . , vn ) folgt.
zeige: y1 , . . . , yk , u1 , . . . , um , v1 , . . . , vn sind linear unabh
angig.
Dazu betrachten wir die Gleichung
1 y1 + + k yk + 1 u1 + + m um + 1 v1 + + n vn = 0W

(6.3)

und setzen
u := 1 y1 + + k yk + 1 u1 + + m um .
Wegen (6.3) mu
1 v1 + + n vn = u
gelten. Also ist nicht nur 1 v1 + + n vn V sondern auch 1 v1 + + n vn U
bzw. zusammenfassend 1 v1 + + n vn U V . Daher existieren 1 , . . . , k K
mit
1 y1 + + k yk = 1 v1 + + n vn ,
so da Gleichung (6.3) die Form
(1 + 1 )y1 + + (k + k )yk + 1 u1 + + m um = 0W
annimmt. Da y1 , . . . , yk , u1 , . . . , um als Basis von U linear unabangig ist, m
ussen alle
Koeffizienten verschwinden, insbesondere konnen wir 1 = = m = 0 folgern.
Damit verk
urzt sich (6.3) zu
1 y1 + + k yk + 1 v1 + + n vn = 0W .
Diese Gleichung kann jedoch ebenfalls nur f
ur verschwindende 1 , . . . , k , 1 , . . . , n
bestehen, weil auch y1 , . . . , yk , v1 , . . . , vn als Basis von V linear unabhangig sind. Insgesamt haben wir also folgern konnen, da (6.3) nur auf triviale Weise erf
ullbar, womit
die lineare Unabh
angigkeit der Vektoren y1 , . . . , yk , u1 , . . . , um , v1 , . . . , vn erwiesen
ist.
Damit sind y1 , . . . , yk , u1 , . . . , um , v1 , . . . , vn als Basis von U + V bestatigt und es
folgt
dim(U + V ) = k + m + n
= (k + m) + (k + n) k
= dim U + dim V dim(U V ) ,
was zu beweisen war.

92


KAPITEL 6. VEKTORRAUME

6.3. SUMMEN UND DIREKTE SUMMEN

Definition 6.3.3 Die Summe zweier Unterraume U, V W eines K-Vektorraumes W


heit direkte Summe, sofern U V = {0W } gilt. In diesem Fall schreibt man U V
statt U + V .

Satz 6.3.4 F
ur die Summe U + V zweier Unterraume U, V W eines K-Vektorraumes
sind folgende Aussagen
aquivalent:
i) Zu jedem Vektor x U + V gibt es ein eindeutig bestimmtes u U und v V
mit x = u + v.
ii) U V = {0W }.
Beweis. ii) i) Angenommen der Vektor x U + V erlaube zwei unterschiedliche
Darstellungen
x = u1 + v1 = u2 + v2
mit u1 , u2 U und v1 , v2 V , wobei u1 6= u2 und v1 6= v2 . Aus dieser Gleichung folgt
u1 u2 = v1 v2 ,
| {z } | {z }
U

weshalb u1 u2 , v2 v1 U V . Da u1 u2 =
6 0W folgt U V 6= {0W } im Widerspruch zu ii).
i) ii) Angenommen U V 6= {0W }. Dann existiert y U V mit y 6= 0W . Der
Vektor x U + V habe die Darstellung x = u + v mit u U und v V . Dann gilt auch
x = (u + y) + (v y), wobei u + y U und v y V . Damit ist eine zweite Darstellung
gefunden im Widerspruch zu i).
Korollar 6.3.5 F
ur zwei Untervektorraume U, V W eines endlichdimensionalen
K-Vektorraums W sind folgende Aussagen aquivalent:
i) W = U V .
ii) W = U + V und dim W = dim U + dim V .
iii) U V = {0W } und dim W = dim U + dim V .
Beweis. i) ii) Aussage i) impliziert per Definition des -Symbols W = U + V und
U V = {0W }. Mittels der Dimensionsformel (6.2) folgt dann dim W = dim(U + V ) =
dim U + dim V .
ii) iii) Da dim W = dim(U + V ) folgt aus der Voraussetzung in ii) und der Dimensionsformel (6.2), da dim(U V ) = 0. Also ist U V = {0W }.
iii) i) Aus U V = {0W } folgt nach der Dimensionsformel dim(U + V ) = dim U + dim V .
Die Voraussetzung in iii) liefert dann dim(W ) = dim(U +V ). Da der Unterraum U +V W
von gleicher Dimension ist wie W , folgt U + V = W und damit U V = W , weil U und V
trivialen Durchschnitt haben.

93


KAPITEL 6. VEKTORRAUME

6.3. SUMMEN UND DIREKTE SUMMEN

Wir wollen jetzt die Begriffe dieses Kapitels mit unserer geometrischen Anschauung verbinden.
Beispiel 6.3.6 Sei V = R2 , dann konnen wir uns einen Vektor v V als Punkt in einer
Ebene vorstellen (oder auch als Pfeil vom Ursprung zu diesem Punkt). Da der R2 ein
zweidimensionaler R-Vektorraum ist, gibt es drei Arten von Untervektorraumen - welche
mit Dimension 0, 1 oder 2. Ein Raum der Dimension 0 enthalt nur den Nullvektor. Da
der R2 die Dimension zwei hat, ist ein Unterraum der Dimension 2 schon der ganze R2 .
Ein Unterraum U der Dimension 1 hat eine Basis bestehend aus einem Vektor u U ,
der nicht der Nullvektor ist. Die lineare H
ulle dieses Vektor besteht aus allen Vielfachen
dieses Vektors. Diese Vielfache entsprechen geometrisch allen Punkten, die auf der vom
Nullpunkt und u aufgespannten Geraden liegen. Also ist U = LH(u) eine Gerade durch
den Ursprung.
Seien U1 , U2 V Untervektorr
aume der Dimension 1 und sei u1 eine Basis von U1 und
u2 eine Basis von U2 . Es gibt zwei Situationen die eintreten konnen:
1. U1 = U2 , dann sind die Vektoren u1 , u2 linear abhangig und der Durchschnitt
U1 U2 = U1 . Mithilfe der Dimensionsformel (6.2) konnen wir berechnen
dim(U1 + U2 ) = dim U1 + dim U2 dim(U1 U2 ) = 1 + 1 1 = 1,
das heit die Summe U1 + U2 = U1 .
2. U1 =
6 U2 , dann sind die Vektoren u1 , u2 linear unabhangig und der Durchschnitt
U1 U2 = {0V }. Mithilfe der Dimensionsformel (6.2) konnen wir berechnen
dim(U1 + U2 ) = dim U1 + dim U2 dim(U1 U2 ) = 1 + 1 0 = 2,
das heit die Summe U1 + U2 = R2 , und somit gilt sogar U1 U2 = R2 .

Beispiel 6.3.7 Sei V = R3 , dann konnen wir uns einen Vektor v V als Punkt im
Raum vorstellen (oder auch als Pfeil vom Ursprung zu diesem Punkt). Da der R3 ein
dreidimensionaler R-Vektorraum ist, gibt es drei Arten von Untervektorraumen - welche
mit Dimension 0, 1, 2 oder 3. Der Raum {0V } ist der einzige Unterraum der Dimension
0 und der R3 selbst der einzige Unterraum der Dimension drei.
Ein Unterraum U der Dimension 1 entspricht wie in Beispiel 6.3.6 einer Gerade durch
den Ursprung. Ein Unterraum der Dimension 2 wird von 2 linear unabhangigen Vektoren
erzeugt und ist somit eine Ebene durch den Ursprung.
Seien U, W V Untervektorr
aume. Wir betrachten 2 Situationen in denen wir die
Summer U + W berechnen.
1. Sei U ein Unterraum der Dimension 1 mit Basis u 6= 0V und W ein Unterraum
der Dimension 2 mit Basis w1 , w2 . Wenn u
/ W , dann ist auch U 6 W und somit
ist U W = {0V }. Mithilfe der Dimensionsformel (6.2) konnen wir berechnen
dim(U + W ) = dim U + dim W dim(U W ) = 1 + 2 0 = 3,

94


KAPITEL 6. VEKTORRAUME

6.3. SUMMEN UND DIREKTE SUMMEN

das heit die Summe U + W ist der ganze R3 . Aufgrund von U W = {0V } ist
die Summe sogar direkt U W = R3 .
2. Seien U, W ( R3 Unterr
aume der Dimension 2 mit den Basen u1 , u2 , bzw. w1 , w2 .
Wenn U 6= W , dann gibt es in U einen Vektor u, der zu w1 , w2 linear unabhangig
ist, so dass u, w1 , w2 eine Basis des R3 ist. Daher ist U + W = R3 und wir konnen
mit der Dimensionsformel (6.2) die Dimension des Durchschnitt U W berechnen
3 = dim(U + W ) = dim U + dim W dim(U W ) = 2 + 2 dim(U W ).
Somit ist dim(U W ) = 1, das heit, wenn sich zwei Ebenen im Raum schneiden,
dann entsteht eine Gerade.

95

7. Matrizen, lineare Gleichungssysteme


und lineare Abbildungen
Lineare Gleichungssysteme werden meist schon in der Schule behandelt um geometrische
Fragestellungen zu beantworten. Schreibt man die Koeffizienten vor den Unbekannten des
linearen Gleichungssystems in Form eines tabellenartigen Schemas Matrix genannt und die
Unbekannten dahinter als Spaltenvektor, dann kann man ein lineares Gleichungssystem in
knapper und u
uhren der Unbekannten
bersichtlicher Weise untersuchen. Das spart das Mitf
in jedem Rechnenschritt und liefert gleichzeitig eine neue Sichtweise. Wir werden sehen,
dass auch das Studium von Abbildungen zwischen Vektorraumen zwangslaufig zu Matrizen
f
uhrt. Dies erm
oglicht uns enge Zusammenhange zwischen diesen auf den ersten Blick
unterschiedlichen Objekten herzustellen, wodurch wir zu neuen Erkenntnissen gelangen.

7.1. Matrizen
In diesem Abschnitt wollen wir lernen mit Matrizen zu rechnen und sehen welche Art von
Operationen mit ihnen m
oglich sind.
Definition 7.1.1 Seien m und n zwei nat
urliche Zahlen, m, n 1 und K ein Korper. Eine mn Matrix A mit Eintr
agen in K ist ein rechteckiges, tabellenformiges Zahlenschema
mit m Zeilen und n Spalten

a11 a12 ... a1n


a21 a22 ... a2n


A= .
= aij i{1,...,m} = (aij ),

.
.
..
..
..
j{1,...,n}

am1 am2 ... amn


wobei aij K. Wir sagen A ist eine m kreuz n Matrix.
Wir bezeichnen mit MatK (m, n) die Menge der m n Matrizen mit Eintragen in K.
Insbesondere, wenn aus dem Kontext klar ist wie viele Zeilen und Spalten eine Matrix hat,
dann benutzen wir die verk
urzende Schreibweise A = (aij ).
Analog zum Vektorraum K n definieren wir eine Addition f
ur Matrizen gleicher Groe,
sowie eine Skalarmultiplikation.
Definition 7.1.2
Seien A, B MatK (m, n), K, dann definieren wir die
Summe, sowie die Skalarmultiplikation von Matrizen
A + B = (aij + bij )i{1,...,m}
j{1,...,n}

96

und A = (aij )i{1,...,m} .


j{1,...,n}

KAPITEL 7. MATRIZEN, LGS UND LINEARE ABBILDUNGEN

7.1. MATRIZEN

Seien A = (aik ) MatK (m, n) und B = (bkj ) MatK (n, p). F


ur i {1, ..., m}
und j {1, ..., p} werden durch
cij :=

n
X

aik bkj

(7.1)

k=1

die Koeffizienten einer m p Matrix C := (cij ) MatK (m, p) festgelegt, die man
die Produktmatrix von A und B nennt, man schreibt daf
ur C = A B = AB.
Um die Produktmatrix AB berechnen zu konnen, ist es notwendig, dass die Matrix A
genauso viele Spalten hat, wie die Matrix B Zeilen hat. Das Produkt hat dann so viele
Zeilen wie A und so viele Spalten wie B.
Zur Berechnung des Eintrags in der i-ten Zeile und der j-ten Spalte des Produkts, benotigt
man die i-te Zeile von A und die j-te Spalte von B. Diese haben gleich viele Eintrage,
namlich n St
uck, so dass es m
oglich ist den k-ten Eintrag der i-ten Zeile von A mit dem
k-ten Eintrag der j-ten Spalte von B zu multiplizieren. Diese f
ur k = 1, . . . , n berechneten
Produkte werden dann aufaddiert.

Beispiel 7.1.3

1
2
Wir berechnen die Summe der Matrizen A = 0 2 ,
1 0

3
0

2
1 MatK (3, 2) und erhalten
B=
1 2

1
2
3
0
4
2
1 = 2 1 .
A + B = 0 2 + 2
1 0
1 2
2 2
Auerdem berechnen wir 5 A und erhalten

1
2
5
10
5 A = 5 0 2 = 0 10 .
1 0
5
0


1 3
Wir berechnen das Produkt der Matrizen A =
MatK (2, 2) und
2 5


2 1
B=
MatK (2, 2). Dies ist moglich, da A genauso viele Spalten hat, wie
1 1
B Zeilen, n
amlich 2.

 
 
 

1 3
2 1
1 2 + 3 (1)
11+31
1 4
AB =

=
=
.
2 5
1 1
2 2 + 5 (1) 2 1 + 5 1
9 3

1 4
Jetzt wollen wir das Produkt der Matrizen A = 2 5 MatK (3, 2) und
3 6


1 0 1 2
B=
MatK (2, 4) berechnen. Auch hier kann das Produkt A B
2 3 0 1

97

KAPITEL 7. MATRIZEN, LGS UND LINEARE ABBILDUNGEN

7.1. MATRIZEN

in der Tat berechnet werden kann, da A zwei Spalten und B zwei Zeilen hat.
Umgekehrt kann B A nicht berechnet werden, da die Anzahl der Spalten von B
ungleich der Anzahl der Zeilen von A ist (4 6= 3).



1 4
1
0
1
2
A B = 2 5
2 3 0 1
3 6

1 1 + 4 2 1 0 + 4 3 1 (1) + 4 0 1 2 + 4 1
= 2 1 + 5 2 2 0 + 5 3 2 (1) + 5 0 2 2 + 5 1
3 1 + 6 2 3 0 + 6 3 3 (1) + 6 0 3 2 + 6 1

1 + 8 0 + 12 1 + 0 2 4
9 12 1 2
= 2 + 10 0 + 15 2 + 0 4 5 = 12 15 2 1
3 + 12 0 + 18 3 + 0 6 6
15 18 3 0
Die Matrix AB hat 3 Zeilen, da A 3 Zeilen hat und 4 Spalten, da B 4 Spalten hat.

Satz 7.1.4 Die Menge der m n Matrizen MatK (m, n) ist ein K-Vektorraum der
Dimension m n.
Beweis. Da eine m n-Matrix m n Eintrage aus K hat und Addition und Skalarmultiplikation komponentenweise definiert wurden, konnen wir die Menge MatK (m, n) mit dem
Vektorraum K mn identifizieren.
Das neutrale Element der Addition ist die Nullmatrix Om,n mit den Eintrage oij = 0 f
ur
alle i = 1, . . . , m und j = 1, . . . , n.
Eine Basis von MatK (m, n) bilden die Matrizen Eij , die in der i-ten Zeile und j-ten Spalte
den Eintrag 1 haben und sonst null.
Satz 7.1.5 (Assoziativit
at der Matrixmultiplikation)
Seien A MatK (m, n), B MatK (n, p), C MatK (p, q) Matrizen, dann gilt:
(A B) C = A (B C)

Beweis. Zun
achst bemerken wir, dass es moglich ist die angegebenen Produkte zu berechnen.
Das Produkt A B liegt in MatK (m, p) und kann daher mit der Matrix C MatK (p, q)
multipliziert werden, so dass (A B) C MatK (m, q).
Auf der anderen Seite liegt B C MatK (n, q) so dass A (B C) Sinn ergibt und ebenfalls
in MatK (m, q) liegt.
Wir betrachten jetzt einen Eintrag des Produkts (A B) C:
(A B) C


ij

p
P


Bilde das Produkt von AB und C
(A B)i` c`j
`=1 

p
n

P
P
=
aik bk` c`j Bilde das Produkt von A und B
=

`=1 k=1
p P
n
P

aik bk` c`j


Distributivgesetz in K

`=1k=1

98

KAPITEL 7. MATRIZEN, LGS UND LINEARE ABBILDUNGEN

7.1. MATRIZEN

p
n P
P


Kommutativgesetz der Addition in K
aik bk` c`j
k=1`=1 

p
n

P
P
Distributivgesetz in K
bk` c`j
aik
=

`=1

k=1
n
P

aik (B C)kj
k=1

= A (B C) ij


Definition des Produkts von B und C

Definition des Produkts von A und BC

Diese Rechnung gilt f


ur alle i = 1, . . . , m und j = 1, . . . , q und damit f
ur alle Eintrage der
Produktmatrizen.
Satz 7.1.6 (Distributivit
at der Matrixmultiplikation)
Seien A MatK (m, n), B MatK (n, p), C MatK (n, p) Matrizen, dann gilt:
A (B + C) = A B + A C
Seien A MatK (m, n), B MatK (m, n), C MatK (n, p) Matrizen, dann gilt:
(A + B) C = A C + B C

Beweis. Zun
achst bemerken wir, dass es moglich ist die angegebenen Summen und Produkte
zu berechnen. Die Summe B + C liegt in MatK (n, p) und kann daher mit der Matrix
A MatK (m, n) multipliziert werden, so dass A (B + C) MatK (m, p).
Auf der anderen Seite liegt sowohl A B MatK (m, p), als auch A C MatK (m, p), so
dass die Summe A B + A C Sinn ergibt und ebenfalls in MatK (m, q) liegt.
Wir betrachten jetzt einen Eintrag des Produkts A (B + C):
A (B + C)


ij

=
=
=

n
P

ai` (B + C)`j

`=1
n
P

ai` (b`j + c`j )

`=1
n
P

(ai` b`j + ai` c`j )

`=1
n
P


Bilde das Produkt von A und B + C

Bilde die Summe von B und C

Distributivgesetz in K

n
P


ai` c`j Assoziativgesetz der Addition in K
`=1
`=1

Definition des Produkts von A und B, bzw. von A und C
= (AB)ij + (AC)ij

ai` b`j +

Das zweite Distributivgesetz wird analog bewiesen.


Es ist notwendig beide Distributivgesetze anzugeben, da die Matrixmultiplikation nicht
kommutativ ist und somit nicht das eine Gesetz aus dem anderen folgt.
Satz 7.1.7 Seien A MatK (m, n), B MatK (n, p) Matrizen und K, dann gilt:
(A B) = ( A) B = A ( B)

99

KAPITEL 7. MATRIZEN, LGS UND LINEARE ABBILDUNGEN

7.1. MATRIZEN

Beweis. Multiplikation mit einem Skalar andert die Groe einer Matrix nicht, so dass alle
Produkte definiert sind.
Wir betrachten jetzt einen Eintrag des Produkts (A B):
(A B)


ij

n
P

ai` b`j


Bilde das Produkt von A und B

`=1
n
P


(ai` ) b`j Assoziativitat der Multiplikation in K
`=1

= ((A) B)ij Definition des Produkts von A und B .
=

Auf analoge Weise l


asst sich auch die Gleichung (A B) = A ( B) zeigen.
Satz 7.1.8 Die Menge der quadratischen Matrizen MatK (n, n) ist ein Ring mit Eins.
Beweis. Die Eigenschaften der Addition folgen aus Satz 7.1.4. Das Assoziativgesetz der
Multiplikation folgt aus Satz 7.1.5 und das Distributivgesetz aus Satz 7.1.6.
Das neutrale Element der Multiplikation ist die Einheitsmatrix

1 0 0 0
0 1 0 0

En =
,
0 0 . . . 0
0 0

dies ist eine Matrix mit den Eintr


agen 1 auf der Diagonale und null sonst. Die Einheitsmatrix
ist das neutrale Element der Multiplikation, denn es gilt
(A En )ij =

n
X

aik (En )kj = aij ,

k=1

da (En )kj = 1, wenn k = j und (En )kj = 0, wenn k 6= j.


Bemerkung 7.1.9 Der Ring MatK (n, n) ist f
ur n > 1 nicht kommutativ, da zum
Beispiel

 
 
 
 
 

2 0
1 1
2 2
2 1
1 1
2 0
AB =

=
6=
=

= B A.
0 1
0 1
0 1
0 1
0 1
0 1
Das bedeutet allerdings nicht, dass Matrizen nie miteinander kommutieren. So folgt aus
Satz 7.1.7, dass Vielfache der Einheitsmatrix En mit allen n n Matrizen kommutieren,
denn es gilt
En A = A = A En = A En .

Bemerkung 7.1.10 F
ur nichtquadratische Matrizen macht das Produkt B A nicht
zwangsl
aufig Sinn, nur weil A B Sinn macht. Und selbst wenn beide Produkte Sinn
ergeben, dann ist die entstehende Matrix von einem anderen Format. Als Beispiel

100

KAPITEL 7. MATRIZEN, LGS UND LINEARE ABBILDUNGEN

7.1. MATRIZEN

berechnen wir das Produkt eines


und eines Spaltenvektors gleicher Groe.
Zeilenvektor

1
Sei also v = (2, 3, 2) und w = 0 , dann ist
2

1
v w = (2, 3, 2) 0 = 2 (1) + 3 0 + (2) 2 = 6
2
aber

1
2 3 2
0
0
w v = 0 (2, 3, 2) = 0
2
4
6 4

Die Definition der transponierten Matrix ist zum gegenwartigen Zeitpunkt ziemlich unmotiviert, das wird sich aber
andern, sobald wir Matrizen als lineare Abbildungen mit
euklidischen Vektorr
aumen und insbesondere dem Skalarprodukt in Verbindung bringen.
Definition 7.1.11 (Transponierte)
Es sei A MatK (m, n) eine Matrix. Die zu A transponierte Matrix A> MatK (n, m)
ergibt sich sich
und Zeilen von A.
 durch Vertauschen>der Spalten

Sei A = aij i{1,...,m} , dann ist A = aji j{1,...,n} .
j{1,...,n}

i{1,...,m}

Beispiel 7.1.12

A=

1 1 2
3 4 3


MatR (2, 3)

1
2
4

v=
3 MatR (4, 1) = R
1

1 3
A> = 1 4 MatR (3, 2)
2 3


v > = 1 2 3 1 MatR (1, 4)

Offenbar wird man durch zweifaches Transponieren auf die Ausgangsmatrix zur
uckgef
uhrt,
d.h. es gilt
(A> )> = A>> = A .
(7.2)
Satz 7.1.13 (Transponierte einer Produktmatrix)
Es seien A MatK (m, p) und B MatK (p, n). Dann ist die transponierte Matrix der
Produktmatrix AB MatK (m, n) gegeben durch
(AB)> = B > A> MatK (n, m),
d.h. die Transponierte der Produktmatrix entspricht dem Produkt der transponierten
Faktoren in umgekehrter Reihenfolge.

101

KAPITEL 7. MATRIZEN, LGS UND LINEARE ABBILDUNGEN

7.1. MATRIZEN

Beweis. Es seien A = (aj` ) und B = (b`i ). Da B > MatK (n, p) und A> MatK (p, m)
ist das Matrixprodukt B > A> wohldefiniert. Definitionsgema ist das Matrixelement der
Produktmatrix AB mit den Indizes i, j gegeben durch
(AB)ji =

p
P

aj` b`i .

`=1

Vertauschen der Indizes i und j liefert das Matrixelement an der Position i, j (ite Zeile,
jte Spalte) der transponierten Produktmatrix (AB)> . Somit erhalten wir


Definition der Transponierten von AB
(AB)> ij = (AB)ji
=
=

p
P


Produkt von A und B

aj` b`i

`=1
p
P


Kommutativgesetz der Multiplikation in K

b`i aj`

`=1
p
P


(B > )i` (A> )`j Definition der Transponierten von A, bzw. B
`=1

Definition des Produkts von B > und A>
= (B > A> )ij

wodurch die Behauptung best


atigt ist, denn zwei gleichformatige Matrizen sind genau dann
gleich, wenn sie in alle ihren Eintr
agen u
bereinstimmen.
Definition 7.1.14 (Spaltenrang und Zeilenrang)
Der Spaltenrang (Zeilenrang) einer Matrix A MatK (m, n) ist die maximale Anzahl
linear unabh
angiger Spaltenvektoren (Zeilenvektoren) von A.

Beispiel 7.1.15 Wir betrachten

3
2
1

die Matrix

1 0 3
0 1 0 MatR (3, 4)
1 1 3

Der Zeilenrang von A ist 2, da jeweils 2 Zeilen linear unabhangig sind, aber die erste
Zeile die Summe der zweiten und der dritten Zeile ist.
Der Spaltenrang ist ebenfalls 2, da zum einen die vierte Spalte das dreifache der zweiten
Spalten ist. Auerdem kann man die erste Spalte aus der zweiten und dritten Spalte
linear kombinieren und zwar indem man die zweite Spalte mit 3 multipliziert und die
dritte mit 2 und dies aufaddiert. Da aber die zweite und dritte Spalte linear unabhangig
sind, ist der Spaltenrang 2.
Wir sehen, dass f
ur eine m n Matrix der Zeilenrang kleiner gleich m sein muss, da es ja
genau m Zeilen gibt. Auerdem muss der Zeilenrang kleiner gleich n sein, da jede Zeile ein
Vektor aus dem K n ist und maximal n davon konnen linear unabhangig sein.
F
ur den Spaltenrang k
onnen wir analog argumentieren und erhalten die Abschatzung
Zeilenrang min(m, n)

und

Spaltenrang min(m, n).

102

KAPITEL 7. MATRIZEN, LGS UND LINEARE ABBILDUNGEN

7.1. MATRIZEN

Satz 7.1.16 (Rang einer Matrix)


Bei jeder Matrix A MatK (m, n) stimmen Spalten- und Zeilenrang u
berein.
Beweis. Da die Behauptung im Falle der Nullmatrix richtig ist, betrachten wir im folgenden
eine von der Nullmatrix verschiedene Matrix A MatK (m, n)
1
1
a1 . . . a1n
a


..
.
.. = ...
A= .
= a1 . . . an
am
. . . am
am
n
1
mit den Zeilenvektoren a1 , ..., am Kn und den Spaltenvektoren a1 , ..., an K m . Es
sei 1 s n der Spaltenrang von A. Dann gibt es s linear unabhangige Spaltenvektoren
b1 , ..., bs K m , so da sich jeder der n Spaltenvektoren a1 , ..., an als Linearkombination
der b1 , ..., bs schreiben l
at. Anders ausgedr
uckt, gibt es zu jedem Spaltenvektor ai mit
1
s
i {1, ..., n} Koeffizienten ci , ..., ci , so da
ai =

s
X

cki bk .

k=1

F
ur das Matrixelement

aji

gilt dann
aji =

s
X

cki bjk ,

k=1
j
wobei bk die jte Komponente von bk bezeichnet. Die cki s lassen sich zu s Zeilenvektoren
ck = (ck1 , ..., ckn ) zusammenfassen. Auf diese Weise lat sich die obige Gleichung f
ur den
jten Zeilenvektor aj in der Form

aj =

s
X
k=1

ck bjk =

s
X

bjk ck

k=1

schreiben. Damit ergibt sich jeder der m Zeilenvektoren als Linearkombination der s
Zeilenvektoren c1 , ..., cs Kn . Daher mu
Zeilenrang von A = z s = Spaltenrang von A
gelten. Wir erhalten nur eine obere Abschatzung des Zeilenrangs, da die lineare Abhangigkeit
der c1 , ..., cs nicht ausgeschlossen ist bzw. die lineare Unabhangigkeit der c1 , ..., cs nicht
gesichert ist.
Um die Gleichheit zu zeigen, f
uhren wir die obige Argumentation in umgekehrter Weise
durch. Dazu sei 0 z n der Zeilenrang von A. Dann gibt es z linear unabhangige
1 , ..., c
z Kn , so da sich samtliche Zeilenvektoren der Matrix A jeweils
Zeilenvektoren c
daraus linear kombinieren lassen. Analog zur obigen Rechnung lat sich daraus
Spaltenrang von A = s z = Zeilenrang von A
schlieen. Also gilt s z aber auch z s wie oben gesehen. Das ist nur moglich wenn
s = z, d.h. Spalten- und Zeilenrang sind gleich.

103

KAPITEL 7. MATRIZEN, LGS UND LINEARE ABBILDUNGEN

7.1. MATRIZEN

Definition 7.1.17 Sei A MatK (n, m) eine Matrix, dann ist Rang der Matrix A,
geschrieben rangA, definiert als der Spaltenrang von A.
Die quadratischen Matrizen bilden einen Ring (s. Def. 4.3.6), das heit wir konnen Matrizen
miteinander multiplizieren, aber es gibt nicht f
ur jedes Element ein Inverses bez
uglich der
Multiplikation. Aber genau wie in den Restklassenringen spielen die Einheiten (s. Def.
4.3.10), also diejenigen Matrizen, die ein Inverses besitzen, eine wichtige Rolle und bilden
insbesondere eine Gruppe (s. Prop. 4.3.12).
Definition 7.1.18 (Inverse)
Eine Matrix A MatK (n, n) heit invertierbar, falls eine Matrix A1 MatK (n, n)
existiert mit
A1 A = AA1 = En .
Die Matrix A1 heit die zu A inverse Matrix bzw. die Inverse von A.
Die Menge der invertierbaren n n-Matrizen wird mit Gln (K) bezeichnet (general
linear group=allgemeine lineare Gruppe).

Satz 7.1.19 Die Matrix A MatK (n, n) sei invertierbar.


i) Ist B MatK (n, n) eine weitere invertierbare Matrix, so ist auch das Matrixprodukt
AB invertierbar und es gilt
(AB)1 = B 1 A1 .
Man beachte die Analogie zur Transponierten einer Produktmatrix (siehe Satz
7.1.13).
ii) Die Matrixoperationen Transponieren und Invertieren sind miteinander vertauschbar; es gilt also
(A> )1 = (A1 )> .

Beweis. ad i) Wir m
ussen zeigen, dass B 1 A1 ein zu AB inverses Element ist, daf
ur multiplizieren wir diese Matrizen miteinander um zu sehen, ob das Produkt die Einheitsmatrix
ist:

(AB) (B 1 A1 ) = A B(B 1 A1 ) Assoziativgesetz

= A (BB 1 )A1 Assoziativgesetz


Definition der inversen Matrix
= A En A1
= AA1


Einheitsmatrix ist neutrales Element

= En


Definition der inversen Matrix

Dieser Beweis entspricht dem Beweis von Proposition 4.3.12.

104

KAPITEL 7. MATRIZEN, LGS UND LINEARE ABBILDUNGEN

7.1. MATRIZEN

ad ii)

A> (A1 )> = (A1 A)> Satz 7.1.13

Definition der inversen Matrix
= E>
n

Transponieren der Einheitsmatrix ergibt die Einheitsmatrix
= En
Damit besitzt (A1 )> genau die definierende Eigenschaft der Inversen (A> )1 von A> .
Definition 7.1.20 Drei spezielle Arten von quadratischen Matrizen werden als Elementarmatrizen bezeichnet:

Diag(1 , 2 , . . . , n ) =

.
.

.
n
Die Matrix A = Diag(1 , 2 , . . . , n ) hat die Eintrage aii = i und aij = 0,
wenn i 6= j. Man bezeichnet Diag(1 , 2 , . . . , n ) als Diagonalmatrix, da sie nur
Eintr
age auf der Diagonalen hat.

1
..

0
1

.
..
Tij =

1
0

..

.
1
Die Matrix A = Tij hat die Eintrage a`` = 1, wenn ` 6= i, j, aii = ajj = 0,
aij = aji = 1 und a`k = 0, sonst.

1
..

1
Mij () =

..

.
1
Die Matrix A = Mij () hat die Eintrage a`` = 1, f
ur alle ` = 1, . . . , n, aij = und
a`k = 0, sonst.

Proposition 7.1.21 Sei A MatK (n, m), dann bewirkt die Multiplikation von links
mit einer Elementarmatrix M MatK (n, n) folgende elementare Zeilenumformung:

105

KAPITEL 7. MATRIZEN, LGS UND LINEARE ABBILDUNGEN

7.1. MATRIZEN

Multiplikation mit M = Diag(1 , 2 , . . . , n ) entspricht der Multiplikation der


i-ten Zeile mit dem Wert i (f
ur i = 1, . . . , n).
Multiplikation mit M = Tij entspricht dem Vertauschen der i-ten Zeile mit der
j-ten Zeile.
Multiplikation mit M = Mij () entspricht der Addition des -fachen der j-ten
Zeile zur i-ten Zeile.
Die Multiplikation von rechts mit einer Elementarmatrix M MatK (m, m) bewirkt die
entsprechenden elementaren Spaltenumformungen.

Beispiel 7.1.22 Wir betrachten hier die Matrix

1 0
3 4
1 2 0 MatR (3, 4),
A= 3
2 1 0
1
die wir von links mit den Elementarmatrizen

1 0 0
2 0 0
Diag(2, 1, 3) = 0 1 0 , T23 = 0 0 1
0 1 0
0 0 3
multiplizieren wollen, wobei

2
Diag(2, 1, 3) A = 0
0

1 0 5
und M13 (5) = 0 1 0
0 0 1

Diag(2, 1, 3), T23 , M13 (5) MatR (3, 3).



0 0
1 0
3 4
2 0 6 8
1 0 3
1 2 0 = 3 1 2 0
0 3
2 1 0
1
6 3 0 3

Die Produktmatrix entsteht aus A durch Multiplikation der


zweiten Zeile mit 1 und der dritten Zeile mit 3.



1 0 0
1 0
3 4
1
1 2 0 = 2
T23 A = 0 0 1 3
0 1 0
2 1 0
1
3
Die Produktmatrix entsteht aus A durch


1 0 5
1
M13 (5) A = 0 1 0 3
0 0 1
2

ersten Zeile mit 2, der

0
3 4
1 0
1
1 2 0

vertauschen der zweiten und dritten Zeile.


0
3 4
9 5 3 1
1 2 0 = 3 1 2 0
1 0
1
2 1 0 1

Die Produktmatrix entsteht aus A durch Addition des f


unffachen der dritten Zeile auf
die erste Zeile.

Satz 7.1.23 Seien Diag(1 , 2 , . . . , n ), wobei i 6= 0, Tij und Mij () f


ur i 6= j Elementarmatrizen. Dann sind diese Matrizen invertierbar und besitzen die folgenden
Inversen:
1
1
Diag(1 , 2 , . . . , n )1 = Diag(1
1 , 2 , . . . , n ),

106

KAPITEL 7. MATRIZEN, LGS UND LINEARE ABBILDUNGEN

T1
ij = Tij ,

7.1. MATRIZEN

und Mij ()1 = Mij ()

Der Beweis dieses Satzes ergibt sich durch einfaches Nachrechnen, dass die angegebenen
Matrizen die Inversen sind. Es ist auch moglich sich zu u
berlegen, dass diese Matrizen
M 1 genau den elementaren Zeilenumformungen entsprechen, die die Umformungen, die
M bewirkt umkehren.
Satz 7.1.24 Jede invertierbare Matrix A MatK (n, n) ist ein Produkt von invertierbaren Elementarmatrizen.
Wir werden diesen Satz in K
urze beweisen, aber wir werden ihn jetzt bereits nutzen um die
inverse Matrix einer invertierbaren Matrix zu bestimmen. Wir nehmen an, die invertierbare
Matrix A MatK (n, n) sei das Produkt von k invertierbaren Elementarmatrizen M1 , ..., Mk ,
das heit A = M1 . . . Mk , dann ist nach Satz 7.1.19
A1 = (M1 . . . Mk )1 = Mk1 . . . M11 .
Anders formuliert: Durch sukzessives Multiplizieren der Matrizen M11 , M21 , . . . , Mk1
mit A entsteht die Einheitsmatrix. Das bedeutet, wir konnen A durch elementare Zeilenumformungen zu einer Einheitsmatrix transformieren. F
uhren wir gleichzeitig dieselben
Zeilenumformungen an einer Einheitsmatrix durch, dann erhalten wir so die zu A inverse
Matrix.
Beispiel 7.1.25 Sei

A :=

1 2
4 2


MatQ (2, 2)

gegeben. Wir bestimmen A1 durch elementare Zeilenumformungen:


!
4
1 2 | 1 0
4 2 | 0 1
1
0

+
!
1
0

6 |

4 1 |
!
1 2 | 1 0

+
0 1 |
1 0 |
0 1 |

2
3
1
3
2
3

1
6
1
3
1
6

1
6

Diese drei Zeilenumformungen entsprechen der Multiplikation von links mit den Matrizen






1 0
1 0
1 2
1
1
1
M1 =
M2 =
und M3 =
4 1
0 61
0 1

107

KAPITEL 7. MATRIZEN, LGS UND LINEARE ABBILDUNGEN

7.2. LINEARE GLEICHUNGSSYSTEME

so dass wir sehen, dass


A1 = M31 M21 M11





1 0
1 0
1 0
1
1
= M3 2
= M3
1
4 1
0 16
3 6


  1

1
1 2
1 0
3
3
=
=
2
1
2
0 1
16
3 6
3

gilt, in Ubereinstimmung
mit der obigen Rechnung.
Ebenso sehen wir, dass A gleich dem Produkt M1 M2 M3 ist. Daf
ur berechnen mit Satz
7.1.23 die Inversen der Elementarmatrizen






1 0
1 0
1 2
M1 =
M2 =
und M3 =
4 1
0 6
0 1
und erhalten
A = M 1 M2 M3





1 0
1 2
1 2
= M1
= M1
0 6
0 1
0 6


 

1 0
1 2
1 2
=
=
4 1
0 6
4 2
wie erwartet.
Zur Probe zeigen wir noch, dass A A1 = E2 ergibt.
!
!
!
1
1
4
1
2
1
1 2
+

3
3
3
3
6
= 4
=
23 1
4
4
2
4 2
+

3
6
3
3
3
6

1 0

0 1

7.2. Lineare Gleichungssysteme


In diesem Abschnitt werden wir kennenlernen, wie man lineare Gleichungssysteme mithilfe
von Matrizen kurz und knapp formulieren kann und uns damit beschaftigen, wie man sie
lost.
Definition 7.2.1 (Lineares Gleichungssystem)
Sei K ein K
orper. Ein lineares Gleichungssstem (kurz LGS) mit m Gleichungen und
n Unbekannten und Koeffizienten in K hat die Form
Ax = b,
wobei A MatK (m, n), x K n = MatK (n, 1), b K m = MatK (m, 1).
Ist b = 0V spricht man von einem homogenen LGS, sonst von einem inhomogenen
LGS.
Die Menge L(A, b) = {x K n | Ax = b} K n heit L
osungsmenge des LGS Ax = b.

108

KAPITEL 7. MATRIZEN, LGS UND LINEARE ABBILDUNGEN

7.2. LINEARE GLEICHUNGSSYSTEME

Die Matrixmultiplikation ist genauso definiert, dass das Produkt aus einer Matrix mit
einem Vektor bestehend aus Unbekannten (ein Vektor ist eine Matrix mit einer Spalte)
uns ein lineares Gleichungssystem liefert.
Beispiel 7.2.2 F
ur a11 , a12 , a21 , a22 , b1 , b2 K ist

   
a11 a12
x1
b
= 1
a21 a22
x2
b2
ein LGS mit zwei Gleichungen und zwei Unbekannten. Anders formuliert:
a11 x1 + a12 x2 = b1
a21 x1 + a22 x2 = b2



0 1 3
Beispiel 7.2.3 Sei A =
, dann ist
2 1 0

 x1


  
x2 + 3x3
0 1 3
3
x2 =
Ax =
=
2 1 0
2x1 + x2
1
x3
ein LGS mit zwei Gleichungen und drei Unbekannten.

Satz 7.2.4 Die L


osungsmenge eines homogenen LGS mit Koeffizienten aus K ist ein
K-Vektorraum.
Beweis. Da L(A, 0) K n also die Teilmenge eines Vektorraums ist, gen
ugt es zu zeigen,
dass L(A, 0) ein Untervektorraum des K n ist. Daf
ur m
ussen wir die Abgeschlossenheit
bez
uglich Addition und Skalarmultiplikation zeigen (s. Def. 6.1.5).
Seien x, y L
osungen eines homogenen LGS, d.h. Ax = 0 und Ay = 0, sowie K. Dann
gilt unter Verwendung von Satz 7.1.6 und 7.1.7:
A(x + y) = Ax + Ay = 0 + 0 = 0

und A(x) = Ax = 0 = 0.

Somit sind sowohl, x + y L(A, 0) und x L(A, 0), das heit L(A, 0) ist abgeschlossen
bez
uglich Addition und Skalarmultiplikation.
Wir wollen nun eine Strategie entwickeln wie man die Losungsmenge eines LGS bestimmen
kann. Ist die Matrix A eine Diagonalmatrix, dann ist es einfach die Losungsmenge zu
bestimmen. F
ur andere Matrizen m
ussen wir uns zunachst u
berlegen, welche Art von
Umformungen die L
osungsmenge des LSG nicht andern um dann zu zeigen, in welche
g
unstige Form die Matrix gebracht werden kann, so dass man die Losungsmenge des LGS
leicht bestimmen kann.

109

KAPITEL 7. MATRIZEN, LGS UND LINEARE ABBILDUNGEN

7.2. LINEARE GLEICHUNGSSYSTEME

Definition 7.2.5 Eine Matrix A hat obere Zeilenstufenform, wenn folgendes gilt:
Sind in Zeile i die Eintr
age der ersten k 1 Spalten gleich null, d.h. ai1 , . . . , ai(k1) = 0,
aber aik =
6 0, dann m
ussen in Zeile i + 1 mindestens die Eintrage der ersten k Spalten
a(i+1)1 , . . . , a(i+1)k = 0 sein.
F
ur eine Matrix in Zeilenstufenform heit der erste von 0 verschiedene Eintrag jeder
Zeile Leitkoeffizient dieser Zeile.

Beispiel 7.2.6

a
0

0
0

Folgende Matrizen haben obere Zeilenstufenform:


a
a

0 b 0 0 0
0 0 c
0 0 c 0 0 0
0 0 0 d
0 0 0
0 0 0 d
0 0 0 0 0 e

b
0
0

c
0

wobei a, b, c, d, e 6= 0 die Leitkoeffizienten sind und f


ur einen beliebigen Eintrag aus K
steht.

Satz 7.2.7 Die L


osungsmenge eines LGS andert sich nicht, wenn die Gleichung von
links mit einer invertierbaren Matrix M multipliziert wird:
L(A, b) = L(A0 , b0 ),
wobei A0 = M A und b0 = M b.
Beweis. Wenn x eine L
osung von Ax = b ist, dann ist x auch Losung von M Ax = M b.
Wenn x eine L
osung von A0 x = b0 ist, dann ist x auch Losung von M 1 A0 x = M 1 b0 , d. h.
1
von M M Ax = Ax = b = M 1 M b.
Aufgrund von Satz 7.1.23 sind die Elementarmatrizen Diag(1 , 2 , . . . , n ), wobei i 6= 0,
Tij und Mij () f
ur i 6= j invertierbar und entsprechen den elementaren Zeilenumformungen:
Regel a: Vertauschen zweier Zeilen.
Regel b: Addition des -fachen ( K) der Zeile j zur Zeile i.
Regel c: Multiplikation einer Zeile mit 0 6= K.
Diese Zeilenumformungen
andern also nicht die Losungsmenge eines LGS.
Satz 7.2.8 Jede Matrix l
asst sich durch elementare Zeilenumformungen in obere Zeilestufenform bringen.
Den Beweis dieses Satzes geben wir in Form eines Algorithmus an.

110

KAPITEL 7. MATRIZEN, LGS UND LINEARE ABBILDUNGEN

7.2. LINEARE GLEICHUNGSSYSTEME

Algorithmus 7.2.9 (Obere Zeilenstufenform)


Eingabe: A = (aij ) MatK (m, n)
Ausgabe: B MatK (m, n) in oberer Zeilenstufenform
Durchfu
hrung:
(1) Betrachte die erste Spalte von A

a11 . . .
..
.

ai1

..
.

Sollte a11 = 0 gelten, tausche die erste Zeile mit einer Zeile j, f
ur die aj1 6= 0 gilt
(Regel a). F
ur jede Zeile in der ai1 6= 0 gilt, tun wir jetzt folgendes: Wir addieren
i1
das aa11
-fache der ersten Zeile zur i-ten Zeile (Regel b). Somit ist der neue Eintrag
i1
a11 + ai1 = 0.
in der i-ten Zeile und ersten Spalte aa11
(2) Betrachte die restlichen Eintrage unter rechts von a11 als neue Matrix A

a11 . . .
0

..

A
0
und wende Schritt (1) auf diese an. Sind alle Eintrage der ersten Spalte von A

gleich 0, dann betrachten wir die Matrix A

a11 . . .
0 0

..
..
.
.
A
0

und wende Schritt (1) auf diese an.

Definition 7.2.10 Sei A MatK (m, n). Wir sagen, dass A in Gau-Jordan-Form
ist, wenn A in einer Zeilenstufenform ist, bei der alle Leitkoeffizienten 1 sind und oberhalb
der Leitkoeffizienten nur Nullen stehen.

Beispiel 7.2.11

1
0

0
0

Folgende Matrizen haben

0 0 0 0
1

1 0 0 0
0
0 0 1 0 0
0
0 0 0 1 0
0
0 0 0 0 0 1

Gau-Jordan-Form:
0
1
0
0

0
0
1
0

0
0

0
1

1
0

0
0

0
0
0

0
0
0

0
1
0
0

0
0

1
0

111

KAPITEL 7. MATRIZEN, LGS UND LINEARE ABBILDUNGEN

7.2. LINEARE GLEICHUNGSSYSTEME

wobei f
ur einen beliebigen Eintrag aus K steht.

Satz 7.2.12 Jede Matrix A MatK (m, n) kann durch elementare Zeilenumformungen
in Gau-Jordan-Form gebracht werden.
Auch diesen Beweis geben wir in Form eines Algorithmus an.
Algorithmus 7.2.13 (Gau-Jordan-Form)
Eingabe: Eine Matrix A MatK (m, n)
Ausgabe: Eine Matrix B MatK (m, n) in Gau-Jordan-Form.
Durchfu
hrung:
(1) Bringe A in obere Zeilenstufenform mithilfe des Algorithmus 7.2.9.
(2) Sei ai 6= 0 der Leitkoeffizient der i-ten Zeile, dann multipliziere diese Zeile mit 1/ai
(Regel c).
(3) Betrachte die erste Spalte von links mit einem Leitkoeffizienten. Steht in der j-ten
Zeile u
ber dem Leitkoeffizienten der i-ten Zeile ein Eintrag b 6= 0, dann multipliziere
die i-te Zeile mit b und addiere sie zur j-ten Zeile (Regel b).
(4) Wende Schritt (3) von links nach rechts alle Spalten mit einem Leitkoeffizienten
an.

Beispiel 7.2.14 Wir betrachten die Matrix

0
0
4 2 1
0
2 2
A = 1 2
2 4 2 3 0
die wir mithilfe elementarer Zeilenumformungen in Gau-Jordan-Form bringen wollen.
Zunachst wenden wir Algorithmus 7.2.9 an um die Matrix in obere Zeilenstufenform zu
bringen. Der erste Schritt besteht darin die ersten zwei Zeilen zu tauschen um oben links
einen Eintrag zu erhalten, der nicht null ist.

2
0
0
4
2
1

1
2
0
2
2

2
0
2
2

0
4
2
1
1
0
2
4 2 3
0

+
2
4 2 3
0

1 2 0
2
2
1 2
0
2
2

1
2
0 4 2
1
0
4
2
1
0
0
0
0 0
0
72
0
0 2
1
4
+
Die so entstandene Matrix hat obere Zeilenstufenform. Im nachsten Schritt machen wir
alle Leitkoeffizienten zu 1

1 2 0
2
2
| (1)
1 2 0 2 2
0
0
0 4 2
1 | 41
0
1 12 14
7
2
0
0 0
0
2
| 7
0
0
0
0
1

112

KAPITEL 7. MATRIZEN, LGS UND LINEARE ABBILDUNGEN

7.2. LINEARE GLEICHUNGSSYSTEME

Im letzten Schritt m
ussen alle Eintrage oberhalb von Leitkoeffizieten zu null werden.
Dies ist nur in der 5.ten Spalten noch nicht der Fall:

1 2 0 2 0
+
1 2 0 2 2

0
1 12 0
+
0
1 12 14
0
0
41
2
0
0
0
0
1
0
0
0
0
1
Diese Matrix hat nun Gau-Jordan-Form.

Definition 7.2.15 Sei Ax = b ein lineares Gleichungssystem, dann nennen wir

a11 . . . a1n b1

..
.. Mat (m, n + 1)
(A, b) := ...
K
.
.
am1 . . .

amn bm

die erweiterte (Koeffizienten-)Matrix des linearen Gleichungssystems.

Algorithmus 7.2.16 (L
osen linearer Gleichungssysteme)
Eingabe: Lineares Gleichungssystem Ax = b.
Ausgabe: L(A, b).
Durchfu
hrung:
(1) Bringe die Matrix (A, b) auf Gau-Jordan-Form (A0 , b0 ). Enthalt die Spalte b0 einen
Leitkoeffizienten von (A0 , b0 ), so besitzt das System keine Losung. Andernfalls ist
das System l
osbar - fahre fort.
osungsmenge des homogenen linearen Gleichungssystems U := L(A, 0) =
(2) Finde die L
0
L(A , 0). W
ahle dazu die Unbekannten, die nicht zu den Spalten der Leitkoeffizienten geh
oren als freie Parameter. Dr
ucke alle anderen Unbekannten mithilfe
dieser Parameter aus.
(3) Suche eine spezielle L
osung w aus L(A0 , b0 ). Setze dazu die Unbekannten, die nicht
zu den Spalten der Leitkoeffizienten gehoren auf Null. Die Unbekannten, die zu
den Spalten der Leitkoeffizienten gehoren, sind durch b0 festgelegt. Gebe
L(A, b) = w + U = {v K n | v = w + u, u U }
zur
uck.
Wir werden im Verlauf von Abschnitt 7.3, insbesondere ab Seite 131, begr
unden warum
uns dieser Algorithmus dieser Algorithmus wirklich die Losungsmenge eines linearen
Gleichungssystems berechnet. Hier wollen wir festhalten, dass sich durch das Umformen
der erweiterten Koeffizienten-Matrix in Gau-Jordan-Form die Losungsmenge des LGS
nicht andert, da wir dabei nur elementare Zeilenumfomungen verwenden.

113

KAPITEL 7. MATRIZEN, LGS UND LINEARE ABBILDUNGEN

Beispiel 7.2.17 Sei die folgende Matrix

1 2
0 0

(A, b) =
0 0

7.2. LINEARE GLEICHUNGSSYSTEME

in Gau-Jordan-Form gegeben

0 0 0 | 0
1 0 0 | 0

.
0 0 0 | 1

0 0 0 0 0 | 0
Da in der Spalte b ein Leitkoeffizient steht, hat dieses LGS keine Losung. In der letzten
Zeile des LGS steht 0 x1 + 0 x2 + 0 x3 + 0 x4 + 0 x5 = 1, eine Gleichung ohne Losung.

Beispiel 7.2.18 Sei die folgende

1
0

(A, b) =
0

Matrix in Gau-Jordan-Form gegeben

3 8 0 2 0 0 | 4
0 0 1
3
0 0 | 3

.
0 0 0
0
1 0 | 5

0 0 0 0

(7.3)

0 1 | 6

Da in der Spalte b kein Leitkoeffizient steht, hat das LGS eine oder mehrere Losungen.
Gema Schritt (2) von Algorithmus 7.2.16 berechnen wir zunachst die Losungen
x = (x1 , x2 , x3 , x4 , x5 , x6 , x7 ) des homogenen Systems

1 3 8 0 2 0 0 | 0
0 0 0 1
3
0 0 | 0

(A, 0) =
.
0 0 0 0
0
1 0 | 0
0 0 0 0

0 1 | 0

In den Spalten 2,3 und 5 steht kein Leitkoeffizient, weshalb wir die entsprechenden
Unbekannten als freie Parameter wahlen
x2 = ,

x3 =

und x5 = .

Die anderen Unbekannten liefert uns das homogene LGS. So entspricht die vierte Zeile
der Gleichung 1 x7 = 0, die dritte Zeile der Gleichung 1 x6 = 0. Die zweite Zeile
entspricht
x4 + 3x5 = 0
x4 = 3x5 = 3.
Und zuletzt betrachten wir die erste Zeile und erhalten
x1 + 3x2 + 8x3 2x5 = 0

x1 = 3x2 8x3 + 2x5 = 3 8 + 2.

Dies liefert uns die L


osungsmenge L(A, 0) = {x K 7 } wobei



8
2
3
x1
3 8 +2
0
1
0

x2



0
1

0
x3

3 = 0 + 0 +
x = x4 =
3

x5


1
0
0

0
0

0
x6
0
x7

, , K.

114

KAPITEL 7. MATRIZEN, LGS UND LINEARE ABBILDUNGEN

7.3. LINEARE ABBILDUNGEN

Um eine spezielle L
osung w L(A, b) = L(A0 , b0 ) zu berechnen, setzen wir entsprechend
Schritt (3) in Algorithmus 7.2.16 die Unbekannten, die zu Spalten ohne Leitkoeffizient
gehoren null, d. h. x2 = x3 = x5 = 0. Die anderen Unbekannten sind durch die Spalte
b0 = (b01 , b02 , b03 , b04 )> bestimmt und konnen direkt in 7.3 abgelesen werden.
Da der Leitkoeffizient der ersten Zeile in der ersten Spalte steht ist x1 = b01 = 4.
Der Leitkoeffizient der zweiten Zeile steht in der vierten Spalte und somit ergibt sich
x4 = b02 = 3. Nach dem gleichen Schema erhalten wir x6 = 5 und x7 = 6.
Damit ist insgesamt




4
3
8
2

0
1
0
0

0
0
1
0



L(A, b) = w + L(A, 0) = 3 + 0 + 0 + 3 .

0
0
0
1

5
0
0
0

6
0
0
0

7.3. Lineare Abbildungen


In den letzten Abschnitten haben wir uns mit Matrizen und linearen Gleichungssystem
beschaftigt. Nun wollen wir zu den Vektorraumen zur
uckkehren und Abbildungen zwischen ihnen studieren. Dabei interessieren uns vor allem Abbildungen, die sich mit den
Vektorraumoperationen (Addition und Skalarmultiplikation) vertragen. Solche Abbildungen nennt man linear. Sie zeichnen sich dadurch aus, da sich ihre Anwendung mit den
Vektorraumoperationen vertauschen lat, was in der Definition 7.3.1 prazisiert wird. Wir
werden sehen, dass diese Art von Abbildungen immer durch Matrizen darstellen lassen,
was uns erm
oglicht neue Erkenntnisse u
ber Matrizen und lineare Gleichungssysteme zu
gewinnen.
Definition 7.3.1 Eine Abbildung F : V W zwischen den K-Vektorraumen V und
W heit K-linear, falls f
ur alle u, v V und f
ur alle K
F (u + v) = F (u) + F (v)
F (v) = F (v)

(Vertr
aglichkeit mit der Additon)

(7.4)

(Vertr
aglichkeit mit der Skalarmultiplikation)

(7.5)

gilt.
Eine alternative Bezeichnung f
ur eine K-lineare Abbildung ist der Begriff Vektorraumhomomorphismus, bzw. Homomorphismus. Die Menge aller Homomorphismen von
V nach W wird mit HomK (V, W ) bezeichnet.
Eine lineare Abbildung F : V V von einem Vektorraum in sich selbst heit Endomorphismus. Die Menge aller Endomorphismen von V in sich selbst wird mit EndK (V )
bezeichnet.
Ein bijektiver Homomorphismus ist ein Isomorphismus, ein bijektiver Endomorphismus
ist ein Automorphismus.
Gibt es einen Isomorphismus F : V W , dann sind V und W isomorph zueinander.

115

KAPITEL 7. MATRIZEN, LGS UND LINEARE ABBILDUNGEN

7.3. LINEARE ABBILDUNGEN

Eine K-lineare Abbildung ist insbesondere immer auch ein Gruppenhomomorphismus von
der additiven Gruppe (V, +) in die additiven Gruppe (W, +) (s. Abschnitt 4.2).
Anstatt von K-linear spricht man meist einfach von linear, wenn in einem bestimmten
Kontext klar ist, welcher K
orper gemeint ist. Die beiden definierenden Eigenschaften
linearer Abbildungen in (7.4) und (7.5) lassen sich gleichwertig in einer einzigen Gleichung
F (u + v) = F (u) + F (v)

(7.6)

zusammenfassen, welche f
ur alle , K und alle u, v V bestehen mu.
Beispiel 7.3.2 Die Abbildung
F : K2 K
 
x1
x=
7 F (x) = 4x1 3x2
x2
ist linear, da
F (x + x
) = 4(x1 + x
1 ) 3(x2 + x
2 ) = (4x1 3x2 ) + (4
x1 3
x2 ) = F (x) + F (
x)
und
F (x) = 4(x1 ) 3(x2 ) = (4x1 3x2 ) = F (x)
gilt. Die Abbildung
G : K2 K
 
x1
7 G(x) = 4x1 3x2 + 2
x=
x2
hingegen ist nicht linear, da f
ur 0 6= K gilt:
G(x) = 4(x1 ) 3(x2 ) + 2 6= (4x1 3x2 + 2) = G(x).
Der konstante Term +2 sorgt hier daf
ur, dass G nicht linear ist.
Auch die Abbildung
H : K2 K
 
x1
x=
7 H(x) = 4x21 3x2
x2
ist nicht linear, da gilt
H(x + x
) = 4(x1 + x
1 )2 3(x2 + x
2 ) = 4(x21 + x
21 + 2x1 x
1 ) 3(x2 + x
2 )
6= (4x21 3x2 ) + (4
x21 3
x2 ) = H(x) + H(
x)
sofern x1 , x1 6= 0. Hier bereitet der quadratische Term x21 Probleme, da wir aufgrund der
binomischen Formel (x1 + x
1 )2 = x21 + x
21 + 2x1 x
1 erhalten und nicht x21 + x
21 wie es f
ur
Linearit
at notwendig w
are.

116

KAPITEL 7. MATRIZEN, LGS UND LINEARE ABBILDUNGEN

7.3. LINEARE ABBILDUNGEN

Beispiel 7.3.3 Sei V ein Vektorraum der Dimension n und B = {b1 , . . . , bn } eine Basis,
dann ist
F : V Kn
n
X
v=
i bi 7 (1 , . . . , n )
i=1

eine bijektive K-lineare Abbildung (also ein Isomorphismus), die sogenannte Koordinatenabbildung.
Zunachst einmal stellen wir fest, dass die Abbildung F wohldefiniert ist, also Sinn ergibt.
Da B eine Basis von V ist, kann jeder Vektor v V auf eindeutige Art und Weise als
Linearkombination der Basisvektoren geschrieben werden (s. Bem. 6.2.10). F
ur jedes
n
P
v V gibt es daher eindeutig bestimme Skalare 1 , . . . , n K, so dass v =
i bi gilt.
i=1

Diese Skalare fassen wir zu einem Vektor (1 , . . . , n ) K n zusammen, der ebenfalls


eindeutig bestimmte ist. Eigentlich spielt die Reihenfolge der Basisvektoren keine Rolle,
aber zur Definition dieser Abbildung m
ussen wir eine Reihenfolge festlegen, so dass auch
die Skalare i geordnet sind.
Nun zeigen wir Linearit
at und Bijektivitat:
n

n
n
P
P
P
i bi und somit gilt:
Sei v =
i bi und K, dann ist v =
i bi =
i=1

i=1

i=1

F (v) = F

n
X

!
(i )bi

= (1 , . . . , n ) = (, . . . , n ) = F (v).

i=1

Seien u =

n
P

i bi und v =

i=1

n
P

i bi , dann ist u + v =

i=1

und somit gilt:


F (u + v) = F

n
X

n
P

i bi +

i=1

n
P

i bi =

i=1

n
P

(i + i )bi

i=1

!
(i + i )bi

i=1

= (1 + 1 , . . . , n + n ) = (1 , . . . , n ) + (1 , . . . , n )
= F (u) + F (v).
Die Abbildung F ist bijektiv, da
G : Kn V
n
X
(1 , . . . , n ) 7 v =
i bi
i=1

eine Umkehrabbildung definiert.

117

KAPITEL 7. MATRIZEN, LGS UND LINEARE ABBILDUNGEN

7.3. LINEARE ABBILDUNGEN

Beispiel 7.3.4 Sei A MatK (m, n) eine Matrix, dann ist


FA : K n K m
x 7 A x
eine K-lineare Abbildung.
Wir bemerken zun
achst, dass ein Spaltenvektor dasselbe ist wie eine Matrix mit einer
Spalte, d. h. x K n = MatK (n, 1) und somit das Matrixprodukt A x MatK (m, 1)
gebildet werden kann.
Die Linearit
at der Abbildung folgt aus den Rechenregeln f
ur Matrizen. Die Forderung
(7.4) folgt aus dem Distributivgesetz 7.1.6 f
ur die Matrixmultiplikation
FA (x + y) = A(x + y) = Ax + Ay = FA (x) + FA (y),
desweiteren benutzen wir Satz 7.1.7 um (7.5) zu zeigen:
FA (x) = A(x) = Ax = FA (x).
Eigenschaften der Abbildung FA , wie zum Beispiel Injektivitat und Surjektivitat lassen
sich nun in die Sprache der linearen Gleichungssysteme u
bersetzen.
FA ist injektiv ist gleichbedeutend mit der Tatsache, dass f
ur x 6= y auch Ax 6= Ay
m
ist. Dies bedeutet, dass das LGS Ax = b f
ur alle b K h
ochstens eine Losung
hat.
FA ist surjektiv ist gleichbedeutend mit der Tatsache, dass es f
ur alle b K m ein
n
x K gibt, so dass Ax = b. Dies bedeutet, dass das LGS Ax = b f
ur alle b K m
mindestens eine L
osung hat.
FA ist bijektiv ist gleichbedeutend mit der Tatsache, dass das LGS Ax = b f
ur alle
b K m genau eine L
osung hat.
Wir werden in K
urze sehen, dass wir jeder K-linearen Abbildung zwischen endlichdimensionalen Vektorr
aumen eine Matrix zuordnen konnen. Aus diesem Grund werden wir
immer wieder auf das Beispiel zur
uckkommen und uns mit seiner Hilfe abstrakte Begriffe
veranschaulichen.
Proposition 7.3.5 Seien U, V, W K-Vektorraume und F : U V und G : V W
K-lineare Abbildungen. Dann gelten folgende Aussagen:
i) Die Verkn
upfung G F : U W ist eine K-lineare Abbildung.
ii) Angenommen F sei bijektiv, dann ist die Umkehrabbildung F 1 : V U eine
K-lineare Abbildung.

118

KAPITEL 7. MATRIZEN, LGS UND LINEARE ABBILDUNGEN

Beweis.

7.3. LINEARE ABBILDUNGEN

i) F
ur alle u1 , u2 U und , K gilt

(G F )(u1 + u2 ) = G(F (u1 + u2 ))

| Definition der Verkn


upfung

= G(F (u1 ) + F (u2 ))

| Linearitat von F

= G(F (u1 )) + G(F (u2 ))

| Linearitat von G

= (G F )(u1 ) + (G F )(u2 )

| Definition der Verkn


upfung.

Dies zeigt die Linearit


at der Verkn
upfung linearer Abbildungen.
ii) Seien u1 , u2 U fest, dann bezeichnen wir die Bilder unter F mit F (u1 ) = v1 und
F (u2 ) = v2 . Seien auerdem , K, dann konnen wir nachrechnen
F 1 (v1 + v2 ) = F 1 (F (u1 ) + F (u2 ))
=F

(F (u1 + u2 ))

| Definition vi
| Linearitat von F

= u1 + u2

| F 1 F = id

= F 1 (F (u1 )) + F 1 (F (u2 ))

| F 1 F = id

= F 1 (v1 ) + F 1 (v2 )

| Definition vi .

Dies zeigt die Linearit


at der Umkehrabbildung einer linearen Abbildung.
Eine Konsequenz dieser Proposition ist, dass die Menge der Automorphismen eines Vektorraums eine Gruppe bilden.
Satz 7.3.6 (Erste Eigenschaften linearer Abbildungen)
Ist F : V W K-linear, so gilt:
i) Der Nullvektor in V
d.h. F (0V ) = 0W .

wird stets auf den Nullvektor in W abgebildet,

ii) Bilder linear abh


angiger Vektoren in V sind linear abhangig in W .
iii) Urbildvektoren linear unabhangiger Vektoren in F (V ) W sind linear unabhangig
in V .
Beweis.
ad i) Da der Nullvektor das neutrale Element der Vektoraddition ist, mu unter Ausnutzung
der Linearit
at von F
F (0V ) = F (0V + 0V ) = F (0V ) + F (0V )
gelten. Subtraktion von F (0V ) W auf beiden Seiten liefert die aquivalente Gleichung
0W = F (0V ). ( Diese Aussage hatte auch direkt aus Proposition 4.2.2 gefolgert werden
konnen, da eine K-lineare Abbildung immer auch ein Gruppenhomomorphismus der
additiven Gruppen ist.)
ad ii) Die Vektoren v1 , ..., vn V seien linear abhangig. Es gibt dann Skalare 1 , ..., n K,
welche nicht s
amtlich verschwinden, mit
1 v1 + ... + n vn = 0V .

119

KAPITEL 7. MATRIZEN, LGS UND LINEARE ABBILDUNGEN

7.3. LINEARE ABBILDUNGEN

Wenden wir auf beiden Seiten dieser Gleichung die lineare Abbildung F an, so folgt
wegen der Linearit
at und der Eigenschaft i)
1 F (v1 ) + ... + n F (vn ) = F (0V ) = 0W .
Damit stellen sich aber auch die Bildvektoren F (v1 ), ..., F (vm ) in W als linear
abh
angig heraus wie behauptet.
ad iii) Eine Aussage der Form A B ist genau dann richtig, wenn die Aussage B A
richtig ist (s. Satz 2.3).
In Implikationsform liest sich Aussage ii) folgendermaen:
v1 , ..., vk V linear abh
angig w1 := F (v1 ), ..., wn := F (vk ) linear abhangig.
Da die Negation von linear abhangig linear unabhangig ist, lautet die Kontraposition
dieser Implikation:
w1 := F (v1 ), ..., wn := F (vk ) linear unabhangig v1 , ..., vk V linear unabhangig.
Also stellt die Implikation in iii) die Kontraposition der Implikation in ii) dar. Deshalb
sind die Aussagen ii) und iii) zueinander aquivalent .
N.B.: Es sei betont, da eine lineare Abbildung im allgemeinen linear unabhangige Vektoren
nicht auf linear unabh
angige Bildvektoren abbildet. Die lineare Unabhangigkeit kann also
durch Anwendung einer linearen Abbildung verloren gehen.
Satz 7.3.7 (Festlegung linearer Abbildungen durch Basisbildvektoren)
Es sei V ein endlichdimensionaler Vektorraum mit der Basis v1 , ..., vm . Ferner seien w1 , ..., wm beliebige Vekoren aus W . Dann gibt es genau eine lineare Abbildung
F : V W mit F (vi ) = wi f
ur alle i {1, ..., m}.
Beweis. Da eine Basis ein linear unabhangiges Erzeugendensystem darstellt, gibt es f
ur
jedes v V eindeutig bestimmte Koeffizienten 1 , ..., m K mit
v = 1 v1 + ... + m vm .
Aufgrund der Linearit
at von F folgt
F (v) = 1 F (v1 ) + ... + m F (vm ) = 1 w1 + ... + m wm .
Die Eindeutigkeit der Darstellung von v als Linearkombination der Basisvektoren stellt
sicher, da F (v) wohlbestimmt ist. Offensichtlich ist F durch die Wirkung auf die Basisvektoren vollst
andig festgelegt, denn f
ur jedes v V lat sich F (v) in eindeutiger Weise
berechnen.

120

KAPITEL 7. MATRIZEN, LGS UND LINEARE ABBILDUNGEN

7.3. LINEARE ABBILDUNGEN

Definition 7.3.8 Sei F : K n K m eine K-lineare Abbildung. Wir definieren eine


Matrix MF MatK (m, n), die Darstellungsmatrix der linearen Abbildung, durch

..
..
..
.
.
.

F
(e
)
F
(e
)
.
.
.
F
(e
MF =
1
2
n )

..
..
..
.
.
.
dabei werden mit ei die Standardbasisvektoren (s. Beispiel 6.2.17) bezeichnet und
F (ei ) K m ist das Bild des i-ten Basisvektors.

Bemerkung 7.3.9 Aufgrund von Satz 7.3.7 ist die Abbildung F bereits durch die
Vektoren F (e1 ), . . . , F (en ) eindeutig bestimmt, da e1 , . . . , en eine Basis des K n ist.
Die Abbildung F l
asst sich durch
F : Kn Km
x 7 MF x
zur
uckgewinnen (s. Beispiel 7.3.4). Zum einen gilt
!
n
n
X
X
F (x) = F
xi e i =
xi F (ei ),
i=1

i=1

zum anderen k
onnen wir berechnen, dass gilt:


..
..
..
x1
.
.
.

MF x =
F (e1 ) F (e2 ) . . . F (en ) .. = x1 F (e1 ) + x2 F (e2 ) + . . . + xn F (en ).
..
..
..
xn
.
.
.

Beispiel 7.3.10 Wir betrachten die lineare Abbildung


F : K2 K3

 
2x1
x1
7 3x1 x2
x2
x1 + 2x2
Durch Einsetzen k
onnen wir die Bilder der Standardbasisvektoren e1 und e2 bestimmen


 
 
2
0
1
0

7 3 ,
7 1 ,
0
1
1
2
somit ist die Matrix dieser Abbildung durch

2 0
MF = 3 1
1 2

121

KAPITEL 7. MATRIZEN, LGS UND LINEARE ABBILDUNGEN

gegeben. Wir erhalten

2
MF x = 3
1

7.3. LINEARE ABBILDUNGEN

die Abbildung F zur


uck,

 
0
2x1 +
x
1
1
= 3x1 +
x2
2
x1 +

durch



0x2
2
0
x2 = x1 3 + x2 1
2x2
1
2

Satz 7.3.11 Seien F : K p K n und G : K n K m lineare Abbildungen, die durch die


Matrizen MF MatK (n, p), bzw. MG MatK (m, n) gegeben sind. Dann ist die Matrix
der verkn
upften Abbildung G F : K p K m durch die Matrix
MGF = MG MF MatK (m, p)
gegeben.
Beweis. Zun
achst bemerken wir, dass das Matrixprodukt MG MF berechnet werden kann,
da MG MatK (m, n) und MF MatK (n, p).
Wir bezeichnen die Standardbasis des K p mit e1 , . . . , ep , die Standardbasis des K n mit
e1 , . . . , en und die Standardbasis des K m mit e1 , . . . , em .
Sei MG = A und MF = B, dann gilt per Definition, dass
b`j = F (ej )`

die `-te Komponente von F (ej )

ai` = G(
e ` )i

die i-te Komponente von G(


e` )

Und somit k
onnen wir den Spaltenvektor F (ej ) K n als Linearkombination der Basisvektoren e1 , . . . , en schreiben:


b1j
b1j
0
0
b2j 0 b2j
..


F (ej ) = . = . + 0 + + .
.. ..
0
..
bnj
0
.
bnj
(7.7)



1
0
0
n
0
1
.. X



= b1j . + b2j 0 + + bnj . =
b`j e`
..

0
`=1
..
1
0
.
Ebenso k
onnen wir den Spaltenvektor G(e` ) K m als Linearkombination der Basisvektoren
e1 , . . . , em schreiben:
G(e` ) =

m
X

ai` ei .

(7.8)

i=1

122

KAPITEL 7. MATRIZEN, LGS UND LINEARE ABBILDUNGEN

7.3. LINEARE ABBILDUNGEN

Nun konnen wir den Vektor in der j-ten Spalte der Matrix MGF bestimmen:
G F (
ej ) = G(F (
ej ))
n
X
= G( b`j e` )

| Definition der Verkn


upfung von G und F
| Einsetzen von (7.7)

`=1

=
=
=
=

n
X
`=1
n
X

b`j G(
e` )
b`j

m
X

`=1
m
X

i=1
n
X

i=1
m
X

`=1

| Linearitat von G

ai` ei

ai` b`j

| Einsetzen von (7.8)


!
ei

(A B)ij ei

| Distributivgesetz und Assoziativgesetz


| Definition des Matrixprodukts A B

i=1

Somit ist die j-te Spalte der Darstellungsmatrix der Abbildung G F genau durch die
j-Spalte des Matrixprodukts AB = MG MF gegeben.
Korollar 7.3.12 Sei id : K n K n die Identitat, dann ist Mid = En .
Sei F : K n K m bijektiv, dann ist MF 1 = MF1 , insbesondere muss n = m sein.
Beweis. Die Spalten der Matrix Mid sind die Bilder der Basisvektoren e1 , . . . , en . Da diese
durch die Identit
at auf sich selbst abgebildet werden, erhalten wir die Einheitsmatrix

1 0
0
..
..
..
.
.
0
.
0 1

= En .
.
..
Mid = e1 e2 . . . en = .
.
. 0

..
..
..
..
.
.
.
0 .
1
Wenn F : K n K m bijektiv ist, dann existiert eine Umkehrabbildung F 1 : K m K n ,
so dass F F 1 = idK n und F 1 F = idK m . Somit folgt aus Satz 7.3.11, dass gilt:
MF F 1 = MF MF 1 = MidK n = En

und MF 1 F = MF 1 MF = MidK m = Em .

Somit ist also MF 1 die zu MF inverse Matrix. Diese kann aber nur dann gebildet werden,
wenn MF quadratisch ist, das heit wenn m = n gilt.
Analog zu den Definitionen f
ur Gruppenhomomorphismen (s. Definition 4.2.5) definieren
wir auch f
ur eine lineare Abbildung den Kern und das Bild dieser Abbildung.
Definition 7.3.13 Sei F : V W eine K-lineare Abbildung zwischen den Vektorraumen V und W . Dann heit die Teilmenge
Kern F := F 1 (0V ) = {v V : F (v) = 0W } V

123

KAPITEL 7. MATRIZEN, LGS UND LINEARE ABBILDUNGEN

7.3. LINEARE ABBILDUNGEN

Kern oder Nullraum von F. Desweiteren nennt man


Bild(F ) = F (V ) = {w W : v V mit F (v) = w} W
das Bild von F .
Aufgrund von Satz 4.2.4 und 4.2.6 sind diese Mengen Untergruppen der additiven Gruppen
(V, +), bzw (W, +). Wir zeigen hier, dass sie auch Untervektorraume sind.
Satz 7.3.14 Sei F : V W K-linear, dann sind Kern(F ) und F (V ) Untervektorraume.
Beweis. Aufgrund von Definition 6.1.5 m
ussen wir die Abgeschlossenheit dieser Mengen
bez
uglich Addition und Skalarmultiplikation zeigen.
Sei v1 , v2 Kern F , das heit es gilt F (v1 ) = F (v2 ) = 0W , dann gilt aufgrund der
Linearit
at von F
F (v1 + v2 ) = F (v1 ) + F (v2 ) = 0W + 0W = 0W ,
und somit ist auch v1 + v2 Kern F und wir haben die Abgeschlossenheit bez
uglich
der Addition gezeigt. Sei nun K, dann gilt:
F (v1 ) = F (v1 ) = 0W = 0W ,
also ist v1 Kern F und die Abgeschlossenheit bez
uglich der Skalarmultiplikation
wurde bewiesen.
Seien w1 , w2 F (V ), das heit es gibt v1 , v2 V mit F (v1 ) = w1 und F (v2 ) = w2 ,
dann gilt
w1 + w2 = F (v1 ) + F (v2 ) = F (v1 + v2 ) F (V )
und
w1 = F (v1 ) = F (v1 ) F (V )
wodurch wir auch f
ur das Bild F (V ) die Abgeschlossenheit bez
uglich der Addition
und der Skalarmultiplikation gezeigt haben.
Bemerkung 7.3.15 Sei FA : K n K m , x 7 A x eine lineare Abbildung, gegeben
durch die Matrix A MatK (m, n). Dann gilt
Kern(FA ) = {x K n | Ax = 0} = L(A, 0).
Der Kern entspricht also der L
osungsmenge des homogenen LGS Ax = 0. Auerdem gilt
F (V ) = {b K m | x K n mit Ax = b} = LH(A(e1 ), . . . , A(en )).
Das entspricht allen Vektoren b K m , f
ur die das LGS Ax = b eine Losung hat. Wir in
Bemerkung 7.3.9 beschrieben, liefert das Produkt der Matrix A mit dem Vektor x eine
Linearkombination der Spalten von A. Die Spalten der Matrix entsprechen den Bildern
A(e1 ), . . . , A(en ) und somit ist das Bild gleich der linearen H
ulle dieser Vektoren.

124

KAPITEL 7. MATRIZEN, LGS UND LINEARE ABBILDUNGEN

7.3. LINEARE ABBILDUNGEN

Analog zum Satz 4.2.7 f


ur Gruppenhomomorphismen konnen wir hilhilfe des Kerns ein
Kriterium f
ur Injektivit
at formulieren.
Man beachte, da {0W } W ein Untervektorraum von W ist. Das Nullelement bildet
den kleinst m
ogliche Untervektorraum (der Dimension 0), welcher in jedem Vektorraum
vorhanden ist und daher als der triviale Unterraum bezeichnet wird.
Satz 7.3.16 (Injektivit
atskriterium)
Eine lineare Abbildung ist genau dann injektiv, wenn ihr Kern trivial ist, d.h. ihr Kern
besteht nur aus dem Nullvektor.
Beweis. Wir betrachten die lineare Abbildung F : V W zwischen den Vektorraumen V
und W . Die Implikation F injektiv Kern F = {0V } ist offensichtlich; denn wenn F
injektiv ist, darf neben dem Nullvektor 0V kein weiterer Vektor aus V auf den Nullvektor
0W abgebildet werden. Somit erzwingt die Injektivitat Kern F = F 1 (0W ) = {0V }.
Die umgekehrte Implikation Kern F = {0} F injektiv zeigen wir per Kontraposition.
Angenommen F sei nicht injektiv, dann gibt es einen Vektor w W und zwei verschiedene
Vektoren v1 , v2 V mit F (v1 ) = F (v2 ) = w. Wegen v1 =
6 v2 ist v1 v2 =
6 0V . Andererseits
gilt
F (v1 v2 ) = F (v1 ) F (v2 ) = w w = 0W .
Also ist v1 v2 Kern F , d.h. der Kern von F kann nicht nur den Nullvektor 0V enthalten.
Bemerkung 7.3.17 Wir haben in Algorithmus 7.2.16 gesehen, dass die Losungsmenge
des inhomogenen Problems Ax = b (sofern sie nicht leer ist) folgende Form hat:
L(A, b) = w + L(A, 0)
wobei w eine spezielle L
osung von Ax = b ist. Da die Losungsmenge des homogenen
Systems genau der Kern der Abbildung A : K n K m , x 7 Ax, sehen wir, dass es
genau dann eine eindeutige L
osung des LGS Ax = b gibt, wenn die Losungsmenge des
homogenen LGS nur aus dem Nullvektor besteht.

Definition 7.3.18 Sei F : V W eine K-lineare Abbildung, dann nennen wir die
Dimension des Bildes F (V ) den Rang der Abbildung
rang F := dimK F (V ).

Da das Bild der Abbildung ein Untervektorraum von W ist, erhalten wir direkt eine obere
Abschatzung f
ur den Rang: rang F dimK W. Aber es muss auch rang F dimK V gelten,
da F (V ) nicht gr
oer als V sein kann (dies folgt aus Satz 7.3.6, da die Urbilder einer Basis
von F (V ) auch in V linear unabh
angig sind und somit zu einer Basis erganzt werden
konnen.)

125

KAPITEL 7. MATRIZEN, LGS UND LINEARE ABBILDUNGEN

7.3. LINEARE ABBILDUNGEN

Satz 7.3.19 (Kern-Bild-Satz)


Es sei V endlichdimensional und F : V W eine lineare Abbildung in einen Vektorraum
W beliebiger Dimension. Dann besteht die Dimensionsformel
dimK V = dimK Kern F + rang F .

(7.9)

Genauer gilt folgendes: Ist u1 , ..., uk eine Basis von Kern F und w1 , ..., wr eine Basis von
F (V ) mit den Urbildern v1 , ..., vr , dann ist u1 , ..., uk , v1 , ..., vr eine Basis von V .
N.B.: k, r dimK V .
a der beiden definierenden Eigenschaften einer Vektorraumbasis erfolgt der
Beweis. Gem
Beweis in zwei Etappen.
1) Wir zeigen zun
achst, dass die Vektoren u1 , ..., uk , v1 , ..., vr ein Erzeugendensystem
von V sind, d. h. es gilt LH(u1 , ..., uk , v1 , ..., vr ) = V .
Es sei v V beliebig vorgegeben. Da F (v) F (V ), existieren aufgrund der Voraussetzung, dass w1 , . . . , wr eine Basis des Bildes ist, Skalare 1 , ..., r K mit

F (v) = 1 w1 + ... + r wr = 1 F (v1 ) + ... + r F (vr ) = F 1 v1 + ... + r vr
Es folgt somit
0W = F (v) F 1 v1 + ... + r vr

= F (v 1 v1 ... r vr ).

Also gilt v 1 v1 ... r vr Kern F . Wiederum aufgrund der Voraussetzung, dass


u1 , . . . , uk eine Basis des Kerns ist, gibt es Koeffizienten 1 , ..., k K derart, da
v 1 v1 ... r vr = 1 u1 + ... + k uk
bzw.
v = 1 u1 + ... + k uk + 1 v1 + ... + r vr .
Da v V beliebig gew
ahlt war, folgt die Behauptung, dass jedes v V eine
Linearkombination der Vektoren u1 , ..., uk , v1 , ..., vr ist.
2) Zeige: u1 , ..., uk , v1 , ..., vr sind linear unabhangig.
Dazu ist zu zeigen, da sich 0V nur auf triviale Weise linear kombinieren lat.
Angenommen es gelte
0V = 1 u1 + ... + k uk + 1 v1 + ... + r vr .

(7.10)

Anwenden von F liefert unter Ausnutzung der Linearitat die Gleichung


0W

= F (0V )
= 1 F (u1 ) +... + k F (uk ) +1 F (v1 ) + ... + r F (vr )
| {z }
| {z }
=0W

=0W

= 1 w1 + ... + r wr
Da die Vektoren w1 , ..., wr nach Voraussetzung eine Basis von F (V ) bilden und damit
linear unabh
angig sind, kann die Gleichung nur f
ur 1 = ... = r = 0 erf
ullt sein.

126

KAPITEL 7. MATRIZEN, LGS UND LINEARE ABBILDUNGEN

7.3. LINEARE ABBILDUNGEN

Dies setzen wir in Gleichung (7.10) ein und erhalten


0V = 1 u1 + ... + k uk .
Die Vektoren u1 , ..., uk sind als Basis von Kern F ebenfalls linear unabhangig, weshalb
die Gleichung wiederum nur f
ur 1 = ... = k = 0 bestehen kann. Damit ist (7.10)
allein trivial erf
ullbar, was zu zeigen war.
Dies ist einer der wichtigsten S
atze der Theorie, der unter anderem folgende Konsequenz
hat.
Korollar 7.3.20 (Zusammenhang zwischen injektiv und surjektiv)
F
ur eine lineare Abbildung F : V W zwischen endlichdimensionalen Vektorraumen
gleicher Dimension (dimK V = dimK W ) sind folgende Aussagen aquivalent:
i) F ist injektiv.
ii) F ist surjektiv.
iii) F ist bijektiv.
Beweis. i) ii) Ist F injektiv, so ist der Kern trivial nach Satz 7.3.16, d.h. es gilt
dim ker F = 0. Die Dimensionsformel (7.9) reduziert sich dann zu dim V = dim F (V ). Da
voraussetzungsgem
a V und W die gleiche Dimension haben gilt ferner dim F (V ) = dim W .
Somit ist der Unterraum F (V ) W von gleicher Dimension wie W selbst. Dies ist nur
moglich, wenn F (V ) = W ist, womit sich F als surjektiv erweist.
ii) iii) Ist F surjektiv, so gilt F (V ) = W und damit unter Benutzung der Voraussetzung
dim F (V ) = dim W = dim V . Die Dimensionsformel (7.9) erfordert dann dim ker F = 0, so
da F nach Satz 7.3.16 auch injektiv ist. Damit ist F sowohl surjektiv wie injektiv und
ergo bijektiv.
iii) i) Eine bijektive Abbildung ist per Definition zugleich injektiv und surjektiv. Es ist
daher nichts zu beweisen.
Korollar 7.3.21 Seien V, W endlichdimensionale K-Vektorraume und F : V W eine
lineare Abbildung. Dann gilt:
i) Wenn F injektiv ist, dann dim V dim W .
ii) Wenn F surjektiv ist, dann ist dim W dim V .
Beweis.
i) Wenn F injektiv ist, dann ist dim ker F = 0 und somit gilt dim V =
dim F (V ). Da aber immer dim F (V ) dim W ist, erhalten wir dim V dim W .
ii) Wenn F surjektiv ist, dann ist dim F (V ) = dim W und somit dim V = dim ker F +
dim W , wodurch wir dim W dim V erhalten.
Korollar 7.3.22 Zwei K-Vektorr
aume sind genau dann zueinander isomorph, wenn sie
die gleiche Dimension haben. Insbesondere ist jeder endlich dimensionale Vektorraum
der Dimension n isomorph zum K n .

127

KAPITEL 7. MATRIZEN, LGS UND LINEARE ABBILDUNGEN

7.3. LINEARE ABBILDUNGEN

Beweis. Wir haben bereits in Beispiel 7.3.3 einen Isomorphismus von einem Vektorraum
V der Dimension n in den K n angegeben. Seien V, W zwei Vektorraume der Dimension
n und F : V K n , G : W K n die Isomorphismen aus Beispiel 7.3.3, dann ist
G1 F : V W aufgrund von Proposition 7.3.5 und 3.2.12 ein Isomorphismus. Wir
haben also einen Isomorphismus zwischen Vektorraumen gleicher Dimension konstruiert.
Jetzt m
ussen wir noch zeigen, dass zwischen Vektorraumen verschiedener Dimensionen
keinen Isomorphismus geben kann.
Seien jetzt V, W Vektorr
aume unterschiedlicher Dimension dim V = n und dim W = m, mit
n=
6 m und angenommen F : V W ist ein Isomorphismus. Dann gilt Kern(F ) = {0V }
und F (V ) = W und somit folgt aus der Dimensionsformel
dim V = dim Kern(F ) + dim F (V )
n = 0 + dim W = m
im Widerspruch zur Annahme. Somit kann es einen Isomorphismus zwischen V und W
nur geben, wenn dimK V = dimK W gilt.
Den Begriff des Rangs haben wir sowohl f
ur Matrizen (s. Def. 7.1.17), als auch f
ur lineare
Abbildungen (s. Def. 7.3.18) eingef
uhrt. Wir werden hier sehen, dass es sich dabei im
wesentlichen um dasselbe handelt.
Satz 7.3.23 Sei F : K n K m eine K-lineare Abbildung mit Darstellungsmatrix
MF MatK (m, n). Dann gilt rang F = rang MF .
Beweis. Der Rang der Abbildung F ist die Dimension des Bildes F (V ). Da die Standardbasis e1 , . . . , en eine Basis des K n ist, wird das Bild von den Vektoren F (e1 ), . . . , F (en )
erzeugt. Eine Basis des Bildes ist daher eine maximale linear unabhangige Teilmenge dieser
Vektoren. Da diese Vektoren aber genau die Spalten der Matrix MF sind, entspricht dies
der Definition des (Spalten)rangs der Matrix MF .
Korollar 7.3.24 Eine Matrix A MatK (n, n) ist genau dann invertierbar, wenn
rang A = n gilt.
Beweis. Wenn der Rang der Matrix A gleich n ist, dann heit das, dass das Bild der
Abbildung K n K n , x 7 Ax n-dimensional ist. Da das Bild ein Untervektorraum des K n
ist, muss das Bild schon gleich dem K n sein. Somit ist die durch A definierte Abbildung
surjektiv und dies ist nach Korollar 7.3.20 gleichbedeutend mit bijektiv. Dies bedeutet
wiederum, dass es eine Umkehrabbildung gibt, die durch die zu A inverse Matrix gegeben
ist (s. Korollar 7.3.12).
Wir wollen jetzt Korollar 7.3.20 benutzen um Aussagen u
ber die Losungsmenge von linearen
Gleichungssystem zu treffen, die durch quadratische Matrizen gegeben sind.
Beispiel 7.3.25 Sei A MatK (n, n) eine quadratische Matrix und Ax = b ein LGS.
Die Matrix definiert eine lineare Abbildung FA : K n K n , x 7 Ax auf die wir Korollar
7.3.20 anwenden k
onnen (da dim K n = dim K n ). Daher gelten folgende Aussagen:

128

KAPITEL 7. MATRIZEN, LGS UND LINEARE ABBILDUNGEN

7.3. LINEARE ABBILDUNGEN

Ist das LGS f


ur alle b K n losbar, dann sind diese Losungen eindeutig.
Die L
osbarkeit des LGS f
ur alle b K n entspricht der Surjektivitat von FA . Dann
ist aber FA auch injektiv und diese Losungen sind eindeutig.
ur alle b K n
Wenn Ax = 0 nur die triviale Losung hat, dann ist das LGS Ax = b f
eindeutig l
osbar und diese Losung ist durch x = A1 b gegeben.
Die L
osungsmenge des homogenen LGS Ax = 0 ist der Kern der Abbildung FA .
Besteht der Kern nur aus dem Nullvektor, dann ist FA injektiv (Satz 7.3.16)
und aufgrund von Korollar 7.3.20 auch surjektiv, woraus sich die Losbarkeit des
inhomogenen LGS Ax = b f
ur alle b K n ergibt. Aufgrund der Bijektivitat von
FA ist die Matrix A invertierbar und wir konnen die Gleichung Ax = b von links
mit A1 multiplizieren, wodurch wir A1 Ax = x = A1 b erhalten.
F
ur den n
achsten Satz u
ur die Ein ber den Rang, benotigen wir einige Erkenntnisse f
schrankung einer Abbildung (s. Definition 3.2.15).
Lemma 7.3.26 Sei F : V W eine K-lineare Abbildung zwischen Vektorraumen V, W
und sei U V ein Untervektorraum. Dann ist F |U : U W eine lineare Abbildung.
Ist F zus
atzlich injektiv, dann ist die Abbildung G : U F (V ), v 7 F (v) bijektiv.
Beweis. Die Einschr
ankung einer linearen Abbildung auf einen Untervektorraum ist wieder
linear, denn da die Bedingungen f
ur Linearitat f
ur alle v1 , v2 V und K gelten, dann
gelten sie insbesondere auch f
ur alle v1 , v2 U V und K.
Wenn F injektiv ist, dann ist nach Proposition 3.2.16 auch die Einschrankung F |U : U W
injektiv. Ebenfalls nach Proposition 3.2.16 ist dann G : U F (V ) surjektiv und weiterhin
injektiv, da die Injektivit
at durch eine Verkleinerung des Bildraums nicht verloren geht.
Der nachste Satz besagt, dass sich der Rang einer Abbildung nicht andert, wenn sie mit
invertierbaren Abbildungen verkn
upft wird.
Satz 7.3.27 Sei F : V W eine lineare Abbildung. Seien L1 : V 0 V und
L2 : W W 0 Isomorphismen. Dann gilt:
rang(L2 F L1 ) = rang F.

Beweis. Wir zeigen diesen Satz in zwei Schritten. Zunachst beweisen wir, dass sich der
Rang nicht
andert, wenn von rechts mit einer invertierbaren Abbildung verkn
upft wird,
d.h. wir zeigen rang(F L1 ) = rang F .
Da die Abbildung L1 bijektiv, also insbesondere surjektiv ist, gilt L1 (V 0 ) = V und daher
gilt:
(F L1 )(V 0 ) = F (L1 (V 0 )) = F (V ).
(7.11)
Da das Bild von F gleich dem Bild von F L1 ist, sind insbesondere auch die Dimensionen
dieser Vektorr
aume gleich, aber die Dimension des Bildes ist genau der Rang der Abbildung.

129

KAPITEL 7. MATRIZEN, LGS UND LINEARE ABBILDUNGEN

7.3. LINEARE ABBILDUNGEN

Im zweiten Schritt zeigen wir, dass sich der Rang nicht andert, wenn von links mit einer
invertierbaren Abbildung verkn
upft wird, d.h. wir zeigen rang(L2 F ) = rang F .
0
Da die Abbildung L2 : W W bijektiv, also insbesondere injektiv ist, konnen wir sie auf
F (V ) W einschr
anken und Lemma 7.3.26 benutzen. Daraus folgt, dass
2 : F (V ) L2 (F (V ))
L
eine bijektive lineare Abbildung ist. Nach Korollar 7.3.22 kann es solch eine Abbildung nur
geben, wenn die Vektorraume F (V ) und L2 (F (V )) die gleiche Dimension haben. Aber das
genau die Bilder der Abbildungen F , bzw L2 F und bedeutet, dass rang(L2 F ) = rang F
gilt.
Dieser Satz l
asst sich ebenfalls in die Sprache der Matrizen u
bersetzen.
Korollar 7.3.28 Sei A MatK (m, n) eine Matrix und seien M MatK (m, m) und
N MatK (n, n) invertierbare Matrizen, dann gilt:
rang(A) = rang(M A N )

Beweis. Seien L1 : K m K m , x M x, L2 : K n K n , x N x und F : K n K m ,


x Ax die entsprechden linearen Abbildungen zu den Matrizen. Da M und N invertierbar sind, sind die Abbildungen L1 und L2 Isomorphismen und wir konnen Satz 7.3.27
anwenden und erhalten rang(L2 F L1 ) = rang F , somit gilt dieselbe Gleichungen f
ur die
entsprechenden Matrizen aufgrund von Satz 7.3.23.
Korollar 7.3.29 Sei A MatK (n, m) eine Matrix, dann andert sich der Rang von A
durch elementare Zeilen- und Spaltenumformungen nicht.
Beweis. Elementare Zeilenumformungen entsprechen der Multiplikation von links mit
invertierbaren Elementarmatrizen, wohingegen elementare Spaltenumformungen der Multiplikation von rechts mit invertierbaren Elementarmatrizen entsprechen. Somit andert sich
nach Korollar 7.3.28 der Rang der Matrix A durch diese Umformungen nicht.
Korollar 7.3.30 Sei A MatK (n, m) eine Matrix, dann andert sich das Bild von A
nicht durch Spaltenumformungen.
Beweis. Im Beweis zu Satz 7.3.27 haben wir insbesondere gesehen, dass sich das Bild einer
linearen Abbildung nicht
andert, wenn man sie von rechts mit einer bijektiven Abbildung
verkn
upft (s. Gl. 7.11). In der Sprache der Matrizen entsprechen Verkn
upfungen von rechts
mit Elementarmatrizen Spaltenumformungen, woraus wir die Aussage folgern.
Satz 7.3.31 Sei A MatK (m, n) eine Matrix in oberer Zeilenstufenform. Dann entspricht der Rang dieser Matrix der Anzahl der Leitkoeffizienten.

130

KAPITEL 7. MATRIZEN, LGS UND LINEARE ABBILDUNGEN

7.3. LINEARE ABBILDUNGEN

Beweis. Der Rang einer Matrix ist gleich den Spalten- oder Zeilenrang. Da in oberer
Zeilenstufenform die Zeilen mit Leitkoeffizienten linear unabhangig sind, folgt daraus direkt
die Aussage.
Da sich der Rang einer Matrix nicht durch elementare Zeilenumformungen andert, haben wir
nun eine Methode um den Rang zu bestimmen: Die Matrix wird in obere Zeilenstufenform
gebracht, in der der Rang direkt abgelesen werden kann.
Beispiel 7.3.32 Wir betrachten die Matrix

1
0 4 3 2
1 1 0 2 1
,
A=
2
1 1 2
3
0 1 0 1 1
von der wir den Rang bestimmen wollen. Daf
ur bringen A in obere Zeilenstufenform:

(2)
1
0
4
3
2
1
0
4 3
2
0 1
1 1 0 2 1
(1)
4
5
1

0
2
1
7
8
1
+
1
1
2
3 +
0

1 0

1
0

0
0

3 2

5 1

3
0

1
0

( 43 )

3 2

5 1

3
0

Die entstandene Matrix hat 3 Leitkoeffizienten und somit Rang 3, da elementare Zeilenumformungen den Rang nicht
andern, hat also auch A den Rang 3.
Nun haben wir alle notwendigen Informationen um den Algorithmus 7.2.16 zum Losen
eines linearen Gleichungssystems begr
unden zu konnen.
Zunachst halten wir noch einmal fest, dass sich die Losungsmenge eines LGS sich durch
elementare Zeilenumformungen nicht andert, weshalb wir die erweiterte Koeffizientenmatrix
(A, b) in Gauss-Jordan-Form bringen konnen ohne die Losungsmenge zu andern (s. Satz
7.2.12).
Satz 7.3.33 Sei Ax = b ein lineares Gleichungssystem. Es gilt b Bild(A) genau dann,
wenn rang(A) = rang(A, b).
Beweis. Sei b Bild(A). Dann ist b eine Linearkombination der Spalten von A, also gilt
rang(A) = rang(A, b).
Gelte rang(A) = rang(A, b). Dann ist b eine Linearkombination der Spalten von A und
damit liegt b im Bild von A.
Korollar 7.3.34 Das lineare Gleichungssystem Ax = b besitzt genau dann eine Losung,
wenn rang(A) = rang(A, b).

131

KAPITEL 7. MATRIZEN, LGS UND LINEARE ABBILDUNGEN

7.4. BASISWECHSEL UND AQUIVALENZ


VON MATRIZEN

Beweis. Dies folgt direkt aus dem vorhergehenden Korollar, da das LGS nur dann eine
Losung hat, wenn b im Bild von A ist.
Dies liefert uns die Begr
undung f
ur Schritt (1) in Algorithmus 7.2.16. Steht in der Spalte
b der erweiterten Koeffizientenmatrix kein Leitkoeffizient, dann ist rang(A) = rang(A, b)
und somit ist Ax = b l
osbar.
Satz 7.3.35 Sei Ax = b ein lineares Gleichungssystem und w L(A, b) eine spezielle
Losung des inhomogenen Gleichungssystems. Dann ist
L(A, b) = w + Kern(A) := {w + x | x Kern(A)}

Beweis. (i) Wir zeigen w + Kern(A) L(A, b).


Sei y Kern(A). Dann ist
A(w + y) = Aw + Ay = b + 0 = b,
also w + y L(A, b).
(ii) Wir zeigen L(A, b) w + Kern(A).
Sei v L(A, b). Dann ist
A(v w) = Av Aw = b b = 0,
also v w Kern(A) und demnach v w + Kern(A).
Dies liefert die Begr
undung f
ur den Schritt (3) in Algorithmus 7.2.16.
Bemerkung 7.3.36 Sei A MatK (n, n) invertierbar, das heit vom Rang n. Dann
kann A durch elementare Zeilenumformungen in Gau-Jordan-Form gebracht werden.
Aber die einzige n n-Matrix vom Rang n in Gau-Jordan-Form ist die Einheitsmatrix.
Also kann eine invertierbare Matrix durch elementare Zeilenumformungen in die Form
einer Einheitsmatrix gebracht werden. Dies ist gleichbedeutend mit der Tatsache, dass
A ein Produkt aus invertierbaren Elementarmatrizen ist. Dies liefert den Beweis zu Satz
7.1.24.

7.4. Basiswechsel und Aquivalenz


von Matrizen
Wir haben bisher nur linearen Abbildungen zwischen Vektorraumen der Form K n eine
Matrix zugeordnet. Wir wollen in diesem Abschnitt auch allgemeinen linearen Abbildungen
eine Matrix zuordnen. Da wir daf
ur eine Basis der Vektorraume w
ahlen m
ussen, ist es
wichtig zu sehen, wie sich die Matrix andert, wenn man andere Basen wahlt.
Zunachst kommen wir zu der in Beispiel 7.3.3 definierten Abbildung zur
uck.

132

KAPITEL 7. MATRIZEN, LGS UND LINEARE ABBILDUNGEN

7.4. BASISWECHSEL UND AQUIVALENZ


VON MATRIZEN

Definition 7.4.1 Sei V ein K-Vektorraum mit der Basis B = {b1 , . . . , bn }. Dann heit
der Isomorphismus
MB : V K n

1
n
X
..
v=
i bi 7 .
i=1
n B
Koordinatenabbildung und der Vektor (1 , . . . , n )>
B heit Koordinatendarstellung von v bez
uglich der Basis B.
Die Abbildung MB bildet also jeden Vektor aus V auf seine Koordinaten bez
uglich der
Basis B ab. Die Inverse MB1 wiederum bildet die Kordinaten auf den zugehorigen Vektor
ab.
Wir sehen, dass die Basisvektoren bi die Koordinatendarstellung i = 1 und j = 0 f
ur
j 6= i haben, das heit es gilt insbesondere
MB (bi ) = ei

und MB1 (ei ) = bi .

(7.12)

Bemerkung 7.4.2 Ist V = K n m


ussen wir sehr aufpassen, dass wir einen Vektor
nicht mit seiner Koordinatendarstellung verwechseln. Jeder Vektor ist aber gleich seiner
Koordinatendarstellung bez
uglich der Standardbasis, denn es gilt


v1
v1
0
0
v2 0 v2
..


v = . = . + 0 + + .
.
.
. .
0
..
vn
0
.
vn



1
0
0
n
0
1
.. X


.
= v1 . + v2 0 + + vn =
vi ei .
..

0
i=1
..
0
.
1
Haben wir einen Vektor v K n durch seine Kordinaten bez
uglich der Standardbasis
gegeben, dann schreiben wir das wie bisher. Verwenden wir die Koordinatendarstellung
bez
uglich einer anderen Basis B, dann werden wir es durch einen Index B am Vektor
kennzeichnen.

Definition 7.4.3 Seien V und W K-Vektorraume jeweils mit den Basen B bzw. B 0 und
sei F : V W eine K-lineare Abbildung. Dann ordnen wir F eine Matrix MBB 0 (F ) zu,
die Darstellungsmatrix von F bez
uglich der Basen B und B 0 , indem wir die Matrix
berechnen, die zur linearen Abbildung
MBB 0 (F ) : K n K m ,

MBB 0 (F ) = MB 0 F MB1 .

gehort. Dabei ist n = dimK (V ) und m = dimK (W ).

133

KAPITEL 7. MATRIZEN, LGS UND LINEARE ABBILDUNGEN

7.4. BASISWECHSEL UND AQUIVALENZ


VON MATRIZEN

"W

MB !

MB

!
Kn

1
MB ! F MB

!
" Km

Der linearen Abbildung MBB 0 (F ) kann eine Matrix zugeordnet werden, indem man die
Bilder der Standardbasis in die Spalten schreibt (s. Def. 7.3.8). Wir wollen hier in der
Bezeichnung nicht zwischen der linearen Abbildung MBB 0 (F ) und der Matrix MBB 0 (F )
unterscheiden.
Die Bilder der Standardbasis des K n konnen unter Verwendung von Gleichung (7.12)
geschrieben werden als:
MBB 0 (F )(ei ) = MB 0 (F (MB1 (ei ))) = MB 0 (F (bi )).
Das heit um die Matrix MBB 0 (F ) zu berechnen m
ussen wir zunachst die Bilder der
Basisvektoren bi B unter F bestimmen. Diese Bilder liegen in W und danach berechnet
man deren Koordinaten bez
uglich der Basis B 0 von W . Diese Koordinatenvektoren bilden
die Spalten von MBB 0 (F ).
Beispiel 7.4.4 Wir betrachten die lineare Abbildung
F : R2 R2
 


x1
2x1 + x2
7
x2
x1 + 2x2
und zwei verschiedene Basen des R2
B = {b1 , b2 }

wobei

 
 
1
1
, b2 =
b1 =
1
1

und
0

B =

{b01 , b02 }

wobei

b01

 
 
1
1
0
, b2 =
=
0
1

Wir wollen nun die Darstellungsmatrix MBB 0 (F ) berechnen. Daf


ur berechnen wir die
Bilder der Basisvektoren aus B und bestimmen dann die Koordinaten der Bilder bez
uglich
0
B . Die Bestimmung der Kordinaten machen wir hier durch scharfes Angucken. Wenn
dies nicht geht, dann kann man ein LGS aufstellen und dieses losen (s. Beispiel 7.4.8)

  
   
2+1
3
1
1
F (b1 ) =
=
=2
+
= 2b01 + b02
1 + 2
1
0
1
 
1
2
MB 0 (F (b1 )) =
1 B0

  
 
 
2 + 1
1
1
1
F (b2 ) =
=
= 4
+3
= 4b01 + 3b02
(1) + 2
3
0
1
 
4
MB 0 (F (b2 )) =
3 B0

134

KAPITEL 7. MATRIZEN, LGS UND LINEARE ABBILDUNGEN

7.4. BASISWECHSEL UND AQUIVALENZ


VON MATRIZEN

Somit erhalten wir die Darstellungsmatrix


MBB 0 (F ) =



2 4
.
1 3

Die Verkn
upfung von Abbildungen entspricht analog zu Satz 7.3.11 dem Produkt der
Darstellungsmatrizen, unter der Voraussetzung, dass die Basis des mittleren Vektorraums
bei beiden Darstellungen gleich gewahlt ist.
Satz 7.4.5 Seien U, V, W K-Vektorraume mit den jeweiligen Basen B, B 0 und B 00 . Seien
F : U V und G : V W lineare Abbildungen, dann gilt f
ur die Darstellungsmatrizen:
MBB 00 (G F ) = MB 0 B 00 (G) MBB 0 (F )

Beweis. Wir setzen die Definition der linearen Abbildungen ein:


MB 0 B 00 (G) MBB 0 (F ) = MB 00 G MB10 MB 0 F MB1
= MB 00 G F MB1 = MBB 00 (G F )
Da jeder Vektorraum verschiedene Basen hat, wollen wir nun sehen wie sich die Darstellungsmatrix der gleichen linearen Abbildung andert, wenn wir sie f
ur unterschiedliche
Basen bestimmen.
Satz 7.4.6 Seien V, W K-Vektorraume und F : V W eine K-lineare Abbildung.
Seien B, C Basen von V und B 0 , C 0 Basen von W . Dann gibt es invertierbare Matrizen
S MatK (n, n), wobei n = dimK V und T MatK (m, m), wobei m = dimK W so dass
gilt:
MCC 0 (F ) = T MBB 0 (F ) S 1 .
Gilt insbesondere V = W , B = B 0 und C = C 0 , dann gibt es eine invertierbare Matrix
T MatK (n, n) wobei n = dimK V , so dass
MCC (F ) = T MBB (F ) T 1 .
Die Matrizen S 1 und T heien Basiswechselmatrizen und es gilt T = MC 0 MB10
und S = MC MB1 .
Beweis. Wir benutzen, dass die Abbildungen MB und MB 0 Isomorphismen sind und es
gilt idW = MB10 MB 0 , bzw. idV = MB1 MB . Somit konnen wir unter Verwendung der
Definition der Darstellungsmatrizen berechnen:
MCC 0 (F ) = MC 0 F MC1
= MC 0 idW F idV MC1
= MC 0 MB10 MB 0 F MB1 MB MC1
= T MB 0 F MB1 S 1
= T MBB 0 (F ) S 1 .

135

KAPITEL 7. MATRIZEN, LGS UND LINEARE ABBILDUNGEN

7.4. BASISWECHSEL UND AQUIVALENZ


VON MATRIZEN

Wobei wir T = MC 0 MB10 und S = MC MB1 definieren. Beide Abbildungen sind


invertierbar als Produkt invertierbarer Abbildungen.
F
ur V = W , B = B 0 und C = C 0 sehen wir dass S = T gilt, woraus auch die zweite
Behauptung folgt.
Aufgrund der Definition als Verkn
upfung MC 0 MB10 bildet die Matrix T die Koordinaten
eines Vektors v W bez
uglich der Basis B 0 auf die Koordinaten desselben Vektors
bez
uglich der Basis C 0 ab.
Beispiel 7.4.7 Wir betrachten hier noch einmal die Abbildung aus Beispiel 7.4.4 und
bestimmen die Darstellungsmatrix bez
uglich der Standardbasis. Danach wollen die Basiswechselmatrizen f
ur den Wechsel zwischen der in Beispiel 7.4.4 berechneten Darstellung
und der Darstellung bez
uglich der Standardbasis bestimmen.
0
Sei jetzt C = C = {e1 , e2 } die Standardbasis des R2 . Die lineare Abbildung
F : R2 R2
 


x1
2x1 + x2
7
x2
x1 + 2x2
hat die Darstellungsmatrix

MCC 0 (F ) =

2 1
1 2

bez
uglich der Standardbasis.
Zur Berechnung der Basiswechselmatrizen benotigen wir die Abbildungen MB , MB10 , MC1
und MC 0 . Da in unserem Beispiel V = W = R2 ist konnen wir bereits diese Abbildungen
durch Matrizen angeben. Aufgrund von Gleichung 7.12 erhalten wir die Matrix zur
Abbildung MB1 indem wir die Basis B in die Spalten der Matrix schreiben. Somit gilt






1 1
1 1
1
1
0
0
b
b
b
b
MB = 1 2 =
und MB 0 = 1 2 =
.
1 1
0 1
Da die Basen C und C 0 die Standardbasis sind, gilt f
ur die entsprechenden Matrizen:
1
1
MC = MC 0 = E2 und daher auch MC = MC 0 = E2 . Nun konnen wir die Basiswechselmatrizen T und S 1 berechnen:


1 1
1
1
1
T = MC 0 MB 0 = E2 MB 0 = MB 0 =
0 1

Diese Matrix beschreibt den Ubergang


von den Koordinaten bez
uglich B 0 zu denen
bez
uglich der Standardbasis.


1 1 1
1 1
1
1
1
S = (MC MB ) = MB MC = MB E2 = MB =
2 1 1

Diese Matrix beschreibt den Ubergang


von den Koordinaten bez
uglich der Standardbasis
zu denen bez
uglich der Basis B.
Die Matrix MB haben wir durch Invertieren der Matrix MB1 berechnet und zwar auf die
gleiche Art und Weise wie es basierend auf Satz 7.1.24 in Beispiel 7.1.25 gezeigt wurde.
Daf
ur formen wir MB1 mithilfe elementarer Zeilenumformungen so lange um bis wir
die Einheitsmatrix erhalten und machen gleichzeitig dieselben Umformungen an einer

136

KAPITEL 7. MATRIZEN, LGS UND LINEARE ABBILDUNGEN

7.4. BASISWECHSEL UND AQUIVALENZ


VON MATRIZEN

Einheitsmatrix
1
1
1
0

1 | 1 0
1

| 0 1

1 |
1

(1)

+
!
+
0

0
1

0 |

1
2

1 |

1
2

1 |
2

1 1 |
!
1
2

1
2

1
2

1
2
1
2

Nun k
onnen wir noch u
ufen, ob wirklich MCC 0 (F ) = T MBB 0 (F ) S 1 gilt:
berpr





1 1 1
1 1
2 4
1
T MBB 0 (F ) S =

0 1
1 3
2 1 1

 



1
1
3 1
1 1
4 2
=

=
1 3
1 1
2 4
2
2


2 1
=
= MCC 0 (F ).
1 2

Beispiel 7.4.8 Wir betrachten die lineare Abbildung


F : R2 R3

 
x1 + 3x2
x1

2x2
7
x2
x1 2x2
und zwei verschiedene Basen des R2
B = {b1 , b2 }

wobei

b1 =

C = {c1 , c2 }

wobei

c1 =

und

 
 
2
0
, b2 =
1
1



 
2
1
, c2 =
2
1

sowie zwei verschiedene Basen des R3


B 0 = {b01 , b02 , b03 }

wobei

und
C 0 = {c01 , c02 , c03 }

wobei




2
0
1
b01 = 1 , b02 = 1 , b03 = 0
0
1
0



1
0
0
c01 = 1 , c02 = 2 , c03 = 1
1
1
2

Wir wollen jetzt die Darstellungsmatrizen MBB 0 (F ) und MCC 0 (F ) bestimmen. Um


MBB 0 (F ) zu bestimmen, berechnen wir die Koordinaten von F (b1 ) und F (b2 ) bez
uglich

137

KAPITEL 7. MATRIZEN, LGS UND LINEARE ABBILDUNGEN

7.4. BASISWECHSEL UND AQUIVALENZ


VON MATRIZEN

der Basis B 0 .




(2) + 3 1
1
2
1

21
F (b1 ) =
= 2 = 2 1 3 0 = 2b01 + 0 b02 3b03
221
0
0
0

2

0
MB 0 (F (b1 )) =
3 B 0


0 + 3 (1)
3
F (b2 ) = 2 (1) = 2
0 2 (1)
2
Die Koordinaten dieses Vektors bez
uglich der Basis B 0 sind nicht so einfach abzulesen
wie die von F (b1 ), weshalb wir ein LGS daf
ur aufstellen und es losen m
ussen.

3
2
0
1
21 + 3
2 = 1 b01 + 2 b02 + 3 b03 = 1 1 + 2 1 + 3 0 = 1 2
2
0
1
0
2
Die letzte Zeile liefert 2 = 2, durch Einsetzen in Zeile 2 erhalten wir 2 = 1 2 und
daher 1 = 0, wodurch aus der ersten Zeile 3 = 3 folgt. Insgesamt gilt also



2
0
1

F (b2 ) = 0 1 + 2 1 3 0
0
1
0

0
MB 0 (F (b2 )) = 2 .
3 B 0

Somit erhalten wir die Darstellungsmatrix

2
0
2 .
MBB 0 (F ) = 0
3 3
Die Darstellungsmatrix MCC 0 (F ) kann nun auf analoge Art und Weise direkt bestimmt
werden oder aber mithilfe der Basiswechselmatrizen aus MBB 0 (F ) berechnet werden.
Wir werden hier beide Wege zeigen um zu sehen, dass sie zu dem selben Ergebnis f
uhren.
Zunachst berechnen wir auf direkte Weise die Darstellungsmatrix MCC 0 (F ), daf
ur
berechnen wir die Bilder F (c1 ) und F (c2 )


(1) + 3 1
4
= 2
21
F (c1 ) =
1 2 1
3


2 + 3 2
4
und F (c2 ) = 2 2 = 4
222
2

Die Losung des LGS F (c1 ) = 1 c01 +2 c02 +3 c03 sind die Koordinaten von F (c1 ) bez
uglich

138

KAPITEL 7. MATRIZEN, LGS UND LINEARE ABBILDUNGEN

7.4. BASISWECHSEL UND AQUIVALENZ


VON MATRIZEN

der Basis C 0 :

1 0

1 2 1 |
1
1
2
|

1 0
0

1
2
0

(1)

2
3
|
|

1 0

2 1 | 2

0
0
1
2
|
1

| (1)
1 0
0
|
4

1
2
|
1
0

(2)
1
+
0
2 1 | 2
0
0 5 | 4 | ( 15 )


1 0 0 | 4
1 0 0 | 4
4

3
+
1
MC 0 (F (c1 )) = 53
0 1 2 |
0 1 0 | 5
4
4
4
(2)
0 0 1 |
0 0 1 |
5 C0
5
5

139

KAPITEL 7. MATRIZEN, LGS UND LINEARE ABBILDUNGEN

7.4. BASISWECHSEL UND AQUIVALENZ


VON MATRIZEN

Die Losung des LGS F (c2 ) = 1 c01 +2 c02 +3 c03 sind die Koordinaten von F (c2 ) bez
uglich
der Basis C 0 .

1 0

1 2
1
1

0
0

1 0

0 1

(1)

1 |

2
| 2
+

0
0
| 4
1

(2)
1
2
| 2
0
2 1 | 0
0
+

0 | 4
1 0 0

2 |
2
+
0 1 0

0 0 1 |

4
5

(2)

1 0

| 4

1 | 0

5 |

| 4
2
|
5
4
0 0 1 |
5

| 2

4
| (1)

2
4 | ( 15 )


4
MC 0 (F (c2 )) = 52
4
5

C0

Somit erhalten wir die Darstellungsmatrix

4 4
MCC 0 (F ) = 53 25 .
4
5

4
5

Zur Berechnung der Basiswechselmatrizen benotigen wir die Abbildungen MB , MB10 , MC1
und MC 0 . Da in unserem Beispiel V = R2 und W = R3 ist konnen wir bereits diese
Abbildungen durch Matrizen angeben. Aufgrund von Gleichung 7.12 erhalten wir die
Matrix zur Abbildung MB1 indem wir die Basis B in die Spalten der Matrix schreiben.
Somit gilt

MB1 = b1 b2



2 0
=
1 1

und MB10 = b01 b02

2 0 1

b03 = 1 1 0
0 1 0

und analog

MC1 = c1 c2



1 2
=
1 2

und MC10 = c01 c02

1 0 0

c03 = 1 2 1
1 1 2

F
ur die Basiswechselmatrizen T und S 1 gilt per definition

T = MC 0 MB10

und S 1 = (MC MB1 )1 = MB MC1 .

Wir m
ussen also noch jeweils die zu MC10 und MB1 inversen Matrizen bestimmen um die
Basiswechselmatrizen berchnen zu k
onnen. Daf
ur f
uhren wir an diesen Matrizen solange
elementare Zeilenumformungen durch bis wir die Einheitsmatrix erhalten und f
uhren

140

KAPITEL 7. MATRIZEN, LGS UND LINEARE ABBILDUNGEN

7.4. BASISWECHSEL UND AQUIVALENZ


VON MATRIZEN

diesselben Umformungen an einer Einheitsmatrix durch:

(1)
1 0
0
|
1
1 0
0
| 1 0 0

+
2 1 | 1
0
1 2 1 | 0 1 0
0
1
2
|
1
1
1
2
| 0 0 1
+

1 0
0
|
1
0
1 0
0
|
1
0 0

(2)
1
2
|
1
0
1
2
|
1
0 1
0
0
+
0
0 5 | 3 1
0
2 1 | 1 1 0

1 0 0 | 1
0
1 0 0 | 1
0
0

1
2
+

1
0
1
0 1 0 | 5
0 1 2 |
5
3
5

0 0 1 |

| 1 0

1 | 0 1

1
5

2
5

( 12 )

Somit haben lauten die Matrizen

1 0
2

MC 0 = 15
5
3
15
5

1 |

0
1
2

1
5
2
5

3
5

0 0 1 |

(2)

| (1)

0 1 |

2
1
2

= MB

MC1

1
2
1
2

| (1)
| ( 15 )

2
5

1 0 |

1
2
1
2

0
1


0
.
1

Und damit berechnen sich die Basiswechselmatrizen zu



1 0 0
2 0 1
2 0
2
1
= 0 1
1
1
0
T = MC 0 MB10 = 51

5
5
5
3
3
1
2
1

0
1
0
5
5
5
5
und

1
5

1
2

1
und MB =

0 0

1 0
0 1

1
2

0
1
5

  1
 
2
0
1 2
=

1 2
32
1

1
15
3
5


1
.
1

Nun konnen wir noch u


ufen, ob wirklich MCC 0 (F ) = T MBB 0 (F ) S 1 gilt:
berpr

 1

2
0
2 0 1
2 1
1
1
1

0
2
0 5 5
T MBB 0 (F ) S =
32 1
3
3
1
3
3
5
5

2 0 1
1 2
= 0 15 15 3 2
3
3
1
6
0
5

5
4 4
= 35 25 = MCC 0 (F )
4
5

4
5

Definition 7.4.9 Seien A, B MatK (m, n) Matrizen. Wir nennen A


aquivalent zu B,

141

KAPITEL 7. MATRIZEN, LGS UND LINEARE ABBILDUNGEN

7.4. BASISWECHSEL UND AQUIVALENZ


VON MATRIZEN

wenn es invertierbare Matrizen S MatK (n, n) und T MatK (m, m) gibt, so dass gilt:
A = T B S 1 .

Zwei Matrizen sind also aquivalent zueinander, wenn sie die Darstellungsmatrizen bez
uglich
unterschiedlicher Basen sowohl von V als auch von W derselben linearen Abbildung
F : V W sind.
Da jede invertierbare Matrix das Produkt von Elementarmatrizen ist, kann man es auch
anders formulieren: Zwei Matrizen sind aquivalent zueinander, wenn man durch elementare
Zeilen- und Spaltenumformungen, die eine in die andere umwandeln kann.
Definition 7.4.10 Seien A, B MatK (n, n) quadratische Matrizen. Wir nennen A
a
hnlich zu B, wenn es eine invertierbare Matrix T MatK (n, n) gibt, so dass gilt:
A = T B T 1 .

Zwei Matrizen sind also


ahnlich zueinander, wenn sie die Darstellungsmatrizen bez
uglich
verschiedener Basen von V derselben linearen Abbildung F : V V sind.

Proposition 7.4.11 Aquivalenz


und Ahnlichkeit
von Matrizen sind Aquivalenzrelationen auf der Menge der m n, bzw. n n Matrizen.

von Matrizen eine Aquivalenzrelation


ist. Der
Beweis. Wir zeigen hier, dass Aquivalenz

Beweis f
ur Ahnlichkeit
funktioniert analog.
Reflexivit
at: W
ahlen wir T = Em und S = En , dann sehen wir dass A = EM AEn gilt, also
jede Matrix zu sich selbst
aquivalent ist.
Symmetrie: Ist A aquivalent zu B, dh. A = T B S 1 , dann gilt B = T 1 AS und somit
ist auch B
aquivalent zu A.
Transitivit
at: Ist A
aquivalent zu B und B aquivalent zu C, dh es existieren Matrizen
T1 , T2 Mat(m, m) und S1 , S2 Mat(n, n), so dass A = T1 B S11 und B =
T2 C S21 , dann gilt
A = T1 B S11 = A = T1 T2 C S21 S11 = (T1 T2 ) C (S1 S2 )1
und somit ist auch A a
quivalent zu C.

Definition 7.4.12 Eine m n Matrix hat reduzierte Zeilenstufenform, wenn sie von

142

KAPITEL 7. MATRIZEN, LGS UND LINEARE ABBILDUNGEN

folgender Form ist:

1 0 ...
0 1

..
. 0 ...

0 0 0

0 0 . . .

0 0

.
.. 0 . . .
0 0 0

0
0
0
1
0
0
0
0

0 0 ...
0 0
..
.
. 0 ..
0 0 0
0 0 ...
0 0
..
.
. 0 ..
0 0 0

7.4. BASISWECHSEL UND AQUIVALENZ


VON MATRIZEN

0
0



0

Er
Or,nr
=

Omr,r Omr,nr
0

0
0

wobei mit Ok,` eine k l Nullmatrix gemeint ist.

1 0
Beispiel 7.4.13 Die Matrix A = 0 1
0 0
sehen, dass die Multiplikation mit dieser
f
ur einen Vektor gilt:

0 0
0 0 hat reduzierter Zeilenstufenform. Wir
0 0
Matrix besonders einfach ist, da zum Beispiel


x1
1 0 0 0
x1
x2
= x2 .
Ax = 0 1 0 0
x3
0 0 0 0
0
x4

Satz 7.4.14 Jede Matrix A MatK (m, n) vom Rang r ist aquivalent zu einer Matrix
in reduzierter Zeilenstufenform mit r Einsen auf der Diagonale.
Da jede invertierbare Matrix ein Produkt von Elementarmatrizen ist (s. Satz 7.1.24),
lasst sich dieser Satz auch anders formulieren: Jede Matrix A MatK (n, m) vom Rang r
lasst sich durch elementare Zeilen- und Spaltenumformungen in eine Matrix in reduzierter
Zeilenstufenform mit r Einsen auf der Diagonale umformen.
Den Beweis dieser Aussage geben wir als Algorithmus an.
Algorithmus 7.4.15 (reduzierte Zeilenstufenform)
Eingabe: Eine Matrix A MatK (m, n).
Ausgabe: Eine Matrix B MatK (m, n) in reduzierter Zeilenstufenform.
Durchfu
hrung:
(1) Bringe die Matrix A durch elementare Zeilenumformungen in Gauss-Jordan-Form
wie in Algorithmus 7.2.13 beschrieben.
(2) Betrachte die am weitesten links stehende Spalte ohne Leitkoeffizient. Angenommen
in dieser Spalte steht in der ersten Zeile der Eintrag b =
6 0, dann multipliziere die
erste Spalte mit b und addiere sie zur betrachteten Spalte. Gehe von oben nach

143

KAPITEL 7. MATRIZEN, LGS UND LINEARE ABBILDUNGEN

7.4. BASISWECHSEL UND AQUIVALENZ


VON MATRIZEN

unten alle Eintr


age in dieser Spalte durch und mache sie mithilfe der Spalte in der
in dieser Zeile ein Leitkoeffizient steht zu null. Wiederhole Schritt (3) von links
nach rechts mit allen Spalten.
(3) Betrachte die am weitesten links stehende Spalte ohne Leitkoeffizient und tausche
sie mit der nach rechts n
achsten Spalte mit Leitkoeffizient. Wiederhole Schritt (3)
von links nach rechts mit allen Spalten.
Satz 7.4.14 kann noch auf eine weitere Art und weise verstanden werden:
Sei F : V W eine lineare Abbildung vom Rang r, dann gibt es gibt es eine Basis B von V
und eine Basis B 0 von W , so dass MBB 0 (F ) eine Matrix in reduzierter Zeilenstufenform mit
r Einsen auf der Diagonale ist. Diese kann man aus den Basiswechselmatrizen bestimmen.
Die Basiswechselmatrizen kann man berechnen, indem man alle Zeilen- und Spaltenumformungen, die man der Matrix durch f
uhrt auch an einer Einheitsmatrix mit der entsprechenden Anzahl von Zeilen, bzw. durchf
uhrt.
Beispiel 7.4.16 Wir betrachten die Matrix

3
2
1
1
A = 1 1 2 3
1 0 1 1
und wollen sie mithilfe elementarer Zeilen- und Spaltenumformungen in reduzierte
Zeilenstufenform bringen. Zur Bestimmung der Matrizen S und T f
uhren wir alle
Umformungen auch an Einheitsmatrizen der entsprechenden Groe durch.
Zunachst f
uhren wir solange elementare Zeilenumformungen durch bis die Matrix GauJordan-Form hat. Da Zeilenumformungen einer Multiplikation von links entspricht f
uhren
wir alle Umformungen auch an einer Einheitsmatrix durch, die genauso viele Zeilen wie
A hat, das heit an E3

1 0 0 |
3
2
1
1

1
1
2
3

0 1 0 |
0 0 1 |

0 1 0 |

1 0 0 |

1
+
1
+

10

0 0 1 | 1

0
1
0 | 1

1 3 0 | 0
0

1 | 0

(3)

0 | 1

1 | 0

1 3 0 | 0
5
5 10

0 1 0 | 1 1 2 3

0 1 1 | 0 1 1 2 | (1)
1 2 5 | 0
0
0
0

144

KAPITEL 7. MATRIZEN, LGS UND LINEARE ABBILDUNGEN

0
1

+
3

0
1
1
2
0
0
0
0

1 0
1
1


0 1 1
2 = T | A
0 0
0
0

| 1

1 |

1 |

1 |

7.4. BASISWECHSEL UND AQUIVALENZ


VON MATRIZEN

Mithilfe elementarer Zeilenumformungen konnen wir die Matrix nicht weiter umformen.
Deshalb f
uhren an der Matrix A nun elementare Spaltenumformungen durch bis diese
Matrix reduzierte Zeilenstufenform hat. Spaltenumformungen entsprechen einer Multiplikation von rechts. Somit f
uhren wir alle Umformungen auch an einer Einheitsmatrix
durch, die genauso viele Spalten wie A hat, das heit an E4
+
y

(1)

+
y

+
y

+
y

0
0

(2)

0
0

0
0

0
1

Wir verwenden nun die Bezeichnungen

0 0 1
T = 0 1 1
1 2
5

und S 1

1
0
=
0
0

0 1 1
1 1 2

0 1
0
0 0
1

Dann hat unsere Rechnung gezeigt, dass gilt

1 0 0 0
T AS 1 = 0 1 0 0
0 0 0 0

145

KAPITEL 7. MATRIZEN, LGS UND LINEARE ABBILDUNGEN

7.4. BASISWECHSEL UND AQUIVALENZ


VON MATRIZEN

Wir gehen jetzt davon aus, dass A die Darstellungsmatrix einer linearen Abbildung
F : R4 R3 bez
uglich der Standardbasis B von R3 und der Standardbasis B 0 von R4
ist, dh dass A = MBB 0 (F ) gilt. Dann ist die Matrix in reduzierter Zeilenstufenform die
Darstellungsmatrix derselben linearen Abbildung bez
uglich einer Basis C von R3 und
0
4
einer Basis C von R . Um diese Basen zu bestimmen benotigen wir die Definition der
Basiswechselmatrizen.
Es gilt T = MC 0 MB10 = MC 0 und S 1 = MB MC1 = MC1 , da wir annehmen, das B und
B 0 Standardbasen sind. Die Basis C entspricht den Spalten von MC1 und damit denen
von S 1 .
Die Basis C 0 entspricht den Spalten von MC10 und damit denen der Inversen von T , die
wir jetzt berechnen:

0
0
1 | 1 0 0

1
2
5
| 0 0 1

0 1 1 | 0 1 0
0 1 1 | 0 1 0 | (1)
1

0
0

| 0 0 1

2 5 |

1 1 |

0 1 |

0 0 |

1 0 |

0 0 1 |

0
0

0
1 +

+
1 0
0

2 1

1 0
0
0

(1)

1 | 1 0 0

| (1)

+
(2)

(5)

MC10

5 2 1
= 1 1 0
1 0 0

Somit haben wir die Basen C = {c1 , c2 , c3 , c4 } und C 0 = {c01 , c02 , c03 } mit







1
1
0
1
5
2
1
2
1
1
0
c2 = c3 = c4 = c01 = 1 c02 = 1 c03 = 0
c1 =
0
1
0
0
1
0
0
1
0
0
0
bestimmt. Die lineare Abbildung F : R4 R3 , x Ax hat bez
uglich dieser Basen die
Darstellungsmatrix

1 0 0 0
MCC 0 (F ) = 0 1 0 0 .
0 0 0 0

Korollar 7.4.17 Haben zwei Matrizen A, B MatK (m, n) den gleichen Rang, dann
sind sie
aquivalent zueinander.
Beweis. Beide Matrizen sind zur selben Matrix in reduzierte Zeilenstufenform aquivalent

und somit folgt die Aussage aus der Symmetrie und Transitivitat der Aquivalenzrelation.

146

8. Determinanten und
Diagonalisierbarkeit
In dem letzten Kapitel haben wir uns mit linearen Abbildung zwischen verschiedenen
Vektorraumen, die durch rechteckige Matrizen dargestellt werden konnen. Ab jetzt wollen
wir uns mit Endomorphismen, das heit mit linearen Abbildungen F : V V von einem
Vektorraum V in sich selbst besch
aftigen. Wahlen wir Basen B, B 0 von V , dann entsprechen
diese Abbildungen quadratischen Matrizen A = MBB 0 (F ). Wir wissen aus Satz 7.4.14,
aquivalent zu einer Diagonalmatrix ist. Dies bedeutet,
dass jede quadratische Matrix
dass es geeignete Basen B und B 0 von V gibt, so dass die Darstellungsmatrix MBB 0 (F )
Diagonalform hat.
Ab jetzt wollen wir uns mit der Frage beschaftigen, ob jede quadratische Matrix auch
ur m
ussen wir eine Basis B von V finden, so dass
ahnlich zu einer Diagonalmatrix ist. Daf

Darstellungsmatrix MBB (F ) Diagonalform hat.


Warum dieses Problem f
ur Anwendungen wichtig ist sehen wir daran wenn wir die Potenz
k
einer Matrix A berechnen wollen. F
ur eine n n Matrix A und ein groes k ist die
Matrixmultiplikation rechnerisch aufwendig. Wissen wir aber, dass A a
hnlich zu einer
Diagonalmatrix ist, d.h. es gibt eine invertierbare Matrix T und Skalare i K, so dass
gilt:
T A T 1 = Diag(1 , . . . , n ) A = T 1 Diag(1 , . . . , n ) T
Dann konnen wir leicht die Potenz von A berechnen:
Ak = T 1 Diag(1 , . . . , n ) T T 1 Diag(1 , . . . , n ) T . . . T 1 Diag(1 , . . . , n ) T
= T 1 Diag(1 , . . . , n )k T = T 1 Diag(k1 , . . . , kn ) T.
Die Potenz einer Matrix spielt zum Beispiel f
ur das Berechnen von Iterationen eine

Rolle. Ahnlich
wie im eindimensionalen Fall, wo wir die Gleichung xn+1 = axn zu einem
Anfangswert x0 durch xn = an x0 l
osen, ist die Losung eines hoherdimensionalen linearen
Problems durch die Potenz einer Matrix gegeben. Zum Beispiel ist die Losung des Problems

 
 
 
xn+1
2xn + 3yn
2 3
xn
=
=
yn+1
xn + yn
1 1
yn
zu einem Anfangswert (x0 , y0 )> durch
  
n  
xn
2 3
x0
=
yn
1 1
y0
gegeben.

8.1. Determinanten
Zunachst wollen wir ein einfaches Kriterium kennenlernen, mit dem es moglich ist zu
bestimmen, ob eine Matrix invertierbar ist.

147

KAPITEL 8. DETERMINANTEN UND DIAGONALISIERBARKEIT

8.1. DETERMINANTEN

Beispiel 8.1.1 Schauen wir das eindimensionale LGS ax = b an. Dies hat eine eindeutige L
osung f
ur alle b K, wenn a =
6 0 ist. Die Losung ist dann durch x = a/b gegeben.
Wenn wir ein allgemeines LGS mit zwei Gleichungen losen, dann erhalten wir eine
ahnliche Bedingung:
!
!
(1)
a11 a12 | b1 | (a21 )
a11 a21 a12 a21 | a21 b1
a21 a22 | b2

| (a11 )

a11 a21 a11 a22 | a11 b2

a11 a21
0

a12 a21

a21 b1

a11 a22 a12 a21 | a11 b2 a21 b1

Ist nun a11 a22 a12 a21 6= 0, dann ist auch dieses Gleichungssystem eindeutig losbar.
Der Ausdruck a11 a22 a12 a21 heit Determinante der 2 2 Matrix und a ist die Determinante der 1 1 Matrix (a). Wir werden ihn hier u
uhren und
ber seine Eigenschaften einf
dann sehen, dass dies zu der gleichen Formel f
uhrt.
Determinanten k
onnen nur von quadratischen Matrizen berechnet werden. Es ist g
unstig
die Spalten der Matrix als Vektoren im K n zu betrachten, so dass man auch n Vektoren
eine Determinante zuordnen kann.
Definition 8.1.2 (Determinante)
Es sei K ein K
orper. Eine Abbildung
det : MatK (n, n) K,

bzw.

det : K n K n K n K
|
{z
}
nmal

heit Determinantenfunktion, falls die folgenden drei Eigenschaften gelten:


(i) Es ist det(En ) = 1, bzw. det(e1 , . . . , en ) = 1
(ii) Besitzt A MatK (n, n) nicht vollen Rang, rang(A) < n, so ist det(A) = 0, bzw.
sind v1 , . . . , vn linear abh
angig, dann ist det(v1 , . . . , vn ) = 0.
(iii) Seien v1 , . . . , vn , vi0 K n , dann gilt f
ur alle i {1, . . . , n} und f
ur alle , K
det(v1 , . . . , vi1 , vi + vi0 , vi+1 , . . . , vn )
= det(v1 , . . . , vi1 , vi , vi+1 , . . . , vn ) + det(v1 , . . . , vi1 , vi0 , vi+1 , . . . , vn ).
Diese Eigenschaft wird als Linearit
at in jeder Spalte bezeichnet. Man sagt auch,
dass det eine Multinearform ist.
Aus dieser Definition k
onnen wir direkt ableiten, wie sich die Determinante einer Matrix
bei elementaren Spaltenumformungen verhalt.
Satz 8.1.3 Sei det : K n K n K eine Determinantenfunktion, dann gilt:

148

KAPITEL 8. DETERMINANTEN UND DIAGONALISIERBARKEIT

8.1. DETERMINANTEN

1) Multipliziert man eine Spalte mit einem Skalar, dann andert sich die Determinante
um genau diesen Faktor
det(v1 , . . . , vi1 , vi , vi+1 , . . . , vn ) = det(v1 , . . . , vi1 , vi , vi+1 , . . . , vn ).
2) Beim Vertauschen zweier Spalten andert die Determinante ihr Vorzeichen
det(v1 , . . . , vi1 , vi , vi+1 , . . . , vj1 , vj , vj+1 , . . . , vn )
= det(v1 , . . . , vi1 , vj , vi+1 , . . . , vj1 , vi , vj+1 , . . . , vn ).
3) Addiert man das -fache der Spalte j zur Spalte i, wobei i 6= j, dann andert das
die Determinante nicht:
det(v1 , . . . , vi1 , vi + vj , vi+1 , . . . , vn ) = det(v1 , . . . , vi1 , vi , vi+1 , . . . , vn ).

Beweis.

1) Aufgrund von Eigenschaft (ii) der Determinantenfunktion gilt


det(v1 , . . . , vi1 , vi + vj , vi+1 , . . . , vj1 , vi + vj , vj+1 , . . . , vn ) = 0,

da die i-te und die j-te Spalte gleich sind und damit linear abhangig. Durch Anwenden
von Eigenschaft (iii) zuerst auf Spalte i und danach auf Spalte j erhalten wir somit
0 = det(v1 , . . . , vi1 , vi , vi+1 , . . . , vj1 , vi + vj , vj+1 , . . . , vn )
+ det(v1 , . . . , vi1 , vj , vi+1 , . . . , vj1 , vi + vj , vj+1 , . . . , vn )
= det(v1 , . . . , vi1 , vi , vi+1 , . . . , vj1 , vi , vj+1 , . . . , vn )
+ det(v1 , . . . , vi1 , vi , vi+1 , . . . , vj1 , vj , vj+1 , . . . , vn )
+ det(v1 , . . . , vi1 , vj , vi+1 , . . . , vj1 , vi , vj+1 , . . . , vn )
+ det(v1 , . . . , vi1 , vj , vi+1 , . . . , vj1 , vj , vj+1 , . . . , vn )
Verwenden wir wieder Eigenschaft (ii), dann sehen wir, dass der erste und letzte
Summand null ist, da bei beiden Determinanten zwei Spalten gleich sind, und somit
wie behauptet gilt:
det(v1 , . . . ,vi1 , vi , vi+1 , . . . , vj1 , vj , vj+1 , . . . , vn )
+ det(v1 , . . . , vi1 , vj , vi+1 , . . . , vj1 , vi , vj+1 , . . . , vn ) = 0.
2) Diese Regel folgt direkt aus Eigenschaft (iii), indem man = 0 verwendet.
3) Diese Regel folgt ebenfalls aus Eigenschaft (iii), die besagt, dass
det(v1 , . . . , vi1 , vi + vj , vi+1 , . . . , vn )
= det(v1 , . . . , vi1 , vi , vi+1 , . . . , vn ) + det(v1 , . . . , vi1 , vj , vi+1 , . . . , vn ).
Da aber im zweiten Summand der Vektor vj sowohl in der Spalte i, als auch der
Spalte j steht, folgt aus Eigenschaft (ii), dass diese Determinante null ist.

149

KAPITEL 8. DETERMINANTEN UND DIAGONALISIERBARKEIT

8.1. DETERMINANTEN

Korollar 8.1.4 Sei A MatK (n, n) eine quadratische Matrix und K ein Skalar,
dann gilt:
det(A) = n det A

Beweis. Die Matrix A entsteht aus A durch Multiplizieren aller Eintrage mit dem Skalar
, das heit es werden alle n Spalten mit multipliziert. Durch Anwenden von Regel 1
aus Satz 8.1.3 auf die Spalten 1 bis n, erhalten wir so die Aussage.
Satz 8.1.5 Sei A = (a) MatK (1, 1), dann ist durch det A = a eine Determinantenfunktion gegeben.


a b
Sei A =
MatK (2, 2), dann ist durch
c d


a b
det A = det
= ad bc
c d
eine Determinantenfunktion gegeben.
Beweis. Es gilt aufgrund von Eigenschaft (i) der Determinantenfunktion det(1) = 1 und
somit gilt aufgrund von Eigenschaft (iii) f
ur eine 1 1-Matrix, also ein Skalar det(a) =
a det(1) = a.
Sei jetzt A eine 2 2-Matrix. Die Spalten von A sind die Vektoren
 
 
a
b
v1 =
= ae1 + ce2 und v2 =
= be1 + de2 ,
c
d
wobei hier e1 , e2 die Standardbasisvektoren des K 2 sind. Wir rechen nach
det(v1 , v2 ) = det(ae1 + ce2 , be1 + de2 )
= a det(e1 , be1 + de2 ) + c det(e2 , be1 + de2 ) | Linearitat der ersten Spalte
= ab det(e1 , e1 ) + ad det(e1 , e2 )

| Linearitat der zweiten Spalte

+ bc det(e2 , e1 ) + bd det(e2 , e2 )

= ad det(e1 , e2 ) + bc det(e2 , e1 )

| Eigenschaft (ii)

Vertauschen von Spalten

andert Vorzeichen
| Eigenschaft (i)

= ad det(e1 , e2 ) bc det(e1 , e2 )
= ad bc

Beispiel 8.1.6


1 0
det
=1102=1
2 1

1 2
det
1 2


= 1 2 (2) (1) = 2 2 = 0

150

KAPITEL 8. DETERMINANTEN UND DIAGONALISIERBARKEIT

8.1. DETERMINANTEN

Satz 8.1.7 F
ur jedes n N gibt es eine eindeutig bestimmte Determinantenfunktion
det : MatK (n, n) K.
Wir verzichten hier an dieser Stelle auf den Beweis. Er kann auf analoge Art und Weise wie der Beweis von Satz 8.1.5 gef
uhrt werden. Allerdings benotigt man eine kompakte Schreibweise um klarzumachen welche Matrixeintrage miteinander multipliziert
werden. Auerdem kommt man auf Determinanten zum Beispiel f
ur 4 4-Matrizen
der Art det(e3 , e2 , e4 , e1 ), die durch eine gewisse Anzahl von Vertauschen in die Form
(1)Anzahl Vertauschungen det(e1 , e2 , e3 , e4 ) = 1 gebracht werden m
ussen. Dies ist moglich
durch das Studium von sogenannten Permutationen und deren Signum. Wir verzichten
hier aber darauf, da zur praktischen Berechnung von Determinanten groerer Matrizen nie
die explizite Formel verwendet wird.
Definition 8.1.8 (Unterdeterminante)
Sei A = (aij ) MatK (n, n). Die (n 1) (n 1)-Matrix, die aus A durch Streichung
der i-ten Zeile und j-ten Spalte ensteht, wird mit Aij bezeichnet.
Die Determinante Mij = det Aij nennen wir Unterdeterminante oder Minor von
det A.

Satz 8.1.9 (Laplacescher Entwicklungssatz)


Sei A = (aij ) MatK (n, n). Der Wert der Determinante von A ergibt sich, indem man
die Elemente einer beliebigen Zeile (oder Spalte) mit (1)i+j Mij multipliziert und die
so entstehenden Produkte aufaddiert. Die Entwicklung der i-ten Zeile lautet also
det(A) =

n
X

aij (1)i+j Mij .

j=1

Die Entwicklung der j-ten Spalte lautet demnach


det(A) =

n
X

aij (1)i+j Mij .

i=1

Auch auf diesen Beweis verzichten wir. Es ist zu beachten, dass es egal ist nach welcher
Zeile oder Spalte man entwickelt um eine Determinante zu berechnen. Aus diesem Grund
sollte man immer diejenige Zeile oder Spalte wahlen, in der die meisten Eintrage null sind.
Die Vorzeichen (1)i+j lassen sich einfach durch das
benachbarte Eintr
age in einer Zeile oder Spalte immer


+ + ... +
+
+ + . . . +


+ + . . . + +


+ + . . . +


. . . . .

. . ... ... ...
.. .. .. ..
+ + ...

folgende Schema ablesen, da zwei


unterschiedliche Vorzeichen haben.

+ ...
+ . . . +

+ . . .

+ . . . +

.. .. . .
..
. .
. .

+ + ...

151

KAPITEL 8. DETERMINANTEN UND DIAGONALISIERBARKEIT

8.1. DETERMINANTEN

Auf der Diagonale steht immer (1)i+i = +1. Die erste Matrix hat eine ungerade Zahl
von Splaten und Zeilen, da dann (1)n+1 = 1 ist, wohingegen die zweite f
ur Matrizen mit
gerade Zahl von Splaten und Zeilen steht.
Korollar 8.1.10 (Regel von Sarrus)
Sei

a11 a12 a13


A = a21 a22 a23
a31 a32 a33
eine 3 3-Matrix, dann gilt
det(A) = a11 a22 a33 + a12 a23 a31 + a13 a21 a32 a11 a23 a32 a12 a21 a33 a13 a22 a31

Beweis. Wir verwenden die Laplaceentwicklung nach der ersten Spalte und erhalten




a
a
a
a
det(A) = a11 (1)1+1 det 22 23 + a21 (1)2+1 det 12 13
a32 a33
a32 a33


a
a
+ a31 (1)3+1 det 12 13
a22 a23



= a11 a22 a33 a23 a32 a21 a12 a33 a13 a32 + a31 a12 a23 a13 a22
= a11 a22 a33 a11 a23 a32 a21 a12 a33 + a21 a13 a32 + a31 a12 a23 a31 a13 a22
Durch Umsortieren des Ergebnisses erhalt man die obige Formel.
Die Regel von Sarrus wird oft als Gartenzaunmethode bezeichnet. Dies erklart sich
durch das folgende Schema: Die ersten beiden Spalten werden noch einmal rechts neben

der Matrix hingeschrieben. Die auf einer Linie (also einer Latte des Gartenzauns) liegenden
Eintrage werden multipliziert, die Produkte auf einer durchgezogenen Linie erhalten ein
Plus, die auf einer gestrichelten Linie ein Minus.
Definition 8.1.11 Eine Matrix A MatK (n, n) heit obere (bzw. untere) Dreiecksmatrix, wenn unterhalb (bzw. oberhalb) der Diagonale alle Eintrage null sind. Das

152

KAPITEL 8. DETERMINANTEN UND DIAGONALISIERBARKEIT

heit A = (aij ), wobei aij = 0, wenn i > j ist (bzw. wenn i < j ist).

1 . . .
1 0 . . .

..
0 2
2

.
0
,

Aobere =
A
=
untere
..

.
.
.
..
..
..
.
0

0 . . . 0 n
...

8.1. DETERMINANTEN

0
..
.
.

0
n

Eine Matrix wird als Dreiecksmatrix bezeichnet, wenn sie eine obere oder untere
Dreiecksmatrix ist.

Satz 8.1.12 Die Determinante einer Dreiecksmatrix ist das Produkt ihrer Diagonaleintrage.
Beweis. Wir zeigen die Aussage f
ur obere Dreiecksmatrizen, der Beweis f
ur untere ist
analog.
Wir wollen also die Aussage

1 . . .

..
0 2

= 1 . . . n
det .
(8.1)

.
.
.
.
.
0
0 . . . 0 n
per Induktion nach der Gr
oe der Matrizen beweisen.
Induktionsanfang: n = 1, das heit A = (a) und es gilt det A = a.
Induktionsschritt: Angenommen die Formel (8.1) ist f
ur n = k richtig. Dann wollen wir
zeigen, dass sie auch f
ur n = k + 1 richtig ist. Daf
ur entwickeln wir die Determinante
nach der ersten Spalte.

1 . . .

2 . . .

.
..
0 2

..

0 ...
.
..

.
= 1 2 . . . k+1 .

..
det .
= 1 det .
0

.
.
0 k

..

.
0
0 k

0 . . . 0 k+1
0 . . . . . . 0 k+1
Dabei haben wir die Induktionsvoraussetzung auf die k k-Matrix mit den Diagonaleintr
agen 2 bis k+1 angewendet.

Satz 8.1.13 Sei A MatK (n, n) eine Matrix und A> MatK (n, n), die zu A transponierte Matrix, dann gilt
det A = det A> .

153

KAPITEL 8. DETERMINANTEN UND DIAGONALISIERBARKEIT

8.1. DETERMINANTEN

Beweis. Wir k
onnen leicht nachpr
ufen, dass der Satz f
ur 2 2-Matrizen gilt:




a b
a c
>
det A = det
= ad bc
det A = det
= ad cb = ad bc.
c d
b d
F
ur groere Matrizen kann mithilfe des Entwicklungssatzes ebenso die Aussage u
uft
berpr
werden.
Korollar 8.1.14 F
ur elementare Zeilenumformungen gelten dieselben Rechenregeln, die
in Satz 8.1.3 f
ur elementare Spaltenumformungen fomuliert wurden.
Das heit f
ur eine Determinantenfunktion det gilt:
1) Multipliziert man eine Zeile mit einem Skalar, dann andert sich die Determinante
um genau diesen Faktor.
2) Beim Vertauschen zweier Zeilen andert die Determinante ihr Vorzeichen.
3) Addiert man das -fache der Zeile j zur Zeile i, wobei i 6= j, dann andert das die
Determinante nicht.
Beweis. Durch das Transponieren werden die Zeilen und die Spalten der Matrix vertauscht.
Da dies die Determinante nicht
andert, bedeutet das, dass f
ur Zeilen dieselben Regeln wie
f
ur Spalten gelten.
Beispiel 8.1.15 Wir berechnen die Determinante einer 3 3-Matrix auf verschiedene
Art und Weisen.
Sarrusregel:

1 2 2
det 0 2 2 = 1 2 2 + 2 (2) (3) + (2) 0 1
3 1 2
(2) 2 (3) + (2) 1 1 + (2) 2 0

= 4 + 12 + 0 12 (2) 0 = 6
Entwicklung nach der ersten Spalte:







1 2 2
2 2
2 2
2 2

det 0 2 2 = 1 det
0 det
+ (3) det
1 2
1 2
2 2
3 1 2
= (2 2 (2) 1) 0 + (3) 0 = 6
Entwicklung nach

1 2
det 0 2
3 1

der zweiten Zeile:







2
2 2
1 2
1 2

2 = 0 det
+ 2 det
(2) det
1 2
3 2
3 1
2
= 0 + 2(1 2 (2) (3)) + 2(1 1 2 (3)) = 8 + 14 = 6

154

KAPITEL 8. DETERMINANTEN UND DIAGONALISIERBARKEIT

8.1. DETERMINANTEN

Umformen zu einer Dreiecksmatrix durch elementare Zeilenumformungen

3
1
2 2
1 2 2
1 2 2

(7)
= det 0 2 2 = 2 det 0 1 1
det 0
2 2
0
7
4
3 1
2

+
+
0 7 4

1 2 2

= 2 det 0 1 1 = 2 1 1 3 = 6
0 0
3
Umformen zu einer Dreiecksmatrix durch elementare Spaltenumformungen
(2)

+
y

det 0

3 1

+
y

2 0
1
0 0

2 = det 0
2 0 = det 0
2 0 = 1 2 3 = 6
2
3 1 3
3 7 3
2

Alle Methoden f
uhren zu demselben Ergebnis.
F
ur groere Matrizen ist es oft sinnvoll die verschiedenen Methoden zum Berechnen einer
Determinante zu kombinieren. So kann man durch eine Zeilenumformung viele Nullen in
einer Zeile erreichen, nach der man dann Entwickeln kann.
Auerdem sollte man immer zuerst pr
ufen, ob zum Beispiel zwei Spalten gleich sind oder
sich nur um ein Skalar unterscheiden, denn dann ist die Determinante null, unabhangig
davon wie kompliziert die anderen Eintrage der Matrix erscheinen.
Bemerkung 8.1.16 F
ur 2 2 und 3 3-Matrizen konnen wir der Determinante eine
geometrische Interpretation geben.
Und zwar entspricht der Fl
acheninhalt des Parallelogramms, das von den Vektoren
v1 , v2 R2 aufgespannt wird, dem Betrag der Determinante | det(v1 , v2 )|. Um zu sehen,
dass der Fl
acheninhalt den gleichen Regeln wie die Determinante gehorcht, betrachten
wir die einzelnen Regeln f
ur die Determinantenfunktion:
1

e2
*
v2 



*

e1
-

1
Die Standardbasis erzeugt ein Quadrat der Seitenl
ange 1 und daher
auch vom Fl
acheninhalt 1. Dies
stimmt u
berein mit det(e1 , e2 ) = 1.


 v1

Zwei linear abhangige Vektoren liegen auf einer Gerade und erzeugen daher kein Parallelogramm, somit ist der Flacheninhalt null, in

Ubereinstimmung
mit der Eigenschaft, dass
die Determinante linear abhangiger Vektoren
null ist.

155

KAPITEL 8. DETERMINANTEN UND DIAGONALISIERBARKEIT

8.1. DETERMINANTEN

*








v2 



 *

2v1
 

v
1


Bei dem von den Vektoren 2v1 und v2 erzeugten Parallelogramm ist eine Seite genau doppelt so lang im
Vergleich zu dem durch v1 und v2 erzeugten Parallelogramm. Somit ist auch der Flacheninhalt genau doppelt so gro. Dies stimmt u
berein mit der Rechenregel
| det(2v1 , v2 )| = |2 det(v1 , v2 )|.

*



 



v2 v1+v2




*


v1



Das von den Vektoren v1 und v1 + v2 erzeugte


Parallelogramm entsteht aus dem von v1 und v2
erzeugten durch eine Scherung, so dass sich
der Fl
acheninhalt nicht andert. Dies passt zu
| det(v1 , v1 + v2 )| = | det(v1 , v2 )|.

F
ur eine 3 3-Matrix mit den Spaltenvektoren v1 , v2 , v3 R3 entspricht der Betrag der
Determinante | det(v1 , v2 , v3 )| dem Volumen, des von den Vektoren erzeugten Spats.

Definition 8.1.17 Wir bezeichnen eine Matrix als regul


ar, wenn sie invertierbar ist.
Die Menge der regul
aren n n-Matrizen heit Gln (K), eine Teilmenge davon sind die
Matizen mit Determinante 1.
Gln (K) := {A MatK (n, n) | det A 6= 0},

Sln (K) := {A MatK (n, n) | det A = 1}.

Dabei steht Gl f
ur General linear group und Sl f
ur Special linear group.

Satz 8.1.18 Die Menge Gln (K) ist eine Gruppe mit der Matrixmultiplikation als Verkn
upfung.
Beweis. Das neutrale Element der Gln (K) ist die Einheitsmatrix En . Die Existenz von
Inversen ist genau die Definition der Elemente von Gln (K). Das Assoziativgesetz wurde in
Satz 7.1.5 bewiesen.
Die Gln (K) ist die Gruppe der Einheiten (s. Def. 4.3.10) im Ring der quadratischen
Matrizen MatK (n, n).
Satz 8.1.19 Die Determinante ist ein Gruppenhomomorphimus von der Gln (K) in die
multiplikative Gruppe K .
det : Gln (K) K ,
das heit es gilt
det(A B) = det A det B.

(8.2)

156

KAPITEL 8. DETERMINANTEN UND DIAGONALISIERBARKEIT

8.1. DETERMINANTEN

Beweis. F
ur den Beweis verwenden wir Satz 7.1.24, der besagt, dass jede invertierbare
Matrix ein Produkt von Elementarmatrizen ist. Konnen wir also zeigen, dass Formel (8.2)
f
ur alle Elementarmatrizen A gilt, dann haben wir die Formel f
ur alle regularen Matrizen
gezeigt.
Da aber die Multiplikation von links mit Elementarmatrizen (s. Def. 7.1.20) elementaren
Zeilenumformungen entspricht, gen
ugt es zu pr
ufen, ob die Rechenregeln aus Korollar
8.1.14 mit den Determinanten f
ur die entsprechenden Elementarmatrizen u
bereinstimmen.
1) Sei A = Diag(1, . . . , 1, , 1, . . . , 1), wobei in der i-ten Zeile steht, dann ist det A = ,
da A eine Dreiecksmatrix ist.
Die Multiplikation von links mit A entspricht dem Multiplizieren der i-ten Zeile von
B mit und wir wissen aus Korollar 8.1.14, dass dann det(AB) = det B gilt, dies
ist aber gleich det A det B = det B.
2) Sei A = Tij eine Vertauschungsmatrix. Dann ist die Determinante det Tij = 1. Dies
sieht man wie folgt:
In allen Spalten und Zeilen auer i und j entsprechen die Eintrage von Tij einer
Einheitsmatrix. Entwickeln wir also die Matrix schrittweise nach all diesen Zeilen,
dann sehen wir , dass det Tij = det T gilt, wobei




0 1
0 1

und det
= 0 1 = 1.
T =
1 0
1 0
Die Multiplikation von links mit A entspricht dem Vertauschen der i-ten und j-ten
Zeile von B, wodurch sich das Vorzeichen der Determinante von B andert. Es gilt
also det(AB) = det B = det Tij det B.
3) Ist A = Mij (), dann ist det A = 1, da A eine obere Dreiecksmatrix mit den
Diagonaleintr
agen 1 ist.
Die Multiplikation von links mit A entspricht dem Addieren des -fachen der j-ten
Zeile zur i-ten Zeile von B. Dies andert die Determinante nicht, also gilt det(AB) =
det B = det A det B.

Bemerkung 8.1.20 Die Formel det AB = det A det B gilt auch f


ur nichtinvertierbare
Matrizen.
Denn ist det A = 0, dann ist der Rang von A kleiner als n, aber dann hat auch das
Produkt AB einen Rang, der kleiner als n ist und somit gilt
0 = det(AB) = det A det B = 0 det B = 0.

Korollar 8.1.21 F
ur eine invertierbare Matrix A Gln (K) gilt:
det(A1 ) =

1
= det(A)1 .
det A

157

KAPITEL 8. DETERMINANTEN UND DIAGONALISIERBARKEIT

8.1. DETERMINANTEN

Beweis. Es gilt A A1 = En und damit det(A1 ) det A = det(A A1 ) = det En = 1,


woraus die Behauptung folgt.
Bemerkung 8.1.22 Die Sln (K) ist der Kern der Abbildung det : Gln (K) K und
damit eine Untergruppe der Gln (K).

Definition 8.1.23 Sei A MatK (n, n) eine Matrix, dann heit die Matrix
A# MatK (n, n), die zu A adjungierte Matrix und hat die Eintrage
i+j
a#
Mji .
ij = (1)

Der Eintrag der i-ten Zeile und j-ten Spalte von A# ist also 1 mal die Unterdeterminante
die durch Streichen der i-ten Spalte und der j-ten Zeile von A berechnet wird.

Satz 8.1.24 Sei A MatK (n, n), dann gilt


A A# = det A En .

Beispiel 
8.1.25 Wir k
onnen die zu einer 2 2-Matrix inverse Matrix berechnen. Sei
a b
also A =
, dann ist
c d
A11 = (d),

A12 = (c),

A21 = (b)

und A22 = (a).

Diese 1 1-Matrizen sind gleich ihrer Determinante und somit erhalten wir
M11 = d,

M12 = c,

M21 = b und M22 = a.


 

(1)1+1 M22 (1)1+2 M21
d b
A =
=
.
(1)2+1 M12 (1)2+2 M11
c a
#

Und somit k
onnen wir die zu A inverse Matrix angeben


1
d b
1
A =
.
ad bc c a
Sie existiert, vorausgesetzt det A = ad bc ist ungleich null.

Satz 8.1.26 (Cramersche Regel)


Sei A MatK (n, n) invertierbar und b K n . Es bezeichnen a1 , . . . , an die Spalten von
A.

158

KAPITEL 8. DETERMINANTEN UND DIAGONALISIERBARKEIT

8.2. EIGENWERTE UND EIGENVEKTOREN

Die Losung x K n des linearen Gleichungssystems Ax = b ist durch


xk =

det(a1 , . . . , ak1 , b, ak+1 , . . . , an )


,
det(A)

gegeben, f
ur k = 1, . . . , n.

8.2. Eigenwerte und Eigenvektoren


In diesem Abschnitt wollen wir erste Antworten auf die zu Beginn von Kapitel 8 formulierte
Fragestellung, ob und unter welchen Vorraussetzungen Matrizen zu Diagonalmatrizen
ahnlich sind, geben.
Definition 8.2.1 Sei A MatK (n, n). Wir bezeichnen A als diagonalisierbar, wenn
A ahnlich zu einer Diagonalmatrix ist, d. h. wenn es eine Matrix T Gln (K) gibt, so
dass gilt:
T A T 1 = Diag(1 , . . . , n ), i K.
Ein Endomorphismus F : V W heit diagonalisierbar, wenn es eine Basis B von V
gibt, so dass die Darstellungsmatrix von F bez
uglich dieser Basis Diagonalform hat
MBB (F ) = Diag(1 , . . . , n ),

i K.

Diese beiden Definitionen sind gleichbedeutend, denn wenn A die Darstellungsmatrix


eines Endomorphismus zu einer beliebigen Basis ist, dann ist A ahnlich zu jeder anderen
Darstellungsmatrix des Endomorphismus.
Beispiel 8.2.2 Jede Matrix, die bereits in Diagonalform ist, ist nach der obigen Definition diagonalisierbar (mit T = En ). Aus diesem Grund schauen wir uns zunachst
Diagonalmatrizen etwas genauer an, um besser zu verstehen, wie wir herausfinden konnen,
ob eine Matrix
diagonalisierbar
ist.


2 0
Sei A =
eine Diagonalmatrix, dann lasst sich das Bild der Standardbasis0 3
vektoren unter der Abbildung F : K K, x 7 Ax besonders einfach berechnen. Es
gilt
 
 
2
0
Ae1 =
= 2e1 und Ae2 =
= 3e2 .
0
3
Die Basisvektoren werden also auf ein Vielfaches von sich selbst abgebildet.
Dies ist die Motivation der folgenden Definition:
Definition 8.2.3 (Eigenwerte & Eigenvektoren)
Es sei F : V V ein Endomorphismus. Eine Zahl K wird Eigenwert von F
genannt, wenn es einen vom Nullvektor verschiedenen Vektor v V, v 6= 0V gibt,

159

KAPITEL 8. DETERMINANTEN UND DIAGONALISIERBARKEIT

8.2. EIGENWERTE UND EIGENVEKTOREN

so da
F v = v

(8.3)

gilt. Ein derartiger Vektor heit Eigenvektor von F zum Eigenwert .


Sei A MatK (n, n). Dann ist v K n , mit v 6= 0 ein Eigenvektor von A, falls ein
K existiert mit Av = v. Den Skalar nennen wir dann Eigenwert von A.
Die Eigenwertgleichung (8.3) enth
alt mit der Zahl sowie mit dem Vektor v zwei Unbekannte, die auf der rechten Seite als Produkt auftreten.
Wichtig ist dabei, dass der Eigenvektor v nie der Nullvektor ist, wohingegen ein Eigenwert
= 0 m
oglich ist.
Satz 8.2.4 Eine Matrix A MatK (n, n) ist genau dann diagonalisierbar, wenn es eine
Basis des K n gibt, die aus Eigenvektoren von A besteht.
Beweis. Sei A diagonalisierbar, das heit es gibt eine Matrix T Gln (K), so dass
T AT 1 = Diag(1 , . . . , n ) = D gilt. Dies ist gleichbedeutend mit AT 1 = T 1 D. Die
Spalten von T 1 bilden eine Basis B = {b1 , . . . , bn } des K n , da T und somit auch T 1
invertierbar ist. Die i-te Spalte von AT 1 entspricht also Abi und ist gleich der i-te Spalte
von T 1 D. Multiplikation von links mit der Diagonalmatrix D entspricht der Multiplikation
der i-ten Spalte von T 1 mit dem i-ten Diagonaleintrag von D (s. Prop. 7.1.21). Also ist
die i-te Spalte von T 1 D durch i bi gegeben, das heit Abi = i bi , und somit besteht B
aus Eigenvektoren von A.
Besitzt der K n eine Basis B bestehend aus Eigenvektoren von A, dann berechnen wir die
Darstellungsmatrix MBB (F ) der linearen Abbildung F : K n K n , x 7 Ax bez
uglich B.
Die Spalten von MBB (F ) sind die Koordinaten der Bilder F (bi ) bez
uglich der Basis B. Da
aber F (bi ) = i bi ist, da bi ein Eigenvektor von A ist, gilt MB (F (bi )) = MB (i bi ) = i ei .
Und somit ist MBB (F ) eine Diagonalmatrix mit den Eigenwerten auf der Diagonale. Die
Basiswechselmatrix T 1 ist dadurch definiert, dass ihre Spalten die Vektoren aus B sind.
Nun wollen wir die Frage kl
aren, wie wir die Eigenwerte und Eigenvektoren einer Matrix
berechnen k
onnen.
Definition 8.2.5 (Charakteristisches Polynom einer Matrix)
Es sei A MatK (n, n) eine quadratische Matrix. Dann ist durch
A (t) := det(A tEn )
ein Polynom A (t) K[t] definiert. Man nennt A das charakteristische Polynom der
Matrix A.
Gelegentlich wird das charakteristische Polynom auch durch
det(tEn A) = (1)n det(A tEn )
definiert. Dieses hat die gleichen Nullstellen wie A .

160

KAPITEL 8. DETERMINANTEN UND DIAGONALISIERBARKEIT

8.2. EIGENWERTE UND EIGENVEKTOREN

Lemma 8.2.6 Sei A MatK (n, n), dann ist A (t) ein Polynom vom Grad n.
Beweis.
Beispiel 8.2.7 Sei

1
1
A=
0
2

0
3
1
2

2
0
0
1

0
0

1
0

Wir wollen das charakteristische Polynom A (t) berechnen.

1 0 2 0
1 0 0 0
1 3 0 0
0 1 0 0

A (t) = det
0 1 0 1 t 0 0 1 0
2 2 1 0
0 0 0 1

1 0 2 0
t 0 0 0
1t
0
2
0
1 3 0 0 0 t 0 0

= det 1 3 t 0

= det
0 1 0 1 0 0 t 0
0
1
t 1
2 2 1 0
0 0 0 t
2
2
1 t

1t
0
2
1t
0
2

= det 1 3 t 0 + (t) det 1 3 t 0


2
2
1
0
1
t


= (1 t)(3 t) 4 4(3 t) t (1 t)(3 t)(t) 2
= t2 + 4t 3 + 4 + 12 4t t(t3 + 4t2 3t 2)
= t4 4t3 + 2t2 + 2t + 13
Dabei haben wir die Determinante der 4 4-Matrix nach der vierten Spalte entwickelt.

Satz 8.2.8 Sei A MatK (n, n), dann sind die Nullstellen des charakteristischen Polynoms A sind genau die Eigenwerte der Matrix A.
Beweis. Es sei K eine Nullstelle des charakteristischen Polynoms von A. Also ist
A () = det(A En ) = 0. Demnach hat die Matrix A En nicht vollen Rang. Da die
Matrix A En quadratisch ist, folgt aus Korollar 7.3.20, dass es eine nichttriviale Losung
0 6= v K n f
ur das homogene lineare Gleichungssystem (A En )v = 0 gibt. Durch
Umstellen dieser Gleichung erhalten wir Av = (En )v = v. Also ist ein Eigenwert von A.
Sei umgekehrt ein Eigenwert von A. Dann exisiert ein 0 6= v K n , sodass Av = v.
Durch Umstellen dieser Gleichung erhalten wir Av v = (A En )v = 0. Da v 6= 0
besitzt dieses Gleichungsystem eine nichttriviale Losung und die Matrix (A En ) hat
nicht vollen Rang (s. Korollar 7.3.20). Demnach ist det(A En ) = 0, also eine Nullstelle
des charakteristischen Polynoms von A.

161

KAPITEL 8. DETERMINANTEN UND DIAGONALISIERBARKEIT

8.2. EIGENWERTE UND EIGENVEKTOREN

An dieser Stelle wissen wir alles, was wir brauchen um die Eigenwerte und Eigenvektoren
eine Matrix A zu bestimmen:
1. Berechne das charakteristische Polynom A (t)
2. Bestimme die Nullstellen von A (t), dies sind die Eigenwerte 1 , . . . , k von A.
3. Bestimme f
ur jeden Eigenwert i die Losungsmenge des LGS (A i En )v = 0. Jeder
Vektor v 6= 0V dieser Menge ist ein Eigenvektor von A zum Eigenwert i .

Satz 8.2.9 Ahnliche


Matrizen besitzen das gleiche charaktistische Polynom, d.h. es gilt
f
ur alle A MatK (n, n) und T Gln (K):
A (t) = T AT 1 (t)

Beweis.
T AT 1 (t) = det T AT 1 tEn


Definition des charakteristischen Polynoms

En = T T 1

Satz 7.1.7

Einfugen der Einheitsmatrix andert nichts

Ausklammern von T

Ausklammern von T 1

Satz 8.1.19

Korollar 8.1.21

Kommutativitat in K

Definition des charakteristischen Polynoms

= det T AT 1 tT T 1

= det T AT 1 T tT 1 )


= det T AT 1 T tEn T 1 )

= det T (AT 1 tEn T 1

= det T (A tEn )T 1
= det(T ) det(A tEn ) det(T 1 )
= det(T ) det(A tEn ) det(T )1
= det(A tEn )
= A (t)

Eine Konsequenz dieses Satzes ist die Tatsache, dass wir die Eigenwerte eines Endomorphismus berechnen k
onnen, indem wir die Eigenwerte eine beliebigen Darstellungsmatrix
MBB (F ) bestimmen. W
ahlen wir eine andere Basis C, dann ist die neue Darstelungsmatrix
MCC (F )
ahnlich zu der urspr
unglichen und hat somit dasselbe charakteristische Polynom.
Satz 8.2.10 Sei A MatK (n, n) eine obere oder untere Dreieckmatrix. Dann sind die
Eigenwerte von A durch die Diagonaleintrage gegeben.
Beweis. Wenn A eine Dreiecksmatrix mit den Diagonaleintragen aii ist, dann ist (A tEn )
eine Dreiecksmatrix mit den Diagonaleintragen aii t. Aufgrund von Satz 8.1.12 die
Determinante von (A tEn ) das Produkt ihrer Diagonaleintrage und somit gilt
det(A tEn ) =

n
Y
(aii t)
i=1

und damit i = aii die Nullstellen des charakteristischen Polynoms.

162

KAPITEL 8. DETERMINANTEN UND DIAGONALISIERBARKEIT

8.2. EIGENWERTE UND EIGENVEKTOREN

Satz 8.2.11 Sei A MatK (n, n) diagonalisierbar, dann zerfallt das charakteristische
Polynom A (t) in Linearfaktoren.
Beweis. Da A diagonalisierbar ist, gibt es eine Matrix T Gln (K), so dass T AT 1 =
Diag(1 , . . . , n ) = D gilt. Aufgrund von Satz 8.2.9 gilt A (t) = D (t). Das charakteristische
Polynom der Diagonalmatrix D wiederum ist aufgrund von Satz 8.2.10 durch
Qn
i=1 (t i ) gegeben.
Beispiel 8.2.12 Sei A = (aij ) MatR (2, 2). Dann ist das charakteristische Polynom


a11
a12

det(A En ) =
= (a11 )(a22 ) a12 a21
a21
a22
= 2 (a11 + a22 ) + a11 a22 a12 a21 .
{z
}
|
| {z }
:=q

:=p

Also erh
alt man die Eigenwerte von A via
1/2

p
=
2

r 
p 2
2

q.

Beispiel 8.2.13 Wir betrachten jetzt drei 2 2-Matrizen u


ber dem Korper R von denen
wir (sofern m
oglich) die Eigenwerte und Eigenvektoren berechnen wollen, um dann zu
pr
ufen ob die Matrizen diagonalisierbar sind.
1.


A=


2 1
2 1

charakteristisches Polynom:





2 1
1 0
A (t) = det(A tE2 ) = det
t
2 1
0 1

 



2 1
t 0
2 t 1
= det

= det
2 1
0 t
2 1 t
= (2 t)(1 t) 2 = t2 2t t + 2 2
= t2 3t = t(t 3).
Eigenwerte: Die Nullstellen von A (t) sind die Eigenwerte von A und durch
1 = 0

und 2 = 3

gegeben.

163

KAPITEL 8. DETERMINANTEN UND DIAGONALISIERBARKEIT

8.2. EIGENWERTE UND EIGENVEKTOREN

Eigenvektor zu 1 = 0: Wir m
ussen die Losungsmenge des homogenen linearen
Gleichungssystems (A 1 E2 )v = 0 berechnen. Es ist A 1 E2 = A und
somit ben
otigen wir die Losungsmenge von




2 1 | 0
2 1 | 0
2 1 | 0
0 0 | 0
Wir setzen x2 = r und erhalten x1 = 12 x2 = 12 r und somit ist die Losungsmenge
durch
 
1

L(A 1 E2 , 0) = {v R2 | v = r 2 , r R}
1
 
1
gegeben. Wir w
ahlen den Vektor v1 =
in dieser Menge.
2

Eigenvektor zu 2 = 3: Wir m
ussen die Losungsmenge des homogenen linearen
Gleichungssystems (A 2 E2 )v = 0 berechnen. Es ist

 
 

2 1
3 0
1 1
A 2 E2 =

=
2 1
0 3
2 2
und somit ben
otigen wir die Losungsmenge des LGS




1 1 | 0
1 1 | 0
2 2 | 0
0
0 | 0
Wir setzen x2 = r und erhalten x1 = x2 = r und somit ist die
L
osungsmenge durch
 
1
2
L(A 2 E2 , 0) = {v R | v = r
, r R}
1
 
1
gegeben. Wir w
ahlen den Vektor v2 =
in dieser Menge.
1
Basis aus Eigenvektoren? Die Vektoren v1 und v2 sind linear unabhangig und bilden daher eine Basis des R2 . Das bedeutet, dass die Matrix A diagonalisierbar
ist.
2.



2 1
B=
0 2
charakteristisches Polynom:


 

2 1
t 0

0 2
0 t

B (t) = det(B tE2 ) = det




2 t 1
= det
= (2 t)(2 t) = (2 t)2 .
0
2t
Eigenwerte: Die Nullstellen von B (t) sind die Eigenwerte von B und durch = 2
gegeben. Dies kann man auch ohne die Berechnung des charakteristischen
Polynoms erkennen, da B eine Dreiecksmatrix mit den Diagonaleintragen 2
ist (s. Satz 8.2.10).

164

KAPITEL 8. DETERMINANTEN UND DIAGONALISIERBARKEIT

8.2. EIGENWERTE UND EIGENVEKTOREN

Eigenvektor zu = 2: Wir m
ussen die Losungsmenge des homogenen linearen
Gleichungssystems (B E2 )v = 0 berechnen. Es ist

 
 

2 1
2 0
0 1
B E2 =

=
0 2
0 2
0 0
und somit ben
otigen wir die Losungsmenge von


0 1 | 0
0 0 | 0
Wir setzen x1 = r und somit ist die Losungsmenge durch
 
1
2
L(B E2 , 0) = {v R | v = r
, r R}
0
 
1
gegeben. Wir w
ahlen den Vektor v =
in dieser Menge.
0
Basis aus Eigenvektoren? Gibt es nicht, da alle Eigenvektoren ein Vielfaches von
v sind, wir aber zwei linear unabhangige Vertoren benotigen um eine Basis
von R2 zu haben.
3.



0 1
C=
1 0
charakteristisches Polynom:

C (t) = det(C tE2 ) = det

 



0 1
t 0
t 1

= det
1 0
0 t
1 t

= (t)(t) (1) = t2 + 1
Eigenwerte: Das charakteristische Polynom C (t) = t2 + 1 hat keine Nullstellen
in den reellen Zahlen und somit auch keine Eigenwerte.
Basis aus Eigenvektoren? Da es keine reellen Eigenwerte gibt, gibt es auch keine
Eigenvektoren dazu.
Wir haben in dem Beispiel Matrizen gesehen, die exemplarisch f
ur die zwei verschiedenen
Arten von Problemen stehen, die verhindern, dass eine Matrix diagonalisierbar ist:
1. Das charakteristische Polynom zerfallt nicht in Linearfaktoren (Matrix C).
2. Es gibt nicht gen
ugend linear unabhangige Eigenvektoren zu einem Eigenwert (Matrix
B).
Das erste Problem h
angt von dem Korper ab u
ber dem die Matrix betrachtet wird. Arbeitet
man u
ber K = R, dann hat A keine Eigenwerte, wenn das charakteristische Polynom

keine (reellen) Nullstellen besitzt. Uber


K = C besitzt ein Polynom n-ten Grades immer
n Nullstellen (s. Satz 5.5.3). Allerdings sind diese Nullstellen f
ur Polynome vom Grad
groer als 4 meist nur noch numerisch auffindbar. Eine allgemeine Losungsformel mit
Wurzelausdr
ucken existiert nicht.

165

KAPITEL 8. DETERMINANTEN UND DIAGONALISIERBARKEIT

8.2. EIGENWERTE UND EIGENVEKTOREN

Satz 8.2.14 (Lineare Unabh


angigkeit von Eigenvektoren)
Es sei F : V V ein Endomorphismus. v1 , ..., v` V seien Eigenvektoren von F
zu den paarweise verschiedenen Eigenwerten 1 , ..., ` K. Dann sind v1 , ..., v` linear
unabhangig.
Beweis. Der Beweis wird per Induktion gef
uhrt.
Induktionsanfang: Da jeder Eigenvektor per Definition verschieden vom Nullvektor ist, ist
{v1 } V linear unabh
angig.
Induktionsschritt: Wir nehmen an, da die Behauptung f
ur k {1, ..., `1} bereits verifiziert
ist und zeigen, da sie dann auch f
ur k + 1 wahr sein mu. Nach Induktionsannahme sind

also v1 , ..., vk linear unabh


angig, d.h. es besteht die Aquivalenz
1 v1 + ... + k vk = 0V

1 = ... = k = 0 .

(8.4)

Betrachten wir nun die Gleichung


1 v1 + ... + k vk + k+1 vk+1 = 0V .

(8.5)

Es ist zu zeigen, da diese Gleichung nur f


ur 1 = ... = k = k+1 = 0 bestehen kann. Durch
Anwenden von F auf die Gleichung (8.5) erhalten wir unter Ausnutzung der Linearitat
von F und der Eigenvektoreigenschaft der v1 , ..., vk+1 :
F (1 v1 + ... +

k vk +

1 F (v1 ) + ... + k F (vk ) +

1 1 v1 + ... +

k+1 vk+1 ) = F (0V .)


k+1 F (vk+1 ) = 0V ,

k k vk + k+1 k+1 vk+1 = 0V ,

Ebenfalls aus Gleichung (8.5), allerdings durch Multiplikation mit k+1 erhalten wir
1 k+1 v1 + ... + k k+1 vk + k+1 k+1 vk+1 = 0V ,
Subtraktion dieser beiden Gleichungen liefert
1 (1 k+1 )v1 + ... + k (k k+1 )vk = 0V ,
wobei sich der vk+1 enthaltende Term weghebt. Aufgrund der Induktionsvoraussetzung
(8.4) folgt i (i k+1 ) = 0 f
ur i {1, ..., k}. Da die Eigenwerte paarweise verschieden
sind, gilt i k+1 6= 0; also i = 0 f
ur alle i {1, ..., k}.
Durch Einsetzen in Gleichung (8.5) erhalten wir k+1 vk+1 = 0V , was aufgrund der Tatsache,
dass vk+1 6= 0V ist k+1 = 0 liefert.
Satz 8.2.15 Sei A MatK (n, n). Besitzt A genau n paarweise verschiedene Eigenwerte,
dann ist A diagonalisierbar.
Beweis. Aufgrund von Satz 8.2.4 ist eine Matrix A MatK (n, n) genau dann diagonalisierbar, wenn es eine Basis des K n bestehend aus Eigenvektoren von A gibt. Wenn A nun
n verschiedenen Eigenwerte hat, dann gibt es zu jedem Eigenwert auch einen Eigenvektor.
Diese n Vektoren sind aufgrund von Satz 8.2.14 linear unabhangig und bilden somit eine
Basis des K n .

166

KAPITEL 8. DETERMINANTEN UND DIAGONALISIERBARKEIT

8.2. EIGENWERTE UND EIGENVEKTOREN

Taucht im charakteristischen Polynom eine Nullstelle mehrfach auf, so ist die Matrix nicht
zwangslaufig diagonalisierbar. Wir wollen uns im folgenden damit beschaftigen genau die
Bedingungen zu beschreiben, die erf
ullt sein m
ussen damit eine Matrix diagonalisierbar ist,
auch wenn sie weniger als n Eigenwerte besitzt.
Definition 8.2.16 Sei A MatK (n, n) und K ein Eigenwert von A. Die
Losungsmenge des homogenen linearen Gleichungssystems (A En )v = 0 wird Eigenraum zum Eigenwert genannt
Eig(A, ) := L(A En , 0) = Kern(A En ).
Jeder Vektor v Eig(A, ), v 6= 0V ist ein Eigenvektor von A zum Eigenwert .
Die Dimension des Eigenraum Eig(A, ) heit die geometrische Vielfachheit von ,
welche mit (A, ) abgek
urzt wird. Es gilt also
(A, ) = dim Eig(A, ).

Da der Eigenraum der Kern der Matrix A En ist, erhalten wir aufgrund der Dimensionsformel f
ur Kern und Bild (s. Satz 7.3.19)
(A, ) = dim Eig(A, ) = dim Kern(A En ) = n Rang(A En ) .

(8.6)

Satz 8.2.17 Sei A MatK (n, n), dann ist A genau dann invertierbar, wenn 0 kein
Eigenwert von A ist.
Beweis. Wenn 0 ein Eigenwert von A ist, dann ist dim Eig(A, 0) = Kern(A 0En ) =
Kern(A) > 0, also ist A nicht injektiv und daher nicht invertierbar.
Wenn 0 kein Eigenwert von A ist, dann ist dim Eig(A, 0) = Kern(A 0En ) = Kern(A) = 0.
Somit ist A injektiv und aufgrund von Korollar 7.3.20 auch surjektiv und damit invertierbar.
Definition 8.2.18 (Algebraische Vielfachheit von Eigenwerten)
Es sei Eigenwert einer Matrix A MatK (n, n). Die Vielfachheit von als Nullstelle (s. Def. 4.4.5) des charakteristischen Polynoms A nennt man die algebraische
Vielfachheit des Eigenwerts . Diese wird mit (A, ) bezeichnet. Es gilt dann
A (t) = (t )(A,) (t),
wobei das Polynom keine Nullstelle in hat, d.h. () 6= 0.

167

KAPITEL 8. DETERMINANTEN UND DIAGONALISIERBARKEIT

8.2. EIGENWERTE UND EIGENVEKTOREN

Satz 8.2.19 (Algebraische versus geometrische Vielfachheit)


F
ur jeden Eigenwert einer Matrix A MatK (n, n) gilt, da die geometrische Vielfachheit hochstens so gro ist wie die algebraische, d.h.
(A, ) (A, ) .

Beweis. Es sei r := (A, ) die geometrische Vielfachheit des Eigenwertes . Dann gilt per
Definition r = dim Eig(A, ). Es sei b1 , ..., br eine Basis des Eigenraumes Eig(A, ) zum
Eigenwert , d.h. b1 , ..., br sind s
amtlich Eigenvektoren von A zum Eigenwert . Aufgrund
des Basiserg
anzungssatzes (s. Satz 6.2.19) kann diese zu einer Basis von ganz V durch
Vektoren br+1 , ..., bn erg
anzt werden. Bez
uglich dieser Basis B = b1 , ..., bn besitzt der
n
n
Endomorphismus F : K K , x 7 Ax die Matrixdarstellung von folgender Form


Ir
B

,
A = MBB (F ) =
O(nr),r C
mit einer Matrix B MatK (r, n r), der quadratischen Matrix C MatK (n r, n r)
und der Matrix O(nr),r MatK (n r, r), deren Eintrage alle null sind. Diese Darstellung
ergibt sich aufgrund der Tatsache, dass die erste r Vektoren von B Eigenvektoren zum
Eigenwert sind (siehe dazu auch Beweis von Satz 8.2.4).
Da die Matrix A in den ersten r Spalten nur Eintrage auf der Diagonale hat, gilt dasselbe
f
ur A tEn . Entwickeln wir die Determinante dieser Matrix Schritt f
ur Schritt nach den
ersten r Spalten erhalten wir:
A (t) = A (t) = (t )r C (t)
Somit ist die algebraische Vielfachheit mindestens gleich r. Da nicht ausgeschlossen ist, da
auch Nullstelle des charakteristischen Polynoms der Matrix C ist, folgt die Behauptung.
Satz 8.2.20 A MatK (n, n) ist genau dann diagonalisierbar, wenn A (t) in Linearfaktoren zerf
allt und wenn f
ur alle Eigenwerte von A gilt:
(A, ) = (A, ) .

(8.7)

Beweis. Sei die Matrix A diagonalisierbar. Dann wissen wir aus Satz 8.2.11, dass das
charakteristische Polynom A (t) in Linearfaktoren zerfallt.
A (t) = (t 1 )(A,1 ) . . . (t r )(A,r )
Es bleibt also Gleichung (8.7) zu zeigen.
Da zum einen (A, i ) die Dimension des Eigenraums zum Eigenwert i ist, also die
Anzahl der linear unabh
angigen Eigenvektoren zu i und zum anderen Eigenvektoren zu
verschiedenen Eigenwerte linear unabhangig sind, gibt es
(A, 1 ) + . . . + (A, r ).

168

KAPITEL 8. DETERMINANTEN UND DIAGONALISIERBARKEIT

8.2. EIGENWERTE UND EIGENVEKTOREN

linear unabh
angige Eigenvektoren von A. Da A MatK (n, n) diagonalisierbar ist, ist diese
Zahl gleich n (s. Satz 8.2.4).
Nun gilt aber f
ur den Grad des charakteristischen Polynoms ebenfalls
deg A (t) = n = (A, 1 ) + . . . + (A, r ).
Da wir wissen, dass f
ur jeden Eigenwert (A, i ) (A, i ) gilt, ist die Gleichheit
(A, 1 ) + . . . + (A, r ) = n = (A, 1 ) + . . . + (A, r )
nur moglich, wenn f
ur jeden Eigenwert die Gleichheit (8.7) gilt.
Umgekehrt nehmen wir an, dass A (t) in Linearfaktoren zerfallt und dass Gleichung (8.7)
f
ur alle Eigenwerte gilt. Dies bedeutet, dass es genau
(A, 1 ) + . . . + (A, r ) = (A, 1 ) + . . . + (A, r ) = n
linear unabh
angige Eigenvektoren gibt, das heit die Eigenvektoren von A bilden eine Basis
des K n und somit ist A diagonalisierbar.
Korollar 8.2.21 Eine Matrix A ist genau dann diagonalisierbar, wenn gilt
K n = Eig(A, 1 ) Eig(A, k )
wobei 1 , . . . , k die paarweise verschiedenen Eigenwerte von A sind.
Wollen wir nun pr
ufen, ob eine Matrix A MatK (n, n) diagonalisierbar, dann gehen wir
nach folgendem Schema vor:
Algorithmus 8.2.22 (Diagonalisierbarkeit)
Eingabe: Eine quadratische Matrix A = (aij ) MatK (n, n)
Ausgabe: Information, ob A diagonalisierbar ist.
Durchfu
hrung:
1. Berechnen des charakteristischen Polynoms A (t)
A (t) zerf
allt nicht in Linearfaktoren u
ber K
bar.
A (t) zerf
allt in Linearfaktoren u
ber K

A ist nicht diagonalisier-

nachster Schritt

2. Berechnen der Eigenwerte (Wenn A Dreiecksform hat, dann sind die Eigenwerte
die Diagonaleintr
age und k
onnen direkt abgelesen werden)
Die Eigenwerte sind paarweise verschieden

A ist diagonalisierbar.

Die Eigenwerte sind nicht paarweise verschieden

nachster Schritt

3. Berechne f
ur alle Eigenwerte mit algebraischer Vielfachheit (A, ) > 1 die
geometrische Vielfachheit (A, ).
Gilt f
ur alle Eigenwerte (A, ) = (A, )

A ist diagonalisierbar.

Gibt es mindestens einen Eigenwert f


ur den gilt (A, ) > (A, )
nicht diagonalisierbar.

A ist

169

KAPITEL 8. DETERMINANTEN UND DIAGONALISIERBARKEIT

8.2. EIGENWERTE UND EIGENVEKTOREN

Beispiel 8.2.23 Betrachten wir nun noch einmal die Matrizen aus Beispiel 8.2.12. Wir
konnen jetzt schneller zu den Ergebnissen kommen.
1. Es ist A (t) = t(t 3), somit hat die Matrix A zwei verschiedene Eigenwerte und
ist diagonalisierbar.
2. Es ist B (t)= (t 
2)2 , also ist die algebraische Vielfachheit (B, 2) = 2, aber da
0 1
B 2E2 =
ist der Rang dieser Matrix gleich eins und somit (B, 2) =
0 0
2 Rang(B 2E2 ) = 1 (s. Gl. 8.6). Dies bedeutet dass (B, 2) < (B, 2) und
somit ist die Matrix B nicht diagonalisierbar.
3. Es ist C (t) = t2 + 1, dieses Polynom zerfallt nicht in Linearfaktoren, also ist C
nicht diagonalisierbar.

Beispiel 8.2.24 Wir betrachten die Matrix

0 2 1
A = 2 1 1
2 1 3
und wollen untersuchen, ob sie diagonalisierbar ist. Daf
ur berechnen wir zunachst ihr
charakteristischen Polynom (zur Berechnung der Determinante addieren wir das Negative
der zweiten Zeile zur dritten und wenden erst danach die Regel von Sarrus an)

t
2
1
t
2
1
1 = det 2 1 t
1
A (t) = det 2 1 t
2
1
3t
0
t
2t
= t(t + 1)(2 t) 2t + t2 4(2 t)
= t(t + 1)(2 t) t(2 t) 4(2 t) = (2 t) t2 + t t 4

= (t 2)(t2 4) = (t 2)(t 2)(t + 2)


= (t 2)2 (t + 2)
Die Matrix hat also die Eigenwerte 1 = 2 und 2 = 2 mit den algebraischen Vielfachheiten (A, 2) = 2 und (A, 2) = 1. Die Matrix ist also genau dann diagonalisierbar,
wenn auch (A, 2) = 2 ist (die geometrische Vielfachheit (A, 2) ist auf jeden Fall
gleich 1, da sonst 2 kein Eigenwert ware. )
Da wir nur wissen wollen, ob die Matrix diagonalisierbar ist, sparen wir es uns die Eigenvektoren konkret auszurechnen, sondern verwenden die Formel (8.6). Daf
ur benotigen
wir den Rang der Matrix

3
2
1
3 2 1
1 = 2 4 1
A 2E3 = 2 1 3
2
1
33
2 1 0
Der Rang dieser Matrix ist gr
oer als 1, da zum Beispiel die erste und die zweite Spalte
linear unabh
angig sind. Da der Rang nicht 3 sein kann, denn es gilt ja det(A 2E3 ) =

170

KAPITEL 8. DETERMINANTEN UND DIAGONALISIERBARKEIT

8.2. EIGENWERTE UND EIGENVEKTOREN

A (2) = 0, muss er also 2 sein und daher ist


(A, 2) = 3 Rang(A 2E3 ) = 3 2 = 1
woraus wir schlieen, dass die Matrix A nicht diagonalisierbar ist.

171

9. Bilinearformen, Skalarprodukte und


der Spektralsatz
In den bisherigen Kapitel haben wir uns mit Vektorraumen in ihrer allgemeinsten Form
beschaftigt. Nun wollen wir Vektorraume betrachten, die eine zusatzliche Struktur besitzen betrachten. Diese Struktur ist ein sogenanntes Skalarprodukt, bzw. allgemeiner
eine Bilinearform, die es erlaubt zwei Vektoren eine Zahl zuzuordnen. Das Skalarprodukt
kann dann genutzt werden um L
angen von Vektoren und Winkel zwischen zwei Vektoren
auszurechnen. Insbesondere der Begriff der Orthogonalitat wird eine wichtige Rolle spielen.
Diese zus
atzliche Struktur, werden wir aber nicht nur zur Definition geometrischer Begriffe
benutzen. Sie erlaubt es auch spezielle Matrizen zu betrachten und deren Eigenwerte zu
analysieren.
Wir erinnern daran, dass wir Vektoren aus dem v K n immer als stehende Vektoren
betrachten, wohingegen v > ein liegender Vektor ist

v1
..
v = . v > = (v1 . . . vn ).
vn
Insbesondere ist v K n = MatK (n, 1) eine n 1 Matrix und v > MatK (1, n) eine 1 n
Matrix, so dass wir das Matrixprodukt v > v, bzw. allgemeiner v > w f
ur v, w K n
bilden k
onnen und das Ergebnis eine 1 1 Matrix, also eine Skalar, eine Zahl aus dem
Grundkorper K ist

w1
n
.. X
>
v w = (v1 . . . vn ) . =
vi wi K.
i=1
wn

9.1. Bilinearformen
Definition 9.1.1 Seien V, W zwei K-Vektorraume. Eine Abbildung
B :V W K
(v, w) 7 B(v, w)
heit Bilinearform, falls B bei fester zweiter Variable in der ersten Variable K-linear
ist und umgekehrt, d. h. es gilt f
ur alle v, v 0 V, w, w0 W und , K:
B(v + v 0 , w) = B(v, w) + B(v 0 , w)
B(v, w + w0 ) = B(v, w) + B(v, w0 ).

172

KAPITEL 9. BILINEARFORMEN, SKALARPRODUKTE, SPEKTRALSATZ

9.1. BILINEARFORMEN

Durch sukzessive Anwendung der Bilinearitat, sehen wir dass f


ur Summen von n Vektoren
gilt:
n
n
n
n
X
X
X
X
B(
i vi , w) =
i B(vi , w) und B(v,
i wi ) =
i B(v, wi )
i=1

i=1

i=1

i=1

Beispiel 9.1.2
Sei V = W = K 2 , dann ist B(v, w) = det(v, w) eine Bilinearform
(s. Def. 8.1.2).
P
Sei V = W = K n , dann ist B(v, w) = ni=1 vi wi = v > w eine Bilinearform, das
sogenannte Standardskalarprodukt. Die Bilinearitat folgt aus dem Distributivgesetz der Matrixmultiplikation 7.1.6 und Satz 7.1.7
B(v + v 0 , w) = (v + v 0 )> w = (v > + v 0> ) w = v > w + v 0> w = B(v, w) + B(v 0 , w)
B(v, w) = (v)> w = v > w = B(v, w)
Die Bilinearit
at in der zweiten Komponente folgt durch eine analoge Rechnung.
Sei V = W = K 2 , dann ist

 


2 1
w1
2w1 + w2
B(v, w) = (v1 v2 )
= (v1 v2 )
= 2v1 w1 +v1 w2 +v2 w1 +2v2 w2
w2
w1 + 2w2
1 2
ebenfalls eine Bilinearform. Die Bilinearitat folgt wie f
ur das Standardskalarprodukt
aus dem Distributivgesetz f
ur die Matrixmultiplikation 7.1.6 und Satz 7.1.7, kann
aber auch direkt nachgerechnet werden.

Definition 9.1.3 Eine Bilinearform B : V W K heit nicht ausgeartet wenn


gilt:
i) Wenn B(v, w) = 0 f
ur alle v V , dann muss gelten w = 0.
ii) Wenn B(v, w) = 0 f
ur alle w W , dann muss gelten v = 0.
Sonst heit die Bilinearform ausgeartet.
Damit eine Bilinearform ausgeartet ist, gen
ugt es nicht irgendwelche v V und w W
zu finden sodass B(v, w) = 0 gilt. Sondern es muss einen Vektor v V, v =
6 0V geben,
sodass B(v, w) = 0 f
ur alle w W ist, bzw. es muss ein w W, w 6= 0W geben, sodass
B(v, w) = 0 f
ur alle v V ist.
Wir bemerken, dass aufgrund der Linearitat immer B(v, 0W ) = 0 und B(0V , w) = 0 gilt,
denn
B(v, 0W ) = B(v, 0 w) = 0 B(v, w) = 0

Beispiel 9.1.4 Sei V = W = R3 , dann definieren wir zwei Bilinearformen durch


B1 (v, w) = v1 w1 + v2 w2 + v3 w3

und B2 (v, w) = v1 w1 + v2 w2 .

173

KAPITEL 9. BILINEARFORMEN, SKALARPRODUKTE, SPEKTRALSATZ

9.1. BILINEARFORMEN

B1 ist das Standardskalarprodukt und ist nicht ausgeartet, da f


ur jeden Vektor
v V, v 6= 0V gilt: B(v, v) = v12 + v22 + v32 > 0. Also kann f
ur ein v V nicht
B(v, w) = 0 f
ur alle w V gelten, da ja f
ur w = v auf jeden Fall B(v, v) > 0 gilt, es sei
denn v = 0V .
Die Bilinearform B2 hingegen ist ausgeartet, da zum Beispiel f
ur den Vektor v = (0, 0, 1)>
gilt B2 (v, w) = 0 w1 + 0 w2 = 0 f
ur alle w V .

Definition 9.1.5 Eine Bilinearform B : V V K heit symmetrisch, wenn f


ur alle
v, w V gilt:
B(v, w) = B(w, v).
Sie heit alternierend, wenn gilt B(v, w) = B(w, v).

Beispiel 9.1.6 Das Standardskalarprodukt ist symmetrisch, denn es gilt aufgrund der
Kommutativit
at in K
B(v, w) =

n
X

v i wi =

i=1

n
X

wi vi = B(w, v).

i=1

Die Determinante ist alternierend, da sie beim Vertauschen zweier Spalten das Vorzeichen
andert det(v, w) = det(w, v) (s. Satz 8.1.3).

Definition 9.1.7 Seien V, W endlichdimensionale K-Vektorraume mit den Basen


C = {c1 , . . . , cn }, bzw. C 0 = {c01 , . . . , c0m } und sei B : V W K eine Bilinearform.
Wir definieren eine Matrix S MatK (n, m) mit den Eintragen
Sij = B(ci , c0j ).

Lemma 9.1.8 Die Matrix S bestimmt eindeutig die Bilinearform B : V W K


durch die Vorschrift
B(v, w) = x> S y,
wobei x = MC (v) und y = MC 0 (w) die Koordinaten der Vektoren v und w bez
uglich der
0
Basen C und C sind.
Beweis. Seien v V und w
MC 0 (w) bez
glich der Basen
Pum
0
und w =
j=1 yj cj gilt (s.
einsetzen und erhalten unter
B(v, w) = B(

n
X
i=1

xi ci , w) =

W Vektoren mit den Koordinaten x = MC (v) P


und y =
C von V , bzw. C 0 von W , das bedeutet, dass v = ni=1 xi ci
Bsp. 7.3.3). Dann konnen wir dies in die Bilinearform B
Ausnutzung der Bilinearitat:

n
X
i=1

xi B(ci , w) =

n
X
i=1

xi B(ci ,

m
X
j=1

yj c0j ) =

n X
m
X

xi B(ci , c0j )yj .

i=1 j=1

174

KAPITEL 9. BILINEARFORMEN, SKALARPRODUKTE, SPEKTRALSATZ

9.1. BILINEARFORMEN

Dies entspricht aber genau dem Ergebnis der Matrixmultiplikation


B(c1 , c01 ) . . . B(c1 , c0m )
y1

.
.
.
>
.
..
..
..
x S y = (x1 , . . . , xn )
..
B(cn , c01 ) . . . B(cn , c0m )
ym

B(c1 , c01 )y1 + + B(c1 , c0m )ym

..
= (x1 , . . . , xn )

B(cn , c01 )y1 + + B(cn , c0m )ym




= x1 B(c1 , c01 )y1 + + B(c1 , c0m )ym + + xn B(cn , c01 )y1 + + B(cn , c0m )ym
n X
m
X
=
xi B(ci , c0j )yj
i=1 j=1

Wir betrachten die Bilinearform

Beispiel 9.1.9



v 1 w1
det : K K K, (v, w) 7 det(v, w) = det
= v 1 w2 v 2 w1 .
v 2 w2
2

Wir w
ahlen die Standardbasis des K 2 , die durch {e1 , e2 } gegeben ist und berechnen
die Matrix S.

 

det(e1 , e1 ) det(e1 , e2 )
0 1
=
.
S=
det(e2 , e1 ) det(e2 , e2 )
1 0
Nun u
ufen wir, dass wir durch die Matrix wieder die Bilinearform
berpr
zur
uckgewinnen k
onnen

 


0 1
w1
w2
>
det(v, w) = v Sw = (v1 v2 )
= (v1 v2 )
= v 1 w2 v 2 w1 .
1 0
w2
w1
Sei V = K n und B(v, w) = v > w das Standardskalarprodukt, dann gilt f
ur die
Standardbasisvektoren {e1 , . . . , en }
B(ei , ej ) = 0

f
ur i 6= j

und B(ei , ei ) = 1

f
ur alle i.

Also erhalten wir S = En die Einheitsmatrix. Dies konnen wir leicht u


ufen,
berpr
denn es gilt
B(v, w) = v > En w = v > w.
In Beispiel 9.1.4 haben wir auf R3 die Bilinearform B2 (v, w) = v1 w1 + v2 w2
betrachtet. Wir k
onnen nachrechnen, dass diese durch


1 0 0
w1
B2 (v, w) = (v1 v2 v3 ) 0 1 0 w2
0 0 0
w3
gegeben ist.
Nun wollen wir die Eigenschaften der Bilinearform in Eigenschaften der Matrix S u
bersetzen.

175

KAPITEL 9. BILINEARFORMEN, SKALARPRODUKTE, SPEKTRALSATZ

9.1. BILINEARFORMEN

Satz 9.1.10 Seien V, W endlich dimensionale K-Vektorraume mit Basen C =


{c1 , . . . , cn }, bzw. C 0 = {c01 , . . . , c0m }. Eine Bilinearform B : V W K ist genau
dann nicht ausgeartet, wenn dim V = dim W gilt und die Matrix S = (B(ci , c0j )) invertierbar ist.
Beweis. Seien wieder x = MC (v) und y = MC 0 (w) die Koordinaten der Vektoren v V
und w W . Dann ist die Bilinearform durch B(v, w) = x> Sy gegeben.
Wir nehmen an, dass v V ein Vektor ist, so dass B(v, w) = 0 f
ur alle w W . Das
bedeutet, dass
x> Sy = 0 f
ur alle y K m x> S = 0
Dies sieht man zum Beispiel durch Einsetzen der Standardbasisvektoren y = ei K m ,
denn das liefert, dass die i-te Komponente des liegenden Vektors x> S null sein muss. Durch
Transponieren erhalten wir
x> S = 0

S > x = 0.

Da wir vorausgesetzt haben, dass die Bilinearform B nicht ausgeartet ist, muss nun aus
S > x = 0 folgen, dass x = 0 ist. Dies ist gleichbedeutend mit der Injektivitat der linearen
Abbildung K n K m , x 7 S > x. Diese Abbildung kann aber nur dann injektiv sein, wenn
n m gilt (s. Korollar 7.3.21).
Nun nehmen wir an, dass w W ein Vektor ist, so dass B(v, w) = 0 f
ur alle v V . Das
bedeutet, dass
x> Sy = 0 f
ur alle x K n Sy = 0.
Die Voraussetzung, dass B nicht ausgeartet ist, bedeutet nun, dass aus Sy = 0 folgen muss,
dass y = 0 gilt, also, dass die lineare Abbildung K m K n , y 7 Sy injektiv ist. Somit
muss m n gelten (s. Korollar 7.3.21).
Insgesamt erhalten wir also dim V = n = m = dim W . Aus Korollar 7.3.20 folgt nun, dass
K m K n , y 7 Sy bijektiv ist, und somit ist die Matrix S invertierbar.
Umgekehrt, ist S bijektiv, dann ist auch S > bijektiv, da aufgrund von Satz 8.1.13
0 6= det S = det S > gilt, also beide Abbildungen insbesondere injektiv sind.
Definition 9.1.11 Sei A MatK (n, n) eine quadratische Matrix. Wir nennen A symmetrisch, wenn sie gleich ihrer Transponierten ist
A = A> ,
das heit, dass die i-te Zeile von A gleich der i-ten Spalte von A ist f
ur alle i = 1, . . . , n.
Eine symmetrische Matrix
andert sich also nicht, wenn sie an der Hauptdiagonale gespiegelt
wird.
Beispiel 9.1.12

1 1-Matrizen, also Skalare, sind immer symmetrisch.

Diagonalmatrizen sind symmetrisch.

176

KAPITEL 9. BILINEARFORMEN, SKALARPRODUKTE, SPEKTRALSATZ

9.1. BILINEARFORMEN

Die Matrizen


1 2
A=
,
2 3

0 1 2
B = 1 5 3
2 3 1

1
0
und C =
0
1

0
2
2
0

0 1
2 0

0 4
4 10

sind symmetrisch.

Satz 9.1.13 Eine Bilinearform B : V V K ist genau dann symmetrisch, wenn die
Matrix S symmetrisch ist.
Beweis. Seien wieder x = MC (v) und y = MC (w) die Koordinaten der Vektoren v, w V
bez
uglich der Basis C von V . Dann ist die Bilinearform durch B(v, w) = x> Sy gegeben.
Also ist einerseits B(v, w) = x> Sy und andererseits
B(w, v) = y > Sx = (y > Sx)> = x> S > y.
Dabei haben wir benutzt, dass B(v, w) K liegt und somit durch Transponieren nicht
verandert wird. Auerdem haben wir Satz 7.1.13 u
ber die Transponierte eines Produkts
verwendet. Es ist also
x> Sy = x> S > y
und somit muss S = S > gelten, wie man durch Einsetzen der Standardbasisvektoren ei f
ur
x und y erkennt.
Umgekehrt, wenn S = S > gilt, dann konnen wir sehen, dass die Bilinearform symmetrisch
ist, denn
B(w, v) = y > Sx = (y > Sx)> = x> S > y = x> Sy = B(v, w)
Satz 9.1.14 Sei V ein K-Vektorraum der Dimension n, B : V V K eine Bilinearform
und C = {c1 , . . . , cn }, C = {
c1 , . . . , cn } zwei Basen von V . Wir definieren zwei Matrizen
S, S MatK (n, n) mit den Eintr
agen
Sij = B(ci , cj )

und Sij = B(
ci , cj ).

Dann gibt es eine Matrix T Gln (K) sodass gilt:


S = T S T > .

Beweis. Sei T = (Tij ) Gln (K) die Matrix die durch


ci =

n
X

Tik ck

k=1

177

KAPITEL 9. BILINEARFORMEN, SKALARPRODUKTE, SPEKTRALSATZ

9.1. BILINEARFORMEN

definiert ist. Dies benutzen wir um die Eintrage der Matrix S mithilfe von denen von S
und T auszudr
ucken:
Sij = B(
ci , cj ) = B(

n
X

Tik ck ,

k=1

=
=

n X
n
X
k=1 `=1
n X
n
X

n
X

Tj` c` )

`=1

Tik B(ck , c` )Tj`


Tik Sk` T`j> = (T S T > )ij .

k=1 `=1

Da diese Gleichheit f
ur alle i, j = 1, . . . , n richtig ist, erhalten wir die gew
unschte Gleichheit
>

von Matrizen S = T S T .
Da wir nun wissen wie sich Bilinearformen unter Basiswechsel verhalten, konnen wir uns
dieselbe Frage stellen, die wir bereits f
ur lineare Abbildungen gestellt haben: Gibt es eine
Basis von V sodass die Matrix S Diagonalform hat?
Definition 9.1.15 Sei B : V V K eine symmetrische Bilinearform.
Zwei Vektoren v, w V heien orthogonal zueinander, wenn B(v, w) = 0 gilt.
Eine Basis C von V , bestehend aus paarweise zueinander orthogonalen Vektoren
heit Orthogonalbasis von V bez
uglich B. F
ur diese Basis gilt also
B(ci , cj ) = 0

f
ur alle i, j {1, . . . , n} mit i 6= j.

Die zugeh
orige Matrix S zu einer Orthogonalbasis bez
uglich B hat also nur auf der
Diagonale Eintr
age, die nicht null sein konnen.
F
ur den Beweis der Existenz einer Orthogonalbasis benotigen wir zunachst die Definition
des Orthokomplements.
Definition 9.1.16 Sei B : V V K eine symmetrische Bilinearform und M V
eine Teilmenge von V , dann heit die Menge
M = {v V | B(v, w) = 0 w M }
das Orthokomplement von M in V .
Das Orthokomplement von M enthalt also alle Vektoren aus V die zu allen Vektoren aus
M orthogonal sind.
Lemma 9.1.17 Sei B : V V K eine symmetrische Bilinearform und M V eine
Teilmenge von V , dann ist das Orthokomplement M ein Untervektorraum von V .
Beweis. Wir m
ussen zeigen, dass die Menge M abgeschlossen bez
uglich der Addition und
der Skalarmultiplikation ist (s. Def. 6.1.5). Seien daf
ur v, v 0 M und , 0 K, dann ist

178

KAPITEL 9. BILINEARFORMEN, SKALARPRODUKTE, SPEKTRALSATZ

9.1. BILINEARFORMEN

B(v, w) = B(v 0 , w) = 0 f
ur alle w M per Definition von M . Aufgrund der Linearitat
der ersten Komponente der Bilinearform gilt
B(v + 0 v 0 , w) = B(v, w) + 0 B(v 0 , w) = 0 + 0 0 = 0.
und somit liegt auch v + 0 v 0 M .
Lemma 9.1.18 Sei B : V V K eine symmetrische Bilinearform. Sei v V ein
Vektor f
ur den B(v, v) 6= 0 gilt und U := LH(v) die lineare H
ulle von v, das heit die
Menge aller Vielfachen von v. Dann gilt
U U = V.

Beweis. Um zu zeigen, dass der Vektorraum V eine direkte Summe von U und seinem
Orthokomplement ist, m
ussen wir zunachst zeigen, dass jeder Vektor w W sich als
Summe eines Vektors aus U und eines Vektors aus U schreiben lasst (s. Def. 6.3.3).
Es gilt offensichtlich f
ur jedes w V


B(w, v)
B(w, v)
w=
v+ w
v = w1 + w2 .
B(v, v)
B(v, v)
Wir beachten dabei dass B(w, v), B(v, v) K und nach Voraussetzung B(v, v) 6= 0 gilt.
Also ist B(w,v)
B(v,v) K ein Skalar. Der Vektor w1 ist also ein Vielfaches von v und liegt somit
in U .
Um zu zeigen, dass w2 U m
ussen wir zeigen, dass B(w2 , u) = 0 f
ur alle u U . Da
aber U = LH(v) = {u V | u = v f
ur ein K} und da aufgrund der Bilinearitat
B(w2 , u) = B(w2 , v) = B(w2 , v) gilt, gen
ugt es zu zeigen, dass B(w2 , v) = 0. Wir
rechnen nun also


B(w, v)
v, v
B(w2 , v) = B w
B(v, v)
B(w, v)
= B(w, v)
B (v, v) = B(w, v) B(w, v) = 0.
B(v, v)
Wir haben somit bewiesen, dass V = U + U eine Summe ist. Um zu zeigen, dass diese
Summe direkt ist m
ussen wir noch zeigen, dass U U = {0V } gilt. Ein Vektor u U U
liegt einerseits in U , ist also von der Form u = v, andererseits liegt er in U , es gilt also
B(u, u0 ) = 0 f
ur alle u0 = 0 v U . Aufgrund der Bilinearitat gilt nun
B(u, u0 ) = B(v, 0 v) = 0 B(v, v).
Da nach Voraussetzung B(v, v) 6= 0 kann B(u, u0 ) = 0 nur dann f
ur alle u0 U , das heit
f
ur alle 0 K gelten, wenn = 0 ist. Dies bedeutet aber, dass u = 0V ist und somit
U U = {0V }.
Beispiel 9.1.19 Sei V = R2 versehen mit der Bilinearform

 
1 0
w1
B(v, w) = v > Diag(1, 1) w = (v1 v2 )
= v 1 w1 v 2 w2
0 1
w2

179

KAPITEL 9. BILINEARFORMEN, SKALARPRODUKTE, SPEKTRALSATZ

9.1. BILINEARFORMEN

Der Vektor w = (1 1) hat die Eigenschaft B(w, w) = 12 12 = 0 und ist also orthogonal
zu sich selbst.
Der Vektor v = (2 1) hat die Eigenschaft B(v, v) = 22 12 = 3 und somit konnen wir
zum Beispiel durch
 
 
 
B(w, v)
1 1
1 2
1
w2 = w
=
v=

1
B(v, v)
3 1
3 2
einen zu v orthogonalen Vektor konstruieren

 
 
 1 0
 2
1
1
2
1 2
1 2
B(w2 , v) =
=
= 0.
0 1
1
1
3
3

Satz 9.1.20 Sei K ein K


orper in dem 2 6= 0 ist und V ein K Vektorraum endlicher
Dimension, dann besitzt jede symmetrische Bilinearform B : V V K eine Orthogonalbasis.
Beweis. Ist die Bilinearform identisch null, das heit gilt B(v, w) = 0 f
ur alle v, w V ,
dann ist jede Basis eine Orthogonalbasis und es ist nichts zu zeigen.
Sei also B nicht identisch null, dann gibt es einen Vektor v V mit B(v, v) 6= 0. Um dies
zu sehen benutzen wir die Formel
B(v + w, v + w) = B(v, v + w) + B(w, v + w)
= B(v, v) + B(v, w) + B(w, v) + B(w, w)

(9.1)

= B(v, v) + 2B(v, w) + B(w, w).


Denn angenommen B(v, v) w
are null f
ur alle v V , dann ware nach Formel (9.1) auch
B(v, w) = 0 f
ur alle v, w (hier verwenden wir, dass 2 6= 0 ist), aber dies wiederspricht
unserer Annahme.
Sei also v V mit B(v, v) 6= 0 und U = LH(v), dann gilt U U = V aufgrund von
Lemma 9.1.18. Nun k
onnen wir mithilfe vollstandiger Induktion nach der Dimension des
Vektorraums V argumentieren. Denn angenommen {b1 , . . . , bn1 } ist eine Orthogonalbasis
von U , dann gilt B(v, bi ) = 0 f
ur alle i = 1, . . . , n 1 und somit ist {b1 , . . . , bn1 , v} ist
eine Orthogonalbasis von V . Der Induktionsanfang ist trivial, da eine Basis bestehend aus
einem Vektor immer orthogonal ist.
Die Bedingung 0 6= 2 schliet von den uns bekannten Korpern lediglich F2 = {0, 1} aus.
Auerdem gilt sie nicht in K
orpern, die F2 als Teilmenge enthalten.
Korollar 9.1.21 Sei K ein K
orper in dem 2 6= 0 ist und sei S = S > MatK (n, n) eine
symmetrische Matrix, dann existiert eine Matrix T Gln (K) sodass gilt:
T S T > = Diag(1 , . . . , n ),

(9.2)

wobei i K.

180

KAPITEL 9. BILINEARFORMEN, SKALARPRODUKTE, SPEKTRALSATZ

9.1. BILINEARFORMEN

Beweis. Sei B : V V K eine symmetrische Bilinearform und C = {c1 , . . . , cn }


eine Basis von V , so dass Sij = B(ci , cj ) gilt. Aufgrund von Satz 9.1.20 gibt es eine
Orthogonalbasis C = {
c1 , . . . , c0n } von V bez
uglich B. Dann ist S = Diag(1 , . . . , n ),
wobei die Diagonaleintr
age durch B(ci , ci ) = i definiert sind. Aufgrund von Satz 9.1.14
gibt es eine Matrix T Gln (K) sodass Gleichung (9.2) gilt.
Satz 9.1.22 (Satz von Sylvester)
Sei K = R und B : V V R eine symmetrische nicht ausgeartete Bilinearform. Dann
gibt es eine Basis {c1 , . . . , cn } von V sodass die Matrix S = (Sij ) = (B(ci , cj )) die Form
S = Diag(1, . . . , 1, 1, . . . , 1)
mit r mal einer 1 und s mal einer 1 auf der Diagonale. Die Zahlen r und s hangen nur
von der Bilinearform B ab.
onnen zun
achst Satz 9.1.20 anwenden der besagt, dass es eine Basis
Beweis. Wir k
C = {c1 , . . . , cn } von V gibt f
ur den gilt: S = (Sij ) = B(ci , cj ) = Diag(1 , . . . , n ).
Da nach Annahme die Bilinearform nicht ausgeartet ist, muss die Matrix S invertierbar
sein (s. Satz 9.1.10). Eine Diagonalmatrix ist aber genau dann invertierbar, wenn alle
Diagonaleintr
age i 6= 0 sind. Nun betrachten wir die Basis
C 0 = {c01 , . . . , c0n } = { p

1
c1 , . . . , p
cn }.
|1 |
|n |

Dies ist ebenfalls eine Orthogonalbasis, da f


ur i 6= j gilt:
1
1
1
1
p
ci , p
cj ) = p
B(ci , cj ) = 0
B(c0i , c0j ) = B( p
|j |
|i |
|i | |j |
F
ur die Diagonaleintr
age wiederum gilt
1
1
1
1
1
p
i = 1
B(c0i , c0i ) = B( p
ci , p
ci ) = p
B(ci , ci ) =
|
|i |
|i |
|i | |i |
i|
Nun konnen wir noch die Reihenfolge der Elemente von C 0 so andern, dass zuerst die
positiven Eintr
age und dann die negativen Eintrage auf der Diagonale stehen.
Auf den Beweis dass die Anzahl der +1 und 1 nur von der Bilinearform und nicht von
der Orthogonalbasis abh
angt, wollen wir hier verzichten.


1 2
Beispiel 9.1.23 Die Matrix A =
ist symmetrisch und hat den Rang 2, ist
2 1
also invertierbar. Wir wollen eine Basis konstruieren, die bez
uglich der Bilinearform
B(v, w) = v > Aw
die Form aus Satz 9.1.22 hat.
Daf
ur beginnen wir mit v = e1 , da B(e1 , e1 ) = 1 6= 0 und verwenden Lemma 9.1.18 um
einen zu e1 orthogonalen Vektor zu finden. Wir brauchen daf
ur einen beliebigen Vektor

181

KAPITEL 9. BILINEARFORMEN, SKALARPRODUKTE, SPEKTRALSATZ

9.2. SKALARPRODUKTE

w, der linear unabh


angig zu e1 ist, zum Beispiel w = e2 und setzen nun
   
 
B(w, v)
2 1
2
0
w2 = w
=
v=

1
1
B(v, v)
1 0
Wir rechnen nun nach, dass gilt


 
1 2
2
B(e1 , w2 ) = (1 0)
=0
2 1
1
und


 
1 2
2
B(w2 , w2 ) = (2 1)
= 5
2 1
1

Also hat die Bilinearform B f


ur die Basis
v1 = e1 = 1 0
die Matrix


S=


1
1
v2 = w2 = 2 1
5
5

B(v1 , v1 ) B(v2 , v1 )
B(v1 , v2 ) B(v2 , v2 )


=


1 0
.
0 1

9.2. Skalarprodukte
Ab sofort wollen wir Bilinearformen nur noch u
ber dem Korper R der reellen Zahlen
betrachten.
Definition 9.2.1 Eine Bilinearform B : V V R heit positiv definit, wenn
B(v, v) > 0 gilt f
ur alle v V, v 6= 0V .

Lemma 9.2.2 Sei B : V V R eine positiv definite Bilinearform, dann ist B nicht
ausgeartet.
Beweis. Da B(v, v) > 0 gilt, kann f
ur ein v V, v 6= 0V nicht gelten, dass B(v, w) = 0 f
ur
alle w V .
Definition 9.2.3 Sei V ein Vektorraum u
ber dem Korper R. Ein Skalarprodukt in
V ist eine symmetrische, positiv definite Bilinearform
h, i : V V R
(v, w) 7 hv, wi

Ein Vektorraum u
orper R mit einem Skalarprodukt V, h, i heit euklidiber dem K
scher Vektorraum.

182

KAPITEL 9. BILINEARFORMEN, SKALARPRODUKTE, SPEKTRALSATZ

9.2. SKALARPRODUKTE

P
Beispiel 9.2.4
Sei V = Rn , das Standardskalarprodukt hv, wi = ni=1 vi wi =
v > w ist ein Skalarprodukt. Wir haben bereits Bilinearit
at und Symmetrie gezeigt.
Pn
2
Die positive Definitheit folgt direkt, da hv, vi = i=1 vi > 0, wenn v 6= 0.
Sei wieder V = Rn und A Gln (K) eine invertierbare Matrix, dann ist
hv, wiA := hAv, Awi = (Av)> (Aw) = v > A> Aw
ein Skalarprodukt, wobei wir hier mit h, i das Standardskalarprodukt bezeichnen.
Die Bilinearit
at folgt aus dem Distributivgesetz der Matrixmultiplikation 7.1.6 und
Satz 7.1.7. Die Symmetrie folgt aus der Symmetrie des Standardskalarprodukts
hw, viA = hAw, Avi = hAv, Awi = hv, wiA .
Um zu sehen, dass h, iA positiv definit ist, verwenden wir die Invertierbarkeit der
Matrix A. Denn daraus folgt, das f
ur v 6= 0V auch Av = v =
6 0V , also gilt
hv, viA = hAv, Avi = h
v , vi > 0
aufgrund der positiven Definitheit des Standardskalarprodukts.


Definition 9.2.5 Sei V, h, i ein euklidischer Vektorraum, dann heit die Abbildung
kk : V R, v 7 kvk =

p
hv, vi

die Normabbildung, bzw. die Norm des Vektors v.

Beispiel 9.2.6 Sei V = R2 mit dem Standardskalarprodukt hv, wi = v1 w1 + v2 w2 , dann


ist die Norm eines Vektors v = (x y)> R2 durch
p
p
kvk = hv, vi = x2 + y 2
gegeben. Das ist die L
ange des Vektors v wie sie in der Schule mithilfe des Satzes von
Phythagoras berechnet wird.
Allgemein heit die Norm auf Rn , die durch das Standardskalarprodukt induziert wird
euklidische Norm.

Satz 9.2.7 (Cauchy-Schwarzsche Ungleichung)


p
Sei V, h, i ein euklidischer Vektorraum mit Norm kvk = hv, vi, dann gilt f
ur alle
v, w V
| hv, wi | kvkkwk.

183

KAPITEL 9. BILINEARFORMEN, SKALARPRODUKTE, SPEKTRALSATZ

9.2. SKALARPRODUKTE

Beweis. Ist w = 0V , dann ist die Ungleichung richtig, da auf beiden Seiten eine Null steht.
Wir nehmen also an, dass w 6= 0V und setzen = hv,wi
R. Aufgrund der positiven
kwk2
Definitheit des Skalarprodukts gilt dann
0 hv w, v wi
= hv, vi 2 hv, wi + 2 hw, wi
= kvk2 2
= kvk2

hv, wi2
hv, wi
hv,
wi
+
kwk2
kwk2
kwk4

hv, wi2
kwk2

Diese Ungleichung liefert uns hv, wi2 kvk2 kwk2 und durch Ziehen der Quadratwurzel,
dann die Cauchy-Schwarzsche Ungleichung.
Satz 9.2.8 Sei V, h, i
Eigenschaften:

ein euklidischer Vektorraum, dann hat die Norm folgende

i) kvk 0 f
ur alle v V
ii) kvk = 0 v = 0V
iii) kvk = ||kvk f
ur alle v V, K
iv) kv + wk kvk + kwk f
ur alle v, w V
Die Ungleichung iv) heit Dreiecksungleichung.
Beweis.

i) kvk 0 gilt aufgrund der positiven Definitheit des Skalarprodukts.

ii) k0V k = 0 gilt aufgrund der Bilinearitat. Aufgrund der positiven Definitheit ist f
ur
alle v 6= 0V die Norm kvk > 0.
iii) Es gilt aufgrund der Bilinearitat
p
p
kvk = hv, vi = 2 hv, vi = ||kvk
iv) Um die Dreiecksungleichung zu zeigen, berechnen wir mithilfe der Cauchy-Schwarzschen
Ungleichung (wir verwenden, dass die Gleichung auch ohne Betragsstriche richtig
ist):
(kvk + kwk)2 = kvk2 + 2kvkkwk + kwk2
kvk2 + 2 hv, wi + kwk2
= hv + w, v + wi = kv + wk2
Durch Ziehen der Quadratwurzel erhalten wir somit kvk + kwk kv + wk.

184

KAPITEL 9. BILINEARFORMEN, SKALARPRODUKTE, SPEKTRALSATZ

9.2. SKALARPRODUKTE


Definition 9.2.9 Sei V, h, i ein euklidischer Vektorraum und v, w V Vektoren,

die nicht gleich dem Nullvektor sind, dann definiert man den Offnungswinkel
(v, w)
zwischen v und w durch
cos (v, w) =

hv, wi
kvkkwk

0 (v, w) .

Aufgrund der Cauchy-Schwarzschen Ungleichung gilt


1

hv, wi
1
kvkkwk

und da cos : [0, ] [1, 1] bijektiv ist, ist der Winkel (v, w) wohldefiniert.
Satz 9.2.10 (Satz von Pythagoras)
Sei V, h, i ein euklidischer Vektorraum und v, w V Vektoren, die orthogonal zueinander sind. Dann gilt
kv + wk2 = kvk2 + kwk2 .

Beweis. Da v und w orthogonal zueinander sind gilt hv, wi = 0 und somit


kv + wk2 = hv + w, v + wi
= hv, v + wi + hv + w, v + wi
= hv, vi + hv, wi + hw, vi + hw, wi
= hv, vi + hw, wi
= kvk2 + kwk2 .


Definition 9.2.11 Sei V, h, i ein euklidischer Vektorraum, dann heit eine Basis
B = {v1 , . . . , vn } von V Orthonormalbasis (abgek
urzt ONB) von V , wenn B eine
Orthogonalbasis von V bez
uglich h, i ist und zusatzlich gilt
kvi k = 1

f
ur alle vi B.

Definition 9.2.12 Das Kronecker-Delta ist ein Zeichen mit zwei Indizes, sodass gilt
(
1 wenn i = j
ij =
0 wenn i 6= j
Dabei liegen i, j in einer beliebigen Indexmenge, z. B. {1, . . . , n}.

185

KAPITEL 9. BILINEARFORMEN, SKALARPRODUKTE, SPEKTRALSATZ

9.2. SKALARPRODUKTE

Bemerkung 9.2.13 Mithilfe des


 Kronecker-Deltas konnen wir eine Orthonormalbasis
einfach beschreiben. Sei V, h, i ein euklidischer Vektorraum, dann ist {v1 , . . . , vn } eine
Orthonormalbasis von V , wenn gilt
hvi , vj i = ij ,
denn dies ist gleichbedeutend mit der Orthogonalitatsbedingung
hvi , vj i = 0

wenn i 6= j

und der Normierung


hvi , vi i = kvi k2 = 1.

Beispiel 9.2.14 Die Standardbasisvektoren e1 , . . . , en des Rn sind eine Orthonormalbasis bez


uglich des Standardskalarprodukts.


Bemerkung 9.2.15 Sei V, h, i ein euklidischer Vektorraum. Wir betrachten eine
Menge von Vektoren M = {v1 , . . . , vr } V , die paarweise orthogonal zueinander
sind, das heit wenn hvi , vj i = 0 f
ur i 6= j gilt, und sodass 0V
/ M . Unter diesen
Voraussetzungen sind die Vektoren aus M immer linear unabhangig.
Um dies zu zeigen betrachten wir eine Linearkombination des Nullvektors
1 v1 + + r vr = 0V
und berechnen das Skalarprodukt mit den Vektoren vi f
ur alle i = 1, . . . , n.
h1 v1 + + r vr , vi i = h0V , vi i
1 hv1 , vi i + + i hvi , vi i + + r hvr , vi i = 0
i hvi , vi i = 0
Da vi 6= 0V ist hvi , vi i > 0 und somit folgt daraus, dass i = 0 sein muss. Also ist die
Linearkombination des Nullvektors trivial und somit die Vektoren linear unabhangig.


Lemma 9.2.16 Sei V, h, i ein euklidischer Vektorraum und B = {v1 , . . . , vn } eine
Orthonormalbasis von V , dann gilt f
ur jeden Vektor v V
v=

n
X

hv, vi i vi .

i=1

Beweis. Da B eine Basis von V ist, kann jeder


PnVektor v V eindeutig als Linearkombination
der Basisvektoren geschrieben werden v = i=1 i vi . Durch Berechnung des Skalarprodukt
von v mit den Basisvektoren sehen wir, dass gilt
hv, vi i = h1 v1 + + n vn , vi i = 1 hv1 , vi i + + i hvi , vi i + + r hvn , vi i = i .

186

KAPITEL 9. BILINEARFORMEN, SKALARPRODUKTE, SPEKTRALSATZ

9.2. SKALARPRODUKTE

Eine Orthonormalbasis ist also eine Basis f


ur die man besonders einfach die Koeffizienten
berechnen kann um einen Vektor als Linearkombination dieser Basis zu schreiben.
Aber nun stellt sich die Frage, wie wir eine Orthonormalbasis berechnen konnen. Satz 9.1.20
liefert uns die Existenz einer Orthogonalbasis f
ur allgemeine symmetrische Bilinearformen
und somit insbesondere auch f
ur Skalarprodukte. Durch Normieren dieser Basisvektoren,
dass heit durch das Teilen eines Vektors Vektors durch seine Norm, erhalten wir Vektoren
der Lange 1. Dies liegt an der allgemeinen Tatsache, dass f
ur jeden Vektor v 6= 0V gilt,
1
1
dass der Vektor w = kvk v die Norm 1 hat, da kwk = kvk kvk = 1 gilt (s. Satz 9.2.8).
Einen Hinweis wie wir zu einem Vektor v 6= 0V einen zu ihm orthogonalen Vektor konstruieren liefert uns bereits Lemma 9.1.18. Zusammen erhalten wir so das Gram-Schmidtsche
Orthonormalisierungsverfahren.
Satz 9.2.17 (Das Gram-Schmidtsche Orthonormalisierungsverfahren)
Sei V, h, i ein euklidischer Vektorraum und {v1 , . . . , vn } eine Basis von V , dann ist
{w1 , . . . , wn } eine Orthonormalbasis von V , wobei die Vektoren rekursiv durch
w1 =

1
v1 ,
kv1 k

w
k+1 = vk+1

k
X

hvk+1 , wi i wi

wk+1 =

i=1

1
kw
k+1 k

w
k+1

definiert sind. Auerdem gilt:


LH(w1 , . . . , wk ) = LH(v1 , . . . , vk )

f
ur alle k = 1, . . . , n.

Beweis. Zun
achst bemerken wir, dass alle Vektoren wi die Norm 1 haben, da sie alle
normiert wurden.
Nun m
ussen wir die Orthogonalit
at der Vektoren wi pr
ufen. Aufgrund der rekursiven
Definition k
onnen wir annehmen, dass alle Vektoren w1 , . . . , wk orthogonal zueinander sind.
Nun m
ussen wir zeigen, dass w
k+1 und damit auch wk+1 orthogonal zu allen w1 , . . . , wk
ist. Daf
ur berechnen wir f
ur j k
*
+
k
X
hw
k+1 , wj i = vk+1
hvk+1 , wi i wi , wj
i=1

= hvk+1 , wj i

k
X

hvk+1 , wi i hwi , wj i

i=1

= hvk+1 , wj i hvk+1 , wj i = 0.
Da wir wissen, dass sowohl die Vektoren {v1 , . . . , vn } als auch die Vektoren {w1 , . . . , wn }
eine Basis von V sind, gilt insbesondere
dim LH(w1 , . . . , wk ) = dim LH(v1 , . . . , vk )

f
ur alle k = 1, . . . , n.

P
Da aber per definition w
k+1 + ki=1 hvk+1 , wi i wi = vk+1 gilt, liegt vk+1 LH(w1 , . . . , wk+1 )
f
ur alle k = 0, . . . , n 1 und somit folgt die Gleichheit der Mengen.

187

KAPITEL 9. BILINEARFORMEN, SKALARPRODUKTE, SPEKTRALSATZ

9.3. ORTHOGONALE ABBILDUNGEN

Beispiel 9.2.18 Sei V = R2 zusammen mit dem Standardskalarprodukt. Wir wollen


ausgehend von der Basis
 
 
1
0
v1 =
v2 =
1
2
eine Orthonormalbasis von R2 bestimmen.
Im ersten Schritt berechnen wir die Norm von v1
p

kv1 k = 12 + 12 = 2
Also ist

1
1
w1 = v 1 =
2
2

 
1
1

der erste Basisvektor der gesuchten ONB.


F
ur den zweiten Basisvektor berechnen wir zunachst


 
   
1
1
1 1
0
1
w2 = v2 hv2 , w1 i w1 = v2 2 w1 =
2
=
2
1
2
2
2 1
Nun m
ussen wir diesen Vektor noch normieren
1
1
w
2 =
w2 =
kw
2 k
2


1
.
1

9.3. Orthogonale Abbildungen




Definition 9.3.1 Seien V, h, iV und W, h, iW euklidische Vektorraume. Eine lineare Abbildung F : V W heit orthogonal (oder isometrisch), wenn f
ur alle
0
v, v V gilt:


F (v), F (v 0 ) W = v, v 0 V .

Eine orthogonale Abbildung hat somit die Eigenschaften Langen von Vektoren und Winkel
zwischen Vektoren zu erhalten. Wir sehen durch Einsetzen von v = v 0 , dass Langen erhalten
werden
kF (v)k2W = hF (v), F (v)iW = hv, viV = kvk2V .
Und auch f
ur Winkel gilt
cos (F (v), F (w)) =

hv, wi
hF (v), F (w)i
=
= cos (v, w).
kF (v)kkF (w)k
kvkkwk



Lemma 9.3.2 Seien V, h, iV , W, h, iW euklidische Vektorraume und F : V W
eine orthogonal lineare Abbildung, dann ist F injektiv.

188

KAPITEL 9. BILINEARFORMEN, SKALARPRODUKTE, SPEKTRALSATZ

9.3. ORTHOGONALE ABBILDUNGEN

Beweis. Sei v Kern(F ), d. h. F (v) = 0W , dann gilt


0 = h0W , 0W iW = hF (v), F (v)iW = hv, viV = kvk2V .
Da aber kvkV = 0 nur gilt f
ur v = 0V , erhalten wir Kern(F ) = {0V } und somit ist F
injektiv.

Korollar 9.3.3 Sei V, h, iV eine euklidischer Vektorraum und F : V V ein
orthogonaler Endomorphismus, dann ist F bijektiv.
Beweis. Aufgrund von Lemma 9.3.2 ist F injektiv und somit aufgrund von Korollar 7.3.21
auch surjektiv.
Definition 9.3.4 Sei V = Rn mit dem Standardskalarprodukt, dann ist
O(n) = {A MatR (n, n) | hAv, Awi = hv, wi v, w Rn }
die Menge der orthogonalen Matrizen.

Proposition 9.3.5 Die Menge der orthogonalen Matrizen O(n) ist eine Untergruppe
der Gln (R).
Beweis. Eine orthogonale Matrix A O(n) liegt in der Gln (R), da die lineare Abbildung
Rn Rn , x Ax aufgrund von Korollar 9.3.3 bijektiv ist.
Die Einheitsmatrix En liegt in O(n), da hEn v, En wi = hv, wi gilt.
Sei A O(n), dann zeigen wir, dass auch A1 O(n). Seien daf
ur v, w Rn , wir setzen
1
1
v = A v und w
= A w, dann gilt


hv, wi = hA
v , Awi
= h
v , wi
= A1 v, A1 w ,
wobei wir bei dem zweiten Gleichheitszeichen die Orthogonalitat von A verwendet haben.
Seien A, B O(n), dann ist auch A B O(n), denn es gilt
hABv, ABwi = hBv, Bwi = hv, wi ,
aufgrund der Orthogonalit
at von A und B.

Proposition 9.3.6 Sei V, h, iV eine euklidischer Vektorraum und sei {v1 , . . . , vn }
eine Orthonormalbasis von V . Eine lineare Abbildung F : V V ist genau dann
orthogonal, wenn {F (v1 ), . . . , F (vn )} eine Orthonormalbasis von V ist.
Beweis. Sei F : V V orthogonal, dann gilt insbesondere
hF (vi ), F (vj )i = hvi , vj i = ij

189

KAPITEL 9. BILINEARFORMEN, SKALARPRODUKTE, SPEKTRALSATZ

9.3. ORTHOGONALE ABBILDUNGEN

f
ur alle Basisvektoren, also ist {F (v1 ), . . . , F (vn )} eine Orthonormalbasis von V .
Sei umgekehrt {F (v1 ), . . . , F (vn )} eine Orthonormalbasis von V , das heit es gilt
hF (vi ), F (vj )i = ij = hvi , vj i ,

(9.3)

da ja auch {v1 , . . . , vn } eine Orthonormalbasis von V ist. Seien


P v, w V Vektoren
P die wir
als Linearkombination der Basis {v1 , . . . , vn } schreiben: v = ni=1 i vi und w = nj=1 j vj ,
dann gilt:
*
+
n
n
X
X
hF (v), F (w)i = F (
i vi ), F (
j v j )
| Einsetzen von v, w
i=1

=
=
=

* n
X

i F (vi ),

i=1
n
X

n
X

i=1

j=1

n
X

n
X

i=1

+
j F (vj )

| Linearitat von F

j=1

* n
X

j=1
n
X

j hF (vi ), F (vj )i

| Bilinearitat des Skalarprodukts

j hvi , vj i

| Vorraussetzung (9.3)

j=1

i vi ,

i=1

n
X

+
j v j

| Bilinearitat des Skalarprodukts

j=1

= hv, wi

| Definition von v, w

Korollar 9.3.7 Eine Matrix A MatR (n, n) liegt genau dann in O(n), wenn die Spalten
von A eine Orthonormalbasis bez
uglich des Standardskalarprodukts des Rn bilden.
Beweis. Die Spalten von A sind genau die Bilder der Standardbasisvektoren. Da die
Standardbasisvektoren eine Orthonormalbasis des Rn bilden (s. Bsp. 9.2.14), folgt die
Aussage direkt aus Proposition 9.3.6.
Korollar 9.3.8 Sei eine Matrix A MatR (n, n) gegeben, dann sind f
ur diese Matrix
folgende Aussagen
aquivalent:
i) A O(n)
ii) Die Spalten von A bilden eine Orthonormalbasis des Rn bez
uglich des Standardskalarprodukts.
iii) A> A = En
iv) A ist invertierbar und es gilt A1 = A> .
v) AA> = En
vi) Die Zeilen von A bilden eine Orthonormalbasis des Rn bez
uglich des Standardskalarprodukts.

190

KAPITEL 9. BILINEARFORMEN, SKALARPRODUKTE, SPEKTRALSATZ

9.3. ORTHOGONALE ABBILDUNGEN

Beweis. Die Aquivalenz


von i) und ii) ist direkt durch Korollar 9.3.7 gegeben.
i)iii) Wenn A O(n), dann ist
v > En w = v > w = hv, wi = hAv, Awi = (Av)> (Aw) = v > A> Aw.
Durch Einsetzen der Standardbasisvektoren sehen wir, dass diese Gleichheit nur gelten
kann, wenn A> A = En gilt. Umgekehrt, wenn A> A = En gilt, dann ist aufgrund derselben
Rechung die Matrix A orthogonal.
iii)iv) Die Gleichung A> A = En ist genau die definierende Gleichung f
ur die zu A
inverse Matrix.
iv) v) F
ur die inverse Matrix gilt immer AA1 = A1 A = En und somit ist A1 = A>
gleichbedeutend mit AA> = En .
v)vi) Wenn wir das Produkt zweier Matrizen M, N MatK (n, n) bilden, dann
ist der Eintrag in der i-ten Zeile und der j-ten Spalte des Produkt M N durch das
Standardskalarprodukt
der i-ten Zeile von M und der j-ten Spalte von N gegeben
P
(M N )ij = nk=1 Mik Nkj .
Da die Spalten von A> genau den Zeilen von A entsprechen ist also der Eintrag der i-ten
Zeile und der j-ten Spalte von AA> = En gleich dem Skalarprodukt der i-ten Zeile von A
und der j-ten Zeile von A. Dieses Skalarprodukt ist 1, wenn i = j ist und 0 sonst. Aber
dies ist genau die Definition einer Orthonormalbasis.
Beispiel 9.3.9 Schreiben wir die in Beispiel 9.2.18 berechnete Orthonormalbasis des
R2 als Spalten einer Matrix, dann ist diese Matrix aus O(2).


1 1 1
A=
2 1 1
Wir konnen nachrechnen, dass die Orthogonalitatsbedingung A A> = E2 gilt:






1 1 1
1
1 2 0
1 1
>
AA =
= E2

=
2 0 2
2 1 1
2 1 1
Eine Verallgemeinerung dieser Matrix sind Matrizen der Form


1
a b
A=
a2 + b2 b a
f
ur die ebenfalls die Orthogonalitatsbedingung



1
1
a b
a
>
AA =

2
2
2
2
b
a
b
a +b
a +b

gilt:
 2


1
b
a + b2
0
= 2
= E2
a
0
a2 + b2
a + b2

Lemma 9.3.10 Sei A O(n) eine orthogonale Matrix, dann gilt


det A = 1.

191

KAPITEL 9. BILINEARFORMEN, SKALARPRODUKTE, SPEKTRALSATZ

9.4. SEBSTADJUNGIERTE ABBILDUNGEN

Beweis. Wenn A O(n), dann gilt AA> = En , also folgt aus Satz 8.1.19 und Satz 8.1.13
1 = det En = det(AA> ) = det A det A> = (det A)2
Durch Ziehen der Quadratwurzel erhalten wir die gew
unschte Aussage.
Beispiel 9.3.11 Es gilt f
ur die Matrix




1
1
1
a b
a b
det A =
A=
det
= 2
(a2 +b2 ) = 1.
2
2
b
a
a
+
b
2
2
a2 + b2 b a
a +b
Dabei haben beim Berechnen der Determinante Korollar 8.1.4 benutzt.
Umgekehrt ist aber nicht jede Matrix mit Determinante gleich 1 auch orthogonal. Zum
Beispiel gilt
1

0
det B = det 2
= 1 aber hBe2 , Be2 i = h2e2 , 2e2 i = 4 he2 , e2 i .
0 2

Definition 9.3.12 Wir nennen die Menge


SO(n) := {A O(n) | det A = 1}
die spezielle orthogonale Gruppe.

Proposition 9.3.13 Die Menge SO(n) ist eine Untergruppe von O(n).
Beweis. Die Determinante det : O(n) R ist ein Gruppenhomomorphismus (s. Satz
8.1.19) mit Kern SO(n).

9.4. Sebstadjungierte Abbildungen


In diesem Abschnitt besch
aftigen wir uns nun mit linearen Abbilddungen, deren Darstellungsmatrix symmetrisch ist. Diese sind immer diagonalisierbar und besitzen Eigenvektoren,
die eine Orthonormalbasis sind.

Definition 9.4.1 Sei V, h, iV ein euklidischer Vektorraum, ein Endomorphismus
F : V V heit selbstadjungiert, wenn f
ur alle v, w V gilt:
hF (v), wi = hv, F (w)i .

192

KAPITEL 9. BILINEARFORMEN, SKALARPRODUKTE, SPEKTRALSATZ

9.4. SEBSTADJUNGIERTE ABBILDUNGEN


Proposition 9.4.2 Sei V, h, iV ein euklidischer Vektorraum, F : V V ein selbstadjungierter Endomorphismus und , R zwei verschiedene Eigenwerte von F , dann
sind die Eigenvektoren von F zum Eigenwert orthogonal zu den Eigenvektoren von F
zu .
Beweis. Sei v 6= 0V Eigenvektor zu , d.h. F (v) = v und sei w 6= 0V Eigenvektor zu ,
d.h. F (w) = w, dann gilt
hv, wi = hv, wi = hF (v), wi = hv, F (w)i = hv, wi = hv, wi .
Somit gilt ( ) hv, wi = 0 und da nach Voraussetzung 6= ist, muss hv, wi = 0 sein.
Somit sind v und w orthogonal zueinander.

Proposition 9.4.3 Sei V, h, iV eine euklidischer Vektorraum, F : V V ein Endomorphismus und B = {v1 , . . . , vn } eine Orthonormalbasis von V . Die Darstellungsmatrix
von F bez
uglich dieser Basis MBB (F ) ist genau dann symmetrisch, wenn F selbstadjungiert ist.
Beweis. Zun
achst stellen wir fest, dass der Eintrag aij der i-ten Zeile und j-ten Spalte von
A durch aij = hvi , F (vj )i gegeben ist. Die j-te Spalte der Matrix A sind die Koordinaten
von
uglich der Basis B. Unter Verwendung von Lemma 9.2.16 gilt nun F (vj ) =
Pn F (vj ) bez
hv
,
F
(v
j )i vi und somit ist aij = hvi , F (vj )i.
i=1 i
Nun verwenden wir die Selbstadjungiertheit von F und der Symmetrie des Skalarprodukts
um zu sehen, dass gilt:
aij = hvi , F (vj )i = hF (vi ), vj i = hvj , F (vi )i = aji .

(9.4)

woraus die Symmetrie der Matrix A folgt.


Nehmen wir umgekehrt an, dass die Matrix A symmetrisch ist, dann bedeutet dies aufgrund
von Rechnung (9.4), dass f
ur die Basisvektoren v1 , . . . , vn gilt:
hvi , F (vj )i = hF (vi ), vj i .

(9.5)

Da BPeine Basis von V ist,


onnen wir beliebige Vektoren v, w V als Linearkombination
Pk
v = ni=1 i vi , bzw. w = nj=1 j vj schreiben und berechnen nun, dass gilt:
*
hF (v), wi =

F(

n
X

i vi ),

i=1

=
=
=

* n
X

n
X

i=1
n
X

j=1
n
X

i=1

+
j vj

| Einsetzen von v, w

j=1

i F (vi ),

i=1
n
X

n
X

n
X

+
j vj

| Linearitat von F

j=1

j hF (vi ), vj i

| Bilinearitat des Skalarprodukts

j hvi , F (vj )i

| Vorraussetzung (9.5)

j=1

193

KAPITEL 9. BILINEARFORMEN, SKALARPRODUKTE, SPEKTRALSATZ

* n
X

i vi ,

i=1

* n
X

n
X

9.4. SEBSTADJUNGIERTE ABBILDUNGEN

+
j F (vj )

| Bilinearitat des Skalarprodukts

j=1
n
X
i vi , F (
j v j )

i=1

+
| Linearitat von F

j=1

= hv, F (w)i

| Definition von v, w

Daraus folgt, dass F selbstadjungiert ist.


Korollar 9.4.4 Sei F : Rn Rn , x 7 Ax eine lineare Abbildung, wobei A MatR (n, n)
und der Rn zusammen mit dem Standardskalarprodukt betrachtet wird. F ist genau
dann selbstadjungiert, wenn A symmetrisch ist.
Beweis. Dieses Korollar folgt direkt aus Proposition 9.4.3, da die Standardbasis eine
Orthonormalbasis bez
uglich des Standardskalarprodukts ist (s. Beispiel 9.2.14).
Aber die Aussage kann auch direkt bewiesen werden, denn es gilt
v > A> w = (A v)> w = hAv, wi = hv, Awi = v > A w.
Dies ist aber gleichbedeutend mit A = A> , also der Symmetrie der Matrix A.

Lemma 9.4.5 Sei V, h, iV eine euklidischer Vektorraum der Dimension dim V > 0
und F : V V ein selbstadjungierter Endomorphismus, dann besitzt F einen Eigenvektor zu einem reellen Eigenwert.
Beweis. Sei A = MBB (F ) die Darstellungsmatrix von F bez
uglich einer Orthonormalbasis,
das heit die Matrix A ist symmetrisch. Sei A (t) das charakteristische Polynom zu dieser
Matrix. Wir wissen aufgrund des Fundamentalsatz der Algebra (s. Satz 5.5.3), dass A (t)
eine komplexe Nullstelle = + i C besitzt. Wir wollen jetzt zeigen, dass aufgrund
der Symmetrie von A bereits R ist.
Sei 0 6= z = x + iy Cn der Eigenvektor zu , den wir in seinen Real- und Imaginarteil
zerlegen, das heit x, y Rn . Wir zerlegen nun auch die Eigenwertgleichung Az = z in
ihren Real- und ihren Imagin
arteil
Az = z
A(x + iy) = ( + i)(x + iy)
Ax + iAy = (x y) + i(y + x).
Somit gilt
Ax = x y

und Ay = y + x.

Nun verwenden wir, dass die Matrix A symmetrisch ist und f


ur die Vektoren x, y Rn gilt:
hAx, yi = hx, Ayi
hx y, yi = hx, y + xi
hx, yi hy, yi = hx, yi + hx, xi

194

KAPITEL 9. BILINEARFORMEN, SKALARPRODUKTE, SPEKTRALSATZ

9.4. SEBSTADJUNGIERTE ABBILDUNGEN

Substrahieren wir hx, yi auf beiden Seiten der Gleichung, dann erhalten wir
(kxk2 + kyk2 ) = 0.
Da der Eigenvektor z = x + iy nicht null ist muss mindestens kxk =
6 0 oder kyk =
6 0 sein.
Also ist die Gleichung nur f
ur = 0 zu erf
ullen. Aber dies bedeutet, dass = +i = R
liegt.
Satz 9.4.6 (Spektralsatz
fu
r selbstadjungierte Endomorphismen)

Sei V, h, iV ein euklidischer Vektorraum und F : V V ein selbstadjungierter
Endomorphismus, dann gibt es eine Orthonormalbasis von V bestehend aus Eigenvektoren
von F .
Beweis. Wir beweisen den Spektralsatz per vollstandiger Induktion nach der Dimension
des Vektorraums V .
Der Induktionsanfang ist bei n = 1. Eine lineare Abbildung von einem eindimensionalen
Vektorraum in sich selbst ist die Multiplikation mit einen Skalar. Daher ist jeder Vektor
v 6= 0V ein Eigenvektor. Durch Normieren v := kv1k v ist dieser Vektor eine Orthonormalbasis
von V bestehend aus Eigenvektoren von F .
Die Induktionsvoraussetzung besagt nun, dass ein selbstadjungierter Endomorphismus
FU : U U von einem Vektorraum der Dimension n 1 eine Orthonormalbasis von U
bestehend aus Eigenvektoren von FU besitzt.
Sei also V ein Vektorraum der Dimension n und F : V V ein selbstadjungierter
Endomorphismus, dann gibt es aufgrund von Lemma 9.4.5 einen Eigenvektor v 6= 0V von
F . Diesen Vektor normieren wir und erhalten so v := kv1k v, der ein Eigenvektor von F der
Norm 1 ist.
Nun verwenden wir Lemma 9.1.18 und erhalten den Vektorraum V als direkte Summe der
linearen H
ulle von v und deren Orthokomplement:
V = LH(v) LH(v) .
Da dim LH(v) = 1 ist hat das Orthokomplement U := LH(v) die Dimension
dim U = dim V dim LH(v) = n 1 (s. Satz 6.2). Wir konnen also die Induktionsvoraussetzung anwenden, wenn wir sicher stellen konnen, dass die Einschrankung von F auf
den Untervektorraum U , eine Abbildung von U nach U ist. Das bedeutet, dass F (u) U
sein muss, f
ur u U . Das heit aber, dass aus u U = LH(v) , also hu, vi = 0 folgen
muss, dass F (u) U = LH(v) , also hF (u), vi = 0. Um dies zu sehen, rechnen wir:
hF (u), vi = hu, F (v)i = hu, vi = hu, vi = 0.
Dabei haben wir benutzt, dass v ein Eigenvektor von F ist.
Wir konnen nun also den Endomorphismus FU : U U, u 7 F (u) definieren. Dieser
Endomorphismus ist selbstadjungiert, da F selbstadjungiert ist und daher konnen wir die
Induktionsvoraussetzung anwenden. Das heit es gibt eine Orthonormalbasis {v1 , . . . , vn1 }
aus Eigenvektoren von FU . Dann ist {v1 , . . . , vn1 , v} eine Orthonormalbasis aus Eigenvektoren von FU .

195

KAPITEL 9. BILINEARFORMEN, SKALARPRODUKTE, SPEKTRALSATZ

9.4. SEBSTADJUNGIERTE ABBILDUNGEN

Korollar 9.4.7 (Hauptachsentransformation)


Sei A MatR (n, n) eine symmetrische Matrix, dann gibt es eine orthogonale Matrix
T O(n), so dass
T AT 1 = T AT > = Diag(1 , . . . , n )
gilt. Insbesonders ist also jede symmetrische Matrix diagonalisierbar.
Beweis. Da A symmetrisch ist, ist die lineare Abbildung F : Rn Rn selbstadjungiert und
somit gibt es eine Orthonormbasis des Rn bestehend aus Eigenvektoren {v1 , . . . , vn } von A.
Diese Vektoren sind die Spalten der Matrix T 1 . Da die Vektoren eine Orthonormalbasis
bilden, ist die Matrix orthogonal T 1 O(n) (s. Kor. 9.3.7) und daher ist T 1 = T > . Die
Begr
undung warum das Produkt T AT 1 eine Diagonalmatrix ist, kann im Beweis von
Satz 8.2.4 nachgelesen werden.
Um die Matrix T O(n) sowie die Diagonalmatrix Diag(1 , . . . , n ) zu berechnen, kombinieren wir nun das bekannte Verfahren zum Berechnen einer Basis aus Eigenvektoren mit
dem Gram-Schmidtschen Orthonormalisierungsverfahren.
Algorithmus 9.4.8 (Berechnung einer Orthonormalbasis aus Eigenvektoren)
Eingabe: A = (aij ) MatK (n, n), A = A>
Ausgabe: D = Diag(1 , . . . , n ) und T O(n), sodass T AT 1 = Diag(1 , . . . , n )
Durchfu
hrung:
1. Wir berechnen das charakteristische Polynom A (t) der Matrix und bestimmen
dessen Nullstellen. Wir schreiben A (t) als Produkt von Linearfaktoren
A (t) =

r
Y
(t i )i ,
i=1

wobei die i paarweise verschiedene Eigenwerte sind und i ihre algebraische


Vielfachheit ist. Da A symmetrisch und somit diagonalisierbar ist, muss das charakteristische Polynom in Linearfaktoren zerfallen (s. Satz 8.2.11).
2. Danach berechnen wir f
ur jeden Eigenwert i eine Basis Bi vom Eigenraum
Eig(A, i ). Da die Matrix A diagonalisierbar ist, gilt dim Eig(A, i ) = i (s. Satz
8.2.20).
3. Nun wenden wir das Gram-Schmidtsche Orthonormalisierungsverfahren jeweils
auf die Basen Bi f
ur i = 1, . . . , r an und erhalten so f
ur jeden der Eigenraume
Eig(A, i ) eine Orthonormalbasis. Die Vereinigung dieser Basen ist dann eine
Orthonormalbasis des Rn , da Eigenvektoren zu verschiedenen Eigenwerten sowieso
orthogonal zueinander sind (s. Prop. 9.4.2).
4. Im letzten Schritt schreiben wir die berechneten Basisvektoren als Spalten der
Matrix T 1 , wobei Eigenvektoren zum gleichen Eigenwert nebeneinander stehen
und man meist die Eigenwerte der Groe nach sortiert. Die Diagonalmatrix hat
dann die Form
D = Diag(1 , . . . , 1 , 2 , . . . , 2 , . . . , r , . . . , r )
| {z } | {z }
| {z }
1 mal

2 mal

r mal

196

KAPITEL 9. BILINEARFORMEN, SKALARPRODUKTE, SPEKTRALSATZ

9.4. SEBSTADJUNGIERTE ABBILDUNGEN

wenn die ersten 1 Spalten von T 1 Eigenvektoren zu 1 sind, usw.

Beispiel 9.4.9 Sei die Matrix

2 1
1
A = 1 2 1
1 1 2
gegeben. Die Matrix ist symmetrisch, wir konnen also eine Orthonormalbasis aus Eigenvektoren von A bestimmen. Dazu benotigen wir zunachst die Eigenwerte von A und
berechnen daf
ur das charakteristische Polynom

2t
1
1
2 t 1 = (2t)2 11(2t)(2t)(2t) = t3 +6t2 9t
A (t) = det 1
1
1 2 t
Dieses Polynom wollen wir in seine Linearfaktoren zerlegen. Daf
ur klammern wir zunachst
t aus und sehen dann, dass der verbliebene Faktor mithilfe einer binomischen Formel
(a b)2 = a2 2ab + b2 in Linearfaktoren zerlegt werden kann (alternativ, kann man
mithilfe der p q-Formel die Nullstellen berechnen).

A (t) = t3 + 6t2 9t = t t2 6t + 9 = t(t 3)2 .
Somit hat die Matrix A zwei verschiedene Eigenwerte 1 = 0 mit der Vielfachheit 1 und
2 = 3 mit der Vielfachheit 2. Wir berechnen nun die Eigenraume, zuerst zum Eigenwert
1 = 0:

2 1
1
1 2 1
1
Eig(A, 0) = Kern(A 0E3 ) = Kern 1 2 1 = Kern 2 1
1 1 2
1 1 2

1 2 1
1 2 1
= Kern 0 3 3 = Kern 0 1 1
0 3 3
0 0
0
Wir wahlen die Unbekannte x3 = r, wobei r eine beliebige Zahl aus R ist und erhalten
so aus der zweiten Zeile x2 + x3 = 0 die Gleichung x2 = x3 = r und aus der ersten
Zeile x1 + 2x2 x3 = 0 die Gleichung x1 = 2x2 + x3 = r. Somit ist der Eigenraum
zum Eigenwert 1 = 0 gegeben durch:

Eig(A, 0) = x R3 | x = r 1 wobei r R .

1
>
Eine Basis dieses Eigenraumes ist zum Beispiel durch den Vektor v1 = 1 1 1
gegeben. Die Dimension von Eig(A, 0) ist also 1, wie wir aufgrund der Tatsache, das
1 = 0 mit Vielfachheit 1 im charakteristischen Polynom vorkommt, erwartet haben.
Nun berechnen wir den Eigenraum zum Eigenwert 2 = 3.

1 1
1
1 1 1
Eig(A, 3) = Kern(A 3E3 ) = Kern 1 1 1 = Kern 0 0 0
1 1 1
0 0 0

197

KAPITEL 9. BILINEARFORMEN, SKALARPRODUKTE, SPEKTRALSATZ

9.4. SEBSTADJUNGIERTE ABBILDUNGEN

Wir wahlen die Unbekannten x2 = r und x3 = s, wobei r und s beliebige Zahlen aus R
sind und erhalten so aus x1 + x2 + x3 = 0 die Gleichung x1 = x2 + x3 = r + s. Somit
ist der Eigenraum zum Eigenwert 1 = 0 gegeben durch:



1
1

Eig(A, 3) = x R3 | x = r 1 + s 0 wobei r R .

0
1
>
Eine Basis dieses Eigenraumes ist zum Beispiel durch die Vektoren v21 = 1 1 0
>
und v22 = 1 0 1 gegeben. Die Dimension von Eig(A, 3) ist also 2, wie wir aufgrund
der Tatsache, das 2 = 3 mit Vielfachheit 2 im charakteristischen Polynom vorkommt,
erwartet haben.
Im nachsten Schritt m
ussen wir nun ausgehend von v1 eine Orthonormalbasis von
Eig(A, 0) und ausgehend von v21 , v22 eine Orthonormalbasis von Eig(A, 3) konstruieren.
Daf
ur verwenden wir das Gram-Schdt-Verfahren.
Eine Orthonormalbasis
vonp
Eig(A, 0) erhalten wir,
p
indem wir den Vektor v1 normieren.
2
2
2
Es gilt kv1 k = hv1 , v1 i = (1) + 1 + 1 = 3. Somit ist

1
1
1
w1 = v 1 = 1
3
3
1

eine Orthonormalbasis von Eig(A, 0).


Nun wollen wir ausgehend von v21 und v22 eine Orthonormalbasis
vonEig(A, 3) konstruiep

ren. Daf
ur m
ussen wir v21 normieren. Es gilt kv21 k = hv21 , v21 i = 12 + 12 + 02 = 2.
Somit ist der erste Basisvektor von Eig(A, 3) durch
1
w21 = v21
2


1
1
= 1
2 0

gegeben. F
ur den zweiten Basisvektor konstruieren wir jetzt nach Gram-Schmidt einen
Vektor aus Eig(A, 3), der senkrecht auf w21 steht. Wir definieren

1
1
1
2
1 1
w
22 = v22 hv22 , w21 i = 0 1 = 12 .
2 2 0
1
1
q
q
q
Nun gilt kw
22 k = 14 + 14 + 1 = 32 . Also ist w22 = 23 w
22 .
Da Vektoren zu unterschiedlichen Eigenwerten sind immer orthogonal zueinander, konnen
nun die Orthonormalbasis des R3 bestehend aus Eigenvektoren von A angeben:

1
1

1 ,
w1 =
3
1

w21


1
1

1
=
2 0

und w22

r 1
2 21
2
=
3
1

Nun konnen wir die Matrix T aus Korollar 9.4.7 angeben. Die Matrix T 1 hat als Spalten
die Vektoren w1 , w21 , w22 . Die Matrix T ist dann die Inverse dazu. Da aber die Spalten
von T 1 eine Orthonormalbasis sind, kann die Inverse durch Transponieren berechnet
werden.

198

KAPITEL 9. BILINEARFORMEN, SKALARPRODUKTE, SPEKTRALSATZ

T 1 = T > =

13

1

3
1
3

1
2
1
2

q
1
q6

2
3

9.5. DIE SINGULARWERTZERLEGUNG

1 3
T =
q2
1
6

1
3
1
q2

1
3
1
6

0
q
2
3

und wir k
onnen nachrechnen, dass gilt
T AT > = Diag(0, 3, 3).
Da die erste Spalte von T 1 der Eigenvektor zu 1 = 0 ist, ist 0 der erste Diagonaleintrag.

9.5. Die Singul


arwertzerlegung
Der Spektralsatz ist eine Aussage f
ur quadratische symmetrische Matrizen. Da in vielen
Anwendungen aber allgemeinere Matrizen auftauchen, spielt dort die Singularwertzerlegung
eine wichtige Rolle.
Im Beweis der Singul
arwertzerlegung wird folgende Schreibweise f
ur das Matrixprodukt
verwendet.
Lemma 9.5.1 Seien A = (aik ) MatK (m, n) und B = (bkj ) MatK (n, p) Matri>
zen, wobei A aus den Spaltenvektoren ak = a1k a2k . . . amk
und B aus den
Zeilenvektoren bk = bk1 bk2 . . . bkp besteht. Dann gilt
AB =

n
X

ak bk .

k=1

Beweis. F
ur i {1, ..., m} und j {1,P
..., p} werden die Koeffizienten der Produktmatrix
C := (cij ) MatK (m, p) durch cij := nk=1 aik bkj definiert.
Da die Vektoren als Matrizen aufgefasst in ak MatK (m, 1) und bk MatK (1, p) liegen,
ist es moglich das Matrixprodukt ak bk MatK (m, p) zu berechnen:

a1k
a1k bk1 a1k bk2 . . . a1k bkp
a2k


a2k bk1 a2k bk2 . . . a2k bkp

ak bk = . bk1 bk2 . . . bkp = .


..
..
..
..
..
.
.
.
amk

amk bk1 amk bk2 . . .

amk bkp

Addieren wir diese Matrizen f


ur k = 1, . . . , n auf, dann erhalten wir
Pn

Pn
Pn
a
b
a
b
.
.
.
a
b
1k
k1
1k
k2
1k
kp
k=1
k=1
k=1
n
Pn a2k bk1 Pn a2k bk2 . . . Pn a2k bkp
X
k=1
k=1

k=1
k
ak b =

..
..
..
..

.
.
.
.
k=1
Pn
Pn
Pn
k=1 amk bk1
k=1 amk bk2 . . .
k=1 amk bkp
Die Eintage dieser Matrix entsprechen also genau den Eintragen des Matrixprodukts
C = AB.

199

KAPITEL 9. BILINEARFORMEN, SKALARPRODUKTE, SPEKTRALSATZ

9.5. DIE SINGULARWERTZERLEGUNG

Satz 9.5.2 (Singul


awertzerlegung)
Sei A MatR (m, n) eine Matrix. Dann existieren orthogonale Matrizen U MatR (m, m)
und V MatR (n, n) sowie eine Diagonalmatrix S = (sij ) MatR (m, n) mit den
Diagonaleintr
agen s11 s22 0, sodass gilt:
A = U SV > .

Beweis. Wir f
uhren einen konstruktiven Beweis, der direkt benutzt werden kann um die
Zerlegung zu berechnen.
(1) Wir betrachten die Matrix B := A> A MatR (n, n) und stellen unter Verwendung
von Satz 7.1.13 und Gleichung (7.2) fest, dass sie symmetrisch ist:
B > = (A> A)> = A> (A> )> = A> A = B.
Durch die Hauptachsentransformation (s. Kor. 9.4.7) erhalten wir f
ur B die Zerlegung
>
T BT = Diag(1 , . . . , n ) und die Eigenwerte i R von B. Weiterhin bezeichne
vi den Eigenvektor zu i aus der Matrix T . Wir sortieren dabei die Eigenwerte
1 2 n ihrer Gr
oe nach. Alle i sind nicht negativ (i 0), denn es gilt
vi> Bvi = i vi> vi = i
vi> Bvi = vi> A> Avi = (Avi )> (Avi ) 0.
Insgesamt erhalten wir daher i 0. Auerdem gilt rang(A) = rang(B), da
rang(A> A) = rang(A). Die ersten r := rang(B) Eigenwerte sind also positiv.
(2) F
ur alle i = 1, . . . , r setzen wir ui =

1 Avi .
i

(3) Die u
brigen ui mit r < i m werden so bestimmt, dass diese zu u1 , . . . , ur orthogonal
sind und die Norm 1 haben.
(4) Wir setzen jetzt U := (u1 , . . . , um ) und V := (v1 , . . . , vn ) und definieren
(
i f
ur i = j und i r
S := (sij ) =
0
sonst
Es bleibt noch zu zeigen, dass die konstruierten U, S, V > die geforderten Eigenschaften
erf
ullen.
Wegen der Hauptachsentransformation ist {v1 , . . . , vn } eine Orthonormalbasis von Rn und
demnach V eine orthogonale Basis. Ferner ist {u1 , . . . , um } eine Orthonormalbasis von Rm ,
denn f
ur i, j = 1, . . . , r ist
*
+
1
1
1
1
1
1
hui , uj i = Avi , p Avj = p hAvi , Avj i = p (Avi )> (Avj )
i
i j
i j
j
p p
p
j j >
j
1
1 > >
1
1 >
= p vi A Avj = p vi j vj = p vi vj = hvi , vj i
i j
i j
i j
i
(q
j
f
ur i = j
i = 1
=
.
0
f
ur i 6= j

200

KAPITEL 9. BILINEARFORMEN, SKALARPRODUKTE, SPEKTRALSATZ

9.5. DIE SINGULARWERTZERLEGUNG

Auerdem sind ur+1 , . . . , um orthonormal per Konstruktion und damit insgesamt U eine
orthogonale Matrix.
Abschieend wollen wir zeigen, dass die Zerlegung A = U SV gilt.
A = A En = AV V >
n
X
=A
vi vi>

| V ist eine orthogonale Matrix


| Lemma 9.5.1

i=1

=
=
=

n
X
i=1
r
X

Avi vi>

| Distributivgesetz

Avi vi>

| Summation geht nur bis r, da Avi = 0 f


ur i > r

i=1
r 
X
i=1

r
X

ui

p
1
Avi
i vi>
i

i
| Einf
ugen von
i

p
i vi>

| Definition von ui

i=1

= U SV >

| Lemma 9.5.1.

Definition 9.5.3 (Singul


arwertzerlegung)
Die Zerlegung A = U SV > aus dem obigen Satz nennt man die Singul
arwertzerlegung
von A. Die Zahlen sii heien Singul
arwerte von A.

Satz 9.5.4 F
ur Singul
arwertzerlegung einer Matrix A gelten die folgenden Eigenschaften
(i) Die Singul
arwerte sii entsprechen den Wurzeln der Eigenwerte von A> A.
(ii) Die Singul
arwerte sii sind eindeutig bestimmt.
(iii) Ist A symmetrisch, so sind die Singularwerte die Betr
age ihrer Eigenwerte von A.
(iv) Die Matrizen U, V sind nicht eindeutig bestimmt.
(v) Die Spalten i = r + 1, . . . , n von V sind eine Basis f
ur den Kern von A.
(vi) Die Spalten i = 1, . . . , r von U sind eine Basis f
ur das Bild von A.

Beweis. (i) folgt direkt aus der Definition der Singularwerte. Daraus folgt dann direkt,
dass sie eindeutig sind, da die Eigenwerte einer Matrix eindeutig sind und wir die
Singul
arwerte der Gr
oe nach sortieren.
(iii) Wenn A symmetrisch ist, dann ist B = A> A = A2 und hat die Eigenwerte i = 2i ,
da f
ur einen Eigenvektor vi von A zum Eigenwert i gilt: A2 vi = AAvi = Ai vi =
i Avi = i i vi . Und damit ist die Wurzel aus dem Eigenwert 2i durch |i | gegeben.
(iv) Die Matrizen U und V sind nicht eindeutig, da Orthonormalbasen von Vektorraumen
nicht eindeutig sind.

201

KAPITEL 9. BILINEARFORMEN, SKALARPRODUKTE, SPEKTRALSATZ

9.5. DIE SINGULARWERTZERLEGUNG

(v) Durch Multiplizieren von rechts mit der Matrix V erhalten wir aus der Singularwertzerlegung AV = U S. Da nur die ersten r Diagonaleintrage von S positiv sind und
alle anderen Eintr
age null gilt: Sei = 0, wobei i > r und ei ein Standardbasisvektor
des Rn ist. Also ist auch AV ei = U Sei = U 0 = 0. Da V ei die i-te Spalte von V
liefert, liegen also die Spalten i = r + 1, . . . , n von V im Kern von A. Diese sind linear
unabh
angig, da V eine invertierbare Matrix ist. Da der Kern von A aufgrund der
Dimensionsformel 7.3.19 genau die Dimension n Rang A = n r hat, sind diese
Spalten eine Basis des Kerns von A.

(vi) Sei jetzt ei ein Standardbasisvektor


des Rn und 1 i r, dann ist Sei = i ei 6= 0

und somit U Sei = i U ei , das heit ein Vielfaches der i-ten Spalte von U . Also liegt
diese Spalte im Bild von A, aufgrund von AV ei = U Sei . Diese Spalten sind linear
unabh
angig, da U invertierbar ist und bilden somit eine Basis des Bildes von A.
Beispiel 9.5.5 Wir betrachten die Matrix

8 10 14
4
4
2

A :=
2 2 1 MatR (4, 3).
16 2 10
und verfahren gem
a dem Algorithmus zur Singularwertzerlegung.
(1) Wir berechnen die symmetrische Matrix

340 92 262
B := AT A = 92 124 170 .
262 170 301
Die Berechnung der Eigenwerte liefert 1 = 648, 2 = 117, 3 = 0 mit den zugeh
origen Eigenvektoren



2
2
1
v1 = 1 , v2 = 2 , v3 = 2 .
2
1
2
Diese sind orthogonal zueinander, da sie zu unterschiedlichen Eigenwerten gehoren.
F
ur ihre Norm gilt k
v1 k = k
v2 k = k
v3 k = 3. Diese Vektoren m
ussen also noch
normiert werden. Die normierten Vektoren sind somit v1 = kv11 k v1 , v2 = kv12 k v2 und
v3 = kv13 k v3 und die Matrix V O(3) ist gegeben durch

2 2 1
1
V = (v1 v2 v2 ) = 1 2 2 .
3
2 1 2
Auerdem k
onnen wir
definieren

1 0
0
2
S=
0
0
0
0

die Matrix S mit den Singularwerten auf der Diagonale




0
648 0
0
18 2 0

0 0
117 0 0
3 13
=
=
0 0
0
0 0
0
0
0
0
0
0
0

0
0
.
0
0

202


9.5. DIE SINGULARWERTZERLEGUNG

KAPITEL 9. BILINEARFORMEN, SKALARPRODUKTE, SPEKTRALSATZ

(2) Da die ersten beiden Eigenwerte von B positiv sind, konnen wir die ersten zwei
Spalten der Matrix U O(4) direkt definieren:
1
2

2
1
0
u1 = Av1 =
0
1

13

2
1
13
u2 = Av2 = 1

13
2

1
2

13

(3) Die Vektoren u3 , u4 m


ussen orthogonal zu u1 , u2 konstruiert werden. Wir konnen
daf
ur zun
achst zwei beliebige Vektoren u
3 , u
4 R4 wahlen, so dass {u1 , u2 , u
3 , u
4 }
4
eine Basis des R ist, um dann das Gram-Schmidt-Verfahren auf diese Vektoren
anzuwenden.
Alternativ erhalten aus den Bedingungen
hu1 , u3 i = u>
1 u3 = 0,

hu2 , u3 i = u>
2 u3 = 0

ein lineares Gleichungssystem mit 2 Gleichungen und 4 Unbekannten


1
1
u31 + 0u32 + 0u33 + u34 = 0
2
2
2
2
1
2
u31 + u32 + u33 + u34 = 0
13
13
13
13
und die L
osungen m
ussen u33 = 4u31 + 2u32 , u34 = u31 erf
ullen. Wir wahlen die
spezielle
L
o
sung
u

=
0,
u

=
1,
u

=
2,
u

=
0.
Der
Vektor
(0, 1, 2, 0) hat die
31
32
33
34

Norm 5, weshalb unser gesuchter Vektor u3 = 15 (0, 1, 2, 0) ist.


F
ur u4 m
ussen wir die Bedingungen
hu1 , u4 i = u>
1 u4 = 0,

hu2 , u4 i = u>
2 u4 = 0,

hu3 , u4 i = u>
3 u4 = 0

erf
ullen, die uns das lineare Gleichungssystem
1
1
u41 + 0u42 + 0u43 + u44 = 0
2
2
2
2
1
2
u41 + u42 + u43 + u44 = 0
13
13
13
13
1
2
0u41 + u42 + u43 + 0u44 = 0
5
5
liefern. Somit erhalten wir u41 = u44 , u42 = 85 u44 und u43 = 45 u44 . Wieder
wahlen wir eine spezielle Losung u
41 = 5, u
42 = 8, u
43 = 4, u
44 = 5, die wir
1
dann zu u4 = 130
(5, 8, 4, 5) normieren. Insgesamt haben wir also die Matrix

1
2

U = (u1 u2 u3 u4 ) =
0

1
2

2
13
2
13
1

13
2

13

0
1
5
2
5

5
130
8
130

4
130
5
130

konstruiert.

203

KAPITEL 9. BILINEARFORMEN, SKALARPRODUKTE, SPEKTRALSATZ

9.5. DIE SINGULARWERTZERLEGUNG

Zuletzt k
onnen wir jetzt pr
ufen, dass
1
8 10 14
2
4

0
4
2

A=
2 2 1 =
0
16 2 10
1

2
13
2
13
1

13
2

13

0
1
5
2
5


5
18 2
130
8 0

130

4 0
130
0
5
130

0
3 13
0
0

0 2
3
0
2
0 31
0

1
3
2
3
2
3

2
3
1
3
2
3

= U SV >

204

10. Anwendungen
In diesem Kapitel wollen wir drei Anwendungen der linearen Algebra prasentieren, die in
der Informatik eine wichtige Rolle spielen.

10.1. Interpolation
Es seien n paarweise verschiedene Punkte
P1 = (x1 , y1 ), P2 = (x2 , y2 ), . . . , Pn = (xn , yn ) R2
gegeben. Wir suchen ein Polynom vom Grad n 1
p(x) = a0 + a1 x + a2 x2 + + an1 xn1
dessen Graph durch die vorgegebenen Punkte verlauft, dass heit sodass gilt
p(xi ) = a0 + a1 xi + a2 x2i + + an1 xin1 = yi

(10.1)

f
ur i = 1, 2, . . . , n. Dieses Problem heit Interpolationsproblem.
Der Ausdruck (10.1) ist linear in den gesuchten Koeffizienten a0 , a1 , . . . , an1 R des
Polynoms. Diese sind daher als L
osung des lineares Gleichungssystem

a1
n2
n1
2
1 x1
x1 . . . x 1
x1
y1

a2 y2
1 x2
x22 . . . xn2
xn1
2
2


..
..
..
..
.. a3 = ..
..
(10.2)
.

.
.
.
.
. .. .

.
n2
n1
yn2
1 xn1 x2

n1 . . . xn1 xn1
an2
2
n2
n1
yn1
1 xn
xn . . . x n
xn
an1
gegeben. Wenn wir zeigen k
onnen, dass dieses LGS eine eindeutige Losung hat, dann haben
wir gezeigt, dass das Interpolationsproblem eindeutig losbar ist.
Die Koeffizientenmatrix des LGS hat n Zeilen, da wir f
ur jeden der n Punkte eine Zeile
erhalten. Andererseits hat die Matrix auch n Spalten, da ein Polynom n Koeffizienten hat,
wenn es vom Grad n 1 ist. Somit ist die Koeffizientenmatrix des LGS quadratisch und es
gen
ugt zu zeigen, dass deren Determinante nicht null wird um zu zeigen, dass das LGS
eindeutig l
osbar ist.
F
ur ein Polynom kleineren Grades konnen wir im Allgemeinen keine Losung des Interpolationsproblems erwarten, da dies auf ein LGS mit mehr Zeilen als Unbekannten f
uhren
w
urde und somit f
ur eine beliebige rechte Seite nicht losbar sein kann.

205

KAPITEL 10. ANWENDUNGEN

10.1. INTERPOLATION

Definition 10.1.1 Wir bezeichnen die folgende Matrix

1 x1
x21 . . .
1 x2
x22 . . .

..
..
..
V (x1 , . . . , xn ) := ...
.
.
.

1 xn1 x2
n1 . . .
1 xn
x2n . . .

als Vandermonde-Matrix

xn2
x1n1
1
xn2
x2n1
2

..
.. ,
.
.

n2
n1
xn1 xn1
xn2
xnn1
n

ihre Determinante heit Vandermonde-Determinante.

Proposition 10.1.2 F
ur die Vandermonde-Determinante gilt
Y
(xj xi ).
det V (x1 , . . . , xn ) =

(10.3)

1i<jn

Sie ist also genau dann nicht null, wenn alle xi paarweise verschieden sind.
Beweis. Wir f
uhren diesen Beweis per Induktion. Der Induktionsanfang n = 1 liefert die
Matrix V (x1 ) = (1), deren Determinante
1 ist. Dies istQgleich dem Produkt u
ber die leere
Q
Menge, das per Definition 1 ist: 1i<j1 (xj xi ) = = 1.


1 x1
Wir konnen auch bei n = 2 anfangen, wo wir einerseits det
= x2 x1 und
1 x2
Q
andererseits 1i<j2 (xj xi ) = (x2 x1 ) erhalten.
F
ur den Induktionsschritt nehmen wir an, dass die Formel (10.3) f
ur ein n gilt und zeigen,
dass sie dann auch f
ur n + 1 gilt.
Nach den Rechenregeln f
ur Determinanten (s. Satz 8.1.3 und Satz 8.1.9) gilt

xn1
1 x1
x21 . . . xn1
1
1 x2
x22 . . . xn1
xn2
2

..
..
..
..
..
det V (x1 , . . . , xn , xn+1 ) = det ...
.
.
.
.
.

n
1 xn
x2n . . . xn1
x
n
n
n1
1 xn+1 x2n+1 . . . xn+1
xnn+1

1
x1
x21
...
xn1
xn1
1
0 x2 x1
x22 x21 . . . xn1
x1n1 xn2 xn1
2

..

..
..
..
..
..
= det .

.
.
.
.
.

n1
2
2
n1
n
n
0 xn x1
xn x1 . . . x n x1
xn x1
n1
0 xn+1 x1 x2n+1 x21 . . . xn+1
x1n1 xnn+1 xn1

x2 x1
x22 x21 . . . xn1
x1n1 xn2 xn1
2

..
..
..
..
..

.
.
.
.
.
= det
(10.4)

n1
2
2
n1
n
n
xn x1
xn x1 . . . x n x1
xn x1
n1
xn+1 x1 x2n+1 x21 . . . xn1
xnn+1 xn1
n+1 x1
Dabei haben wir zun
achst die erste Zeile von allen anderen Zeilen abgezogen, um dann
nach der ersten Spalte zu entwickeln.

206

KAPITEL 10. ANWENDUNGEN

10.1. INTERPOLATION

F
ur den n
achsten Schritt ben
otigen wir die Formel
k
X

k+1
k1
k1
k
k
i
xk+1

x
=
(x

x
)
x
+
x
x
+

+
x
x
+
x
=
(x

x
)
xki
j
1
1
j 1
j
1
j
1
1
j
j
j x1 ,
i=0

die wir durch Ausmultiplizieren der rechten Seite u


ufen konnen. Diese Formel gilt f
ur
berpr
alle k 0.
Wir klammern nun aus der ersten Zeile der Determinante (10.4) den Faktor (x2 x1 ) aus,
aus der zweiten Zeile (x3 x1 ), usw. und erhalten
detV (x1 , . . . , xn+1 )

1
..
.

x2 + x1
..
.

x22 + x1 x2 + x21 . . .
..
..
.
.
3
3
xn x1
...
x3n+1 x31
...

Pn1

= (x2 x1 ) det
xn x1
x2n x21
xn+1 x1 x2n+1 x21

1 x2 + x1
x22 + x1 x2 + x21
...

.
.
..
..
Y
.
.

.
.
.
=
(xj x1 ) det .
2
2
1 xn + x1
xn + x1 xn + x1
...
1jn+1
2
2
1 xn+1 + x1 xn+1 + x1 xn+1 + x1 . . .

x2n1i xi1

..

n
n

xn x1
n
n
xn+1 x1
Pn1 n1i i
x1
i=0 x2

..

.
Pn1 n1i i .
xn
x1
Pi=0
n1 n1i i
i=0 xn+1 x1

i=0

Nun benotigen wir noch eine Umformung bis wir die Induktionsvoraussetzung anwenden
konnen. Daf
ur bemerken wir, dass gilt
k
X

i
xki
j x1

x1

k1
X

i=0

(k1)i i
xj
x1

i=0

k
X
i=0
k
X

i
xki
j x1

i
xki
j x1

i=0

k1
X
i=0
k
X

xjk1i xi+1
1
xjki xi1 = xkj .

i=1

Multiplizieren wir also die k-te Spalte der Matrix mit x1 und substrahieren sie von der
(k + 1)-ten Spalte, dann
andert dies die Determinante nicht (s. Satz 8.1.3) und in der
k-ten Spalte bleiben genau die (k 1)-ten Potenzen der x-Werte u
brig. Die enstandende
Matrix ist somit die n n Vandermonde-Matrix V (x2 , . . . , xn+1 ) und wir konnen die
Induktionsvoraussetzung anwenden.

1 x2
x22 . . . xn1
2
..
..
..
..
..
Y

.
.
.
.
det V (x1 , . . . , xn+1 ) =
(xj x1 ) det .

2
n1
1 xn

.
.
.
x
x
n
n
1jn+1
n1
2
1 xn+1 xn+1 . . . xn+1
Y
=
(xj x1 ) det V (x2 , . . . , xn+1 )
1jn+1

1jn+1

(xj x1 )

(xj xi )

2i<jn+1

(xj xi ).

1i<jn+1

Die Vandermonde-Determinante det V (x1 , . . . , xn ) ist also ein Produkt von Faktoren der
Form xi xj , wobei i 6= j ist. Sind die xi paarweise verschieden, dann sind all diese
Faktoren ungleich null und damit auch die Vandermonde-Determinante.

207

KAPITEL 10. ANWENDUNGEN

10.1. INTERPOLATION

Abbildung 10.1.: Das Polynom p(x) = 2 + 83 x + 3x2 76 x3 12 x4 interpoliert die Punkte


P1 bis P5 .

Satz 10.1.3 (Interpolationsproblem)


Zu n Datenpunkten P1 = (x1 , y1 ), P2 = (x2 , y2 ), . . . , Pn = (xn , yn ) R2 gibt es genau
dann ein eindeutig bestimmtes Polynom p(x) vom Grad n 1, dass p(xi ) = yi f
ur alle
i = 1, . . . , n erf
ullt, wenn die x-Koordinaten der Datenpunkte paarweise verschieden
sind.
Beweis. Wenn die x-Koordinaten der Punkte Pi = (xi , yi ) paarweise verschieden sind, dann
ist die Vandermonde-Matrix V (x1 , . . . , xn ) invertierbar und somit gibt es eine eindeutig
bestimmte L
osung (a0 , . . . , an1 ) des LGS (10.2).
Beispiel 10.1.4 Wir haben die 5 Punkte
P1 = (2, 4), P1 = (1, 2), P1 = (0, 2), P1 = (1, 3), P1 = (2, 0)
gegeben und suchen ein Polynom vierten Grades
p(x) = a0 + a1 x + a2 x2 + a3 x3 + a4 x4 ,
das durch diese Punkte verl
auft. Daf
ur stellen

1
1

V (2, 1, 0, 1, 2) =
1
1
1

wir die Vandermonde-Matrix

2 4 8 16
1 1 1 1

0 0 0
0

1 1 1
1
2 4 8 16

208

KAPITEL 10. ANWENDUNGEN

10.2. TOTAL LEAST SQUARES REGRESSION

auf und bestimmen die L


osungsmenge des linearen Gleichungssystems

4
a0
a1 2


V (2, 1, 0, 1, 2)
a2 = 2 .
a3 3
0
a4
Diese ist durch
a0 = 2,

8
a1 = ,
3

a2 = 3,

7
a3 = ,
6

a4 =

1
2

gegeben und liefert Abbildung 10.1.

10.2. Total Least Squares Regression


Beim Interpolationsproblem haben wir gezeigt, dass ein Polynom genau durch eine vorgegebene Menge von Punkten gelegt werden kann. Dies ist aber nicht immer die beste
Losung um einen Datensatz mathematisch zu beschreiben. Zum einen kann dies, vor allem
wenn die x Koordinaten nah beieinander liegen, stark oszillierende Kurven liefern, die gar
nicht die Realit
at beschreiben. Zum anderen konnen Daten fehlerbehaftet sein, so dass
es eine Kurve die exakt durch die Datenpunkte verlauft keine optimale Beschreibung der
Daten liefert.
In vielen Anwendungen ergibt es mehr Sinn eine Kurve zu bestimmen, so dass die Summe
der Abstande von Kurve zu Datenpunkten minimal ist. Wir sagen daf
ur, dass wir eine
Kurve an einen Satz von Daten fitten wollen. Daf
ur muss man zunachst die Art der
Kurve (Gerade, Exponentialfunktion, Parabel,. . . ) festlegen. Auerdem gibt es verschiedene
Moglichkeiten den Abstand von Datenpunkt zur Kurve zu definieren.
Der einfachste Fall besteht darin eine Gerade an die Daten zu fitten. In jeden einf
uhrenden
Statistikbuch lernt man das Verfahren der linearen Regression kennen. Wir wollen
dies hier nicht im Detail beschreiben, sondern nur erklaren, welcher Abstand bei diesem
Verfahren minimiert wird.
Zu vorgegebenen Datenpunkten P1 , . . . , Pn wird eine Gerade y = mx + c so bestimmt, dass
die Summe der quadratischen Abstande vom Punkt Pi = (xi , yi ) zum Punkt (xi , mxi + c)
auf der Gerade minimal wird. Das Verfahren der linearen Regression liefert also eine Gerade,
die so liegt, dass die Summe der roten Striche im Bild so klein wir moglich ist. Das Verfahren
liefert eine Regressionsgerade, wobei nur die y-Werte fehlerbehaftet sind (s. Abb. 10.2 links).
Von nun an wollen wir uns hingegen mit dem Total Least Squares Verfahren beschaftigen.
Bei diesem Verfahren sind alle Variablen fehlerbehaftet, aber daf
ur liefert es bessere
Geraden. Es wurde 1989 von Golub und VanLoan entwickelt. Im Unterschied zur linearen
Regression wird nicht der Abstand von Datenpunkt zur Gerade parallel zur y-Achse,
sondern der senkrechte Abstand aller Datenpunkte zur Gerade minimiert (s. Abb. 10.2
rechts).

209

KAPITEL 10. ANWENDUNGEN

10.2. TOTAL LEAST SQUARES REGRESSION

Abbildung 10.2.: Eine durch lineare Regression gewonnende Gerade minimiert den Abstand
der Datenpunkte zur Gerade parallel zur y-Achse (links). Bei dem Total
Least Squares-Verfahren wird der senkrechte Abstand minimiert (rechts).

Definition 10.2.1 Soll in einer Ebene eine Gerade gefunden werden, die zu einer gegebenen Menge von Punkten die Summe der quadratischen Distanzen minimiert, nennen
wir die Methode zur Bestimmung dieser Geraden Total Least Squares Regression
(TLS).
Wir bezeichnen in diesem Abschnitt mit h, i immer das Standardskalarprodukt
auf dem
p
n
2
2
R und mit kk die euklidische Norm, das heit k(x1 , . . . , xn )k = x1 + + xn .
Zunachst wollen wir Gerade in einer Form angeben, die f
ur unser Problem besser geeignet
ist als die u
bliche Darstellung y = mx + c. Um auch den Fall von Geraden, die parallel zur
y-Achse sind einzuschlieen schreiben wir
` = {(x , y)> R2 | rx + sy = c}
mit vorgegebenen Parametern r, s, c R.
Wir nehmen an, dass der Punkt P0 = (x0 , y0 ) auf der Gerade rx + sy c = 0 liegen soll.
Daraus folgt, dass f
ur die Konstante c gelten muss c = rx0 + sy0 . Durch Einsetzen konnen
wir die Geradengleichung umformulieren in die Form
rx + sy (rx0 + sy0 ) = r(x x0 ) + s(y y0 ) = 0.
Der Punkt P0 heit Aufpunkt der Gerade und der Vektor (r , s) R2 heit Normalenonnen die Geradengleichung auch mithilfe des Skalarprodukts
vektor der Gerade. Wir k
formulieren:

 
  


x
x x0
r
2
`=
R
,
=0 .
y
y y0
s
Der Normalenvektor ist also senkrecht zu Vektoren der Form (x x0 , y y0 )> , wobei
(x, y)> `.
Sei P = (
x, y) ein beliebiger Punkt von dem wir den Abstand zur Gerade ` berechnen
wollen. Der k
urzeste Abstand zur Gerade ist der senkrechte Abstand, den wir hier mit

dist(P , `) bezeichnen wollen.

210

KAPITEL 10. ANWENDUNGEN

10.2. TOTAL LEAST SQUARES REGRESSION

P
v
`
P0
P`

 
r
s
Um diesen Abstand zu bestimmen, betrachten wir das Dreieck mit den Eckpunkten P0 , P
und dem Punkt P` auf ` der den k
urzesten Abstand zu P hat. Der Winkel an P wird mit
bezeichnet.
Um eine Formel f
ur dist(P , `) zu bestimmen, berechnen wir den Cosinus des Winkels
auf zwei verschiedenen Arten.

Einerseits verwenden wir die Definition des Offnungswinkel


9.2.9 zwischen den Vektoren
>
>
v = (
x x0 , y y0 ) und dem Normalenvektor (r, s) (die rote gestrichelte Linie ist
senkrecht zu ` und ist daher ein Vielfaches des Normalenvektors).
  
 p
x
x0
r
,
= r2 + s2 kvk cos .
(10.5)
s
y y0
Andererseits benutzen wir die aus der Schule bekannte Formel, dass der Cosinus durch den
Quotienten Ankatete durch Hypothenuse gegeben ist. Somit erhalten wir
cos =

dist(P , `)
.
kvk

(10.6)

Dies nutzen wir um den Abstand von P zur Gerade ` zu bestimmen:


dist(P , `)
kvk
= kvk cos
p
1
=
r2 + s2 kvk cos
r 2 + s2
  

1
r
x
x0
=
,
s
y y0
r 2 + s2

1
=
r(
x x0 ) + s(
y y0 )
r 2 + s2

dist(P , `) = kvk

kvk
kvk
| Gleichung (10.6)

r 2 + s2
| Einf
ugen von
r 2 + s2
| Einf
ugen von

| Gleichung (10.5)
| Berechnen des Skalarprodukts

211

KAPITEL 10. ANWENDUNGEN

10.2. TOTAL LEAST SQUARES REGRESSION

Definition 10.2.2 Sei P = (


x, y) R2 ein Punkt in der Ebene und ` eine Gerade mit
Aufpunkt P0 = (x0 , y0 ) und Normalenvektor (r, s)> , dann definieren wir den quadratischen Abstand von P zur Gerade durch
(r(
x x0 ) + s(
y y0 ))2
.
2
2
r +s

e(r, s, P0 , P ) =

Seien n Datenpunkte gegeben durch P1 = (x1 , y1 ), . . . , Pn = (xn , yn ), dann bezeichnen


wir die Summe der quadratischen Abstande mit
D(r, s, P0 , P1 , . . . , Pn ) =
=

n
X

e(r, s, P0 , Pi )

i=1
n
X
i=1

2
r(xi x0 ) + s(yi y0 )
.
r 2 + s2

(10.7)

Wir wollen nun eine TLS-Methode finden. Das heit wir suchen eine Methode mit
der wir einen Punkt P0 und die Geradenparameter r, s so bestimmen konnen, dass
D(r, s, P0 , P1 , . . . , Pn ) zu einem vorgegebenen Satz von Daten P1 , . . . , Pn minimal wird.
Dazu vereinfachen wir schrittweise das Problem. Der erste Schritt wird sein, dass wir f
ur
eine gegebene Punktwolke Pi einen Punkt P0 fixieren, der nur von den Datenpunkten
abhangt und der D f
ur jeden vorgegebenen Normalenvektor minimiert.
Lemma 10.2.3 Seien P1 , . . . , Pn R2 Datenpunkte. Wir definieren den Punkt
P = (
x, y), wobei x
das arithmetische Mittel der x Werte der Daten und y das arithmetische Mittel der y Werte der Daten ist, das heit
n

x
=

1X
xi
n

und

i=1

y =

1X
yi .
n
i=1

Sei nun P0 ein beliebiger weiterer Punkt und (r, s)> der Normalenvektor einer Gerade.
Dann gilt
D(r, s, P0 , P1 , . . . , Pn ) D(r, s, P , P1 , . . . , Pn ).
Dabei gilt Gleichheit, wenn P0 = P . Das bedeutet, dass die Gerade, die D minimiert,
durch P gehen muss.
Beweis. Wir bezeichnen mit w = (w1 , . . . , wn )> Rn und z = (z1 , . . . , zn )> Rn Vektoren,
deren Komponenten durch
wi = r(xi x0 ) + s(yi y0 )

bzw.

zi = r(xi x
) + s(yi y)

(10.8)

gegeben sind. Dann k


onnen wir die Summe der quadratischen Abstande (s. Gl. (10.7))
mithilfe der Norm dieser Vektoren formulieren
D(r, s, P0 , P1 , . . . , Pn ) =

kwk2
r 2 + s2

und D(r, s, P , P1 , . . . , Pn ) =

kzk2
.
r 2 + s2

(10.9)

212

KAPITEL 10. ANWENDUNGEN

10.2. TOTAL LEAST SQUARES REGRESSION

Sei nun auerdem e := (1, . . . , 1)> Rn und h := r(


x x0 ) + s(
y y0 ) R. Dann gilt f
ur
die i-te Komponente von w
wi = r(xi x0 ) + s(yi y0 )
= r(xi x
+x
x0 ) + s(yi y + y y0 )
= r(xi x
) + s(yi y) + r(
x x0 ) + s(
y y0 )
= zi + h = z i + h 1
und somit f
ur den Vektor
w = z + he.

(10.10)

Nun bemerken wir, dass die Vektoren z und e orthogonal zueinander sind, denn es gilt
hz, ei =
=

n
X
i=1
n
X

zi 1

| Definition Standardskalarprodukt

(r(xi x
) + s(yi y))

| Definition zi (10.8)

i=1
n
X

=r
=r

(xi x
) + s

i=1
n
X

n
X

(yi y)

| Distributiv- und Assoziativgesetz

i=1

!
xi n
x

i=1

+s

n
X

!
yi n
y

| n-fache Summe von einer Zahl

i=1

=r0+s0=0

| Definition des arithmetischen Mittels.

Aufgrund dieser Eigenschaft k


onnen wir den Satz von Pythagoras (9.2.10) f
ur das Quadrat
der Norm kz + h ek2 verwenden und erhalten die Abschatzung
1
kwk2
r 2 + s2
1
= 2
kz + hek2
r + s2

1
= 2
kzk2 + h2 kek2
2
r +s
1
h2
2
= 2
kzk
+
n
r + s2
r 2 + s2

D(r, s, P0 , P1 . . . , Pn ) =

= D(r, s, P , P1 , . . . , Pn ) +

h2 n
r 2 + s2

D(r, s, P , P1 , . . . , Pn )

| Gleichung (10.9)
| Gleichung (10.10)
| Satz von Pythagoras
| he, ei = 12 + + 12 = n
| Gleichung (10.9)
| n 1 und Quadrate sind positiv.

Wir kennen nun ein P0 , das D minimiert, anders formuliert kennen wir den Aufpunkt der
Geraden. Es fehlen uns daher noch die Parameter r, s, dass heit der Normalenvektor der
Geraden. Dieser ergibt sich aus der Betrachtung der folgenden Matrix.
Definition 10.2.4 Seien P1 = (x1 , y1 ), . . . , Pn = (xn , yn ) Datenpunkte mit arithmetischen Mittelwerten x
und y, dann definieren wir die Datenmatrix M MatR (n, 2)
als

x1 x
y1 y

.. .
M := ...
.
xn x
yn y

213

KAPITEL 10. ANWENDUNGEN

10.2. TOTAL LEAST SQUARES REGRESSION

Lemma 10.2.5 Der Rang der Datenmatrix M zu n Datenpunkten ist genau dann
kleiner als 2, wenn die Datenpunkte auf einer Geraden liegen.
Beweis. Es gilt rang M = 0 genau dann, wenn M die Nullmatrix ist, und dies bedeutet,
dass x1 = = xn = x
und y1 = = yn = y ist, also alle Datenpunkte gleich sind und
somit insbesondere auf einer Geraden liegen.
Es gilt rang M = 1 genau dann, wenn es reelle Zahlen r, s R gibt, sodass f
ur alle
i = 1, . . . , n gilt: r(xi x
) = s(yi y). Aber das ist gleichbedeutend mit der Tatsache, dass
alle Datenpunkte auf der Gerade ` = {(x, y)> R2 | r(x x
) + s(y y) = 0} liegen.
Proposition 10.2.6 Sei M MatR (n, 2) die Datenmatrix zu den Daten P1 , . . . , Pn
und sei v = r21+s2 (r, s) ein Vektor der Lange 1. Wir betrachten die lineare Abbildung
f : R2 Rn
v 7 f (v) = M v.
Dann gilt

D(r, s, P , P1 , . . . , Pn ) = kM vk2 .

Beweis. Dies k
onnen wir direkt nachrechnen:
D(r, s, P , P1 , . . . , Pn ) =

n
X
(r(xi x
) + s(yi y))2

r 2 + s2
2

x1 x
y1 y
 


r

.. 1
= ...

.
2 + s2 s

r
xn x

yn y
i=1

= kM vk2 .
Wir wissen jetzt, dass D minimal wird, wenn wir einen Vektor v der Lange eins so wahlen,
dass die Norm unserer Datenmatrix M multipliziert mit v minimal wird. Aber wie konnen
wir das Minimum nun berechnen und damit die gesuchte Gerade finden?
Satz 10.2.7 Seien P1 , . . . , Pn Datenpunkte und M die zugehorige Datenmatrix.
D(r, s, P , P1 , . . . , Pn ) wird minimal an jedem Eigenvektor v = r21+s2 (r, s) zum kleinsten
Eigenwert der Matrix M > M .

Beweis. Wir wissen, dass M > M R22 eine symmetrische Matrix mit nicht-negativen
Eigenwerten ist (s. Bew. zu Satz 9.5.2). Diese Eigenwerte sind sogar alle positiv, da
wir aufgrund von Lemma 10.2.5 annehmen konnen, dass rang(M > M ) = rang M = 2 ist.

214

KAPITEL 10. ANWENDUNGEN

10.2. TOTAL LEAST SQUARES REGRESSION

Die Hauptachsentransformation (s. Kor. 9.4.7) besagt nun, dass es eine Orthonormalbasis
{u, w} des R2 gibt, so dass f
ur die Matrix U = (u w) gilt
M > M = U Diag(, )U > .
1
> ein Vektor der L
Sei v = r2 +s
ange 1, dann konnen wir aufgrund von Proposition
2 (s, r)
10.2.6 die Summe der quadratischen Abstande zur Gerade durch P mit Normalenvektor v
in folgender Form schreiben:

D(r, s, P , P1 , . . . , Pn ) = kM vk2
= (M v)> (M v) = v > M > M v
= v > U diag(, )U > v
= (U > v)> diag(, )(U > v)

 > 
 0
(U v)1
>
>
= (U v)1 (U v)2
0
(U > v)2
= (U > v)21 + (U > v)22 .
Hier bezeichnen wir mit (U > v)i die i-te Komponente des Vektors U > v R2 .
Wir wissen, dass aufgrund der Definition von v gilt: kvk = 1. Da U und somit auch U >
eine orthogonale Matrix ist,
andert das Anwenden die Lange nicht und es gilt kU > vk = 1.
Somit erhalten wir die Beziehung zwischen den beiden Komponenten des Vektors U > v
(U > v)21 + (U > v)22 = 1.

(10.11)

Insbesondere gilt also 0 (U > v)21 1 und 0 (U > v)22 1.


Um besser zu sehen, wie wir das Minimum von D(r, s, P , P1 , . . . , Pn ) finden konnen,
schreiben wir t f
ur das Quadrat der ersten Komponente t = (U > v)21 und aufgrund von
(10.11) ist das Quadrat der zweiten Komponente dann (U > v)22 = 1 t.
Wollen wir nun Ausdruck
(U > v)21 + (U > v)22 = t + (1 t) =: g(t)

(10.12)

minimieren, m
ussen wir die Funktion g(t) = ( )t + f
ur ein t aus dem Intervall [0, 1]
minimieren.
Ist = , dann ist g(t) = konstant und das Minimum wird f
ur jedes t [0, 1] angenommen.
Dies bedeutet, dass jeder Vektor der Lange eins D minimiert. F
ur eine diagonalisierbare
2 2 Matrix mit einem Eigenwert der Vielfachheit 2, ist aber auch jeder Vektor Eigenvektor
zu dem einzigen (und somit kleinstem) Eigenwert der Matrix M > M .
Sei also > , dann ist g(t) eine Gerade mit positivem Anstieg. Diese nimmt bei t = 0
ihr Minimum an. Daraus folgtnun, dass (10.12) nur dann minimal werden kann,
wenn die

>
>
erste Komponente (U v)1 = t = 0 und die zweite Komponente (U v)2 = 1 t = 1 ist.
Da {u, w} eine Orthonormalbasis des R2 ist, ist dies genau dann der Fall, wenn wir v = u
den Eigenvektor zum kleineren Eigenwert von M wahlen. F
ur diesen Vektor gilt
(U > u)1 = hw, ui = 0

und

(U > u)2 = hu, ui = 1,

da die erste Zeile von U > der Vektor w ist und die zweite Zeile der Vektor u.
Somit erhalten wir f
ur v = u
D = kM uk = (U > u)21 + (U > u)22 = 0 + 1 = .

215

KAPITEL 10. ANWENDUNGEN

10.3. CODIERUNGSTHEORIE

Wir konnen nun im R2 die Gerade finden, die die Summe der quadratischen Fehler D
minimiert, indem wir den Mittelwert der Punktwolke als Aufpunkt und den Eigenvektor
zum kleinsten Eigenwert von M > M als Richtungsvektor wahlen.

10.3. Codierungstheorie
Auch wenn der Begriff Codierungstheorie zunachst recht allgemein klingen mag, verstehen
wir darunter die Theorie der fehlererkennenden und fehlerkorrigierenden Codes.

Wir wollen also Codes konstruieren, die daf


ur sorgen, dass Fehler, die beim Ubertragen

von Daten auftreten, erkannt werden (um dann eine erneute Ubertragung
zu veranlassen)

oder sogar korrigiert werden (wenn eine erneute Ubertragung nicht moglich ist).

Anwendung findet die Codierungstheorie beim Ubertragen


von Daten u
ber WLAN, Kabel,
Funk, etc. aber auch beim Lesen von Datentragern, Scannen von Artikeln im Supermarkt,
Kontonummern (IBAN), usw.
Das Grundprinzip der Codierungstheorie besteht darin zu den zu u
bertragenden Daten

Redundanz hinzuzuf
ugen, die es erlaubt Ubertragungsfehler
zu erkennen oder zu korrigieren.
Das Prinzip l
asst sich schematisch so zusammenfassen:
Quellwort Codieren Codewort Kanal empfangenes Wort Decodieren

St
orung
w
c
c

Quellwort
w

Bei einer geeignet gew


ahlten Codierung sollte nun idealerweise w
= w sein.
Definition 10.3.1 Ein Alphabet ist eine endliche Menge A bestehend aus Zeichen.
Ein Wort w der L
ange n ist ein Element w An .
Wir werden im folgenden den K
orper Fp als Alphabet betrachten, wobei in Anwendungen
F2 = {0, 1} besonders wichtig ist.
Definition 10.3.2 Ein Blockcode ist eine injektive Abbildung
C : Fkp Fnp .
Dabei werden die Elemente aus Fkp als Quellw
orter und die Elemente aus dem Bild
C(Fkp ) Fnp als Codewo
rter
bezeichnet.

Ist die Abbildung C : Fkp Fnp zus


atzlich linear, dann handelt es sich um einen linearen
Code.
Ein Blockcode ordnet also Quellw
ortern der Lange k Codeworter der Lange n zu.
Aufgrund der Injektivit
at der Abbildung C gibt es genauso viele Codeworter, wie Quellworter
und zwar genau pk . W
are die Abbildung C nicht injektiv, dann ware es unmoglich korrekt
zu decodieren.
Bemerkung 10.3.3 In einigen B
uchern wird nicht die Abbildung C, sondern die Bildmenge C(Fkp ) Fnp (die bei linearen Codes ein Untervektorraum ist) als Code bezeichnet.

216

KAPITEL 10. ANWENDUNGEN

10.3. CODIERUNGSTHEORIE

Wir werden im folgenden sehen, wie man gute Codes konstruieren kann. Daf
ur m
ussen wir
zunachst kl
aren, was eigentlich ein guter Code ist. Und dazu benotigen wir Eigenschaften
mit denen wir einen Code beschreiben konnen.
Aufgrund der Injektivit
at der Abbildung C : Fkp Fnp sind k Zeichen eines Codewortes
informationstragend, wohingegen die restlichen n k Zeichen zur Kontrolle dienen, also
redundant sind.
Definition 10.3.4 Sei C : Fkp Fnp ein Blockcode, dann nennen wir den Quotienten
k/n Informationsrate des Codes.
Je groer die Informationsrate eines Codes ist, um so groer ist der Anteil der Zeichen eines
Codewortes, die Information enthalten. Das bedeutet, dass wenig Redundanz hinzugef
ugt
wurde.
Die wichtigste Eigenschaft eines Codes ist wie viele Fehler er erkennen und korrigieren
kann. Wir wollen dies hier zun
achst heuristisch definieren um es dann spater mathematisch
praziser zu fassen.
Ein Blockcode C : Fkp Fnp heit t-fehlererkennend, wenn aus jedem Codewort c durch

das Andern
von maximal t Stellen kein anderes Codewort entsteht. Passieren also beim

Ubertragen eines Codewortes maximal t Fehler, dann halten wir das empfangene Wort c
nicht f
ur ein Codewort.

Der Code heit t-fehlerkorrigierend, wenn ein Wort c Fnp , dass durch das Andern
von
maximal t Stellen aus einem Codewort c entsteht, aus allen anderen Codewortern nur

durch das Andern


von mindestens t + 1 Stellen entstehen kann.
Das Ziel der Codierungstheorie besteht nun darin Codes zu entwerfen, die
1. eine hohe Informationsrate haben,
2. moglichst viele Fehler erkennen oder korrigieren konnen und
3. einen effizienten Decodieralgorithmus besitzen.
Betrachten wir zun
achst einige Beispiele.

Beispiel 10.3.5 Die einfachste Methode um Fehler beim Ubertragen


von Daten zu
erkennen/korrigieren besteht darin die Nachricht mehrfach zu u
bertragen.
Wir
betrachten

2
hier den Raum der Quellw
orter F2 und betrachten den Verdopplungcode.
C 2 : F22 F42
(0, 0) 7 (0, 0, 0, 0)
(1, 0) 7 (1, 0, 1, 0)
(0, 1) 7 (0, 1, 0, 1)
(1, 1) 7 (1, 1, 1, 1)
Senden wir das Codewort (0, 0, 0, 0) und empfangen (1, 0, 0, 0), dann wissen wir, dass

(mindestens) ein Fehler bei der Ubertragung


passiert sein muss, aber wir konnen ihn

217

KAPITEL 10. ANWENDUNGEN

10.3. CODIERUNGSTHEORIE

nicht korrigieren, da das gesendete Wort sowohl (0, 0, 0, 0) als auch (1, 0, 1, 0) gewesen
sein kann. Passieren zwei Fehler dann kann es sein, dass wir (1, 0, 1, 0) empfangen und
nicht bemerken, dass ein Fehler passiert ist.
Der Verdopplungscode ist somit 1-fehlererkennend und 0-fehlerkorrigierend und hat eine
Informationsrate von 2/4 = 1/2.
Nun betrachten wir den Verdreifachungscode:
C 3 : F22 F62
(0, 0) 7 (0, 0, 0, 0, 0, 0)
(1, 0) 7 (1, 0, 1, 0, 1, 0)
(0, 1) 7 (0, 1, 0, 1, 0, 1)
(1, 1) 7 (1, 1, 1, 1, 1, 1)
Empfangen wir das Wort c = (1, 0, 0, 0, 0, 0) dann wissen wir, dass ein Fehler bei der

Ubertragung
passiert sein muss und konnen das Wort zu c = (0, 0, 0, 0, 0, 0) korrigieren,

da c aus c durch einen Ubertragungsfehler


entstanden sein kann. Aus allen anderen
Codewortern ist c durch 2 oder mehr Fehler entstanden, also ist dies unwahrscheinlicher.
Passieren hingegen zwei Fehler, so dass wir zum Beispiel c = (1, 0, 1, 0, 0, 0) empfangen,
dann erkennen wir immer noch, dass Fehler passiert sind, aber wir korrigieren c zu
c = (1, 0, 1, 0, 1, 0), da uns dies wahrscheinlicher erscheint. Bei drei Fehler kann es sein,
dass wir nicht bemerken, ob ein Fehler passiert ist.
Der Verdreifachungscode ist somit 2-fehlererkennend und 1-fehlerkorrigierend und hat
eine Informationsrate von 2/6 = 1/3.

Beispiel 10.3.6 Die ISBN (Internationale Standardbuchnummer) wird zur eindeutigen


Kennzeichnung von B
uchern verwendet. Die ISBN-10 (Veroffentlichungen bis 2006) hat
die Form
a1 a2 a3 a4 a5 a6 a7 a8 a9 p

wobei ai {0, 1, . . . , 9}, p {0, 1, . . . , 9, X}

Dabei steht a1 f
ur das Herkunftsland, a2 a3 a4 f
ur den Verlag und a5 a6 a7 a8 a9 f
ur das
Buch. Die Zahl p ist eine Pr
ufziffer, die verwendet wird um Fehler beim Scannen oder
Abtippen der ISBN zu erkennen.
Eine g
ultige ISBN entsteht, wenn die Pr
ufziffer p wird so gewahlt, dass gilt:
10a1 + 9a2 + 8a3 + 7a4 + 6a5 + 5a6 + 4a7 + 3a8 + 2a9 + p 0

mod 11,

das bedeutet, dass sich p durch folgende Formel berechnet:


p=

10
X
i=1

(11 i)ai

10
X
i=1

(i)ai

10
X

iai

mod 11.

i=1

Dabei ist p {0, 1, . . . , 8, 9, 10}, wobei statt 10 ein X geschrieben wird.

218

KAPITEL 10. ANWENDUNGEN

10.3. CODIERUNGSTHEORIE

Die ISBN ist somit ein linearer Code, wobei die Abbildung wie folgt aussieht:
C : F911 F10
11
a = (a1 a2 a3 a4 a5 a6 a7 a8 a9 ) 7 (a,

9
X

iai ).

i=1

Um zu pr
ufen, ob eine Zahl a = a1 a2 a3 a4 a5 a6 a7 a8 a9 a10 , wobei wir jetzt a10 f
ur die
Pr
ufziffer p schreiben, eine korrekte ISBN ist, gen
ugt es nun zu u
ufen, ob gilt:
berpr
P (a) =

10
X

(11 i)ai 0

mod 11.

(10.13)

i=1

Wir wollen zeigen, dass die ISBN sowohl eine falsch eingegebene Ziffer erkennt (also
1-fehlererkennend ist), als auch das Vertauschen von zwei Ziffern.
Sei a = a1 a2 a3 a4 a5 a6 a7 a8 a9 a10 eine korrekte ISBN. Wir nehmen an, dass an der k-ten
Stelle statt ak ein Wert a
k {0, 1, . . . , 9, X} mit a
k =
6 ak , u
bertragen wurde. Wir wollen
zeigen, dass a
= a1 . . . ak1 a
k ak+1 . . . a10 keine korrekte ISBN ist. Daf
ur m
ussen wir
zeigen, dass P (
a) 6 0 mod 11. Aufgrund von Gleichung (10.13) andert die Subtraktion
von P (a) nicht die Restklasse von P (
a) modulo 11
P (
a) P (
a) P (a)

mod 11

(11 k)
ak (11 k)ak
k(ak a
k )

mod 11

mod 11.

Da F11 ein K
orper ist und somit insbesondere nullteilerfrei, ist diese Gleichung
genau dann null, wenn (ak a
k ) 0 mod 11, da k {1, 2, . . . , 10} und somit
k 6 0 mod 11. Aber (ak a
k ) 0 mod 11 ist nur dann moglich, wenn ak = a
k
im Wiederspruch zur Annahme. Also ist P (
a) 6 0 mod 11 und a
ist keine korrekte ISBN.
Sei a = a1 a2 a3 a4 a5 a6 a7 a8 a9 a10 wieder eine korrekte ISBN, d.h. es gilt (10.13). Wir

nehmen an, dass bei der Ubertragung


der Wert von zwei Stellen vertauscht wurde,
also dass der Wert an der k-ten Stelle mit dem an der k + l-ten vertauscht wurde. Es
wurde also die ISBN a
= a1 . . . ak1 ak+l ak+1 ak+2 . . . al1 ak al+1 a10 empfangen, wobei
ak 6= ak+l ist. Besonders h
aufig kommt beim Abtippen durch Menschen das vertauschen
benachbarter Stellen vor. Wir wollen zeigen, dass a
keine korrekte ISBN ist. Daf
ur
m
ussen wir zeigen, dass P (
a) 6 0 mod 11. Aufgrund von Gleichung (10.13) andert die
Subtraktion von P (a) nicht die Restklasse modulo 11
P (
a) P (
a) P (a)

mod 11

(11 k)ak+l + (11 (k + l))ak (11 k)ak + (11 (k + l))ak+l


kak+l (k + l)ak + kak + (k + l)ak+l
l(ak+l ak )

mod 11

mod 11

mod 11

Aus der Nullteilerfreiheit von F11 folgt hier wieder, dass dies nur null wird, wenn
ak+l ak mod 11. Also ist P (
a) 6 0 mod 11.

Andert
man 2 Stellen unabh
angig voneinander ab, dann kann man hingegen eine korrekte
ISBN erhalten. Ist zum Beispiel a5 = 2 und a6 = 3, dann ist 6a5 + 5a6 = 12 + 15 = 27 6
mod 11. Wir erhalten dasselbe Ergebnis f
ur a
5 = 1 und a
6 = 0, da 6
a5 + 5
a6 = 6 + 0 6
mod 11. Die ISBN ist daher 1-fehlererkennend und hat eine Informationsrate von 10/11.

219

KAPITEL 10. ANWENDUNGEN

10.3. CODIERUNGSTHEORIE

Beispiel 10.3.7 Ein weiteres Beispiel ist der (7, 4)-Hammingcode, der durch folgende
Vorschrift definiert ist:
C : F42 F72
(s1 , s2 , s3 , s4 ) 7(s1 , s2 , s3 , s4 , t1 , t2 , t3 )
t1 = s2 + s3 + s4
t2 = s1 + s3 + s4
t3 = s1 + s2 + s4

s2

t1
s3

s4

t3
s1

t2

Diese Vorschrift l
asst sich gut mithilfe von drei sich u
berlappenden Kreisen veranschaulichen. Die vorgegebenen informationstragenden Bits s1 , s2 , s3 , s4 F2
werden in den Bereichen eingetragen, in denen sich die Kreise u
berlappen. Die
Kontrollbits t1 , t2 , t3 m
ussen so bestimmt werden, dass die Summe aller Werte in einem Kreis gleich null ist (Da wir den Code u
ber dem Alphabet F2 betrachten ist 1 = 1.)
Haben wir das Quellwort w = (1, 0, 0, 0) F42 , dann befinden sich
in dem Kreis in dem t1 steht nur Nullen, so dass mit t1 = 0 die
Summe der Werte in diesem Kreis null ist. In den anderen beiden
Kreisen steht jeweils eine 1, sodass mit t2 = t3 = 1 Summe der
Werte in diesem Kreis null ist. Das zu u
bertragende Codewort
ist daher c = (1, 0, 0, 0, 0, 1, 1) F72 .

0
1

1
1

0
1

1
1

1
1

0
0

0
0

1
1

Passiert bei der Ubertragung


ein Fehler, dann konnen wir diesen
Fehler korrigieren. Empfangen wir zum Beispiel die Nachricht
c = (1, 0, 1, 0, 0, 1, 1) F72 , dann sehen wir, dass sowohl in dem
unteren, als auch in dem linken Kreis die Summe der Eintrage
nicht null ist. Der einzige Eintrag an dem sich diese beiden Kreise
u
berlappen, aber nicht der rechte Kreis, ist dort, wo der Fehler

passiert ist. Durch Andern


dieses Eintrags erhalten wir daher das
gesendete Codewort.

Passieren allerdings bei der Ubertragung


zwei Fehler, dann
k
onnen wir dies erkennen, aber nicht korrigieren. Empfangen
wir zum Beispiel die Nachricht c = (1, 0, 1, 0, 0, 0, 1) F72 , dann
ist nur in dem linken Kreis die Summe der Eintrage nicht null.
Wir haben also erkannt, dass ein Fehler passiert sein muss.

Durch Andern
des Eintrags t1 konnen wir nun die Summe in
diesem Kreis wieder zu null machen. Dadurch erhalten wir das
g
ultige Codewort c = (1, 0, 1, 0, 1, 0, 1) F72 , allerdings nicht das
urspr
unglich u
bertragende.

1
1

Wir sehen an diesen Beispielen, dass der (7, 4)-Hammingcode


1-fehlerkorrigierend und 2-fehlererkennend ist. Seine Informationsrate ist 4/7. Er kann also genauso viele Fehler erkennen
und korrigieren, wie der Verdreifachungscode, hat aber eine viel
bessere Informationsrate.

220

KAPITEL 10. ANWENDUNGEN

10.3. CODIERUNGSTHEORIE

Nach diesen Beispielen wollen wir nun die Begriffe fehlererkennend und fehlerkorrigierend
mathematisch pr
azise definieren. Daf
ur definieren wir uns eine f
ur das Problem geeignete
Abstandsfunktion.
Definition 10.3.8 Seien v = (v1 , . . . , vn ), w = (w1 , . . . , wn ) Fnp , dann ist der
Hamming-Abstand der W
orter v und w die Anzahl der Stellen an denen sich v
von w unterscheidet
d(v, w) := #{i | vi 6= wi }.
Das Gewicht eines Wortes v Fnp ist sein Hamming-Abstand zum Nullvektor
w(v) := d(v, 0) = #{i | vi 6= 0}.

Proposition 10.3.9 Der Hamming-Abstand ist eine Metrik, das heit es gilt
i) d(v, w) 0 f
ur alle v, w Fnp
ii) d(v, w) = 0 genau dann, wenn v = w
iii) d(v, w) = d(w, v) f
ur alle v, w Fnp
iv) d(u, w) d(u, v) + d(v, w) f
ur alle u, v, w Fnp

Beweis.

i) Per Definition ist d(v, w) eine Anzahl und somit nichtnegativ.

ii) d(v, w) = 0 heit, dass vi = wi f


ur alle i = 1, . . . , n, aber dies ist gleichbedeutend mit
v = w.
iii) Die Symmetrie folgt direkt aus der Definition, da vi 6= wi , genau dann, wenn wi =
6 vi .
iv) Um die Dreiecksungleichung zu zeigen beschranken wir uns zunachst auf das Alphabet
F2 .Wir nehmen an, dass sich die Worter u und w an den ersten a = d(u, w) Stellen
unterscheiden und an den anderen gleich sind. Das Wort v ist an b der ersten a Stellen
gleich u und unterscheidet sich an c der Stellen an denen u und w gleich sind von u.

u
w
v

z
x x
o o
x x
| {z
b

a
}|
x x
o o
x o
}

{
x
o
o

x x
x x
o o
| {z
c

x
x
o
}

x
x
x

x
x
x

x
x
x

Somit ist d(v, w) = b + c und d(u, v) = a b + c, wodurch sich


d(u, v) + d(v, w) = (a b + c) + (b + c) = a + 2c a = d(u, w).
Betrachten wir einen beiliebigen Korper Fp , dann kann es sein, dass sich die Vektoren
u und v noch an mehr Stellen unterscheiden, also die Dreiecksungleichung trotzdem
gilt.

221

KAPITEL 10. ANWENDUNGEN

10.3. CODIERUNGSTHEORIE

Definition 10.3.10 Sei v Fnp und r N, dann heit


Br (v) := {x Fnp | d(x, v) r}
Kugel vom Radius r um den Mittelpunkt v.

Definition 10.3.11 Sei C : Fkp Fnp ein Code, dann ist der Minimalabstand dieses
Codes definiert durch
d = d(C) = min{d(c, c0 ) | c, c0 C(Fkp ), c 6= c0 }.
Wir schreiben dann [n, k, d]Code.

Proposition 10.3.12 Ist C : Fkp Fnp ein linearer Code, dann ist sein Minimalabstand
gleich dem Minimum der Gewichte der nichttrivialen Codeworter
d(C) = min{w(c) | c C(Fkp ), c 6= 0}.

Beweis. Wenn C ein linearer Code ist, dann ist f


ur je zwei Codeworter c = C(w), c0 = C(w0 )
0
0
auch ihre Differenz c c = C(w w ) ein Codewort. Da aber gilt
d(c, c0 ) = #{i | ci 6= c0i } = #{i | ci c0i 6= 0} = d(c c0 , 0) = w(c c0 )
erhalten wir die Aussage.
Definition 10.3.13 Ein Code C : Fkp Fnp heit t-fehlererkennend, wenn gilt
d(C) t + 1.
Ein Code C : Fkp Fnp heit t-fehlerkorrigierend, wenn gilt
d(C) 2t + 1.

Proposition 10.3.14 Wenn C : Fkp Fnp t-fehlererkennend ist, dann liegt in jeder
Kugel Bt (c), wobei c C(Fkp ) ein Codewort ist kein weiteres Codewort.
Beweis. Sei c0 C(Fkp ) ein Codewort c0 6= c. Ware c0 Bt (c), dann ware d(c, c0 ) t im
Widerspruch zur Minimaldistanz von d(C) t + 1.

222

KAPITEL 10. ANWENDUNGEN

10.3. CODIERUNGSTHEORIE

Durch das Andern


von t Zeichen eines Codewortes c erhalten wir ein Wort c f
ur das
d(c, c) = t gilt. Somit ist c kein Codewort und wir erkennen, dass Fehler passiert sein
m
ussen.
Proposition 10.3.15 Wenn C : Fkp Fnp t-fehlerkorrigierend ist, dann gilt:
i) F
ur jedes Wort v Fnp gibt es hochstens ein Codewort c C(Fkp ), so dass d(v, c) t
gilt.
ii) Die Kugeln Bt (c), wobei c C(Fkp ) ein Codewort ist, sind paarweise disjunkt.
Beweis.
i) Angenommen v Fnp sei ein Wort f
ur das es zwei Codeworter c, c0 C(Fkp )
gibt, so dass d(v, c) t und d(v, c0 ) t gilt. Dann folgt daraus, dass
d(c, c0 ) d(c, v) + d(v, c0 ) = d(c, v) + d(c0 , v) t + t = 2t
gilt. Dies ist im Widerspruch zur Minimaldistanz von d(C) 2t + 1.
ii) Dies folgt direkt aus i)
Satz 10.3.16 (Singleton-Schranke)
F
ur einen [n, k, d]-Code gilt die Singleton-Schranke
k + d n + 1.

n(d1)

Beweis. F
ur jedes Codewort c C(Fkp ) Fnp bilden wir den Vektor c Fp
durch
n(d1)

Streichen der letzten d1 Stellen von c. Sei C Fp


die Menge aller c, die so entstanden
sind. Da sich je zwei Codew
orter an mindestens d Stellen unterscheiden, unterscheiden sich
je zwei Vektoren aus C an mindestens einer Stelle. Also haben die Mengen C(Fkp ) und C
gleich viele Elemente
#C = #C(Fkp ) = pk .
n(d1)
Andererseits ist C Fp
und kann daher maximal #C pn(d1) Elemente enhalten.
Daraus folgt
pk pn(d1) und somit k n d + 1.

Die Singletonschranke besagt, es nicht moglich ist sowohl die Informationsrate, als auch
den Minimalabstand eines Codes unabhangig voneinander beliebig zu vergroern (bei fest
vorgegebenen n). Es ist daher n
otig bei jeder Anwendung zu pr
ufen, welcher Aspekt im
Vordergrund steht und wie dementsprechend der Code entworfen werden muss.
Um die Frage nach einem effizienten Decodieralgorithmus zu klaren, betrachten wir von
nun an ausf
uhrlicher die linearen Codes. Sie haben den Vorteil, dass sie durch die Angabe
einer Matrix, eindeutig beschreiben konnen.
Definition 10.3.17 Sei C : Fkp Fnp , x 7 G x ein linearer Code, wobei
G MatFp (n, k), dann heit G Generatormatrix des Codes C.

223

KAPITEL 10. ANWENDUNGEN

10.3. CODIERUNGSTHEORIE

Bemerkung 10.3.18 In vielen B


uchern u
ber Codierungstheorie wird die Abbildung
C : Fkp Fnp , x> 7 x> G> = (Gx)> betrachtet, dass heit alle Worter werden als
liegende Vektoren aufgefasst. Dies a
ussen in
ndert nichts an der Theorie, allerdings m
allen Aussagen u
ber Matrizen die Zeilen und Spalten vertauscht werden.

Beispiel 10.3.19 Sei C : Fkp Frk


p , der r-fache Wiederholungscode, dann hat seine
Generatormatrix die Form

Ek )
..
G = . r-mal
Ek
Die Generatormatrix des ISBN-10-Codes ist die folgende
1
0

0
G=
0

0
1

0
1
0
0
0
0
0
0
0
2

0
0
1
0
0
0
0
0
0
3

0
0
0
1
0
0
0
0
0
4

0
0
0
0
1
0
0
0
0
5

0
0
0
0
0
1
0
0
0
6

0
0
0
0
0
0
1
0
0
7

0
0
0
0
0
0
0
1
0
8

0
0

0
.
0

1
9

Und die Generatormatrix des 7-4-Hammingcodes ist gleich

1 0 0 0
0 1 0 0

0 0 1 0

.
0
0
0
1
G=

0 1 1 1

1 0 1 1
1 1 0 1

Definition 10.3.20 Sei C : Fkp Fnp ein linearer Code mit Generatormatrix
G MatFp (n, k), dann gibt es eine Matrix H MatFp (n k, n), so dass
C(Fkp ) = Kern H = {c Fnp | H c = 0}.
Die Matrix H heit Kontrollmatrix des Codes C.
Wir wollen hier kurz erkl
aren, warum H die angegebene Groe haben muss. Da H auf
n
Vektoren aus dem Fp angewendet werden soll, muss sie zwangslaufig n Spalten haben und
entspricht einer linearen Abbildung Fnp Flp . Da der Kern von H gleich dem Bild von
C ist, also die Dimension k hat, folgt aus der Dimensionsformel, dass die Dimension des

224

KAPITEL 10. ANWENDUNGEN

10.3. CODIERUNGSTHEORIE

Bildes von H gleich n k ist. Also muss l n k sein. Man wahlt daher l = n k um die
kleinste Matrix mit den gew
unschten Eigenschaften zu haben.
Weiterhin ist zu beachten, dass die Matrix H nicht eindeutig ist.
Proposition 10.3.21 F
ur die Kontrollmatrix H muss gelten
H G = Onk,k .

Alle Generatormatrizen der bisher betrachteten Beispiele haben die spezielle Form bestehend
aus einer Einheitsmatrix und einer Matrix, die beschreibt wie die Redundanz berechnet
wird. Wir wollen f
ur diese Matrizen die Kontrollmatrizen angeben.

Proposition 10.3.22 Wenn die Generatormatrix, die Form G =

R MatFp (n k, k), dann hat H die Form R Enk .

Ek
R


hat, wobei

Beweis. Wir m
ussen nachrechnen


Ek
H G = R Enk .
R



= R Ek Enk R = Onk,k .

Beispiel 10.3.23 Die Kontrollmatrix der ISBN ist durch




H = 1 2 3 4 5 6 7 8 9 1 = 1 2 3 4 5 6 7 8 9 10
gegeben, da 1 10 mod 11. F
ur eine korrekte ISBN a F10
11 muss also gelten
H a=

10
X

iai 0

mod 11.

i=1

Dies entspricht genau der Funktion P (a) aus Beispiel 10.3.6.

Beispiel 10.3.24 Die Kontrollmatrix des (7, 4)-Hammingcodes


0 1 1 1 1 0
0
0 1 1 1

H = 1 0 1 1 0 1 0
= 1 0 1 1
1 1 0 1 0
0 1
1 1 0 1

ist durch

1 0 0
0 1 0
0 0 1

F
ur ein korrektes Codewort c = (s1 , s2 , s3 , s4 , t1 , t2 , t3 ) muss somit aufgrund der ersten
Zeile gelten: s2 + s3 + s4 + t1 = 0. Dies entspricht der Summe der Eintrage der linken
Kugel im Schema aus Beispiel 10.3.7. Die zweite Zeile der Kontrollmatrix entspricht der
unteren Kugel und die dritte Zeile der rechten.
F
ur den (7, 4)-Hammingcode war es durch die Betrachtung der Kugeln nicht nur moglich

zu erkennen, dass ein Fehler beim Ubertragen


aufgetreten ist, sondern auch an welcher
Stelle.

225

KAPITEL 10. ANWENDUNGEN

10.3. CODIERUNGSTHEORIE

Im Allgemeinen gibt es keine so anschauliche Darstellung eines Codes, aber f


ur lineare
Codes ist es dennoch m
oglich einen effizienten Decodieralgorithmus anzugeben. Daf
ur
m
ussen wir die sogenannten Syndrome betrachten.
Definition 10.3.25 Sei C : Fkp Fnp ein linearer Code mit Kontrollmatrix H. Dann
wird f
ur jedes Wort x Fnp der Vektor s = Hx Fnk
als Syndrom von x bez
uglich H
p
bezeichnet.

Lemma 10.3.26 Sei C : Fkp Fnp ein linearer Code mit Kontrollmatrix H. Wenn
c C(Fkp ) ein Codewort ist und e Fnp ein beliebiger Vektor, dann ist das Syndrom von
x = c + e gleich dem Syndrom von e.
Beweis. Wir rechnen nach
H x = H (c + e) = Hc + He = He,
wobei wir die Linearit
at der Matrix genutzt haben und dass per Definition Hc = 0 f
ur
Codeworter gilt.
Algorithmus 10.3.27 (Syndrom-Decodierung)

Sei C : Fkp Fnp ein linearer Code. Angenommen bei der Ubertragung
eines Codewortes
n
wurde der Vektor x Fp empfangen. Zur Decodierung gehen wir wie folgt vor:
1. Berechne das Syndrom s = Hx.
2. Bestimme den Vektor e Fnp mit minimalem Gewicht w(e) so dass He = s.
3. Berechne das Codewort c = x e
osung des LGS Gw = c um das Quellwort w zu erhalten.
4. Bestimme die eindeutige L
In der Praxis kann man nun alle Worter vom Gewicht w b d1
2 c und ihre Syndrome in
einer Liste speichern um so schnell den Fehlervektor zu bestimmen. Dabei ist d = d(C) die
Minimaldistanz des Codes.
Beispiel 10.3.28 Wir betrachten den (7, 4)-Hammingcode u
ber dem Korper F2 , dann
hat die Kontrollmatrix die Form

0 1 1 1 1 0 0
H = 1 0 1 1 0 1 0
1 1 0 1 0 0 1

Angenommen wir empfangen das Wort x> = 1 0 1 0 0 1 1 (s. Bsp. 10.3.7),

226

KAPITEL 10. ANWENDUNGEN

10.3. CODIERUNGSTHEORIE

dann berechnen wir das Syndrom



1
0


1
1
0 1 1 1 1 0 0

= 1

0
s = Hx = 1 0 1 1 0 1 0

0
0
1 1 0 1 0 0 1

1
1
Da d = 3 ist, ist dieser Code 1-fehlerkorrigierend. Wir suchen also jetzt ein Wort vom
Gewicht 1 mit Syndrom s. Ein Wort von Gewicht 1 ist einer der Standardbasisvektoren
ei . Da Hei gleich der i-ten Spalte von H ist und das Syndrom gleich der dritten Spalte
von H ist, haben wir den Fehlervektor e = e3 bestimmt.
unglich gesendete
 Das urspr
Codewort ist somit c = x e3 = 1 0 0 0 0 1 1 .
Allgemein ist jeder Spalte von H gleich einem der Vektoren von F32 . Ist also das Syndrom

gleich der i-te Spalte von H, dann ist bei der Ubertragung
ein Fehler an der i-ten
Komponente passiert.

Satz 10.3.29 Sei C : Fkp Fnp , k 1 ein linearer Code mit Kontrollmatrix H. Dann
gilt f
ur die Minimaldistanz des Codes
d(C) = min{s N | es gibt s linear unabhangige Spalten von H}
= max{s N | je s 1 Spalten von H sind linear abhangig}

Beweis. Seien h1 , . . . , hn die Spalten von H. Seien hi1 , . . . , his linear abhangig, wobei s
minimal gew
ahlt ist. Das heit es gibt Koeffizienten c1 , . . . , cn Fp sodass gilt:
n
X

ci hi = 0

wobei cij 6= 0 f
ur j = 1, . . . , s und ci = 0 sonst.

i=1

Es gilt also

c1
..
H c=H . =0
cn
das heit c ist ein Codewort und auerdem hat c das Gewicht w(c) = s. Somit ist d(C) s.
Gleichheit gilt da s minimal gew
ahlt wurde.

227