Inhaltsverzeichnis
Inhaltsverzeichnis
Vorwort
1 Einleitung
1.1 Was ist Mathematik? . . . . . . . . . . . . . . . . . . .
1.2 Was ist Informatik? . . . . . . . . . . . . . . . . . . .
1.3 Woher kommt die Informatik? . . . . . . . . . . . . . .
1.4 Warum muss ich als Informatiker Mathematik lernen?
1.5 Ziele der Vorlesung Mathematik f
ur Informatiker . . .
1.6 Einige ermunternde Worte f
ur Mathe-Anfanger . . . .
5
5
6
6
7
7
9
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
Grundlagen
11
.
.
.
.
.
12
12
15
16
17
20
22
22
28
36
4 Algebraische Strukturen
4.1 Gruppen . . . . . . . . . .
4.2 Gruppenhomomorphismen
4.3 Ringe und K
orper . . . .
4.4 Polynome . . . . . . . . .
.
.
.
.
39
39
42
44
46
.
.
.
.
.
.
50
50
53
60
62
63
67
5 Zahlenmengen
5.1 Die nat
urlichen Zahlen
5.2 Die ganzen Zahlen . .
5.3 Die rationalen Zahlen
5.4 Die reellen Zahlen . .
5.5 Die komplexen Zahlen
5.6 Restklassenringe . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
II Lineare Algebra
78
6 Vektorr
aume
79
6.1 Vektorr
aume und Untervektorraume . . . . . . . . . . . . . . . . . . . . . . 79
6.2 Basis und Dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
6.3 Summen und direkte Summen . . . . . . . . . . . . . . . . . . . . . . . . . . 91
7 Matrizen, LGS und lineare Abbildungen
7.1 Matrizen . . . . . . . . . . . . . . . . . . . .
7.2 Lineare Gleichungssysteme . . . . . . . . . .
7.3 Lineare Abbildungen . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
96
96
108
115
132
Spektralsatz
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
172
172
182
188
192
199
10 Anwendungen
205
10.1 Interpolation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205
10.2 Total Least Squares Regression . . . . . . . . . . . . . . . . . . . . . . . . . 209
10.3 Codierungstheorie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 216
Inhaltsverzeichnis
Inhaltsverzeichnis
Vorwort
Dieses Skript wurde erstellt um das Erarbeiten und Lernen des Stoffs der Vorlesung
Mathematik f
ur Informatiker 1 zu vereinfachen. Es gilt dabei zu beachten:
Das Skript basiert auf dem Skript des letzten Jahres von Dr. Daniel Kondermann und
Dr. Martin Rheinl
ander. Einige Abschnitte wurden u
bernommen, andere u
berarbeitet,
wieder andere v
ollig neu erstellt. So ist ein nicht ganz einheitlicher Stil entstanden,
der im Laufe der Zeit hoffentlich immer mehr angeglichen wird.
Manche Themen hier im Skript sind ausf
uhrlicher behandelt als in der Vorlesung.
F
ur die Klausur gilt: relevant ist alles, was in Ubung
und Vorlesung vorkam. Das
Skript soll helfen, eventuell fehlenden Mitschriften zu erganzen.
Das Skript ersetzt also auf keinen Fall die eigenen Mitschriften!
Es gibt hunderte (wenn nicht tausende) von Tippfehlern! Wenn Ihnen beim Lesen
des Skripts welche auffallen, dann teilt sie mir bitte mit, insbesondere wenn durch
den Tippfehler, der Inhalt falsch wird!!
Grundsatzlich gilt f
ur Skript und Vorlesung im Allgemeinen: Solltet ihr deshalb eigene
Beitrage, Fragen, Vorschl
age oder Kritik haben: immer her damit! Je mehr ihr zu einer
gelungenen Vorlesung beitragt, desto befriedigender wird das Ergebnis f
ur alle Beteiligten.
Wahrend andere V
olker wie die Babylonier und Agypter
es zwar bei einer beachtlichen
aber im wesentlichen doch rein praktisch orientierten Rechenkunst belieen, waren es
die Griechen, die als erste danach gesucht haben, mathematische Zusammenhange und
Gesetzm
aigkeiten (vor allem aus der Geometrie) jenseits von Beispielen in allgemeing
ultiger
Weise zu begr
unden. Daraus ist die Beweiskultur der Mathematik enstanden, die Prazision
des Denkens, die nicht nur innerhalb der Mathematik von Noten und von hohem Nutzem
ist. Ebenso waren es auch die Griechen, die gemerkt haben, da man nicht umhin kommt,
bestimmte Aussagen nicht mehr weiter zu hinterfragen. Diese sind klar und deutlich
zu benennen, um darauf aufbauend mit umso strengerer logischer Argumentation neue
Aussagen herzuleiten.
Trotz ihrer inzwischen f
ur eine einzelne Person kaum zu u
berschauende Auffacherung, versucht man die Mathematik oft eng abzugrenzen. Dennoch sind mathematische Methoden
und darauf beruhende Maschinen seit Jahrzehnten schon die Grundlage f
ur den Erkenntnisgewinn in allen Wissenschaften, die jenseits von Spekulation und Meinungsauerung
stehen. Somit ist die Mathematik der urspr
unglichen Bedeutung ihres Namens bis heute
treu geblieben.
Neben dem vordergr
undigen Lehrstoff hoffen wir, da es uns gelingt, in der Vorlesung
immer wieder die folgenden Aspekte mitschwingen zu lassen:
Mathematik Lernen ist kein stumpfes Pauken sondern erfordert eine intensive, kritische Auseinandersetzung mit gewissen Fragestellungen.
Genau darin liegt der Reiz, denn es macht Spa, Zusammenhange zu verstehen.
KAPITEL 1. EINLEITUNG
Mathematik ist n
utzlich, man kann damit tolle Dinge machen insbesondere auch mit
Blick auf die Informatik.
Mathematik ist das paradigmatische Warum-Fach, in dem man beispielhaft lernt
Dinge zu hinterfragen und zu begr
unden. Deshalb hilft Mathematik mittel- und
unmittelbar, sich andere F
acher besser zu erschlieen.
Aber nicht nur die Griechen pr
agten die Grundz
uge der modernen Mathematik. In Persien
schrieb ein Mathematiker aus Bagdad um das Jahr 820 ein Meisterwerk mit dem Titel
Kita-b al-muchtasar fi hisab al-dschabr wa-l-muqabala. Das Wort al-dschabr im Titel
wurde spater ins lateinische als Algebra u
bersetzt. Der Name des Authors war Abu Dschafar
Muhammad ibn Musa al-Chwarizmi. Sein Nachname al-Chwarizmi ist der Ursprung des
Begriffes Algorithmus. Ein Algorithmus ist eine Aneinanderreihung von Anweisungen, um
bereits vorliegende Eingabeinformationen umzuwandeln in Ausgabeformationen.
Als Informatiker wendet man Algorithmen an, indem man sie programmiert. Ein Computer
kann das so entstehende Programm ausf
uhren, um Menschen die Arbeit zu erleichtern.
KAPITEL 1. EINLEITUNG
der offenbar vollautomatisch so gut spielte, dass er die meisten Menschen besiegen konnte.
Erst etwa 50 Jahre sp
ater stellte sich heraus, dass sich in der Maschine versteckt ein echter
Mensch befand, der meistens ziemlich schacherfahren war.
Einer der wichtisten Mathematiker f
ur die Informatik war Alan Mathison Turing (19121954). Turing hat viele bedeutende Beitrage f
ur die Mathematik, die Informatik und sogar
die theoretische Biologie geleistet. Dass er 1953 eines der ersten wirklichen Schachprogramme
entwickelte, war vielleicht der unwichtigste davon. Er definierte den Turingtest, der festlegt,
unter welchen Kriterien man von einer echten k
unstlichen Intelligenz sprechen kann.
Im letzten Weltkrieg entzifferte er mit seinen Kollegen auch Nachrichten der deutschen
Verschl
usselungsmaschine Enigma. Der Turingpreis tragt seinem Namen ehre, denn es ist
so etwas wie der Nobel-Preis der Informatik. Mit seiner Turingmaschine legte er eine
wesentliche Grundlage der theoretischen Informatik. Sie ist der Stoff jeder Grundvorlesung
zu diesem Thema.
Claude Elwood Shannon sollte in dieser Liste ebenfalls genannt werden. Er war ebenfalls
Mathematiker; aber er studierte ebenfalls Elektrotechnik und war dadurch ein wichtiges
Bindeglied zur Entwicklung von elektrischen Maschinen, die mathematische Algorithmen
ausf
uhren k
onnen. In seiner theoretischen Arbeit begr
undete er die Informationstheorie
und formulierte den fundamentalen Satz von Nyquist-Shannon (Abtasttheorem). Als
Elektrotechniker wandte er 1937 als erster die Boolesche Algebra in seiner Masterarbeit an,
indem er sie in elektronischen Schaltern (Relais) realisierte.
In dieser Zeit besch
aftigte sich bereits eine Vielzahl von Ingenieuren (wie neben Shannon
z.B. auch George Stiblitz, John Atanasoff und Clifford Berry) mit der Entwicklung von
automatischen Rechenmaschinen. John von Neumann (1903-1957, ebenfalls Mathematiker)
setzte sich stark f
ur deren Entwicklung ein und die nach ihm benannte von Neumann
Rechnerarchitektur ist nach wie vor aktuell. 1941 stellte schlielich Konrad Zuse den
weltweit ersten universell programmierbaren binaren Digitalrechner namens Zuse Z3 vor
und begr
undete damit endg
utltig das Informationszeitalter.
KAPITEL 1. EINLEITUNG
INFORMATIKER
1.5. ZIELE DER VORLESUNG MATHEMATIK FUR
Mathematisches Denken Wenn man neue Algorithmen entwirft oder auch nur existierende programmiert, muss man sich jedes Detail bewusst machen und verstehen. Ohne
diese Herangehensweise schleichen sich schnell Fehler in die Software ein (Bugs), die in der
Geschichte (wie zum Beispiel in der Raumfahrt) bereits mehrfach zum Tod der Anwender
der Software gef
uhrt hat. Die Mathematik ist besonders stark strukturiert und pflegt eine
strenge Vorgehensweise. Eine besondere Rolle haben hier Axiome, Definitionen, Satze
(zentrale mathematische Aussagen) und deren Beweise. Diese Struktur findet man auch
(vereinfacht betrachtet) beim Programmieren wieder: Variablen und Funktionen m
ussen
deklariert und definiert werden; S
atze fassen logische Schlussfolgerungen zusammen, was
im Falle eines konstruktiven Beweises auch einem Algorithmus entspricht.
Logische Programmiersprachen wie Prolog werden sogar zur automatischen Beweisf
uhrung
eingesetzt und funktionale Sprachen wie Haskell basierend fast ausschlielich auf der
Anwendung von mathematischen Funktionsdefinitionen. Deshalb ist es enorm wichtig,
jedes Problem (jede Aufgabe) aus der Informatik zunachst genau zu definieren: was
sind die Eingaben, wie sollen Ausgaben aussehen? Wie funktioniert ganz konkret jeder
einzelner Schritt des Algorithmus? Um sich so prazise ausdr
ucken zu konnen, wie ein
Computer es erwartet, sollte man sich eine mathematische Denkweise aneignen. Ein
wichtiger Unterschied zur Mathematik ist jedoch, dass Mathematiker in der Regel versuchen,
ein Problem so abstrakt wie m
oglich zu formulieren, um alle betrachtetenden Falle mit dem
gleichen theoretischen Unterbau betrachten zu konnen. Das reduziert die Schreibarbeit,
und verbindet zuvor scheinbar v
ollig unterschiedliche Gebiete. Wer hatte z.B. gedacht dass
die Primzahlzerlegung viel mit der Zerlegung eines Polynoms in seine irreduziblen Faktoren
zu tun hat?
Informatiker k
onnen es sich jedoch nicht leisten, ein Programm auf die abstraktest mogliche
Weise zu implementieren, weil eine abstrakte Formulierung des Problem oft Geschwindigkeitseinbuen bringt, den Code aufgrund der Komplexitat schlecht wartbar macht und den
Anwender wom
oglich u
berfordert.
Deshalb ist es f
ur Informatiker wichtig, den richtigen Abstraktionsgrad f
ur das gegebene
Problem zu finden. Wir werden uns deshalb in dieser Vorlesung besonders darum bem
uhen,
einen Grad zu finden, der einerseits so abstrakt wie moglich ist, um viele Anwendungen zu
ermoglichen, aber andererseits so konkret wie moglich ist, um den Stoff verstandlich und
u
bersichtlich zu gestalten.
Gru
ndliche Motivationen Auch wenn wahrend der Vorlesung selbst nicht immer genug
Zeit sein wird, um genau zu motivieren, was wir gerade erklaren, welche Ziele wir damit
erreichen und welche Anwendungen in der Informatik zu jedem Einzelthema vorhanden
KAPITEL 1. EINLEITUNG
MATHE-ANFANGER
KAPITEL 1. EINLEITUNG
MATHE-ANFANGER
Leuten. Erkl
art euch gegenseitig den Stoff, ihr werdet merken dass beide Seiten davon
profitieren.
Beweise sind keine Zauberei. In den meisten Fallen - und insbesondere bei den
hier behandelten - bedeutet Beweisen lediglich das Einsatzen von zuvor behandelte
Definitionen. Die beste Herangehensweise konnte also tatsachlich sein, Satze und
Definitionen gr
undlich auswendig zu lernen! Das kann jeder (mit unterschiedlichem
Zeitaufwand) und es erleichtert das Jonglieren mit den gelernten Begriffen spater
enorm.
Das Verstehen von Definitionen ist mal manchmal gar nicht so einfach. Hier hilft
ein Denken, das f
ur Informatiker typisch ist: man versuche, sich moglichst viele
Falle oder Situationen vorzustellen, bei denen die Definition erf
ullt ist, und ganz
besonders wann sie nicht erf
ullt ist. So finden Hacker zum Beispiel Sicherheitsl
ucken.
Das ist ein kreativer Prozess, der gemeinsam viel Spa machen kann. Manchmal
kann man sich auch als Abk
urzung eine vereinfachte, intuitiv anschauliche Version
der Definition ausdenken. Wichtig ist nur, dass man beim spateren Anwenden der
Definition sich dann immer wieder daran erinnert, dass man im Kopf vielleicht gerade
nur die vereinfachte Arbeitsversion hat!
In vielen mathematische Beweisen werden Aussagen in gleichbedeutende Aussagen
umformuliert. Daf
ur ist es hilfreich Formeln umzuschreiben um besser zu sehen
welche Aussage aus ihnen folgen. Nur ist es am Anfang nicht unbedingt klar, wie
man etwas geschickt umschreiben kann. Da hilft oft nur ausprobieren und die Tricks
zu verwenden, die mal jemand herausgefunden hat. Hier zwei einfache Beispiele, wie
man durch geschicktes Umschreiben etwas schneller ausrechnen kann:
ur schreiben wir 27 33 = (30 3) (30 + 3)
1. Wir wollen 27 33 ausrechnen. Daf
und verwenden jetzt die 3. binomische Formel und erhalten 30 30 3 3 =
900 9 = 891.
2. Um die Summe der ersten 100 Zahlen zu berechnen, hat schon der junge Gauss
festgestellt, dass es einfacher ist, wenn man die Zahlen umsortiert. So ergibt
1 + 100 = 2 + 99 = 3 + 98 = = 101, da wir genau 50 solcher Summen haben,
ist 1 + 2 + 3 + + 98 + 99 + 100 = 50 101 = 5050.
Mathematik kann man in den meisten Fallen nicht nur mal so grob verstehen.
Wie in der Informatik muss man jedes Detail verstehen, um eine Chance zu haben,
das gesamte System zu verstehen. Taucht also ein Beweis auf und man kommt an
einem Schritt an, den man einfach nicht versteht, hilft es selten bis nie, diesen
Schritt einfach in den Skat zu dr
ucken und zu u
berspringen. Der Rest des Beweises
wird wahrscheinlich auch nur noch wenig Sinn ergeben. Hier sind Geduld, Disziplin
und Ausdauer gefragt! Es hilft sehr, anderen sein Problem zu erklaren und ganz
konkrete Fragen zu formulieren und nochmal die vorher besprochenen Definitionen
nachzuschlagen. Es ist aber auch nicht falsch, den Schritt beim ersten Durchgang zu
u
uhl daf
ur bekommt, was man noch vor sich hat.
berspringen, damit man ein Gef
10
Teil I.
Grundlagen
11
12
Antwort:
1. ja, dies ist eine falsche Aussage
2. ja, dies ist eine wahre Aussage
3. nein, dies ist eine Begr
uungsformel, die zwar korrekt oder inkorrekt verwendet
werden kann, aber man kann ihr keinen Wahrheitswert zuordnen.
4. Wenn klar ist, was heute f
ur ein Wochentag ist, dann ist es eine Aussage. Sonst ist
dieser Satz eine Aussageform.
Bemerkung 2.1.3 Trotz ihrer enormen Leistungsfahigkeit kann man mit der zweiwertigen Logik schnell an Grenzen stoen. Ein Beispiel daf
ur stellen die sogenannten
Antinomien dar. Darunter versteht man Satze, die durch eine raffinierte R
uckbez
uglichkeit
widersinnig sind. Hier zur Illustration zwei Klassiker:
(i) In der Stadt schneidet der Barbier jedem Mann den Bart, der sich ihn nicht selbst
schneidet.
(ii) Ein Kreter sagt: Alle Kreter sind L
ugner.
Im ersten Fall l
at sich nicht entscheiden, ob der Barbier sich selbst rasiert oder nicht.
Denn wenn er zu den M
annern z
ahlt, die sich nicht selbst den Bart stutzen, dann m
ute
er die Dienste des Barbiers in Anspruch nehmen, sich also doch selbst den Bart schneiden.
Startet man jedoch mit der Annahme, da sich der Barbier den Bart selbst schneidet, so
ergibt sich kein Widerspruch.
Ebensowenig l
at sich im zweiten Fall entscheiden, ob nun alle Kreter L
ugner sind oder
nicht. Denn wenn tats
achlich alle Kreter L
ugner waren, dann auch derjenige, welcher
genau dieses behauptet. Da dieser Kreter dann die Unwahrheit sprache, ist die Aussage
gelogen ergo falsch, d.h. es g
abe auch ehrliche Kreter. Auch gilt, da sich aus der
umgekehrten Annahme (nicht alle Kreter sind L
ugner) kein Widerspruch entwickelt.
Bemerkung 2.1.4 Es sei noch angemerkt, da der osterreichische Logiker Kurt Godel
(1906-1978) mit seinem Unvollst
andigkeitssatz bewiesen hat, da praktisch in jeder Theorie Behauptungen bzw. S
atze formuliert werden konnen, die prinzipiell nicht beweisbar
bzw. entscheidbar sind.
Definition 2.1.5 Ersetzt man in einer Aussage a eine Konstante durch eine Variable x,
so entsteht eine Aussageform a(x).
F
ur einen festgew
ahlte Wert von x kann der Wahrheitswert von a(x) bestimmt werden.
13
Beispiel 2.1.6 a(x) : x > 50 ist eine Aussageform mit der Variablen x. Setzen wir f
ur
x Zahlen ein, so erhalten wir Aussagen, z. B.
a(100) : 100 > 50 ist eine wahre Aussage und
a(10) : 10 > 50 ist eine falsche Aussage.
Mithilfe von sogenannten Quantoren, konnen wir aus einer Aussageform wieder eine Aussage
machen.
Definition 2.1.7 Sei a(x) eine Aussageform.
Die Aussage F
ur alle x (aus einer vorgegebenen Menge) gilt a(x) ist genau
dann wahr, wenn a(x) f
ur alle in Frage kommenden x wahr ist. Dies ist eine
ALL-Aussage und wir schreiben abk
urzend
x : a(x).
ist der Allquantor und wird f
ur alle gelesen.
Die Aussage Es gibt ein x (aus einer vorgegebenen Menge) so dass a(x) ist genau
dann wahr, wenn a(x) f
ur mindestens ein in Frage kommendes x wahr ist. Dies ist
eine EXISTENZ-Aussage und wir schreiben abk
urzend
x : a(x).
ist der Existenzquantor und wird es gibt oder es existiert gelesen.
Die Aussage Es gibt genau ein x (aus einer vorgegebenen Menge) so dass a(x)
ist genau dann wahr, wenn a(x) f
ur genau ein in Frage kommendes x wahr ist. Wir
schreiben abk
urzend
!x : a(x).
Quantoren werden spielen in der Mathematik eine wichtige Rolle um Aussagen kurz und
prazise zu formulieren. Dabei ist zu beachten, dass die Reihenfolge der Quantoren eine
Rolle spielt.
Beispiel 2.1.8
14
2.2. VERKNUPFUNGEN
VON AUSSAGEN
F
ur den Nachweis einer Existenzaussage gen
ugt ein x f
ur das a(x) richtig ist. Zur Widerlegung einer Existenzaussage hingegen muss f
ur alle in Frage kommenden x gepr
uft werden,
ob a(x) falsch ist.
2.2. Verknu
pfungen von Aussagen
Das Anliegen der Aussagenlogik ist es, die Regeln des Argumentierens und Schlufolgerns
auf eine solide Basis zu stellen, ihnen eine Form zu geben, sie zu formalisieren. Da Argumentationsstrukturen nicht an den Inhalt gebunden sondern allein durch die Logik
vorgegeben sind, besch
aftigt sich die Aussagenlogik mit Aussagen von einem rein formalen
Standpunkt aus, der sowohl den sprachlichen Aufbau (Syntax) einer Aussage als auch ihre
inhaltliche Bedeutung (Semantik) auer Acht lat. Eine Aussage ist dann nichts anderes
als der Tr
ager eines Wahrheitswertes. Daher identifizieren wir Aussagen mit sogenannten
logischen Variablen, welche wir etwas miverstandlich auch Aussagevariablen1 nennen,
obwohl sie weniger f
ur Aussagen selbst als vielmehr f
ur ihre Wahrheitswerte stehen. Eine
Aussagenvariable a ist also nicht Element der Menge aller Aussagen sondern es gilt lediglich
a {wahr, falsch} {0, 1}. Gegenstand der Aussagenlogik ist zunachst die Beantwortung
der beiden folgenden, eng zusammenhangenden Fragen:
Wie lassen sich aus gegebenen (Elementar)Aussagen a, b, c, . . . neue Aussagen gewinnen, d.h. welche Verkn
upfungsmoglichkeiten gibt es u
berhaupt?
Wie h
angt der Wahrheitswert der zusammengesetzten Aussage von den Wahrheitswerten der Elementaraussagen ab?
Die verschiedenen Verkn
upfungsmoglichkeiten von Aussagen, welche wir weiter unten
behandeln, werden auf der Ebene der Aussagevariablen durch Verkn
upfungszeichen oder
Junktoren bzw. logische Operatoren angedeutet.
Definition 2.2.1
Eine Aussagevariable ist eine Variable a die nur die Werte 0
oder 1 annehmen kann.
Ein logischer Ausdruck (eine aussagenlogische Formel) ist eine Aneinanderreihung von Aussagevariablen und Junktoren.
Enth
alt ein logischer Ausdruck n verschiedene Aussagevariablen, dann definiert er
einen Funktion (Logikfunktion) von {0, 1}n {0, 1}, diese wird auch als n-stellige
Verkn
upfung bezeichnet.
Korrekter w
are es von Wahrheitswertvariablen zu sprechen, denn die Variablen u
bernehmen nur den
Wahrheitswert nicht aber den Inhalt einer Aussage. So ist im Sinne der Aussagenlogik die Zuweisung
a = Alle Fische k
onnen fliegen.
gleichbedeutend mit a = 0, da die Aussage Alle Fische k
onnen fliegen bekanntermaen falsch ist. Man
kann den Satz als eine etwas l
angliche, alternative Bezeichnungsweise f
ur falsch betrachten. Alternative
Schreibweise: a wirklich als Platzhalter f
ur Aussage betrachten und nicht a = 0 sondern w(a) = 0
schreiben.
15
2.2. VERKNUPFUNGEN
VON AUSSAGEN
16
2.2. VERKNUPFUNGEN
VON AUSSAGEN
F
ur die Verneinung von Existenz- und Allaussagen m
ussen wir besonders aufpassen, da sie
in der Umgangssprache nicht immer formal korrekt verwendet werden.
Satz 2.2.4 Durch die Verneinung einer All-Aussage entsteht eine Existenz-Aussage und
umgekehrt. Es gilt:
x : a(x) = x : a(x)
x : a(x) = x : a(x)
1
0
0
0
0
2 3 4 5
1 0 0 0
0 1 0 0
0 0 1 0
0 0 0 1
6 7 8
1 0 0
1 1 1
0 1 0
0 0 1
9
1
1
1
1
10 11 12 13
0
1
1
1
1
0
1
1
1
1
0
1
1
1
1
0
14 15 16
0
1
1
0
0
0
1
0
1
1
1
0
17
2.2. VERKNUPFUNGEN
VON AUSSAGEN
Definition 2.2.6
Die UND-Verkn
upfung (Konjuktion) zweier Aussagen a und b
ist eine Aussage, die genau dann wahr ist, wenn beide Aussagen wahr sind. Wir
schreiben a b und lesen a und b.
Die ODER-Verkn
upfung (Disjuktion) zweier Aussagen a und b ist eine Aussage, die
genau dann wahr ist, wenn mindestens eine der Aussagen wahr sind. Wir schreiben
a b und lesen a oder b.
Das ausschlieende Oder (eXclusive OR) zweier Aussagen a und b ist eine Aussage,
die genau dann wahr ist, wenn entweder a oder b (aber nicht a und b) wahr ist.
Wir schreiben a xor b und lesen entweder a oder b.
Die Wahrheitstabelle dieser Verkn
upfungen ist die folgende:
a
1
1
0
0
b a b a b a xor b
1
1
1
0
0
0
1
1
1
0
1
1
0
0
0
0
In der Umgangssprache benutzen wir meistens das Wort oder im ausschlieenden Sinn,
wahrend in der Mathematik h
aufiger das einschlieende oder verwendet wird.
Definition 2.2.7 Die WENN-DANN-Verkn
upfung (Subjunktion) a b, die wenn
a, dann b gelesen wird, und die GENAU-DANN-WENN-Verkn
upfung (Bijunktion)
a b, die a genau dann, wenn b gelesen wird, von zwei Aussagen sind durch
folgende Wahrheitstabellen definiert:
a
1
1
0
0
b a b a b
1
1
1
0
0
0
1
1
0
0
1
1
Definition 2.2.8
Ist die verkn
upfte Aussage a b wahr, so spricht man von
einem logischen Schlu (Implikation) und schreibt
a b.
Wir sagen dann aus a folgt b, a impliziert b, wenn a, dann b, a ist hinreichend
f
ur b oder b ist notwendig f
ur a.
18
2.2. VERKNUPFUNGEN
VON AUSSAGEN
Satz 2.2.9 F
ur die UND- sowie die ODER-Verkn
upfung gelten das Kommutativgesetz
ab ba
a b b a,
das Assoziativgesetz:
a (b c) (a b) c
a (b c) (a b) c
des Aquivalenzpfeils
gleich der Tabelle f
ur den Ausdruck auf der linken Seite ist.
Wir zeigen hier exemplarisch das erste Distributivgesetz:
a
1
1
1
1
0
0
0
0
b
1
1
0
0
1
1
0
0
c b c a (b c)
1
1
1
0
1
1
1
1
1
0
0
0
1
1
0
0
1
0
1
1
0
0
0
0
a
1
1
1
1
0
0
0
0
b
1
1
0
0
1
1
0
0
c a b a c (a b) (a c)
1
1
1
1
0
1
0
1
1
0
1
1
0
0
0
0
1
0
0
0
0
0
0
0
1
0
0
0
0
0
0
0
Konvention: Die Verneinung bindet starker als und . Das heit, der Ausdruck a b
ist gleichbedeutend mit (a) b und nicht mit (a b).
Einen Zusammenhang zwischen Verneinung und der UND und ODER- Verkn
upfung liefern
die De Morganschen Gesetze.
Satz 2.2.10 Es gelten die de Morganschen Gesetze:
(a b) a b
(a b) a b,
19
2.3. BEWEISARTEN
Beweis. Der Beweis funktioniert genauso wie der zu Satz 2.2.9. Wir zeigen hier die Wahrheitstabellen zur zweiten Regel.
a
1
1
0
0
b a b (a b)
1
1
0
0
1
0
1
1
0
0
0
1
a
1
1
0
0
b a b a b
1 0
0
0
0 0
1
0
1 1
0
0
0 1
1
1
Definition 2.2.11 Eine Tautologie ist ein logischer Ausdruck, der immer wahr ist. Eine
Kontradiktion ist ein logischer Ausdruck, der immer falsch ist.
Beispiel 2.2.12
2.3. Beweisarten
Satz 2.3.1 F
ur zwei beliebige Aussagen a, b gilt:
a) (a b) (b a) ist eine Tautologie
b) (a b) (a b) ist eine Tautologie
Beweis.
a
0
1
0
1
b a b
0
1
0
0
1
1
1
1
a
0
1
0
1
b a b b a
0 1
1
1
0 0
1
0
1 1
0
1
1 0
0
1
a
0
1
0
1
b b a b (a b)
0 1
0
1
0 1
1
0
1 0
0
1
1 0
0
1
Satz 2.3.2 (a b) (b a) (a b) ist eine Tautologie.
direkter Beweis a b
indirekter Beweis b a
Beweis durch Widerspruch: b a ist eine Kontradiktion.
20
2.3. BEWEISARTEN
Beispiel 2.3.3 Seien x, y > 0 reelle Zahlen. Wir betrachten die Aussagen
a : x2 > y 2
b: x>y
iii)
ii)
iii)
x2 y 2 > 0
i)
(x y)(x + y) > 0
1
1
i)
(x y)(x + y)
>0
xy >0
x+y
x+y
x>y
b : x y
Nun gilt
xy
ii)
xx xy
und xy yy
iv)
x2 y 2
21
Bemerkung 3.1.2 Formal korrekt wird die Mengenlehre durch ein System von 10
Axiomen, die Zermelo-Fraenkel-Axiome, begr
undet. Uns soll hier aber die einfachere
Definition von Cantor gen
ugen.
Um leichter mit Mengen arbeiten zu konnen, hat man sich auf einen Satz von Begriffen
und Symbolen geeinigt:
Notation 3.1.3
Notation 3.1.4 Die Elemente einer Menge werden zusammengefasst mit geschweiften
Klammern. Dabei haben wir verschiedene Moglichkeiten Mengen anzugeben:
durch direktes Hinschreiben der Elemente, z. B. M = {1, 3, 5}.
22
23
F
ur alle Mengen A gilt A und A A.
{2, 5} ( {2, 3, 4, 5}
N(Z(Q(R
24
Die wichtigsten Operationen um aus zwei Mengen eine neue Menge zu bilden sind Durchschnitt und Vereinigung.
Definition 3.1.13 Seien A, B Mengen.
Die Menge A B = {x | x A x B} nennt man den Durchschnitt von A
und B.
Wenn A B = , dann nennt man A und B disjunkt,
Die Menge A B = {x | x A x B} nennt man die Vereinigung von A und
B.
Beispiel 3.1.15 Seien A = {1, 2, 3, 4} und B = {3, 4, 5}, dann ist A B = {1, 2, 3, 4, 5}
und A B = {3, 4}.
Aus der Definition von Durchschnitt und Vereinigung mithilfe der logischen Verkn
upfungen
und folgen direkt einige Rechengesetze f
ur Mengen.
Satz 3.1.16 Seien A, B, C Mengen. Es gelten die Kommutativgesetze
AB =BA
A B = B A,
die Assoziativgesetze
A (B C) = (A B) C
A (B C) = (A B) C,
und die Distributivgesetze
A (B C) = (A B) (A C)
A (B C) = (A B) (A C).
25
Beweis. Der Beweis dieser Regeln folgt direkt aus den entsprechenden Regeln f
ur und
(s. Satz 2.2.9). Wir zeigen hier exemplarisch das Kommutativgesetz f
ur die Vereinigung.
Um die Gleichheit von Mengen zu beweisen m
ussen wir die zwei Inklusionen A B B A
und B A A B zeigen.
Um A B B A zu zeigen, betrachten wir ein beliebiges Element aus A B und zeigen,
dass es auch in B A enthalten ist.
xAB
Def. von
xAxB
Kommutativit
at von
xBxA
Def. von
xBA
Analog k
onnen wir B A A B beweisen, woraus die Gleichheit der beiden Mengen
folgt.
Bemerkung 3.1.17 Wir veranschaulichen die Distributivgesetze mithilfe von VennDiagrammen.
A (B C) = (A B) (A C)
A (B C) = (A B) (A C)
A
Notation 3.1.18 F
ur den Durchschnitt und die Vereinigung mehrerer Mengen, verwenden wir folgende Bezeichnungen:
ni=1 Ai = A1 A2 An = {x | i {1, 2, . . . , n} so dass x Ai }
ni=1 Ai = A1 A2 An = {x | i {1, 2, . . . , n} gilt x Ai }
Wenn B A, dann nennen wir A\B = B c das Komplement von B (in A).
26
Bemerkung 3.1.20 Wir veranschaulichen die Differenz und Komplement mithilfe von
Venn-Diagrammen.
A\B
Ac = M \A
A
Satz 3.1.21 Seien A und B die Teilmengen einer Menge M sind. Dann gelten die de
Morganschen Gesetze
(A B)c = Ac B c
(A B)c = Ac B c .
Dabei sind immer die Komplemente in M gemeint.
Beweis. Wir beweisen hier die erste Regel (A B)c = Ac B c . Der zweite Beweis ist
analog.
Wir zeigen zun
achst, dass (A B)c Ac B c . Da immer gilt, dass x M , verzichten wir
zur besseren Lesbarkeit der Umformungen darauf dies in jeder Zeile zu schreiben.
x (A B)c x
/ AB
(x A B)
Definition von
/
(x A x B)
(x A) (x B) De Morgansche Regel f
ur logische Operatoren
x
/ Ax
/B
c
xA xB
c
xA B
Definition von
/
c
27
Bei der Schreibung von Mengen mithilfe von geschweiften Klammern ist es wichtig, dass
die Reihenfolge der Elemente keine Rolle spielt. Oft aber ist auch die Reihenfolge von
Elementen relevant. Daf
ur verwenden wir dann runde Klammern.
Definition 3.1.23 Seien A, B Mengen und a A, b B.
Man bezeichnet mit (a, b) ein geordnetes Paar (Tupel). Zwei geordnete Paare
(a, b) und (a0 , b0 ) sind genau dann gleich, wenn a = a0 und b = b0 gilt.
Die Menge aller geordneten Paare (a, b) nennt man das kartesische Produkt von
A und B und schreibt A B = {(a, b) | a A b B}. Man spricht: A kreuz B.
A1 A2 An = {(a1 , , an ) | a1 A1 , , an An } ist das n-fache
kartesische Produkt und besteht aus allen n-Tupeln (a1 , , an ).
Wir bezeichnen mit An = A A A das n-fache kartesische Produkt der
Menge A mit sich selbst.
Beispiel 3.1.24
{2, 4} {1, 3} = {(2, 1), (2, 3), (4, 1), (4, 3)}
{1, 3} {2, 4} = {(1, 2), (1, 4), (3, 2), (3, 4)}
R2 ist die Menge aller Punkte der Ebene.
Aus der Definition eines geordneten Paares folgt, dass (1, 2) 6= (2, 1) ist und daher gilt auch
f
ur die Mengen {2, 4} {1, 3} =
6 {1, 3} {2, 4}.
28
f :NN
n 7 n2
Wir nennen eine Abbildungsvorschrift wohldefiniert, wenn dadurch wirklich eine Abbildung definiert wird.
Beispiel 3.2.3 Um zu sehen, was genau wohldefiniert bedeutet, ist es am besten sich
einige Beispiele nicht wohldefinierter Abbildungsvorschriften anzuschauen.
29
Die Abbildungsvorschrift
f : {1, 3, 5} {2, 3}
1 7 2
3 7 2
5 7 3
1 7 3
ist nicht wohldefiniert, da dem Element 5 {1, 3, 5} kein Element zugeordnet wird.
Die Abbildungsvorschrift
f : {1, 3, 5} {2, 3}
1 7 2
3 7 2
5 7 5
ist nicht wohldefiniert, da dem Element 5 ein Element zugeordnet wird, das nicht
in der Menge {2, 3} liegt.
Die Abbildungsvorschrift
f :NN
n 7 n2
n 7 3n
ist nicht wohldefiniert, da zum einen die Zahl 2, die eine Primzahl ist und gerade auf
verschiedene Zahlen abgebildet wird (Aus der Vorschrift folgt einerseits 2 7 22 = 4,
da 2 eine Primzahl ist, andererseits gilt 2 7 3 2 = 6, da 2 gerade ist). Auerdem
gibt es keine Vorschrift f
ur ungerade Zahlen, die nicht prim sind.
30
Dann ist das Bild f ({1, 2, 3}) = {4, 5} und wir berechnen die Urbilder f 1 ({4}) = {1, 2},
f 1 ({5}) = {3} und f 1 ({6}) = .
Eigenschaften von Abbildungen, die eine besondere Rolle spielen geben wir einen Namen
und versuchen sie genau zu charakterisieren.
Definition 3.2.6 Seien A, B Mengen und sei f : A B, a 7 f (b) eine Abbildung.
ur alle a, a0 A gilt: wenn f (a) = f (a0 ), dann
f heit genau dann injektiv, wenn f
0
ist a = a .
f heit genau dann surjektiv, wenn f
ur alle b B ein a A existiert, so dass gilt
f (a) = b.
f heit genau dann bijektiv, wenn f injektiv und surjektiv ist.
31
von Injektivit
at: f heit genau dann injektiv, wenn f
ur a, a0 A gilt: wenn a 6= a0 , dann
0
ist f (a) 6= f (a ).
Oder noch anders formuliert: bei einer injektiven Abbildung hat jedes Element b B
h
ochstens ein Urbild in A, d. h. #f 1 ({b}) = 0 oder #f 1 ({b}) = 1. Denn hatte b
zwei Urbilder a, a0 A, d. h f (a) = f (a0 ) = b, dann m
ussen diese ja gleich sein a = a0 .
Also hat b h
ochstens ein Urbild.
Beim genauen Angucken der Definition des Bildes einer Abbildung sieht man, dass f
genau dann surjektiv ist, wenn f (A) = B gilt.
Das wiederum bedeutet, dass bei einer surjektiven Abbildung jedes Element b B
mindestens ein Urbild in A hat.
Somit hat bei einer bijektiven Abbildung jedes Element b B genau ein Urbild in A.
Schrankt man die Wertemenge B einer Abbildung f : A B auf f (A) ein, dann erhalt
man eine neue Abbildung f : A f (A), die surjektiv ist. Die Eigenschaften injektiv
und surjektiv h
angen also nicht nur von der Abbildungsvorschrift ab, sondern auch ganz
wesentlich von der Definitions- und Wertemenge.
Beispiel 3.2.8 Die Abbildung
f : {1, 2} {4, 5, 6}
1 7 4
2 7 6
32
B als Menge von m Schubladen. Die Abbildung f entspricht dann dem Hineinlegen von
Kugeln in die Schubladen.
Ist f injektiv, dann heit das, dass in jede Schublade hochstens eine Kugel gelegt wird.
Dies ist nur dann m
oglich, wenn es mindestens so viele Schubladen wie Kugeln gibt.
Ist f surjektiv, dann heit das, dass in jede Schublade mindestens eine Kugel gelegt wird.
Dies ist nur dann m
oglich, wenn es mindestens so viele Kugeln wie Schubladen gibt.
Satz 3.2.10 Seien A, B endliche Mengen mit gelicher Machtigkeit, d. h. #A = #B <
und sei f : A B eine Abbildung, dann ist aquivalent:
a) f ist injektiv
b) f ist surjektiv.
c) f ist bijektiv.
Beweis. Auch dieser Beweis ist mit dem Schubfachprinzip moglich. Wenn es gleich viele
Kugeln und Schubladen gibt und wir wissen in jeder Schublade liegt hochstens eine Kugel,
dann muss schon in jeder Schublade genau eine Kugel liegen, da dies sonst nicht moglich
ist.
Umgekehrt, wissen wir dass in jeder Schublade mindestens eine Kugel liegt, dann muss
schon in jeder Schublade genau eine Kugel liegen.
Definition 3.2.11 Seien A, B, C Mengen und seien f : A B, g : B C Abbildungen.
Dann heit die Abbildung
gf :AC
a 7 (g f )(a) = g(f (a))
Hintereinanderausf
uhrung von f und g.
Beim ersten Lesen erscheint die Schreibweise g f vielleicht etwas unlogisch, da wir ja
zuerst ein Element mithilfe von f abbilden und dann mithilfe von g. Allerdings macht es
nur Sinn f (a) zu betrachten f
ur ein Element a A. Da dann f (a) B liegt, macht es Sinn
g(f (a)) zu betrachten. Man muss also die Verkn
upfung von Abbildungen von innen nach
auen lesen.
Proposition 3.2.12 Seien A, B, C Mengen und seien f : A B, g : B C Abbildungen. Dann gilt:
(i) Wenn f und g injektiv sind, dann ist auch (g f ) injektiv.
(ii) Wenn f und g surjektiv sind, dann ist auch (g f ) surjektiv.
(iii) Wenn f und g bijektiv sind, dann ist auch (g f ) bijektiv.
33
Beweis. (i) Angenommen g(f (a)) = g(f (a0 )), dann folgt aus der Injektivitat von g, dass
f (a) = f (a0 ), aus der Injektivitat von f , folgt dann wiederum, dass a = a0 . Und somit
ist auch (g f ) injektiv.
(ii) Da f sujektiv ist, gilt f (A) = B, da g surjektiv ist, folgt g(B) = C. Also ist
g(f (A)) = C und (g f ) ist surjektiv.
(iii) Folgt direkt aus (i) und (ii)
Satz 3.2.13 Seien A, B nichtleere Mengen und f : A B eine Abbildung. Dann gilt:
a) f ist genau dann injektiv, wenn f eine Linksinverse hat, d. h. wenn es eine
Abbildung g : B A gibt, f
ur die gilt g f = idA .
b) f ist genau dann surjektiv, wenn f eine Rechtsinverse hat, d. h. wenn es eine
Abbildung g : B A gibt, f
ur die gilt f g = idB .
c) f ist genau dann bijektiv, wenn f eine Inverse hat, d. h. wenn es eine Abbildung
g : B A gibt, f
ur die gilt f g = idB und g f = idA .
das heit es m
ussen immer beide Implikationen
Beweis. Alle Aussagen sind Aquivalenzen,
gezeigt werden.
a) Wir zeigen zun
achst die Implikation: Wenn f injektiv ist, dann gibt es eine Abbildung
g : B A, f
ur die g f = idA gilt.
Wir nehmen also an f sei injektiv und definieren eine Abbildung g durch
g:BA
b 7 a f 1 ({b})
wenn b f (A)
b 7 a beliebig
wenn b
/ f (A)
Diese Abbildung ist wohldefiniert, da die Menge f 1 ({b}) aus nur einem Element
besteht, da f injektiv ist. Wenn b
/ f (A), dann ist f 1 ({b}) leer und wir konnen ein
beliebiges Element w
ahlen auf das b abgebildet wird.
Nun k
onnen wir pr
ufen, dass die so definierte Abbildung die Eigenschaft g f = idA
hat. Sei also a A ein beliebiges Element, dann ist g(f (a)) = g(b) = a, da b = f (a)
ein Element aus dem Bild f (A) ist und f 1 ({b}) = {a} das Urbild ist.
Im zweiten Schritt zeigen wir die Implikation Wenn es eine Abbildung g : B A,
f
ur die g f = idA gilt gibt, dann ist f injektiv.
Diesen Teil des Beweises f
uhren wir per Widerspruch, dass heit wir nehmen an es
gebe diese Abbildung g mit der geforderten Eigenschaft, aber f ist nicht injektiv.
Wenn f nicht injektiv ist, dann gibt es Elemente a, a0 A, die ungleich sind a =
6 a0 ,
0
aber f
ur die f (a) = f (a ) gilt.
Da a 6= a0 , ist auch idA (a) 6= idA (a0 ).
Andererseits gilt aber (g f )(a) = g(f (a)) = g(f (a0 )) = (g f )(a0 ). Da nach Annahme
g f = idA gilt erhalten wir daraus a = a0 im Widerspruch zur vorherigen Zeile.
34
b) : Angenommen f ist surjektiv, dann ist f 1 (b) nicht leer wie auch immer b B
vorgegeben ist. F
ur jedes b B lat sich ein a f 1 (b) auswahlen, welches dazu
verwendet werden kann, die Funktion h : B A durch die Setzung h(b) := a zu
definieren.
Aus der Definition von h folgt dann unmittelbar die behauptete Eigenschaft
f h(b) = b. Auch hier ist h nicht eindeutig festgelegt, sondern es gibt alternative
Definitionsm
oglichkeiten, wenn f nicht injektiv ist.
: Angenommen es sei eine derartige
Funktion h vorhanden. Ist b B beliebig
aber fest vorgegeben, so gilt f h(b) = b. Damit wird h(b) A auf b abgebildet. Da
b beliebig, l
at sich somit zu jedem b B ein Element aus A finden namlich h(b)
welches auf b abgebildet wird, d.h. f ist surjektiv.
c) folgt direkt aus a) und b)
Definition 3.2.14 Seien A, B Mengen und f : A B eine bijektive Abbildung. Dann
heit die Abbildung f 1 : B A, f (a) 7 a Umkehrabbildung von f .
Die Umkehrabbildung entspricht der Abbildung g aus Satz 3.2.13 und erf
ullt somit
f f 1 = idB und f 1 f = idA .
Achtung! Es ist wichtig die Umkehrabbildung nicht mit dem Urbild zu verwechseln,
obwohl daf
ur die gleiche Notation verwendet wird. Das Urbild einer Menge unter einer
Abbildung f : A B ist eine Menge und kann f
ur alle Abbildungen f und alle Teilmengen
M B bestimmt werden.
Die Umkehrabbildung hingegen kann nur von bijektiven Abbildungen f : A B bestimmt
werden und sie ordnet dann einem Element b B, das eindeutig bestimmte Element
a f 1 ({b}) zu.
Definition 3.2.15 Seien A, B Mengen und f : A B eine Abbildung und A0 A,
dann definiert
f | A 0 : A0 B
a 7 f (a)
eine Abbildung die Einschr
ankung von A auf A0 .
35
3.3. RELATIONEN
3.3. Relationen
Relationen sind ein Mittel um Beziehungen zwischen Elementen einer Menge herzustellen,
die wichtige zus
atzliche Informationen liefern.
Definition 3.3.1 (Relation)
Es seien A und B zwei nichtleere Mengen. Eine (binare) Relation R zwischen den
Mengen A und B ist eine Teilmenge des kartesischen Produkts A B, d. h.
R A B = {(a, b) | a A, b B} .
F
ur (a, b) R schreibt man auch aRb, d.h. a steht in Relation R zu b. Ist A = B so
spricht auch von einer Relation auf bzw. in der Menge A.
Bemerkung 3.3.3 Die Definition von antisymmetrisch ist von der Art A B und
somit genau dann richtig, wenn B 6= A richtig ist (s. Satz 2.3.1). Somit kann diese
Definition mithilfe der De Morganschen Gesetze (s. Satz 2.2.10) umformuliert werden zu:
Eine Relation R A A auf einer Menge A heit antisymmetrisch genau dann, wenn
aus a 6= b folgt, dass (a, b)
/ R (b, a)
/ R.
Aquivalenzklasse
von a. Die Elemente von [a] nennt man die zu a aquivalenten
Elemente.
36
3.3. RELATIONEN
Eine Aquivalenzklasse
enth
alt alle Elemente, die bez
uglich eines bestimmten Aspekts,
Quotientenmenge enth
alt dann all diese Aquivalenzklassen.
Beispiel 3.3.6 Sei A = {Sch
uler einer Schule}, dann ist a b := a ist in der selben
Aquivalenzrelationen
sind ein wichtiges Hilfsmittel um aus einer bekannten Menge eine
neue Menge konstruieren zu k
onnen, die dann bestimmte gew
unschte Eigenschaften hat.
Wir werden dies in Abschnitt 5 mehrfach benutzen um Zahlenmengen zu konstruieren.
Aquivalenzklassen
eine Partition von A. Das bedeutet, dass zwei Aquivalenzklassen
entweder gleich oder disjunkt sind und auerdem gilt aA [a] = A.
Aquivalenzklassen
[a] immer einer Teilmenge von A sind und damit auch ihre Vereinigung.
Das heit es gilt aA [a] A.
F
ur die umgekehrte Inklusion m
ussen wir zeigen, dass jedes Element a A in einer
Aquivalenzklasse
liegt. Aufgrund der Reflexivitat einer Aquivalenzrelation
ist aber jeder
Element zu sich selbst
aquivalent a a und somit liegt a [a], woraus wir A aA [a]
folgern und damit die Gleichheit beider Mengen.
37
3.3. RELATIONEN
Neben Aquivalenzrelationen
sind Ordnungsrelationen wichtige und haufig benutzte Relationen.
Definition 3.3.8 (Ordnungsrelation)
Eine Ordnungsrelation oder kurz eine Ordnung v in der Menge A ist eine reflexive,
antisymmetrische und transitive Relation in A.
Beispiel 3.3.11 definiert auf den reellen Zahlen eine Totalordnung. Diese Relation
ist reflexiv, da f
ur jedes Element a a gilt. Sie ist antisymmetrisch, da f
ur zwei
unterschiedliche Elemente a 6= b entweder a b oder b a gilt, woraus auch die
Vergleichbarkeit zweier Elemente folgt. Die Transitivitat gilt, da aus a b, b c folgt,
dass a c ist.
definiert auf der Potenzmenge P (A) einer Menge A eine partielle Ordnung. Schon
wenn A die M
achtigkeit 2 hat, also A = {a, b}, dann hat A die Teilmengen {a} und {b},
die nicht vergleichbar sind, da weder {a} {b} noch {b} {a} gilt.
38
4. Algebraische Strukturen
Nachdem wir nun mit Mengen und Abbildungen zwischen ihnen hantieren konnen, wollen
wir nun Mengen betrachten mit denen man auch rechnen kann.
4.1. Gruppen
Definition 4.1.1 Sei G eine Menge mit einer Verkn
upfung , d. h.
:GGG
(g, h) 7 g h.
(G, ) heit Gruppe, wenn gilt:
i) Es existiert genau ein Element e G, das f
ur alle g G g e = e g = g erf
ullt.
e heit neutrales Element.
ii) Zu jedem g G gibt es genau ein Element g 1 G, so dass g g 1 = g 1 g = e
gilt. g 1 heit das zu g inverse Element.
iii) F
ur alle g1 , g2 , g3 G gilt: g1 (g2 g3 ) = (g1 g2 ) g3 . (Assoziativgesetz)
Gilt auerdem
iv) F
ur alle g1 , g2 G : g2 g1 = g1 g2
Dann heit die Gruppe abelsch oder kommutativ.
Bemerkung 4.1.2 In der Definition einer Gruppe konnen die Forderungen i) und ii)
durch die (auf dem ersten Blick) schwacheren Forderungen
i) Es existiert ein linksneutrales Element Element e G, d. h. das f
ur alle g G gilt:
e g = g erf
ullt,
ii) Zu jedem g G gibt es ein linksinverses Element g 1 G, d. h. es gilt g 1 g = e,
ersetzt werden. Dabei ist zu beachten, dass es hier nicht die Eindeutigkeit des Linksneutralen und Linksinversen gefordert wird. Es ist moglich durch einfache Rechnungen aus
den Bedingungen i),ii) und iii) zu folgern, dass dann auch i),ii) und iii) gelten.
Der Vorteil an der schw
acheren Definition ist nun, dass es bei einem konkreten Beispiel
gen
ugt die schw
acheren Eigenschaften nachzuweisen um zu beweisen, dass es sich um
eine Gruppe handelt.
39
4.1. GRUPPEN
Beispiel 4.1.4
g:M M
1 7 1
1 7 2
2 7 3
2 7 3
3 7 2
3 7 1
40
4.1. GRUPPEN
f =Spiegeln
2
g =Drehen
3
g=Drehen
2
f =Spiegeln
1
Definition 4.1.5 Sei (G, ) eine Gruppe und H G eine Teilmenge. H heit Untergruppe von G, wenn H mit der von G geerbten Verkn
upfung eine Gruppe (H, )
definiert.
Wichtig um zu zeigen, dass eine Teilmenge Untergruppe ist, ist neben den Gruppen axiomen
auch die Abgeschlossenheit der Verkn
upfung. Das heit, dass f
ur g1 , g2 H auch g1 g2 H
liegt.
Proposition 4.1.6 Sei (G, ) eine Gruppe und H G eine Teilmenge, so dass gilt:
g1 , g2 H
g11 g2 H,
41
Beispiel 4.1.7
4.2. GRUPPENHOMOMORPHISMEN
4.2. Gruppenhomomorphismen
Besitzt eine Menge eine zus
atzliche Struktur, wie in unserem Fall eine Verkn
upfung,
dann spielen Abbildungen eine besondere Rolle, die diese Struktur erhalten.
Definition 4.2.1 Seien (G, ) und (H, ) Gruppen. Eine Abbildung f : G H heit
Gruppenhomomorphismus, wenn f
ur alle g1 , g2 G gilt:
f (g1 g2 ) = f (g1 ) f (g2 ).
= f (eG )
42
4.2. GRUPPENHOMOMORPHISMEN
Satz 4.2.4 Seien (G, ) und (H, ) Gruppen. Das Bild f (G) eines Gruppenhomomorphismus f : G H ist eine Untergruppe von H.
Beweis. Aufgrund von Proposition 4.1.6 gen
ugt es zu u
ufen, ob f
ur alle Element
berpr
h1 , h2 f (G) gilt, dass dann auch h1
h
in
H
liegt.
2
1
Seien also h1 , h2 f (G), d. h. es gibt Elemente g1 , g2 G mit f (g1 ) = h1 und f (g2 ) = h2 .
Dann konnen wir nachrechnen, dass
1
f (g2 ) = f (g11 ) f (g2 ) = f (g11 g2 ) f (G).
h1
1 h2 = f (g1 )
Definition 4.2.5 Seien (G, ) und (H, ) Gruppen, sowie f : G H ein Gruppenhomomorphismus. Dann heit die Menge
Kern(f ) = {g G | f (g) = eH } G
der Kern von f .
Der Kern von f ist dasselbe wie das Urbild der neutralen Elements, d. h. Kern(f ) =
f 1 ({eH }).
Satz 4.2.6 Seien (G, ) und (H, ) Gruppen, sowie f : G H ein Gruppenhomomorphismus. Der Kern von f ist eine Untergruppe von G.
ugt es zu u
ufen, ob f
ur alle Element
Beweis. Aufgrund von Proposition 4.1.6 gen
berpr
1
g1 , g2 Kern(f ) gilt, dass dann auch g1 g2 in Kern(f ) liegt. Daf
ur rechnen wir
f (g11 g2 ) = f (g11 ) f (g2 ) = f (g1 )1 f (g2 ) = e1
H eH = eH .
Satz 4.2.7 Seien (G, ) und (H, ) Gruppen. Ein Gruppenhomomorphismus
f : G H ist genau dann injektiv, wenn Kern(f ) = {eG } gilt.
Beweis. Wenn f injektiv ist, dann gilt f
ur alle Elemente g G mit g 6= eG , dass
f (g) 6= f (eG ) = eH . Somit ist eG das einzige Element, dass im Kern liegt, d. h. Kern(f ) =
{eG }.
43
4.3. RINGE UND KORPER
Die R
uckrichtung zeigen wir durch einen Widerspruchsbeweis. Wir nehmen also an
es gelte Kern(f ) = {eG } und f ist nicht injektiv. Letzteres bedeutet, dass es Elemente
g1 , g2 G gibt f
ur die gilt: g1 6= g2 , aber f (g1 ) = f (g2 ). Durch Verkn
upfen von links mit
f (g1 )1 erhalten wir
f (g1 )1 f (g1 ) = f (g1 )1 f (g2 )
eH = f (g11 ) f (g2 ) = f (g11 g2 )
Somit liegt also das Element g11 g2 im Kern von f . Da nach Annahme g1 6= g2 ist
g11 g2 6= eG , was im Widerspruch zur Annahme Kern(f ) = {eG } steht.
Aufgrund von Proposition 4.2.2i gilt immer f (eG ) = eH , das heit eG liegt immer im Kern
eines Homomorphismus. Man sagt deshalb, dass der Kern trivial ist, wenn er nur das
Element eG enth
alt.
:K K K
(x, y) 7 x y
so dass gilt:
i. (K, +) ist eine abelsche Gruppe. Das neutrale Element heit 0 und das zu x inverse
Element heit x.
ii. (K\{0}, ) ist eine abelsche Gruppe. Das neutrale Element heit 1 und das zu x
inverse Element heit x1 = x1 .
iii. F
ur alle x, y, z K gilt: (x + y) z = x z + y z (Distributivgesetz).
44
4.3. RINGE UND KORPER
Beispiel 4.3.4
a1 (a b) = a1 0
(a1 a) b = 0
b=1b=0
0 1
0 0 0
1 0 1
ist ein K
orper.
:RRR
(x, y) 7 x y
so dass gilt:
i) (R, +) ist eine abelsche Gruppe. Das neutrale Element heit 0 und das zu x inverse
Element heit x.
ii) F
ur alle x, y, z R gilt: (x y) z = x (y z) (Assoziativgesetz).
iii) F
ur alle x, y, z R gilt: (x + y) z = x z + y z (Distributivgesetz).
iv) Der Ring heit kommutativ, wenn das Kommutativgesetz gilt: x y = y x f
ur
alle x, y R.
v) Ein Ring heit mit Eins, wenn ein neutrales Element 1 f
ur die Multiplikation
existiert, also x 1 = 1 x = x f
ur alle x R.
45
Beispiel 4.3.7
4.4. POLYNOME
Jeder K
orper ist ein kommutativer Ring mit Eins.
Definition 4.3.10 Sei R ein Ring mit 1, dann heit die Menge
R := {a R | b R, so dass, a b = b a = 1}
Menge der Einheiten in R.
Beispiel 4.3.11
Z = {1, 1}
Sei K ein K
orper, dann ist K = K\{0}.
Proposition 4.3.12 Sei R ein Ring mit 1, dann ist (R , ) eine Gruppe.
Beweis. Das neutrale Element in R ist die 1, da 1 1 = 1.
Wenn a R , dann gibt es ein b R, so dass a b = b a = 1 und damit liegt auch b R
und ist das zu a inverse Element.
Das Assoziativgesetz u
agt sich direkt aus den Rechengesetzen im Ring R.
bertr
Die Menge der Einheiten ist abgeschlossen, denn wenn a, a0 R , dann gibt es b, b0 R ,
so dass a b = a0 b0 = 1 und damit gilt (a a0 ) (b0 b) = a a0 b0 b = a 1 b = a b = 1.
4.4. Polynome
Definition 4.4.1 Sei K eine K
orper, dann heit ein formaler Ausdruck der Form
p(t) := an tn + an1 tn1 + + a1 t + a0
46
4.4. POLYNOME
Polynom in der Unbekannten t mit Koeffizienten aus K. Wir bezeichnen die Menge
aller Polynome mit
K[t] := {p(t) | p(t) ist ein Polynom in t mit Koeffzienten aus K}.
Sei p(t) ein Polynom mit dem Koeffizienten an =
6 0 und ak = 0 f
ur alle k > n, dann ist n
der Grad von p
deg p = n.
Ein Polynom vom Grad n heit normiert, wenn an = 1.
Definition 4.4.2 Sei p K[t] ein Polynom, dann heit K Nullstelle von p, falls
gilt
p() = 0.
Proposition 4.4.3 Sei p K[t] ein Polynom und K eine Nullstelle von p. Dann
gibt es ein Polynom q K[t] vom Grad deg q = deg p 1, so dass gilt:
p(t) = (t )q(t).
Definition 4.4.4 Ein Polynom der Form (t ) nennen wir einen Linearfaktor.
Sei p K[t] ein Polynom, wir sagen dass p in Linearfaktoren zerf
allt, wenn es
1 , . . . , n K gibt, so dass gilt:
p(t) = an (t 1 ) . . . (t n ).
Dabei ist n = deg p.
Wenn ein Polynom in Linearfaktoren zerfallt, dann sind seine Nullstellen durch i (i =
1, . . . , n) gegeben, die nicht zwangslaufig verschieden sind.
Definition 4.4.5 Sei p K[t] ein Polynom und K eine Nullstelle von p. Wir sagen,
dass eine Nullstelle der Vielfachheit k ist, wenn es ein Polynom q K[t] gibt, so
dass
p(t) = (t )k q(t)
gilt, wobei keine Nullstelle von q(t) ist, das heit q() 6= 0.
Wenn ein Polynom in Linearfaktoren zerfallt, dann schreiben wir es meistens in der Form
p(t) = an (t 1 )k1 . . . (t r )kr ,
47
4.4. POLYNOME
wobei die Nullstellen i paarweise verschieden sind. In dieser Schreibweise kann man direkt
die Vielfachheiten der jeweiligen Nullstellen ablesen.
Definition 4.4.6 Sei p K[t] ein Polynom vom Grad deg p 1. Wir sagen, dass p
u
ber K irreduzibel ist, wenn es nicht als Produkt zweier Polynome p1 , p2 K[t] mit
deg p1 < deg p und deg p2 < deg p geschrieben werden kann.
Wichtig bei dieser Definition ist, dass sie vom Korper K abhangt.
Beispiel 4.4.7 Ein Linearfaktor ist immer irreduzibel.
Polynome vom Grad 2 und 3 sind genau dann irreduzibel, wenn sie keine Nullstellen
besitzen.
Ein Polynom vom Grad 4 oder hoher kann hingegen auch dann nicht irreduzibel sein,
wenn es keine Nullstellen besitzt. So ist zum Beispiel das Polynom p(t) = t4 + 1 u
ber
dem K
orper Q irreduzibel, wohingegen es u
ber
R
in
zwei
irreduzible
Faktoren
vom
Grad
2 zerfallt
t4 + 1 = (t2 + 2t + 1)(t2 2t + 1)
und u
ber C sogar in Linearfaktoren zerfallt.
q
2 2
2
4
p
+
2
p2
q
4
p
2
p2
q
4
= t2 + pt + q = f (t).
48
4.4. POLYNOME
Spur(p) = an1 .
Satz 4.4.11 Sei p K[t] ein normiertes Polynom vom Grad n mit den Nullstellen
1 , . . . , n (die eventuell auch in einem groeren Korper L mit K L liegen konnen),
dann gilt:
Norm(p) = 1 . . . n
Spur(p) = 1 + . . . + n .
Beweis.
Dieser Satz hat eine wichtige Konsequenz f
ur Polynome deren Koeffizienten in Z liegen.
Wenn dieses Polynom alle Nullstellen in Z hat, dann sind diese Nullstellen ein Teiler des
konstanten Terms a0 .
Beispiel 4.4.12 Wir betrachten das Polynom p(t) = t3 + 3t2 + 5t + 3 Z[t] Kandidaten
f
ur ganzzahlige Nullstellen sind 1 und 3. Durch Probieren erhalten wir p(1) = 0.
Also konnen wir schreiben p(t) = (t + 1)q(t), wobei q(t) ein Polynom vom Grad 2 ist.
Um dieses Polynom zu bestimmen verwenden wir Polynomdivision:
(t3 +
(t3 +
3t2
+
2
t )
2t2 +
(2t2 +
5t
+ 3) : (t + 1) = t2 + 2t + 3
5t
2t)
3t + 3
(3t + 3)
49
5. Zahlenmengen
Nachdem wir bisher eher abstrakt mit Mengen und Abbildungen hantiert haben wollen wir
in diesem Kapitel die wichtigsten Zahlenmengen, die bereits aus der Schule bekannt sind,
genauer anschauen. Auerdem werden wir zwei Mengen kennenlernen, die interessante
Eigenschaften haben und uns deshalb ofter begegnen werden.
nmal
Direkt aus den Peano-Axiomen erhalten wir das wichtige Beweisprinzip der vollstandigen
Induktion.
Satz 5.1.2 (Beweisprinzip der vollst
andigen Induktion)
Sei A(n) eine Aussage u
urliche Zahl n. Es gelte:
ber eine nat
i) Der Induktionsanfang: A(0) ist wahr.
50
5.1. DIE NATURLICHEN
ZAHLEN
KAPITEL 5. ZAHLENMENGEN
Notation 5.1.4 Zur einfacheren und kompakteren Schreibung von Summen und Produkten, verwenden wir folgende Bezeichnungen:
n
X
i=n0
n
Y
ai := an0 + an0 +1 + . . . + an
ai := an0 an0 +1 . . . an
i=n0
F
ur den Beweis pr
ufen wir zun
achst den Induktionsanfang und wahlen daf
ur n = 1. Wir
m
ussen also zeigen, dass A(1) wahr ist, d. h. ob die Formel stimmt, wenn wir f
ur n = 1
setzen. Dies ist richtig, da
1
X
i=1
i=1
und ebenso
1(1 + 1)
= 1.
2
51
5.1. DIE NATURLICHEN
ZAHLEN
KAPITEL 5. ZAHLENMENGEN
i=
i=1
n
X
i + (n + 1)
i=1
n(n + 1)
+ (n + 1)
Verwenden der Voraussetzung, dass A(n) wahr ist
2
n(n + 1) + 2(n + 1)
=
Hauptnenner bilden
2
(n + 1)(n + 2)
=
(n + 1) ausklammern
2
P
(n+1)(n+2)
Insgesamt gilt also n+1
, was wir auch erhalten, wenn wir A(n + 1)
i=1 i =
2
ausrechnen. Somit ist der Induktionsschritt bewiesen und die Formel A(n) gilt f
ur alle
n 1.
=
:NNN
(n, m) 7 n + m = 1 + 1 + + 1
|
{z
}
n+mmal
(n, m) 7 n m = 1 + 1 + + 1
{z
}
|
nmmal
Proposition 5.1.7 F
ur die Verkn
upfungen + und auf N gilt:
das Assoziativgesetz
das Kommutativgesetz
das Distributivgesetz
0 ist das neutrale Element der Addition
1 ist das neutrale Element der Multiplikation
Aber es gibt f
ur beide Verkn
upfungen keine inversen Element in N, somit ist N mit keiner
Verkn
upfung eine Gruppe und daher auch kein Ring.
c N, s. d. n + c = m
52
KAPITEL 5. ZAHLENMENGEN
ii. Transitivit
at: Sei n m und m p, dann gibt es c1 , c2 N, so dass n + c1 = m und
m + c2 = p. Daraus folgt, dass n + (c1 + c2 ) = p und somit n p.
iii. Antisymmetrie: Aus n m und m n, folgt dass n + c1 = m und m + c2 = n und
somit n + c1 + c2 = n. Da c1 , c2 N muss also c1 = c2 = 0 sein um diese Gleichung
zu erf
ullen. Und daher ist n = m.
Die Ordnung ist total, da entweder n + c = m gilt oder m + c = n und somit zwei nat
urliche
Zahlen immer vergleichbar sind.
Definition 5.1.9 Sei M eine Menge und f : M N eine Bijektion. Dann nennt man
die Machtigkeit der Menge M abz
ahlbar unendlich.
Insbesondere sind die nat
urlichen Zahlen selbst abzahlbar unendlich.
0 und sei
nmal
Z := {. . . , 3, 2, 1, 0, 1, 2, 3, . . . }
heit die Menge der ganzen Zahlen.
Wir setzen die Verkn
upfungen + und auf die ganzen Zahlen fort.
Bemerkung 5.2.3 Die Notwendigkeit die ganzen Zahlen zu betrachten entsteht sobald
wir Differenzen nat
urlicher Zahlen berechnen wollen. So ist zum Beispiel 2 = 3 5.
Allerdings ist dies nicht die einzige Moglichkeit die Zahl 2 als Differenz nat
urlicher
Zahlen zu schreiben, weitere M
oglichkeiten sind
2 = 1 3 = 7 9 = 1000 1002.
Allgemein gilt: Wenn eine ganze Zahl z die Differenz von m und n ist, dann gilt auch
z = m n = (m + a) (n + a),
wobei a N eine beliebige Zahl ist.
53
KAPITEL 5. ZAHLENMENGEN
Dies motiviert die alternative und formal korrektere Methode die ganzen Zahlen mithilfe
von Aquivalenzrelationen
aus N zu konstruieren.
Daf
ur betrachten wir das kartesische Produkt N N und definieren darauf eine
Aquivalenzrelation
(m, n) (m0 , n0 ) : m + n0 = m0 + n.
da
m + (n + a) = (m + a) + n
gilt. Somit liegen zwei Zahlenpaare (m, n) und (m0 , n0 ) genau dann in der selben
Aquivalenzklasse,
wenn ihre Differenz gleich ist
m n = m0 n0 .
ZZZ
(m1 , n1 ), (m2 , n2 ) 7 (m1 , n1 ) + (m2 , n2 ) := (m1 + m2 , n1 + n2 ),
ZZZ
(m1 , n1 ), (m2 , n2 ) 7 (m1 , n1 ) (m2 , n2 ) := (m1 m2 + n1 n2 , m1 n2 + n1 m2 ).
(m02 , n02 ),
m1 + n01 = m01 + n1
m2 +
n02
m02
+ n2 .
(5.1)
(5.2)
F
ur die Wohldefiniertheit der Addition m
ussen wir jetzt zeigen, dass gilt:
(m1 , n1 ) + (m2 , n2 ) (m01 , n01 ) + (m02 , n02 )
(5.3)
54
KAPITEL 5. ZAHLENMENGEN
Daf
ur gen
ugt es die Gleichungen (5.1) und (5.2) zu addieren um
(m1 + n01 ) + (m2 + n02 ) = (m01 + n1 ) + (m02 + n2 )
(m1 + m2 ) + (n01 + n02 ) = (m01 + m02 ) + (n1 + n2 )
zu erhalten. Dies entspricht aber genau Gleichung (5.3).
F
ur die Wohldefiniertheit der Multiplikation m
ussen wir zeigen, dass gilt:
(m1 , n1 ) (m2 , n2 ) (m01 , n01 ) (m02 , n02 )
(m1 m2 + n1 n2 ) + (m01 n02 + n01 m02 ) = (m01 m02 + n01 n02 ) + (m1 n2 + n1 m2 )
(5.4)
Daf
ur multiplizieren wir (5.1) und (5.2), addieren auf beiden Seiten der Gleichung den
Term n01 n02 + n1 n2 und erhalten so
(m1 + n01 ) (m2 + n02 ) = (m01 + n1 ) (m02 + n2 )
Nun verwenden noch einmal die Gleichungen (5.1) und (5.2) und die Ausdr
ucke in den
Klammern zu ersetzen und erhalten somit
m1 m2 + n1 n2 + n01 (m02 + n2 ) + (n1 + m01 )n02 = m01 m02 + n01 n02 + (m1 + n01 )n2 + n1 (m2 + n02 )
m1 m2 + n1 n2 + n01 m02 + n01 n2 + n1 n02 + m01 n02 = m01 m02 + n01 n02 + m1 n2 + n01 n2 + n1 m2 + n1 n02
im letzten Schritt subtrahieren wir auf beiden Seiten n01 n2 n02 n1 wodurch wir
m1 m2 + n1 n2 + n01 m02 + m01 n02 = m01 m02 + n01 n02 + m1 n2 + n1 m2
erhalten. Dies entspricht aber nach Umsortieren genau Gleichung (5.4).
Wir konnen nun nachrechnen, dass die Menge Z mit diesen Verkn
upfungen ein Ring
bildet. Dabei k
onnen wir im wesentlichen die Rechenregeln auf die Rechenregeln in den
nat
urlichen Zahlen N zur
uckf
uhren.
(Z, +) ist eine abelsche Gruppe
[(0, 0)]
ist
neutrales
[(m, n)] + [(0, 0)] = [(m + 0, n + 0)] = [(m, n)] gilt.
Element,
da
[(n, m)] ist das zu [(m, n)] inverse Element, da [(m, n)] + [(n, m)] =
[(m + n, n + m)] = [(0, 0)] gilt.
Es gilt das Kommutativgesetz, da [(m, n)] + [(m0 , n0 )] = [(m + m0 , n + n0 )] =
[(m0 + m, n0 + n)] = [(m0 , n0 )] + [(m, n)] aufgrund des Kommutativgesetzes in
N.
Es gilt das Assoziativgesetz, aufgrund des Assoziativgesetzes in N.
(Z, +, ) ist ein kommutativer Ring mit Eins
[(1, 0)] ist neutrales Element der
Multiplikation, da [(m, n)] [(1, 0)] = [(m 1 + n 0, m 0 + n 1)] = [(m, n)]
gilt.
55
KAPITEL 5. ZAHLENMENGEN
wenn n gerade
n+1
2
wenn n ungerade
und behaupten, dass diese Abbildung eine Bijektion ist. Um dies zu zeigen verwenden wir
Satz 3.2.13 und definieren eine zu f inverse Abbildung:
g:ZN
m 7 2m
wenn m 0
m 7 (2m + 1)
wenn m < 0
Wir konnen nachrechnen, dass g f = idN , denn wenn n gerade ist, dann gilt g(f (n)) =
g( n2 ) = 2 n2 = n, da n2 0. Wenn n ungerade ist, dann ist g(f (n)) = g( n+1
2 ) =
n+1
2( 2 ) + 1 = n. Ebenso k
onnen wir pr
ufen, dass f g = idZ .
Definition 5.2.5
Seien n, m Z. Wir sagen n teilt m und schreiben n|m
genau dann, wenn es c Z gibt, so dass n c = m.
Seien n, m Z. d heit gr
oter gemeinsamer Teiler von n und m und wir
schreiben d = ggT(n, m), wenn d|n und d|m und auerdem muss gelten dass jede
Zahl d0 , f
ur die gilt d0 |n und d0 |m, dass dann auch d0 |d.
n, m Z heien teilerfremd, wenn ggT(n, m) = 1.
p Z heit prim, wenn aus n|p folgt, dass n = 1 oder n = p.
(5.5)
56
KAPITEL 5. ZAHLENMENGEN
Beweis. Zun
achst zeigen wir die Existenz einer solchen Darstellung. Daf
ur betrachten wir
die Menge M = {x Z | a bx 0}, die ein grotes Element q besitzt. Wir setzen dann
r := abq, wodurch folgt, dass r 0, da q M . Es gilt aber auch r < q, denn angenommen
r q, dann w
are rq = abqq = aq(b+1) 0 im Widerspruch zur Definition von q als
maximales Element in M . Aus der Definition von r folgt die Existenz einer Darstellung (5.5).
Um die Eindeutigkeit dieser Darstellung zu zeigen, nehmen wir an es gabe zwei verschiedenen
Darstellung
a = q1 b + r1 = q2 b + r2 .
(5.6)
Wir konnen ohne Beschr
ankung der Allgemeinheit annehmen, dass r1 r2 ist (sonst
vertauschen wir die Rollen.) Aus Gleichung (5.6) folgt die Gleichung r2 r1 = b(q1 q2 )
und somit ist r2 r1 ein Vielfaches von b. Andererseits folgt aus 0 r1 r2 < b, dass
0 r2 r1 < b. Beides zusammen ist nur moglich, wenn r2 r1 = 0, woraus wiederum
q1 q2 = 0 folgt und damit die Behauptung.
Satz 5.2.8 (Euklidischer Algorithmus)
Seien a, b Z wobei a > b. Wir setzen r0 = a, r1 = b und definieren rekursiv Zahlen
rk+2 Z durch die Division mit Rest von rk durch rk+1 :
rk = qk rk+1 + rk+2 ,
0 < r2 < b
(5.7)
b = q2 r2 + r3
0 < r3 < r2
(5.8)
r2 = q3 r3 + r4
..
.
0 < r4 < r3
..
.
(5.9)
(5.10)
(5.11)
rn1 = qn rn + 0
(5.12)
Wenn d|a und d|b, dann gilt d|r2 , denn aus a = d ca und d cb folgt aus Zeile (5.7), dass
d (ca q1 cb ) = r2 gilt. Da wir nun wissen, dass d|r2 und d|b folgt aus Zeile (5.8), dass
auch d|r3 gilt. Auf diese Weise k
onnen wir sukzessive zeigen, dass d|rn . Also ist jeder Teiler
von a und b auch ein Teiler von rn .
Umgekehrt folgt aus Zeile (5.12), dass jeder Teiler von rn auch ein Teiler von rn1 ist. Aus
Zeile (5.11) folgt, dass Teiler von rn und rn1 auch rn2 teilen, etc. Letztendlich teilt also
rn auch a und b.
57
KAPITEL 5. ZAHLENMENGEN
Beweis. Der Beweis dieser Aussage erfolgt mithilfe des sogenannten erweiterten euklidischen Algorithmus. Wir verwenden daf
ur die Gleichungen (5.7)-(5.12) des euklidischen
Algorithmus und setzen diese ineinander ein.
Da d = rn ist erhalten wir aus Zeile (5.11) d = rn = rn2 qn1 rn1 . In dieser Gleichung
konnen rn1 durch Zeile (5.10) ersetzen und erhalten d = rn = rn2 qn1 rn1 =
rn2 qn1 (rn3 qn2 rn2 ), usw. Durch sukkessives Einsetzen aller Gleichungen bis hin
zu Zeile (5.7) erhalten wir einen Ausdruck in a und b.
Beispiel 5.2.10 Wir wollen den groten gemeinsamen Teiler der Zahlen a = 299 und
b = 104 bestimmen. Daf
ur rechnen wir
299 = 2 104 + 91
104 = 1 91 + 13
91 = 7 13 + 0
Somit ist also ggT(299, 104) = 13. Zur Bestimmung der Zahlen x und y aus Satz 5.2.9
beginnen wir mit der vorletzten Zeile und ersetzen im nachsten Schritt 91 durch die
erste Zeile:
13 = 104 91
= 104 (299 2 104) = 3 104 + (1) 299
Wichtig beim Berechnen der Zahlen x und y ist, dass immer nur die Ausdr
ucke vor den
Zahlen rk zusammengefasst werden d
urfen.
Satz 5.2.11 Sei a N und b N mit b > 1. Dann hat a eine eindeutige Darstellung
der Form
n
X
a=
ai bi
ai {0, 1, . . . , b 1}.
(5.13)
i=0
58
KAPITEL 5. ZAHLENMENGEN
P
i
hat q eine eindeutig bestimmte Darstellung der Form (5.13) q = n1
i=0 qi b . Durch Einsetzen
erhalten wir nun
n1
n
X
X
a = qb + r = (
qi bi )b + r =
ai bi
i=0
i=0
Beispiel 5.2.13 Wir wollen die Zahl 23 (in Dezimaldarstellung) als Binarzahl schreiben.
Daf
ur zerlegen wir 23 in Zweierpotenzen
23 = 16 + 4 + 2 + 1 = 1 24 + 0 23 + 1 22 + 1 21 + 1 20
und somit hat (23)10 die Bin
ardarstellung (10111)2 .
Alternativ erhalten wir diese Darstellung indem wir wie im Beweis zu Satz 5.2.11
vorgehen.
23 =11 2 + 1
= 11 2 + a0
11 =5 2 + 1
= 5 2 + a1
5 =2 2 + 1
= 2 2 + a2
2 =1 2 + 0
= 1 2 + a3
1 =0 2 + 1
= 0 2 + a4
Wir erhalten wenn wir die Reste von unten nach oben lesen wiederum die Binardarstellung
(a4 a3 a2 a1 a0 )2 = (10111)2 .
Um die Hexadezimaldarstellung zu berechnen gehen wir analog vor, nur dass wir jetzt
die Zahl als Summe von 16er Potenzen schreiben, bzw. eine Division mit Rest durch 16
durchf
uhren.
975 = 3 256 + 12 16 + 15 = 3 162 + 12 161 + 15 160
und somit erhalten wir die Hexadezimaldarstellung (975)10 = (3CF )16 . Wir haben dabei
die Symbole A = 10, B = 11, C = 12, D = 13, E = 14, F = 15 verwendet.
Wir erhalten dasselbe Ergebnis wenn wir rechnen
975 = 60 16 + 15
= 60 16 + F
60 = 3 16 + 12
= 3 16 + C
3 = 0 16 + 3
= 0 16 + 3
59
KAPITEL 5. ZAHLENMENGEN
pq 0 = p0 q.
Proposition 5.3.2 Die Relation auf der Menge Z Z\{0} ist eine Aquivalenzrelation.
Beweis. Die Relation ist
reflexiv: es gilt pq = pq und somit ist (p, q) (p, q)
symmetrisch: es gilt pq 0 = p0 q = pq 0 und somit gilt (p, q) (p0 , q 0 ) genau dann wenn
(p0 , q 0 ) (p, q).
transitiv: Wenn (p, q) (p0 , q 0 ) und (p0 , q 0 ) (p00 , q 00 ) gilt, dann bedeutes dies pq 0 = p0 q
und p0 q 00 = p00 q 0 . Durch Multiplikation dieser Gleichungen mit q 00 , bzw q erhalten wir
pq 0 q 00 = p0 qq 00
p0 q 00 q = p00 q 0 q
pq 0 q 00 = p00 q 0 q
pq 00 = p00 q
Und daher ist (p, q) (p00 , q 00 ). Im letzten Schritt verwenden wir, dass q 6= 0 und dass
der Ring der ganzen Zahlen nullteilerfrei ist.
p
q
f
ur die Aquivalenzklasse
[(p, q)].
Aquivalenzrelation
zu erkl
aren. Auf dem ersten Blick konnte man die rationalen Zahlen als
geordnetes Paar von ganzen Zahlen (Zahler, Nenner) definieren, wobei der Nenner nicht
null werden darf. Allerdings ist das geordnete Paar (1, 2) ungleich dem geordneten Paar
(2, 4). Als Bruch hingegen sind diese beiden Elemente gleich 12 = 24 , da man den zweiten
Bruch k
urzen kann und so den ersten erhalt.
Genau diese Eigenschaft der rationalen Zahlen, dass man durch K
urzen oder Erweitern
pq 0 = p0 q
60
KAPITEL 5. ZAHLENMENGEN
:QQQ
p1 p2
p1 p2
p p
:= 1 2
( , ) 7
q1 q2
q1 q2
q1 q2
p1
p2
p1 q2 p2 q1 .
q1
q2
(5.14)
p2 q20
(5.15)
p02 q2
Wir wollen zeigen, dass nun auch (p1 , q1 )+(p2 , q2 ) (p01 , q10 )+(p02 , q20 ) und (p1 , q1 )(p2 , q2 )
(p01 , q10 ) (p02 , q20 ).
Um die Wohldefiniertheit der Addition zu zeigen, addieren wir die Gleichungen (5.14) und
(5.15) und erhalten
p1 q10 + p2 q20 = p01 q1 + p02 q2
(p1 , q1 ) + (p2 , q2 ) = (p1 + p2 , q1 + q2 ) (p01 + p02 , q10 + q20 ) = (p01 , q10 ) + (p02 , q20 )
F
ur die Wohldefiniertheit der Multiplikation multiplizieren wir Gleichung (5.14) mit q2 q20
und Gleichung (5.14) mit q1 q10 und addieren diese
(p1 q10 )(q2 q20 ) = (p01 q1 )(q2 q20 )
und
61
KAPITEL 5. ZAHLENMENGEN
0
1
p
q
p
q
p
q
0
1
inverse Element, da
=
p
q
p1+0q
q1
p
q
p
q
gilt.
pq+(p)q
qq
0
qq
= 01 .
Das Kommutativgesetz und das Assoziativgesetz folgt direkt aus den entsprechenden Gesetzen in Z.
(Q\{ 10 }, ) ist eine abelsche Gruppe:
1
1
q
p
p
q
inverse Element,
p
q
p1
p
1
1 = q1 = q gilt.
1
da pq pq = pq
qp = 1 .
Das Kommutativgesetz und das Assoziativgesetz folgt direkt aus den entsprechenden Gesetzen in Z.
Das Distributivgesetz folgt direkt aus dem entsprechenden Gesetz in Z.
Satz 5.3.6 Q ist abz
ahlbar.
ur die rationalen Zahlen (wir schreiben ein
Beweis. Wir verwenden folgende Schreibweise f
mogliches Minuszeichen immer in den Nenner):
na
o
Q=
| a Z und b N>0 .
b
Um die Bijektion zu konstruieren legen wir folgendes Schema zugrunde:
. . . 3 2 1 0
...
...
3
1
2
1
1
1
0
1
1
1
2
1
3
1
...
...
3
2
2
2
1
2
0
2
1
2
2
2
3
2
...
...
.
..
3
3
2
3
1
3
0
3
1
3
2
3
3
3
..
.
..
.
..
.
..
.
..
.
..
.
..
.
...
..
.
In der oberen Zeile stehen die Werte des Zahlers und in der linken Spalte die des Nenners.
Der Eintrag in der m-ten Spalte (die nullte ist die mittlere) und der n-ten Zeile ist m
n . So
sind alle Elemente von Q enthalten. Weil jeder Bruch unendlich viele Darstellungen besitzt
und jede dieser Darstellungen in dieser Tabelle vorkommt, ist sogar jedes Element von Q
unendlich oft enthalten. Die Forderung, dass die Abbildung bijektiv ist, jedes Element also
nur einmal getroffen wird, muss besonders ber
ucksichtigt werden. Die Abbildung verlauft
im Halbkreiszickzack von 0 nach auen:
f : N Q, 0 7 0, 1 7
1
1
1
1
2
2
1
, 2 7
, 3 7 , 4 7 , 5 7 , 6 7 , 7 7
1
2
2
1
1
3
3
Eigentlich h
atte man 6 7 22 abbilden m
ussen, aber da
da er bereits getroffen wurde.
2
2
1
1
62
KAPITEL 5. ZAHLENMENGEN
Zur Definition der reellen Zahlen benotigen wir Begriffe wir Folgen Grenzwerte und
Vollstandigkeit, mit denen wir uns im nachsten Semester genauer beschaftigen werden.
Satz 5.4.1 Die Menge der reellen Zahlen R sind ein vollstandiger archimedisch angeordneter K
orper.
(5.16)
(5.17)
63
KAPITEL 5. ZAHLENMENGEN
Assoziativgesetz:
(x, y) + (x0 , y 0 ) + (x00 , y 00 ) = x + x0 , y + y 0 + (x00 , y 00 )
= (x + x0 ) + x00 , (y + y 0 ) + y 00
= x + (x0 + x00 ), y + (y 0 + y 00 )
= (x, y) + x0 + x00 , y 0 + y 00
= (x, y) + (x0 , y 0 ) + (x00 , y 00 )
Auch in diesem Beweis verwenden wir die Eigenschaften reeller Zahlen, konkret
das Assoziativgesetz.
Kommutativgesetz: Kann analog zum Assoziativgesetz gezeigt werden, indem
man es auf das Kommutativgesetz in R zur
uckf
uhrt.
(C\{(0, 0)}, ) ist abelsche Gruppe
(1, 0) ist das neutrale Element, da (x, y) (1, 0) =
(x 1 + y 0, x 0 + y 1) = (x, y) gilt. Wir verwenden hier die Tatsache, dass
x, y R und 1 das neutrale Element der Multiplikation in R ist.
y
x
Das zu (x, y) inverse Element ist (x, y)1 = x2 +y
,
2 x2 +y 2 , denn es gilt
x
y
, 2
2
2
x + y x + y2
(x, y) =
x x (y y) xy yx
, 2
x2 + y 2
x + y2
= (1, 0)
Das Assoziativgesetz und das Kommutativgesetz konnen analog wie die entsprechenden Gesetze der Addition gezeigt werden, indem man sie auf die Gesetze in
R zur
uckf
uhrt.
Distributivgesetz Auch das Distributivgesetz kann gezeigt werden, indem man es auf das
Distributivgesetz in R zur
uckf
uhrt.
F
ur die Existenz eines inversen Elements der Multiplikation zu zeigen, haben wir benutzt,
dass f
ur (x, y) 6= (0, 0) gilt x2 + y 2 6= 0. Dies gilt in R aufgrund der Ordnungsstruktur.
Um eine einfachere Darstellung von komplexen Zahlen zu erhalten, die es ermoglicht sich
die Regel f
ur die Multiplikation zu merken, setzen wir
i := (0, 1).
Man bezeichnet i als die imagin
are Einheit. Es gilt dann
(x, y) = (x + 0, 0 + y) = (x, 0) + (0, y) = (x, 0) + (0, 1) (y, 0) = x + iy,
wobei wir die Teilmenge R {0} = {(x, 0) | x R} ( C mit R identifizieren und x statt
(x, 0) schreiben.
Wir stellen fest, dass das Element i C eine bemerkenswerte Eigenschaft hat
i2 = i i = (0, 1) (0, 1) = (0 1, 0) = 1.
64
KAPITEL 5. ZAHLENMENGEN
n N, n 1, ai C
65
KAPITEL 5. ZAHLENMENGEN
und
zw =zw
f
ur alle z, w C. Ferner besteht f
ur z = x + iy der folgende Zusammenhang zum Betrag:
zz = Re(z)2 + Im(z)2 = x2 + y 2
also
|z| = zz .
Auerdem k
onnen wir zu z 6= 0 das Inverse mithilfe des komplex konjugierten angeben
z
z 1 = z1 = zz
und sehen so, dass gilt:
Re(z 1 ) =
Re(z)
x
= 2
zz
x + y2
und
Im(z 1 ) =
Im(z)
y
= 2
.
zz
x + y2
ur die Addition
Beweis. Sei z = x1 + iy1 und w = x2 + iy2 , dann rechnen wir nach, dass f
gilt:
z + w = (x1 + iy1 ) + (x2 + iy2 )
= (x1 + x2 ) + i(y1 + y2 )
= (x1 + x2 ) i(y1 + y2 )
= (x1 iy1 ) + (x2 iy2 )
=z+w
Und ebenso f
ur die Multiplikation:
z w = (x1 + iy1 ) (x2 + iy2 )
= (x1 x2 y1 y2 ) + i(x1 y2 + x2 y1 )
= (x1 x2 y1 y2 ) i(x1 y2 + x2 y1 )
= (x1 iy1 ) (x2 iy2 )
=zw
F
ur z = x + iy rechnen wir mithilfe der 3. binomischen Formel nach, dass gilt:
zz = (x + iy)(x iy) = x2 i2 y = x2 + y 2 .
Bemerkung 5.5.7 Da die komplexe Zahlen als Menge dasselbe sind wie R2 ist es
moglich komplexe Zahlen als Punkte, bzw Vektoren in der sogenannten komplexe Zahlenebene zu betrachten.
66
KAPITEL 5. ZAHLENMENGEN
5.6. RESTKLASSENRINGE
Im(z) 6
3
z = 3 + 2i
3
2
-2
Q
Q
-1
Re(z)
Q
-1
Q
Q
Q
Q
Q
Q
Q
-2
s z = 3 2i
Q
5.6. Restklassenringe
Alle bisher betrachteten Zahlenmengen haben unendlich viele Elemente. Gerade aber in der
Informatik ist es wichtig auch in endlichen Mengen, insbesondere der Menge {0, 1} rechnen
zu konnen. Aus diesem Grund konstruieren wir hier die sogenannten Restklassenringe, in
denen man im wesentlichen wie in den ganzen Zahlen rechnet, die aber nur endlich viele
Elemente besitzen.
Definition 5.6.1 Sei m N, m 2, dann definieren wir eine Relation a b mod m
auf Z durch:
a b mod m : m|(a b).
Zwei Zahlen sind
aquivalent zueinander, wenn ihre Differenz durch m teilbar ist.
67
KAPITEL 5. ZAHLENMENGEN
5.6. RESTKLASSENRINGE
([a], [a ]) 7 [a] + [a ] := [a + a ]
Bevor wir die Eigenschaften der Restklassenringe genauer unter die Lupe nehmen (indem
wir zum Beispiel zeigen werden, dass sie wirklich Ringe sind) wollen wir besser verstehen,
Da nun m genau dann a teilt, wenn a ein Vielfaches von m ist erhalten wir
[0] = {0, m, 2m, m, 2m, . . .} = mZ = {a Z | b Z : a = mb}.
Und daraus folgt auch, dass [0] = [m] = [2m] = . . . .
Sei jetzt a Z eine beliebige Zahl, dann konnen wir a mit Rest durch m teilen und erhalten
a = qm + r, wobei 0 r < m. Daraus folgt, dass a r = qm gilt, woraus wiederum per
Definition der Teilbarkeit folgt, dass m|(a r) und somit a r mod m. Jede Zahl ist also
68
KAPITEL 5. ZAHLENMENGEN
5.6. RESTKLASSENRINGE
a b
mod m
c sodass m c = a b
0
(5.18)
0
c sodass m c = a b
(5.19)
F
ur die Wohldefiniertheit der Addition addieren wir die Gleichungen (5.18) und (5.19) und
erhalten
m (c + c0 ) = (a b) + (a0 b0 ) = (a + a0 ) (b + b0 )
a + a0 b + b0
mod m.
Anders ausgedr
uckt, wenn f
ur die Aquivalenzklassen
gilt: [a] = [b] und [a0 ] = [b0 ], dann gilt
auch [a + a0 ] = [b + b0 ]
F
ur die Wohldefiniertheit der Multiplikation berechnen wir unter Verwendung von (5.18)
und (5.19)
(a b) (a0 b0 ) = (aa0 ab0 ba0 + bb0 ) + bb0 bb0 = aa0 + b0 (b a) + b(b0 a0 ) bb0
= aa0 bb0 + mcb0 + mc0 b
und somit ist (wieder unter Verwendung von (5.18) und (5.19) )
aa0 bb0 = (a b)(a0 b0 ) (mcb0 + mc0 b) = mcmc0 (mcb0 + mc0 b) = m(cmc0 cb0 c0 b),
69
KAPITEL 5. ZAHLENMENGEN
5.6. RESTKLASSENRINGE
Der Kern dieser Abbildung sind alle Elemente a Z, die auf [0] abgebildet werden.
Da aber die Restklasse der null genau alle durch m teilbaren Elemente enthalt, gilt
Kern() = mZ = {a Z | a = m c f
ur ein c Z}. Die Surjektivitat folgt direkt aus der
Definition.
Wir sind es in unserem Alltag gewohnt mit Restklassen zu rechnen ohne es wirklich zu
bemerken. Das passiert immer dann, wenn wir mit Zeitangaben wie Wochentagen oder
Uhrzeiten hantieren. Die Menge Z/7Z kann mit der Menge der Wochentage Montag,
Dienstag, usw. identifiziert werden. Der Montag entspricht dann der [1], der Dienstag der
[2], usw. Wenn wir wissen wollen, welcher Wochentag 10 Tage nach einem Dienstag ist,
dann m
ussen wir also nur rechnen
Dienstag+10 Tage = [2] + [10] = [12] = [5 + 7] = [5] = Freitag.
Ebenso ist jeden klar, dass ein Student, der sagt er habe ab 22 Uhr 9 Stunden lang gezockt,
dass dieser Student bis 7 Uhr morgens gezockt hat. Hier lautet die Rechnung:
22 Uhr+9 Stunden = [22] + [9] = [31] = [24 + 7] = [7] = 7 Uhr.
F
ur Uhrzeiten rechnen wir also in Z/24Z oder Z/12Z.
Beispiel 5.6.5 Eine einfache Methode Nachrichten zu verschl
usseln, ist der sogenannte
Caesarchiffre. Dabei wir zur Verschl
usselung zum Beispiel jeder Buchstabe des Alphabets,
durch den Buchstaben ersetzt, der 2 Stellen weiter im Alphabet steht. Wenn wir Z/26Z
mit den Buchstaben { A,B,...,Y,Z} identizieren, dann entspricht der Caesarchiffre einer
Abbildung
Caesar : Z/26Z Z/26Z
[a] 7 [a + 2]
A = [1] 7 [3] = A
B = [2] 7 [4] = B
..
..
.
.
Y = [25] 7 [27] = [1] = A
Z = [26] 7 [28] = [2] = B
Jetzt wollen wir die Gruppe der Einheiten (s. Def. 4.3.10) im Restklassenring bestimmen
um zu sehen, ob und unter welchen Bedingungen Z/mZ sogar ein Korper ist.
70
KAPITEL 5. ZAHLENMENGEN
5.6. RESTKLASSENRINGE
Proposition 5.6.6 Die Einheiten in Z/mZ sind Restklassen von Zahlen a Z, die
teilerfremd zu m sind
Z/mZ = {[a] Z/mZ | ggT(a, m) = 1}.
Beweis. Wenn ggT(a, m) = 1, dann gibt es aufgrund des erweiterten euklidischen Algorithmus (s. Satz 5.2.9) Zahlen x, y Z so dass
xa + ym = 1
gilt. Bilden wir nun die Restklassen modulo m, dann erhalten wir
[1] = [xa + ym] = [xa] + [ym] = [xa] + [0] = [xa] = [x] [a].
Also ist [x] das zu [a] inverse Element.
Umgekehrt, wenn [a] eine Einheit ist, dann gibt es eine Restklasse [x], sodass [1] = [x] [a] =
[xa] gilt. Das ist gleichbedeutend mit
1 xa mod m
m|(1 xa)
0
1
2
3
4
0
0
0
0
0
0
1
0
1
2
3
4
Z/4Z
2
0
2
4
1
3
3
0
3
1
4
2
4
0
4
3
2
1
0
1
2
3
0
0
0
0
0
1
0
1
2
3
2
0
2
0
2
3
0
3
2
1
In der Tafel f
ur F5 befindet sich in jeder Zeile und in jeder Spalte eine 1. So konnen wir
die jeweils zueinander inversen Elemente ablesen. In der Tafel f
ur Z/4Z hingegen, stehen
in Spalte und Zeile der 2 nur die Zahlen 0 und 2, somit hat 2 keine multiplikativ inverses
Element in Z/4Z.
71
KAPITEL 5. ZAHLENMENGEN
5.6. RESTKLASSENRINGE
Beispiel 5.6.9 Mithilfe des erweiterten euklidischen Algorithmus ist es moglich auch
f
ur Korper mit vielen Elementen multiplikative Inverse zu bestimmen.
Sei die Primzahl p = 293 gegeben. Wir wollen das multiplikative Inverse zu a = 103
bestimmen. Mithilfe des erweiterten euklidischen Algorithmus berechnen wir:
293 = 2 103 + 87
103 = 1 87 + 16
87 = 5 16 + 7
16 = 2 7 + 2
7=32+1
Durch R
uckw
artseinsetzen erhalten wir nun
1=732
= 7 3 (16 2 7) = 3 16 + 7 7
= 3 16 + 7 (87 5 16) = 7 87 38 16
= 7 87 38 (103 1 87) = 38 103 + 45 87
= 38 103 + 45 (293 2 103) = 45 293 128 103
Also ist 128 165 mod 293 die zu 103 multiplikativ inverse Zahl in F293 .
mod 11
s9
mod 13.
72
KAPITEL 5. ZAHLENMENGEN
5.6. RESTKLASSENRINGE
Wir suchen jetzt also eine Zahl 0 < s < 143, die diese Kongruenzen erf
ullt.
Um diese Zahl zu berechnen, ben
otigen wir den erweiterten euklidischen Algorithmus
um Zahlen x, y zu bestimmen f
ur die x 11 + y 13 = 1 gilt. Diese Zahlen gibt es, da 11
und 13 Primzahlen sind und daher teilerfremd zueinander.
Wir rechnen
13 = 1 11 + 2
11 = 5 2 + 1
und erhalten durch R
uckw
artseinsetzen
1 = 11 5 2
= 11 5 (13 1 11) = 5 13 + 6 11.
mod 11
6 11 = 1 + 5 13 1
mod 13
10 (5) 13 10
9 6 11 9
mod 11
mod 13.
Andererseits gilt
5 13 0
mod 13
10 (5) 13 0
mod 13
6 11 0
mod 11
9 6 11 0
mod 11
mod 11
mod 13
mod 143.
Definition 5.6.12 Die Anzahl der Einheiten im Restklassenring Z/mZ wird mit (m)
bezeichnet. Die definiert eine Abbildung
:ZN
m 7 (m)
die sogenannte Eulersche Phi-Funktion.
73
KAPITEL 5. ZAHLENMENGEN
5.6. RESTKLASSENRINGE
Beweis. Die Zahl (p) gibt an wie viele Element aus Z/pZ Einheiten sind, also in Z/pZ
liegen. Da Fp = Z/pZ ein K
orper ist, sind alle Element auer der Null invertierbar und
somit eine Einheit. Also ist (p) = #Fp 1 = p 1.
Wenn m, n teilerfremde Zahlen sind, dann ist nach dem chinesischem Restsatz Z/(nm)Z =
Z/nZ Z/mZ und somit gilt auch f
ur die Einheiten Z/(nm)Z = Z/nZ Z/mZ .
Daraus folgt, dass die Anzahl der Elemente in diesen Gruppen gilt (nm) = (n)(m).
Aus dieser Proposition folgt insbesondere, dass (pq) = (p 1)(q 1) ist, wobei p, q
Primzahlen sind.
Satz 5.6.14 (Kleiner Fermatscher Satz)
Sei a Z, so dass f
ur die Restklasse [a] Z/mZ ist, dann gilt:
a(m) 1
mod m.
[r]Z/mZ
[r]Z/mZ
Im letzten Schritt haben wir aus jedem Faktor das [a] ausgeklammert. Da es genauso viele
Faktoren gibt wie Elemente in Z/mZ , muss [a] mit dieser Anzahl potenziert werden.
Aber diese Anzahl
wir nun in Gleichung 5.20 beide Seiten mit dem
Q ist genau (m). Wenn
a(m) 1
mod m.
74
KAPITEL 5. ZAHLENMENGEN
5.6. RESTKLASSENRINGE
mod N
mithilfe des
offentlichen Schl
ussels.
Der Empf
anger kann dies nun entschl
usseln, indem er rechnet
m cd
mod N.
Wir konnen nachrechnen, dass wir auf diese Art und Weise wirklich die urspr
ungliche
Nachricht erhalten, denn
cd = (me )d = med = m1k(N ) = m (m(N ) )k m mod N.
Im letzten Schritt haben wir den kleinen Fermatschen Satz verwendet.
Bemerkung 5.6.16 Die Berechnung von me mod N ist mit groen Rechenaufwand
verbunden. Es ist bei realistischen Zahlen nicht moglich me Z zu rechnen und dann
erst die Division mit Rest durchzuf
uhren.
Machbarer, aber immer noch mit zu groen Rechenaufwand ist es zuerst m m zu
berechnen und den Rest bei Division durch N zu bestimmen. Dann multipliziert man das
Ergebnis wieder mit m und bestimmt erneut den Rest bei Division durch N . Auf diese
Weise werden die Zahlen nicht zu gro, aber man muss e1 Multiplikationen durchf
uhren.
Die Anzahl der Multiplikationen lassen sich erheblich reduzieren,
indem man die
P
Binardarstellung des Exponenten verwendet. Sei daf
ur e = ni=0 ai 2i , dann ist
me = m(2
n +a
n1 +a
n2 +...+a 2+a )
n1 2
n2 2
1
0
n1
= m2 m2
an1
n2
m2
an2
. . . m2
a1
ma0
i
Die Zahlen ai sind entweder 1 oder 0, daher besagt ai = 1, dass der Faktor m2 in dem
Produkt vorkommt, wohingegen er nicht vorkommt, wenn ai = 0 ist.
i
Die Faktoren m2 mod N kann man durch sukzessives Quadrieren bestimmen. Zunachst
quadrieren wir m und bestimmen den Rest bei Division durch N . Durch quadrieren von
2
m2 mod N erhalten wir (m2 )2 = m22 = m2 = m4 mod N . Es gilt immer
i
i+1
(m2 )2 = m2 2 = m2
mod N.
75
KAPITEL 5. ZAHLENMENGEN
5.6. RESTKLASSENRINGE
mod 40.
Die Nachricht muss nun eine Zahl 0 < m < N sein, die teilerfremd zu N ist. Unsere
Nachricht sei m = 13.
Die verschl
usselte Nachricht ist dann c me = 139 mod 55. Zur Berechnung dieses
Werts gehen wir vor wie es in Bemerkung 5.6.16 beschrieben wurde.
Wir bestimmen zuerst die Bin
ardarstellung des Exponenten:
e = 9 = 8 + 1 = 23 + 20 .
Nun berechnen wir die Zweierpotenzen von m:
m 13
mod 55
m = 169 = 3 55 + 4 4
4
2 2
m = (m ) = 4 16
mod 55
mod 55
mod 55
Am Ende m
ussen noch die Zweierpotenzen miteinander multipliziert werden, so wie es
die Bin
ardarstellung des Exponenten vorschreibt:
m9 = m8 m 36 13 468 = 8 55 + 28 28
mod 55.
Zur Uberpr
ufung wollen wir ausrechnen ob cd m mod 55. Daf
ur benotigen wir die
Zweierpotenzen von c:
c 28
mod 55
c2 = 784 = 14 55 + 14 14
4
2 2
mod 55
c = (c ) = 14 196 = 3 55 + 31 31
c8 = (c4 )2 = 312 = 961 = 17 55 + 26 26
mod 55
mod 55
76
KAPITEL 5. ZAHLENMENGEN
5.6. RESTKLASSENRINGE
Da die Bin
ardarstellung des Exponenten d = 9 = 8 + 1 ist, m
ussen wir berechnen:
c9 = c8 c 26 28 728 = 13 55 + 13 13
mod 55.
77
Teil II.
Lineare Algebra
78
6. Vektorr
aume
In vielen Bereichen der Mathematik wird man auf die algebraische Struktur des Vektorraums
gef
uhrt, so da diesem Begriff eine fundamentaler Bedeutung in den verschiedensten
Teilgebieten der Mathematik zukommt. Um Vektorraume besser zu verstehen, ist es
sinnvoll, diese losgel
ost von speziellen Kontexten in einem abstrakten Setting zu betrachten
und zu studieren. Dies ist die Aufgabe der Linearen Algebra, welche man als die Theorie
der Vektorr
aume vor allem der endlich dimensionalen ansehen kann. Nat
urlich dreht
sich die Lineare Algebra nicht ausschlielich um den Vektorraumbegriff; darauf aufbauend
gibt es etliche weitere grundlegende Konzepte wie z.B. der Begriff der linearen Abbildungen,
welche verschiedene Vektorr
aume miteinander in Beziehung setzen und den theoretischen
Hintergrund f
ur lineare Gleichungssysteme liefern, welche bereits in einfacher Form aus der
Schule bekannt sein d
urften.
Neben der pr
azisen Definition des Vektorraumbegriffs besteht das zentrale Anliegen dieses
Kapitels darin, eine sehr einfache Charakterisierung f
ur die Groe eines Vektorraums zu
schaffen.
6.1. Vektorr
aume und Untervektorr
aume
Notation: In den folgenden Abschnitten bezeichnet K einen Korper. Griechische Buchstaben wie , , , stehen f
ur Elemente dieses Korpers. Mit den lateinischen Buchstaben
u, v, w, x, y, z werden Elemente eines oder verschiedener Vektorraume bezeichnet.
Definition 6.1.1 (Vektorr
aume)
Sei K ein K
orper. Ein Vektorraum u
ber dem Korper K (kurz ein K-Vektorraum) ist
ein Tripel (V, +, ) bestehend aus einer Menge V , einer inneren Verkn
upfung
+ : V V V,
(u, v) 7 u + v,
(, v) 7 v =: v,
79
KAPITEL 6. VEKTORRAUME
6.1. VEKTORRAUME
UND UNTERVEKTORRAUME
Bemerkung 6.1.2
Die Bezeichnung K-Vektorraum bzw. Vektorraum wird sehr
oft f
ur die Tr
agermenge V allein verwendet, wobei die beiden algebraischen Verkn
upfungen als bekannt oder (im abstrakten Kontext) als existent vorausgesetzt
werden. Wir werden uns im folgenden dieser vereinfachenden Sprechweise bedienen. Vorsicht ist jedoch geboten, wenn dieselbe Menge mit unterschiedlichen
Verkn
upfungen ausgestattet wird, die sie jeweils zu einem Vektorraum machen.
Die Elemente von V heien Vektoren, die Elemente des zugehorigen Korpers K
nennt man Skalare. Der K
orper K, welcher dem K-Vektorraum zugrunde liegt,
wird gelegentlich auch Skalarenkorper genannt.
Die Addition in V wird auch als Vektoraddition oder Vektorraumaddition bezeichnet,
wenn sie deutlich von der Addition in K unterschieden werden soll.
Das neutrale Element der Additionion in V heit Nullvektor. Um Verwechselungsgefahr mit dem Skalar 0 K zu vermeiden, schreiben wir daf
ur 0V .
F
ur das zu v V inverse Element bez
uglich der Vektoraddition schreibt man v
analog zu der u
ur v + (w).
blichen Notation bei Korpern. Ebenso steht v w f
Bei der Skalarmultiplikation schreibt man meist v statt v. Nach der bei Korpern
u
bliche Konvention Punktrechnung vor Strichrechnung soll die Skalarmultiplikation
st
arker binden als Addition in V und K; dies spart Klammern, wodurch sich
Rechnungen u
bersichtlicher gestalten lassen. Man unterscheide zum Beispiel u + v
und (u + v); ebenso ( + )v und + v, wobei der letzte Term keinen Sinn
ergibt, da die Addition zwischen Skalaren und Vektoren nicht erklart ist.
= 0 oder v = 0V .
(iv) (1) v = v.
80
KAPITEL 6. VEKTORRAUME
6.1. VEKTORRAUME
UND UNTERVEKTORRAUME
1v
(1 ) v
1 ( v)
1 0V
0V
|Wirkung der 1
|Definition des multiplikativ Inversen in K
|Assoziativgesetz fur Skalarmultiplikation
|Voraussetzung
|nach ii)
Die R
uckrichtung folgt direkt aus i) und ii).
iv) Anwendung der Vektorraumaxiome sowie der Rechenregeln im Korper K liefert:
v + (1) v = 1 v + (1) v
= 1 + (1) v
= 0v
= 0V
|Wirkung der 1
|Distributivgesetz der Skalarmultiplikation fur Addition in K
|Rechenregeln fur K
|nach i)
Da die Vektoraddition von v und (1) v auf das neutrale Element 0V der Vektoradition
f
uhrt, stellt sich (1) v als das inverse Element zu v heraus, d.h. es gilt wie behauptet
v = (1) v. Man beachte, da dabei die Eindeutigkeit inverser Elemente eingeht.
Beispiel 6.1.4
u
ber K.
Die Menge, die nur aus der null besteht {0} ist ein Vektorraum
Jeder K
orper K ist ein Vektorraum u
ber sich selbst.
C ist ein R-Vektorraum.
Das n-fache kartesische Produkt eines Korpers mit sich selbst, das heit die Menge
aller geordneten n-Tupel von Elementen aus K
K n = {(a1 , a2 , . . . , an ) | ai K}
81
KAPITEL 6. VEKTORRAUME
6.1. VEKTORRAUME
UND UNTERVEKTORRAUME
Definition 6.1.5 Eine nicht leere Teilmenge eines K-Vektorraums U V heit Untervektorraum bzw. Unterraum von V , falls folgende Bedingungen erf
ullt sind:
(U1) U ist abgeschlossen gegen
uber der Addition, d.h. u1 , u2 U u1 + u2 U .
(U2) U ist abgeschlossen gegen
uber der Skalarmultiplikation, d.h. u U, K
u U .
Dank (U1) und (U2) induzieren die Vektoraddition und Skalarmultiplikation in V entsprechende Verkn
upfungen in U , mit denen U als eigenstandiger Vektorraum interpretiert
werden kann. Es bleibt daf
ur lediglich nachzuweisen, da U auch abgeschlossen ist hinsichtlich der Bildung additiv inverser Elemente. Dies folgt aber direkt aus U2) und der
Rechenregel iv) in Satz 6.1.3, wonach u = (1) u.
Beispiel 6.1.6 Sei K ein K
orper. Die Menge
U = {(a1 , a2 , 0, 0) | a1 , a2 K} ( K 4
ist ein Untervektorraum des K 4 , denn es gilt
(a1 , a2 , 0, 0) + (b1 , b2 , 0, 0) = (a1 + b1 , a2 + b2 , 0, 0) U
und
(a1 , a2 , 0, 0) = (a1 , a2 , 0, 0) U
82
KAPITEL 6. VEKTORRAUME
und U2 = {(0, a2 , 0) | a2 K} ( K 3
Untervektorr
aume von V (Begr
undung analog zu Beispiel 6.1.6), aber ihre Vereinigung
ist kein Untervektorraum, da zum Beispiel u1 = (1, 0, 0) U1 und u2 = (0, 1, 0) U2
und somit beide Vektoren u1 , u2 U1 U2 liegen, aber ihre Summe nicht
u1 + u2 = (1, 0, 0) + (0, 1, 0) = (1, 1, 0)
/ U1 U2 .
In der Vereinigung U1 U2 liegen nur Vektoren, die hochstens an einer Stelle einen Eintrag ungleich null haben, aber u1 + u2 hat an zwei Stellen einen Eintrag, der nicht null ist.
Die Vereinigungsmenge U1 U2 genau dann ein Untervektorraum ist, wenn U1 U2
oder U2 U1 .
83
KAPITEL 6. VEKTORRAUME
erzeugte Lineare Hu
ur
lle (auch Spann). Man schreibt daf
LH(v1 , . . . , vk ) := Kv1 + + Kvk
:= {v V : 1 , . . . , k K mit v = 1 v1 + + k vk } .
84
KAPITEL 6. VEKTORRAUME
Bisher haben wir uns nur mit der Frage beschaftigt, ob man einen Vektor aus einer
vorgegebenen Menge von Vektoren linear kombinieren kann. Nun kommen wir dazu, ob
diese Linearkombination eindeutig ist. Dies ist der Fall, wenn die Vektoren linear unabhangig
sind.
Definition 6.2.4 (i) Endlich viele Vektoren v1 , . . . , vk eines K-Vektorraums heien
linear unabh
angig, falls die Gleichung
1 v1 + + k vk = 0V
nur die L
osung 1 = = k = 0 besitzt. Dies dr
uckt man auch folgendermaen
aus: Die Vektoren v1 , . . . , vk nennt man linear unabh
angig, genau dann wenn sich
der Nullvektor nur auf die triviale Weise aus ihnen linear kombinieren lat.
(ii) Die Vektoren v1 , . . . , vk heien linear abh
angig, falls sie nicht linear unabhangig
sind. Der Nullvektor l
at sich dann nicht trivial aus ihnen linear kombinieren,
d.h. in der obigen Darstellung des Nullvektors kann mindestens ein Koeffizient i
mit i {1, . . . , k} von Null verschieden gewahlt werden.
Beweis. (ii) (i) Wir setzen l = 1 und erhalten eine nichttriviale Linearkombination
des Nullvektors
0V = 1 v1 + . . . + l1 vl1 + (1)vl + l+1 vl+1 + k vk .
P
(i) (ii) Sei 0V = ki=1 i vi eine nichttriviale Linearkombination des Nullvektors. Dann
gibt es ein l so dass l 6= 0 und wir konnen schreiben
l vl =
k
X
i vi
i=1,i6=l
vl =
k
X
i=1,i6=l
i
vi .
l
85
KAPITEL 6. VEKTORRAUME
(ii) Jeder Vektor v LH(v1 , . . . , vk ) besitzt eine eindeutige Darstellung als Linearkombination der v1 , . . . , vk .
86
KAPITEL 6. VEKTORRAUME
Definition 6.2.8
i) Eine Menge von Vektoren v1 , v2 , . . . V heit Erzeugendensystem von V , wenn V = LH(v1 , ..., vk ) gilt.
ii) V heit endlich erzeugt, falls ein Erzeugendensystem bestehend aus endlich
vielen Vektoren v1 , ..., vk V gibt. d.h. falls sich jeder Vektor von V aus dem
Erzeugendensystem v1 , ..., vk linear kombinieren lat.
Beweis.(i) (ii) Jede Basis ist per Definition ein Erzeugendensystem, bleibt also zu
zeigen, dass es minimal ist. Angenommen es ist nicht minimal, das heit es gibt einen
Vektor vl B, so dass B 0 = B\{vl } immer noch ein Erzeugendensystem ist, das heit aber,
dass vl LH(B 0 ) und somit ist mit Proposition 6.2.5 die Menge B linear abhangig, im
Widerspruch zur Definition einer Basis.
(ii) (i) Wir nehmen an B sei ein minimales Erzeugendensystem von V , aber nicht
linear unabh
angig. Aufgrund von Proposition 6.2.5 gibt es dann einen Vektor vl B, der
Linearkombination der Vektoren in B 0 = B\{vl } ist. Dann ist die lineare H
ulle von B 0
gleich der linearen H
ulle von B im Widerspruch zur Minimalitat.
87
KAPITEL 6. VEKTORRAUME
(i) (iii) Jede Basis ist per Definition linear unabhangig, bleibt also zu zeigen, dass sie
maximal mit dieser Eigenschaft ist. Angenommen sie ware nicht maximal, d. h. es gibt
einen Vektor v V , so dass die Menge B 0 = B {v} immer noch linear unabhangig ist.
Das ist aber nur dann m
oglich, wenn v
/ LH(B) (folgt aus Proposition 6.2.5) und damit
ist B kein Erzeugendensystem.
(iii) (i) Wir nehmen an B sei eine maximale Menge linear unabhangiger Vektoren in
V , aber kein Erzeugendensystem von V . Dann gibt es einen Vektor v V der nicht in
der linearen H
ulle LH(B) liegt. Dann ist aber nach Proposition 6.2.5) die Menge B {v}
immer noch linear unabh
angig, was im Widerspruch zur Maximalitat steht.
Beispiel 6.2.12
Sei V = K 3 und v1 = (1, 2, 0) V . Dieser Vektor ist linear
unabh
angig, da es nicht der Nullvektor ist. Aber die Menge {v1 } ist nicht maximal,
da zum Beispiel v2 = (1, 2, 1) linear unabhangig zu v1 ist.
Es ist nicht sehr schwierig einen Vektor v2 = (a1 , a2 , a3 ) zu finden, der linear
unabh
angig zu v1 ist. Selbst wenn wir die ersten beiden Komponenten gleich
wahlen, d. h. a1 = 1, a2 = 2, dann f
uhrt nur die Wahl a3 = 0 zu einem Vektor,
der von v1 abh
angig ist, wohingegen jede Wahl a3 K\{0} zu einem zu v1 linear
unabh
angigen Vektor f
uhrt.
Die Menge {v1 , v2 } ist also per Konstruktion linear unabhangig, allerdings ist
sie immer noch nicht maximal. Daf
ur wahlen wir zum Beispiel den Vektor v3 =
(0, 1, 0). Die Menge B = {v1 , v2 , v3 } ist linear unabhangig, aber sie ist auch
maximal mit dieser Eigenschaft, so dass sie eine Basis ist.
Wir betrachten den Vektorraum V = K 2 und darin die Vektoren
v1 = (1, 1) v2 = (2, 2) v3 = (1, 0)
v4 = (2, 1)
88
KAPITEL 6. VEKTORRAUME
b1 =
X i
1
v
bi .
1
1
i=1
Ersetzt man das b1 auf diese Weise in der Darstellung von u, so erhalt man eine
Linearkombination von u in den Vektoren aus B 0 .
(ii) Zeige: B 0 ist linear unabh
angig.
P
Seien 1 , . . . , k K, sodass 1 v + ki=2 i bi = 0. Durch Einsetzen der Darstellung
von v erh
alt man
!
k
k
X
X
0 = 1
i bi +
i bi
i=1
= (1 1 )b1 +
i=2
k
X
(1 i + i )bi .
i=2
89
KAPITEL 6. VEKTORRAUME
Beispiel 6.2.17 Der K n hat die Basis B = {e1 , e2 , . . . , en } wobei die Vektoren ei an
allen Stellen den Eintrag null haben auer an der i-ten Stelle
ei = (0, 0, . . . , 0, 1, 0, . . . , 0).
Dies ist eine Basis, die sogenannte Standardbasis, da der Vektor v = (1 , 2 , . . . , n )
als Linearkombination der ei geschrieben werden kann:
v = (1 , 2 , . . . , n ) =
n
X
i ei .
i=1
Also ist B ein Erzeugendensystem. Es folgt, aber auch, dass die Menge B eine Basis ist,
denn wenn
n
X
0V =
i ei = (1 , 2 , . . . , n )
i=1
Beweis. (i) Angenommen B = {v1 , . . . , vk } sei keine Basis, das heit sie ist kein Erzeugendensystem. Dann k
onnten Vektoren vk+1 , . . . , vn hinzuf
ugen, so dass die Menge
{v1 , . . . , vn } eine Basis ist. Dann hatten wir allerdings eine Basis mit n > k Elementen
in einem k-dimensionalen Vektorraum im Widerspruch zu Satz6.2.15.
(ii) Angenommen B = {v1 , . . . , vk } sei keine Basis, das heit nicht linear unabhangig.
Aufgrund von Proposition 6.2.5 konnen wir dann Vektoren vl aus B entfernen, bis
B 0 = B\{vl | l I {1, . . . , k}} linear unabhangig ist. Aber dann ware B 0 eine
Basis mit n < k Elementen in einem k-dimensionalen Vektorraum im Widerspruch
zu Satz6.2.15.
Dieser Satz ist sehr praktisch, da es nun gen
ugt eine der beiden Eigenschaften lineare Unabhangigkeit oder Erzeugendensystem zu zeigen, wenn die Dimension des Vektorraums
bekannt ist.
90
KAPITEL 6. VEKTORRAUME
(6.1)
(6.2)
Beweis. Die Vorgehensweise des Beweises besteht darin, eine Basis von U + V zu wahlen
und die Anzahl der Vektoren zu z
ahlen. Dabei besteht die Schwierigkeit im wesentlichen
darin, da die Vektoren, welche sich in nat
urlicher Weise als Basis anbieten auch tatsachlich
eine Basis darstellen, d.h. insbesondere auch linear unabhangig sind.
Es sei y1 , . . . , yk eine Basis von U V .
Nach dem Basiserg
anzungssatz gibt es u1 , .., um U , so da y1 , . . . , yk , u1 , . . . , um
eine Basis von U ist.
Ebenso lassen sich v1 , . . . , vn V finden, so da y1 , . . . , yk , v1 , . . . , vn eine Basis von
V ist.
91
KAPITEL 6. VEKTORRAUME
und
v = 1 y1 + + k yk + 1 v1 + + n vn .
Mithin erhalten wir
x = u + v = (1 + 1 )y1 + + (k + k )yk + 1 u1 + + m um + 1 v1 + + n vn ,
woraus U + V LH(y1 , . . . , yk , u1 , . . . , um , v1 , . . . , vn ) folgt.
zeige: y1 , . . . , yk , u1 , . . . , um , v1 , . . . , vn sind linear unabh
angig.
Dazu betrachten wir die Gleichung
1 y1 + + k yk + 1 u1 + + m um + 1 v1 + + n vn = 0W
(6.3)
und setzen
u := 1 y1 + + k yk + 1 u1 + + m um .
Wegen (6.3) mu
1 v1 + + n vn = u
gelten. Also ist nicht nur 1 v1 + + n vn V sondern auch 1 v1 + + n vn U
bzw. zusammenfassend 1 v1 + + n vn U V . Daher existieren 1 , . . . , k K
mit
1 y1 + + k yk = 1 v1 + + n vn ,
so da Gleichung (6.3) die Form
(1 + 1 )y1 + + (k + k )yk + 1 u1 + + m um = 0W
annimmt. Da y1 , . . . , yk , u1 , . . . , um als Basis von U linear unabangig ist, m
ussen alle
Koeffizienten verschwinden, insbesondere konnen wir 1 = = m = 0 folgern.
Damit verk
urzt sich (6.3) zu
1 y1 + + k yk + 1 v1 + + n vn = 0W .
Diese Gleichung kann jedoch ebenfalls nur f
ur verschwindende 1 , . . . , k , 1 , . . . , n
bestehen, weil auch y1 , . . . , yk , v1 , . . . , vn als Basis von V linear unabhangig sind. Insgesamt haben wir also folgern konnen, da (6.3) nur auf triviale Weise erf
ullbar, womit
die lineare Unabh
angigkeit der Vektoren y1 , . . . , yk , u1 , . . . , um , v1 , . . . , vn erwiesen
ist.
Damit sind y1 , . . . , yk , u1 , . . . , um , v1 , . . . , vn als Basis von U + V bestatigt und es
folgt
dim(U + V ) = k + m + n
= (k + m) + (k + n) k
= dim U + dim V dim(U V ) ,
was zu beweisen war.
92
KAPITEL 6. VEKTORRAUME
Satz 6.3.4 F
ur die Summe U + V zweier Unterraume U, V W eines K-Vektorraumes
sind folgende Aussagen
aquivalent:
i) Zu jedem Vektor x U + V gibt es ein eindeutig bestimmtes u U und v V
mit x = u + v.
ii) U V = {0W }.
Beweis. ii) i) Angenommen der Vektor x U + V erlaube zwei unterschiedliche
Darstellungen
x = u1 + v1 = u2 + v2
mit u1 , u2 U und v1 , v2 V , wobei u1 6= u2 und v1 6= v2 . Aus dieser Gleichung folgt
u1 u2 = v1 v2 ,
| {z } | {z }
U
weshalb u1 u2 , v2 v1 U V . Da u1 u2 =
6 0W folgt U V 6= {0W } im Widerspruch zu ii).
i) ii) Angenommen U V 6= {0W }. Dann existiert y U V mit y 6= 0W . Der
Vektor x U + V habe die Darstellung x = u + v mit u U und v V . Dann gilt auch
x = (u + y) + (v y), wobei u + y U und v y V . Damit ist eine zweite Darstellung
gefunden im Widerspruch zu i).
Korollar 6.3.5 F
ur zwei Untervektorraume U, V W eines endlichdimensionalen
K-Vektorraums W sind folgende Aussagen aquivalent:
i) W = U V .
ii) W = U + V und dim W = dim U + dim V .
iii) U V = {0W } und dim W = dim U + dim V .
Beweis. i) ii) Aussage i) impliziert per Definition des -Symbols W = U + V und
U V = {0W }. Mittels der Dimensionsformel (6.2) folgt dann dim W = dim(U + V ) =
dim U + dim V .
ii) iii) Da dim W = dim(U + V ) folgt aus der Voraussetzung in ii) und der Dimensionsformel (6.2), da dim(U V ) = 0. Also ist U V = {0W }.
iii) i) Aus U V = {0W } folgt nach der Dimensionsformel dim(U + V ) = dim U + dim V .
Die Voraussetzung in iii) liefert dann dim(W ) = dim(U +V ). Da der Unterraum U +V W
von gleicher Dimension ist wie W , folgt U + V = W und damit U V = W , weil U und V
trivialen Durchschnitt haben.
93
KAPITEL 6. VEKTORRAUME
Wir wollen jetzt die Begriffe dieses Kapitels mit unserer geometrischen Anschauung verbinden.
Beispiel 6.3.6 Sei V = R2 , dann konnen wir uns einen Vektor v V als Punkt in einer
Ebene vorstellen (oder auch als Pfeil vom Ursprung zu diesem Punkt). Da der R2 ein
zweidimensionaler R-Vektorraum ist, gibt es drei Arten von Untervektorraumen - welche
mit Dimension 0, 1 oder 2. Ein Raum der Dimension 0 enthalt nur den Nullvektor. Da
der R2 die Dimension zwei hat, ist ein Unterraum der Dimension 2 schon der ganze R2 .
Ein Unterraum U der Dimension 1 hat eine Basis bestehend aus einem Vektor u U ,
der nicht der Nullvektor ist. Die lineare H
ulle dieses Vektor besteht aus allen Vielfachen
dieses Vektors. Diese Vielfache entsprechen geometrisch allen Punkten, die auf der vom
Nullpunkt und u aufgespannten Geraden liegen. Also ist U = LH(u) eine Gerade durch
den Ursprung.
Seien U1 , U2 V Untervektorr
aume der Dimension 1 und sei u1 eine Basis von U1 und
u2 eine Basis von U2 . Es gibt zwei Situationen die eintreten konnen:
1. U1 = U2 , dann sind die Vektoren u1 , u2 linear abhangig und der Durchschnitt
U1 U2 = U1 . Mithilfe der Dimensionsformel (6.2) konnen wir berechnen
dim(U1 + U2 ) = dim U1 + dim U2 dim(U1 U2 ) = 1 + 1 1 = 1,
das heit die Summe U1 + U2 = U1 .
2. U1 =
6 U2 , dann sind die Vektoren u1 , u2 linear unabhangig und der Durchschnitt
U1 U2 = {0V }. Mithilfe der Dimensionsformel (6.2) konnen wir berechnen
dim(U1 + U2 ) = dim U1 + dim U2 dim(U1 U2 ) = 1 + 1 0 = 2,
das heit die Summe U1 + U2 = R2 , und somit gilt sogar U1 U2 = R2 .
Beispiel 6.3.7 Sei V = R3 , dann konnen wir uns einen Vektor v V als Punkt im
Raum vorstellen (oder auch als Pfeil vom Ursprung zu diesem Punkt). Da der R3 ein
dreidimensionaler R-Vektorraum ist, gibt es drei Arten von Untervektorraumen - welche
mit Dimension 0, 1, 2 oder 3. Der Raum {0V } ist der einzige Unterraum der Dimension
0 und der R3 selbst der einzige Unterraum der Dimension drei.
Ein Unterraum U der Dimension 1 entspricht wie in Beispiel 6.3.6 einer Gerade durch
den Ursprung. Ein Unterraum der Dimension 2 wird von 2 linear unabhangigen Vektoren
erzeugt und ist somit eine Ebene durch den Ursprung.
Seien U, W V Untervektorr
aume. Wir betrachten 2 Situationen in denen wir die
Summer U + W berechnen.
1. Sei U ein Unterraum der Dimension 1 mit Basis u 6= 0V und W ein Unterraum
der Dimension 2 mit Basis w1 , w2 . Wenn u
/ W , dann ist auch U 6 W und somit
ist U W = {0V }. Mithilfe der Dimensionsformel (6.2) konnen wir berechnen
dim(U + W ) = dim U + dim W dim(U W ) = 1 + 2 0 = 3,
94
KAPITEL 6. VEKTORRAUME
das heit die Summe U + W ist der ganze R3 . Aufgrund von U W = {0V } ist
die Summe sogar direkt U W = R3 .
2. Seien U, W ( R3 Unterr
aume der Dimension 2 mit den Basen u1 , u2 , bzw. w1 , w2 .
Wenn U 6= W , dann gibt es in U einen Vektor u, der zu w1 , w2 linear unabhangig
ist, so dass u, w1 , w2 eine Basis des R3 ist. Daher ist U + W = R3 und wir konnen
mit der Dimensionsformel (6.2) die Dimension des Durchschnitt U W berechnen
3 = dim(U + W ) = dim U + dim W dim(U W ) = 2 + 2 dim(U W ).
Somit ist dim(U W ) = 1, das heit, wenn sich zwei Ebenen im Raum schneiden,
dann entsteht eine Gerade.
95
7.1. Matrizen
In diesem Abschnitt wollen wir lernen mit Matrizen zu rechnen und sehen welche Art von
Operationen mit ihnen m
oglich sind.
Definition 7.1.1 Seien m und n zwei nat
urliche Zahlen, m, n 1 und K ein Korper. Eine mn Matrix A mit Eintr
agen in K ist ein rechteckiges, tabellenformiges Zahlenschema
mit m Zeilen und n Spalten
A= .
= aij i{1,...,m} = (aij ),
.
.
..
..
..
j{1,...,n}
96
7.1. MATRIZEN
n
X
aik bkj
(7.1)
k=1
die Koeffizienten einer m p Matrix C := (cij ) MatK (m, p) festgelegt, die man
die Produktmatrix von A und B nennt, man schreibt daf
ur C = A B = AB.
Um die Produktmatrix AB berechnen zu konnen, ist es notwendig, dass die Matrix A
genauso viele Spalten hat, wie die Matrix B Zeilen hat. Das Produkt hat dann so viele
Zeilen wie A und so viele Spalten wie B.
Zur Berechnung des Eintrags in der i-ten Zeile und der j-ten Spalte des Produkts, benotigt
man die i-te Zeile von A und die j-te Spalte von B. Diese haben gleich viele Eintrage,
namlich n St
uck, so dass es m
oglich ist den k-ten Eintrag der i-ten Zeile von A mit dem
k-ten Eintrag der j-ten Spalte von B zu multiplizieren. Diese f
ur k = 1, . . . , n berechneten
Produkte werden dann aufaddiert.
Beispiel 7.1.3
1
2
Wir berechnen die Summe der Matrizen A = 0 2 ,
1 0
3
0
2
1 MatK (3, 2) und erhalten
B=
1 2
1
2
3
0
4
2
1 = 2 1 .
A + B = 0 2 + 2
1 0
1 2
2 2
Auerdem berechnen wir 5 A und erhalten
1
2
5
10
5 A = 5 0 2 = 0 10 .
1 0
5
0
1 3
Wir berechnen das Produkt der Matrizen A =
MatK (2, 2) und
2 5
2 1
B=
MatK (2, 2). Dies ist moglich, da A genauso viele Spalten hat, wie
1 1
B Zeilen, n
amlich 2.
1 3
2 1
1 2 + 3 (1)
11+31
1 4
AB =
=
=
.
2 5
1 1
2 2 + 5 (1) 2 1 + 5 1
9 3
1 4
Jetzt wollen wir das Produkt der Matrizen A = 2 5 MatK (3, 2) und
3 6
1 0 1 2
B=
MatK (2, 4) berechnen. Auch hier kann das Produkt A B
2 3 0 1
97
7.1. MATRIZEN
in der Tat berechnet werden kann, da A zwei Spalten und B zwei Zeilen hat.
Umgekehrt kann B A nicht berechnet werden, da die Anzahl der Spalten von B
ungleich der Anzahl der Zeilen von A ist (4 6= 3).
1 4
1
0
1
2
A B = 2 5
2 3 0 1
3 6
1 1 + 4 2 1 0 + 4 3 1 (1) + 4 0 1 2 + 4 1
= 2 1 + 5 2 2 0 + 5 3 2 (1) + 5 0 2 2 + 5 1
3 1 + 6 2 3 0 + 6 3 3 (1) + 6 0 3 2 + 6 1
1 + 8 0 + 12 1 + 0 2 4
9 12 1 2
= 2 + 10 0 + 15 2 + 0 4 5 = 12 15 2 1
3 + 12 0 + 18 3 + 0 6 6
15 18 3 0
Die Matrix AB hat 3 Zeilen, da A 3 Zeilen hat und 4 Spalten, da B 4 Spalten hat.
Satz 7.1.4 Die Menge der m n Matrizen MatK (m, n) ist ein K-Vektorraum der
Dimension m n.
Beweis. Da eine m n-Matrix m n Eintrage aus K hat und Addition und Skalarmultiplikation komponentenweise definiert wurden, konnen wir die Menge MatK (m, n) mit dem
Vektorraum K mn identifizieren.
Das neutrale Element der Addition ist die Nullmatrix Om,n mit den Eintrage oij = 0 f
ur
alle i = 1, . . . , m und j = 1, . . . , n.
Eine Basis von MatK (m, n) bilden die Matrizen Eij , die in der i-ten Zeile und j-ten Spalte
den Eintrag 1 haben und sonst null.
Satz 7.1.5 (Assoziativit
at der Matrixmultiplikation)
Seien A MatK (m, n), B MatK (n, p), C MatK (p, q) Matrizen, dann gilt:
(A B) C = A (B C)
Beweis. Zun
achst bemerken wir, dass es moglich ist die angegebenen Produkte zu berechnen.
Das Produkt A B liegt in MatK (m, p) und kann daher mit der Matrix C MatK (p, q)
multipliziert werden, so dass (A B) C MatK (m, q).
Auf der anderen Seite liegt B C MatK (n, q) so dass A (B C) Sinn ergibt und ebenfalls
in MatK (m, q) liegt.
Wir betrachten jetzt einen Eintrag des Produkts (A B) C:
(A B) C
ij
p
P
Bilde das Produkt von AB und C
(A B)i` c`j
`=1
p
n
P
P
=
aik bk` c`j Bilde das Produkt von A und B
=
`=1 k=1
p P
n
P
Distributivgesetz in K
`=1k=1
98
7.1. MATRIZEN
p
n P
P
Kommutativgesetz der Addition in K
aik bk` c`j
k=1`=1
p
n
P
P
Distributivgesetz in K
bk` c`j
aik
=
`=1
k=1
n
P
aik (B C)kj
k=1
= A (B C) ij
Definition des Produkts von B und C
Definition des Produkts von A und BC
Beweis. Zun
achst bemerken wir, dass es moglich ist die angegebenen Summen und Produkte
zu berechnen. Die Summe B + C liegt in MatK (n, p) und kann daher mit der Matrix
A MatK (m, n) multipliziert werden, so dass A (B + C) MatK (m, p).
Auf der anderen Seite liegt sowohl A B MatK (m, p), als auch A C MatK (m, p), so
dass die Summe A B + A C Sinn ergibt und ebenfalls in MatK (m, q) liegt.
Wir betrachten jetzt einen Eintrag des Produkts A (B + C):
A (B + C)
ij
=
=
=
n
P
ai` (B + C)`j
`=1
n
P
`=1
n
P
`=1
n
P
Bilde das Produkt von A und B + C
Bilde die Summe von B und C
Distributivgesetz in K
n
P
ai` c`j Assoziativgesetz der Addition in K
`=1
`=1
Definition des Produkts von A und B, bzw. von A und C
= (AB)ij + (AC)ij
ai` b`j +
99
7.1. MATRIZEN
Beweis. Multiplikation mit einem Skalar andert die Groe einer Matrix nicht, so dass alle
Produkte definiert sind.
Wir betrachten jetzt einen Eintrag des Produkts (A B):
(A B)
ij
n
P
ai` b`j
Bilde das Produkt von A und B
`=1
n
P
(ai` ) b`j Assoziativitat der Multiplikation in K
`=1
= ((A) B)ij Definition des Produkts von A und B .
=
1 0 0 0
0 1 0 0
En =
,
0 0 . . . 0
0 0
n
X
k=1
=
6=
=
= B A.
0 1
0 1
0 1
0 1
0 1
0 1
Das bedeutet allerdings nicht, dass Matrizen nie miteinander kommutieren. So folgt aus
Satz 7.1.7, dass Vielfache der Einheitsmatrix En mit allen n n Matrizen kommutieren,
denn es gilt
En A = A = A En = A En .
Bemerkung 7.1.10 F
ur nichtquadratische Matrizen macht das Produkt B A nicht
zwangsl
aufig Sinn, nur weil A B Sinn macht. Und selbst wenn beide Produkte Sinn
ergeben, dann ist die entstehende Matrix von einem anderen Format. Als Beispiel
100
7.1. MATRIZEN
1
Sei also v = (2, 3, 2) und w = 0 , dann ist
2
1
v w = (2, 3, 2) 0 = 2 (1) + 3 0 + (2) 2 = 6
2
aber
1
2 3 2
0
0
w v = 0 (2, 3, 2) = 0
2
4
6 4
Die Definition der transponierten Matrix ist zum gegenwartigen Zeitpunkt ziemlich unmotiviert, das wird sich aber
andern, sobald wir Matrizen als lineare Abbildungen mit
euklidischen Vektorr
aumen und insbesondere dem Skalarprodukt in Verbindung bringen.
Definition 7.1.11 (Transponierte)
Es sei A MatK (m, n) eine Matrix. Die zu A transponierte Matrix A> MatK (n, m)
ergibt sich sich
und Zeilen von A.
durch Vertauschen>der Spalten
Sei A = aij i{1,...,m} , dann ist A = aji j{1,...,n} .
j{1,...,n}
i{1,...,m}
Beispiel 7.1.12
A=
1 1 2
3 4 3
MatR (2, 3)
1
2
4
v=
3 MatR (4, 1) = R
1
1 3
A> = 1 4 MatR (3, 2)
2 3
v > = 1 2 3 1 MatR (1, 4)
Offenbar wird man durch zweifaches Transponieren auf die Ausgangsmatrix zur
uckgef
uhrt,
d.h. es gilt
(A> )> = A>> = A .
(7.2)
Satz 7.1.13 (Transponierte einer Produktmatrix)
Es seien A MatK (m, p) und B MatK (p, n). Dann ist die transponierte Matrix der
Produktmatrix AB MatK (m, n) gegeben durch
(AB)> = B > A> MatK (n, m),
d.h. die Transponierte der Produktmatrix entspricht dem Produkt der transponierten
Faktoren in umgekehrter Reihenfolge.
101
7.1. MATRIZEN
Beweis. Es seien A = (aj` ) und B = (b`i ). Da B > MatK (n, p) und A> MatK (p, m)
ist das Matrixprodukt B > A> wohldefiniert. Definitionsgema ist das Matrixelement der
Produktmatrix AB mit den Indizes i, j gegeben durch
(AB)ji =
p
P
aj` b`i .
`=1
Vertauschen der Indizes i und j liefert das Matrixelement an der Position i, j (ite Zeile,
jte Spalte) der transponierten Produktmatrix (AB)> . Somit erhalten wir
Definition der Transponierten von AB
(AB)> ij = (AB)ji
=
=
p
P
Produkt von A und B
aj` b`i
`=1
p
P
Kommutativgesetz der Multiplikation in K
b`i aj`
`=1
p
P
(B > )i` (A> )`j Definition der Transponierten von A, bzw. B
`=1
Definition des Produkts von B > und A>
= (B > A> )ij
3
2
1
die Matrix
1 0 3
0 1 0 MatR (3, 4)
1 1 3
Der Zeilenrang von A ist 2, da jeweils 2 Zeilen linear unabhangig sind, aber die erste
Zeile die Summe der zweiten und der dritten Zeile ist.
Der Spaltenrang ist ebenfalls 2, da zum einen die vierte Spalte das dreifache der zweiten
Spalten ist. Auerdem kann man die erste Spalte aus der zweiten und dritten Spalte
linear kombinieren und zwar indem man die zweite Spalte mit 3 multipliziert und die
dritte mit 2 und dies aufaddiert. Da aber die zweite und dritte Spalte linear unabhangig
sind, ist der Spaltenrang 2.
Wir sehen, dass f
ur eine m n Matrix der Zeilenrang kleiner gleich m sein muss, da es ja
genau m Zeilen gibt. Auerdem muss der Zeilenrang kleiner gleich n sein, da jede Zeile ein
Vektor aus dem K n ist und maximal n davon konnen linear unabhangig sein.
F
ur den Spaltenrang k
onnen wir analog argumentieren und erhalten die Abschatzung
Zeilenrang min(m, n)
und
102
7.1. MATRIZEN
..
.
.. = ...
A= .
= a1 . . . an
am
. . . am
am
n
1
mit den Zeilenvektoren a1 , ..., am Kn und den Spaltenvektoren a1 , ..., an K m . Es
sei 1 s n der Spaltenrang von A. Dann gibt es s linear unabhangige Spaltenvektoren
b1 , ..., bs K m , so da sich jeder der n Spaltenvektoren a1 , ..., an als Linearkombination
der b1 , ..., bs schreiben l
at. Anders ausgedr
uckt, gibt es zu jedem Spaltenvektor ai mit
1
s
i {1, ..., n} Koeffizienten ci , ..., ci , so da
ai =
s
X
cki bk .
k=1
F
ur das Matrixelement
aji
gilt dann
aji =
s
X
cki bjk ,
k=1
j
wobei bk die jte Komponente von bk bezeichnet. Die cki s lassen sich zu s Zeilenvektoren
ck = (ck1 , ..., ckn ) zusammenfassen. Auf diese Weise lat sich die obige Gleichung f
ur den
jten Zeilenvektor aj in der Form
aj =
s
X
k=1
ck bjk =
s
X
bjk ck
k=1
schreiben. Damit ergibt sich jeder der m Zeilenvektoren als Linearkombination der s
Zeilenvektoren c1 , ..., cs Kn . Daher mu
Zeilenrang von A = z s = Spaltenrang von A
gelten. Wir erhalten nur eine obere Abschatzung des Zeilenrangs, da die lineare Abhangigkeit
der c1 , ..., cs nicht ausgeschlossen ist bzw. die lineare Unabhangigkeit der c1 , ..., cs nicht
gesichert ist.
Um die Gleichheit zu zeigen, f
uhren wir die obige Argumentation in umgekehrter Weise
durch. Dazu sei 0 z n der Zeilenrang von A. Dann gibt es z linear unabhangige
1 , ..., c
z Kn , so da sich samtliche Zeilenvektoren der Matrix A jeweils
Zeilenvektoren c
daraus linear kombinieren lassen. Analog zur obigen Rechnung lat sich daraus
Spaltenrang von A = s z = Zeilenrang von A
schlieen. Also gilt s z aber auch z s wie oben gesehen. Das ist nur moglich wenn
s = z, d.h. Spalten- und Zeilenrang sind gleich.
103
7.1. MATRIZEN
Definition 7.1.17 Sei A MatK (n, m) eine Matrix, dann ist Rang der Matrix A,
geschrieben rangA, definiert als der Spaltenrang von A.
Die quadratischen Matrizen bilden einen Ring (s. Def. 4.3.6), das heit wir konnen Matrizen
miteinander multiplizieren, aber es gibt nicht f
ur jedes Element ein Inverses bez
uglich der
Multiplikation. Aber genau wie in den Restklassenringen spielen die Einheiten (s. Def.
4.3.10), also diejenigen Matrizen, die ein Inverses besitzen, eine wichtige Rolle und bilden
insbesondere eine Gruppe (s. Prop. 4.3.12).
Definition 7.1.18 (Inverse)
Eine Matrix A MatK (n, n) heit invertierbar, falls eine Matrix A1 MatK (n, n)
existiert mit
A1 A = AA1 = En .
Die Matrix A1 heit die zu A inverse Matrix bzw. die Inverse von A.
Die Menge der invertierbaren n n-Matrizen wird mit Gln (K) bezeichnet (general
linear group=allgemeine lineare Gruppe).
Beweis. ad i) Wir m
ussen zeigen, dass B 1 A1 ein zu AB inverses Element ist, daf
ur multiplizieren wir diese Matrizen miteinander um zu sehen, ob das Produkt die Einheitsmatrix
ist:
(AB) (B 1 A1 ) = A B(B 1 A1 ) Assoziativgesetz
= A (BB 1 )A1 Assoziativgesetz
Definition der inversen Matrix
= A En A1
= AA1
Einheitsmatrix ist neutrales Element
= En
Definition der inversen Matrix
104
7.1. MATRIZEN
ad ii)
A> (A1 )> = (A1 A)> Satz 7.1.13
Definition der inversen Matrix
= E>
n
Transponieren der Einheitsmatrix ergibt die Einheitsmatrix
= En
Damit besitzt (A1 )> genau die definierende Eigenschaft der Inversen (A> )1 von A> .
Definition 7.1.20 Drei spezielle Arten von quadratischen Matrizen werden als Elementarmatrizen bezeichnet:
Diag(1 , 2 , . . . , n ) =
.
.
.
n
Die Matrix A = Diag(1 , 2 , . . . , n ) hat die Eintrage aii = i und aij = 0,
wenn i 6= j. Man bezeichnet Diag(1 , 2 , . . . , n ) als Diagonalmatrix, da sie nur
Eintr
age auf der Diagonalen hat.
1
..
0
1
.
..
Tij =
1
0
..
.
1
Die Matrix A = Tij hat die Eintrage a`` = 1, wenn ` 6= i, j, aii = ajj = 0,
aij = aji = 1 und a`k = 0, sonst.
1
..
1
Mij () =
..
.
1
Die Matrix A = Mij () hat die Eintrage a`` = 1, f
ur alle ` = 1, . . . , n, aij = und
a`k = 0, sonst.
Proposition 7.1.21 Sei A MatK (n, m), dann bewirkt die Multiplikation von links
mit einer Elementarmatrix M MatK (n, n) folgende elementare Zeilenumformung:
105
7.1. MATRIZEN
1 0
3 4
1 2 0 MatR (3, 4),
A= 3
2 1 0
1
die wir von links mit den Elementarmatrizen
1 0 0
2 0 0
Diag(2, 1, 3) = 0 1 0 , T23 = 0 0 1
0 1 0
0 0 3
multiplizieren wollen, wobei
2
Diag(2, 1, 3) A = 0
0
1 0 5
und M13 (5) = 0 1 0
0 0 1
0 0
1 0
3 4
2 0 6 8
1 0 3
1 2 0 = 3 1 2 0
0 3
2 1 0
1
6 3 0 3
1 0 0
1 0
3 4
1
1 2 0 = 2
T23 A = 0 0 1 3
0 1 0
2 1 0
1
3
Die Produktmatrix entsteht aus A durch
1 0 5
1
M13 (5) A = 0 1 0 3
0 0 1
2
0
3 4
1 0
1
1 2 0
0
3 4
9 5 3 1
1 2 0 = 3 1 2 0
1 0
1
2 1 0 1
106
T1
ij = Tij ,
7.1. MATRIZEN
Der Beweis dieses Satzes ergibt sich durch einfaches Nachrechnen, dass die angegebenen
Matrizen die Inversen sind. Es ist auch moglich sich zu u
berlegen, dass diese Matrizen
M 1 genau den elementaren Zeilenumformungen entsprechen, die die Umformungen, die
M bewirkt umkehren.
Satz 7.1.24 Jede invertierbare Matrix A MatK (n, n) ist ein Produkt von invertierbaren Elementarmatrizen.
Wir werden diesen Satz in K
urze beweisen, aber wir werden ihn jetzt bereits nutzen um die
inverse Matrix einer invertierbaren Matrix zu bestimmen. Wir nehmen an, die invertierbare
Matrix A MatK (n, n) sei das Produkt von k invertierbaren Elementarmatrizen M1 , ..., Mk ,
das heit A = M1 . . . Mk , dann ist nach Satz 7.1.19
A1 = (M1 . . . Mk )1 = Mk1 . . . M11 .
Anders formuliert: Durch sukzessives Multiplizieren der Matrizen M11 , M21 , . . . , Mk1
mit A entsteht die Einheitsmatrix. Das bedeutet, wir konnen A durch elementare Zeilenumformungen zu einer Einheitsmatrix transformieren. F
uhren wir gleichzeitig dieselben
Zeilenumformungen an einer Einheitsmatrix durch, dann erhalten wir so die zu A inverse
Matrix.
Beispiel 7.1.25 Sei
A :=
1 2
4 2
MatQ (2, 2)
+
!
1
0
6 |
4 1 |
!
1 2 | 1 0
+
0 1 |
1 0 |
0 1 |
2
3
1
3
2
3
1
6
1
3
1
6
1
6
Diese drei Zeilenumformungen entsprechen der Multiplikation von links mit den Matrizen
1 0
1 0
1 2
1
1
1
M1 =
M2 =
und M3 =
4 1
0 61
0 1
107
gilt, in Ubereinstimmung
mit der obigen Rechnung.
Ebenso sehen wir, dass A gleich dem Produkt M1 M2 M3 ist. Daf
ur berechnen mit Satz
7.1.23 die Inversen der Elementarmatrizen
1 0
1 0
1 2
M1 =
M2 =
und M3 =
4 1
0 6
0 1
und erhalten
A = M 1 M2 M3
1 0
1 2
1 2
= M1
= M1
0 6
0 1
0 6
1 0
1 2
1 2
=
=
4 1
0 6
4 2
wie erwartet.
Zur Probe zeigen wir noch, dass A A1 = E2 ergibt.
!
!
!
1
1
4
1
2
1
1 2
+
3
3
3
3
6
= 4
=
23 1
4
4
2
4 2
+
3
6
3
3
3
6
1 0
0 1
108
Die Matrixmultiplikation ist genauso definiert, dass das Produkt aus einer Matrix mit
einem Vektor bestehend aus Unbekannten (ein Vektor ist eine Matrix mit einer Spalte)
uns ein lineares Gleichungssystem liefert.
Beispiel 7.2.2 F
ur a11 , a12 , a21 , a22 , b1 , b2 K ist
a11 a12
x1
b
= 1
a21 a22
x2
b2
ein LGS mit zwei Gleichungen und zwei Unbekannten. Anders formuliert:
a11 x1 + a12 x2 = b1
a21 x1 + a22 x2 = b2
0 1 3
Beispiel 7.2.3 Sei A =
, dann ist
2 1 0
x1
x2 + 3x3
0 1 3
3
x2 =
Ax =
=
2 1 0
2x1 + x2
1
x3
ein LGS mit zwei Gleichungen und drei Unbekannten.
und A(x) = Ax = 0 = 0.
Somit sind sowohl, x + y L(A, 0) und x L(A, 0), das heit L(A, 0) ist abgeschlossen
bez
uglich Addition und Skalarmultiplikation.
Wir wollen nun eine Strategie entwickeln wie man die Losungsmenge eines LGS bestimmen
kann. Ist die Matrix A eine Diagonalmatrix, dann ist es einfach die Losungsmenge zu
bestimmen. F
ur andere Matrizen m
ussen wir uns zunachst u
berlegen, welche Art von
Umformungen die L
osungsmenge des LSG nicht andern um dann zu zeigen, in welche
g
unstige Form die Matrix gebracht werden kann, so dass man die Losungsmenge des LGS
leicht bestimmen kann.
109
Definition 7.2.5 Eine Matrix A hat obere Zeilenstufenform, wenn folgendes gilt:
Sind in Zeile i die Eintr
age der ersten k 1 Spalten gleich null, d.h. ai1 , . . . , ai(k1) = 0,
aber aik =
6 0, dann m
ussen in Zeile i + 1 mindestens die Eintrage der ersten k Spalten
a(i+1)1 , . . . , a(i+1)k = 0 sein.
F
ur eine Matrix in Zeilenstufenform heit der erste von 0 verschiedene Eintrag jeder
Zeile Leitkoeffizient dieser Zeile.
Beispiel 7.2.6
a
0
0
0
a
a
0 b 0 0 0
0 0 c
0 0 c 0 0 0
0 0 0 d
0 0 0
0 0 0 d
0 0 0 0 0 e
b
0
0
c
0
110
a11 . . .
..
.
ai1
..
.
Sollte a11 = 0 gelten, tausche die erste Zeile mit einer Zeile j, f
ur die aj1 6= 0 gilt
(Regel a). F
ur jede Zeile in der ai1 6= 0 gilt, tun wir jetzt folgendes: Wir addieren
i1
das aa11
-fache der ersten Zeile zur i-ten Zeile (Regel b). Somit ist der neue Eintrag
i1
a11 + ai1 = 0.
in der i-ten Zeile und ersten Spalte aa11
(2) Betrachte die restlichen Eintrage unter rechts von a11 als neue Matrix A
a11 . . .
0
..
A
0
und wende Schritt (1) auf diese an. Sind alle Eintrage der ersten Spalte von A
a11 . . .
0 0
..
..
.
.
A
0
Definition 7.2.10 Sei A MatK (m, n). Wir sagen, dass A in Gau-Jordan-Form
ist, wenn A in einer Zeilenstufenform ist, bei der alle Leitkoeffizienten 1 sind und oberhalb
der Leitkoeffizienten nur Nullen stehen.
Beispiel 7.2.11
1
0
0
0
0 0 0 0
1
1 0 0 0
0
0 0 1 0 0
0
0 0 0 1 0
0
0 0 0 0 0 1
Gau-Jordan-Form:
0
1
0
0
0
0
1
0
0
0
0
1
1
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
1
0
111
wobei f
ur einen beliebigen Eintrag aus K steht.
Satz 7.2.12 Jede Matrix A MatK (m, n) kann durch elementare Zeilenumformungen
in Gau-Jordan-Form gebracht werden.
Auch diesen Beweis geben wir in Form eines Algorithmus an.
Algorithmus 7.2.13 (Gau-Jordan-Form)
Eingabe: Eine Matrix A MatK (m, n)
Ausgabe: Eine Matrix B MatK (m, n) in Gau-Jordan-Form.
Durchfu
hrung:
(1) Bringe A in obere Zeilenstufenform mithilfe des Algorithmus 7.2.9.
(2) Sei ai 6= 0 der Leitkoeffizient der i-ten Zeile, dann multipliziere diese Zeile mit 1/ai
(Regel c).
(3) Betrachte die erste Spalte von links mit einem Leitkoeffizienten. Steht in der j-ten
Zeile u
ber dem Leitkoeffizienten der i-ten Zeile ein Eintrag b 6= 0, dann multipliziere
die i-te Zeile mit b und addiere sie zur j-ten Zeile (Regel b).
(4) Wende Schritt (3) von links nach rechts alle Spalten mit einem Leitkoeffizienten
an.
0
0
4 2 1
0
2 2
A = 1 2
2 4 2 3 0
die wir mithilfe elementarer Zeilenumformungen in Gau-Jordan-Form bringen wollen.
Zunachst wenden wir Algorithmus 7.2.9 an um die Matrix in obere Zeilenstufenform zu
bringen. Der erste Schritt besteht darin die ersten zwei Zeilen zu tauschen um oben links
einen Eintrag zu erhalten, der nicht null ist.
2
0
0
4
2
1
1
2
0
2
2
2
0
2
2
0
4
2
1
1
0
2
4 2 3
0
+
2
4 2 3
0
1 2 0
2
2
1 2
0
2
2
1
2
0 4 2
1
0
4
2
1
0
0
0
0 0
0
72
0
0 2
1
4
+
Die so entstandene Matrix hat obere Zeilenstufenform. Im nachsten Schritt machen wir
alle Leitkoeffizienten zu 1
1 2 0
2
2
| (1)
1 2 0 2 2
0
0
0 4 2
1 | 41
0
1 12 14
7
2
0
0 0
0
2
| 7
0
0
0
0
1
112
Im letzten Schritt m
ussen alle Eintrage oberhalb von Leitkoeffizieten zu null werden.
Dies ist nur in der 5.ten Spalten noch nicht der Fall:
1 2 0 2 0
+
1 2 0 2 2
0
1 12 0
+
0
1 12 14
0
0
41
2
0
0
0
0
1
0
0
0
0
1
Diese Matrix hat nun Gau-Jordan-Form.
a11 . . . a1n b1
..
.. Mat (m, n + 1)
(A, b) := ...
K
.
.
am1 . . .
amn bm
Algorithmus 7.2.16 (L
osen linearer Gleichungssysteme)
Eingabe: Lineares Gleichungssystem Ax = b.
Ausgabe: L(A, b).
Durchfu
hrung:
(1) Bringe die Matrix (A, b) auf Gau-Jordan-Form (A0 , b0 ). Enthalt die Spalte b0 einen
Leitkoeffizienten von (A0 , b0 ), so besitzt das System keine Losung. Andernfalls ist
das System l
osbar - fahre fort.
osungsmenge des homogenen linearen Gleichungssystems U := L(A, 0) =
(2) Finde die L
0
L(A , 0). W
ahle dazu die Unbekannten, die nicht zu den Spalten der Leitkoeffizienten geh
oren als freie Parameter. Dr
ucke alle anderen Unbekannten mithilfe
dieser Parameter aus.
(3) Suche eine spezielle L
osung w aus L(A0 , b0 ). Setze dazu die Unbekannten, die nicht
zu den Spalten der Leitkoeffizienten gehoren auf Null. Die Unbekannten, die zu
den Spalten der Leitkoeffizienten gehoren, sind durch b0 festgelegt. Gebe
L(A, b) = w + U = {v K n | v = w + u, u U }
zur
uck.
Wir werden im Verlauf von Abschnitt 7.3, insbesondere ab Seite 131, begr
unden warum
uns dieser Algorithmus dieser Algorithmus wirklich die Losungsmenge eines linearen
Gleichungssystems berechnet. Hier wollen wir festhalten, dass sich durch das Umformen
der erweiterten Koeffizienten-Matrix in Gau-Jordan-Form die Losungsmenge des LGS
nicht andert, da wir dabei nur elementare Zeilenumfomungen verwenden.
113
1 2
0 0
(A, b) =
0 0
in Gau-Jordan-Form gegeben
0 0 0 | 0
1 0 0 | 0
.
0 0 0 | 1
0 0 0 0 0 | 0
Da in der Spalte b ein Leitkoeffizient steht, hat dieses LGS keine Losung. In der letzten
Zeile des LGS steht 0 x1 + 0 x2 + 0 x3 + 0 x4 + 0 x5 = 1, eine Gleichung ohne Losung.
1
0
(A, b) =
0
3 8 0 2 0 0 | 4
0 0 1
3
0 0 | 3
.
0 0 0
0
1 0 | 5
0 0 0 0
(7.3)
0 1 | 6
Da in der Spalte b kein Leitkoeffizient steht, hat das LGS eine oder mehrere Losungen.
Gema Schritt (2) von Algorithmus 7.2.16 berechnen wir zunachst die Losungen
x = (x1 , x2 , x3 , x4 , x5 , x6 , x7 ) des homogenen Systems
1 3 8 0 2 0 0 | 0
0 0 0 1
3
0 0 | 0
(A, 0) =
.
0 0 0 0
0
1 0 | 0
0 0 0 0
0 1 | 0
In den Spalten 2,3 und 5 steht kein Leitkoeffizient, weshalb wir die entsprechenden
Unbekannten als freie Parameter wahlen
x2 = ,
x3 =
und x5 = .
Die anderen Unbekannten liefert uns das homogene LGS. So entspricht die vierte Zeile
der Gleichung 1 x7 = 0, die dritte Zeile der Gleichung 1 x6 = 0. Die zweite Zeile
entspricht
x4 + 3x5 = 0
x4 = 3x5 = 3.
Und zuletzt betrachten wir die erste Zeile und erhalten
x1 + 3x2 + 8x3 2x5 = 0
8
2
3
x1
3 8 +2
0
1
0
x2
0
1
0
x3
3 = 0 + 0 +
x = x4 =
3
x5
1
0
0
0
0
0
x6
0
x7
, , K.
114
Um eine spezielle L
osung w L(A, b) = L(A0 , b0 ) zu berechnen, setzen wir entsprechend
Schritt (3) in Algorithmus 7.2.16 die Unbekannten, die zu Spalten ohne Leitkoeffizient
gehoren null, d. h. x2 = x3 = x5 = 0. Die anderen Unbekannten sind durch die Spalte
b0 = (b01 , b02 , b03 , b04 )> bestimmt und konnen direkt in 7.3 abgelesen werden.
Da der Leitkoeffizient der ersten Zeile in der ersten Spalte steht ist x1 = b01 = 4.
Der Leitkoeffizient der zweiten Zeile steht in der vierten Spalte und somit ergibt sich
x4 = b02 = 3. Nach dem gleichen Schema erhalten wir x6 = 5 und x7 = 6.
Damit ist insgesamt
4
3
8
2
0
1
0
0
0
0
1
0
L(A, b) = w + L(A, 0) = 3 + 0 + 0 + 3 .
0
0
0
1
5
0
0
0
6
0
0
0
(Vertr
aglichkeit mit der Additon)
(7.4)
(Vertr
aglichkeit mit der Skalarmultiplikation)
(7.5)
gilt.
Eine alternative Bezeichnung f
ur eine K-lineare Abbildung ist der Begriff Vektorraumhomomorphismus, bzw. Homomorphismus. Die Menge aller Homomorphismen von
V nach W wird mit HomK (V, W ) bezeichnet.
Eine lineare Abbildung F : V V von einem Vektorraum in sich selbst heit Endomorphismus. Die Menge aller Endomorphismen von V in sich selbst wird mit EndK (V )
bezeichnet.
Ein bijektiver Homomorphismus ist ein Isomorphismus, ein bijektiver Endomorphismus
ist ein Automorphismus.
Gibt es einen Isomorphismus F : V W , dann sind V und W isomorph zueinander.
115
Eine K-lineare Abbildung ist insbesondere immer auch ein Gruppenhomomorphismus von
der additiven Gruppe (V, +) in die additiven Gruppe (W, +) (s. Abschnitt 4.2).
Anstatt von K-linear spricht man meist einfach von linear, wenn in einem bestimmten
Kontext klar ist, welcher K
orper gemeint ist. Die beiden definierenden Eigenschaften
linearer Abbildungen in (7.4) und (7.5) lassen sich gleichwertig in einer einzigen Gleichung
F (u + v) = F (u) + F (v)
(7.6)
zusammenfassen, welche f
ur alle , K und alle u, v V bestehen mu.
Beispiel 7.3.2 Die Abbildung
F : K2 K
x1
x=
7 F (x) = 4x1 3x2
x2
ist linear, da
F (x + x
) = 4(x1 + x
1 ) 3(x2 + x
2 ) = (4x1 3x2 ) + (4
x1 3
x2 ) = F (x) + F (
x)
und
F (x) = 4(x1 ) 3(x2 ) = (4x1 3x2 ) = F (x)
gilt. Die Abbildung
G : K2 K
x1
7 G(x) = 4x1 3x2 + 2
x=
x2
hingegen ist nicht linear, da f
ur 0 6= K gilt:
G(x) = 4(x1 ) 3(x2 ) + 2 6= (4x1 3x2 + 2) = G(x).
Der konstante Term +2 sorgt hier daf
ur, dass G nicht linear ist.
Auch die Abbildung
H : K2 K
x1
x=
7 H(x) = 4x21 3x2
x2
ist nicht linear, da gilt
H(x + x
) = 4(x1 + x
1 )2 3(x2 + x
2 ) = 4(x21 + x
21 + 2x1 x
1 ) 3(x2 + x
2 )
6= (4x21 3x2 ) + (4
x21 3
x2 ) = H(x) + H(
x)
sofern x1 , x1 6= 0. Hier bereitet der quadratische Term x21 Probleme, da wir aufgrund der
binomischen Formel (x1 + x
1 )2 = x21 + x
21 + 2x1 x
1 erhalten und nicht x21 + x
21 wie es f
ur
Linearit
at notwendig w
are.
116
Beispiel 7.3.3 Sei V ein Vektorraum der Dimension n und B = {b1 , . . . , bn } eine Basis,
dann ist
F : V Kn
n
X
v=
i bi 7 (1 , . . . , n )
i=1
eine bijektive K-lineare Abbildung (also ein Isomorphismus), die sogenannte Koordinatenabbildung.
Zunachst einmal stellen wir fest, dass die Abbildung F wohldefiniert ist, also Sinn ergibt.
Da B eine Basis von V ist, kann jeder Vektor v V auf eindeutige Art und Weise als
Linearkombination der Basisvektoren geschrieben werden (s. Bem. 6.2.10). F
ur jedes
n
P
v V gibt es daher eindeutig bestimme Skalare 1 , . . . , n K, so dass v =
i bi gilt.
i=1
i=1
i=1
F (v) = F
n
X
!
(i )bi
= (1 , . . . , n ) = (, . . . , n ) = F (v).
i=1
Seien u =
n
P
i bi und v =
i=1
n
P
i bi , dann ist u + v =
i=1
n
X
n
P
i bi +
i=1
n
P
i bi =
i=1
n
P
(i + i )bi
i=1
!
(i + i )bi
i=1
= (1 + 1 , . . . , n + n ) = (1 , . . . , n ) + (1 , . . . , n )
= F (u) + F (v).
Die Abbildung F ist bijektiv, da
G : Kn V
n
X
(1 , . . . , n ) 7 v =
i bi
i=1
117
118
Beweis.
i) F
ur alle u1 , u2 U und , K gilt
| Linearitat von F
| Linearitat von G
= (G F )(u1 ) + (G F )(u2 )
(F (u1 + u2 ))
| Definition vi
| Linearitat von F
= u1 + u2
| F 1 F = id
= F 1 (F (u1 )) + F 1 (F (u2 ))
| F 1 F = id
= F 1 (v1 ) + F 1 (v2 )
| Definition vi .
119
Wenden wir auf beiden Seiten dieser Gleichung die lineare Abbildung F an, so folgt
wegen der Linearit
at und der Eigenschaft i)
1 F (v1 ) + ... + n F (vn ) = F (0V ) = 0W .
Damit stellen sich aber auch die Bildvektoren F (v1 ), ..., F (vm ) in W als linear
abh
angig heraus wie behauptet.
ad iii) Eine Aussage der Form A B ist genau dann richtig, wenn die Aussage B A
richtig ist (s. Satz 2.3).
In Implikationsform liest sich Aussage ii) folgendermaen:
v1 , ..., vk V linear abh
angig w1 := F (v1 ), ..., wn := F (vk ) linear abhangig.
Da die Negation von linear abhangig linear unabhangig ist, lautet die Kontraposition
dieser Implikation:
w1 := F (v1 ), ..., wn := F (vk ) linear unabhangig v1 , ..., vk V linear unabhangig.
Also stellt die Implikation in iii) die Kontraposition der Implikation in ii) dar. Deshalb
sind die Aussagen ii) und iii) zueinander aquivalent .
N.B.: Es sei betont, da eine lineare Abbildung im allgemeinen linear unabhangige Vektoren
nicht auf linear unabh
angige Bildvektoren abbildet. Die lineare Unabhangigkeit kann also
durch Anwendung einer linearen Abbildung verloren gehen.
Satz 7.3.7 (Festlegung linearer Abbildungen durch Basisbildvektoren)
Es sei V ein endlichdimensionaler Vektorraum mit der Basis v1 , ..., vm . Ferner seien w1 , ..., wm beliebige Vekoren aus W . Dann gibt es genau eine lineare Abbildung
F : V W mit F (vi ) = wi f
ur alle i {1, ..., m}.
Beweis. Da eine Basis ein linear unabhangiges Erzeugendensystem darstellt, gibt es f
ur
jedes v V eindeutig bestimmte Koeffizienten 1 , ..., m K mit
v = 1 v1 + ... + m vm .
Aufgrund der Linearit
at von F folgt
F (v) = 1 F (v1 ) + ... + m F (vm ) = 1 w1 + ... + m wm .
Die Eindeutigkeit der Darstellung von v als Linearkombination der Basisvektoren stellt
sicher, da F (v) wohlbestimmt ist. Offensichtlich ist F durch die Wirkung auf die Basisvektoren vollst
andig festgelegt, denn f
ur jedes v V lat sich F (v) in eindeutiger Weise
berechnen.
120
..
..
..
.
.
.
F
(e
)
F
(e
)
.
.
.
F
(e
MF =
1
2
n )
..
..
..
.
.
.
dabei werden mit ei die Standardbasisvektoren (s. Beispiel 6.2.17) bezeichnet und
F (ei ) K m ist das Bild des i-ten Basisvektors.
Bemerkung 7.3.9 Aufgrund von Satz 7.3.7 ist die Abbildung F bereits durch die
Vektoren F (e1 ), . . . , F (en ) eindeutig bestimmt, da e1 , . . . , en eine Basis des K n ist.
Die Abbildung F l
asst sich durch
F : Kn Km
x 7 MF x
zur
uckgewinnen (s. Beispiel 7.3.4). Zum einen gilt
!
n
n
X
X
F (x) = F
xi e i =
xi F (ei ),
i=1
i=1
zum anderen k
onnen wir berechnen, dass gilt:
..
..
..
x1
.
.
.
MF x =
F (e1 ) F (e2 ) . . . F (en ) .. = x1 F (e1 ) + x2 F (e2 ) + . . . + xn F (en ).
..
..
..
xn
.
.
.
2x1
x1
7 3x1 x2
x2
x1 + 2x2
Durch Einsetzen k
onnen wir die Bilder der Standardbasisvektoren e1 und e2 bestimmen
2
0
1
0
7 3 ,
7 1 ,
0
1
1
2
somit ist die Matrix dieser Abbildung durch
2 0
MF = 3 1
1 2
121
2
MF x = 3
1
0
2x1 +
x
1
1
= 3x1 +
x2
2
x1 +
durch
0x2
2
0
x2 = x1 3 + x2 1
2x2
1
2
ai` = G(
e ` )i
Und somit k
onnen wir den Spaltenvektor F (ej ) K n als Linearkombination der Basisvektoren e1 , . . . , en schreiben:
b1j
b1j
0
0
b2j 0 b2j
..
F (ej ) = . = . + 0 + + .
.. ..
0
..
bnj
0
.
bnj
(7.7)
1
0
0
n
0
1
.. X
= b1j . + b2j 0 + + bnj . =
b`j e`
..
0
`=1
..
1
0
.
Ebenso k
onnen wir den Spaltenvektor G(e` ) K m als Linearkombination der Basisvektoren
e1 , . . . , em schreiben:
G(e` ) =
m
X
ai` ei .
(7.8)
i=1
122
Nun konnen wir den Vektor in der j-ten Spalte der Matrix MGF bestimmen:
G F (
ej ) = G(F (
ej ))
n
X
= G( b`j e` )
`=1
=
=
=
=
n
X
`=1
n
X
b`j G(
e` )
b`j
m
X
`=1
m
X
i=1
n
X
i=1
m
X
`=1
| Linearitat von G
ai` ei
ai` b`j
(A B)ij ei
i=1
Somit ist die j-te Spalte der Darstellungsmatrix der Abbildung G F genau durch die
j-Spalte des Matrixprodukts AB = MG MF gegeben.
Korollar 7.3.12 Sei id : K n K n die Identitat, dann ist Mid = En .
Sei F : K n K m bijektiv, dann ist MF 1 = MF1 , insbesondere muss n = m sein.
Beweis. Die Spalten der Matrix Mid sind die Bilder der Basisvektoren e1 , . . . , en . Da diese
durch die Identit
at auf sich selbst abgebildet werden, erhalten wir die Einheitsmatrix
1 0
0
..
..
..
.
.
0
.
0 1
= En .
.
..
Mid = e1 e2 . . . en = .
.
. 0
..
..
..
..
.
.
.
0 .
1
Wenn F : K n K m bijektiv ist, dann existiert eine Umkehrabbildung F 1 : K m K n ,
so dass F F 1 = idK n und F 1 F = idK m . Somit folgt aus Satz 7.3.11, dass gilt:
MF F 1 = MF MF 1 = MidK n = En
und MF 1 F = MF 1 MF = MidK m = Em .
Somit ist also MF 1 die zu MF inverse Matrix. Diese kann aber nur dann gebildet werden,
wenn MF quadratisch ist, das heit wenn m = n gilt.
Analog zu den Definitionen f
ur Gruppenhomomorphismen (s. Definition 4.2.5) definieren
wir auch f
ur eine lineare Abbildung den Kern und das Bild dieser Abbildung.
Definition 7.3.13 Sei F : V W eine K-lineare Abbildung zwischen den Vektorraumen V und W . Dann heit die Teilmenge
Kern F := F 1 (0V ) = {v V : F (v) = 0W } V
123
124
Definition 7.3.18 Sei F : V W eine K-lineare Abbildung, dann nennen wir die
Dimension des Bildes F (V ) den Rang der Abbildung
rang F := dimK F (V ).
Da das Bild der Abbildung ein Untervektorraum von W ist, erhalten wir direkt eine obere
Abschatzung f
ur den Rang: rang F dimK W. Aber es muss auch rang F dimK V gelten,
da F (V ) nicht gr
oer als V sein kann (dies folgt aus Satz 7.3.6, da die Urbilder einer Basis
von F (V ) auch in V linear unabh
angig sind und somit zu einer Basis erganzt werden
konnen.)
125
(7.9)
Genauer gilt folgendes: Ist u1 , ..., uk eine Basis von Kern F und w1 , ..., wr eine Basis von
F (V ) mit den Urbildern v1 , ..., vr , dann ist u1 , ..., uk , v1 , ..., vr eine Basis von V .
N.B.: k, r dimK V .
a der beiden definierenden Eigenschaften einer Vektorraumbasis erfolgt der
Beweis. Gem
Beweis in zwei Etappen.
1) Wir zeigen zun
achst, dass die Vektoren u1 , ..., uk , v1 , ..., vr ein Erzeugendensystem
von V sind, d. h. es gilt LH(u1 , ..., uk , v1 , ..., vr ) = V .
Es sei v V beliebig vorgegeben. Da F (v) F (V ), existieren aufgrund der Voraussetzung, dass w1 , . . . , wr eine Basis des Bildes ist, Skalare 1 , ..., r K mit
F (v) = 1 w1 + ... + r wr = 1 F (v1 ) + ... + r F (vr ) = F 1 v1 + ... + r vr
Es folgt somit
0W = F (v) F 1 v1 + ... + r vr
= F (v 1 v1 ... r vr ).
(7.10)
= F (0V )
= 1 F (u1 ) +... + k F (uk ) +1 F (v1 ) + ... + r F (vr )
| {z }
| {z }
=0W
=0W
= 1 w1 + ... + r wr
Da die Vektoren w1 , ..., wr nach Voraussetzung eine Basis von F (V ) bilden und damit
linear unabh
angig sind, kann die Gleichung nur f
ur 1 = ... = r = 0 erf
ullt sein.
126
127
Beweis. Wir haben bereits in Beispiel 7.3.3 einen Isomorphismus von einem Vektorraum
V der Dimension n in den K n angegeben. Seien V, W zwei Vektorraume der Dimension
n und F : V K n , G : W K n die Isomorphismen aus Beispiel 7.3.3, dann ist
G1 F : V W aufgrund von Proposition 7.3.5 und 3.2.12 ein Isomorphismus. Wir
haben also einen Isomorphismus zwischen Vektorraumen gleicher Dimension konstruiert.
Jetzt m
ussen wir noch zeigen, dass zwischen Vektorraumen verschiedener Dimensionen
keinen Isomorphismus geben kann.
Seien jetzt V, W Vektorr
aume unterschiedlicher Dimension dim V = n und dim W = m, mit
n=
6 m und angenommen F : V W ist ein Isomorphismus. Dann gilt Kern(F ) = {0V }
und F (V ) = W und somit folgt aus der Dimensionsformel
dim V = dim Kern(F ) + dim F (V )
n = 0 + dim W = m
im Widerspruch zur Annahme. Somit kann es einen Isomorphismus zwischen V und W
nur geben, wenn dimK V = dimK W gilt.
Den Begriff des Rangs haben wir sowohl f
ur Matrizen (s. Def. 7.1.17), als auch f
ur lineare
Abbildungen (s. Def. 7.3.18) eingef
uhrt. Wir werden hier sehen, dass es sich dabei im
wesentlichen um dasselbe handelt.
Satz 7.3.23 Sei F : K n K m eine K-lineare Abbildung mit Darstellungsmatrix
MF MatK (m, n). Dann gilt rang F = rang MF .
Beweis. Der Rang der Abbildung F ist die Dimension des Bildes F (V ). Da die Standardbasis e1 , . . . , en eine Basis des K n ist, wird das Bild von den Vektoren F (e1 ), . . . , F (en )
erzeugt. Eine Basis des Bildes ist daher eine maximale linear unabhangige Teilmenge dieser
Vektoren. Da diese Vektoren aber genau die Spalten der Matrix MF sind, entspricht dies
der Definition des (Spalten)rangs der Matrix MF .
Korollar 7.3.24 Eine Matrix A MatK (n, n) ist genau dann invertierbar, wenn
rang A = n gilt.
Beweis. Wenn der Rang der Matrix A gleich n ist, dann heit das, dass das Bild der
Abbildung K n K n , x 7 Ax n-dimensional ist. Da das Bild ein Untervektorraum des K n
ist, muss das Bild schon gleich dem K n sein. Somit ist die durch A definierte Abbildung
surjektiv und dies ist nach Korollar 7.3.20 gleichbedeutend mit bijektiv. Dies bedeutet
wiederum, dass es eine Umkehrabbildung gibt, die durch die zu A inverse Matrix gegeben
ist (s. Korollar 7.3.12).
Wir wollen jetzt Korollar 7.3.20 benutzen um Aussagen u
ber die Losungsmenge von linearen
Gleichungssystem zu treffen, die durch quadratische Matrizen gegeben sind.
Beispiel 7.3.25 Sei A MatK (n, n) eine quadratische Matrix und Ax = b ein LGS.
Die Matrix definiert eine lineare Abbildung FA : K n K n , x 7 Ax auf die wir Korollar
7.3.20 anwenden k
onnen (da dim K n = dim K n ). Daher gelten folgende Aussagen:
128
Beweis. Wir zeigen diesen Satz in zwei Schritten. Zunachst beweisen wir, dass sich der
Rang nicht
andert, wenn von rechts mit einer invertierbaren Abbildung verkn
upft wird,
d.h. wir zeigen rang(F L1 ) = rang F .
Da die Abbildung L1 bijektiv, also insbesondere surjektiv ist, gilt L1 (V 0 ) = V und daher
gilt:
(F L1 )(V 0 ) = F (L1 (V 0 )) = F (V ).
(7.11)
Da das Bild von F gleich dem Bild von F L1 ist, sind insbesondere auch die Dimensionen
dieser Vektorr
aume gleich, aber die Dimension des Bildes ist genau der Rang der Abbildung.
129
Im zweiten Schritt zeigen wir, dass sich der Rang nicht andert, wenn von links mit einer
invertierbaren Abbildung verkn
upft wird, d.h. wir zeigen rang(L2 F ) = rang F .
0
Da die Abbildung L2 : W W bijektiv, also insbesondere injektiv ist, konnen wir sie auf
F (V ) W einschr
anken und Lemma 7.3.26 benutzen. Daraus folgt, dass
2 : F (V ) L2 (F (V ))
L
eine bijektive lineare Abbildung ist. Nach Korollar 7.3.22 kann es solch eine Abbildung nur
geben, wenn die Vektorraume F (V ) und L2 (F (V )) die gleiche Dimension haben. Aber das
genau die Bilder der Abbildungen F , bzw L2 F und bedeutet, dass rang(L2 F ) = rang F
gilt.
Dieser Satz l
asst sich ebenfalls in die Sprache der Matrizen u
bersetzen.
Korollar 7.3.28 Sei A MatK (m, n) eine Matrix und seien M MatK (m, m) und
N MatK (n, n) invertierbare Matrizen, dann gilt:
rang(A) = rang(M A N )
130
Beweis. Der Rang einer Matrix ist gleich den Spalten- oder Zeilenrang. Da in oberer
Zeilenstufenform die Zeilen mit Leitkoeffizienten linear unabhangig sind, folgt daraus direkt
die Aussage.
Da sich der Rang einer Matrix nicht durch elementare Zeilenumformungen andert, haben wir
nun eine Methode um den Rang zu bestimmen: Die Matrix wird in obere Zeilenstufenform
gebracht, in der der Rang direkt abgelesen werden kann.
Beispiel 7.3.32 Wir betrachten die Matrix
1
0 4 3 2
1 1 0 2 1
,
A=
2
1 1 2
3
0 1 0 1 1
von der wir den Rang bestimmen wollen. Daf
ur bringen A in obere Zeilenstufenform:
(2)
1
0
4
3
2
1
0
4 3
2
0 1
1 1 0 2 1
(1)
4
5
1
0
2
1
7
8
1
+
1
1
2
3 +
0
1 0
1
0
0
0
3 2
5 1
3
0
1
0
( 43 )
3 2
5 1
3
0
Die entstandene Matrix hat 3 Leitkoeffizienten und somit Rang 3, da elementare Zeilenumformungen den Rang nicht
andern, hat also auch A den Rang 3.
Nun haben wir alle notwendigen Informationen um den Algorithmus 7.2.16 zum Losen
eines linearen Gleichungssystems begr
unden zu konnen.
Zunachst halten wir noch einmal fest, dass sich die Losungsmenge eines LGS sich durch
elementare Zeilenumformungen nicht andert, weshalb wir die erweiterte Koeffizientenmatrix
(A, b) in Gauss-Jordan-Form bringen konnen ohne die Losungsmenge zu andern (s. Satz
7.2.12).
Satz 7.3.33 Sei Ax = b ein lineares Gleichungssystem. Es gilt b Bild(A) genau dann,
wenn rang(A) = rang(A, b).
Beweis. Sei b Bild(A). Dann ist b eine Linearkombination der Spalten von A, also gilt
rang(A) = rang(A, b).
Gelte rang(A) = rang(A, b). Dann ist b eine Linearkombination der Spalten von A und
damit liegt b im Bild von A.
Korollar 7.3.34 Das lineare Gleichungssystem Ax = b besitzt genau dann eine Losung,
wenn rang(A) = rang(A, b).
131
Beweis. Dies folgt direkt aus dem vorhergehenden Korollar, da das LGS nur dann eine
Losung hat, wenn b im Bild von A ist.
Dies liefert uns die Begr
undung f
ur Schritt (1) in Algorithmus 7.2.16. Steht in der Spalte
b der erweiterten Koeffizientenmatrix kein Leitkoeffizient, dann ist rang(A) = rang(A, b)
und somit ist Ax = b l
osbar.
Satz 7.3.35 Sei Ax = b ein lineares Gleichungssystem und w L(A, b) eine spezielle
Losung des inhomogenen Gleichungssystems. Dann ist
L(A, b) = w + Kern(A) := {w + x | x Kern(A)}
132
Definition 7.4.1 Sei V ein K-Vektorraum mit der Basis B = {b1 , . . . , bn }. Dann heit
der Isomorphismus
MB : V K n
1
n
X
..
v=
i bi 7 .
i=1
n B
Koordinatenabbildung und der Vektor (1 , . . . , n )>
B heit Koordinatendarstellung von v bez
uglich der Basis B.
Die Abbildung MB bildet also jeden Vektor aus V auf seine Koordinaten bez
uglich der
Basis B ab. Die Inverse MB1 wiederum bildet die Kordinaten auf den zugehorigen Vektor
ab.
Wir sehen, dass die Basisvektoren bi die Koordinatendarstellung i = 1 und j = 0 f
ur
j 6= i haben, das heit es gilt insbesondere
MB (bi ) = ei
(7.12)
Definition 7.4.3 Seien V und W K-Vektorraume jeweils mit den Basen B bzw. B 0 und
sei F : V W eine K-lineare Abbildung. Dann ordnen wir F eine Matrix MBB 0 (F ) zu,
die Darstellungsmatrix von F bez
uglich der Basen B und B 0 , indem wir die Matrix
berechnen, die zur linearen Abbildung
MBB 0 (F ) : K n K m ,
MBB 0 (F ) = MB 0 F MB1 .
133
"W
MB !
MB
!
Kn
1
MB ! F MB
!
" Km
Der linearen Abbildung MBB 0 (F ) kann eine Matrix zugeordnet werden, indem man die
Bilder der Standardbasis in die Spalten schreibt (s. Def. 7.3.8). Wir wollen hier in der
Bezeichnung nicht zwischen der linearen Abbildung MBB 0 (F ) und der Matrix MBB 0 (F )
unterscheiden.
Die Bilder der Standardbasis des K n konnen unter Verwendung von Gleichung (7.12)
geschrieben werden als:
MBB 0 (F )(ei ) = MB 0 (F (MB1 (ei ))) = MB 0 (F (bi )).
Das heit um die Matrix MBB 0 (F ) zu berechnen m
ussen wir zunachst die Bilder der
Basisvektoren bi B unter F bestimmen. Diese Bilder liegen in W und danach berechnet
man deren Koordinaten bez
uglich der Basis B 0 von W . Diese Koordinatenvektoren bilden
die Spalten von MBB 0 (F ).
Beispiel 7.4.4 Wir betrachten die lineare Abbildung
F : R2 R2
x1
2x1 + x2
7
x2
x1 + 2x2
und zwei verschiedene Basen des R2
B = {b1 , b2 }
wobei
1
1
, b2 =
b1 =
1
1
und
0
B =
{b01 , b02 }
wobei
b01
1
1
0
, b2 =
=
0
1
134
2 4
.
1 3
Die Verkn
upfung von Abbildungen entspricht analog zu Satz 7.3.11 dem Produkt der
Darstellungsmatrizen, unter der Voraussetzung, dass die Basis des mittleren Vektorraums
bei beiden Darstellungen gleich gewahlt ist.
Satz 7.4.5 Seien U, V, W K-Vektorraume mit den jeweiligen Basen B, B 0 und B 00 . Seien
F : U V und G : V W lineare Abbildungen, dann gilt f
ur die Darstellungsmatrizen:
MBB 00 (G F ) = MB 0 B 00 (G) MBB 0 (F )
135
2 1
1 2
bez
uglich der Standardbasis.
Zur Berechnung der Basiswechselmatrizen benotigen wir die Abbildungen MB , MB10 , MC1
und MC 0 . Da in unserem Beispiel V = W = R2 ist konnen wir bereits diese Abbildungen
durch Matrizen angeben. Aufgrund von Gleichung 7.12 erhalten wir die Matrix zur
Abbildung MB1 indem wir die Basis B in die Spalten der Matrix schreiben. Somit gilt
1 1
1 1
1
1
0
0
b
b
b
b
MB = 1 2 =
und MB 0 = 1 2 =
.
1 1
0 1
Da die Basen C und C 0 die Standardbasis sind, gilt f
ur die entsprechenden Matrizen:
1
1
MC = MC 0 = E2 und daher auch MC = MC 0 = E2 . Nun konnen wir die Basiswechselmatrizen T und S 1 berechnen:
1 1
1
1
1
T = MC 0 MB 0 = E2 MB 0 = MB 0 =
0 1
136
Einheitsmatrix
1
1
1
0
1 | 1 0
1
| 0 1
1 |
1
(1)
+
!
+
0
0
1
0 |
1
2
1 |
1
2
1 |
2
1 1 |
!
1
2
1
2
1
2
1
2
1
2
Nun k
onnen wir noch u
ufen, ob wirklich MCC 0 (F ) = T MBB 0 (F ) S 1 gilt:
berpr
1 1 1
1 1
2 4
1
T MBB 0 (F ) S =
0 1
1 3
2 1 1
1
1
3 1
1 1
4 2
=
=
1 3
1 1
2 4
2
2
2 1
=
= MCC 0 (F ).
1 2
x1 + 3x2
x1
2x2
7
x2
x1 2x2
und zwei verschiedene Basen des R2
B = {b1 , b2 }
wobei
b1 =
C = {c1 , c2 }
wobei
c1 =
und
2
0
, b2 =
1
1
2
1
, c2 =
2
1
wobei
und
C 0 = {c01 , c02 , c03 }
wobei
2
0
1
b01 = 1 , b02 = 1 , b03 = 0
0
1
0
1
0
0
c01 = 1 , c02 = 2 , c03 = 1
1
1
2
137
der Basis B 0 .
(2) + 3 1
1
2
1
21
F (b1 ) =
= 2 = 2 1 3 0 = 2b01 + 0 b02 3b03
221
0
0
0
2
0
MB 0 (F (b1 )) =
3 B 0
0 + 3 (1)
3
F (b2 ) = 2 (1) = 2
0 2 (1)
2
Die Koordinaten dieses Vektors bez
uglich der Basis B 0 sind nicht so einfach abzulesen
wie die von F (b1 ), weshalb wir ein LGS daf
ur aufstellen und es losen m
ussen.
3
2
0
1
21 + 3
2 = 1 b01 + 2 b02 + 3 b03 = 1 1 + 2 1 + 3 0 = 1 2
2
0
1
0
2
Die letzte Zeile liefert 2 = 2, durch Einsetzen in Zeile 2 erhalten wir 2 = 1 2 und
daher 1 = 0, wodurch aus der ersten Zeile 3 = 3 folgt. Insgesamt gilt also
2
0
1
F (b2 ) = 0 1 + 2 1 3 0
0
1
0
0
MB 0 (F (b2 )) = 2 .
3 B 0
2
0
2 .
MBB 0 (F ) = 0
3 3
Die Darstellungsmatrix MCC 0 (F ) kann nun auf analoge Art und Weise direkt bestimmt
werden oder aber mithilfe der Basiswechselmatrizen aus MBB 0 (F ) berechnet werden.
Wir werden hier beide Wege zeigen um zu sehen, dass sie zu dem selben Ergebnis f
uhren.
Zunachst berechnen wir auf direkte Weise die Darstellungsmatrix MCC 0 (F ), daf
ur
berechnen wir die Bilder F (c1 ) und F (c2 )
(1) + 3 1
4
= 2
21
F (c1 ) =
1 2 1
3
2 + 3 2
4
und F (c2 ) = 2 2 = 4
222
2
Die Losung des LGS F (c1 ) = 1 c01 +2 c02 +3 c03 sind die Koordinaten von F (c1 ) bez
uglich
138
der Basis C 0 :
1 0
1 2 1 |
1
1
2
|
1 0
0
1
2
0
(1)
2
3
|
|
1 0
2 1 | 2
0
0
1
2
|
1
| (1)
1 0
0
|
4
1
2
|
1
0
(2)
1
+
0
2 1 | 2
0
0 5 | 4 | ( 15 )
1 0 0 | 4
1 0 0 | 4
4
3
+
1
MC 0 (F (c1 )) = 53
0 1 2 |
0 1 0 | 5
4
4
4
(2)
0 0 1 |
0 0 1 |
5 C0
5
5
139
Die Losung des LGS F (c2 ) = 1 c01 +2 c02 +3 c03 sind die Koordinaten von F (c2 ) bez
uglich
der Basis C 0 .
1 0
1 2
1
1
0
0
1 0
0 1
(1)
1 |
2
| 2
+
0
0
| 4
1
(2)
1
2
| 2
0
2 1 | 0
0
+
0 | 4
1 0 0
2 |
2
+
0 1 0
0 0 1 |
4
5
(2)
1 0
| 4
1 | 0
5 |
| 4
2
|
5
4
0 0 1 |
5
| 2
4
| (1)
2
4 | ( 15 )
4
MC 0 (F (c2 )) = 52
4
5
C0
4 4
MCC 0 (F ) = 53 25 .
4
5
4
5
Zur Berechnung der Basiswechselmatrizen benotigen wir die Abbildungen MB , MB10 , MC1
und MC 0 . Da in unserem Beispiel V = R2 und W = R3 ist konnen wir bereits diese
Abbildungen durch Matrizen angeben. Aufgrund von Gleichung 7.12 erhalten wir die
Matrix zur Abbildung MB1 indem wir die Basis B in die Spalten der Matrix schreiben.
Somit gilt
MB1 = b1 b2
2 0
=
1 1
2 0 1
b03 = 1 1 0
0 1 0
und analog
MC1 = c1 c2
1 2
=
1 2
1 0 0
c03 = 1 2 1
1 1 2
F
ur die Basiswechselmatrizen T und S 1 gilt per definition
T = MC 0 MB10
Wir m
ussen also noch jeweils die zu MC10 und MB1 inversen Matrizen bestimmen um die
Basiswechselmatrizen berchnen zu k
onnen. Daf
ur f
uhren wir an diesen Matrizen solange
elementare Zeilenumformungen durch bis wir die Einheitsmatrix erhalten und f
uhren
140
(1)
1 0
0
|
1
1 0
0
| 1 0 0
+
2 1 | 1
0
1 2 1 | 0 1 0
0
1
2
|
1
1
1
2
| 0 0 1
+
1 0
0
|
1
0
1 0
0
|
1
0 0
(2)
1
2
|
1
0
1
2
|
1
0 1
0
0
+
0
0 5 | 3 1
0
2 1 | 1 1 0
1 0 0 | 1
0
1 0 0 | 1
0
0
1
2
+
1
0
1
0 1 0 | 5
0 1 2 |
5
3
5
0 0 1 |
| 1 0
1 | 0 1
1
5
2
5
( 12 )
1 0
2
MC 0 = 15
5
3
15
5
1 |
0
1
2
1
5
2
5
3
5
0 0 1 |
(2)
| (1)
0 1 |
2
1
2
= MB
MC1
1
2
1
2
| (1)
| ( 15 )
2
5
1 0 |
1
2
1
2
0
1
0
.
1
1 0 0
2 0 1
2 0
2
1
= 0 1
1
1
0
T = MC 0 MB10 = 51
5
5
5
3
3
1
2
1
0
1
0
5
5
5
5
und
1
5
1
2
1
und MB =
0 0
1 0
0 1
1
2
0
1
5
1
2
0
1 2
=
1 2
32
1
1
15
3
5
1
.
1
1
2
0
2 0 1
2 1
1
1
1
0
2
0 5 5
T MBB 0 (F ) S =
32 1
3
3
1
3
3
5
5
2 0 1
1 2
= 0 15 15 3 2
3
3
1
6
0
5
5
4 4
= 35 25 = MCC 0 (F )
4
5
4
5
141
wenn es invertierbare Matrizen S MatK (n, n) und T MatK (m, m) gibt, so dass gilt:
A = T B S 1 .
Zwei Matrizen sind also aquivalent zueinander, wenn sie die Darstellungsmatrizen bez
uglich
unterschiedlicher Basen sowohl von V als auch von W derselben linearen Abbildung
F : V W sind.
Da jede invertierbare Matrix das Produkt von Elementarmatrizen ist, kann man es auch
anders formulieren: Zwei Matrizen sind aquivalent zueinander, wenn man durch elementare
Zeilen- und Spaltenumformungen, die eine in die andere umwandeln kann.
Definition 7.4.10 Seien A, B MatK (n, n) quadratische Matrizen. Wir nennen A
a
hnlich zu B, wenn es eine invertierbare Matrix T MatK (n, n) gibt, so dass gilt:
A = T B T 1 .
Beweis f
ur Ahnlichkeit
funktioniert analog.
Reflexivit
at: W
ahlen wir T = Em und S = En , dann sehen wir dass A = EM AEn gilt, also
jede Matrix zu sich selbst
aquivalent ist.
Symmetrie: Ist A aquivalent zu B, dh. A = T B S 1 , dann gilt B = T 1 AS und somit
ist auch B
aquivalent zu A.
Transitivit
at: Ist A
aquivalent zu B und B aquivalent zu C, dh es existieren Matrizen
T1 , T2 Mat(m, m) und S1 , S2 Mat(n, n), so dass A = T1 B S11 und B =
T2 C S21 , dann gilt
A = T1 B S11 = A = T1 T2 C S21 S11 = (T1 T2 ) C (S1 S2 )1
und somit ist auch A a
quivalent zu C.
Definition 7.4.12 Eine m n Matrix hat reduzierte Zeilenstufenform, wenn sie von
142
1 0 ...
0 1
..
. 0 ...
0 0 0
0 0 . . .
0 0
.
.. 0 . . .
0 0 0
0
0
0
1
0
0
0
0
0 0 ...
0 0
..
.
. 0 ..
0 0 0
0 0 ...
0 0
..
.
. 0 ..
0 0 0
0
0
0
Er
Or,nr
=
Omr,r Omr,nr
0
0
0
1 0
Beispiel 7.4.13 Die Matrix A = 0 1
0 0
sehen, dass die Multiplikation mit dieser
f
ur einen Vektor gilt:
0 0
0 0 hat reduzierter Zeilenstufenform. Wir
0 0
Matrix besonders einfach ist, da zum Beispiel
x1
1 0 0 0
x1
x2
= x2 .
Ax = 0 1 0 0
x3
0 0 0 0
0
x4
Satz 7.4.14 Jede Matrix A MatK (m, n) vom Rang r ist aquivalent zu einer Matrix
in reduzierter Zeilenstufenform mit r Einsen auf der Diagonale.
Da jede invertierbare Matrix ein Produkt von Elementarmatrizen ist (s. Satz 7.1.24),
lasst sich dieser Satz auch anders formulieren: Jede Matrix A MatK (n, m) vom Rang r
lasst sich durch elementare Zeilen- und Spaltenumformungen in eine Matrix in reduzierter
Zeilenstufenform mit r Einsen auf der Diagonale umformen.
Den Beweis dieser Aussage geben wir als Algorithmus an.
Algorithmus 7.4.15 (reduzierte Zeilenstufenform)
Eingabe: Eine Matrix A MatK (m, n).
Ausgabe: Eine Matrix B MatK (m, n) in reduzierter Zeilenstufenform.
Durchfu
hrung:
(1) Bringe die Matrix A durch elementare Zeilenumformungen in Gauss-Jordan-Form
wie in Algorithmus 7.2.13 beschrieben.
(2) Betrachte die am weitesten links stehende Spalte ohne Leitkoeffizient. Angenommen
in dieser Spalte steht in der ersten Zeile der Eintrag b =
6 0, dann multipliziere die
erste Spalte mit b und addiere sie zur betrachteten Spalte. Gehe von oben nach
143
3
2
1
1
A = 1 1 2 3
1 0 1 1
und wollen sie mithilfe elementarer Zeilen- und Spaltenumformungen in reduzierte
Zeilenstufenform bringen. Zur Bestimmung der Matrizen S und T f
uhren wir alle
Umformungen auch an Einheitsmatrizen der entsprechenden Groe durch.
Zunachst f
uhren wir solange elementare Zeilenumformungen durch bis die Matrix GauJordan-Form hat. Da Zeilenumformungen einer Multiplikation von links entspricht f
uhren
wir alle Umformungen auch an einer Einheitsmatrix durch, die genauso viele Zeilen wie
A hat, das heit an E3
1 0 0 |
3
2
1
1
1
1
2
3
0 1 0 |
0 0 1 |
0 1 0 |
1 0 0 |
1
+
1
+
10
0 0 1 | 1
0
1
0 | 1
1 3 0 | 0
0
1 | 0
(3)
0 | 1
1 | 0
1 3 0 | 0
5
5 10
0 1 0 | 1 1 2 3
0 1 1 | 0 1 1 2 | (1)
1 2 5 | 0
0
0
0
144
0
1
+
3
0
1
1
2
0
0
0
0
1 0
1
1
0 1 1
2 = T | A
0 0
0
0
| 1
1 |
1 |
1 |
Mithilfe elementarer Zeilenumformungen konnen wir die Matrix nicht weiter umformen.
Deshalb f
uhren an der Matrix A nun elementare Spaltenumformungen durch bis diese
Matrix reduzierte Zeilenstufenform hat. Spaltenumformungen entsprechen einer Multiplikation von rechts. Somit f
uhren wir alle Umformungen auch an einer Einheitsmatrix
durch, die genauso viele Spalten wie A hat, das heit an E4
+
y
(1)
+
y
+
y
+
y
0
0
(2)
0
0
0
0
0
1
0 0 1
T = 0 1 1
1 2
5
und S 1
1
0
=
0
0
0 1 1
1 1 2
0 1
0
0 0
1
1 0 0 0
T AS 1 = 0 1 0 0
0 0 0 0
145
Wir gehen jetzt davon aus, dass A die Darstellungsmatrix einer linearen Abbildung
F : R4 R3 bez
uglich der Standardbasis B von R3 und der Standardbasis B 0 von R4
ist, dh dass A = MBB 0 (F ) gilt. Dann ist die Matrix in reduzierter Zeilenstufenform die
Darstellungsmatrix derselben linearen Abbildung bez
uglich einer Basis C von R3 und
0
4
einer Basis C von R . Um diese Basen zu bestimmen benotigen wir die Definition der
Basiswechselmatrizen.
Es gilt T = MC 0 MB10 = MC 0 und S 1 = MB MC1 = MC1 , da wir annehmen, das B und
B 0 Standardbasen sind. Die Basis C entspricht den Spalten von MC1 und damit denen
von S 1 .
Die Basis C 0 entspricht den Spalten von MC10 und damit denen der Inversen von T , die
wir jetzt berechnen:
0
0
1 | 1 0 0
1
2
5
| 0 0 1
0 1 1 | 0 1 0
0 1 1 | 0 1 0 | (1)
1
0
0
| 0 0 1
2 5 |
1 1 |
0 1 |
0 0 |
1 0 |
0 0 1 |
0
0
0
1 +
+
1 0
0
2 1
1 0
0
0
(1)
1 | 1 0 0
| (1)
+
(2)
(5)
MC10
5 2 1
= 1 1 0
1 0 0
Somit haben wir die Basen C = {c1 , c2 , c3 , c4 } und C 0 = {c01 , c02 , c03 } mit
1
1
0
1
5
2
1
2
1
1
0
c2 = c3 = c4 = c01 = 1 c02 = 1 c03 = 0
c1 =
0
1
0
0
1
0
0
1
0
0
0
bestimmt. Die lineare Abbildung F : R4 R3 , x Ax hat bez
uglich dieser Basen die
Darstellungsmatrix
1 0 0 0
MCC 0 (F ) = 0 1 0 0 .
0 0 0 0
Korollar 7.4.17 Haben zwei Matrizen A, B MatK (m, n) den gleichen Rang, dann
sind sie
aquivalent zueinander.
Beweis. Beide Matrizen sind zur selben Matrix in reduzierte Zeilenstufenform aquivalent
und somit folgt die Aussage aus der Symmetrie und Transitivitat der Aquivalenzrelation.
146
8. Determinanten und
Diagonalisierbarkeit
In dem letzten Kapitel haben wir uns mit linearen Abbildung zwischen verschiedenen
Vektorraumen, die durch rechteckige Matrizen dargestellt werden konnen. Ab jetzt wollen
wir uns mit Endomorphismen, das heit mit linearen Abbildungen F : V V von einem
Vektorraum V in sich selbst besch
aftigen. Wahlen wir Basen B, B 0 von V , dann entsprechen
diese Abbildungen quadratischen Matrizen A = MBB 0 (F ). Wir wissen aus Satz 7.4.14,
aquivalent zu einer Diagonalmatrix ist. Dies bedeutet,
dass jede quadratische Matrix
dass es geeignete Basen B und B 0 von V gibt, so dass die Darstellungsmatrix MBB 0 (F )
Diagonalform hat.
Ab jetzt wollen wir uns mit der Frage beschaftigen, ob jede quadratische Matrix auch
ur m
ussen wir eine Basis B von V finden, so dass
ahnlich zu einer Diagonalmatrix ist. Daf
Rolle. Ahnlich
wie im eindimensionalen Fall, wo wir die Gleichung xn+1 = axn zu einem
Anfangswert x0 durch xn = an x0 l
osen, ist die Losung eines hoherdimensionalen linearen
Problems durch die Potenz einer Matrix gegeben. Zum Beispiel ist die Losung des Problems
xn+1
2xn + 3yn
2 3
xn
=
=
yn+1
xn + yn
1 1
yn
zu einem Anfangswert (x0 , y0 )> durch
n
xn
2 3
x0
=
yn
1 1
y0
gegeben.
8.1. Determinanten
Zunachst wollen wir ein einfaches Kriterium kennenlernen, mit dem es moglich ist zu
bestimmen, ob eine Matrix invertierbar ist.
147
8.1. DETERMINANTEN
Beispiel 8.1.1 Schauen wir das eindimensionale LGS ax = b an. Dies hat eine eindeutige L
osung f
ur alle b K, wenn a =
6 0 ist. Die Losung ist dann durch x = a/b gegeben.
Wenn wir ein allgemeines LGS mit zwei Gleichungen losen, dann erhalten wir eine
ahnliche Bedingung:
!
!
(1)
a11 a12 | b1 | (a21 )
a11 a21 a12 a21 | a21 b1
a21 a22 | b2
| (a11 )
a11 a21
0
a12 a21
a21 b1
Ist nun a11 a22 a12 a21 6= 0, dann ist auch dieses Gleichungssystem eindeutig losbar.
Der Ausdruck a11 a22 a12 a21 heit Determinante der 2 2 Matrix und a ist die Determinante der 1 1 Matrix (a). Wir werden ihn hier u
uhren und
ber seine Eigenschaften einf
dann sehen, dass dies zu der gleichen Formel f
uhrt.
Determinanten k
onnen nur von quadratischen Matrizen berechnet werden. Es ist g
unstig
die Spalten der Matrix als Vektoren im K n zu betrachten, so dass man auch n Vektoren
eine Determinante zuordnen kann.
Definition 8.1.2 (Determinante)
Es sei K ein K
orper. Eine Abbildung
det : MatK (n, n) K,
bzw.
det : K n K n K n K
|
{z
}
nmal
148
8.1. DETERMINANTEN
1) Multipliziert man eine Spalte mit einem Skalar, dann andert sich die Determinante
um genau diesen Faktor
det(v1 , . . . , vi1 , vi , vi+1 , . . . , vn ) = det(v1 , . . . , vi1 , vi , vi+1 , . . . , vn ).
2) Beim Vertauschen zweier Spalten andert die Determinante ihr Vorzeichen
det(v1 , . . . , vi1 , vi , vi+1 , . . . , vj1 , vj , vj+1 , . . . , vn )
= det(v1 , . . . , vi1 , vj , vi+1 , . . . , vj1 , vi , vj+1 , . . . , vn ).
3) Addiert man das -fache der Spalte j zur Spalte i, wobei i 6= j, dann andert das
die Determinante nicht:
det(v1 , . . . , vi1 , vi + vj , vi+1 , . . . , vn ) = det(v1 , . . . , vi1 , vi , vi+1 , . . . , vn ).
Beweis.
da die i-te und die j-te Spalte gleich sind und damit linear abhangig. Durch Anwenden
von Eigenschaft (iii) zuerst auf Spalte i und danach auf Spalte j erhalten wir somit
0 = det(v1 , . . . , vi1 , vi , vi+1 , . . . , vj1 , vi + vj , vj+1 , . . . , vn )
+ det(v1 , . . . , vi1 , vj , vi+1 , . . . , vj1 , vi + vj , vj+1 , . . . , vn )
= det(v1 , . . . , vi1 , vi , vi+1 , . . . , vj1 , vi , vj+1 , . . . , vn )
+ det(v1 , . . . , vi1 , vi , vi+1 , . . . , vj1 , vj , vj+1 , . . . , vn )
+ det(v1 , . . . , vi1 , vj , vi+1 , . . . , vj1 , vi , vj+1 , . . . , vn )
+ det(v1 , . . . , vi1 , vj , vi+1 , . . . , vj1 , vj , vj+1 , . . . , vn )
Verwenden wir wieder Eigenschaft (ii), dann sehen wir, dass der erste und letzte
Summand null ist, da bei beiden Determinanten zwei Spalten gleich sind, und somit
wie behauptet gilt:
det(v1 , . . . ,vi1 , vi , vi+1 , . . . , vj1 , vj , vj+1 , . . . , vn )
+ det(v1 , . . . , vi1 , vj , vi+1 , . . . , vj1 , vi , vj+1 , . . . , vn ) = 0.
2) Diese Regel folgt direkt aus Eigenschaft (iii), indem man = 0 verwendet.
3) Diese Regel folgt ebenfalls aus Eigenschaft (iii), die besagt, dass
det(v1 , . . . , vi1 , vi + vj , vi+1 , . . . , vn )
= det(v1 , . . . , vi1 , vi , vi+1 , . . . , vn ) + det(v1 , . . . , vi1 , vj , vi+1 , . . . , vn ).
Da aber im zweiten Summand der Vektor vj sowohl in der Spalte i, als auch der
Spalte j steht, folgt aus Eigenschaft (ii), dass diese Determinante null ist.
149
8.1. DETERMINANTEN
Korollar 8.1.4 Sei A MatK (n, n) eine quadratische Matrix und K ein Skalar,
dann gilt:
det(A) = n det A
Beweis. Die Matrix A entsteht aus A durch Multiplizieren aller Eintrage mit dem Skalar
, das heit es werden alle n Spalten mit multipliziert. Durch Anwenden von Regel 1
aus Satz 8.1.3 auf die Spalten 1 bis n, erhalten wir so die Aussage.
Satz 8.1.5 Sei A = (a) MatK (1, 1), dann ist durch det A = a eine Determinantenfunktion gegeben.
a b
Sei A =
MatK (2, 2), dann ist durch
c d
a b
det A = det
= ad bc
c d
eine Determinantenfunktion gegeben.
Beweis. Es gilt aufgrund von Eigenschaft (i) der Determinantenfunktion det(1) = 1 und
somit gilt aufgrund von Eigenschaft (iii) f
ur eine 1 1-Matrix, also ein Skalar det(a) =
a det(1) = a.
Sei jetzt A eine 2 2-Matrix. Die Spalten von A sind die Vektoren
a
b
v1 =
= ae1 + ce2 und v2 =
= be1 + de2 ,
c
d
wobei hier e1 , e2 die Standardbasisvektoren des K 2 sind. Wir rechen nach
det(v1 , v2 ) = det(ae1 + ce2 , be1 + de2 )
= a det(e1 , be1 + de2 ) + c det(e2 , be1 + de2 ) | Linearitat der ersten Spalte
= ab det(e1 , e1 ) + ad det(e1 , e2 )
+ bc det(e2 , e1 ) + bd det(e2 , e2 )
= ad det(e1 , e2 ) + bc det(e2 , e1 )
| Eigenschaft (ii)
Vertauschen von Spalten
andert Vorzeichen
| Eigenschaft (i)
= ad det(e1 , e2 ) bc det(e1 , e2 )
= ad bc
Beispiel 8.1.6
1 0
det
=1102=1
2 1
1 2
det
1 2
= 1 2 (2) (1) = 2 2 = 0
150
8.1. DETERMINANTEN
Satz 8.1.7 F
ur jedes n N gibt es eine eindeutig bestimmte Determinantenfunktion
det : MatK (n, n) K.
Wir verzichten hier an dieser Stelle auf den Beweis. Er kann auf analoge Art und Weise wie der Beweis von Satz 8.1.5 gef
uhrt werden. Allerdings benotigt man eine kompakte Schreibweise um klarzumachen welche Matrixeintrage miteinander multipliziert
werden. Auerdem kommt man auf Determinanten zum Beispiel f
ur 4 4-Matrizen
der Art det(e3 , e2 , e4 , e1 ), die durch eine gewisse Anzahl von Vertauschen in die Form
(1)Anzahl Vertauschungen det(e1 , e2 , e3 , e4 ) = 1 gebracht werden m
ussen. Dies ist moglich
durch das Studium von sogenannten Permutationen und deren Signum. Wir verzichten
hier aber darauf, da zur praktischen Berechnung von Determinanten groerer Matrizen nie
die explizite Formel verwendet wird.
Definition 8.1.8 (Unterdeterminante)
Sei A = (aij ) MatK (n, n). Die (n 1) (n 1)-Matrix, die aus A durch Streichung
der i-ten Zeile und j-ten Spalte ensteht, wird mit Aij bezeichnet.
Die Determinante Mij = det Aij nennen wir Unterdeterminante oder Minor von
det A.
n
X
j=1
n
X
i=1
Auch auf diesen Beweis verzichten wir. Es ist zu beachten, dass es egal ist nach welcher
Zeile oder Spalte man entwickelt um eine Determinante zu berechnen. Aus diesem Grund
sollte man immer diejenige Zeile oder Spalte wahlen, in der die meisten Eintrage null sind.
Die Vorzeichen (1)i+j lassen sich einfach durch das
benachbarte Eintr
age in einer Zeile oder Spalte immer
+ + ... +
+
+ + . . . +
+ + . . . + +
+ + . . . +
. . . . .
. . ... ... ...
.. .. .. ..
+ + ...
+ ...
+ . . . +
+ . . .
+ . . . +
.. .. . .
..
. .
. .
+ + ...
151
8.1. DETERMINANTEN
Auf der Diagonale steht immer (1)i+i = +1. Die erste Matrix hat eine ungerade Zahl
von Splaten und Zeilen, da dann (1)n+1 = 1 ist, wohingegen die zweite f
ur Matrizen mit
gerade Zahl von Splaten und Zeilen steht.
Korollar 8.1.10 (Regel von Sarrus)
Sei
Beweis. Wir verwenden die Laplaceentwicklung nach der ersten Spalte und erhalten
a
a
a
a
det(A) = a11 (1)1+1 det 22 23 + a21 (1)2+1 det 12 13
a32 a33
a32 a33
a
a
+ a31 (1)3+1 det 12 13
a22 a23
= a11 a22 a33 a23 a32 a21 a12 a33 a13 a32 + a31 a12 a23 a13 a22
= a11 a22 a33 a11 a23 a32 a21 a12 a33 + a21 a13 a32 + a31 a12 a23 a31 a13 a22
Durch Umsortieren des Ergebnisses erhalt man die obige Formel.
Die Regel von Sarrus wird oft als Gartenzaunmethode bezeichnet. Dies erklart sich
durch das folgende Schema: Die ersten beiden Spalten werden noch einmal rechts neben
der Matrix hingeschrieben. Die auf einer Linie (also einer Latte des Gartenzauns) liegenden
Eintrage werden multipliziert, die Produkte auf einer durchgezogenen Linie erhalten ein
Plus, die auf einer gestrichelten Linie ein Minus.
Definition 8.1.11 Eine Matrix A MatK (n, n) heit obere (bzw. untere) Dreiecksmatrix, wenn unterhalb (bzw. oberhalb) der Diagonale alle Eintrage null sind. Das
152
heit A = (aij ), wobei aij = 0, wenn i > j ist (bzw. wenn i < j ist).
1 . . .
1 0 . . .
..
0 2
2
.
0
,
Aobere =
A
=
untere
..
.
.
.
..
..
..
.
0
0 . . . 0 n
...
8.1. DETERMINANTEN
0
..
.
.
0
n
Eine Matrix wird als Dreiecksmatrix bezeichnet, wenn sie eine obere oder untere
Dreiecksmatrix ist.
Satz 8.1.12 Die Determinante einer Dreiecksmatrix ist das Produkt ihrer Diagonaleintrage.
Beweis. Wir zeigen die Aussage f
ur obere Dreiecksmatrizen, der Beweis f
ur untere ist
analog.
Wir wollen also die Aussage
1 . . .
..
0 2
= 1 . . . n
det .
(8.1)
.
.
.
.
.
0
0 . . . 0 n
per Induktion nach der Gr
oe der Matrizen beweisen.
Induktionsanfang: n = 1, das heit A = (a) und es gilt det A = a.
Induktionsschritt: Angenommen die Formel (8.1) ist f
ur n = k richtig. Dann wollen wir
zeigen, dass sie auch f
ur n = k + 1 richtig ist. Daf
ur entwickeln wir die Determinante
nach der ersten Spalte.
1 . . .
2 . . .
.
..
0 2
..
0 ...
.
..
.
= 1 2 . . . k+1 .
..
det .
= 1 det .
0
.
.
0 k
..
.
0
0 k
0 . . . 0 k+1
0 . . . . . . 0 k+1
Dabei haben wir die Induktionsvoraussetzung auf die k k-Matrix mit den Diagonaleintr
agen 2 bis k+1 angewendet.
Satz 8.1.13 Sei A MatK (n, n) eine Matrix und A> MatK (n, n), die zu A transponierte Matrix, dann gilt
det A = det A> .
153
8.1. DETERMINANTEN
Beweis. Wir k
onnen leicht nachpr
ufen, dass der Satz f
ur 2 2-Matrizen gilt:
a b
a c
>
det A = det
= ad bc
det A = det
= ad cb = ad bc.
c d
b d
F
ur groere Matrizen kann mithilfe des Entwicklungssatzes ebenso die Aussage u
uft
berpr
werden.
Korollar 8.1.14 F
ur elementare Zeilenumformungen gelten dieselben Rechenregeln, die
in Satz 8.1.3 f
ur elementare Spaltenumformungen fomuliert wurden.
Das heit f
ur eine Determinantenfunktion det gilt:
1) Multipliziert man eine Zeile mit einem Skalar, dann andert sich die Determinante
um genau diesen Faktor.
2) Beim Vertauschen zweier Zeilen andert die Determinante ihr Vorzeichen.
3) Addiert man das -fache der Zeile j zur Zeile i, wobei i 6= j, dann andert das die
Determinante nicht.
Beweis. Durch das Transponieren werden die Zeilen und die Spalten der Matrix vertauscht.
Da dies die Determinante nicht
andert, bedeutet das, dass f
ur Zeilen dieselben Regeln wie
f
ur Spalten gelten.
Beispiel 8.1.15 Wir berechnen die Determinante einer 3 3-Matrix auf verschiedene
Art und Weisen.
Sarrusregel:
1 2 2
det 0 2 2 = 1 2 2 + 2 (2) (3) + (2) 0 1
3 1 2
(2) 2 (3) + (2) 1 1 + (2) 2 0
= 4 + 12 + 0 12 (2) 0 = 6
Entwicklung nach der ersten Spalte:
1 2 2
2 2
2 2
2 2
det 0 2 2 = 1 det
0 det
+ (3) det
1 2
1 2
2 2
3 1 2
= (2 2 (2) 1) 0 + (3) 0 = 6
Entwicklung nach
1 2
det 0 2
3 1
2
2 2
1 2
1 2
2 = 0 det
+ 2 det
(2) det
1 2
3 2
3 1
2
= 0 + 2(1 2 (2) (3)) + 2(1 1 2 (3)) = 8 + 14 = 6
154
8.1. DETERMINANTEN
3
1
2 2
1 2 2
1 2 2
(7)
= det 0 2 2 = 2 det 0 1 1
det 0
2 2
0
7
4
3 1
2
+
+
0 7 4
1 2 2
= 2 det 0 1 1 = 2 1 1 3 = 6
0 0
3
Umformen zu einer Dreiecksmatrix durch elementare Spaltenumformungen
(2)
+
y
det 0
3 1
+
y
2 0
1
0 0
2 = det 0
2 0 = det 0
2 0 = 1 2 3 = 6
2
3 1 3
3 7 3
2
Alle Methoden f
uhren zu demselben Ergebnis.
F
ur groere Matrizen ist es oft sinnvoll die verschiedenen Methoden zum Berechnen einer
Determinante zu kombinieren. So kann man durch eine Zeilenumformung viele Nullen in
einer Zeile erreichen, nach der man dann Entwickeln kann.
Auerdem sollte man immer zuerst pr
ufen, ob zum Beispiel zwei Spalten gleich sind oder
sich nur um ein Skalar unterscheiden, denn dann ist die Determinante null, unabhangig
davon wie kompliziert die anderen Eintrage der Matrix erscheinen.
Bemerkung 8.1.16 F
ur 2 2 und 3 3-Matrizen konnen wir der Determinante eine
geometrische Interpretation geben.
Und zwar entspricht der Fl
acheninhalt des Parallelogramms, das von den Vektoren
v1 , v2 R2 aufgespannt wird, dem Betrag der Determinante | det(v1 , v2 )|. Um zu sehen,
dass der Fl
acheninhalt den gleichen Regeln wie die Determinante gehorcht, betrachten
wir die einzelnen Regeln f
ur die Determinantenfunktion:
1
e2
*
v2
*
e1
-
1
Die Standardbasis erzeugt ein Quadrat der Seitenl
ange 1 und daher
auch vom Fl
acheninhalt 1. Dies
stimmt u
berein mit det(e1 , e2 ) = 1.
v1
Zwei linear abhangige Vektoren liegen auf einer Gerade und erzeugen daher kein Parallelogramm, somit ist der Flacheninhalt null, in
Ubereinstimmung
mit der Eigenschaft, dass
die Determinante linear abhangiger Vektoren
null ist.
155
8.1. DETERMINANTEN
*
v2
*
2v1
v
1
Bei dem von den Vektoren 2v1 und v2 erzeugten Parallelogramm ist eine Seite genau doppelt so lang im
Vergleich zu dem durch v1 und v2 erzeugten Parallelogramm. Somit ist auch der Flacheninhalt genau doppelt so gro. Dies stimmt u
berein mit der Rechenregel
| det(2v1 , v2 )| = |2 det(v1 , v2 )|.
*
v2 v1+v2
*
v1
F
ur eine 3 3-Matrix mit den Spaltenvektoren v1 , v2 , v3 R3 entspricht der Betrag der
Determinante | det(v1 , v2 , v3 )| dem Volumen, des von den Vektoren erzeugten Spats.
Dabei steht Gl f
ur General linear group und Sl f
ur Special linear group.
Satz 8.1.18 Die Menge Gln (K) ist eine Gruppe mit der Matrixmultiplikation als Verkn
upfung.
Beweis. Das neutrale Element der Gln (K) ist die Einheitsmatrix En . Die Existenz von
Inversen ist genau die Definition der Elemente von Gln (K). Das Assoziativgesetz wurde in
Satz 7.1.5 bewiesen.
Die Gln (K) ist die Gruppe der Einheiten (s. Def. 4.3.10) im Ring der quadratischen
Matrizen MatK (n, n).
Satz 8.1.19 Die Determinante ist ein Gruppenhomomorphimus von der Gln (K) in die
multiplikative Gruppe K .
det : Gln (K) K ,
das heit es gilt
det(A B) = det A det B.
(8.2)
156
8.1. DETERMINANTEN
Beweis. F
ur den Beweis verwenden wir Satz 7.1.24, der besagt, dass jede invertierbare
Matrix ein Produkt von Elementarmatrizen ist. Konnen wir also zeigen, dass Formel (8.2)
f
ur alle Elementarmatrizen A gilt, dann haben wir die Formel f
ur alle regularen Matrizen
gezeigt.
Da aber die Multiplikation von links mit Elementarmatrizen (s. Def. 7.1.20) elementaren
Zeilenumformungen entspricht, gen
ugt es zu pr
ufen, ob die Rechenregeln aus Korollar
8.1.14 mit den Determinanten f
ur die entsprechenden Elementarmatrizen u
bereinstimmen.
1) Sei A = Diag(1, . . . , 1, , 1, . . . , 1), wobei in der i-ten Zeile steht, dann ist det A = ,
da A eine Dreiecksmatrix ist.
Die Multiplikation von links mit A entspricht dem Multiplizieren der i-ten Zeile von
B mit und wir wissen aus Korollar 8.1.14, dass dann det(AB) = det B gilt, dies
ist aber gleich det A det B = det B.
2) Sei A = Tij eine Vertauschungsmatrix. Dann ist die Determinante det Tij = 1. Dies
sieht man wie folgt:
In allen Spalten und Zeilen auer i und j entsprechen die Eintrage von Tij einer
Einheitsmatrix. Entwickeln wir also die Matrix schrittweise nach all diesen Zeilen,
dann sehen wir , dass det Tij = det T gilt, wobei
0 1
0 1
und det
= 0 1 = 1.
T =
1 0
1 0
Die Multiplikation von links mit A entspricht dem Vertauschen der i-ten und j-ten
Zeile von B, wodurch sich das Vorzeichen der Determinante von B andert. Es gilt
also det(AB) = det B = det Tij det B.
3) Ist A = Mij (), dann ist det A = 1, da A eine obere Dreiecksmatrix mit den
Diagonaleintr
agen 1 ist.
Die Multiplikation von links mit A entspricht dem Addieren des -fachen der j-ten
Zeile zur i-ten Zeile von B. Dies andert die Determinante nicht, also gilt det(AB) =
det B = det A det B.
Korollar 8.1.21 F
ur eine invertierbare Matrix A Gln (K) gilt:
det(A1 ) =
1
= det(A)1 .
det A
157
8.1. DETERMINANTEN
Definition 8.1.23 Sei A MatK (n, n) eine Matrix, dann heit die Matrix
A# MatK (n, n), die zu A adjungierte Matrix und hat die Eintrage
i+j
a#
Mji .
ij = (1)
Der Eintrag der i-ten Zeile und j-ten Spalte von A# ist also 1 mal die Unterdeterminante
die durch Streichen der i-ten Spalte und der j-ten Zeile von A berechnet wird.
Beispiel
8.1.25 Wir k
onnen die zu einer 2 2-Matrix inverse Matrix berechnen. Sei
a b
also A =
, dann ist
c d
A11 = (d),
A12 = (c),
A21 = (b)
Diese 1 1-Matrizen sind gleich ihrer Determinante und somit erhalten wir
M11 = d,
M12 = c,
(1)1+1 M22 (1)1+2 M21
d b
A =
=
.
(1)2+1 M12 (1)2+2 M11
c a
#
Und somit k
onnen wir die zu A inverse Matrix angeben
1
d b
1
A =
.
ad bc c a
Sie existiert, vorausgesetzt det A = ad bc ist ungleich null.
158
gegeben, f
ur k = 1, . . . , n.
i K.
159
so da
F v = v
(8.3)
160
Lemma 8.2.6 Sei A MatK (n, n), dann ist A (t) ein Polynom vom Grad n.
Beweis.
Beispiel 8.2.7 Sei
1
1
A=
0
2
0
3
1
2
2
0
0
1
0
0
1
0
1 0 2 0
1 0 0 0
1 3 0 0
0 1 0 0
A (t) = det
0 1 0 1 t 0 0 1 0
2 2 1 0
0 0 0 1
1 0 2 0
t 0 0 0
1t
0
2
0
1 3 0 0 0 t 0 0
= det 1 3 t 0
= det
0 1 0 1 0 0 t 0
0
1
t 1
2 2 1 0
0 0 0 t
2
2
1 t
1t
0
2
1t
0
2
Satz 8.2.8 Sei A MatK (n, n), dann sind die Nullstellen des charakteristischen Polynoms A sind genau die Eigenwerte der Matrix A.
Beweis. Es sei K eine Nullstelle des charakteristischen Polynoms von A. Also ist
A () = det(A En ) = 0. Demnach hat die Matrix A En nicht vollen Rang. Da die
Matrix A En quadratisch ist, folgt aus Korollar 7.3.20, dass es eine nichttriviale Losung
0 6= v K n f
ur das homogene lineare Gleichungssystem (A En )v = 0 gibt. Durch
Umstellen dieser Gleichung erhalten wir Av = (En )v = v. Also ist ein Eigenwert von A.
Sei umgekehrt ein Eigenwert von A. Dann exisiert ein 0 6= v K n , sodass Av = v.
Durch Umstellen dieser Gleichung erhalten wir Av v = (A En )v = 0. Da v 6= 0
besitzt dieses Gleichungsystem eine nichttriviale Losung und die Matrix (A En ) hat
nicht vollen Rang (s. Korollar 7.3.20). Demnach ist det(A En ) = 0, also eine Nullstelle
des charakteristischen Polynoms von A.
161
An dieser Stelle wissen wir alles, was wir brauchen um die Eigenwerte und Eigenvektoren
eine Matrix A zu bestimmen:
1. Berechne das charakteristische Polynom A (t)
2. Bestimme die Nullstellen von A (t), dies sind die Eigenwerte 1 , . . . , k von A.
3. Bestimme f
ur jeden Eigenwert i die Losungsmenge des LGS (A i En )v = 0. Jeder
Vektor v 6= 0V dieser Menge ist ein Eigenvektor von A zum Eigenwert i .
Beweis.
T AT 1 (t) = det T AT 1 tEn
Definition des charakteristischen Polynoms
En = T T 1
Satz 7.1.7
Einfugen der Einheitsmatrix andert nichts
Ausklammern von T
Ausklammern von T 1
Satz 8.1.19
Korollar 8.1.21
Kommutativitat in K
Definition des charakteristischen Polynoms
= det T AT 1 tT T 1
= det T AT 1 T tT 1 )
= det T AT 1 T tEn T 1 )
= det T (AT 1 tEn T 1
= det T (A tEn )T 1
= det(T ) det(A tEn ) det(T 1 )
= det(T ) det(A tEn ) det(T )1
= det(A tEn )
= A (t)
Eine Konsequenz dieses Satzes ist die Tatsache, dass wir die Eigenwerte eines Endomorphismus berechnen k
onnen, indem wir die Eigenwerte eine beliebigen Darstellungsmatrix
MBB (F ) bestimmen. W
ahlen wir eine andere Basis C, dann ist die neue Darstelungsmatrix
MCC (F )
ahnlich zu der urspr
unglichen und hat somit dasselbe charakteristische Polynom.
Satz 8.2.10 Sei A MatK (n, n) eine obere oder untere Dreieckmatrix. Dann sind die
Eigenwerte von A durch die Diagonaleintrage gegeben.
Beweis. Wenn A eine Dreiecksmatrix mit den Diagonaleintragen aii ist, dann ist (A tEn )
eine Dreiecksmatrix mit den Diagonaleintragen aii t. Aufgrund von Satz 8.1.12 die
Determinante von (A tEn ) das Produkt ihrer Diagonaleintrage und somit gilt
det(A tEn ) =
n
Y
(aii t)
i=1
162
Satz 8.2.11 Sei A MatK (n, n) diagonalisierbar, dann zerfallt das charakteristische
Polynom A (t) in Linearfaktoren.
Beweis. Da A diagonalisierbar ist, gibt es eine Matrix T Gln (K), so dass T AT 1 =
Diag(1 , . . . , n ) = D gilt. Aufgrund von Satz 8.2.9 gilt A (t) = D (t). Das charakteristische
Polynom der Diagonalmatrix D wiederum ist aufgrund von Satz 8.2.10 durch
Qn
i=1 (t i ) gegeben.
Beispiel 8.2.12 Sei A = (aij ) MatR (2, 2). Dann ist das charakteristische Polynom
a11
a12
det(A En ) =
= (a11 )(a22 ) a12 a21
a21
a22
= 2 (a11 + a22 ) + a11 a22 a12 a21 .
{z
}
|
| {z }
:=q
:=p
Also erh
alt man die Eigenwerte von A via
1/2
p
=
2
r
p 2
2
q.
A=
2 1
2 1
charakteristisches Polynom:
2 1
1 0
A (t) = det(A tE2 ) = det
t
2 1
0 1
2 1
t 0
2 t 1
= det
= det
2 1
0 t
2 1 t
= (2 t)(1 t) 2 = t2 2t t + 2 2
= t2 3t = t(t 3).
Eigenwerte: Die Nullstellen von A (t) sind die Eigenwerte von A und durch
1 = 0
und 2 = 3
gegeben.
163
Eigenvektor zu 1 = 0: Wir m
ussen die Losungsmenge des homogenen linearen
Gleichungssystems (A 1 E2 )v = 0 berechnen. Es ist A 1 E2 = A und
somit ben
otigen wir die Losungsmenge von
2 1 | 0
2 1 | 0
2 1 | 0
0 0 | 0
Wir setzen x2 = r und erhalten x1 = 12 x2 = 12 r und somit ist die Losungsmenge
durch
1
L(A 1 E2 , 0) = {v R2 | v = r 2 , r R}
1
1
gegeben. Wir w
ahlen den Vektor v1 =
in dieser Menge.
2
Eigenvektor zu 2 = 3: Wir m
ussen die Losungsmenge des homogenen linearen
Gleichungssystems (A 2 E2 )v = 0 berechnen. Es ist
2 1
3 0
1 1
A 2 E2 =
=
2 1
0 3
2 2
und somit ben
otigen wir die Losungsmenge des LGS
1 1 | 0
1 1 | 0
2 2 | 0
0
0 | 0
Wir setzen x2 = r und erhalten x1 = x2 = r und somit ist die
L
osungsmenge durch
1
2
L(A 2 E2 , 0) = {v R | v = r
, r R}
1
1
gegeben. Wir w
ahlen den Vektor v2 =
in dieser Menge.
1
Basis aus Eigenvektoren? Die Vektoren v1 und v2 sind linear unabhangig und bilden daher eine Basis des R2 . Das bedeutet, dass die Matrix A diagonalisierbar
ist.
2.
2 1
B=
0 2
charakteristisches Polynom:
2 1
t 0
0 2
0 t
164
Eigenvektor zu = 2: Wir m
ussen die Losungsmenge des homogenen linearen
Gleichungssystems (B E2 )v = 0 berechnen. Es ist
2 1
2 0
0 1
B E2 =
=
0 2
0 2
0 0
und somit ben
otigen wir die Losungsmenge von
0 1 | 0
0 0 | 0
Wir setzen x1 = r und somit ist die Losungsmenge durch
1
2
L(B E2 , 0) = {v R | v = r
, r R}
0
1
gegeben. Wir w
ahlen den Vektor v =
in dieser Menge.
0
Basis aus Eigenvektoren? Gibt es nicht, da alle Eigenvektoren ein Vielfaches von
v sind, wir aber zwei linear unabhangige Vertoren benotigen um eine Basis
von R2 zu haben.
3.
0 1
C=
1 0
charakteristisches Polynom:
C (t) = det(C tE2 ) = det
0 1
t 0
t 1
= det
1 0
0 t
1 t
= (t)(t) (1) = t2 + 1
Eigenwerte: Das charakteristische Polynom C (t) = t2 + 1 hat keine Nullstellen
in den reellen Zahlen und somit auch keine Eigenwerte.
Basis aus Eigenvektoren? Da es keine reellen Eigenwerte gibt, gibt es auch keine
Eigenvektoren dazu.
Wir haben in dem Beispiel Matrizen gesehen, die exemplarisch f
ur die zwei verschiedenen
Arten von Problemen stehen, die verhindern, dass eine Matrix diagonalisierbar ist:
1. Das charakteristische Polynom zerfallt nicht in Linearfaktoren (Matrix C).
2. Es gibt nicht gen
ugend linear unabhangige Eigenvektoren zu einem Eigenwert (Matrix
B).
Das erste Problem h
angt von dem Korper ab u
ber dem die Matrix betrachtet wird. Arbeitet
man u
ber K = R, dann hat A keine Eigenwerte, wenn das charakteristische Polynom
165
1 = ... = k = 0 .
(8.4)
(8.5)
k vk +
1 1 v1 + ... +
Ebenfalls aus Gleichung (8.5), allerdings durch Multiplikation mit k+1 erhalten wir
1 k+1 v1 + ... + k k+1 vk + k+1 k+1 vk+1 = 0V ,
Subtraktion dieser beiden Gleichungen liefert
1 (1 k+1 )v1 + ... + k (k k+1 )vk = 0V ,
wobei sich der vk+1 enthaltende Term weghebt. Aufgrund der Induktionsvoraussetzung
(8.4) folgt i (i k+1 ) = 0 f
ur i {1, ..., k}. Da die Eigenwerte paarweise verschieden
sind, gilt i k+1 6= 0; also i = 0 f
ur alle i {1, ..., k}.
Durch Einsetzen in Gleichung (8.5) erhalten wir k+1 vk+1 = 0V , was aufgrund der Tatsache,
dass vk+1 6= 0V ist k+1 = 0 liefert.
Satz 8.2.15 Sei A MatK (n, n). Besitzt A genau n paarweise verschiedene Eigenwerte,
dann ist A diagonalisierbar.
Beweis. Aufgrund von Satz 8.2.4 ist eine Matrix A MatK (n, n) genau dann diagonalisierbar, wenn es eine Basis des K n bestehend aus Eigenvektoren von A gibt. Wenn A nun
n verschiedenen Eigenwerte hat, dann gibt es zu jedem Eigenwert auch einen Eigenvektor.
Diese n Vektoren sind aufgrund von Satz 8.2.14 linear unabhangig und bilden somit eine
Basis des K n .
166
Taucht im charakteristischen Polynom eine Nullstelle mehrfach auf, so ist die Matrix nicht
zwangslaufig diagonalisierbar. Wir wollen uns im folgenden damit beschaftigen genau die
Bedingungen zu beschreiben, die erf
ullt sein m
ussen damit eine Matrix diagonalisierbar ist,
auch wenn sie weniger als n Eigenwerte besitzt.
Definition 8.2.16 Sei A MatK (n, n) und K ein Eigenwert von A. Die
Losungsmenge des homogenen linearen Gleichungssystems (A En )v = 0 wird Eigenraum zum Eigenwert genannt
Eig(A, ) := L(A En , 0) = Kern(A En ).
Jeder Vektor v Eig(A, ), v 6= 0V ist ein Eigenvektor von A zum Eigenwert .
Die Dimension des Eigenraum Eig(A, ) heit die geometrische Vielfachheit von ,
welche mit (A, ) abgek
urzt wird. Es gilt also
(A, ) = dim Eig(A, ).
Da der Eigenraum der Kern der Matrix A En ist, erhalten wir aufgrund der Dimensionsformel f
ur Kern und Bild (s. Satz 7.3.19)
(A, ) = dim Eig(A, ) = dim Kern(A En ) = n Rang(A En ) .
(8.6)
Satz 8.2.17 Sei A MatK (n, n), dann ist A genau dann invertierbar, wenn 0 kein
Eigenwert von A ist.
Beweis. Wenn 0 ein Eigenwert von A ist, dann ist dim Eig(A, 0) = Kern(A 0En ) =
Kern(A) > 0, also ist A nicht injektiv und daher nicht invertierbar.
Wenn 0 kein Eigenwert von A ist, dann ist dim Eig(A, 0) = Kern(A 0En ) = Kern(A) = 0.
Somit ist A injektiv und aufgrund von Korollar 7.3.20 auch surjektiv und damit invertierbar.
Definition 8.2.18 (Algebraische Vielfachheit von Eigenwerten)
Es sei Eigenwert einer Matrix A MatK (n, n). Die Vielfachheit von als Nullstelle (s. Def. 4.4.5) des charakteristischen Polynoms A nennt man die algebraische
Vielfachheit des Eigenwerts . Diese wird mit (A, ) bezeichnet. Es gilt dann
A (t) = (t )(A,) (t),
wobei das Polynom keine Nullstelle in hat, d.h. () 6= 0.
167
Beweis. Es sei r := (A, ) die geometrische Vielfachheit des Eigenwertes . Dann gilt per
Definition r = dim Eig(A, ). Es sei b1 , ..., br eine Basis des Eigenraumes Eig(A, ) zum
Eigenwert , d.h. b1 , ..., br sind s
amtlich Eigenvektoren von A zum Eigenwert . Aufgrund
des Basiserg
anzungssatzes (s. Satz 6.2.19) kann diese zu einer Basis von ganz V durch
Vektoren br+1 , ..., bn erg
anzt werden. Bez
uglich dieser Basis B = b1 , ..., bn besitzt der
n
n
Endomorphismus F : K K , x 7 Ax die Matrixdarstellung von folgender Form
Ir
B
,
A = MBB (F ) =
O(nr),r C
mit einer Matrix B MatK (r, n r), der quadratischen Matrix C MatK (n r, n r)
und der Matrix O(nr),r MatK (n r, r), deren Eintrage alle null sind. Diese Darstellung
ergibt sich aufgrund der Tatsache, dass die erste r Vektoren von B Eigenvektoren zum
Eigenwert sind (siehe dazu auch Beweis von Satz 8.2.4).
Da die Matrix A in den ersten r Spalten nur Eintrage auf der Diagonale hat, gilt dasselbe
f
ur A tEn . Entwickeln wir die Determinante dieser Matrix Schritt f
ur Schritt nach den
ersten r Spalten erhalten wir:
A (t) = A (t) = (t )r C (t)
Somit ist die algebraische Vielfachheit mindestens gleich r. Da nicht ausgeschlossen ist, da
auch Nullstelle des charakteristischen Polynoms der Matrix C ist, folgt die Behauptung.
Satz 8.2.20 A MatK (n, n) ist genau dann diagonalisierbar, wenn A (t) in Linearfaktoren zerf
allt und wenn f
ur alle Eigenwerte von A gilt:
(A, ) = (A, ) .
(8.7)
Beweis. Sei die Matrix A diagonalisierbar. Dann wissen wir aus Satz 8.2.11, dass das
charakteristische Polynom A (t) in Linearfaktoren zerfallt.
A (t) = (t 1 )(A,1 ) . . . (t r )(A,r )
Es bleibt also Gleichung (8.7) zu zeigen.
Da zum einen (A, i ) die Dimension des Eigenraums zum Eigenwert i ist, also die
Anzahl der linear unabh
angigen Eigenvektoren zu i und zum anderen Eigenvektoren zu
verschiedenen Eigenwerte linear unabhangig sind, gibt es
(A, 1 ) + . . . + (A, r ).
168
linear unabh
angige Eigenvektoren von A. Da A MatK (n, n) diagonalisierbar ist, ist diese
Zahl gleich n (s. Satz 8.2.4).
Nun gilt aber f
ur den Grad des charakteristischen Polynoms ebenfalls
deg A (t) = n = (A, 1 ) + . . . + (A, r ).
Da wir wissen, dass f
ur jeden Eigenwert (A, i ) (A, i ) gilt, ist die Gleichheit
(A, 1 ) + . . . + (A, r ) = n = (A, 1 ) + . . . + (A, r )
nur moglich, wenn f
ur jeden Eigenwert die Gleichheit (8.7) gilt.
Umgekehrt nehmen wir an, dass A (t) in Linearfaktoren zerfallt und dass Gleichung (8.7)
f
ur alle Eigenwerte gilt. Dies bedeutet, dass es genau
(A, 1 ) + . . . + (A, r ) = (A, 1 ) + . . . + (A, r ) = n
linear unabh
angige Eigenvektoren gibt, das heit die Eigenvektoren von A bilden eine Basis
des K n und somit ist A diagonalisierbar.
Korollar 8.2.21 Eine Matrix A ist genau dann diagonalisierbar, wenn gilt
K n = Eig(A, 1 ) Eig(A, k )
wobei 1 , . . . , k die paarweise verschiedenen Eigenwerte von A sind.
Wollen wir nun pr
ufen, ob eine Matrix A MatK (n, n) diagonalisierbar, dann gehen wir
nach folgendem Schema vor:
Algorithmus 8.2.22 (Diagonalisierbarkeit)
Eingabe: Eine quadratische Matrix A = (aij ) MatK (n, n)
Ausgabe: Information, ob A diagonalisierbar ist.
Durchfu
hrung:
1. Berechnen des charakteristischen Polynoms A (t)
A (t) zerf
allt nicht in Linearfaktoren u
ber K
bar.
A (t) zerf
allt in Linearfaktoren u
ber K
nachster Schritt
2. Berechnen der Eigenwerte (Wenn A Dreiecksform hat, dann sind die Eigenwerte
die Diagonaleintr
age und k
onnen direkt abgelesen werden)
Die Eigenwerte sind paarweise verschieden
A ist diagonalisierbar.
nachster Schritt
3. Berechne f
ur alle Eigenwerte mit algebraischer Vielfachheit (A, ) > 1 die
geometrische Vielfachheit (A, ).
Gilt f
ur alle Eigenwerte (A, ) = (A, )
A ist diagonalisierbar.
A ist
169
Beispiel 8.2.23 Betrachten wir nun noch einmal die Matrizen aus Beispiel 8.2.12. Wir
konnen jetzt schneller zu den Ergebnissen kommen.
1. Es ist A (t) = t(t 3), somit hat die Matrix A zwei verschiedene Eigenwerte und
ist diagonalisierbar.
2. Es ist B (t)= (t
2)2 , also ist die algebraische Vielfachheit (B, 2) = 2, aber da
0 1
B 2E2 =
ist der Rang dieser Matrix gleich eins und somit (B, 2) =
0 0
2 Rang(B 2E2 ) = 1 (s. Gl. 8.6). Dies bedeutet dass (B, 2) < (B, 2) und
somit ist die Matrix B nicht diagonalisierbar.
3. Es ist C (t) = t2 + 1, dieses Polynom zerfallt nicht in Linearfaktoren, also ist C
nicht diagonalisierbar.
0 2 1
A = 2 1 1
2 1 3
und wollen untersuchen, ob sie diagonalisierbar ist. Daf
ur berechnen wir zunachst ihr
charakteristischen Polynom (zur Berechnung der Determinante addieren wir das Negative
der zweiten Zeile zur dritten und wenden erst danach die Regel von Sarrus an)
t
2
1
t
2
1
1 = det 2 1 t
1
A (t) = det 2 1 t
2
1
3t
0
t
2t
= t(t + 1)(2 t) 2t + t2 4(2 t)
= t(t + 1)(2 t) t(2 t) 4(2 t) = (2 t) t2 + t t 4
3
2
1
3 2 1
1 = 2 4 1
A 2E3 = 2 1 3
2
1
33
2 1 0
Der Rang dieser Matrix ist gr
oer als 1, da zum Beispiel die erste und die zweite Spalte
linear unabh
angig sind. Da der Rang nicht 3 sein kann, denn es gilt ja det(A 2E3 ) =
170
171
9.1. Bilinearformen
Definition 9.1.1 Seien V, W zwei K-Vektorraume. Eine Abbildung
B :V W K
(v, w) 7 B(v, w)
heit Bilinearform, falls B bei fester zweiter Variable in der ersten Variable K-linear
ist und umgekehrt, d. h. es gilt f
ur alle v, v 0 V, w, w0 W und , K:
B(v + v 0 , w) = B(v, w) + B(v 0 , w)
B(v, w + w0 ) = B(v, w) + B(v, w0 ).
172
9.1. BILINEARFORMEN
i=1
i=1
i=1
Beispiel 9.1.2
Sei V = W = K 2 , dann ist B(v, w) = det(v, w) eine Bilinearform
(s. Def. 8.1.2).
P
Sei V = W = K n , dann ist B(v, w) = ni=1 vi wi = v > w eine Bilinearform, das
sogenannte Standardskalarprodukt. Die Bilinearitat folgt aus dem Distributivgesetz der Matrixmultiplikation 7.1.6 und Satz 7.1.7
B(v + v 0 , w) = (v + v 0 )> w = (v > + v 0> ) w = v > w + v 0> w = B(v, w) + B(v 0 , w)
B(v, w) = (v)> w = v > w = B(v, w)
Die Bilinearit
at in der zweiten Komponente folgt durch eine analoge Rechnung.
Sei V = W = K 2 , dann ist
2 1
w1
2w1 + w2
B(v, w) = (v1 v2 )
= (v1 v2 )
= 2v1 w1 +v1 w2 +v2 w1 +2v2 w2
w2
w1 + 2w2
1 2
ebenfalls eine Bilinearform. Die Bilinearitat folgt wie f
ur das Standardskalarprodukt
aus dem Distributivgesetz f
ur die Matrixmultiplikation 7.1.6 und Satz 7.1.7, kann
aber auch direkt nachgerechnet werden.
und B2 (v, w) = v1 w1 + v2 w2 .
173
9.1. BILINEARFORMEN
Beispiel 9.1.6 Das Standardskalarprodukt ist symmetrisch, denn es gilt aufgrund der
Kommutativit
at in K
B(v, w) =
n
X
v i wi =
i=1
n
X
wi vi = B(w, v).
i=1
Die Determinante ist alternierend, da sie beim Vertauschen zweier Spalten das Vorzeichen
andert det(v, w) = det(w, v) (s. Satz 8.1.3).
n
X
i=1
xi ci , w) =
n
X
i=1
xi B(ci , w) =
n
X
i=1
xi B(ci ,
m
X
j=1
yj c0j ) =
n X
m
X
i=1 j=1
174
9.1. BILINEARFORMEN
B(c1 , c01 ) . . . B(c1 , c0m )
y1
.
.
.
>
.
..
..
..
x S y = (x1 , . . . , xn )
..
B(cn , c01 ) . . . B(cn , c0m )
ym
..
= (x1 , . . . , xn )
Beispiel 9.1.9
v 1 w1
det : K K K, (v, w) 7 det(v, w) = det
= v 1 w2 v 2 w1 .
v 2 w2
2
Wir w
ahlen die Standardbasis des K 2 , die durch {e1 , e2 } gegeben ist und berechnen
die Matrix S.
det(e1 , e1 ) det(e1 , e2 )
0 1
=
.
S=
det(e2 , e1 ) det(e2 , e2 )
1 0
Nun u
ufen wir, dass wir durch die Matrix wieder die Bilinearform
berpr
zur
uckgewinnen k
onnen
0 1
w1
w2
>
det(v, w) = v Sw = (v1 v2 )
= (v1 v2 )
= v 1 w2 v 2 w1 .
1 0
w2
w1
Sei V = K n und B(v, w) = v > w das Standardskalarprodukt, dann gilt f
ur die
Standardbasisvektoren {e1 , . . . , en }
B(ei , ej ) = 0
f
ur i 6= j
und B(ei , ei ) = 1
f
ur alle i.
1 0 0
w1
B2 (v, w) = (v1 v2 v3 ) 0 1 0 w2
0 0 0
w3
gegeben ist.
Nun wollen wir die Eigenschaften der Bilinearform in Eigenschaften der Matrix S u
bersetzen.
175
9.1. BILINEARFORMEN
S > x = 0.
Da wir vorausgesetzt haben, dass die Bilinearform B nicht ausgeartet ist, muss nun aus
S > x = 0 folgen, dass x = 0 ist. Dies ist gleichbedeutend mit der Injektivitat der linearen
Abbildung K n K m , x 7 S > x. Diese Abbildung kann aber nur dann injektiv sein, wenn
n m gilt (s. Korollar 7.3.21).
Nun nehmen wir an, dass w W ein Vektor ist, so dass B(v, w) = 0 f
ur alle v V . Das
bedeutet, dass
x> Sy = 0 f
ur alle x K n Sy = 0.
Die Voraussetzung, dass B nicht ausgeartet ist, bedeutet nun, dass aus Sy = 0 folgen muss,
dass y = 0 gilt, also, dass die lineare Abbildung K m K n , y 7 Sy injektiv ist. Somit
muss m n gelten (s. Korollar 7.3.21).
Insgesamt erhalten wir also dim V = n = m = dim W . Aus Korollar 7.3.20 folgt nun, dass
K m K n , y 7 Sy bijektiv ist, und somit ist die Matrix S invertierbar.
Umgekehrt, ist S bijektiv, dann ist auch S > bijektiv, da aufgrund von Satz 8.1.13
0 6= det S = det S > gilt, also beide Abbildungen insbesondere injektiv sind.
Definition 9.1.11 Sei A MatK (n, n) eine quadratische Matrix. Wir nennen A symmetrisch, wenn sie gleich ihrer Transponierten ist
A = A> ,
das heit, dass die i-te Zeile von A gleich der i-ten Spalte von A ist f
ur alle i = 1, . . . , n.
Eine symmetrische Matrix
andert sich also nicht, wenn sie an der Hauptdiagonale gespiegelt
wird.
Beispiel 9.1.12
176
9.1. BILINEARFORMEN
Die Matrizen
1 2
A=
,
2 3
0 1 2
B = 1 5 3
2 3 1
1
0
und C =
0
1
0
2
2
0
0 1
2 0
0 4
4 10
sind symmetrisch.
Satz 9.1.13 Eine Bilinearform B : V V K ist genau dann symmetrisch, wenn die
Matrix S symmetrisch ist.
Beweis. Seien wieder x = MC (v) und y = MC (w) die Koordinaten der Vektoren v, w V
bez
uglich der Basis C von V . Dann ist die Bilinearform durch B(v, w) = x> Sy gegeben.
Also ist einerseits B(v, w) = x> Sy und andererseits
B(w, v) = y > Sx = (y > Sx)> = x> S > y.
Dabei haben wir benutzt, dass B(v, w) K liegt und somit durch Transponieren nicht
verandert wird. Auerdem haben wir Satz 7.1.13 u
ber die Transponierte eines Produkts
verwendet. Es ist also
x> Sy = x> S > y
und somit muss S = S > gelten, wie man durch Einsetzen der Standardbasisvektoren ei f
ur
x und y erkennt.
Umgekehrt, wenn S = S > gilt, dann konnen wir sehen, dass die Bilinearform symmetrisch
ist, denn
B(w, v) = y > Sx = (y > Sx)> = x> S > y = x> Sy = B(v, w)
Satz 9.1.14 Sei V ein K-Vektorraum der Dimension n, B : V V K eine Bilinearform
und C = {c1 , . . . , cn }, C = {
c1 , . . . , cn } zwei Basen von V . Wir definieren zwei Matrizen
S, S MatK (n, n) mit den Eintr
agen
Sij = B(ci , cj )
und Sij = B(
ci , cj ).
n
X
Tik ck
k=1
177
9.1. BILINEARFORMEN
definiert ist. Dies benutzen wir um die Eintrage der Matrix S mithilfe von denen von S
und T auszudr
ucken:
Sij = B(
ci , cj ) = B(
n
X
Tik ck ,
k=1
=
=
n X
n
X
k=1 `=1
n X
n
X
n
X
Tj` c` )
`=1
k=1 `=1
Da diese Gleichheit f
ur alle i, j = 1, . . . , n richtig ist, erhalten wir die gew
unschte Gleichheit
>
von Matrizen S = T S T .
Da wir nun wissen wie sich Bilinearformen unter Basiswechsel verhalten, konnen wir uns
dieselbe Frage stellen, die wir bereits f
ur lineare Abbildungen gestellt haben: Gibt es eine
Basis von V sodass die Matrix S Diagonalform hat?
Definition 9.1.15 Sei B : V V K eine symmetrische Bilinearform.
Zwei Vektoren v, w V heien orthogonal zueinander, wenn B(v, w) = 0 gilt.
Eine Basis C von V , bestehend aus paarweise zueinander orthogonalen Vektoren
heit Orthogonalbasis von V bez
uglich B. F
ur diese Basis gilt also
B(ci , cj ) = 0
f
ur alle i, j {1, . . . , n} mit i 6= j.
Die zugeh
orige Matrix S zu einer Orthogonalbasis bez
uglich B hat also nur auf der
Diagonale Eintr
age, die nicht null sein konnen.
F
ur den Beweis der Existenz einer Orthogonalbasis benotigen wir zunachst die Definition
des Orthokomplements.
Definition 9.1.16 Sei B : V V K eine symmetrische Bilinearform und M V
eine Teilmenge von V , dann heit die Menge
M = {v V | B(v, w) = 0 w M }
das Orthokomplement von M in V .
Das Orthokomplement von M enthalt also alle Vektoren aus V die zu allen Vektoren aus
M orthogonal sind.
Lemma 9.1.17 Sei B : V V K eine symmetrische Bilinearform und M V eine
Teilmenge von V , dann ist das Orthokomplement M ein Untervektorraum von V .
Beweis. Wir m
ussen zeigen, dass die Menge M abgeschlossen bez
uglich der Addition und
der Skalarmultiplikation ist (s. Def. 6.1.5). Seien daf
ur v, v 0 M und , 0 K, dann ist
178
9.1. BILINEARFORMEN
B(v, w) = B(v 0 , w) = 0 f
ur alle w M per Definition von M . Aufgrund der Linearitat
der ersten Komponente der Bilinearform gilt
B(v + 0 v 0 , w) = B(v, w) + 0 B(v 0 , w) = 0 + 0 0 = 0.
und somit liegt auch v + 0 v 0 M .
Lemma 9.1.18 Sei B : V V K eine symmetrische Bilinearform. Sei v V ein
Vektor f
ur den B(v, v) 6= 0 gilt und U := LH(v) die lineare H
ulle von v, das heit die
Menge aller Vielfachen von v. Dann gilt
U U = V.
Beweis. Um zu zeigen, dass der Vektorraum V eine direkte Summe von U und seinem
Orthokomplement ist, m
ussen wir zunachst zeigen, dass jeder Vektor w W sich als
Summe eines Vektors aus U und eines Vektors aus U schreiben lasst (s. Def. 6.3.3).
Es gilt offensichtlich f
ur jedes w V
B(w, v)
B(w, v)
w=
v+ w
v = w1 + w2 .
B(v, v)
B(v, v)
Wir beachten dabei dass B(w, v), B(v, v) K und nach Voraussetzung B(v, v) 6= 0 gilt.
Also ist B(w,v)
B(v,v) K ein Skalar. Der Vektor w1 ist also ein Vielfaches von v und liegt somit
in U .
Um zu zeigen, dass w2 U m
ussen wir zeigen, dass B(w2 , u) = 0 f
ur alle u U . Da
aber U = LH(v) = {u V | u = v f
ur ein K} und da aufgrund der Bilinearitat
B(w2 , u) = B(w2 , v) = B(w2 , v) gilt, gen
ugt es zu zeigen, dass B(w2 , v) = 0. Wir
rechnen nun also
B(w, v)
v, v
B(w2 , v) = B w
B(v, v)
B(w, v)
= B(w, v)
B (v, v) = B(w, v) B(w, v) = 0.
B(v, v)
Wir haben somit bewiesen, dass V = U + U eine Summe ist. Um zu zeigen, dass diese
Summe direkt ist m
ussen wir noch zeigen, dass U U = {0V } gilt. Ein Vektor u U U
liegt einerseits in U , ist also von der Form u = v, andererseits liegt er in U , es gilt also
B(u, u0 ) = 0 f
ur alle u0 = 0 v U . Aufgrund der Bilinearitat gilt nun
B(u, u0 ) = B(v, 0 v) = 0 B(v, v).
Da nach Voraussetzung B(v, v) 6= 0 kann B(u, u0 ) = 0 nur dann f
ur alle u0 U , das heit
f
ur alle 0 K gelten, wenn = 0 ist. Dies bedeutet aber, dass u = 0V ist und somit
U U = {0V }.
Beispiel 9.1.19 Sei V = R2 versehen mit der Bilinearform
1 0
w1
B(v, w) = v > Diag(1, 1) w = (v1 v2 )
= v 1 w1 v 2 w2
0 1
w2
179
9.1. BILINEARFORMEN
Der Vektor w = (1 1) hat die Eigenschaft B(w, w) = 12 12 = 0 und ist also orthogonal
zu sich selbst.
Der Vektor v = (2 1) hat die Eigenschaft B(v, v) = 22 12 = 3 und somit konnen wir
zum Beispiel durch
B(w, v)
1 1
1 2
1
w2 = w
=
v=
1
B(v, v)
3 1
3 2
einen zu v orthogonalen Vektor konstruieren
1 0
2
1
1
2
1 2
1 2
B(w2 , v) =
=
= 0.
0 1
1
1
3
3
(9.1)
(9.2)
wobei i K.
180
9.1. BILINEARFORMEN
1
c1 , . . . , p
cn }.
|1 |
|n |
181
9.2. SKALARPRODUKTE
1
1
B(v, v)
1 0
Wir rechnen nun nach, dass gilt
1 2
2
B(e1 , w2 ) = (1 0)
=0
2 1
1
und
1 2
2
B(w2 , w2 ) = (2 1)
= 5
2 1
1
S=
1
1
v2 = w2 = 2 1
5
5
B(v1 , v1 ) B(v2 , v1 )
B(v1 , v2 ) B(v2 , v2 )
=
1 0
.
0 1
9.2. Skalarprodukte
Ab sofort wollen wir Bilinearformen nur noch u
ber dem Korper R der reellen Zahlen
betrachten.
Definition 9.2.1 Eine Bilinearform B : V V R heit positiv definit, wenn
B(v, v) > 0 gilt f
ur alle v V, v 6= 0V .
Lemma 9.2.2 Sei B : V V R eine positiv definite Bilinearform, dann ist B nicht
ausgeartet.
Beweis. Da B(v, v) > 0 gilt, kann f
ur ein v V, v 6= 0V nicht gelten, dass B(v, w) = 0 f
ur
alle w V .
Definition 9.2.3 Sei V ein Vektorraum u
ber dem Korper R. Ein Skalarprodukt in
V ist eine symmetrische, positiv definite Bilinearform
h, i : V V R
(v, w) 7 hv, wi
Ein Vektorraum u
orper R mit einem Skalarprodukt V, h, i heit euklidiber dem K
scher Vektorraum.
182
9.2. SKALARPRODUKTE
P
Beispiel 9.2.4
Sei V = Rn , das Standardskalarprodukt hv, wi = ni=1 vi wi =
v > w ist ein Skalarprodukt. Wir haben bereits Bilinearit
at und Symmetrie gezeigt.
Pn
2
Die positive Definitheit folgt direkt, da hv, vi = i=1 vi > 0, wenn v 6= 0.
Sei wieder V = Rn und A Gln (K) eine invertierbare Matrix, dann ist
hv, wiA := hAv, Awi = (Av)> (Aw) = v > A> Aw
ein Skalarprodukt, wobei wir hier mit h, i das Standardskalarprodukt bezeichnen.
Die Bilinearit
at folgt aus dem Distributivgesetz der Matrixmultiplikation 7.1.6 und
Satz 7.1.7. Die Symmetrie folgt aus der Symmetrie des Standardskalarprodukts
hw, viA = hAw, Avi = hAv, Awi = hv, wiA .
Um zu sehen, dass h, iA positiv definit ist, verwenden wir die Invertierbarkeit der
Matrix A. Denn daraus folgt, das f
ur v 6= 0V auch Av = v =
6 0V , also gilt
hv, viA = hAv, Avi = h
v , vi > 0
aufgrund der positiven Definitheit des Standardskalarprodukts.
Definition 9.2.5 Sei V, h, i ein euklidischer Vektorraum, dann heit die Abbildung
kk : V R, v 7 kvk =
p
hv, vi
183
9.2. SKALARPRODUKTE
Beweis. Ist w = 0V , dann ist die Ungleichung richtig, da auf beiden Seiten eine Null steht.
Wir nehmen also an, dass w 6= 0V und setzen = hv,wi
R. Aufgrund der positiven
kwk2
Definitheit des Skalarprodukts gilt dann
0 hv w, v wi
= hv, vi 2 hv, wi + 2 hw, wi
= kvk2 2
= kvk2
hv, wi2
hv, wi
hv,
wi
+
kwk2
kwk2
kwk4
hv, wi2
kwk2
Diese Ungleichung liefert uns hv, wi2 kvk2 kwk2 und durch Ziehen der Quadratwurzel,
dann die Cauchy-Schwarzsche Ungleichung.
Satz 9.2.8 Sei V, h, i
Eigenschaften:
i) kvk 0 f
ur alle v V
ii) kvk = 0 v = 0V
iii) kvk = ||kvk f
ur alle v V, K
iv) kv + wk kvk + kwk f
ur alle v, w V
Die Ungleichung iv) heit Dreiecksungleichung.
Beweis.
ii) k0V k = 0 gilt aufgrund der Bilinearitat. Aufgrund der positiven Definitheit ist f
ur
alle v 6= 0V die Norm kvk > 0.
iii) Es gilt aufgrund der Bilinearitat
p
p
kvk = hv, vi = 2 hv, vi = ||kvk
iv) Um die Dreiecksungleichung zu zeigen, berechnen wir mithilfe der Cauchy-Schwarzschen
Ungleichung (wir verwenden, dass die Gleichung auch ohne Betragsstriche richtig
ist):
(kvk + kwk)2 = kvk2 + 2kvkkwk + kwk2
kvk2 + 2 hv, wi + kwk2
= hv + w, v + wi = kv + wk2
Durch Ziehen der Quadratwurzel erhalten wir somit kvk + kwk kv + wk.
184
9.2. SKALARPRODUKTE
Definition 9.2.9 Sei V, h, i ein euklidischer Vektorraum und v, w V Vektoren,
die nicht gleich dem Nullvektor sind, dann definiert man den Offnungswinkel
(v, w)
zwischen v und w durch
cos (v, w) =
hv, wi
kvkkwk
0 (v, w) .
hv, wi
1
kvkkwk
und da cos : [0, ] [1, 1] bijektiv ist, ist der Winkel (v, w) wohldefiniert.
Satz 9.2.10 (Satz von Pythagoras)
Sei V, h, i ein euklidischer Vektorraum und v, w V Vektoren, die orthogonal zueinander sind. Dann gilt
kv + wk2 = kvk2 + kwk2 .
Definition 9.2.11 Sei V, h, i ein euklidischer Vektorraum, dann heit eine Basis
B = {v1 , . . . , vn } von V Orthonormalbasis (abgek
urzt ONB) von V , wenn B eine
Orthogonalbasis von V bez
uglich h, i ist und zusatzlich gilt
kvi k = 1
f
ur alle vi B.
Definition 9.2.12 Das Kronecker-Delta ist ein Zeichen mit zwei Indizes, sodass gilt
(
1 wenn i = j
ij =
0 wenn i 6= j
Dabei liegen i, j in einer beliebigen Indexmenge, z. B. {1, . . . , n}.
185
9.2. SKALARPRODUKTE
wenn i 6= j
Bemerkung 9.2.15 Sei V, h, i ein euklidischer Vektorraum. Wir betrachten eine
Menge von Vektoren M = {v1 , . . . , vr } V , die paarweise orthogonal zueinander
sind, das heit wenn hvi , vj i = 0 f
ur i 6= j gilt, und sodass 0V
/ M . Unter diesen
Voraussetzungen sind die Vektoren aus M immer linear unabhangig.
Um dies zu zeigen betrachten wir eine Linearkombination des Nullvektors
1 v1 + + r vr = 0V
und berechnen das Skalarprodukt mit den Vektoren vi f
ur alle i = 1, . . . , n.
h1 v1 + + r vr , vi i = h0V , vi i
1 hv1 , vi i + + i hvi , vi i + + r hvr , vi i = 0
i hvi , vi i = 0
Da vi 6= 0V ist hvi , vi i > 0 und somit folgt daraus, dass i = 0 sein muss. Also ist die
Linearkombination des Nullvektors trivial und somit die Vektoren linear unabhangig.
Lemma 9.2.16 Sei V, h, i ein euklidischer Vektorraum und B = {v1 , . . . , vn } eine
Orthonormalbasis von V , dann gilt f
ur jeden Vektor v V
v=
n
X
hv, vi i vi .
i=1
186
9.2. SKALARPRODUKTE
1
v1 ,
kv1 k
w
k+1 = vk+1
k
X
hvk+1 , wi i wi
wk+1 =
i=1
1
kw
k+1 k
w
k+1
f
ur alle k = 1, . . . , n.
Beweis. Zun
achst bemerken wir, dass alle Vektoren wi die Norm 1 haben, da sie alle
normiert wurden.
Nun m
ussen wir die Orthogonalit
at der Vektoren wi pr
ufen. Aufgrund der rekursiven
Definition k
onnen wir annehmen, dass alle Vektoren w1 , . . . , wk orthogonal zueinander sind.
Nun m
ussen wir zeigen, dass w
k+1 und damit auch wk+1 orthogonal zu allen w1 , . . . , wk
ist. Daf
ur berechnen wir f
ur j k
*
+
k
X
hw
k+1 , wj i = vk+1
hvk+1 , wi i wi , wj
i=1
= hvk+1 , wj i
k
X
hvk+1 , wi i hwi , wj i
i=1
= hvk+1 , wj i hvk+1 , wj i = 0.
Da wir wissen, dass sowohl die Vektoren {v1 , . . . , vn } als auch die Vektoren {w1 , . . . , wn }
eine Basis von V sind, gilt insbesondere
dim LH(w1 , . . . , wk ) = dim LH(v1 , . . . , vk )
f
ur alle k = 1, . . . , n.
P
Da aber per definition w
k+1 + ki=1 hvk+1 , wi i wi = vk+1 gilt, liegt vk+1 LH(w1 , . . . , wk+1 )
f
ur alle k = 0, . . . , n 1 und somit folgt die Gleichheit der Mengen.
187
kv1 k = 12 + 12 = 2
Also ist
1
1
w1 = v 1 =
2
2
1
1
1
.
1
F (v), F (v 0 ) W = v, v 0 V .
Eine orthogonale Abbildung hat somit die Eigenschaften Langen von Vektoren und Winkel
zwischen Vektoren zu erhalten. Wir sehen durch Einsetzen von v = v 0 , dass Langen erhalten
werden
kF (v)k2W = hF (v), F (v)iW = hv, viV = kvk2V .
Und auch f
ur Winkel gilt
cos (F (v), F (w)) =
hv, wi
hF (v), F (w)i
=
= cos (v, w).
kF (v)kkF (w)k
kvkkwk
Lemma 9.3.2 Seien V, h, iV , W, h, iW euklidische Vektorraume und F : V W
eine orthogonal lineare Abbildung, dann ist F injektiv.
188
Proposition 9.3.5 Die Menge der orthogonalen Matrizen O(n) ist eine Untergruppe
der Gln (R).
Beweis. Eine orthogonale Matrix A O(n) liegt in der Gln (R), da die lineare Abbildung
Rn Rn , x Ax aufgrund von Korollar 9.3.3 bijektiv ist.
Die Einheitsmatrix En liegt in O(n), da hEn v, En wi = hv, wi gilt.
Sei A O(n), dann zeigen wir, dass auch A1 O(n). Seien daf
ur v, w Rn , wir setzen
1
1
v = A v und w
= A w, dann gilt
hv, wi = hA
v , Awi
= h
v , wi
= A1 v, A1 w ,
wobei wir bei dem zweiten Gleichheitszeichen die Orthogonalitat von A verwendet haben.
Seien A, B O(n), dann ist auch A B O(n), denn es gilt
hABv, ABwi = hBv, Bwi = hv, wi ,
aufgrund der Orthogonalit
at von A und B.
Proposition 9.3.6 Sei V, h, iV eine euklidischer Vektorraum und sei {v1 , . . . , vn }
eine Orthonormalbasis von V . Eine lineare Abbildung F : V V ist genau dann
orthogonal, wenn {F (v1 ), . . . , F (vn )} eine Orthonormalbasis von V ist.
Beweis. Sei F : V V orthogonal, dann gilt insbesondere
hF (vi ), F (vj )i = hvi , vj i = ij
189
f
ur alle Basisvektoren, also ist {F (v1 ), . . . , F (vn )} eine Orthonormalbasis von V .
Sei umgekehrt {F (v1 ), . . . , F (vn )} eine Orthonormalbasis von V , das heit es gilt
hF (vi ), F (vj )i = ij = hvi , vj i ,
(9.3)
=
=
=
* n
X
i F (vi ),
i=1
n
X
n
X
i=1
j=1
n
X
n
X
i=1
+
j F (vj )
| Linearitat von F
j=1
* n
X
j=1
n
X
j hF (vi ), F (vj )i
j hvi , vj i
| Vorraussetzung (9.3)
j=1
i vi ,
i=1
n
X
+
j v j
j=1
= hv, wi
| Definition von v, w
Korollar 9.3.7 Eine Matrix A MatR (n, n) liegt genau dann in O(n), wenn die Spalten
von A eine Orthonormalbasis bez
uglich des Standardskalarprodukts des Rn bilden.
Beweis. Die Spalten von A sind genau die Bilder der Standardbasisvektoren. Da die
Standardbasisvektoren eine Orthonormalbasis des Rn bilden (s. Bsp. 9.2.14), folgt die
Aussage direkt aus Proposition 9.3.6.
Korollar 9.3.8 Sei eine Matrix A MatR (n, n) gegeben, dann sind f
ur diese Matrix
folgende Aussagen
aquivalent:
i) A O(n)
ii) Die Spalten von A bilden eine Orthonormalbasis des Rn bez
uglich des Standardskalarprodukts.
iii) A> A = En
iv) A ist invertierbar und es gilt A1 = A> .
v) AA> = En
vi) Die Zeilen von A bilden eine Orthonormalbasis des Rn bez
uglich des Standardskalarprodukts.
190
=
2 0 2
2 1 1
2 1 1
Eine Verallgemeinerung dieser Matrix sind Matrizen der Form
1
a b
A=
a2 + b2 b a
f
ur die ebenfalls die Orthogonalitatsbedingung
1
1
a b
a
>
AA =
2
2
2
2
b
a
b
a +b
a +b
gilt:
2
1
b
a + b2
0
= 2
= E2
a
0
a2 + b2
a + b2
191
Beweis. Wenn A O(n), dann gilt AA> = En , also folgt aus Satz 8.1.19 und Satz 8.1.13
1 = det En = det(AA> ) = det A det A> = (det A)2
Durch Ziehen der Quadratwurzel erhalten wir die gew
unschte Aussage.
Beispiel 9.3.11 Es gilt f
ur die Matrix
1
1
1
a b
a b
det A =
A=
det
= 2
(a2 +b2 ) = 1.
2
2
b
a
a
+
b
2
2
a2 + b2 b a
a +b
Dabei haben beim Berechnen der Determinante Korollar 8.1.4 benutzt.
Umgekehrt ist aber nicht jede Matrix mit Determinante gleich 1 auch orthogonal. Zum
Beispiel gilt
1
0
det B = det 2
= 1 aber hBe2 , Be2 i = h2e2 , 2e2 i = 4 he2 , e2 i .
0 2
Proposition 9.3.13 Die Menge SO(n) ist eine Untergruppe von O(n).
Beweis. Die Determinante det : O(n) R ist ein Gruppenhomomorphismus (s. Satz
8.1.19) mit Kern SO(n).
192
Proposition 9.4.2 Sei V, h, iV ein euklidischer Vektorraum, F : V V ein selbstadjungierter Endomorphismus und , R zwei verschiedene Eigenwerte von F , dann
sind die Eigenvektoren von F zum Eigenwert orthogonal zu den Eigenvektoren von F
zu .
Beweis. Sei v 6= 0V Eigenvektor zu , d.h. F (v) = v und sei w 6= 0V Eigenvektor zu ,
d.h. F (w) = w, dann gilt
hv, wi = hv, wi = hF (v), wi = hv, F (w)i = hv, wi = hv, wi .
Somit gilt ( ) hv, wi = 0 und da nach Voraussetzung 6= ist, muss hv, wi = 0 sein.
Somit sind v und w orthogonal zueinander.
Proposition 9.4.3 Sei V, h, iV eine euklidischer Vektorraum, F : V V ein Endomorphismus und B = {v1 , . . . , vn } eine Orthonormalbasis von V . Die Darstellungsmatrix
von F bez
uglich dieser Basis MBB (F ) ist genau dann symmetrisch, wenn F selbstadjungiert ist.
Beweis. Zun
achst stellen wir fest, dass der Eintrag aij der i-ten Zeile und j-ten Spalte von
A durch aij = hvi , F (vj )i gegeben ist. Die j-te Spalte der Matrix A sind die Koordinaten
von
uglich der Basis B. Unter Verwendung von Lemma 9.2.16 gilt nun F (vj ) =
Pn F (vj ) bez
hv
,
F
(v
j )i vi und somit ist aij = hvi , F (vj )i.
i=1 i
Nun verwenden wir die Selbstadjungiertheit von F und der Symmetrie des Skalarprodukts
um zu sehen, dass gilt:
aij = hvi , F (vj )i = hF (vi ), vj i = hvj , F (vi )i = aji .
(9.4)
(9.5)
F(
n
X
i vi ),
i=1
=
=
=
* n
X
n
X
i=1
n
X
j=1
n
X
i=1
+
j vj
| Einsetzen von v, w
j=1
i F (vi ),
i=1
n
X
n
X
n
X
+
j vj
| Linearitat von F
j=1
j hF (vi ), vj i
j hvi , F (vj )i
| Vorraussetzung (9.5)
j=1
193
* n
X
i vi ,
i=1
* n
X
n
X
+
j F (vj )
j=1
n
X
i vi , F (
j v j )
i=1
+
| Linearitat von F
j=1
= hv, F (w)i
| Definition von v, w
und Ay = y + x.
194
Substrahieren wir hx, yi auf beiden Seiten der Gleichung, dann erhalten wir
(kxk2 + kyk2 ) = 0.
Da der Eigenvektor z = x + iy nicht null ist muss mindestens kxk =
6 0 oder kyk =
6 0 sein.
Also ist die Gleichung nur f
ur = 0 zu erf
ullen. Aber dies bedeutet, dass = +i = R
liegt.
Satz 9.4.6 (Spektralsatz
fu
r selbstadjungierte Endomorphismen)
Sei V, h, iV ein euklidischer Vektorraum und F : V V ein selbstadjungierter
Endomorphismus, dann gibt es eine Orthonormalbasis von V bestehend aus Eigenvektoren
von F .
Beweis. Wir beweisen den Spektralsatz per vollstandiger Induktion nach der Dimension
des Vektorraums V .
Der Induktionsanfang ist bei n = 1. Eine lineare Abbildung von einem eindimensionalen
Vektorraum in sich selbst ist die Multiplikation mit einen Skalar. Daher ist jeder Vektor
v 6= 0V ein Eigenvektor. Durch Normieren v := kv1k v ist dieser Vektor eine Orthonormalbasis
von V bestehend aus Eigenvektoren von F .
Die Induktionsvoraussetzung besagt nun, dass ein selbstadjungierter Endomorphismus
FU : U U von einem Vektorraum der Dimension n 1 eine Orthonormalbasis von U
bestehend aus Eigenvektoren von FU besitzt.
Sei also V ein Vektorraum der Dimension n und F : V V ein selbstadjungierter
Endomorphismus, dann gibt es aufgrund von Lemma 9.4.5 einen Eigenvektor v 6= 0V von
F . Diesen Vektor normieren wir und erhalten so v := kv1k v, der ein Eigenvektor von F der
Norm 1 ist.
Nun verwenden wir Lemma 9.1.18 und erhalten den Vektorraum V als direkte Summe der
linearen H
ulle von v und deren Orthokomplement:
V = LH(v) LH(v) .
Da dim LH(v) = 1 ist hat das Orthokomplement U := LH(v) die Dimension
dim U = dim V dim LH(v) = n 1 (s. Satz 6.2). Wir konnen also die Induktionsvoraussetzung anwenden, wenn wir sicher stellen konnen, dass die Einschrankung von F auf
den Untervektorraum U , eine Abbildung von U nach U ist. Das bedeutet, dass F (u) U
sein muss, f
ur u U . Das heit aber, dass aus u U = LH(v) , also hu, vi = 0 folgen
muss, dass F (u) U = LH(v) , also hF (u), vi = 0. Um dies zu sehen, rechnen wir:
hF (u), vi = hu, F (v)i = hu, vi = hu, vi = 0.
Dabei haben wir benutzt, dass v ein Eigenvektor von F ist.
Wir konnen nun also den Endomorphismus FU : U U, u 7 F (u) definieren. Dieser
Endomorphismus ist selbstadjungiert, da F selbstadjungiert ist und daher konnen wir die
Induktionsvoraussetzung anwenden. Das heit es gibt eine Orthonormalbasis {v1 , . . . , vn1 }
aus Eigenvektoren von FU . Dann ist {v1 , . . . , vn1 , v} eine Orthonormalbasis aus Eigenvektoren von FU .
195
r
Y
(t i )i ,
i=1
2 mal
r mal
196
2 1
1
A = 1 2 1
1 1 2
gegeben. Die Matrix ist symmetrisch, wir konnen also eine Orthonormalbasis aus Eigenvektoren von A bestimmen. Dazu benotigen wir zunachst die Eigenwerte von A und
berechnen daf
ur das charakteristische Polynom
2t
1
1
2 t 1 = (2t)2 11(2t)(2t)(2t) = t3 +6t2 9t
A (t) = det 1
1
1 2 t
Dieses Polynom wollen wir in seine Linearfaktoren zerlegen. Daf
ur klammern wir zunachst
t aus und sehen dann, dass der verbliebene Faktor mithilfe einer binomischen Formel
(a b)2 = a2 2ab + b2 in Linearfaktoren zerlegt werden kann (alternativ, kann man
mithilfe der p q-Formel die Nullstellen berechnen).
A (t) = t3 + 6t2 9t = t t2 6t + 9 = t(t 3)2 .
Somit hat die Matrix A zwei verschiedene Eigenwerte 1 = 0 mit der Vielfachheit 1 und
2 = 3 mit der Vielfachheit 2. Wir berechnen nun die Eigenraume, zuerst zum Eigenwert
1 = 0:
2 1
1
1 2 1
1
Eig(A, 0) = Kern(A 0E3 ) = Kern 1 2 1 = Kern 2 1
1 1 2
1 1 2
1 2 1
1 2 1
= Kern 0 3 3 = Kern 0 1 1
0 3 3
0 0
0
Wir wahlen die Unbekannte x3 = r, wobei r eine beliebige Zahl aus R ist und erhalten
so aus der zweiten Zeile x2 + x3 = 0 die Gleichung x2 = x3 = r und aus der ersten
Zeile x1 + 2x2 x3 = 0 die Gleichung x1 = 2x2 + x3 = r. Somit ist der Eigenraum
zum Eigenwert 1 = 0 gegeben durch:
Eig(A, 0) = x R3 | x = r 1 wobei r R .
1
>
Eine Basis dieses Eigenraumes ist zum Beispiel durch den Vektor v1 = 1 1 1
gegeben. Die Dimension von Eig(A, 0) ist also 1, wie wir aufgrund der Tatsache, das
1 = 0 mit Vielfachheit 1 im charakteristischen Polynom vorkommt, erwartet haben.
Nun berechnen wir den Eigenraum zum Eigenwert 2 = 3.
1 1
1
1 1 1
Eig(A, 3) = Kern(A 3E3 ) = Kern 1 1 1 = Kern 0 0 0
1 1 1
0 0 0
197
Wir wahlen die Unbekannten x2 = r und x3 = s, wobei r und s beliebige Zahlen aus R
sind und erhalten so aus x1 + x2 + x3 = 0 die Gleichung x1 = x2 + x3 = r + s. Somit
ist der Eigenraum zum Eigenwert 1 = 0 gegeben durch:
1
1
Eig(A, 3) = x R3 | x = r 1 + s 0 wobei r R .
0
1
>
Eine Basis dieses Eigenraumes ist zum Beispiel durch die Vektoren v21 = 1 1 0
>
und v22 = 1 0 1 gegeben. Die Dimension von Eig(A, 3) ist also 2, wie wir aufgrund
der Tatsache, das 2 = 3 mit Vielfachheit 2 im charakteristischen Polynom vorkommt,
erwartet haben.
Im nachsten Schritt m
ussen wir nun ausgehend von v1 eine Orthonormalbasis von
Eig(A, 0) und ausgehend von v21 , v22 eine Orthonormalbasis von Eig(A, 3) konstruieren.
Daf
ur verwenden wir das Gram-Schdt-Verfahren.
Eine Orthonormalbasis
vonp
Eig(A, 0) erhalten wir,
p
indem wir den Vektor v1 normieren.
2
2
2
Es gilt kv1 k = hv1 , v1 i = (1) + 1 + 1 = 3. Somit ist
1
1
1
w1 = v 1 = 1
3
3
1
ren. Daf
ur m
ussen wir v21 normieren. Es gilt kv21 k = hv21 , v21 i = 12 + 12 + 02 = 2.
Somit ist der erste Basisvektor von Eig(A, 3) durch
1
w21 = v21
2
1
1
= 1
2 0
gegeben. F
ur den zweiten Basisvektor konstruieren wir jetzt nach Gram-Schmidt einen
Vektor aus Eig(A, 3), der senkrecht auf w21 steht. Wir definieren
1
1
1
2
1 1
w
22 = v22 hv22 , w21 i = 0 1 = 12 .
2 2 0
1
1
q
q
q
Nun gilt kw
22 k = 14 + 14 + 1 = 32 . Also ist w22 = 23 w
22 .
Da Vektoren zu unterschiedlichen Eigenwerten sind immer orthogonal zueinander, konnen
nun die Orthonormalbasis des R3 bestehend aus Eigenvektoren von A angeben:
1
1
1 ,
w1 =
3
1
w21
1
1
1
=
2 0
und w22
r 1
2 21
2
=
3
1
Nun konnen wir die Matrix T aus Korollar 9.4.7 angeben. Die Matrix T 1 hat als Spalten
die Vektoren w1 , w21 , w22 . Die Matrix T ist dann die Inverse dazu. Da aber die Spalten
von T 1 eine Orthonormalbasis sind, kann die Inverse durch Transponieren berechnet
werden.
198
T 1 = T > =
13
1
3
1
3
1
2
1
2
q
1
q6
2
3
1 3
T =
q2
1
6
1
3
1
q2
1
3
1
6
0
q
2
3
und wir k
onnen nachrechnen, dass gilt
T AT > = Diag(0, 3, 3).
Da die erste Spalte von T 1 der Eigenvektor zu 1 = 0 ist, ist 0 der erste Diagonaleintrag.
n
X
ak bk .
k=1
Beweis. F
ur i {1, ..., m} und j {1,P
..., p} werden die Koeffizienten der Produktmatrix
C := (cij ) MatK (m, p) durch cij := nk=1 aik bkj definiert.
Da die Vektoren als Matrizen aufgefasst in ak MatK (m, 1) und bk MatK (1, p) liegen,
ist es moglich das Matrixprodukt ak bk MatK (m, p) zu berechnen:
a1k
a1k bk1 a1k bk2 . . . a1k bkp
a2k
a2k bk1 a2k bk2 . . . a2k bkp
amk bkp
Pn
Pn
a
b
a
b
.
.
.
a
b
1k
k1
1k
k2
1k
kp
k=1
k=1
k=1
n
Pn a2k bk1 Pn a2k bk2 . . . Pn a2k bkp
X
k=1
k=1
k=1
k
ak b =
..
..
..
..
.
.
.
.
k=1
Pn
Pn
Pn
k=1 amk bk1
k=1 amk bk2 . . .
k=1 amk bkp
Die Eintage dieser Matrix entsprechen also genau den Eintragen des Matrixprodukts
C = AB.
199
Beweis. Wir f
uhren einen konstruktiven Beweis, der direkt benutzt werden kann um die
Zerlegung zu berechnen.
(1) Wir betrachten die Matrix B := A> A MatR (n, n) und stellen unter Verwendung
von Satz 7.1.13 und Gleichung (7.2) fest, dass sie symmetrisch ist:
B > = (A> A)> = A> (A> )> = A> A = B.
Durch die Hauptachsentransformation (s. Kor. 9.4.7) erhalten wir f
ur B die Zerlegung
>
T BT = Diag(1 , . . . , n ) und die Eigenwerte i R von B. Weiterhin bezeichne
vi den Eigenvektor zu i aus der Matrix T . Wir sortieren dabei die Eigenwerte
1 2 n ihrer Gr
oe nach. Alle i sind nicht negativ (i 0), denn es gilt
vi> Bvi = i vi> vi = i
vi> Bvi = vi> A> Avi = (Avi )> (Avi ) 0.
Insgesamt erhalten wir daher i 0. Auerdem gilt rang(A) = rang(B), da
rang(A> A) = rang(A). Die ersten r := rang(B) Eigenwerte sind also positiv.
(2) F
ur alle i = 1, . . . , r setzen wir ui =
1 Avi .
i
(3) Die u
brigen ui mit r < i m werden so bestimmt, dass diese zu u1 , . . . , ur orthogonal
sind und die Norm 1 haben.
(4) Wir setzen jetzt U := (u1 , . . . , um ) und V := (v1 , . . . , vn ) und definieren
(
i f
ur i = j und i r
S := (sij ) =
0
sonst
Es bleibt noch zu zeigen, dass die konstruierten U, S, V > die geforderten Eigenschaften
erf
ullen.
Wegen der Hauptachsentransformation ist {v1 , . . . , vn } eine Orthonormalbasis von Rn und
demnach V eine orthogonale Basis. Ferner ist {u1 , . . . , um } eine Orthonormalbasis von Rm ,
denn f
ur i, j = 1, . . . , r ist
*
+
1
1
1
1
1
1
hui , uj i = Avi , p Avj = p hAvi , Avj i = p (Avi )> (Avj )
i
i j
i j
j
p p
p
j j >
j
1
1 > >
1
1 >
= p vi A Avj = p vi j vj = p vi vj = hvi , vj i
i j
i j
i j
i
(q
j
f
ur i = j
i = 1
=
.
0
f
ur i 6= j
200
Auerdem sind ur+1 , . . . , um orthonormal per Konstruktion und damit insgesamt U eine
orthogonale Matrix.
Abschieend wollen wir zeigen, dass die Zerlegung A = U SV gilt.
A = A En = AV V >
n
X
=A
vi vi>
i=1
=
=
=
n
X
i=1
r
X
Avi vi>
| Distributivgesetz
Avi vi>
i=1
r
X
i=1
r
X
ui
p
1
Avi
i vi>
i
i
| Einf
ugen von
i
p
i vi>
| Definition von ui
i=1
= U SV >
| Lemma 9.5.1.
Satz 9.5.4 F
ur Singul
arwertzerlegung einer Matrix A gelten die folgenden Eigenschaften
(i) Die Singul
arwerte sii entsprechen den Wurzeln der Eigenwerte von A> A.
(ii) Die Singul
arwerte sii sind eindeutig bestimmt.
(iii) Ist A symmetrisch, so sind die Singularwerte die Betr
age ihrer Eigenwerte von A.
(iv) Die Matrizen U, V sind nicht eindeutig bestimmt.
(v) Die Spalten i = r + 1, . . . , n von V sind eine Basis f
ur den Kern von A.
(vi) Die Spalten i = 1, . . . , r von U sind eine Basis f
ur das Bild von A.
Beweis. (i) folgt direkt aus der Definition der Singularwerte. Daraus folgt dann direkt,
dass sie eindeutig sind, da die Eigenwerte einer Matrix eindeutig sind und wir die
Singul
arwerte der Gr
oe nach sortieren.
(iii) Wenn A symmetrisch ist, dann ist B = A> A = A2 und hat die Eigenwerte i = 2i ,
da f
ur einen Eigenvektor vi von A zum Eigenwert i gilt: A2 vi = AAvi = Ai vi =
i Avi = i i vi . Und damit ist die Wurzel aus dem Eigenwert 2i durch |i | gegeben.
(iv) Die Matrizen U und V sind nicht eindeutig, da Orthonormalbasen von Vektorraumen
nicht eindeutig sind.
201
(v) Durch Multiplizieren von rechts mit der Matrix V erhalten wir aus der Singularwertzerlegung AV = U S. Da nur die ersten r Diagonaleintrage von S positiv sind und
alle anderen Eintr
age null gilt: Sei = 0, wobei i > r und ei ein Standardbasisvektor
des Rn ist. Also ist auch AV ei = U Sei = U 0 = 0. Da V ei die i-te Spalte von V
liefert, liegen also die Spalten i = r + 1, . . . , n von V im Kern von A. Diese sind linear
unabh
angig, da V eine invertierbare Matrix ist. Da der Kern von A aufgrund der
Dimensionsformel 7.3.19 genau die Dimension n Rang A = n r hat, sind diese
Spalten eine Basis des Kerns von A.
und somit U Sei = i U ei , das heit ein Vielfaches der i-ten Spalte von U . Also liegt
diese Spalte im Bild von A, aufgrund von AV ei = U Sei . Diese Spalten sind linear
unabh
angig, da U invertierbar ist und bilden somit eine Basis des Bildes von A.
Beispiel 9.5.5 Wir betrachten die Matrix
8 10 14
4
4
2
A :=
2 2 1 MatR (4, 3).
16 2 10
und verfahren gem
a dem Algorithmus zur Singularwertzerlegung.
(1) Wir berechnen die symmetrische Matrix
340 92 262
B := AT A = 92 124 170 .
262 170 301
Die Berechnung der Eigenwerte liefert 1 = 648, 2 = 117, 3 = 0 mit den zugeh
origen Eigenvektoren
2
2
1
v1 = 1 , v2 = 2 , v3 = 2 .
2
1
2
Diese sind orthogonal zueinander, da sie zu unterschiedlichen Eigenwerten gehoren.
F
ur ihre Norm gilt k
v1 k = k
v2 k = k
v3 k = 3. Diese Vektoren m
ussen also noch
normiert werden. Die normierten Vektoren sind somit v1 = kv11 k v1 , v2 = kv12 k v2 und
v3 = kv13 k v3 und die Matrix V O(3) ist gegeben durch
2 2 1
1
V = (v1 v2 v2 ) = 1 2 2 .
3
2 1 2
Auerdem k
onnen wir
definieren
1 0
0
2
S=
0
0
0
0
0 0
117 0 0
3 13
=
=
0 0
0
0 0
0
0
0
0
0
0
0
0
0
.
0
0
202
9.5. DIE SINGULARWERTZERLEGUNG
(2) Da die ersten beiden Eigenwerte von B positiv sind, konnen wir die ersten zwei
Spalten der Matrix U O(4) direkt definieren:
1
2
2
1
0
u1 = Av1 =
0
1
13
2
1
13
u2 = Av2 = 1
13
2
1
2
13
hu2 , u3 i = u>
2 u3 = 0
=
0,
u
=
1,
u
=
2,
u
=
0.
Der
Vektor
(0, 1, 2, 0) hat die
31
32
33
34
hu2 , u4 i = u>
2 u4 = 0,
hu3 , u4 i = u>
3 u4 = 0
erf
ullen, die uns das lineare Gleichungssystem
1
1
u41 + 0u42 + 0u43 + u44 = 0
2
2
2
2
1
2
u41 + u42 + u43 + u44 = 0
13
13
13
13
1
2
0u41 + u42 + u43 + 0u44 = 0
5
5
liefern. Somit erhalten wir u41 = u44 , u42 = 85 u44 und u43 = 45 u44 . Wieder
wahlen wir eine spezielle Losung u
41 = 5, u
42 = 8, u
43 = 4, u
44 = 5, die wir
1
dann zu u4 = 130
(5, 8, 4, 5) normieren. Insgesamt haben wir also die Matrix
1
2
U = (u1 u2 u3 u4 ) =
0
1
2
2
13
2
13
1
13
2
13
0
1
5
2
5
5
130
8
130
4
130
5
130
konstruiert.
203
Zuletzt k
onnen wir jetzt pr
ufen, dass
1
8 10 14
2
4
0
4
2
A=
2 2 1 =
0
16 2 10
1
2
13
2
13
1
13
2
13
0
1
5
2
5
5
18 2
130
8 0
130
4 0
130
0
5
130
0
3 13
0
0
0 2
3
0
2
0 31
0
1
3
2
3
2
3
2
3
1
3
2
3
= U SV >
204
10. Anwendungen
In diesem Kapitel wollen wir drei Anwendungen der linearen Algebra prasentieren, die in
der Informatik eine wichtige Rolle spielen.
10.1. Interpolation
Es seien n paarweise verschiedene Punkte
P1 = (x1 , y1 ), P2 = (x2 , y2 ), . . . , Pn = (xn , yn ) R2
gegeben. Wir suchen ein Polynom vom Grad n 1
p(x) = a0 + a1 x + a2 x2 + + an1 xn1
dessen Graph durch die vorgegebenen Punkte verlauft, dass heit sodass gilt
p(xi ) = a0 + a1 xi + a2 x2i + + an1 xin1 = yi
(10.1)
f
ur i = 1, 2, . . . , n. Dieses Problem heit Interpolationsproblem.
Der Ausdruck (10.1) ist linear in den gesuchten Koeffizienten a0 , a1 , . . . , an1 R des
Polynoms. Diese sind daher als L
osung des lineares Gleichungssystem
a1
n2
n1
2
1 x1
x1 . . . x 1
x1
y1
a2 y2
1 x2
x22 . . . xn2
xn1
2
2
..
..
..
..
.. a3 = ..
..
(10.2)
.
.
.
.
.
. .. .
.
n2
n1
yn2
1 xn1 x2
n1 . . . xn1 xn1
an2
2
n2
n1
yn1
1 xn
xn . . . x n
xn
an1
gegeben. Wenn wir zeigen k
onnen, dass dieses LGS eine eindeutige Losung hat, dann haben
wir gezeigt, dass das Interpolationsproblem eindeutig losbar ist.
Die Koeffizientenmatrix des LGS hat n Zeilen, da wir f
ur jeden der n Punkte eine Zeile
erhalten. Andererseits hat die Matrix auch n Spalten, da ein Polynom n Koeffizienten hat,
wenn es vom Grad n 1 ist. Somit ist die Koeffizientenmatrix des LGS quadratisch und es
gen
ugt zu zeigen, dass deren Determinante nicht null wird um zu zeigen, dass das LGS
eindeutig l
osbar ist.
F
ur ein Polynom kleineren Grades konnen wir im Allgemeinen keine Losung des Interpolationsproblems erwarten, da dies auf ein LGS mit mehr Zeilen als Unbekannten f
uhren
w
urde und somit f
ur eine beliebige rechte Seite nicht losbar sein kann.
205
10.1. INTERPOLATION
1 x1
x21 . . .
1 x2
x22 . . .
..
..
..
V (x1 , . . . , xn ) := ...
.
.
.
1 xn1 x2
n1 . . .
1 xn
x2n . . .
als Vandermonde-Matrix
xn2
x1n1
1
xn2
x2n1
2
..
.. ,
.
.
n2
n1
xn1 xn1
xn2
xnn1
n
Proposition 10.1.2 F
ur die Vandermonde-Determinante gilt
Y
(xj xi ).
det V (x1 , . . . , xn ) =
(10.3)
1i<jn
Sie ist also genau dann nicht null, wenn alle xi paarweise verschieden sind.
Beweis. Wir f
uhren diesen Beweis per Induktion. Der Induktionsanfang n = 1 liefert die
Matrix V (x1 ) = (1), deren Determinante
1 ist. Dies istQgleich dem Produkt u
ber die leere
Q
Menge, das per Definition 1 ist: 1i<j1 (xj xi ) = = 1.
1 x1
Wir konnen auch bei n = 2 anfangen, wo wir einerseits det
= x2 x1 und
1 x2
Q
andererseits 1i<j2 (xj xi ) = (x2 x1 ) erhalten.
F
ur den Induktionsschritt nehmen wir an, dass die Formel (10.3) f
ur ein n gilt und zeigen,
dass sie dann auch f
ur n + 1 gilt.
Nach den Rechenregeln f
ur Determinanten (s. Satz 8.1.3 und Satz 8.1.9) gilt
xn1
1 x1
x21 . . . xn1
1
1 x2
x22 . . . xn1
xn2
2
..
..
..
..
..
det V (x1 , . . . , xn , xn+1 ) = det ...
.
.
.
.
.
n
1 xn
x2n . . . xn1
x
n
n
n1
1 xn+1 x2n+1 . . . xn+1
xnn+1
1
x1
x21
...
xn1
xn1
1
0 x2 x1
x22 x21 . . . xn1
x1n1 xn2 xn1
2
..
..
..
..
..
..
= det .
.
.
.
.
.
n1
2
2
n1
n
n
0 xn x1
xn x1 . . . x n x1
xn x1
n1
0 xn+1 x1 x2n+1 x21 . . . xn+1
x1n1 xnn+1 xn1
x2 x1
x22 x21 . . . xn1
x1n1 xn2 xn1
2
..
..
..
..
..
.
.
.
.
.
= det
(10.4)
n1
2
2
n1
n
n
xn x1
xn x1 . . . x n x1
xn x1
n1
xn+1 x1 x2n+1 x21 . . . xn1
xnn+1 xn1
n+1 x1
Dabei haben wir zun
achst die erste Zeile von allen anderen Zeilen abgezogen, um dann
nach der ersten Spalte zu entwickeln.
206
10.1. INTERPOLATION
F
ur den n
achsten Schritt ben
otigen wir die Formel
k
X
k+1
k1
k1
k
k
i
xk+1
x
=
(x
x
)
x
+
x
x
+
+
x
x
+
x
=
(x
x
)
xki
j
1
1
j 1
j
1
j
1
1
j
j
j x1 ,
i=0
1
..
.
x2 + x1
..
.
x22 + x1 x2 + x21 . . .
..
..
.
.
3
3
xn x1
...
x3n+1 x31
...
Pn1
= (x2 x1 ) det
xn x1
x2n x21
xn+1 x1 x2n+1 x21
1 x2 + x1
x22 + x1 x2 + x21
...
.
.
..
..
Y
.
.
.
.
.
=
(xj x1 ) det .
2
2
1 xn + x1
xn + x1 xn + x1
...
1jn+1
2
2
1 xn+1 + x1 xn+1 + x1 xn+1 + x1 . . .
x2n1i xi1
..
n
n
xn x1
n
n
xn+1 x1
Pn1 n1i i
x1
i=0 x2
..
.
Pn1 n1i i .
xn
x1
Pi=0
n1 n1i i
i=0 xn+1 x1
i=0
Nun benotigen wir noch eine Umformung bis wir die Induktionsvoraussetzung anwenden
konnen. Daf
ur bemerken wir, dass gilt
k
X
i
xki
j x1
x1
k1
X
i=0
(k1)i i
xj
x1
i=0
k
X
i=0
k
X
i
xki
j x1
i
xki
j x1
i=0
k1
X
i=0
k
X
xjk1i xi+1
1
xjki xi1 = xkj .
i=1
Multiplizieren wir also die k-te Spalte der Matrix mit x1 und substrahieren sie von der
(k + 1)-ten Spalte, dann
andert dies die Determinante nicht (s. Satz 8.1.3) und in der
k-ten Spalte bleiben genau die (k 1)-ten Potenzen der x-Werte u
brig. Die enstandende
Matrix ist somit die n n Vandermonde-Matrix V (x2 , . . . , xn+1 ) und wir konnen die
Induktionsvoraussetzung anwenden.
1 x2
x22 . . . xn1
2
..
..
..
..
..
Y
.
.
.
.
det V (x1 , . . . , xn+1 ) =
(xj x1 ) det .
2
n1
1 xn
.
.
.
x
x
n
n
1jn+1
n1
2
1 xn+1 xn+1 . . . xn+1
Y
=
(xj x1 ) det V (x2 , . . . , xn+1 )
1jn+1
1jn+1
(xj x1 )
(xj xi )
2i<jn+1
(xj xi ).
1i<jn+1
Die Vandermonde-Determinante det V (x1 , . . . , xn ) ist also ein Produkt von Faktoren der
Form xi xj , wobei i 6= j ist. Sind die xi paarweise verschieden, dann sind all diese
Faktoren ungleich null und damit auch die Vandermonde-Determinante.
207
10.1. INTERPOLATION
1
1
V (2, 1, 0, 1, 2) =
1
1
1
2 4 8 16
1 1 1 1
0 0 0
0
1 1 1
1
2 4 8 16
208
8
a1 = ,
3
a2 = 3,
7
a3 = ,
6
a4 =
1
2
209
Abbildung 10.2.: Eine durch lineare Regression gewonnende Gerade minimiert den Abstand
der Datenpunkte zur Gerade parallel zur y-Achse (links). Bei dem Total
Least Squares-Verfahren wird der senkrechte Abstand minimiert (rechts).
Definition 10.2.1 Soll in einer Ebene eine Gerade gefunden werden, die zu einer gegebenen Menge von Punkten die Summe der quadratischen Distanzen minimiert, nennen
wir die Methode zur Bestimmung dieser Geraden Total Least Squares Regression
(TLS).
Wir bezeichnen in diesem Abschnitt mit h, i immer das Standardskalarprodukt
auf dem
p
n
2
2
R und mit kk die euklidische Norm, das heit k(x1 , . . . , xn )k = x1 + + xn .
Zunachst wollen wir Gerade in einer Form angeben, die f
ur unser Problem besser geeignet
ist als die u
bliche Darstellung y = mx + c. Um auch den Fall von Geraden, die parallel zur
y-Achse sind einzuschlieen schreiben wir
` = {(x , y)> R2 | rx + sy = c}
mit vorgegebenen Parametern r, s, c R.
Wir nehmen an, dass der Punkt P0 = (x0 , y0 ) auf der Gerade rx + sy c = 0 liegen soll.
Daraus folgt, dass f
ur die Konstante c gelten muss c = rx0 + sy0 . Durch Einsetzen konnen
wir die Geradengleichung umformulieren in die Form
rx + sy (rx0 + sy0 ) = r(x x0 ) + s(y y0 ) = 0.
Der Punkt P0 heit Aufpunkt der Gerade und der Vektor (r , s) R2 heit Normalenonnen die Geradengleichung auch mithilfe des Skalarprodukts
vektor der Gerade. Wir k
formulieren:
x
x x0
r
2
`=
R
,
=0 .
y
y y0
s
Der Normalenvektor ist also senkrecht zu Vektoren der Form (x x0 , y y0 )> , wobei
(x, y)> `.
Sei P = (
x, y) ein beliebiger Punkt von dem wir den Abstand zur Gerade ` berechnen
wollen. Der k
urzeste Abstand zur Gerade ist der senkrechte Abstand, den wir hier mit
210
P
v
`
P0
P`
r
s
Um diesen Abstand zu bestimmen, betrachten wir das Dreieck mit den Eckpunkten P0 , P
und dem Punkt P` auf ` der den k
urzesten Abstand zu P hat. Der Winkel an P wird mit
bezeichnet.
Um eine Formel f
ur dist(P , `) zu bestimmen, berechnen wir den Cosinus des Winkels
auf zwei verschiedenen Arten.
dist(P , `)
.
kvk
(10.6)
dist(P , `) = kvk
kvk
kvk
| Gleichung (10.6)
r 2 + s2
| Einf
ugen von
r 2 + s2
| Einf
ugen von
| Gleichung (10.5)
| Berechnen des Skalarprodukts
211
e(r, s, P0 , P ) =
n
X
e(r, s, P0 , Pi )
i=1
n
X
i=1
2
r(xi x0 ) + s(yi y0 )
.
r 2 + s2
(10.7)
Wir wollen nun eine TLS-Methode finden. Das heit wir suchen eine Methode mit
der wir einen Punkt P0 und die Geradenparameter r, s so bestimmen konnen, dass
D(r, s, P0 , P1 , . . . , Pn ) zu einem vorgegebenen Satz von Daten P1 , . . . , Pn minimal wird.
Dazu vereinfachen wir schrittweise das Problem. Der erste Schritt wird sein, dass wir f
ur
eine gegebene Punktwolke Pi einen Punkt P0 fixieren, der nur von den Datenpunkten
abhangt und der D f
ur jeden vorgegebenen Normalenvektor minimiert.
Lemma 10.2.3 Seien P1 , . . . , Pn R2 Datenpunkte. Wir definieren den Punkt
P = (
x, y), wobei x
das arithmetische Mittel der x Werte der Daten und y das arithmetische Mittel der y Werte der Daten ist, das heit
n
x
=
1X
xi
n
und
i=1
y =
1X
yi .
n
i=1
Sei nun P0 ein beliebiger weiterer Punkt und (r, s)> der Normalenvektor einer Gerade.
Dann gilt
D(r, s, P0 , P1 , . . . , Pn ) D(r, s, P , P1 , . . . , Pn ).
Dabei gilt Gleichheit, wenn P0 = P . Das bedeutet, dass die Gerade, die D minimiert,
durch P gehen muss.
Beweis. Wir bezeichnen mit w = (w1 , . . . , wn )> Rn und z = (z1 , . . . , zn )> Rn Vektoren,
deren Komponenten durch
wi = r(xi x0 ) + s(yi y0 )
bzw.
zi = r(xi x
) + s(yi y)
(10.8)
kwk2
r 2 + s2
und D(r, s, P , P1 , . . . , Pn ) =
kzk2
.
r 2 + s2
(10.9)
212
(10.10)
Nun bemerken wir, dass die Vektoren z und e orthogonal zueinander sind, denn es gilt
hz, ei =
=
n
X
i=1
n
X
zi 1
| Definition Standardskalarprodukt
(r(xi x
) + s(yi y))
| Definition zi (10.8)
i=1
n
X
=r
=r
(xi x
) + s
i=1
n
X
n
X
(yi y)
i=1
!
xi n
x
i=1
+s
n
X
!
yi n
y
i=1
=r0+s0=0
D(r, s, P0 , P1 . . . , Pn ) =
= D(r, s, P , P1 , . . . , Pn ) +
h2 n
r 2 + s2
D(r, s, P , P1 , . . . , Pn )
| Gleichung (10.9)
| Gleichung (10.10)
| Satz von Pythagoras
| he, ei = 12 + + 12 = n
| Gleichung (10.9)
| n 1 und Quadrate sind positiv.
Wir kennen nun ein P0 , das D minimiert, anders formuliert kennen wir den Aufpunkt der
Geraden. Es fehlen uns daher noch die Parameter r, s, dass heit der Normalenvektor der
Geraden. Dieser ergibt sich aus der Betrachtung der folgenden Matrix.
Definition 10.2.4 Seien P1 = (x1 , y1 ), . . . , Pn = (xn , yn ) Datenpunkte mit arithmetischen Mittelwerten x
und y, dann definieren wir die Datenmatrix M MatR (n, 2)
als
x1 x
y1 y
.. .
M := ...
.
xn x
yn y
213
Lemma 10.2.5 Der Rang der Datenmatrix M zu n Datenpunkten ist genau dann
kleiner als 2, wenn die Datenpunkte auf einer Geraden liegen.
Beweis. Es gilt rang M = 0 genau dann, wenn M die Nullmatrix ist, und dies bedeutet,
dass x1 = = xn = x
und y1 = = yn = y ist, also alle Datenpunkte gleich sind und
somit insbesondere auf einer Geraden liegen.
Es gilt rang M = 1 genau dann, wenn es reelle Zahlen r, s R gibt, sodass f
ur alle
i = 1, . . . , n gilt: r(xi x
) = s(yi y). Aber das ist gleichbedeutend mit der Tatsache, dass
alle Datenpunkte auf der Gerade ` = {(x, y)> R2 | r(x x
) + s(y y) = 0} liegen.
Proposition 10.2.6 Sei M MatR (n, 2) die Datenmatrix zu den Daten P1 , . . . , Pn
und sei v = r21+s2 (r, s) ein Vektor der Lange 1. Wir betrachten die lineare Abbildung
f : R2 Rn
v 7 f (v) = M v.
Dann gilt
D(r, s, P , P1 , . . . , Pn ) = kM vk2 .
Beweis. Dies k
onnen wir direkt nachrechnen:
D(r, s, P , P1 , . . . , Pn ) =
n
X
(r(xi x
) + s(yi y))2
r 2 + s2
2
x1 x
y1 y
r
.. 1
=
...
.
2 + s2 s
r
xn x
yn y
i=1
= kM vk2 .
Wir wissen jetzt, dass D minimal wird, wenn wir einen Vektor v der Lange eins so wahlen,
dass die Norm unserer Datenmatrix M multipliziert mit v minimal wird. Aber wie konnen
wir das Minimum nun berechnen und damit die gesuchte Gerade finden?
Satz 10.2.7 Seien P1 , . . . , Pn Datenpunkte und M die zugehorige Datenmatrix.
D(r, s, P , P1 , . . . , Pn ) wird minimal an jedem Eigenvektor v = r21+s2 (r, s) zum kleinsten
Eigenwert der Matrix M > M .
Beweis. Wir wissen, dass M > M R22 eine symmetrische Matrix mit nicht-negativen
Eigenwerten ist (s. Bew. zu Satz 9.5.2). Diese Eigenwerte sind sogar alle positiv, da
wir aufgrund von Lemma 10.2.5 annehmen konnen, dass rang(M > M ) = rang M = 2 ist.
214
Die Hauptachsentransformation (s. Kor. 9.4.7) besagt nun, dass es eine Orthonormalbasis
{u, w} des R2 gibt, so dass f
ur die Matrix U = (u w) gilt
M > M = U Diag(, )U > .
1
> ein Vektor der L
Sei v = r2 +s
ange 1, dann konnen wir aufgrund von Proposition
2 (s, r)
10.2.6 die Summe der quadratischen Abstande zur Gerade durch P mit Normalenvektor v
in folgender Form schreiben:
D(r, s, P , P1 , . . . , Pn ) = kM vk2
= (M v)> (M v) = v > M > M v
= v > U diag(, )U > v
= (U > v)> diag(, )(U > v)
>
0
(U v)1
>
>
= (U v)1 (U v)2
0
(U > v)2
= (U > v)21 + (U > v)22 .
Hier bezeichnen wir mit (U > v)i die i-te Komponente des Vektors U > v R2 .
Wir wissen, dass aufgrund der Definition von v gilt: kvk = 1. Da U und somit auch U >
eine orthogonale Matrix ist,
andert das Anwenden die Lange nicht und es gilt kU > vk = 1.
Somit erhalten wir die Beziehung zwischen den beiden Komponenten des Vektors U > v
(U > v)21 + (U > v)22 = 1.
(10.11)
(10.12)
minimieren, m
ussen wir die Funktion g(t) = ( )t + f
ur ein t aus dem Intervall [0, 1]
minimieren.
Ist = , dann ist g(t) = konstant und das Minimum wird f
ur jedes t [0, 1] angenommen.
Dies bedeutet, dass jeder Vektor der Lange eins D minimiert. F
ur eine diagonalisierbare
2 2 Matrix mit einem Eigenwert der Vielfachheit 2, ist aber auch jeder Vektor Eigenvektor
zu dem einzigen (und somit kleinstem) Eigenwert der Matrix M > M .
Sei also > , dann ist g(t) eine Gerade mit positivem Anstieg. Diese nimmt bei t = 0
ihr Minimum an. Daraus folgtnun, dass (10.12) nur dann minimal werden kann,
wenn die
>
>
erste Komponente (U v)1 = t = 0 und die zweite Komponente (U v)2 = 1 t = 1 ist.
Da {u, w} eine Orthonormalbasis des R2 ist, ist dies genau dann der Fall, wenn wir v = u
den Eigenvektor zum kleineren Eigenwert von M wahlen. F
ur diesen Vektor gilt
(U > u)1 = hw, ui = 0
und
da die erste Zeile von U > der Vektor w ist und die zweite Zeile der Vektor u.
Somit erhalten wir f
ur v = u
D = kM uk = (U > u)21 + (U > u)22 = 0 + 1 = .
215
10.3. CODIERUNGSTHEORIE
Wir konnen nun im R2 die Gerade finden, die die Summe der quadratischen Fehler D
minimiert, indem wir den Mittelwert der Punktwolke als Aufpunkt und den Eigenvektor
zum kleinsten Eigenwert von M > M als Richtungsvektor wahlen.
10.3. Codierungstheorie
Auch wenn der Begriff Codierungstheorie zunachst recht allgemein klingen mag, verstehen
wir darunter die Theorie der fehlererkennenden und fehlerkorrigierenden Codes.
von Daten auftreten, erkannt werden (um dann eine erneute Ubertragung
zu veranlassen)
oder sogar korrigiert werden (wenn eine erneute Ubertragung nicht moglich ist).
Redundanz hinzuzuf
ugen, die es erlaubt Ubertragungsfehler
zu erkennen oder zu korrigieren.
Das Prinzip l
asst sich schematisch so zusammenfassen:
Quellwort Codieren Codewort Kanal empfangenes Wort Decodieren
St
orung
w
c
c
Quellwort
w
216
10.3. CODIERUNGSTHEORIE
Wir werden im folgenden sehen, wie man gute Codes konstruieren kann. Daf
ur m
ussen wir
zunachst kl
aren, was eigentlich ein guter Code ist. Und dazu benotigen wir Eigenschaften
mit denen wir einen Code beschreiben konnen.
Aufgrund der Injektivit
at der Abbildung C : Fkp Fnp sind k Zeichen eines Codewortes
informationstragend, wohingegen die restlichen n k Zeichen zur Kontrolle dienen, also
redundant sind.
Definition 10.3.4 Sei C : Fkp Fnp ein Blockcode, dann nennen wir den Quotienten
k/n Informationsrate des Codes.
Je groer die Informationsrate eines Codes ist, um so groer ist der Anteil der Zeichen eines
Codewortes, die Information enthalten. Das bedeutet, dass wenig Redundanz hinzugef
ugt
wurde.
Die wichtigste Eigenschaft eines Codes ist wie viele Fehler er erkennen und korrigieren
kann. Wir wollen dies hier zun
achst heuristisch definieren um es dann spater mathematisch
praziser zu fassen.
Ein Blockcode C : Fkp Fnp heit t-fehlererkennend, wenn aus jedem Codewort c durch
das Andern
von maximal t Stellen kein anderes Codewort entsteht. Passieren also beim
Ubertragen eines Codewortes maximal t Fehler, dann halten wir das empfangene Wort c
nicht f
ur ein Codewort.
Der Code heit t-fehlerkorrigierend, wenn ein Wort c Fnp , dass durch das Andern
von
maximal t Stellen aus einem Codewort c entsteht, aus allen anderen Codewortern nur
2
hier den Raum der Quellw
orter F2 und betrachten den Verdopplungcode.
C 2 : F22 F42
(0, 0) 7 (0, 0, 0, 0)
(1, 0) 7 (1, 0, 1, 0)
(0, 1) 7 (0, 1, 0, 1)
(1, 1) 7 (1, 1, 1, 1)
Senden wir das Codewort (0, 0, 0, 0) und empfangen (1, 0, 0, 0), dann wissen wir, dass
217
10.3. CODIERUNGSTHEORIE
nicht korrigieren, da das gesendete Wort sowohl (0, 0, 0, 0) als auch (1, 0, 1, 0) gewesen
sein kann. Passieren zwei Fehler dann kann es sein, dass wir (1, 0, 1, 0) empfangen und
nicht bemerken, dass ein Fehler passiert ist.
Der Verdopplungscode ist somit 1-fehlererkennend und 0-fehlerkorrigierend und hat eine
Informationsrate von 2/4 = 1/2.
Nun betrachten wir den Verdreifachungscode:
C 3 : F22 F62
(0, 0) 7 (0, 0, 0, 0, 0, 0)
(1, 0) 7 (1, 0, 1, 0, 1, 0)
(0, 1) 7 (0, 1, 0, 1, 0, 1)
(1, 1) 7 (1, 1, 1, 1, 1, 1)
Empfangen wir das Wort c = (1, 0, 0, 0, 0, 0) dann wissen wir, dass ein Fehler bei der
Ubertragung
passiert sein muss und konnen das Wort zu c = (0, 0, 0, 0, 0, 0) korrigieren,
Dabei steht a1 f
ur das Herkunftsland, a2 a3 a4 f
ur den Verlag und a5 a6 a7 a8 a9 f
ur das
Buch. Die Zahl p ist eine Pr
ufziffer, die verwendet wird um Fehler beim Scannen oder
Abtippen der ISBN zu erkennen.
Eine g
ultige ISBN entsteht, wenn die Pr
ufziffer p wird so gewahlt, dass gilt:
10a1 + 9a2 + 8a3 + 7a4 + 6a5 + 5a6 + 4a7 + 3a8 + 2a9 + p 0
mod 11,
10
X
i=1
(11 i)ai
10
X
i=1
(i)ai
10
X
iai
mod 11.
i=1
218
10.3. CODIERUNGSTHEORIE
Die ISBN ist somit ein linearer Code, wobei die Abbildung wie folgt aussieht:
C : F911 F10
11
a = (a1 a2 a3 a4 a5 a6 a7 a8 a9 ) 7 (a,
9
X
iai ).
i=1
Um zu pr
ufen, ob eine Zahl a = a1 a2 a3 a4 a5 a6 a7 a8 a9 a10 , wobei wir jetzt a10 f
ur die
Pr
ufziffer p schreiben, eine korrekte ISBN ist, gen
ugt es nun zu u
ufen, ob gilt:
berpr
P (a) =
10
X
(11 i)ai 0
mod 11.
(10.13)
i=1
Wir wollen zeigen, dass die ISBN sowohl eine falsch eingegebene Ziffer erkennt (also
1-fehlererkennend ist), als auch das Vertauschen von zwei Ziffern.
Sei a = a1 a2 a3 a4 a5 a6 a7 a8 a9 a10 eine korrekte ISBN. Wir nehmen an, dass an der k-ten
Stelle statt ak ein Wert a
k {0, 1, . . . , 9, X} mit a
k =
6 ak , u
bertragen wurde. Wir wollen
zeigen, dass a
= a1 . . . ak1 a
k ak+1 . . . a10 keine korrekte ISBN ist. Daf
ur m
ussen wir
zeigen, dass P (
a) 6 0 mod 11. Aufgrund von Gleichung (10.13) andert die Subtraktion
von P (a) nicht die Restklasse von P (
a) modulo 11
P (
a) P (
a) P (a)
mod 11
(11 k)
ak (11 k)ak
k(ak a
k )
mod 11
mod 11.
Da F11 ein K
orper ist und somit insbesondere nullteilerfrei, ist diese Gleichung
genau dann null, wenn (ak a
k ) 0 mod 11, da k {1, 2, . . . , 10} und somit
k 6 0 mod 11. Aber (ak a
k ) 0 mod 11 ist nur dann moglich, wenn ak = a
k
im Wiederspruch zur Annahme. Also ist P (
a) 6 0 mod 11 und a
ist keine korrekte ISBN.
Sei a = a1 a2 a3 a4 a5 a6 a7 a8 a9 a10 wieder eine korrekte ISBN, d.h. es gilt (10.13). Wir
mod 11
mod 11
mod 11
mod 11
Aus der Nullteilerfreiheit von F11 folgt hier wieder, dass dies nur null wird, wenn
ak+l ak mod 11. Also ist P (
a) 6 0 mod 11.
Andert
man 2 Stellen unabh
angig voneinander ab, dann kann man hingegen eine korrekte
ISBN erhalten. Ist zum Beispiel a5 = 2 und a6 = 3, dann ist 6a5 + 5a6 = 12 + 15 = 27 6
mod 11. Wir erhalten dasselbe Ergebnis f
ur a
5 = 1 und a
6 = 0, da 6
a5 + 5
a6 = 6 + 0 6
mod 11. Die ISBN ist daher 1-fehlererkennend und hat eine Informationsrate von 10/11.
219
10.3. CODIERUNGSTHEORIE
Beispiel 10.3.7 Ein weiteres Beispiel ist der (7, 4)-Hammingcode, der durch folgende
Vorschrift definiert ist:
C : F42 F72
(s1 , s2 , s3 , s4 ) 7(s1 , s2 , s3 , s4 , t1 , t2 , t3 )
t1 = s2 + s3 + s4
t2 = s1 + s3 + s4
t3 = s1 + s2 + s4
s2
t1
s3
s4
t3
s1
t2
Diese Vorschrift l
asst sich gut mithilfe von drei sich u
berlappenden Kreisen veranschaulichen. Die vorgegebenen informationstragenden Bits s1 , s2 , s3 , s4 F2
werden in den Bereichen eingetragen, in denen sich die Kreise u
berlappen. Die
Kontrollbits t1 , t2 , t3 m
ussen so bestimmt werden, dass die Summe aller Werte in einem Kreis gleich null ist (Da wir den Code u
ber dem Alphabet F2 betrachten ist 1 = 1.)
Haben wir das Quellwort w = (1, 0, 0, 0) F42 , dann befinden sich
in dem Kreis in dem t1 steht nur Nullen, so dass mit t1 = 0 die
Summe der Werte in diesem Kreis null ist. In den anderen beiden
Kreisen steht jeweils eine 1, sodass mit t2 = t3 = 1 Summe der
Werte in diesem Kreis null ist. Das zu u
bertragende Codewort
ist daher c = (1, 0, 0, 0, 0, 1, 1) F72 .
0
1
1
1
0
1
1
1
1
1
0
0
0
0
1
1
Durch Andern
des Eintrags t1 konnen wir nun die Summe in
diesem Kreis wieder zu null machen. Dadurch erhalten wir das
g
ultige Codewort c = (1, 0, 1, 0, 1, 0, 1) F72 , allerdings nicht das
urspr
unglich u
bertragende.
1
1
220
10.3. CODIERUNGSTHEORIE
Nach diesen Beispielen wollen wir nun die Begriffe fehlererkennend und fehlerkorrigierend
mathematisch pr
azise definieren. Daf
ur definieren wir uns eine f
ur das Problem geeignete
Abstandsfunktion.
Definition 10.3.8 Seien v = (v1 , . . . , vn ), w = (w1 , . . . , wn ) Fnp , dann ist der
Hamming-Abstand der W
orter v und w die Anzahl der Stellen an denen sich v
von w unterscheidet
d(v, w) := #{i | vi 6= wi }.
Das Gewicht eines Wortes v Fnp ist sein Hamming-Abstand zum Nullvektor
w(v) := d(v, 0) = #{i | vi 6= 0}.
Proposition 10.3.9 Der Hamming-Abstand ist eine Metrik, das heit es gilt
i) d(v, w) 0 f
ur alle v, w Fnp
ii) d(v, w) = 0 genau dann, wenn v = w
iii) d(v, w) = d(w, v) f
ur alle v, w Fnp
iv) d(u, w) d(u, v) + d(v, w) f
ur alle u, v, w Fnp
Beweis.
u
w
v
z
x x
o o
x x
| {z
b
a
}|
x x
o o
x o
}
{
x
o
o
x x
x x
o o
| {z
c
x
x
o
}
x
x
x
x
x
x
x
x
x
221
10.3. CODIERUNGSTHEORIE
Definition 10.3.11 Sei C : Fkp Fnp ein Code, dann ist der Minimalabstand dieses
Codes definiert durch
d = d(C) = min{d(c, c0 ) | c, c0 C(Fkp ), c 6= c0 }.
Wir schreiben dann [n, k, d]Code.
Proposition 10.3.12 Ist C : Fkp Fnp ein linearer Code, dann ist sein Minimalabstand
gleich dem Minimum der Gewichte der nichttrivialen Codeworter
d(C) = min{w(c) | c C(Fkp ), c 6= 0}.
Proposition 10.3.14 Wenn C : Fkp Fnp t-fehlererkennend ist, dann liegt in jeder
Kugel Bt (c), wobei c C(Fkp ) ein Codewort ist kein weiteres Codewort.
Beweis. Sei c0 C(Fkp ) ein Codewort c0 6= c. Ware c0 Bt (c), dann ware d(c, c0 ) t im
Widerspruch zur Minimaldistanz von d(C) t + 1.
222
10.3. CODIERUNGSTHEORIE
n(d1)
Beweis. F
ur jedes Codewort c C(Fkp ) Fnp bilden wir den Vektor c Fp
durch
n(d1)
Die Singletonschranke besagt, es nicht moglich ist sowohl die Informationsrate, als auch
den Minimalabstand eines Codes unabhangig voneinander beliebig zu vergroern (bei fest
vorgegebenen n). Es ist daher n
otig bei jeder Anwendung zu pr
ufen, welcher Aspekt im
Vordergrund steht und wie dementsprechend der Code entworfen werden muss.
Um die Frage nach einem effizienten Decodieralgorithmus zu klaren, betrachten wir von
nun an ausf
uhrlicher die linearen Codes. Sie haben den Vorteil, dass sie durch die Angabe
einer Matrix, eindeutig beschreiben konnen.
Definition 10.3.17 Sei C : Fkp Fnp , x 7 G x ein linearer Code, wobei
G MatFp (n, k), dann heit G Generatormatrix des Codes C.
223
10.3. CODIERUNGSTHEORIE
0
G=
0
0
1
0
1
0
0
0
0
0
0
0
2
0
0
1
0
0
0
0
0
0
3
0
0
0
1
0
0
0
0
0
4
0
0
0
0
1
0
0
0
0
5
0
0
0
0
0
1
0
0
0
6
0
0
0
0
0
0
1
0
0
7
0
0
0
0
0
0
0
1
0
8
0
0
0
.
0
1
9
1 0 0 0
0 1 0 0
0 0 1 0
.
0
0
0
1
G=
0 1 1 1
1 0 1 1
1 1 0 1
Definition 10.3.20 Sei C : Fkp Fnp ein linearer Code mit Generatormatrix
G MatFp (n, k), dann gibt es eine Matrix H MatFp (n k, n), so dass
C(Fkp ) = Kern H = {c Fnp | H c = 0}.
Die Matrix H heit Kontrollmatrix des Codes C.
Wir wollen hier kurz erkl
aren, warum H die angegebene Groe haben muss. Da H auf
n
Vektoren aus dem Fp angewendet werden soll, muss sie zwangslaufig n Spalten haben und
entspricht einer linearen Abbildung Fnp Flp . Da der Kern von H gleich dem Bild von
C ist, also die Dimension k hat, folgt aus der Dimensionsformel, dass die Dimension des
224
10.3. CODIERUNGSTHEORIE
Bildes von H gleich n k ist. Also muss l n k sein. Man wahlt daher l = n k um die
kleinste Matrix mit den gew
unschten Eigenschaften zu haben.
Weiterhin ist zu beachten, dass die Matrix H nicht eindeutig ist.
Proposition 10.3.21 F
ur die Kontrollmatrix H muss gelten
H G = Onk,k .
Alle Generatormatrizen der bisher betrachteten Beispiele haben die spezielle Form bestehend
aus einer Einheitsmatrix und einer Matrix, die beschreibt wie die Redundanz berechnet
wird. Wir wollen f
ur diese Matrizen die Kontrollmatrizen angeben.
Proposition 10.3.22 Wenn die Generatormatrix, die Form G =
R MatFp (n k, k), dann hat H die Form R Enk .
Ek
R
hat, wobei
Beweis. Wir m
ussen nachrechnen
Ek
H G = R Enk .
R
= R Ek Enk R = Onk,k .
10
X
iai 0
mod 11.
i=1
0 1 1 1 1 0
0
0 1 1 1
H = 1 0 1 1 0 1 0
= 1 0 1 1
1 1 0 1 0
0 1
1 1 0 1
ist durch
1 0 0
0 1 0
0 0 1
F
ur ein korrektes Codewort c = (s1 , s2 , s3 , s4 , t1 , t2 , t3 ) muss somit aufgrund der ersten
Zeile gelten: s2 + s3 + s4 + t1 = 0. Dies entspricht der Summe der Eintrage der linken
Kugel im Schema aus Beispiel 10.3.7. Die zweite Zeile der Kontrollmatrix entspricht der
unteren Kugel und die dritte Zeile der rechten.
F
ur den (7, 4)-Hammingcode war es durch die Betrachtung der Kugeln nicht nur moglich
225
10.3. CODIERUNGSTHEORIE
Lemma 10.3.26 Sei C : Fkp Fnp ein linearer Code mit Kontrollmatrix H. Wenn
c C(Fkp ) ein Codewort ist und e Fnp ein beliebiger Vektor, dann ist das Syndrom von
x = c + e gleich dem Syndrom von e.
Beweis. Wir rechnen nach
H x = H (c + e) = Hc + He = He,
wobei wir die Linearit
at der Matrix genutzt haben und dass per Definition Hc = 0 f
ur
Codeworter gilt.
Algorithmus 10.3.27 (Syndrom-Decodierung)
Sei C : Fkp Fnp ein linearer Code. Angenommen bei der Ubertragung
eines Codewortes
n
wurde der Vektor x Fp empfangen. Zur Decodierung gehen wir wie folgt vor:
1. Berechne das Syndrom s = Hx.
2. Bestimme den Vektor e Fnp mit minimalem Gewicht w(e) so dass He = s.
3. Berechne das Codewort c = x e
osung des LGS Gw = c um das Quellwort w zu erhalten.
4. Bestimme die eindeutige L
In der Praxis kann man nun alle Worter vom Gewicht w b d1
2 c und ihre Syndrome in
einer Liste speichern um so schnell den Fehlervektor zu bestimmen. Dabei ist d = d(C) die
Minimaldistanz des Codes.
Beispiel 10.3.28 Wir betrachten den (7, 4)-Hammingcode u
ber dem Korper F2 , dann
hat die Kontrollmatrix die Form
0 1 1 1 1 0 0
H = 1 0 1 1 0 1 0
1 1 0 1 0 0 1
Angenommen wir empfangen das Wort x> = 1 0 1 0 0 1 1 (s. Bsp. 10.3.7),
226
10.3. CODIERUNGSTHEORIE
1
1
0 1 1 1 1 0 0
= 1
0
s = Hx = 1 0 1 1 0 1 0
0
0
1 1 0 1 0 0 1
1
1
Da d = 3 ist, ist dieser Code 1-fehlerkorrigierend. Wir suchen also jetzt ein Wort vom
Gewicht 1 mit Syndrom s. Ein Wort von Gewicht 1 ist einer der Standardbasisvektoren
ei . Da Hei gleich der i-ten Spalte von H ist und das Syndrom gleich der dritten Spalte
von H ist, haben wir den Fehlervektor e = e3 bestimmt.
unglich gesendete
Das urspr
Codewort ist somit c = x e3 = 1 0 0 0 0 1 1 .
Allgemein ist jeder Spalte von H gleich einem der Vektoren von F32 . Ist also das Syndrom
gleich der i-te Spalte von H, dann ist bei der Ubertragung
ein Fehler an der i-ten
Komponente passiert.
Satz 10.3.29 Sei C : Fkp Fnp , k 1 ein linearer Code mit Kontrollmatrix H. Dann
gilt f
ur die Minimaldistanz des Codes
d(C) = min{s N | es gibt s linear unabhangige Spalten von H}
= max{s N | je s 1 Spalten von H sind linear abhangig}
Beweis. Seien h1 , . . . , hn die Spalten von H. Seien hi1 , . . . , his linear abhangig, wobei s
minimal gew
ahlt ist. Das heit es gibt Koeffizienten c1 , . . . , cn Fp sodass gilt:
n
X
ci hi = 0
wobei cij 6= 0 f
ur j = 1, . . . , s und ci = 0 sonst.
i=1
Es gilt also
c1
..
H c=H . =0
cn
das heit c ist ein Codewort und auerdem hat c das Gewicht w(c) = s. Somit ist d(C) s.
Gleichheit gilt da s minimal gew
ahlt wurde.
227