Beruflich Dokumente
Kultur Dokumente
Hellmuth Stachel
Lineare Algebra
Lineare Algebra
Christian Karpfinger Hellmuth Stachel
Lineare Algebra
Christian Karpfinger Hellmuth Stachel
Technische Universität München Technische Universität Wien
Garching b. München, Deutschland Wien, Österreich
Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte
bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar.
Springer Spektrum
Die Inhalte dieses Buches basieren größtenteils auf dem Werk „Grundwissen Mathematikstudium – Analysis und
Lineare Algebra mit Querverbindungen“, ISBN: 978-3-8274-2308-5
© Springer-Verlag GmbH Deutschland, ein Teil von Springer Nature 2020
Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung, die nicht ausdrücklich
vom Urheberrechtsgesetz zugelassen ist, bedarf der vorherigen Zustimmung des Verlags. Das gilt insbesondere für
Vervielfältigungen, Bearbeitungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Verarbeitung
in elektronischen Systemen.
Die Wiedergabe von allgemein beschreibenden Bezeichnungen, Marken, Unternehmensnamen etc. in diesem
Werk bedeutet nicht, dass diese frei durch jedermann benutzt werden dürfen. Die Berechtigung zur Benutzung
unterliegt, auch ohne gesonderten Hinweis hierzu, den Regeln des Markenrechts. Die Rechte des jeweiligen Zei-
cheninhabers sind zu beachten.
Der Verlag, die Autoren und die Herausgeber gehen davon aus, dass die Angaben und Informationen in diesem
Werk zum Zeitpunkt der Veröffentlichung vollständig und korrekt sind. Weder der Verlag noch die Autoren oder
die Herausgeber übernehmen, ausdrücklich oder implizit, Gewähr für den Inhalt des Werkes, etwaige Fehler oder
Äußerungen. Der Verlag bleibt im Hinblick auf geografische Zuordnungen und Gebietsbezeichnungen in veröf-
fentlichten Karten und Institutionsadressen neutral.
Mit Beiträgen von Klaus Lichtenegger
Springer Spektrum ist ein Imprint der eingetragenen Gesellschaft Springer-Verlag GmbH, DE und ist ein Teil von
Springer Nature.
Die Anschrift der Gesellschaft ist: Heidelberger Platz 3, 14197 Berlin, Germany
V
Vorwort
Das Mathematikstudium beginnt üblicherweise mit den beiden Vorlesungen Analysis und
Lineare Algebra. Die Lineare Algebra beinhaltet dabei im Wesentlichen die Theorie der
Vektorräume und den Matrizenkalkül. Meist findet zu Beginn der Vorlesung eine Einfüh-
rung statt, die, abhängig vom Dozenten, von einer bis sechs Wochen dauern kann. Hierbei
werden Konzepte der Logik, Mengentheorie und der Theorie von Abbildungen, d. h. Funk-
tionen, vorangestellt. Manchmal kommt auch die Vollständige Induktion und/oder auch eine
Einführung in die Welt der Zahlen nicht zu kurz. In Abhängigkeit vom Geschmack des Vor-
tragenden gibt es auch eine mehr oder weniger ausführliche Einführung in die Grundlagen
von algebraischen Strukturen, sprich Gruppen, Ringe, Körper.
Es ist also keineswegs festgelegt, ob Sie in der ersten oder der sechsten Woche des Se-
mesters mit der eigentlichen Linearen Algebra beginnen. Wir haben in dem vorliegenden
Buch zur Linearen Algebra einen Mittelweg gewählt. In den ersten beiden Kapiteln fin-
den Sie eine Zusammenstellung der für dieses Buch wichtigen Grundbegriffe wie Mengen,
Abbildungen, Relationen, Gruppen, Körper und Ringe. Wenn Sie allerdings einen zügigen
Einstieg in die Lineare Algebra vorziehen, so können Sie auch gleich mit dem 7 Kap. 3
beginnen und später, bei Bedarf, die zunächst übersprungenen Inhalte nachholen. Zudem
bieten wir in diesem Werk immer wieder klar gekennzeichnete Stellen zur Aufbereitung
und Vertiefung des Gelernten an. Natürlich können diese Teile gleichfalls bei der ersten
Durchsicht ausgelassen werden.
Das vorliegende Buch gibt – mit einigen Anpassungen – die Inhalte zur Linearen
Algebra aus dem Buch von T. Arens, R. Busam, F. Hettlich, Ch. Karpfinger, H. Sta-
chel: Grundwissen Mathematikstudium wieder. In diesem mit der gleichen didaktischen
Methodik abgefassten Werk, auf das wir unter der Kurzbezeichnung „Grundwissenbuch“
mehrfach verweisen werden, wird ja der Versuch unternommen, die Lineare Algebra und
die Analysis von Anfang an parallel zu entwickeln, um den Lesern die Gemeinsamkeiten
dieser wichtigen Bausteine der modernen Mathematik vor Augen zu führen. Wenn Sie sich
also darüber hinaus über Themen der mathematischen Gedankenwelt informieren wollen,
wie z. B. über die Induktion, über komplexe Zahlen oder das Auswahlaxiom, so empfehlen
wir dieses Buch von T. Arens, et al.
Wir bedanken uns für die fachkundige und stets umsichtige Zusammenarbeit mit Frau
Bianca Alton und für die höchst kompetente Projektleitung durch Herrn Dr. Andreas Rü-
dinger vom Springer-Verlag. Besonders danken möchten wir auch unserem Co-Autor zum
Lehrbuch Mathematik, Dr. Klaus Lichtenegger, dessen Material wir hier einfließen lassen
konnten.
Wir wünschen Ihnen viel Freude und Erfolg mit der Linearen Algebra.
Christian Karpfinger
Hellmuth Stachel
München, Wien
Januar 2020
VII
Inhaltsverzeichnis
Serviceteil . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 409
Hinweise zu den Übungsaufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 410
Lösungen zu den Übungsaufgaben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 417
Stichwortverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 425
IX
Inhaltsverzeichnis
1.3 Abbildungen – 12
1.4 Relationen – 20
Aufgaben – 28
n Sie finden unter anderem Antworten zu . . . Aussagen lassen sich mittels Junktoren
1 4 Wie lassen sich Mengen beschreiben? verbinden
4 Was ist eine Abbildung?
4 Wodurch ist eine Äquivalenzrelation gekennzeichnet?
Meist ist man nicht nur an einzelnen Aussagen interessiert,
Mathematik kann man als eine Sprache auffassen. Das sondern will diese verknüpfen. Das geschieht wie in der
Vokabular basiert auf der Mengenlehre, und die Logik über- Alltagssprache mit Bindewörtern wie nicht, und oder oder.
nimmt die Rolle der Grammatik. Die Begriffe und Symbole In der formalen Logik nennt man diese Bindewörter Junk-
der Mengenlehre und der Logik werden dabei als eine Art toren.
Stenografie verwendet um Definitionen, Sätze und Beweise Wir bezeichnen im Folgenden Aussagen mit einzelnen
prägnant und klar formulieren zu können. Großbuchstaben, etwa A, B, C . Dann notieren wir die Ne-
In diesem einführenden Kapitel stellen wir die für uns gation (NICHT-Verknüpfung) einer Aussage A durch :A.
wesentlichen Begriffe und Symbole der Logik und Men- In der Literatur finden sich auch die Notationen A oder A
genlehre zusammen. Da die präzise Einführung dieser Be- für die Negation.
griffe und Symbole für die lineare Algebra nebensächlich Wie man es erwartet, ist die Negation so definiert, dass
ist, können wir auf einen axiomatischen Aufbau verzich- :A dann falsch ist, wenn A wahr ist und umgekehrt. Mit-
ten. Wir benutzen einen intuitiven Zugang zur Logik und hilfe einer Wahrheitstafel lassen sich derartige Sachver-
Mengenlehre. Dieses Vorgehen, das auch bei Anfängervor- halte übersichtlich darstellen, in dem man alle möglichen
lesungen in der Mathematik üblich ist, hat sich bewährt. Kombinationen auflistet. WAHR und FALSCH werden wir
Man kann somit nach relativ kurzer Einführung schnell zu dabei durch w und f abkürzen. Für die Negation erhalten
den Inhalten der Analysis und linearen Algebra kommen. wir
Im Laufe seines Studiums aber sollte sich jeder Mathema-
A :A
tikstudent mit einigen wenigen Inhalten der axiomatischen
w f
Mengenlehre bzw. der mathematischen Logik vertraut ma-
f w
chen.
Zur Mengenlehre gehören Abbildungen zwischen Men- Beispiel Für eine reelle Zahl x ist etwa die Negation der
gen und Relationen auf Mengen. Bei der Einführung dieser Aussage „x < 5“ durch die Aussage „x 5“ gegeben. Die
Begriffe legen wir ein Augenmerk auf präzise Anwendun- Negation ist durch „x ist nicht kleiner 5“ gegeben und da
gen der Begriffe und Symbole der Logik und der bis dahin es für reelle Zahlen drei Möglichkeiten gibt, kleiner, gleich
entwickelten Mengenlehre. Das erscheint einem Neuling in oder größer, bedeutet die Verneinung der Aussage „x ist
der Mathematik schnell pedantisch oder unnötig abstrakt. größer oder gleich 5“. 9
Tatsächlich aber ist das korrekte und genaue Anwenden des
Formalismus eine unabdingbare Notwendigkeit, um den Neben der Negation haben wir noch die Konjunktion
Weg in die Gedankenwelt der Mathematik zu meistern. zweier Aussagen, die UND-Verknüpfung, die durch das
Symbol ^ ausgedrückt wird, und die Disjunktion, die
1.1 Junktoren und Quantoren ODER-Verknüpfung, mit dem Zeichen _. Eine Wahrheits-
tafel liefert uns die verschiedenen Werte für die beiden
Verknüpfungen:
In der Mathematik geht es darum, Aussagen auf ihren
Wahrheitsgehalt hin zu überprüfen. Eine Aussage fassen A B A^B A_B
wir dabei als einen feststellenden Satz auf, dem genau ei- w w w w
ner der Wahrheitswerte WAHR oder FALSCH zugeordnet w f f w
werden kann. Eine wahre Aussage wird in der Mathematik f w f w
oft als Satz bezeichnet. Den Nachweis der Wahrheit dieser f f f f
Aussage nennt man einen Beweis des Satzes. Bevor wir uns
aber an das Beweisen von Sätzen machen, befassen wir uns Beachten Sie, dass in der Logik die Disjunktion stets
mit einigen Grundbegriffen der Aussagenlogik. Dabei be- ein einschließendes ODER bezeichnet, im Gegensatz zur
treiben wir eine naive Logik, in der wir unterschwellig die Umgangssprache, in der oft nur aus dem Zusammenhang
sprachliche Vorstellung benutzen. Die mathematische Lo- deutlich wird, ob es sich nicht vielleicht um ein „entweder
gik funktioniert auf einem anderen formalen Niveau. . . . oder“ handelt. Formal können wir mit den gegebenen
Junktoren und Quantoren sind sogenannte Operatoren Symbolen auch ein ausschließendes ODER beschreiben
der Logik. Mit Junktoren werden Aussagen verbunden, durch
Quantoren hingegen binden Variable; dabei verstehen wir .A _ B/ ^ :.A ^ B/ :
unter einer Variablen vorläufig ein Zeichen, für das belie-
bige Ausdrücke einer bestimmten Art eingesetzt werden In der Literatur wird für diese Verknüpfung die Bezeich-
können. nung XOR mit der Notation AX B genutzt.
1.1 Junktoren und Quantoren
3 1
Implikationen sorgen für klare Beziehungen Beispiel Wir beweisen ein berühmtes Ergebnis, das von
Euklid stammt. Es handelt sich um die Aussage: „Es gibt
unendlich viele Primzahlen, also Zahlen, die nur durch eins
Eine weitere logische Verknüpfung ist die Implikation. und sich selbst teilbar sind.“
Diese WENN-DANN-Verknüpfung wird manchmal auch Den Beweis führen wir mittels Widerspruch. Man
als Subjunktion bezeichnet. Es geht um die Logik des ma- nimmt an, es gäbe nur endlich viele Primzahlen. Dann muss
thematischen Folgerns der Art „Wenn A wahr ist, so ist es eine größte geben, die wir mit p bezeichnen wollen. Nun
auch B wahr“ oder kurz gesagt „Aus A folgt B.“ bildet man das Produkt aller Primzahlen von zwei bis p und
Bei der Definition dieser Verknüpfung von Aussagen addiert eins:
geht man einen auf den ersten Blick recht seltsamen Weg.
Genauso wie oben bei der UND-Verknüpfung beschrieben, r D 2 3 5 7 11 : : : p C 1
bezeichnet die Implikation weder einen zeitlichen noch
einen kausalen Zusammenhang zwischen den Aussagen, Diese neue Zahl r ist durch keine der Primzahlen von zwei
was uns aber umgangsprachlich durch die Formulierungen bis p teilbar, bei der Division bleibt immer ein Rest von
„wenn . . . dann“ bzw. „folgt“ suggeriert wird. Die Aussage eins. Es gibt also nur zwei Möglichkeiten: Entweder es gibt
„A impliziert B“, formal notiert durch A ) B, ist nur dann eine Primzahl, die größer ist als p und durch die r teilbar
falsch, wenn A wahr und B falsch ist. Ist also A von vorn- ist, oder r ist selbst eine Primzahl. In beiden Fällen erhal-
herein falsch, dann ist die Gesamtaussage A ) B immer ten wir einen Widerspruch zur Annahme, dass p die größte
wahr. Primzahl ist.
A B A)B Formal wurden in diesem Beweis die beiden Aussagen
w w w
w f f AW p ist eine Primzahl
f w w BW Es gibt eine Primzahl pQ mit pQ > p
f f w
betrachtet und die Implikation A ) B durch einen Wider-
Kommentar In der Aussagenlogik gilt das Prinzip ex fal- spruch gezeigt. 9
so quodlibet, – aus Falschem folgt Beliebiges. Mit einer
einzigen falschen Grundannahme kann man, zumindest
prinzipiell, jede beliebige Aussage beweisen. Äquivalenz heißt genau dann, wenn
Im Zusammenhang mit der Implikation werden zwei
Sprechweisen häufiger genutzt. Hat man eine wahre Impli- Die drei oben aufgeführten Möglichkeiten eine Implika-
kation A ) B vorliegen, so sagt man, „A ist hinreichend tion zu formulieren sind gleichwertig, die entsprechen-
für B“; denn, wenn die Implikation A ) B wahr ist, so den Spalten in der Wahrheitstafel liefern dieselben Werte.
folgt aus A wahr, dass auch B wahr ist. Oder die Situati- Aussagen, die diese Eigenschaft haben, nennt man äqui-
on wird aus anderem Blickwinkel beschrieben durch „B ist valent. Äquivalenz, die GENAU-DANN-WENN-Verknüp-
notwendig für A“, da wir die wahre Implikation auch so fung von Aussagen, ist der logische Gleichheitsbegriff für
lesen können, dass A nur wahr sein kann, wenn B gilt. Aussagen. Sie wird durch einen Doppelpfeil , zwischen
den Aussagen symbolisiert und wird gelesen als „es gilt ge-
? Selbstfrage 1.1 nau dann A, wenn B gilt“.
Für eine gegebene natürliche Zahl n stellen wir die drei Die Gesamtaussage A , B ist wahr, wenn A und B
Aussagen entweder beide wahr oder beide falsch sind. Ist eine der
beiden Aussagen wahr, die andere falsch, so ist auch A ,
AW n ist durch 12 teilbar
B falsch. Die zugehörige Wahrheitstabelle lautet:
BW n ist durch 3 teilbar
CW 2 n ist durch 6 teilbar A B A,B
w w w
gegenüber. Welche „notwendigen“ und „hinreichenden“
w f f
Beziehungen bestehen zwischen diesen Aussagen?
f w f
Mit der Implikation haben wir die wichtigste logische f f w
Verknüpfung von Aussagen für das Beweisen formuliert.
Letztendlich sind mathematische Sätze, Lemmata und Fol- Manchmal wird für die Äquivalenz zweier Aussagen auch
gerungen meistens in Form von wahren Implikationen die Formulierung verwendet, dass Aussage A „notwendig
formuliert, und Beweisen heißt, dass man begründet, war- und hinreichend“ für Aussage B ist.
um eine Implikation wahr ist. Dabei zerfallen die Beweise Wir haben schon gesehen, das Äquivalenz zwischen A
üblicherweise in einzelne kleine Beweisschritte, die für sich und B vorliegt, wenn der Spezialfall eintritt, dass die Im-
genommen wiederum wahre Implikationen sein müssen. plikation zweier Aussagen in beide Richtungen wahr ist.
4 Kapitel 1 Logik, Mengen, Abbildungen – die Sprache der Mathematik
Genauer bedeutet die Beobachtung, dass die beiden Aus- tigkeit von Aussagen quantifizieren sollen. Die beiden hier
1 sagen A , B und ..A ) B/ ^ .A ( B// äquivalent angesprochenen sind
sind. 4 Existenzquantor 9
Im Sinne einer Beweisführung heißt dies, dass wir „9 x W A.x/“ ist gleichbedeutend mit
Äquivalenz von zwei Aussagen zeigen können, indem wir „Es existiert ein x, für das A.x/ wahr ist“.
getrennt beweisen, dass die beiden Implikationen gelten. 4 Allquantor 8
Diesen Weg werden wir bei komplizierteren Äquivalenz- „8 x W A.x/“ ist gleichbedeutend mit
beweisen sehr häufig nutzen. Der Vorteil dabei liegt darin, „Für alle x ist A.x/ wahr“.
dass sich so unterschiedliche Beweistechniken nutzen las-
sen, etwa die eine Richtung durch einen direkten Beweis Hierbei bezeichnet jeweils A.x/ eine Aussageform.
und die andere Richtung durch einen Widerspruch.
i Eine Existenzaussage von der Form „Es gibt ein x, für das
? Selbstfrage 1.2
A gilt,“ bedeutet, dass zumindest ein derartiges x existiert.
Stellen Sie eine Wahrheitstafel auf, die die Äquivalenz von
A darf aber auch für mehrere oder sogar alle möglichen x
A , B und ..A ) B/ ^ .A ( B// belegt.
wahr sein. Meinen wir, dass es genau ein entsprechendes
Beispiel Wir machen uns das Vorgehen bei Äquivalenzbe- Objekt geben soll, also eines und nur eines, so müssen wir
weisen an einem einfachen Beispiel klar. Für eine reelle das dazusagen. Wie auch überall sonst in Mathematik und
positive Zahl x betrachten wir drei Aussagen Logik müssen wir die Sprache ernst nehmen und sauber
einsetzen.
AW x > 1; BW x 2 > 1; C W ln x 2 > 0 :
Fragen nach Existenz, „gibt es . . . ?“, und nach der Ein-
Um die Äquivalenz von A und B zu zeigen, könnten wir deutigkeit, „gibt es höchstens ein . . . ?“ sind zentral in der
folgendermaßen argumentieren. Zunächst zeigen wir A ) Mathematik und werden uns sehr oft begegnen.
B: Wenn x > 1 gilt, so folgt, indem wir die Ungleichung Quantoren, Variablen und Junktoren werden von nun
mit x multiplizieren, die Ungleichungskette x 2 D x x > an miteinander zu vielfältigen Aussagen zusammengesetzt.
x > 1. Also ergibt sich x 2 > 1. Andererseits gilt B ) Sehr oft hat man es dabei auch mit Verschachtelungen zu
A. Dazu wählen wir einen indirekten Beweis; denn aus der tun, deren Abhängigkeiten unbedingt zu beachten sind.
Annahme x 1 folgt x 2 x und somit x 2 1. Also gilt:
x 2 > 1 impliziert x > 1. Beispiel Wir betrachten die Aussage „Zu jeder reellen
Nun könnten wir die Äquivalenz zwischen A und C zei- Zahl x gibt es eine natürliche Zahl n, die größer als x ist.“
gen. Damit hätten wir die Äquivalenz aller drei Aussagen Hier haben wir zunächst eine Allaussage, der eine Existenz-
bewiesen. Häufig bietet sich aber bei mehreren Äquivalen- aussage folgt, also formal
zen eine Kette von Implikationen an. Statt die Äquivalenzen
separat zu beweisen, zeigen wir 8x 2 R 9n 2 N W x < n:
A ) B; B)C und C ) A :
Die Gesamtaussage ist in diesem Fall wahr.
Die erste dieser drei Implikationen haben wir oben gezeigt. Würde man einfach naiv die Reihenfolge der Aussagen
Wir setzen nun voraus, dass wir bereits wissen, dass ln 1 D umstellen, so erhielte man „Es gibt eine natürliche Zahl n,
0 ist und dass der natürliche Logarithmus streng monoton die größer ist als jede reelle Zahl x.“ Das ist eine ganz
steigend ist. Damit folgt direkt B ) C . Als Letztes ergibt andere Aussage. In diesem Fall ist sie zudem falsch. Die
sich aus Reihenfolge der Quantoren spielt fast immer eine entschei-
dende Rolle. 9
0 < ln.x 2 / D 2 ln x ;
Existenz- und Allaussagen lassen sich natürlich auch negie-
dass ln x > 0 ist, und somit x > 1 gelten muss. Wir haben ren, dabei ändert sich ihr Charakter von Grund auf. Sagen
C ) A bewiesen und somit die Kette geschlossen. Wegen wir, eine Aussage A trifft nicht auf alle x zu, so muss es
dieser Beweisstruktur A ) B ) C ) A spricht man zumindest ein x geben, für das A nicht gilt. Umgekehrt ver-
auch von einem Ringschluss. 9 neinen wir, dass es ein x gibt, für das A gilt, so muss A für
alle x falsch sein.
Kurz, die Verneinung einer Allaussage ist eine Exis-
Quantoren erlauben knappes Hinschreiben
tenzaussage, die Verneinung einer Existenzaussage ist eine
von Existenz- und Allaussagen Allaussage. In formaler Notation liest sich das als
Für diese beiden Formen von Aussagen gibt es formale :.8 x W A.x// ist äquivalent zu 9 x W :A.x/;
Schreibweisen. Man nutzt dazu Quantoren, die die Gül- :.9 x W A.x// ist äquivalent zu 8 x W :A.x/:
1.2 Grundbegriffe aus der Mengenlehre
5 1
Wir fassen hier die wichtigsten Junktoren und Quantoren noch Einige wichtige logische Äquivalenzen
einmal kurz zusammen. .A , B/ , .A ) B/ ^ .B ) A/
.A ) B/ , :.A ^ :B/ (Widerspruchsbeweis)
Wichtige Junktoren
.A ) B/ , .:B ) :A/ (indirekter Beweis)
: Negation (NICHT)
.A _ B/ , :.:A ^ :B/
^ Konjunktion (UND)
.A ^ B/ , :.:A _ :B/
_ Disjunktion (ODER)
) Implikation (WENN-DANN) Quantoren
, Äquivalenz (GENAU-DANN-WENN) 9 Existenzquantor („es gibt ein . . . “)
8 Allquantor („für alle . . . “ )
A B :A A^B A_B A)B A,B
w w f w w w w
Verneinen von Quantoren
w f f f w f f
:.8x W A.x// ist äquivalent zu 9x W :A.x/
f w w f w w f
f f w f f w w :.9x W A.x// ist äquivalent zu 8x W :A.x/
Abschließend weisen wir noch auf zwei weitere Beweis- Sätzen und Beweisen auseinandersetzen und dabei in den
techniken hin, die man leicht übersehen kann. Um eine tiefen Gründen der Mathematik graben. Dabei berühren wir
Existenzaussage zu zeigen, genügt es ein konkretes Bei- gleich ein Thema, das Komplikationen mit sich bringt – der
spiel anzugeben, bei dem die betreffende Aussageform Begriff der Menge. Georg Cantor, der Begründer der Men-
zur wahren Aussage wird. Genauso ist es ausreichend, ein genlehre, definierte diesen Begriff wie folgt:
Gegenbeispiel anzugeben, um eine Allaussage zu widerle-
gen. Natürlich gibt es kein Rezept, wie man im Einzelfall
ein Beispiel bzw. Gegenbeispiel findet. Ein erfolgreiches Der Mengenbegriff nach Cantor
Ausprobieren erfordert im Allgemeinen ein weitreichendes Unter einer Menge verstehen wir jede Zusammenfas-
Verständnis des betrachteten Problems. sung M von bestimmten, wohlunterschiedenen Objekten
x unserer Anschauung oder unseres Denkens zu einem
Beispiel Wir können die Aussage „Es gibt eine ganzzahlige Ganzen.
Lösung der Gleichung x 4 2x 3 11x 2 C 12x C 36 D 0,“
dadurch beweisen, dass wir eine Lösung, nämlich x D 3,
angeben.
Diese Definition ist so nicht sinnvoll, sprich keine Definiti-
Genauso lässt sich die Aussage „Für alle reellen Zahlen
x gilt x 2 C 32 x C 17 on: Der zu definierende Begriff Menge wird durch einen
32 0, “ dadurch widerlegen, indem
undefinierten Begriff Zusammenfassung erklärt. Und tat-
man x D einsetzt. Man erhält dann nämlich den Wert
3
3 2 3 3 4 17 sächlich kamen kurz nach Cantors Definition einer Menge
4
2 4 C 32 D 321
. 9 die ersten Beispiele, die Cantors Mengenlehre zum Einsturz
brachten (man beachte die Box Die Russell’sche Antino-
mie in diesem Kapitel). Aber für unsere Zwecke innerhalb
1.2 Grundbegriffe aus der Mengenlehre
der linearen Algebra ist der intuitive Begriff einer Menge
im Sinne einer Zusammenfassung von wohlunterschiede-
Auch wenn wir schon erste (mathematische) Formeln be- nen Objekten zu einem Ganzen völlig ausreichend. Eine
trachtet haben, so haben wir bisher nur über Mathematik präzise Definition einer Menge ist möglich. Dies erfor-
gesprochen und eigentlich noch keine Mathematik gemacht dert aber einen erheblichen Aufwand, der üblicherweise in
– wir haben die Grammatik der Sprache Mathematik ge- Spezialvorlesungen zur Mengenlehre betrieben wird. Wir
schildert. Nun kommen wir zum Alphabet der Mathematik verzichten auf eine solche präzise Definition und beschrei-
– der Mengenlehre. Wir werden uns nun mit Definitionen, ben Mengen durch ihre Eigenschaften.
6 Kapitel 1 Logik, Mengen, Abbildungen – die Sprache der Mathematik
Mengen sind durch ihre Elemente gegeben 4 Z D f0; 1; 1; 2; 2; : : :g – die Menge aller ganzen
1 Zahlen,
4 Q D f mn j n 2 N; m 2 Zg – die Menge aller rationalen
Ist M eine Menge, so werden die wohlunterschiedenen Ob- Zahlen,
jekte x von M die Elemente von M genannt. 4 R – die Menge aller reellen Zahlen,
Der Grundbegriff der Mengenlehre ist die Elementbe- 4 C D fa C i b j a; b 2 Rg – die Menge aller komplexen
ziehung, wir schreiben Zahlen.
4 x 2 M , falls x ein Element der Menge M ist, und
4 x … M , falls x nicht Element der Menge M ist. Es ist auch sinnvoll, von einer Menge zu sprechen, die keine
Elemente enthält – die leere Menge ;. Auch die Schreib-
Dabei sind für x 2 M Sprechweisen wie „x ist Element weise fg ist für die leere Menge üblich. Wir können die leere
von M “ oder „x liegt in M “ üblich. Analog sagt man „x Menge des Weiteren durch Eigenschaften beschreiben:
ist nicht Element von M “ oder „x liegt nicht in M “ für
x … M. ; D fx 2 N j x < 1g :
Mengen lassen sich auf zwei verschiedene Arten ange- Die Mathematiker betrachten die Zahlenmengen nicht als
ben: Man kann die Elemente einer Menge explizit auflisten von Gott gegeben. Durch mathematische Prozesse können
oder man beschreibt die Elemente durch ihre Eigenschaf- aus N die Zahlenmengen Z, Q, R und C Schritt für Schritt
0
ten. Die explizite Angabe der Elemente ist vor allem bei gewonnen werden. Auch die Menge N kann durch einen
0
kleinen Mengen sinnvoll. mathematischen Prozess konstruiert werden. Dazu geht man
mengentheoretisch vor. Man erhält die natürlichen Zahlen
Beispiel
sukzessive aus der Null durch folgende Festlegungen:
4 Die Menge M aller Primzahlen, die kleiner als 10 sind,
ist 0 D ;; 1 D f;g; 2 D f;; f;gg;
3 D f;; f;g; f;; f;ggg; : : :
M D f2; 3; 5; 7g :
Man beachte, es ist z. B. 3 D f0; 1; 2g; : : : In diesem Sinne
4 Die (unendliche) Menge N der natürlichen Zahlen kann sind die natürlichen Zahlen Mengen, deren Elemente Men-
wie folgt beschrieben werden: gen sind.
N D f1; 2; 3; : : :g : 9 i Die Begriffe Element und Menge sind somit relativ. Bildet
man z. B. die Menge aller oben aufgeführten Mengen, also
Neben dieser expliziten Angabe der Elemente einer Menge
kann man die Elemente einer Menge auch durch ihre Ei- M D fN; N0 ; Z; Q; R; C; ;g ;
genschaften erklären: Ist E eine Eigenschaft, so ist
so ist etwa Z einerseits Menge (von ganzen Zahlen), zu-
M D fx j E .x/g gleich aber auch Element (nämlich der Menge M ).
die Menge aller Elemente x, die die Eigenschaft E haben. Kommentar Wir haben hier einen Sachverhalt angespro-
Dabei wird der senkrechte Strich j gesprochen als chen, dem man in der Mathematik wiederholt begegnet: Man
kann eine mathematische Struktur durch ein (widerspruch-
„für die gilt“ oder „mit der Eigenschaft“ : freies) Axiomensystem festlegen oder aus grundlegenderen
Strukturen konstruieren. Das Musterbeispiel hierfür ist die
Eine eventuelle Grundmenge, aus der die Elemente x sind, Menge der reellen Zahlen, die einerseits durch ein Axiomen-
wird oft vor dem Strich j festgehalten. system festgelegt werden kann, andererseits über Zwischen-
stufen aus der leeren Menge konstruiert werden kann.
Beispiel
4 M D fx 2 N j x > 2 ; x 9g D f3; 4; 5; 6; 7; 8; 9g.
4 M D fx j x ist eine gerade natürliche Zahlg D Zwei Mengen sind gleich, wenn sie
f2; 4; 6; : : :g D fx 2 N j 9 k 2 N mit x D 2 kg. 9 Teilmengen voneinander sind
Wir geben im Folgenden gesammelt die sogenannten Zah-
lenmengen an. Diese sind den meisten Lesern aus der Wir nennen eine Menge A eine Teilmenge einer Menge B,
Schulzeit gut vertraut. Wir werden diese Mengen immer falls jedes Element von A auch ein Element von B ist und
wieder in Beispielen zu allen möglichen Mengenopera- schreiben dafür A B oder B A, d. h.,
tionen heranziehen, die wir in den folgenden Abschnitten A B , Für alle x 2 A gilt x 2 B :
behandeln werden.
4 N D f1; 2; 3; : : :g – die Menge aller natürlichen Zahlen, Die Teilmengenbeziehung wird Inklusion genannt, und
4 N0 D f0; 1; 2; : : :g – die Menge aller natürlichen Zahlen man sagt auch „die Menge A ist in B enthalten“ oder „die
mit der Null, Menge B umfasst A“.
1.2 Grundbegriffe aus der Mengenlehre
7 1
Cantors Mengenbegriff führt zu Widersprüchen. Folglich ist Was lässt sich daraus schließen? So naiv darf man Men-
seine Beschreibung einer Menge keine Definition im mathe- gen nicht bilden. Diese Konstruktion von Russell hat zu
matischen Sinne. Wir geben dazu ein Objekt an, das nach Beginn des 20. Jahrhunderts die von Cantor und anderen
Cantors Definition eine Menge sein müsste, aber sich nicht entwickelte Mengenlehre ad absurdum geführt und die Ent-
mit den Regeln der Mathematik vereinbaren lässt. wicklung axiomatischer Mengenlehren eingeleitet und mitbe-
stimmt.
Die Bildung von Mengen, die nur endlich viele Elemen- Der intuitive Hintergrund für den in der Antinomie
te enthalten, ist unproblematisch. Schwierigkeiten können (griech. Unvereinbarkeit von Gesetzen) auftretenden Wider-
aber auftreten bei der Bildung gewisser unendlicher Mengen. spruch ist der: Das oben definierte Gebilde M D fx j x … xg
Die Mengen N; Z; Q; R; C sind unendliche Mengen, aber ist riesengroß. Viel zu viele Objekte haben die Eigenschaft,
dennoch so klein, dass auch sie unproblematisch sind. Wir nicht Element von sich selbst zu sein. Also ist festzuhalten: Es
brauchen Zusammenfassungen, die noch viel größer sind. ist Vorsicht geboten bei der Bildung allzu großer (unendlicher)
Für Mengen A dürfte A … A wohl der Normalfall sein; Mengen. Für den Inhalt der Mathematik des ersten Studien-
Mengen, die sich selbst als Element enthalten, scheinen etwas jahres soll der Hinweis reichen, dass alle hier auftretenden
suspekt zu sein. Aber auch A 2 A ist vorstellbar, man denke Mengen und Mengenbildungen im Rahmen der gebräuchli-
etwa an einen Verein, der Mitglied bei sich selbst ist. chen Mengenlehre akzeptabel sind – aber mit etwas Mutwillen
Wir definieren eine Zusammenfassung, die nach Cantors kann man auch hier Schaden anrichten: Sprechen Sie nie von
Definition eine Menge ist: der Menge aller Vektorräume oder Gruppen oder Körper, . . .
– eine solche gibt es nicht.
M D fx j x … xg :
Die Antinomie von Russell hat eine berühmte Veran-
Nun fragen wir, ob M ein Element der Menge M ist, oder ob schaulichung, die wir nicht vorenthalten wollen:
das nicht der Fall ist. Es muss ja laut Logik gelten:
Der Barbier eines Ortes, der genau die Bewohner
Entweder ist M 2 M oder es ist M … M : des Ortes barbiert, die sich nicht selbst barbieren,
Genau eine der beiden Aussagen ist richtig, genau eine falsch. barbiert der sich selbst?
4 Angenommen, es ist M 2 M . Dann hat M die Eigen-
schaft M … M – ein Widerspruch. Im Rahmen der axiomatischen Mengenlehre werden allgemei-
4 Angenommen, es ist M … M . Dann hat M die Eigen- nere Objekte – die sogenannten Klassen – eingeführt. Mengen
schaft M 2 M – ein Widerspruch. sind dann spezielle Klassen. Die Vorstellung, dass Mengen
kleine Klassen sind, ist dabei äußerst nützlich.
Zusammen: Sowohl M 2 M als auch M … M sind falsch.
Mit diesem Beispiel von Russell brach die naive Mengenlehre 4 U. Friedrichsdorf, A. Prestel, Mengenlehre für den Mathe-
von Cantor zusammen. matiker, Vieweg, 1985
Dass B keine Teilmenge von A ist – wir schreiben dafür M mit ; 6 M , anders ausgedrückt: ; M für jede Menge
B 6 A oder A 6 B – bedeutet, dass es in B ein Element M . Die Aussage M M gilt aufgrund der Tatsache, dass
gibt, das nicht in A ist. für jedes Element m aus M offensichtlich m 2 M gilt.
Wir halten nun unsere erste beweisdürftige Aussage
fest: Wenn A B, aber B 6 A gilt, so heißt A echte Teilmenge
von B. Wir schreiben dafür A ¤ B oder B ¥ A. Dass A
eine echte Teilmenge von B ist, bedeutet: Jedes Element
Die leere Menge ist Teilmenge jeder Menge von A ist ein Element von B, in B aber gibt es mindestens
Für jede Menge M gilt: noch ein weiteres Element, das nicht in A ist.
;M und M M: i Man beachte, dass die Schreibweise A B nicht falsch
ist, falls sogar A ¤ B gilt.
Beweis Die erste Inklusion begründen wir durch einen Wi- Beispiel Es gelten die folgenden (echten) Inklusionen bzw.
derspruchsbeweis. Dazu nehmen wir an, es existiert eine Negationen von Inklusionen:
Menge M , für die gilt ; 6 M . Hiernach gibt es in ; ein 4 f1g ¤ f1; 2g und f1g f1; 2g und f1; 2g f1; 2g.
Element, das nicht in M liegt. Dies ist ein Widerspruch. 4 f1; 2g 6 f1; 3g und f1; 2g 6 f11; 4g.
Somit stimmt die Annahme nicht: Es existiert keine Menge 4 N ¤ N0 Z ¤ Q R ¤ C. 9
8 Kapitel 1 Logik, Mengen, Abbildungen – die Sprache der Mathematik
A D B , ..A B/ ^ .B A// :
Die Menge
Oftmals lassen sich beide Inklusionen in einem Schritt zei- die Differenz von A und B.
gen: Gilt A \ B D ;, so heißen A und B disjunkt oder auch
elementfremd.
A D B , ..x 2 A/ , .x 2 B// :
Für die Durchschnitts- und Vereinigungsbildung gelten
In der Analysis beweist man die Gleichheit zweier reeller Rechengesetze, die von den ganzen Zahlen her bekannt
Zahlen a und b manchmal ganz ähnlich: Man zeigt a b sind.
und b a.
Auf den folgenden Seiten folgen mehrere Beispiele, in
denen wir die Gleichheit von Mengen begründen.
Rechengesetze für Durchschnitts- und
Vereinigungsbildung
Kommentar Unsere Definition der Gleichheit von Men-
Für beliebige Mengen A, B und C gelten
gen ist extensional: Zwei Mengen sind gleich, wenn sie
4 die Assoziativgesetze:
dieselben Elemente enthalten. Der juristische Gleichheits-
begriff von Vereinen ist nicht extensional; zwei Vereine, die A \ .B \ C / D .A \ B/ \ C und
dieselben Mitglieder haben, sind nicht unbedingt gleich.
Der Sängerverein Frohsinn und der Schützenverein Bal- A [ .B [ C / D .A [ B/ [ C ;
lermann von Entenhausen sind verschieden, obwohl sie
4 die Kommutativgesetze:
dieselben Mitglieder haben, der eine Verein ist steuerbe-
günstigt, der andere nicht. Dass zwei gleiche Objekte auch A \ B D B \ A und A [ B D B [ A;
stets gleiche Eigenschaften besitzen, sagt das auf Leibniz
zurückgehende Ersetzbarkeitstheorem aus, dessen Gültig- 4 die Distributivgesetze:
keit wir axiomatisch voraussetzen.
A \ .B [ C / D .A \ B/ [ .A \ C / und
A [ .B \ C / D .A [ B/ \ .A [ C / :
Mengen kann man vereinigen, miteinander
schneiden, voneinander subtrahieren,
und manchmal kann man auch
das Komplement betrachten Beweis Es gilt:
A \ .B \ C / D A \ fx j x 2 B ^ x 2 C g
Für zwei Mengen A und B heißt die Menge D fx j x 2 A ^ x 2 B ^ x 2 C g
A \ B D fx j x 2 A UND x 2 Bg D fx j x 2 A ^ x 2 Bg \ C
der Durchschnitt von A und B. D .A \ B/ \ C
1.2 Grundbegriffe aus der Mengenlehre
9 1
. Abb. 1.4 Das Komplement Beweis Wir zeigen das erste Gesetz, das zweite beweist
CB .A/ enthält alle Elemente von man analog. Weil die Komplemente stets bezüglich der-
B, die nicht Element von A B selben großen Menge M gebildet werden, verwenden wir
sind B A die Kurzschreibweise Ac , B c für die Komplemente. Die
Gleichheit der Mengen .A [ B/c und Ac \ B c ergibt sich
aus:
x 2 .A [ B/c , x 2 M n .A [ B/
und
, x 2 .M n A/ \ .M n B/
A \ B D fx j x 2 A ^ x 2 Bg , x 2 Ac \ B c :
D fx j x 2 B ^ x 2 Ag
Dabei liefert ) die Inklusion .A [ B/c Ac \ B c und (
D B \ A:
die Inklusion Ac \ B c .A [ B/c . Insgesamt folgt damit
Das Assoziativ- und Kommutativgesetz für die Vereinigung .A [ B/ D A \ B .
c c c
CM .A [ B/ D CM .A/ \ CM .B/ ; Solche Mengen geordneter Paare kann man mit beliebigen
Mengen A, B bilden. Die Menge
CM .A \ B/ D CM .A/ [ CM .B/ :
A B D f.a; b/ j a 2 A; b 2 Bg
10 Kapitel 1 Logik, Mengen, Abbildungen – die Sprache der Mathematik
y
1
b p
A A B
D. h. zwei geordnete Paare sind genau dann gleich, wenn ist die y-Achse in der Ebene R2 . 9
sie komponentenweise gleich sind.
Zur Darstellung eines Punkts des dreidimensionalen eukli-
Kommentar Wir sind bei der Einführung der kartesischen dischen Raumes benötigt man drei reelle Zahlen. Weil bei
Produkts einer intuitiven Auffassung gefolgt und haben ei- vielen Problemstellungen, z. B. aus der Physik, auch drei
ne Definition des Begriffs geordnetes Paar vermieden. Sind Dimensionen nicht ausreichen, definieren wir allgemein für
A und B Mengen, so ist nach K. Kuratowski das geordne- endlich viele Mengen A1 ; A2 ; : : : ; An mit n 2 N
te Paar .a; b/ für a 2 A und b 2 B (mengentheoretisch)
Y n
definiert als Ai D A1 An
i D1 D f.a1 ; : : : ; an / j a1 2 A1 ; : : : ; an 2 An g
.a; b/ D ffag; fa; bgg :
das kartesische Produkt von A1 ; : : : ; An . Das Element
Es macht keine große Mühe nachzuweisen, dass die obige .a ; : : : ; a / heißt ein (geordnetes) n-Tupel. Für zwei
1 n
Gleichheit für geordnete Paare tatsächlich gilt. n-Tupel .a1 ; : : : ; an /; .b1 ; : : : ; bn / 2 A1 An gilt
A ; D ;: R3 D f.a1 ; a2 ; a3 / j a1 ; a2 ; a3 2 Rg :
Beispiel
Im Fall I D N und X D R erhalten wir die reellen
4 Für jede Menge X ist Folgen zurück. Sind die Elemente xi von X wiederum
Mengen, so nennt man die Familie .xi /i 2I auch ein
Mengensystem. 9
X ! X;
x 7! x ?Selbstfrage 1.5
Für die Menge aller Abbildungen f von X in Y ist auch
eine Abbildung von X in sich. Sie heißt die Identität die Schreibweise Y X üblich. Zeigen Sie, dass im Falle
auf X und wird mit idX oder IdX bezeichnet. jXj; jY j 2 N gilt:
4 Es ist
jY X j D jY jjX j :
R>0 ! R;
fW
x 7! x 2
Sowohl Elemente als auch Teilmengen
eine Abbildung von R>0 in R. Abbildungen von Teil-
mengen von Rn bzw. C n in Teilmengen von Rm bzw.
können Bilder und Urbilder haben
C nennt man auch Funktionen und wählt gerne die
m
Beispiel Wir betrachten die Abbildung so folgt unmittelbar aus der Gleichheit von Mengen und
1 jener von geordneten Paaren:
P .N/ ! N0 [ f1g;
gW
x 7! jxj:
Gleichheit von Abbildungen
Die Bildmenge von A D f;; f2g; f56gg P .M / ist Für zwei Abbildungen f; gW X ! Y gilt:
g.A/ D f0; 1g, und die Urbildmenge von f2g N0 [ f1g
ist die Menge aller zweielementigen Teilmengen von N. 9 f D g , f .x/ D g.x/ 8 x 2 X :
ist die reelle Folge .n3 /n2N . 9 nicht injektiv, nicht injektiv,
surjektiv nicht surjektiv
? Selbstfrage 1.6
Geben Sie eine Funktion f W A ! B an, sodass f jA0
dasselbe Bild wie f hat, obwohl A0 eine echte Teilmenge
von A ist.
ist surjektiv (f .1/ D 1 und f .2/ D 1), aber nicht Man schreibt weiterhin
injektiv (f .1/ D f .3/) und somit auch nicht bijektiv.
jAj jBj ;
4 Für jede Menge X ist die Abbildung idX W X ! X,
idX .x/ D x eine Bijektion. wenn es eine injektive Abbildung von A in B gibt, und
4 Für die Abbildungen
jAj < jBj
R ! R; R0 ! R;
f1 W f W
x 7! x 2 ; 2
x 7! x 2 ; für
R ! R0 ; R0 ! R0 ;
f3 W f4 W jAj jBj ; jedoch jAj ¤ jBj I
x 7! x 2 ; x 7! x 2
d. h., es gibt eine injektive Abbildung von A in B, aber
gilt:
keine bijektive. In dieser Situation sagt man auch „A hat
– f1 ist weder surjektiv (1 … f .R/) noch injektiv
eine kleinere Mächtigkeit als B“ oder „B hat eine größere
(f .1/ D f .1/).
Mächtigkeit als A“.
– f2 ist nicht surjektiv (1 … f .R/) aber injektiv
Im Fall
(f .x/ D f .y/ ) x D y).
p
– f3 ist surjektiv (y 2 R0 ) f . y/ D y) aber nicht jAj D jf1; 2 : : : ; ngj ;
injektiv (f .1/ D f .1/).
– f4 ist sowohl surjektiv (siehe f3 ) als auch injektiv d. h., es gibt eine Bijektion von A in f1; 2 : : : ; ng, setzt man
(siehe f2 ). 9 jAj D n und nennt A endlich, wenn es ein n 2 N0 gibt mit
jAj D n.
? Selbstfrage 1.7 Bei Abbildungen zwischen endlichen und gleichmäch-
Ist die Abbildung
tigen Mengen folgt die Bijektivität aus der Injektivität bzw.
(
N ! N0 ; Surjektivität, es gilt nämlich:
f W
n 7! n 1
Lemma Für jede Abbildung f W A ! B zwischen end-
injektiv, surjektiv oder bijektiv? lichen und gleichmächtigen Mengen A und B, d. h. jAj D
jBj 2 N0 , sind äquivalent:
Kommentar Man kann zu jeder injektiven Abbildung f (i) f ist injektiv,
durch Einschränkung der Wertemenge auf das Bild von f (ii) f ist surjektiv,
eine bijektive Abbildung erklären: Ist (iii) f ist bijektiv.
f WX !Y
Beweis (i) ) (ii): Die Abbildung f W A ! B sei injektiv.
injektiv, so ist die Abbildung Dann gilt
Q X ! f .X/ jf .A/j D jAj D jBj :
f W
x 7! f .x/
Aus f .A/ B folgt damit f .A/ D B. Somit ist f surjek-
bijektiv. tiv.
1.3 Abbildungen
17 1
(ii) ) (iii): Die Abbildung f W A ! B sei surjektiv. Jede endliche Menge hat weniger Elemente als die unend-
Angenommen, es gibt a; a0 2 A mit a ¤ a0 und f .a/ D liche Menge N. Die unendliche Menge N hat wiederum
f .a0 /. Dann folgt: weniger Elemente als die unendliche Menge R. Wir zeigen
nun, dass sich diese Folge von größer werdenden Mengen
jf .A/j < jAj D jBj :
beliebig fortsetzen lässt. Die Potenzmenge einer Menge hat
Das ist ein Widerspruch zu f .A/ D B. Damit ist begrün- nämlich immer eine echt größere Mächtigkeit als die zu-
det, dass f injektiv und somit bijektiv ist. grunde liegende Menge. Folglich gibt es beliebig große
(iii) ) (i): Falls f bijektiv ist, so ist f auch injektiv. Mengen.
g
Beispiel Gegeben sind die Abbildungen
1 Dg
R ! R; R ! R;
f f W und g W :
x 7! x 2 x 7! 2 x C 1
Wgıf
Df f .Df / Dann gilt:
Folglich gilt g ı f ¤ f ı g. 9
. Abb. 1.9 Eine Verkettung von Abbildungen ist nur dann möglich,
wenn der Bildbereich der ersten im Definitionsbereich der zweiten ent-
halten ist Aber – und das ist wichtig! – diese Multiplikation ist asso-
ziativ:
Der Fall X D Y D Z ist besonders interessant. Sind f und Somit sind die beiden Abbildungen gleich.
g zwei Abbildungen von einer Menge X in sich,
Bei dieser Multiplikation von Abbildungen tauchen Ähn-
f W X ! X und g W X ! X ;
lichkeiten zu Zahlenmengen auf. Wir betrachten die Menge
so ist auch g ı f eine Abbildung von X in sich. Dadurch ist M aller Abbildungen f einer Menge X in sich mit der
eine Multiplikation auf der Menge aller Abbildungen von Multiplikation ı – man schreibt dafür .M; ı/. Wir verglei-
X nach X erklärt. Diese Multiplikation hat ein sogenanntes chen diese algebraische Struktur .M; ı/ z. B. mit .Z; C/.
Einselement, die identische Abbildung: In beiden Strukturen gilt das Assoziativgesetz und beide
enthalten ein Einselement, in .M; ı/ ist das idX , in .Z; C/
idX ı f D f und f ı idX D f : lautet es 0. Die Verknüpfung ı in M ist nicht kommutativ,
Man beachte, dass diese Multiplikation nicht kommutativ die Verknüpfung C in Z hingegen schon. Es ist ein we-
ist, im Allgemeinen gilt: sentlicher und notwendiger Abstraktionsschritt, sich daran
zu gewöhnen, dass man mit Abbildungen rechnen kann als
f ı g ¤ g ı f: wären es Zahlen.
1.3 Abbildungen
19 1
Genau die bijektiven Abbildungen Definitionsmenge von g bzw. f liegt. Wir werten nun diese
sind umkehrbar Abbildungen
gıf WX !X und f ı g W Y ! Y
Wir zeigen, dass sich die bijektiven Abbildungen umkehren
für x 2 X und y 2 Y aus:
lassen. Wir stellen diesem wichtigen Satz von der Umkehr-
abbildung ein Lemma voran. g ı f .x/ D g.f .x// D g.y/ D x D idX .x/ und
f ı g.y/ D f .g.y// D f .x/ D y D idY .y/ :
Lemma Für Abbildungen f W X ! Y und g W Y ! X
gelte: Mit dem Satz zur Gleichheit von Abbildungen folgt nun
g ı f D idX und f ı g D idY , wir halten fest:
f ı g D idY :
Wegen der Voraussetzung folgt y1 D y2 . BeweisDie Existenz der Umkehrabbildung haben wir
schon gezeigt. Wir begründen die Eindeutigkeit von g: Ist
Falls also g ı f D idX und f ı g D idY gilt, so besagt auch g 0 W Y ! X eine Abbildung mit
dieses Lemma, dass f und g injektiv und surjektiv sind.
f ı g 0 D idY und g 0 ı f D idX ;
Folgerung Sind f W X ! Y und g W Y ! X zwei Abbil-
dungen mit den Eigenschaften so folgt:
g 0 D idX ı g 0 D .g ı f / ı g 0
g ı f D idX und f ı g D idY ;
D g ı .f ı g 0 / D g ı idY D g :
so sind g und f bijektiv. Schließlich zeigt obige Folgerung, dass die Abbildung g,
d. h. f 1 , bijektiv ist. Und die beiden Gleichungen
Wir wollen diese Aussage nun umkehren, d. h., wir er-
klären zu einer bijektiven Abbildung f W X ! Y eine neue f ı f 1 D idY und f 1 ı f D idX
Abbildung g W Y ! X, sodass die beiden Gleichheiten
g ı f D idX und f ı g D idY erfüllt sind. zeigen wegen der bewiesenen Eindeutigkeit der Umkehrab-
1
Ist f W X ! Y eine bijektive Abbildung, so existiert zu bildung, dass f die Umkehrabbildung von f ist, d. h.
jedem y 2 Y genau ein x 2 X mit f .x/ D y, d. h.
f D .f 1 /1 :
jf 1 .fyg/j D 1 für jedes y 2 Y : Existiert zu f eine Umkehrabbildung f 1 , so sagt man
auch kurz f ist umkehrbar oder f ist invertierbar.
Daher können wir zu jedem bijektiven f eine weitere Ab-
bildung g W Y ! X definieren: Wir setzen i Ist f W X ! Y bijektiv und B Y , so hat das Zeichen
f 1 .B/ nun zwei Bedeutungen:
g.y/ D x für das (eindeutige) x mit f .x/ D y :
A1 D f 1 .B/ D fx 2 X j f .x/ 2 Bg
Die Abbildungen f W X ! Y und g W Y ! X können ist die Urbildmenge von B unter f , und
wir hintereinander ausführen, wir können sowohl f ı g wie
auch g ı f bilden, da die Bildmenge von f bzw. g in der A2 D f 1 .B/
20 Kapitel 1 Logik, Mengen, Abbildungen – die Sprache der Mathematik
ist die Bildmenge von B unter f 1 . Das macht aber Die Abbildung g ıf ist surjektiv: Zu jedem z 2 Z exis-
1 nichts, es gilt nämlich A1 D A2 . Das sieht man wie folgt: tiert wegen der Surjektivität von g ein y 2 Y mit g.y/ D z.
Zu diesem y 2 Y wiederum existiert wegen der Surjektivi-
x 2 A1 , f .x/ D b 2 B tät von f ein x 2 X mit f .x/ D y. Insgesamt erhalten wir
, x D f 1 .b/ 2 f 1 .B/ mit diesen x und y:
, x 2 A2 :
g ı f .x/ D g.f .x// D g.y/ D z ;
Man beachte auch die grundverschiedenen Bedeutungen sodass das Element z 2 Z ein Urbild x 2 X bezüglich der
von Abbildung g ı f hat.
f 1 .x/ und .f .x//1 :
1.4 Relationen
Das Element .f .x//1 ist das Inverse von f .x/ aber
f 1 .x/ ist das Bild von x unter der Abbildung f 1 .
Wir können aus jeder injektiven Abbildung eine bijektive
Beispiel Abbildung machen. Dazu ist es nur notwendig, die Wer-
1 temenge einzuschränken. Ist es auch möglich, aus einer
4 Für jede Menge X ist idX D idX .
4 Die Abbildung surjektiven Abbildung eine bijektive zu machen? Die Ant-
wort ist ja, wir zeigen das in diesem Abschnitt. Wir werden
N ! N0 ; dazu den Begriff der Gleichheit vergröbern. Wir werden
f W
n 7! n 1 Elemente einer Menge als äquivalent bezeichnen, wenn
sie gewisse vorgebene gleiche Eigenschaften haben. Die-
ist bijektiv, ihre Umkehrabbildung lautet se zueinander äquivalenten Elemente fassen wir dann in
Mengen zusammen und behandeln diese Mengen wieder
1 N0 ! N; als Elemente einer Menge. Das hat eine Ähnlichkeit mit
f W :
n 7! n C 1 Schubläden – zueinander äquivalente Elemente werden in
Schubläden gesteckt, und es wird dann mit den Schubläden
4 In der Analysis definiert man den Logarithmus anstelle der Elemente weitergearbeitet.
Wir betrachten also erneut Mengen, wobei nun Elemen-
ln W R>0 ! R ; y 7! ln y te einer Menge zueinander in einem Verhältnis stehen. Ein
solches Verhältnis, wir werden das als Relation bezeich-
als die Umkehrabbildung der (bijektiven) Exponential- nen, definieren wir zuerst sehr allgemein. Wir werden dann
abbildung Äquivalenzrelationen betrachten.
exp W R ! R>0 ; x 7! ex : 9
Eine Relation auf X ist eine Teilmenge
Die Hintereinanderausführung gıf zweier Abbildungen f
und g von einer Menge X in sich ist wieder eine Abbildung von X X
von X in sich. Sind g und f bijektiv, so ist auch g ı f
bijektiv. Es seien X und Y beliebige Mengen. Jede Teilmenge
X Y heißt (binäre bzw. zweistellige) Relation auf X Y .
Wir werden nur binäre Relationen betrachten und sprechen
Die Komposition von bijektiven Abbildungen ist von nun an kurz von Relationen. Der Graph Gf einer Ab-
bijektiv bildung f von X in Y ist eine Relation auf X Y mit der
Sind f W X ! Y und g W Y ! Z bijektiv, so ist auch zusätzlichen Eigenschaft, dass es zu jedem x aus X genau
g ı f W X ! Z bijektiv. ein y aus Y gibt.
?Selbstfrage 1.8
Beweis Die Abbildung g ı f ist injektiv: Aus Vornehm ausgedrückt spricht man beim Graph einer Ab-
bildung f von einer linkstotalen und rechtseindeutigen
g.f .x// D g.f .y// Relation auf X Y – warum wohl?
Weiter nennt man den Graph einer injektiven Abbil-
mit x; y 2 X folgt wegen der Injektivität von g dung auch linkseindeutig und den einer surjektiven auch
rechtstotal – warum wohl?
f .x/ D f .y/ :
Im Fall X D Y , das werden wir im weiteren stets voraus-
Aus der Injektivität von f folgt nun x D y. setzen, spricht man auch kurz von einer Relation auf X .
1.4 Relationen
21 1
Man beachte, dass eine Relation auf X eine Menge
von geordneten Paaren aus X X ist. Durch die Teilmenge Reflexiv, symmetrisch, antisymmetrisch und
werden ganz bestimmte Paare aus X X ausgezeichnet, transitiv
nämlich genau diejenigen, die zueinander in der Relation Eine Relation auf der Menge X heißt:
stehen. 4 reflexiv, wenn für alle x 2 X gilt x x,
Anstelle von .x; y/ 2 schreibt man auch x y und 4 symmetrisch, wenn für alle x; y 2 X mit x y gilt
benutzt die Sprechweise „x steht in Relation zu y“, y x,
x y , .x; y/ 2 : 4 antisymmetrisch, wenn für alle x; y 2 X mit x y
und y x gilt x D y,
Beispiel 4 transitiv, wenn für alle x; y; z 2 X mit x y und
4 Auf der Menge N ist die Teilbarkeit j eine Relation. y z gilt x z.
Dabei sagt man, eine natürliche Zahl a teilt eine natür-
liche Zahl b, wenn es ein c 2 N gibt mit a c D b. Als
Schreibweise verwendet man dafür a j b. Es gilt: Wir sehen uns erneut die letzten Beispiele an und erhalten:
j D f.a; b/ 2 N N j a j bg : Beispiel
Zum Beispiel gilt .3; 3/; .3; 9/; .12; 36/ 2 j. 4 Die Relation j auf N ist reflexiv, antisymmetrisch und
4 Auf der Menge X aller Geraden der Ebene ist die Par- transitiv.
allelität k eine Relation. Es gilt: 4 Die Relation k auf der Menge X aller Geraden einer
Ebene ist reflexiv, symmetrisch und transitiv.
k D f.g; h/ 2 X X j g k hg : 4 Die Relation auf R ist reflexiv, antisymmetrisch und
transitiv.
4 Auf der Menge R der reellen Zahlen ist die Anordnung 4 Die Relation .mod n/ auf Z ist reflexiv, symmetrisch
eine Relation. Es gilt: und transitiv. Wir weisen die Transitivität nach: Es gelte
D f.a; b/ 2 R R j a bg : a b .mod n/ und b c .mod n/. Folglich gilt n j
a b und n j b c. Hieraus erhalten wir
4 Wir definieren eine Relation auf der Menge Z der gan-
zen Zahlen. Es seien n 2 N und a; b 2 Z. Wir sagen, a b D r n und b c D s n
a ist kongruent zu b modulo n, falls n die Zahl a b
teilt, kurz: für ganze Zahlen r und s. Eine Addition dieser beiden
Gleichungen liefert
ab , n j a b:
a c D .a b/ C .b c/ D .r s/ n ;
Für n D 3 gilt z. B. .5; 2/; .2; 1/; .4; 4/ 2 . Für diese
Relation schreibt man üblicherweise , genauer d. h. n j a c. Damit ist gezeigt a c .mod n/.
.mod n/, d. h., 4 Die Gleichheit D auf X ist reflexiv, symmetrisch, anti-
a b .mod n/ , n j a b : symmetrisch und transitiv.
4 Die Inklusion auf P .X/ ist reflexiv, antisymmetrisch
4 Auf jeder Menge X ist die Gleichheit D eine Relation. und transitiv. 9
4 Auf der Potenzmenge P .X/ jeder Menge X ist die In-
klusion eine Relation. 9 Kommentar Die Relation ist besser auf der Menge der
Gegenstände des täglichen Lebens ist sicherlich als eine
Kommentar Eigentlich ist eine Relation auf X Y ein transitive Relation zu verstehen. Findet man etwa, dass
Tripel D .X; Y; R /, wobei R X Y . In diesem Sinne Schokolade besser ist als ein Apfel und dass ein Apfel
ist eine Abbildung eine spezielle Relation. besser ist als Spinat, so wird man sicher auch auch der Mei-
nung sein, dass Schokolade besser ist als Spinat.
Diese Regeln sind genau die Reflexivität, Antisymmetrie Ein maximales Element muss kein größtes
1 und Transitivität. Element sein
x y oder y x Beispiel
4 Die Menge N hat bezüglich der üblichen Ordnung das
gilt. Diese zusätzliche Eigenschaft einer Ordnungsrelation kleinste Element 1, aber kein größtes Element. Die
bekommt einen eigenen Namen: Mengen Z und R haben bezüglich der üblichen Ord-
Eine Ordnungsrelation einer geordneten Menge nungen weder ein größtes noch ein kleinstes Element.
.X; / heißt lineare oder totale Ordnungsrelation, wenn für 4 Wir betrachten die Potenzmenge P .f1; 2g/ mit der Ord-
je zwei Elemente x; y 2 X gilt nungsrelation :
? Selbstfrage 1.9 Wegen f1g 6 f2g und f2g 6 f1g sind die Elemente
Ist die Ordnungsrelation j auf N linear?
f1g und f2g nicht miteinander vergleichbar, sodass die
Ordnungsrelation nicht linear ist.
Das Element f1; 2g ist das größte Element, das Element
Ist .X; / eine geordnete Menge und Y X, so erhält man
; das kleinste.
durch Einschränkung von auf Y eine Ordnung auf Y –
4 Nun betrachten wir die folgende Teilmenge X der Po-
die von X auf der Teilmenge Y induzierte Ordnung. Der
tenzmenge von M D f1; 2; 3g:
Einfachheit halber verwendet man oft für die neue Relati-
on, nämlich für die Einschränkung von , wieder dasselbe X D ff1g; f2g; f3g; f1; 2g; f2; 3g; f1; 3gg ;
Zeichen .
die aus allen ein- und zweielementigen Teilmengen von
Beispiel Die Ordnungsrelation auf der Menge R der reel- M besteht. Die Menge X ist mit der Inklusion nicht
len Zahlen induziert auf der Teilmenge Q R die Ordnung linear geordnet. Es gibt weder ein größtes noch ein
.Q; /. 9 kleinstes Element. 9
1.4 Relationen
23 1
{1} {2}
{1} {2} {3}
sodass man doch auch wieder sagen kann, dass f1; 3g grö- Man beachte auch . Abb. 1.11.
ßer ist als f1g, und es gibt in X kein Element, das größer
ist als f1; 3g und auch keines, das kleiner ist als f1g. Dies Das Zorn’sche Lemma garantiert
erfasst man mit den Begriffen minimales und maximales
Element: Ist eine Ordnungsrelation auf der Menge X,
die Existenz maximaler Elemente
so sagt man:
4 Ein Element a 2 X heißt maximales Element von X, Das Zorn’sche Lemma liefert eine ganz wesentliche Be-
falls für alle x 2 X gilt: Aus a x folgt a D x. weismethode für die Existenz maximaler Elemente. Für
4 Ein Element a 2 X heißt minimales Element von X, eine knappe Formulierung dieses Lemmas führen wir wei-
falls für alle x 2 X gilt: Aus x a folgt x D a. tere Begriffe ein.
Eine geordnete Menge .M; / heißt induktiv geord-
Ein Element ist also genau dann maximal, wenn es kein net, wenn jede linear geordnete Teilmenge X M eine
Element gibt, das noch echt größer ist und minimal, wenn obere Schranke in .M; / besitzt, d. h., wenn ein s 2 M
es kein Element gibt, das noch echt kleiner ist. Wir greifen existiert mit x s für alle x 2 X.
das letzte Beispiel noch einmal auf. Das Zorn’sche Lemma besagt:
Beispiel Die Menge
Lemma von Zorn
X D ff1g; f2g; f3g; f1; 2g; f2; 3g; f1; 3gg Jede induktiv geordnete nichtleere Menge .M; / besitzt
ein maximales Element.
versehen mit der Inklusion ist geordnet, aber nicht linear
geordnet. Jedes der Elemente
f1g; f2g; f3g Das Lemma von Zorn ist ein Axiom der Mengenlehre. Wir
werden das Lemma von Zorn benutzen, um zu beweisen,
ist ein minimales Element, und jedes der Elemente dass jeder Vektorraum eine Basis besitzt.
Lemma Jedes größte Element von .X; / ist ein maxima- Äquivalenzrelation
les Element. Eine Relation auf einer Menge X heißt Äquivalenzre-
Jedes kleinste Element von .X; / ist ein minimales Ele- lation, wenn reflexiv, symmetrisch und transitiv ist.
ment.
24 Kapitel 1 Logik, Mengen, Abbildungen – die Sprache der Mathematik
In unserem Sammelsurium aus Beispielen finden wir Äqui- 4 Bei der Äquivalenzrelation .mod n/, n 2 N, besteht
1 valenzrelationen: die Äquivalenzklasse Œa von a 2 Z aus all jenen gan-
zen Zahlen b, die zu a kongruent modulo n sind:
Beispiel
4 Die Parallelität k auf der Menge der Geraden X in der a b .mod n/ , n j a b
Ebene ist eine Äquivalenzrelation. , a b D n c für ein c 2 Z
4 Für jedes n 2 N ist die Relation .mod n/ eine Äqui-
, b 2 fa C n c j c 2 Zg D a C n Z :
valenzrelation auf der Menge Z. 9
a b .mod n/ , n j a b :
. Abb. 1.13 Eine Partition der Menge X ist eine Zerlegung von X in Für jedes a 2 Z ist
disjunkte nichtleere Teilmengen – im Allgemeinen sind weder die Teil-
mengen noch die Anzahl der Teilmengen endlich Œa D a C n Z
26 Kapitel 1 Logik, Mengen, Abbildungen – die Sprache der Mathematik
Man nennt r den Rest von a bei Division mit Rest wobei r 2 f0; 1; : : : ; n 1g der Rest bei Division von a
durch n. durch n mit Rest ist.
Folglich liegt jedes a 2 Z in einer der Restklassen
r1 r2 2 f.n 1/; : : : ; 1; 0; 1; : : : ; n 1g : Es sind je zwei ganze Zahlen äquivalent, da die Diffe-
renz beliebiger Zahlen stets von 1 geteilt wird.
Damit gilt: 4 Im Fall n D 2 gibt es genau zwei Restklassen
a C nZ D b CnZ
0 D 0 C 2 Z D f0; ˙2; ˙4; : : :g ;
, a b D n c für ein c 2 Z
1 D 1 C 2 Z D f˙1; ˙3; ˙5; : : :g :
, .q1 q2 / n C .r1 r2 / D n c ; c 2 Z
, r1 r2 D n d für ein d 2 Z Die Menge Z wird aufgeteilt in die geraden und unge-
, r1 D r2 ; raden ganzen Zahlen.
28 Kapitel 1 Logik, Mengen, Abbildungen – die Sprache der Mathematik
Aufgaben a
BW „x Es gibt keine Zahlen a; b 2 Z mit x D “
b
Gelegentlich enthalten die Aufgaben mehr Angaben, als für 1.6 Geheimrat Gelb, Frau Blau, Herr Grün und
die Lösung erforderlich sind. Bei einigen anderen dage- Oberst Schwarz werden eines Mordes verdächtigt. Genau
gen werden Daten aus dem Allgemeinwissen, aus anderen einer bzw. eine von ihnen hat den Mord begangen. Beim
Quellen oder sinnvolle Schätzungen benötigt. Verhör sagen sie Folgendes aus:
Geheimrat Gelb: Ich war es nicht. Der Mord ist im Sa-
einfache Aufgaben mit wenigen Rechenschritten
lon passiert.
mittelschwere Aufgaben, die etwas Denkarbeit und Frau Blau: Ich war es nicht. Ich war zur Tatzeit mit
unter Umständen die Kombination verschiedener Oberst Schwarz zusammen in einem Raum.
Konzepte erfordern Herr Grün: Ich war es nicht. Frau Blau, Geheimrat Gelb
anspruchsvolle Aufgaben, die fortgeschrittene Kon- und ich waren zur Tatzeit nicht im Salon.
zepte (unter Umständen auch aus späteren Kapiteln) Oberst Schwarz: Ich war es nicht. Aber Geheimrat Gelb
oder eigene mathematische Modellbildung benötigen war zur Tatzeit im Salon.
Unter der Annahme, dass die Unschuldigen die Wahr-
heit gesagt haben, finde man den Täter bzw. die Täterin.
Verständnisfragen
1.7 Es seien A eine Menge und F eine Menge von
Teilmengen von A. Beweisen Sie die folgenden (allgemei-
1.1 Welche der folgenden Aussagen sind richtig?
neren) Regeln von De Morgan:
Für alle x 2 R gilt:
(a) „x > 1 ist hinreichend für x 2 > 1.“ 0 1
(b) „x > 1 ist notwendig für x 2 > 1.“ \ [
An@ BA D .A n B/ und
(c) „x 1 ist hinreichend für x 2 > 1.“
B2F B2F
(d) „x 1 ist notwendig für x 2 > 1.“ 0 1
[ \
1.2 Wie viele unterschiedliche binäre, also zwei An@ BA D .A n B/ :
Aussagen verknüpfende Junktoren gibt es? B2F B2F
Antworten zu den Selbstfragen
29 1
1.8 Es seien A, B Mengen, M1 ; M2 A, ferner 1.16 Auf einer Menge A seien zwei Äquivalenzrela-
N1 ; N2 B und f W A ! B eine Abbildung. Zeigen Sie: tionen und gegeben. Dann heißt eine Vergröberung
(a) f .M1 [ M2 / D f .M1 / [ f .M2 /, von , wenn für alle x; y 2 A mit x y auch x y gilt.
(b) f 1 .N1 [ N2 / D f 1 .N1 / [ f 1 .N2 /, (a) Es sei eine Vergröberung von . Geben Sie eine sur-
(c) f 1 .N1 \ N2 / D f 1 .N1 / \ f 1 .N2 /. jektive Abbildung
Gilt im Allgemeinen auch f .M1 \M2 / D f .M1 /\f .M2 /? f W A= ! A=
an.
1.9 Es seien A, B nichtleere Mengen und f W
(b) Für m; n 2 N sind durch
A ! B eine Abbildung. Zeigen Sie:
(a) f ist genau dann injektiv, wenn eine Abbildung g W x y ” m j .x y/
B ! A mit g ı f D idA existiert.
(b) f ist genau dann surjektiv, wenn eine Abbildung g W und
B ! A mit f ı g D idB existiert.
x y ” n j .x y/
1.10 Es seien A, B, C Mengen und f W A ! B,
Äquivalenzrelationen auf Z definiert.
g W B ! C Abbildungen. Bestimmen Sie zu n 2 N die Menge aller m 2 N,
(a) Zeigen Sie: Ist g ı f injektiv, so ist auch f injektiv. sodass eine Vergröberung von ist.
(b) Zeigen Sie: Ist g ı f surjektiv, so ist auch g surjektiv. (c) Geben Sie die Abbildung f aus Teil (a) für m D 3 und
(c) Geben Sie ein Beispiel an, in dem g ı f bijektiv, aber n D 6 explizit an, indem Sie für sämtliche Elemente
weder g injektiv noch f surjektiv ist. von Z= das Bild unter f angeben.
1.11 Es seien A, B Mengen und f W A ! B eine Ab- 1.17 Es sei eine reflexive und transitive Relation auf
bildung. Die Potenzmengen von A bzw. B seien A bzw. B. einer Menge A. Zeigen Sie:
Wir betrachten die Abbildung g W B ! A, B 0 7! f 1 .B 0 /. (a) Durch
Zeigen Sie:
(a) Es ist f genau dann injektiv, wenn g surjektiv ist. x y ” ..x; y/ 2 und .y; x/ 2 /
(b) Es ist f genau dann surjektiv, wenn g injektiv ist.
wird eine Äquivalenzrelation auf A definiert.
1.12 Begründen Sie die Bijektivität der Abbildung (b) Für x 2 A sei Œx 2 A= die Äquivalenzklasse von x
bezüglich . Durch
.1; 1/ ! R;
f W Œx Œy ” .x; y/ 2
x 7! 1x
x
2:
1.13 Geben Sie für die folgenden Relationen auf Z wird eine Ordnungsrelation auf A= definiert.
jeweils an, ob sie reflexiv, symmetrisch oder transitiv sind.
Welche der Relationen sind Äquivalenzrelationen?
(a) 1 D f.m; n/ 2 Z Z j m ng,
Antworten zu den Selbstfragen
(b) 2 D f.m; n/ 2 Z Z j m n > 0g [ f.0; 0/g,
(c) 3 D f.m; n/ 2 Z Z j m D 2ng, vAntwort 1.1
(d) 4 D f.m; n/ 2 Z Z j m n C 1g, Offensichtlich ist A hinreichend für B; denn, wenn die
(e) 5 D f.m; n/ 2 Z Z j m n 1g, Zahl durch 12 teilbar ist, ist sie sicher auch durch 3 teil-
(f) 6 D f.m; n/ 2 Z Z j m D 2g. bar. Also ist die Implikation A ) B wahr. Das bedeutet
gleichzeitig, dass B eine notwendige Bedingung für A ist.
1.14 Wo steckt der Fehler in der folgenden Argumen- Genauso ist A hinreichend für C und somit C not-
tation? wendig für A. Bei der Beziehung zwischen B und C
Ist eine symmetrische und transitive Relation auf ei- beobachten wir, dass B sowohl notwendig als auch hin-
ner Menge M , so folgt für a; b 2 M mit a b wegen der reichend für C ist. Diese Beziehung zwischen Aussagen
Symmetrie auch b a. Wegen der Transitivität folgt aus wird äquivalent genannt, wie wir noch sehen werden.
a b und b a auch a a. Die Relation ist also eine
Äquivalenzrelation. vAntwort 1.2
A B A,B A)B B)A .A ) B/
1.15 Zeigen Sie, dass die folgenden Relationen Äqui-
^ .B ) A/
valenzrelationen auf A sind. Bestimmen Sie jeweils die
w w w w w w
Äquivalenzklassen von .2; 2/ und .2; 2/.
w f f f w f
(a) A D R2 , .a; b/ .c; d / ” a2 C b 2 D c 2 C d 2 .
f w f w f f
(b) A D R2 , .a; b/ .c; d / ” a b D c d .
f f w w w w
(c) A D R2 n f.0; 0/g, .a; b/ .c; d / ” a d D b c.
30 Kapitel 1 Logik, Mengen, Abbildungen – die Sprache der Mathematik
Inhaltsverzeichnis
2.1 Gruppen – 32
2.2 Homomorphismen – 39
2.3 Körper – 46
2.4 Ringe – 51
Aufgaben – 62
n Sie finden unter anderem Antworten zu . . . Addition und Subtraktion sind Beispiele
4 Was bedeuten Gruppen, Ringe und Körper in der Ma- einer Verknüpfung
thematik?
2 4 Was versteht man unter der Symmetriegruppe eines
Ornaments? Bei den ersten drei Beispielen wenden wir eine Rechen-
4 Was ist ein Polynom? operation, die Addition, Subtraktion oder Multiplikation,
auf zwei Ausdrücke an und erhalten einen eindeutigen Aus-
Die Tätigkeit, die umgangssprachlich mit „Rechnen“ be- druck derselben Art wie die Ausgangswerte. Im Sinne von
zeichnet wird, ist ein zielorientiertes Hantieren mit Sym- 7 Kap. 1 liegt eine Abbildung von Elementepaaren auf ein
bolen und mit Regeln, die man einfach weiß, ohne sie einzelnes Element vor. Die Division schieben wir vorerst
immer extra aufzulisten. Im Rahmen der Schulmathematik beiseite, denn das „Ergebnis“ ist schließlich ein Bruch, also
sind die Symbole Zahlen, Unbestimmte, aber auch Mengen von anderer Art als die Eingangselemente.
oder Funktionen. Auch die Rechenoperationen wie Additi- Wir verallgemeinern: Weil das Operationssymbol alles
on, Subtraktion, Multiplikation, Vereinigung, Durchschnitt, mögliche bedeuten kann, schreiben wir dafür , ohne zu er-
Differentiation und Integration werden durch Symbole aus- klären, was damit gemeint ist. Wir legen uns auch nicht fest,
gedrückt. worauf wir die Operation anwenden; wir sprechen in der
In diesem Kapitel wollen wir genauer klären, was man folgenden Definition lediglich von den Elementen a; b ei-
eigentlich klarstellen sollte, bevor man mit dem „Rechnen“ ner Menge. Bei dieser Allgemeinheit können wir natürlich
beginnt. Ganz im Sinne des Bestrebens der Mathematik, nichts über das Ergebnis der Operation sagen. Wir wissen
das Gemeinsame bei verschiedenartigen Problemstellun- nur, dass es eindeutig ist und bezeichnen es mit dem Sym-
gen aufzudecken und damit zu abstrahieren, werden wir bol a b.
gewisse Grundeigenschaften von Rechenoperationen ken-
nenlernen. Dabei unterscheiden wir diese nicht nach den
Objekten, auf welche diese Operationen anzuwenden sind, Definition einer Verknüpfung
sondern einzig nach den Regeln, welche für diese Ope- Ist M eine nichtleere Menge, so heißt eine Abbildung
rationen gelten. Nur so ist der Blick auf das Wesentliche (
möglich. M M ! M;
W
Zudem werden wir einzelne, häufig auftretende Grund- .a; b/ 7! a b
typen algebraischer Strukturen kennenlernen, in welchen
gewisse Regeln gleichzeitig erfüllt sein müssen. Dazu ge- Verknüpfung auf M .
hören jedenfalls die Gruppen, Ringe und Körper, aber noch
viele andere, die in diesem Rahmen außer Acht bleiben.
Wir bauen im Folgenden auf einfachen Kenntnissen der Beispiel
Schulmathematik auf und nutzen die Grundbegriffe und lo- 4 Die Addition zweier ganzer Zahlen a; b zu a C b sowie
gischen Schlussweisen aus 7 Kap. 1. Bei den reellen und deren Multiplikation zu a b, aber auch die Subtraktion
komplexen Zahlen legen wir unser Hauptaugenmerk auf zu a b sind Verknüpfungen auf Z.
deren algebraische Eigenschaften. Wir werden aber nicht 4 Ebenso stellen die Addition zweier reeller Zahlentripel
nur mit Zahlen „rechnen“, sondern auch Mengen oder Ab- gemäß
bildungen miteinander „multiplizieren“. Diese Stufe der
Abstraktion stellt für Studienanfänger eine klare Hürde dar, .a1 ; a2 ; a3 / C .b1 ; b2 ; b3 / D .a1 C b1 ; a2 C b2 ; a3 C b3 /
ist aber unumgänglich für ein tieferes mathematisches Ver-
oder auch die Bildung des Vektorprodukts
ständnis.
.a1 ; a2 ; a3 / .b1 ; b2 ; b3 /
2.1 Gruppen D .a2 b3 a3 b2 ; a3 b1 a1 b3 ; a1 b2 a2 b1 /
Beweis Wir verknüpfen beide Seiten der Gleichung a b D Handelt es sich bei der Gruppenverknüpfung nicht aus-
a c von links mit dem Inversen a1 von a. Dann folgt mit drücklich um eine Addition, so spricht man gerne neutral
(2.1) a1 .a b/ D a1 .a c/ und weiter wegen der von der Gruppenmultiplikation und nennt das Ergebnis
Assoziativität e b D e c, also b D c. auch Produkt.
2.1 Gruppen
35 2
Die bijektiven Abbildungen einer Menge und die Spalte links vom Doppelstrich auch weggelassen
auf sich bilden eine Gruppe werden, nachdem die dort aufgelisteten Faktoren bei Multi-
plikation mit dem neutralen Element e erneut als Produkte
auftreten. Der verbleibende und hier gelb schattierte Teil
Eine neue Art von Verknüpfung tritt in dem folgenden der Tabelle rechts vom vertikalen und unter dem horizonta-
Beispiel auf, und diesmal handelt es sich um eine nicht len Doppelstrich heißt Gruppentafel von G.
kommutative Gruppe:
G sei die Menge der bijektiven Abbildungen einer Men- ı e f g h i j
ge M auf sich, also der Permutationen von M . Wie e e f g h i j
gewohnt, bezeichnet das Symbol ı die Hintereinanderaus-
f f e
führung. Damit ist ı eine Verknüpfung auf G, denn sind f
g g e h
und g zwei Bijektionen von M , so gilt
h h e
f g i i f j e
g ı f W x 7! f .x/ 7! g ı f .x/ D g .f .x// für x 2 M;
j j e i
und g ı f ist wieder bijektiv. Wir zeigen, dass .G; ı/ eine
Gruppe ist, die Permutationsgruppe von M . Absichtlich sind in dieser Gruppentafel noch einige Felder
4 Die Verknüpfung ı ist assoziativ, denn bei f; g; h 2 G frei gelassen worden, um Sie zu aktiver Mitarbeit anzure-
ist gen:
Jedes der 6 Elemente e; : : : ; j muss in jeder Spalte und
g ı f W x 7! g.f .x//; h ı .g ı f /W x 7! h.g.f .x///; in jeder Zeile der Gruppentafel genau einmal vorkommen,
h ı gW x 7! h.g.x//; .h ı g/ ı f W x 7! h.g.f .x///: denn aus den Kürzungsregeln (2.2) folgt
Dies gilt nicht nur für Bijektionen, sondern für alle hin- .a ı c D b ı c oder c ı a D c ı b/ H) a D b:
tereinander ausführbaren Abbildungen, wie bereits in
7 Kap. 1 festgestellt worden ist. Dass die Permuationsgruppe .G; ı/ von M nicht kommu-
4 Neutrales Element ist die identische Abbildung tativ ist, zeigt ein Vergleich der Produkte
idM W x 7! x für alle x 2 M .
4 Zu jeder Bijektion f von M existiert nach
g ı iW 1 7! 2; 2 7! 1; 3 7! 3; g ı i D h;
7 Abschn. 1.3 die Umkehrabbildung f 1 2 G mit also
1
f ı f D idM . i ı gW 1 !
7 1; 2 !
7 3; 3 !
7 2; i ı g D f:
Somit gilt:
Satz von der Permutationsgruppe
Die bijektiven Abbildungen einer nichtleeren Menge M g ı i ¤ i ı g:
auf sich bilden hinsichtlich der Hintereinanderausführung
ı eine Gruppe, die Permutationsgruppe von M . Die Bijektion i rückt jede Zahl zyklisch um 1 weiter; zy-
klisch heißt 1 7! 2 7! 3 7! 1. Damit wird klar, warum
i 1 D j ist, denn j macht dasselbe in der entgegengesetz-
ten Richtung.
Nun sei M D f1; 2; 3g: Dann umfasst die Permutations-
Die Gruppe der Permutationen einer Menge von n
gruppe G von M die folgenden Bijektionen:
Elementen heißt symmetrische Gruppe und wird üblicher-
eW 1 7! 1; 2 7! 2; 3 7! 3; weise mit Sn bezeichnet. Demnach behandeln wir in diesem
Beispiel die symmetrische Gruppe S3 .
fW 1 7! 1; 2 7! 3; 3 7! 2;
gW 1 7! 3; 2 7! 2; 3 7! 1; ?Selbstfrage 2.6
hW 1 7! 2; 2 7! 1; 3 7! 3; Ergänzen Sie in der obigen Gruppentafel die fehlenden
iW 1 7! 2; 2 7! 3; 3 7! 1; Elemente.
jW 1 7! 3; 2 7! 1; 3 7! 2:
Bei einer genaueren Analyse der obigen Gruppentafel kann
Offensichtlich ist e D idM . Jede der Bijektionen f; g; h bil- man feststellen, dass die Teilmenge fi; j; eg abgeschlossen
det genau ein Element von M auf sich ab, d. h. lässt dieses ist unter ı, denn die Produkte i ı i D j , i ı j D j ı i D e
fix. Es ist f .1/ D 1, g.2/ D 2 und h.3/ D 3. und j ı j D i wie auch alle jene mit e haben als Ergebnis
Wie die durch Hintereinanderausführung entstehenden wieder ein Element aus dieser Teilmenge. Diese Teilmenge
Produkte aussehen, zeigt in übersichtlicher Form die fol- von nur 3 Permutationen bildet für sich eine Gruppe. Dafür
gende Tabelle. Offensichtlich könnten die oberste Zeile gibt es ein Fachwort:
36 Kapitel 2 Algebraische Strukturen – ein Blick hinter die Rechenregeln
Untergruppen sind Teilmengen einer Nun wenden wir uns einigen Beispielen von Untergruppen
Gruppe, die selbst wieder Gruppen sind zu:
2 Beispiel
Ist .G; / eine Gruppe, und hat eine Teilmenge H von G 4 Jede Gruppe .G; / mit neutralem Element e enthält die
die Eigenschaft, hinsichtlich der von G stammenden Ver- Untergruppen feg und G. Man nennt diese Untergrup-
knüpfung eine Gruppe zu sein, so heißt H Untergruppe pen die trivialen Untergruppen von G. Wenn wir von
von G. einer echten Untergruppe H sprechen, so meinen wir
Wir verwenden für die Verknüpfung auf H einfach- damit, dass H keine triviale Untergruppe von G ist. Da-
heitshalber dasselbe Symbol wie in G, sprechen also von mit ist H sicherlich eine echte Teilmenge von G.
der Gruppe .H; /, obwohl mit der „von G stammenden 4 Offensichtlich ist in der Folge der Gruppen .Z; C/,
Verknüpfung“ eigentlich die Abbildung 0 W H H ! H .Q; C/, .R; C/ und .C; C/ jede eine echte Untergruppe
mit .x; y/ 7! x 0 y D x y gemeint ist. der folgenden. Dasselbe trifft auf die Folge .Q n f0g; /,
Hat man festzustellen, ob eine gegebene Teilmenge H .R n f0g; / und .C n f0g; / zu. Da das Produkt zweier
eine Untergruppe der Gruppe .G; / ist, so müssen nicht positiver Zahlen und auch der Kehrwert einer positiven
alle Gruppenaxiome überprüft werden. Das folgende Krite- Zahl stets wieder positiv sind, ist .R>0 ; / eine echte Un-
rium zeigt, dass es ausreicht, in H die Abgeschlossenheit tergruppe von .R n f0g; /.
gegenüber und die Existenz der inversen Elemente nach- 4 Es sei .G; ı/ die Gruppe der Permutationen einer Men-
zuweisen. ge M und N M eine Teilmenge von M . Mit H
bezeichnen wir die Menge derjenigen Bijektionen f 2
G, welche die Teilmenge N von M auf sich abbilden,
Untergruppenkriterium für die also f .N / D N gilt. Dann ist H eine Unter-
Sind .G; / eine Gruppe und H eine Teilmenge von G, so gruppe von G.
ist H dann und nur dann eine Untergruppe von G, wenn Beweis mithilfe des Untergruppenkriteriums:
gilt: Zu (U1): H ist nichtleer, weil die identische Abbildung
(U1) H ist nicht die leere Menge. idM jedenfalls N fix lässt, also zu H gehört.
(U2) Für alle x 2 H ist zugleich x 1 2 H . Zu (U2): Bildet die Bijektion f 2 G die Teilmenge
(U3) Aus x; y 2 H folgt stets .x y/ 2 H . N auf sich ab, ist also auch ihre Einschränkung auf N
bijektiv, so trifft dasselbe auf die Umkehrabbildung f 1
zu. Also liegt auch f 1 in H .
Beweis Die Formulierung „dann und nur dann“ erfordert, Zu (U3): Wenn schließlich neben f auch g die Teilmen-
dass wir zweierlei zeigen müssen: ge N auf sich abbildet, so tut dies auch g ı f .
(i) Ist H eine Untergruppe, so gelten die im Untergruppen- So können wir z. B. in dem oben bereits diskutierten
kriterium geforderten Aussagen (U1), (U2) und (U3). Sonderfall M D f1; 2; 3g anhand der dargestellten
(ii) Treffen umgekehrt diese drei Aussagen zu, so ist H eine Gruppentafel sofort erkennen, dass fe; f g eine Unter-
Untergruppe von G, also .H; / eine Gruppe. gruppe von .G; ı/ ist, denn e und f sind die einzigen
Permutationen von M , die das Element 1 fix lassen.
Zu (i): Nach (G2) muss H ein neutrales Element enthalten; Ebenso sind fe; gg und fe; hg Untergruppen. 9
also ist H nichtleer und damit (U1) bestätigt.
Als Gruppe enthält H gemäß (G3) mit jedem Element Weitere Beispiele von Untergruppen folgen in der Box zur
a auch das Inverse a1 . Somit ist auch (U2) erfüllt. Symmetriegruppe eines Ornaments. Dort geht es um bijek-
Nachdem .H; / eine Gruppe ist, muss nach der Defi- tive Selbstabbildungen unendlicher Punktmengen.
nition einer Verknüpfung mit x; y 2 H auch stets x y in Wir zeigen im Folgenden, dass jede Untergruppe H von
H liegen. Also gilt (U3).
.G; / Anlass für eine Äquivalenzrelation H auf der Men-
Zu (ii): Wegen (U3) ist H bezüglich der von G stam-
ge G ist. Wir definieren
menden Verknüpfung abgeschlossen. Also liegt eine
Verknüpfung auf H vor.
g2 H g1 ” g11 g2 2 H:
Die Verknüpfung auf H ist assoziativ, denn dies ist in
ganz G garantiert.
Wegen der Forderung H ¤ ; in (U1) gibt es mindes- Offensichtlich 1 ist g2 genau dann hinsichtlich H äquivalent
tens ein Element a 2 H . Nach (U2) liegt das Inverse a 1 zu g1 , wenn g1 g2 D h, also g2 D g1 h ist mit einem
1
in H und wegen (U3) auch das Produkt a a D e. Also h 2 H . Die Menge der zu g1 äquivalenten Elemente lautet
gibt es in H ein neutrales Element. also
Das letzte Gruppenaxiom (G3) ist schließlich mit der
Forderung (U2) identisch. g1 H D f.g1 h/ j h 2 H g:
2.1 Gruppen
37 2
Dass die Relation H auf G tatsächlich reflexiv, symme- Wir wollen zunächst nur die Zahl 3 2 R herausgreifen
trisch und transitiv ist, ergibt sich nun einfach aus den und auf diese wiederholt und in beliebiger Reihenfolge die
Untergruppeneigenschaften von H . Damit sind die Men- beiden Operationen r und s anwenden. Es wird sich heraus-
gen g H für g 2 G Äquivalenzklassen. Wir nennen sie stellen, dass lediglich 6 verschiedene Werte als Ergebnisse
Linksnebenklassen von H . Auch H D e H gehört dazu. auftreten:
Alle Linksnebenklassen sind gleichmächtig, denn die Durch Anwendung von r entsteht aus 3 der Kehrwert
Abbildung r.3/ D 13 ; durch s geht 3 in s.3/ D 1 3 D 2 über. Wenn
wir auf die neuen Werte wiederum r oder s anwenden, so
H ! g H mit h 7! g h entstehen 1 13 D 23 und 12 , oder wir kehren zum Aus-
gangswert 3 zurück. Ferner ist r. 32 / D 32 , und ebenso ist
ist eine Bijektion. Nachdem die Linksnebenklassen als
s. 12 / D 32 . Weder r, noch s führen 32 in Werte über, die
Äquivalenzklassen zu einer Partition von G führen (sie-
bisher noch nicht aufgetreten sind. Also bleibt es bei der
he 7 Kap. 1), also jedes Element von G in genau einer
Menge der Bilder:
Linksnebenklasse vorkommt, erhalten wir im Falle endli-
cher Gruppen die Anzahl jGj der Elemente von G, wenn
1 2 1 3
wir jH j mit der Anzahl der Linksnebenklassen von H in 3; ; 2; ; ; :
3 3 2 2
G multiplizieren. Damit haben wir das folgende Resultat
hergeleitet. Wir werden erkennen, dass es auch für andere x 2 R nie
mehr als sechs verschiedene Bilder gibt. Hinter diesem Phä-
nomen steckt nämlich eine nur sechs Elemente umfassende
Satz von Lagrange: Untergruppe H , welche trotzdem alle möglichen Produkte
Ist H Untergruppe der endlichen Gruppe G, so ist die An- der Bijektionen r und s enthält.
zahl jH j der Elemente von H ein Teiler von jGj. Nach (U3) enthält H neben r und s auch
r 1 r 1
r ı rW x 7! 7! 1 D x;
Wenn wir unsere Relation abwandeln zu x x
Beispiel Ausgangspunkt ist die Gruppe .G; ı/ mit G als Nun fehlen noch r ı s ı r und s ı r ı s. Die beiden sind
Menge der Bijektionen von R n f0; 1g auf sich. Allerdings gleich, denn
beschränken wir uns auf diejenigen Bijektionen, welche aus
den folgenden zwei Abbildungen zusammensetzbar sind: sır x 1 r x
r ı .s ı r/W x 7! 7! ;
x x1
1 rıs 1 s 1 x
rW x 7! und sW x 7! 1 xI s ı .r ı s/W x 7! 7! 1 D :
x 1x 1x x1
r bedeutet den Übergang zum Reziprokwert; hier muss Auch r ı s ı r D s ı r ı s ist involutorisch, denn nach
x D 0 ausgeschlossen werden. s kann als Spiegelung an zweimaliger Anwendung von (2.3) folgt:
x D 12 bezeichnet werden; hier muss x D 1 ausgeschlos-
sen werden, weil dessen Bild x D 0 fehlt. .r ı s ı r/1 D r 1 ı s 1 ı r 1 D r ı s ı r:
38 Kapitel 2 Algebraische Strukturen – ein Blick hinter die Rechenregeln
Welche Bewegungen bringen das unten links ausschnittsweise Betrachten wir nun einen größeren Ausschnitt F1 des Or-
gezeigte Ornament F mit sich zur Deckung? naments; nehmen wir zur quadratischen Figur F0 auch noch
2 Wir verzichten hier auf die genaue Definition des Begriffs die davon ausgehenden Linien dazu (siehe Abbildung rechts
Bewegung; diese folgt in 7 Kap. 5. Uns genügt die folgende unten). Für F1 sind die Spiegelungen keine Symmetrieopera-
anschauliche Vorstellung: Wir kopieren das Ornament F auf tionen mehr. Die Symmetriegruppe umfasst in diesem Fall nur
eine Folie und versuchen, diese auf verschiedene Arten derart mehr Drehungen. Wir sagen, die Quadratmitte ist ein vierzäh-
über das Original zu legen, dass die Kopie des Ornaments ge- liges Drehzentrum.
nau das darunterliegende Ornament F überdeckt. Ausgehend
von der randgetreuen Lage kann beispielsweise durch eine ge-
eignete Verschiebung der Kopie nach rechts eine neuerliche
Überdeckung der Ornamente erreicht werden. Übrigens darf
die Folie auch umgedreht werden.
Beginnen wir mit der rechts oben gezeigten quadratischen Es gibt übrigens 17 verschiedene ebene Symmetriegruppen,
Teilfigur F0 von F . Man kann die Figur F0 durch Drehun- welche Translationen in verschiedenen Richtungen enthal-
gen um das Zentrum durch 90ı , 180ı oder 270ı mit ihrer ten. Man nennt diese Gruppen auch ebene kristallografische
Ausgangslage zur Deckung bringen. Dasselbe trifft auf die Gruppen. Die dem obigen Beispiel zugrunde liegende Sym-
Spiegelungen an den unter 0ı , 45ı , 90ı oder 135ı geneig- metriegruppe wird üblicherweise mit p4 bezeichnet.
ten Quadratdurchmessern zu. So entsteht zusammen mit der
identischen Abbildung eine insgesamt 8 Elemente umfassende 4 E. Quaisser: Diskrete Geometrie. Spektrum Akademischer
Gruppe, die Symmetriegruppe dieser quadratischen Teilfigur. Verlag, Heidelberg 1994
2.2 Homomorphismen
39 2
Verknüpft man r ı s ı r D s ı r ı s rechts mit r oder s, so Hier sind die Elemente f und g involutorisch, denn f ı
ist die neue Abbildung gleich r ı s oder s ı r. f D g ı g D e. Aber auch h hat diese Eigenschaft.
Ebenso ist ein Produkt von mehr als vier r- und Die folgende Bijektion W H ! S3 bildet die Elemente
s-Abbildungen auf eines von höchstens 3 Abbildungen re- von H auf jene von S3 ab:
duzierbar: Wann immer nämlich in diesem Produkt zwei
gleiche Abbildungen aufeinanderfolgen, kann man diese W e 7! e; r 7! f; s 7! g;
weglassen. Hierauf kann man die Tripel r ı s ı r und r ı s 7! i; s ı r 7! j; r ı s ı r 7! h:
s ır ıs wegen deren Gleichheit gegeneinander austauschen,
Dabei hat eine besondere Eigenschaft, die sich erst bei
wodurch an den Anschlussstellen wiederum zwei gleiche
genauem Hinsehen offenbart. Es ist z. B.
aufeinanderfolgen können, die dann wegzulassen sind. Dies
geht so lange, bis nur mehr ein Produkt von höchstens drei .r ı s/ D i D f ı g D .r/ ı .s/;
Abbildungen vorliegt.
.s ı r/ D j D g ı f D .s/ ı .r/
Dies beweist: Führt man endlich oft die Bijektionen r
oder s hintereinander aus, so entstehen keine neuen Abbil- und
dungen gegenüber den bisherigen sechs. Die Menge
.r ı s ı r/ D h D f ı g ı f D .r/ ı .s/ ı .r/:
H D fe; r; s; r ı s; s ı r; r ı s ı rg
Tatsächlich bekommt man in allen Fällen das -Bild eines
in H gelegenen Produkts von r- und s-Abbildungen, indem
ist abgeschlossen unter ı, und zudem ist zu jeder Abbildung
man zunächst jeden einzelnen Faktor mittels abbildet und
auch die Inverse enthalten. Nach dem Untergruppenkriteri-
dann die Multiplikation nach der obigen Gruppentafel vor-
um ist H eine Untergruppe von G. Weil jedes Element aus
nimmt.
H ein Produkt von endlich vielen r- und s-Abbildungen
In diesem Abschnitt widmen wir uns generell derartigen
ist, sagen wir, diese Untergruppe wird von r und s erzeugt,
verknüpfungstreuen Abbildungen, denn sie ermöglichen es,
oder r und s bilden ein Erzeugendensystem von H .
bei verschiedenen Gruppen gemeinsame Strukturen zu er-
Wir werden im nächsten Abschnitt erkennen, dass sich
kennen. Dabei beschränken wir uns aber nicht nur auf
diese Gruppe .H; ı/ trotz ihrer etwas mühsamen Herleitung
bijektive Abbildungen.
eigentlich nicht von der gleichfalls 6 Elemente umfassen-
den symmetrischen Gruppe S3 aus dem obigen Beispiel
unterscheidet. 9
Bei einem Homomorphismus ist das Bild
eines Produkts stets gleich dem Produkt
2.2 Homomorphismen der Bilder
ı e f g h i j
Ist ein Homomorphismus, so kommt es nicht darauf an,
eı e f g h i j
ob zwei Elemente a; b 2 G zuerst verknüpft werden und
f ı f e i j g h dann deren Produkt durch abgebildet wird, oder ob die
gı g j e i h f Elemente zuerst einzeln durch abgebildet und dann deren
hı h i j e f g Bilder in G 0 verknüpft werden. Die Abbildung ist mit den
iı i h f g j e Verknüpfungen vertauschbar oder kurz:
j j g h f e i
Das Bild des Produkts ist gleich
. Abb. 2.1 Gruppentafel der symmetrischen Gruppe S3 D fe; : : : ; j g dem Produkt der Bilder.
40 Kapitel 2 Algebraische Strukturen – ein Blick hinter die Rechenregeln
Die unterschiedlichen Verknüpfungssymbole und 0 sol- Beweis (i) Für alle a 2 G gilt a D a e, daher auch
len verdeutlichen, dass die Verknüpfungen in G und G 0 .a/ D .a/ 0 .e/ und somit .e/ D e 0 .
ganz unterschiedlich sein können. (ii) Aus a a1 D e folgt
2 Es folgen einige Beispiele:
.a a1 / D .a/ 0 .a1 / D .e/ D e 0
Beispiel
4 Hinter den Vorzeichenregeln für die Produkte positiver und somit .a1 / D Œ .a/1 .
oder negativer reeller Zahlen verbirgt sich ein Homo- (iii) Wir verwenden das Untergruppenkriterium: Es ist
morphismus: Die Abbildung .G/ ¤ ;, da e 0 unter den Bildelementen vorkommen
muss. Die Abgeschlossenheit der Bildmenge gegenüber
1 für x > 0; der Multiplikation 0 ist gegeben, denn aus .a/; .b/ 2
W R n f0g ! f1; 1g; x 7! .x/ D
1 für x < 0 .G/ folgt
ist ein surjektiver Homomorphismus von .Rnf0g; / auf .a/ 0
.b/ D .a b/ 2 .G/:
.f1; 1g; /, denn stets ist
Schließlich ist für jedes .a/ 2 .G/ das inverse Ele-
.x y/ D .x/ .y/ :
ment wegen (ii) gleich .a1 / und daher gleichfalls ein
4 Die Abbildung Bildelement.
Eine Permutation 2 Sn der Zahlen 1; : : : ; n ändert deren ner überein. Allerdings führt jeder Fehlstand wegen .i/ >
Reihenfolge ab auf die Folge ..1/; .2/; : : : ; .n//. .j / zu einer negativen Differenz. Also liefert die Produkt-
Wir sprechen von einem Fehlstand von , wann immer in formel . / tatsächlich den geforderten Wert .1/f .
der Folge der Bildelemente eine größere Zahl vor einer klei-
neren steht, wenn also .i/ > .j / ist bei i < j . Beweis des obigen Satzes Aus der eben bewiesenen Formel
So weist z. B. die Permutation 2 S5 mit .1; 2; 3; 4; 5/ 7! folgt für das Produkt sgn.2 ı 1 / zweier Permutationen:
.3; 2; 4; 5; 1/ fünf Fehlstände auf, nämlich .3; 2/, .3; 1/, .2; 1/,
.4; 1/ und .5; 1/, denn rechts steht 3 vor 2 und 1, 2 vor 1, und Y 2 ı 1 .j / 2 ı 1 .i/
sgn.2 ı 1 / D :
ebenso befinden sich 4 und 5 vor 1. i<j
j i
Weist die Permutation 2 Sn genau f Fehlstände auf, so
heißt sgn D .1/f Signum der Permutation . Die Permu- Wir erweitern nun Zähler und Nenner mit dem Produkt
Q
tation heißt gerade, wenn sgn D 1 ist, sonst ungerade. i<j .1 .j / 1 .i// und gruppieren um, indem der Zähler
Wir wollen den folgenden Satz beweisen, der später auch des linken Produkts mit dem Nenner des rechten kombiniert
noch bei den Determinanten im 7 Kap. 7 eine Rolle spielen wird und umgekehrt. Dies ergibt:
wird.
Y 2 ı 1 .j / 2 ı 1 .i/ Y 1 .j / 1 .i/
sgn.2 ı 1 / D
Satz vom Signum einer Permutation Die Abbildung i<j
1 .j / 1 .i/ i<j
j i
sgnW Sn ! f1; 1g mit 7! sgn D .1/f ist ein Homo-
morphismus .Sn ; ı/ ! .f1; 1g; /, denn es gilt Das Produkt in der zweiten Zeile ist offensichtlich gleich
sgn 1 .
sgn.2 ı 1 / D sgn 2 sgn 1 : Wir zeigen, dass jenes in der ersten Zeile mit sgn 2 über-
einstimmt. Dazu ändern wir die Bezeichnung; wir setzen darin
Problemanalyse und Strategie i 0 D 1 .i/ und j 0 WD 1 .j /. Es entsteht:
Im Beweis verwenden wir für das Signum der Permutation
die Formel Y 2 .j 0 / 2 .i 0 /
:
Y .j / .i/ i<j
j 0 i0
sgn D : ( )
i<j
j i
Dies stimmt aus folgenden Gründen mit sgn 2 überein:
Q Wenn .i; j / alle möglichen Paare verschiedener Zahlen
Dabei ist das Symbol für ein Produkt. Im konkreten Fall
aus f1; : : : ; ng durchläuft, so tut dies auch .i 0 ; j 0 /, denn 1 ist
wird über alle möglichen Paare .i; j / aus f1; : : : ; ng mit i < j
eine Bijektion. Wegen
multipliziert. Diese Formel ergibt etwa für das obige Beispiel,
nämlich für 2 S5 , den Ausdruck .j / .i/ .i/ .j /
D
2343425352 j i i j
sgn D
2131324142
5413121415 ist es in der obigen Formel für sgn gleichgültig, ob das ein-
D 1: zelne Paar .i; j / im Zähler und Nenner in der Reihenfolge
4351525354
.i; j / oder .j; i/ verwendet wird. Damit bleibt, wie behaup-
Lösung tet,
Zur Begründung dieser Produktformel beachten wir, dass in
den Faktoren des Nenners alle ungeordneten Paare .i; j / ver- sgn.2 ı 1 / D sgn 2 sgn 1 ;
schiedener Elemente vorkommen, die aus f1; : : : ; ng ausge-
wählt werden können. Dabei steht immer das größere Element und sgn ist als surjektiver Homomorphismus bestätigt.
vor dem kleineren, weshalb das Produkt über alle Differenzen
im Nenner positiv ist. ?Selbstfrage 2.8
Im Zähler treten ebenfalls alle möglichen Paare auf, denn Warum ist das Produkt zweier ungerader Permutatio-
Permutationen sind bijektiv. Daher stimmt der Absolutbetrag nen aus Sn eine gerade Permutation? Warum hat 1
des im Zähler auftretenden Produkts mit jenem aus dem Nen- dasselbe Signum wie ?
42 Kapitel 2 Algebraische Strukturen – ein Blick hinter die Rechenregeln
Wir beweisen als Nächstes, dass ein Homomorphis- Im Kern sind viele Informationen
mus ist: Die dem Produkt gi gj zugeordnete Permutation über den Homomorphismus enthalten
lautet:
2 Mit jedem Homomorphismus W G ! G 0 ist auch eine
.gi gj /W gk 7! .gi gj / gk D gi .gj gk /
Untergruppe von G verbunden.
Alle Nebenklassen des Kerns ker sind gleich groß, ge- Auch Nebenklassen können miteinander
nauer formuliert, sie sind mit dem Kern gleichmächtig. Es verknüpft werden
gibt nämlich die bijektive Abbildung
2
Bei der Definition einer Verknüpfung ˇ auf der Menge
ker !a ker ;
fW
x 7! a x: G= ker der Nebenklassen von ker – sie stehen in der
linken Spalte der obigen Tabelle – halten wir uns an das
Produkt der jeweils in der rechten Spalte stehenden Ele-
? Selbstfrage 2.11
mente, indem wir fordern:
Warum ist diese Abbildung f bijektiv?
.a ker / ˇ .b ker / D .a b/ ker :
Der Kern eines Homomorphismus spielt nicht nur eine
Die Produkt-Nebenklasse steht in derjenigen Zeile der Ta-
Rolle bei der Beschreibung aller Fasern, sondern an ihm ist
belle, in welcher rechts das Produkt der Bilder steht.
auch die Injektivität von erkennbar.
G= ker .G/
Kennzeichnung eines injektiven a ker .a/
Homomorphismus ˇ b ker .b/
Der Homomorphismus W G ! G 0 ist genau dann injek- ! .a b/ ker .a/ 0 .b/
tiv, wenn ker D feg ist mit e als neutralem Element
von G.
Wir können die Verknüpfung ˇ aber auch wie folgt be-
schreiben: Um das Produkt zweier Nebenklassen zu be-
Beweis Ist injektiv, so wird nach (i) lediglich das neu- kommen, wählen wir aus beiden Klassen je ein Element
trale Element e 2 G auf das neutrale Element e 0 von G 0 aus, also einen Repräsentanten a bzw. b. Anschließend ver-
abgebildet. Ist umgekehrt ker D feg, so umfassen alle knüpfen wir die beiden und erklären diejenige Nebenklasse
Nebenklassen jeweils nur ein Element. Dies bedeutet, zu zur Produkt-Nebenklasse, in welcher a b liegt.
jedem Bildelement in .G/ gibt es nur ein Urbild in G; Ist der Homomorphismus nicht injektiv, so ist der Re-
also ist injektiv. präsentant einer Nebenklasse nicht eindeutig. Wir müssen
daher noch zeigen, dass ˇ tatsächlich eine Verknüpfung
Ein Beispiel für einen injektiven Homomorphismus ist auf G= ker ist. Dies erfordert den Nachweis, dass die
W .Z; C/ ! .Q >0 ; / mit x 7! 2x . Wir haben oben be- Produkt-Nebenklasse unabhängig ist von der Wahl der Re-
reits festgestellt, dass hier der Kern nur ein Element enthält, präsentanten. Also ersetzen wir a durch a0 2 .a ker / und
nämlich ker D f0g. b durch b 0 2 .b ker /, d. h. a0 D a u und b 0 D b v
Als Fasern des Homomorphismus sind die Neben- mit u; v 2 ker , und wir prüfen nach, in welcher Klasse
klassen von ker gleichzeitig Äquivalenzklassen. Daher jetzt das Produkt liegt:
ermöglichen sie eine Partition von G. Jedes Element von a0 b 0 D .a u/ .b v/ D a .u b/ v:
G gehört genau einer Nebenklasse an. Die folgende Tabel-
le zeigt in der linken Spalte die Menge der Nebenklassen, Nun wissen wir wegen der Normalteiler-Eigenschaft des
die mit G= ker bezeichnet wird, und rechts die jeweiligen Kerns, dass zu u 2 ker ein u 2 ker existiert mit
Bildelemente. u b D b u. Daher folgt:
a0 b 0 D a .b u/ v D .a b/ .u v/;
G= ker .G/
ker e0 und dieses liegt in .a b/ ker , denn mit u; v 2 ker
gehört wegen der Untergruppeneigenschaft auch u v dem
a ker D ker a .a/
Kern an.
b ker D ker b .b/ Diese kurze Rechnung hat bestätigt: Die Produkt-
:: ::
: : Nebenklasse ist tatsächlich unabhängig von der Auswahl
der Repräsentanten.
Wir können uns die Nebenklassen als „Ablagefächer“ vor-
stellen, in die wir alle Elemente von G nach deren jeweili-
gem Bild einsortiert haben. So ist es weniger überraschend, Die Faktorgruppe G= ker
wenn wir demnächst auf der Menge der Nebenklassen eine Ist W G ! G 0 ein Homomorphismus, so ist
Verknüpfung definieren. Wir rechnen dann statt mit Zahlen .G= ker ; ˇ/ eine Gruppe. Man nennt .G= ker ; ˇ/ die
oder Abbildungen eben mit den Fächern, indem wir je zwei Faktorgruppe von G nach dem Kern von .
Fächern ein „Produktfach“ zuordnen.
2.2 Homomorphismen
45 2
Beweis Das oben definierte Produkt ˇ ist bereits als (b) Ist nicht surjektiv, so ist .G/ eine echte
Verknüpfung auf G= ker nachgewiesen worden. Die As- Untergruppe von G 0 . Statt zu sagen, die Faktorgruppe
soziativität ist gesichert, denn .G= ker ; ˇ/ ist isomorph zu . .G/; 0 /, hätten wir auch
sagen können, die Abbildung G= ker ! G 0 mit a
.a ker ˇ b ker / ˇ c ker
ker 7! .a/ ist ein injektiver Homomorphismus.
D .a b c/ ker
D a ker ˇ .b ker ˇ c Beweis des Homomorphiesatzes: Die Abbildung ' ist in-
ker /:
jektiv, weil der Kern von ', also die Urbildmenge von
Die Nebenklasse ker D e ker ist neutrales Element e 0 2 G 0 , lediglich die Nebenklasse e ker D ker um-
für diese Multiplikation, denn fasst.
.e ker / ˇ .a ker / D a ker : Die Verknüpfungstreue von ' folgt direkt aus der Defi-
nition von ˇ, denn
Schließlich ist .a1 ker / invers zu .a ker /, denn
1 'W .a ker / ˇ .b ker / 7! .a/ 0 .b/;
a ker ˇ .a ker / D .a1 a/ ker
D ker : wobei
Die obige Tabelle mit dem Verknüpfungszeichen ˇ auf der
.a/ D '.a ker / und .b/ D '.b ker /:
linken und auf der rechten Seite deutet bereits an, dass
die Faktorgruppe aus der linken Spalte isomorph ist zu jener
der Bildelemente in der rechten Spalte. Dies ist die Aussage
Das Rechnen mit Restklassen erweist sich
des folgenden Satzes.
als ein Beispiel zum Homomorphiesatz
.b/
G 0 D 5 Z; 1 D 1 C 5 Z; : : : ; 4 D 4 C 5 Z:
Die Summen-Restklasse hängt also nur von den Resten r; s .Z5 n f0g; ˇ/ ist eine Gruppe, denn in jeder Zeile und
der zwei gegebenen Restklassen ab. Dies ergibt die folgen- jeder Spalte der Produkt-Gruppentafel kommt das neutrale
de Verknüpfungstafel: Element 1 genau einmal vor.
2 ˚ 0 1 2 3 4
Die Abbildung der ganzen Zahlen auf die jeweilige
Restklasse, genauer
0 0 1 2 3 4
W Z n 0 ! Z5 n f0g; z D r C 5k 7! r; 1 r < 5;
1 1 2 3 4 0
2 2 3 4 0 1 ist ebenfalls ein surjektiver Homomorphismus
3 3 4 0 1 2 W .Z n 0; / ! .Z5 n f0g; ˇ/;
4 4 0 1 2 3
und .Z5 n f0g; ˇ/ ist genau die Faktorgruppe dieses Homo-
So ist etwa 2 ˚ 4 D 1, was zumeist in der Form morphismus.
2C4 1 .mod 5/ ?Selbstfrage 2.12
1 1
geschrieben wird mit dem gewöhnlichen Additionszeichen. Wie lauten 2 und 3 in der multiplikativen Gruppe der
Diese Addition von Restklassen ist kommutativ und as- Restklassen modulo 5?
soziativ, weil dies auch auf die Addition ganzer Zahlen
zutrifft. .Z5 ; ˚/ ist eine Gruppe, denn 0 ist das neutrale 2.3 Körper
Element, und in jeder Spalte der obigen Verknüpfungsta-
fel kommt jede der 5 Restklassen genau einmal vor. Also
gibt es zu jedem rechten Summanden genau einen linken Die rationalen Zahlen bilden hinsichtlich der Addition eine
Summanden derart, dass deren Summe 0 ist. Gruppe, und sie enthalten auch eine multiplikative Gruppe.
Wenn wir jeder ganzen Zahl z ihre Restklasse zuordnen Ebenso stehen bei den reellen und bei den komplexen Zah-
durch die Abbildung len zwei Verknüpfungen zur Verfügung, die Addition und
die Multiplikation, und diese führen jeweils zu Gruppen.
CW Z ! Z5 ; z D r C 5k 7! r bei 0 r < 5; Dies ist der Anlass, eine neue wichtige algebraische Struk-
so entsteht ein surjektiver Homomorphismus tur einzuführen, welche Mengen mit zwei Verknüpfungen
betrifft.
CW .Z; C/ ! .Z5 ; ˚/:
Die Restklassen sind gleichzeitig die Fasern von C , also In Körpern gibt es zwei Verknüpfungen
die Nebenklassen des Kerns ker C D 0. Wir könnten da-
her statt Z5 auch Z= ker C D Z= 0 schreiben oder noch
und es gelten drei Axiome
komplizierter Z=.5 Z/. Die in der obigen Tafel dargestell-
te Gruppe .Z5 ; ˚/ ist genau die Faktorgruppe .Z= 0; ˚/.
Der im Homomorphiesatz auftretende Isomorphismus ' ist
Definition eines Körpers
die identische Abbildung.
Eine Menge K mit den zwei Verknüpfungen,
In ähnlicher Weise können wir auch eine Multiplikation
4 der Addition
ˇ von Restklassen erklären: Wir ordnen zwei Restklassen
diejenige Klasse als Produkt zu, in welcher das Produkt der
C W K K ! K; .x; y/ 7! x C y
Repräsentanten liegt. Wieder zeigt sich die Unabhängigkeit
von der Wahl der Repräsentanten, denn
4 und der Multiplikation
.r C 5k/ .s C 5l/ D r s C 5.5kl C rl C ks/:
W K K ! K; .x; y/ 7! x y;
Auch hier hängt die Produkt-Restklasse nur von den Resten
r; s der zwei gegebenen Restklassen ab. Dies ergibt nach
heißt Körper .K; C; /, wenn die folgenden Eigenschaf-
Ausschluss von 0 die folgende Produkttafel:
ten erfüllt sind:
ˇ 1 2 3 4 (K1) .K; C/ ist eine Gruppe. Das neutrale Element 0 heißt
Nullelement; das zu a 2 K inverse Element wird
1 1 2 3 4
mit a bezeichnet.
2 2 4 1 3 (K2) Die Teilmenge K0 D K n f0g ist bezüglich der Ein-
3 3 1 4 2 schränkung 0 von auf K0 K0 eine kommutative
Gruppe mit dem Einselement 1 als neutralem Ele-
4 4 3 2 1
ment.
So ist z. B. 3 ˇ 4 D 2, also 3 4 2 .mod 5/.
2.3 Körper
47 2
(i) Wegen 1 2 K0 D K n f0g gilt 1 ¤ 0.
(K3) Es gelten die beiden Distributivgesetze:
Ein Körper K enthält also mindestens zwei Elemente. Wir
a .b C c/ D .a b/ C .a c/ und werden tatsächlich einen Körper mit nur zwei Elementen
.a C b/ c D .a c/ C .b c/ kennenlernen.
In Körpern gilt ferner:
für alle a; b; c 2 K.
.K3/ (2.2)
a 0 D a .0 C 0/ D a 0 C a 0 H) 0 D a 0
Wird statt (K2) gefordert, dass .K0 ; 0 / eine nicht kommu- Auf ähnliche Weise folgt mithilfe der Kürzungsregel (2.2)
tative Gruppe ist, so heißt K Schiefkörper. und des zweiten Distributivgesetzes, dass auch 0 a D 0 ist,
Die Regel „Punktrechnung geht vor Strichrechnung“ also insgesamt:
macht die Klammern auf der rechten Seite der Distributiv- (ii) Für alle a 2 K ist a 0 D 0 a D 0.
gesetze entbehrlich. Häufig wird in Körpern der Punkt als
Multiplikationszeichen überhaupt weggelassen. Für das Rechnen mit 0 gelten also in beliebigen Körpern K
dieselben Regeln wie in Q oder R.
Beispiel Obwohl in (K2) das Assoziativgesetz für die Multi-
1. Offensichtlich sind .Q; C; / und .R; C; / Körper. Da- plikation nur in K n f0g gefordert ist, gilt es auch unter
gegen ist .Z; C; / kein Körper, denn in Z gibt es z. B. Einschluss des Nullelements, denn es ist z.B. .a b/ 0 D
kein Element 21 mit 2 21 D 1. a .b 0/ D 0.
2. In 7 Abschn. 2.2 haben wir uns bereits mit den Rest-
klassen modulo 5 befasst, also mit ?Selbstfrage 2.13
Warum muss das Nullelement bei der multiplikativen
Z5 D f0; 1; 2; 3; 4g; wobei
Gruppe von K ausgeschlossen werden?
0 WD f: : : ; 10; 5; 0; 5; 10; : : : g D 5 Z;
1 WD f: : : ; 9; 4; 1; 6; 11; : : : g D 5 Z C 1; Aus (ii) kann man folgern, dass die von Q und R her ver-
trauten Vorzeichenregeln in allen Körpern K gelten. So ist
2 WD f: : : ; 8; 3; 2; 7; 12; : : : g D 5 Z C 2 usw.
z. B.
Auch haben wir bereits eine Addition ˚ und eine
Multiplikation ˇ von Restklassen eingeführt mit der Ei- 0 D 0 b D .a C .a// b D a b C .a/ b
genschaft, dass die Abbildung H) .a b/ D .a/ b:
z D r C 5k 7! r bei 0 r < 5 Dabei ist .a b/ bezüglich der Addition invers zu .a b/.
Analog gilt .a b/ D a .b/ sowie .a/ .b/ D a b.
zu Homomorphismen bezüglich der Addition und der Statt a C .b/ schreiben wir ab jetzt kürzer a b.
Multiplikation führt. Nun berechnen wir .1 C 1/ .a C b/ auf zwei Arten:
Wir erkennen, dass .Z5 ; ˚; ˇ/ ein Körper ist, denn
.Z5 ; ˚/ ist eine Gruppe und es gelten (K2) und (K3)
.1 C 1/ .a C b/
mit 0 als Nullelement und 1 als Einselement. .Z5 ; ˚; ˇ/
heißt Restklassenkörper modulo 5 . 1 .a C b/ C 1 .a C b/ D a C b C a C b
D
Wir werden demnächst erfahren, dass es nicht nur zu .1 C 1/ a C .1 C 1/ b D a C a C b C b
5, sondern zu jeder Primzahl p einen Restklassenkörper
Zp gibt. Hingegen liefert z. B. Z4 D f0; 1; 2; 3g kei- Mithilfe der Kürzungsregel (2.2) bezüglich der Addition er-
1
nen Körper. In Z4 fehlt nämlich ein 2 , denn für jedes gibt sich daraus die folgende Aussage.
ganzzahlige k ist das Produkt 2 k geradzahlig; es kann (iii) Für alle a; b 2 K gilt b C a D a C b, d. h. die Addition
demnach niemals bei ganzzahliger Division durch 4 den in Körpern ist stets kommutativ.
Rest 1 haben. 9
Angenommen, es gelten gleichzeitig a b D 0 und a ¤ 0.
Wir wollen uns nun schrittweise einige Aussagen über Dann existiert a1 , und es ist
Körper erarbeiten, die ähnlich wie bei den Gruppen zum
Teil bereits in die Definition übernommen hätten werden b D .a1 a/ b D a1 .a b/ D a1 0 D 0:
können – wie etwa die anschließend in (iii) bewiesene
Kommutativität der Addition. Aber wir bleiben dabei, in Das bedeutet:
die Definitionen nur das unbedingt Notwendige aufzuneh- (iv) In einem Körper folgt aus a b D 0 stets a D 0 oder
men. b D 0.
48 Kapitel 2 Algebraische Strukturen – ein Blick hinter die Rechenregeln
Man kann auch sagen: In Körpern gibt es keine Nullteiler, sein, weil r und s kleiner als p und daher nicht durch p teil-
also keine Elemente x; y 2 Knf0g mit x 0 y D 0. Dies folgt bar sind. Also ist ˇ eine Verknüpfung auf Zp n f0g. Sie ist
schon deshalb, weil „0 “ eine Verknüpfung in K0 D K n f0g assoziativ und kommutativ; es gibt das neutrale Element 1.
2 ist, also wegen der Abgeschlossenheit bei x; y 2 K0 auch Wir zeigen, dass zur Restklasse r bei 1 < r < p ein
x 0 y 2 K0 sein muss. x mit 1 < x < p existieren muss mit r ˇ x D 1. Dabei
Wir fassen die eben hergeleiteten Aussagen noch einmal verwenden wir die Abbildung
zusammen:
Zp n f0g ! Zp n f0g;
r W
x 7! r ˇ x;
Körpereigenschaften
Ein Körper enthält mindestens die zwei verschiedenen bei welcher jede Klasse links mit r multipliziert wird. Diese
Elemente 0 und 1. In einem Körper ist die Addition stets Abbildung ist injektiv, denn bei r ˇa D r ˇb unterscheiden
kommutativ. Ein Körper ist frei von Nullteilern. sich ra und rb durch ein Vielfaches von p, d. h., p teilt
r.a b/. Wegen 1 < r < p muss p ein Teiler von a b
sein und daher a D b.
Man könnte meinen, dass ebenso wie die Kommutativi- Also durchlaufen die p 1 Produkte r ˇ 1, r ˇ 2, : : : ,
tät der Addition auch jene der Multiplikation bereits aus r ˇ p 1 alle p 1 Restklassen aus Zp n f0g. Darunter
den übrigen Körpereigenschaften hergeleitet werden kann. muss unbedingt auch 1 vorkommen.
Dass dies nicht möglich ist, beweist das nach einigen Seiten Die notwendige Bedingung, dass p eine Primzahl ist,
gezeigte Beispiel der Quaternionen. erweist sich somit als hinreichend. Sie garantiert, dass
Vorerst folgen aber noch zwei weitere Beispiele von .Zp n f0g; ˇ/ eine Gruppe ist. Nachdem auch die distribu-
Körpern. tiven Gesetze gelten, weil sie ja in Z erfüllt sind und durch
den Homomorphismus .r Ckp/ 7! r nicht zerstört werden,
ist die folgende Aussage bewiesen:
Zu jeder Primzahl p > 1 gibt es
einen Restklassenkörper
Satz vom Restklassenkörper
Oben haben wir den Restklassenkörper modulo 5 betrach- Ist p eine Primzahl, so ist
tet. Wie sieht es aus, wenn wir, von Z ausgehend, 5 durch
eine andere natürliche Zahl p > 1 ersetzen, also die Menge Zp D f0; 1; : : : ; p 1g; ˚; ˇ
der Restklassen
ein Körper, der Restklassenkörper modulo p.
Zp D f0; 1; : : : ; p 1g
nicht unbedingt in einer der Restklassen 1; : : : ; p 1 vor- Die Restklassenkörper sind an sich interessant, weil sie
kommen muss. Sobald nämlich p D rs ist bei 1 < r; s < endliche Körper sind. Darüber hinaus spielen sie in der
p, liegt das Produkt rs in 0. Somit wären r und s Nullteiler Zahlentheorie, in der Kryptographie und in der Codierungs-
dieser Multiplikation. theorie eine wichtige Rolle. Letztlich gäbe es ohne den
Ist hingegen p eine Primzahl, besitzt p also nur 1 und kleinsten Körper Z2 keine Digitalisierung und keine Com-
p als Teiler, so kann rs kein ganzzahliges Vielfaches von p puter.
2.3 Körper
49 2
Der Körper der komplexen Zahlen bildet einen Körper .C; C; / mit 0 D 0 C i 0 als Nullele-
ist eine echte Erweiterung des Körpers ment und 1 D 1 C i 0 als Einselement, den Körper der
der reellen Zahlen komplexen Zahlen.
i i D j j D k k D 1
Die Quaternionen bilden einen Schiefkörper
und
q q D a2 C b 2 C c 2 C d 2 2 R:
1 1
q 1 D qD q
a2 C b2 Cc Cd
2 2 qq
mit q q 1 D .q q/=.q q/ D 1.
Werden in einem Körper K der Reihe nach die Summen 1, ?Selbstfrage 2.15
1 C 1, 1 C 1 C 1, 1 C 1 C 1 C 1, . . . gebildet, so sind we- Begründen Sie das.
gen x C 1 ¤ x (Kürzungsregel) aufeinanderfolgende Werte
stets verschieden. Es ist aber möglich, dass in der Folge der Ist x 2 K positiv, d. h. x 2 P n f0g, so ist wegen x 2 D
Summen Wiederholungen auftreten, dass also etwa x x 2 P auch x positiv. Und ist x negativ, d. h. x 2
2
kommutative Gruppe und es gibt 0 und 1. Aber es fehlen erfüllen. So gewinnt man die reellen Nullstellen der Funk-
inverse Elemente. tion f . Betrachten wir konkret das Polynom
f .x/ D x 2 C 1 :
2
Definition eines Ringes Das Polynom hat in R keine Nullstellen, da die Gleichung
Eine Menge R mit zwei Verknüpfungen C und heißt x 2 C 1 D 0 in R nicht lösbar ist, denn in R sind Quadrate
Ring, wenn gilt: stets positiv. Analytisch ist man somit fertig, die Funktion
1. .R; C/ ist eine kommutative Gruppe. f hat in ihrem Definitionsbereich keine Nullstelle. Aber
2. Die Multiplikation ist assoziativ. algebraisch ist die Auflösung der Gleichung noch längst
3. Es gelten die beiden Distributivgesetze .a C b/ c D nicht erledigt:
.a c/ C .b c/ und a .b C c/ D .a b/ C .a c/. Es trifft zwar zu, dass es keine reellen Nullstellen gibt,
aber kann es nicht sein, dass es einen R umfassenden Kör-
per gibt, in dem eine Nullstelle von f liegt? Und tatsächlich
Hat ein Ring .R; C; / die zusätzlichen Eigenschaften: liegt in C © R die komplexe Zahl i mit i2 D 1; damit sind
4 die Multiplikation ist kommutativ, i und i zwei verschiedene Nullstellen von f , die für die
4 es existiert ein neutrales Element 1 ¤ 0 bezüglich der analytische Diskussion der Funktion f W R ! R ohne Be-
Multiplikation, lange sind, für algebraische Zwecke aber zur Auflösung der
4 in R gibt es keine Nullteiler, Gleichung führen.
Es hat sich für die Algebra als sehr zweckmäßig erwie-
so nennt man den Ring R einen Integritätsbereich. sen, Polynome in einem anderen Licht darzustellen, als dies
in der Analysis üblich ist. Wir betrachten in der Algebra das
Beispiel x nicht als eine reelle Zahl; wir fassen es als eine Unbe-
4 Jeder kommutative Körper ist ein Integritätsbereich. stimmte auf, in die wir z. B. Zahlen einsetzen können. Man
4 .Z; C; / ist ein Integritätsbereich. Es gibt nämlich keine verwendet in der Algebra sogar gerne ein anderes Symbol
Nullteiler. für die Unbestimmte als in der Analysis – wir werden X
4 Die Menge der Restklassen modulo 12 schreiben – und verwenden eigentlich genauer die Bezeich-
nungen
Z12 D f0; 1; : : : ; 11g 4 Polynom in der Algebra und
4 Polynomfunktion in der Analysis.
ergibt einen Ring .Z12 ; ˚; ˇ/. Dieser ist nicht nulltei-
lerfrei, denn wegen 3 4 D 12 ist 3 ˇ 4 D 0, obwohl 3 Diese Bezeichnungen werden aber keineswegs konsequent
und 4 von 0 verschieden sind. 9 benutzt. Auch wir werden in der Analysis oftmals wieder
von Polynomen sprechen, obwohl wir Polynomfunktionen
Wir vertiefen die Ringtheorie nicht weiter und behan- meinen.
deln nur ausführlich ein für uns wichtiges Beispiel eines Wir beginnen nun bei „Adam und Eva“ und erklären,
Rings, nämlich den Polynomring. was ein Polynom ist. Man tut gut daran, vorläufig zu ver-
Die klassische Algebra ist die Lehre von der Auflösung gessen, was es mit den oben erwähnten Polynomfunktionen
von Gleichungen der Form auf sich hat. Wir kommen auf diese nach der Einführung
der Polynome wieder zurück.
an x n C C a1 x C a0 D 0 Weil wir in der Mathematik darauf achten, dass De-
finitionen sinnvoll sind, müssen wir erklären, was eine
mit Koeffizienten an ; : : : ; a0 aus einem Körper. Die linke Unbestimmte ist. Das ist gar nicht so einfach, es sind da-
Seite dieser Gleichung assoziiert man als Student des ers- zu einige Vorbetrachtungen nötig.
ten Semesters im Allgemeinen mit einem Polynom, also mit
einer reellen Funktion der Form
Folgen, die nur endlich viele Folgenglieder
f W R ! R ; f .x/ D an x n C C a1 x C a0 ; ungleich 0 haben, sind fast überall 0
wobei die Koeffizienten a0 ; : : : ; an reelle Zahlen sind. Und Der Ausdruck a0 C a1 X C C an X n ist durch seine Koef-
beim Element x hat man vielleicht im Hinterkopf, dass x fizienten a0 ; : : : ; an und 0 D anC1 D anC2 D eindeutig
die reellen Zahlen durchläuft. Will man die Nullstellen des gegeben. Für jedes i 2 N0 gilt: Vor X i steht ai .
Polynoms f bestimmen, so steht man vor der Aufgabe, die Aber das ist nichts anderes als die folgende Abbildung
Zahlen x 2 R zu bestimmen, die die Gleichung
N0 ! R;
aW mit ai D 0 für alle i > n :
f .x/ D an x n C C a1 x C a0 D 0 i 7! ai
2.4 Ringe
53 2
Wir stellen die Axiome für Gruppen, Ringe und Körper zu- (2) a C .b C c/ D .a C b/ C c.
sammen. Dabei ersetzen wir bei den Gruppen bewusst die (3) Es gibt ein Element 0 (Nullelement) in R mit 0 C a D a.
ursprünglich etwas schwächeren Forderungen nach einem (4) Zu jedem a 2 R gibt es a 2 R (inverses Element) mit
linksneutralen und linksinversen Element durch äquivalente, a C .a/ D 0.
aber übersichtlichere Bedingungen. Auch bei den Körpern (5) a .b c/ D .a b/ c.
gibt es geringfügige Abweichungen gegenüber früher: Wir (6) a .b C c/ D a b C a c und .a C b/ c D a c C b c.
schreiben alle Bedingungen aus, um sie leichter mit jenen bei
Ringen vergleichen zu können. Körper
Es sei K eine Menge mit den beiden Verknüpfungen C W
Gruppe .K K/ ! K und W .K K/ ! K. Es heißt .K; C; /
Es sei G eine nichtleere Menge mit einer Verknüpfung W ein Körper, wenn für alle a; b; c 2 K gilt:
.G G/ ! G. Es heißt .G; / eine Gruppe, wenn für alle (1) a C b D b C a.
a; b; c 2 G gilt: (2) a C .b C c/ D .a C b/ C c.
(1) .a b/ c D a .b c/. (3) Es gibt ein Element 0 (Nullelement) in K mit 0 C a D a.
(2) Es existiert ein Element e 2 G mit e a D a D a e. (4) Zu jedem a 2 K gibt es a 2 K (inverses Element) mit
(3) Zu jedem a 2 G existiert ein a1 2 G mit a1 a D e D a C .a/ D 0.
a a1 . (5) a .b c/ D .a b/ c.
(6) Es gibt ein Element 1 ¤ 0 (Einselement) in K mit 1 a D
Ring a D a 1.
Es sei R eine Menge mit den beiden Verknüpfungen C W (7) Zu jedem a 2 K n f0g gibt es a1 2 K (inverses Element)
.R R/ ! R und W .R R/ ! R. Es heißt .R; C; / mit a a1 D 1 D a1 a.
ein Ring, wenn für alle a; b; c 2 R gilt: (8) a b D b a.
(1) a C b D b C a. (9) a .b C c/ D a b C a c und .a C b/ c D a c C b c.
Wir haben hierbei ai anstelle von a.i/ geschrieben. Die mit 1 zu. Anstelle des Körpers R wählen wir ab jetzt ei-
Abbildung a wiederum können wir durch die endlichen vie- nen beliebigen kommutativen Ring R mit 1. Man gewinnt
len von null verschiedenen Bilder eindeutig festlegen. Man dadurch viel; und man kann sich für R stets einen der ver-
schreibt trauten Ringe Z oder R denken.
Vielleicht ist es auch sinnvoll, an dieser Stelle darauf
a D .a0 ; a1 ; : : : ; an ; 0; : : :/
hinzuweisen, dass, egal wie abstrakt das Folgende erschei-
und nennt die Abbildung a auch eine Folge mit den Fol- nen mag, wir doch wieder bei der vertrauten Darstellung
gengliedern ai (mehr über Folgen im Grundwissenbuch, a0 C a1 X C C an X n für Polynome landen werden. Dann
Kapitel 8). Von den endlich vielen möglichen Ausnahmen wird aber X ein wohldefiniertes Objekt sein, an dem nichts
a0 ; : : : ; an abgesehen sind alle Folgenglieder null. Man be- „Unbestimmtes“ haften wird.
achte, dass es auch zugelassen ist, dass manche oder alle
der endlichen vielen Zahlen a0 ; : : : ; an ebenfalls null sind.
Weil die Anzahl der endlich vielen Elemente a0 ; : : : ; an Der Polynomring RŒX besteht aus allen
mehr oder weniger nichts ist im Vergleich zu der Anzahl der Folgen mit der Eigenschaft, dass fast alle
Elemente von N, hat sich die folgende Sprechweise einge- Folgenglieder null sind
bürgert: Man sagt
ai D 0 für fast alle i 2 N0 Wir betrachten nun die Gesamtheit aller Abbildungen von
N0 nach R, die die Eigenschaft haben, dass fast alle Bilder
und meint damit, dass ai ¤ 0 auf nur endlich viele i 2 N0
den Wert null haben. Wir bezeichnen diese Gesamtheit mit
zutrifft.
dem Symbol RŒX:
? Selbstfrage 2.17
Können Sie eine Abbildung g W N0 ! R angeben, die
nicht für fast alle i 2 N0 und dennoch unendlich oft den Die Polynome über R
Wert 0 hat? Wir nennen jede Abbildung a W N0 ! R mit a.i/ D 0
für fast alle i 2 N0 ein Polynom. Die Menge
Wir erklären nun Polynome als Folgen, die fast überall RŒX D fa W N0 ! R j a.i/ D 0 für fast alle i 2 N0 g
den Wert 0 haben. Dabei wollen und müssen wir uns
keineswegs auf reelle Folgen festlegen. Wir lassen als Wer- ist die Menge aller Polynome über R.
temenge solcher Abbildungen einen beliebigen Ring R
54 Kapitel 2 Algebraische Strukturen – ein Blick hinter die Rechenregeln
Ein Polynom ist eine Folge in R, die nur an endlichen Es seien a D .a0 ; a1 ; a2 ; : : :/ und b D .b0 ; b1 ; b2 ; : : :/
vielen Stellen aus N0 einen von null verschiedenen Wert Polynome aus RŒX mit ak D 0 für alle natürlichen k > n
annimmt. und bl D 0 für alle natürlichen l > m, d. h.,
2
Beispiel Es sind a D .a0 ; : : : ; an ; 0; : : :/; b D .b0 ; : : : ; bm ; 0; : : :/ :
Die Addition ist also komponentenweise erklärt, die Mul- Beweis Es sind: (i) .RŒX; C/ ist eine kommutative Grup-
tiplikation sieht etwas ungewohnt aus. Deshalb geben wir pe, (ii) die Multiplikation ist assoziativ, (iii) die Multi-
explizit die ersten Folgenglieder an: plikation ist kommutativ, (iv) es gibt ein Einselement und
(v) es gilt das Distributivgesetz.
Es seien a D .a0 ; a1 ; a2 ; : : :/, b D .b0 ; b1 ; b2 ; : : :/ und
.a0 ; a1 ; a2 ; a3 ; : : :/ C .b0 ; b1 ; b2 ; b3 ; : : :/
c D .c0 ; c1 ; c2 ; : : :/ Polynome aus RŒX.
D .a0 C b0 ; a1 C b1 ; a2 C b2 ; a3 C b3 ; : : :/ (i) Dass C eine Verknüpfung auf RŒX ist, haben wir
„ ƒ‚ … „ ƒ‚ … „ ƒ‚ … „ ƒ‚ …
Dc0 Dc1 Dc2 Dc3 schon festgestellt. Die Addition ist auch assoziativ, da die
Addition in R assoziativ ist:
und
.a C b/ C c
.a0 ; a1 ; a2 ; a3 ; : : :/ .b0 ; b1 ; b2 ; b3 ; : : :/ D .a0 C b0 C c0 ; a1 C b1 C c1 ; a2 C b2 C c2 ; : : :/
D . a 0 b0 ; a 0 b1 C a 1 b0 ; a 0 b2 C a 1 b1 C a 2 b0 ; D a C .b C c/ :
„ƒ‚… „ ƒ‚ … „ ƒ‚ …
Dd0 Dd1 Dd2
Die Abbildung ist zudem injektiv: Es gelte .r/ D .s/ wobei a an .n C 1/-ter Stelle steht. Für ein beliebiges P D
für r; s 2 R, d. h., .a0 ; a1 ; a2 ; : : : ; an ; 0; 0; : : :/ 2 RŒX finden wir mit unserer
Definition der Addition in RŒX;
.r; 0; 0; : : :/ D .s; 0; 0; : : :/ :
2
P D a0 X 0 C a1 X C a2 X 2 C C an X n :
Hieraus folgt r D s.
X
n X
m
ai X i D bi X i , n D m und ai D bi für alle i :
Das Polynom .0; 1; 0; : : :/ ist iD0 iD0
die Unbestimmte X
Addition und Multiplikation lauten mit dieser Schreibweise
wie folgt:
Unter der Vielzahl von Polynomen in RŒX wählen wir nun
ein ganz bestimmtes Polynom aus und geben diesem den X X X
Namen X. Die Abbildung ai X i C bi X i D .ai C bi /X i ;
8 i 2N0 i 2N0 i 2N0
<N0 ! R; X X X X
XW 1; falls i D 1; ai X i bj X j D ai bj X k :
: i 7!
0; falls i ¤ 1 i 2N0 j 2N0 k2N0 i Cj Dk
liegt in RŒX, es ist X.k/ D 0 für alle k 2. Ausgeschrie- Wir wiederholen das obige Beispiel zur Multiplikation
ben lautet das Element X 2 RŒX zweier Polynome in dieser neuen Schreibweise:
X D .0; 1; 0; 0; : : :/ : Beispiel Gegeben seien die reellen Polynome P D 1 C
Die mysteriöse Unbestimmte X ist damit eine wohlbe- 2 X C 3 X 3 und Q D X C X 2 . Dann gilt:
stimmte Abbildung von N0 nach R. Für die im Ring RŒX
definierten Potenzen X 0 D 1, X nC1 D X n X folgt: P C Q D 1 C 3 X C X 2 C 3 X 3;
P Q D .1 C 2 X C 3 X 3 / .X C X 2 /
X n D .0; 0; : : : ; 0; 1; 0; : : :/;
D X C 3 X 2 C 2 X 3 C 3 X 4 C 3 X 5: 9
wobei die 1 an .n C 1/-ter Stelle steht und sonst nur Nul-
len vorkommen. Für a 2 R erhalten wir nun wegen a D Die Multiplikation der Folgen ist genau so definiert, dass
.a; 0; 0; : : :/ D a X 0 : mit dieser neuen Schreibweise das bekannte distributive
Ausmultiplizieren der einzelnen Summanden von Polyno-
a X n D .0; : : : ; 0; a; 0 : : :/; men funktioniert.
2.4 Ringe
57 2
Mit den erklärten Verknüpfungen C und in RŒX ha- werden in die Unbestimmte X z. B. Zahlen einsetzen. So
ben wir die Polynome in ihrer vertrauten Form und mit gewinnen wir dann die bekannten Polynomfunktionen zu-
vertrauten Rechenregeln gewonnen: rück. Aber die (algebraischen) Polynome sind universeller:
In späteren Kapiteln werden wir in Polynome noch ganz
andere Dinge einsetzen, z. B. kann man Polynome oder Ab-
Darstellungssatz für Polynome bildungen oder Matrizen für X einsetzen.
Es ist
X
RŒX D ai X i j ai 2 R; ai D 0 für fast alle i 2 N0 Das Einsetzen in Polynome
i2N0 Es sei R ein kommutativer Teilring des Rings S. Für ein
Polynom P 2 RŒX,
ein kommutativer Ring mit Einselement 1. Für das Null-
polynom 0 gilt ai D 0 für alle i 2 N0 . X
n
P D ai X i D a0 C a1 X C C an X n
iD0
Man nennt RŒX den Polynomring in der Unbestimmten und jedes Element c 2 S ist das Element
X über R.
X
n
P .c/ D ai c i D a0 C a1 c C C an c n
Beispiel Für die Polynome P D 1 C 2X C 3X 2 und Q D iD0
X C 2X 2 2 RŒX gilt:
4 Im Fall R D Z oder R D R: ein Element aus S – man sagt, man setzt in P für X das
Element c 2 S ein.
P C Q D 1 C 3X C 5X 2 ;
P Q D X C 4X 2 C 7X 3 C 6X 4 :
i Man beachte die grundverschiedenen Bedeutungen der
4 Im Fall R D Z6 : Addition und Multiplikation: Bei
P C Q D .1 C 2X C 3X 2 / C .X C 2X 2 / ai X i C aiC1 X iC1
D 1 C .2 C 1/X C .3 C 2/X 2 sind C und die Addition und Multiplikation von Polyno-
D 1 C 3X C 5X ; 2 men aus RŒX. Bei
P Q D .1 C 2X C 3X 2 / .X C 2X 2 / ai c i C aiC1 c iC1
D X C .2 C 2/X C .2 2 C 3 1/X C 3 2X
2 3 4
sind C und die Addition und Multiplikation von Ring-
D X C 4X 2 C X 3 : 9 elementen aus S.
P P
Beweis Es seien ai X i und i 2N0 bi X i zwei Poly-
i 2N0
Die Polynomfunktion nome aus RŒX. Die Abbildung ˚c ist additiv, da
Für jedes P 2 RŒX nennt man die Abbildung X X
X
2 ( ˚c ai X C
i
bi X i
D ˚c .ai C bi /X i
R!R
PQ W i 2N0 i 2N0 i 2N0
x 7! P .x/ X X X
D .ai C bi / c i D ai c i C bi c i
die zu P gehörige Polynomfunktion. Ein Element c 2 R i 2N0 i 2N0 i 2N0
X X
heißt Nullstelle von P , falls P .c/ D 0.
D ˚c ai X i
C ˚c bi X : i
i 2N0 i 2N0
mit Rest.
Lösung
Die Anfangsterme der Polynome P und 4X 3 Q stimmen überein, den Rest müssen wir korrigieren; man erhält sukzessive:
.4 X 5 C 6 X3 C X C 2/ D .X 2 C X C 1/.4 X 3 4 X 2 C 6 X 2/
.4 X X C 4 X X C 4 X 3 1
3 2 3
/
4 X 4 C 2 X3 C X C2
.4 X X 4 X 2 X 4 X 2 1
2 2
/
6 X3 C 4 X2 C X C2
.6 X X 2 C 6 X X C 6X 1 /
2 X 2 5X C 2
.2 X 2 2 X 2/
3 X C 4
Damit ist
4 X 5 C 6 X 3 C X C 2 D .4 X 3 4 X 2 C 6 X 2/.X 2 C X C 1/ 3 X C 4:
1 nm
In der Rechnung entspricht das Polynom in der zweiten Zeile dem Polynom an bm X Q, und das Polynom unter dem ersten
Strich entspricht T 0 . Das Weitere ist eine Wiederholung des Verfahrens.
Nun zum zweiten Beispiel:
.X 5 C X 4 4 X 3 C X 2 X 2/ D .X 2 X 1/.X 3 C 2 X 2 X C 2/
.X 5 X 4 X 3/
2 X4 3 X3 C X2
.2 X 4 2 X 3 2 X 2/
X 3 C 3 X 2 X
.X 3 C X 2 C X/
2 X2 2 X 2
.2 X 2 2 X 2/
0
Damit ist
X 5 C X 4 4 X 3 C X 2 X 2 D .X 2 X 1/ .X 3 C 2 X 2 X C 2/ :
2.4 Ringe
61 2
Folgerung Hat ein Polynom P 2 RŒX eine Nullstelle a 2 Kommentar Im Allgemeinen ist es außerordentlich
R, so existiert ein S 2 RŒX mit P D .X a/ S. schwierig bis unmöglich, die Nullstellen von Polynomen
über R vom Grad 3 und höher zu bestimmen. Aus der Schu-
Wir können hieraus folgern: le ist man es gewohnt, dass man die Nullstellen von reellen
Polynomen höheren Grades erraten kann; sie sind bei den
Beispielen aus der Schule meist ganze Zahlen, die nahe der
Abspalten von Linearfaktoren Null liegen. Das Erraten der Nullstellen scheitert aber schon
Es seien R ein Integritätsbereich und P ¤ 0 ein Polynom beim Polynom P D X 3 0; 4 X 2 C 0; 04 X 1; 2 X 2 C
vom Grad n über R. 0; 48 X C 0; 048 2 RŒX. Tatsächlich ist die Situation wie
(a) Sind a1 : : : ; ak 2 R verschiedene Nullstellen von P , folgt:
so gilt: 4 Ein Polynom P D a 2 RŒXnf0g vom Grad 0 hat keine
Nullstelle in R.
P D .X a1 / .X ak / Q 4 Ein Polynom P D a X C b 2 RŒX vom Grad 1 hat die
Nullstelle ba in R.
für ein Q 2 RŒX. 4 Ein Polynom P D a X 2 C b X C c 2 RŒX vom Grad
(b) Es hat P höchstens n verschiedene Nullstellen in R. 2 hat im Fall D D b 2 4 a c 0 diepbeiden nicht
(c) Sind S; T Polynome vom Grad n und gilt S.ai / D notwendig verschiedenen Nullstellen b˙ 2a
D
in R.
T .ai / für n C 1 verschiedene Elemente a1 : : : ; anC1 4 Im Allgemeinen sind alle bekannten Formeln zur (ex-
aus R, so gilt S D T . akten) Bestimmung der Nullstellen von reellen Polyno-
men vom Grad größer oder gleich 3 zu kompliziert, als
dass man sie tatsächlich zur Bestimmung benutzt. Man
Beweis (a) Für k D 1 steht dies in der obigen Folgerung. benutzt vielmehr numerische Verfahren, mit deren Hilfe
Es sei k 2, und die Behauptung sei richtig für k 1: man die Nullstellen näherungsweise ermittelt.
P D .X a1 / .X ak1 / S
Genauere Aussagen zu den Nullstellen von Polynomen
für ein S 2 RŒX. Einsetzen von ak liefert mit dem Ein- vom Grad 3 und größer und zu den Tatsachen, die dahin-
setzhomomorphismus ter stecken, können wir an dieser Stelle noch nicht machen.
0 D P .ak / D .ak a1 / .ak ak1 / S.ak / Üblicherweise lernt man die Hintergründe zu diesen recht
„verzwickten Sachverhalten“ in einer Vorlesung zur (nicht-
und damit S.ak / D 0, weil R nullteilerfrei ist. Mit der linearen) Algebra, die man meist erst ab dem zweiten
obigen Folgerung erhalten wir S D .X ak / Q für ein Studienjahr besucht.
Q 2 RŒX, also P D .X a1 / .X ak / Q.
(b) Hätte ein Polynom P vom Grad n mehr als n
Nullstellen, so könnten wir nach dem Teil (a) mehr als n Man sagt, ein Polynom zerfällt in
Linearfaktoren abspalten. Mit der Gradformel würde dann
Linearfaktoren, wenn es sich als Produkt
aber folgen, dass der Grad von P auch größer als n ist. Die-
ser Widerspruch liefert die Behauptung. von Polynomen vom Grad 1 schreiben lässt
(c) Wegen deg.S T / n und .S T /.ai / D 0 für i D
1; : : : ; n C 1 folgt S T D 0 nach der bereits bewiesenen Nach dem Satz von vorhin über das Abspalten von Linear-
Aussage in (b). Somit gilt S D T . faktoren können wir jedes Polynom P 2 RŒX über einem
Integritätsbereich R mithilfe seiner Nullstellen in R zerle-
i Das Polynom X 2 1 2 Z8 ŒX vom Grad 2 hat die vier gen. Dazu führen wir eine neue Sprechweise ein. Man sagt,
verschiedenen Nullstellen 1; 3; 5; 7 2 Z8 . Der Ring Z8 ist eine Nullstelle a 2 R des Polynoms P 2 RŒX hat die
allerdings kein Integritätsbereich. Vielfachheit , wenn
Beispiel
4 Das Polynom P D X 4 6X 3 C 11X 2 6X 2 RŒX P D .X a/ Q mit Q.a/ ¤ 0
hat wegen
gilt. Sind nun a1 ; : : : ; ar alle verschiedenen Nullstellen von
X 4 6X 3 C 11X 2 6X D X.X 1/.X 2/.X 3/ P in R der Vielfachheiten 1 ; : : : ; r , so gilt
die vier verschiedenen Nullstellen 0; 1; 2; 3.
4 Das Polynom P D X 5 2X 4 C2X 3 2X 2 CX 2 RŒX P D .X a1 /1 .X ar /r Q
hat wegen
mit einem Polynom Q, das in R keine Nullstelle mehr hat.
X 5 2X 4 C 2X 3 2X 2 C X D X.X 1/2 .X 2 C 1/
Liegen sämtliche Nullstellen von P in R, dann ist Q 2 R
die zwei verschiedenen Nullstellen 0 und 1. 9 eine Konstante. In diesem Fall sagt man, das Polynom P
62 Kapitel 2 Algebraische Strukturen – ein Blick hinter die Rechenregeln
zerfällt in Linearfaktoren, es ist dann nämlich ein Pro- einfache Aufgaben mit wenigen Rechenschritten
dukt einer Konstanten mit linearen Polynomen, d. h. von mittelschwere Aufgaben, die etwas Denkarbeit und
Polynomen vom Grad 1. Außerdem gilt in diesem Fall unter Umständen die Kombination verschiedener
2 1 C C r D deg P:
Konzepte erfordern
anspruchsvolle Aufgaben, die fortgeschrittene Kon-
zepte (unter Umständen auch aus späteren Kapiteln)
? Selbstfrage 2.20 oder eigene mathematische Modellbildung benötigen
Was ist im Fall r D deg P los?
Beispiel
4 Das Polynom P D X 4 6X 3 C 11X 2 6X 2 RŒX Verständnisfragen
zerfällt wegen
2.1 Sudoku für Mathematiker. Es sei G D fa; b; c;
X 4 6X 3 C 11X 2 6X D X.X 1/.X 2/.X 3/ x; y; zg eine sechselementige Menge mit einer inneren
Verknüpfung W G G ! G. Vervollständigen Sie die un-
über R in Linearfaktoren.
tenstehende Multiplikationstafel unter der Annahme, dass
4 Das Polynom P D X 5 2X 4 C2X 3 2X 2 CX 2 RŒX
.G; / eine Gruppe ist.
zerfällt wegen
a b c x y z
X 5 2X 4 C 2X 3 2X 2 C X D X.X 1/2 .X 2 C 1/
a c b
über R nicht in Linearfaktoren, da X C 1 keine Null-
2 b x z
stelle in R hat. Wegen X 2 C1 D .X Ci/.X i/ 2 CŒX c y
zerfällt P aber sehr wohl über C in Linearfaktoren. 9 x x
y
Kommentar Der sogenannte Fundamentalsatz der Algebra z a x
(siehe Grundwissenbuch, Abschnitte 4.6 und 9.5) besagt,
dass jedes Polynom P 2 CŒX in Linearfaktoren zerfällt. 2.2 Zeigen Sie: In einer Gruppe sind die Gleichun-
gen x a D b und a y D b eindeutig nach x bzw. y
Wir haben in diesem Kapitel Gruppen, Ringe und Körper auflösbar.
so weit dargestellt, wie wir es für unsere Zwecke in der li-
nearen Algebra benötigen werden. Dabei haben wir nur an 2.3 Es sei K D f0; 1; a; bg eine Menge mit 4 ver-
der Oberfläche der Theorien dieser algebraischen Struktu- schiedenen Elementen. Füllen Sie die folgenden Tabellen
ren gekratzt. In einer Vorlesung zur (nichtlinearen) Algebra, unter der Annahme aus, daß .K; C; / ein Schiefkörper (mit
die man üblicherweise im zweiten Studienjahr hört, werden dem neutralen Element 0 bezüglich C und dem neutralen
Gruppen, Ringe und Körper ausführlicher behandelt. Aber Element 1 bezüglich ) ist. Begründen Sie Ihre Wahl.
auch in dieser Vorlesung werden nur grundlegende Resul-
C 0 1 a b 0 1 a b
tate erarbeitet, und zwar üblicherweise genauso viele wie
nötig sind, um die in einer Algebravorlesung behandelten 0 0
Fragen zur Auflösbarkeit von algebraischen Gleichungen 1 1
zu klären. Tatsächlich aber ist alleine die Gruppentheorie a a
eine der umfangreichsten mathematischen Theorien über- b b
haupt. Um nur eine vage Vorstellung davon zu bekommen,
erwähnen wir, dass es in der Gruppentheorie einen Satz 2.4 Kann ein Polynomring KŒX ein Körper sein?
gibt, dessen Beweis etwa 5000 Seiten umfasst; und dabei
2.5 In welchen Ringen gilt 1 D 0?
ist dieser sogenannte große Satz, der alle endlichen einfa-
chen Gruppen beschreibt, nur einer von vielen Sätzen. Für
das erste Studienjahr aber kommen wir mit unseren weni-
gen Resultaten zur Gruppen-, Ring- und Körpertheorie aus. Rechenaufgaben
der inneren Verknüpfung ı W .fi ; fj / 7! fi ı fj , wobei ein kommutativer Erweiterungsring mit 1 von RŒX ist –
fi ı fj .x/ D fi .fj .x//, eine Gruppe ist. Stellen Sie eine der Ring der formalen Potenzreihen oder kürzer Potenz-
Verknüpfungstafel für .F; ı/ auf. P
reihenring über R. Wir schreiben P D i 2N0 ai X i oder
P1
i D0 ai X (also P .i/ D ai ) für P 2 RŒŒX und nennen
i
2.9 Bestimmen Sie alle Untergruppen von .Z; C/. die Elemente aus RŒŒX Potenzreihen. Zeigen Sie außer-
dem:
2.10 Verifizieren Sie, dass G D fe; a; b; cg zusam- (a) RŒŒX ist genau dann ein Integritätsbereich, wenn R
men mit der durch die Tabelle ein Integritätsbereich ist.
P
(b) Eine Potenzreihe P D i 2N0 ai X i 2 RŒŒX ist genau
e a b c dann invertierbar, wenn a0 in R invertierbar ist.
e e a b c (c) Bestimmen Sie in RŒŒX das Inverse von 1 X und
1 X 2.
a a e c b
b b c e a
c c b a e Antworten zu den Selbstfragen
2.12 Bestimmen Sie ein Polynom P 2 ZŒX mit der vAntwort 2.2
p p \ und [ sind assoziativ, n nicht, wie das Beispiel
Nullstelle 2 C 2.
3
v Antwort 2.4 Oder noch kürzer: Diese Menge enthält kein neutrales Ele-
Das inverse Element zu y ist eindeutig. Andererseits ist ment.
y 1 y D e. Somit ist y das Inverse zu y 1 .
vAntwort 2.11
2 Es gibt die inverse Abbildung f 1 W a ker ! ker
v Antwort 2.5
Das inverse Element zu .a b/ ist eindeutig, und mithilfe mit a x D y 7! a1 y D a1 a x D x.
des Axioms (G1) lässt sich .b 1 a1 / als eine Lösung
vAntwort 2.12
der Gleichung x .a b/ D e bestätigen. 1
2 D 3, denn 2 ˇ 3 D 1 oder einfach 2 3 1 mod 5.
1
Damit ist umgekehrt 3 D 2, also 2 3 1 mod 5.
v Antwort 2.6
vAntwort 2.13
ı e f g h i j Es gibt hinsichtlich der Multiplikation in K kein inverses
e e f g h i j Element zu 0, also kein x 2 K mit x 0 D 1, denn nach
f f e j i g h (ii) ist dieses Produkt stets 0.
g g i e j h f
vAntwort 2.14
h h j i e f g
Wir rechnen modulo 7. Es ist
i i h f g j e
j j g h f e i .4 6/ .1 6/1 5 21 54 6 .mod 7/;
Lineare Gleichungssysteme –
ein Tor zur linearen Algebra
Inhaltsverzeichnis
Aufgaben – 84
n Sie finden unter anderem Antworten zu . . . Zahlen sind, und wir auch die Lösungen unter den reel-
4 Worin unterscheiden sich homogene und inhomogene len Zahlen suchen. Es wird aber bald klar werden, dass
Gleichungssysteme? all die Manipulationen, die wir an den reellen linearen
4 Was versteht man unter einer algorithmischen Bestim- Gleichungssystemen vornehmen, um die Lösung zu finden,
mung der Lösung? auch bei beliebigen kommutativen Körpern funktionieren.
Die unbekannten Größen werden mit x1 ; x2 ; : : : ; xn
3 In vielen Bereichen der linearen Algebra stößt man auf bezeichnet, und ihre Koeffizienten werden immer links da-
Aufgaben, die auf lineare Gleichungssysteme zurückführ- vor gesetzt. Da nützen wir die Kommutativität aus. Auch
bar sind. Bereits einfache Fragestellungen nach Schnitt- schreiben wir die linearen Gleichungen immer so auf, dass
punkten von Geraden in der Ebene liefern solche Syste- auf der linken Seite der Gleichung genau diejenigen Sum-
me. Kompliziertere Aufgabenstellungen, wie etwa Eigen- manden stehen, welche Unbekannte enthalten. Damit bleibt
wertprobleme oder Fragen aus der linearen Optimierung, rechts jeweils nur eine Zahl, das Absolutglied der linearen
können in riesige Gleichungssysteme ausufern. Derartige Gleichung.
Systeme spielen auch in vielen anderen Teilgebieten der Das System
Mathematik sowie in anderen Wissenschaften eine Rolle,
etwa in der numerischen Mathematik, Statistik, Physik, Sta- x1 C x2 D 2
tik oder Elektrotechnik. x1 x2 D 0
Weil es für die meisten Themenkreise der linearen
Algebra unumgänglich ist, das Lösen von linearen Glei- ist ein reelles lineares Gleichungssystem. Die beiden fol-
chungssystemen zu beherrschen und über die Struktur von genden Gleichungen
Lösungsmengen Bescheid zu wissen, behandeln wir diese
Systeme gleich zu Beginn. Zur Bestimmung der Lösungs- sin.x1 / C x2 D 2
menge stellen wir ein systematisches Verfahren vor, wel- x1 x22 D 0
che auch den meisten Computeralgebrasystemen zugrunde
liegt. In diesem nach Gauß und Jordan benannten Verfahren beschreiben hingegen kein lineares Gleichungssystem
wird in einer ersten Phase geklärt, ob ein gegebenes lineares mehr; man spricht von einem nichtlinearen Gleichungssys-
Gleichungssystem überhaupt lösbar ist. Im Fall der Lösbar- tem.
keit wird dann in einer weiteren Phase die Lösungsmenge Unter einer Lösung eines reellen Gleichungssys-
auf eine effiziente Art und Weise bestimmt. tems mit n Unbekannten verstehen wir n reelle Zahlen
Dabei bieten sich in natürlicher Weise gewisse Schreib- l1 ; l2 ; : : : ; ln , die, anstelle der Unbekannten x1 ; x2 ; : : : ; xn
und Bezeichnungsweisen an, die uns mit Matrizen und Vek- eingesetzt, alle Gleichungen des Systems erfüllen. Das
toren, also mit Grundbegriffe der linearen Algebra vertraut Gleichungssystem zu lösen heißt, sämtliche Lösungen, also
machen. Die linearen Gleichungssysteme sind andererseits die Lösungsmenge L des Systems zu bestimmen.
ein erstes Beispiel dafür, dass die Lösung eines mathema-
tischen Problems nicht unbedingt aus einzelnen Formeln i Die reellen Zahlen l1 ; l2 ; : : : ; ln bilden nicht n Lösun-
bestehen muss. Hier betrachten wir das Problem als gelöst, gen, sie bilden eine Lösung des Gleichungssystems. Daher
wenn es ein exakt beschriebenes Verfahren, einen Algo- ist die Schreibweise .l1 ; l2 ; : : : ; ln / für diese eine Lösung
rithmus, gibt, der ausnahmslos funktioniert – und mag die besser, und wir werden von nun an Lösungen linearer
Anzahl der gegebenen Gleichungen und Unbekannten auch Gleichungssysteme stets in dieser Art angeben.
noch so groß sein.
Es wäre durchaus interessant, lineare Gleichungssyste-
3.1 Erste Lösungsversuche me allgemeiner über Integritätsbereichen oder Ringen
(7 Abschn. 2.4) zu betrachten. So kann man z. B. nur die
ganzzahligen Lösungen eines linearen Gleichungssystems
Wir beginnen dieses Kapitel mit der Behandlung reeller li- mit lauter ganzzahligen Koeffizienten suchen; derartige
nearer Gleichungssysteme und begnügen uns vorerst mit Gleichungen oder Gleichungssysteme heißen diophantisch.
einer etwas lockeren Beschreibung dessen, was man darun- Dies erfordert allerdings ganz andere Lösungsmethoden,
ter versteht. Die exakte Definition derartiger Systeme folgt und deshalb beschränken wir uns doch auf den Fall, in
im 7 Abschn. 3.2. dem die Koeffizienten der linearen Gleichungen und die
Der Begriff Gleichungssystem besagt, dass es sich um l1 ; : : : ; ln einem Körper angehören.
mehrere Gleichungen in mehreren Unbekannten handelt. Es ist nicht Aufgabe dieses Kapitels zu erklären, wie
Die Linearität eines solchen Systems bedeutet, dass die Un- man auf ein lineares Gleichungssystem kommt, sondern
bekannten in den Gleichungen des Systems nur in erster wie man dessen Lösungsmenge bestimmt. Zwischendurch
Potenz auftreten und nicht etwa in trigonometrischen Funk- wollen wir aber doch demonstrieren, welche Probleme
tionen eingebunden sind. Reell weist darauf hin, dass die auf ein lineares Gleichungssystem führen und auf diese
Koeffizienten der Unbekannten in den Gleichungen reelle Weise gelöst werden können. So folgt nun eine einfache
3.1 Erste Lösungsversuche
67 3
Kommentar Eine Pflasterung mittels kongruenter Sechs-
ecke ist nicht nur so wie bei Bienenwaben mit regulären
x2
Sechsecken möglich, sondern z. B. auch mit zentrisch sym-
metrischen. Bei diesen sind nämlich Gegenseiten jeweils
x1 parallel und gleich lang, und die einzelnen Sechsecke in
der Pflasterung gehen dann durch Parallelverschiebungen
auseinander hervor. Hat das Sechseck (ohne ausfüllende
Fünfecke) dann so wie in unserem Fall eine Symmetrie-
. Abb. 3.1 Ein fünfeckiger Baustein in Form einer stilisierten Krone
zum lückenlosen Ausfüllen der Ebene
achse, so kann man in der Sechseckpflasterung einzelne
Sechsecke auch spiegelbildlich darstellen, was schließlich
nach Füllung durch die kleinen Fünfecke das Ganze noch
geometrische Frage, die man vielleicht sogar im Kopf lö- verwirrender und unregelmäßiger macht.
sen könnte. Eine umfangreichere Anwendungsaufgabe zu
linearen Gleichungssystemen, nämlich eine Wählerstrom-
analyse, ist übrigens im Grundwissenbuch, Abschnitt 5.3, Ein reelles lineares Gleichungssystem
zu finden. hat entweder keine, genau eine
oder unendlich viele Lösungen
Beispiel Es geht um folgendes geometrisches Problem:
. Abb. 3.1 zeigt, wie sich die Ebene mit kongruenten
Lineare Gleichungssysteme müssen nicht immer eine Lö-
fünfeckigen Bausteinen, welche die Form einer stilisierten
sung besitzen. Betrachten wir etwa das System der zwei
Krone haben, lückenlos ausfüllen lässt. Man kann nämlich
Gleichungen
mit diesen Fünfecken zunächst ein einzelnes Sechseck fül-
len und dann mit Kopien dieses gefüllten Sechsecks die x1 x2 D 1
ganze Ebene pflastern. x1 x2 D 0
Die Seiten des kleinen fünfeckigen Bausteins sind al-
le gleich lang. Außerdem hat dieser eine Symmetrieachse. in den zwei Unbekannten x1 und x2 . Es gibt keine reellen
Unsere Aufgabe ist es, die genaue Form herauszufinden. Zahlen l1 ; l2 mit l1 D l2 und gleichzeitig l1 ¤ l2 . Dieses
Zur eindeutigen Festlegung der Gestalt dieses Fünfecks Gleichungssystem ist unlösbar, oder anders ausgedrückt,
genügen neben der Seitenlänge die Größen x1 und x2 zwei- die Lösungsmenge L ist die leere Menge.
er Winkel. Der spitze Winkel x1 tritt an den Spitzen der Die einfachste Gleichung, die in keinem Körper ei-
„Krone“ auf, der stumpfe Winkel x2 an der Basis. Der er- ne Lösung besitzen kann, ist ja 0 x1 D 1, denn das
habene Innenwinkel beträgt dann 540ı 2 x1 2 x2 . Nullelement und das Einselement eines Körpers sind stets
Nachdem an den Treffpunkten verschiedener Fünfecke verschieden.
im Inneren des Sechsecks als Winkelsumme stets 360ı Als Nächstes betrachten wir das lineare Gleichungssys-
auftreten muss und in den Seitenmitten des berandenden tem
Sechseckes stets 180ı , folgen zwei Gleichungen: x1 C x2 D 2
x1 x2 D 0
x1 C 2 x2 D 180ı
2 x1 C x2 D 180ı Die zweite Gleichung besagt x1 D x2 . Setzen wir dies in
die erste Gleichung ein, so erhalten wir 2 x1 D 2. Es ist also
l1 D 1, l2 D 1 die einzig mögliche Lösung des Systems,
Subtraktion der ersten Gleichung von der verdoppelten
wofür wir wie vereinbart .l1 ; l2 / D .1; 1/ schreiben.
zweiten ergibt
Gleich noch ein weiteres lineares Gleichungssystem:
5 x1 D 180ı 3 x1 6 x2 D 0
x1 C 2 x2 D 0
und damit x1 D 36ı . Nach Einsetzung dieses Werts in die
Die zweite Gleichung besagt x1 D 2 x2 . Setzt man dies in
zweite Gleichung erhalten wir x2 D 108ı . Dies zeigt, dass
die erste Gleichung ein, so erhält man 6 x2 6 x2 D 0.
der in . Abb. 3.1 blau schattierte Baustein entsteht, wenn
Die zweite Gleichung enthält damit keine Information, die
man bei einem regulären Fünfeck eine Ecke statt nach au-
nicht auch schon aus der ersten Gleichung folgt. Beim ge-
ßen nach innen stülpt, ohne die Seitenlängen zu ändern.
naueren Hinsehen erkennt man, dass die zweite Gleichung
Natürlich könnte man noch andere lineare Gleichun-
das .1=3/-Fache der ersten Gleichung ist. Man kann da-
gen aus dem Bild herauslesen, aber diese bringen keine
her die zweite Gleichung einfach weglassen; es bleibt das
neuen Informationen mehr. Der noch verbleibende erha-
nur eine Gleichung umfassende System
bene Innenwinkel in dem fünfeckigen Baustein ist übri-
gens 252ı . 9 3 x1 6 x2 D 0 ;
68 Kapitel 3 Lineare Gleichungssysteme – ein Tor zur linearen Algebra
dessen Lösungsmenge wir nun bestimmen. Durch Probie- eine offensichtlich falsche Aussage. Anders ausge-
ren erkennt man, dass etwa .2; 1/ und .4; 2/ Lösungen des drückt: Keines der Paare .x1 ; x2 /, welches die erste
Systems sind. Setzt man für x2 eine beliebige reelle Zahl t Gleichung löst, kann auch die zweite Gleichung erfül-
ein, so muss x1 wegen 3 x1 D 6 t den Wert 2 t haben. len. Dies heißt
Damit haben wir alle Lösungen bestimmt: Für jedes
L D ;;
t 2 R ist .2 t; t/ eine Lösung, und weitere Lösungen gibt es
3 nicht. Die Lösungsmenge des Systems lautet also das Gleichungssystem ist unlösbar.
4 Der obige Widerspruch ist beseitigt in dem folgenden
L D f.2 t; t/ j t 2 Rg: System:
Diese umfasst unendlich viele Lösungen, weil R unendlich x1 C x2 D 1
viele Elemente besitzt. 4 x1 C 4 x2 D 4
? Selbstfrage 3.1 Dieselbe Substitution wie vorhin führt diesmal auf eine
Welche Lösungsmenge erhält man, wenn man für x1 eine tatsächliche Zahlengleichheit 4 D 4.
beliebige reelle Zahl t einsetzt und dann x2 bestimmt? Ein Blick auf das System zeigt: Jedes Zahlenpaar
.l1 ; l2 /, das die erste Gleichung erfüllt, erfüllt auch die
Will man dasselbe lineare Gleichungssystem im Körper Z7 zweite. Die zweite Gleichung ist also eine Folge der ers-
der Restklassen modulo 7 lösen, so umfasst die Lösungs- ten. Wir sprechen kurz von einer Folgegleichung.
menge L D f.2 t; t/ j t 2 Z7 g nur die sieben Paare .0; 0/, In R gibt es unendlich viele Lösungen, denn jedes
.1; 4/, .2; 1/, .3; 5/, .4; 2/, .5; 6/ und .6; 3/. l1 2 R löst zusammen mit l2 D 1l1 das obige System.
Die bisher gezeigten Beispiele von reellen linearen Wir führen statt l1 den Parameter t ein und erhalten die
Gleichungssystemen beweisen bereits: folgende Parameterdarstellung von L:
x2 x2
g2
g1 g1
g2
3
x1 g3 x1
L L
. Abb. 3.2 Die einzige Lösung entspricht dem Schnittpunkt der beiden . Abb. 3.4 Die Lösungsmenge als Schnittpunkt dreier Geraden
Geraden
x3
x2
g2
x1 E3
E1
g1
E2
. Abb. 3.3 Sind die beiden Geraden parallel und verschieden, so ist die x2
Lösungsmenge leer x1
Im Beispiel . Abb. 3.5 Die Lösungsmenge ist leer; die Schnittgeraden zwischen je
zwei der drei Ebenen E1 ; E2 ; E3 sind parallel
x1 C x2 D 1 ., x2 D x1 C 1/
2 x1 C 2 x2 D 5 ., x2 D x1 C 5=2/ Das bisher benutzte Substitutionsverfahren, das natür-
lich auch bei mehr als zwei Unbekannten schrittweise
liegen zwei parallele Geraden vor (. Abb. 3.3). Daher ist
eingesetzt werden kann, erweist sich nicht immer als sinn-
die Lösungsmenge leer.
voll: Der Ablauf des Rechenverfahrens ist nicht klar genug
Die dritte Gleichung des Systems
geregelt; manchmal muss man am Ende wieder zu früheren
x1 C x2 D 1 ., x2 D x1 C 1/ Gleichungen zurückkehren, um zu einer Lösung zu kom-
men oder überhaupt die Lösbarkeit festzustellen. Und dann
2 x1 x2 D 5 ., x2 D 2 x1 5/ ist vielleicht nicht immer klar, welche Gleichung heranzu-
x1 4 x2 D 2 ., x2 D 14 x1 12 / ziehen ist.
Ähnlich ist es beim Verfahren des Gleichsetzens, wenn
ist eine Folgegleichung der ersten beiden Gleichungen und man aus zwei Gleichungen dieselbe Unbekannte ausrech-
stellt daher eine weitere Gerade durch den Schnittpunkt der net und diese Ausdrücke gleichsetzt. Letztlich bedeuten
ersten beiden Geraden dar (. Abb. 3.4). Substituierung und Gleichsetzen die Elimination einer Un-
Die gegebenen Gleichungen des Systems bekannten, zunächst einmal aus zwei Gleichungen. Wie
geht man vor, wenn noch weitere Gleichungen vorlie-
x1 C 2 x2 x3 D 0 gen?
6 x1 3 x2 x3 D 0 Wir wollen nun ein systematisches Verfahren vorstellen,
2 x1 C x2 x3 D 6 das uns auf sicherem Wege zeigt, ob ein gegebenes lineares
Gleichungssystem lösbar ist, und uns im Fall der Lösbarkeit
bestimmen drei Ebenen ohne gemeinsamen Punkt, denn die dann auch gleich die Lösungsmenge liefert. Um unser Vor-
Schnittgerade der ersten beiden Ebenen verläuft parallel zur gehen zu motivieren, betrachten wir im Folgenden einige
dritten Ebene. Die . Abb. 3.5 illustriert dies. spezielle lineare Gleichungssysteme.
3.1 Erste Lösungsversuche
71 3
Die Lösungsmenge des linearen Gleichungssystems sein. Also gibt es keinen Punkt .x1 ; x2 /, der durch f auf Z
abgebildet wird und damit auch keine Lösung des Systems.
x1 C x2 D 1 Nun ist folgender Weg zu einer Näherungslösung nahe-
2 x1 x2 D 5 liegend: Wir fragen zunächst nach einem Punkt innerhalb der
Bildebene f .R2 /, der dem vorgeschriebenen Zielpunkt Z am
3 x1 C x2 D 4
nächsten liegt. Das ist der Normalenfußpunkt F von Z (siehe
7 Abschn. 5.4), und das Urbild f 1 .F / dieses Fußpunkts ist
ist leer, wie wir vorhin feststellen konnten. Angenommen, die dann unsere Näherungslösung.
Absolutwerte auf der rechten Seite sind die Ergebnisse von
Messungen und daher fehlerbehaftet. Dann könnte man aus x3
dem Blickpunkt eines Anwenders fragen: Wenn es keine ex-
akte Lösung gibt, gibt es dann vielleicht doch eine, welche
alle Gleichungen wenigstens annähernd erfüllt? Gibt es eine,
bei welcher die Abweichungen von den auf den rechten Seiten
F
vorgegebenen Werten insgesamt minimal sind? Wie sich diese Z
Minimalitätsforderung exakt formulieren lässt, folgt später in
den 7 Kap. 9 und 10. f .R2 /
Gleichungssysteme in Stufenform lassen menge nicht verändert wird. Daher beschränken wir uns
sich unmittelbar lösen strikt auf die im nächsten Abschnitt eingeführten elemen-
taren Zeilenumformungen.
In der folgenden Box zeigen wir anhand eines ersten Bei- sind nur die Koeffizienten in den Gleichungen wesentlich.
spiels in aller Ausführlichkeit, wie sich ein lineares Glei- Die xi bestimmen lediglich die Positionen der Koeffizien-
chungssystem durch elementare Zeilenumformungen auf ten in den Gleichungen. Fehlt in einer Gleichung das xi , so
reduzierte Stufenform bringen lässt. ist der zugehörige Koeffizient von xi natürlich null.
Beim schrittweisen Vorgehen in diesem Beispiel zur Wir sparen Schreibarbeit, wenn wir das angegebene
Auflösung des Gleichungssystems lineare Gleichungssystem in folgender Art und Weise no-
3 tieren:
x3 C 3 x4 C 3 x5 D 2 0 1
0 0 1 3 3 2
x1 C 2 x2 C x3 C 4 x4 C 3 x5 D 3 B1 2 1 4 3 3 C
B C
x1 C 2 x2 C 2 x3 C 7 x4 C 6 x5 D 5 @1 2 2 7 6 5 A
2 x1 C 4 x2 C x3 C 5 x4 C 3 x5 D 4 2 4 1 5 3 4
Gegeben ist ein System über dem Körper R bestehend aus vier (2) Wir ziehen die zweite Zeile auch von der dritten Zeile ab.
linearen Gleichungen mit fünf Unbekannten: (3) Schließlich addieren wir die zweite Zeile zur vierten Zeile:
x3 C 3 x4 C 3 x5 D2
x1 C 2 x2 C x3 C 4 x4 C 3 x5 D 3
x1 C 2 x2 C x3 C 4 x4 C 3 x5 D3
x3 C 3 x4 C 3 x5 D 2
x1 C 2 x2 C 2 x3 C 7 x4 C 6 x5 D5 !
x3 C 3 x4 C 3 x5 D 2
2 x1 C 4 x2 C x3 C 5 x4 C 3 x5 D4
x3 3 x4 3 x5 D 2
ein Sonderfall der im 7 Kap. 6 ausführlich erklärten Matri- Lösungsmenge das xj einen frei wählbaren Parameter dar-
zenmultiplikation: stellt.
0 10 1 Unterhalb der Stufen gibt es nur Nullzeilen. Wir nennen
a11 a12 a1n x1 die Anzahl r der Stufen, also die Anzahl der Nichtnullzei-
B a21 a22 a2n C Bx2 C len der Matrix in Zeilenstufenform, den Rang von A und
B CB C
A x D B :: :: :: C B :: C verwenden dafür das Zeichen rg A.
3 @ : : : A@ : A
Im 7 Abschn. 4.4 werden wir erkennen, dass diese Zahl
am1 am2 amn xn
r durch A eindeutig bestimmt ist, nämlich als Dimension
0 1
a11 x1 C a12 x2 C C a1n xn der Hülle der Zeilenvektoren von A. Egal, auf welchem
B a21 x1 C a22 x2 C C a2n xn C Weg wir zur Zeilenstufenform der Matrix A gelangen, es
B C
DB :: C bleiben stets dieselbe Anzahl rg A von Nichtnullzeilen üb-
@ : A
rig. Diese Eindeutigkeit setzen wir im Folgenden bereits
am1 x1 C am2 x2 C C amn xn voraus.
Wenn wir zwei gleichartige Matrizen A und C genau dann
als gleich erklären, wenn an jeder Stelle .i; j / die jewei- Das Verfahren von Gauß und Jordan ist
ligen Einträge aij und cij übereinstimmen, so fasst unsere ein zuverlässiger Weg zur Lösung
Matrizengleichung
4 Wir bestimmen für alle a 2 R die Lösungsmenge des haben das bisher ebenfalls gemacht, werden die aber in
folgenden linearen Gleichungssystems: Zukunft zunehmend meiden, weil ja in der erweiterten
Koeffizientenmatrix alle wesentlichen Informationen ent-
x1 C a x2 x3 D 0 halten sind.
2 x1 C x2 D0 Das a in dem letzten Beispiel ist zwar anfangs nicht
x2 C x3 D 0 bekannt, aber keine Unbestimmte, sondern ein Parameter.
3 Das Gleichungssystem wäre andernfalls nicht mehr linear.
Die erweiterte Koeffizientenmatrix lautet
0 1 Wir diskutieren kurz den Fall einer erweiterten Koeffizi-
1 a 1 0
@2 1 0 0A entenmatrix, deren erste Spalte keine 1 aufweist. Dann
0 1 1 0 sind entweder alle Elemente der ersten Spalte null, oder es
gibt ein ai1 ¤ 0. Im ersten Fall braucht man der ersten
Wir wählen in der ersten Spalte die 1 an der Stelle .1; 1/ Spalte keine weitere Beachtung zu schenken; die Unbe-
und beginnen mit dem Verfahren von Gauß: stimmte x1 unterliegt keinerlei Einschränkung, man setze
x1 D t 2 R.
0 1 0 1 1
1 a 1 0 1 a 1 0 Im zweiten Fall multiplizieren wir die i-te Zeile mit ai1
@2 1 0 0A ! @0 .1 2 a/ 2 0A ! und erreichen damit eine 1 an der Stelle .i; 1/, mit welcher
0 1 1 0 0 1 1 0 die anderen Zahlen der ersten Spalte eliminiert werden kön-
0 1 0 1 nen. Dies führt aber häufig zu unhandlichen Brüchen in den
1 0 .1 a/ 0 1 0 .1 a/ 0
weiteren Zahlen dieser Zeile und schließlich in der ganzen
@0 0 .1 C 2 a/ 0A ! @0 1 1 0A Matrix. Dies lässt sich vermeiden, wenn man die neuen Zei-
0 1 1 0 0 0 .1 C 2 a/ 0 len wieder derart erweitert, dass die Nenner wegfallen. Bei
der folgenden Elimination erfolgen diese beide elementa-
Die Matrix hat damit Zeilenstufenform.
ren Zeilenumformungen gleichzeitig:
Der Rang der Matrix hängt nun von der reellen Zahl a
ab. Ist a D 1=2, so ist der Rang 2, im Fall a ¤ 1=2
jedoch 3. 3 2 3 4 3 2 3 4
!
1. Fall: a ¤ 1=2. 2 5 6 10 z2 !3 z2 2 z1 0 11 12 22
Wegen 1 C 2 a ¤ 0 ist die dritte Gleichung nur für
x3 D 0 erfüllbar. Für x2 erhalten wir aus der zweiten Es wird nämlich vom 3-Fachen der zweiten Zeile das
Gleichung durch Einsetzen von x3 D 0 ebenfalls den 2-Fache der ersten Zeile subtrahiert.
Wert 0 und schließlich aus der ersten Gleichung x1 D 0.
Also ist .0; 0; 0/ die eindeutig bestimmte Lösung des Beispiel Als ausführlicheres Beispiel betrachten wir ein
Systems und L D f.0; 0; 0/g die Lösungsmenge. komplexes lineares Gleichungssystem, also mit K D C:
2. Fall: a D 1=2.
Die erweiterte Koeffizientenmatrix hat in diesem Fall
2 x1 C i x3 D i
die Gestalt
x1 3 x2 i x3 D 2 i
0 1
1 0 1=2 0 i x1 C x2 C x3 D 1 C i
@0 1 1 0A
0 0 0 0 Die erweiterte Koeffizientenmatrix ist
Für welche a 2 R hat das reelle lineare Gleichungssystem Dies gilt wegen 12 a.a2/.23 a/ D 3 a2 10 aC3 D
.a 3/.3 a 1/ und 3.a 2/.a 6/ D .a2 8 a C15/ D
x1 C x2 C a x3 D 2 .a 3/.a 5/.
2 x1 C a x2 x3 D 1 Für a … f3; 13 g ist das Gleichungssystem also eindeutig
3 x1 C 4 x2 C 2 x3 D a lösbar.
Für a D 13 ist das Gleichungssystem aufgrund der letzten
keine, genau eine bzw. mehr als eine Lösung? Berechnen Sie Zeile unlösbar.
für a 2 f2; 3g alle Lösungen. Für a D 3 gibt es unendlich viele Lösungen.
Wir berechnen nun abschließend die Lösungen des Sys-
Problemanalyse und Strategie tems für die beiden Fälle a 2 f2; 3g.
Wir notieren die erweiterte Koeffizientenmatrix .A j b/ und a D 2: Wir setzen a D 2 in die Zeilenstufenform der
bringen diese mit elementaren Zeilenumformungen auf Stu- erweiterten Koeffizientenmatrix ein und erhalten
fenform. Dabei achten wir darauf, dass wir Fallunterscheidun- 0 1
1 1 2 2
gen so lange wie möglich hinausschieben, also nicht durch a B0
@ 1 4 4CA
oder einen a enthaltenden Ausdruck dividieren.
0 0 5 3
Lösung
also x3 D 35 , x2 D 4 C 4 x3 D 85 , x1 D 2 x2 2 x3 D 12
5 ,
Wir beginnen mit den Zeilenumformungen an der erweiterten
d. h.
Koeffizientenmatrix:
0 1
1 1 a 2 L D f.12=5; 8=5; 3=5/g:
B2 1 1C
z2 2z1
@ a A !
3 4 2 a
z3 3z1 a D 3: In diesem Fall erhalten wir aus der Zeilenstufen-
0 1 form der erweiterten Koeffizientenmatrix
1 1 a 2 0 1
B0 a2 1 2 a 3 C
z2 $z3 1 1 3 2
@ A ! B0
0 1 2 3a a6 @ 1 7 3CA
0 1 0 0 0 0
1 1 a 2
B0 2 3a a 6C
z3 .a2/z2
@ 1 A ! also x2 D 3 C 7 x3 , x1 D 2 x2 3 x3 D 5 10 x3 . Für je-
0 a2 1 2 a 3 de Wahl von x3 2 R liegt eine Lösung vor. Wir verdeutlichen
0 1 dies, indem wir x3 D t setzen. Damit lautet die Lösungsmen-
1 1 a 2
B0 C ge bei a D 3
@ 1 2 3a a6 A
0 0 3.a 3/.a 13 / .a 3/.a 5/
L D f.5 10 t; 3 C 7 t; t/ j t 2 Rg:
subtrahieren. d. h.,
0 1
1 3 i 2i 1 1 1
@0 2 i i A ! LD .3 C i/; .3 4 i/; .3 C 6 i/
5 5 5
0 2C6i 0 6C2i
0 1 ist die Lösungsmenge. 9
1 3 i 2i
@0 2 i i A
0 0 3 i 3 C3i Hinter den Eliminationsverfahren steht
ein Algorithmus
Es gibt also eine eindeutige Lösung, und zwar
3 C3i 1 3 6 Egal, wie unbequem die Einträge einer Matrix auch sein
x3 D D .3 C 3 i/ .3 C i/ D C i
3i 10 5 5 mögen, letztlich gelingt es immer, eine Matrix mit ele-
i i x3 3 4 mentaren Zeilenumformungen auf (reduzierte) Zeilenstu-
x2 D D i
2 5 5 fenform zu bringen. Nach den vielen Beispielen soll die-
3 1 ses Ergebnis nochmals festgehalten und der algorithmi-
x1 D 2 i C 3 x2 C i x3 D C i
5 5 sche Charakter des Verfahrens hervorgehoben werden. Mit
80 Kapitel 3 Lineare Gleichungssysteme – ein Tor zur linearen Algebra
Letzterem ist gemeint, dass ein und dieselben Prozedur so ersten Spalten bleiben davon sowieso unberührt. Nach die-
oft angewendet wird, bis die gewünschte Form erreicht ist. sen Umformungen steht der erste, von null verschiedene
Eintrag der zweiten Zeile – bezogen auf die Gesamtmatrix
– an der Stelle .2; k C l/:
Reduzierbarkeit auf Zeilenstufenform 0 1
0 ai k
3 Jedes lineare Gleichungssystem lässt sich durch elemen-
B 0 0 a1Cj kCl C
tare Zeilenumformungen in ein äquivalentes System über- B C
B 0 0 0 C
führen, das eine Zeilenstufenform oder reduzierte Zeilen- B C
B :: :: :: C
stufenform aufweist. @ : : : A2 A
Beweis Wir beschreiben das schrittweise Vorgehen, also Von nun an lassen wir die erste Zeile und die ersten l Spal-
den Eliminationsalgorithmus, bei dem aus m Gleichungen ten von A 1 außer Acht und wiederholen das Verfahren für
in n Unbekannten bestehenden Gleichungssystem .A j b/: die verbleibende Matrix A 2 , die nur mehr .m 2/ Zeilen
1. Schritt: Wir beginnen mit der ersten Spalte von A. und n k l Spalten aufweist; und so weiter. Gleichar-
Gibt es darin ein ai1 ¤ 0, so verwenden wir dieses, tige Schritte sind so lange zu wiederholen, bis alle Zeilen
um alle anderen Einträge aj1 , j ¤ i, in der ersten Spalte zu durchlaufen sind oder die Restmatrix nur mehr Nullen ent-
eliminieren, indem von der j -ten Zeile die mit aj1 =ai1 mul- hält. Nachdem die Größe der Restmatrix Schritt für Schritt
tiplizierte i-te Zeile subtrahiert wird. Dann tauschen wir die abnimmt, ist nach spätestens m Schritten die Zeilenstufen-
i-te Zeile mit der ersten Zeile. Alle Zeilenumformungen form hergestellt.
sind an der erweiterten Koeffizientenmatrix .A j b/ vorzu- Will man schließlich die reduzierte Zeilenstufenform
nehmen. erreichen, so verwendet man die führenden Einträge pro
Gibt es hingegen nur Nullen in der ersten Spalte, so Zeile, um die darüber stehenden Einträge zu eliminie-
gehen wir die Spalten der Reihe nach durch. Finden wir ren. Über den anderen Elementen derselben Stufe können
erstmals in der k-ten Spalte von A, 1 < k n, ein von null durchaus von null verschiedene Zahlen stehen bleiben.
verschiedenes Element ai k , so verfahren wir mit der k-ten
Spalte so wie vorhin mit der ersten.
Gibt es überhaupt nur Nullen in A, so sind wir bereits 3.3 Das Lösungskriterium und die Struktur
fertig mit der Elimination. der Lösung
2. Schritt: Die erste Zeile der Matrix beginnt nun ent-
weder mit ai1 ¤ 0, oder sie beginnt mit Nullen und erstmals
an der Stelle .1; k/, k > 1, steht ein ai k ¤ 0. Wir fassen Bringt man eine Koeffizientenmatrix A bzw. eine erwei-
beide Möglichkeiten zusammen, indem wir k 1 zulassen. terte Koeffizientenmatrix .A j b/ mithilfe von elementaren
Dann lassen wir im Weiteren die erste Zeile und die ers- Zeilenumformungen auf Zeilenstufenform, so heißt die An-
ten k Spalten der Koeffizientenmatrix A außer Acht und zahl der Zeilen, in denen nicht nur Nullen als Einträge
wenden uns der verbleibenden .m 1/ .n k/-Matrix A 1 erscheinen, der Rang rg A bzw. rg.A j b/. Dieser bereits
zu: oben eingeführte Begriff spielt eine wesentliche Rolle bei
der Lösbarkeitsentscheidung.
0 1
0 ai k
B 0 0 C
B C
B :: :: C Mithilfe des Ranges lässt sich die Lösbarkeit
@ : : A1 A
eines linearen Gleichungssystems
entscheiden
Es ist zu beachten, dass die Restmatrix A 1 ebenso wie A
keine Absolutglieder enthält. Nur bei den Zeilenumformun- Wir formulieren gleich das wesentliche Ergebnis.
gen sind auch die Absolutglieder mit zu berücksichtigen.
Diesmal durchsuchen wir in A 1 die Spalten von vorne
weg, um ein Element aj l ¤ 0 zu entdecken. Gibt es keines,
Das Lösbarkeitskriterium
so sind wir fertig. Finden wir hingegen in der Restmatrix
Ein lineares Gleichungssystem mit der Koeffizientenma-
A 1 an der Stelle .j; l/, j 1, l 1, ein von null ver-
trix A und der erweiterten Koeffizientenmatrix .A j b/ ist
schiedenes Element a1Cj kCl , so eliminieren wir damit wie
genau dann lösbar, wenn
im ersten Schritt die Einträge der l-ten Spalte in A 1 und
tauschen dann die j -te Zeile mit der ersten von A 1 .
rg A D rg.A j b/ :
Wieder werden die Zeilenumformungen an der ge-
samten erweiterten Koeffizientenmatrix vorgenommen. Die
3.3 Das Lösungskriterium und die Struktur der Lösung
81 3
Kommentar Dieses Kriterium wird den im 19. Jahrhundert daran, dass bei allen elementaren Zeilenumformungen die
wirkenden Mathematikern Leopold Kronecker und Alfredo Nullen in der Absolutspalte bestehen bleiben und sich da-
Capelli zugeschrieben und deshalb oft Kriterium von Kron- her in der Zeilenstufenform kein Widerspruch zeigen kann.
ecker und Capelli genannt. Setzt man in einem beliebigen linearen Gleichungssys-
tem .A j b/ alle Absolutglieder gleich null, so entsteht das
Beweis Gilt rg A D rg.A j b/, so existiert ein zu .A j b/ zugehörige homogene lineare Gleichungssystem .A j 0/
äquivalentes lineares Gleichungssystem in Zeilenstufen- mit dem Nullvektor 0 als Spalte der Absolutglieder:
form, bei welchem rechts von den Nullzeilen von A nur
Nullen stehen. Deshalb ist die Lösungsmenge nicht leer. a11 x1 C a12 x2 C C a1n xn D b1
Ist rg A ¤ rg.A j b/, so bleibt nur rg A < rg.A j b/, a21 x1 C a22 x2 C C a2n xn D b2
da die Zeilen in .A j b/ jeweils ein Element mehr aufwei- :: :: :: ::
sen als jene in A. Dann enthält ein zu .A j b/ äquivalentes : : : :
lineares Gleichungssystem in Zeilenstufenform eine Zeile am1 x1 C am2 x2 C C amn xn D bm
„ ƒ‚ …
der Art inhomogen ” b ¤0 für mindestens ein i
i
.0 0 : : : 0 j b/ mit b ¤ 0 : #
a11 x1 C a12 x2 C C a1n xn D 0
Dies besagt aber, dass das gegebene Gleichungssystem a21 x1 C a22 x2 C C a2n xn D 0
nicht lösbar ist. :: :: :: ::
: : : :
Nicht lösbar sind also z. B. am1 x1 C am2 x2 C C amn xn D 0
„ ƒ‚ …
0 1 0 1 zugehöriges homogenes System
2 b 1 0 1 1 2 3 2
@0 1 0 4A und @0 0 0 0 1A :
?Selbstfrage 3.7
0 0 0 2 0 0 0 1 1
Hat ein homogenes Gleichungssystem über einem Körper
K neben der trivialen Lösung noch eine weitere Lösung,
Hingegen sind lösbar
so hat es gleich unendlich viele Lösungen. Stimmt das?
0 1 0 1
2 b 1 0 1 1 2 3 2
@0 1 0 4A und @0 0 1 1 1 A :
0 0 0 0 0 0 0 1 5 Die Lösungsmengen von homogenen und
inhomogenen linearen Gleichungssystemen
Kommentar haben eine gewisse Struktur
4 Lineare Gleichungssysteme mit lauter Nullen als Abso-
lutglieder sind immer lösbar.
4 Beim Verfahren von Gauß und Jordan bedeutet es kei- Mithilfe von Begriffen und Ergebnissen aus dem kom-
nen zusätzlichen Aufwand, das obige Lösbarkeitskrite- menden 7 Kap. 4 werden wir eine bessere Einsicht in die
rium anzuwenden. Es ist eine Station auf dem Weg zur Struktur der Lösungsmengen gewinnen. Unsere derzeiti-
Lösungsfindung. gen Kenntnisse reichen aber bereits aus, um die folgenden
4 Ein Grund, warum das Lösbarkeitskriterium mithilfe Sachverhalte zu begründen.
der Ränge formuliert wird, liegt in der Bedeutung des
Ranges als eine wichtige Kenngröße einer Matrix. Vor-
weggreifend wollen wir nur bemerken, dass sich der Lösungen eines homogenen Systems
Rang auch auf andere Arten feststellen lässt. Man muss Sind .l1 ; : : : ; ln / und .m1 ; : : : ; mn / Lösungen eines homo-
hierzu nicht unbedingt die Zeilenumformungen durch- genen linearen Gleichungssystems über K in n Unbekann-
führen. ten, dann ist auch die Summe .l1 C m1 ; : : : ; ln C mn / eine
Lösung. Ferner ist für jedes 2 K auch das -Fache
? Selbstfrage 3.6 . l1 ; : : : ; ln / eine Lösung.
Vergleichen Sie bei den sechs Gleichungssystemen im
Beispiel aus 7 Abschn. 3.1 die Ränge der Koeffizienten-
matrizen mit jenen der erweiterten Koeffizientenmatrizen.
Beweis Um zu zeigen, dass die Summe eine Lösung ist,
Ein lineares Gleichungssystem, in dessen Absolutspalte müssen wir nur verifizieren, dass alle Gleichungen beim
lauter Nullen stehen, heißt homogen und sonst inhomogen. Einsetzen dieser Summe erfüllt werden.
Ein homogenes System besitzt immer die triviale Lösung Wir setzen die Summe in die i-te Gleichung des ho-
.0; 0; : : : ; 0/ und ist daher immer lösbar. Das zeigt sich auch mogenen Systems ein. Mithilfe der in Körpern gültigen
82 Kapitel 3 Lineare Gleichungssysteme – ein Tor zur linearen Algebra
Wir untersuchen das reelle lineare Gleichungssystem Für a ¤ 1 können wir die zweite Zeile durch a C 1 und
die dritte durch a teilen. Wir erhalten so die Matrix
x1 C a x2 C b x3 D 2 a
0 1
x1 x2 D0 1 1 0 0
B0 1 0 2 a C
3 b x2 C a x3 D b @ aC1 A
0 0 1 0
in Abhängigkeit der beiden Parameter a; b 2 R auf Lösbarkeit
bzw. eindeutige Lösbarkeit und stellen die entsprechenden Be- mit einer eindeutig bestimmten Lösung.
reiche für .a; b/ 2 R2 grafisch dar. Damit haben wir den Fall b D 0 abgehandelt.
2. Fall b ¤ 0: Die zum Gleichungssystem gehörige Ma-
Problemanalyse und Strategie trix lautet, nachdem wir die dritte Zeile durch b geteilt haben:
Wir wenden die bekannten elementaren Zeilenumformungen 0 1
an, beachten aber jeweils, unter welchen Voraussetzungen an 1 1 0 0
B0 aC1 2 aC
a und b diese zulässig sind. @ b A
0 1 a=b 1
Lösung
Wir vertauschen die zweite und die dritte Zeile und addieren
Die erweiterte Koeffizientenmatrix .A j b/ des Systems lautet:
zur neuen dritten Zeile das .a C 1/-Fache der neuen zweiten
0 1
1 a b 2a Zeile:
B1 1 0 0C 0 1
@ A 1 1 0 0
0 b a b B0 1 1 C
@ a=b A
Damit die Parameter a und b nicht zu oft auftreten, bietet sich 0 0 b .a C 1/ a=b a 1
ein Tausch der ersten beiden Zeilen an. Zur neuen zweiten Zei-
le addieren wir dann das .1/-Fache der dann neuen ersten Also gilt:
Zeile: 1) Das Gleichungssystem ist nicht lösbar für a ¤ 1 und
0 1 0 1 b 2 D .a C 1/ a.
1 1 0 0 1 1 0 0 2) Das Gleichungssystem ist eindeutig lösbar für b 2 ¤ .a C
B1 a b 2 aC B C
@ A ! @0 a C 1 b 2 a A 1/ a, wobei a beliebig ist.
0 b a b 0 b a b 3) Das Gleichungssystem hat unendlich viele Lösungen für
a D 1 und b 2 D 2.
Damit wir die letzte Zeile mit b 1 multiplizieren dürfen, be-
trachten wir b D 0 gesondert.
Die Menge der in 1) genannten Punkte .a; b/ 2 R2 mit
1. Fall b D 0: Die Matrix hat dann die Form:
b 2 D .a C 1/ a bildet eine Hyperbel:
0 1
1 1 0 0
B0 a C 1 0 2 aC a
@ A
0 0 a 0
1
Wir unterscheiden zwei Fälle: (a) a D 0 und (b) a ¤ 0:
(a) Ist a D 0, so erhalten wir
0 1
1 1 0 0 b
B0 1 0 0C
@ A
0 0 0 0
Das gilt für jedes i 2 f1; : : : ; mg. Also ist .l1 Cm1 ; : : : ; ln C Also löst der Differenzenvektor l D m s das homogene
mn / eine Lösung. System, oder anders ausgedrückt: m D s C l .
Ebenso gilt für jedes 2 K und für jeden Zeilenindex
i 2 f1; : : : ; mg wegen der Kommutativität von K Ist L die Lösungsmenge unseres inhomogenen Systems
und L0 jene des zugehörigen homogenen Systems, so be-
ai1 . l1 / C ai 2 . l2 / C C ai n . ln / sagt das zweite Ergebnis
D .ai1 l1 C ai 2 l2 C C ai n ln / D 0 D 0 :
L D s C L0 D fs C l j l 2 L0 g: (3.2)
Somit ist wie behauptet auch . l1 ; : : : ; ln / eine Lösung
unseres Gleichungssystems. ?Selbstfrage 3.8
Hier drängt sich die Vektorschreibweise geradezu auf. Sind Summen und Vielfache von Lösungen inhomogener
Wenn wir l und m als die beiden Lösungsvektoren des ho- Systeme stets wieder Lösungen des inhomogenen Sys-
mogenen Gleichungssystems A x D 0 voraussetzen, so tems?
besagt die obige Aussage, dass auch der Summenvektor
l C m eine Lösung ist. Dabei wird – die Vektoraddition
bereits vorwegnehmend – die Summe zweier n-Tupel kom- Nach einer Umreihung der Unbekannten
ponentenweise gebildet, analog zu der im 7 Abschn. 2.1 wird das Rückwärtseinsetzen besonders
vorgeführten Summe zweier Zahlentripel. Ebenso löst mit übersichtlich
l auch l das homogene System, und natürlich bedeutet
l das -Fache der Lösung l .
Wenn wir gleich auch noch die Matrizengleichung un- Abschließend noch ein genauer Blick auf das Rückwärts-
seres Systems verwenden und vorwegnehmen, dass die einsetzen:
Matrizenmultiplikation distributiv ist, was in voller Allge- Wir gehen aus von der reduzierten Zeilenstufenform.
meinheit erst im 7 Kap. 6 erklärt wird, so können wir den Nach geeigneter Multiplikation der Zeilen können alle füh-
obigen Beweis ganz kurz wie folgt führen: renden Einträge zu 1 gemacht werden. Wir wollen nun auch
noch Spaltenvertauschungen zulassen. Damit können wir
Al D Am D 0 nämlich erreichen, dass alle Stufen die Länge 1 erhalten,
) A.l C m/ D A l C A m D 0 C 0 D 0: weil die zwischen den führenden Einträgen gelegenen Spal-
ten zurückgereiht werden.
In 7 Kap. 4 werden wir eine Menge U von Vektoren einen Wenn wir die Spalten mit den Indizes i und j vertau-
Unterraum nennen, wenn dieser mit l und m auch l C m schen, so bedeutet dies, dass in der bisherigen Reihenfolge
sowie l für alle 2 K enthält. der Unbekannten x1 ; : : : ; xn die beiden Unbekannten xi
und xj die Plätze tauschen. Wir können also von einer
Umreihung der Unbekannten sprechen, oder aber auch von
Lösungsmenge eines inhomogenen Systems einer Umnummerierung, weil wir das bisherige xi als xj
Ist .s1 ; : : : ; sn / eine spezielle Lösung eines linearen Glei- bezeichnen können und umgekehrt.
chungssystems über K in n Unbekannten und .l1 ; : : : ; ln / Auf diese Weise kommen wir im lösbaren Fall auf die
eine Lösung des zugehörigen homogenen Systems, dann Form
ist auch die Summe .s1 C l1 ; : : : ; sn C ln / eine Lösung des 0 1
1 0 c1 rC1 c1n s1
inhomogenen Systems. Umgekehrt ist jede Lösung des in- B :: :: :: :: C
B : :C
homogenen Systems als eine derartige Summe darstellbar. B : : C
B0 1 cr rC1 crn sr C
B C;
B C
B0 0 0 0C
@: :: :: :: A
Beweis Wir verwenden hier gleich von Anfang an die Ma- :: : : :
trizengleichung A x D b des gegebenen Systems.
84 Kapitel 3 Lineare Gleichungssysteme – ein Tor zur linearen Algebra
also ausgeschrieben, ohne Nullspalten und nach bereits er- Sicherheitshalber haben wir in einer Kopfzeile die Namen
folgter Umnummerierung der Unbekannten: der jeweiligen Unbekannten angeführt, denn nun reihen wir
um, so dass die Stufenlänge einheitlich 1 beträgt:
x1 C c1 rC1 xrC1 C C c1n xn D s1
:: :: :: 0 1
:: x1 x3 x2 x4 x5
: : : :
@ 1 0 2 1 0 1A
3 xr C cr rC1 xrC1 C C crn xn D sr
0 1 0 3 3 2
Nun ersetzen wir die letzten Unbekannten xrC1 ; : : : ; xn
durch frei wählbare Parameter t1 ; : : : ; tnr 2 K und brau- Dies ergibt für die neue Reihenfolge der Unbekannten als
chen die Lösung nur noch abzuschreiben: Parameterdarstellung der Lösungsmenge
0 1 0 1 0 1
x1 D s1 c1 rC1 t1 c1n tnr x1 1 2 1 0
0 1
:: :: :: :: Bx3 C B2C B 0 3 3 C t1
: : : : B C B C B C
Bx2 C D B0C C B 1 0 0 C @ A
xr D sr cr rC1 t1 crn tnr B C B C B C t2 :
@x4 A @0A @ 0 1 0 A t3
xrC1 D t1 x5 0 0 0 1
:: ::
: :
xn D tnr Kommentar In der Sprache der Vektorräume, wie sie
im nächsten 7 Kap. 4 entwickelt wird, können wir sa-
In Form einer Matrizengleichung sieht dies vielleicht noch gen: Die Lösungsmenge eines homogenen Systems über
deutlicher aus: K in n Unbekannten und vom Rang r ist ein .n
0 1 0 1 0 1 r/-dimensionaler Unterraum von Kn . Die Lösungsmenge
x1 s1 c1;rC1 c1n eines lösbaren inhomogenen Systems vom Rang r ist ein
B : C B:C B : :: C
B :: C B :: C B :: C 0 1 .n r/-dimensionaler affiner Raum.
B C B C B : C t1
B x C Bs C B c C
B r C B r C B r;rC1 crn C B :: C
B CDB CCB C
BxrC1 C B 0 C B 1 0 C@ : A Aufgaben
B : C B:C B C tnr
B : C B:C B :: C
@ : A @:A @ : A
xn 0 0 1 Gelegentlich enthalten die Aufgaben mehr Angaben, als für
die Lösung erforderlich sind. Bei einigen anderen dage-
In den ersten r Zeilen scheinen Teilmatrizen der vorange- gen werden Daten aus dem Allgemeinwissen, aus anderen
gangenen erweiterten Koeffizientenmatrix auf. Bei den rot Quellen oder sinnvolle Schätzungen benötigt.
gedruckten Einträgen in der r .n r/-Teilmatrix sind al-
lerdings alle Vorzeichen umgekehrt. einfache Aufgaben mit wenigen Rechenschritten
In Übereinstimmung mit (3.2) zeigt die obige Parame- mittelschwere Aufgaben, die etwas Denkarbeit und
terdarstellung in der ersten Spalte die spezielle Lösung des unter Umständen die Kombination verschiedener
inhomogenen Systems (erreichbar bei t1 D D tnr D 0) Konzepte erfordern
und anschließend die allgemeine Lösung des zugehörigen anspruchsvolle Aufgaben, die fortgeschrittene Kon-
homogenen Gleichungssystems. zepte (unter Umständen auch aus späteren Kapiteln)
oder eigene mathematische Modellbildung benötigen
Wir demonstrieren dies noch an dem Beispiel aus der 3.2 Gibt es ein lineares Gleichungssystem über ei-
Beispielbox im 7 Abschn. 3.2 mit der reduzierten Zeilen- nem Körper K mit weniger Gleichungen als Unbekannten,
stufenform welches eindeutig lösbar ist?
0 1
x1 x2 x3 x4 x5
3.3 Ist ein lineares Gleichungssystem A x D b mit
@ 1 2 0 1 0 1A :
n Unbekannten und n Gleichungen für ein b eindeutig lös-
0 0 1 3 3 2 bar, dann auch für jedes b . Stimmt das?
Aufgaben
85 3
3.4 Folgt aus rg A D rg.A j b/, dass das lineare mit b D a2 6 a C 9 keine, genau eine bzw. mehr als
Gleichungssystem .A j b/ eindeutig lösbar ist? eine Lösung? Für a D 0 und a D 2 berechne man alle
Lösungen.
3.5 Ein lineares Gleichungssystem mit lauter ganz-
zahligen Koeffizienten und Absolutgliedern ist auch als 3.10 Berechnen Sie die Lösungsmenge der komple-
Gleichungssystem über dem Restklassenkörper Zp aufzu- xen linearen Gleichungssysteme:
fassen. Angenommen, l D .l1 ; : : : ; ln / ist eine ganzzahlige a) x1 C i x2 C x3 D 1 C 4 i
Lösung dieses Systems. Warum ist dann l D .l 1 ; : : : ; l n / x1 x2 C i x3 D 1
mit l i li .mod p/ für i D 1; : : : ; n eine Lösung i x1 x2 x3 D 1 2 i
des gleichlautenden Gleichungssystems über Zp ? Ist jede b) 2 x C i x3 D i
1
Lösung zu letzterem aus einer ganzzahligen Lösung des x1 3 x2 i x3 D 2 i
Systems über Q oder R herleitbar? i x1 C x2 C x3 D 1 C i
3.6 Das folgende lineare Gleichungssystem mit c) .1 C i/ x1 i x2 x3 D 0
ganzzahligen Koeffizienten ist über R unlösbar. In welchen 2 x 1 C .2 3 i/ x2 C 2 i x3 D 0
Restklassenkörpern ist es lösbar, und wie lautet die jeweili-
3.11 Bestimmen Sie die Lösungsmenge L des folgen-
ge Lösung?
den reellen linearen Gleichungssystems in Abhängigkeit
2 x1 C x2 2 x3 D 1 von r 2 R:
x1 4 x2 19 x3 D 10 r x1 C x2 C x3 D 1
x2 C 4 x3 D 1 x1 C r x2 C x3 D 1
x1 C x2 C r x3 D 1
3.7 Es sind Zahlen a; b; c; d; r; s aus dem Körper K
vorgegeben. Begründen Sie, dass das lineare Gleichungs-
3.12 Untersuchen Sie das reelle lineare Gleichungs-
system
system
a x1 C b x2 D r
x1 x2 C x3 2 x4 D 2
c x1 C d x2 D s
2 x1 C 3 x2 C a x3 D4
im Fall a d b c ¤ 0 eindeutig lösbar ist, und geben Sie x1 C x2 x3 C a x4 Da
die eindeutig bestimmte Lösung an. a x2 C b 2 x3 4 a x4 D1
Bestimmen Sie zusätzlich bei K D R für m 2 R die
in Abhängigkeit der beiden Parameter a; b 2 R auf Lös-
Lösungsmenge des folgenden linearen Gleichungssystems:
barkeit bzw. eindeutige Lösbarkeit und stellen Sie die
2 x1 C 3 x2 D 2 m entsprechenden Bereiche für .a; b/ 2 R2 grafisch dar.
x1 5 x2 D 11
3.13 Im Ursprung 0 D .0; 0; 0/ des R3 laufen die drei
Stäbe eines Stabwerks zusammen, die von den Punkten
Rechenaufgaben a D .2; 1; 5/; b D .2; 2; 4/; c D .1; 2; 3/
ausgehen.
3.8 Bestimmen Sie die Lösungsmengen L der fol-
Im Ursprung 0 wirkt die vektorielle Kraft F D
genden reellen linearen Gleichungssysteme und untersu-
.0; 0; 56/ in Newton. Welche Kräfte wirken auf die Stäbe
chen Sie deren geometrische Interpretationen:
(siehe . Abb. 3.7)?
a) 2 x1 C 3 x2 D 5
x1 C x2 D 2
3x1 C x2 D 1
Beweisaufgaben
b) 2x1 x2 C 2x3 D 1
x1 2x2 C 3x3 D 1
6x1 C 3x2 2x3 D 1 3.14 Beweisen Sie, dass bei jedem linearen Glei-
x1 5x2 C 7x3 D 2 chungssystem über dem Körper K mit den beiden Lösun-
gen l D .l1 ; : : : ; ln / und l D .l1 ; : : : ; ln / gleichzeitig
3.9 Für welche a 2 R hat das reelle lineare Glei- auch l C .1 /l , also .l1 C .1 /l1 ; : : : ; ln C .1
chungssystem /ln / eine Lösung ist, und zwar für jedes 2 K.
0 vAntwort 3.4
Die Zeilenumformung vom Typ 3 wurde beim ersten
Umformungspfeil nicht korrekt ausgeführt: Zeilenumfor-
mungen sind der Reihe nach durchzuführen. Wird im
ersten Schritt gemäß Typ 3 die zweite Gleichung zur
ersten addiert, so muss im zweiten Schritt zur zweiten
3 #F c Gleichung bereits die Summe z1 C z2 addiert werden und
c # nicht nur z1 allein. Hinter dem ersten Umformungspfeil
#F b
F verbergen sich bereits zwei Schritte, von denen der zweite
unzulässig ist.
b
#F a
a vAntwort 3.5
Steht an der Stelle .2; 3/ eine Zahl a23 ¤ 0, dann er-
1
. Abb. 3.7 Die Gewichtskraft F verteilt sich auf die Stäbe zeugen wir dort eine 1, wenn wir die 2. Zeile mit a23
multiplizieren. Bei a23 D 0 sehen wir nach, ob in der 3.
Spalte weiter unten ein von null verschiedenes Element
Antworten zu den Selbstfragen vorkommt. Wenn ja, vertauschen wir die zugehörige Zeile
mit der zweiten und verfahren wie vorhin. Wenn nein, ver-
v Antwort 3.1 fahren wir mit der 4. Spalte so wie vorhin mit der dritten,
Man erhält dann f.t; 1=2 t/ j t 2 Rg als Lösungsmenge. und so weiter. Gibt es von der zweiten Zeile an links vom
Dies ist aber natürlich die gleiche Menge. Trennstrich sowieso nur mehr Nullen, so liegt bereits eine
Stufenform vor.
v Antwort 3.2
1) Nein, denn die Gleichungen können einander wider- vAntwort 3.6
sprechen wie etwa x1 Cx2 Cx3 D 1 und x1 Cx2 Cx3 D Es gilt der Reihe nach rg A D 2 D rg.A j b/, rg A D 1 ¤
0, was zu L D ; führt. Ist das System jedoch lösbar, 2 D rg.A j b/ sowie rg A D 1 D rg.A j b/. Bei den drei
so kann man eine Unbekannte durch einen Parame- Gleichungen mit 4 Unbekannten im vierten Beispiel ist
ter t 2 R ersetzen und das System weiterhin lösen. rg A D 2 D rg.A j b/, bei dem fünften rg A D 2 ¤ 3 D
Wegen der freien Wahl von t gibt es unendlich viele rg.A j b/. Beim sechsten gilt über R rg A D 2 ¤ 3 D
Lösungen. rg.A j b/; hingegen gilt über Z5 rg A D 2 D rg.A j b/.
2) Nein, es ist z. B. x1 D 1, 2 x1 D 2 ein System von
zwei linearen Gleichungen in einer Unbekannten x1 vAntwort 3.7
und mit der eindeutig bestimmten Lösung x1 D 1. Es ist nur dann richtig, wenn K unendlich viele Elemente
hat, denn mit l ist auch jedes Vielfache l mit 2 K eine
v Antwort 3.3 Lösung des homogenen Systems.
Im Fall b ¤ 0 ist die Lösungsmenge jeweils die leere
Menge. Im Fall b D 0 ist bei zwei Unbekannten die Lö- vAntwort 3.8
sungsmenge L D R2 , also die ganze Ebene, und bei drei Nein, denn aus As1 D As2 D b folgt A.s1 C s2 / D
Unbekannten der ganze Raum. 2 b ¤ b sowie A.s1 / D b ¤ b, sofern ¤ 1.
87 4
Inhaltsverzeichnis
4.3 Untervektorräume – 94
Aufgaben – 118
D . v/ C . v/ :
v1 w1 v1 C w1
C D
v2 w2 v2 C w2 (V3) und (V4) begründet man analog.
zu einer abelschen Gruppe .R2 ; C/. Wir erklären nun eine Das Beispiel lässt sich noch weiter verallgemeinern.
R mit Beispiel Analog zu dem eben betrachteten Beispiel des R2
2
Multiplikation von Elementen der abelschen Gruppe
v1
Elementen aus dem Körper R. Für jedes v D 2 R2 ist für jeden Körper K und jede natürliche Zahl n die Menge
v2
und jedes 2 R setzen wir 80 1 9
ˆ v1 >
< =
B :: C
v1 v1 V D K D @ : A j v1 ; : : : ; vn 2 K
n
D : :̂ >
;
v2 v2 vn
Eigentlich sollte man für die Addition von Elementen aus mit komponentenweiser Addition und komponentenweiser
R2 und die Multiplikation von Elementen aus dem R2 mit Multiplikation mit Skalaren ein K-Vektorraum, Rn ein re-
reellen Zahlen neue Symbole, etwa ˚ und ˇ, einführen. eller, C n ein komplexer.
90 Kapitel 4 Vektorräume – von Basen und Dimensionen
Es gibt Beispiele von Mengen mit Verknüpfungen, bei denen (3) In K D C und V D C bezeichne C die übliche Addition
nur fast alle Vektorraumaxiome erfüllt sind. Wir führen vier komplexer Zahlen; als skalare Multiplikation definieren
Beispiele an, bei denen jeweils eines der sogenannten Verträg- wir für 2 C und v 2 V
lichkeitsaxiome (V1), (V2), (V3), (V4) zwischen der skalaren
Multiplikation und der Addition nicht erfüllt ist. Man beachte, v D .Re / v :
dass wir im Folgenden bei der üblichen Multiplikation in R
bzw. C keinen Multiplikationspunkt setzen. Die Multiplika- Das gemischte Assoziativgesetz (V3) gilt hier nicht: Z. B.
4 ist
tionspunkte sind für die definierten skalaren Multiplikationen
reserviert.
.i2 / v D .1/ v D Re.1/ v D v ;
(1) In K D C und V D C 2 bezeichne C die komponenten-
aber
weise Addition; als skalare
! Multiplikation definieren wir
v1 i .i v/ D Re.i/ Re.i/ v D 0 ;
für 2 C und v D 2 V:
v2
8 ! d. h. .i2 / v ¤ i .i v/, sofern v ¤ 0. Die anderen Vek-
ˆ
ˆ v1 torraumaxiome sind erfüllt. Exemplarisch zeigen wir, dass
! ˆˆ falls v2 ¤ 0
v1 < v2 ; (V2) erfüllt ist: Für alle , 2 C und v 2 V gilt
D !
v2 ˆ
ˆ
ˆ v1 ; falls v2 D 0
:̂ 0 . C / v D Re. C / v D .Re C Re / v
! !
1 1 D Re v C Re v D v C v :
Wir wählen D i 2 C, v D ,wD 2 V und
1 1
rechnen nach, (4) In K D R und V D R2 bezeichne C die komponenten-
! !! ! ! weise Addition; als skalare
! Multiplikation definieren wir
1 1 2 2 i v1
.v C w/ D i C D i D für 2 R und v D 2V
1 1 0 0 v2
sowie ! ! ! !
1 1 v1 v1
vCwD i Ci D :
1 1 v2 0
! ! !
i i 2i Für D 1, v2 ¤ 0 ergibt sich
D C D :
i i 0
! ! !
v1 v1 v1
Also ist das Vektorraumaxiom (V1) verletzt. 1 D ¤ ;
v2 0 v2
Es gelten jedoch alle anderen Vektorraumaxiome. !Exem-
v1 also gilt hier das Axiom (V4) nicht. Alle anderen Axio-
plarisch weisen wir (V9) nach: Für alle v D 2 V
v2 me gelten. Exemplarisch weisen !
wir (V1) nach. Für alle
gilt: ! ! !
v1 1 v1 v1 w1
1v D1 D D v: 2 R und v D ;w D 2 V gilt:
v2 1 v2 v2 w2
! ! !
(2) In K D R und V D R bezeichne C die übliche Additi- .v1 C w1 / v1 w1
on reeller Zahlen; als skalare Multiplikation definieren wir .v C w/ D D C
0 0 0
für 2 R und v 2 V
D v C w:
v D v:
2
Wir notieren eine solche Matrix A übersichtlich durch An- Kommentar Eigentlich müsste man auch hier neue Zei-
gabe aller Bilder a11 ; : : : ; amn in der Form chen für die Addition C und Multiplikation mit Skalaren
0 1 einführen. Um aber die Rechnung nicht mit Symbolen zu
a11 a12 a1n überladen und unübersichtlich zu gestalten, verwenden wir
B a21 a22 a2n C nur ein C-Zeichen und das Multiplikationszeichen für die
B C
A D B :: :: :: C : Multiplikation mit Skalaren lassen wir, wie bereits verein-
@ : : : A
bart, weg.
am1 am2 amn
4 Wir werden eine Matrix A oft auch kurz mit .aij /m;n oder
– wenn m; n festliegen – mit .aij / bezeichnen; hierbei ist Kmn ist ein K-Vektorraum
i der Zeilenindex und j der Spaltenindex. Die Körperele- Die Menge Km n aller m n-Matrizen über K bildet mit
mente aij 2 K, i D 1; : : : ; m, j D 1; : : : ; n nennt man die komponentenweiser Addition und Multiplikation mit Ska-
Komponenten oder die Einträge der Matrix A. Im Fall laren einen K-Vektorraum.
K D R bzw. K D C bezeichnet man A auch als reelle
Matrix bzw. komplexe Matrix. Unter der Stelle .r; s/ ei-
ner Matrix A D .aij /m;n versteht man den Schnittpunkt der Beweis Wir zeigen, dass Km n mit der erklärten Addition
r-ten Zeile mit der s-ten Spalte im obigen Schema – hierbei eine abelsche Gruppe ist. Gegeben sind A D .aij /, B D
sind r und s natürliche Zahlen mit r m und s n. .bij /, C D .cij / 2 Km n .
Die Verknüpfung C ist abgeschlossen: ACB D .aij /C
? Selbstfrage 4.2 .bij / D .aij C bij / 2 Km n .
Wann sind zwei Matrizen gleich? Die Verknüpfung C ist assoziativ: .A C B/ C C D
.aij Cbij /C.cij / D .aij Cbij Ccij / D .aij /C.bij Ccij / D
Die Menge aller m n-Matrizen über K bezeichnen wir mit
A C .B C C /.
Km n , also
Die Nullmatrix ist ein neutrales Element: A C 0 D
80 1 9 .a ij C 0/ D .aij / D A.
ˆ a a1n >
< 11 = Jede Matrix hat ein Inverses: Es ist .aij / 2 Km n , und
B : :: C
Km n D @ :: j
: A ij a 2 K 8 i; j : es gilt .aij / C .aij / D 0.
:̂ >
;
am1 amn Die Verknüpfung C ist kommutativ: A C B D .aij C
bij / D .bij C aij / D B C A.
0 1
0 0 Damit ist bereits gezeigt, dass .Km n ; C/ eine abel-
B: :: C sche Gruppe ist. Die erklärte Multiplikation mit Skalaren
Die Matrix 0 D @ :: : A 2 K , deren Komponen- ist wegen .a / D . a / 2 Km n eine Abbildung von
m n
ij ij
0 0 K Km n in Km n . Es sind also nur noch die vier Vektor-
ten alle 0 sind, heißt Nullmatrix. raumaxiome nachzuweisen.
Wir führen nun in Km n eine Addition C und eine Mul- Neben A D .aij / und B D .bij / aus Km n seien nun
tiplikation mit Skalaren komponentenweise ein durch: auch , 2 K gegeben.
0 1 0 1 (V1) .A CB/ D ..aij /C.bij // D . .aij Cbij // D
a11 a1n b11 b1n
. aij C bij / D . aij / C . bij / D A C B.
B :: :: C B :: :: C
@ : : AC@ : : A (V2) . C / A D .. C / aij / D . aij C aij / D
am1 amn bm1 bmn . a ij / C . aij / D A C B.
0 1 (V3) . / A D . aij / D . aij / D . A/.
a11 C b11 a1n C b1n (V4) 1 A D 1 .aij / D .1 aij / D .aij / D A.
B :: :: C
D@ : : A Also bildet Km n mit den angegebenen Verknüpfungen
am1 C bm1 amn C bmn einen K-Vektorraum.
eine Summe p D . ai / X i :
i D0
p D a0 C a1 X C C an X n ;
Beispiel Für p D 2 X 3 CX 2 3 X, q D X 3 C 12 X 2 CX C1
dabei ist n 2 N0 , und die Koeffizienten a0 ; : : : ; an liegen aus RŒX gilt:
in K. Ist p nicht das Nullpolynom 0, so ist der Index n des p .2 q/ D 5 X 2 : 9
höchsten von null verschiedenen Koeffizienten an der Grad
von p. Dem Nullpolynom ordnet man den Grad 1 zu, Der Beweis der folgenden Aussage verläuft analog zu dem
dabei gilt 1 < n für alle n 2 N0 . Beweis für den Vektorraum der m n-Matrizen.
p4 D X ; 2
p5 D 1 C X 2 ;
p6 D X C X 2 ; p 7 D 1 C X C X 2 : 9
Die Abbildungen von einer Menge in einen
Die Menge aller Polynome über einem Körper K ist Körper bilden einen Vektorraum
( n )
X
KŒX D a i X i j n 2 N0 ; a 0 ; : : : ; a n 2 K :Bei einem Polynom p D a0 C a1 X C C an X n 2 KŒX
i D0
kann man in die Unbestimmte X zum Beispiel Elemente
Diese Menge bildet mit der koeffizientenweisen Addition aus K einsetzen. Dadurch erhält man eine Abbildung, näm-
(wir nutzen eine vereinfachte, aber suggestive Schreibwei- lich die Polynomfunktion:
se)
K!K
X X X Q
p W :
x 7! p.x/
ai X C
i
bi X D
i
.ai C bi / X i
Diese Menge bildet mit sinnvoll gewählter Addition und Sind K und M endlich, so ist die Menge KM aller Abbil-
Multiplikation mit Skalaren einen K-Vektorraum. Wir defi- dungen von M in K ebenfalls endlich. Wir betrachten ein
nieren für f ; g 2 KM und 2 K: Beispiel eines solchen endlichen Vektorraums mit acht Ele-
menten:
M !K
f Cg W und
x 7! f .x/ C g.x/ Beispiel Wir betrachten eine dreielementige Menge M D
fx; y; zg und den Körper K D Z2 D f0; 1g mit zwei Ele-
M !K
f W menten. Es ist dann die Menge KM aller Abbildungen von
x 7! f .x/
4 M nach K eine Menge mit 23 D 8 Elementen. Wir geben
die Elemente von KM explizit an:
Die Summe f C g und das skalare Vielfache f liegen
wieder in KM . Die Summe ordnet jedem x 2 M die Sum-
f 1 W x 7! 0; y 7! 0; z 7! 0
me f .x/ C g.x/ der Bilder von x unter f und g zu. Und
das Bild von x unter f ist das -Fache des Bildes von x f 2 W x 7! 0; y 7! 0; z 7! 1
unter f . Wir halten fest:
f 3 W x 7! 0; y 7! 1; z 7! 1
f 4 W x 7! 1; y 7! 1; z 7! 1
Der Vektorraum aller Abbildungen von einer
Menge in einen Körper f 5 W x 7! 1; y 7! 0; z 7! 0
Für jede Menge M und jeden Körper K ist die Menge KM
f 6 W x 7! 1; y 7! 1; z 7! 0
aller Abbildungen von M in K mit den Verknüpfungen C
und ein K-Vektorraum. f 7 W x 7! 1; y 7! 0; z 7! 1
f 8 W x 7! 0; y 7! 1; z 7! 0
Beweis Die Addition ist offenbar assoziativ und kommu-
Der eindeutig bestimmte Nullvektor ist f 1 und jedes Ele-
tativ. Das neutrale Element ist die Abbildung 0, die jedem
ment ist zu sich selbst invers, da für jedes i 2 f1; : : : ; 8g
Element x 2 M das Nullelement 0 2 K zuordnet, und
jeweils f i Cf i D f 1 gilt. Wir bestimmen weiter die Sum-
das dem Vektor f entgegengesetzte Element ist die Abbil-
me f 2 C f 3 :
dung f W x 7! f .x/. Somit ist .KM ; C/ eine abelsche
Wegen
Gruppe.
Wegen f 2 KM für jedes 2 K und f 2 KM ist die
.f 2 C f 3 /.x/ D f 2 .x/ C f 3 .x/ D 0 C 0 D 0 ;
Multiplikation eine Abbildung von K KM in KM . Da die
Vektorraumaxiome (V1)–(V4) offenbar gelten, ist KM ein .f 2 C f 3 /.y/ D f 2 .y/ C f 3 .y/ D 0 C 1 D 1 ;
K-Vektorraum.
.f 2 C f 3 /.z/ D f 2 .z/ C f 3 .z/ D 1 C 1 D 0
i Man achte wieder auf die grundsätzlich verschiedenen Be-
deutungen der Additionen, die wir mit ein und demselben gilt also f 2 C f 3 D f 8 . 9
C-Zeichen versehen. Man unterscheide genau: f C g be-
zeichnet die Addition in KM und f .x/ C g.x/ jene in K. 4.3 Untervektorräume
? Selbstfrage 4.3
Was ist im Fall M D ; los? Der Anschauungsraum, den wir auch als die Menge R3
aller 3-Tupel interpretieren können, bildet mit komponen-
Beispiel Wir betrachten den Fall M D N0 . In der Analysis tenweiser Addition und Multiplikation mit Skalaren einen
werden Folgen über C definiert, es sind dies die Abbil- reellen Vektorraum. Die Anschauungsebene kann mit dem
dungen von N0 nach C. Also bildet die Menge C N0 der R2 identifiziert werden und ist ebenso ein reeller Vektor-
(komplexen) Folgen einen komplexen Vektorraum. Etwas raum. Der R bildet zwar keine Teilmenge des R , er kann
2 3
allgemeiner erhalten wir: aber als dessen x1 -x2 -Ebene aufgefasst werden, also als
Die Menge aller Folgen über einem Körper K 80 1 9
< v1 =
KN0 D f.an /n2N0 j an 2 Kg U D @v2 A j v1 ; v2 2 R
: ;
0
ist ein K-Vektorraum.
Und der Sonderfall M D R und K D R führt uns zum (. Abb. 4.1). Wir werden sagen: U ist ein Untervektorraum
reellen Vektorraum RR aller reellwertigen Funktionen. 9 des R3 .
4.3 Untervektorräume
95 4
x3 x2
vCw
w
x1 v
x2 x1
Folglich ist u C w D .u C w / v 2 R v D U . Ebenso gilt Die Lösungsmenge L eines homogenen Gleichungs-
für jedes 2 R: u D .u v/ D . u / v 2 R v D U . systems ist nicht leer, da die triviale Lösung 0 2 Kn
Tatsächlich besitzt der R2 neben den trivialen Untervek- dazugehört. Weiter haben wir in 7 Abschn. 3.3 gezeigt,
torräumen und den von v ¤ 0 erzeugten Geraden R v keine dass mit zwei Elementen u; w 2 L auch die Summe u C w
weiteren Untervektorräume. Dies wird mit dem Begriff der eine Lösung und ebenso u für alle 2 K eine Lösung ist.
Dimension klar. Ferner gilt für v1 ; v2 2 R2 n f0g Damit ist bereits bewiesen:
Wir greifen einige Begriffe aus dem 7 Abschn. 3.2 zu Diese vorgestellte Vielfalt von Vektorräumen zeigt, wie
den linearen Gleichungssystemen wieder auf. Ein lineares allgemein dieser Begriff eines Vektorraums ist. Um so un-
Gleichungssystem über K in n Unbekannten und m Glei- gewöhnlicher ist es, dass man alle Vektorräume, die es gibt,
chungen lässt sich schreiben als allein durch Angabe des Grundkörpers K und einer zwei-
ten Größe, nämlich der Dimension, bis auf die Bezeichnung
a11 x1 C a12 x2 C C a1n xn D b1 der Elemente charakterisieren kann. Wir werden dieses Er-
a21 x1 C a22 x2 C C a2n xn D b2 gebnis in dieser Allgemeinheit nicht herleiten können, aber
:: wenigstens den endlichdimensionalen Fall können wir im
:
7 Kap. 6 behandeln. Zunächst führen wir den Begriff der
am1 x1 C am2 x2 C C amn xn D bm
Dimension ein.
mit aij ; bi 2 K für 1 i m, 1 j n. Das System
heißt homogen, wenn bi D 0 für alle i gilt und sonst in- Kommentar Ein K-Vektorraum hat eine Vektoraddition C
0 1 und eine Multiplikation mit Skalaren. Bei vielen Vek-
v1
B :: C torräumen kann man zusätzlich eine Multiplikation von
homogen. Jede Lösung v D @ : A ist ein Element des K- Vektoren erklären, wobei das Ergebnis wieder ein Vek-
vn tor ist. Beispiele sind etwa das bekannte Vektorprodukt
Vektorraumes Kn , also ein Vektor. im Vektorraum R3 oder die Multiplikation von Polynomen
4.4 Basis und Dimension
97 4
Eine quadratische Anordnung von Zahlen mit der Eigenschaft, mit der Eigenschaft, dass alle Zeilensummen, Spaltensummen
dass alle Zeilen-, Spalten- und Diagonalsummen denselben und Diagonalsummen von A gleich c sind.
S
Wert c annehmen, nennt man ein magisches Quadrat, die Zahl Dann ist M D c2R Mc die Menge aller magischen
c nennt man die magische Zahl. Das älteste bekannte magi- 3 3-Quadrate. Nun zeigen wir, dass M ein Untervektorraum
sche Quadrat ist ein 3 3-Quadrat und stammt aus China. des reellen Vektorraumes R3 3 ist.
S
Angeblich wurde es um 2200 v. Chr. vom chinesischen Kaiser Es ist M D c2R Mc nichtleer, weil 0 2 M0 M . Sind
Yü am Gelben Fluss auf dem Panzer einer Schildkröte ent- A; B 2 M , so gibt es c; c 0 2 R mit A 2 Mc und B 2 Mc 0 .
deckt. Wir drücken es mit arabischen Zahlen aus: Dann ist A C B 2 McCc 0 M . Und mit A 2 Mc und 2 R
ist A 2 M c M . Somit ist M ein Untervektorraum von
4 9 2 R3 3 und damit ein reeller Vektorraum.
3 5 7 Wir erwähnen, dass Mc für c 2 R im Allgemeinen kein
8 1 6 Untervektorraum von M ist: Zwar liegt für jedes c 2 R
0c c c
1
Wir begründen hier, dass die magischen 3 3-Quadrate, auf- 3
Bc
3 3
c cC
gefasst als Matrizen, einen Vektorraum bilden. Mit Methoden AD @3 3 3A
c c c
des nächsten Abschnittes werden wir dann zeigen, wie man zu 3 3 3
einer vorgegebenen Zahl c alle möglichen magischen Quadra-
te mit c als magischer Zahl konstruieren kann. in Mc ; somit ist Mc also für kein c 2 R die leere Menge. Doch
folgt aus A; B 2 Mc bei c ¤ 0 stets A C B … Mc . Lediglich
Problemanalyse und Strategie M0 ist ein Untervektorraum, da 0 2 M0 , und mit A; B 2 M0
und 2 R auch A C B; A 2 M0 gilt.
Es ist zu zeigen, dass die Menge aller magischen Quadrate
nicht leer ist. Sodann sind (U1) und (U2) nachzuprüfen.
Kommentar
4 Analog kann man die hier gemachten Behauptungen auch
Lösung
für magische n n-Quadrate mit n 2 begründen.
Für c 2 R bezeichne Mc die Menge aller reellen 3 4 Oftmals fordert man bei magischen n n-Quadraten, dass
3-Matrizen alle Ziffern von 1 bis n2 als Einträge im Quadrat vorkom-
0 1 men.
a11 a12 a13
Ba a23 C
A D @ 21 a22 A ?Selbstfrage 4.5
a31 a32 a33 Können Sie magische 2 2-Quadrate angeben?
in KŒX. Falls nun in einem K-Vektorraum V eine sol- Untervektorraum von V . Solche minimalen Erzeugenden-
che Multiplikation ˇ von Vektoren gegeben ist, mit der systeme von V werden wir Basen nennen. Die Dimension
Eigenschaft, dass für alle 2 K und v; w 2 V die Ver- eines Vektorraums ist die Anzahl der Elemente einer Basis.
träglichkeitsgesetze
1 x1
und sagen, hXi ist das Erzeugnis oder die Hülle von X
4 oder hXi werde durch X erzeugt. Ist X D fv1 ; : : : ; vn g
eine endliche Menge, so schreiben wir einfacher
hv1 ; : : : ; vr i anstelle hfv1 ; : : : ; vn gi . Abb. 4.5 Die Ebene R2 wird von den zwei Vektoren e 1 und e 2 erzeugt
hp1 ; p 2 i D Z2 .X C 1/ C Z2 .X C 1/
2 vCw D i vi C i wi
i D1 i D1
D f0; X 2 C 1; X C 1; X 2 C Xg ;
dieser beiden Linearkombinationen wieder eine Linear-
beachte X 2 C 1 C X C 1 D X 2 C X in Z2 ŒX. 9 kombination von X.
Zu (U2): Ist v D 1 v1 C C n vn 2 hXi und 2 K,
so gilt v D . 1 / v1 C C . n / vn 2 hXi.
x2 (b) Für jedes v 2 X gilt v D 1 v 2 hXi, d. h. X hXi.
(c) Ist U irgendein Untervektorraum von V , der X ent-
hält, so ist, weil U die Eigenschaften (U1) und (U2) erfüllt,
h 1
iDR 1 auch jede Linearkombination von X in U , somit haben
wir hXi U . Da dies für jeden Untervektorraum U mit
0 0
Insbesondere ist der Kn endlich erzeugt. 9 Durch Lösen eines linearen Gleichungssystems (oder durch
Probieren) erhalten wir
Es folgt ein Beispiel eines nicht endlich erzeugbaren Vek-
torraumes. u D v w; v D u C w; w D u C v :
100 Kapitel 4 Vektorräume – von Basen und Dimensionen
Im R-Vektorraum R4 ist die Teilmenge Im Fall (1) erhalten wir rg.A j v/ D 3 D rg A, also die Lös-
80 1 0 1 0 1 0 19 barkeit des Systms. Im Fall (2) hingegen gilt rg.A j v/ D 4 >
ˆ
ˆ 1 2 0 1 >>
ˆ
<B 1 C B1C B1C B 2 C> = rg A, in diesem Fall ist das System unlösbar. Für die Vektoren
B C B C B C B C
X WD B C ; B C ; B C ; B C R4 bedeutet dies
ˆ@1A @0A @ 2 A @1A>
ˆ >
>
:̂ 2 3 7 1 ; 0 1 0 1
6 1
B4C B3C
4 gegeben. Man entscheide für B C
B C 2 hXi und
B C
B C … hXi :
0 1 0 1 @2A @1A
6 1
B4C B3C 2 2
B C B C
.1/ v D B C 2 R4 und .2/ v D B C 2 R4 ;
@2A @1A 0 1
6
2 2 B4C
B C
ob v 2 hXi. Um B C als Linearkombination von X darzustellen, ist das
@2A
Falls dies so ist, gebe man eine Darstellung von v als Li- 2
nearkombination von X an. durch die erweiterte Koeffizientenmatrix
0 1
Problemanalyse und Strategie 1 2 0 1 6
B0 3 10C
Die Bedingung v 2 hXi besagt: Es gibt 1 ; : : : ; 4 2 R mit B 1 1 C
B C
@0 0 0 1 3A
1 v1 C C 4 v4 D v ; ( )
0 0 0 0 0
wobei wir kurzerhand die vier Vektoren aus X (der Rei-
he nach) mit v1 ; : : : ; v4 bezeichnen. Wir fassen 1 ; : : : ; 4 gegebene lineare Gleichungssystem über R zu lösen. Das Eli-
als Unbekannte auf und überprüfen das (dann reelle) linea- minationsverfahren von Gauß und Jordan liefert
re Gleichungssystem . / für die beiden Fälle (1) und (2) 0 1
auf Lösbarkeit. Die Lösbarkeit von . / bedeutet, dass v als 1 0 2 0 1
B0 1C
Linearkombination von X darstellbar ist. Den Vektor v als B 1 1 0 C
B C:
Linearkombination von X darzustellen, bedeutet dabei, eine @0 0 0 1 3A
Lösung .1 ; : : : ; 4 / anzugeben. 0 0 0 0 0
w 2 v
v1
u
x1
1 1 2 x1
v2
1
Wir können also jeden der drei Vektoren mithilfe der je- . Abb. 4.7 Die Vektoren v1 ; v2 ; v3 sind linear abhängig, die Vektoren
weils anderen beiden linear kombinieren, d. h. darstellen, v1 ; v2 linear unabhängig
sodass also
nern. i vi D vj für i 2 K :
i D1
i ¤j
Beispiel
4 Für jedes v 2 V ist ; die einzige echte Teilmenge von Wir bringen vj auf die linke Seite des Gleichheitszeichens
fvg. Im Fall v D 0 gilt: Der Nullvektor 0 ist linear ab- und erhalten eine Linearkombination von v1 ; : : : ; vr , die
hängig, da ; ¨ f0g und h;i D f0g D h0i gilt. Für v ¤ 0 den Nullvektor ergibt, ohne dass alle Koeffizienten, also
jedoch gilt: h;i ¨ hvi, sodass v linear unabhängig ist. die Skalare, gleich null sind, denn der Koeffizient von vj
102 Kapitel 4 Vektorräume – von Basen und Dimensionen
ist 1. Anders formuliert erhalten wir das folgende Krite- folgt
rium, das häufig auf das Lösen eines homogenen linearen
Gleichungssystems hinausläuft. 1 D D n D 0 ;
1 f C 2 g D 0 ;
Mit diesem Kriterium erhalten wir nun leicht, dass f0g li-
near abhängig ist, weil 1 ¤ 0 und 1 0 D 0 gilt. Oder für wobei der Nullvektor hier die Nullabbildung ist,
v 2 V nf0g ist fvg linear unabhängig, da aus v D 0 sofort
2x 1
D 0 folgt. 1 C 2 .x 2 1/ D 0.x/ D 0 für alle x 2 R :
x2 C 1
( )
Beispiel
4 Zwei vom Nullvektor verschiedene Vektoren v und w Diese Gleichung gilt also insbesondere für x D 1, d. h.
eines K-Vektorraumes sind genau dann linear abhängig,
wenn es ein 2 K mit v D w gibt. 1
4 Die Standard-Einheitsvektoren e 1 ; : : : ; e n 2 Kn sind li- 1 C 2 0 D 0 :
2
near unabhängig. Aus
Es folgt 1 D 0. Mit 1 D 0 wird aus der Gleichung ( )
0 1
0 die Gleichung
B :: C
1 e 1 C C n e n D 0 D @ : A
2 .x 2 1/ D 0 für alle x 2 R : ( )
0
Diese Gleichung gilt insbesondere für z. B. x D 0, d. h.
folgt
2 .1/ D 0 :
0 1 0 1
1 0
B :: C B :: C Nun folgt 2 D 0. Gezeigt ist: Für 1 ; 2 2 R gilt
@ : A D @ : A ; d. h. i D 0 für i D 1; : : : ; n :
n 0 Aus 1 f C 2 g D 0 folgt 1 D 0 D 2 :
0 1 0 1 0 1
0 0 0 Somit sind f und g linear unabhängig.
4 Es sind v1 D @ 1A ; v2 D @ 1 A @
; v 3 D 0A 2 R3 Auf 2 D 0 hätten wir auch schneller schließen können.
0 1 1 Die Gleichung . / lautet 2 g D 0. Und da g nicht der
linear abhängig, denn Nullvektor in RR ist, folgt 2 D 0.
4 Die Matrizen . 20 11 /; . 11 12 /; . 21 40 / 2 Z25 2 sind wegen
.1/ v1 C 1 v2 C .1/ v3 D 0 : ! ! ! !
2 1 1 1 2 4 0 0
4 Es folgt ein Beispiel einer unendlichen linear unabhän- 1 C2 C3 D D0
0 1 1 2 1 0 0 0
gigen Menge. Im Vektorraum der Polynome über einem
Körper K ist die Menge B D fX k j k 2 N0 g linear un- linear abhängig. 9
abhängig.
Nachzuweisen ist, dass je endlich viele verschiedene
Vektoren aus B linear unabhängig sind. Wir wählen Ein linear unabhängiges
also endlich viele verschiedene Elemente X i1 ; : : : ; X in Erzeugendensystem nennt man Basis
aus B. Wir machen den Ansatz entsprechend dem Kri-
terium – man beachte, dass der Nullvektor rechts vom
Gleichheitszeichen das Nullpolynom ist: Aus Wir reduzieren Vektorräume auf Basen, weil wir Vektorräu-
me möglichst ökonomisch schreiben wollen – kennt man
1 X i1 C C n X in D 0 die Basis, dann kennt man den Vektorraum.
4.4 Basis und Dimension
103 4
4 Im Vektorraum KŒX der Polynome über einem Körper
Teilmengen von V K bildet die Menge fX k j k 2 N0 g eine Basis, die Stan-
dardbasis oder 80kanonische
1 0 1 0Basis 19von KŒX.
< 0 0 0 =
4 Die Menge @1A ; @1A ; @0A ist keine Basis des
lin. unabh. Basen Erzeugenden-
Teilmengen von V systeme : ;
von V von V 0 1 1
R3 , da sie linear abhängig
80 1 0ist.19
< 0 0 =
4 Die Menge B D @ A @
1 ; 1A ist eine Basis von hBi,
: ;
0 1
. Abb. 4.8 Basen sind linear unabhängige Erzeugendensysteme aber nicht des R3 .
4 Für einen Körper K und Zahlen r 2 f1; : : : ; mg und
s 2 f1; : : : ; ng definieren wir die m n sogenannten
v1 Standard-Einheitsmatrizen aus Km n ,
Jeder Vektor des R lässt sich als Linearkom-
2
v2
2 1 Ers D .aij / mit ars D 1 und aij D 0 sonst :
bination der beiden Vektoren v D und w D
0 2
darstellen, da das lineare Gleichungssystem Dann ist die Menge
2 1 v1
B D fErs j r 2 f1; : : : ; mg; s 2 f1; : : : ; ngg
0 2 v2
für alle v1 ; v2 2 R (eindeutig) lösbar ist. eine Basis des Km n , da für eine beliebige Matrix A D
Zudem sind v und w linear unabhängig, da das lineare .aij /i;j 2 Km n gilt
Gleichungssystem
X
m X
n
A D .aij /i;j D ij Eij ;
2 1 0
i D1 j D1
0 2 0
nur die triviale Lösung .0; 0/ hat. sodass B ein Erzeugendensystem von Km n
ist. Zudem
Es ist also fv; wg ein linear unabhängiges Erzeugenden- folgt aus
system des R2 . 0 1
11 1n
X
m X
n
B ::
ij Eij D @ : ::: C
AD0
Definition einer Basis i D1 j D1 m1 mn
Eine Teilmenge B eines K-Vektorraums V heißt Basis
von V , wenn gilt: sofort ij D 0 für alle i und j , und damit, dass B li-
4 hBi D V , near unabhängig ist. Also ist B tatsächlich eine Basis
4 B ist linear unabhängig. von Km n . Auch diese nennt man Standardbasis oder
kanonische Basis des Km n . 9
X1 ; : : : ; Xn 2 C mit vi 2 Xi . Da die Menge C total ge- Beim obigen Beweis des Basisergänzungssatzes wurde das
ordnet ist, gibt es ein j 2 f1; : : : ; ng mit Xi Xj für alle Zorn’sche Lemma benutzt. Will man das Zorn’sche Lem-
i D 1; : : : ; n. Es liegen damit alle v1 ; : : : ; vn in diesem Xj . ma vermeiden, so bleibt einem nur die deutlich schwächere
Da Xj linear unabhängig ist, sind auch v1 ; : : : ; vn 2 Xj li- Aussage:
near unabhängig. Folglich gilt Y 2 M . Die Menge .M; /
ist somit induktiv geordnet.
Nach dem Zorn’schen Lemma besitzt .M; / ein maxi- Existenz von Basen endlich erzeugter Vektorräume
males Element B. Da diese Teilmenge B von V in M liegt, Jeder endlich erzeugte Vektorraum V besitzt eine Basis.
4 ist B linear unabhängig. Um zu zeigen, dass B eine Basis
ist, reicht es aus zu begründen, dass B den Vektorraum V
erzeugt, hBi D V . Dies folgt aus S hBi.
Ohne Einschränkung nehmen wir v … B an. Dann er- Beweis Es sei B S ein Erzeugendensystem mit mi-
halten wir nimaler Elementzahl. Ein solches existiert, da S endlich
ist. Es ist B dann ein minimales Erzeugendensystem.
A B ¨ B [ fvg S : Nach den Kennzeichnungen von Basen ist B somit eine
Basis.
Die Menge B [ fvg ist wegen der Maximalität von B
linear abhängig. Also existieren v1 ; : : : ; vn 2 B und Wir erörtern das Ergänzen und Verkürzen von Men-
; 1 ; : : : ; n 2 K, die nicht alle gleich null sind, mit gen zu Basen in einem ausführlichen Beispiel in diesem
X n Abschnitt.
v C i vi D 0 : Basen sind im Allgemeinen keineswegs eindeutig be-
i D1 stimmt. Ist etwa B D fv1 ; : : : ; vn g eine Basis eines K-
Vektorraums V , so ist für 1 ; : : : ; n 2 K n f0g auch
Da die Menge B linear unabhängig ist, muss ¤ 0 gelten, B 0 D f v ; : : : ; v g eine Basis. Aber je zwei Basen
1 1 n n
wir erhalten haben gleich viele Elemente. Das zeigen wir im nächsten
Xn Abschnitt.
v D 1 i vi :
i D1
Die Dimension ist die Mächtigkeit einer
Folglich gilt S hBi.
und damit jeder Basis
Wir betrachten nun für einen beliebigen Vektorraum V den
Sonderfall S D V und A D ;. Es ist S D V ein Erzeu- 2 1
gendensystem von V und A D ; eine linear unabhängige Im R2 gilt für die drei Vektoren u D ,vD und
0 2
Teilmenge von V . Außerdem gilt natürlich A S V .
1
Der Basisergänzungssatz besagt nun, dass es in S D V wD
2
eine Basis gibt. Damit haben wir gezeigt, dass jeder Vek-
torraum eine Basis besitzt. Wir können sogar mehr zeigen:
R2 D hu; vi D hu; wi D hv; wi ;
Mit A D ; und einem Erzeugendensystem S von V besagt
der Basisergänzungssatz, dass jedes Erzeugendensystem ei-
ne Basis enthält. Und mit einer linear unabhängigen Menge sodass fu; vg; fu; wg; fv; wg drei verschiedene Basen des
A und dem Erzeugendensystem S D V besagt der Basis- R2 sind. Es ist kein Zufall, dass jede dieser Basen genau
ergänzungssatz, dass jede linear unabhängige Menge A zu zwei Elemente enthält. Tatsächlich ist es so, dass in jedem
einer Basis von V ergänzt werden kann, wir halten das fest: endlich erzeugten Vektorraum V jede Basis von V gleich
viel Elemente enthält. Dies ist keine Selbstverständlichkeit.
Diese Aussage folgt aus dem folgenden Satz:
Existenz von Basen
Jeder Vektorraum V besitzt eine Basis.
Genauer: Austauschsatz von Steinitz
4 Jedes Erzeugendensystem von V enthält eine Basis Ist S D fb1 ; : : : ; bs g ein endliches Erzeugendensystem
von V . des K-Vektorraums V , so gilt für jedes linear unabhän-
4 Jede linear unabhängige Teilmenge von V kann durch gige System A D fa1 ; : : : ; ar g:
Hinzunahme weiterer Vektoren zu einer Basis von V
ergänzt werden. jAj D r s D jSj :
4.4 Basis und Dimension
107 4
Beweis Wir zeigen die Behauptung durch vollständige In- Nun vertauschen wir die Rollen von B1 und B2 und erhalten
duktion nach jS n Aj.
Induktionsanfang: Falls jS n Aj D 0, so gilt S A. Da jB2 j jB1 j :
A linear unabhängig ist, ist auch die Teilmenge S von A
linear unabhängig. Und da S ein Erzeugendensystem von Insgesamt ist damit jB1 j D jB2 j gezeigt.
V ist, ist S eine Basis von V . Als Basis von V ist S eine
maximale linear unabhängige Teilmenge von V , daher gilt Da je zwei Basen endlich erzeugter Vektorräume gleich vie-
S D A, insbesondere jAj jSj. le Elemente haben, ist die folgende Definition sinnvoll:
Induktionsvoraussetzung: Die Behauptung gelte für je-
des Erzeugendensystem S und jede linear unabhängige
Menge A mit jS n Aj D n. Die Dimension eines Vektorraums
Induktionsschritt: Es gelte jS n Aj D n C 1 für ein Er- Ist B eine Basis eines endlich erzeugten Vektorraums V ,
zeugendensystem S und eine linear unabhängige Menge A. so nennt man die Elementzahl einer und damit jeder Basis
Wir dürfen ohne Einschränkung annehmen, dass A 6 S. von V die Dimension von V . Wir schreiben dafür
Folglich existiert ein v 2 A n S. Und da V D hSi gibt es
v1 ; : : : ; v t 2 S n f0g und 1 ; : : : ; t 2 K n f0g mit dim.V / D jBj :
Beispiel: Der Vektorraum aller Abbildungen mit endlich vielen von null verschiedenen Werten
Für einen Körper K und eine nichtleere Menge M definieren Setzt man nun in . / nacheinander (die verschiedenen)
wir y1 ; y2 ; : : : ; yn ein, so erhält man nacheinander 1 D 0,
2 D 0, . . . , n D 0; und damit ist die lineare Unabhängigkeit
V D ff 2 KM j nur für endlich viele x 2 M ist f .x/ ¤ 0g :
von B gezeigt.
Es ist V also eine Teilmenge von KM , dem Vektorraum aller Die Menge B ist ein Erzeugendensystem von V : Gege-
Abbildungen von M nach K. Wir zeigen: ben ist ein f 2 V . Dann gibt es endlich viele verschiedene
(a) V ist ein K-Vektorraum. x1 ; : : : ; xn 2 M mit
(b) Für jedes y 2 M betrachten wir die Abbildung ıy W
M ! K mit f .x1 / ¤ 0; : : : ; f .xn / ¤ 0 und
(
1 ; falls x D y f .x/ D 0 8x 2 M n fx1 ; : : : ; xn g:
ıy .x/ D
0 ; sonst
Nun setzen wir 1 D f .x1 /; : : : ; n D f .xn / und zeigen die
und zeigen, dass B D fıy j y 2 M g eine Basis von V ist. Gleichheit
Es gilt demzufolge dim V D jBj D jM j.
f D 1 ıx1 C : : : C n ıxn :
Problemanalyse und Strategie
Für jedes x 2 M n fx1 ; : : : ; xn g gilt
Für den Teil (a) zeigen wir, dass V ein Untervektorraum von
KM ist. Beim Teil (b) beachten wir, dass die Menge B durch- 0 D f .x/ D .1 ıx1 C C n ıxn /.x/
aus unendlich sein kann. Somit ist es hier notwendig, die
D 1 ıx1 .x/ C C n ıxn .x/
lineare Unabhängigkeit von B dadurch zu beweisen, dass man
die lineare Unabhängigkeit jeder endlichen Teilmenge von B D 0 C C 0 D 0
beweist.
und für jedes xi 2 fx1 ; : : : ; xn g gilt
Lösung
i D f .xi / D .1 ıx1 C C n ıxn /.xi /
(a) Es ist V eine nichtleere Teilmenge des Vektorraumes KM ,
D 1 ıx1 .xi / C C n ıxn .xi / D i :
da die Nullabbildung in V enthalten ist. Denn diese nimmt für
kein x 2 M und damit für endlich viele x 2 M einen von Also stimmen die beiden Abbildungen f und 1 ıx1 C C
null verschiedenen Wert an. Sind f und g zwei Abbildungen n ıxn für alle Werte aus M überein, d. h., sie sind gleich:
aus V , d. h., f und g nehmen nur an endlich vielen Stellen f D 1 ıx1 C C n ıxn . Dies begründet, dass jedes beliebi-
einen von null verschiedenen Wert an, so auch deren Summe ge f aus V eine Linearkombination von Elementen aus B ist,
f C g W x 7! f .x/ C g.x/. Für jedes 2 K und f 2 V hat sodass B ein Erzeugendensystem von V liefert.
auch die Abbildung f W x 7! f .x/ die Eigenschaft, nur Insgesamt wurde gezeigt, dass B ein linear unabhängiges
endlich viele von null verschiedene Werte anzunehmen. Da- Erzeugendensystem von V , also eine Basis von V , ist.
mit ist begründet, dass V ein Untervektorraum von KM , also Die Dimension des Vektorraums V ist die Mächtigkeit von
ein K-Vektorraum ist. B, und wegen jBj D jM j haben wir somit einen Vektorraum
(b) Die Menge B ist linear unabhängig: Wir wählen ei- der Dimension
ne endliche Teilmenge E B, etwa E D fıy1 ; : : : ; ıyn g für
verschiedene y1 ; : : : ; yn 2 M . Für 1 ; : : : ; n 2 K gelte dim V D jM j :
X
n
i ıyi D 0 ; ( ) Man beachte, dass die Dimension unabhängig vom Körper
iD1 K ist, in dem die Werte der Abbildungen f liegen. Im Fall
P
n M D R haben wir ein Beispiel eines Vektorraums mit der
d. h., für alle x 2 M gilt i ıyi .x/ D 0.
iD1 Dimension jRj, egal, welchen Körper K wir dazu wählen.
4.4 Basis und Dimension
109 4
Gegeben seien n 2 N0 sowie eine Primzahl p 2 N. Wir Wir überlegen uns, wieviele verschiedene Basen ein 2-dimen-
wollen die Anzahl der k-dimensionalen (verschiedenen) Un- sionaler Untervektorraum von Zpn haben kann. Jede Wahl
tervektorräume von Zpn bestimmen. eines vom Nullvektor verschiedenen Vektors b1 (das sind
p 2 1 Möglichkeiten) und eines von b1 linear unabhängigen
Problemanalyse und Strategie Vektors aus U n hb1 i (das sind p 2 p Möglichkeiten) liefert
Wir bestimmen in einem ersten Schritt für k n die Anzahl eine Basis von U : Es gibt also .p 2 1/ .p 2 p/ verschiedene
4 der linear unabhängigen k-Tupel .a1 ; : : : ; ak /. In einem zwei- Basen in U . Folglich gibt es genau
ten Schritt überlegen wir uns, wieviele verschiedene solche
.p n 1/ .p n p/
Tupel den gleichen Vektorraum erzeugen.
.p 2 1/ .p 2 p/
Lösung
verschiedene 2-dimensionale Untervektorräume von Zpn .
Wir betrachten den Zp -Vektorraum Zpn : Die Überlegungen wiederholen sich für die 3-dimensio-
80 1 9 nalen Untervektorräume. Und allgemein erhalten wir für die
ˆ
ˆ a1 >
>
<B C = Anzahl der k-dimensionalen Untervektorräume von Zpn die
:
Zp D B
n
@
:: C j a1 ; : : : ; an 2 Zp :
A
ˆ >
>
Formel: Es gibt genau
:̂ a ;
n
Y
k1
pn pj .p n 1/.p n p/ .p n p k1 /
Für jede Komponente hat man p Möglichkeiten, ein Element D
pk pj .p k 1/.p k p/ .p k p k1 /
aus Zp zu wählen, sodass also Zpn insgesamt p n Elemente ent- j D0
hält.
k-dimensionale Untervektorräume von Zpn .
Der triviale Untervektorraum f0g ist der einzige Untervek-
Als Beispiel bestimmen wir alle Untervektorräume
torraum der Dimension 0.
von Z32 : Es ist f0g der einzige Untervektorraum von Z32 der
Zur Anzahl der 1-dimensionalen Untervektorräume: Es 3 1
Dimenion 0. Die 221 D 7 verschiedenen 1-dimensionalen
gibt p n 1 Möglichkeiten, einen vom Nullvektor verschiede-
Untervektorräume von Z32 sind
nen Vektor zu wählen, und jeder solche Vektor erzeugt einen
1-dimensionalen Untervektorraum. Nun sind aber diese Un- 0 1 0 1 0 1 0 1
* 1 + * 0 + * 0 + * 1 +
tervektorräume nicht alle verschieden, so gilt im Z33 etwa B0C B C B C B C
0 1 0 1 @ A ; @1A ; @0A ; @1A ;
* 1 + * 2 + 0 0 1 0
B1C B C 0 1 0 1 0 1
@ A D @2A : * 1 + * 0 + * 1 +
0 0 B0C B C B C
@ A ; @1A ; @1A :
Wir überlegen uns, wieviele verschiedene Basen ein 1-dimen- 1 1 1
sionaler Untervektorraum von Zpn haben kann. Ist U ein
3 1/ .2 2/
3
1-dimensionaler Untervektorraum, so liefert jede Wahl eines Die .2
.22 1/ .22 2/
D 7 verschiedenen zweidimensionalen Un-
vom Nullvektor verschiedenen Vektors aus U (das sind p 1 tervektorräume von Z32 sind
Möglichkeiten) eine Basis für U . Also erzeugen je
0 1 0 1 0 1 0 1 0 1 0 1
* 1 0 + * 1 0 + * 0 0 +
p 1 D jZp n f0gj B0C B1C B0C B0C B1C B0C
@ A @ A
; ; @ A @ A
; ; @ A @ A ;
;
Elemente den gleichen Untervektorraum. Folglich gibt es ge- 0 0 0 1 0 1
nau 0 1 0 1 0 1 0 1 0 1 0 1
* 1 0 + * 0 1 + * 0 1 +
pn 1 B0C B1C B1C B0C B0C B1C
p1 @ A;@ A ; @ A;@ A ; @ A;@ A ;
0 1 0 1 1 0
verschiedene 1-dimensionale Untervektorräume von Zpn . 0 1 0 1
Zur Anzahl der 2-dimensionalen Untervektorräume: Es * 1 0 +
B1C B1C
gibt p n 1 Möglichkeiten, einen vom Nullvektor verschie- @ A;@ A :
denen Vektor a1 zu wählen und p n p Möglichkeiten einen 0 1
zum Vektor a1 linear unabhängigen Vektor a2 2 Zpn n ha1 i
zu wählen. Jedes solche Paar von Vektoren a1 und a2 erzeugt Und schließlich ist Z32 der einzige dreidimensionale Untervek-
einen 2-dimensionalen Untervektorraum. Diese Untervektor- torraum von Z32 .
räume sind aber nicht alle verschieden. So gilt im Z33 etwa
0 1 0 1 0 10 1 Kommentar Im 7 Kap. 6 werden wir zeigen, dass je zwei
* 1 0 + * 2 0 +
B1C B2C B2C B2C k-dimensionale Vektorräume über ein und demselben Körper
@ A;@ A D @ A @ A : isomorph sind, d. h., sie unterscheiden sich nur in der Bezeich-
0 0 0 0
nung der Elemente.
4.4 Basis und Dimension
111 4
Beweis (i) Nach dem Austauschsatz von Steinitz ist jede (c) K D Q: Wir zeigen, dass fp 0 ; p 1 ; p 2 ; p 3 g linear
Menge fv1 ; : : : ; vn g linear unabhängiger Vektoren von V unabhängig ist, sodass fp0 ; p 1 ; p 2 ; p 3 g eine Basis von U
eine maximale linear unabhängige Teilmenge von V und ist.
somit eine Basis. Es seien a0 ; a1 ; a2 ; a3 2 Q mit
(ii) Nach dem Austauschsatz von Steinitz ist jedes
Erzeugendensystem fv1 ; : : : ; vn g mit n Elementen ein mi- a0 p 0 C a1 p 1 C a2 p 2 C a3 p 3 D 0 2 KK ( )
nimales Erzeugendensystem von V und somit eine Basis.
(iii) Es sei BU eine Basis von U . Nach dem Basiser- gegeben, d. h.
4 gänzungssatz existiert eine Basis BV von V mit BU BV .
Hieraus folgt jBU j jBV j. a0 p 0 .x/ C a1 p 1 .x/ C a2 p 2 .x/ C a3 p 3 .x/ D 0
(iv) Dies folgt aus dem Beweis von (iii), da unter der
Voraussetzung dim.U / D dim.V / sogleich BU D BV und für alle x 2 Q. Einsetzen von x D 0 liefert
somit U D V folgt.
(v) Das folgt aus (iii). a0 1 C a1 0 C a2 0 C a3 0 D 0 ;
(vi) Das folgt aus (iv).
sodass a0 D 0 gilt. Wir setzen a0 D 0 in ( ) ein und erhal-
Insbesondere ist nun auch klar, dass die Untervektorräume ten
der Dimension 1 bzw. 2 des R3 die Form R a mit a ¤ 0
bzw. R a C R b mit a; b ¤ 0 und R a ¤ R b, also mit a1 p 1 .x/ C a2 p 2 .x/ C a3 p 3 .x/ D 0
linear unabhängigen Vektoren a, b, haben. Außer diesen
und den trivialen Untervektorräumen f0g und R3 existieren für alle x 2 Q. Nun setzen wir x D 1, x D 1 und
keine weiteren Untervektorräume im R3 . x D 2 ein. Das liefert ein lineares Gleichungssystem für
die a1 ; a2 ; a3 :
? Selbstfrage 4.11
a1 1 C a2 1 C a3 1 D 0;
Welche reelle Zahlen bilden eine Basis des reellen Vektor-
raums R? a1 .1/ C a2 1 C a3 .1/ D 0 ;
a1 2 C a2 4 C a3 8 D 0:
Beispiel Wir betrachten den K-Vektorraum KK aller Ab-
bildungen von K nach K. Für i 2 N0 sei p i 2 KK die Die Koeffizientenmatrix dieses homogenen linearen Glei-
Polynomfunktion chungssystems lautet
0 1
1 1 1
K!K
pi W : @1 1 1A :
x 7! x i
2 4 8
Wir bestimmen jeweils die Dimension des von
Mit dem Gauß-Algorithmus sieht man, dass dieses
fp 0 ; p 1 ; p 2 ; p 3 g aufgespannten Untervektorraums von KK
System nur die Lösung .0; 0; 0/ besitzt. Also ist
für die Fälle
fp0 ; p 1 ; p 2 ; p 3 g linear unabhängig, also eine Basis und so-
mit dim.U / D 4. 9
(a) K D Z2 ; (b) K D Z3 bzw. (c) K D Q :
Lemma Ist M eine nichtleere Menge von Untervektorräu- . Abb. 4.9 Der Schnitt der beiden Untervektorräume U und W ist eine
Gerade
men eines K-Vektorraums V , so ist
\
U0 D U Mittels elementarer Zeilenumformungen wird diese Matrix
U 2M überführt in
0 1
1 0 0 1 0
wieder ein Untervektorraum von V . @0 1 0 1 0A :
0 0 1 1 0
i Ist MU ein Erzeugendensystem von U und MW ein sol-
ches von W , so gilt im Allgemeinen Also gilt L D f.; ; ; / j 2 Rg und somit
8 0 1 0 1 9
< 1 0 =
U \ W D hMU i \ hMW i ¤ hMU \ MW i :
U \ W D @0A C @ 1 A j 2 R
: ;
1 1
Man wähle etwa MU D f1g und MW D f2g im eindimen- 8 0 1 9
sionalen R-Vektorraum R. < 1 =
D @1A j 2 R :
: ;
Beispiel Im R-Vektorraum V D R3 seien zwei Untervek- 0
torräume U und W gegeben durch Also
*011+
0
* 1 1 0 1 0 1 0 1
0 + * 1 0 + U \ W D @1 A : 9
U D @0 A ; @ 1 A und W D @ 0 A ; @1A : 0
1 1 1 1
i Die Vereinigung von Untervektorräumen ist im Allge-
meinen kein Untervektorraum. Als Beispiel wähle man
0\
Wir bestimmen U 1W . 0 1
1 0 etwa zwei verschiedene eindimensionale Untervektorräu-
Für v D 1 @0A C 2 @ 1 A mit 1 ; 2 2 R gilt v 2 me des R2 (siehe . Abb. 4.10).
1 1 Man beachte den Unterschied zwischen der Summe und
U \ W genau dann, wenn es 1 ; 2 2 R gibt, so dass der Vereinigung von Untervektorräumen.
0 1 0 1 0 1 0 1
1 0 1 0 x2
U2
@ A
1 0 C 2 @ A
1 D 1 @ 0 C 2 1A
A @ 62 U1 [ U2
1 1 1 1
0 1 U1
1 0 1 0 0
@0 1 0 1 0A :
. Abb. 4.10 Die Summe der zwei Vektoren aus U1 [U2 ist nicht Element
1 1 1 1 0 von U1 [ U2 , also ist U1 [ U2 kein Vektorraum
4.5 Summe und Durchschnitt von Untervektorräumen
115 4
Die Summe der Dimension von U und W Der Vektor links vom Gleichheitszeichen liegt in U , der
ist gleich der Summe der Dimensionen Vektor rechts davon in W , sodass
von U \ W und U C W X
r X
s
i bi C i ui 2 U \ W D hBi :
i D1 i D1
Die Summe U CW von Untervektorräumen U und W eines
K-Vektorraums V ist erneut ein Untervektorraum von V . Es folgt 1 D D s D 0. Da BW linear unabhängig ist,
Doch welche Dimension hat der Vektorraum U C W ? Die erhalten wir nun aus ( ) weiterhin
naheliegende Formel dim.U C W / D dim U C dim W ist
1 D D r D 0 D 1 D D t :
falsch, wie das Beispiel U D W D he 1 i R2 zeigt, hier
gilt: Wegen
BU [ BW D fb1 ; : : : ; br ; u1 ; : : : ; us ; w1 ; : : : ; w t g falls
(i) V D U C W ,
eine Basis von U C W ist. (ii) U \ W D f0g.
(i) BU [ BW erzeugt U C W , da, wie oben gezeigt, gilt
Der Vektorraum V ist somit die Summe von U und W ,
wobei U und W einen trivialen Durchschnitt haben.
hBU [ BW i D U C W :
(ii) BU [ BW ist linear unabhängig: Sind 1 ; : : : ; r , Beispiel Der R ist die direkte Summe einer Ebene und
3
Lemma Ist V die direkte Summe zweier Untervektorräume Im 7 Abschn. 6.5 bestimmen wir in einem ausführlichen
U und V , so existiert zu jedem v 2 V genau eine Darstel- Beispiel ein Komplement des Untervektorraums der sym-
lung der Form metrischen Matrizen im Vektorraum aller quadratischer
Matrizen über einem Körper K.
v DuCw
mit u 2 U und w 2 W .
Ein Faktorraum ist ein Vektorraum,
Beweis Aus dessen Elemente Äquivalenzklassen sind
4
u C w D v D u0 C w0
Wir schildern die Konstruktion eines Vektorraums V =U
0 0 aus einem Vektorraum V mithilfe eines Untervektor-
mit u; u 2 U und w; w 2 W folgt
raums U . Dazu benutzen wir die Äquivalenzrelationen aus
u u0 D w
„ƒ‚…
0
„ ƒ‚w
…: 7 Abschn. 1.4.
2U 2W Gegeben sind ein K-Vektorraum V und ein (beliebiger)
Untervektorraum U von V . Wir führen eine Äquivalenz-
Wegen U \ W D f0g gilt also u u0 D 0 D w0 w. Das relation auf der Menge V ein. Dabei nennen wir zwei
liefert Elemente v und w aus V äquivalent, wenn die Differenz
u D u0 und w D w0 : v w im vorgegebenen Untervektorraum U liegt, d. h., für
v; w 2 V gilt:
?Selbstfrage 4.14
Ist U ein Untervektorraum eines K-Vektorraums V , so Warum ist eine Äquivalenzrelation?
heißt ein Untervektorraum W von V ein Komplement von
U in V , wenn V D U ˚ W . Wir betrachten nun eine Äquivalenzklasse bezüglich dieser
Relation . Für ein v 2 V ist
.v C U / C .w C U / D .v C w/ C U ; v; w 2 V v C U D 1 b1 C C nr bnr C U
D 1 .b1 C U / C C nr .bnr C U / 2 hBi :
und der Multiplikation mit Skalaren
Es ist B linear unabhängig: Es gelte
.v C U / D . v/ C U ; 2 K ; v 2 V
1 .b1 C U / C C nr .bnr C U / D 0 D U (4.5)
ein K-Vektorraum. Ist V endlichdimensional, so gilt
für Skalare 1 ; : : : ; nr 2 K. Wegen
dim V =U D dim V dim U :
1 .b1 C U / C C nr .bnr C U /
D 1 b1 C C nr bnr C U
Beweis Die Addition ist wohldefiniert: Es seien
besagt Gleichung (4.5):
v; v0 ; w; w0 2 V mit
v C U D v0 C U und w C U D w0 C U 1 b1 C C nr bnr 2 U :
gegeben. Es folgt v0 v; w0 w 2 U . Daher gilt Da hBi D W aber das Komplement von U in V ist, ist nur
der Fall 1 D D nr D 0 möglich.
.v0 C w0 / .v C w/ D .v0 v/ C .w0 w/ 2 U :
Nun folgt aber .v0 C w0 / .v C w/, d. h. Beispiel Wir betrachten den Untervektorraum U D he 1 i
0 0
.v C w / C U D .v C w/ C U : des R3 . Da he 2 ; e 3 i ein Komplement zu U in R3 ist, erhal-
ten wir
Die Multiplikation mit Skalaren ist wohldefiniert: Es seien
2 K und v; v0 2 V mit R3 =U D he 2 C U; e 3 C U i
v C U D v0 C U und dim R3 =U D 2. 9
118 Kapitel 4 Vektorräume – von Basen und Dimensionen
Kommentar Das Prinzip der Konstruktion des Vektor- 4.4 Folgt aus der linearen Unabhängigkeit der drei
raums V =U aus V und U findet sich in der Algebra Vektoren u; v; w eines K-Vektorraums auch die lineare Un-
immer wieder. Z. B. wird aus einer Gruppe G mit einem abhängigkeit der drei Vektoren u C v C w; u C v; v C w?
Normalteiler U die Faktorgruppe G=U gebildet, und aus
einem Ring R kann mit einem Ideal I den Faktorring 4.5 Geben Sie zu folgenden Teilmengen des R-
R=I konstruieren. Das Ziel einer solchen Konstruktion ist Vektorraums R3 an, ob sie Untervektorräume sind, und be-
es oftmals, aus Gruppen, Ringen oder Vektorräumen neue gründen Sie
80dies:1 9
Strukturen zu gewinnen, die vorgegebene Eigenschaften er- < v1 =
4 füllen. (a) U1 D @v2 A 2 R3 j v1 C v2 D 2
Aber nicht nur in der Algebra, auch in allen weiteren : ;
v3
Gebieten der Mathematik werden ähnliche Konstruktionen 80 1 9
< v1 =
durchgeführt, die aus einer gegebenen Struktur mithilfe
(b) U2 D @v2 A 2 R3 j v1 C v2 D v3
von Äquivalenzrelationen eine neue Struktur schaffen. Zum : ;
v3
Beispiel werden auch die reellen Zahl aus den rationalen 80 1 9
Zahlen mit diesem Prinzip gewonnen. < v1 =
(c) U3 D @v2 A 2 R3 j v1 v2 D v3
: ;
v3
80 1 9
Aufgaben < v1 =
(d) U4 D @v2 A 2 R3 j v1 D v2 oder v1 D v3
: ;
Gelegentlich enthalten die Aufgaben mehr Angaben, als für v3
die Lösung erforderlich sind. Bei einigen anderen dage-
gen werden Daten aus dem Allgemeinwissen, aus anderen 4.6 Welche der folgenden Teilmengen des R-Vek-
Quellen oder sinnvolle Schätzungen benötigt. torraums RR sind Untervektorräume? Begründen Sie Ihre
Aussagen.
einfache Aufgaben mit wenigen Rechenschritten (a) U1 D ff 2 RR j f .1/ D 0g
mittelschwere Aufgaben, die etwas Denkarbeit und (b) U2 D ff 2 RR j f .0/ D 1g
unter Umständen die Kombination verschiedener (c) U3 D ff 2 RR j f hat höchstens endlich viele
Konzepte erfordern Nullstelleng
anspruchsvolle Aufgaben, die fortgeschrittene Kon- (d) U4 D ff 2 RR j für höchstens endlich viele x 2 R ist
zepte (unter Umständen auch aus späteren Kapiteln) f .x/ ¤ 0g
oder eigene mathematische Modellbildung benötigen (e) U5 D ff 2 RR j f ist monoton wachsendg
(f) U6 D ff 2 RR j die Abbildung g 2 RR mit g.x/ D
f .x/ f .x 1/ liegt in U g, wobei U RR ein vor-
Verständnisfragen gegebener Untervektorraum ist.
4.1 Gelten in einem Vektorraum V die folgenden 4.7 Gibt es für jede natürliche Zahl n eine Menge
Aussagen? A mit n C 1 verschiedenen Vektoren v1 ; : : : ; vnC1 2 Rn ,
(a) Ist eine Basis von V unendlich, so sind alle Basen von sodass je n Elemente von A linear unabhängig sind? Geben
V unendlich. Sie eventuell für ein festes n eine solche an.
(b) Ist eine Basis von V endlich, so sind alle Basen von V
endlich. 4.8 Da dim.U CV / D dim U Cdim V dim.U \V /
(c) Hat V ein unendliches Erzeugendensystem, so sind alle gilt, gilt doch sicher auch analog zu Mengen dim.U C V C
Basen von V unendlich. W / D dim U C dim V C dim W dim.U \ V / dim.U \
(d) Ist eine linear unabhängige Menge von V endlich, so ist W / dim.V \ W / C dim.U \ V \ W /? Beweisen oder
es jede. widerlegen Sie die Formel für dim.U C V C W /!
einen R-Vektorraum bildet, und bestimmen Sie eine Basis Antworten zu den Selbstfragen
und die Dimension von U .
vAntwort 4.1
4.13 Bestimmen Sie die Dimension des Vektorraums Für alle u; v; w aus V gilt:
(AG1) v C w 2 V (Abgeschlossenheit).
hf1 ; f2 ; f3 i RR : (AG2) .u C v/ C w D u C .v C w/ (Assoziativität).
(AG3) Es gibt ein Element 0 2 V mit vC0 D v (Existenz
mit eines neutralen Elements).
(AG4) Es gibt ein v0 2 V mit v C v0 D 0 (Existenz eines
f1 W x 7! sin.x/; entgegengesetzten Elements).
f2 W x !7 sin.2x/; (AG5) v C w D w C v (Kommutativität).
der leeren Menge – es ist ; die einzige existierende Abbil- vAntwort 4.10
dung von ; in K (beachte die Definition einer Abbildung Ja! Dass B ein Erzeugendensystem von V ist, folgt aus
auf Seite 12). Der Vektorraum K; ist somit der triviale der Tatsache, dass sich jeder Vektor als Linearkombina-
Vektorraum f;g, das einzige Element ; ist der Nullvektor. tion von B darstellen lässt. Zu überlegen bleibt also nur,
dass B linear unabhängig ist. Es seien v1 ; : : : ; vn irgend-
v Antwort 4.4 welche Vektoren aus B. Aus der Gleichung
Neben den trivialen Untervektorräumen sind für alle v ¤
0 ¤ w und w … R v die Mengen R v und R v C R w D 1 v1 C C n vn D 0
4 f v C w j ; 2 Rg Untervektorräume. Tatsächlich
gibt es keine weiteren Untervektorräume im R3 . mit 1 ; : : : ; n 2 K folgt wegen der eindeutigen Darstell-
barkeit des Nullvektors sogleich 1 D D n D 0, da
v Antwort 4.5 ! natürlich der Nullvektor trivial dargestellt werden kann,
a a
Von denen
! gibt es nur die trivialen a a . Ist nämlich
a b 0 v1 C C 0 vn D 0 :
ein solches magisches Quadrat, so folgt aus
c d
vAntwort 4.11
aCb D cCd D aCc DbCd DaCd DbCc Der R-Vektorraum R hat die Dimension 1, und jede von
null verschiedene Zahl ist als Basisvektor wählbar.
sofort a D b D c D d .
vAntwort 4.12
v Antwort 4.6 Es ist U C W nicht leer, weil der Nullvektor 0 in U C W
Ja. Der Vektorraum V selbst ist stets ein Erzeugendensys- liegt. Weiter liegen mit zwei Elementen uCw; u0 Cw0 2 U
tem, es gilt V D hV i. und 2 K stets auch uCwCu0 Cw0 D .uCu0 /C.wCw0 /
und .u C w/ D u C w wieder in U .
v Antwort 4.7
Ja, dies folgt aus der Definition. vAntwort 4.13
Nein, man wähle etwa zwei verschiedene Basen MU und
v Antwort 4.8 MW eines Vektorraumes U D W .
Der Nullvektorraum f0g besitzt die einzige Basis ; und der
Z2 -Vektorraum Z2 besitzt die einzige Basis f1g. Jeder K- vAntwort 4.14
Vektorraum besitzt im Fall K ¤ Z2 mehr als eine Basis, da (i) Wegen v v D 0 2 U für alle v 2 V gilt v v für
man einen Basisvektor b nämlich stets durch b mit 2 alle v 2 V .
K n f0g ersetzen kann, man erhält so wieder eine Basis. (ii) Da mit jedem Element u 2 U auch u in U liegt,
folgt aus v w, d. h v w 2 U , auch w v 2 U ,
v Antwort 4.9 ˝ ˛
d. h w v.
1. Nein, der R2 ist keine Basis von R2 D R2 . (iii) Da mit je zwei Elementen aus U auch deren Summe
2. Ja, jede linear unabhängige Menge X ist Basis in U liegt, folgt aus u v und v w, d. h. u v; v
von hXi. w 2 U sogleich u w 2 U , d. h. u w.
121 5
Analytische Geometrie –
Rechnen statt Zeichnen
Inhaltsverzeichnis
Aufgaben – 164
n Sie finden unter anderem Antworten zu . . . schen Funktionen im Sinn ihrer geometrischen Definition.
4 Was bedeutet die Koordinateninvarianz des Vektor- Das Ziel des vorliegenden Kapitels ist es jedenfalls, die Ele-
produkts und des Spatprodukts? ganz und Nützlichkeit der Vektor- und Matrizenrechnung
4 Was versteht man unter der Hesse’schen Normalform im R3 zu demonstrieren. Über das formale Rechnen hinaus
einer Ebene? wollen wir aber die geometrische Bedeutung der einzelnen
4 Wie erfolgt die Umrechnung zwischen einem geozen- Operationen stets im Auge behalten, um auf Verallgemei-
trischen und einem heliozentrischen Koordinatensys- nerungen in späteren Kapiteln vorzubereiten.
tem?
x3
b
q
a
v p
x2
x1
0
. Abb. 5.2 Der Vektor v ist sowohl gleich b a als auch gleich q p
D fy D a C b C c j ; ; 0 ?Selbstfrage 5.4
Gegeben sind drei Punkte a; b; c. Deren arithmetisches
und C C D 1g:
Mittel s D 13 .a C b C c/ ist der Schwerpunkt des Punkte-
ist jedenfalls eine Teilmenge von E D spanfa; b; cg. Bei tripels.
D 0 ist C D 1 und daher y ein Punkt der abgeschlos- 4 Angenommen, die drei Punkte a; b; c bilden ein Drei-
senen Strecke ab. Bei > 0 liegt y D a C .b a/ C eck. Warum liegt s stets im Inneren dieses Dreiecks?
.c a/ innerhalb E auf derjenigen Seite der Geraden ab, 4 Zeigen Sie, dass s auf der Verbindungsgeraden von c
welcher auch c angehört. Analog folgt aus 0, dass y in mit dem Mittelpunkt von a und b liegt.
E entweder der abgeschlossenen Strecke ac angehört oder
auf derselben Seite der Geraden ac liegt wie b. Schließlich
können wir auch schreiben:
Im Anschauungsraum ist zwischen Rechts-
und Linkssystemen zu unterscheiden
y D b C .c b/ C .a b/;
und bei > 0 liegen a und y auf derselben Seite von Wollen wir unsere physikalische Welt mathematisch be-
bc. ist somit gleich der Menge aller Punkte der ab- schreiben, so müssen wir auch Distanzen und Winkel
geschlossenen Dreiecksscheibe, also der Punkte, die bei messen können. Was wir schon bisher stillschweigend an-
; ; > 0 im Dreiecksinneren und sonst auf dem Rand genommen haben, soll nun besonders betont werden: Wir
liegen (. Abb. 5.6). verwenden im Folgenden ausschließlich Koordinatensyste-
126 Kapitel 5 Analytische Geometrie – Rechnen statt Zeichnen
x1
u v D u1 v1 C u2 v2 C u3 v3 : b2
a2 jb1
a1 j
.
p Abb. 5.9 Die Distanz der Punkte a und b ist ka bk D
Dieses Produkt legt eine Abbildung
.a1 b1 /2 C .a2 b2 /2 C .a3 b3 /2 , was sich auch aus dem Satz des
R3 R3 ! R mit .u; v/ 7! u v Pythagoras ergibt
Aus Gründen der Einfachheit verwenden wir in (5.3) die sowie die Norm von u:
Symbole u und v links für Vektoren und ebenso rechts für p
kuk D 22 C .1/2 C 22
Matrizen mit drei Zeilen und einer Spalte. Das hochgestell- p p
te > bei u bedeutet die Transponierung, wodurch Zeilen D 4 C 1 C 4 D 9 D 3: 9
mit Spalten vertauscht werden. Deshalb bezeichnet u> eine
1 3 -Matrix. Diese Doppelverwendung der Symbole u und Nachdem das Quadrat der Norm eines Vektors gleich der
v sollte aber kaum zu Schwierigkeiten führen. Der Punkt Quadratsumme seiner Koordinaten ist, gilt:
kennzeichnet jedenfalls das Skalarprodukt von zwei Vek-
toren. Bei der Auffassung als Matrizenprodukt wird kein kuk D 0 ” u D 0: (5.4)
Verknüpfungssymbol verwendet.
Eine weitere wichtige Formel zur Norm lautet:
Auf dem Skalarprodukt eines Vektors mit sich selbst be-
ruht die Definition der Norm oder Länge kuk D jj kuk: (5.5)
q p
kuk D u21 C u22 C u23 D u u; Beweis Es ist kuk2 D .u/ .u/ D 2 .u u/.
die oft auch Standardnorm des R3 genannt wird. Die Ab-
bildung
Normieren von Vektoren
R3 ! R0 mit u 7! kuk Jeder Vektor u ¤ 0 lässt sich durch skalare Multiplikation
ordnet jedem Richtungsvektor die gemeinsame Länge der gemäß
repräsentierenden Pfeile zu, denn bei u D a b ist
1
b
uD u
kuk D ka bk kuk
p
D .a1 b1 /2 C .a2 b2 /2 C .a3 b3 /2 in einen Vektor mit der Norm 1, also in einen Einheits-
genau die Distanz der Punkte a und b, wie anhand des vektor bu transformieren. Wir sagen dazu, wir normieren
Satzes von Pythagoras (. Abb. 5.9) sofort zu erkennen ist. den Vektor u.
Anstelle von uu schreibt man übrigens auch manchmal u2 .
128 Kapitel 5 Analytische Geometrie – Rechnen statt Zeichnen
x3 x3
pC
v u
v
v uC
v
p u
v p
u
v v
u u
pC
5 u
x2 x2
x1 x1
. Abb. 5.10 Der verallgemeinerte Satz des Pythagoras ku vk2 D . Abb. 5.11 Die Parallelogrammgleichung liefert eine Beziehung zwi-
kuk2 C kvk2 2 .u v/ gilt auch für nicht rechtwinklige Dreiecke schen den Längen der Seiten und der Diagonalen eines Parallelogramms
Beweis Mit (5.5) ist Beweis Wir nutzen die Bilinearität und die Symmetrie des
ˇ ˇ Skalarprodukts, um den Ausdruck auf der linken Seite wie
ˇ 1 ˇ
uk D ˇˇ
kb ˇ kuk D 1 kuk D 1: folgt umzuformen:
kuk ˇ kuk
.u v/ .u v/ D u u u v v u C v v
b
u behält die Richtung von u ¤ 0 bei.
D u u C v v 2 .u v/:
Kommentar Es gibt viele verschiedene Normen in der Ma- Auf der rechte Seite treten offensichtlich, wie behauptet,
thematik (siehe auch 7 Kap. 9). Die hier definierte heißt die Quadrate der Normen auf.
Standardnorm oder 2-Norm. Für alle Normen gelten die zu
(5.4) und (5.5) analogen Gleichungen und dazu noch die Eine weitere Konsequenz der Bilinearität ist die folgen-
später folgende Dreiecksungleichung. de Parallelogrammgleichung:
ku C vk2 C ku vk2 D 2 .kuk2 C kvk2 /: (5.6)
Das Skalarprodukt ist offensichtlich symmetrisch, d. h.,
?Selbstfrage 5.6
u v D v u: Beweisen Sie die Parallelogrammgleichung.
Zudem ist das Skalarprodukt linear in jedem Anteil und da- Diese Gleichung besagt in Worten: In jedem Parallelo-
mit bilinear, d. h., gramm ist die Quadratsumme der beiden Diagonalenlängen
.u1 C u2 / v D .u1 v/ C .u2 v/; gleich der Quadratsumme der vier Seitenlängen.
Dabei wird das Parallelogramm von den Punkten p,
.u/ v D .u v/
p C u, p C u C v und p C v gebildet (siehe . Abb. 5.11
und analog für v. Später im 7 Kap. 9 werden wir Skalarpro- und auch . Abb. 5.5). Wir nennen dieses das von u und v
dukte auch in anderen Vektorräumen definieren und dabei aufgespannte Parallelogramm, obwohl es wegen der freien
zunächst nur die Bilinearität und Symmetrie fordern. Das Wahl der ersten Ecke p unendlich viele derartige Par-
hier definierte wird auch als kanonisches Skalarprodukt be- allelogramme gibt, die alle durch Parallelverschiebungen
zeichnet. auseinander hervorgehen.
?Selbstfrage 5.7
Beispiel Wir beweisen die Formel
Bestätigen Sie, dass je zwei der folgenden vier Punkte
ku vk D kuk C kvk 2 .u v/:
2 2 2 a1 ; : : : ; a4 (siehe . Abb. 5.18) mit
0 1 0 1
˙2 0
Diese Formel wird manchmal verallgemeinerter Satz des B C B C
a1;2 D @ 0A ; a3;4 D @ ˙2A
Pythagoras genannt, weil damit in dem Dreieck der Punkte p p
2 2
p, p C u und p C v (. Abb. 5.10) die Länge der dem
Punkt p gegenüberliegenden Seite berechnet werden kann. dieselbe Distanz 4 einschließen. Welches Dreieck bilden
Wir können bereits erraten, warum bei u v D 0 genau der demnach je drei dieser Punkte, welche geometrische Figur
Satz des Pythagoras übrig bleibt. 9 alle vier Punkte zusammengenommen?
5.2 Das Skalarprodukt im Anschauungsraum
129 5
Das Skalarprodukt hat eine geometrische b
Bedeutung v
Wir wenden uns nun der Frage zu, welcher Wert eigentlich a c
hb
mit dem Skalarprodukt ausgerechnet wird. Dazu tragen wir
vom Anfangspunkt c die Vektoren u und v ab und erhalten
die Punkte c a
b u
a D c C u und b D c C v:
. Abb. 5.12 Der Kosinussatz c 2 D a2 C b 2 2 a b cos
Für die Distanz der Endpunkte a und b gilt:
Wir haben das Skalarprodukt mithilfe eines Koordinaten-
ka bk2 D .u v/ .u v/ D
systems berechnet, doch ist letzteres natürlich willkürlich
D kuk2 C kvk2 2.u v/ D festsetzbar. Ein Wechsel des Koordinatensystems bewirkt
D ka ck2 C kb ck2 2 .u v/: eine Änderung der Koordinaten von u und v. Dass trotzdem
der Wert u1 v1 C u2 v2 C u3 v3 unverändert bleibt, folgt aus
Das ist offensichtlich wieder der bereits oben behandelte der obigen geometrischen Deutung. Das Skalarprodukt u v
verallgemeinerte Satz des Pythagoras, den wir nun in der ist also eine geometrische Invariante, d. h. unabhängig von
Form der Wahl des kartesischen Koordinatensystems, und dies
beweist letztlich erst die Sinnhaftigkeit der obigen Defini-
2 .u v/ D ka ck2 C kb ck2 ka bk2 tion.
Aus unserer geometrischen Interpretation des Skalar-
schreiben. Wir vergleichen dies mit dem aus der Elementar- produkts folgt als Formel für die Berechnung des Winkels '
geometrie her bekannten Kosinussatz für das Dreieck abc, zwischen je zwei vom Nullvektor verschiedenen Vektoren
indem wir wie üblich die Seitenlängen mit a; b; c und die u und v:
jeweils gegenüberliegenden Innenwinkel mit ˛, ˇ und be-
zeichnen (. Abb. 5.12). uv
cos ' D :
Der Kosinussatz lautet: kuk kvk
Wir stellen fest, dass sich in der Gleichung Kartesische Punkt- und Vektorkoordinaten
sind Skalarprodukte
2 a b cos D a2 C b 2 c 2
der Ausdruck auf der rechten Seite nur in der Bezeich- Es gibt aber noch weitere wichtige Folgerungen: Das Pro-
nungsweise unterscheidet von der rechten Seite der obigen dukt kuk kvk cos ' ist genau dann gleich null, wenn min-
Formel für 2 .u v/. Damit folgt die destens einer der drei Faktoren verschwindet. Dabei tritt
cos ' D 0 nur bei ' D 90ı oder ' D 270ı ein. Dies bedeu-
tet:
Geometrische Deutung des Skalarprodukts
Das Skalarprodukt gibt den Wert
Verschwindendes Skalarprodukt
u v D kuk kvk cos ' (5.7) Das Skalarprodukt u v verschwindet genau dann, wenn
entweder einer der beteiligten Vektoren der Nullvektor ist
an, wobei ' der von u und v eingeschlossene Winkel ist oder die beiden Vektoren u und v zueinander orthogonal
mit 0ı ' 180ı . sind.
130 Kapitel 5 Analytische Geometrie – Rechnen statt Zeichnen
? Selbstfrage 5.9
Gegeben sind die Gerade G D fx D a C t u j t 2 Rg Kartesische Vektorkoordinaten als Skalarprodukte
und der Punkt b. Beweisen Sie, dass der von b zum Punkt Ist die Basis B D .b1 ; b2 ; b3 / orthonormiert, so gilt für
f D a C .ba/u
uu
u 2 G weisende Vektor zu u orthogonal die zugehörigen Koordinaten des Vektors u:
ist. f ist somit der Fußpunkt der aus b an G legbaren
0 1
Normalen. u1
B C ui D u b i
B u D @u2 A ” (5.9)
Die Basisvektoren b1 ; b2 ; b3 kartesischer Koordinatensys- für i D 1; 2; 3:
u3
teme sind paarweise orthogonale Einheitsvektoren. Also
gilt z. B. b1 b1 D 1 sowie b1 b2 D b1 b3 D 0. Derartige
5 Basen heißen orthonormiert , und wir können all die defi-
nierenden Gleichungen mithilfe des Kronecker-Deltas ıij BeweisP3 Wir multiplizieren beide Seiten der Gleichung u D
in einer einzigen Gleichung zusammenfassen: i D1 u i bi skalar mit dem Vektor bj und erhalten:
!
1 bei i D j; X
3 X
3
bi bj D ıij D (5.8)
0 bei i ¤ j: u bj D ui b i bj D ui .bi bj /
i D1 i D1
Wir werden diese wichtige Gleichung noch mehrfach ver- X 3
wenden. Sie gilt insbesondere für die Standardbasis oder D ui ıij D uj
kanonische Basis E des R3 bestehend aus i D1
0 1 0 1 0 1
1 0 0 für j D 1; 2; 3.
e 1 D @0A ; e 2 D @1A ; e 3 D @0A :
0 0 1 Beispiel Zeigen Sie, dass die durch ihre kartesischen Ko-
ordinaten gegebenen Vektoren
Ein weiterer Sonderfall der geometrischen Deutung des
0 1 0 1 0 1
Skalarprodukts verdient hervorgehoben zu werden: 1 2 2
1@ A 1@ A 1@ A
b1 D 2 ; b2 D 1 ; b3 D 2
Folgerung Bei kvk D 1 gibt u v D kuk cos ' die vorzei- 3 2 3 2 3 1
chenbehaftete Länge des orthogonal auf den Einheitsvektor
v projizierten Vektors u an (. Abb. 5.13).
eine orthonormierte Basis B bilden, und berechnen Sie die
Koeffizienten u1 ; u2 ; u3 in der Darstellung
Die durch uv definierte Länge ist genau dann positiv, wenn
cos ' > 0 ist und daher der orthogonal auf v projizierte 0 1
1
Vektor u in dieselbe Richtung weist wie v.
u D @1A D u1 b1 C u2 b2 C u3 b3 :
Dies führt uns dazu, auch die kartesischen Koordinaten
1
als Skalarprodukte zu interpretieren.
x3 1p
kbi k D 1 C 4 C 4 D 1:
3
Zudem gilt:
u b1 b2 D b1 b3 D b2 b3 D 0:
1 v
Somit sind die Bedingungen (5.8) für die Orthonormiertheit
u v von B erfüllt, und wir können zweckmäßig (5.9) benutzen,
um die Koordinaten des Vektors u bezüglich B als Skalar-
x2 produkte zu berechnen:
1 5 1
x1 u1 D u b1 D ; u2 D u b2 D ; u3 D u b3 D :
3 3 3
. Abb. 5.13 Bei kvk D 1 gibt u v die vorzeichenbehaftete Länge der Als Kontrolle empfiehlt P
es sich natürlich zu überprüfen,
Orthogonalprojektion von u auf den Einheitsvektor v an dass nun tatsächlich u D 3iD1 ui bi gilt. 9
5.2 Das Skalarprodukt im Anschauungsraum
131 5
Die eben gezeigte Art der Berechnung der Vektorkoordi- b3
naten ist um Vieles einfacher als die Standardmethode,
die ui als Unbekannte anzusehen und aus jenem linea-
ren Gleichungssystem zu ermittelt, welches sich durch die
koordinatenweise Aufsplittung der Vektorgleichung u D
P 3
i D1 ui bi ergibt. Doch nur bei kartesischen Koordinaten-
x
systemen sind die Vektorkoordinaten zugleich Skalarpro-
dukte mit den Basisvektoren. x o
b2
Als Gegenbeispiel betrachten wir die offensichtlich u
nicht orthonormierte R3 -Basis B bestehend aus
o
0 1 0 1 0 1
1 0 1
@ @
b1 D e 1 D 0 ; b2 D e 2 D 1 ; b3 D 1A :
A A @
0 0 1
b1
Bei der Wahl u D e 3 D b1 b2 C b3 ist
0 1 . Abb. 5.14 Kartesische Koordinaten von Vektoren und Punkten sind
1 Skalarprodukte
@ A
B u D 1 ; aber u b1 D u b2 D 0:
1
Skalarprodukt zur Erklärung der Längen- und Winkelmes-
Kommentar In 7 Kap. 6 wird gezeigt, dass bei endlichdi- sung. Diese logisch höchst bedenkliche Vorgehensweise
mensionalen Vektorräumen die Abbildung der Vektoren v kommt daher, weil wir in diesem Abschnitt ein mathemati-
auf deren i-te B-Koordinate linear ist, und zwar ein Ele- sches Modell für unsere physikalische Umwelt entwickeln
ment bi der zur Basis B dualen Basis B . Im Sonderfall und von intuitiv vorhandenen Begriffen ausgehen.
einer orthonormierten Basis B gilt bi W v 7! .bi v/. Später in 7 Kap. 9 vermeiden wir derartige Zirkel-
schlüsse: Wir werden in allgemeinen Vektorräumen ein
Analog zur Berechnung der Vektorkoordinaten sind auch Skalarprodukt definieren, indem wir dessen wichtigste Ei-
die Koordinaten eines Punkts x bezüglich eines kartesi- genschaften per Definition fordern. Und darauf bauen wir
schen Koordinatensystems mit dem Ursprung o und den dann erst eine Längen- und Winkelmessung auf.
Basisvektoren b1 ; b2 ; b3 als Skalarprodukte auszudrücken,
nämlich:
Die Dreiecksungleichung und andere
wichtige Formeln
Kartesische Punktkoordinaten als Skalarprodukte
Ist .oI B/ ein kartesisches Koordinatensystem, so gilt für Hinsichtlich der Norm gilt die
die zugehörigen Koordinaten des Punkts x:
0 1
x1
B C xi D .x o/ bi Cauchy-Schwarz’sche Ungleichung
.oIB/ x D @x2 A ” (5.10)
für i D 1; 2; 3:
x3 ju vj kuk kvk:
Kommentar Dem aufmerksamen Leser wird nicht entgan- u v D kuk kvk cos ';
gen sein, dass wir noch vor der Definition des Skalarpro-
dukts die Orthogonalität und Längenmessung als bekannt also
vorausgesetzt haben, um damit ein kartesisches Koordi-
natensystem zu erklären. Und jetzt verwenden wir das ju vj D kuk kvk j cos 'j kuk kvk:
132 Kapitel 5 Analytische Geometrie – Rechnen statt Zeichnen
Hintergrund und Ausblick: Die Geometrie hinter dem Global Positioning System (GPS)
Das Global Positioning System (GPS) hat die Aufgabe, je- sen die vier Unbekannten die vier quadratische Gleichungen
dem Benutzer, der über ein Empfangsgerät verfügt, dessen
genaue Position auf der Erde mitzuteilen, wo auch immer er qi .x; d0 / D .si x/2 .di d0 /2 D 0
sich befindet. In der gegenwärtigen Form beruht das amerika- oder ausführlich
nische GPS auf rund 30 Satelliten, welche die Erde ständig
umkreisen und derart auf sechs Bahnebenen verteilt sind, dass x x 2.s i x/ C si si d02 C 2di d0 di2 D 0 ( )
mit Ausnahme der polnahen Gebiete für jeden Punkt der Er-
de stets mindestens vier Satelliten über dem Horizont liegen. erfüllen. Wir zeigen, dass sich dieses nichtlineare Gleichungs-
Jeder Satellit Si , i 2 f1; 2; : : : g, kennt zu jedem Zeitpunkt sei- system über R auf drei lineare und eine einzige quadratische
ne genaue Raumposition si und teilt seine Bahndaten laufend Gleichung zurückführen lässt:
den Empfängern per Funk mit. Wir subtrahieren von der ersten Gleichung die Gleichun-
Andererseits kann das Empfangsgerät die scheinbare Dis- gen 2, 3 und 4 und erhalten:
tanz di zwischen seiner Position x und der augenblicklichen q1 .x; d0 / qj .x; d0 / D 2.sj s1 / x 2.dj d1 /d0 ( )
Satellitenposition si messen – und zwar erstaunlicherweise
d12 C dj2 C ks1 k2 ksj k2 D 0
anhand der Dauer, welche das Funksignal vom Satelliten zum
Empfänger braucht. Das ist vereinfacht so zu sehen: Der Sa- für j D 2; 3; 4. Dies sind drei lineare Gleichungen. Wenn für
tellit in der Position si funkt die Zeitansage 8:00 Uhr, und eine Lösung dieses linearen Systems neben
diese trifft beim Empfänger x gemäß dessen Uhr mit einer
gewissen Zeitverzögerung ti ein, woraus durch Multiplika- q1 .x; d0 / D q2 .x; d0 / D q3 .x; d0 / D q4 .x; d0 /
tion mit der Lichtgeschwindigkeit c die scheinbare Distanz
auch noch q1 .x; d0 / D 0 gilt, so sind alle vier quadratischen
ksi xk D di D c ti folgt. Dabei ist allerdings eine we-
Gleichungen aus ( ) erfüllt.
sentliche Fehlerquelle zu beachten: Während die Atomuhren
Sind die drei linearen Gleichungen in ( ) linear unab-
in den Satelliten sehr genau synchronisiert sind, ist dies bei
hängig, so gibt es nach 7 Abschn. 3.3 eine einparametrige
den Empfängeruhren technisch nicht möglich. Geht etwa die
Lösungsmenge, die wir mithilfe eines Parameters t darstellen
Empfängeruhr um die Zeit t0 vor, so erscheinen alle Distanzen
können in der Form
um dasselbe d0 D c t0 vergrößert. Deshalb lautet die wahre ! ! !
Distanz ksi xk D di d0 . x e
x u
D e Ct bei t 2 R:
d0 d0 v
ke
x k2 C 2.e
x u/t C kuk2 t 2 2.s 1 e
x / 2.s 1 u/t C ks1 k2
x De
d 20 C 2e
d 0 vt C v 2 t 2 2d1e
d 0 2d1 vt C d12 :
s1
s4 Nach Potenzen der verbleibenden Unbekannten t geordnet
lautet diese quadratische Gleichung
x u/ .s1 u/ e
Œkuk2 v 2 t 2 C 2Œ.e d 0 v C d1 vt
C Œke x / C ks1 k2 e
x k2 2.s1 e d 20 C 2d1e
d 0 d12 D 0:
Es gibt im Anschauungsraum R3 neben dem Skalarprodukt Zu jeder n n -Matrix A über dem Körper K gibt es ei-
noch andere Möglichkeiten, aus Vektoren Produkte mit ei- ne Determinante det A. Es ist dies eine Zahl aus K, die
ner koordinateninvarianten Bedeutung zu berechnen. Die Aufschluss über Eigenschaften der Matrix gibt und gewis-
im folgenden verwendeten Koordinaten beziehen sich aus- se Forderungen erfüllt. So sind etwa die n Spaltenvektoren
schließlich auf kartesische Rechtssysteme. von A genau dann linear unabhängig, wenn det A von null
verschieden ist, und die Determinante ändert ihr Vorzei-
chen, wenn zwei Spalten oder auch zwei Zeilen vertauscht
5 Das Vektorprodukt zweier Vektoren liefert werden.
einen neuen Vektor Unser Ausgangspunkt für die Definition der Determi-
nante im Sonderfall n D 2 ist das folgende Kriterium für
die lineare Abhängigkeit zweier Vektoren:
In vielen geometrischen und physikalischen Anwendungen
begegnet man der Aufgabe, einen Vektor zu finden, der or- u1 v1
thogonal ist zu zwei gegebenen u; v 2 R3 mit Lemma Die Vektoren u D und v D aus
0 1 Vektoren0 1 u2 v2
u1 v1 K2 sind genau dann linear abhängig, wenn D D u1 v2
kartesischen Koordinaten @u2 A bzw. @v2 A. Wir werden u2 v1 D 0 ist.
u3 v3
erkennen, dass das folgende Vektorprodukt eine spezielle Beweis Sind u und v linear abhängig, so ist u D 0 oder v
Lösung für diese Aufgabe bietet. ein Vielfaches von u, also vi D ui für i D 1; 2. In beiden
Fällen gilt D D 0.
Ist umgekehrt D D 0, so unterscheiden wir drei Fälle:
Definition des Vektorprodukts 4 Bei u1 u2 ¤ 0 können wir durch u1 u2 dividieren. Wir
erhalten v1 =u1 D v2 =u2 . Also ist v ist ein Vielfaches
0 1 0 1 0 1
u1 v1 u2 v3 u3 v2 von u.
Bu C Bv C Bu v u v C 4 Bei u1 D 0 und u2 ¤ 0 muss auch v1 D 0 sein und
u v D @ 2A @ 2A D @ 3 1 1 3A :
u3 v3 u1 v2 u2 v1 daher ebenfalls v D u gelten mit D v2 =u2 . Analog
für u1 ¤ 0 und u2 D 0.
4 Bei u D 0 folgt keinerlei Bedingung für v.
Dieses Produkt, das wegen des Verknüpfungssymbols In allen drei Fällen sind jedenfalls u und v linear
oder wegen der kreuzweisen Berechnung der Koordinaten abhängig.
oft auch Kreuzprodukt genannt wird, legt eine Abbildung
a11 a12
Um festzustellen, ob die Matrix 2 K2 2 linear
R3 R3 ! R3 mit .u; v/ 7! u v a21 a22
abhängige Spaltenvektoren hat, muss man also nur überprü-
fest, welche im Gegensatz zum Skalarprodukt je zwei fen, ob a11 a22 a12 a21 D 0 ist. Dabei hat der Ausdruck
Vektoren aus dem R3 nunmehr einen Vektor zuweist. Es auf der linken Seite die zusätzliche Eigenschaft, bei einer
handelt sich also diesmal um eine Verknüpfung im R3 (sie- Vertauschung der beiden Spalten das Vorzeichen zu wech-
he 7 Abschn. 2.1). Auch hier werden wir zeigen können, seln.
dass der Vektor u v mit seinen Faktoren u und v auf eine All dies sind Gründe für die folgende Definition.
vom Koordinatensystem unabhängige Art verbunden ist.
Es genügt für das Berechnen eines Vektorprodukts, sich
die Formel für die erste Koordinate zu merken, denn die ! 2 2-Matrix
Determinante einer
a11 a12
weiteren Koordinaten folgen durch zyklische Vertauschung Ist A D 2 K2 2 , so nennen wir
a21 a22
1 7! 2 7! 3 7! 1.
Die Formeln für die einzelnen Koordinaten werden
besonders einprägsam, wenn man mit dem Begriff der det A D a11 a22 a12 a21 2 K
Determinante einer zweireihigen Matrix vertraut ist. Des-
halb unterbrechen wir hier kurz mit einem Vorgriff auf das die Determinante von A.
7 Kap. 7 über Determinanten.
5.3 Weitere Produkte von Vektoren im Anschauungsraum
135 5
Abkürzend schreiben wir auch gilt
ˇ ˇ
ˇa11 a12 ˇ
ˇ ˇ D det a11 a12 e1 e 2 D e3; e2 e3 D e1; e3 e1 D e2:
ˇa21 a22 ˇ a21 a22
Andererseits ist wegen der Schiefsymmetrie
und sprechen kurz von einer zweireihigen Determinante
statt von der Determinante einer 2 2 -Matrix.
e2 e 1 D e 3 ; e 3 e 2 D e 1 ; e 1 e 3 D e 2 : 9
Man kann sich die Formel für eine 2 2 -Matrix leicht
merken: Die Determinante ist gleich der Differenz der
Produkte der Diagonalen, und zwar kurz Hauptdiagonale
minus Nebendiagonale, also: Verschwindendes Vektorprodukt
Es ist u v D 0 genau dann, wenn die Vektoren u und v
a11 a12 C linear abhängig sind.
a11 a12
D
a21 a22 a21 a22
2 3
u v D 0 hat somit stets die lineare Abhängigkeit von u
und v zur Folge.
das Vektorprodukt. Es ist
0 1 0 1 Eine Eigenschaft des Vektorprodukts wurde bereits in
2 1
7 Kap. 2 besprochen: Das Vektorprodukt ist nicht assozia-
u v D @1A @ 5A
tiv, d. h. von Sonderfällen abgesehen gilt
2 3
0 1 0 1
.1/ 3 2 5 13 .u v/ w¤u .v w/:
D @ 2 .1/ 2 3 A D @ 8A :
2 5 .1/ .1/ 9 Als Begründung genügt ein einziges Beispiel, etwa
Das Vektorprodukt hat eine geometrische Beweis 1) Wir erkennen durch Ausrechnen, dass
Bedeutung
u .u v/ D u1 .u2 v3 u3 v2 / C u2 .u3 v1 u1 v3 /
Das Vektorprodukt ist linear in jedem Anteil, denn C u3 .u1 v2 u2 v1 / D 0:
.u1 C u2 / v D .u1 v/ C .u2 v/; Damit ist das vom Nullvektor verschieden vorausgesetzte
.u/ v D .u v/: Vektorprodukt u v zu u orthogonal.
Nach Vertauschung von u mit v folgt:
Mit einiger Mühe lässt sich auch das Vektorprodukt u v
als ein Matrizenprodukt schreiben. Dazu muss allerdings v .v u/ D v .u v/ D 0:
5 der erste Vektor u zu einer alternierenden oder schiefsym-
metrischen Matrix S u umgeformt werden, also zu einer Also ist das Vektorprodukt u v auch orthogonal zu v und
quadratischen Matrix, bei der sich die bezüglich der Haupt- wegen der Bilinearität sogar orthogonal zu jeder Linear-
diagonale symmetrischen Einträge ai k und aki genau durch kombination von u und v, also zu allen Vektoren der von
das Vorzeichen unterscheiden. Für die Einträge auf der u und v aufgespannten Ebene.
Hauptdiagonale, also mit k D i, bedeutet dies ai i D ai i Sucht man umgekehrt einen Vektor x, der zu u v or-
und somit ai i D 0. thogonal ist, so müssen dessen 3 Koordinaten eine lineare
Nach den Regeln für die Bildung des Matrizenprodukts homogene Gleichung lösen, deren Koeffizienten nicht al-
ist le null sind. Nach den Ergebnissen von 7 Abschn. 3.3 gibt
0 1 0 1 0 1 es eine zweiparametrige Lösungsmenge. Nachdem u und v
u1 v1 u2 v3 u3 v2
bereits zwei linear unabhängige Lösungen sind, ist x eine
u v D @u2 A @v2 A D @u3 v1 u1 v3 A
Linearkombination von u und v. Somit ist ein verschwin-
u3 v3 u1 v2 u2 v1
0 10 1 (5.11) dendes Skalarprodukt mit u v äquivalent zur linearen
0 u3 u2 v1 Abhängigkeit von u und v.
D @ u3 0 u1 A @v2 A D S u v: 2) Wir bestätigen die Behauptung durch direktes Aus-
u2 u1 0 v3 rechnen, wobei wir zwischendurch einmal geeignet erwei-
tern müssen:
Kommentar Es besteht offensichtlich eine bijektive Ab-
bildung zwischen Vektoren u 2 R3 und den schiefsym- ku vk2 D .u2 v3 u3 v2 /2 C .u3 v1 u1 v3 /2
metrischen dreireihigen Matrizen S u 2 R3 3 . Dies ist
aber wirklich nur im Dreidimensionalen möglich, denn ei- C .u1 v2 u2 v1 /2
ne schiefsymmetrische n-reihige Matrix enthält n.n 1/=2 D u21 v22 C u21 v32 C u22 v12 C u22 v32 C u23 v12 C u23 v22
unabhängige Einträge, während Vektoren des Rn n Koordi- 2u1 u2 v1 v2 2u1 u3 v1 v3 2u2 u3 v2 v3
naten umfassen.
C u21 v12 C u22 v22 C u23 v32
Bei linear abhängigen Vektoren u und v ist deren Vektor- u21 v12 u22 v22 u23 v32
produkt gleich dem Nullvektor. Bei linearer Unabhängig-
D .u21 C u22 C u23 /.v12 C v22 C v32 /
keit ist der Vektor u v durch die folgenden Eigenschaften
gekennzeichnet. .u1 v1 C u2 v2 C u3 v3 /2
D kuk2 kvk2 .kuk kvk cos '/2
?Selbstfrage 5.10
b3
Beweisen Sie die Aussage: Der Punkt x gehört genau
dann der von u und v aufgespannten Ebene E durch den
u v
Punkt p an (. Abb. 5.16), wenn .x p/ .u v/ D 0 ist.
und somit .a b/ C .b c/ C .c a/ ¤ 0:
0 1
0 Die geometrischen Deutungen des Skalarprodukts u v und
u v D @ 0 A: des Vektorprodukts ergeben:
u1 v2
u v D kuk kvk cos ' und ku vk D kuk kvk sin ':
Also zeigt nach dieser stetigen Verlagerung von u und v Daraus folgt unmittelbar die Gleichung
in die b1 b2 -Ebene das Vektorprodukt u v in die Rich-
tung von b3 . Die Vektoren u, v und u v folgen somit der .u v/2 C .u v/2 D kuk2 kvk2 :
Rechten-Hand-Regel, wobei wir gegenüber . Abb. 5.8 nur Man beachte: Im ersten Summanden wird eine reelle Zahl
den Winkel zwischen Daumen und Zeigefinger dem ' mit quadriert, dagegen im zweiten Summenden ein Vektor ska-
0 ' 180ı anzupassen haben. Wie schon früher ver- lar mit sich selbst multipliziert.
einbart, nennen wir dies weiterhin ein Rechtssystem. Die
genaue Definition von Rechtssystemen folgt nach wenigen
Seiten. Dreireihige Determinanten sind die
Die Eigenschaft, ein Rechtssystem zu bilden, muss Grundlage für ein Produkt dreier Vektoren
bereits vor der Verlagerung bestanden haben, denn die Ste-
tigkeit des Vorgangs, bei dem zudem ku vk ¤ 0 bleibt,
schließt ein plötzliches Umspringen von einem Rechtssys- Bevor wir uns einem weiteren Produkt zuwenden, und zwar
tem zu einem Linkssystem aus. einem von drei Vektoren, befassen wir uns mit den De-
138 Kapitel 5 Analytische Geometrie – Rechnen statt Zeichnen
terminanten dreireihiger Matrizen. Wir gehen ähnlich wie welches man auch die Regel von Sarrus nennt:
bei den zweireihigen Matrizen vor und können nur darauf C C C
verweisen, dass erst im 7 Kap. 7 das gemeinsame Bil- a11 a12 a13 a13 a11 a12 a13 a11
dungsgesetz aller Determinanten vorgestellt wird. a21 a 22 a23 D a23 a21 a22 a23 a21
Wir beginnen mit einer Kennzeichnung der linearen Ab- a31 a32 a33
a33 a31 a32 a33 a31
hängigkeit von drei Vektoren aus R3 :
Wir fügen rechts den ersten Spaltenvektor an und links
Lemma Die Vektoren u; v; w 2 R3 sind genau dann linear den letzten Spaltenvektor. Dann gibt es zusammen mit
abhängig, wenn D D u .v w/ D 0 ist. der Hauptdiagonalen drei blaue, nach rechts abfallende
Diagonalen und ebenso drei rote, nach links abfallende
5 Beweis Wir unterscheiden zwei Fälle: Diagonalen, die Nebendiagonale mit eingeschlossen. Nun
4 v und w sind linear unabhängig: werden ähnlich zum zweireihigen Fall die Produkte der
Nun spannen v und w eine Ebene auf, und alle Linear- Einträge in den blauen „Hauptdiagonalen“ addiert und jene
kombinationen von v und w und nur diese, haben ein der roten „Nebendiagonalen“ subtrahiert.
verschwindendes Skalarprodukt mit dem Normalvektor Aber Achtung: Diese Regel gilt nicht für vier- oder
v w. Demnach drückt D D 0 aus, dass u eine Linear- mehrreihige Determinanten, die wir im 7 Kap. 7 einführen
kombination von v und w ist. werden:
4 v und w sind linear abhängig: Die Regel von Sarrus verdeutlicht eine weitere Eigen-
Nun sind auch fu; v; wg linear abhängig, und gleichzei- schaft der Determinante: Wenn wir die Spaltenvektoren von
tig ist v w D 0 und daher auch D D 0. A zyklisch vertauschen, also 1 7! 2 7! 3 7! 1, so rücken
die Haupt- und Nebendiagonalen jeweils nach rechts um ei-
Demnach gilt für beide Fälle: Sind fu; v; wg linear abhän- ne weiter, und die letzte wird zur ersten. Die Determinante
gig, so ist D D 0. Ist umgekehrt D D 0, so sind die 3 bleibt offensichtlich unverändert.
Vektoren linear abhängig.
Das Spatprodukt dreier Vektoren liefert
In Koordinaten ausgedrückt ist D D u1 .v2 w3 v3 w2 / C
das Volumen des aufgespannten
u2 .v3 w1 v1 w3 /Cu3 .v1 w2 v2 w1 /. Die im Folgenden defi-
nierte Determinante einer 3 3 -Matrix A entsteht aus dem Parallelepipeds
Wert D, indem lediglich die bisherigen Vektoren u; v; w
durch die Spaltenvektoren a1 ; a2 ; a3 von A ersetzt werden. Wir kehren zurück zu den Produkten von Vektoren.
D det.w; v; u/:
p
u
Auch bei der Darstellung des Spatprodukts D als gemisch-
tes Produkt u .v w/ können wir zyklisch vertauschen,
ohne den Wert zu verändern. Also ist auch D D w .u v/.
det.u; v; w/ D u .v w/ D w .u v/ (5.13)
Wir berechnen das Volumen des Parallelepipeds nach
der Formel „Grundfläche mal Höhe“. Dabei wählen wir das
von u und v aufgespannte Parallelogramm als Grundfläche
Wie die bisherigen Produkte ist auch das Spatprodukt linear des genannten Parallelepipeds. Der Inhalt der Grundfläche
in jedem Anteil, also z. B. beträgt demnach
det ..u1 C u2 /; v; w/ D det.u1 ; v; w/ C det.u2 ; v; w/: F# D ku vk:
Dass das Spatprodukt eine vom Rechts-Koordinatensystem Die Höhe des Parallelepipeds ist gleich dem Wert h D
unabhängige Bedeutung hat, folgt einerseits aus der Dar- kwk cos ', wenn ' den Winkel zwischen w und einer zur
stellung als Skalarprodukt mit einem Vektorprodukt und Grundfläche orthogonalen Geraden angibt. Nach unseren
der bereits bewiesenen Invarianz dieser beiden Produkte. bisherigen Ergebnissen gilt nun offensichtlich:
Aber das Spatprodukt hat auch eine einfache geometrische
Deutung. j det.u; v; w/j D j.u v/ wj
D ku vk kwk cos ' D F# h;
Gegeben seien vier Raumpunkte s1 ; : : : ; s4 . Welche Glei- Zur Formulierung der entsprechenden analytischen Bedin-
chung muss ein Raumpunkt x erfüllen, damit dessen Verbin- gung wenden wir eine Parallelverschiebung an, die x in den
dungsgeraden mit den gegebenen Punkten auf einem Drehke- Koordinatenursprung verlegt. Die Spitzen der längs der Ge-
gel liegen? raden abgetragenen Einheitsvektoren werden zu Punkten mit
den Ortsvektoren
Problemanalyse und Strategie
Liegen diese Geraden auf einem Drehkegel, so enden die von b si x
vi D ; i D 1; : : : ; 4:
x längs dieser Geraden abgetragenen Einheitsvektoren in vier ksi xk
Punkten p 1 ; : : : ; p 4 eines Kreises auf diesem Drehkegel (siehe
Abbildung unten) und damit in einer Ebene. Liegen umgekehrt Diese liegen genau dann in einer Ebene, wenn die Diffe-
diese vier Punkte im Abstand 1 von x in einer Ebene, so ge- renzvektoren b vj b v1 für j D 2; 3; 4 komplanar, also linear
hören sie dem Schnitt dieser Ebene mit der in x zentrierten abhängig sind. Dies kann mithilfe des Spatprodukts ausge-
Einheitskugel an, also einem Kreis. Dessen Verbindungsgera- drückt werden:
den mit der Kugelmitte bilden einen Drehkegel oder, falls die
Ebene durch die Kugelmitte geht, eine Ebene, also den Grenz- det .b v2 b
v1 /; .bv3 b
v1 /; .b
v4 bv1 / D 0: ( )
fall eines Drehkegels mit 180ı Öffnungswinkel.
Will man den Grenzfall eines in eine Ebene entarteten Dreh-
Lösung
kegels ausschließen, so muss man bedenken, dass in diesem
Fall nicht nur x und bv1 ; : : : ; b
v4 in einer Ebene liegen, son-
dern auch die Ausgangspunkte s1 ; : : : ; s4 . Dieser Fall kann
also überhaupt nur auftreten, wenn
Einige nützliche Formeln für gemischte Wir geben auf der rechten Seite u1 v1 w1 u1 v1 w1 D 0 dazu
Produkte und erhalten:
y1 D v1 .u3 w3 C u2 v2 C u1 w1 /
Wir stellen in der Folge einige Formeln zusammen, die
u1 .v3 w3 C v2 w2 C v1 w1 /
beim Rechnen mit Vektoren im R3 hilfreich sind, und be-
ginnen mit der Grassmann-Identität: D .u w/v1 .v w/u1 :
Für die analytische Geometrie im Anschauungsraum stehen – Lineare Abhängigkeit von u und v ist durch u v D 0
drei verschiedene Produkte von Vektoren zur Verfügung. gekennzeichnet.
– Bei linear unabhängigen u; v steht u v auf der von u
4 Das Skalarprodukt u v der Vektoren u; v 2 R3 mit und v aufgespannten Ebene normal; die Norm ku vk
kartesischen Koordinaten .u1 ; u2 ; u3 /> bzw. .v1 ; v2 ; v3 /> ist gleich dem Flächeninhalt kuk kvk sin ' des von u
lautet: und v aufgespannten Parallelogramms; der Vektor u v
bildet mit u und v ein Rechtssystem, sofern sich die Ko-
u v D u1 v1 C u2 v2 C u3 v3 : ordinaten auf ein Rechtskoordinatensystem beziehen.
p 4 Das Spatprodukt det.u; v; w/ ist eine reelle Zahl und
5 – Es ist kuk D u u die Norm oder Länge des Vektors
zwar die Determinante derjenigen 3 3 -Matrix, welche
u und ka bk die Distanz der Punkte a und b.
die kartesischen Koordinaten von u, v und w der Reihe
– Jeder Vektor u ¤ 0 lässt sich durch skalare Multi-
nach als Spaltenvektoren besitzt.
plikation gemäß b u D kuk1
u auf einen Einheitsvektor
– Das Spatprodukt ist linear in jedem Anteil, also
normieren.
det.u1 C u2 ; v; w/ D det.u1 ; v; w/ C det.u2 ; v; w/ und
– Das Skalarprodukt u v ist symmetrisch, v u D u v,
det.u; v; w/ D det.u; v; w/.
und in jedem Anteil linear, also .u1 C u2 / v D
– Die Vertauschung zweier Vektoren ändert das Vorzei-
.u1 v/ C .u2 v/ und .u/ v D .u v/.
chen; es ist det.u; v; w/ D det.v; w; u/ D det.v; u; w/.
– Das Produkt u v ist vom verwendeten kartesischen
– Das Spatprodukt det.u; v; w/ gibt das orientierte Volu-
Koordinatensystem unabhängig, denn es gilt u v D
men des von den drei Vektoren aufgespannten Parallel-
kuk kvk cos ' mit ' als dem von u und v eingeschlos-
epipeds an und ist somit unabhängig von dem zugrunde
senen Winkel bei 0 ' .
liegenden Rechtskoordinatensystem.
– Eine orthonormierte Basis .b1 ; b2 ; b3 / des R3 ist durch
– Genau bei det.u; v; w/ > 0 bilden die drei Vektoren in
bi bj D ıij gekennzeichnet.
dieser Reihenfolge ein Rechtssystem.
– Es gelten die Cauchy-Schwarz’sche Ungleichung ju
– Ein verschwindendes Spatprodukt kennzeichnet linea-
vj kuk kvk und die Dreiecksungleichung ku C vk
re Abhängigkeit.
kuk C kvk.
– Es ist det.u; v; w/ D u .v w/ D w .u v/.
4 Das Vektorprodukt oder Kreuzprodukt u v ist ein Vek-
Ferner gelten :
tor und aus den kartesischen Koordinaten von u und v
– die Grassmann-Identität
nach der Formel
.u v/ w D .u w/v .v w/u,
u v D .u2 v3 u3 v2 ; u3 v1 u1 v3 ; u1 v2 u2 v1 /> – die Jacobi-Identität
Œu .v w/ C Œv .w u/ C Œw .u v/ D 0,
zu berechnen. – die Lagrange-Identität
– Das Vektorprodukt ist schiefsymmetrisch, also v u D .u v/ .w x/ D .u w/.v x/ .u x/.v w/
u v, und linear in jedem Anteil, d. h., .u1 Cu2 / v D – sowie für das Vektorprodukt von Vektorprodukten
.u1 v/ C .u2 v/ und u v D .u v/. .u v/ .w x/ D det.u; w; x/ v det.v; w; x/ u.
? Selbstfrage 5.13 Beweis Die erste Gleichung folgt aus der Grassmann-
Beweisen Sie unter Benutzung der Grassmann-Identität Identität durch zyklische Vertauschung, also den Ersatz
die folgende Variante: .u; v; w/ 7! .v; w; u/ 7! .w; u; v/, und durch anschlie-
ßende Addition.
u .v w/ D .u w/v .u v/w: Die Langrange-Identität ergibt sich aus (5.13) wie folgt:
Mithilfe der Grassmann-Identität lassen sich die folgenden .u v/ .w x/ D det ..u v/; w; x/
Formeln für weitere gemischte Produkte herleiten: D Œ.u v/ w x
1. Jacobi-Identität D Œ.u w/v .v w/u x:
Œu .v w/ C Œv .w u/ C Œw .u v/ D 0: Die Formel ku vk D kuk kvk sin ' aus (5.12) ist wegen
(5.7) ein Sonderfall der Lagrange-Identität. Dasselbe trifft
2. Lagrange-Identität auf die Gleichung .u v/2 C .u v/2 D kuk2 kvk2 zu.
Schließlich folgt aus der Grassmann-Identität
.u v/ .w x/ D .u w/.v x/ .u x/.v w/:
.u v/ .w x/ D .u .w x// v .v .w x// u
3. Vektorprodukt zweier Vektorprodukte D det.u; w; x/ v det.v; w; x/ u;
.u v/ .w x/ D det.u; w; x/ v det.v; w; x/ u: womit auch die letzte Gleichung gezeigt ist.
5.4 Abstände zwischen Punkten, Geraden und Ebenen
143 5
Kommentar Ein K-Vektorraum V mit einer zusätzlichen
Verknüpfung W V V ! V und
a .b C c/ D .a b/ C .a c/; u .a p/
.a C b/ c D .a c/ C .b c/;
a a
.a b/ D . a/ b D a . b/ p
Die obige Übersicht zeigt gesammelt die bisherigen Pro- mit a und b ein rechtwinkliges Dreieck, und dessen Hypo-
dukte sowie die damit zusammenhängenden wichtigsten tenuse ax ist stets länger als die Kathete ab. Also ist die
Formeln. Kathetenlänge
dist.M; N / D inf f kx yk j x 2 M und y 2 N g Folgerung Für den Abstand des Punkts a von der Geraden
G D p C Ru gilt:
Abstand oder Distanz der Punktmengen M und N:
Wegen kx yk 0 ist die Menge der Distanzen k.a p/ uk
kx yk durch 0 nach unten beschränkt; also gibt es stets dist.a; G/ D :
kuk
dieses Infimum. Dieses braucht allerdings kein Minimum
zu sein. Sind die Mengen M und N affine Teilräume des Der Fußpunkt b der Normalen aus dem Punkt a an die Ge-
R3 , also Punkte, Geraden oder Ebenen, so werden sich die rade G D p C Ru lautet:
gegenseitigen Abstände doch als Minima herausstellen; es
gibt dann nämlich stets Punkte a 2 M und b 2 N mit .a p/ u
bDpC u;
dist.M; N / D ka bk. uu
b D p C u C v und b D a C .u v/ b
d
H0
mit gewissen ; ; 2 R. Das Skalarprodukt beider Dar- x
stellungen mit u v führt wegen .u v/u D .u v/v D 0 G
auf die Gleichung a
EG
p .u v/ D a .u v/ C .u v/2 ;
. Abb. 5.20 Die gemeinsame Normale N der Geraden G und H
5
also nach (5.13):
Sind G und H nicht parallel, also deren Richtungsvek-
.p a/ .u v/ det.p a; u; v/
D D : toren u und v linear unabhängig, so muss eine gemeinsame
ku vk 2 ku vk2 Normale N von G und H die Richtung des Vektors n D
u v haben. Nun gibt es eine zu n normale Ebene EG
Aus b a D .u v/ folgt kb ak D jj ku vk.
durch G, und H ist parallel dazu. Durch die Orthogonal-
projektion von H auf die Ebene EG entsteht die Gerade H 0
Folgerung Für den Abstand des Punkts a von der Ebene (. Abb. 5.20). Diese ist parallel zum Urbild H und schnei-
E D p C Ru C Rv gilt: det G in einem Punkt a. Die Verbindungsgerade von a mit
dessen Urbild b 2 H ergibt das in diesem Fall eindeutige
j det.p a; u; v/j
dist.a; E/ D : Gemeinlot N .
ku vk
Lemma Sind die zwei Geraden G und H nicht parallel, so
gibt es ein eindeutiges Gemeinlot N . Für die Schnittpunkte
Wir erkennen zugleich: Zu jedem Raumpunkt a gibt es ei- a; b von N mit G bzw. H gilt:
nen Normalenfußpunkt
dist.G; H / D kb ak:
det.p a; u; v/
bDaC .u v/ (5.14)
ku vk2 Beweis Für beliebige Punkte x D a C u 2 G und y D
b C v 2 H ist
in E. Wir nennen die Abbildung R3 ! E mit a 7!
b die Orthogonalprojektion oder Normalprojektion auf y x D .b a/ C . v u/ bei .b a/ ? u; v:
die Ebene E (. Abb. 5.22 und 5.23). Später werden wir
Wegen .b a/ u D .b a/ v D 0 folgt:
eine Matrizendarstellung dieser Abbildung kennenlernen.
ky xk2 D kb ak2 C k v uk2 kb ak2 :
Der Abstand zweier Geraden wird Gleichheit besteht genau dann, wenn v u D 0 ist.
längs des Gemeinlots gemessen Wegen der geforderten linearen Unabhängigkeit von u und
v bleibt für das Minimum nur D D 0, also x D a und
y D b.
Als Nächstes wenden wir uns dem Abstand zweier Geraden
G D p C Ru und H D q C Rv zu. Zuerst zeigen wir, dass Wie können wir die Fußpunkte a und b und die Distanz
es stets ein Gemeinlot gibt, also eine Gerade N , welche G dist.G; H / berechnen, wenn die Geraden in der Form G D
und H unter rechtem Winkel schneidet (. Abb. 5.20). p C Ru und H D q C Rv gegeben sind?
Bei G D H ist die Aussage trivial. Sind die beiden Wir setzen die beiden Fußpunkte von N an in der Form
Geraden G und H parallel und verschieden, so liegen sie
in der von q p und u aufgespannten Ebene. Dann kann a D p C u; b D q C v
so wie vorhin aus jedem Punkt a 2 G eine Normale N an bei b a D n; n D u v:
H gelegt werden, die wegen der Parallelität zwischen H
und G auch zu G normal ist. Der Schnittpunkt b von N mit Dann ist dist.G; H / D k nk D jj knk, wobei die Vektor-
H bestimmt dist.G; H / D ka bk. Durch Translationen gleichung b a D n, also
in der Richtung von G und H entstehen aus N unendlich
viele gemeinsame Normalen. q p u C v D n ( )
5.4 Abstände zwischen Punkten, Geraden und Ebenen
145 5
zu erfüllen ist. In Koordinaten ausgeschrieben sind dies drei x3
lineare Gleichungen in den drei Unbekannten , und .
Durch Bildung von Skalarprodukten lassen sich die Unbe-
n
kannten sogar explizit angeben: b
Wir multiplizieren die auf der linken und rechten Sei- v
E
te der Gleichung . / stehenden Vektoren skalar mit n und x
erhalten p
u
a
.q p/ n .u n/ C .v n/ D .n n/ x2
.q p/ n
D : . Abb. 5.21 Die Ebene E D p C Ru C Rv geht durch p und wird von
knk2 den Vektoren u und v aufgespannt
det.q p; v; n/ n x D n p D k D konst.
D :
det.u; v; n/
Dies bedeutet ausführlich:
Analog folgt nach Bildung des Skalarprodukts mit u n:
n1 x1 C n2 x2 C n3 x3 D k:
det.q p; u; n/
D :
det.u; v; n/
Die Ebenengleichung
FolgerungDie Distanz zweier nicht paralleler Geraden Eine Ebene ist die Lösungsmenge einer linearen Glei-
G D p C Ru und H D q C Rv lautet: chung n1 x1 C n2 x2 C n3 x3 D k. Dabei sind die in dieser
Gleichung auftretenden Koeffizienten .n1 ; n2 ; n3 / ¤ 0 die
j det ..q p/; u; v/ j Koordinaten eines Normalvektors n von E.
dist.G; H / D :
ku vk
Die Punkte a 2 G und b 2 H mit dist.G; H / D ka bk Wir können den Normalvektor normieren, und zwar sogar
lauten: auf zwei Arten, als b
n D ˙ knk
1
n.
Œ.q p/ v .u v/
a D p C u mit D und
ku vk2
Definition der Hesse’schen Normalform einer
Œ.q p/ u .u v/
b D q Cv mit D : Ebene
ku vk2 Ist n ein normierter Normalvektor der Ebene E, d. h.,
knk D 1, so heißt die zugehörige Ebenengleichung
Der Mittelpunkt der Gemeinlotstrecke ab ist gleichzeitig
eine optimale Näherung für den „Schnittpunkt“ zweier ein-
l.x/ D n x k D n1 x1 C n2 x2 C n3 x3 k D 0
ander „beinahe“ schneidenden Geraden, wie die kommende
Beispielbox zeigt.
nach L. O. Hesse (1811–1874) Hesse’sche Normalform
der Ebene E.
Die Hesse’sche Normalform ist mehr
als nur die Gleichung einer Ebene
Dabei gibt jkj D jn pj nach der geometrischen Deu-
tung des Skalarprodukts (siehe . Abb. 5.13) den Abstand
Der Punkt x liegt genau dann in der Ebene E D p C Ru C des Koordinatenursprungs o von der Ebene E an, also
Rv, wenn die Vektoren .x p/, u und v linear abhängig dist.o; E/ D jkj.
146 Kapitel 5 Analytische Geometrie – Rechnen statt Zeichnen
Es gibt numerische Verfahren, um aus zwei Fotos desselben stimmen demnach die gemeinsame Normale der beiden Pro-
Objektes das dargestellt Objekt zu rekonstruieren, also die jektionsgeraden und darauf den Mittelpunkt m zwischen den
Koordinaten der in beiden Bildern sichtbaren Punkte zu be- beiden Normalenfußpunkten a und b, also m D 12 .a C b/ (sie-
rechnen, sofern die tatsächliche Länge einer in beiden Bildern he Abbildung unten). Dazu verwenden wir die obigen Formeln.
ersichtlichen Strecke bekannt ist. Ist dann die gegenseitige La- Inwiefern ist dieser Punkt optimal?
ge der Kameras zum Zeitpunkt der Aufnahmen bestimmt, so 1) Angenommen p ist ein beliebiger Raumpunkt und x 2 G
denken wir uns die beiden Fotos der Aufnahmesituation ent- und y 2 H sind die zugehörigen Normalenfußpunkte auf
sprechend im Raum platziert (siehe Skizze rechts). Seien z1 G bzw. H . Dann ist jedenfalls nach der Dreiecksunglei-
bzw. z2 die Aufnahmezentren, also die Brennpunkte der Ob- chung
5 jektive, und x 1 bzw. x 2 die beiden Bilder eines Raumpunkts
x. Zur Rekonstruktion des Urbildpunkts x sind dann offen- kp xk C kp yk kx yk ka bk:
sichtlich die beiden Projektionsgeraden z1 C R.x 1 z1 / und Die Summe der Entfernungen des Punkts p von G und H
z2 C R.x 2 z2 / miteinander zu schneiden. ist genau dann minimal, wenn beide Male das Gleichheits-
zeichen gilt, und dies trifft für alle Punkte der abgeschlos-
senen Strecke ab zu (. Abb. 5.20).
5
6 2. Bil
d
m
4 x2
3 1. Bild
8 11 z2
9
1 x1
7 12
2
13
10
2) Verlangt man hingegen eine minimale Quadratsumme der
14
Entfernungen, so bleibt der Mittelpunkt m von ab als ein-
zige Lösung. Zur Begründung wählen wir ein spezielles
Koordinatensystem mit m als Ursprung und der gemeinsa-
men Normalen als x3 -Achse. Dann können wir ansetzen:
0 1 0 1
5
0 0
B0C B0C
6 a D @ A ; b D @ A mit 2c D ka bk:
3 c c
4
1 8
11 Die Punkte x 2 G und y 2 H seien x D a C u,
9 y D b C v, wobei
7
12 0 1 0 1 0 1
u1 v1 p1
2 10 13 Bu C Bv C Bp C
u D @ 2 A ; v D @ 2 A und p D @ 2 A :
14 0 0 p3
Dann ist
Ein Problem der Computer-Vision: Die Rekonstruktion zweier Fotos
mithilfe von 14 Passpunkten kp xk2 C kp yk2
D kp a uk2 C kp b vk2
Problemanalyse und Strategie
D .p1 u1 /2 C .p2 u2 /2 C .p3 c/2
Nachdem die zi und x i durch Messungen und numerische
C .p1 v1 /2 C .p2 v2 /2 C .p3 C c/2
Berechnungen ermittelt worden sind, kann man nicht erwar-
ten, dass die beiden Projektionsgeraden einander wirklich .p3 c/2 C .p3 C c/2 D 2 p32 C 2 c 2 2 c 2 :
schneiden. Man muss also die bestmögliche Näherung für den
Schnittpunkt ausrechnen. Gleichheit in beiden Fällen ist nur möglich bei
! ! !
p1 u1 v1
Lösung p3 D 0 und D D :
p2 u2 v2
Setzt man voraus, dass die beiden Projektionsgeraden G und
H nicht parallel sind, so wird man diese Näherung intuitiv dort Wegen der linearen Unabhängigkeit von u und v bleibt D
wählen, wo G und H einander am nächsten kommen. Wir be- D 0, also x D a, y D b und p D m.
5.4 Abstände zwischen Punkten, Geraden und Ebenen
147 5
Wegen l.x/ D n x k folgt weiter:
N l.x/ D n Œ a C .1 / b k
a
n D .n a/ C .1 /.n b/ k
a x D .l.a/ C k/ C .1 / .l.b/ C k/ k
D l.a/ C .1 / l.b/:
l .a/ b
Die Werte l.x/ durchlaufen wegen 0 1 das ab-
x
geschlossene Intervall Œ l.a/; l.b/ in R. Haben l.a/ und
E l.b/ gleiche Vorzeichen, so haben auch alle Zwischenwerte
l.x/ dieses Vorzeichen. Deshalb sind die offenen Halbräu-
me konvex. Sind l.a/ und l.b/ nicht negativ bzw. nicht
positiv, so gilt jeweils dasselbe für alle Zwischenwerte. Da-
. Abb. 5.22 Die Bedeutung der Hesse’schen Normalform: d D l.a/ mit ist auch die Konvexität der abgeschlossenen Halbräume
ist der orientierte Abstand des Punkts a von der Ebene E. Dabei kann d bewiesen.
positiv, negativ oder gleich null sein
Beispiel Die vier Punkte
Setzen wir einen beliebigen Raumpunkt a in die Ebe- 0 1 0 1
˙2 0
nengleichung ein, so ist bei x 2 E (. Abb. 5.22)
a1;2 D @p0A ; a3;4 ˙2A
D@ p
l.a/ D n a k D n a n x D n .a x/: 2 2
Somit gibt l.a/ die vorzeichenbehaftete Länge der Pro-
bestimmen eine dreiseitige Pyramide mit lauter Kanten der-
jektion des Vektors a x auf n an. Dies eröffnet die
selben Länge, also ein reguläres Tetraeder (. Abb. 5.18).
Möglichkeit, den Abstand dist.a; E/ zusätzlich mit einem
Gesucht sind spezielle Normalvektoren der vier Seitenflä-
Vorzeichen zu versehen.
chen, und zwar diejenigen Einheitsvektoren, welche nach
außen weisen. Auch soll das Innere dieses Tetraeders durch
Ungleichungen gekennzeichnet werden.
Eigenschaften der Hesse’schen Normalform Ein auf der Verbindungsebene von a1 , a2 und a3 normal
Ist l.x/ D 0 die Hesse’sche Normalform der Ebene E, so
stehender Vektor ist als Vektorprodukt zu berechnen:
gibt l.a/ den orientierten Abstand des Punkts a von E
an. Dabei ist dieser Abstand l.a/ genau dann positiv, wenn n123 D .a2 a1 / .a3 a1 /
a auf jener Seite von E liegt, auf welche der Normalvektor 0 1 0 1 0 1
4 2 0
n zeigt. p
D @ 0 A @ 2p A D @8 2A :
0 2 2 8
Die Ebene E zerlegt den Raum R3 n E in zwei offene
Halbräume, deren Punkte x durch l.x/ > 0 bzw. durch Wir normieren zu
l.x/ < 0 gekennzeichnet sind. Die durch l.x/ 0 bzw. 0 1
0
l.x/ 0 charakterisierten Punktmengen heißen abge- 1 @p A
bn123 D p 2
schlossene Halbräume. 3 1
Der Normalvektor n124 der Ebene span.a1 a2 a4 / unter- A heißt Darstellungsmatrix dieser Abbildung. Wir wer-
scheidet sich von n123 durch das Vorzeichen der zweiten den uns sehr ausführlich im 7 Kap. 6 mit derartigen Ab-
Koordinate. Dies ergibt für den richtig orientierten Ein- bildungen befassen und dort eine elegantere Definition
heitsvektor: kennenlernen, nämlich eine anhand ihrer beiden Eigen-
0 1 schaften
0
1 p
bn124 D p @ 2A : '.x C y/ D '.x/ C '.y/ und '.x/ D '.x/:
3 1
Diese bewirken, dass Linearkombinationen wieder auf Li-
Analog berechnen wir: nearkombinationen mit denselben Koeffizienten abgebildet
5 0p 1 0 p 1 werden, also
2 2
b
n134 D p
1 @ A
0 und b
n234
1 @
Dp 0 A: !
Xn Xn
3 1 3 1 ' i x i D i '.x i /:
i D1 i D1
Dabei weisen auch diese beiden Vektoren nach außen, denn
Hier beschränken wir uns auf die linearen Abbildungen
wir erhalten für den in beiden Ebenen gelegenenpPunkt a3
n234 D 2=3 > 0. 'W R ! R . Deren Darstellungsmatrizen A D ai k sind
3 3
positive Skalarprodukte a3 b
n134 D a3 b
Die Punkte im Inneren dieses Tetraeders sind somit aus R . Damit lautet ' ausführlich:
3 3
Die Orthogonalprojektion ist Anlass Diese heißt (dreireihige) Einheitsmatrix, und es ist
E3 x D x für alle x 2 R3 .
für eine Vorschau auf lineare Abbildungen Die obige Zerlegung des Matrizenprodukts A x in eine
Summe von Spaltenvektoren zeigt, dass alle Bildvektoren
Bevor wir uns im Anschauungsraum genauer mit Orthogo- x 0 Linearkombinationen der Spaltenvektoren s1 ; s2 ; s3 von
nalprojektionen auf Ebenen oder Geraden befassen, sind A sind. Die Menge der Bildvektoren ist somit die Hülle der
einige Zwischenbemerkungen über lineare Abbildungen Spaltenvektoren von A und damit ein Unterraum von R3 .
und über das Rechnen mit Matrizen notwendig. Die Dimension dieses Unterraums, des Bildes '.R3 /, heißt
Eine Abbildung ' von einem K-Vektorraum V in einen Rang rg.'/ der linearen Abbildung ' und auch Rang rg A
K-Vektorraum V 0 heißt linear, wenn sie sich nach Einfüh- der Darstellungsmatrix A.
rung von Koordinaten in V und V 0 durch Multiplikation Bei rg.A/ D 3 sind die Spaltenvektoren s1 ; s2 ; s3 linear
mit einer Matrix mit Einträgen aus K beschreiben lässt, al- unabhängig; daher ist det A ¤ 0. In diesem Fall bilden die
so von folgender Bauart ist: Spaltenvektoren von A eine Basis des R3 . Nachdem jeder
Vektor x 0 des R3 eine eindeutige Darstellung als Linear-
'W V ! V 0 mit x 7! x 0 D A x: kombination dieser Basisvektoren besitzt, gibt es zu jedem
5.4 Abstände zwischen Punkten, Geraden und Ebenen
149 5
Bildvektor ein eindeutiges Urbild x. Die Abbildung ' ist in Zurück zu den linearen Abbildungen R3 ! R3 : Werden
diesem Fall bijektiv; es gibt die Umkehrabbildung ' 1 . zwei lineare Abbildungen hintereinander ausgeführt, also
Hat man die Urbilder y i der Vektoren e i der Standard-
basis bereits berechnet, etwa durch Auflösen der zugehö- 'W x 7! x 0 D A x und ' 0 W x 0 7! x 00 D A 0 x 0 ;
rigen linearen Gleichungssysteme
P A y i D e iP , so ist das
Urbild von x 0 D 3iD1 xi0 e i gleich ' 1 .x 0 / D 3iD1 xi0 y i , so gilt für die Abbildung des Vektors e i der Standardbasis:
denn für jedes i 2 f1; 2; 3g ist Der i-te Spaltenvektor si von A ist gleich '.e i /. Daher ist
' 0 ı '.e i / D A 0 si der i-te Spaltenvektor in dem Matri-
A .xi0 y i / D xi0 .A y i / D xi0 e 0i : zenprodukt A 0 A. Andererseits folgt ausPder Linearität der
Einzelabbildungen, dass auch für x D 3iD1 xi e i gilt:
Dies zeigt, dass auch ' 1 eine lineare Abbildung ist; die
zugehörige Darstellungsmatrix A 1 heißt inverse Matrix X
' 0 ı '.x/ D ' 0 xi s i
von A. Deren Spaltenvektoren y 1 ; y 2 ; y 3 haben die Eigen-
X
schaft A y i D e i . Wird also die Matrix A der Reihe nach D xi .A 0 A/ e i D .A 0 A/ x:
mit den Spaltenvektoren von A 1 multipliziert, so entste-
hen die Spalten der Einheitsmatrix. Wir schreiben dies kurz Damit ist auch die Zusammensetzung ' 0 ı ' wieder eine
als Matrizenprodukt lineare Abbildung R3 ! R3 . Die Darstellungsmatrix der
A A 1 D E3 : Produktabbildung ' 0 ı ' ist gleich dem Produkt der beiden
Darstellungsmatrizen.
Dahinter steht die folgende Erweiterung der im Nachdem bei bijektivem ' die Zusammensetzungen
7 Abschn. 3.2 eingeführten Multiplikation einer Matrix ' 1 ı ' und ebenso ' ı ' 1 die identische Abbildung idR3
mit einem Spaltenvektor: ergeben, folgt für die zugehörigen Darstellungsmatrizen er-
Wir bilden das Matrizenprodukt D D B C einer Ma- gänzend zu oben:
trix B 2 Km n mit einer Matrix C 2 Kn p , indem wir der
Reihe nach B mit den p Spaltenvektoren von C multipli- A 1 A D A A 1 D E3 :
zieren und diese als Spalten in D zusammenfassen.
Man beachte: Das Produkt kann nur gebildet werden, Die bijektiven linearen Abbildungen 'W R ! R bil-
3 3
wenn die Spaltenanzahl n des ersten Faktors B gleich der den eine Gruppe, und zwar3 eine Untergruppe der Gruppe
Zeilenanzahl des zweiten Faktors C ist. Dann lautet das aller Permutationen des R3 3(siehe 7 Abschn. 2.1). Jedem
Element di k der Produktmatrix für i 2 f1; : : : ; mg und ' ist eine Matrix A 2 R mit det A ¤ 0 bijektiv zu-
k 2 f1; : : : ; pg: geordnet, wobei der Hintereinanderausführung ' 0 ı ' das
0
Produkt A A entspricht. Deshalb bilden auch die dreirei-
X n
higen reellen Matrizen A mit det A ¤ 0 eine Gruppe mit
di k D bij cj k : E3 als neutralem Element und A 1 als zu A inversem Ele-
j D1
ment. Diese Gruppe heißt allgemeine lineare Gruppe des
In Worten: Das Element an der Stelle .i; k/ der Produktma- R und wird mit GL3 .R/ bezeichnet. Die Matrizen aus
3
trix B C entsteht aus der i-ten Zeile von B und der k-ten GL3 .R/ heißen auch invertierbar oder regulär. Später im
Spalte von C durch „skalare Multiplikation“. 7 Abschn. 7.4 werden wir erkennen, dass die Matrizen A
Die folgende Illustration zeigt die Größenverhältnisse mit det A D 1 eine Unterguppe bilden, die spezielle lineare
der an diesem Matrizenprodukt beteiligten Matrizen B, C Gruppe SL3 .R/. Sie umfasst diejenigen linearen Abbildun-
und D. gen, welche das orientierte Volumen unverändert lassen.
p n
p
m D m n Affine Abbildungen bilden
Affinkombinationen wieder
D D B C auf Affinkombinationen ab
Der Punkt, der hier zur Verdeutlichung als Verknüpfungs-
zeichen für die Matrizenmultiplikation dient, wird aller- Abschließend noch zu einer Verallgemeinerung der linea-
dings in Zukunft meist weglassen. Er ist nicht üblich. ren Abbildungen R3 ! R3 : Wird zu allen Bildvektoren
noch ein konstanter Vektor t addiert, liegt also eine Abbil-
? Selbstfrage 5.15 dung mit der Darstellung
Berechnen Sie das Produkt D der Matrizen
0 1 0 1 AW x 7! x 0 D t C A x
2 1 2 2 1 2
B1 2 C B1 2 2C
BD@ 2 A und C D @ A
vor, so spricht man von einer affinen Abbildung . Dabei
2 2 1 2 2 1
nennt man x 7! A x die zu A gehörige lineare Abbildung.
150 Kapitel 5 Analytische Geometrie – Rechnen statt Zeichnen
kit taM
bijektiven affinen Abbildungen bilden eine Gruppe, die af-
fine Gruppe AGL3 .R/. Ma
Beispiele affiner Abbildungen sind bei t D 0 die li-
the
kitaammeh
nearen Abbildungen sowie die Translationen x 7! x 0 D
x C t. Bei Letzteren ist A D E3 ; die zugehörige lineare ma
5
Abbildung ist die Identität; der Vektor t heißt Schiebvektor
t der Translation. Offensichtlich ist jede affine Abbildung
tik
A das Produkt aus der zugehörigen linearen Abbildung
und der anschließenden Translation mit dem Schiebvektor
A.0/.
. Abb. 5.23 Der Normalenfußpunkt b von a in der Ebene E sowie das
Affine Abbildungen haben die Eigenschaft, Affinkom-
Spiegelbild a0 von a. Auch der blaue Schriftzug wurde an E gespiegelt
binationen (siehe 7 Abschn. 5.1) wieder auf Affinkombina-
P (grün) sowie normal in die Ebene E projiziert (rot)
tionen abzubilden, denn unter der Voraussetzung i D 1
ist
X
n X
n Zu dieser Darstellung des Fußpunkts b kommen wir eigent-
A i x i D t CA i x i lich auch ohne jede Rechnung, denn l.a/ gibt den im Sinn
i D1 i D1 von n orientierten Normalabstand des Punkts a von E an.
X
n X
n
Wir haben somit nur vom Punkt a aus längs n die Länge
D i t C i A x i l.a/ zurückzulaufen, um die Ebene E im Fußpunkt b zu
i D1 i D1
X
n X
n erreichen.
D i .t C A x i / D i A.x i /:
i D1 i D1 ?Selbstfrage 5.16
Daher gehen affine Teilräume wieder in affine Teilräume Zeigen Sie, dass die Formel für b aus (5.14) in jene aus
über. (5.15) übergeht, wenn kuu vvk durch n ersetzt wird und n p
durch k.
Das dyadische Produkt vereinfacht die Die Formel (5.15) für b zeigt erneut, dass b unter allen
Darstellung der Orthogonalprojektionen Punkten x 2 E derjenige ist, welcher dem Punkt a am
nächsten liegt, für den also die Gleichung dist.a; E/ D
kb ak gilt. Aus a D b C n, n2 D 1 und n .b x/ D 0
Wir kehren nochmals zu der vorhin definierten Orthogo-
ergibt sich nämlich:
nalprojektion des R3 auf eine Ebene E zurück, die jedem
Raumpunkt a den Fußpunkt b 2 E der durch a gehenden
ka xk2 D . n C .b x//2 D 2 C .b x/2 2 :
Ebenennormalen zuordnet (. Abb. 5.23). Im Gegensatz zu
(5.14) geben wir die Ebene E diesmal in der Hesse’schen
Normalform an, und wir fassen die Orthogonalprojektion Gleichheit tritt nur bei b x D 0, also bei x D b ein.
auf als Abbildung R3 ! R3 , auch wenn das Bild nur Nun schreiben wir die Abbildung
der affine Teilraum E ist. Neben der Orthogonalprojekti-
on N W a ! b auf E soll auch die Spiegelung SW a 7! a0 an N W a 7! b D a Œ.n a/ k n
E in Matrizenform dargestellt werden. D k n C Œa .n a/ n
Wir geben E durch die Gleichung
l.x/ D n x k D 0 mit knk D 1 in Matrizenform um. Dazu ersetzen wir das auftretende
Skalarprodukt n a 2 R gemäß (5.3) durch ein Matri-
vor und können daher ansetzen: zenprodukt. Nun ist die Matrizenmultiplikation generell
assoziativ. Das wird zwar erst im 7 Abschn. 6.5 allgemein
b D a C n mit l.b/ D .n a/ C .n n/ k D 0: bewiesen; im vorliegenden Fall lässt sich die Gültigkeit
aber durch einfaches Ausrechnen bestätigen. Demnach ist
Es folgt D Œ k .n a/ D l.a/ und damit als Lösung
x 3 D .x n/ n:
Dabei heißt eine Matrix symmetrisch, wenn die bezüglich
der Hauptdiagonale symmetrisch gelegenen Einträge ai k Auch diese Abbildung x 7! x 3 ist eine lineare Abbil-
und aki stets gleich sind, wenn also N > D N ist. dung R3 ! R3 , denn sie kann ebenfalls durch eine
Wir schreiben nun noch x statt a sowie x E statt b und 3 3-Darstellungsmatrix beschrieben werden. Zu deren
stellen die Orthogonalprojektion auf E wie folgt dar. Herleitung schreiben wir ähnlich wie vorhin bei der Ortho-
gonalprojektion nach E die obige Vektordarstellung von x 3
auf ein Matrizenprodukt um:
Darstellung der Orthogonalprojektion auf eine
Ebene x 3 D .x n/ n D n .n> x/ D .n n> / x:
Die Orthogonalprojektion auf die Ebene E mit der Hes-
se’schen Normalform n x k D 0 lautet
Die Darstellungsmatrix der Orthogonalprojektion auf die
durch den Ursprung gehende Gerade G ist gleich dem
x 7! x E D k n C .E3 N / x
schon vorhin verwendeten dyadischen Quadrat N D
n n> des normierten Richtungsvektors von G.
mit N D n n> und E3 als dreireihiger Einheitsmatrix.
Nun ist (. Abb. 5.24) x D x E C x 3 mit x E als Norma-
lenfußpunkt von x in E, also
1 b01
.x C x 0 / D x E ; also x 0 D 2 x E x: o
2
b2
5 In Matrizenschreibweise bedeutet dies:
b1
x 0 D 2k n C 2.E3 N / x x
. Abb. 5.25 Zwei kartesische Rechtskoordinatensysteme mit demselben
mit N als dyadischem Quadrat von n. Ursprung
X
3 X
3
.E3 2N /.E3 2N / D E3 ‹
Wir stellen nun alle Vektoren dieser Gleichung im Ko-
ordinatensystem .oI B/ dar. Dazu brauchen wir die B-
5.5 Wechsel zwischen kartesischen Koordinaten der Basisvektoren bj0 . Wir setzen diese an als
0 1
Koordinatensystemen a1j
0 @ A
B bj D a2j . Dann lässt sich die Vektorgleichung
a3j
Bei vielen Gelegenheiten ist es notwendig, von einem kar-
tesischen Koordinatensystem auf ein anderes umzurechnen. 0 1 0 1 0 1 0 1
x1 a11 a12 a13
Ein Musterbeispiel bildet in der Astronomie die Umrech- @x2 A D x10 @a21 A C x20 @a22 A C x30 @a23 A
nung von einem in der Sonne zentrierten und nach Fix-
x3 a31 a32 a33
sternen orientierten heliozentrischen Koordinatensystem
auf ein lokales System in einem Punkt der Erdoberfläche übersichtlich in Matrizenform schreiben als
mit lotrechter x3 -Achse und der nach Osten orientierten
0 1 0 1 0 01
x1 -Achse. Erst damit ist es möglich vorauszuberechnen, x1 a11 a12 a13 x1
wie die Bewegungen der Planeten oder des Mondes von @x2 A D @a21 a22 a23 A @x20 A :
der Erde aus zu beobachten sein werden. Wir werden uns x3 a31 a32 a33 x30
diesem Problem noch genauer widmen.
Die Matrix .aij / ist eine Transformationsmatrix , und wir
bezeichnen sie mit B T B 0 . Mit ihrer Hilfe transformieren wir
Orthogonale Matrizen erledigen Koordinaten von einem Koordinatensystem auf ein ande-
die Umrechnung zwischen zwei res, in unserem Fall von B 0 -Koordinaten (rechter Index) auf
kartesischen Koordinatensystemen B-Koordinaten (linker Index), also
B x D B T B 0 B 0 x: (5.17)
Es seien zwei kartesische Koordinatensysteme mit demsel-
ben Ursprung o gegeben, nämlich .oI B/ mit der ortho- In den Spalten von B T B 0 stehen die B-Koordinaten der Ba-
normierten Basis B D .b1 ; b2 ; b3 / und .oI B 0 / mit B 0 D sisvektoren b01 , b02 , b03 . Da diese linear unabhängig sind,
5.5 Wechsel zwischen kartesischen Koordinatensystemen
153 5
hat B T B 0 den Rang 3. Die Gleichung (5.17) beschreibt eine In den Spalten der Umrechnungsmatrix B T B 0 von den
bijektive lineare Abbildung B 0 x 7! B x; Transformations- B 0 -Koordinaten zu den B-Koordinaten stehen die B-Koor-
matrizen sind invertierbar. dinaten der bj0 und in den Zeilen die B 0 -Koordinaten der
Nach (5.9) ist die i-te B-Koordinate von bj0 gleich dem bi . Sind B und B 0 Rechtssysteme, so ist das Spatprodukt
Skalarprodukt bi bj0 . Dies führt auf die Darstellung det.b1 ; b2 ; b3 / D det B 0 T B D det B T B 0 D C1. Derartige
orthogonale Matrizen heißen eigentlich orthogonal. In der
0 1
b1 b01 b1 b02 b1 b03 nächsten Beispielbox ist eine derartigen Matrix zu berech-
0
B TB0
@
D b2 b1 b2 b02 b2 b03 A : (5.18) nen.
b3 b01 b3 b02 b3 b03 Werden die Wechsel B x 7! B 0 x und B 0 x 7! B 00 x zwi-
schen orthonormierten Basen hintereinander ausgeführt, so
Die Spaltenvektoren in dieser Matrix sind orthonormiert, gibt es für den Wechsel B x 7! B 00 x erneut eine orthogona-
also paarweise orthogonale Einheitsvektoren. le Transformationsmatrix B 00 T B D B 00 T B 0 B 0 T B , nachdem
Sollen umgekehrt die B 0 -Koordinaten aus den B-Koor- darin die Spaltenvektoren, also die B 00 -Koordinaten von
dinaten berechnet werden, so benötigen wir die Umkehrab- b1 ; b2 ; b3 , nach wie vor orthonormiert sind. Demnach ist
bildung der linearen Abbildung B 0 x 7! B x, also die inverse das Produkt zweier orthogonaler Matrizen wieder ortho-
Matrix. Demnach gilt: gonal. Die dreireihigen orthogonalen Matrizen bilden hin-
sichtlich der Multiplikation eine Untergruppe von GL3 .R/,
0 01 0 1 die orthogonale Gruppe O3 . Die eigentlich orthogonalen
x1 x1
@x20 A D @x2 A mit B 0 T B D .B T B 0 /1 : Matrizen bilden die Untergruppe SO3 von O3 .
B0 TB
x30 x3
?Selbstfrage 5.20
0
In den Spalten der Matrix B 0 T B stehen die B0-Koordinaten 1. Ist die Matrix
1
bi b01 0 1
0 1 2 2
der bi , also gemäß (5.9) die Skalarprodukte @bi b2 A, und 1B
@2 1 2CA
bi b03 3
2 2 1
das sind genau die Zeilen der ursprünglichen Transformati-
onsmatrix B T B 0 . Also gilt für die Transformationsmatrizen
A zwischen kartesischen Koordinatensystemen, dass die eigentlich orthogonal?
inverse Matrix gleich ist der transponierten. Um diese zu 2. Man bestätige durch Rechnung, dass die bei der Spie-
invertieren, braucht man nur an der Hauptdiagonale zu spie- gelung an einer Ebene auftretende symmetrische Ma-
geln, also Spalten mit Zeilen zu vertauschen, kurz: trix M D E3 2N orthogonal ist. Warum ist sie nicht
eigentlich orthogonal?
A 1 D A > und damit auch A A > D A > A D E3 :
Wir wissen von der geometrischen Bedeutung des Skalar-
Derartige Matrizen heißen orthogonal. Mehr darüber gibt produkts u v. Es hängt nur von der gegenseitigen Lage
es im 7 Abschn. 9.3. der jeweiligen Vektoren ab, muss also unverändert bleiben,
wenn wir das Koordinatensystem ändern. Wir sagen, dieses
Produkt ist koordinateninvariant.
Dies gilt sinngemäß auch für das Vektorprodukt .u v/
Orthogonale Transformationsmatrizen
und das Spatprodukt det.u; v; w/ von Vektoren aus R3 ,
Die Transformationsmatrizen zwischen kartesischen Ko-
sofern ausschließlich Rechtskoordinatensysteme verwen-
ordinatensystemen sind orthogonal; sie genügen der Be-
det werden. Eine Änderung des Rechtskoordinatensystems
dingung
wirkt sich auf die Koordinaten von .u v/ genauso aus wie
1 > auf u und v, während das Spatprodukt gleich bleibt.
.B T B 0 / D .B T B 0 / ; d. h.,
Dies lässt sich in den folgenden Formeln ausdrücken.
.B T B 0 /> B T B 0 D E3 :
Wir stellen einen Einheitswürfel W derart auf, dass eine des Würfels, und dieser enthält auch den Vektor b2 : Der Vek-
Raumdiagonale lotrecht wird, also in Richtung der x3 -Achse tor b1 ist zu dieser Ebene orthogonal, hat also die Richtung
verläuft. Eine weitere Raumdiagonale soll in die Koordina- des Vektorprodukts
tenebene x1 D 0 fallen. Wie lauten die Koordinaten der acht 0 1 0 1 0 1
Ecken dieses aufgestellten Würfels? 1 1 0
B C 1 B C 1 B C
b01 b3 D @0A p @1A D p @1A :
0 3 1 3 1
Problemanalyse und Strategie
Der Einheitswürfel W werde von den Basisvektoren b01 , b02
Durch Normierung erhalten wir:
5 und b03 eines kartesischen Rechtskoordinatensystems aufge-
spannt. Wir verknüpfen nun mit dem Würfel ein zweites 01
0
Rechtskoordinatensystem mit Basisvektoren b1 , b2 und b3 , 1 B C
B 0 b1 D ˙ p @1A :
welches der geforderten Würfelposition entspricht. Der Vek- 2 1
tor b3 weist also in Richtung der Raumdiagonale, und der
Vektor b2 spannt mit b3 eine Ebene auf, welche auch b01
enthält. Dabei entscheiden wir uns für die Lösung (siehe Ab-
bildung unten rechts) mit positivem Skalarprodukt b01 b2 .
Nun muss nur der Würfel mit den beiden Koordinaten-
systemen derart verlagert werden, dass B in Grundstellung
kommt, also b3 lotrecht wird. Um also die gesuchten Ko-
b3
ordinaten zu bekommen, brauchen wir nur die bekannten
B 0 -Koordinaten der Würfelecken auf B-Koordinaten umzu- b03
rechnen. Gemäß (5.17) gelten Umrechnungsgleichungen der
Art B x D A B 0 x. b01
b02
In den Spalten der orthogonalen Transformationsmatrix b1
A D B T B 0 aus (5.18) stehen die B-Koordinaten der Basis- b2
vektoren b01 ; b02 ; b03 des Würfels. Wegen A > D A 1 D B 0 T B
stehen in den Zeilen die B 0 -Koordinaten der bi .
Würfel W in der aufgestellten Position
Lösung
Schließlich ist bei einem kartesischen Rechtskoordinatensys-
tem stets b2 D b3 b1 , also
0 1 0 1 0 1
1 0 2
1 B C B C 1 B C
B 0 b2 D ˙ p @1A @1A D ˙ p @1A :
6 1 1 6 1
Das Atomium in Brüssel, ein auf die Raumdiagonale gestellter Würfel Die „neuen“ Koordinaten der Ecken des aufgestellten Ein-
heitswürfels W stehen in den Spalten der Produktmatrix
0 1
Die durch den Ursprung verlaufende Raumdiagonale von W 0 1 1 0 0 1 1 0
bestimmt die Richtung von b3 . Also entsteht b3 durch Nor- B 0 1 1 0 0 1 1C
A @0 A
mieren von b01 C b02 C b03 . Die B 0 -Koordinaten von b3plauten 0 0 0 0 1 1 1 1
demnach . /> mit 32 D 1. Die Wahl D C1= 3 be- 0 1
deutet, dass die dem Koordinatenursprung gegenüberliegende 0 0 p12 p12 p1
2
p1
2
0 0
B0 p2 p1 p16 p16 p1 p26 C
Würfelecke eine positive dritte Koordinate erhält. Die von b01 D@ 0 A:
6 6 6 p
und b3 aufgespannte Ebene bestimmt einen Diagonalschnitt 0 p13 p2
3
p1
3
p1
3
p2
3
3 p2
3
5.5 Wechsel zwischen kartesischen Koordinatensystemen
155 5
Die erste dieser Gleichungen folgt wegen A > A D E3 auch Diese Bedingung ist bereits hinreichend für eine Bewe-
unmittelbar aus (5.3), denn gung, denn die vorhin festgestellte Invarianz der Produkte
von Vektoren garantiert, dass dabei alle Distanzen kx
.A u/ .A v/ D .A u/> .A v/ D u> A > A v D u> v: yk und wegen u v D kuk kvk cos ' alle Winkelma-
ße unverändert bleiben, wobei Rechtssysteme wieder in
Hinsichtlich des Spatprodukts kann man auf die Formel Rechtssysteme übergehen.
(5.13) zurückgreifen:
b3
b03 b3
b03
x0
b02 ' x0
x b02
x b01 o '
'
o
5 b2 b2
b1 b01
b1
. Abb. 5.27 Drehung um die x3 -Achse
0
. Abb. 5.26 Die Bewegung B W x 7! x bringt die Vektoren b1 , b2 und
b3 mit b01 , b02 bzw. b03 zur Deckung
denn der im Bogenmaß angegebenen Drehwinkel .t/ er-
gibt, nach der Zeit t differenziert, gerade
' die gewünschte
d
Beispiel Der Punkt x werde um die dritte Koordinaten- Winkelschwindigkeit dt D ! und !
D '. 9
achse b3 durch den Winkel ' verdreht. Gesucht sind die
Koordinaten der Drehlage x 0 . ?Selbstfrage 5.21
Wie eben festgestellt, wird die Drehung durch eine or- Wie sieht die Matrix der Drehung um die x1 -Achse
thogonale Matrix dargestellt, in deren Spalten der Reihe durch den Winkel ' aus, wie jene einer Drehung um die
nach die Koordinaten der verdrehten Basisvektoren stehen. x2 -Achse? Das Ergebnis ist übrigens auch durch zyklische
Ist wie in unserem Fall die Drehachse orientiert, so Vertauschung der Koordinatenachsen zu gewinnen.
ist der Drehsinn eindeutig: Blickt man gegen die Dreh-
achse, somit bei uns von oben gegen die x3 -Achse, so Die folgende Beispielbox stellt die Euler’schen Drehwinkel
erscheint eine Drehung mit einem positiven Drehwinkel vor.
im mathematisch positiven Sinn, also gegen den Uhrzei-
gersinn. Damit haben die verdrehten Basisvektoren die
B-Koordinaten Drehungen sind Bewegungen, welche
die Punkte einer Geraden fix lassen
0 1 0 1 0 1
cos ' sin ' 0
0
B b1 D
@ sin ' A ; 0
B b2 D
@ cos ' A ; b0
B 3 D @0A :
Nach diesen Spezialfällen wenden wir uns der Darstellung
0 0 1
einer Drehung zu, deren Achse durch den Ursprung geht
und in Richtung eines vorgegebenen Vektors d verläuft.
Diese brauchen nur mehr in einer Matrix zusammengefasst Wir wollen einen außerhalb der Achse gelegenen
zu werden, und wir erhalten Punkt x um diese Achse durch den Winkel ' verdrehen
0 01 0 10 1 (. Abb. 5.28). Um die Drehlage x 0 zu berechnen, zerlegen
x1 cos ' sin ' 0 x1 wir den Ortsvektor x in die Summe zweier Komponen-
@x20 A D @ sin ' cos ' 0A @x2 A ten x d und x E , von welchen x d parallel zu d ist und x E
x30 0 0 1 x3
Um bei festgehaltenem Koordinatenursprung die Raumlage nen wir die Matrix A, welche die Bewegung B darstellt, als
eines Rechtsachsenkreuzes B 0 relativ zu einem Rechtsach- Produkt von drei Drehmatrizen ausrechnen.
senkreuz B eindeutig vorzugeben, kann man die eigentlich In den folgenden Matrizen wurde aus Platzgründen der Si-
orthogonale Matrix A D B T B 0 benutzen. Diese stellt nach nus durch s abgekürzt und der Kosinus durch c:
(5.19) gleichzeitig diejenige Bewegung B dar, welche B nach 0 10 10 1
B 0 bringt. c˛ s˛ 0 1 0 0 c s 0
B CB CB 0C
Eine orthogonale 3 3 -Matrix enthält neun Einträge, A D @ s ˛ c ˛ 0A @0 c ˇ s ˇ A @ s c A
doch erfüllen diese sechs Gleichungen, nämlich die drei 0 0 1 0 sˇ cˇ 0 0 1
Normierungsbedingungen sowie die drei Orthogonalitätsbe- 0 10 1
c ˛ s ˛ c ˇ s ˛ s ˇ c s 0
ziehungen der Spaltenvektoren. Es ist demnach eher mühsam, B CB 0C
D @ s ˛ c ˛ c ˇ c ˛ s ˇ A @ s c A
eine Raumposition auf diese Weise durch neun vielfältig von-
0 sˇ cˇ 0 0 1
einander abhängige Größen anzugeben. 0 1
Im Gegensatz dazu bieten die Euler’schen Drehwinkel ei- c˛c s˛cˇs c ˛ s s ˛ c ˇ c s˛sˇ
B C
ne Möglichkeit, dieselbe Raumlage durch drei voneinander D @s ˛ c C c ˛ c ˇ s s ˛ s C c ˛ c ˇ c c ˛ s ˇ A
unabhängige Größen festzulegen, nämlich durch die drei Eu- sˇs sˇc cˇ
ler’schen Drehwinkel ˛; ˇ; (siehe Abbildung unten), und
diese sind bei Einhaltung gewisser Grenzen fast immer ein- Wenn umgekehrt eine Position des Rechtsachsenkreuzes
deutig bestimmt. Wie sieht zu gegebenen Drehwinkeln ˛; ˇ; .b01 ; b02 ; b03 / gegeben ist, so sind bei linear unabhängigen
die Transformationsmatrix aus? fb3 ; b03 g die zugehörigen Euler’schen Drehwinkel eindeutig
bestimmt, sofern man deren Grenzen mit
Problemanalyse und Strategie
Die Bewegung B, also der Übergang von .b1 ; b2 ; b3 / zu 0ı ˛ < 360ı ; 0ı ˇ 180ı ; 0ı < 360ı
.b01 ; b02 ; b03 /, ist gemäß der unten gezeigten Abbildung die Zu-
sammensetzung folgender drei Drehungen. festsetzt. Der Vektor d (siehe Abbildung unten) hat nämlich
1. Die Drehung um b3 durch ˛ bringt b1 nach d. die Richtung des Vektorprodukts b3 b03 , und d schließt mit
2. Die Drehung um d durch ˇ bringt b3 bereits in die Endla- b1 bzw. b01 die Winkel ˛ bzw. ein. Dabei sind diese Winkel
ge b03 und die b1 b2 -Ebene in die Position E. als Drehwinkel zu vorgegebenen Drehachsen jeweils in einem
3. Die Drehung um b03 durch bringt auch die restlichen bestimmten Drehsinn zu messen.
Koordinatenachsen innerhalb von E in ihre Endlagen b01 In den Ausnahmefällen ˇ D 0ı .b03 D b3 / und ˇ D 180ı
0
bzw. b02 . .b3 D b3 / sind nur .˛ C / bzw. .˛ / eindeutig.
b3
Aber Achtung: Die Reihenfolge dieser Drehungen darf nicht
verändert werden; die Zusammensetzung von Bewegungen ist b03
so wie die Multiplikation von Matrizen nicht kommutativ!
Rechnerisch einfacher, allerdings nicht so unmittelbar ˇ
b2
0
b1
0
normal dazu (vergleiche . Abb. 5.24). Bei kdk D 1 ist Mithilfe des Begriffs der Eigenvektoren (siehe
x d D .d x/ d und x E D x x d . 7 Abschn. 8.2) kann man übrigens zeigen, dass jede ei-
Nachdem die zu d orthogonalen Ebenen bei der Dre- gentlich orthogonale dreireihige Matrix eine derartige
hung um d in sich bewegt werden, hat die Drehlage x 0 Drehmatrix ist. Deshalb nennt man die von diesen Matrizen
dieselbe Komponente x d in Richtung der Drehachse d wie gebildete Gruppe SO3 auch die Drehungsgruppe des R3 .
x. Hingegen ist der zu d orthogonale Anteil x E durch den Der Ausblick in der folgenden Box zeigt die Darstellung
Winkel ' zu verdrehen, d. h., der Drehungen mithilfe von Quaternionen.
R> >
d;' D .1 cos '/.d d / C cos ' E3 sin ' S d ;
b03 x
woraus b02
b3
R d;' R >
d;' D 2 sin ' S d
b01
folgt. Auf diese Weise lässt sich aus der Drehmatrix der
Vektor sin ' d herausfiltern. p
Nachdem die Einträge in der Hauptdiagonale der Dreh-
matrix R d;' nur von den symmetrischen Anteilen stam-
men, lautet die Summe der Hauptdiagonalglieder wegen o
kdk D 1:
b2
b1
Sp A D .1 cos '/ C 3 cos ' D 1 C 2 cos ':
. Abb. 5.29 Zwei Koordinatensysteme im R3 mit verschiedenen Null-
Diese Summe heißt übrigens Spur der Matrix. punkten
5.5 Wechsel zwischen kartesischen Koordinatensystemen
159 5
Im 7 Abschn. 2.3 wurden die Quaternionen q D a C i b C denn wegen der Assoziativität der Multiplikation in H ist
j c C k d 2 H, also mit .a; b; c; d / 2 R4 , als Erweiterungen
von komplexen Zahlen eingeführt. Wir können die Quaternion .q1 ı q2 / ı .q1 ı q2 / D .q1 ı q2 / ı q 2 ı q 1
q aber auch als Summe aus dem Skalarteil a und der vek- D q1 ı kq2 k2 ı q 1 D kq2 k2 kq1 k2 :
torwertigen Quaternion v D i b C j c C k d darstellen, also
Damit vermittelt die Abbildung q ! kqk einen Homomor-
als q D a C v. Wir nennen den zweiten Summanden v ein-
phismus .H n f0g; ı/ ! .R>0 ; /. Die Menge H1 der Quater-
fachheitshalber einen Vektor und interpretieren dabei .i; j; k/
nionen mit der Norm 1, der Einheitsquaternionen, bildet den
in gleicher Weise wie die Standardbasis .e 1 ; e 2 ; e 3 / des R3
Kern dieses Homomorphismus und damit eine Untergruppe
als orthonormierte Basis des Anschauungsraums.
von .H n f0g; ı/.
Dies ist dann die Grundlage für eine Darstellung der Dre-
Bei q D a Cv 2 H1 gibt es wegen kqk2 D a2 Ckvk2 D 1
hungen mittels Quaternionen. Es wird sich zeigen, dass die
einen Winkel ˛ mit a D cos ˛. Deshalb können Einheitsqua-
multiplikative Gruppe des Quaternionenschiefkörpers H ho-
ternionen dargestellt werden als
momorph ist zur Drehungsgruppe SO3 .
q D cos ˛ C sin ˛ b
v mit kb
vk D 1:
Für vektorwertige Quaternionen (a D 0) gibt es ein Skalarpro-
dukt, ein Vektorprodukt und auch ein Quaternionenprodukt. Jede Einheitsquaternion q legt eine Vektorabbildung
Um Verwechslungen zu vermeiden, verwenden wir von nun an
ı als Verknüpfungssymbol der Quaternionenmultiplikation. ıq W R3 ! R3 mit x 7! x 0 WD q ı x ı q ( )
Es gibt einen tieferen Grund für die Interpretation von fest. x0 ist tatsächlich wieder ein Vektor, denn
.i; j; k/ als orthonormierter Basis. Den Vektorprodukten e 1
e 2 D e 3 , e 2 e 1 D e 3 usw. von Vektoren der Standardbasis x 0 D q ı x ı q D q ı .x/ ı q D x 0 :
stehen nämlich die Quaternionenprodukte i ı j D k, j ı i D k
usw. gegenüber. Nachdem das Quaternionenprodukt distribu- Mithilfe von ( ) lässt sich nachweisen, dass ıq linear ist und
tiv gebildet wird, gilt für je zwei Vektoren v1 ; v2 2 H wegen Skalarprodukte sowie Vektorprodukte unverändert lässt. Wir
i ı i D j ı j D k ı k D 1: wollen hier allerdings gleich eine explizite Vektordarstellung
von x0 herleiten.
v1 ı v2 D .v 1 v2 / C .v1 v2 /:
x 0 D q ı x ı q D .cos ˛ C sin ˛b
v/ ı x ı .cos ˛ sin ˛b
v/
Das Quaternionenprodukt zweier Vektoren aus H ist somit bei D sin ˛.b
v x/ C .cos ˛ x C sin ˛.b
v x// ı .cos ˛ sin ˛b
v/
v1 v2 ¤ 0 nicht mehr vektorwertig. Aber es gilt umgekehrt: D sin ˛ cos ˛.b
v x/ C sin ˛ cos ˛.b
v x/ C sin2 ˛ det.b
v;b
v; x/
v1 v2 D 12 ..v1 ı v2 / C .v2 ı v1 // ; C sin2 ˛.b
v x/b
v C cos2 ˛ x C sin ˛ cos ˛.b
v x/
( )
v1 v2 D 1
2 ..v1 ı v2 / .v2 ı v1 // : sin ˛ cos ˛.b
v x/ sin2 ˛Œ.b
v x/ b
v :
Durch die Zerlegung der Quaternionen in Skalar- und Vek- Wegen .b v x/ b v D .bv b
v/ x .b
v x/b
v nach der Grassmann-
torteil wird das Produkt zweier Quaternionen qi D ai C vi , Identität und wegen 2 sin2 ˛ D 1cos2 ˛Csin2 ˛ D 1cos 2˛
i D 1; 2, übersichtlicher, denn folgt weiter:
.a1 C v1 / ı .a2 C v2 / x 0 D 2 sin2 ˛.b
v x/b
v C .cos2 ˛ sin2 ˛/ x C 2 sin ˛ cos ˛.b
v x/
D .a1 a2 v1 v2 / C .a1 v2 C a1 v1 C .v1 v2 //: D .1 cos 2˛/.b
v x/b
v C cos 2˛ x C sin 2˛ .b
v x/:
Die zu q D a C v konjugierte Quaternion ist q D a v. Vek- Der Vergleich mit der Vektordarstellung (5.20) zeigt: Die Ab-
torwertige Quaternionen sind durch q D q gekennzeichnet. bildung ıq aus . / mit q D cos ˛ C sin ˛ b v ist eine Drehung
Ein gleichzeitiger Vorzeichenwechsel von v1 und v2 in der mit b
v als Einheitsvektor in Drehachsenrichtung und mit dem
obigen Formel zeigt: Drehwinkel 2˛.
.q1 ı q2 / D q 2 ı q 1 : Die Zusammensetzung der Drehungen ı1 W x 7! x 0 D
q1 ı x ı q 1 und ı2 W x 0 7! x 00 D q2 ı x0 ı q 2 lautet:
Bei q ¤ 0 bestimmt q die zu q inverse Quaternion als
ı2 ı ı1 W x 7! x 00 D .q2 ı q1 / ı x ı .q2 ı q1 /:
1 1
q D 2 q:
a C b2 C c 2 C d 2 Die Abbildung W q 7! ıq ist somit ein Homomorphismus
Im Nenner tritt die Standardnorm des R auf. Wir definieren
4 .H1 ; ı/ ! .SO3 ; ı/ mit dem Kern f1; 1g; neben q stellt auch
diese gleichzeitig als Norm der Quaternion q dieselbe Drehung dar. Ein weiterer Homomorphismus ist
p p Inhalt der Aufgabe 7.22.
kqk D a2 C b 2 C c 2 C d 2 D q ı q; In . / kann man anstelle q 2 H1 allgemeiner ein q 2 H n
wobei jene der Vektoren inkludiert ist. Es gilt: f0g verwenden, doch muss dann die rechten Seite noch durch
kqk2 dividiert werden. Dies führt auf einen surjektiven Homo-
kq1 ı q2 k D kq1 k kq2 k; morphismus .H n f0g; ı/ ! .SO3 ; ı/ mit dem Kern R n f0g.
160 Kapitel 5 Analytische Geometrie – Rechnen statt Zeichnen
punkts x, wenn gemäß (5.2) In der 4 4 -Matrix A sind die .oI B/-Koordinaten des
Punkts p vereint mit der orthogonalen 3 3 -Matrix A,
X 3 X 3 während die erste Zeile immer völlig gleich aussieht. Wir
x DoC xi bi D p C xj0 bj0 nennen diese die erweiterte Transformationsmatrix .
i D1 j D1 Wir erkennen, dass die nullten Koordinaten stets unver-
ändert bleiben, d. h. stets x0 D x00 ist. Vektorkoordinaten
ist. Wir drücken diese Gleichung in .oI B/-Koordinaten
0 1 bleiben also Vektorkoordinaten, und das analoge gilt für
x1 Punktkoordinaten. In den Spalten der erweiterten Trans-
aus. Dann stehen auf der linken Seite die gesuchten @ x 2 A. formationsmatrix .oIB/ T
.pIB 0 / stehen der Reihe nach die
x3 erweiterten .oI B/-Koordinaten des Punkts p und der Vek-
0 1
5 p1 toren bj0 .
Rechts müssen wir die .oI B/-Koordinaten @p2 A von p
p3
0
und jene der Basisvektoren bj einsetzen. Dabei sind letzte- Transformation zwischen kartesischen
re die Spalten in der orthogonalen Matrix A D B T B 0 . Wir Koordinaten
erhalten: Die Umrechnung vom kartesischen Koordinatensystem
0 1 0 1 0 01 .pI B 0 / auf das kartesische Koordinatensystem .oI B/ er-
x1 p1 x1 folgt für die erweiterten Punkt- und Vektorkoordinaten
@x2 A D @p2 A C A @x20 A mit A 1 D A > : nach (5.21). Dabei stehen in den Spalten der erweiter-
x3 p3 x30 ten Transformationsmatrix .oIB/ T .pIB 0 / der Reihe nach die
erweiterten .oI B/-Koordinaten des Ursprungs p sowie
die B-Koordinaten der Vektoren b01 ; b02 ; b03 der orthonor-
Erweiterte Koordinaten und Matrizen mierten Basis B 0 . Die rechte untere 3 3-Teilmatrix in
ermöglichen einheitliche Formeln .oIB/ T .pIB 0 / ist orthogonal.
Vor mehr als 2000 Jahren erkannte man bereits, dass man te. Jede Gerade bekommt einen Fernpunkt dazu, was unserer
nur dann eine Übersicht über die vielen geometrischen Ein- Anschauung ein wenig widerspricht, denn man kommt zu
zelresultate gewinnen kann, wenn man gewisse Aussagen als demselben Fernpunkt, egal, ob man in der einen oder in der
Axiome an die Spitze stellt und alle anderen daraus herleitet. entgegengesetzten Richtung die Gerade entlang läuft. Inter-
Dadurch wurde die Geometrie sehr früh zum Musterbeispiel pretiert man die Menge der Fernpunkte einer Ebene als eine
einer deduktiven Wissenschaft. Gerade und jene des Raums als Ebene, so entsteht der projek-
Ein Axiomensystem bringt nicht nur Ordnung, sondern es tive Raum.
ist auch anregend. Will man sich zum Beispiel Klarheit über Die Geometrie in diesem Raum, die reelle projektive
die Reichweite der einzelnen Axiomen verschaffen, so wird Geometrie, erfordert nur wenig Axiome und stellt eine überge-
man gewisse Axiome abändern oder überhaupt weglassen. ordnete Geometrie dar, aus welcher durch zusätzliche Forde-
So entstanden verschiedene Geometrien, die ihrerseits wieder rungen sowohl die euklidische, als auch die nichteuklidische
eine gewisse Gliederung erforderten. Eine tragfähige Basis Geometrie entstehen.
hierfür stellte das von Felix Klein (1849–1925) entwickel- Die analytische Geometrie in dem durch Fernpunkte
te Erlanger Programm dar. Es empfiehlt, von den Gruppen erweiterten Anschauungsraum verwendet die vorhin einge-
der jeweiligen Automorphismen auszugehen und die Geo- führten erweiterten Koordinaten x bzw. u der Punkte und
metrien als Studium der zur jeweiligen Gruppe gehörigen Vektoren. Man muss allerdings in Kauf nehmen, dass die
Invarianten zu kennzeichnen. Um eine geometrische Aussage vier Koordinaten der Punkte des projektiven Raums homo-
richtig einzuordnen, muss überprüft werden, hinsichtlich wel- gen, also nur bis auf einen Faktor eindeutig sind. Punkte des
cher größtmöglichen Gruppe von Automorphismen die dabei reellen projektiven Raums sind somit eindimensionale Unter-
verwendeten Begriffe invariant sind. räume des R4 , Geraden sind zweidimensionale und Ebenen
dreidimensionale Unterräume. Die bijektiven linearen Selbst-
So anschaulich die Geometrie auch scheinen mag, man abbildungen des R4 induzieren Kollineationen, und diese
braucht deutlich mehr Axiome als etwa zur Definition ei- spielen die Rolle von Automorphismen.
nes Vektorraums, selbst wenn man sich nur auf die ebene Zeichnet man umgekehrt im projektiven Raum eine Ebe-
Geometrie beschränkt. Die ersten Versuche für ein Axiomen- ne als Menge von „Fernpunkten“ aus und entfernt man diese,
system der Geometrie gehen auf Euklid ( 365–300 v. Chr.) so bleibt ein affiner Raum, in welchem wieder Parallelitäten
zurück. Das bekannteste Axiomensystem stammt von David erklärbar sind. Kollineationen, welche die gewählte „Fern-
Hilbert (1862–1943). Es umfasst Inzidenzaxiome über die ge- ebene“ auf sich abbilden, induzieren dann im verbleibenden
genseitige Lage von Punkten und Geraden, Kongruenzaxiome, Raum affine Abbildungen. Die Gruppe der bijektiven affinen
Distanzen und Winkelmaße betreffend, Anordnungsaxiome zu Abbildungen bestimmt die affine Geometrie.
den Begriffen „Halbebene“ und „zwischen“, sowie ein Ste- Dieser affinen Raum bestimmt einen Vektorraum. Die
tigkeitsaxiom, vergleichbar mit der Vollständigkeit der reellen Einführung eines Skalarprodukts auf diesem Vektorraum er-
Zahlen (siehe Grundwissenbuch, Abschnitt 4.3). möglicht die Definition von Distanzen und Winkelmaßen. Die
Unter den Axiomen kam Euklids Parallelenpostulat eine zugehörigen Automorphismen sind die Kongruenzen; deren
besondere Rolle zu, nämlich der Forderung, dass durch je- Gruppe ist isomorph zur Gruppe der orthogonalen Matrizen.
den Punkt P außerhalb der Geraden G genau eine Parallele Die zugehörige Geometrie ist die euklidische.
legbar ist, also eine Gerade, die G nicht schneidet. Dieses Der pythagoräische Lehrsatz gehört demnach zur euklidi-
ist experimentell niemals nachprüfbar, denn was weiß man schen Geometrie. Der Strahlensatz, wonach parallele Geraden
schon von Geraden, wenn man sie weit genug über unser Son- auf zwei schneidenden Geraden Strecken proportionaler Län-
nensystem hinaus verlängert. Man versuchte 2000 Jahre lang gen ausschneiden, ist eine affine Aussage. Der im Bild unten
vergeblich, dieses Axiom durch äquivalente und eher „über- gezeigte Satz von Pappus-Pascal zählt zur projektiven Geo-
prüfbare“ Aussagen zu ersetzen, bis der Ungar János Bolyai metrie. Seine Aussage lautet: Für je drei Punkte P1 ; P2 ; P3
(1802–1860) bestätigte, dass es auch eine widerspruchsfreie auf der Geraden G und Q1 ; Q2 ; Q3 auf der Geraden H liegen
nichteuklidische Geometrie gibt, deren Axiomensystem sich die Schnittpunkte S1 ; S2 ; S3 auf einer Geraden K.
von jenem der euklidischen Geometrie nur dadurch unter-
scheidet, dass das euklidische Parallelenpostulat ersetzt wird P3
G
durch die Forderung: Durch P gibt es mindestens zwei ver- P2
schiedene Parallelen zu G. P1
Das Studium der Zentralprojektion zeigte, dass in per- S2
spektiven Bildern Fluchtpunkte auftreten, also Bilder von S3 S1
K
Punkten, die es in Wirklichkeit gar nicht gibt, nämlich von
Schnittpunkten paralleler Geraden. Dies führte zur Erweite- Q1 H
Q2
rung unseres Anschauungsraums durch unendlich ferne Punk- Q3
162 Kapitel 5 Analytische Geometrie – Rechnen statt Zeichnen
b03 b03e
b3 x0 b2l
b02 b3l
N
b01 b1l
p
p
x ˇ
ze
o
b2
5 b1 b02e
b3s
b3e
23. 9.
b2s
zs
b3e
b2e
b1s
b1e
21. 3.
. Abb. 5.32 Das von der Erdrotation „befreite“ geozentrische Koordinatensystem .ze I Be / und das heliozentrische System .zs I Bs /. Die Erde ist rund
2 500-fach vergrößert dargestellt
gehen zunächst vom Nullmeridian aus, also von der Annah- tags (wahre Sonnenzeit). Zu dieser Zeit geht die Ebe-
me D 0. Wenn wir darauf die Drehung um die Erdachse ne des Nullmeridians durch die Sonnenmitte. Nach einer
b03e durch die gegebene geografische Länge anwenden, 360ı -Drehung der Erde um ihre Achse ist diese Ebene des
erhalten wir die Spaltenvektoren der Transformationsma- Nullmeridians zwar wieder zu ihrer Ausgangslage parallel.
trix e0 T l . Sie wird aber nicht mehr durch die Sonnenmitte gehen, weil
Mit obiger Abbildung finden wir, wenn wir den Sinus der Erdmittelpunkt inzwischen gewandert ist. Wir müssen
und Kosinus zu s bzw. c abkürzen: bis 12 Uhr mittags noch etwas weiterdrehen, allerdings um
0 10 1 die gegenüber der b1s b2s -Ebene geneigte Erdachse. Daher
1 0 0 0 1 0 0 0 ist dieser zusätzliche Drehwinkel trotz unserer vereinfa-
B0 c s 0C Br c ˇ 0 s ˇ c ˇ C
e0 T l D @
B CB C chenden Annahmen nicht konstant.
0 s c 0A @ 0 1 0 0A Im täglichen Leben verwenden wir die mittlere Zeit, die
0 0 0 1 r sˇ 0 cˇ sˇ auf der Annahme basiert, dass alle Tage gleich lang sind
0 1 und das Jahr etwa 365:24 Tage umfasst. Das ermöglicht
1 0 0 0
Br c ˇ c s s ˇ c c ˇ c C uns, den zusätzlichen Drehwinkel durch seinen Mittel-
DB@r c ˇ s c s ˇ s c ˇ s A
C wert 360ı =365:24 zu ersetzen. Die Differenz zwischen der
wahren und mittleren Sonnenzeit heißt Zeitgleichung und
r sˇ 0 cˇ sˇ
beträgt bis zu ˙15 Minuten.
Wir können ' D !e t C '0 setzen mit der Winkelge-
Die Bewegung von .ze I Be / nach .ze I Be0 / ist eine Dre-
schwindigkeit
hung um die gemeinsame dritte Koordinatenachse durch
den Winkel '. Somit ist 1 ı
!e D 2 1C .24 3 600/
0 1 365:24
1 0 0 0
B0 cos ' sin ' 0C pro Sekunde. '0 ist der Anfangswert zum Zeitpunkt t D 0.
B
e T e0 .'/ D @
C
0 sin ' cos ' 0A Übrigens ist r 6 371 km.
0 0 0 1 Während der Bewegung der Erde um die Sonne behält
die Erdachse ihre Richtung bei. Nun ist die Äquatorebe-
Die Vektoren aus Be behalten gegenüber dem heliozen- ne um den Winkel 23:45ı, der Schiefe der Ekliptik,
trischen System ihre Richtungen bei, machen also die gegenüber der Bahnebene geneigt. Nachdem wir die erste
Erdrotation nicht mit. Durch diese dreht sich die Erde ge- Koordinatenachse unseres heliozentrischen Systems durch
genüber dem heliozentrischen System in 24 Stunden durch den Frühlingspunkt gelegt haben und diese daher der Äqua-
mehr als 360ı , denn während dieser 24 Stunden wandert torebene der zugehörigen Erdposition angehört, 0 1 b3e
hat
der Erdmittelpunkt ja auf seiner Bahn weiter. 0
Betrachten wir dies etwas genauer: Angenommen, wir die von unabhängigen Bs -Koordinaten @ sin A. Wir
beginnen unsere Winkelmessung genau um 12 Uhr mit- cos
164 Kapitel 5 Analytische Geometrie – Rechnen statt Zeichnen
wählen die erste Koordinatenachse b1e des geozentrischen 5.3 Man füge in der folgenden Matrix M die durch
Systems Be gleich dem b1s . Damit folgt: Sterne markierten fehlenden Einträge derart ein, dass eine
0 1 eigentlich orthogonale Matrix entsteht.
1 0 0 0
BR cos 1 0 0 C 0 1
T . / D B C 2 2
s e @ R sin 0 cos sin A 1
MD @ 1 A
0 0 sin cos 3
einfache Aufgaben mit wenigen Rechenschritten 5.6 Im R3 sind zwei Vektoren gegeben, nämlich
mittelschwere Aufgaben, die etwas Denkarbeit und
unter Umständen die Kombination verschiedener 01 01
2 2
Konzepte erfordern
u D @2A und v D @ 5 A :
anspruchsvolle Aufgaben, die fortgeschrittene Kon- 1 14
zepte (unter Umständen auch aus späteren Kapiteln)
oder eigene mathematische Modellbildung benötigen
Berechnen Sie kuk, kvk, den von u und v eingeschlossenen
Winkel ' sowie das Vektorprodukt u v samt Norm ku vk.
5.10 Im Anschauungsraum R3 sind die Gerade 5.16 Die eigentlich orthogonale Matrix
0 1 0 1 0 1
1 2 1 0 1
@ A @ A
1 und der Punkt p D 1A@ 2 1 1
G D 0 CR 1 B p p C
2 2 1 A D p @p0 p3 p 3A
6 2 2 2
gegeben. Bestimmen Sie die Hesse’sche Normalform der-
jenigen Ebene E durch p, welche zu G normal ist.
ist die Darstellungsmatrix einer Drehung. Bestimmen Sie
einen Richtungsvektor d der Drehachse und den auf die
5.11 Im Anschauungsraum R3 sind die zwei Geraden
Orientierung von d abgestimmten Drehwinkel '.
0 1 0 1 0 1 0 1
3 2 2 1
G1 D @0A C R @2A ; G2 D @3A C R @ 1A 5.17 Die eigentlich orthogonale Matrix
4 1 3 2
gegeben. Bestimmen Sie die kürzeste Strecke zwischen den 0 1
2 1 2
beiden Geraden, also deren Endpunkte a1 2 G1 und a2 2 1@
1 2 2A
AD
G2 sowie deren Länge d . 3 2 2 1
5.12 Im Anschauungsraum R3 ist die Gerade G D
0 1 0 1 ist die Umrechnungsmatrix B T B 0 zwischen kartesischen
1 2
@1A C R @2A gegeben. Welcher Gleichung müssen die Koordinatensystemen .oI B 0 / und .oI B/. Bestimmen Sie
2 1 die zugehörigen Euler’schen Drehwinkel ˛, ˇ und .
Koordinaten x1 , x2 und x3 des Raumpunkts x genügen, da-
mit x von G den Abstand r D 3 hat und somit auf dem 5.18 Die drei Raumpunkte
Drehzylinder mit der Achse G und dem Radius r liegt? 0 1 0 1 0 1
0 2 1
5.13 Im Anschauungsraum R3 sind die zwei Geraden a 1 D @0 A ; a2 D @ 1A ; a3 D @1A
0 1 0 1 0 1 0 1 1 2 3
3 2 2 1
G1 D @0A C R @2A ; G2 D @3A C R @ 2A
bilden ein gleichseitiges Dreieck. Gesucht ist die erweiterte
4 1 3 2
Darstellungsmatrix derjenigen Bewegung, welche die drei
gegeben. Welcher Gleichung müssen die Koordinaten x1 , Eckpunkte zyklisch vertauscht, also mit a1 7! a2 , a2 7! a3
x2 und x3 des Raumpunkts x genügen, damit x von den und a3 7! a1 :
beiden Geraden denselben Abstand hat? Bei der Menge
dieser Punkte handelt es sich übrigens um das Abstandspa-
raboloid von G1 und G2 , ein orthogonales hyperbolisches Beweisaufgaben
Paraboloid (siehe 7 Abschn. 10.3).
5.21 Das (orientierte) Volumen V des von drei Vekto- 5.24 Angenommen, die Punkte p 1 ; p 2 ; p 3 ; p 4 bil-
ren v1 , v2 und v3 aufgespannten Parallelepipeds ist gleich den ein reguläres Tetraeder der Kantenlänge 1. Man zeige:
dem Spatprodukt det.v1 ; v2 ; v3 /. Zeigen Sie unter Ver- a) Der Schwerpunkt s D 14 .p 1 C p 2 C p3 C p 4 / hat von
wendung des Determinantenmultiplikationssatzes und des allen Eckpunkten dieselbe Entfernung.
Satzes über die Determinante der transponierten Matrix aus b) Die Mittelpunkte der Kanten p 1 p2 , p 1 p 3 , p 4 p 3 und
7 Abschn. 7.1, dass das Quadrat V 2 des Volumens gleich p 4 p 2 bilden ein Quadrat. Wie lautet dessen Kantenlän-
ist der Determinante der von den paarweisen Skalarproduk- ge?
ten gebildeten (symmetrischen) Gram’schen Matrix c) Der Schwerpunkt s halbiert die Strecke zwischen den
0 1 Mittelpunkten gegenüberliegender Kanten. Diese drei
v 1 v1 v1 v 2 v 1 v3 Strecken sind paarweise orthogonal.
G .v1 ; v2 ; v3 / D @v2 v1 v2 v2 v2 v3 A :
5 v 3 v1 v3 v 2 v 3 v3
Antworten zu den Selbstfragen
5.22 Die Quaternionen (siehe 7 Abschn. 2.3) bilden
einen vierdimensionalen Vektorraum über R. Sie sind aber
auch als Elemente des Vektorraums C 2 über R aufzufassen vAntwort 5.1
dank der bijektiven linearen Abbildung 'W H ! C 2 mit Nunmehr gilt b a D f c, also
0 1
6
x a C ib B C
'W q D a C i b C j c C k d 7! D : f D b a C c D @9A :
y c C id
4
Im Urbild ist i eine Quaternioneneinheit; das i im Bild ist
Die Gleichung f c D c d bestätigt c als Mittelpunkt
die imaginäre
Einheit. Ignoriert man diesen Unterschied, so der Strecke d f .
x
ist ' 1 y D x C y ı j.
vAntwort 5.2
Beweisen Sie, dass ' einen Isomorphismus von .H n Wir beschränken uns im Beweis zunächst darauf, dass in
f0g; ı/ auf .C 2 n f0g; / induziert, sofern ı die Quaternio- einer Affinkombination einer der vorkommenden Vekto-
nenmultiplikation bezeichnet und die Verknüpfung auf ren selbst wieder eine Affinkombination ist: Angenom-
C 2 definiert wird durch Pn Pn
men, c D a mit iD1 i D 1 und a1 D
Pm Pmi i
iD1
x1 x2 x1 x2 y1 y2
j D1 j jb bei
j D1 j D 1. Dann ist c eine Linear-
D :
y1 y2 x1 y2 C y1 x2 kombination von b1 ; : : : ; bm ; a2 ; : : : ; an , und die Summe
Pm
der Koeffizienten lautet 1 j D1 j C 2 C C n D
Pn
bedeutet hier die Konjugation in C. Wie
Der Querstrich iD1 i D 1. Im Fall von Konvexkombinationen gilt
x zudem i ; j 0, und das trifft auch auf die neuen Koef-
sieht das zu y hinsichtlich inverse Element aus?
fizienten 1 j zu.
Beweisen Sie weiter, dass die Abbildung Sollte nun eine Affin- bzw. Konvexkombination vor-
liegen, bei welcher zwei oder mehrere vorkommende
x x y
W C2 ! C2 2; ! Vektoren selbst wieder Affin- bzw. Konvexkombinationen
y y x
sind, so braucht zum Beweis der obigen Behauptung nur
das bisherige Ergebnis wiederholt angewendet zu werden.
einen injektiven Homomorphismus von .C 2 n f0g; / in die
multiplikative Gruppe der invertierbaren Matrizen aus C 2 2 vAntwort 5.3
induziert. Inwiefern bestimmt die Norm der Quaternion q Die erste ist richtig, denn die Affinkombinationen sind
die Determinante der Matrix . ı '/.q/? spezielle Linearkombinationen. Die zweite Aussage ist
Damit ist dann bestätigt, dass die von den Einheits- falsch, denn nicht jede Linearkombination ist eine Affin-
quaternionen gebildete Gruppe .H1 ; ı/ isomorph ist zur kombination, also eine mit der Koeffizientensumme 1.
multiplikativen Gruppe SU2 der Matrizen obiger Bauart
mit der Determinante 1, der zweireihigen unitären Matri- vAntwort 5.4
zen (siehe 7 Abschn. 9.4). s D 13 a C 13 b C 13 c ist eine Konvexkombination der drei
Eckpunkte, denn 13 C 13 C 13 D 1 und 0 13 1. Nachdem
5.23 Man zeige: keiner der Koeffizienten verschwindet, liegt s im Inneren.
a) In einem Parallelepiped schneiden die vier Raumdiago- Wir finden noch eine weitere Affinkombination, näm-
nalen einander in einem Punkt. lich
b) Die Quadratsumme dieser vier Diagonalenlängen ist
2 1 1
gleich der Summe der Quadrate der Längen aller 12 sD .a C b/ C c;
3 2 3
Kanten des Parallelepipeds (siehe dazu die Parallelo-
grammgleichung (5.6)). und diese beweist die zweite Behauptung.
Antworten zu den Selbstfragen
167 5
v Antwort 5.5 unabhängig sind, also bei .c a/ .ba/ ¤ 0. Wegen der
Nein, natürlich nicht! Die Eigenschaft, ein Rechtssystem Linearität des Vektorprodukts können wir die linke Seite
zu sein, ist unabhängig von der Position im Raum. Ein dieser Ungleichung noch umformen zu .c b/ .a b/
rechter Schuh wird kein linker, wenn wir ihn umdrehen, .c a/C.a a/, wobei der letzte Summand verschwindet.
also mit der Sohle nach oben hinlegen.
vAntwort 5.12
v Antwort 5.6 Ein verschwindendes Spatprodukt kennzeichnet lineare
Nach der Definition der Norm ist kak2 D a a D a2 . Aus Abhängigkeit. Der Absolutbetrag bleibt bei Vertauschun-
der Bilinearität und Symmetrie des Skalarprodukts folgt: gen der Reihenfolge unverändert.
nun der Normalenfußpunkt x E von x noch einmal nor- die Matrizen der Drehungen um die x1 - bzw. x2 -Achse:
mal nach E projiziert, so ändert er sich nicht mehr. Es 0 1 0 1
bewirkt die zweimalige Ausführung der Orthogonalpro- 1 0 0 c' 0 s'
B s 'C B 0 C
jektion nichts anderes als die einmalige, und genau dies A1 D @0 c' A; A2 D @ 0 1 A
wird mit der Idempotenz der Matrix ausgedrückt . 0 s' c' s' 0 c'
2) Die Spaltenvektoren in der Darstellungsmatrix sind
die Bilder der Standardbasis des R3 . Da diese drei Bild- Hier wurden die Symbole für die Sinus- und Kosinusfunk-
vektoren in E liegen, sind sie linear abhängig. Somit tion durch s bzw. c abgekürzt.
verschwindet die Determinante.
vAntwort 5.22
5 v Antwort 5.19 Die Drehmatrix ist orthogonal. Daher gilt R > 1
d ;' D R d ;' .
Wegen N D N folgt durch Ausrechnen .E3 2N / D
2 2
Die zur Drehung durch den Winkel ' inverse Bewegung
E3 . Diese Gleichung ist andererseits daraus zu folgern, ist die Drehung um dieselbe Achse d durch ', also in
dass die zweimalige Spiegelung an E alle Raumpunkte dem entgegengesetztem Drehsinn. Dieselbe Bewegungs-
unverändert lässt. umkehr ist auch durch den Ersatz von d durch d zu
erreichen.
v Antwort 5.20 Natürlich ist dies auch anhand der Darstellung der Dreh-
1) Nein, sie ist zwar orthogonal, aber die Spaltenvektoren matrix R d ;' aus dem obigen Lemma zu bestätigen: Wegen
.s1 ; s2 ; s3 / bilden ein Linkssystem; es ist det.s1 ; s2 ; s3 / D der Schiefsymmetrie von S d ist S d D S d D S > d.
1 und s1 s2 D s3 . Erst nach Vertauschung zweier Ebenso bewirkt ein Vorzeichenwechsel von '; dass der
Spalten oder auch Zeilen entstünde eine eigentlich ortho- schiefsymmetrische Summand in der Drehmatrix transpo-
gonale Matrix. niert wird, wodurch R d ;' in R >
d ;' übergeht, also invertiert
2) Die Matrix M ist symmetrisch, und wegen N 2 D wird.
N ist M M > D M M D E3 , wie bereits früher festge-
stellt worden ist. Die Spiegelung führt Rechtssysteme in vAntwort 5.23
Linkssysteme über. Daher ist die Matrix uneigentlich or- Die verschwindende nullte Koordinate bei Vektoren bleibt
thogonal. auch nach beliebigen Linearkombinationen gleich null.
Der Einser als nullte Koordinate für die Punkte geht
v Antwort 5.21 bei Linearkombinationen in die Summe der Koeffizienten
In den Spalten der Transformationsmatrizen stehen die über; er bleibt somit genau bei den Affinkombinationen
Koordinaten der verdrehten Basisvektoren. Daher lauten gleich 1:
169 6
Lineare Abbildungen
und Matrizen – Brücken
zwischen Vektorräumen
Inhaltsverzeichnis
Aufgaben – 218
Man unterscheidet Morphismen je nach Injektivität, Surjektivität und auch danach, ob Definitionsmenge und Bild-
menge übereinstimmen.
0 1
1
kann nicht linear sein, da '.0R2 / D @0A ¤ 0R3 gilt, also Oftmals sind Nachweise der Linearität einer Abbildung
0R2 nicht auf 0R3 abgebildet wird. 0 langwierig und unübersichtlich. Wenn der Nachweis ein-
In Zukunft schreiben wir wieder einfacher 0 für den fach zu führen ist, empfiehlt sich die dritte Version, wenn
Nullvektor. Man sollte dann immer kurz nachdenken, ob er jedoch unübersichtlich wird, dann sollte man auf unse-
0 nun ein Nullspaltenvektor, das Nullpolynom, die Nullab- re Definition zurückgreifen, sie entspricht einer Zerlegung
bildung, die Nullmatrix oder eine andere Null darstellt. des Nachweises in zwei getrennte Schritte, man zeigt die
Den Begriff der linearen Abbildung kann man auf ver- Additivität und die Homogenität nacheinander.
schiedene Arten definieren. Wir untersuchen einige einfache Abbildungen auf Li-
nearität.
'. v C w/ D '.v/ C '.w/ : linear, da für alle 2 K und alle v; w 2 V die Glei-
chung
(iii) Für alle v; w 2 V und 2 K gilt:
'. v C w/ D 0 D 0 C 0 D '.v/ C '.w/
'. v C w/ D '.v/ C '.w/ :
gilt. Die lineare Abbildung ' ist nur dann surjektiv,
wenn W D f0g gilt. Außerdem ist sie nur dann injektiv,
wenn V D f0g ist.
Beweis Gegeben sind ; 2 K und v; w 2 V .
4 Analog begründet man, dass in jedem K-Vektorraum V
(i) ) (ii): Man wende zuerst die Additivität und dann
die Identität, also die Abbildung
(zwei Mal) die Homogenität von ' an:
'. v C w/ D '. v/ C '. w/ D '.v/ C '.w/ : V ! V;
id W
v 7! v
(ii) ) (iii): Man wähle D 1 in (ii).
(iii) ) (i): Mit D 1 folgt die Additivität von ' und linear ist. Diese lineare Abbildung id ist für jeden Vek-
mit w D 0 folgt die Homogenität von '. torraum V ein Automorphismus.
6.1 Definition und Beispiele
173 6
4 Für den reellen Vektorraum R2 ist die Abbildung ?Selbstfrage 6.2
8 Ist ' eine lineare Abbildung, so gilt:
< R ! R
2 2
;
2
'W v1 v1 '.v w/ D '.v/ '.w/ :
: 7!
v2 v2
Ist das richtig?
1
nicht linear, wir erhalten für D 1 und v D
0
Eine lineare Abbildung ist durch
1 1
'. v/ D und '.v/ D ; die Bilder der Basisvektoren
0 0
bereits eindeutig bestimmt
also '. v/ ¤ '.v/.
4 Aus der Schule ist das Differenzieren von Polynomen Wir betrachten eine lineare Abbildung ' zwischen zwei K-
bekannt: Vektorräumen V und W . Ist B eine endliche oder unendli-
0 1 che Basis von V , so lässt sich jedes v 2 V auf genau eine
d X X
n n
@ Weise als Linearkombination von verschiedenen Basisvek-
an X n A D n an X n1 :
dX j D0 toren darstellen:
j D1
offenbar dXd
.P/ D p erfüllt ist. Die Abbildung dX
d
ist
Das Prinzip der linearen Fortsetzung
somit ein Epimorphismus.
Ist eine Abbildung von der Basis B von V nach W
4 Die Menge V aller konvergenter reeller Folgen bildet
einen Untervektorraum von RN0 , da Summe und ska- (
B ! W;
lare Vielfache konvergenter Folgen wieder konvergente W
b 7! .b/;
Folgen sind. Die Abbildung ' W V ! R, die einer kon-
vergenten Folge .xn /n 2 V ihren Grenzwert x 2 R
so gibt es genau eine lineare Abbildung ' W V ! W mit
zuordnet, ist linear. 9
'jB D . Man nennt ' die lineare Fortsetzung von
auf V .
In einem ausführlichen Beispiel besprechen wir die lineare
Abbildung 'A W v 7! A v an, die für alles Weitere sehr
wichtig ist. Tatsächlich sind nämlich lineare Abbildungen
zwischen endlichdimensionalen Vektorräumen letztlich alle i Für ist nur vorausgesetzt, dass es eine Abbildung von
von der in diesem Beispiel angegebenen Form. der Menge B in die Menge W ist.
174 Kapitel 6 Lineare Abbildungen und Matrizen – Brücken zwischen Vektorräumen
Jede m n Matrix A mit Einträgen aus K, d. h. A 2 Km n , Beispielsweise bestimmen die blau eingezeichneten Ziffern
erklärt eine lineare Abbildung vom Kn in den Km , der zweiten Zeile in der Matrix den Eintrag in der zweiten
( Zeile des Produkts:
Kn ! Km ;
'A W
v 7! A v: 6 4 C 4 1 C 0 3 D 28 :
Dabei ist noch zu klären, was eigentlich A v sein soll. Nun sei allgemeinen wieder A D .aij / 2 Km n . Durch das
eben (erklärte Produkt ist durch A eine Abbildung
Problemanalyse und Strategie Kn ! Km ;
'A W
v 7! A v
Wir erklären eine Multiplikation zwischen einer Matrix mit n
Spalten und einem Spaltenvektor aus dem Kn . erklärt. Diese Abbildung ist linear, da für alle 2 K und alle
6 v D .vj /; w D .wj / 2 V gilt:
0 1
Lösung v1 C w1
Wir betrachten zuerst den Fall m D 1, d. h., wir erklären vorab B :: C
'A . v C w/ D A . v C w/ D A B @ :
C
A
das Produkt einer 1 n-Matrix
vn C wn
A D z D .aj / D .a1 ; : : : ; an / 0 1 0 n 1
v1 P
B:C Bj D1 a1j . vj C w j / C
mit einem Spaltenvektor v D .vj / D @ :: C B
A. Für das Produkt
B
B
C
C
B : C
setzen wir vn DB :
: C
0 1 B n C
@P A
v1 amj .vj C wj /
B:C X n
j D1
z v D .a1 ; : : : ; an / B
@ A
:: C D aj vj : 0 1 0 n 1
P
n P
j D1 a v a w
vn B j D1 1j j C Bj D1 1j j C
B C B C
B :: C B :: C
Die Definition dieser Multiplikation fordert, dass die Anzahl D B
B :
CCB
C B :
C
C
B n C B n C
der Spalten von z gleich der Anzahl der Zeilen von v ist, z. B. @P A @P A
amj vj amj wj
0 1 j D1 j D1
1
B C D .A v/ C A w D 'A .v/ C 'A .w/ :
.2; 3; 1/ @ 1 A D 2 .1/ C 3 1 C 1 2 D 3 :
2
Damit ist bereits die Linearität von 'A begründet.
Nun erklären wir Produkt für Matrizen
0 1 Kommentar
z1 4 Ob die lineare Abbildung 'A injektiv oder surjektiv ist,
B : C
A D .aij / D B : C
@ : A2K
m n kann man anhand der Matrix A entscheiden. Das werden
wir später untersuchen.
zm
4 Den Punkt für diese Multiplikation einer Matrix mit einer
mit m solchen Zeilen für jede dieser Zeilen: Spalte werden wir in Zukunft weglassen, wir schreiben al-
0 n 1 so kürzer A v anstelle von A v.
P
0 1 0 1 a v 4 Die Multiplikation einer Matrix mit einer Spalte ermög-
z1 z1 v Bj D1 1j j C
B C licht es, lineare Gleichungssysteme in kurzer Form darzu-
B : C B : C B : C
B C B
Av D @ : Av D @ : AD B
: : C B : C stellen. Das System
: C
B n C
zm zm v @ P A
amj vj a11 x1 C a12 x2 C C a1n xn D b1
j D1 :: :: :: ::
: : : :
Man beachte: Die Spaltenzahl von A ist gleich der Zeilenzahl
am1 x1 C am2 x2 C C amn xn D bm
von v, und die Zeilenzahl von A v ist die Zeilenzahl von A.
Man nennt den Spaltenvektor b D A v 2 Km das mit aij ; bi 2 K für 1 i m und 1 j n lässt sich
Produkt von A mit v, z. B. gilt mit der folgenden Matrix mit den Abkürzungen
A 2 R4 3 und v 2 R3 : 0 1 0 1 0 1
0 1 0 1 a11 a1n b1 x1
2 6 1 0 1 17 B : : C B : C B:C
B6 4 0C 4 B C ADB @ :
: :: C ; b D B :: C ; x D B :: C
A @ A @ A
B C B1C B28C
B C@ AD B C am1 amn bm xn
@0 3 3A @12A
3
4 1 2 23
kurz schreiben als A x D b.
6.1 Definition und Beispiele
175 6
Beweis Wir definieren eine Abbildung ' W V ! W wie
folgt: Schreibe jedes v 2 V als Linearkombination bezüg-
e2
lich der Basis B: '.e 2 /
'.e 1 /
v D 1 b1 C C r br 2 V 30ı
30ı
und setze
e1
6.2 Verknüpfungen von linearen Beispiel Wir betrachten die linearen Abbildungen
Abbildungen 8
ˆ R2 ! R3 ;
ˆ
< 0 1
x1 x2
'W x
A und
7! @
Man kann lineare Abbildung unter gewissen Voraussetzun- 1
ˆ 0
:̂ x2
gen auf verschiedene Arten miteinander oder mit Skalaren 2x1 x2
verknüpfen und erhält erneut eine lineare Abbildung. Wir 8
ˆ R3 ! R4 ;
behandeln die drei Methoden: ˆ
ˆ0 1 0 1
ˆ
< x x1 C 2x3
4 ı ', wobei ', lineare Abbildungen sind.
4 ', wobei ein Skalar und ' eine lineare Abbildung W @ A
1 B x2 x3 C :
ˆ x2 7! B
ˆ @ x1 C x2 A
C
ist. ˆ
:̂ x3
4 ' C , wobei ', lineare Abbildungen sind. 2x1 C 3x3
Damit gilt
Das Produkt linearer Abbildungen 8
Sind ' W V ! V 0 und W V 0 ! V 00 linear, so ist auch die ˆ R2 ! R4 ;
ˆ
ˆ 0 1
Hintereinanderausführung ı ' W V ! V 00 linear. ˆ
< 5x1 3x2
ı' W x1 B x2 2x1 C :
ˆ
ˆ 7! B
@ x1 x2 A
C
ˆ x2
:̂
Beweis Sind v; w 2 V und 2 K, so gilt: 8x1 5x2
Das begründet, dass ı ' linear ist. Das Inverse '1 eines Isomorphismus ' ist
ein Isomorphismus
Man beachte, dass ' ı nicht erklärt sein muss, auch wenn
ı ' existiert.
Eine bijektive Abbildung ' ist umkehrbar, d. h., es existiert
eine Abbildung mit
ϕ ψ
V 'ı D id und ı ' D id :
V
Für das Inverse von ' schreibt man ' 1 – und auch ' 1
ϕ(V ) ist bijektiv. Ist die Abbildung ' nicht nur bijektiv, sondern
V
ϕ(V ) auch linear, so ist die existierende Umkehrabbildung ' 1
automatisch auch linear, das besagt der folgende Satz:
ψ ϕ(V )
ϕ◦ψ Das Inverse eines Isomorphismus
Ist ' ein Isomorphismus, so ist auch ' 1 W V 0 ! V ein
Isomorphismus.
. Abb. 6.2 Das Produkt ı ' existiert nur dann, wenn die Bildmenge
'.V / in der Definitionsmenge V 0 von liegt
6.2 Verknüpfungen von linearen Abbildungen
177 6
Beweis Es sei ' bijektiv. Dann existiert die Umkehrabbil-
dung ' 1 W V 0 ! V . Es ist zu zeigen, dass ' 1 linear ist. Der K-Vektorraum der linearen Abbildungen
Dazu wählen wir beliebige v0 ; w0 2 V 0 und ein 2 K. Zu Es ist HomK .V; W / ein K-Vektorraum.
v0 ; w0 existieren v; w 2 V mit '.v/ D v0 und '.w/ D w0 ,
d. h., v D ' 1 .v0 / und w D ' 1 .w0 /. Dann gilt:
Beweis Die Menge HomK .V; W / ist nichtleer, weil die
' 1 . v0 C w0 / D ' 1 . '.v/ C '.w// Nullabbildung 0 W V ! W , v 7! 0 eine lineare Abbildung
D ' 1 .'. v C w// ist.
D v C w Wir müssen weiter zeigen, dass für beliebige '; 2
HomK .V; W / und 2 K sowohl ' C als auch ' wieder
D ' 1 .v0 / C ' 1 .w0 / Elemente von HomK .V; W / sind. Wir zeigen zuerst ' C
2 HomK .V; W /:
Damit ist gezeigt, dass ' 1 linear ist.
Sind v; w 2 V und 2 K, so gilt:
? Selbstfrage 6.5 .' C /. v C w/ D '. v C w/ C . v C w/
Was ist das Inverse von ı ', falls ' W V ! V 0 und
D '.v/ C '.w/ C .v/ C .w/
W V 0 ! V 00 Isomorphismen sind?
D .' C /.v/ C .' C /.w/ :
Folgerung Für jeden K-Vektorraum V bildet die Menge
Nun zeigen wir noch, dass ' 2 HomK .V; W /. Sind
v; w 2 V und 2 K, so gilt:
GLK .V / D f' W V ! V j ' ist ein Isomorphismusg
. '/. v C w/ D '. v C w/
bezüglich der Komposition ı eine Gruppe – die allgemeine
D . '.v/ C '.w//
lineare Gruppe von V .
D '.v/ C '.w/
D . '/.v/ C . '/.w/ :
Summe ' C und skalares Vielfaches '
von linearen Abbildungen sind lineare Es ist nun nicht mehr schwer, die verbleibenden Vektor-
raumaxiome nachzuweisen.
Abbildungen
Es ist .HomK .V; W /; C/ eine abelsche Gruppe: Die
Addition C ist assoziativ, das Nullelement ist die Nullab-
Wir bezeichnen mit HomK .V; W / die Menge aller linearen bildung 0, die jedem Element v 2 V den Nullvektor aus
Abbildungen von V nach W. W zuordnet, und das einem ' 2 HomK .V; W / entgegen-
Wir haben bereits gezeigt, dass die Menge aller Abbil- gesetzte Element ist die lineare Abbildung ' D .1/ '.
dungen von einer Menge in einen Körper einen Vektorraum Die Vektorraumaxiome (V1)–(V4) sind offenbar
bildet. In ganz ähnlicher Weise bildet die Menge erfüllt.
HomK .V; W / D f' W V ! W j ' ist linear g Beispiel Nach dem Prinzip der linearen Fortsetzung ist je-
de lineare Abbildung zwischen K-Vektorräumen V und W
aller linearen Abbildungen eines K-Vektorraums V in einen eindeutig durch Angabe der Bilder der Basisvektoren einer
K-Vektorraum W wieder einen K-Vektorraum. Basis B von V bestimmt. Wir können folglich explizit al-
Wir erklären eine Addition von Elementen aus le linearen Abbildungen zwischen endlichen Vektorräumen
HomK .V; W /. Sind ' und zwei lineare Abbildungen von angeben. Wir betrachten den Fall V D Z32 und W D Z22 .
V nach W , also Elemente aus HomK .V; W /, so setzen wir Es ist
8 0 1 0 1 0 19
ˆ
< 1 0 0 >=
V !W B C B C B C
'C W B D e D @ 0 A ; e D @ 1A ; e D @ 0A
v 7! .' C /.v/ D '.v/ C .v/ 1 2 3
>
:̂ 0 0 1 ;
Wir benötigen weiter eine skalare Multiplikation. Sind 2
K und ' 2 HomK .V; W /, so definieren wir eine Basis von V , und es gilt:
( ! !
0 1
V !W W D w1 D ; w2 D ;
' W 0 0
v 7! . '/.v/ D '.v/
! !)
0 1
Mit dieser Addition C und skalaren Multiplikation gilt w3 D ; w4 D :
1 1
nun:
178 Kapitel 6 Lineare Abbildungen und Matrizen – Brücken zwischen Vektorräumen
Jede Wahl Beispiel Nach dem Prinzip der linearen Fortsetzung ist
' ' ' jeder Endomorphismus des Z2 -Vektorraums Z22 eindeutig
e 1 7! wi ; e 2 7! wj ; e 3 7! wk durch Angabe der Bilder der Basisvektoren e 1 und e 2 von
Z2 bestimmt. Wir betrachten die beiden Endomorphismen
erklärt eine lineare Abbildung ' von Z32 nach Z22 . Da zwei ' 2und , die durch die folgenden Zuordnungen gegeben
verschiedene Wahlen auch verschiedene lineare Abbildun- sind:
gen liefern, gibt es genau 43 D 64 lineare Abbildungen,
d. h., ! ! ! !
1 ' 0 0 ' 0
7! ; 7! ;
j HomZ2 .Z32 ; Z22 /j D 64 : 9 0 1 1 1
! ! ! !
1 1 0 0
7! ; 7! :
Die Menge aller Endomorphismen 0 0 1 0
6 eines Vektorraums bilden einen Ring
Es gilt nun:
Im letzten Abschnitt haben wir gezeigt, dass die Menge !! ! ! !!
HomK .V; W / aller Homomorphismen ' W V ! W bei 1 0 0 1
ı' D ¤ D'ı ;
geeigneter Definition einer Addition C und Multiplikation 0 0 1 0
mit Skalaren aus K einen Vektorraum bildet. Wir setzen
nun V D W , lassen die Multiplikation mit Skalaren weg sodass ı ' ¤ ' ı gilt. Somit ist die Multiplikation ı
und nehmen die Multiplikation ı, also die Hintereinander- auf End .Z2 / nicht kommutativ.
Z2 2
ausführung von Abbildungen hinzu und erhalten: Außerdem gilt:
'¤0¤ ;
Der Endomorphismenring EndK .V /
Die Menge
aber für das Produkt ı ' gilt:
EndK .V / D HomK .V; V / ! ! ! !
1 ı' 0 0 ı' 0
aller Endomorphismen von V ist mit punktweiser Additi- 7! ; 7! ;
0 0 1 0
on C und der Multiplikation ı ein Ring mit Einselement
id.
sodass ı ' D 0 gilt. Somit ist EndZ2 .Z22 / auch nicht
nullteilerfrei. 9
Beweis Es ist .EndK .V /; C/ eine abelsche Gruppe (beach-
te den Beweis zu obigem Satz, wonach HomK .V; V / ein Kommentar Der Ring EndK .V / ist, wenn man die Multi-
Vektorraum ist). Die Multiplikation ı ist assoziativ, weiter- plikation mit Skalaren berücksichtigt, auch ein K-Vektor-
hin gilt raum. Es gilt zudem für alle 2 K und '; 2 EndK .V /:
..' C / ı #/.v/ D .' C /.#.v// 6.3 Kern, Bild und die Dimensionsformel
D '.#.v// C .#.v//
D .' ı # C ı #/.v/ ; Wie bei Abbildungen können wir bei einer linearen Ab-
bildungen ' W V ! W vom Bild der Abbildung ', also
sodass .' C / ı # D ' ı # C ı # gilt. Den Nachweis des von der Menge '.V / W , und auch vom Urbild einer
zweiten Distributivgesetzes # ı .' C / D # ı ' C # ı Menge A W unter ', also von ' 1 .A/ V sprechen.
führt man analog. Tatsächlich ist es so, dass diese Mengen für die speziel-
le Wahl A D f0g sehr eng miteinander zusammenhängen.
Man beachte, dass der Ring .EndK .V /; C; ı/ im Allge- Dieser Zusammenhang drückt sich in der sogenannten Di-
meinen weder kommutativ noch nullteilerfrei ist, wie das mensionsformel aus, die wir in diesem Abschnitt herleiten
folgende Beispiel zeigt. wollen.
6.3 Kern, Bild und die Dimensionsformel
179 6
'
V W
'.V /
' 1 .f0g/
0
. Abb. 6.3 Der Kern und das Bild einer linearen Abbildung
f0g ' 1 .f0g/ V und f0g '.V / W : Da ' surjektiv ist, gilt für das Bild '.R3 / D R2 . Das ist
Es gibt Beispiele, in denen der Nullvektor der einzige Vek- in . Abb. 6.5 dargestellt.
tor im Kern bzw. Bild ist, der Kern bzw. das Bild kann aber 4 Ist A D .s1 ; : : : ; sn / 2 Km n , so besteht der Kern der
durchaus auch sehr groß sein. linearen Abbildung
n
K ! Km ;
Beispiel 'A W
v 7! A v
4 Bei der Spiegelung
8 aus all jenen Vektoren v des Kn , die das homogene li-
< R ! R
2 2
;
neare Gleichungssystem
W v1 v2
: 7!
v2 v1 Av D 0
180 Kapitel 6 Lineare Abbildungen und Matrizen – Brücken zwischen Vektorräumen
x3 ?Selbstfrage 6.6
' 1 .f0g/ Begründen Sie ausführlich, warum ' surjektiv ist.
?Selbstfrage 6.7
Ist die Sprechweise Je größer der Kern, desto kleiner das
Bild. gerechtfertigt?
x2
x1
Wir untersuchen Kern und Bild einer linearen Abbildung '
zwischen K-Vektorräumen V und W etwas genauer.
'.R3 /
4 Da stets der Nullvektor von V im Kern liegt, gilt
' 1 .f0g/ ¤ ;.
. Abb. 6.5 Der Kern ' 1 .f0g/ D R e 3 und das Bild '.R3 / D R e 1 C 4 Sind v und w zwei Elemente des Kerns von ', d. h.,
6 R e 2 der linearen Abbildung ' W R3 ! R2 '.v/ D 0 und '.w/ D 0, so liegt wegen der Additivität
von ' auch deren Summe v C w im Kern, da
über K lösen:
'.v C w/ D '.v/ C '.w/ D 0 C 0 D 0 :
1
'A .f0g/ D fv 2 Kn j A v D 0g :
4 Sind v ein Element des Kerns von ' und 2 K ein
Für das Bild 'A .Kn / gilt: Skalar, so liegt wegen der Homogenität von ' auch v
im Kern, da
'A .Kn / D fA v j v 2 Kn g
8 0 1 9
ˆ 1 > '. v/ D '.v/ D 0 D 0 :
< =
B :: C
D .s1 ; : : : ; sn / @ : A j 1 ; : : : ; n 2 K
:̂ >
; Damit haben wir die erste Aussage des folgenden Satzes
n gezeigt. Mit einem analogen Vorgehen zeigt man die zweite
D f1 s1 C C n sn j 1 ; : : : ; n 2 Kg Aussage.
D hs1 ; : : : ; sn i :
Das Bild 'A .Kn / besteht also aus allen Linearkombina- Kern und Bild einer linearen Abbildung sind
tion der Spalten von A D .s1 ; : : : ; sn /, Vektorräume
Ist ' eine lineare Abbildung von V nach W , so ist der
'A .Kn / D hs1 ; : : : ; sn i :
Kern ' 1 .f0g/ ein Untervektorraum von V , und das Bild
'.V / ist ein solcher von W .
4 Wir bestimmen den Kern des Differenzierens von reel-
len Polynomen:
d RŒX ! RŒX;
W
dX p!7 dX
d
.p/: Eine lineare Abbildung ist genau dann
injektiv, wenn der Kern trivial ist
Der Kern besteht aus all jenen Polynomen, die durch das
Differenzieren auf das Nullpolynom abgebildet werden:
1 Mithilfe des Kerns lässt sich ein wichtiges Kriterium für die
d d Injektivität einer linearen Abbildung formulieren.
.f0g/ D p 2 RŒX j .p/ D 0 :
dX dX Um nachzuweisen, dass eine Abbildung ' W A ! B für
beliebige Mengen A und B injektiv ist, ist für alle x; y 2 A
Polynome vom Grad 1 oder höher werden durch das mit '.x/ D '.y/ die Gleichheit x D y zu folgern. Bei
Differenzieren nicht zum Nullpolynom. Hingegen wird linearen Abbildungen zwischen Vektorräumen vereinfacht
jedes konstante Polynom c durch das Differenzieren auf sich dieser Nachweis, man kann y D 0 setzen.
das Nullpolynom abgebildet, also gilt:
1
d
.f0g/ D R : Kriterium für Injektivität
dX
Eine lineare Abbildung ' W V ! W ist genau dann injek-
Nach dem Beispiel in 7 Abschn. 6.1 ist das Bild von d tiv, wenn ' 1 .f0g/ D f0g gilt.
dX
gleich RŒX. 9
6.3 Kern, Bild und die Dimensionsformel
181 6
Beweis Wenn ' injektiv ist, dann kann der Kern von ' we- Beweis Es seien fb1 ; : : : ; br g V eine Basis des Kerns
gen '.0/ D 0 keinen weiteren Vektor als den Nullvektor ' 1 .f0g/ von ' und fc 1 ; : : : ; c s g W eine Basis des Bil-
enthalten, d. h., ' 1 .f0g/ D f0g. des '.V / von '. Wir wählen zu jedem dieser c i 2 W ein
Und ist nun umgekehrt ' 1 .f0g/ D f0g vorausgesetzt, b0i 2 V mit
so folgt aus '.v/ D '.w/ für v; w 2 V sogleich:
'.b0i / D c i für i D 1; : : : ; s (6.2)
0 D '.v/ '.w/ D '.v w/ ;
und behaupten, dass B D fb1 ; : : : ; br ; b01 ; : : : ; b0s g eine Ba-
also wegen der Voraussetzung v w D 0, d. h., v D w. sis von V ist.
Folglich ist ' injektiv. Wir zeigen zuerst, dass die Menge B linear unabhängig
ist. Es gelte:
Für ' 1 .f0g/ D f0g sagt man auch: Der Kern von ' ist
trivial. 1 b1 C C r br C 01 b01 C C 0s bs D 0 (6.3)
Das Kriterium ist sehr gut dafür geeignet, die Injektivi-
tät linearer Abbildungen nachzuweisen. Man beachte, dass mit 1 ; : : : ; r ; 01 ; : : : ; 0s 2 K. Wir wenden die lineare
die Inklusion f0g ' 1 .f0g/ für jede lineare Abbildung Abbildung ' auf diese Gleichung an und erhalten
' erfüllt ist. Will man also von einer linearen Abbildung '
nachweisen, dass sie injektiv ist, so hat man nur die Impli- 0 D '.0/
kation D '.1 b1 C C r br C 01 b01 C C 0s b0s /
aus '.v/ D 0 folgt v D 0 D 1 '.b1 / C C r '.br /
C 01 '.b01 / C C 0s '.b0s /
zu begründen.
D 01 c 1 C C 0s c s :
? Selbstfrage 6.8
Im letzten Beispiel werden fünf lineare Abbildungen vor- Wegen der linearen Unabhängigkeit der Vektoren
gestellt. Können Sie angeben, welche dieser fünf linearen c 1 ; : : : ; c s folgt nun:
Abbildungen injektiv sind?
01 D D 0s D 0 :
Die Dimension von V ist die Summe Die Gleichung (6.3) lautet damit
der Dimensionen von Kern und Bild 1 b1 C C r br D 0 :
einer linearen Abbildung
Nun folgt aus der linearen Unabhängigkeit der Vektoren
b1 ; : : : ; br weiter
Bei allen bisher betrachteten linearen Abbildungen von V
nach W mit endlichdimensionalem Vektorraum V haben 1 D D r D 0 :
wir die Beobachtung gemacht, dass die Dimension des Bil-
des umso kleiner ist, je größer die Dimension des Kerns ist. Damit ist gezeigt, dass B linear unabhängig ist.
Die Nullabbildung und die Identität sind Extremfälle. Bei Nun weisen wir nach, dass die Menge B ein Erzeu-
der Nullabbildung hat der Kern maximale Dimension und gendensystem von V ist. Es sei ein v 2 V gegeben. Da
das Bild die Dimension Null, bei der Identität ist dies gera- fc 1 ; : : : ; c s g ein Erzeugendensystem des Bildes '.V / ist,
de anders herum. existieren 01 ; : : : ; 0s 2 K mit
Dieser Zusammenhang ist kein Zufall, er ist Inhalt der
wichtigen Dimensionsformel, die wir nun herleiten. Sie '.v/ D 01 c 1 C C 0s c s :
schildert den Zusammenhang von Kern und Bild einer li-
nearen Abbildung ' W V ! W und der Dimension des Wir betrachten nun das Element
Vektorraums V .
vO D v .01 b01 C C 0s b0s / 2 V (6.4)
Die Dimensionsformel (man beachte die Gleichung (6.2)). Wenden wir nun die li-
Ist V ein endlichdimensionaler Vektorraum, so gilt für je- neare Abbildung ' auf vO an, so erhalten wir:
de lineare Abbildung ' W V ! W die Gleichung
O D '.v/ '.01 b01 C C 0s b0s /
'.v/
dim.V / D dim.' 1 .f0g// C dim. '.V / / : D '.v/ .01 '.b01 / C C 0s '.b0s //
„ ƒ‚ … „ƒ‚…
Kern Bild D '.v/ .01 c 1 C C 0s c 0s /
D '.v/ '.v/ D 0 ;
182 Kapitel 6 Lineare Abbildungen und Matrizen – Brücken zwischen Vektorräumen
sodass vO ein Element des Kerns von ' ist. Da fb1 ; : : : ; br g Beweis Die Abbildung ist offenbar surjektiv. Wir be-
ein Erzeugendensystem des Kerns von ' ist, gibt es nun gründen, dass auch linear ist. Für v; w 2 V und 2 K
1 ; : : : ; r 2 K mit gilt nämlich:
vO D 1 b1 C C r br : . v C w/ D . v C w/ C U
D .. v/ C U / C .w C U /
Setzen wir das in die Gleichung (6.4) ein, so erhalten wir: D .v C U / C .w C U /
D .v/ C .w/ :
v D vO C .01 b01 C C 0s b0s /
D 1 b1 C C r br C 01 b01 C C 0s b0s : Somit ist ein Epimorphismus. Wir bestimmen nun den
Kern von . Es gilt:
Folglich ist B ein Erzeugendensystem von V .
Nun beachten wir v 2 ker , .v/ D v C U D U , v 2 U :
dim V D jBj D r C s D dim.' 1 .f0g// C dim.'.V // : Somit ist U der Kern von .
Mit der Dimensionsformel folgt nun unmittelbar wegen
Das ist die Dimensionsformel. Bild D V =U und ker D U die angegebene Formel.
Es gilt also für jede lineare Abbildung ' von einem endlich- Wir ziehen schließlich eine nützliche Folgerung aus der Di-
dimensionalen Vektorraum V in irgendeinen (nicht näher mensionsformel:
bestimmten) Vektorraum: Die Dimension von V ist die
Summe der Dimensionen des Kerns und des Bildes von '.
In der . Abb. 6.6 zeigen wir diesen Zusammenhang für Kriterium für Bijektivität einer linearen Abbildung
V D R2 D W und eine lineare Abbildung ' D 'A W v 7! Haben V und W gleiche und endliche Dimension, so sind
A v für die drei möglichen Fälle rg A D 2, rg A D 1 und für eine lineare Abbildung ' W V ! W die folgenden
rg A D 0. Aussagen äquivalent:
(i) ' ist injektiv.
? Selbstfrage 6.9 (ii) ' ist surjektiv.
Gibt es eine surjektive lineare Abbildung ' W R11 ! R7 (iii) ' ist bijektiv.
mit einem 5-dimensionalen Kern?
Ist U ein Untervektorraum eines K-Vektorraums V , so kön- Beweis (i) ) (ii): Es sei ' injektiv. Dann gilt ' 1 .f0g/ D
nen wir den Faktorraum V =U bilden: f0g und somit dim.' 1 .f0g// D 0. Nach der Dimensions-
formel gilt dim.'.V // D dim.V / D dim.W /. Somit ist '
V =U D fv C U j v 2 V g : surjektiv (beachte die Kennzeichnungen endlicher Basen).
6.3 Kern, Bild und die Dimensionsformel
183 6
(ii) ) (iii): Ist ' surjektiv, d. h., gilt '.V / D W , so nennen wir den Untervektorraum
folgt mit der Dimensionsformel aus dim.V / D dim.W / D 4 hz1 ; : : : ; zm i K1 n , der von den Zeilenvektoren er-
dim.'.V // sogleich dim.' 1 .f0g// D 0, folglich ist ' auch zeugt wird, den Zeilenraum von A bzw.
injektiv und somit bijektiv. 4 hs1 ; : : : ; sn i Km , der von den Spaltenvektoren er-
(iii) ) (i): Ist ' bijektiv, so ist ' insbesondere auch zeugt wird, den Spaltenraum von A.
injektiv.
Die Dimension des Zeilenraums nennen wir den Zeilen-
Kommentar Man beachte die Analogie zu endlichen rang von A und die Dimension des Spaltenraums den
gleichmächtigen Mengen A und B: Für eine Abbildung Spaltenrang von A.
f W A ! B sind die Eigenschaften injektiv, surjektiv und Wir erinnern an den Begriff Rang einer Matrix: Der
bijektiv gleichwertig. Rang rg A einer Matrix A 2 Km n ist die Anzahl der
Nichtnullzeilen der Matrix in Zeilenstufenform und damit
Bei unendlichdimensionalen Vektorräumen ist die Aussage die Dimension des Zeilenraums, d. h., der Rang von A ist
des obigen Satzes nicht korrekt. Man kann im Allgemei- der Zeilenrang von A. Wir zeigen nun, dass auch der Spal-
nen aus der Injektivität eines Endomorphismus nicht auf tenrang von A gleich diesem Rang von A ist.
die Surjektivität schließen – dasselbe gilt auch andersher- Insbesondere haben wir damit den schuldig gebliebenen
um. Man beachte die folgenden Beispiele. Nachweis der Wohldefiniertheit des Rangs von A nachge-
liefert: Der Rang von A ist die Dimension des Zeilenraums
Beispiel und hängt damit nur von A ab.
4 Im Fall V D KŒX D W ist das Differenzieren dX d
eine
surjektive, nicht injektive lineare Abbildung.
4 Im R-Vektorraum RN0 aller reellen Folgen sind die Ab- Mit der Dimensionsformel folgt
bildungen Zeilenrang D Spaltenrang
RN0 ! RN0 ;
rW
.a0 ; a1 ; : : :/ 7! .0; a0 ; a1 ; : : :/ Wir werden feststellen, dass letztlich jede lineare Abbil-
dung zwischen endlichdimensionalen Vektorräumen von
und der Form 'A mit einer Matrix A ist. Wir formulieren bereits
N0 N0 gemachte Feststellungen erneut mit den nun zur Verfügung
R !R ;
lW stehenden Begriffen.
.a0 ; a1 ; : : :/ 7! .a1 ; a2 ; : : :/;
folgt aus der Dimensionsformel die zweite Formel: und für eine Basis des Kerns wählen wir zwei linear unab-
hängige Lösungsvektoren des Systems A 0 x D 0, etwa
rg A D dimhs1 ; : : : ; sn i : 0 1 0 1
* 3 1 +
B 2 C B0 C
Insbesondere haben also Zeilen- und Spaltenraum einer ker 'A D B C B C
@ 3 A ; @0 A :
Matrix die gleiche Dimension. Das halten wir fest:
0 1
Nun ist die dritte Zeile ein Vielfaches der zweiten Zeile,
durch eine elementare Umformung erhalten wir nun die Der Homomorphiesatz
Zeilenstufenform Ist ' W V ! V 0 eine lineare Abbildung von einem K-
Vektorraum V in einen K-Vektorraum V 0 , so ist
0 1 0 1
2 3 0 2 2 3 0 2 (
B0 3 0C B C
C ! B 0 3 2 0C
2 V = ker ' ! '.V /;
B W
@0 9 6 0 A @ 0 0 0 0A v C ker ' 7! '.v/
0 0 0 0 0 0 0 0
„ ƒ‚ … ein Isomorphismus vom Faktorraum V = ker ' auf das Bild
DA 0
von ', insbesondere gilt:
Die Dimension des Kerns ist somit
V = ker ' Š '.V / :
dim ker A D 4 rg A D 4 2 D 2;
6.4 Darstellungsmatrizen
185 6
Beweis Im Einzelnen ist zu begründen: Beispiel
(i) ist eine Abbildung. 4 Jede Matrix A D .s1 ; : : : ; sn / 2 Km n definiert eine
(ii) ist injektiv. lineare Abbildung 'A W Kn ! Km . Der Kern U D
(iii) ist surjektiv. ker 'A dieser linearen Abbildung 'A ist der Kern der
(iv) ist linear. Matrix A:
v C U D v0 C U ) v v0 2 U KŒX=K Š KŒX : 9
) '.v v0 / D 0
) '.v/ '.v0 / D 0 6.4 Darstellungsmatrizen
) '.v/ D '.v0 / :
In diesem Abschnitt betrachten wir nur endlichdimensiona-
Damit gilt (i). le Vektorräume.
(ii) Es ist zu zeigen Wir ordnen einer linearen Abbildung ' W V ! W
zwischen endlichdimensionalen K-Vektorräumen V und W
aus '.v/ D '.v0 / folgt v C U D v0 C U : nach Wahl von Basen der Vektorräume eine Matrix A zu –
die sogenannte Darstellungsmatrix der linearen Abbildung
Dies gilt, da sich die Implikationen in (i) umkehren lassen: bezüglich der gewählten Basen.
Es seien v; v0 2 V . Dann gilt: Anstelle des Vektors v 2 V betrachten wir den zu v
gehörigen Koordinatenvektor B v bezüglich einer Basis B –
'.v/ D '.v0 / ) '.v/ '.v0 / D 0
das ist ein Spaltenvektor.
) '.v v0 / D 0 Dann ist das Abbilden des Vektors v, also das Bilden
) v v0 2 U von '.v/, im Wesentlichen die Multiplikation der Matrix
) v C U D v0 C U : A mit dem Koordinatenvektor B v.
In diesem Sinne werden die im Allgemeinen durch-
Damit gilt (ii). aus abstrakten Objekte der linearen Abbildungen zwischen
Die Aussage in (iii) ist offensichtlich. endlichdimensionalen Vektorräumen greifbar – eine lineare
(iv) Es seien v C U; w C U 2 V =U und 2 K. Dann Abbildung ist im Wesentlichen eine Matrix und das Ab-
gilt: bilden eines Vektors die Multiplikation dieser Matrix mit
einem Spaltenvektor. Damit erklärt sich die bereits betonte
. .v C U / C .w C U // D ... v/ C w/ C U // Bedeutung der linearen Abbildung v 7! Av.
D '. v C w/
D '.v/ C '.w/ Durch Koordinatenvektoren wird jeder
D .v C U / C .w C U / : Vektor zu einem Spaltenvektor
Der Koordinatenvektor bezüglich einer Basis B . Abb. 6.7 Der Vektor e 1 C e 2 D 2 c 1 C 3 c 2 hat bezüglich der geord-
Ist B D .b1 ; : : : ; bn / eine geordnete Basis eines K-Vek- neten Basis C D .c 1 ; c 2 / die Koordinaten 2 und 3
torraums V , so besitzt jedes v 2 V genau eine Darstellung
Beispiel
4 Zur Nullabbildung Die Darstellungsmatrix einer linearen Abbildung
Es seien V ein n-dimensionaler und W ein m-dimen-
R3 ! R2 ; sionaler K-Vektorraum mit den geordneten Basen B D
'W
v 7! 0 .b1 ; : : : ; bn / von V und C D .c 1 ; : : : ; c m / von W . Und '
sei eine lineare Abbildung von V nach W . Man nennt die
Matrix
gehört die Nullmatrix 0 aus R2 3 .
4 Zur Identität
C M .'/B D .C '.b1 /; : : : ; C '.bn // 2 Km n
R3 ! R3 ;
id W die Darstellungsmatrix von ' bezüglich der Basen B
v 7! v
und C .
Die i-te Spalte von C M .'/B ist der Koordinatenvek-
6 gehört die Einheitsmatrix E3 2 R3 3 . tor des Bildes des i-ten Basisvektors.
4 Zur linearen Abbildung
8
ˆ R3 ! R2 ; Wir drücken das noch etwas ungenauer in einer Form aus,
ˆ
< 0x 1
1 in der man sich die Konstruktion der Darstellungsmatrix
'W @ A x1 C x2
ˆ 2 7!
x gut merken kann: „Die Spalten der Darstellungsmatrix sind
:̂ x2 die Bilder der Basisvektoren.“
x3
?Selbstfrage 6.11
gehört wegen
Inwiefern verallgemeinert dies die Konstruktion in der
vorherigen gelben Box?
1 1 0
'.e 1 / D ; '.e 2 / D ; '.e 3 / D
0 1 0 Zu jeder linearen Abbildung zwischen endlichdimensiona-
len Vektorräumen existiert eine Darstellungsmatrix. Inwie-
fern eine Darstellungsmatrix die lineare Abbildung dar-
1 1 0
die Matrix A D . Es gilt: stellt, klären wir gleich nach den folgenden Beispielen.
0 1 0
00 11 0 1 Beispiel
x1 x1 4 Als Darstellungsmatrix der Nullabbildung 'W R3 ! R2 ,
' @ @ x2 A A D A x2 A : 9
@ v 7! 0 bezüglich der geordneten Standardbasen E3 des
x3 x3 R3 und E2 des R2 erhalten wir
0 0 0
? Selbstfrage 6.10 E2 M .'/E3 D .E2 '.e /;
1 E2 '.e /;
2 E2 '.e 3 // D
0 0 0
Können auch Zeilen oder Spalten, also Matrizen aus K1 n
0 0 0
wobei jeder Punkt des R3 parallel zu einer Normalen der
und analog Ebene E, d. h. zu einem Vektor n ¤ 0, der senkrecht auf
allen Vektoren der Ebene E steht, auf die Ebene E abgebil-
C M .'/C D .C '.X C X C 1/; C '.X C 1/; C '.1//
2
det wird (. Abb. 6.8).
0 1 Die Ebene E ist gegeben durch eine Gleichung
0 0 0
@
D 2 0 0 : A
1 1 0 a1 x1 C a2 x2 C a3 x3 D 0
4 Wir erklären eine lineare Abbildung ' W K2 2 ! K2 2 mit a1 ; a2 ; a3 2 R. Da die Ebene E den Nullpunkt enthält,
durch ist sie ein Untervektorraum des R3 . Eine Normale dieser
Ebene E können wir leicht angeben. Der Vektor
0 1
'.A/ D M A A M mit M D : 0 1
1 0 a1
n D @a2 A
Im K2 2 wählen wir die geordnete Standardbasis a3
E D .E11 ; E12 ; E21 ; E22 /; Koordinatenvektoren sind al-
so Spaltenvektoren aus K4 . erfüllt die Bedingung n ? v für jedes v 2 E.
Wir berechnen der Reihe nach die Bilder der Basisvek- Nun untersuchen wir, wie diese Projektion dargestellt
toren und stellen diese Bilder dann als Linearkombina- werden kann. Wir wählen eine Basis fb; cg der Ebene E.
tionen der Vektoren der Basis E dar. Es ist dann B D fn; b; cg offenbar eine Basis des R3 . Nun
Es ergibt sich: können wir jeden Vektor v 2 R3 als Linearkombination
0 1 1 0 1 0 0 1
'.E11 / D
1 0 0 0 0 0 1 0
0 0 0 1
D D E12 C E21
1 0 0 0
0 1 0 1 0 1 0 1
'.E12 / D
1 0 0 0 0 0 1 0 n
0 0 1 0
D D E11 C E22
0 1 0 0
0 1 0 0 0 0 0 1
'.E21 / D
1 0 1 0 1 0 1 0
1 0 0 0
D D E11 C E22
0 0 0 1
0 1 0 0 0 0 0 1
'.E22 / D
1 0 0 1 0 1 1 0
0 1 0 0
D D E12 E21 . Abb. 6.8 Die Punkte des R3 werden parallel zur Normalen n auf die
0 0 1 0 Ebene projiziert
190 Kapitel 6 Lineare Abbildungen und Matrizen – Brücken zwischen Vektorräumen
C '.v/ D C M .'/B B v :
b
Der Koordinatenvektor von '.v/ ist das Produkt der Dar-
stellungsmatrix mit dem Koordinatenvektor von v.
6 . Abb. 6.9 Die Projektion auf eine Ebene
0 1
v1
von B dar stellen, B :: C
Beweis Gilt B v D @ : A, so erhalten wir wegen
0 1
1 vn
v D 1 n C 2 b C 3 c d. h., B v D @2 A : C M .'/B D .C '.b1 /; : : : ;C '.bn //:
3
C M .'/B B v D v1 C '.b1 / C C vn C '.bn / :
Das Durchführen der Projektion ist ganz einfach, beachte
. Abb. 6.9: Und da das Bilden von Koordinatenvektoren linear ist, gilt:
8
ˆ R3 ! R3 ;
ˆ
< 0 1 0 1 C '.v/ D C .'.v1 b1 C C vn bn //
1 0
W : D v1 C '.b1 / C C vn C '.bn / :
ˆB v D @2 A 7! @2 A
:̂
3 3
Also gilt die angegebene Gleichheit.
Und die Darstellungsmatrix dieser Projektion bezüg-
lich der Basis B erhalten wir nun auch ganz einfach, Mithilfe der Koordinatenvektoren bezüglich der Basen
B und C von V und W und der Darstellungsmatrix
0 1
0 0 0 C M .'/B können wir die (abstrakte) lineare Abbildung ' W
B M . /B D
@ 0 1 0 A : 9 V ! W (konkret) darstellen, man beachte das folgende
0 0 1 Diagramm:
'
? Selbstfrage 6.12 V W
Was sind Kern und Bild der Projektion?
p D 1 c 1 C 1 c 2 C .3/ c 3
0 1 Beweis Nach dem Satz zur Darstellungsmatrix gilt:
1
ist C p D @ 1 A der Koordinatenvektor von p bezüglich
B v 2 ker A , C '.v/ D 0 , '.v/ D 0
3
, v 2 ker ' :
der Basis C . Nun bilden wir zum einen den Koordinaten-
vektor von '.p/ D 2 X C 2 bezüglich C : Das beweist die erste Äquivalenz. Wir begründen die zweite
0 1 Äquivalenz; dazu sei A D .C '.b1 /; : : : ; C '.bn //, wobei
0
@ A B D .b1 ; : : : ; bn /:
C '.p/ D 2
0 w 2 '.V /
, w D '.v/ ; v D v1 b1 C C vn bn 2 V; vi 2 K
und zum anderen das Produkt
0 10 1 0 1 , w D v1 '.b1 / C C vn '.bn /; vi 2 K
0 0 0 1 0 , C w D v1C '.b1 / C C vnC '.bn /; vi 2 K
C M .'/C C p D
@ 2 0 0 A @ 1 A @
D 2A : 9 0 1
v1
1 1 0 3 0
B :: C
, C w D A v; v D @ : A 2 Kn
Die Formel im obigen Satz liefert im Fall ' D id auch vn
Koordinatenvektoren von Vektoren eines K-Vektorraums V
bezüglich einer Basis C , wenn jene bezüglich einer Basis , Cw 2 'A .Kn / :
B bekannt sind.
Beispiel Wir bestimmen den Kern und das Bild der folgen-
0 1 den linearen Abbildung
1
Beispiel Der Vektor E3 v D @2A, dargestellt bezüglich der 2 2
K ! K2 2 ;
3 'W
A 7! M A A M ;
Standardbasis E3 des R3 , hat bezüglich der geordneten Ba-
sis C D .e 1 C e 2 ; e 2 C e 3 ; e 1 / den Koordinatenvektor 0 1
wobei M D .
1 0
Cv D C M .id/E3 E3 v Die lineare Abbildung ' hat bezüglich der geordneten
0 10 1 0 1
0 1 1 1 1 Standardbasis E D .E11 ; E12 ; E21 ; E22 /, wie wir bereits be-
D @ 0 0 1 A @ 2 A @
D 3A: 9 rechnet haben, die Darstellungsmatrix
1 1 1 3 2 0 1
0 1 1 0
B1 0 0 1C
E M .'/E D @
B C:
Der Kern und das Bild einer linearen 1 0 0 1A
0 1 1 0
Abbildung ist durch den Kern und das Bild
einer Darstellungsmatrix gegeben Durch elementare Zeilenumformungen erhalten wir den
Kern von A D E M .'/E :
Die Eigenschaften einer linearen Abbildung ' finden sich 0 1 0 1
0 1 1 0 1 0 0 1
in ihrer Darstellungsmatrix wieder. Ist ' eine lineare Abbil- B1 0
B 0 1C B
C ! B0 1 1 0 C
C
dung zwischen zwei endlichdimensionalen Vektorräumen
@1 0 0 1 A @ 0 0 0 0A
V und W mit dim V D n und dim W D m, so ist je-
de Darstellungsmatrix von ' eine m n-Matrix. Es sei 0 1 1 0 0 0 0 0
192 Kapitel 6 Lineare Abbildungen und Matrizen – Brücken zwischen Vektorräumen
Somit gilt:
0 1 0 1 Die einfachste Darstellungsmatrix
* 1 0 +
Es seien n D dim V und m D dim W , ' W V ! W linear
B0C B 1 C
ker A D B C B C
@0A ; @1A :
und r D dim '.V /. Es existieren Basen B von V und C
von W mit
1 0
!
Er 0
Wegen C M .'/B D
0 0
0 1 0 1
1 0
wobei Er die r r-Einheitsmatrix ist.
B0C 1 0 B1C 0 1
B CDE B C
und @ A D E
@0A 0 1 1 1 0
1 0
6 Beweis Wir wählen
haben wir damit auch den Kern von ' bestimmt: 4 eine geordnete Basis .b1 ; : : : ; bs / des Kerns ker ' V
von ' und
1 0 0 1 4 eine geordnete Basis .c 1 ; : : : ; c r / des Bildes '.V / W
ker ' D ; :
0 1 1 0 von '.
Durch elementare Spaltenumformungen erhalten wir das Zu den r Vektoren c 1 ; : : : ; c r aus W gibt es r Vektoren
Bild von A D E M .'/E : a1 ; : : : ; ar in V mit
0 1 0 1
0 1 1 0 0 1 0 0 '.a1 / D c 1 ; : : : ; '.ar / D c r :
B1 0 0 1 C B1 0 0 0 C
B C!B C
@1 0 0 1A @1 0 0 0 A Wegen der linearen Unabhängigkeit von c 1 ; : : : ; c r 2 W
0 1 1 0 0 1 0 0 sind auch die Vektoren a1 ; : : : ; ar 2 V linear unabhängig.
Aus
Somit gilt:
0 1 0 1 1 a1 C C r ar D 0
* 0 1 +
B1C B 0 C folgt durch Anwenden von ':
'A .K4 / D B C B C
@1A ; @ 0 A :
0 1 1 c 1 C C r c r D 0 :
Beispiel: Die Darstellungsmatrix einer Spiegelung an einer Geraden durch den Ursprung
Wir betrachten im R2 , mit dem üblichen kartesischen Koordi- wird, und die Strecke vom Ursprung zum Punkt b2 steht senk-
natensystem, den Endomorphismus ', den wir durch lineare recht auf der Geraden, an der wir spiegeln, es ist nämlich das
Fortsetzung der Abbildung .e 1 / D e 2 und .e 2 / D e 1 er- Skalarprodukt b1 b2 gleich null.
! Abbildung wird jeder Punkt des R an der
2
halten. Bei dieser Also erhalten wir:
1
Geraden R gespiegelt. Man beachte die Abbildung.
1 '.b1 / D b1 und '.b2 / D b2 :
Wir bestimmen die Darstellungsmatrizen dieser linearen
Abbildung zum einen bezüglich der Standardbasis E2 und x2
zum anderen bezüglich der geordneten Basis
'.b2 / b2
! !! 1 b1 D '.b1 /
1 1
B D b1 D ; b2 D :
1 1
1 1 x1
x2
'.e 1 / D e 2
1 b2
v/ D v1 '.e 1 / C v2 '.e 2 /
v1 Damit hat ' bzgl. B die Darstellungsmatrix
v1 !
v2 e 1 D '.e 2 / x1 1 0
AD
0 1
v2 und es gilt:
v D v 1 e 1 C c2 e 2
!! ! ! !
v1 v1 1 0 v1
Problemanalyse und Strategie ' D D ;
v2 v2 0 1 v2
Wir bestimmen die Bilder von e 1 ; e 2 und b1 ; b2 und stellen
!
diese Bilder jeweils als Linearkombinationen der Basen E2 v1
und B dar. für B v D .
v2
Anstelle der speziellen Basis B hätten wir auch jede ande-
Lösung re Basis wählen und eine entsprechende ' darstellende Matrix
Als lineare Fortsetzung von ist ' eine lineare Abbildung. angeben können. Tatsächlich liegt gerade hierin der Kern des
Wegen ! ! 7 Kap. 8: Wie bestimmt man eine Basis mit der Eigenschaft,
0 1 dass die eine lineare Abbildung darstellende Matrix bezüg-
'.e 1 / D D e 2 und '.e 2 / D D e1
1 0 lich dieser Basis eine besonders einfache Gestalt hat? Dabei
ist die einfachste Gestalt eine Diagonalgestalt. In den prakti-
erhalten wir als Darstellungsmatrix für ' schen Anwendungen der linearen Algebra wird dies meistens
! möglich sein. Die Vorteile liegen auf der Hand: Mit Diagonal-
0 1
AD matrizen ist das Rechnen wesentlich einfacher.
1 0
x2
Es gilt:
'.v/
!! ! ! !
v1 v2 0 1 v1
' D D ; '.w/
v2 v1 1 0 v2
b1 x1
d. h., '.v/ D A v. w
Wir wählen nun eine andere Basis B:
( ! !)
1 1 b2 v
B D b1 D ; b2 D :
1 1
Da b1 kein Vielfaches von b2 ist, ist B in der Tat eine Basis Man beachte, dass die Spiegelung ' bezüglich der Basis B
des R2 . Der Punkt b1 liegt auf der Geraden, an der gespiegelt eine Diagonalmatrix als Darstellungsmatrix hat.
194 Kapitel 6 Lineare Abbildungen und Matrizen – Brücken zwischen Vektorräumen
geordneten Basis C des R3 : die Summe von Matrizen, und stellen die Zusammenhän-
ge mit den entsprechenden Verknüpfungen von linearen
00 1 0 1 0 11 Abbíldungen her. Der Vollständigkeit halber führen wir
1 0 0
C D @@ 0 A ; @1A ; @0AA : auch das Transponieren von Matrizen in diesem Abschnitt
1 1 1 ein und stellen die Rechenregeln für das Addieren, Ver-
vielfachen, Multiplizieren und Transponieren von Matrizen
zusammen. Das Addieren von Matrizen und das Vervielfa-
Nun gilt: chen von Matrizen mit Skalaren ist bekannt, wir wiederho-
0 1 len es kurz.
1 0 0 0
@
C M .'A /B D 0 1 0 0
A 9
0 0 0 0 Skalares Multiplizieren und Addieren
von Matrizen erfolgt komponentenweise
i Man beachte, dass wir hier die bisherige Aufgabenstel-
lung umdrehen: Bisher waren Basen gegeben, und wir
Ist A D .aij /i;j 2 Km n eine m n-Matrix und 2 K
haben die Darstellungsmatrix dazu bestimmt. Hier haben
ein Skalar, so ist das Vielfache A die wie folgt erklärte
wir die Basen so gewählt, dass die Darstellungsmatrix
m n-Matrix:
eine besondere Form hat. Im 7 Kap. 8 werden wir Endo-
morphismen ' eines endlichdimensionalen Vektorraums 0 1
a11 ::: a1n
V betrachten. Nach dem hier geschilderten Ergebnis kön- B :: :: C
nen wir auf jeden Fall Basen B und C finden bzgl. der A D . aij /i;j D@ : : A:
die Darstellungsmatrix von ' eine Diagonalgestalt wie im am1 : : : amn
obigen Satz hat. Im 7 Kap. 8 werden wir uns mit der Fra-
ge auseinandersetzen, wann es eine Basis B (also der Fall Und sind A D .aij /i;j ; B D .bij /i;j 2 Km n zwei m
B D C ) gibt, bezüglich der ' Diagonalgestalt hat. n-Matrix, so ist die Summe A C B die wie folgt erklärte
6.5 Verknüpfungen von Matrizen
195 6
m n-Matrix: Gezeigt ist bereits, dass diese Abbildung C B homogen
und additiv, d. h. linear ist. Wir zeigen noch, dass C B bi-
A C B D .aij C bij /i;j jektiv ist:
0 1
a11 C b11 : : : a1n C b1n
B :: :: C
D@ : : A:
am1 C bm1 : : : amn C bmn Die Vektorräume HomK .V; W / und Kmn sind
isomorph
Wir formulieren gleich ein zentrales Ergebnis, das den Zu- Es seien V ein n-dimensionaler und W ein m-dimensiona-
sammenhang dieser Matrizenverknüpfungen mit den ent- ler K-Vektorraum mit den Basen B und C . Die Abbildung
sprechenen Verknüpfungen linearer Abbildung beschreibt. (
HomK .V; W / ! Km n ;
C B W
' 7! C M .'/B
Der Vektorraum der Homomorphismen ist
isomorph zum Vektorraum der Matrizen ist ein Isomorphismus, insbesondere gilt HomK .V; W / Š
Km n .
D .C '.b1 /; : : : ; C '.bn //
gilt '.b1 / D D '.bn / D 0 und somit ' D 0. Nach dem
D C M .'/B : Injektivitätskriterium ist die Abbildung injektiv.
C B
Zur Surjektivität: Es sei A 2 Km n eine (beliebige) Ma-
Somit ist die Darstellungsmatrix von ' gleich dem
trix mit den Spalten
-Fachen der Darstellungsmatrix von '.
Für die Summe ' C zweier linearer Abbildungen 0 1 0 1
a11 a1n
'; W V ! W erhalten wir
B : C B : C
s1 D @ :: A ; : : : ; sn D @ :: A :
C M .' C /B
am1 amn
D .C .' C /.b1 /; : : : ; C .' C /.bn //
D .C .'.b1 / C .b1 //; : : : ; C .'.bn / C .bn /// Die Abbildung
D .C '.b1 /; : : : ; C '.bn // C .C .b1 /; : : : ; C .bn //
B ! W;
D C M .'/B C C M . /B : W
bi 7! a1i c 1 C C ami c m
Die Darstellungsmatrix von ' C ist somit die Summe der
Darstellungsmatrizen von ' und . ist nach dem Prinzip der linearen Fortsetzung zu einer linea-
ren Abbildung ' von V in W fortsetzbar. Wir bestimmen
i Man beachte, in welchen Vektorräumen die Multiplikation die Darstellungsmatrix von '. Es gilt:
mit Skalaren und die Addition von Vektoren stattfinden:
' ist die Multiplikation mit Skalaren im Vektorraum 1 0 0 1
a11 a1n
HomK .V; W / und C M .'/B ist die Multiplikation mit B : C B : C
C '.b1 / D @ :: A ; : : : ; C '.bn / D @ :: A :
Skalaren im Vektorraum Km n . Und 'C ist die Addition
von linearen Abbildungen im Vektorraum HomK .V; W / am1 amn
und C M .'/B C C M . /B ist die Addition von Matrizen
im Vektorraum Km n . Damit gilt C B D C M .'/B D A. Folglich ist C B auch
surjektiv.
Wir erklären in Abhängigkeit von den gewählten Basen B
und C eine Abbildung, nämlich ?Selbstfrage 6.14
Welche Dimension hat der K-Vektorraum HomK .V; W /
HomK .V; W / ! Km n ;
C B W unter den Voraussetzungen an V und W des obigen Sat-
' 7! C M .'/B : zes?
196 Kapitel 6 Lineare Abbildungen und Matrizen – Brücken zwischen Vektorräumen
.A B/ e 1 D A .Be 1 / D A s1 ;
Zeilen- und Spaltenzahl des Produkts
.A B/ e 2 D A .Be 2 / D A s2 ; Eine m n-Matrix mal einer n r-Matrix ergibt eine m
:: :: r-Matrix:
: :
.A B/ e n D A .Be n / D A sn : Œm n Œn r D Œm r :
i Das Matrixprodukt ist nur für Matrizen A und B mit der 4 Potenzieren von Diagonalmatrizen führt zum Potenzie-
Eigenschaft ren der Diagonalelemente:
0 10 10 1 0 1
Spaltenzahl von A D Zeilenzahl von B a 0 0CBa 0 0CBa 0 0C Ba3 0 0C
B
B
B0 b 0CB
CB 0 b 0C B
CB 0 b 0C B
CDB 0 b3 0C C 9
definiert. @ A@ A@ A @ A
0 0 c 0 0 c 0 0 c 0 0 c3
? Selbstfrage 6.15
Für Matrizen A und B existiere sowohl das Produkt A B
Ausgehend vom letzten Beispiel definieren wir allgemeiner
als auch das Produkt B A. Müssen die Matrizen A und B
für eine quadratische Matrix A 2 Kn n : Für jede natürliche
dann quadratisch sein?
Zahl k bezeichne
Zum Produkt von linearen die Menge aller quadratischen Matrizen einen Ring bildet.
Abbildungen gehört das Produkt Dazu ist nachzuweisen, dass das Assoziativgesetz für die
der Darstellungsmatrizen Multiplikation und die Distributivgesetze gelten. Ein di-
rekter Nachweis dieser Gesetze ist möglich aber deutlich
aufwendiger als die Methode, die wir nun verwenden wer-
Wir können nun auch die folgende Multiplikativität nach- den. Wir benutzen die Tatsache, dass EndK .V / mit der
weisen: punktweisen Addition und der Hintereinanderausführung
einen Ring bildet. Dabei entspricht diese Addition der Ad-
dition von Matrizen und die Hintereinanderausführung der
Die Darstellungsmatrix eines Produkts linearer Multiplikation von Matrizen. So überträgt sich die Ring-
Abbildungen struktur mit einer bijektiven, additiven und multiplikativen
Für K-Vektorräume V; W und U mit den geordneten Ba- Abbildung von EndK .Kn / auf Kn n .
sen B; C und D und lineare Abbildungen ' W V ! W In den Anwendungen braucht man das Assoziativgesetz
6 und W W ! U gilt: aber nicht nur für quadratische Matrizen. Daher beweisen
wir allgemeiner die folgenden Rechenregeln für die Matri-
D M . ı '/B D D M . /C C M .'/B :
zenmultiplikation.
Beweis Es seien
Rechenregeln für die Matrixmultiplikation
(i) Wenn für Matrizen A; B; C die Produkte A B und
B D .b1 ; : : : ; bn / eine Basis von V; dim V D n; B C erklärt sind, existieren auch .A B/ C und
C D .c 1 ; : : : ; c m / eine Basis von W; dim W D m und A .B C /, und es gilt:
D D .d 1 ; : : : ; d r / eine Basis von U; dim U D r:
.A B/ C D A .B C / :
Wir zeigen, dass die beiden r n-Matrizen D M . ı '/B
und D M . /C C M .'/B die gleichen Spalten haben, d. h., (ii) Für quadratische Matrizen A; B; C 2 Kn n
gelten
dass für jedes i D 1; : : : ; n gilt:
A .B C C / D A B C A C ;
D. ı '/.bi / D D M . /C C '.bi / : .A C B/ C D A C C B C :
Dazu formen wir beide Seiten zu gleichen Ausdrücken um.
Für ein i 2 f1; : : : ; ng gelte: 0 1
b 1
B : C Beweis (i) Es seien A 2 K , B 2 K und C 2 Kr p .
m n n r
'.bi / D b1 c 1 C C bm c m ; d. h., C '.bi / D @ :: A : In den K-Vektorräumen Kn ; Km ; Kr ; Kp wählen wir die
bm Basen N; M; R; P . Nach dem Satz zur Isomorphie von
Damit erhalten wir zum einen
HomK .V; W / und Km n sind
D . ı '/.bi / D D . .'.bi ///
D .M N /1 .A/ ;
D D . .b1 c 1 C C bm c m //
D .R M /1 .B/ ;
0 1
und zum anderen b1 ' D .P R /1 .C /
B : C
D M . /C C '.bi / D .D .c 1 /; : : : ; D .c m //@ :: A lineare Abbildungen,
bm
W Kn ! Km ; W Kr ! Kn ; ' W Kp ! Kr :
D b1D .c 1 / C C bmD .c m /
D D . .b1 c 1 C C bm c m // : Nun gilt aufgrund des obigen Satzes und der Assoziativität
der Hintereinanderausführung von Abbildungen:
Damit ist die Gleichheit der beiden Matrizen gezeigt.
.A B/ C D .M M./N N M. /R /R M.'/P
D M M. ı /R R M.'/P
Viele Rechenregeln für Matrizen sind analog D M M.. ı / ı '/P D M M. ı . ı '//P
zu den Rechenregeln für z. B. ganze Zahlen,
D M M./N N M.. ı '/P
es gibt aber auch Ausnahmen
D M M./N .N M. /R R M.'/P /
D A .B C / :
Wir begründen nun, dass bezüglich der von uns erklär-
ten Matrizenmultiplikation und der Addition von Matrizen (ii) Das beweist man analog.
6.5 Verknüpfungen von Matrizen
199 6
Beispiel Durch Ausnutzen der Assoziativität .A B/ C D nach dem Satz zur Darstellungsmatrix eines Produkts von
A .B C / kann man sich reichlich Rechenarbeit ersparen. linearen Abbildungen auch multiplikativ, d. h.,
Wir berechnen das folgende Matrixprodukt auf 2 Arten:
B B . ı '/ D B B . / B B .'/:
0 1
0 1 2
3
B0C Somit ist B B ein Isomorphismus.
@2A .1; 1; 2; 1/ B C : Die Multiplikation von Matrizen
@2A ist nicht kommutativ:
2 1 0 0 0
3 Mit A D und B D gilt:
0 0 1 0
Mit der Klammerung .A B/ C ergibt sich:
1 0 0 0 0 0
0 1 2 0
0 1
1 0 1
AB D D
0 0 1 0 0 0
B
3 3 6 3 CB C
B0C B
6 C 0 12 C 9 C B 3 C
B
B2 2 4 2C B C B C B
CB CDB4 C 0 C 8 6CDB2C :
C
aber
@ AB2 C @ A @ A
2 2 4 2 @ A 4C08C6 2
3 0 0 1 0 0 0
BA D D :
1 0 0 0 1 0
Mit der Klammerung A .B C / ergibt sich dasselbe, aber
die Rechnung ist kürzer (4C3 D 7 gegenüber 12C12 D 24 Im Fall n 3 füge man diesen hier gegebenen Matrizen A
Multiplikationen): und B entsprechend viele Nullspalten und Nullzeilen
an.
0 1 0 1 1 0
3 3 Es gibt Nullteiler:
Wir können wieder A D
0 0
@2A .2 0 4 C 3/ D @2A : 9 0 0
und B D wählen und erhalten A B D 0.
2 2 1 0
EndK .V / Š Kn n
: können wir für jedes n 2 N als einen kommutativen Teil-
körper des für n 2 nicht kommutativen Rings Kn n
Im Fall n 2 ist Kn n nicht kommutativ und besitzt Null- auffassen:
teiler, d. h., es gibt Elemente A ¤ 0 ¤ B mit A B D 0.
Lemma Es ist
K ! Kn n ;
Beweis Nach den obigen Rechenregeln für die Matrizen- W
7! diag.; : : : ; /
multiplikation gelten das Assoziativgesetz und die Distri-
butivgesetze in .Kn n ; C; /. Folglich ist .Kn n ; C; / ein ein Ringmonomorphismus.
Ring. Wegen
Beweis Für beliebige ; 2 K gilt:
En A D A D A En
. C / D diag. C ; : : : ; C /
für jedes A 2 Kn n ist En ein Einselement in .Kn n ; C; /.
D diag.; : : : ; / C diag.; : : : ; /
Für jede Basis B von V ist die additive und bijektive
Abbildung D ./ C ./
und analog:
EndK .V / ! Kn n ;
W
B B
' 7! B M .'/B . / D ./ ./ ;
200 Kapitel 6 Lineare Abbildungen und Matrizen – Brücken zwischen Vektorräumen
sodass ein Ringhomomorphismus ist. Aus ./ D ./ Beispiel Die Transponierte entsteht durch Vertauschen von
folgt sogleich D , d. h., ist auch injektiv und somit ein Zeilen und Spalten:
Ringmonomorphismus.
>
a b a c
Es gilt also insbesondere die Isomorphie D ;
c d b d
K Š .K/ Kn n : 0 1
> 1 4
1 2 3
Wie so oft unterscheidet man zueinander isomorphe Struk- D @2 5 A
4 5 6
turen nicht und fasst somit K als einen Teilring (und damit 3 6
als einen Teilkörper) von Kn n auf.
Mit der Multiplikation und der Addition C von Matri- 1 0
zen ist .K ; C; / ein Ring. Wir entscheiden im nächsten
n n 4 Die zu E 2 D 2 R2 2 transponierte Matrix ist
0 1
Abschnitt, welche Matrizen in diesem Ring invertierbar
1 0
6 sind, geben verschiedene Kriterien an und besprechen Ver-
>
E2 D
0 1
.
fahren, wie man gegebenenfalls das Inverse einer quadrati- 0 1
1 2 i
schen Matrix bestimmen kann. Natürlich wird das Inverse p
4 Die zu A D @ 2 1 2 i C 1A 2 C 3 3 transpo-
der Darstellungsmatrix einer linearen Abbildung dann die
iC1 3 11
Darstellungsmatrix der inversen Abbildung sein. 0 p 1
Bevor wir uns diesen Themen zuwenden, besprechen 1 2 iC1
wir noch kurz das Transponieren von Matrizen. nierte Matrix ist A> D @2 1 3 A. 9
i 2i C1 11
Beim Transponieren vertauscht man Zeilen Ist A quadratisch, so geht also A> aus A D .aij /n;n durch
und Spalten einer Matrix Spiegeln an der Hauptdiagonale .a11 ; : : : ; ann/ hervor:
0 1> 0 1
Durch das Transponieren wird eine m n-Matrix zu einer
B C B C
n m-Matrix: B C DB C
@ A @ A
Wegen
6.6 Das Invertieren von Matrizen
Die Symmetrie bedeutet dabei, dass die erste Zeile gleich also die eindeutig bestimmte Lösung des Systems A x D
der ersten Spalte ist, analog für die zweite Zeile und zweite b. Ist die Matrix A nicht invertierbar, so ist dieses System
Spalte usw. nur dann lösbar, wenn rg A D rg.A j b/ gilt, die Lösungs-
menge ist in diesem Fall unendlich groß.
Symmetrische Matrizen
Man nennt eine Matrix A 2 Kn n
symmetrisch, wenn
A > D A gilt. Die zu A inverse Matrix A 1 ist eindeutig
durch A A 1 D En D A 1 A bestimmt
Eine quadratische Matrix A 2 Kn n heißt symmetrisch, wenn Weise als Summe einer symmetrischen und einer schiefsym-
A D A > erfüllt ist; sie heißt schiefsymmetrisch, wenn A D metrischen Matrix schreiben:
A > gilt. Im Folgenden sei die Charakteristik von K ungleich ! ! !
bCc bc
a b a 0
2, d. h., es gelte 1 C 1 ¤ 0. Die Menge der symmetrischen D bCc 2
C 2
c d d bc 0
bzw. schiefsymmetrischen n n-Matrizen über K bezeichnen 2 2
„ ƒ‚ … „ ƒ‚ …
wir mit S.n; K/ bzw. A.n; K/. Wir zeigen, dass S.n; K/ und 2S.2;K/ 2A.2;K/
A.n; K/ komplementäre Untervektorräume des Kn n sind mit bCc bc
D a E11 C d E22 C S T:
n .n C 1/ n .n 1/ 2 2
dim S.n; K/ D und dim A.n; K/ D :
2 2
Sind nun A; B 2 S.n; K/, d. h. A > D A, B > D B, so folgt
Somit besitzt jede Matrix M 2 Kn n genau eine Darstellung
.A C B/> D A > C B > D A C B, d. h. A C B 2 S.n; K/,
6 M DS CA mit S 2 S.n; K/; A 2 A.n; K/ : und . A/> D A > D A für 2 K, d. h. A 2 S.n; K/.
Die Menge S.n; K/ ist demnach ein Untervektorraum des
Problemanalyse und Strategie Kn n . Der Beweis für schiefsymmetrische Matrizen geht ge-
Wir zeigen, dass Kn n die direkte Summe der Untervektor- nauso. So folgt etwa aus A > D A, B > D B sogleich
räume S.n; K/ und A.n; K/ ist und bestimmen Basen dieser .A C B/> D A > C B > D A B D .A C B/.
Untervektorräume. Wir gehen von der Standardbasis B D fEij j 1 i; j
ng des Kn n aus. Eine Matrix A D .aij / 2 Kn n ist genau
Lösung dann symmetrisch, wenn aij D aj i für i < j gilt. In diesem
P
Bevor wir den allgemein Fall behandeln, sehen wir uns zu- Fall kann man in der Darstellung A D ni;j D1 aij Eij die bei-
nächst exemplarisch den Fall n D 2 an. Es gilt dim K2 2 D 4. den Summanden aij Eij C aj i Ej i zu einem einzigen, nämlich
Die Standardbasis des K2 2 ist B D fE11 ; E12 ; E21 ; E22 g mit aij .Eij C Ej i / zusammenfassen. Somit ist
! !
1 0 0 1 S D fEi i j 1 i ng [ fEij C Ej i j 1 i < j ng
E11 D ; E12 D ;
0 0 0 0
! ! eine Basis von S.n; K/, und es gilt dim S.n; K/ D jSj D
0 0 0 0 n.n C 1/=2. Die Matrix A ist genau dann schiefsymmetrisch,
E21 D ; E22 D :
1 0 0 1 wenn ai i D ai i , d. h. ai i D 0 für alle Elemente in der Haupt-
! diagonalen von A gilt und aij D aj i für i < j . Man sieht
a b
Die Darstellung von A D 2 K2 2 als Linearkombi- dann analog, dass
c d
nation der kanonischen Basis ist A D fEij Ej i j 1 i < j ng
A D a E11 C b E12 C c E21 C d E22 :
eine Basis von A.n; K/ ist. Es folgt dim A.n; K/ D jAj D
Wir setzen
! ! n.n 1/=2.
0 1 0 1 Für eine beliebige Matrix M 2 Kn n gilt
S D D E12 C E21 ; T D D E12 C E21 :
1 0 1 0
M D 12 .M C M > / C 12 .M M > /
Weil S und T linear unabhängig sind, ist fE11 ; E22 ; S ; T g ei- „ ƒ‚ … „ ƒ‚ …
DS DA
ne Basis des K2 2 .
Die Symmetrie bzw. Schiefsymmetrie von A lässt sich mit S > D 12 .M > C .M > /> / D 12 .M > C M / D S , d. h.
folgendermaßen ausdrücken: S 2 S.n; K/, und A > D 12 .M > .M > /> / D 12 .M > M / D
A D A> , b D c A, d. h., A 2 A.n; K/. Ist M D S 0 CA 0 eine weitere solche
! Darstellung, so gilt S C A D S 0 C A 0 , und folglich ist
a b
,AD
b d S S 0 D A 0 A 2 S.n; K/ \ A.n; K/
! ! !
1 0 0 0 0 1
Da Cd Cb 2 hE11 ; E22 ; Si; eine Matrix, die zugleich symmetrisch und schiefsymmetrisch
0 0 0 1 1 0 ist. Da die Nullmatrix 0 2 Kn n die einzige Matrix mit dieser
A D A > , a D d D 0 und b D c Eigenschaft ist, folgt S D S 0 , A D A 0 , und wir haben auch
! ! die Eindeutigkeit der Darstellung gezeigt.
0 c 0 1 Es gilt etwa
,AD Dc 2 hT i:
c 0 1 0 ! ! !
6 13 6 9 0 4
Demnach ist fE11 ; E22 ; S g eine Basis von S.2; K/, also D C :
5 11 9 11 4 0
dim S.2; K/ D 3, und fT g ist eine Basis von A.2; K/, al- „ ƒ‚ … „ ƒ‚ …
so dim A.2; K/ D 1. Jede Matrix lässt sich auf genau eine 2S.n;R/ 2A.n;R/
6.6 Das Invertieren von Matrizen
203 6
1 0 Ist nun umgekehrt 'A invertierbar, so gilt nach dem Darstel-
Die reelle Matrix A D ist so ein Beispiel. Ist lungssatz linearer Abbildungen für die Umkehrabbildung
0 0
A 0 D .aij0 / 2 R2 2 , so gilt: von 'A :
0 0 0
D 'B mit einem B 2 Kn n
:
1 0 a11 a12 a0 a12
A A0 D 0 0 D 11 ¤ E2 :
0 0 a21 a22 0 0 Nun folgt aus
Die Nullzeile in A erzeugt im Produkt A A 0 stets eine Null- 'A B D 'A ı 'B D idKn D 'B ı 'A D 'B A
zeile – und zwar in derselben Zeile. sogleich
Wir untersuchen in diesem Abschnitt, welche Matrizen
invertierbar sind, führen aber erst die entsprechenden Be- A B D En D B A ;
griffe ein.
Man nennt eine quadratische Matrix A 2 Kn n inver- sodass also B D A 1 gilt.
tierbar oder regulär, wenn es eine Matrix A 0 2 Kn n mit
der Eigenschaft Kommentar Eigentlich haben wir für das Inverse A 1 einer
Matrix A 2 Kn n zu viel gefordert. Wir verlangen, dass die
0 0
A A D En D A A beiden Gleichungen
Man nennt diese Matrix A 0 die zu A inverse Matrix und Beispiel Wir zeigen an Beispielen, dass nicht jede Matrix
schreibt A 1 anstelle von A 0 : invertierbar ist und geben Inverse einiger invertierbarer Ma-
trizen an:
A A 1 D En D A 1 A : 4 Die folgende reelle Matrix A ist nicht invertierbar:
Eine Matrix, die nicht invertierbar ist, nennt man auch sin- 4 3
AD
gulär. 0 0
Wir stellen gleich einen Zusammenhang zwischen einer
invertierbaren Matrix A und der Invertierbarkeit des Endo- Die zweite Zeile von A, also die Nullzeile, erzwingt ei-
morphismus 'A her. ne Nullzeile in jedem Produkt A A 0 , insbesondere kann
für keine Matrix A 0 die Gleichung A A 0 D E2 erfüllt
sein.
Lemma Eine Matrix A 2 Kn n ist genau dann invertierbar,
Allgemeiner ist jede Matrix, die eine Nullzeile enthält,
wenn der Endomorphismus 'A W Kn ! Kn invertierbar ist.
nicht invertierbar.
In diesem Fall gilt:
4 Es ist E2 2 K2 2 zu sich selbst invers, da
1
'A D 'A 1 : 1 0 1 0 1 0
E2 E2 D D D E2 :
0 1 0 1 0 1
Beweis Ist A 2 Kn n
invertierbar mit dem Inversen A 1 , 4 Auch E2 2 K2 2
ist zu sich selbst invers, da
so gilt
1 0 1 0
.E2 / .E2 / D
0 1 0 1
'A1 ı 'A D 'A 1 A D 'En D idKn
1 0
D D E2 :
und analog: 0 1
'A ı 'A 1 D idKn ; 2 1 1 1
4 Zu A D 2 R 2 2
ist das Inverse,
1 1 1 2
sodass da
2 1 1 1 1 0
1
'A D 'A 1 : D D E2 :
1 1 1 2 0 1
204 Kapitel 6 Lineare Abbildungen und Matrizen – Brücken zwischen Vektorräumen
0 1 0 1
i 1 0 i i 1 Beweis (i) Wegen En D A A 1 D A 1 A ist A das Inver-
4 Zu A D @0 1 i A 2 C 3 3 ist @ 0 1 iA das se zu A 1 , d. h., .A 1 /1 D A.
0 0 1 0 0 1 (ii) Wir weisen nach, dass .B 1 A 1 / das Inverse zu
Inverse, da A B ist, es gilt dann .A B/1 D B 1 A 1 .
0 10 1 0 1 Wegen der Assoziativität der Matrizenmultiplikation
i 1 0 i i 1 1 0 0 gilt folgende Gleichung:
@0 1 i A @ 0 1 iA D @0 1 0A D E3 :
0 0 1 0 0 1 0 0 1 .A B/ .B 1 A 1 / D A .B B 1 / A 1
D A En A 1 D A A 1 D En :
1 1
4 Die Matrix A D 2 K2 2 ist nicht invertierbar, (iii) Das gilt wegen En En D En .
1 1
da die Gleichung
?Selbstfrage 6.19
1 1 a b 1 0
6 1 1 c d
D
0 1
D E2 Sind A und B invertierbare n n-Matrizen, so ist 'A ı 'B
eine invertierbare Abbildung. Was ist die Umkehrabbil-
dung von 'A ı 'B ?
zu dem nicht lösbaren Gleichungssystem
aCc D1 bCd D0 Da die Multiplikation von quadratischen Matrizen asso-
ziativ ist, ist auch die Multiplikation von invertierbaren
aCc D0 bCd D1
Matrizen assoziativ. Somit gilt:
führt. Allgemeiner sind Matrizen mit zwei gleichen Zei-
len niemals invertierbar. Folgerung Die Menge
4 Wir betrachten für ein ˛ 2 Œ0; 2 Œ die Matrix GLn .K/ D fA 2 Kn n j A ist invertierbarg
cos ˛ sin ˛ der invertierbaren n n-Matrizen über dem Körper K ist
AD 2 R2 2 :
sin ˛ cos ˛ mit der Multiplikation von Matrizen eine Gruppe
cos.˛/ sin.˛/
Dann ist das Inverse von A i Im Allgemeinen gilt:
sin.˛/ cos.˛/
(man beachte cos.˛/ D cos ˛ und sin.˛/ D .A B/1 ¤ A 1 B 1 :
sin ˛), da
Als Beispiel betrachten wir
! !
cos ˛ sin ˛ cos.˛/ sin.˛/
2 1 1 1
sin ˛ cos ˛ sin.˛/ cos.˛/ AD ; BD :
1 1 0 1
1 0
D D E2 : 9 Dann gilt:
0 1
! !
1
1 1 1 1
Bevor wir zeigen, wie man das Inverse einer invertierbaren A D ; B 1 D :
1 2 0 1
Matrix bestimmt, geben wir noch wichtige Eigenschaften
invertierbarer Matrizen an. Nun rechnen wir nach:
! !
2 3 2 3
AB D ; .A B/1 D B 1 A 1 D
Eigenschaften invertierbarer Matrizen 1 2 1 2
(i) Wenn A 2 Kn n
invertierbar ist, so auch A 1 , und es und !
gilt:
1 1
1 2
A B D ¤ .A B/1 :
1 3
.A 1 /1 D A :
so ist nach dem Kriterium für Invertierbarkeit die Matrix .z/-Fache der dritten Zeile und setzen schließlich die
A nicht invertierbar. Enthält D hingegen keine Nullzei- dritte Zeile als erste Zeile:
le, so ist die Matrix invertierbar. Man setzt in diesem Fall 0 1
x y 1 1 0 0
die Zeilenumformungen fort und ermittelt das Inverse von
@ z 1 0 0 1 0A !
A. Die geringfügige Mehrarbeit, die Zeilenumformungen
an der rechts stehenden Einheitsmatrix im Ansatz .A j En / 1 0 0 0 0 1
0 1
durchzuführen, sollte man in Kauf nehmen. 1 0 0 0 0 1
@0 y 1 1 0 x A :
0 1 0 0 1 z
Das Bestimmen des Inversen einer Matrix
Wir addieren in einem zweiten Schritt das .y/-Fache
A 2 Knn
der dritten Zeile zur zweiten und vertauschen schließ-
1. Man schreibe .A j En /.
lich diese beiden Zeilen:
6 2. Mit elementaren Zeilenumformungen bringe man
0 1
.A j En / auf die Form .D j B/, mit einer oberen Drei- 1 0 0 0 0 1
ecksmatrix D. @0 y 1 1 0 x A !
3. Enthält D eine Nullzeile, so ist A nicht invertierbar. 0 1 0 0 1 z
Enthält D keine Nullzeile, so setze man mit elemen- 0 1
1 0 0 0 0 1
taren Zeilenumformungen fort, um das Inverse A 1
@0 1 0 0 1 z A :
von A zu erhalten:
0 0 1 1 y y z x
.A j En / ! ! .En j A 1 / :
Folglich ist
0 1
0 0 1
Beispiel
A 1 D @0 1 z A :
1 y yz x
4 Wir invertieren die Matrix
4 Wir versuchen das Inverse von
2 1
AD 2 R2 2
: 0 1
1 1 1 2 0 4
B1 1 0 2 C
ADB @0 2 1 0 A 2 R
C 4 4
Zuerst notieren wir .A j E2 /, vertauschen dann die Zei-
len und addieren zur zweiten Zeile das .2/-Fache der 2 5 1 6
neuen ersten Zeile:
zu bestimmen. Wir machen wieder den Ansatz .A j E4 /,
2 1 1 0 1 1 0 1 addieren zur zweiten Zeile das .1/-Fache der ersten
! :
1 1 0 1 0 1 1 2 Zeile und zur vierten Zeile das .2/-Fache der ersten
Zeile:
Weil die Matrix den Rang 2 hat, ist sie invertierbar. Wir 0 1
1 2 0 4 1 0 0 0
setzen nun das Invertieren fort. In einem zweiten Schritt B 1 1 0 2 0 1 0 0 C
B C
addieren wir zur ersten Zeile die zweite Zeile und mul- @ 0 2 1 0 0 0 1 0 A !
tiplizieren dann die zweite Zeile mit dem Faktor 1:
2 5 1 6 0 0 0 1
0 1
1 1 0 1 1 0 1 1 1 2 0 4 1 0 0 0
! : B 0 1 0 2 1 1 0 0 C
0 1 1 2 0 1 1 2 B C:
@ 0 2 1 0 0 0 1 0 A
0 1 1 2 2 0 0 1
1 1
Also ist A 1 D .
1 2 Nun erkennt man, dass durch Addition der zweiten zur
4 Schließlich invertieren wir die Matrix dritten Zeile die vierte Zeile entsteht, d. h., der Rang von
0 1 A ist nicht vier. Die Matrix ist also nicht invertierbar. 9
x y 1
A D @ z 1 0A 2 R : 3 3
Kommentar Beim Invertieren von Matrizen hat man bei
1 0 0 den Zeilenumformungen im Allgemeinen viele Wahlmög-
lichkeiten. Wir haben bei den Beispielen jeweils einen Weg
Wieder notieren wir .A j E 3 /, addieren zur ersten Zeile vorgegeben. Natürlich gelangt man auch mit anderen Zei-
das .x/-Fache der dritten Zeile, zur zweiten Zeile das lenumformungen zum Ziel.
6.7 Elementarmatrizen
207 6
Man bestimme das Inverse der Matrix Nun erkennen wir, dass A den Rang 3 hat, also auch tatsäch-
0 1 lich invertierbar ist. Es folgt der letzte Schritt, in dem wir die
6 8 3
B C dritte Zeile zur ersten Zeile addieren und zur zweiten Zeile das
A D @4 7 3A 2 R3 3 :
.1/-Fache der dritten Zeile hinzufügen:
1 2 1
0 1 0 1
Problemanalyse und Strategie 1 0 1 0 2 7 1 0 0 1 2 3
B0 1 1 0 1 4C B 3 6C
Man beachte das im Text beschriebene Verfahren. @ A ! @0 1 0 1 A
0 0 1 1 4 10 0 0 1 1 4 10
Lösung
Wieder notieren wir zuerst .A j E3 /, tauschen dann die ers- Folglich ist
te mit der dritte Zeile und addieren zur zweiten Zeile das
0 1
.4/-Fache der neuen ersten Zeile und zur neuen dritten Zeile 1 2 3
B 6C
das .6/-Fache der neuen ersten Zeile: A 1 D @1 3 A
0 1 0 1 1 4 10
6 8 3 1 0 0 1 2 1 0 0 1
B4 7 3 0 1 0C B C
@ A ! @0 1 1 0 1 4A
1 2 1 0 0 1 0 4 3 1 0 6 Kommentar Beim Invertieren einer Matrix A 2 Kn n
passieren leicht Rechenfehler. Man kann sein Ergebnis aber
In einem zweiten Schritt addieren wir zur ersten Zeile einfach überprüfen, da die Gleichung A A 1 D E n erfüllt
das 2-Fache der zweiten Zeile und zur dritten Zeile das sein muss. Diese Gleichung ist im Allgemeinen sehr leicht
.4/-Fache der zweiten Zeile und multiplizieren schließlich nachzuvollziehen, wir tun dies für unser Beispiel:
die zweite Zeile mit 1:
0 1 0 1 0 10 1 0 1
1 2 1 0 0 1 1 0 1 0 2 7 6 8 3 1 2 3 1 0 0
B0 1 1 0 1 4C B 1 0 1 4C B4 3C B 6C B 0C
@ A ! @0 1 A @ 7 A @1 3 A D @0 1 A
0 4 3 1 0 6 0 0 1 1 4 10 1 2 1 1 4 10 0 0 1
Wir heben zwei Merkregeln für das Inverse spezieller ?Selbstfrage 6.20
Matrizen hervor. Ist mit zwei invertierbaren Matrizen A; B 2 Kn n
auch
die n n-Matrix A C B invertierbar?
Die Inversen von 2 !2- und Diagonalmatrizen Kommentar Ist A x D b ein lineares Gleichungssystem
a b mit invertierbarer Matrix A, so ist die dann eindeutig be-
4 Die Matrix 2 K2 2 ist genau dann invertier-
c d stimmte Lösung durch A 1 b gegeben. Tatsächlich ist es im
bar, wenn a d ¤ b c. Es gilt in diesem Fall: Allgemeinen aber viel aufwendiger, erst A 1 zu bestimmen
und diese Matrix dann mit b zu multiplizieren, als das Glei-
!1 !
a b 1 d b chungssystem mit dem Algorithmus von Gauß und Jordan
D zu lösen.
c d ad bc c a
0
a C a0 .b C b 0 / a
'.z C z / D D '.z/ C '.z 0 / : gehört:
b C b0 a C a0
iz a
4. Für alle z; z 0 2 C gilt '.z z 0 / D '.z/ '.z 0 /:
Sind z D a C i b und z 0 D a0 C i b 0 2 C, so ist
'.z z 0 / D '..a a0 b b 0 / C i .b a0 C a b 0 // b z
!
a a0 b b 0 .b a0 C a b 0 / a
D b
b a0 C a b 0 a a0 b b 0
! !
a b a0 b 0
D D '.z/ '.z 0 / : Dasselbe leistet in G die zu i gehörige Matrix '.i/:
b a b0 a0
! ! !
0 1 a b b a
Wir können nun die Elemente aus C durch jene aus G aus- D ;
1 0 b a a b
drücken. Zu jedem Element aus C gehört genau ein Element
!
aus G. Der Summe bzw. dem Produkt zweier komplexer Zah- b
len z und z 0 entspricht die Summe bzw. das Produkt der beiden da hierzu ebenso der Vektor
a
gehört.
Matrizen '.z/ und '.z 0 /. Also sind G und C von der Bezeich- Schließlich entspricht dem Inversen einer komplexen Zahl
nung der Elemente abgesehen dasselbe. Aber in G taucht die z D a C i b ¤ 0 das Inverse der zu z gehörigen Matrix '.z/,
imaginäre Einheit ! i nicht explizit auf. Zu i gehört die Matrix da
0 1
'.i/ D , und der haftet nichts Imaginäres mehr an.
1 0 E 2 D '.1/ D '.z z 1 / D '.z/ '.z 1 /
Der Körper der komplexen Zahlen kann!also gedeutet wer- !
a b a b
den als die Menge aller Matrizen 2 R2 2 . gilt. D. h., die Matrix '.z/ D ist invertierbar mit
b a b a
!
Die Menge G bildet einen Untervektorraum von R2 2 . Es a b
dem Inversen '.z/1 D '.z 1 / D 1
.
ist also G insbesondere ein reeller Vektorraum. Weil jedes a2 Cb 2 b a
6.7 Elementarmatrizen
209 6
bewirkt eine elementare Zeilenumformung an A, nämlich Wir untersuchen nun, welche Matrizen diese Zeilen- bzw.
das Multiplizieren der zweiten Zeile von A mit dem Fak- Spaltenumformungen an der Matrix A 2 Km n durch Mul-
tor 1=3. tiplikation von rechts bzw. links bewirken.
Vertauscht man die Matrizen, berechnet man also Für 2 K und i; j 2 f1; : : : ; mg mit i ¤ j nennt man
0 10 1 0 1 die m m-Matrizen der Form
3 3 3 1 0 0 3 1 3 0 1
@3 3 3A @0 1=3 0A D @3 1 3A 1
B :: C
3 3 3 0 0 1 3 1 3 B : C
B C
B C
B 1 C
so bewirkt diese Multiplikation eine elementare Spaltenum- B C
D i ./ D B C i
formung an A. B C
B 1 C
Man kann auch das Addieren eines Vielfachen einer B C
B :: C
Zeile zu einer anderen Zeile durch eine Matrizenmultipli- @ : A
kation ausdrücken, so ist etwa 1
0 10 1 0 1 "
1 0 0 3 3 3 3 3 3
@1=3 1 0A @3 3 3A D @2 2 2A i
0 0 1 3 3 3 3 3 3 und
0 1
die Addition des .1=3/-fachen der ersten Zeile zur zwei- 1
B :: C
ten. B : C
B C
B 1 C i
? Selbstfrage 6.21 B C
B C
Welche Zeile ändert sich, wenn der Faktor 1=3 an der N i;j ./ D B
B
: :: C
C
B C
Stelle .3; 1/ dieser Matrix steht? B 1 C
B C
B :: C
Ein Vertauschen der Matrizen bewirkt wieder eine entspre- @ : A
chende Umformung an den Spalten: 1
0 10 1 0 1 "
3 3 3 1 0 0 2 3 3
@3 3 3A @1=3 1 0A D @2 3 3A : j
3 3 3 0 0 1 2 3 3 m m-Elementarmatrizen.
Diese beiden Multiplikationen bewirken also gerade für Das Invertieren von Matrizen kann man
¤ 0 im ersten Fall die elementaren Zeilenumformungen auch mit Elementarmatrizen beschreiben
der Art (ii) und (iii) an A.
Wir überlegen uns nun, welche Matrix das Vertauschen
zweier Zeilen zi und zj für i ¤ j von A bewirkt. Eine invertierbare Matrix A 2 Kn n hat, wie wir gezeigt
Wir multiplizieren an A von links Elementarmatrizen: haben, den Maximalrang n.
0 1 0 1 0 1 Dann kann A mit elementaren Zeilenumformungen auf
0 1
:: :: :: 1
B C : B : C B : C
Bz C Bz C z C B C B :: C
B iC B i jC B zi C zj C die Form @ : A gebracht werden und mit weite-
B:C B : C B : C
B
ADB:C!B : C!B
: C B : C B : C 0 1
: C
B C B C B C ren solchen Umformungen schließlich in die Einheitsmatrix
Bzj C B zj C Bzj C .1/ .zi C zj /C
@:A @ : A @ :: A En umgewandelt werden. Jede Umformung bedeutet eine
:: ::
6 „ ƒ‚ … „ ƒ‚
:
…
Multiplikation von links mit einer Elementarmatrix. Daher
existieren zu der invertierbaren Matrix A Elementarmatri-
DN i;j .1/ A DN j;i .1/ N i;j .1/ A
0 1 0 1 0 1 zen T 1 ; : : : ; T k mit
:: :: ::
B : C B : C B:C T k T 1 A D En ;
Bz C z C Bz C z C .z /C Bz C
B i jC B i j i C B jC
B : C B :: C Dj .1/ B : C sodass
B
D B :: C C!
B
B :
C
C ! B C
B :: C :
B C B C B C
B zi C B zi C B zi C T k T 1 D T k T 1 En D A 1 :
@ : A @ :: A @:A
:: : ::
„ ƒ‚ …
DN i;j .1/N j;i .1/ N i;j .1/ A Invertieren von Matrizen
Jede invertierbare Matrix A lässt sich mittels elementarer
Damit führen also die Elementarmatrizen auch zum Vertau- Zeilenumformungen in die Einheitsmatrix E n überführen.
schen der Zeilen zi mit zj also zur elementaren Zeilenum- Wendet man dieselben Umformungen in derselben Rei-
formung (i). Diese Vertauschung bewirkt also letztlich die henfolge auf En an, so erhält man A 1 .
Matrix
P i;j D Dj .1/ N i;j .1/ N j;i .1/ N i;j .1/
0 1 Dieses Vorgehen zum Invertieren einer invertierbaren Ma-
1
trix ist genau dasselbe, das wir in der Merkbox Das Be-
B :: C
B : C stimmen des Inversen einer Matrix A 2 Kn n geschildert
B C
B 0 1 C i haben.
B C
B C Man schreibt En rechts neben A, also .A j En / und wen-
DBB : :: C
C det die Umformungen, die A in En überführen, gleichzeitig
B C
B 1 0 C j auf E n an, man erhält also .En j A 0 /. Die Matrix A 0 ist dann
B C
B :: C das Inverse A 1 von A.
@ : A
Wir haben damit auch gezeigt:
1
" " Folgerung Jede invertierbare Matrix ist ein Produkt von
i j Elementarmatrizen, d. h., die Gruppe GLn .K/ der invertier-
baren n n-Matrizen über dem Körper K wird von den
Man nennt P i;j eine Permutationsmatrix, sie vertauscht Elementarmatrizen erzeugt.
durch Multiplikation von links an A die Zeilen zi und zj .
Wir halten eine weitere Folgerung fest: Da jede invertier-
? Selbstfrage 6.23 bare Matrix S 2 Kn n ein Produkt von Elementarmatrizen
Warum gilt P 2 D En für jede n n-Permutationsmatrix?
ist, S D T 1 T k , bewirkt die Multiplikation von S an
Analog kann man nun auch elementare Spaltenumformun- eine Matrix A 2 K
n n
von links bzw. von rechts,
gen von A durch Multiplikation von n n-Elementarmatri- S A bzw. A S ;
zen von rechts an A 2 Km n darstellen.
So bewirkt die n n-Matrix D i ./ mit ¤ 0 durch entsprechende elementare Zeilen- bzw. Spaltenumformun-
Multiplikation von rechts an A eine Multiplikation der gen an A, da jede Elementarmatrix T i eine solche Umfor-
i-ten Spalte von A mit dem Faktor . Und die Multipli- mung darstellt. Da elementare Zeilen- bzw. Spaltenumfor-
kation von N i;j ./ von rechts an A bewirkt die Addition mungen den Rang der Matrix A nicht ändern, erhalten wir
des -Fachen der i-ten Spalte zur j -ten Spalte. damit:
6.8 Basistransformation
211 6
Jede Matrix A D .s1 ; : : : ; sn / 2 Km n induziert eine 4 Ein Element v 2 Kn liegt genau dann im Kern von 'A ,
lineare Abbildung 'A vom K-Vektorraum Kn in den K-Vek- wenn A v D 0 gilt:
torraum Km :
( 1
'A .f0g/ D fv 2 Kn j A v D 0g :
Kn ! Km ;
'A W
v 7! A v: Der Kern von 'A ist die Lösungsmenge des homoge-
Diese Abbildungen verdienen eine besondere Beachtung, weil nen linearen Gleichungssystems A v D 0. Wegen dieses
letztlich jede Abbildung von einem n-dimensionalen K-Vek- Zusammenhangs nennt man den Kern der linearen Abbil-
torraum in einen m-dimensionalen K-Vektorraum von dieser dung 'A auch den Kern der Matrix A.
Art ist. 4 Für die Dimension des Kerns von 'A gilt:
Wir fassen wesentliche Ergebnisse aus den 7 Kap. 3, 4 1
dim 'A .f0g/ D n rg.A/ :
und 6 zu einer Übersicht zusammen.
0 1
v1
B:C Dies folgt unmittelbar aus der Dimensionsformel.
4 Für jeden Vektor v D B :C
@ : A 2 K gilt:
n
In der Sprechweise der linearen Gleichungssysteme lautet
vn dies: Ist A 2 Km n , so ist die Dimension des Lösungs-
raums des homogenen linearen Gleichungssystems
'A .v/ D A v D v1 s1 C C vn sn ;
insbesondere gilt für die Standard-Einheitsvektoren Av D 0
e 1 ; : : : ; e n des Km :
gleich n rg.A/.
'A .e i / D A e i D si für i D 1; : : : ; m : Insbesondere ist ein lineares homogenes Gleichungssys-
tem mit einer Koeffizientenmatrix A 2 Km n genau dann
Die i-te Spalte der Matrix A ist das Bild des i-ten Stan-
eindeutig lösbar, wenn n D rg.A/ ist.
dardbasis-Einheitsvektors e i .
4 Für eine quadratische Matrix A 2 Kn n sind die folgen-
4 Das Bild von 'A ist die Menge aller Linearkombinationen
den Aussagen äquivalent:
von s1 ; : : : ; sn , also der Spaltenraum von A:
– A ist invertierbar,
'A .Kn / D hs1 ; : : : ; sn i : – rg.A/ D n,
– 'A ist bijektiv,
4 Die Dimension des Bildes von A ist die Dimension des
– 'A ist surjektiv,
Spaltenraums von A:
– 'A ist injektiv,
1
dim.'A .Kn // D rg A : – 'A .f0g/ D f0g.
0 1
v1
B :: C
Folgerung Ist A 2 Kn eine beliebige und S 2 Kn
n n
so erhält man den Koordinatenvektor B '.v/ D @ : A des
eine invertierbare Matrix, so gilt: vn
Bildes eines Vektors v unter der Abbildung ' durch eine
rg.S A/ D rg.A/ D rg.A S / : sehr einfache Multiplikation:
1
0
1 v1
B : C
6.8 Basistransformation B '.v/ D B M .'/B B v D @ :: A :
n vn
Das wesentliche Ziel von 7 Kap. 8 wird es sein, zu einer
gegebenen Abbildung ' eine Basis B zu bestimmen, be- Auch Potenzen von Diagonalmatrizen sind sehr einfach zu
züglich der die Darstellungsmatrix B M .'/B eine besonders bilden – dies hat in den Anwendungen der linearen Algebra
einfache Gestalt, etwa Diagonalgestalt, hat. Der Vorteil ei- eine fundamentale Bedeutung; wir gehen darauf noch ein.
ner solchen einfachen Gestalt liegt auf der Hand: Ist die
Darstellungsmatrix eine Diagonalmatrix, also
Je zwei Darstellungsmatrizen einer linearen
0 1 Abbildung sind ähnlich
1 0
B :: :: :: C
B M .'/B D @ : : :A
In den bisherigen Beispielen zu Darstellungsmatrizen ha-
0 n ben wir mehrfach ein und dieselbe lineare Abbildung be-
212 Kapitel 6 Lineare Abbildungen und Matrizen – Brücken zwischen Vektorräumen
B D S A S 1 ;
d. h., dass also auch B zu A ähnlich ist, B A. Andererseits stellen je zwei ähnliche n n-Matrizen über
Transitivität: Es sei A zu B ähnlich, A D S B S , K ein und dieselbe lineare Abbildung dar. Somit gehört
1
Die Basistransformationsformel gibt an, wie wir die Dar- Wir werden dies noch mehrfach vor allem im 7 Kap. 8 be-
stellungsmatrix einer linearen Abbildung bezüglich einer nutzen.
Basis C erhalten, wenn wir diese bezüglich einer Basis B Wir formulieren die Basistransformationsformel erneut
kennen. Wir schildern dies an einem einfachen Beispiel. für den wichtigen Fall einer linearen Abbildung der Form:
n
Beispiel Wir betrachten die Abbildung K ! Kn ;
' D 'A W
8 v 7! A v:
< R ! R
2 2
;
'W x1 x2
: 7! :
x2 x1 Die Transformationsformel für quadratische
Matrizen
D .e1 ;
Ist B geordnete Standardbasis des R und
e 2 / die 2
und schließlich aus diesen drei Matrizen durch Produktbil- wobei S D .b1 ; : : : ; bn / gilt.
dung die Darstellungsmatrix von ' bezüglich der Basis C :
C M .'/C D S 1 B M .'/B S
Zahl t betrachten wir die Matrix
Zu einer reellen
Beispiel
1=2 1=2 0 1 1 1 cos t sin t
D AD . Ein Element v 2 R2 schreiben wir
1=2 1=2 1 0 1 1 sin t cos t
1 0 v1
D 9 in der Form v D . Damit ist eine lineare Abbildung
0 1 v2
214 Kapitel 6 Lineare Abbildungen und Matrizen – Brücken zwischen Vektorräumen
x2 d. h.
'A W v1 b1 C v2 b2 ! v1 b1 v2 b2 :
x1
Jeder K-Vektorraum V hat einen Partner, den Dualraum V
von V , das ist die Menge aller linearen Abbildungen von V
in K. Falls V endlichdimensional ist, so hat V die gleiche
6 Dimension wie V , und eine Basis von V ist mithilfe einer
Basis von V leicht anzugeben. Im unendlichdimensionalen
Fall sind die Verhältnisse komplizierter.
. Abb. 6.10 Die Spiegelung an der Geraden R b1 (blau)
wegen der linearen Unabhängigkeit der beiden Elemente Man nennt V den Dualraum von V . Die Elemente von
von B eine geordnete Basis des R2 . Tatsächlich stehen die V heißen Linearformen, eine Linearform ist damit eine
beiden Vektoren b1 und b2 der Basis B sogar senkrecht auf- lineare Abbildung von V in den Grundkörper K.
einander – dies sieht man, indem man ihr Skalarprodukt
bildet. Beispiel
Wir berechnen nun die Darstellungsmatrix B M .'A /B . 4 Im Fall V D Kn ist jede Linearform ' W Kn ! K durch
Die Basistransformationsmatrix S hat als Spalten gerade einen Zeilenvektor z D .a1 ; : : : ; an / 2 K1 n gegeben:
der Reihe nach die Elemente b1 und b2 der geordneten Ba-
sis B: '.v/ D z v ; v 2 V :
Umgekehrt definiert jeder Vektor z 2 K1 n eine Linear-
cos t=2 sin t=2
S D : form. Daher erhalten wir V Š K1 n .
sin t=2 cos t=2
4 Der K-Vektorraum V D KŒX hat die Basis fX k j k 2
Das Inverse zu S ist dann N0 g. Ist ' 2 V eine Linearform:
8
cos t=2 sin t=2 < V ! K;
S 1 D : 'W Pn
sin t=2 cos t=2
:p D ai X i 7! '.p/;
i D0
Damit erhalten wir:
so wird durch
1 1 0
B M .'A /B DS AS D : b0 D '.1/ ; b1 D '.X/ ; b2 D '.X 2 / ; : : :
0 1
Wegen der Basistransformationsformel erhalten wir damit eine Folge b D .bi /i 2N0 erklärt. Damit haben wir ei-
die sehr einfache Darstellung der linearen Abbildung ' ne lineare Abbildung ˚ von V in den K-Vektorraum
durch KŒŒX aller Folgen über K erklärt,
v1 1 0 v1 v1 V ! KŒŒX;
D !
7 D D ˚W
B v
v2
'
B A .v/
0 1 v2 v2
; ' 7! .'.X i //i 2N0 :
6.9 Der Dualraum
215 6
Wir schildern die beiden wichtigsten Lösungsmethoden zur 2. Lösungsweg mit der Transformationsformel: Da wir die
Bestimmung der Darstellungsmatrix einer linearen Abbil- Inverse von S D E M .'/B brauchen, um die Transforma-
dung. Bei der ersten Methode gehen wir direkt anhand der tionsformel anwenden zu können, starten wir gleich mit der
Definition der Darstellungsmatrix vor. Bei der zweiten Metho- Berechnung von S 1 – die Zwischenschritte lassen wir jedoch
de benutzen wir die Basistransformationsformel. Die zweite aus:
Methode ist meist umständlicher.
0 1
Wir geben uns reelle Polynome vor: 0 2 4 1 1 0 0 0
B6 1 1 3 0 0C
p 1 D X 3 C 6 X; p 2 D X 2 X C 2; B 1 0 C
.S j E 4 / D B C ! :::
@0 1 2 0 0 0 1 0A
p 3 D 2 X 2 C X C 4; p 4 D 3 X C 1 :
1 0 0 0 0 0 0 1
Dann ist B D .p 1 ; p 2 ; p 3 ; p 4 / eine geordnete Basis von 0 1
1 0 0 0 0 0 0 1
RŒX3 . Wir bestimmen die Darstellungsmatrix der Differen- B0 1 0 0 2 2
B
13
4CC
d
ziation dX W RŒX3 ! RŒX3 , p 7! p 0 bezüglich B. ::: !B 3 3
C
@0 0 1 0 1 1
3
53 2A
Problemanalyse und Strategie 0 0 0 1 1 0 2 0
Wie üblich bezeichne E D .1; X; X 2 ; X 3 / die kanonische
Basis von RŒX3 . Zuerst bestimmen wir die Darstellungsma- Folglich ist das Inverse von S :
d
trix von dX anhand der Definition, also die Matrix, deren 0 1
Spalten gerade die Koordinatenvektoren bezüglich B der Bil- 0 0 0 1
B2 23 13
4C
der der Basisvektoren sind. Bei der zweiten Lösungsmethode B C
S 1 DB 3
C
bestimmen wir die Darstellungsmatrix E M . dXd d
/E von dX be- @1 1
3
53 2A
züglich der Standardbasis, die Basistransformationsmatrix S , 1 0 2 0
deren Inverses und schließlich das Produkt der drei Matrizen:
S 1 E M . dX
d
/E S , und dies ist dann die Darstellungsmatrix Die Darstellungsmatrix von d
bezüglich der Standardbasis
dX
bezüglich der Basis B. E ist einfach zu bestimmen:
Lösung 0 1
0 1 0 0
B0
1. Lösungsweg mit der Definition der Darstellungsmatrix: Wir d B 0 2 0C
C
bestimmen die Darstellungsmatrix B M . dX d
/B , indem wir die EM E DB C
d d d d
dX @0 0 0 3A
Bilder der Basisvektoren dX .p 1 /; dX .p 2 /; dX .p 3 /; dX .p4 /
0 0 0 0
der Reihe nach als Linearkombinationen von p 1 ; p 2 ; p 3 ; p 4
darstellen:
Damit bleibt nun folgende Rechnung auszuführen:
d
.p / D 3 X 2 C 6 D p 2 C p 3 ;
dX 1
d d
d BM D S 1 E M S:
.p / D 2 X 1 D X C .3 X 1/ dX
B
dX
dX 2 E
1 2 1
D .p 3 2 p 2 / p4 D p 2 p 3 p 4 ; Wir multiplizieren zuerst die beiden hinteren Matrizen und er-
3 3 3
d halten dann
.p / D 4 X C 1 D 7 X C .3 X C 1/
dX 3 0 10 1
7 14 7 0 0 0 1 6 1 1 3
D .p 3 2 p 2 / C p 4 D p2 C p 3 C p 4 ; B2 2
3 3 3 d B
13
4C B
C B0 2 4 0 C
C
BM B DB 3 3
CB C
d dX @1 1
3 2A @3 0 0 0 A
5
.p / D 3 D 9 X C .9 X 3/ 3
dX 4 1 0 2 0 0 0 0 0
D 3 .p 3 2 p 2 / 3 p 4 D 6 p 2 3 p 3 3 p 4 : „ ƒ‚ …
d
DE M . dX /E S
Folglich ist 0 1
0 0 0 0
d d d d d B1 2
14 6C
BM B D B .p /; B .p /; B .p /; B .p / B C
dX dX 1 dX 2 dX 3 dX 4 DB 3 3
C
@1 3 1 7
3 A
0 1 3
0 0 0 0 0 1 1 3
B1 2
14 C
B 6 C
DB 3 3
C
@1 13 7
3
3A Natürlich erhalten wir wieder die gleiche Matrix wie beim ers-
0 1 1 3 ten Lösungsweg.
216 Kapitel 6 Lineare Abbildungen und Matrizen – Brücken zwischen Vektorräumen
Nun gehen wir von einer Folge b P D .bi /i 2N0 2 KŒŒX Für jede Basis B eines K-Vektorraums V nennt man die
aus. Zu jedem Polynom p D PniD0 ai X i 2 KŒX Menge
betrachten wir das Körperelement niD0 ai bi 2 K. Da-
durch wird eine lineare Abbildung von V D KŒX in B D fb j b 2 Bg V
K, also eine Linearform 'b erklärt: die Dualbasis zu B, für je zwei Elemente b; b0 2 B gilt
8
< V ! K; 0 1 ; falls b D b0 ;
'b W Pn P
n b .b / D ı b;b 0 D
0 ; sonst.
:p D ai X i 7! a i bi :
i D0 i D0
i Die Dualbasis B ist im Fall jBj D 1 keine Basis, be-
Da jede Folge .bi /i 2N0 2 KŒŒX eine solche Linear- achte das folgende Beispiel.
form liefert, erhalten wir somit eine Abbildung
Beispiel Es sei V ein unendlichdimensionaler K-Vektor-
6 KŒŒX ! V ; raum mit der Basis B. Die Abbildung
W
.bi /i 2N0 7! '; (
V ! K;
' W P P
die linear ist. Offenbar gilt: vD b b 7! b ; ;
b2B b2B
ı ˚ D idV und ˚ ı D idKŒŒX ; die der eindeutig bestimmten endlichen Darstellung v D
P
d. h., dass V D KŒX Š KŒŒX. Der Dualraum des b2B b b 2 PV bezüglich der Basis B die Summe der
Koeffizienten b2B b zuordnet, ist eine Linearform, d. h.
Vektorraums aller Polynome über K ist somit bis auf die
' 2 V , und es gilt:
Bezeichnung der Elemente der Vektorraum aller Folgen
( )
über K. 9 X
' … hB i D b b j b 2 K ;
b2B
Zu jeder Basis B von V gibt es
da die Summen in hB i endlich sind. Es folgt, dass B kein
eine Dualbasis B von V Erzeugendensystem von V ist. 9
Ist B eine Basis des K-Vektorraums V , so lässt sich jeder Im endlichdimensionalen Fall ist B aber eine Basis
Vektor v 2 V eindeutig darstellen als von V :
X
vD b b ;
b2B
Satz von der Dualbasis
Ist B eine Basis des K-Vektorraums V , so gilt:
wobei nur endlich viele der Koeffizienten b ungleich null (i) B V ist linear unabhängig.
sind. Nun ordnen wir jedem Basiselement b 2 B eine Li- (ii) Im Fall dim V 2 N0 ist B eine Basis von V , insbe-
nearform b zu: sondere gilt V Š V .
V ! K;
b W ;
v 7! b ;
Beweis Im Fall B D ; gilt B D ;, sodass alle Behaup-
wobei b eben der Koeffizient von tungen richtig sind. Wir setzen nun B ¤ ; voraus.
P b in der eindeutig be- (i) Es seien b ; : : : ; b 2 B verschiedene Elemente der
stimmten Darstellung von v D b2B b b bezüglich der
1 n
und betrachten nun die Linearform Somit ist die zu 'A duale Abbildung 'A W .Km / ! .Kn /
X gegeben durch
D b b 2 hB i :
n
b2B K ! K;
'A . / W
v 7! z A v:
Wenn wir zeigen, dass ' D , folgt daraus die Behaup-
tung. Für alle Elemente b0 2 B gilt:
Wir bezeichnen mit En und Em die Dualbasen zu den kano-
! nischen Basen En und Em von Kn und Km . Die i-te Spalte
X X
0 0 0
.b / D b b .b / D b b .b / der Darstellungsmatrix En M .'A /Em von 'A bezüglich die-
b2B b2B ser Dualbasen ist wegen ze i D .0; : : : ; 1; : : : ; 0/ D e >
i
D b0 D '.b0 / :
En 'A .e i / D En .e i ı 'A / D En .'e > i
ı 'A /
Somit stimmen die beiden linearen Abbildungen ' und D En .'e > A / D En .'.ai1 ::: ai n / /
auf der Basis B überein. Nach dem Prinzip der linearen 0 1
i
Beweis Die Abbildung ˚.v/ ist linear: Sind '; 2 V einfache Aufgaben mit wenigen Rechenschritten
und 2 K, so gilt: mittelschwere Aufgaben, die etwas Denkarbeit und
unter Umständen die Kombination verschiedener
˚.v/. ' C / D . ' C /.v/ D '.v/ C .v/ Konzepte erfordern
D ˚.v/.'/ C ˚.v/. / : anspruchsvolle Aufgaben, die fortgeschrittene Kon-
zepte (unter Umständen auch aus späteren Kapiteln)
Die Abbildung ˚ ist linear: Sind v; w 2 V und 2 K, so
oder eigene mathematische Modellbildung benötigen
gilt für alle ' 2 V :
˚. v C w/.'/ D '. v C w/ D '.v/ C '.v/
D ˚.v/.'/ C ˚.w/.'/ : Verständnisfragen
Die Abbildung ˚ ist injektiv: Es sei ˚.v/ D 0 für ein v 2
V . Dann gilt '.v/ D 0 für alle ' 2 V . Angenommen 6.1 Für welche u 2 R2 ist die Abbildung
6 v ¤ 0. Aufgrund des Basisergänzungssatzes können wir 2
die linear unabhängige Menge fvg zu einer Basis B von V R ! R2 ;
'W
ergänzen. Mit der Linearform v 2 B gilt dann v .v/ D 1 v 7! v C u
– ein Widerspruch. Somit muss v D 0 gelten. Mit dem
linear?
Injektivitätskriterium folgt hieraus die Injektivität von ˚.
Gilt darüber hinaus dim V D n 2 N0 , so erhalten wir
lineare Abbildung ' W R ! R mit
2 2
6.2 Gibt eseine
mit obigem Satz 2 2
(a) ' D ;
dim V D dim V D dim V : 3 2
2 1
Somit ist die injektive Abbildung ˚ auch surjektiv. ' D ;
0 1
i Im Fall dim V D 1 ist die im Satz zum Bidualraum an- 6 4
' D bzw.
gegebene injektive Abbildung ˚ nicht surjektiv, beachte 3 3
das folgende Beispiel. 1 2
(b) ' D ;
3 1
Beispiel Ist B eine Basis eines unendlichdimensionalen K-
Vektorraums V , so ist B eine linear unabhängige Teilmen- 2 1
' D ;
ge von V (beachte den Satz zur Dualbasis. Wir können die 0 1
linear unabhängige Menge B mit dem Basisergänzungs-
5 4
satz zu einer Basis von V ergänzen. Nach dem Prinzip der ' D ?
3 3
linearen Fortsetzung gibt es somit eine lineare Abbildung '
mit 6.3 Folgt aus der linearen Abhängigkeit der Zeilen
einer reellen 11 11-Matrix A die lineare Abhängigkeit
'.b / D 1 für alle b 2 B : . /
der Spalten von A?
Somit gilt ' 2 V . Angenommen, ' 2 ˚.V /. Dann exis-
tiert ein v 2 V , 6.4
X (a) Ist das Inverse einer invertierbaren symmetrischen Ma-
vD b b ; trix wieder symmetrisch?
b2B (b) Folgt aus der Invertierbarkeit einer Matrix A stets die
mit nur endlich vielen b 2 K n f0g, mit ' D ˚.v/. Wegen Invertierbarkeit von A> ?
(c) Ist die Summe invertierbarer Matrizen stets invertier-
˚.v/.b / D b .v/ D b bar?
(d) Ist das Produkt invertierbarer Matrizen stets invertier-
nimmt ˚.v/ nur für endliche viele b von null verschiedene bar?
Werte an. Das ist ein Widerspruch zu . /. 9
Aufgaben Rechenaufgaben
Gelegentlich enthalten die Aufgaben mehr Angaben, als für 6.5 8 Welche der folgenden Abbildungen sind linear?
< R ! R
2 2
die Lösung erforderlich sind. Bei einigen anderen dage- ;
gen werden Daten aus dem Allgemeinwissen, aus anderen (a) '1 W v1 v2 1
: 7!
Quellen oder sinnvolle Schätzungen benötigt. v2 v1 C 2
Aufgaben
219 6
8
ˆ R2 ! R3 ; und es bezeichne dX d
W RŒX3 ! RŒX3 die Differenzia-
ˆ
< 0 1
13 v2 tion. Weiter sei E D .1; X; X 2 ; X 3 / die Standardbasis von
(b) '2 W v1
ˆ 7! @ 11 v1 A RŒX3 .
:̂ v2 d
4 v2 2 v1 (a) Bestimmen Sie die Darstellungsmatrix E M . dX /E .
8 d
ˆ R 2
! R 3
; (b) Bestimmen Sie die Darstellungsmatrix B M . dX /B
ˆ
< 0 1
v1 von dX bezüglich der geordneten Basis B D
d
(c) '3 W v1 .X 3 ; 3 X 2 ; 6 X; 6/ von RŒX3 .
ˆ 7! @ v12 v2 A
:̂ v2
v2 v1
6.11 Gegeben sind die geordnete Standardbasis E2 D
00 1 0 1 0 11
1 1 1
6.6 Schreiben Sie die Matrix 1 0
; des R , B D
2 @ @ 1 A ; @ 1A @
; 0AA des R3
0 p 1 0 1
2 2 1 1 0 0
B p C 00 1 0 1 0 1 0 11
AD@3 1 2A 2 R 3 3 1 1 1 1
BB1C B1C B1C B0CC
1 3 2 und C D B B C B C B C B CC
@@1A ; @1A ; @0A ; @0AA des R .
4
und eine lineare Abbildung ' W R3 ! R3 , die bezüglich 6.17 Gegeben ist eine lineare Abbildung 'W R2 ! R2
der Basis A die folgende Darstellungsmatrix hat mit ' ı ' D idR2 (d. h., für alle v 2 R2 gilt '.'.v// D v/,
aber ' ¤ ˙idR2 (d. h. ' … fv 7! v; v 7! vg). Zeigen
0 1
1 18 15 Sie:
A M .'/A D
@ 1 22 15A (a) Es gibt eine Basis B D fb1 ; b2 g des R2 mit '.b1 / D b1 ,
1 25 22 '.b2 / D b2 .
(b) Ist B 0 D fa1 ; a2 g eine weitere Basis mit der in (a) ange-
(a) Bestimmen Sie die Darstellungsmatrix B M .'/B von ' gebenen Eigenschaft, so existieren ; 2 R n f0g mit
bezüglich der geordneten Basis B. a1 D b1 , a2 D b2 .
(b) Bestimmen Sie die Darstellungsmatrizen A M .'/B und
6.18 Es seien K ein Körper und n 2 N. In dem
B M .'/A .
K-Vektorrraum V D Kn seien die Unterräume U D
hu1 ; : : : ; ur i und W D hw1 ; : : : ; w t i gegeben. Weiter seien
6 6.14 Es bezeichne 4W RŒX4 ! RŒX4 den durch
m D r C t und
4.f / D f .X C 1/ f .X/ erklärten Differenzenopera-
tor. 0 1
u1 u1
(a) Zeigen Sie, dass 4 linear ist, und berechnen Sie die B : :: C
Darstellungsmatrix E M .4/E von 4 bezüglich der ka- B :: :C
B C
nonischen Basis E D .1; X; X ; X ; X / von RŒX4
2 3 4 B C
B ur ur C
ADB C 2 Km 2n
sowie die Dimensionen des Bildes und des Kerns Bw1 0 C
von 4. B : :: C
B : C
(b) Zeigen Sie, dass @ : :A
wt 0
X.X 1/ X.X 1/.X 2/
B D 1; X; ; ; (wobei die ui ; wi als Zeilen geschrieben sind). Zeigen Sie:
2 6
Bringt man A durch elementare Zeilenumformungen auf
X.X 1/.X 2/.X 3/ die Form
24 0 1
v1 ?
eine geordnete Basis von RŒX4 ist, und berechnen Sie B: :: C
B :: : C
die Darstellungsmatrix B M .4/B von 4 bezüglich B. B C
Bv ? C
(c) Angenommen, Sie sollten auch noch die Darstellungs- 0 B l C
A DB
y1 C
;
matrizen der Endomorphismen 42 , 43 , 44 , 45 berech- B0 C
B: C
nen – es bedeutet hierbei 4k D „
4 ı ƒ‚
ı4 B: :: C
… – Ihnen sei @: : A
k-mal 0 y ml
dafür aber die Wahl der Basis von RŒX4 freigestellt.
Welche Basis würden Sie nehmen? Begründen Sie Ihre wobei v ; : : : ; v paarweise verschieden und linear unab-
1 l
Wahl. hängig sind, so ist fv ; : : : ; v g eine Basis von U C W
1 l
und hy 1 ; : : : ; y ml i D U \ W . Zeigen Sie weiter: Ist
dim.U / D r und dim.W / D t, so ist fy 1 ; : : : ; y ml g ei-
Beweisaufgaben ne Basis von U \ W .
6.15 Es seien K ein Körper, V ein endlichdimensio- 6.19 Bestimmen Sie eine Basis von U \ W . Dabei
naler K-Vektorraum, '1 ; '2 2 EndK .V / mit '1 C'2 D idV . seien die beiden Untervektorräume
Zeigen Sie:
U D h.0; 1; 0; 1/> ; .1; 0; 1; 2/>; .1; 2; 0; 1/> i
(a) dim.Bild '1 / C dim.Bild '2 / dim.V /.
(b) Falls „D“ in (a) gilt, so ist W D h.1; 0; 1; 0/> ; .1; 0; 1; 1/> ; .2; 0; 1; 0/> i
vAntwort 6.16
v Antwort 6.7 Weil sonst das Produkt nicht definiert ist.
Im endlichdimensionalen Fall schon, als Maß scheint die
Dimension zu dienen. Dass dem tatsächlich so ist, wird vAntwort 6.17 ! !
die Dimensionsformel zeigen. 1 0 0 0
Nein, wir wählen A D ,B D und C D
0 0 1 0
!
v Antwort 6.8 0 0
Die erste Abbildung ist injektiv. Die zweite Abbildung . Hiermit gilt
1 1
ist im Fall V D f0g injektiv, im Fall V ¤ f0g ist sie
nicht injektiv. Die dritte Abbildung ist nicht injektiv. Die A C D 0 D B C und A ¤ B :
vierte Abbildung ist im Fall rg A D n injektiv, im Fall
rg A ¤ n ist sie nicht injektiv. Die fünfte Abbildung ist vAntwort 6.18
nicht injektiv. Man betrachte jeweils den Kern der linea- Ja, das folgt aus der eben bewiesenen Regel zum Transpo-
ren Abbildung. nieren.
222 Kapitel 6 Lineare Abbildungen und Matrizen – Brücken zwischen Vektorräumen
Determinanten – Kenngrößen
von Matrizen
Inhaltsverzeichnis
Aufgaben – 245
n Sie finden unter anderem Antworten zu . . . Beispiel vor Augen zu haben, kann man sich für R den Ring
4 Wie lautet die Leibniz’sche Formel? Z der ganzen Zahlen oder auch einen der vertrauten Körper
4 Wie kann man entscheiden, ob eine Matrix invertier- R oder C vorstellen. Wesentlich wird später das Beispiel
bar ist? R D KŒX aus Kapitel 3 sein – der (kommutative) Poly-
4 Was ist eine Multilinearform? nomring über einem Körper K.
Wir untersuchen quadratische Matrizen über einem Körper Die Mächtigkeit der symmetrischen Gruppe
K genauer und ordnen jeder solchen quadratischen Matrix Die symmetrische Gruppe hat n Š Elemente, d. h.,
A 2 K n n
ein Element aus K zu – ihre sogenannte De-
terminante det A. Diese Kenngröße det A gibt Aufschluss jSn j D n Š
über Eigenschaften der Matrix A. So ist etwa A genau dann
invertierbar, wenn det A ¤ 0 gilt.
Weil es für spätere Zwecke sinnvoll ist, führen wir De- Beispiel
terminaten nicht nur für Matrizen über einem Körper K 4 Die Elemente aus S2 sind
ein. Wir behandeln etwas allgemeiner Matrizen über einem
kommutativen Ring R mit einem Einselement 1. Der Fall, id D 1 W .1; 2/ !7 .1; 2/ ; 2 W .1; 2/ 7! .2; 1/ :
dass R sogar ein Körper ist, ist ein Spezialfall, da jeder Kör-
per insbesondere ein kommutativer Ring ist. Es gilt:
In diesem Kapitel bezeichne R stets einen kommuta-
tiven Ring mit einem Einselement 1. Um ein konkretes 2 ı 2 W .1; 2/ 7! .1; 2/ ; also 2 ı 2 D id :
7.1 Die Definition der Determinante
225 7
4 Die Elemente aus S3 lauten bestimmen. Es gilt nämlich:
Damit erhalten wir: nennt man Transposition. Wir zählen die Fehlstände einer
solchen Transposition:
4 ı 5 W .1; 2; 3/ 7! .2; 3; 1/ ; also 4 ı 5 D 2 : 4 Es ist .j; i/ ein Fehlstand.
4 Jedes Paar .j; a/ mit i C1 a j 1 ist ein Fehlstand.
Man beachte die Reihenfolge. Wir berechnen als weite- 4 Jedes Paar .a; i/ mit i C1 a j 1 ist ein Fehlstand.
res Beispiel
Weitere Fehlstände gibt es nicht. Damit haben wir genau
2 ı 3 W .1; 2; 3/ 7! .1; 2; 3/ ; also 2 ı 3 D 1 :
2 .j i 1/C1 Fehlstände. Folglich hat jede Transposition
4 Die Menge S4 enthält bereits 4 Š D 24 Elemente. 9 das Signum 1 – eine solche hat nämlich eine ungerade
Anzahl von Fehlständen.
In 7 Kap. 2 haben wir jeder Permutation 2 Sn das soge- Die geraden Permutationen sind jene mit positivem Si-
nannte Signum zugeordnet, gnum, wir schreiben
Y .j / .i / An D f 2 Sn j sgn. / D C1g
sgn D ;
i <j
j i und nennen die Gruppe An die alternierende Gruppe vom
Grad n.
und bereits gezeigt, dass die Abbildung
?Selbstfrage 7.2
sgnW Sn ! f1; 1g Wieso ist An eine Gruppe?
ein Homomorphismus ist, d. h., Die ungeraden Permutationen sind jene Permutationen mit
sgn. ı / D sgn. / sgn. / für alle ; 2 Sn : negativem Signum, es gilt
Sn D An [ ı An
? Selbstfrage 7.1
Warum gilt für jede ungerade Permutation .
sgn. 1 / D sgn./
Die Determinante einer Matrix A ist
für jedes 2 Sn ?
eine Differenz von Summen von Produkten
Beispiel Wir bestimmen das Signum einiger Elemente aus von Einträgen von A
S2 und S3 :
21
W .1; 2/ 7! .1; 2/ ) sgn D D 1; Wir definieren die Determinante einer Matrix A D .aij / 2
21 Rn n durch die sogenannte Leibniz’sche Formel:
12
W .1; 2/ 7! .2; 1/ ) sgn D D 1;
21
312123
W .1; 2; 3/ 7! .1; 3; 2/ ) sgn D Definition der Determinante
213132 Für jede quadratische Matrix A 2 Rn n
mit Einträgen aus
D 1; einem kommutativen Ring R heißt
321213
W .1; 2; 3/ 7! .2; 3; 1/ ) sgn D X Y
n
213132 det.A/ D sgn./ ai .i/
D 1: 9 2Sn iD1
Wie in 7 Kap. 2 gezeigt, kann man das Signum einer Per- die Determinante von A.
mutation 2 Sn durch die Anzahl f der Fehlstände
226 Kapitel 7 Determinanten – Kenngrößen von Matrizen
Anstelle von det.A/ schreibt man auch etwas kürzer det A sgn.1 / D 1, sgn.2 / D 1, sgn.3 / D 1, sgn.4 / D 1,
oder jAj. sgn.5 / D 1, sgn.6 / D 1 für jede Matrix A D
Die Formel wirkt sehr kompliziert. Daher ist es ange- .aij / 2 R3 3 gilt:
bracht, auf die einzelnen Symbole und Details einzugehen:
4 Ist 2 Sn , so ist .i / 2 f1 : : : ; ng, und ai .i / ist der X Y
n
det.aij / D sgn ai .i /
Eintrag an der Stelle .i; .i// der Matrix A.
2S3 i D1
4 QIst 2 Sn , so wird bei den Faktoren des Produkts
n D a11 a22 a33 C a12 a23 a31 C a13 a21 a32
i D1 ai .i / aus jeder Zeile der Matrix A genau ein Ele-
ment ausgewählt. .a13 a22 a31 C a23 a32 a11 C a33 a12 a21 /: 9
4 Die Summe wird über alle möglichen Permutationen
Kommentar Bereits bei n D 4 besteht die Formel aus
der Menge In D f1; : : : ; ng gebildet.
4 Wegen jSn j D n Š besteht die Summe det.A/ aus n Š 4 Š D 24 Summanden, und jeder Summand enthält vier
Summanden. Faktoren. Wegen des hohen Rechenaufwands eignet sich
4 Bildet man die Summen über die geraden und ungera- diese Formel kaum für Berechnungen der Determinanten
den Permutationen getrennt, so erhält man mehrreihiger Matrizen. Selbst Computer-Algebra-Systeme
benutzen andere Methoden.
7
XY
n X Y
n
det.A/ D ai .i / Die Formel zur Berechnung der Determinante einer 2
ai .i / :
2An i D1 2-Matrix kann man sich leicht merken. Die Determinante
2Sn nAn i D1
ist die Differenz der Produkte der Diagonalen, kurz Haupt-
4 Wenn wir die n Š Permutationen aus Sn durchnumme- diagonale minus Nebendiagonale:
rieren,
a11 a12 C
a11 a12
Sn D f1 ; : : : ; nŠ g ; D
a21 a22 a21 a22
so können wir die Summenformel für die Determinante
auch wie folgt schreiben: Auch die Formel zur Berechnung der Determinante einer
3 3-Matrix kann man schematisch darstellen mit der Regel
XnŠ Y
n von Sarrus
det.A/ D sgn.k / ai k .i / C C C
kD1 i D1 a11 a12 a13 a13 a11 a12 a13 a11
Y
n Y
n a21 a22 a23 D a23 a21 a22 a23 a21
D sgn.1 / ai 1 .i / C C sgn.nŠ / ai nŠ .i / a31 a32 a33
a33 a31 a32 a33 a31
i D1 i D1
D sgn.1 /a11 .1/ an1 .n/ C i Für die Berechnung von 4- oder mehrreihigen Determi-
C C sgn.nŠ /a1nŠ .1/ annŠ .n/ : nanten gibt es keine ähnlich einfachen Merkregeln. Man
berechnet 4- oder mehrreihige Determinanten mit Metho-
Beispiel den, die wir erst noch auf den folgenden Seiten entwickeln
4 Im Fall n D 1 gilt S1 D fid g, sodass wegen werden.
sgn.id / D 1 für jede Matrix A D .a11 / 2 R1 1 gilt:
Beispiel
X Y
1 4 Für die Einheitsmatrix E2 aus Z2 2 gilt:
det.A/ D sgn. / ai .i / D 1 a11 D a11 : ˇ ˇ
ˇ1 0ˇ
2S1 i D1 det.E2 / D ˇˇ ˇ D 1 1 00 D 1:
0 1ˇ
4 Im Fall n D 2 gilt S2 D fid D 1 ; 2 g, sodass wegen !
sgn.1 / D 1 und sgn.2 / D 1 für jede Matrix A D 2 3
4 Für die Matrix 2 Z25 2 gilt:
.aij / 2 R2 2 gilt: 1 4
ˇ ˇ
X Y
1 ˇ2 3ˇ
ˇ ˇ
det.A/ D sgn. / ai .i / ˇ ˇ D 2 4 3 1 D 5 D 0:
ˇ1 4ˇ
2S2 i D1
0 1 X Y
n
2 3 4 det.A > / D sgn. / a .i / i :
4 Für die Matrix @4 6 4 A 2 R3 3
gilt: 2Sn i D1
0 0 12 Q Q
Nun beachten wir, dass niD1 a .i / i D niD1 ai 1 .i / gilt,
ˇ ˇ da a .i / i D aj 1 .j / für .i / D j , d. h., dass die Produkte
ˇ 2 3 4 ˇ
ˇ ˇ über die gleichen Faktoren gebildet werden, nur sind diese
ˇ4 6 4 ˇˇ D 2 6 12 C .3/ 4 0 C 4 .4/ 0
ˇ einmal nach den Spaltenindizes geordnet und das andere
ˇ0 0 12ˇ .4 6 0 C 4 0 2 Mal nach den Zeilenindizes. Aus obiger Gleichung erhalten
C 12 .3/ .4// D 0 : 9 wir
X Y
n X Y
n
.iv/ X
n X Y
n Y
n
0 1
D sgn. / ai ki bkj .j / 0 1 1 0
k1 ;:::;kn D1 2Sn i D1 j D1 B1 2 0 1C
M DB C
@1 0 2 1A 2 R
4 4
.v/ X
n Y
n X Y
n
D ai ki sgn. / bkj .j / 0 1 1 0
k1 ;:::;kn D1 i D1 2Sn j D1
.vi/ X
n Y
n
gilt M 3 D 0, also folgt det M D 0. 9
D ai ki det..bkj l /j;lD1;:::;n /
k1 ;:::;kn D1 i D1 Ist die Matrix A 2 Rn n
invertierbar, so folgt aus
.vii/ XY
n
D ai .i / det..b .j / l /j;lD1;:::;n / A A 1 D En
2Sn i D1
.viii/ X Y
n
mit dem Determinantenmultiplikationssatz durch Anwen-
D sgn. / ai .i / det.B/
den der Determinante:
2Sn i D1
.ix/
D det.A/ det.B/ : det.A/ det.A 1 / D det.En / D 1 :
230 Kapitel 7 Determinanten – Kenngrößen von Matrizen
det B?
D det.S /1 det.S / det.B M .'/B /
D det.B M .'/B / :
7.2 Determinanten von Endomorphismen
Also ist die Determinante eines Endomorphismus tatsäch-
lich unabhängig von der gewählten Basis bei der Darstel-
7 Wir haben Determinanten für quadratische Matrizen defi-
lungsmatrix.
niert. Man kann aber auch einem Endomorphismus eine
Determinante zuordnen.
Beispiel Die Spiegelung
8
< R ! R
2 2
Die Determinante eines Endomorphismus
ist die Determinante einer und damit jeder W v1 v2
: 7!
v2 v1
Darstellungsmatrix des Endomorphismus
an der Geraden R .e 1 C e 1 / hat bezüglich der geord-
Eine lineare Abbildung eines K-Vektorraums V in sich
neten kanonischen
Basis .e 1 ; e 2 / die Darstellungsmatrix
nennt man auch Endomorphismus. Den Endomorphismen 0 1
. Wegen
endlichdimensionaler K-Vektorräume kann man Determi- 1 0
nanten zuordnen.
0 1
det D 1
1 0
Die Determinante eines Endomorphismus
Ist ' W V ! V ein Endomorphismus eines n-dimensiona- gilt somit det. / D 1. 9
len K-Vektorraums mit der Darstellungsmatrix B M .'/B
von ' bezüglich einer geordneten Basis B von V , so nennt Der Determinantenmultiplikationssatz für Endomorphis-
man men lautet:
zur Bestimmung von Determinanten von 1 1-Matrizen re- det A D .1/iCj aij det A ij :
j D1
duziert haben.
Beim tatsächlichen Berechnen von Determinanten wer- 4 Entwicklung nach der j -ten Spalte
den wir uns aber gewisser Tricks bedienen, die die Vielzahl
X n
der bei diesen Schritten entstehenden Matrizen begrenzt. det A D .1/iCj aij det A ij :
Im Allgemeinen wird man auch nicht bis zur kleinsten Ein- iD1
heit, also bis zu 1 1-Matrizen, reduzieren. Vielfach sind
schon Determinanten von 3 3-Matrizen einfach abzulesen,
sodass das Verfahren zur Bestimmung der Determinante Bevor wir uns an den Beweis dieser Aussagen machen, er-
übersichtlich bleibt. läutern wir diese Entwicklung, wobei wir beachten, dass
die Vorzeichen .1/i Cj schachbrettartig über der Matrix A
verteilt sind:
Bei der Berechnung der Determinante C C
kann man nach einer beliebigen Spalte C C
oder Zeile entwickeln C C
C C
:: :: :: :: ::
Für jede quadratische Matrix A 2 Rn n und i; j 2 : : : : :
f1; : : : ; ng bezeichne A ij 2 R.n1/ .n1/ diejenige Matrix,
die aus A durch Entfernen der i-ten Zeile und j -ten Spalte Wir entwickeln die Determinante der Matrix
0 1
entsteht. a11 a12 a1n
Ba21 a22 a2n C
B C
a1j A D B :: :: :: C 2 Rn n
:: @ : : : A
:
AD ; A D
a n1 a n2 a nn
ai1 aij ai n ij
:: nach der ersten Spalte:
:
anj X
n
det A D .1/i C1 ai1 det.A i1 /
Beispiel Wir streichen aus der Matrix i D1
D a11 det.A 11 / a21 det.A 21 /
0 1
1 2 3 4 C a31 det.A 31 / C
B5 6 7 8C
ADB
@4
C Die in der Summe auftauchenden ai1 sind die Komponen-
3 2 1A
ten der ersten Spalte.
8 7 6 5
Offenbar ist es besonders geschickt, wenn man nach
einer Zeile oder Spalte entwickelt, in der möglichst viele
die zweite Zeile und dritte Spalte bzw. die dritte Zeile und Nullen stehen. Eine Matrix der Gestalt
zweite Spalte und erhalten 0 1
4 2 3 4
0 1 0 1 B5 6 1 4C
1 2 4 1 3 4 ADB @
C 2 R4 4
A
@ A
A 23 D 4 3 1 bzw. A 32 D 5 7 8 : 9 @ A 0 0 2 0
8 7 5 8 6 5 2 2 3 6
232 Kapitel 7 Determinanten – Kenngrößen von Matrizen
wird man nach der dritten Zeile entwickeln wollen: Durch Zählen der Fehlstände erhalten wir
ˇ ˇ
ˇ4 2 3 4ˇ
ˇ ˇ sgn.1 / D .1/ni und sgn.2 / D .1/nj :
ˇ5 6 1 4ˇˇ
ˇ
det A D ˇ
ˇ0 0 2 0ˇˇ Wir setzen
ˇ2 2 3 6ˇ
bkl D a1 .k/ 2 .l/
D .1/3C1 0 det.A 31 /
und erhalten wegen der obigen Wahl von i (die i-te Zeile
C .1/3C2 0 det.A 32 /
wird übersprungen) und von j (die j -te Spalte wird über-
C .1/3C3 2 det.A 33 / sprungen) die Matrix
C .1/3C4 0 det.A 34 /
ˇ ˇ A ij D .bkl /k;lD1;:::;n1 :
ˇ4 2 4ˇˇ
ˇ
D .1/3C3 2 ˇˇ 5 6 4ˇˇ Für jede Permutation 2 Sn gilt:
ˇ2 2 6ˇ
.i / D j , 21 ı ı 1 .n/ D n
7 Also gilt: , 21 ı ı 1 jf1;:::;n1g 2 Sn1 :
ˇ ˇ
ˇ4 2 3 4ˇ ˇ ˇ
ˇ ˇ ˇ4 2 4ˇ Also gilt:
ˇ5 6 1 4ˇˇ ˇ ˇ
ˇ ˇ5 6 4ˇˇ
ˇ D .1/ 2
3C3
ˇ0 0 2 0 ˇ X Y
n
ˇ ˇ ˇ2 2 6ˇ
ˇ2 2 3 6ˇ sgn. / ak .k/
2Sn kD1
.i /Dj k¤i
Nun zum Beweis der Aussage, dass diese Entwicklung nach
beliebigen Zeilen und Spalten funktioniert. X Y
n
D sgn.2 ı ı 11 / ak 2 . .11 .k/// :
> 2Sn1
Beweis Wegen det.A / D det.A/ reicht es aus, die Aus-
kD1
k¤i
X Y
n D .1/ nj
.1/ ni
det.A ij / D .1/i Cj det.A ij / :
det.A/ D sgn. / ak .k/
Damit ist die Gleichheit in . / gezeigt und die Behauptung
2Sn kD1
bewiesen.
X n X Y
n
D sgn. / ak .k/ aij :
j D1 2Sn kD1
Diese Entwicklung der Determinante nach einer Zeile oder
.i /Dj k¤i Spalte ist das wesentliche Hilfsmittel zur Berechnung der
Wir zeigen nun für jedes j 2 f1; : : : ; ng die Gleichheit Determinante. Hat man eine Matrix mit mehr als drei Zei-
len und Spalten, so suche man nach der Zeile oder Spalte,
X Yn
sgn. / ak .k/ D .1/i Cj
det.A ij / : ( ) in der die meisten Nullen auftauchen und entwickle nach
2Sn kD1
dieser. Sind keine oder nur wenige Nullen in der Matrix
.i /Dj k¤i vorhanden, so ist es oftmals sinnvoll, durch geschickte Zei-
Damit ist dann der Entwicklungssatz von Laplace bewie- lenumformungen weitere Nullen zu erzeugen. Wie dies
sen. funktioniert, zeigen wir nach den folgenden Beispielen.
Für ein j 2 f1; : : : ; ng und den Zeilenindex i 2
f1; : : : ; ng betrachten wir zwei ganz bestimmte Permutatio- Beispiel
nen 1 und 2 aus der symmetrischen Gruppe Sn : 4 Für die Determinante der Matrix
0 1
1 W . : : : ; i 1; i; i C 1; : : : ; n 1; n / 7! 1 0 2 0
. : : : ; i 1; i C 1; i C 2; : : : ; n; i /; B 1 0 3 0C
ADB @1 2 3 4A
C
2 W . : : : ; j 1; j; j C 1; : : : ; n 1; n / 7!
. : : : ; j 1; j C 1; j C 2; : : : ; n; j /: 2 0 5 1
7.3 Berechnung der Determinante
233 7
erhalten wir nach Entwickeln nach der zweiten Spalte
ˇ ˇ Die Determinante einer Dreiecksmatrix
ˇ 1 0 2 0ˇ ˇ ˇ
ˇ ˇ ˇ1 2 0ˇ
ˇ 1 0 3 0ˇ ˇ ˇ 0 1
det A D ˇˇ ˇ D .1/3C2 2 ˇ1 3 0ˇ
ˇ ˇ ˇ
a11 :::
ˇ 1 2 3 4 ˇ ˇ2 5 1ˇ B :: :: C
ˇ 2 0 5 1ˇ B : C
C Y
n
B 0 a22 :
det B CD ai i ;
B :: :: :: C
Nun entwickeln wir weiter nach der dritten Spalte und @ : : : A iD1
erhalten 0 ::: 0 ann
ˇ ˇ 0 1
ˇ 1 2 0ˇ a11 0 ::: 0
ˇ ˇ B :: C
det A D .2/ ˇˇ1 3 0ˇˇ B ::
: C
C Y
n
B a22 :
ˇ 2 5 1ˇ det B CD ai i :
ˇ ˇ B :: :: :: C
ˇ ˇ @ : : : 0 A iD1
3C3 ˇ1 2ˇ
D .2/ .1/ ˇ1 3ˇ D 2 : ::: ann
4 Die Determinante der Nullmatrix 0 ist null. Die Determinante ist das Produkt der Diagonalelemente.
4 Für die Einheitsmatrix En 2 Kn n gilt erneut:
ˇ ˇ
ˇ1 0ˇ
ˇ ˇ
ˇ: :ˇ
det En D ˇ :: : : : :: ˇ D 1 det En1 Die Eigenschaften der Determinante
ˇ ˇ
ˇ0 1ˇ ermöglichen es, ihre Berechnung
D 12 det En2 zu vereinfachen
D D 1n1 det E1
D 1: Die Berechnung der Determinante einer Matrix A D .aij /
0 1 wird dann einfacher, wenn in einer Spalte oder Zeile von
4 3 2 1 A zahlreiche Nullen stehen. Stehen etwa unterhalb von a11
B3 2 1 4C
4 Für die Matrix A D B C
@2 1 4 3A 2 R gilt:
4 4 nur Nullen, so ist die Determinante einer n n-Matrix
gleich dem Produkt von a11 mit der Determinante der
1 4 3 2 .n 1/ .n 1/-Matrix A 11 :
ˇ ˇ ˇ ˇ
ˇ2 1 4ˇ ˇ3 2 1ˇ ˇ ˇ
ˇ ˇ ˇ ˇ ˇa11 a12 a1n ˇ ˇ ˇ
det A D .1/1C1 4 ˇˇ1 4 3ˇˇ C .1/2C1 3 ˇˇ1 4 3ˇˇ ˇ ˇ ˇa22 a2n ˇ
ˇ0 a22 a2n ˇ ˇ ˇ
ˇ4 3 2ˇ ˇ4 3 2ˇ ˇ ˇ ˇ :: :: ˇ
ˇ :: :: ˇ D a11 ˇ : : ˇˇ
ˇ ˇ ˇ ˇ ˇ : : ˇˇ ˇ
ˇ3 2 1ˇ ˇ3 2 1ˇ ˇ ˇan2 ann ˇ
ˇ ˇ ˇ ˇ ˇ0 an2 ann ˇ
C .1/3C1 2 ˇˇ2 1 4ˇˇ C .1/4C1 1 ˇˇ2 1 4ˇˇ
ˇ4 3 2ˇ ˇ1 4 3ˇ
Bei der Lösung von linearen Gleichungssystemen haben
So bleiben also vier Determinanten von 3 3-Matrizen wir durch elementare Zeilenumformungen Nullen in einer
zu bestimmen. 0 1 Matrix erzeugt. Dabei wird natürlich die Matrix verändert.
2 3 4 Die Frage ist, ob und wenn ja, wie sich bei solchen elemen-
4 Für die Matrix A D @4 6 4 A 2 R3 3 gilt: taren Umformungen die Determinante ändert.
0 0 12
ˇ ˇ
ˇ 2 3 4 ˇ ˇ ˇ
ˇ ˇ ˇ ˇ
ˇ4 6 4 ˇ D .1/3C3 12 ˇ 2 3ˇ D 0 : 9 Die Determinante nach elementaren
ˇ ˇ ˇ4 6 ˇ
ˇ0 0 12ˇ Zeilen-/Spaltenumformungen
Für jede Matrix A 2 Rn n und 2 R gilt:
Man nennt eine Matrix A 2 R n n
eine obere Dreiecks- (a) Entsteht A 0 aus A durch Vertauschen zweier Zeilen
matrix, wenn alle Einträge aij von A unter der Hauptdia- (bzw. Spalten), so gilt det A 0 D det A.
gonalen null sind, d. h., aij D 0 für alle .i; j / mit j < i. (b) Entsteht A 0 aus A durch Addition eines Vielfachen
Analog nennt man A eine untere Dreiecksmatrix, falls al- einer Zeile (bzw. Spalte) zu einer anderen, so gilt
le Einträge oberhalb der Hauptdiagonalen null sind, d. h. det A 0 D det A.
aij D 0 für alle .i; j / mit j > i . Durch sukzessive Ent- (c) Entsteht A 0 aus A durch Multiplikation einer Zei-
wicklung der Determinante nach der ersten Spalte einer le oder Spalte mit einem Element 2 R, so gilt
oberen Dreiecksmatrix bzw. nach der ersten Zeile einer un- det A 0 D det A.
teren Dreiecksmatrix erhalten wir:
234 Kapitel 7 Determinanten – Kenngrößen von Matrizen
Beweis Wir begründen die Regeln für die Zeilenumfor- Die Addition des -Fachen der i-ten Zeile zur j -ten
mungen. Wegen det.A/ D det.A > / gelten die Regeln dann Zeile geschieht durch Multiplikation der Matrix A mit der
auch für die Spaltenumformungen. Die Aussage (a) haben Matrix N ij ./. Es gilt:
wir bereits begründet, wir zeigen diese Aussage erneut mit
anderen Methoden. A 0 D N ij ./ A :
Jede elementare Zeilenumformung an einer Matrix ent-
spricht einer Multiplikation dieser Matrix mit einer Ele- Wegen det.N ij .// D 1 folgt die Aussage (b) mit dem
mentarmatrix von links. Determinantenmultiplikationssatz.
So werden die i-te und j -te Zeile der Matrix A ver- Die Multiplikation der i-ten Zeile mit geschieht durch
tauscht, indem man A von links mit der Permutationsma- Multiplikation der Matrix A mit der Matrix D i ./. Es gilt:
trix P ij multipliziert. Es gilt:
A 0 D D i ./ A :
A 0 D P ij A :
Wegen det.P ij / D 1 folgt die Aussage (a) mit dem De- Wegen det.D i .// D folgt auch die Aussage (c) mit dem
terminantenmultiplikationssatz. Determinantenmultiplikationssatz.
7.3 Berechnung der Determinante
235 7
i Für Matrizen A 2 Rn n
und 2 R ist Damit erhalten wir nun nach Definition der Determi-
nante und dreimaligem Anwenden der dritten Regel mit
det.A/ D n det.A/; D 1:
ˇ ˇ ˇ ˇ
ˇ13 10 7ˇ ˇ13 10 7ˇ
ˇ ˇ ˇ ˇ
nachdem jede Zeile von A mit zu multiplizieren ist, det A D .1/4C1 ˇˇ10 8 2ˇˇ D ˇˇ10 8 2ˇˇ
wenn man A berechnet. ˇ 7 2 1ˇ ˇ 7 2 1ˇ
Mithilfe dieser Regeln kann man oft leicht Nullen in den Wir wenden die erste Regel an, vertauschen die erste
Zeilen und Spalten auch von großen Matrizen erzeugen. mit der dritten Spalte und beachten das Minuszeichen:
Entwickelt man dann nach den Zeilen oder Spalten, in de- ˇ ˇ
ˇ7 10 13ˇ
nen fast nur Nullen stehen, so bleibt das Verfahren zur ˇ ˇ
det A D ˇˇ2 8 10ˇˇ :
Berechnung der Determinante übersichtlich. Man darf da- ˇ1 2 7 ˇ
bei Spalten- und Zeilenumformungen abwechseln, man
muss nur aufpassen, dass man bei Vertauschungen den Vor- Nun wenden wir erneut die zweite Regel an und addie-
zeichenwechsel berücksichtigt. Es folgen Beispiele. ren zur ersten Zeile das .7/-Fache der letzten und zur
zweiten Zeile das .2/-Fache der letzten Zeile – dies
Beispiel ändert die Determinante nicht:
4 Wir betrachten die reelle Matrix ˇ ˇ ˇ ˇ
ˇ7 10 13ˇ ˇ0 4 36ˇ
ˇ ˇ ˇ ˇ
0 1 det A D ˇˇ2 8 10ˇˇ D ˇˇ0 4 4 ˇˇ
1 3 6 ˇ1 2 7 ˇ ˇ1 2 7 ˇ
A D @ 4 8 12A 2 R3 3
:
2 0 3 Also erhalten wir nun:
ˇ ˇ
ˇ ˇ
3C1 ˇ4 36ˇ
Wegen der zweiten Determinantenregel ändert sich die det A D .1/ ˇ4 4 ˇ
Determinante von A nicht, wenn wir zur zweiten Zeile
von A das .4/-Fache der ersten Zeile und zur dritten D ..4/ .4/ .36/ 4/ D 160 : 9
Zeile das 2-Fache der ersten Zeile addieren:
?Selbstfrage 7.6
ˇ ˇ ˇ ˇ
ˇ1 3 6 ˇ ˇ1 3 6 ˇ Sind die Zeilen oder Spalten einer quadratischen Matrix A
ˇ ˇ ˇ ˇ
det.A/ D ˇˇ 4 8 12ˇˇ D ˇˇ0 4 36ˇˇ über einem Körper K linear abhängig, so gilt det.A/ D 0
ˇ2 0 3 ˇ ˇ0 6 9 ˇ – wieso?
Nun entwicklen wir nach der ersten Spalte: Die Determinante einer Blockdreiecksmatrix
ˇ ˇ ist das Produkt der Determinanten
ˇ4 36ˇ
ˇ
det A D 1 ˇ ˇ D 180 : der Blöcke
6 9 ˇ
4 Nun bestimmen wir die Determinante der reellen Matrix Wir betrachten eine Blockdreiecksmatrix, d. h. eine Ma-
0 1 trix der Form
4 3 2 1
B3 2 1 4C A C
ADB C 2 R4 4
: MD 2 Rn n ;
@2 1 4 3A 0 B
1 4 3 2
wobei 0 2 R.nm/ m die Nullmatrix ist und A 2 Rm m
,
C 2 Rm .nm/ , B 2 R.nm/ .nm/ sind.
Wegen der zweiten Determinantenregel bleibt die De- Es gilt die nützliche Regel:
terminante unverändert, wenn wir zur ersten Zeile das
.4/-Fache der letzten Zeile, zur zweiten Zeile das
.3/-Fache der letzten Zeile und schließlich zur dritten Die Determinante von Blockdreiecksmatrizen
Zeile das .2/-Fache der letzten Zeile addieren: Für alle quadratischen Matrizen A 2 Rs s ; B 2 Rr r und
ˇ ˇ ˇ ˇ passenden Matrizen 0; C gilt:
ˇ4 3 2 1ˇ ˇ0 13 10 7ˇ ! !
ˇ ˇ ˇ ˇ
ˇ3 2 1 4ˇˇ ˇˇ0 10 8 2ˇˇ A C A 0
det.A/ D ˇˇ D det D det A det B D det
ˇ2 1 4 3ˇˇ ˇˇ0 7 2 1ˇˇ 0 B C B
ˇ1 4 3 2 ˇ ˇ1 4 3 2ˇ
236 Kapitel 7 Determinanten – Kenngrößen von Matrizen
Beweis Mit den Einheitsmatrizen Er und Es und den pas- Die Determinante ist eine normierte,
senden Nullmatrizen gilt alternierende Multilinearform
A C Es 0 A C
D Wir geben vorab einige Eigenschaften der Abbildung det
0 B 0 B 0 Er
an:
Wegen
Determinantenregeln
0 1
Es 0 z1
det D det.B/ und
0 B B :: C
Für A D B
@
C
: A D .s1 ; : : : ; sn / 2 R
n n
und 2 R gilt:
A C
det D det.A/ zn
0 Er
(a) Linearität in jeder Zeile und Spalte:
Ist zi D x C y, so gilt:
(man entwickle nach den ersten Spalten bzw. letzten Zeilen)
folgt die Behauptung mit dem Determinantenmultiplikati- 0 1 0 1
7 z1 z1
onssatz. B:C B:C
B:C B:C
Wegen det.M / D det.M > / gilt die Formel auch für B:C
B C
B:C
B C
untere Blockdreiecksmatrizen. det A D det B x
B C
C C det B y C
B C i-te Zeile:
B:C B:C
B:C B:C
@:A @:A
Beim Berechnen der Determinante zn zn
einer großen Matrix sollte man
Ist sj D x C y, so gilt:
systematisch vorgehen
det A D det..s1 ; : : : ; x; : : : ; sn //C
Die Determinante ist eine wichtige Kenngröße einer Ma- C det..s1 ; : : : ; y; : : : ; sn // :
trix A. Sie zu bestimmen ist nicht immer einfach. Die
Leibniz’sche Formel, durch die sie definiert ist, eignet Man sagt, die Abbildung detW Rn n ! R ist eine Mul-
sich nicht zur Berechnung von mehrreihigen Matrizen. Die tilinearform.
wesentlichen Hilfsmittel, die man zur Berechnung von De- (b) Entsteht A 0 aus A durch Vertauschen zweier Zeilen
terminanten solcher Matrizen hat, haben wir hergeleitet. (bzw. Spalten), so gilt det A 0 D det A.
Man sollte zur Berechnung von det.A/ wie folgt vorge- Man sagt, det ist alternierend.
hen: (c) det.En / D 1.
4 Hat die Matrix A linear abhängige Zeilen oder Spalten? Man sagt, det ist normiert.
Falls ja, so gilt det.A/ D 0, falls dies nicht offensicht-
lich ist:
4 Hat A eine Blockdreiecksgestalt? Falls ja, so berechne Beweis (a) Wegen det.A/ D det.A > / reicht es, die Aus-
die Determinanten der Blöcke, falls nein: sage nur für Zeilen zu zeigen. Die i-te Zeile der Matrix A
4 Gibt es eine Zeile oder Spalte mit vielen Nullen? Falls sei
ja, entwickle nach dieser Zeile oder Spalte, falls nein:
x C y D . x1 C y1 ; : : : ; xn C yn / :
4 Erzeuge durch elementare Zeilen- oder Spaltenumfor-
mungen Nullen in einer Zeile oder Spalte und beginne Wir setzen dies in die Leibniz’sche Formel ein:
von vorne. 0 :: 1
: X Y
B C n
Wir stellen in der Übersicht alle wesentlichen Regeln und det.A/ D det B@ x C y CD
A sgn. / ak .k/ :
Eigenschaften der Determinante von n n-Matrizen zu- :: 2Sn kD1
sammen. :
Wir haben die Determinante einer Matrix durch die Wegen ai .i / D x .i / C y .i / erhält man nach Ausmulti-
Leibniz’sche Formel definiert. Wir erläutern eine alter- plizieren:
native Definition der Determinante. Um diese Definition 0:1 0:1
:: :
verstehen zu können, fassen wir die Determinante für jedes B C B:C
n 2 N als eine Abbildung von Rn n nach R auf: det.A/ D det B C B C
@x A C det @y A :
:: ::
n n : :
R !R
det W
A 7! det.A/ (b) und (c) haben wir bereits bewiesen.
7.4 Anwendungen der Determinante
237 7
Wir listen alle wesentlichen Eigenschaften der Determinante 4 Eine Matrix A ist genau dann invertierbar, wenn ihre De-
auf. Viele von ihnen haben wir bereits begründet. terminante von null verschieden ist.
4 Ist die Matrix A invertierbar, so ist die Determinante der
4 Ist A eine Dreiecksmatrix oder eine Diagonalmatrix, also inversen Matrix das Inverse der Determinante:
von der Form
0 1 0 1 det.A 1 / D .det A/1 :
a11 ::: a11 0 ::: 0
B :: :: C B :: :: C 4 Ist die Koeffizientenmatrix A eines linearen Gleichungs-
B0 : : C B : : C
B a22 C B a22 C
B : C oder B : C systems .A j b/ quadratisch, so ist .A j b/ genau dann
B : :: :: C B : :: :: C
@ : : : A @ : : : 0 A eindeutig lösbar, wenn det A ¤ 0 gilt.
0 ::: 0 ann ::: ann 4 Sind zwei Zeilen oder Spalten einer Matrix linear abhän-
gig, so ist ihre Determinante 0.
so ist die Determinante von A das Produkt der Diagonal- 4 Hat die Matrix eine Nullzeile oder Nullspalte, so ist ihre
elemente Determinante 0.
4 Die Determinante einer Matrix bleibt unverändert, wenn
det A D a11 ann : man zu einer Zeile (bzw. Spalte) das Vielfache einer an-
deren Zeile (bzw. Spalte) addiert.
4 Die Determinante ändert ihr Vorzeichen beim Vertauschen
4 Die Determinante eines Produkts zweier quadratischer
zweier Zeilen oder Spalten.
Matrizen ist das Produkt der Determinanten der beiden
4 Die Determinante der Einheitsmatrix En 2 Rn n ist 1:
Matrizen: Für alle A, B 2 Rn n gilt:
det En D 1:
det.A B/ D det.A/ det.B/:
4 Für jede Matrix A 2 Rn n
und 2 R gilt:
4 Für jede Matrix A 2 Rn n
und jede natürliche Zahl k gilt:
det. A/ D det A ;
n
4 Die Determinante einer Matrix ändert sich nicht durch das 4 Für eine invertierbare Matrix S 2 Rn n
und jede Matrix
Transponieren: A 2 Rn n gilt:
Eine Matrix ist genau dann invertierbar, ist die Matrix A mit den Spalten u; v; w invertierbar. Somit
wenn ihre Determinante von null gilt rg A D 3, d. h., die angegebenen Vektoren sind linear
verschieden ist unabhängig. 9
Es gibt viele Invertierbarkeitskriterien für (quadratische) Die spezielle lineare Gruppe ist die Menge
Matrizen über einem Körper K. Wir geben eines mithilfe der Matrizen mit Determinante 1
der Determinante an.
Wir greifen die Menge GLn .K/ der invertierbaren n
n-Matrizen über einem Körper K erneut auf,
Invertierbarkeitskriterium
Für eine Matrix A 2 Kn n sind die folgenden Aussagen GLn .K/ D fA 2 Kn n
j A ist invertierbar g :
gleichwertig:
4 Die Matrix A ist invertierbar. Die Menge GLn .K/ bildet mit der Matrizenmultiplikation
4 Es gilt det A ¤ 0. eine Gruppe, die allgemeine lineare Gruppe vom Grad n.
7 Da die Determinante multiplikativ ist, ist die nach obigem
Invertierbarkeitskriterium wohldefinierte Abbildung
Beweis Man bringe A mit elementaren Zeilenumformun-
GLn .K/ ! K n f0g;
gen auf Zeilenstufenform Z D .zij /. Wegen des Satzes zur det W
A 7! det.A/
Determinante nach elementaren Zeilen- oder Spaltenumfor-
mungen gilt dann det.A/ D a det.Z / für ein a 2 K n f0g. ein Gruppenhomomorphismus. Den Kern dieses Homo-
Es folgt: morphismus bezeichnen wir mit
det.A/ ¤ 0 , det.Z / D z11 znn ¤ 0 SLn .K/ D ker.det/ D fA 2 GLn .K/ j det.A/ D 1g :
, z11 ; : : : ; znn ¤ 0
, rg A D rg Z D n Es ist SLn .K/ als Kern eines Homomorphismus eine Un-
tergruppe von Gln .K/ – man nennt sie die spezielle lineare
, A ist invertierbar Gruppe vom Grad n.
Zur letzten Äquivalenz siehe das Kriterium zur Invertier- Die Abbildung det ist surjektiv, da für jedes 2 K n f0g
barkeit in 7 Abschn. 6.6. die Matrix
0 1
0 0
Kommentar Die Aussage des Satzes gilt in einer entspre- B 0 1 0C
B C
chenden Formulierung auch für einen kommutativen Ring B :: :: :C
R mit 1. Aber der Beweis ist dann anders zu führen, da @: : :: A
obenstehender Beweis bei der Erzeugung der Zeilenstu- 0 0 1
fenform durch elementare Zeilenumformungen wesentlich
benutzt, dass jedes von null verschiedene Element aus K in- ein Element aus GLn .K/ ist und die Determinante hat.
vertierbar ist. Die allgemeinere Aussage werden wir später Nach dem Homomorphiesatz für Gruppen gilt damit:
mithilfe der Adjunkten zeigen. GLn .K/= SLn .K/ Š K n f0g :
? Selbstfrage 7.7 Kommentar Die linearen Gruppen GLn .K/ (später kom-
Wenn A B mit A; B 2 Kn n invertierbar ist, müssen dann men noch weitere hinzu) beschreiben Symmetrien. Die
auch A und B invertierbar sein? SLn .K/ enthält z. B. die volumen- und orientierungstreuen
linearen Abbildungen (7 Kap. 5).
Beispiel Wir prüfen, ob die drei Vektoren
0 1 0 1 0 1
2 1 0
@ A @ A Beispiel Für jedes ˛ 2 Œ0; 2 Œ ist
uD 2 ;v D 3 @
; w D 5A 2 R3
4 6 2 0 1
cos ˛ sin ˛ 0
cos ˛ sin ˛
bzw. @ sin ˛ cos ˛ 0A
linear abhängig sind. Wegen sin ˛ cos ˛
0 0 1
0 1 0 1
2 1 0 2 1 0
det @2 3 5A D det @0 2 5A ein Element von SL2 .R/ bzw. SL3 .R/. Die Matrix be-
4 6 2 0 4 2 schreibt jeweils eine Drehung um den Winkel ˛. Im R2
wird um den Nullpunkt gedreht, im R3 um die x3 -Achse
D 2 .2 2 5 4/ ¤ 0 (. Abb. 7.1). 9
7.4 Anwendungen der Determinante
239 7
x3 und zeigen
1 ; falls i D j;
cij D det.A/ ıij mit ıij D
0 ; sonst.
˛ x0
Es gilt dann A ad.A/ D det.A/ En .
x Für jedes i 2 f1; : : : ; ng ist ci i das Produkt der i-ten
Zeile von A mit der i-ten Spalte von ad.A/:
o ˛ 0 1
˛ .1/1Ci det.A i1 /
B :: C
x2 ci i D .ai1 ; : : : ; ai n / @ : A
nCi
x1 .1/ det.A i n /
X
n
. Abb. 7.1 Drehung um die x3 -Achse D ai k .1/kCi det.A i k / :
kD1
Mit der Determinante lässt sich das Inverse Nach dem Entwicklungssatz von Laplace (Entwicklung
einer Matrix bestimmen nach i-ter Zeile) gilt daher für jedes i 2 f1; : : : ; ng:
ci i D det.A/ :
Ist A 2 Rn n eine invertierbare Matrix, so lässt sich A 1
anhand der folgenden Formel ermitteln. Dabei bezeichne Und für i ¤ j gilt analog:
Aj i die Matrix, die aus A durch Streichen der j -ten Zeile
Xn
und i-ten Spalte hervorgeht. cij D ai k .1/kCj det.Aj k / D det.A 0 / ;
kD1
Die adjunkte Matrix wobei A 0 2 Rn n aus A durch Ersetzen der j -ten Zeile
Für jede quadratische Matrix A D .aij /i;j 2 Rn n
nennt durch die i-te Zeile entsteht. Da die Determinante einer Ma-
man die n n-Matrix trix mit gleichen Zeilen null ist, erhalten wir det.A 0 / D 0,
also cij D 0 für i ¤ j . Damit ist gezeigt:
ad.A/ D .aij /i;j mit aij D .1/iCj det.Aj i /
A ad.A/ D det.A/ En :
die adjunkte Matrix zu A. Es gilt:
Die Formel ad.A/ A D det.A/ En erhält man analog durch
Entwicklung nach der i-ten Spalte.
A ad.A/ D ad.A/ A D det.A/ En :
Ist schließlich A 2 Rn n invertierbar, so ist auch
det.A/ 2 R invertierbar. Wir multiplizieren die bewiese-
Falls A invertierbar ist, so gilt:
ne Gleichung ad.A/ A D det.A/ En mit .det.A//1 durch
1 und erhalten
A 1 D ad.A/ :
det A 1
ad.A/ A D En :
det A
Die Elemente auf der Hauptdiagonalen werden vertauscht, Folgerung Für eine Matrix A 2 Rn n
sind die folgenden
die anderen Elemente werden mit einem Minuszeichen ver- Aussagen gleichwertig:
sehen, und es wird durch die Determinante geteilt. 4 Die Matrix A ist invertierbar.
Bei einer 3 3-Matrix ist das Invertieren mit der adjunk- 4 Die Determinante det A 2 R ist invertierbar in R.
ten Matrix deutlich komplizierter, wir zeigen dies an einem
Beispiel. Man vergleiche dieses Resultat mit dem Invertierbarkeits-
kriterium für eine Matrix A über einem Körper K.
Beispiel Wir berechnen ad.A/ und damit A 1 für
0 1 Kommentar In der Zahlentheorie und ihren Anwendungen
1 2 1 in der Kryptologie und Codierungstheorie wird dieses Er-
A D @2 1 4A 2 R3 3
: gebnis wie auch die im Folgenden behandelte Cramer’sche
1 3 2 Regel mehrfach benutzt. Wir können hier die Ergebnisse
leider nur etwas unmotiviert darstellen und müssen darauf
Wir ermitteln die Komponenten aij der Adjunkten von A: hoffen, dass ein Leser an unsere Ausführungen hier zu-
rückdenkt und auf diesen Seiten nachblättert, sobald in der
7 a11 D .1/1C1 det A 11 D det
1 4
D 10 ;
Zahlentheorie, Kryptologie oder Codierungstheorie darauf
3 2 verwiesen wird, dass man diese Dinge ja im ersten Semes-
ter in der linearen Algebra gelernt habe.
2 4
a21 D .1/2C1 det A 12 D det D 8;
1 2
2 1 Die Cramer’sche Regel liefert die eindeutig
a31 D .1/3C1 det A 13 D det D 7 ;
1 3 bestimmte Lösung eines linearen
2 1 Gleichungssystems komponentenweise
a12 D .1/1C2 det A 21 D det D 1 ;
3 2
1 1 Eine weitere Anwendung der Determinante betrifft das Lö-
a22 D .1/2C2 det A 22 D det D 1;
1 2 sen von linearen Gleichungssystemen mit quadratischer
und invertierbarer Koeffizientenmatrix.
1 2
a32 D .1/3C2 det A 23 D det D 1 ;
1 3
2 1
a13 D .1/1C3 det A 31 D det D 7; Die Cramer’sche Regel
1 4
Es sei
1 1
a23 D .1/2C3 det A 32 D det D 6 ; Ax D b
2 4
1 2 ein lineares Gleichungssystem mit
a33 D .1/3C3 det A 33 D det D 5:
2 1
A D .s1 ; : : : ; sn / 2 Rn n
; b 2 Rn :
Damit erhalten wir: Falls det.A/ 2 R invertierbar in R ist, so hat das System
0 1 A x D b genau eine Lösung v D .vi /.
10 1 7
Man erhält die Komponenten vi der Lösung v durch
ad.A/ D @ 8 1 6A
7 1 5 1
vi D det.A i / für i D 1; : : : ; n ;
det A
und wegen det.A/ D 1 folgt: wobei
0 1
10 1 7 A i D .s1 ; : : : ; si1 ; b; siC1 ; : : : ; sn / 2 Rn n
:
ad.A/
A 1 D D @8 1 6 A 9
det A 7 1 5 Die Matrix A i entsteht aus A durch Ersetzen von si
durch b.
Die Methoden aus dem 7 Abschn. 6.6 zum Invertieren
von Matrizen führen im Allgemeinen deutlich schneller
zum Ziel als die hier vorgestellte Methode mit der adjunk- Beweis Wie eben gezeigt, ist det.A/ genau dann inver-
ten Matrix. Aber der Satz zur adjunkten Matrix hat eine tierbar, wenn die Matrix A invertierbar ist, d. h., wenn
wichtige theoretische Bedeutung, mit ihm folgt nun ein A 1 2 Rn n existiert. Es ist dann v D A 1 b die eindeutig
allgemeines Invertierbarkeitskriterium für Matrizen über bestimmte Lösung des linearen Gleichungssystems. Damit
einem kommutativen Ring R mit 1. ist der erste Teil bereits gezeigt.
7.4 Anwendungen der Determinante
241 7
Nun sei det A in R invertierbar, und es sei v D Zu n C 1 verschiedenen Stützstellen
.v1 ; : : : ; vn / die eindeutig bestimmte P Lösung des Systems existiert genau ein Polynom vom Grad
A x D b. Dann gilt b D A v D jnD1 vj sj , sodass wegen kleiner gleich n, das die vorgegebenen
der Multilinearität der Determinante
Stellen interpoliert
Xn
det.A i / D det..s1 ; : : : ; si 1 ; vj sj ; si C1 ; : : : ; sn //
j D1 Bei einer Polynominterpolationsaufgabe wird zu gegebe-
X
n nen Stützstellen
D vj det..s1 ; : : : ; si 1 ; sj ; si C1 ; : : : ; sn // :
j D1
.x0 ; y0 /; : : : ; .xn ; yn / 2 R2
Nun ist aber die Determinante einer Matrix mit gleichen mit verschiedenen x0 ; : : : ; xn 2 R ein Polynom p 2 RŒX
Spalten null, sodass in dieser letzten Summe für jedes j ¤ gesucht, sodass der Graph f.x; p.x// j x 2 Rg der Poly-
i aus f1; : : : ; ng nomfunktion p diese Stützstellen enthält, d. h., es gilt:
det..s1 ; : : : ; si 1 ; sj ; si C1 ; : : : ; sn // D 0 p.xi / D yi für alle i 2 f0; 1; : : : ; ng :
gilt und in dieser Summe somit nur der i-te Summand ver- Das Polynom p nennt man in diesem Fall ein Interpolati-
bleibt, d. h., onspolynom.
det.A i / D vi det.A/ : Wir zeigen nun, dass es zu verschiedenen x0 ; x1 ; : : : ; xn
und beliebigen y0 ; y1 ; ; : : : ; yn genau ein Interpolationspo-
Da det.A/2 R invertierbar ist, können wir diese Gleichung lynom p 2 RŒX , d. h. eines vom Grad kleiner oder gleich
n
mit dem Inversen davon multiplizieren und erhalten wie ge- n, gibt. Dabei spielt die sogenannte Vandermonde-Matrix
wünscht vi D det1A det.A i /. eine wichtige Rolle.
Will man die Cramer’sche Regel zum Lösen eines Glei-
chungssystems A x D b mit invertierbarer Matrix A Existenz und Eindeutigkeit des
anwenden, so ist die Determinante der Koeffizientenmatrix Interpolationspolynoms
A und für jede Komponente vi des Lösungsvektors v die Zu n C 1 Stützstellen .x0 ; y0 /; : : : ; .xn ; yn / mit paar-
Determinante der Matrix weise verschiedenen x0 ; : : : ; xn 2 R und beliebigen
A i D .s1 ; : : : ; si 1 ; b; si C1 ; : : : ; sn / y0 ; : : : ; yn 2 R gibt es genau ein Polynom
v2 D ˇ 2 1 1ˇˇ D .5/ D 1 : 9 RŒX 3 enthält die gegebenen Stützstellen .3; 52 /, .2; 1/, .1; 12 / und
5 ˇ2 1 2 ˇ 5
.3; 2/
242 Kapitel 7 Determinanten – Kenngrößen von Matrizen
Beweis Zu zeigen ist die Existenz und Eindeutigkeit reeller Bei diesem Schritt haben wir also die .n C 1/ .n C 1/-
Zahlen a0 ; : : : ; an mit der Eigenschaft Vandermonde-Matrix auf eine n n-Vandermonde-Matrix
zurückgeführt. Induktiv folgt nun unter Beachtung von
yi D a0 C a1 xi C C an xin für i D 0; : : : ; n : ( ) det.1/ D 1 die Formel
Es ist dann Y
n1 Y
n
det V D .xi xj /:
j D0 i Dj C1
p D a0 C a1 X C C an X 2 RŒXnn
7 geschrieben.
a0 x00 C a1 x0 C C an x0n D y0
Es ist det V ¤ 0 , xi ¤ xj für alle i ¤ j .
a0 x10 C a1 x1 C C an x1n D y1 Also existiert genau dann ein eindeutig bestimmtes Po-
a0 x20 C a1 x2 C C an x2n D y2 lynom p D a0 C a1 X C C an X n 2 RŒXn mit
:: :: :: :: p.xi / D yi für alle i, wenn die vorgegebenen Stellen
: : : :
x0 ; : : : ; xn paarweise verschieden sind, und dies wurde
a0 xn0 C a1 xn C C an xnn D yn :
vorausgesetzt.
Als Koeffizientenmatrix erhalten wir die sogenannte .n C
1/ .n C 1/-Vandermonde-Matrix Der Wert der Determinante
0 1 einer 2 2-Matrix ist der Flächeninhalt
1 x0 x02 : : : x0n
B1 x1 x12 : : : x1n C des von den Spalten aufgespannten
B C j
V D B: : :: :: C D .xi / 2 R
.nC1/ .nC1/
: Parallelogramms
@ :: :: : :A
1 xn xn2 : : : xnn
Wir deuten den Wert der Determinante einer 2 2-Matrix
Es existiert genau dann eine eindeutig bestimmte Lösung geometrisch.
v1 w1
des Gleichungssystems . /, also das eindeutig bestimmte Sind v D ;w D Vektoren des R2 mit
v2 w2
Polynom p D a0 Ca1 X C Can X n mit an ; : : : ; a1 ; a0 2
R, wenn die Determinante der Vandermonde-Matrix von v1 ; v2 ; w1 ; w2 > 0, so bilden die vier Punkte 0; v; w; v C w
Null verschieden ist. die Ecken eines Parallelogramms im ersten Quadraten des
Wir berechnen nun diese Determinante. Wir lassen die R2 (. Abb. 7.3). Wir bestimmen den Flächeninhalt F
erste Spalte unverändert und subtrahieren von der zweiten dieses Parallelogramms. Dazu ermitteln wir die zwei Flä-
Spalte das x0 -Fache der ersten Spalte, von der dritten Spalte cheninhalte F1 und F2 , wobei F1 die Fläche unterhalb des
das x0 -Fache der zweiten Spalte usw.: Streckenzugs von 0 über w zu vCw eingeschlossen mit der
x1 -Achse ist und F2 jene unterhalb des Streckenzugs von 0
ˇ ˇ über v zu v C w eingeschlossen mit der x1 -Achse ist. Es
ˇ1 0 0 ::: 0 ˇ
ˇ n1 ˇˇ gilt dann F D F1 F2 (. Abb. 7.4).
ˇ1 x1 x0 x1 x0 x1 : : : x1 x0 x1
2 n
ˇ ˇ Für F1 gilt:
det V D ˇ : :: :: :: ˇ
ˇ :: : : : ˇ
ˇ ˇ 1 1
ˇ1 2 n n1 ˇ
xn x0 xn x0 xn : : : xn x0 xn F1 D w1 w2 C v1 .v2 C 2 w2 / :
ˇ ˇ 2 2
ˇ1 0 0 ::: 0 ˇ
ˇ ˇ
ˇ1 x1 x0 .x1 x0 /x1 : : : .x1 x0 /x1n1 ˇ Für F2 erhalten wir:
ˇ ˇ
D ˇ :: :: :: :: ˇ 1 1
ˇ: : : : ˇ F2 D v1 v2 C w1 .2 v2 C w2 / :
ˇ ˇ
ˇ1 xn x0 .xn x0 /xn : : : .xn x0 /xnn1 ˇ 2 2
ˇ ˇ Damit gilt F D F1 F2 D v1 w2 w1 v2 , d. h.,
ˇ1 x1 : : : x1n1 ˇ
Y n ˇ ˇ ˇ ˇ
ˇ :: :: :: ˇ ˇ v1 w1 ˇˇ
D .xi x0 / ˇ : : : ˇ ˇ
ˇ ˇ F D ˇ det :
i D1 ˇ1 xn : : : x n1 ˇ v2 w2 ˇ
n
7.4 Anwendungen der Determinante
243 7
x2 x2
w
vCw
w x1
F
. Abb. 7.5 Die Vektoren .v; w/ sind positiv orientiert und .w; v/ negativ
v5 F
v2 w2
v1 v2
w2
w w
F1
v2
v
v F2
w1 v1 v1 w1 w1 v1 v1 w1
x1
. Abb. 7.4 Der Flächeninhalt des Parallelogramms ist gleich der Diffe-
renz der beiden Flächeninhalte F1 und F2 . Abb. 7.7 Die fünf Vektoren v1 ; : : : ; v5 bestimmen die Fläche F
244 Kapitel 7 Determinanten – Kenngrößen von Matrizen
. Abb. 7.8 Die Fläche F ist die Differenz der beiden Flächen F1 und F2 Die Determinante ermöglicht die Definition
eines n-dimensionalen Volumens
Für den Inhalt der großen Fläche F1 gilt:
Im Anschluss an die vorhin betrachteten Fälle im R2 und
2 F1 D det..v2 ; v3 // C det..v3 ; v4 //;
R3 liegt folgende Verallgemeinerung nahe: Wir betrachten
7 im Rn das n-dimensionales Parallelepiped P , welches von
und für jenen der kleinen Fläche F2 gilt:
den n Vektoren v1 ; : : : ; vn aufgespannt wird. Wir definieren
2 F2 D det..v2 ; v1 // C det..v1 ; v5 // C det..v5 ; v4 // : das n-dimensionale Volumen dieses Parallelepipeds als
Damit ist dann F D F1 F2 . voln .P / D jdet.v1 ; : : : ; vn /j :
Wir haben die Vektoren gegen den Uhrzeigersinn num-
meriert – das war nicht ganz ohne Absicht. Beachtet man Für eine lineare Abbildung ' des Rn erklären wir das Bild
nämlich nun noch die Orientierung, so erhalten wir die '.P / als dasjenige Parallelepiped, welches von den n Bild-
deutlich einfachere Formel: vektoren '.v1 /; : : : ; '.vn / aufgespannt wird.
Die lineare Abbildung ' habe die Darstellungsmatrix
2 F D det..v1 ; v2 // C det..v2 ; v3 // C det..v3 ; v4 // A D En M .'/En bezüglich der geordneten Standardbasis
C det..v4 ; v5 // C det..v5 ; v1 //: 9 En , d. h., '.vi / D A vi für alle i D 1; : : : ; n. Damit er-
halten wir für das n-dimensionale Volumen voln .'.P // des
Bildes von P aufgrund des Determinantenmultiplikations-
Der Wert der Determinante einer satzes den Wert
3 3-Matrix ist das Volumen des von den
jdet.A v1 ; : : : ; A vn /j D jdet A det.v1 ; : : : ; vn /j :
Spalten aufgespannten Parallelepipeds
Zusammenfassend gilt:
0 1 0 1 0 1
u1 v1 w1 voln .'.P // D j det A j voln .P / :
Sind u D @u2 A, v D @v2 A und w D @w2 A Vekto-
u3 v3 w3 Die Volumina sämtlicher Parallelepipede werden mit dem-
ren des reellen Vektorraums R , so bilden die acht Punkte
3 selben Faktor j det Aj multipliziert (. Abb. 7.10). Dieser
0; u; v; w; u C v; v C w; u C w; u C v C w die Ecken eines Volumenverzerrungsfaktor gilt übrigens für sämtliche Kör-
Spates oder Parallelepiped (. Abb. 7.9) mit dem Volumen perinhalte im Rn , nicht nur für Parallelepipede.
x2 x2
v F
w 1 2 x1 1 2 x1
. Abb. 7.9 Die Spaltenvektoren u, v und w einer Matrix A erzeugen . Abb. 7.10 Der Flächeninhalt des Parallelogramms wird mit dem Fak-
einen Spat, dessen Volumen der Betrag der Determinante von A ist tor j det Aj D 2 verzerrt
Aufgaben
245 7
> 1 2
durch X 7! .A X 2 X / mit A D 2 R2 2 .
mittels der Leibniz’schen Formel. 0 1
Bestimmen Sie det.'/.
7.5 Berechnen Sie die Determinanten der folgenden
reellen Matrizen:
0 1 Beweisaufgaben
0 1 2 0 0 0 2
1 2 0 0
B0 2 0 2 0C
B2 1 0 0C B C 7.11
ADB
@0
C ; B D B0
B 0 2 0 0CC
Zeigen Sie, dass für invertierbare Matrizen
0 3 4A @0 A; B 2 Kn n
2 0 2 0A gilt:
0 0 4 3
2 0 0 0 2 ad.A B/ D ad.B/ ad.A/ :
246 Kapitel 7 Determinanten – Kenngrößen von Matrizen
vAntwort 7.8
Jene mit Determinante j det 'j D 1 lassen die Volumina
unverändert. Jene mit det ' D 1 bilden übrigens die spe-
zielle lineare Gruppe SLn .K/. Lineare Abbildungen mit
det ' D 1 ändern nur das Vorzeichen der orientierten
Volumina.
247 8
Normalformen –
Diagonalisieren
und Triangulieren
Inhaltsverzeichnis
Aufgaben – 300
n Sie finden unter anderem Antworten zu . . . Mit Diagonalmatrizen wird vieles einfacher
4 Wie berechnet man auf einfache Art Potenzen von
Matrizen?
Die Multiplikation einer Diagonalmatrix D 2 Kn n
mit
4 Welche Matrizen sind diagonalisierbar?
einem Vektor v D .vi / 2 Kn ist sehr einfach:
4 Wodurch unterscheidet sich eine Jordan-Normalform
von einer Diagonalform? 0 10 1 0 1
1 0 v1 1 v1
B :: :: :: C B :: C B :: C
Lineare Abbildungen von Vektorräumen in sich sind im Dv D@ : : : A @ : A D @ : A:
Allgemeinen nicht einfach zu beschreiben. Bei endlich- 0 n vn n vn
dimensionalen Vektorräumen ist es möglich, solche Ab-
bildungen bezüglich einer gewählten Basis des Vektor- Entsprechend einfach ist die Multiplikation einer Diagonal-
raums durch Matrizen darzustellen. Zu jedem Endomor- matrix D D diag.1 ; : : : ; n / mit einer Matrix A. Die i-te
phismus eines endlichdimensionalen Vektorraums gehört Zeile des Produkts DA ist das i -Fache der i-ten Zeile zi
eine Äquivalenzklasse von zueinander ähnlichen Matrizen. von A: 0 1 0 1
Wir wollen aus jeder Äquivalenzklasse einen Repräsen- z1 1 z1
B:C B : C
tanten bestimmen, der eine möglichst einfache Form hat. A D @ :: A ) D A D @ :: A :
Als besonders einfach betrachten wir dabei eine Diago- zn n zn
nalmatrix. Leider lässt sich nicht jeder Endomorphismus
so diagonalisieren, jedoch kann oft ein Repräsentant be- Und Potenzen einer Diagonalmatrix zu bilden, bedeutet Po-
stimmt werden, der zumindest eine obere Dreiecksge- tenzen der Diagonaleinträge zu bilden, denn es gilt für jedes
stalt hat. Die Ursache dafür, ob es eine solche einfache k 2 N: 0 1 0 k 1
Form gibt oder nicht, ist im zugrunde gelegten Körper 1 0 1 0
K des Vektorraums zu suchen: Ist K algebraisch abge- B: :C B: :C
D D @ :: : : : :: A ) D k D @ :: : : : :: A
schlossen, d. h. zerfällt jedes nicht konstante Polynom über
K in Linearfaktoren, so ist die Existenz einer einfachen 0 n 0 kn
Form gesichert. Insbesondere werden Polynome (siehe 1:8 0:8
7 Abschn. 2.4) eine wesentliche Rolle im vorliegenden Ka- Für die reelle Matrix A D gilt
0:2 1:2
pitel spielen.
17 12 1 33 28
Die Vorteile von Diagonal- oder Dreiecksmatrizen lie- A 2 D 1=5 ; A3 D I
3 8 5 7 12
gen auf der Hand – die Rechnung mit solchen Matrizen ist
deutlich einfacher als mit vollen Matrizen. Und wenn man bei Diagonalmatrizen ist es viel einfacher Potenzen zu bil-
bedenkt, dass das Rechnen mit (Darstellungs-)Matrizen den.
nichts weiter ist, als das Anwenden von linearen Ab- Die Matrizenmultiplikation wird also mit Diagonalma-
bildungen, so sieht man, dass sich damit der Kreis zu trizen deutlich erleichtert. Es gibt noch einen weiteren
den Anwendungen der Mathematik schließt. Tatsächlich Anlass, bei dem man sich Diagonalmatrizen wünscht, bei
werden die erzielten Ergebnisse in zahlreichen Gebieten Darstellungsmatrizen linearer Abbildungen – letztlich ist es
der Naturwissenschaften aber auch innerhalb der Mathe- aber auch hier wieder nur die Vereinfachung der Matrizen-
matik, z. B. bei den Differenzialgleichungssystemen, be- multiplikation, die man sich dabei zum Ziel setzt.
nutzt.
Die Schlüsselrolle beim Diagonalisieren bzw. Triangu-
lieren spielen Vektoren v, die durch einen Endomorphismus Ein Endomorphismus heißt
auf skalare Vielfache v von sich selbst abgebildet werden diagonalisierbar, wenn es eine Basis gibt,
– man nennt v einen Eigenvektor und einen Eigen-
wert.
bezüglich der die Darstellungsmatrix
Wir bezeichnen in diesem Kapitel mit K einen Kör- diagonal ist
per.
Eine lineare Abbildung nennen wir auch Endomorphismus,
8.1 Diagonalisierbarkeit wenn die Bildmenge gleich der Definitionsmenge ist. Wir
betrachten nun einen Endomorphismus ' eines n-dimen-
sionalen Vektorraums V , n 2 N:
Um unser Vorgehen zu motivieren, zeigen wir, welche
Vorteile Matrizen in Diagonalgestalt gegenüber anderen V ! V;
'W
quadratischen Matrizen haben. v 7! '.v/:
250 Kapitel 8 Normalformen – Diagonalisieren und Triangulieren
Beweis Es sei ' ein Endomorphismus eines n-dimensio- Diese Gleichung besagt
nalen K-Vektorraums V . Der Endomorphismus ' ist genau
dann diagonalisierbar, wenn eine geordnete Basis B D A D S D S 1 ;
.b1 ; : : : ; bn / von V existiert mit
0 1 also gilt für jedes k 2 N:
1 0
B :: C
B M .'/B D @ : A A k D .S D S 1 /k D S 1
„ DS S DS
1 1
ƒ‚ S D S …
0 n k-mal
D S D k S 1 :
Dies ist gleichwertig mit
'.b1 / D 1 b1 ; : : : ; '.bn / D n bn : Wir erhalten in diesem Fall die k-te Potenz von A durch
Bilden der k-ten Potenz einer Diagonalmatrix und Bilden
Für eine Matrix A 2 Kn n folgt die Aussage aus dem ersten des Produkts dreier Matrizen.
Teil, indem man den Endomorphismus 'A W Kn ! Kn Diesen Trick wenden wir z. B. bei den Fibonacci-Zah-
betrachtet. len an, um eine explizite Formel für die k-te Fibonacci-Zahl
Die Aussage D D S 1 A S mit S D .b1 ; : : : ; bn / herzuleiten. Aber dazu müssen wir erst herausfinden, wie
steht bereits in der Transformationsformel für quadratische man zu einer nicht diagonalen, aber diagonalisierbaren Ma-
8 Matrizen. trix A die auf Diagonalform transformierende Matrix S
bestimmt. Dazu dienen Eigenwerte und Eigenvektoren.
Kommentar Übrigens folgt aus der Gleichung D D
S 1 A S mit einer Diagonalmatrix D D diag.1 ; : : : ; n /
und einer invertierbaren Matrix S D .b1 ; : : : ; bn / durch 8.2 Eigenwerte und Eigenvektoren
Multiplikation mit S die Gleichung S D D A S , d. h.,
.1 b1 ; : : : ; n bn / D .A b1 ; : : : ; A bn / ; Im Mittelpunkt aller bisherigen Überlegungen standen Vek-
toren v 2 V nf0g, für die '.v/ D v für ein 2 K gilt. Wir
also A b1 D 1 b1 ; : : : ; A bn D n bn . geben diesen Vektoren v wie auch den zugehörigen Körper-
elementen Namen.
Beispiel Wie in den bisherigen Beispielen bereits gezeigt,
ist die Matrix
Eigenwerte und Eigenvektoren machen
0 1
AD nur gemeinsam einen Sinn
1 0
'.v/ D v
Eine der wichtigsten Eigenschaften von Diagonalmatrizen
ist es, dass man Potenzen davon auf sehr einfache Art und gibt. Der Vektor v heißt in diesem Fall Eigenvektor
Weise bestimmen kann. Ist A 2 Kn n eine nicht notwendig von ' zum Eigenwert .
diagonale, aber diagonalisierbare Matrix, so kann man sich 4 Man nennt ein Element 2 K einen Eigenwert der
mit einem Trick behelfen, um Potenzen von A zu berech- Matrix A 2 Kn n , wenn es einen Vektor v 2 Kn n f0g
nen. mit
Da A 2 Kn n diagonalisierbar ist, existiert eine inver-
tierbare Matrix S 2 Kn n mit Av D v
0 1
1 0
B :: C gibt. Der Vektor v heißt in diesem Fall Eigenvektor
D D S 1 A S D @ : A von A zum Eigenwert .
0 n
8.2 Eigenwerte und Eigenvektoren
253 8
i Der Nullvektor 0 ist kein Eigenvektor – für keinen Eigen- dessen einzige
Lösung
wegen
2 ¤ 1 für alle 2 R
wert. Eine solche Definition wäre auch nicht sinnvoll, da v1 0
der Vektor D ist. Weil der Nullvektor aber
der Nullvektor sonst wegen v2 0
kein Eigenvektor ist, gibt es keine Eigenvektoren und
'.0/ D 0 D 0 für alle 2 K folglich keine Eigenwerte. 9
1 2 1
A D D 2
1 2 1
Der Eigenraum zu einem Eigenwert
ein Eigenvektor zum Eigenwert
! 2. besteht aus allen Eigenvektoren
0 1 plus dem Nullvektor
3. Die Matrix A D 2 Z22 2 hat wegen
1 0
! ! Zu einem Eigenwert eines Endomorphismus ' W V ! V
1 1
A D1 bzw. einer Matrix A 2 Kn n gehören im Allgemeinen viele
1 1 verschiedene Eigenvektoren. Ist nämlich v ein Eigenvektor
! zu , d. h. '.v/ D v bzw. A v D v, so gilt für jedes
1 beliebige 2 K n f0g:
den Eigenwert 1 und den Eigenvektor zum Eigen-
1
wert 1. '. v/ D '.v/ D v D . v/ :
4. Nicht jede reelle Matrix besitztEigenwerte. So gibt es
0 1 bzw.
etwa zur Matrix A D 2 R2 2 keine Eigen-
1 0
vektoren und damit auch keine Eigenwerte, denn die A . v/ D A v D v D . v/ :
Gleichung
Somit ist mit einem Eigenvektor v zu auch jedes vom
Nullvektor verschiedene Vielfache v wieder ein Eigen-
v1 v1
A D vektor zu .
v2 v2
Sind v und w Eigenvektoren zu dem Eigenwert , so
liefert das System auch deren Summe, falls nur v C w ¤ 0 gilt, da
. Abb. 8.3 Ist v ein Eigenvektor, so auch v, wenn nur ¤ 0 gilt Invertierbarkeitskriterium
Eine Matrix A 2 Kn n ist genau dann invertierbar, wenn
x2
vCw 0 2 K kein Eigenwert von A ist.
w
8 v
Beweis Die Matrix A hat genau dann den Eigenwert 0,
wenn das lineare Gleichungssystem .A j 0/ vom Nullvek-
x1
tor verschiedene Lösungen besitzt. Das ist genau dann der
'.v/ Fall, wenn A einen Rang echt kleiner als n hat. Und das
ist wiederum gleichwertig damit, dass A nicht invertierbar
'.w/ ist.
'.v C w/ D '.v/ C '.w/
Beispiel
D v C w/
4 Es ist 1 der einzige Eigenwert des Endomorphismus idV
bzw. der Einheitsmatrix En 2 Kn n , und es gilt:
. Abb. 8.4 Sind v und w Eigenvektoren, so auch deren Summe v C w
Die Eigenwerte sind die Nullstellen Die letzte Behauptung ist klar, da A als Polynom vom
des charakteristischen Polynoms Grad n über einem Körper K nicht mehr als n Nullstellen
haben kann.
Wir zeigen nun, dass 2 K genau dann ein Eigenwert einer Kommentar In anderen Büchern findet man auch die Defi-
Matrix A 2 Kn n ist, wenn det.A En / D 0 gilt: nition
A D det.X En A/ :
ist ein EW von A , A v D v; v ¤ 0
, A v v D 0; v ¤ 0 Wegen det.X En A/ D .1/n det.A X En / ist das
, .A En / v D 0; v ¤ 0 für ungerades n zwar im Allgemeinen nicht das gleiche Po-
lynom, aber die Nullstellen, also die Eigenwerte, sind die
, det.A En / D 0 :
gleichen.
Für diese letzte Äquivalenz beachte man das Invertierbar- Es folgen nun Beispiele für das Berechnen der Eigenwerte
keitskriterium im 7 Abschn. 7.3. einer Matrix A 2 Kn n . Man berechnet hierzu das charak-
Um also die Eigenwerte einer Matrix A zu bestimmen, teristische Polynom A und ermittelt dessen Nullstellen –
können wir den Ansatz dies sind die Eigenwerte von A.
det.A X En / D 0 Beispiel
4 Wir berechnen die Eigenwerte der Matrix
in der Unbestimmten X machen. Man beachte, dass die
!
Komponenten der Matrix A X En Elemente des kommu- 3 4
tativen Polynomrings KŒX sind, d. h. AD 2 Z25 2
:
1 1
A X En 2 KŒXn n
:
Es gilt:
Somit ist die Determinante ˇ ˇ
ˇ3 X 4 ˇˇ
ˇ
ˇ ˇ A D det.A X E2 / D ˇ ˇ
ˇa11 X a12 ::: a1n ˇ ˇ 1 1 Xˇ
ˇ ˇ
ˇ :: ˇ
ˇ a21 a22 X : ˇ D .3 X/.1 X/ C 1 D .2 X/2 :
ˇ
det.A X En / D ˇ ˇ
:: :: ˇ
ˇ : : ˇ
ˇ ˇ Da 2 die einzige Nullstelle des charakteristischen Poly-
ˇ a ::: ann X ˇ
n1 noms von A ist, ist 2 der einzige Eigenwert von A.
256 Kapitel 8 Normalformen – Diagonalisieren und Triangulieren
4 Wir berechnen die Eigenwerte der Matrix etwa eine obere Dreiecksmatrix, so sind wegen
0 1
1 2 2 D D .11 X/ .22 X/ .nn X/
A D @2 2 1 A 2 R3 3
:
2 1 2 gerade die Diagonalelemente von D die Eigenwerte
von D. Das gilt analog für untere Dreiecksmatrizen. 9
Zuerst bestimmen wir wieder das charakteristische Po-
lynom, indem wir nach der ersten Zeile entwickeln.
ˇ ˇ Die Summe der Hauptdiagonalelemente
ˇ1 X 2 2 ˇ
ˇ ˇ einer Matrix ist die Spur der Matrix
A D det.A X E3 / D ˇˇ 2 2 X 1 ˇˇ
ˇ 2 1 2 X ˇ
ˇ ˇ Insgesamt drei Koeffizienten des charakteristischen Poly-
ˇ2 X 1 ˇˇ
D .1 X / ˇˇ noms A lassen sich mithilfe von Größen der Matrix A
1 2 X ˇ
ˇ ˇ ˇ ˇ genau angeben, es gilt nämlich:
ˇ2 1 ˇˇ ˇ2 2 X ˇ
C .2/ ˇ ˇ C2ˇˇ ˇ
2 2 X ˇ 2 1 ˇ Lemma Für jede Matrix A D .aij / 2 Kn n
gilt:
8 D X 3 X C 9 X C 27 D .3 X/ .3 X/ :
3 2 2
Y
n X Y
n
A D det.A X E3 / D .ai i X/ C sgn. / bi .i / :
ˇ ˇ
ˇ 3 X 1 0 0 0 ˇ i D1 2Sn nfidg i D1
ˇ ˇ
ˇ 1 1 X 0 0 0 ˇ
ˇ ˇ Wir betrachten diese beiden Terme näher, dabei interessie-
D ˇˇ 3 1 2 X 1 1 ˇˇ
ˇ 2 1 0 2 X 1 ˇˇ ren uns nur die Koeffizienten vor X n und X n1 . Der erste
ˇ Term hat die Form
ˇ 1 1 0 0 2 X ˇ
ˇ ˇ
ˇ ˇ ˇ 2 X 1 1 ˇ Y
n
ˇ 3 X 1 ˇˇ ˇ .ai i X/
D ˇˇ ˇˇ 0
ˇ ˇ 2 X 1 ˇˇ
1 1 X ˇ
0 0 2 X ˇ i D1
D .1/n X n C .1/n1 .a11 C C ann /X n1
D .2 X/ : 5
C Polynome vom Grad kleinergleich n 2 :
Der einzige Eigenwert von A ist also 2.
4 Besonders einfach ist die Bestimmung der Eigenwerte Die Summanden des zweiten Terms
von Dreiecks- bzw. Diagonalmatrizen. Ist nämlich
X Y n
0 1 sgn. / bi .i /
11 ::: i D1
2Sn nfidg
B : :: C
B 0 22 : : : C
DDB :B C 2 Kn n
:: :: C haben die Form
@ :: : : A
0 : : : 0 nn ˙ b1 .1/ bn .n/ :
8.3 Berechnung der Eigenwerte und Eigenvektoren
257 8
Für ¤ id sind dies aber alles Polynome vom Grad Das charakteristische Polynom eines
kleinergleich n 2. Man beachte: nur die Faktoren bi i D Endomorphismus ist das charakteristische
ai i X liefern Beiträge zu den Graden der Summanden, Polynom einer Darstellungsmatrix
und falls bi .i / D bi i bereits .n 1/-mal in einem Sum-
manden auftaucht, so gilt bi .i / D bi i schon n-mal, d. h.,
D id, da eine Permutation ist. Es sei ' W V ! V ein Endomorphismus eines n-dimen-
Damit sind die beiden höchsten Koeffizienten des Poly- sionalen Vektorraums V mit einer geordneten Basis B D
noms A bereits bestimmt. Für den konstanten Koeffizien- .b1 ; : : : ; bn /. Unter dem charakteristischen Polynom des
ten c0 des charakteristischen Polynoms gilt: Endomorphismus ' von ' versteht man das charakteris-
tische Polynom der Darstellungsmatrix A D B M .'/B :
c0 D A .0/ D det.A 0 En / D det.A/ ;
' D A D det.A X En / :
d. h., dass der konstante Koeffizient von A die Determi-
Damit diese Definition sinnvoll ist, muss noch gezeigt wer-
nante von A ist.
den, dass die Wahl der Basis B keine Rolle spielt; anders
formuliert: Wählt man irgendwelche Basen B und C von
Für die restlichen Koeffizienten des charakteristischen Po-
V , so müssen die charakteristischen Polynome
lynoms lassen sich keine solch prägnanten Formeln ange-
ben. B M .'/B D det.B M .'/B X En / und
Die Spur einer (quadratischen) Matrix A, das ist die
Summe a11 C C ann der Hauptdiagonalelemente von C M .'/C D det.C M .'/C X En /
wa Sp A D Sp S 1 A S für jede invertierbare Matrix S , gleich sein. Da je zwei Darstellungsmatrizen A und B ein
d. h.: und desselben Endomorphismus zueinander ähnliche Dar-
stellungsmatrizen haben, d. h., da
für eine invertierbare Matrix S 2 Kn n . Wir zeigen zuerst Beweis Die zwei n n-Matrizen A und B mit Einträgen
für beliebige n n-Matrizen M ; N die Formel aus einem Körper K seien zueinander ähnlich; d. h., es gelte
B D S 1 A S für eine invertierbare Matrix S 2 Kn n . Nun
berechnen wir das charakteristische Polynom von B, wobei
Sp.M N / D Sp.N M / : wir S 1 S D En und den Determinantenmultiplikationssatz
benutzen.
Für die Matrizen M D .mij / und N D .nij / gilt:
B D det.B X En / D det.S 1 A S X S 1 S /
0 1 !
X n Xn X n X n
D det.S 1 / det.A X En / det.S /
Sp.M N / D @ A
mij nj i D nj i mij
i D1 j D1 j D1 i D1
D det.S 1 / det.S / det.A X En /
D det.A X En / D A :
D Sp.N M / :
Damit ist gezeigt, dass die charakteristischen Polynome
Nun folgt mit M D S 1 und N D A S : ähnlicher Matrizen übereinstimmen.
Folgerung Zueinander ähnliche Matrizen haben dieselben Wir bestimmen für die Beispiele weiter oben die jeweiligen
Eigenwerte. Eigenräume.
Beispiel
Den Eigenraum und damit die 4 Wir berechnen die Eigenräume der Matrix
8 Eigenvektoren erhält man durch Lösen eines !
3 4
homogenen linearen Gleichungssystems AD 2 Z25 2 :
1 1
Hat eine Matrix A nicht gerade Dreiecks- oder Diagonal- Wegen A D .2 X/2 hat A den einzigen Eigenwert 2.
gestalt, so bestimmt man im Allgemeinen die Eigenwerte Den Eigenraum EigA .2/ von A zum Eigenwert 2 erhal-
von A systematisch durch Berechnen der Nullstellen des ten wir also als Lösungsmenge des homogenen Systems
charakteristischen Polynoms A von A. !
Wir gehen nun einen Schritt weiter und erklären, wie 32 4 0
wir die Eigenräume und damit die Eigenvektoren zu den .A 2 En / v D 0 ; d. h.
1 12 0
Eigenwerten von A bestimmen können.
Ist 2 K ein Eigenwert der Matrix A 2 Kn n , so Durch eine Zeilenumformung erhalten wir
besteht der Eigenraum aus dem Nullvektor und aus allen
! !
Eigenvektoren zum Eigenwert , und es gilt: 1 4 0 1 4 0
! :
˚ 1 4 0 0 0 0
EigA ./ D v 2 Kn j A v D v
˚
D v 2 Kn j .A En / v D 0 : Damit erhalten wir den Eigenraum zum Eigenwert 2:
* !+
Also erhält man den Eigenraum EigA ./ zum Eigenwert 1
durch Lösen des homogenen linearen Gleichungssystems EigA .2/ D :
1
.A 3 En / v D 0 ; d. h.
.A En / x D 0 0 1
13 2 2 0
der Eigenraum zum Eigenwert . @ 2 2 3 1 0A
2 1 2 3 0
8.3 Berechnung der Eigenwerte und Eigenvektoren
259 8
Durch Zeilenumformungen erhalten wir Durch Zeilenumformungen erhalten wir
0 1 0 1 0 1 0 1
2 2 2 0 1 1 1 0 1 1 0 0 0 0 1 1 0 0 0 0
@2 5 1 0A ! @ 0 3 3 0A B1 1 0 0 0 0C B0 0 0 0 0 0C
B C B C
2 1 5 0 0 3 3 0 B3 0C B 0C
0 1 B 1 0 1 1 C ! B3 1 0 1 1 C
1 0 2 0 @2 1 0 0 1 0A @2 1 0 0 1 0A
! @0 1 1 0A 1 1 0 0 0 0 0 0 0 0 0 0
0 0 0 0
Also ist der Eigenraum
Also erhalten wir als Eigenraum
0 1 0 1
1 0
*021+ *B1C B0C+
B C B C
EigA .3/ D @1A : EigA .2/ D B C B C
B1C ; B1C : 9
1 @1A @0A
1 0
Nun berechnen wir noch den Eigenraum EigA .3/ von
A zum Eigenwert 3. Wir erhalten ihn als Lösungs-
Wenn 2 K ein Eigenwert der Matrix A 2 Kn n
ist, so
menge des homogenen Systems
hat das Gleichungssystem
.AC3 En / v D 0 ; d. h.
0 1 .A En / x D 0
1C3 2 2 0
@ 2 2C3 1 0A
vom Nullvektor verschiedene Lösungen, da ja gerade die
2 1 2C3 0
Eigenwerte jene Elemente sind, für welche der Rang der
Matrix A En echt kleiner als n ist.
Durch Zeilenumformungen erhalten wir
Dies kann zur Kontrolle der Rechnung benutzt werden,
0 1 0 1 da die Berechnung des Kerns von A En stark anfäl-
4 2 2 0 2 1 1 0
@2 1 1 0A ! @0 0 0 0A lig für Rechenfehler ist. Erhält man nach einer Rechnung
als Eigenraum den Nullraum, so hat man sich zwangsläufig
2 1 1 0 0 0 0 0
verrechnet.
Also gilt für den Eigenraum: Es ist auch leicht, seine Ergebnisse zu überprüfen. Er-
hält man EigA ./ D hb1 ; : : : ; br i, so überprüfe man, ob
*011 1
1 +
0 die Gleichungen A bi D bi für alle i D 1; : : : ; r erfüllt
EigA .3/ D @ 0 A ; @ 2 A : sind. Dies kann man oft im Kopf nachrechnen.
2 0
?Selbstfrage 8.5
4 Wir berechnen die Eigenräume der Matrix Prüfen Sie die Gleichungen A bi D bi für einige i D
0 1 1; : : : ; r und EigA ./ D hb1 ; : : : ; br i in den eben aufge-
3 1 0 0 0 führten Beispielen nach.
B1 1 0 0 0C
B C
ADB
B 3 1 2 1 1 C 2 C5
C
5
:
@2 1 0 2 1 A Den Eigenraum eines Endomorphismus –
1 1 0 0 2 und damit die Eigenvektoren –
erhält man mit dem Eigenraum
Wegen A D .2 X/5 ist 2 der einzige Eigenwert
einer Darstellungsmatrix
von A.
Den Eigenraum EigA .2/ von A zum Eigenwert 2 er-
halten wir als Lösungsmenge des homogenen Systems Ist ' W V ! V ein Endomorphismus des n-dimen-
sionalen Vektorraums V mit der geordneten Basis B D
.A C 2 E5 / v D 0 ; d. h. .b1 ; : : : ; bn /, so erhält man die Eigenwerte von ' als die
0 1 Nullstellen des charakteristischen Polynoms der Darstel-
3 C 2 1 0 0 0 0
B 1 1 C 2 0 0 0 0C lungsmatrix B M .'/B , die wir einfacher mit A bezeichnen,
B C A D M .'/ :
B 3 1 2 C 2 1 1 0C B B
B C
@ 2 1 0 2 C 2 1 0 A
1 1 0 0 2 C 2 0 ' D det.A X En / :
260 Kapitel 8 Normalformen – Diagonalisieren und Triangulieren
Damit haben wir die Eigenvektoren der Darstellungsmatrix Es ist oftmals mühsam und langwierig, die Eigenwerte und
A D B M .'/B des Endomorphismus ' W V ! V be- Eigenräume einer Matrix zu bestimmen. Gerne greift man
.i / daher auf jeden Trick zurück, durch den man die Rechnun-
stimmt, d. h. Vektoren bj 2 Kn mit
gen vereinfachen oder abkürzen kann. Einen solchen Trick
.i / .i / gibt es bei komplexen Matrizen mit reellen Komponenten,
B M .'/B bj D i bj :
d. h. bei den Matrizen der Form
Gesucht sind aber die Eigenvektoren des Endomorphis-
mus '. Aber die findet man nun einfach wie folgt: Wir A D .aij / 2 C n n mit aij 2 R :
.i /
interpretieren die oben erhaltenen Eigenvektoren bj der
8 Darstellungsmatrix A D B M .'/B als die Koordinatenvek- Zur Bestimmung der komplexen Eigenwerte und komple-
.i / .i /
toren bj D B bj der Eigenvektoren von ' bezüglich der xen Eigenvektoren einer solchen Matrix A ist das folgende
Basis B, damit gilt dann: Ergebnis nützlich.
.i / .i /
B M .'/B B bj D i B bj : Lemma Für jede Matrix A 2 C n n
mit reellen Komponen-
ten aij gilt:
Beispiel Die Darstellungsmatrix des Endomorphismus ' W
(i) Ist 2 C ein Eigenwert von A, so ist auch ein Ei-
R2 2
! R2 2 ,
genwert von A.
1 1 (ii) Ist v D .vj / 2 C n ein Eigenvektor von A zum Eigen-
'.X / D M X X M mit M D wert , so ist v D .vj / ein Eigenvektor von A zum
1 1
Eigenwert .
bezüglich der geordneten kanonischen Basis E D
.E11 ; E12 ; E21 ; E22 / von R2 2 ist Beweis Das charakteristische Polynom A einer Matrix
0 1 A mit reellen Komponenten hat nur reelle Koeffizienten
0 1 1 0
B1 0 a0 ; : : : ; an , wie man der Leibniz’schen Formel für die De-
0 1C
A D E M .'/E D B @1
C terminante entnimmt, d. h.:
0 0 1A
0 1 1 0 A D a0 C a1 X C : : : C an X n 2 RŒX :
Die Eigenwerte dieser Matrix A sind
Ist 2 C ein Eigenwert von A, so gilt A ./ D 0. Wegen
1 D 0; 2 D 2; 3 D 2 :
0 D 0 D A ./ D a0 C a1 C : : : C an n
Als Eigenräume erhalten wir n
0 1 0 1 0 1 0 1 D a 0 C a1 C : : : C a n
* 1 0 + * 1 + * 1 +
D a0 C a1 C : : : C an
n
B0 C B1 C B C B1C
B C ; B C ; B1C ; B C :
@0 A @1 A @1A @1A D A ./
1 0 1 1
„ ƒ‚ … „ ƒ‚ … „ ƒ‚ … ist auch das konjugiert Komplexe eine Nullstelle von A ,
DEigA .0/ DEigA .2/ DEigA .2/
also auch ein Eigenwert von A.
Wir betrachten diese die Eigenräume erzeugenden Spal- Ist v D .vj / 2 C n ein Eigenvektor von A D .aij / zum
tenvektoren als Koordinatenvektoren von 2 2-Matrizen Eigenwert , so gilt A v D v. Da die Komponenten aij
bezüglich der Basis E, damit erhalten wir die Eigenräume von A reell sind, gilt:
von ':
0Pn 1 0Pn 1
j D1 a1j vj j D1 a1j vj
1 0 0 1 1 1 1 1 B :: C B :: C
0 1
;
1 0
;
1 1
;
1 1
: 9 .aij / .vj / D @ : ADB
@ :
C:
A
„ ƒ‚ … „ ƒ‚ … „ ƒ‚ … P n P
a v n
DEig .0/ ' DEig .2/ DEig .2/
' '
j D1 nj j j D1 anj vj
8.4 Algebraische und geometrische Vielfachheit
261 8
Eigenvektoren zu verschiedenen
?Selbstfrage 8.8
Eigenwerten sind linear unabhängig Welche Konsequenz hat dieses Ergebnis für eine Matrix
A 2 Kn n mit n verschiedenen Eigenwerten?
Es seien v1 ; : : : ; vr Eigenvektoren zu verschiedenen Eigen-
werten 1 ; : : : ; r einer Matrix A 2 Kn n :
Die algebraische Vielfachheit eines
A v1 D 1 v1 ; : : : ; A vr D r vr : Eigenwerts ist die Vielfachheit der
Nullstelle im charakteristischen Polynom
Wir zeigen mit vollständiger Induktion nach der natürli-
chen Zahl r, dass die Vektoren v1 ; : : : ; vr linear unabhängig
sind. Wir zerlegen das charakteristische Polynom A einer Ma-
Induktionsanfang: Die Behauptung ist korrekt, da trix A 2 Kn n soweit wie möglich in Linearfaktoren
v1 ¤ 0 linear unabhängig ist. .i X/, wobei wir gleiche Linearfaktoren unter Expo-
Induktionsvoraussetzung: Die Behauptung sei für r 1 nenten ki sammeln:
Eigenvektoren zu verschiedenen Eigenwerten 1 ; : : : ; r1
A D .1 X/k1 .r X/kr p 2 KŒX :
korrekt.
Induktionsschritt: Es seien v1 ; : : : ; vr Eigenvektoren zuDabei ist p 2 KŒX der nicht weiter durch Linearfaktoren
verschiedenen Eigenwerten 1 ; : : : ; r . Aus der Gleichung teilbare Anteil des Polynoms A . Das bedeutet, dass p kei-
ne weiteren Nullstellen in K hat. Die Nullstellen 1 ; : : : ; r
1 v 1 C C r v r D 0 (8.1) von sind die Eigenwerte von A.
A
262 Kapitel 8 Normalformen – Diagonalisieren und Triangulieren
Man nennt die Vielfachheit k der Nullstelle im cha- Polynom eine Nullstelle in C hat. Damit können wir für je-
rakteristischen Polynom A die algebraische Vielfachheit de komplexe n n-Matrix A mit dem charakteristischen
des Eigenwerts , und man sagt auch ist ein k-facher Ei- Polynom A 2 CŒX folgern:
genwert der Matrix A. Für die algebraische Vielfachheit
k des Eigenwerts benutzen wir auch die Schreibweise
ma ./, der Buchstabe m steht dabei für multiplicity. Zur Anzahl der Eigenwerte komplexer Matrizen
Es ist manchmal nützlich, die Eigenwerte mit ihren ent- Jede komplexe n n-Matrix A 2 C n n , n 2 N, hat n
sprechenden algebraischen Vielfachheiten zu zählen, d. h., nicht notwendig verschiedene Eigenwerte.
man fasst einen k-fachen Eigenwert , k 2, auch auf als
k (nicht verschiedene) Eigenwerte.
Ist ein Polynom vollständig zerlegbar, d. h., ist der weiter 1 mg ./ ma ./ :
nicht zerlegbare Faktor p ein Polynom vom Grad 0, so ist
die folgende suggestive Sprechweise üblich: Wir sagen, das
charakteristische Polynom A einer n n-Matrix A 2 Kn n
Beweis Es sei 2 K ein Eigenwert der Matrix A 2 Kn n
vom Grad n zerfällt über K in Linearfaktoren, falls
mit der algebraischen Vielfachheit ma ./ und der geome-
A D .1 X/ .r X/
k1 kr trischen Vielfachheit r D mg ./. Wir wählen eine Basis
fv1 ; : : : ; vr g des Eigenraums EigA ./ der Dimension r D
mit verschiedenen 1 ; : : : ; r 2 K gilt. mg ./ und ergänzen diese durch Vektoren vrC1 ; : : : ; vn zu
In dieser Situation gilt für die Summe der Exponenten einer Basis B des Vektorraums Kn . Die Darstellungsma-
k1 C Ckr D n. Die Matrix A hat dann die verschiedenen trix B M .'A /B der linearen Abbildung 'A W Kn ! Kn ,
Eigenwerte 1 ; : : : ; r mit den jeweiligen algebraischen v 7! A v bezüglich dieser Basis B hat die Form
Vielfachheiten k1 ; : : : ; kr , insgesamt also n nicht notwen- 0 1
dig verschiedene Eigenwerte, die genau dann verschieden 0
sind, wenn n D r gilt. B :: C
B : BC
Im Fall K D C zerfällt für jede Matrix A 2 C n n B M .'A /B D B C
@0 A
das Polynom A in Linearfaktoren, da wegen des Funda-
mentalsatzes der Algebra jedes nicht konstante komplexe 0 C
8.4 Algebraische und geometrische Vielfachheit
263 8
mit passenden Matrizen B 2 Kr .nr/ , C 2 K.nr/ .nr/ Zerfällt A , und ist die algebraische
und 0 2 K.nr/ r . Vielfachheit für jeden Eigenwert gleich der
Da zueinander ähnliche Matrizen das gleiche charakte- geometrischen, so ist A diagonalisierbar
ristische Polynom haben gilt wegen der Blockdreiecksge-
stalt der Matrix B M .'A /B :
Wir nehmen an, dass das charakteristische Polynom A ei-
A D B M .'A /B D . X/r C : ner Matrix A 2 Kn n über K in Linearfaktoren zerfällt,
Somit ist die algebraische Vielfachheit m ./ mindestens d. h.,
a
r; mindestens deswegen, da evtl. C noch durch X
teilbar ist. A D .1 X/k1 .r X/kr
D mB
g .i / : X
r X
r
nD mg .i /
ma .i / deg.A / D n :
Dabei haben wir benutzt, dass wegen der Invertierbarkeit i D1 i D1
von S und S 1 die Dimensionen der Kerne von S 1 .B
i En / S und B i En übereinstimmen (siehe die Folge- Anstelle der beiden gilt also sogar D. Aus der ersten ent-
rung im 7 Abschn. 6.7). stehenden Gleichheit folgt sogleich mg .i / D ma .i / für
264 Kapitel 8 Normalformen – Diagonalisieren und Triangulieren
alle i D 1; : : : ; r und aus der zweiten entstehenden Gleich- gilt mit den Vektoren
heit folgt, dass das Polynom A zerfällt. 0 1 0 1 0 1
2 1 1
Wir erhalten hieraus die Folgerung: b1 D @ 1 A ; b2 D @ 0 A @
; b3 D 2 A
1 2 0
Folgerung Hat eine n n-Matrix n verschiedene Eigen-
werte, so ist sie diagonalisierbar. und
S D .b1 ; b2 ; b3 /
Das folgt aus obigem Kriterium, weil in diesem Fall das
charakteristische Polynom zerfällt und für jeden Eigenwert die Gleichung:
die algebraische Vielfachheit, die gleich 1 ist, mit der geo- 0 1
metrischen Vielfachheit, die größer gleich 1 sein muss, 3 0 0
übereinstimmt. S 1 A S D @0 3 0 A
Um eine diagonalisierbare Matrix A 2 K n n
zu diago- 0 0 3
nalisieren, geht man zweckmäßigerweise so vor, wie wir es
in einer Übersicht schildern. 4 Die Matrix
Wir führen das Verfahren an Beispielen durch. !
3 4
AD 2 Z25 2
Beispiel 1 1
4 Für die Matrix
hat wegen
0 1
1 2 2
A D .2 X/2
A D @2 2 1 A 2 R3 3
2 1 2
den einzigen Eigenwert 2 der algebraischen Vielfach-
haben wir bereits in die Eigenwerte und Eigenräume be- heit 2. Der Eigenraum EigA .2/ von A lautet
stimmt. Wir erhielten * !+
1
*021+ *011 011+ EigA .2/ D
1
:
EigA .3/ D @1A ; EigA .3/ D @ 0 A ; @ 2 A :
1 2 0 Damit hat der Eigenwert 2 die geometrische Vielfach-
heit 1. Weil die geometrische Vielfachheit des Eigen-
Damit existiert eine Basis des R3 aus Eigenvektoren der werts 2 echt kleiner der algebraischen ist, ist die Matrix
Matrix A. Die Matrix ist also diagonalisierbar, und es nicht diagonalisierbar.
8.4 Algebraische und geometrische Vielfachheit
265 8
4 Die Matrix gilt:
0 1
1 3 6 0 1
2 0 0
A D @3 5 6A
3 3 4 S 1 A S D @ 0 2 0A : 9
0 0 4
hat das charakteristische Polynom A D .2CX/2 .4
X/, also den zweifachen Eigenwert 2 und einfachen ?Selbstfrage 8.10
Eigenwert 4. Wir erhalten als Eigenräume Prüfen Sie dies nach, indem Sie S 1 A S tatsächlich be-
*011 021+ *0 1 1+ rechnen.
EigA .2/ D @ 1 A ; @ 0 A ; EigA .4/ D @1A :
0 1 1 ?Selbstfrage 8.11
Wie ändert sich die Diagonalmatrix, wenn man in der Ma-
Damit stimmen für jeden Eigenwert geometrische und trix S zwei Spalten vertauscht?
algebraische Vielfachheit überein, d. h., dass die Matrix
A diagonalisierbar ist. Mit der Matrix Kennt man bereits einige Eigenwerte einer Matrix, etwa
S D .b1 ; b2 ; b3 / ; durch geometrische Überlegungen, so kann man gelegent-
lich mit einer einfachen Rechnung die restlichen Eigen-
wobei werte dieser Matrix bestimmen. Das liegt daran, dass das
0 1 0 1 0 1
1 2 1 Produkt aller Eigenwerte und die Summe aller Eigenwerte
b1 D @ 1 A ; b2 D @ 0 A ; b3 D @1A ; einer Matrix A bekannte bzw. oftmals leicht bestimmbare
0 1 1 Kenngrößen von A sind.
Wir möchten eine explizite Formel für die Fibonacci-Zahlen Die Eigenwerte von A sind die Nullstellen des charakteristi-
a0 ; a1 ; a2 ; : : : bestimmen, die rekursiv definiert sind durch schen Polynoms
ˇ ˇ
ˇX 1 ˇˇ
a0 D 1; a1 D 1; anC1 D an C an1 für n 2 N : ˇ
A D ˇ ˇ D X2 X 1
ˇ 1 1 Xˇ
Problemanalyse und Strategie p ! p !
1C 5 1 5
Wir geben diese Rekursionsvorschrift durch eine Matrix D X X :
2 2
A 2 R2 2 wieder und gelangen durch Berechnen von Poten-
zen von A zu einer guten Näherungslösung für hinreichend Die Eigenvektoren erhalten
p wir als Lösungen der Glei-
große n. chungsysteme .A 1˙2 5 E2 j 0/, und zwar erhalten wir
! p
Lösung 1 1C 5
b1 D p
1C 5 zum Eigenwert und
Wir bestimmen zunächst die Matrix A 2 R2 2
mit 2
2
! p
! ! 1 1 5
an a0 b2 D p zum Eigenwert :
DA n
; n2N 1 5
2
anC1 a1 2
an a0 1
Aus der obigen Formel an D a pb5
nC1 nC1
DA n
DA n
folgt weiter
anC1 a1 1
limn!1 an1 D a, d. h., dass sich das Verhältnis aufeinan-
an
p !nC1 a9 D 55
1 1C 5 34
an p
5 2
in guter Näherung, und an ergibt sich für jedes n aus dieser . Abb. 8.5 Aus Viertelkreisen zusammengesetzte Fibonacci-Spi-
Näherung durch Runden zur nächsten ganzen Zahl: rale
nun die Situation, dass eine dieser beiden Matrizen eine so erhalten wir:
Diagonalmatix ist. Die Determinante und die Spur einer
Diagonalmatrix sind gerade das Produkt und die Summe det A D det D D 1 n und
der Diagonaleinträge. Sp A D Sp D D 1 C C n :
8.4 Algebraische und geometrische Vielfachheit
267 8
x2 a
b x2
b
e2 a a
e2 b
˛=2 ˛
e1 x1 ˛
e1 x1
b
a
Zwar wissen wir durch das Bild, dass die Spiegelung genau
Wir wissen bereits, dass die Drehung ı˛ – abgesehen von
zwei Geraden des R2 durch 0 auf sich selbst abbildet, näm-
zwei Ausnahmefällen – keine Gerade durch 0 auf sich selbst
lich die Spiegelungsachse und die dazu senkrechte Gerade.
abbildet und somit keine Eigenwerte besitzt. Die beiden Aus-
Die Vektoren v auf der Spiegelungsachse sind Fixpunkte von
nahmen sind! die Drehung um den Winkel ˛ D 0, d. h.,
, d. h., A v D v, während die Vektoren auf der dazu senk-
1 0
rechten Geraden durch auf ihre entgegengesetzten Vektoren AD , und die Drehung um den Winkel ˛ D , d. h.,
0 1
abgebildet werden, d. h., A v D v. Also besitzt A die bei- !
den Eigenwerte 1 und 1 mit zugehörigen Eigenräumen. Wir 1 0
A D . In diesen beiden Fällen ist die Matrix A
wollen dies nun auch rechnerisch nachweisen. Dazu bestim- 0 1
men wir das charakteristische Polynom der Matrix A. bereits diagonal, die Eigenräume sind in beiden Fällen jeweils
ˇ ˇ der ganze R2 .
ˇcos ˛ X ˇ
ˇ sin ˛ ˇ Für ˛ … f0; g bestätigen wir unsere Vermutung nun rech-
A D ˇ ˇ
ˇ sin ˛ cos ˛ X ˇ
nerisch und bestimmen das charakteristische Polynom A :
D X 2 cos2 ˛ sin2 ˛ D .1 X/ .1 X/ : ˇ ˇ
ˇcos ˛ X sin ˛ ˇˇ
ˇ
Also hat A die beiden einfachen Eigenwerte 1 und 1. Ins- A D ˇ ˇ D X 2 2 cos ˛ X C 1 :
ˇ sin ˛ cos ˛ X ˇ
besondere ist also A diagonalisierbar. Wir bestimmen die
Eigenräume zu den beiden Eigenwerten: Für die Nullstellen 1=2 dieses Polynoms gilt:
!
cos ˛ 1 sin ˛ 1
EigA .1/ D ker .˛ ¤ 0/ 1=2 D cos ˛ ˙ cos2 ˛ 1 2 :
sin ˛ cos ˛ 1
! Für ˛ … f0; g gilt aber j cos ˛j < 1 und damit cos2 ˛ 1 < 0.
2 sin2 ˛2 2 sin ˛2 cos ˛2
D ker Also hat das Polynom A D X 2 2 cos ˛ X C 1 im Fall
0 0
˛ … f0; g keine reellen Nullstellen, und damit hat in diesem
˛ ˛ !
sin 2 cos 2 Fall die Matrix A auch keinen Eigenwert. Wir halten fest: Für
!
D ker cos ˛ sin ˛
0 0
jedes ˛ 20; 2 Œ n f g ist die Matrix A D
* ˛ !+ sin ˛ cos ˛
cos 2
nicht diagonalisierbar, und in den Fällen ˛ D 0 und ˛ D
Also ist EigA .1/ D auch für ˛ D 0.
sin ˛2 hat A bereits Diagonalform.
268 Kapitel 8 Normalformen – Diagonalisieren und Triangulieren
Damit ist gezeigt: Es ist natürlich mühsam, all diese Eigenschaften nachzu-
prüfen. Es wäre sehr nützlich, wenn wir einer Matrix noch
viel schneller, quasi ohne jede Rechnung ansehen könnten,
Der Zusammenhang zwischen Spur, Determinante dass sie diagonalisierbar ist. Und das geht oftmals, z. B.
und den Eigenwerten einer Matrix gilt: Jede reelle symmetrische Matrix ist diagonalisierbar.
Es seien 1 ; : : : ; n die nicht notwendig verschiedenen Ei- Wir werden diese Tatsache in 7 Kap. 7 begründen.
genwerte einer diagonalisierbaren n n-Matrix A 2 Kn n .
Dann gilt:
Die Matrix A ist Nullstelle ihres
Sp A D 1 C C n ; det A D 1 n : charakteristischen Polynoms
X
n
D aj i ej A e i D 0 : (8.3) Die Exponentialfunktion für Matrizen ist
j D1 durch eine Reihe definiert
Nun folgt für alle k 2 f1; : : : ; ng:
Um die Exponentialfunktion für Matrizen zu definieren, be-
X
n nutzen wir die Reihendarstellung der Exponentialfunktion.
A .A/ e k D ıj k A .A/ ej Per Definition gilt für jede komplexe Zahl a:
j D1
1
X
X
n X
n
ak a2
(8.2)
D cki .A/ bij .A/ ej ea D D1CaC C :
kŠ 2Š
j D1 i D1 kD0
0 1
X
n X
n
Dabei geschieht die Potenzbildung ak D „ƒ‚…
a a durch
D cki .A/ @ bij .A/ ej A
i D1 j D1 k-mal
Multiplikation in C und die Summenbildung durch die Ad-
(8.3)
D 0: dition in C. Aber quadratische Matrizen aus C n n lassen
sich auch addieren und multiplizieren, daher liegt es nahe,
Somit gilt A .A/ D 0. A 0 D En zu setzen und die Exponentialfunktion eA wie
270 Kapitel 8 Normalformen – Diagonalisieren und Triangulieren
1
X 1 k In den beiden letzten Beispielen konnten wir nur deshalb
A : eA explizit bestimmen, da wir A k für alle natürlichen Zah-
kŠ
kD0
len angeben konnten. Das ist im allgemeinen Fall natürlich
Den Grenzwert nicht so. Aber mithilfe der folgenden Rechenregeln können
wir eA für alle diagonalisierbaren Matrizen explizit bestim-
X
N
1 k men.
lim A 2 Cn n
N !1 kŠ
kD0
P1 eACB D eA eB :
1 k
Beweis Die Konvergenz von kD0 kŠ .A /ij
beweist man
am einfachsten mit dem Majorantenkriterium: Es sei c eine (b) Für jede invertierbare Matrix S 2 C n n
gilt:
Pn Schranke für 2die Zahlen jaij j. Dann gilt j.A /ij j D
2
obere 1
j sD1 ai s asj j nc . Allgemein ergibt sich mit vollständi- S 1 eA S D eS AS
:
ger Induktion j.A k /ij j nk1 c k , und die Konvergenz der
(c) Für Diagonalmatrizen gilt die Regel:
Reihe
1
0 1 0 1
X nk1 c k 1 0 e 1 0
B: :: C B : :: C
kŠ exp B
@:
: ::
: C B
: A D @ ::
::
: C
: A:
kD0
0 n 0 en
zeigt
P1 1dannk die (absolute) Konvergenz der Reihen
kD0 kŠ .A /ij .
8.5 Die Exponentialfunktion für Matrizen
271 8
Beweis Nun bilden wir den Limes N ! 1, man beachte
(a) Mit Aufgabe 8.12 folgt: dabei, dass in der Matrix rechts der Limes in jeder Kom-
ponente gebildet wird; wegen der Additivität und der
1
! 1
!
X 1 m X 1 n Homogenität der Limesbildung, d. h.
eA eB D A B
mŠ nŠ X .rs/ .N /
X .rs/ .N /
mD0 nD0 lim ij aij D ij lim aij ;
1 X
X 1 N !1 N !1
1 i;j i;j
D Am B n
mD0 nD0
mŠ nŠ
erhalten wir:
1 X
X l 0 1
1
D Am B lm X
mD0
mŠ .l m/Š lim S 1 A N S D @ ij aij A
.rs/ .1/
D S 1 eA S :
lD0
N !1
1
X 1 X
l i;j
lŠ r;s
D Am B lm
lŠ mD0 mŠ .l m/Š (c) Es gilt
lD0
1
X 1 0 1k 0 k 1
D .A C B/l D eACB : 1 0 1 0
lŠ XN
1 B: :: C XN
1 B: :C
lD0 :: ::
@: : :A D @: : :: A
kŠ : kŠ :
(b) Aus S 1 A k S D .S 1 A S /k folgt:
kD0 0 n kD0
0 kn
0 1
! P
N
k1
X X B C 0 1 1
1
N
1 k
N
1 1 BkD0 kŠ C e 0
S A S D .S A S /k : B C N !1 B : : C
kŠ
kD0
kŠ
kD0
DB B
::
: C
C ! @ ::
::
: :: A :
B C
@ P kn A
N 0 en
1
Die rechte Seite konvergiert für N ! 1 gegen eS A S . kD0
kŠ
also
Die Exponentialfunktion für diagonalisierbare it
0 t i 1 1 e 0 i 1
Matrizen exp D
Ist A 2 C n n eine diagonalisierbare Matrix mit den Ei-
t 0 2 i i 0 ei t i 1
!
genwerten 1 ; : : : ; n und Eigenvektoren s1 ; : : : ; sn , so 1 eit C eit 1i .eit eit /
gilt mit S D .s1 ; : : : ; sn /: D
2 1i .ei t eit / eit C ei t
0 1
e1 0 cos t sin t
B :: C
D : 9
eA D S B
:: :: C 1 sin t cos t
@ : : : AS :
0 en
Wir heben eine weitere interessante Formel für die Spur
und die Exponentialfunktion hervor.
Ist A 2 C n n eine diagonalisierbare Matrix mit den Ei-
Man kann demnach mit D und S die Matrix e berechnen. genwerten 1 ; : : : ; n , so gibt es eine invertierbare Matrix
A
det eA D eSp A :
1 1 1 1
S D und S 1 D 1=2 ;
1 1 1 1
also
t
8.6 Das Triangulieren von Endomorphismen
0 t 1 1 1 e 0 1 1
exp D
t 0 2 1 1 0 et 1 1
t t t
Wir gehen jetzt etwas weg von konkreten Berechnungen
1 e Ce e e
t
und graben wieder etwas tiefer in der Theorie der linearen
D t
2 et
e et
C et Abbildungen. Daher stellen wir nun die konkreten Matri-
cosh t sinh t zen etwas in den Hintergrund und holen dafür die etwas
D : abstrakteren Endomorphismen eines endlichdimensionalen
sinh t cosh t
K-Vektorraums V hervor. Dabei behalten wir aber im Hin-
terkopf, dass der Unterschied nur marginal ist: Nach Wahl
0 t
Die Matrix B D hat das charakteristische Po- einer Basis B von V ist ein Endomorphismus ' von V
t 0
nichts anderes als eine Matrix A,
lynom B D X 2 C t
2
, also die beiden Eigenwerte i t und
1
i t. Es sind t 1 D ein Eigenvektor zum Eigenwert i t A D B M .'/B :
i
1
und t 2 D ein solcher zum Eigenwert i t. Wir setzen Nicht jeder Endomorphismus ist diagonalisierbar, genau-
i er gilt, wie wir gezeigt haben: Der Endomorphismus 'A W
T D .t 1 ; t 2 / und erhalten V ! V , v 7! A v mit A 2 Kn n ist genau dann diagona-
lisierbar, wenn
1 1 i 1
T D und T 1
D i=2 ; (i) A über K in Linearfaktoren zerfällt und
i i i 1 (ii) ma ./ D mg ./ für jeden Eigenwert von A gilt.
8.6 Das Triangulieren von Endomorphismen
273 8
Wir wollen in diesem Abschnitt zeigen, dass unter der Vo- .b1 ; : : : ; bn / von V eine Fahnenbasis für ' von V , falls
raussetzung (i) der Endomorphismus 'A triangulierbar ist. die Untervektorräume
Dabei nennen wir einen Endomorphismus ' eines n-di-
mensionalen K-Vektorraums triangulierbar, wenn es eine hb1 i ; hb1 ; b2 i ; : : : ; hb1 ; : : : ; bn i
geordnete Basis B von V gibt, bezüglich der die Darstel-
lungsmatrix B M .'/B eine obere Dreiecksmatrix ist, d. h., '-invariant sind, d. h., dass für jedes i D 1; : : : ; n gilt:
0 1
'.hb1 ; : : : ; bi i/ hb1 ; : : : ; bi i :
B :: :: C
B M .'/B D @ : :A
0 Bei einer Fahnenbasis für ' von V hat man also
eine aufsteigende Folge von ineinander geschachtelten
'-invarianten Untervektorräumen von V :
Eine Matrix A 2 Kn n heißt triangulierbar, falls der
Endomorphismus 'A triangulierbar ist, d. h., falls es eine
invertierbare Matrix S 2 Kn n gibt mit hb1 i hb1 ; b2 i hb1 ; : : : ; bn i :
0 1 Beispiel
B :: :: C 4 Die kanonische Basis E2 D .e 1 ; e 2 / ist für den Endo-
S 1 A S D @ : :A : morphismus
0
v1 1 1 v2
' W K2 ! K2 ; 7!
Dazu führen wir neue Begriffe ein. v2 0 1 v2
'.bi / 2 hb1 ; : : : ; bi i ;
8 und wegen '.U1 / U1 ; '.U2 / U2 ; '.U3 / U3 erhalten
sodass wir
mit gewissen i 2 K. Mit diesen Bezeichnungen erhalten Wir bestimmen die Koordinatenvektoren der Bilder der Ba-
wir sisvektoren:
X
n X
n 0 1
0
'.c i / D j '.bj / D j .a1j b1 C .bj // B0C
j D2 j D2 'A .s1 / D B C
@2A D 2 s1 C 0 s2 C 0 s3 C 0 s4 ;
X
n
0
D j a1j b1 C .j bj /
0 1
j D2 2
D b1 C .c i / 2 hb1 ; c 1 ; : : : ; c i i B2C
'A .s2 / D B C
@1A D 1 s1 C 2 s2 C 2 s3 C 0 s4 ;
für ein 2 K; man beachte, dass .c 2 ; : : : ; c n / eine Fahnen- 0
basis für von U ist. Somit ist alles gezeigt. 0 1
0
B2C
Kommentar Der Beweis lässt sich für die Triangulierbar- 'A .s3 / D B C
@1A D 1 s1 C 0 s2 C 2 s3 C 1 s4 ;
keit einer Matrix etwas durchsichtiger mit einem Matrizen-
1
formalismus führen. Wir führen das in Aufgabe 8.11 durch. 0 1
Jedoch ist die durch den Matrizenformalismus motivierte 0
8 Konstruktion der Fahnenbasis dann aufwendiger, solange B0C
'A .s4 / D B C
@1A D 1 s1 C 0 s2 C 0 s3 C 2 s4 :
man mit Bleistift und Papier eine solche Basis bestimmen
will. 2
Wie man nun tatsächlich einen Endomorphismus bzw. eine Als Darstellungsmatrix von 'A bezüglich der Basis B er-
Matrix trianguliert, wird durch unseren Beweis nahegelegt. halten wir somit:
Wir führen die Konstruktion einer Fahnenbasis an einem
0 1
Beispiel vor. 2 1 1 1
B0 2 0 0C
B
B1 M .'A /B1 D @
C
Beispiel Wir konstruieren eine Fahnenbasis des R4 für den 0 2 2 0A
Endomorphismus 'A W v 7! A v mit 0 0 1 2
0 1
2 0 0 0
B2 2 0 0 C Und die Matrix S D .s1 ; : : : ; s4 / erfüllt
ADB @1 1 2 1A
C
1
B1 M .'A /B1 D S A S :
0 1 0 2
2. Schritt: Wir kümmern uns nun um die 3 3-Untermatrix
1. Schritt: Wegen A D .2 X/4 – man beachte die Block-
dreiecksgestalt der Matrix – hat der Endomorphismus 'A 0 1
2 0 0
den vierfachen Eigenwert 2. Als Eigenraum erhalten wir
B D @2 2 0 A
0 1 0 1 0 1 2
0 0 0 0 * 0 +
B2 0 0 0 C B C
EigA .2/ D ker B C D B0 C : von U D hs2 ; s3 ; s4 i mit der
@1 1 0 1A @1 A Der Endomorphismus
0 1 0 0 0 Darstellungsmatrix B bezüglich der Basis .s2 ; s3 ; s4 / hat
wegen B D .2 X/3 den dreifachen Eigenwert 2. Wegen
Wir ergänzen die linear unabhängige Menge fe 3 g zu einer 0 1 *0 1+
geordneten Basis B1 des R4 : 0 0 0 0
EigB .2/ D ker @ 2 0 0 A D @ 0A
0 1
0 1 0 1
B 001 0 1 0 1 0 1C
B 1 0 0 C
B B0C B0C B1C B0C C ist 0 s2 C 0 s3 C 1 s4 D s4 ein Eigenvektor zum Eigenwert
B B CC
B1 D B B C ; B C ; B C ;
@0A C : 2 von , d. h., Eig .2/ D hs4 i.
B @1A @0A @0A C
B C Wir ergänzen nun die linear unabhängige Menge
@ 0 0 0 1 A
„ƒ‚… „ƒ‚… „ƒ‚… „ƒ‚… fe 3 ; s4 D e 4 g der beiden aus den bisherigen Schritten ge-
DWs1 DWs2 DWs3 DWs4 wonnenen linear unabhängigen Vektoren e 3 und e 4 zu einer
8.7 Die Jordan-Normalform
277 8
geordneten Basis B2 des R4 : ?Selbstfrage 8.15
0 1 Können Sie ein Kriterium dafür angeben, wann ein En-
B 001 001 011 0 1C domorphismus ' eines n-dimensionalen K-Vektorraums
B 0 C
V durch eine untere Dreiecksmatrix dargestellt werden
B B0C B0C B0C B1C C
B B CC
B2 D B B C ; B C ; B C ;
@0A C : kann?
B @1A @0A @0A C
B C
@ 0 1 0 0 A
„ƒ‚… „ƒ‚… „ƒ‚… „ƒ‚… 8.7 Die Jordan-Normalform
DWt 1 DWt 2 DWt 3 DWt 4
Wegen N 2 D 0 verkürzt sich diese Formel für k 1 auf Die Jordan-Normalform ist von einigen
zwei Summanden. Es gilt also Einsen in der oberen Nebendiagonalen
A k D .D C N /k abgesehen eine Diagonalform
D D k C k D k1 N
! ! Eine Matrix .aij / 2 Ks s
heißt ein Jordan-Kästchen zu
2k 0 2k1 0 0 1
D k Ck
einem 2 K, wenn
0 2 0 2k1 0 0
! a11 D D ass D ;
2k k 2k1 a12 D D as1;s D 1 und
D :
0 2k
aij D 0 sonst ;
Wir halten zuerst das wesentliche Hilfsmittel für diese Po- d. h.,
tenzbildung fest. 0 1
1
B :: :: C
B : : C
Die Binomialformel für Matrizen .aij / D B
B
C
C
@ ::
Für Matrizen D; N 2 Kn n
mit D N D N D und jede : 1A
8 natürliche Zahl k gilt:
! Ein Jordan-Kästchen ist also von den Einsen in der oberen
Xk
k
k
.D C N / D D ki N i : Nebendiagonalen abgesehen eine Diagonalmatrix, es sind
iD0
i 0 1
0 1 1 0 0
1 0
1 B0 1 0C
; ; @0 1A ; B @0 0 1A
C
Der Beweis erfolgt analog zur Binomialformel für kom- 0
0 0
plexe Zahlen per Induktion. Dabei ist wesentlich, dass die 0 0 0
beiden Matrizen miteinander kommutieren. Dies zu be- Beispiele für Jordan-Kästchen.
gründen haben wir als Übungsaufgabe gestellt. Eine Matrix J 2 Kn n heißt Jordan-Matrix, falls
Weil im obigen Beispiel die beiden Matrizen miteinan- 0 1
der kommutieren, war diese Rechnung auch korrekt. J1
B :: C
Wenn eine gewisse Potenz einer Matrix die Nullmatrix J D@ : A
ergibt, so nennt man diese Matrix nilpotent, genauer: Gibt Jl
es zu einer Matrix N eine natürliche Zahl k, sodass N k D
0, so nennt man N nilpotent, und die kleinste Zahl r 2 N eine Blockdiagonalgestalt mit Jordan-Kästchen J 1 ; : : : ; J l
mit N r D 0 nennt man den Nilpotenzindex von N . Mit hat. Dabei müssen die Diagonaleinträge i der J i nicht
der Binomialformel erhalten wir folgende Aussage. verschieden sein, es dürfen auch 1 1-Jordan-Kästchen vor-
kommen.
Nun bilden wir das charakteristische Polynom von ': ker ' D hB0 [ B1 i ;
ˇ ˇ und zum anderen zu einer Basis B0 [ B2 von Bild ',
ˇA X E 0 ˇ
' D ˇˇ ˇ D :
0 A X Eˇ Bild ' D hB0 [ B2 i :
Wie im Beweis zur Dimensionsformel für Untervektorräu-
(c) Diese Aussage folgt aus der Darstellungsmatrix in (8.4):
me (siehe 7 Abschn. 4.5) zeigt man:
Sind nämlich A und A Jordan-Normalformen, so ist es
auch B M .'/B . B0 [ B1 [ B2 ist linear unabhängig.
8.7 Die Jordan-Normalform
281 8
Wir ergänzen nun diese linear unabhängige Menge B0 [ Hieraus folgt U 0 U , W 0 W , und es gilt:
B1 [ B2 um weitere Vektoren aus einer Menge B3 zu einer
Basis U ' 1 .U 0 / und W ' 1 .W 0 / ;
Wegen Lemma 2 (c) und (d) sind die Untervektorräume U sodass mithilfe von (i) folgt:
und W '-invariant. Weiter gilt V D U ˚ W , da B0 [ B1 [
V D ' 1 .U 0 / C ' 1 .W 0 / U 0 C W 0 C B C A
B2 [ B3 U C W .
Schließlich gilt B1 ¤ ; wegen ker ' 6 Bild ', d. h., DU CW :
dass U ¤ f0g. Es folgt W ¤ V .
Nun zeigen wir:
Und aus ker ' ¤ V folgt B1 ¨ B, d. h., dass auch U ¤
(ii) Es gilt U \ ' 1 .W 0 / D U 0 \ ' 1 .W 0 /.
V gilt.
Denn: die Inklusion folgt aus U 0 U . Es sei v 2
U \ ' 1 .W 0 /. Dann gilt v D u0 C a mit einem u0 2 U 0
Wir formulieren den letzten Hilfssatz.
und a 2 A, da U D U 0 C A. Wegen Gleichung (8.5) gilt
U ' 1 .U 0 /, d. h., dass v 2 ' 1 .U 0 / \ ' 1 .W 0 /. Es folgt
Lemma 4 Es sei ' ein Endomorphismus eines n-dimensio-
nalen K-Vektorraums V . a D v u0 2 ' 1 .U 0 / \ ' 1 .W 0 / C U 0 :
Falls Bild ' D U 0 ˚ W 0 mit '-invarianten Untervektor-
räumen U 0 und W 0 von V gilt, so gibt es Untervektorräume Mit Gleichung (8.5) folgt a D 0, also v D u0 2 U 0 \
U und W von V mit ' 1 .W 0 /. Somit ist (ii) begründet.
(a) V D U ˚ W . (iii) Es gilt U \ W D f0g.
(b) U 0 U und W 0 W . Aus (ii) folgt wegen W ' 1 .W 0 /, der Gleichung
(c) U und W sind '-invariant. (8.6) und W D W 0 C B:
Beweis Wir zeigen die Behauptungen in mehreren Schrit- U \ W D U \ ' 1 .W 0 / \ W
ten. D U \ ' 1 .W 0 / \ W
(i) Es gilt V D ' 1 .U 0 / C ' 1 .W 0 /.
D U 0 \ ' 1 .W 0 / \ .W 0 C B/
Denn nach Voraussetzung gibt es zu jedem v 2 V ein
u0 2 U 0 und w0 2 W 0 mit '.v/ D u0 C w0 . Wegen U 0 D f0g :
0 1 0
'.V / gibt es ein u 2 V mit u D '.u/, d. h., u 2 ' .U /.
Damit ist alles begründet.
Für die Differenz w D v u folgt:
Beweis (i) ) (ii): Falls ' eine Jordan-Normalform besitzt, Wegen . / besitzt T nach der Induktionsvoraussetzung
so ist dies eine obere Dreiecksmatrix. Somit zerfällt ' über eine Jordan-Basis BT D .b1 ; : : : ; bk / bezüglich 'jT . Die
K in Linearfaktoren. Darstellungsmatrix
(ii) ) (i): Nun zerfalle das charakteristische Poly-
nom ' des Endomorphismus ' eines n-dimensionalen K- A T D BT M .'jT /BT
Vektorraums V über K in Linearfaktoren. Wir zeigen die
Existenz einer Jordan-Normalform mit Induktion nach der ist eine Jordan-Normalform von 'jT .
Dimension n des Vektorraums V . Wir treffen eine weitere Fallunterscheidung:
Induktionsanfang. Für n D 1 gilt die Behauptung, da Fall 2a. Die Jordan-Matrix A T enthält zwei Jordan-
B M .'/B D ./ 2 K
1 1
für jede beliebige Basis B von Kästchen, d. h.
jedem Vektorraum V der Dimension 1 bereits Jordan-Nor-
malform hat. 0 1
A1
Induktionsvoraussetzung. Die Behauptung sei richtig B A2 C
AT D @ A
für alle Vektorräume V mit 1 dim V n 1 und alle ::
Endomorphismen ' von V mit zerfallendem charakteristi- :
schem Polynom ' .
Induktionsschritt. Es sei 2 K eine Nullstelle von ' , wobei das Jordan-Kästchen A1 genau j Zeilen enthalte,
d. h., ' ./ D 0. Für den Kern des Endomorphismus ' 1 j < k. Die beiden zueinander komplementären Un-
8 idV von V gilt: tervektorräume
˝ ˛ ˝ ˛
ker.' idV / ¤ f0g ; U 0 D b1 ; : : : ; bj und W 0 D bj C1 ; : : : ; bk
sodass wir für die Dimension des Bildes von ' idV nach von T sind 'jT -invariant, also '-invariant und schließlich
der Dimensionsformel erhalten: auch .' idV /-invariant. Damit ist T die direkte Summe
zweier .' idV /-invarianter Untervektorräume U 0 und
0
dim Bild.' idV / < n : ( ) W :
dim T D dim Bild.' idV / D n 1 : Gegeben ist eine Matrix A 2 Kn n mit einem in Linear-
faktoren zerfallendem charakteristischem Polynom A D
Wegen der Form der Darstellungsmatrix A T gilt für die er- . X/n . Also ist 2 K der einzige Eigenwert von A
zeugenden Vektoren von T D hb1 ; : : : ; bn1 i: mit der algebraischen Vielfachheit n und der geometrischen
Vielfachheit mg ./, wobei wir von dieser nur wissen, dass
.' idV /.b1 / D 0 ;
.' idV /.bi / D bi 1 ; 1 < i < n : 1 mg ./ n
Weiter gibt es wegen .' idV /.V / D T ein bn 2 V n T gilt. Weil das charakteristische Polynom in Linearfaktoren
mit zerfällt, existiert zu A eine Jordan-Normalform J , d. h., es
gibt eine Matrix S D .b1 ; : : : ; bn / 2 Kn n mit
.' idV /.bn / D bn1 :
0 1
J1
Da bn … T , ist B D .b1 ; : : : ; bn / eine Basis von V . Wegen B :: C 1
J D@ : A D S AS ;
0 1
1 Jl
B :: :: C
B : : C
M .'/ D B C wobei J 1 ; : : : ; J l Jordan-Kästchen sind.
B B B :: C
@ : 1A Da A und J ähnlich sind, haben A und J das-
selbe charakteristische Polynom und auch denselben Ei-
genwert mit der gleichen algebraischen und geometri-
ist B eine Jordan-Basis von V bezüglich '. schen Vielfachheit. Damit haben also alle Jordan-Kästchen
J 1 ; : : : ; J l nur als Diagonaleinträge,
Da über dem algebraisch abgeschlossenen Körper C jedes 0 1
Polynom in Linearfaktoren zerfällt, erhalten wir die Folge- 0 1 1
rung: J1 B :: :: C
B C B : : C
A mit J i D B C
J D@ ::
: B :: C
@ : 1A
Jl
Jordan-Normalform komplexer Matrizen
Jeder Endomorphismus ' eines C-Vektorraums V besitzt
eine Jordan-Normalform. Insbesondere ist jede komplexe für i D 1; : : : ; l. Und wegen
Matrix zu einer Jordan-Matrix ähnlich.
mg ./ D dim.ker.J En //
D Anzahl der Jordan-Kästchen von J ;
8.8 Die Berechnung einer
siehe etwa
Jordan-Normalform und Jordan-Basis
0 1
0
B C
In den folgenden Beispielen berechnen wir die Jordan-Nor- B C
B 0 1 C
malformen von Matrizen. Die Jordan-Normalform eines B C
B 0 1 C
Endomorphismus ' erhält man aus der Jordan-Normalform B C
J E7 D B 0 C
einer und damit jeder Darstellungsmatrix von '. B C
B 0 1 C
Wir schildern die Konstruktion einer Jordan-Basis und B C
B C
damit der Jordan-Normalform zuerst an Beispielen. Das all- @ 0 1A
gemeine Vorgehen wird dann schnell klar. Vorher stellen 0
284 Kapitel 8 Normalformen – Diagonalisieren und Triangulieren
Wir betrachten weiterhin die Matrix A 2 Kn n mit dem Damit erhalten wir
charakteristischen Polynom A D . X/n und entschei-
den, wie groß das größte Jordan-Kästchen der Jordan-Nor- .J En /k D 0 , S 1 .A En /k S D 0
malform , .A En /k D 0 :
0 1
J1 Also ist auch A En nilpotent vom Nilpotenzindex r.
B :: C Das besagt, dass der Nilpotenzindex von A En die
J D@ : A
Jl Zeilenanzahl des größten Jordan-Kästchens J j einer Jor-
dan-Normalform von A angibt.
ist, dabei bezieht sich der Begriff Größe auf die Anzahl der
Zeilen bzw. Spalten der Kästchen.
Die Matrix Die Zeilenzahl des größten Jordan-Kästchen
0 1 Die Zeilenzahl des größten Jordan-Kästchens einer Jor-
J 1 En1
dan-Normalform von A ist der Nilpotenzindex r der
B :: C
J En D @ : A Matrix A En .
J l Enl
0
1 0 1 N D A i E2
1
* 0 +
B1C B 0 C
EigA .2/ D B C B C
@ 0 A ; @ 1 A und .A 2 E4 / D 0 :
2 eine wesentliche Rolle spielen. Wir betrachten die folgende
Kette:
0 1
f0g ¨ ker
„ ƒ‚N…1 ¨ „ N…2 :
kerƒ‚
Weil die Dimension des Eigenraums 2 ist, hat die Jordan- 0 1 0 1 0 1
1 1 0
Normalform zwei Jordankästchen zum Eigenwert 2. Weil D @ A D @ A ;@ A
0 0 1
die kleinste natürliche Zahl k mit .A 2 E4 /k D 0 gleich 2
286 Kapitel 8 Normalformen – Diagonalisieren und Triangulieren
Wir wählen vielmehr ein Element b2 2 ker N 2 n ker N 1 , wobei N D A E2 , eine Jordan-Basis zu A.
und zwar
0
b2 D : Dieses Verfahren kann auf größere Matrizen übertragen
1
werden. Wir behandeln auf den nächsten Seiten ausführlich
Dies ist gerade der Basisvektor, den wir zu einer Basis von weitere Beispiele.
ker N ergänzt haben, um eine Basis von ker N 2 zu erhalten. Bei der durchgeführten Konstruktion entstehen auto-
Dieser Vektor b2 erfüllt wegen seiner speziellen Wahl die matisch die größten Jordankästchen unten: Das größte
8 folgenden Eigenschaften: Jordan-Kästchen hat genauso viele Zeilen wie die Kette
4 b2 ist kein Eigenvektor von A, f0g ¨ ker N 1 ¨ ker N 2 ¨ ¨ ker N r echte Inklu-
4 N b2 2 ker N n f0g.
1
sionen aufweist, dies ist gerade der Nilpotenzindex r von
N D A E3 .
Die zweite Eigenschaft gilt, weil b2 2 ker N 2 , d. h., Mit den gesammelten Erfahrungen ist es nun nicht mehr
schwierig, Jordan-Basen zu größeren Matrizen zu bestim-
0 D N 2 b2 D N .N b2 / ; men.
d. h., N b2 2 ker N 1 . Und N b2 ¤ 0, da sonst b2 2 ker N 1 Beispiel Wir bestimmen eine Jordan-Basis und eine Jor-
gelten würde. dan-Normalform zur Matrix
Wir setzen nun b1 D N b2 , 0 1
2 1 1 0 0 0
b1 D N b2 D .A i E2 / b2 D A b2 i b2 : B0 2 1 0 0 0 C
B C
B0 0 2 0 0 0 C
ADB B C 2 R6 6 :
Nun gilt: C
4 b1 , b2 sind linear unabhängig, da b2 2 ker N 2 n hb1 i. B0 1 0 2 1 1C
@0 0 0 0 2 0 A
4 A b1 D i b1 , da b1 2 ker N D EigA .i/. 0 0 1 0 0 2
4 A b2 D 1 b1 C i b2 .
Wegen A D .2 X/6 existiert eine Jordan-Normalform
Also ist B D .b1 ; b2 / eine Jordan-Basis mit der Jordan-
zu A.
Normalform
Wir berechnen für N D A 2 E6 die Kette
i 1
J D f0g ¨ ker N 1 ¨ ker N 2 ¨ ¨ ker N r D R6 :
0 i
Es gilt:
zu A. 0 1 0 1 0 1
1 0 0
Und mit der Matrix S D .b1 ; b2 / gilt J D
S 1 A S . 9 *B 0C B0C B0C+
B C B C B C
B0C B0C B0C
ker N D B C B C B C
B0C ; B1C ; B0C
? Selbstfrage 8.21 B C B C B C
@0A @0A @1A
Ist .b2 ; b1 / auch eine Jordan-Basis zu A?
0 0 1
Wir haben den Vektor b1 noch gar nicht explizit angegeben.
Wir haben auch an keiner Stelle vom speziellen Ausse- und 0 1 0 1 0 1 0 1 0 1
1 0 0 0 0
hen des Vektors b2 Gebrauch gemacht, sondern nur von B C B C B C
der Tatsache, dass b2 2 ker N 2 n ker N 1 gilt. Damit ha-
0 0 0 B
* B C B C B C B C B0 C1C B
C+
B0C B0C B0C B0C B0C
ben wir also ein Verfahren entwickelt, das für beliebige ker N D B
2 C B C B C B C B C
B0C ; B1C ; B0C ; B0C ; B0C
nicht diagonalisierbare 2 2-Matrizen A mit zerfallendem B C B C B C B C B C
@0A @0A @1A @0A @0A
charakteristischem Polynom anwendbar ist, um eine Jor-
dan-Basis zu A zu bestimmen. 0 0 1 0 1
8.8 Die Berechnung einer Jordan-Normalform und Jordan-Basis
287 8
deren einziger Eigenwert die reelle Zahl 1 mit der algebrai- Damit ist also B D .b1 ; b2 ; b3 / eine Jordan-Basis zu A, und
schen Vielfachheit 3 ist. es hat A eine Jordan-Normalform:
0 1
Problemanalyse und Strategie 1 1 0
B C
Wir unterscheiden nach den beiden Fällen " D 1 und " D 0. J D @0 1 1A
In beiden Fällen bilden wir die Matrix N D A 1 E2 , die 0 0 1
Kette 2. Fall " D 0: Wir setzen
f0g ¨ ker N ¨ ker N ¨ ¨ R
1 2 3 0 1
0 1 1
B 0C
und wählen dann beim R3 beginnend sukzessive jeweils der N D A 1 E3 D @0 0 A
Reihe nach die Vektoren b3 ; b2 und b1 , um eine Jordan-Basis 0 0 0
.b1 ; b2 ; b3 / zu A zu erhalten.
Wir berechnen die Kerne der Matrizen N 1 und N 2 :
Lösung
f0g ¨ N…1
kerƒ‚
„ ¨ N…2
kerƒ‚
„
1. Fall " D 1: Wir setzen 0 1 0 1 0 1 0 1 0 1
0 1 * 1 0 C+ * 1 0 C B0C+
0 1 1 B C B B C B
B C B C B C B C B C
B D B C B C D B C B C B C
N D A 1 E3 D @0 0 1CA
B0C ;B 1 C
@ A @ A
B0C ;B 1 C ;B0C
@ A @ A @ A
0 1 0 1 1
0 0 0
Wir berechnen die Kerne der Matrizen N 1 , N 2 und N 3 : Nun ist bereits ker N 2 dreidimensional, ein weiteres Potenzie-
ren der Matrix kann den Kern nicht weiter vergrößern, daher
f0g ¨ „ N…1 ¨ „
kerƒ‚ N…2
kerƒ‚ ¨ N…3
kerƒ‚
„ : bricht diese Kettenbildung bereits hier ab. An dieser Kette
0 1 0 1 0 1 0 1 0 1 0 1
* 1 + * 1 0 + * 1 0 0 + kann man die Struktur der Jordan-Normalform bereits able-
B C B C B C B C B C B C
B C B C B C B C B C B C
D B C
B0C D B C B C
B0C ;B1C D B C B C B C
B0C ;B1C ;B0C
sen: Man wählt einen Vektor b3 aus ker N 2 n ker N 1 , bildet
@ A @ A @ A @ A @ A @ A
0 0 0 0 0 1 diesen mit N auf den Vektor b2 2 ker N 1 n f0g, also auf einen
Eigenvektor, ab und wählt als b1 einen zu b2 linear unabhän-
Es ist ker N 1 der Eigenraum zum Eigenwert 1 von A. Weil gigen Eigenvektor. Weil der Eigenraum zweidimensional ist,
dieser Eigenraum eindimensional ist, können wir gleich fol- ist dies auch möglich. So entsteht eine Jordan-Basis.
0 1ein Element b3 2 ker N n ker N0 , 1und
2 1
gern, dass es nur ein Jordan-Kästchen gibt, damit liegt die Wir wählen
Jordan-Normalform bereits fest. 0 1
ein Element b3 2 ker N 3 n ker N 2 , und zwar B C B C
Wir0wählen
1 zwar b3 D @0A. Nun setzen wir b2 D N b3 D @0A 2
0 1 0
B C
b3 D @0A. Nun setzen wir b2 D N b3 2 ker N 2 n ker N 1 ker N 1 n f0g. Schließlich gilt mit
1 0 1 0 1
und fassen zusammen, 0 * 1 +
0 1 B C B C
b1 D @ 1 A 2 ker N 1 n @0A
1
B C 1 0
b2 D @1A D N b3 D .A 1 E3 / b3 D A b3 1 b3 ;
0 4 b1 , b2 und b3 sind linear unabhängig.
also: 4 A b3 D 1 b2 C 1 b3 .
4 b2 und b3 sind linear unabhängig. 4 A b2 D 1 b2 .
4 A b3 D 1 b2 C 1 b3 . 4 A b1 D 1 b1 .
Wir setzen b1 D N b2 2 ker N 1 n f0g und fassen wieder zu- Damit ist also B D .b1 ; b2 ; b3 / eine Jordan-Basis zu A, und
sammen, es hat A eine Jordan-Normalform:
0 1 0 1
1 1 0 0
B C B C
b1 D @0A D N b2 D .A 1 E3 / b2 D Ab2 1 b2 ; J D @0 1 1A
0 0 0 1
288 Kapitel 8 Normalformen – Diagonalisieren und Triangulieren
Falls nun fb1 ; b2 ; b4 g und fb3 ; b5 g linear unabhängig sind, Ab nun verzichten wir auf die Einschränkung, dass die Ma-
haben wir eine Jordan-Basis .b1 ; : : : ; b6 / gefunden. Dazu trix A 2 Kn n nur einen Eigenwert hat. Es sind dann die
ist nur nachzuprüfen, dass b2 und b4 linear unabhängig verschiedenen Eigenwerte 1 ; : : : ; s von A nacheinander
sind, die restlichen Unabhängigkeiten sind per Konstruk- zu untersuchen. Dazu betrachtet man die Matrizen
tion erfüllt.
N 1 D A 1 En ; : : : ; N s D A s En
Kommentar Man beachte, dass wir bei dieser Konstrukti-
on nicht unbedingt eine Jordan-Basis erhalten: Falls b2 und mit den zugehörigen Ketten
b4 linear abhängig sind, so ist Schritt (ii) mit einer ande-
ren Wahl für b3 zu wiederholen. Diese Problematik lässt f0g ¨ ker N i ¨ ker N i 2 ¨ ¨ ker N i ri D ker N i ri C1 :
sich durch eine Modifikation dieser Konstruktion umgehen;
wir formulieren dieses modifizierte Vorgehen in einem Al- Man nennt die Untervektorräume ker N i j verallgemeiner-
gorithmus in einer Übersicht. Bei Rechnungen mit Bleistift te Eigenräume zum Eigenwert i , den größten verallge-
und Papier ist aber das oben geschilderte Vorgehen im Allge- meinerten Eigenraum ker N i ri bezeichnet man auch als
meinen zu bevorzugen; eventuell muss man einen gewählten Hauptraum zum Eigenwert i . Die Elemente aus dem
Vektor verwerfen und eine neue, geschicktere Wahl treffen. Hauptraum ker N i ri zum Eigenwert i nennt man auch
Hauptvektoren. Wie im Fall eines einzigen Eigenwerts
Wir schildern die Konstruktion in unserem Beispiel aus- zeigt man:
führlich:
(i) Wir wählen
4 b6 D .0; 0; 1; 0; 0; 0/> 2 ker N 3 n ker N 2 , Die Dimension des Hauptraums
Zerfällt das charakteristische Polynom A von A 2 Kn n
und setzen in Linearfaktoren:
4 b5 D N b6 D .1; 1; 0; 0; 0; 1/> 2 ker N 2 n ker N 1 ,
4 b4 D N b5 D .1; 0; 0; 0; 0; 0/> 2 ker N n f0g. A D .1 X/ma .1 / .s X/ma .s / ;
Die Vektoren b6 ; b5 ; b4 liefern ein 3 3-Jordan-Kästchen.
8.8 Die Berechnung einer Jordan-Normalform und Jordan-Basis
289 8
Es gilt:
0 1
so gibt es zu jedem Eigenwert i , i D 1; : : : ; s, und N i D 1
A i En eine natürliche Zahl ri mit 1 ri n und B
*B0C C+
B 0 C
f0g ¨ ker N i ¨ ker N i 2 ¨ ¨ ker N i ri ;
ker.A 2 E6 /1 D B
B0 C
C
B C
@0 A
wobei dim ker N ri i D ma .i /. 0
Die Dimension des Hauptraums zum Eigenwert ist
somit die algebraische Vielfachheit des Eigenwerts . und 0 1 0 1
1 0
*B C B1C
B 0 C B
C+
B0C B0C
Kommentar Für diese Zahlen r1 ; : : : ; rs gilt: ker.A 2 E6 / D B
2 C B C
B0C ; B1C
B C B C
Kn D ker N r1 ˚ ˚ ker N rs : @0A @0A
0 0
Man spricht von der Hauptraumzerlegung des Kn . Dies
nachzuweisen haben wir als Übungsaufgabe formuliert und 0 1 0 1 0 1
(siehe . Abb. 8.9). 1 0 0
B 0 C B
*B C B C B0C
1C B
C+
B0C B0C B1C
Wir erhalten: 3 B C B C B
ker.A 2 E6 / D B C ; B C ; B C C :
B0C B1C B0C
@0A @0A @1A
Zur Anzahl und Größe der Jordan-Kästchen 0 0 0
Es sei A 2 Kn n eine Matrix mit zerfallendem charakte-
ristischem Polynom A . Ist 2 K ein Eigenwert von A Hier bricht die Kette ab, weil der Eigenwert 2 die algebrai-
mit der Kette der verallgemeinerten Eigenräume sche Vielfachheit 3 hat. Es gehören also 3 Jordan-Basisvek-
toren zu dem Eigenwert 2, und diese finden wir in dieser
ker N ¨ ker N 2 ¨ ¨ „ N…r D kerN rC1 ;
kerƒ‚ Kette. An der Kette erkennen wir auch, dass es genau ein
„ƒ‚… 3 3-Jordan-Kästchen zum Eigenwert 2 gibt.
dimDmg ./ dimDma ./
Wir wählen
wobei N D A En , so gilt: 4 b6 D .0; 0; 1; 0; 1; 0/> 2 ker.A2 E6 /3 nker.A2 E6 /2
(a) Die Dimension des Hauptraums ker N r zum Eigen-
und setzen
wert ist die algebraische Vielfachheit ma ./ des
4 b5 D .A 2 E6 / b6 D .1; 1; 0; 1; 0; 0/> 2 ker.A
Eigenwerts .
2 E6 /2 n ker.A 2 E6 /1 ,
(b) Die Dimension des Eigenraums ker N ist die Anzahl
4 b4 D .A 2 E6 / b5 D .1; 0; 0; 0; 0; 0/> 2 ker.A
der Jordan-Kästchen zum Eigenwert .
2 E6 /1 n f0g.
(c) Die Zahl r ist die Länge des größten Jordan-Kästchens
zum Eigenwert . Die Jordan-Basisvektoren b6 ; b5 ; b4 liefern ein 3 3-Jor-
dan-Kästchen.
290 Kapitel 8 Normalformen – Diagonalisieren und Triangulieren
Nun wenden wir das Verfahren auf den zweifachen Ei- Wir erhalten mit der Jordan-Basis B D .b1 ; : : : ; b6 / die
genwert 3 an und berechnen die Kette Jordan-Normalform
0 1
f0g ¨ ker.A 3 E6 /1 ¨ ¨ ker.A 3 E6 /r : 4
B C
B 3 1 C
Es gilt: B C
B 0 3 C
J DB B C
0 1 C
0 B 2 1 0 C
B C
*B0C
B @ 0 2 1A
C+
B0 C 0 0 2
ker.A 3 E6 / D B
1
B1 C
C
B C
@0 A zu A. 9
0
Man kann das Verfahren zur Bestimmung einer Jordan-
und Basis allgemein schildern. Der Formalismus ist nicht ganz
einfach, man kann sich diesen Algorithmus auch nicht gut
0 1 0 1
0 0 einprägen. Durch das Berechnen weniger Beispiele wird
*B 0 C B0 C
B C B C+ die Konstruktion einer Jordan-Basis klar. Die Schwierig-
8 B 0 C B 0 C keit, die bestehen kann, haben wir bereits angedeutet: Es
ker.A 3 E6 /2 D B C B C
B1 C ; B0 C : kann eben passieren, dass beim zweiten Durchlauf der
B C B C
@0 A @1 A Kette zwei Vektoren bi und bj aus ein und demselben ver-
0 0 allgemeinerten Eigenraum konstruiert werden, die jedoch
linear abhängig sind. Somit können diese Vektoren nicht
Hier bricht die Kette ab, weil der Eigenwert 3 die algebrai- Elemente einer Jordan-Basis sein. Wir formulieren in einer
sche Vielfachheit 2 hat. Es gehören also 2 Jordan-Basisvek- Übersicht einen Algorithmus, der dieses Problem bewältigt.
toren zu dem Eigenwert 3, und diese finden wir in dieser
Kette. An der Kette erkennen wir auch, dass es genau ein
2 2-Jordan-Kästchen zum Eigenwert 3 gibt. Die Jordan-Normalform einer Matrix ist bis
Wir wählen auf die Reihenfolge der Jordan-Kästchen
4 b3 D .0; 0; 0; 0; 1; 0/> 2 ker.A3 E6 /2 nker.A3 E6 /1 eindeutig bestimmt
und setzen
4 b2 D .A 3 E6 / b3 D .0; 0; 0; 1; 0; 0/> 2 ker.A Bei den bisherigen Beispielen zur Jordan-Normalform ei-
2 E6 /1 n f0g. ner Matrix A spielte die Matrix N D A En eine
Schlüsselrolle. Mit den praktischen Erfahrungen, die wir in
Die Jordan-Basisvektoren b3 ; b2 liefern ein 2 2-Jordan- den Beispielen gesammelt haben, fällt es nun nicht mehr
Kästchen. schwer, die folgenden Ergebnisse nachzuvollziehen:
Schließlich wenden wir das Verfahren auf den Eigen- Für eine Matrix A 2 Kn n , 2 K und k 2 N setzen
wert 4 an. Weil 4 ein einfacher Eigenwert ist, bricht die wir
Kette bereits nach dem Eigenraum ab, da nur ein Jordan-
Basisvektor zu diesem Eigenwert gehört, und dieser ist ein rk .A; / D rg.A En /k :
Eigenvektor:
Die Zahl rk .A; / ist der Rang der Matrix .A En /k .
Falls kein Eigenwert von A ist, so gilt rk .A; / D n.
f0g ¨ ker.A 4 E6 /1 :
Falls ein Eigenwert von A ist, so steigt die Folge
Und es gilt: .rk .A; //k monoton und konvergiert gegen die algebrai-
sche Vielfachheit des Eigenwerts .
0 1 Für jedes k 2 N setzen wir weiter:
0
*B 0C
B C+ ck .A; / D rkC1 .A; / C rk1 .A; / 2 rk .A; /
B 0C
ker.A 4 E6 /1 D BB0 C
C :
B C und zeigen:
@1 A
1 Lemma Zerfällt das charakteristische Polynom A von
A 2 Kn n , so ist für jeden Eigenwert von A die Zahl
Der Jordan-Basisvektor b1 D .0; 0; 0; 0; 1; 1/> liefert ein ck .A; /, k 2 N, die Anzahl der Jordan-Kästchen der Län-
1 1-Jordan-Kästchen. ge k zum Eigenwert .
8.8 Die Berechnung einer Jordan-Normalform und Jordan-Basis
291 8
Gegeben ist eine Matrix A 2 Kn n mit in Linearfaktoren folgt, dass die Menge
zerfallendem charakteristischem Polynom. Das Bestimmen
einer invertierbaren Matrix S , die die Eigenschaft hat, dass [
tr
Bi
J D S 1 A S eine Jordan-Matrix ist, nennt man auch Trans- iD1
formation von A auf Jordan-Normalform. Als Spalten der
Matrix S wählt man dabei die Vektoren einer Jordan-Basis linear unabhängig ist.
des Kn von A. Zur Transformation dieser Matrix A geht man 4 Iteration für k D r 1; : : : ; 1:
meistens wie folgt vor: Für i D 1; : : : ; tkC1 DW t 0 seien schon die Vektoren
A D .1 X/ma .1 / .s X/ma .s / bestimmt, sodass .bk;1 ; : : : ; bk;t 0 / eine geordnete linear
unabhängige Menge ist; wir setzen
das charakteristische Polynom von A mit den s verschiedenen
Eigenwerten 1 ; : : : ; s . Tk1 D ker N k1 ˚ hbk;1 ; : : : ; bk;t 0 i :
Für jeden Eigenwert von A setze N D A En und
bestimme dann wie folgt eine Jordan-Basis des Hauptraums Falls tk > tkC1 , so bestimme linear unabhängige Vektoren
HauA ./: bk;i mit i D t 0 C 1; : : : ; tk , sodass
4 Bestimme ˝ ˛
ker N k D Tk1 ˚ bk;t 0 C1 ; : : : ; bk;tk
r
ker N ; : : : ; ker N ;
und für i D t 0 C 1; : : : ; tk
wobei dim ker N r D ma ./. Setze
bl;i D N kl bk;i für l D k 1; : : : ; 1 :
tk D dim ker N k dim ker N k1 für k D r; : : : ; ; 1 :
ker N r D ker N r1 ˚ hbr;1 ; : : : ; br;tr i : linear unabhängig und liefert ein k k-Jordan-Kästchen.
Falls tk D tkC1 , so gehe zu k 1 über.
4 Berechne für i D 1; : : : ; tr 4 Die geordnete Menge
Es ist Bi D .b1;i ; : : : ; br;i / eine geordnete linear unabhän- ist eine geordnete Jordan-Basis des Hauptraums HauA ./.
gige Menge, die ein r r-Jordan-Kästchen liefert. Da
Die Vereinigung und Anordnung der Jordan-Basen aller
br;i … ker N r1 ˚ hfbr;1 ; : : : ; br;tr g n fbr;i gi Haupträume liefert dann eine Jordan-Basis zu A.
Beweis Da für zueinander ähnliche Matrizen A und B für für i D 1; : : : ; l. Wegen der Dreiecksgestalt von A gilt:
jedes k 2 N0 die Zahlen rk .A; / und rk .B; / gleich sind,
können wir ohne Einschränkung annehmen, dass A in Jor- X
l
dan-Normalform vorliegt: rk .A; / D rk .J i ; / :
0 1 i D1
J1
B :: C
AD@ : A Nun sei i 2 f1; : : : ; lg.
Jl 1. Fall. i ¤ : Dann ist die Matrix J Eni in-
0 1 vertierbar. Somit ist auch .J Eni /k für jedes k 2 N0
i 1 invertierbar. Es folgt:
B :: :: C
B : : C
mit J i D B B C 2 Kni ni
:: C rk .J i ; / D ni für jedes k 2 N
@ : 1A
i und somit ck .J i ; / D 0.
292 Kapitel 8 Normalformen – Diagonalisieren und Triangulieren
Man bestimme zu der Matrix Wegen dim ker N 3 D 5 D ma .2/ ist ker N 3 der Hauptraum
0 1 von A zum Eigenwert 2, und es gilt:
2 1 1 1 0 0 0 0
B0 2 1 0 1 1 0 0C 0 1 0 1 0 1 0 1 0 1 0 1 0 1
B C 1 0 0 1 0 0 0
B0 0C B0C B 1 C B 1 C B0C B 1 C B 1 C B0C
B 0 2 0 0 1 2 C B C B C B C B C B C B C B C
B C B0C B 0 C B1C B0C B 0 C B1C B0C
B0 0 0 2 0 1 1 0C C C B C B C B C
ADB
B0
C B C B C B
*B C B C B C + *B B C B C B C B C+
B 0 0 0 2 0 0 0C
C B0C B1C B 0 C B0C B1C B 0 C B1C
B0 B C;B C;B C ¨ B C;B C;B C;B C
B 0 0 0 0 1 0 0C
C B0C B 0 C B 1 C
B C B C B C
B0C B 0 C B 1 C B0C
B C B C B C B C
B C B0C B 0 C B 0 C B0C B 0 C B 0 C B0C
@0 0 0 0 0 0 1 0A B C B C B C B C B C B C B C
B C B C B C B C B C B C B C
0 0 0 0 0 2 1 1 @0A @ 0 A @ 0 A @0A @ 0 A @ 0 A @0A
0 0 0 0 0 0 0
eine Jordan-Normalform und eine Jordan-Basis. „ ƒ‚ … „ ƒ‚ …
Dker N Dker N 2
Problemanalyse und Strategie 0 1 0 1 0 1 0 1 0 1
1 0 0 0 0
B0C B 1 C B 1 C B0C B0C
Man wende das geschilderte Verfahren an. B C B C B C B C B C
B0C B 0 C B1C B0C B1C
8 *B C B C B C B C B C
B C B C B C B C B C+
Lösung B0C B1C B 0 C B1C B0C
¨ B C B C B C B C B C
B0C ; B 0 C ; B 1 C ; B0C ; B0C :
Das charakteristische Polynom von A erhält man leicht wegen B C B C B C B C B C
B0C B 0 C B 0 C B0C B0C
der Blockdreiecksgestalt und der Dreiecksgestalt der Blöcke B C B C B C B C B C
B C B C B C B C B C
auf der Diagonalen, es gilt: @0A @ 0 A @ 0 A @0A @0A
0 0 0 0 0
A D .2 X/5 .1 X/3 : „ ƒ‚ …
Dker N 3
Wir machen nun mit dem Eigenwert 1 weiter. Wir setzen zum Eigenwert 2. Wir wählen und setzen
N D A E8 und erhalten
0 1 0 1
1 0
0 1 B2C B0C
1 1 1 1 0 0 0 0 B C B C
B0 B1C B0C
B 1 1 0 1 1 0 0C
C B C
B C
B C
B C
B0 0C B0C B0C
B 0 1 0 0 1 2 C b3 D B C ; b2 D N b3 D B
B C C
B C B0C :
B0 0 0 1 0 1 1 0C 0
B C B C
N DB
B0
C; B1C B0C
B 0 0 0 1 0 0 0C
C B C
B C
B C
B C
B0 0C @1A @0A
B 0 0 0 0 0 0 C
B C
@0 0 0 0 0 0 0 0A 0 1
0 0 0 0 0 2 1 0
0 1 Damit haben wir bereits einmal die Kette von hinten nach vor-
1 2 3 2 1 3 3 0
ne durchlaufen. Nun wählen wir einen Vektor b1 2 ker N n
B0 1 2 0 2 2 2 0C
B C f0g, sodass b1 ; b2 linear unabhängig sind:
B0 0C
B 0 1 0 0 1 2 C
B C 0 1
B0 0 0 1 0 1 1 0C 0
N DB
2
B0
C
B 0 0 0 1 0 0 0C
C B4C
B0 B C
B 0 0 0 0 0 0 0C
C B3C
B C
B C B C
@0 0 0 0 0 0 0 0A B1C
0 0 0 0 0 0 0 0 b1 D B
B0C:
C
B C
B1C
B C
B C
Wegen dim ker N 2 D 3 D ma .1/ ist ker N 2 der Hauptraum @2A
von A zum Eigenwert 1. Und es gilt: 0
Beispiel Gegeben ist die Matrix d. h., dass es kein Jordan-Kästchen der Länge 2 zum Eigen-
0 1 wert 1 gibt. Weiter gilt:
3 1 4 3 1
B1 1 1 1 0C c3 .A; 1/ D r4 .A; 1/ C r2 .A; 1/ 2 r3 .A; 1/ D 1 ;
B C „ ƒ‚ … „ ƒ‚ … „ ƒ‚ …
B
ADB 1 0CC2C
0 2 0 5 5
: D1 D2 D1
@4 1 4 5 1 A
2 0 2 2 1 d. h., dass es genau ein Jordan-Kästchen der Länge 3 zum
Eigenwert 1 gibt.
Als charakteristisches Polynom erhalten wir Eine Jordan-Normalform von A ist damit
A D .2 X/ .1 X/4 : 0 1
2
B C
Zum Eigenwert D 2: Die Matrix B 1 C
B C
0 1 J DB B C
5 1 4 3 1 1 1 0C
B C
B 1 1 1 1 0C @ 0 1 1A
B C
A 2 E5 D B
B 1 0 0 0 0C
C 0 0 1
@4 1 4 7 1 A
2 0 2 2 1 Natürlich muss man nicht alle Zahlen ck bestimmen, wenn
8 man nur herausfinden will, wie die Jordan-Normalform
hat den Rang 4. Der Rang der Matrix .A 2 E5 /2 ist damit aussieht. Wir hätten nur mit der Bestimmung von c1 bereits
auch 4, da für die algebraische Vielfachheit 1 D ma .2/ D eine Jordan-Normalform erkannt: Dass es nur ein Jordan-
5 rg.A 2 E5 / gilt. Kästchen zum Eigenwert 2 gibt, ist klar, da 2 ein einfacher
Damit erhalten wir Eigenwert ist. Und dass das zweite (dass es nur zwei gibt,
folgt aus mg .1/ D 2) Jordan-Kästchen zum Eigenwert 1 ein
c1 .A; 2/ D r2 .A; 2/ C r0 .A; 2/ 2 r1 .A; 2/ D 1 ; Kästchen der Länge 3 ist, ist auch klar, da 1 ein vierfacher
„ ƒ‚ … „ ƒ‚ … „ ƒ‚ …
D4 D5 D4 Eigenwert ist. 9
d. h., dass es (wie erwartet) genau ein Jordan-Kästchen der
Wir sprechen immer von einer Jordan-Normalform und
Länge 1 zum Eigenwert 2 gibt.
nicht von der Jordan-Normalform. Das liegt an der Tatsa-
Zum Eigenwert D 1: Die Matrix
che, dass es zu einer Matrix durchaus verschiedene Jordan-
0 1
4 1 4 3 1 Normalformen geben kann. Es scheint aber so zu sein, dass
B1 0 1 1 0C sich je zwei verschiedene Jordan-Normalformen nur in der
B C
B
A E5 D B1 0 1 0 0C Anordnung der Jordan-Kästchen unterscheiden. Dass dem
C
@4 1 4 6 1 A tatsächlich so ist, können wir nun zeigen.
2 0 2 2 0
Zwei Matrizen A; B 2 Kn n
heißen ähnlich, wenn es eine 4 Ist A diagonalisierbar, so auch B, die Diagonalformen
invertierbare Matrix S 2 Kn n
gibt mit können gleich gewählt werden.
4 Ist A triangulierbar, so auch B.
B D S 1 A S : 4 Gibt es zu A eine Jordan-Normalform, so auch zu B, die
Jordan-Normalformen können gleich gewählt werden.
Wir stellen die gemeinsamen Eigenschaften ähnlicher Matri- 4 A und B haben dasselbe charakteristische Polynom.
zen zusammen. 4 A und B haben dieselben Eigenwerte.
4 Die algebraischen Vielfachheiten der Eigenwerte von A
Die n n-Matrizen A und B seien ähnlich. Es gelte B D und B stimmen überein.
S 1 A S . 4 Die geometrischen Vielfachheiten der Eigenwerte von A
4 A und B haben dieselbe Determinante. und B stimmen überein.
4 A und B haben dieselbe Spur. 4 Die Dimensionen der verallgemeinerten Eigenräume zu
4 Ist A invertierbar, so auch B. einem Eigenwert von A und B stimmen überein.
Basen darstellen. Wegen der Transitivität der Ähnlichkeits- Das folgende Beispiel zeigt eine wichtige Anwendung der
relation von Matrizen folgt aus Jordan-Normalform.
A JA JB B
Beispiel Mittels der Jordan-Normalform kann man späte
die Ähnlichkeit von A und B. Folgenglieder rekursiv definierter Folgen relativ einfach be-
stimmen. Dabei benutzen wir einen Trick, den wir auch
schon beim Diagonalisieren benutzt haben. Wir betrachten
Potenzen von Matrizen die Folge .gn /n2N0 mit
in Jordan-Normalform lassen
sich einfach bestimmen g0 D 0; g1 D 1; gnC1 D 4gn1 C 4gn für n 1
Die Jordan-Zerlegung der Jordan-Normalform Nun bestimmen wir eine Jordan-Basis zu A und eine
Ist J eine Jordan-Normalform, so gibt es eine Diagonal- zugehörige Jordan-Normalform J . Das charakteristische
matrix D und eine nilpotente Matrix N mit 1
Polynom von A lautet A D .2 X/2 , und spannt
2
J D D C N und D N D N D : den eindimensionalen Eigenraum zum Eigenwert 2 der al-
gebraischen Vielfachheit 2 auf.
Wir nennen diese Darstellung der Jordan-Matrix J als 1
Summe die Jordan-Zerlegung von J . Wir wählen den Vektor b2 D 2 ker.A 2 E2 /2 n
0
2
ker.A 2 E2 / und setzen b1 D .A 2 E2 / b2 D .
4
Beispiel
Damit ist B D .b1 ; b2 / eine geordnete Jordan-Basis,
0 1 0 1 0 1
2 1 2 1 und es hat A die Jordan-Normalform
B 2 C B 2 C B C
B CDB CCB C 9 2 1
@ 3 1A @ 3 A @ 1A J D
3 3 0 2
296 Kapitel 8 Normalformen – Diagonalisieren und Triangulieren
Weiter erfüllt die Matrix S D .b1 ; b2 /, deren Spalten ge- setzen wir A für X ein und erhalten
rade die Elemente der Jordan-Basis sind, die Eigenschaft
J D S 1 A S . A .A/ D .1/n A n C cn1 A n1 C
Damit und mit der angegebenen Rekursion können wir C C c1 A C c0 A 0 D 0 :
nun g20 ermitteln, es gilt nämlich:
Es gibt viele weitere Polynome, die A als Nullstellen ha-
g19 g18 g0 g0
DA D A 19 D S J 19 S 1 : ben, so haben etwa alle Vielfachen von A auch A als
g20 g19 g1 g1
Nullstelle.
Wir setzen nun
Zu jeder quadratischen Matrix gibt es genau
2 0 0 1
J D C ein Minimalpolynom
0 2 0 0
„ ƒ‚ … „ ƒ‚ …
DWD DWN
Wir suchen ein ganz bestimmtes Polynom, das A als Null-
und berechnen J 19 mit der Formel aus dem Satz Die Potenz stelle hat und werden dies dann das Minimalpolynom von
einer Summe einer Diagonalmatrix und einer nilpotenten A nennen: Den Schlüssel zur Eindeutigkeit liefert dabei
Matrix aus 7 Abschn. 8.7: die sogenannte Normierung: Man nennt ein Polynom nor-
8 19 miert, falls der höchste Koeffizient 1 ist.
2 19 218
J D D C 19 D N D
19 19 18
0 219
Beispiel Das Polynom
man
Daraus erhält nach Berechnen der zweiten Zeile von
19 1 g0 P D 3X 3 12X 2 C 9
SJ S das Ergebnis g20 D 20 219 . 9
g1
ist nicht normiert, da es den höchsten Koeffizienten 3 ¤ 1
Nun können wir auch eine bereits früher gemachte Behaup- hat. Wir normieren es, indem wir es mit 1 3
multiplizieren
tung beweisen: und erhalten damit das normierte Polynom
Q D X 3 C 4X 2 3 : 9
Der Zusammenhang zwischen Spur, Determinante
und den Eigenwerten einer Matrix In den folgenden Ausführungen benutzen wir immer wie-
Zerfällt das charakteristische Polynom A der Matrix A 2 der die folgende Tatsache, die wir im 7 Abschn. 2.4 nach-
Kn n in seine n Linearfaktoren, d. h. gewiesen haben: Sind P und Q irgendwelche Polynome
aus KŒX, so gelten für das Einsetzen einer Matrix A 2
A D .1 X/ .n X/ ; Kn n die Regeln:
in I n f0g. Aber wegen deg.P A / < r ist das ein Wider- P .A/ v D .ar A r C C a1 A C a0 En / v
spruch. Unser Polynom A war doch ein Polynom in I nf0g D ar A r v C C a1 A v C a0 En v
mit kleinstem Grad. Somit muss P A D 0 gelten, das D ar r v C C a1 v C a0 v
liefert P D A .
D .ar r C C a1 C a0 /v
Zu jeder quadratischen Matrix gibt es somit ein eindeutig D P ./ v :
bestimmtes Minimalpolynom. Wie wir dieses Minimalpo-
lynom zu einer Matrix A bestimmen können, ist aber noch Mit der Wahl A für P erhalten wir wegen A .A/ D 0
unklar. somit A ./ D 0, da v ¤ 0 gilt.
4 Die reelle Matrix Somit ist A ein Vielfaches von B . Analog folgt, dass
0 1 B ein Vielfaches von A ist. Wegen der Normierung der
3 1 4 3 1
B1 beiden Polynome, sind die beiden Minimalpolynome somit
B 1 1 1 0C C
B gleich. Damit haben wir gezeigt:
A D B1 0 2 0 0CC
@4 1 4 5 1 A
2 0 2 2 1
Ähnlichkeit und Minimalpolynome
Zueinander ähnliche Matrizen haben dasselbe Minimalpo-
hat das charakteristische Polynom A D .1 X/ .2 4
lynom.
X/. Für das Minimalpolynom gilt also
A 2 f.X 1/ .X 2/ ; .X 1/2 .X 2/ ;
.X 1/3 .X 2/ ; .X 1/4 .X 2/g : i Es kann durchaus sein, dass Matrizen nicht ähnlich sind
und dennoch dasselbe Minimalpolynom haben, z. B. sind
Durch Probieren findet man die beiden Matrizen
0 1 0 1
.A E5 / .A 2E5 / ¤ 0 ; .A E5 /2 .A 2E5 / ¤ 0 ; 0 0 0 0 0 1 0 0
B0 0 0 0C B0 0 0 0C
B C B C
aber ADB C und B D B C
@0 0 0 1A @0 0 0 1A
8 .A E5 /3 .A 2E5 / D 0 ; 0 0 0 0 0 0 0 0
kann man an der Jordan-Normalform J der Matrix A das Beweis Die Matrix A sei diagonalisierbar mit den ver-
Minimalpolynom von J und wegen der Ähnlichkeit von J schiedenen Eigenwerten 1 ; : : : ; r . Da es eine Basis des
zu A auch jenes von A ablesen. Es ist Kn aus Eigenvektoren der Matrix A gibt, ist jedes Element
v 2 Kn darstellbar als Summe
A D .X 1 / .X r /
l1 lr
v D v1 C : : : C v r ;
das Minimalpolynom von A, wobei li die Zeilen- bzw.
Spaltenzahl des größten Jordankästchens zum Eigenwert i wobei die vi 2 EigA .i / Eigenvektoren von A zum Eigen-
ist. wert i sind. Wir betrachten das Polynom
A D .X 1/2 .X 2/3 ; B D X 3 9 A D .X 1 / .X r / ;
Ist eine Matrix diagonalisierbar, so ist die Jordan-Normal- wobei die Skalare 1 ; : : : ; r verschieden seien.nWir zeigen
form dieser Matrix sogar eine Diagonalform, sämtliche per Induktion nach der Dimension n D dim.K /, dass die
Jordan-Kästchen haben die Länge 1. Es gilt somit: Matrix A diagonalisierbar ist.
Ist n D 1, so hat die Matrix A D .1 / bereits Diago-
Folgerung Ist eine Matrix A 2 Kn n diagonalisierbar
nalform. Daher sei n > 1.
mit den verschiedenen Eigenwerten 1 : : : ; r , so hat diese 1. Fall. r D 1: Da in diesem Fall das Minimalpolynom
Matrix das Minimalpolynom A D X 1 ist, gilt A 1 En D 0, sodass A bereits
Diagonalform hat, insbesondere also diagonalisierbar ist.
A D .X 1 / .X r / : 2. Fall. r > 1: Zu dem Eigenwert 1 von A betrachten
wir die folgenden beiden Untervektorräume des Kn :
Wir halten dieses Ergebnis in einer deutlich allgemeineren
U D fv 2 Kn j A v 1 v D 0g und
Form fest und führen den Beweis (der einen Richtung) er-
neut, ohne die Jordan-Normalform dazu heranzuziehen: W D fw 2 Kn j A v 1 v D w ; v 2 Kn g
300 Kapitel 8 Normalformen – Diagonalisieren und Triangulieren
Es ist somit U der Kern und W das Bild der linearen Ab- Wir wählen eine geordnete Basis .u1 : : : ; ur / von U und
bildung v 7! .A 1 En / v. Der Kern U ist gerade der ergänzen diese mit linearen unabhängigen Vektoren aus W
Eigenraum von A zum Eigenwert 1 . zu einer Basis
Wir zeigen nun:
B D .u1 : : : ; ur ; wrC1 : : : ; wn /
Kn D U ˚ W :
des Kn . Für die Darstellungsmatrix A Q der linearen Abbil-
Zum Nachweis dieser Gleichheit dividieren wir vorab das
dung 'A W v 7! A v bzgl. der Basis B gilt
Polynom P D .X 2 / .X r / vom Grad größergleich
1 (da r > 1) durch das Polynom X 1 vom Grad 1 mit 0 1
1 0
Rest und erhalten daher einen Rest vom Grad kleiner als 1. B C
::
Es gilt sogar mit einem Q 2 KŒX: Q D B M .'A /B D B
A B : 0C
C:
@0 1 A
P D .X 1 / Q C R mit R 2 K n f0g ; (8.7) 0 C
8.2 Wieso hat jede Matrix A 2 Kn n mit A 2 D En 8.9 Im Vektorraum RŒX3 der reellen Polynome
einen der Eigenwerte ˙1 und keine weiteren? vom Grad höchstens 3 ist für ein a 2 R die Abbildung
'W RŒX3 ! RŒX3 durch
8.3 Haben die quadratischen n n-Matrizen A
'.p/ D p.a/ C p 0 .a/.X a/
und A > dieselben Eigenwerte? Haben diese gegebenenfalls
auch dieselben algebraischen und geometrischen Vielfach- erklärt.
heiten? (a) Begründen Sie, dass ' linear ist.
(b) Berechnen Sie die Darstellungsmatrix von ' bezüglich
8.4 Gegeben ist eine Matrix A 2 C n n . Sind die der Basis E3 D .1; X; X 2 ; X 3 / von RŒX3 .
>
Eigenwerte der quadratischen Matrix A A die Quadrate (c) Bestimmen Sie eine geordnete Basis B von RŒX3 ,
der Eigenwerte von A? bezüglich der die Darstellungsmatrix von ' Diagonal-
gestalt hat.
8.5 Der Satz von Cayley-Hamilton bietet eine Mög-
lichkeit, 8.10 Gegeben sei die vom Parameter a 2 R abhängi-
(a) das Inverse A 1 einer (invertierbaren) Matrix A zu be- ge Matrix
stimmen, 0 1
p 5 1 3
(b) eine Quadratwurzel p A einer komplexen Matrix A 2
AD@ 2 2 3 A 2 R3 3 :
C 2 2 mit Sp A C 2 det A ¤ 0 zu bestimmen (dabei
a3 1 a1
heißt eine Matrix B eine Quadratwurzel aus A, falls
B D A gilt).
2
(a) Bestimmen Sie in Abhängigkeit von a die Jordan-Nor-
malform J von A.
Wie funktioniert das? Berechnen Sie mit dieser Methode (b) Berechnen Sie für a D 1 und a D 1 jeweils eine
das Inverse von A und eine Quadratwurzel B von A 0 , wo- Jordan-Basis des R3 zu A.
bei
0 1
1 4 2
2 6 Beweisaufgaben
A D @0 1 0 A und A 0 D
3 7
0 3 1
8.11 Beweisen Sie das folgende Kriterium für die Tri-
8.6 Man nennt eine Matrix A 2 Kn n idempotent, angulierbarkeit einer Matrix:
falls A D A gilt. Wieso ist jede idempotente Matrix A
2 Für eine Matrix A 2 Kn n sind äquivalent:
diagonalisierbar? (i) A ist triangulierbar.
(ii) Das charakteristische Polynom A von A zerfällt in Li-
nearfaktoren.
Rechenaufgaben 8.12 Begründen Sie die Binomialformel für Matrizen:
Für Matrizen D; N 2 Kn n mit D N D N D und jede
8.7 Geben Sie die Eigenwerte und Eigenvektoren natürliche Zahl k gilt:
der folgenden !
Matrizen
an:
X k
k
3 1 .D C N / Dk
D ki N i :
(a) A D 2 R2 2 , i
1 1 i D0
0 1
(b) B D 2 C2 2. 8.13 Gegeben ist eine nilpotente Matrix A 2 C n n
1 0
mit Nilpotenzindex p 2 N, d. h., es gilt:
8.8 Welche der folgenden Matrizen sind diagonali- A p D 0 und A p1 ¤ 0:
sierbar? Geben Sie gegebenenfalls eine invertierbare Ma-
1 Zeigen Sie:
D S A S Diagonalgestalt hat.
trix S an,sodass D
(a) Die Matrix A ist nicht invertierbar.
1 i
(a) A D 2 C2 (b) Die Matrix A hat einen Eigenwert der Vielfachheit n.
i 1
0 1 (c) Es gilt p n.
3 0 7
(b) B D @0 1 0A 2 R3 8.14 Es sei ' ein diagonalisierbarer Endomorphismus
7 0 3 eines n-dimensionalen K-Vektorraumes V (n 2 N) mit der
0 1
1 2 2 Eigenschaft: Sind v und w Eigenvektoren von ', so ist v C
(c) C D 13 @2 2 1 A 2 C 2 w ein Eigenvektor von ' oder v C w D 0.
2 1 2 Zeigen sie, dass es ein 2 K mit ' D id gibt.
302 Kapitel 8 Normalformen – Diagonalisieren und Triangulieren
Inhaltsverzeichnis
n Sie finden unter anderem Antworten zu . . . einem kompakten Intervall stetiger reellwertiger Funktio-
4 Was ist der kürzeste Abstand eines Vektors zu einem nen. Wir beginnen mit dem reellen Fall.
Untervektorraum?
4 Warum sind symmetrische Matrizen diagonalisierbar?
4 Sind die Darstellungsmatrizen orthogonaler Endo- Längen von Vektoren und Winkel
morphismen orthogonal? zwischen Vektoren sind im R2 bzw. R3
4 Wann ist eine Matrix normal? mit dem Skalarprodukt bestimmbar
Im 7 Kap. 5 zur analytischen Geometrie haben wir ausführ-
lich das kanonische Skalarprodukt im (reellen) Anschau- Für jede natürliche Zahl n und Vektoren
ungsraum behandelt. Wir haben festgestellt, dass zwei 0 1 0 1
v1 w1
Vektoren genau dann orthogonal zueinander sind, wenn ihr
B :: C B :: C
Skalarprodukt den Wert Null ergibt. v D @ : A ; w D @ : A 2 Rn
Wir sind auch mit höherdimensionalen reellen und kom- vn wn
plexen Vektorräumen und auch mit Vektorräumen, deren
Elemente Funktionen oder Polynome sind, vertraut. Es ist nannten wir das Produkt
daher eine naheliegende Frage, ob es auch möglich ist, ein
X
n
Skalarprodukt zwischen Vektoren solcher Vektorräume zu v w D v> w D vi wi 2 R
erklären. Dabei sollte aber das vertraute Standardskalarpro- i D1
dukt des Anschauungsraums verallgemeinert werden. Dass
dies in vielen Vektorräumen möglich ist, zeigen wir im das kanonische Skalarprodukt oder auch das Standard-
vorliegenden Kapitel. Dabei können wir aber nicht mehr skalarprodukt von v und w. Dieses ist ein Produkt zwi-
mit der Anschauung argumentieren. Wir werden vielmehr schen zwei Vektoren des reellen Vektorraums Rn , bei dem
die algebraischen Eigenschaften des Skalarprodukts im als Ergebnis eine reelle Zahl entsteht.
Anschauungsraum nutzen, um ein (allgemeines) Skalarpro-
dukt in reellen bzw. komplexen Vektorräumen zu erklären. Kommentar Statt v w schreibt man oft auch hv; wi oder
Damit gelingt es dann auch von einer Orthogonalität von s.v; w/. Und anstelle von v v findet man oft auch die
Funktionen zu sprechen – Funktionen sind per Definition Schreibweise v2 . Wir werden üblicherweise die Notation
dann orthogonal, wenn ihr Skalarprodukt den Wert null hat. v w, falls es sich um Vektoren v und w des Rn oder um
Tatsächlich erfordern viele Anwendungen der linearen nicht näher spezifizierte Vektoren handelt. Sind v und w
Algebra, wie etwa die abstrakte Formulierung der Quan- aber Funktionen f und g eines Vektorraums von Funktio-
tenmechanik, eine solche Orthogonalitätsrelation für Funk- nen, so bevorzugen wir die Schreibweise hf; gi, da dies bei
tionen. Auch bei der Entwicklung periodischer Funktionen Funktionen die übliche Notation ist.
in eine Fourierreihe behilft man sich mit der Tatsache, dass
das Skalarprodukt zwischen bestimmten trigonometrischen In den Anschauungsräumen, also in den Fällen n D 2 und
Funktionen den Wert null hat. n D 3, drückt v w D 0 die Tatsache aus, dass die beiden
Wie immer in der Algebra betrachten wir neben einer Vektoren v und w senkrecht aufeinanderstehen. Der Wert
algebraischen Struktur, in vorliegendem Fall die euklidi- p q
schen und unitären Vektorräume, die strukturerhaltenden kvk D v v D v12 C v22 bzw.
Abbildungen. Da lineare Abbildungen in verschiedener Art p q
und Weise mit Skalarprodukten verträglich sein können, kvk D v v D v12 C v22 C v32 ;
unterscheiden wir auch verschiedene Arten von linearen
also die Wurzel des Skalarprodukts eines Vektors mit sich
Abbildungen. Wir behandeln ausführlich orthogonale bzw.
selbst, gibt die Länge des Vektors v an. Anstelle von der
unitäre, selbstadjungierte und normale Endomorphismen.
Länge eines Vektors sprachen wir auch von der Norm eines
Wir können auch entscheiden, welche dieser Endomorphis-
Vektors.
men diagonalisierbar sind.
?Selbstfrage 9.1
p
9.1 Euklidische Vektorräume Wieso existiert v v für jedes v 2 R2 bzw. R3 ? Anders
gefragt: Wieso ist v v eine nicht negative reelle Zahl?
Wir wollen den Begriff des Senkrechtstehens zweier Vek- Über die geometrischen Eigenschaften des kanonischen
toren weitreichend verallgemeinern. Neben den bisher be- Skalarprodukts wurde im 7 Kap. 5 berichtet. Nun stellen
trachteten Vektorräumen Rn und C n , in denen wir von wir die algebraischen Eigenschaften dieses Skalarprodukts
zueinander orthogonalen Vektoren gesprochen haben, wol- in den Vordergrund und definieren dann den allgemei-
len wir eine solche Relation auch für Elemente abstrakter nen Begriff eines Skalarprodukts eines reellen Vektorraums
Vektorräume erklären, wie etwa dem Vektorraum aller auf durch diese Eigenschaften.
308 Kapitel 9 Euklidische und unitäre Vektorräume – orthogonales Diagonalisieren
. v/ w D . v/> A w D v> A w D .v w/ . Abb. 9.1 Der Graph der stetigen Funktion f 2 schließt mit der t-Achse
einen positiven Flächeninhalt ein
gilt. Das besagt, dass das so definierte Produkt linear
im ersten Argument ist. Das Produkt ist auch symme-
Aufgrund der Rechenregeln für das Integral gilt für alle
trisch, da wegen
Funktionen f; g; h 2 C.I /:
v> A w D .v> A w/> D w> A > v Zb
(das Transponieren ändert eine reelle Zahl nicht) und hf C g; hi D .f .t/ C g.t// h.t/ dt
der Symmetrie der Matrix A, d. h. A > D A, gilt: a
Zb Zb
v w D v > A w D w> A > v D f .t/ h.t/ C g.t/ h.t/ dt
D w> A v D w v : a a
D hf; hi C hg; hi :
Und schließlich
ist das Produkt positiv definit, da für
v1 Analog gilt für jede reelle Zahl :
alle v D 2 R2 gilt:
v2
h f; gi D hf; gi :
> v1
v v D v A v D .2 v1 C v2 ; v1 C v2 / Damit ist bereits gezeigt, dass h ; i linear im ersten Ar-
v2
gument ist. Für alle f; g 2 C.I / gilt:
D 2 v12 C 2 v1 v2 C v22
D v12 C .v1 C v2 /2 0 ; Zb Zb
hf; gi D f .t/ g.t/ dt D g.t/ f .t/ dt D hg; f i ;
und Gleichheit gilt hierbei genau dann, wenn v1 D 0 D a a
v2 , d. h. v D 0 ist.
Damit ist also gezeigt, dass ein euklidisches Skalar- also ist das Produkt auch symmetrisch und somit eine
produkt ist und der R2 mit diesem Skalarprodukt ein symmetrische Bilinearform.
euklidischer Vektorraum ist. Wir zeigen nun, dass das Produkt positiv definit ist. Für
4 Wir erklären ein Produkt h ; i im Vektorraum aller auf jedes f 2 C.I / gilt:
einem abgeschlossenen Intervall I D Œa; b R mit
Zb Zb
a < b stetigen reellwertigen Funktionen, also im reellen
Vektorraum hf; f i D f .t/ f .t/ dt D .f .t//2 dt 0 :
a a
C.I / D ff 2 RI j f ist stetig g :
Ist f nicht die Nullfunktion, so gibt es ein t0 2 Œa; b mit
Dazu multiplizieren wir zwei Funktionen f und g aus f .t0 / ¤ 0. Da f stetig ist, gibt es somit eine Umgebung
C.I / folgendermaßen: U.t0 / Œa; b, sodass f für alle Argumente aus U.t0 /
von null verschiedene Werte annimmt (. Abb. 9.1). Da
Zb
Z Zb
hf; gi D f .t/ g.t/ dt 2 R:
0< f .t/ dt 2
f .t/2 dt ;
a
U.t0 / a
Weil stetige Funktionen integrierbar sind, ist dieses Pro-
Rb
dukt auch definiert. ist das Integral hf; f i D a .f .t//2 dt größer als null.
Nun verifizieren wir, dass dieses Produkt Es folgt die positive Definitheit:
?Selbstfrage 9.3
4 Anstelle von C.I / können wir auch den Vektorraum der Ist v w D v> A v mit der Matrix
Polynome vom Grad kleiner oder gleich einer natür- 0 1
1 0 0
lichen Zahl n wählen. Weil Polynomfunktionen stetig B C
A D @0 0 0 A
sind, ist dann
0 0 1
Zb ein Skalarprodukt im R3 ?
hp; qi D p.t/ q.t/ dt
a
9 Definitheit symmetrischer Matrizen
ein Skalarprodukt. 9 Wir nennen eine reelle symmetrische n n-Matrix A
4 positiv definit, wenn für alle v 2 Rn n f0g gilt:
Kommentar Hätten wir anstatt der Stetigkeit nur die In-
tegrierbarkeit gefordert, so wäre das so definierte Produkt
v> A v > 0 ;
kein Skalarprodukt. Eine Funktion f , die außer an einer
Stelle t0 zwischen a und b stets den Wert Null annimmt, ist
4 negativ definit, wenn für alle v 2 Rn n f0g gilt:
nicht die Nullfunktion, sie ist aber integrierbar, und es gilt
Rb
hf; f i D a .f .t//2 dt D 0 (. Abb. 9.2). v> A v < 0 ;
i Beim Skalarprodukt darf man im Allgemeinen nicht kür- 4 positiv semidefinit, wenn für alle v 2 Rn n f0g gilt:
zen:
Aus a v D a w folgt nicht unbedingt v D w. v> A v 0;
Wegen der Linearität kann man aber
4 negativ semidefinit, wenn für alle v 2 Rn n f0g gilt:
a .v w/ D 0
v> A v 0;
folgern.
4 indefinit, wenn es Vektoren v; w 2 Rn gibt mit
Positiv definite Matrizen liefern euklidische v> A v > 0 und w> A w < 0 :
Skalarprodukte
Wir betrachten noch einmal das obige Beispiel mit der sym- i Man beachte, dass die Symmetrie im Begriff der Defi-
metrischen Matrix A. Für jede reelle symmetrische Matrix nitheit steckt: Positiv definite Matrizen sind symmetrisch.
A ist das Produkt von Vektoren v; w des R , das definiert
n
Beispiel Für eine Diagonalmatrix D D diag.1 ; : : : ; n / 2
ist durch
Rn n gilt offenbar:
v w D v> A w ; D ist positiv definit , 1 ; : : : ; n > 0 ;
linear im ersten Argument, symmetrisch – dies liegt an der D ist negativ definit , 1 ; : : : ; n < 0 ;
Symmetrie der Matrix A – und damit linear im zweiten Ar- D ist positiv semidefinit , 1 ; : : : ; n 0 ;
gument. D ist negativ semidefinit , 1 ; : : : ; n 0 ;
Damit dieses Produkt ein Skalarprodukt ist, fehlt noch D ist indefinit , 9 i; j mit i < 0; j > 0 :
die Eigenschaft v v > 0, also v> A v > 0, für alle vom
Nullvektor verschiedenen Vektoren v des Rn . Weitere Beispiele folgen. 9
9.1 Euklidische Vektorräume
311 9
Wir überprüfen, ob die folgenden symmetrischen Matrizen zumindest positiv semidefinit. Wegen
positiv definit, negativ definit, positiv semidefinit, negativ se- !
midefinit oder indefinit sind. v1
.v1 ; v2 / B D 0 , v1 D 0 D v2
! ! v2
1 1 2 1
AD 2R ;
2 2
BD 2 R2 2 ;
1 1 1 1 ist B positiv definit.
0 1
1 0 0 ! Die Matrix C ist wegen
B0 0 1C 1 1
C D@ A2R ; DD
3 3
2 R2 2 : 0 1
1 2 0
0 1 0 B C
.0; 1; 1/ C @ 1 A D 2 und
Problemanalyse und Strategie 1
0 1
Wir bestimmen für jede der angegebenen Matrizen M 2 Rn n 1
B C
und jeden Vektor v 2 Rn die Zahl v> M v 2 R und stellen .1; 0; 0/ C @0A D 1
Überlegungen über das Vorzeichen an. 0
Lösung indefinit.
Die Matrix D ist wegen
Die Matrix A ist wegen
! !
v1 v1
.v1 ; v2 / A D v12 C v1 v2 C v2 v1 C v22 D .v1 C v2 /2 0 .v1 ; v2 / D D v12 C 2 v1 v2 2 v22
v2 v2
D ..v1 v2 /2 C v22 / 0
auf jeden Fall zumindest positiv semidefinit. Die Matrix ist
aber nicht positiv definit, da für v1 D v2 , v1 ¤ 0, gilt zumindest negativ semidefinit. Wegen
v> A v D 0. Somit ist A positiv semidefinit. !
Die Matrix B ist wegen v1
.v1 ; v2 / D D 0 , v1 D 0 D v2
! v2
v1
.v1 ; v2 / B D 2 v12 C 2 v1 v2 C v22 D v12 C .v1 C v2 /2 0
v2 ist D negativ definit.
Jede positiv definite Matrix liefert ein euklidisches Skalar- Man erhält bei diesem Skalarprodukt mit der Wahl A D En
produkt, das besagt der folgende Satz. das kanonische Skalarprodukt zurück – die Einheitsmatrix
En ist positiv definit.
bn b1 bn bn
eine Bijektion von der Menge aller euklidischer Skalar-
produkte auf V in die Menge aller positiv definiten n
die Darstellungsmatrix von bezüglich der Basis B. n-Matrizen.
Die Matrix M B D M B ./ ist positiv definit, und für
9 alle Beweis Nach dem obigen Satz zur Darstellungsmatrix ei-
nes euklidischen Skalarprodukts ist B eine Abbildung von
X
n X
n
der Menge aller euklidischer Skalarprodukte auf V in die
vD vi bi und w D wi bi 2 V
iD1 iD1
Menge aller positiv definiten n n-Matrizen. Diese Ab-
bildung ist injektiv, da aus M B .s/ D M B .s 0 / für zwei
gilt: 0 1 euklidische Skalarprodukte s und s 0 erneut nach obigem
w1 Satz s D s 0 folgt. Schließlich ist die Abbildung auch sur-
B : C
v w D .v1 ; : : : ; vn / M B B : C: jektiv, da für jede positiv definite n n-Matrix A das wie
@ : A
wn
folgt auf V erklärte Skalarprodukt
v w D B v> A B w ; v; w 2 V ;
die Darstellungsmatrix M B ./ D A hat.
Pn Pn
Beweis Für v D i D1 vi bi ; w D i D1 wi bi 2 V gilt
wegen der Linearität des Produkts in beiden Argumenten:
Darstellungsmatrizen ein und desselben
! !
X n Xn Skalarprodukts bezüglich verschiedener
vwD vi bi wi bi Basen sind zueinander kongruent
i D1 i D1
X
n
D vi wj .bi bj / Wir erinnern erneut an die Darstellungsmatrizen von En-
i;j D1 domorphismen: Sind B M .'/B und C M .'/C zwei Darstel-
0 1 lungsmatrizen eines Endomorphismus ' eines n-dimensio-
w1
B :: C nalen K-Vektorraums V , so sind die Darstellungsmatrizen
D .v1 ; : : : ; vn / M B @ : A: zueinander ähnlich, d. h., es gibt eine invertierbare Matrix
wn S 2 Kn n mit
Die Symmetrie und schließlich die positive Definitheit von C M .'/C D S 1B M .'/B S :
M B folgt hieraus mit der Symmetrie und der positiven De- Dabei gilt S D B M .id/C – beachte auch das folgende Dia-
finitheit des Skalarprodukts. gramm:
C M .'/C
Anstelle von der Darstellungsmatrix von bezüglich B Kn Kn
spricht man auch von der Gram’schen Matrix von be-
züglich B.
Man beachte die Ähnlichkeit zwischen der Darstellung S DB M .id/C S 1 DC M .id/B
eines Endomorphismus und der Darstellung eines Skalar-
produkts: Das Anwenden eines Endomorphismus wird auf B M .'/B
die Multiplikation der Darstellungsmatrix mit einem Koor- Kn Kn
9.2 Norm, Winkel, Orthogonalität
313 9
Natürlich stellen wir uns nun die Frage, wie die Situati-
on im vorliegenden Fall eines euklidischen Vektorraums
ist. Wie ist der Zusammenhang von Darstellungsmatrizen
eines euklidischen Skalarprodukts bezüglich verschiedener
Basen? Die Antwort liefert der folgende Satz.
(
V ! R0 ; was offensichtlich korrekt ist.
N W
v 7! N.v/
In . Abb. 9.4 zeigen wir für den Fall K D R und n D 2
von V in die Menge der nicht negativen reellen Zahlen die Menge aller Vektoren, deren Norm 1 ist.
eine Norm, wenn die folgenden drei Eigenschaften erfüllt Man nennt
sind: 4 N1 auch 1-Norm,
(N1) N.v/ D 0 , v D 0, 4 N2 auch euklidische Norm,
(N2) N. v/ D jj N.v/ für alle 2 K. 4 N1 auch Maximumsnorm
(N3) N.v C w/ N.v/ C N.w/ für alle v; w 2 V (Drei-
ecksungleichung). auf dem Kn .
Etwas allgemeiner zeigt man in der Analysis, dass für
Einen K-Vektorraum V mit einer Norm N nennt man jedes p 2 N
auch normierten Raum.
1
Np ..v1 ; : : : ; vn /> / D .jv1 jp C C jvn jp / p
Beispiel Wir betrachten die folgenden Abbildungen N1 , N2 eine Norm, die sogenannte p-Norm, liefert und dass bei
und N1 von V D Kn in R0 , die gegeben sind durch geeigneter Interpretation
4 N1 ..v1 ; : : : ; vn /> / D jv
p1 j C C jvn j,
4 N2 ..v1 ; : : : ; vn /> / D jv1 j2 C C jvn j2 , lim Np D N1
p!1
4 N1 ..v1 ; : : : ; vn /> / D maxfjv1 j; : : : ; jvn jg.
gilt – die Maximumsnorm ist somit Grenzwert der p-Norm
Die Behauptung ist, dass die Abbildungen N1 ; N2 ; N1 W für p ! 1. 9
V ! R0 Normen sind.
(N1) und (N2) sind offenbar für jede der Abbildungen Wir wollen nun zeigen, dass jeder Vektorraum V mit einem
N1 ; N2 ; N1 erfüllt. euklidischen Skalarprodukt insbesondere ein normierter
(N3) besagt für Raum ist. Dazu zeigen wir, dass die Abbildung
4 N1 : Für alle v D .vi /; w D .wi / 2 Kn gilt:
V ! R0 ;
X
n X
n X
n kkW p
v 7! v v;
jvi C wi j jvi j C jwi j ;
i D1 i D1 i D1
die jedem Vektor seine Länge zuordnet, eine Norm in dem
was bekanntlich nach der Dreiecksungleichung in K er- eben geschilderten Sinne ist. Daher rührt auch der Begriff
füllt ist. der Norm eines Vektors, wie wir ihn gebrauchen.
316 Kapitel 9 Euklidische und unitäre Vektorräume – orthogonales Diagonalisieren
Der Einheitskreis!besteht also in dieser Situation aus den Der Einheitskreis!besteht also in dieser Situation aus den
v1 v1
Punkten v D mit Punkten v D mit
v2 v2
v12 C v22 D 1 : 4 v12 C v22 D 1 :
Die Punkte v, deren Komponenten diese Gleichung erfüllen, Die Punkte v, deren Komponenten diese Gleichung erfüllen,
bilden im R2 den Kreis um den Ursprung mit Radius 1. bilden im R2 die folgende Menge:
.0; 1/ .0; 1/
.1; 0/ . 12 ; 0/
9.2 Norm, Winkel, Orthogonalität
317 9
Wenn wir beweisen wollen, dass tatsächlich unser Län- Da bei der Maximumsnorm N1 die Gerade e 2 C R e 1
genbegriff eine Norm ist, müssen wir also die drei defi- aber unendlich viele Schnittpunkte mit dem Einheitskreis
nierenden Eigenschaften (N1), (N2) und (N3) einer Norm E bezüglich N1 hat (. Abb. 9.4), kann diese somit von
für die Abbildung k k nachweisen. Die ersten beiden Ei- keinem Skalarprodukt induziert sein. 9
genschaften (N1) und (N2) sind unmittelbar einsichtig, die
dritte Eigenschaft (N3) aber, also die Dreiecksungleichung, Kommentar Die Normen eines Vektorraums V , die von
verlangt etwas Aufwand, wir benutzen dazu die Cauchy- Skalarprodukten induziert werden, lassen sich kennzeich-
Schwarz’sche Ungleichung. nen. Es sind dies genau jene Normen, die der Parallelo-
grammidentität
˛
v
. Abb. 9.5 Zwischen zwei Vektoren existieren zwei Winkel
9.2 Norm, Winkel, Orthogonalität
319 9
schließen die Polynomfunktion p mit p.x/ D x und x2
R1
die Funktion exp wegen hp; expi D 0 t exp t dt D 1, 1
p p 1
0
k exp k D p12 e2 1 und kpk D 1= 3 den Winkel 1
1
†.p; exp/ D arccos p D 1:409 : : :
6 .e2 1/
x1
ein. 9 . Abb. 9.8 Bezüglich des durch die Matrix A definierten Skalarpro-
dukts stehen die beiden Vektoren senkrecht aufeinander, wenngleich die
Anschauung anderes vermittelt
Zwei Vektoren sind orthogonal zueinander,
wenn ihr Skalarprodukt null ergibt
4 In dem euklidischen Vektorraum aller auf dem abge-
schlossenen Intervall Œ0; 1 stetigen reellen Funktionen
In 7 Abschn. 5.2 haben wir gezeigt, dass zwei Vekto- mit dem euklidischen Skalarprodukt
ren v und w des R genau dann orthogonal zueinander
3
Z1
sind, wenn ihr kanonisches Skalarprodukt v> w D 0 ist.
Wir haben dabei mit der Anschauung argumentiert. Nun hf; gi D f .t/ g.t/ dt
abstrahieren wir dies, indem wir das Senkrechtstehen für 0
Vektoren eines euklidischen Raums, also für beliebige eu-
steht die Polynomfunktion q mit q.x/ D 2 3 x auf
klidische Skalarprodukte, definieren.
dem Polynom p mit p.x/ D x senkrecht, da
Z1
Orthogonalität von Vektoren h2 3 x; xi D 2t 3t 2 dt D 0 :
Sind v und w Elemente eines euklidischen Vektorraums 0
V mit dem euklidischen Skalarprodukt , so sagt man, v
4 Die sogenannten Legendre’schen Polynome pn mit
ist orthogonal zu w oder steht senkrecht auf w, wenn
1 dn 2
vwD 0 p n .x/ D .x 1/n
2n nŠ dx n
gilt. Für diesen Sachverhalt schreibt man auch sind auf ganz R für n D 0; 1; : : : Lösungen der Legend-
re’schen Differenzialgleichung
v ? w:
.1 x 2 / y 00 2 x y 0 C n .n C 1/ y D 0 :
Sind v und w vom Nullvektor verschieden, so gilt: Die ersten Legendrepolynome lauten
v ? w , †.v; w/ D =2 : p 0 .x/ D 1;
p 1 .x/ D x;
1 3
p 2 .x/ D C x 2 ;
Beispiel 2 2
> 3 5
4 Bezüglich des Skalarprodukts,
das durch vw D v A w p 3 .x/ D C x 3 :
2 1 2 2
mit der Matrix A D definiert ist, gilt:
1 1 Wir zeigen nun, dass die Legendrepolynome bezüglich
des Skalarprodukts
1 0
? ; Z1
1 1
hp; qi D p.t/ q.t/ dt
da 1
hp n ; D p m i D m .m C 1/ hp n ; p m i
Eine naheliegende Fragestellung ist nun folgende: Gibt
hD pn ; p m i D n .n C 1/ hp n ; p m i : es in euklidischen Vektorräumen stets Orthonormalbasen?
Der folgende Abschnitt behandelt diese Frage.
Für m ¤ n gilt also hp n ; p m i D 0. Und für m D n
erhalten wir:
Z1 2 9.3 Orthonormalbasen und orthogonale
1 dn 2 2 Komplemente
hp n ; p n i D .x 1/n dx D :
2 nŠ dx n
n 2nC1
1
Wir zeigen, dass in endlichdimensionalen euklidischen
Also stehen je zwei verschiedene Legendrepolynome
Vektorräumen stets Orthonormalbasen existieren.
senkrecht aufeinander,
q und das n-te Legendrepolynom
hat die Norm 2
2 nC1 . 9
Eine Orthonormalbasis ist eine Basis,
? Selbstfrage 9.6 deren Elemente die Länge 1 haben und die
Warum gelten die folgenden, mit der Anschauung verträg- paarweise orthogonal zueinander stehen
lichen Merkregeln?
4 Ist v orthogonal zu w, so ist w orthogonal zu v.
4 Der Nullvektor ist zu jedem Vektor v orthogonal. Neben dem Begriff der Orthonormalbasis werden wir auch
4 Vom Nullvektor abgesehen ist kein Vektor zu sich immer wieder den Begriff eines Orthonormalsystems brau-
selbst orthogonal. chen.
9.3 Orthonormalbasen und orthogonale Komplemente
321 9
Beispiel
4 Es ist
80 1 0 1 0 19
< 2 1 2 =
@1A ; @2A ; @ 1 A
: ;
2 0 5=2
a2 a2 c2 a2
a1 .a2 b1 /b1 b2
b1 b1 b1
. Abb. 9.10 Mit dem Verfahren von Gram und Schmidt entsteht aus der Basis fa1 ; a2 g die Orthonormalbasis fb1 ; b2 g
wobei Explizit lauten die Formeln für die ersten drei Vektoren
b1 ; b2 ; b3 der so konstruierten Orthonormalbasis:
X
k 4 b1 D ka1 k1 a1 ,
c kC1 D akC1 .bi akC1 / bi 4 b2 D kc 2 k1 c 2 mit c 2 D a2 .a2 b1 / b1 ,
iD1
4 b3 D kc 3 k1 c 3 mit c 3 D a3 .a3 b1 / b1 .a3 b2 / b2 .
für k D 1; : : : ; n 1.
Als Beispiel bilden wir das Skalarprodukt von c 3 mit b2 :
Es ist dann fb1 ; : : : ; bn g ein Orthonormalsystem
von V , und es gilt: c 3 b2 D .a3 .a3 b1 /b1 .a3 b2 /b2 / b2
D a3 b2 .a3 b1 /.b1 b2 / .a3 b2 /.b2 b2 /
ha1 ; : : : ; an i D hb1 ; : : : ; bn i :
D 0:
Beispiel: Orthonormalisierung einer Basis nach dem Verfahren von Gram und Schmidt
0 1
Wir bestimmen eine Orthonormalbasis bezüglich des Stan- 0
dardskalarprodukts von B2C
B C
Damit erhalten wir b2 D kc 2 k1 c 2 D p1 B C.
0 1 0 1 0 1 6 @1A
* 3 1 1 +
B1C B 3 C B1C 1
B C B C B C
U D B C ; B C ; B C R4 : Um b3 zu erhalten, berechnen wir c 3 :
@1A @1A @ 3 A
1 1 1 c 3 D a3 .a3 b1 / b1 .a3 b2 / b2
0 1 0 0 11 0 1
Problemanalyse und Strategie 1 1 3
B1C B 1 B1CC 1 B1C
B C B B CC B C
Wir nennen die Vektoren der Reihe nach a1 ; a2 ; a3 und wen- D B C B p .3; 1; 1; 1/ B CC p B C
@ 3 A @2 3 @ 3 AA 2 3 @1A
den die Formeln an.
0 1 1 1 1
Lösung
3 0 0 11 0 1
B1C 1 0
B C B 1 B1CC 1 B 2 C
Wir erhalten: b1 D ka1 k1 a1 D 2 p
1
B C. Um b2 zu er-
3 @1A B B CC B C
B p .0; 2; 1; 1/ B CC p B C
halten, berechnen wir c 2 : @ 6 @ 3 AA 6 @1A
1
1 1
c 2 D a2 .a2 b1 / b1 0 1
0 1 0 0 11 0 1 0
1 1 3 B0C
B3C B 1 B 3 CC 1 B1C B C
9 B C B B CC
D B C B p .3; 1; 1; 1/ B CC p B C
B C D 2 B C:
@1A
@1A @ 2 3 @1AA 2 3 @1A 0 1
1 0
1 1 1
0 1 B0C
B C
0 Damit erhalten wir b3 D kc 3 k1 c 3 D p12 B C.
@1A
4 B2C
B
C
D B C 1
3 @1A
Es ist also B D fb1 ; b2 ; b3 g eine Orthonormalbasis
1
von U .
Wir wenden nun die erzielten Ergebnisse an, um mi- gen A von V , sondern vielmehr Untervektorräume U von
nimale Abstände von Vektoren zu Untervektorräumen zu V von Interesse.
erklären. Dazu führen wir zuerst den Begriff des orthogo- Ist U ein Untervektorraum von V , so setzen wir
nalen Komplements eines Untervektorraums ein.
U ? D fv 2 V j v ? u für alle u 2 U g :
Das orthogonale Komplement eines Es besteht U ? also aus all jenen Vektoren, die auf al-
Untervektorraums eines euklidischen len Vektoren aus U senkrecht stehen. Wir werden U ?
das orthogonale Komplement von U in V nennen. Die-
Raums ist ein Untervektorraum
se Bezeichnung legt schon mehrere Vermutungen nahe, im
einzelnen sind dies:
Gegeben ist ein euklidischer Vektorraum V . Das Skalarpro- 4 U ? ist ein Untervektorraum von V .
dukt bezeichnen wir wieder mit einem Punkt . 4 U ? U ?.
Für den Sachverhalt, dass das Skalarprodukt zweier 4 V D U ˚ U ? unter evtl. weiteren Voraussetzungen.
Vektoren v; w 2 V null ist, v w D 0, haben wir auch
„v steht senkrecht auf w“ gesagt und mit v ? w abgekürzt. Genauer gilt:
Sind A und B Teilmengen von V , so ist die Schreibweise
A ? B üblich für die Tatsache, dass jedes a 2 A auf jedem
Das orthogonale Komplement
b 2 B senkrecht steht:
Es sei U ein Untervektorraum eines euklidischen Vektor-
A ? B , a ? b 8a 2 A; b 2 B : raums V . Dann gilt:
Ist A eine einelementige Menge A D fag, so schreibt man (a) Die Menge U ? ist ein Untervektorraum von V . Man
nennt U ? das orthogonale Komplement von U in V .
a ? B anstelle von fag ? B : (b) Jeder Vektor v 2 U ? steht senkrecht auf jedem Vektor
Ähnlich zur Komplementbildung Ac D V n A können wir u 2 U , U ? U ?.
nun zu einer Teilmenge A V die Menge A? aller Vek- (c) Ist V endlichdimensional, so ist V die direkte Summe
toren aus V bilden, die zu allen Vektoren aus A senkrecht von U und U ? , V D U ˚ U ? .
stehen. Tatsächlich sind aber meist nicht beliebige Teilmen-
9.3 Orthonormalbasen und orthogonale Komplemente
325 9
Wir zeigen, dass jede invertierbare Matrix A D es gilt Q> D Q1 . Und R ist wie gewünscht eine obere Drei-
.a1 ; : : : ; an / 2 Rn n ein Produkt einer orthogonalen Ma- ecksmatrix.
trix Q, d. h. Q> Q D En , und einer oberen Dreiecksmatrix R Ersetzen wir einen Vektor b der Orthonormalbasis B
ist: durch b, so erhalten wir wieder eine Orthonormalbasis B 0
und damit eine andere QR-Zerlegung A D Q0 R 0 . Wenn
A D QR: wir uns darauf einigen, dass wir die Vektoren b1 ; : : : ; bn der
Orthonormalbasis B stets so wählen, dass die Matrix R po-
Problemanalyse und Strategie sitive Diagonaleinträge hat, so erreichen wir eine eindeutige
Mit dem Orthonormalisierungsverfahren von Gram und Zerlegung in der Form A D Q R – man kann dann von
Schmidt bilden wir aus den linear unabhängigen Spalten von der QR-Zerlegung von A sprechen. Nachzuweisen, dass eine
A eine Orthonormalbasis B des Rn und bestimmen die Dar- solche Zerlegung eindeutig ist, haben wir als Übungsaufgabe
stellungen der Spalten von A bezüglich dieser Basis B. Das gestellt.
liefert eine Gleichheit der Form A D Q R mit n n-Matrizen Wir bestimmen beispielhaft die QR-Zerlegung von
der gesuchten Form.
0 1
1 2 4
B 0C
Lösung A D @0 1 A D .a1 ; a2 ; a3 / ;
Weil A invertierbar ist, sind die Spalten a1 ; : : : ; an linear un- 1 0 0
abhängig. Also bilden die Spalten von A D .a1 ; : : : ; an / 2
Rn n eine Basis des Rn . Mit dem Verfahren von Gram und deren Spalten offenbar linear unabhängig sind. Mit dem Ver-
Schmidt können wir aus dieser Basis eine Orthonormalbasis fahren von Gram und Schmidt erhalten wir die Vektoren
B D fb1 ; : : : ; bn g bezüglich des kanonischen Skalarprodukts b1 ; b2 ; b3 einer Orthonormalbasis
des euklidischen Rn konstruieren. Es gilt dann:
0 1 0 1 0 1
1 1 2=3
a1 ? b2 ; : : : ; bn ; 1 B C 1 B C 3 B C
b1 D p @0A ; b2 D p @ 1 A ; b3 D p @4=3A :
a2 ? b3 ; : : : ; bn ; 2 1 3 1 2 6 2=3
::
:
Damit haben wir bereits eine Matrix Q D .b1 ; b2 ; b3 / be-
an1 ? bn : stimmt. Die Matrix R erhalten wir nun durch das Berechnen
von sechs Skalarprodukten:
Bezüglich der geordneten Orthonormalbasis B D
.b1 ; : : : ; bn / haben die Vektoren a1 ; : : : ; an die Darstellung 0p p p 1
2 2 2 2
B p 4
p C
a1 D .a1 b1 / b1 ; RD@ 0 3 3 p A
3
2
a2 D .a2 b1 / b1 C .a2 b2 / b2 ; 0 0 3 6
::
: Da die Diagonaleinträge alle positiv sind, haben wir bereits
an D .an b1 / b1 C C .an bn / bn : die gesuchte Zerlegung:
0 1 0p p p 1
Diese Gleichungen können wir wegen A D .a1 ; : : : ; an / in p1 p1 p1 2 2 2 2
B 2 3 6 p p C
einer Matrizengleichung zusammenfassen: AD@ 0 p1
3
p26 C
A
B
@ 0 3 4
3 p A
3
0 1 p1 p13 p16 0 0 2
6
a1 b1 a2 b1 an b1 2 3
B 0 a2 b2 an b2 C
B C
A D .b1 ; : : : ; bn / B :: C Kommentar Die QR-Zerlegung ist zum Beispiel bei der nu-
„ ƒ‚ … B C
: ::
@ :: : : A merischen Berechnung der Eigenwerte einer Matrix mithilfe
DWQ
0 0 an bn des sogenannten QR-Algorithmus ein integraler Bestandteil.
„ ƒ‚ … Tatsächlich wird hierbei die QR-Zerlegung im Allgemeinen
DWR
nicht mit dem Verfahren von Gram und Schmidt bestimmt,
Eine solche Zerlegung, die für jede invertierbare Matrix A da dieses numerisch instabil ist, d. h., kleine Störungen in den
existiert, nennt man eine QR-Zerlegung von A. Eingabedaten wirken sich stark auf die Berechnungen aus.
Die Spalten von Q bilden eine Orthonormalbasis des Rn , In der Numerik benutzt man ausgefeilte Methoden, um die
daher gilt Q> Q D En , d. h., Q ist eine orthogonale Matrix, QR-Zerlegung einer Matrix numerisch stabil zu bestimmen.
326 Kapitel 9 Euklidische und unitäre Vektorräume – orthogonales Diagonalisieren
Beweis (a) Die Menge U ? ist nicht leer, da der Nullvektor Nun betrachten wir den Untervektorraum U der Treppen-
0 in U ? enthalten ist. funktionen
Sind v1 ; v2 2 U ? , u 2 U und 2 R, so gilt
U D ff 2 V j f ist stückweise konstantg :
.v1 C v2 / u D v1 u C v2 u D 0 C 0 D 0
Offenbar steht nur die Nullfunktion senkrecht auf allen
und Treppenfunktionen, d. h. U ? D f0g. Da aber nicht jedes
. v1 / u D .v1 u/ D 0 D 0 : Element aus V eine Treppenfunktion ist, gilt:
u0 D v u U
u
b2
b1 x1
. Abb. 9.13 Der Punkt u entsteht aus dem Punkt v, indem man das Lot
von v aus auf die Gerade U fällt. Der Vektor u0 D v u steht senkrecht
auf U
. Abb. 9.12 Der Untervektorraum U und sein orthogonales Komple- Für den Endomorphismus von V gilt offenbar 2 D ,
ment U ? d. h., dass eine Projektion ist (vgl. Aufgabe 9.17).
Beweis Der erste Teil dieser Aussage folgt aus obiger Fol-
Den minimalen Abstand eines Punkts
gerung. Für den zweiten Teil beachte man, dass für jedes
zu einem Untervektorraum erhält w 2 U gilt .v u/ .u w/ D 0, da nämlich v u senk-
man durch Projektion des Punkts recht auf u w steht. Damit erhalten wir die folgende, für
auf den Untervektorraum alle w 2 U gültige Abschätzung:
Wir betrachten die Situation des letzten Beispiels erneut kv wk D k.v u/ C .u w/k
p
im R2 für einen eindimensionalen Untervektorraum U D .v u/2 C 2 .v u/ .u w/ C .u w/2
(. Abb. 9.13). p
D .v u/2 C .u w/2
Anschaulich ist klar, dass der kürzeste Abstand von v p
zu der Geraden U genau jener Abstand von v zu dem Fuß- .v u/2
punkt u ist, d. h.: D kv uk :
ku0 k D kv uk kv b1 k für alle 2 R : Die . Abb. 9.14 illustriert diesen minimalen Abstand im
R3 mit dem kanonischen Skalarprodukt.
Der Vektor u entsteht dabei durch Projektion von v auf den Der Projektionssatz sagt uns zwar, dass es einen Vek-
Untervektorraum U . Wir zeigen nun, dass dies allgemeiner tor w 2 U gibt, sodass kv wk minimal ist, aber er macht
möglich ist (vgl. auch die Ausführungen in 7 Abschn. 5.4). keine allgemeingültige Aussage dazu, wie man dieses w be-
stimmt (beachten Sie aber auch Aufgabe 9.21). Im Rn mit
Projektionssatz
U?
Ist U ein Untervektorraum eines endlichdimensionalen
v
euklidischen Vektorraums V , so gibt es zu jedem v 2 V
u0
genau ein u 2 U mit v u ? U . Die hierdurch definierte
Abbildung
(
V ! U;
W
v 7! u
u
ist linear, sie heißt orthogonale Projektion oder Normal-
projektion von V auf U .
Für den Vektor u0 D v u 2 U ? gilt: U
dem kanonischen Skalarprodukt finden wir w durch Lö- Kommentar Die Matrix A > A ist im Allgemeinen nicht in-
sen eines linearen Gleichungssystems – w ist eine Lösung vertierbar. Also ist es im Allgemeinen nicht möglich, die
der sogenannten Normalgleichung. Dazu zeigen wir vorab Normalgleichung nach dem Vektor v durch Berechnen von
etwas allgemeiner: .A > A/1 aufzulösen.
kv A xk D min
A> A x D A> v :
Eine Messung liefert zu den n verschiedenen Zeitpunkten Dies lässt sich mithilfe der reellen n r-Matrix
t1 ; : : : ; tn die jeweiligen Messwerte y1 ; : : : ; yn . Gesucht ist 0 1 0 1
f1 .t1 / fr .t1 / y1
eine Funktion f 2 RR , welche die gegebenen Messwer- B : : C B:C
te an den Stellen t1 ; : : : ; tn möglichst gut annähert, wobei ADB
@ :
: :: C und v D B :: C
A @ A
wir hier als Maß für gute 0 Annäherung 1 die Minimalität der f1 .tn / fr .tn / yn
f .t1 / y1
B :: C auch ausdrücken als: Gesucht ist ein x 2 Rr mit der Ei-
Größe k k mit D B@ :
C ansetzen. Es ist dann
A genschaft, dass kv A xk minimal ist. Nach dem Satz zum
f .tn / yn linearen Ausgleichsproblem erhalten wir x als Lösung der
k k2 D .f .t1 / y1 /2 C .f .tn / yn /2 die Summe der Normalgleichung:
Quadrate der Fehler, die dabei gemacht werden.
A> A x D A> v :
Die Minimalität dieser Summe besagt, dass die senk-
rechten Abstände der Funktion f an den Stellen ti zu den Betrachten wir ein Beispiel. Eine Messreihe liefert
vorgegeben Messwerten yi minimal ist. Das kann als beste
.t1 ; y1 / D .1; 1/ ; .t2 ; y2 / D .0; 1/ ;
Annäherung betrachtet werden.
.t3 ; y3 / D .1; 2/ ; .t4 ; y4 / D .2; 2/ :
f
2
1
Problemanalyse und Strategie
Wir benutzen die Lösung des linearen Ausgleichsproblems
2 1 0 1 2
durch die Normalgleichung. Dabei wählen wir Basisfunk-
tionen, die einen Untervektorraum U des Vektorraums aller
Aufgrund der Verteilung der Punkte suchen wir nach einer
Funktionen erzeugen und bestimmen eine Funktion f aus U ,
Ausgleichsgeraden f W R ! R, f .x/ D a C b x, d. h., wir
deren Graph einen im oben erwähnten Sinne minimalen Ab-
geben uns die Basisfunktionen f1 W R ! R, f .x/ D 1 und
stand zu den gegebenen Punkten .t1 ; y1 /; : : : ; .tn ; yn / hat.
f2 W R ! R, f .x/ D x vor.
Als Matrix A 2 R4 2 und Vektor v 2 R4 erhalten wir
Lösung
somit:
Um eine solche beste Annäherung zu erhalten, trägt man zu- 0 1 0 1
erst die Messpunkte .t1 ; y1 /; : : : ; .tn ; yn / in ein Koordinaten- 1 1 1
B1 0 C B1C
system ein und überlegt sich, welche Funktionen f1 ; : : : ; fr B C B C
ADB C und B C :
als Basisfunktionen in Betracht zu ziehen sind. Bei der ersten @1 1 A @2A
Punkteverteilung in der folgenden Skizze 1 2 2
W v1 w1
: ; 7! v1 w1 v2 w2 An ein euklidisches Skalarprodukt eines reellen Vektor-
v2 w2
raums stellten wir die drei Forderungen der
eine symmetrische Bilinearform auf dem R2 . Wegen 4 (Bi-)linearität,
4 Symmetrie und
1 1 4 positiven Definitheit.
D1111D0
1 1
Die positive Definitheit war es letztlich, die es ermöglichte,
steht der Vektor .1; 1/ auf sich selbst senkrecht, sodass Normen von Vektoren und damit Abstände, Winkel und Or-
>
.1; 1/> isotrop ist. Der Vektorraum R2 ist aber bezüg- thogonalität zwischen Vektoren zu erklären. Würde man in
lich nicht ausgeartet, da es zu jedem Vektor v 2 R2 , komplexen Vektorräumen nun ebenso vorgehen, um solche
der vom Nullvektor verschieden ist, einen Vektor w 2 Begriffe einführen zu können, so stößt man auf ein Prob-
R2 gibt mit v w ¤ 0. lem.
4 Es sei V der Z2 -Vektorraum Z2 . Es ist
2 So ist zwar das Produkt für Vektoren
0 1 0 1
8 v1 w1
< V V ! Z2 ; B :: C B :: C
v D @ : A ; w D @ : A 2 Cn ;
W v1 w1
: ; 7! v1 .w1 C w2 / C v2 .w1 C w2 / vn wn
v 2 w 2
9.4 Unitäre Vektorräume
331 9
das wir analog zum kanonischen Produkt im Rn definieren, und
Xn 1Ci 1Ci 1i
v w D v> w D vi wi 2 C ; D .1 C i; 0/ D 2 2 R0 :
0 0 0
i D1
Allgemeiner besagt die Eigenschaft hermitesch im Fall
bilinear und symmetrisch, aber nicht positiv definit, da etwa v D w:
i i v v D v v;
D i2 D 1 … R0 :
0 0
d. h., v v 2 R.
Es kann auch sein, dass die Größe v> v gar keine reelle Zahl Die Eigenschaft hermitesch hat aber Auswirkungen auf
ist: die Linearität im zweiten Argument. Wir werden das gleich
sehen.
1Ci 1Ci
D .1 C i/ D 2 i … R :
2
0 0
Ein unitäres Skalarprodukt ist eine positiv
Also kann es im C n keine symmetrischen, positiv definiten definite, hermitesche Sesquilinearform
Bilinearformen geben.
eines komplexen Vektorraums
? Selbstfrage 9.9
Nennen Sie für jede natürliche Zahl n einen Vektor Für die folgende Definition vergleiche man jene des eukli-
v 2 C n mit v> v < 0. dischen Skalarprodukts und des euklidischen Vektorraums.
Wir müssen unsere Forderungen ändern. Um weiterhin
Normen, Winkel und Abstände betrachten zu können, ver-
Unitäres Skalarprodukt und unitärer Vektorraum
abschieden wir uns von der Symmetrie in dieser Form und
Ist V ein komplexer Vektorraum, so heißt eine Abbildung
damit dann auch von der Bilinearität.
Weil man positive reelle Zahlen erhält, wenn man kom- (
V V ! C;
plexe Zahlen mit ihrem konjugiert Komplexen multipli- W
.v; w/ 7! v w
ziert, 0 jzj2 D z z, stellen wir an unitäre Skalarprodukte
eines komplexen Vektorraums V statt der Symmetrie die
ein unitäres Skalarprodukt, wenn für alle v; v0 ; w 2 V
Forderung
und 2 C die folgenden Eigenschaften erfüllt sind:
v w D w v für alle v; w 2 V : (i) .v C v0 / w D v w C v0 w und . v/ w D .v w/
(Linearität im ersten Argument),
Vertauscht man die Faktoren des Produkts, so kommt das (ii) v w D w v (hermitesch),
konjugiert Komplexe dabei heraus. Wir sagen, ein Produkt (iii) vv 0 und vv D 0 , v D 0 (positive Definitheit).
W V V ! C ist hermitesch, wenn v w D w v für alle
v; w 2 V gilt. Ist ein unitäres Skalarprodukt in V , so nennt man V einen
Für jede Matrix A D .aij / 2 C r s , also auch für jeden unitären Vektorraum.
Spaltenvektor, schreiben wir wieder A D .aij / und erwäh-
nen die bereits benutzte Regel
Wir stellen die Axiome (i), (ii) und (iii) für den euklidischen
Av D Av und den unitären Fall gegenüber:
vv 0 vv 0
Nun rechnen wir mit unseren obigen Beispielen, aber be-
züglich des neu erklärten Produkts nach: vv D0 , v D0 vv D0 , v D0
i i i
D .i; 0/ D i .i/ D 1 2 R0 Aus (ii) folgt wegen der Additivität und der Multiplika-
0 0 0 tivität des Konjugierens die halbe Linearität im zweiten
332 Kapitel 9 Euklidische und unitäre Vektorräume – orthogonales Diagonalisieren
wenngleich das unitäre Skalarprodukt nicht kommutativ, und Gleichheit gilt hierbei genau dann, wenn v D 0 ist.
d. h. nicht symmetrisch ist. 4 Wir erklären ein Produkt h ; i im Vektorraum aller auf
dem abgeschlossenen Intervall Œa; b für reelle Zahlen
Beispiel a < b stetigen komplexwertigen Funktionen, also im
4 Für jede natürliche Zahl n ist im komplexen Vektorraum komplexen Vektorraum
C das Produkt
n
C D ff W Œa; b ! C j f ist stetig g :
v w D v> w Dabei multiplizieren wir zwei Funktionen f und g aus
C folgendermaßen:
ein unitäres Skalarprodukt. Dieses Skalarprodukt nen-
nen wir das kanonische (unitäre) Skalarprodukt. Zb
Die Linearität im ersten Argument ist unmittelbar klar. hf; gi D f .t/ g.t/ dt :
0 1 0 1
v1 w1 a
B :: C B :: C
Sind v D @ : A und w D @ : A, so gilt: Weil stetige Funktionen integrierbar sind, ist dieses Pro-
vn wn dukt auch definiert. Der Nachweis, dass ein unitäres
Skalarprodukt ist, erfolgt analog zum reellen Fall. 9
v w D v> w Das zweite Beispiel mit der Matrix A lässt sich wesentlich
Xn X
n
verallgemeinern. Ist n eine natürliche Zahl, so ist für jede
D vi w i D w i vi Matrix A 2 C n n das Produkt
i D0 i D0
X
n v w D v> A w für alle v; w 2 C n
D wi v i D w v :
i D0
linear im ersten Argument. Und erfüllt die Matrix A die
Eigenschaft A > D A, so ist das Produkt auch hermitesch.
Also ist das Produkt auch hermitesch. Und die positive Daher ist die folgende Definition nur naheliegend.
Definitheit des Produkts folgt aus
v w D v> A w für alle v; w 2 C n In diesem und im folgenden Abschnitt steht das Symbol K
für einen der Körper R oder C. Wir sprechen allgemein von
eine hermitesche Sesquilinearform. Aber das Produkt ist einem Skalarprodukt, meinen damit stets ein euklidisches
nicht für jede hermitesche Matrix A positiv definit, man Skalarprodukt, falls K D R und ein unitäres Skalarprodukt,
wähle etwa die Nullmatrix, diese ist hermitesch, das Pro- falls K D C gilt.
dukt aber in diesem Fall sicher nicht positiv definit.
Wir nennen eine hermitesche n n-Matrix A positiv
definitindexDefinitheit, wenn für alle v 2 C n Orthogonale und unitäre Endomorphismen
v> A v 0 und v> A v D 0 , v D 0
erhalten Längen und Winkel
gilt – man beachte v> A v 2 R. Jede positiv definite Matrix Wir haben eine Abbildung ' eines K-Vektorraums V in
liefert somit durch die Definition einen K-Vektorraum W linear genannt, wenn sie den Ver-
v w D v> A w knüpfungen der Vektorräume Rechnung trägt, d. h., wenn
für alle v; w 2 V und 2 K gilt:
ein unitäres Skalarprodukt. Man beachte, dass positiv defi- 4 '.v C w/ D '.v/ C '.w/ (Additivität),
nite Matrizen insbesondere hermitesch sind. 4 '. v/ D '.v/ (Homogenität).
Wir betrachten ein euklidisches bzw. unitäres Skalarprodukt 4 Eine Basis B von V heißt Orthogonalbasis, wenn je zwei
eines euklidischen bzw. unitären Vektorraums V . verschiedene Basisvektoren aus B senkrecht aufeinander
stehen.
4 Für alle Elemente v und w aus V gilt die Cauchy- Eine Orthogonalbasis heißt Orthonormalbasis, wenn je-
Schwarz’sche Ungleichung der Basisvektor die Länge 1 hat.
4 Ist fa1 ; : : : ; an g eine Basis von V , so ist fb1 ; : : : ; bn g mit
jv wj kvk kwk :
b1 D ka1 k1 a1 ; bkC1 D kc kC1 k1 c kC1 ;
Die Gleichheit gilt hier genau dann, wenn v und w linear
abhängig sind. P
k
wobei c kC1 D akC1 bi .bi akC1 / für k D 1; : : : ; n1,
4 Die Abbildung iD1
eine Orthonormalbasis von V , diese Konstruktion einer
(
V ! R0 ; Orthonormalbasis aus einer Basis nennt man das Ortho-
kkW p normalisierungsverfahren von Gram und Schmidt.
v 7! kvk D v v
4 Jeder höchstens abzählbardimensionale euklidische bzw.
unitäre Vektorraum besitzt eine Orthogonalbasis.
ist eine Norm, insbesondere gilt für alle v; w 2 V die
4 Für jeden Untervektorraum U von V ist die Menge
Dreiecksungleichung
9 U ? D fv 2 V j v ? w für alle w 2 U g
kv C wk kvk C kwk :
wieder ein Untervektorraum von V , das orthogonale
4 Sind v und w zwei Elemente aus V , so nennen wir die Komplement von U in V .
reelle Zahl 4 Ist U ein Untervektorraum von V , so gibt es zu jedem
v 2 V genau ein u 2 U mit v u ? U . Die hierdurch
d.v; w/ D kv wk D kw vk definierte Abbildung
(
den Abstand oder die Distanz von v zu w. V ! U;
4 Sind v und w Elemente aus V , so sagt man, v steht senk- pW
v 7! u
recht auf w oder ist orthogonal zu w, wenn
heißt orthogonale Projektion von V auf U .
vwD0 Und für den Vektor u0 D v u 2 U ? gilt:
gilt. Für diesen Sachverhalt schreiben wir auch ku0 k kv wk für alle w 2 U :
Wir haben die Länge eines Vektors v eines euklidischen k'.v C w/k2 auf zwei verschiedene Arten:
oder unitären Vektorraums V definiert als
k'.v C w/k2 D kv C wk2 D .v C w/ .v C w/
p
kvk D v v : D kvk2 C kwk2 C v w C w v
D kvk2 C kwk2 C 2 .v w/
Ist ' ein orthogonaler oder unitärer Endomorphismus, so
gilt für jedes v 2 V : und
v w D '.v/ '.w/ für alle v; w 2 V : sind orthogonale Endomorphismen bezüglich des kanoni-
schen euklidischen Skalarprodukts des R2 .
Wir haben damit begründet: Dass die Abbildungen ˛ und ı˛ Endomorphismen sind,
ist klar. Wir müssen nur nachweisen, dass beide Abbildun-
gen längenerhaltend sind, dass also:
Orthogonale bzw. unitäre Endomorphismen sind
längenerhaltend k˛ .v/k D kvk und kı˛ .v/k D kvk
Ein Endomorphismus ' eines euklidischen bzw. unitären
für jedes v 2 R2 gilt.
Vektorraums V ist genau dann orthogonal bzw. unitär,
Wegen
wenn für alle v 2 V gilt:
cos ˛ sin ˛ cos ˛ sin ˛
kvk D k'.v/k : S> S D D E2
˛ ˛ sin ˛ cos ˛ sin ˛ cos ˛
und
Wegen dieser längenerhaltenden Eigenschaften eines ortho-
> cos ˛ sin ˛ cos ˛ sin ˛
gonalen bzw. unitären Endomorphismus nennt man eine D˛ D˛ D D E2
sin ˛ cos ˛ sin ˛ cos ˛
solche Abbildung auch Isometrie.
Weil nur der Nullvektor die Länge 0 hat und eine lineare gilt für jedes v 2 R2 :
Abbildung genau dann injektiv ist, wenn ihr Kern nur aus
p p
dem Nullvektor besteht, können wir folgern: k˛ .v/k D .S ˛ v/ .S ˛ v/ D .S ˛ v/> .S ˛ v/
q p
Folgerung Jeder orthogonale bzw. unitäre Endomorphis- D v> S > ˛ S˛ v D v> v D kvk I
mus ' ist injektiv, und ist V endlichdimensional, so ist '
sogar bijektiv. und entsprechend für die Abbildung ı˛ :
p q
Orthogonale Endomorphismen sind nicht nur längenerhal- kı˛ .v/k D .D ˛ v/ .D ˛ v/ D v> D > ˛ D˛ v
tend, sie erhalten auch Winkel zwischen vom Nullvektor p
verschiedenen Vektoren. D v> v D kvk :
336 Kapitel 9 Euklidische und unitäre Vektorräume – orthogonales Diagonalisieren
A > A D En ;
˛ .a/
9 da die i-te Zeile von A > der Basisvektor bi und die j -te
=
sin ˛=2 Spalte der Basisvektor bj ist, und somit gilt:
;
˛ .b/
„
˛=2
ƒ‚ …
1 ; falls i D j;
cos ˛=2 bi bj D
0 falls i ¤ j:
a
b Wegen A > A D En ist A > das Inverse zu A, d. h.,
> >
A D A 1 ; und somit gilt auch A A D En ;
. Abb. 9.15 Die Spiegelung ˛ ist längenerhaltend
was wiederum besagt, dass die Zeilenvektoren von A paar-
x2 weise orthogonal zueinander sind und die Länge 1 haben,
ı˛ .a/ also auch eine Orthonormalbasis des Kn bezüglich des ka-
nonischen Skalarprodukts bilden.
Hat umgekehrt eine Matrix A 2 Kn n die Eigenschaft
> >
a A A D En , so gilt wie eben auch A A D En , also
b
˛ bilden sowohl die Spalten als auch die Zeilen von A eine
9 ˛ Orthonormalbasis des Kn bezüglich des kanonischen Ska-
x1
larprodukts.
Matrizen mit dieser Eigenschaft bekommen einen eige-
nen Namen.
ı˛ .b/
Orthogonale und unitäre Matrizen
. Abb. 9.16 Die Drehung ı˛ ist längenerhaltend
Eine reelle bzw. komplexe n n-Matrix mit der Eigen-
schaft
Die Abbildung
˛ beschreibt die Spiegelung an der Gera-
>
cos ˛=2 A A D En
den R (. Abb. 9.15).
sin ˛=2
Die Abildung ı˛ ist die Drehung um den Winkel ˛ ge- heißt orthogonale bzw. unitäre Matrix.
gen den Uhrzeigersinn (. Abb. 9.16). Die Zeilen und Spalten einer orthogonalen bzw. unitä-
Drehungen und Spiegelungen im R2 sind orthogonale ren n n-Matrix bilden Orthonormalbasen des Rn bzw.
Endomorphismen. 9 Cn .
Die Determinante jeder orthogonalen bzw. unitären
Die Matrizen S ˛ und D ˛ aus dem vorangegangenen Matrix A 2 Kn n hat den Betrag 1,
Beispiel haben für jedes ˛ 20; 2 die Eigenschaft
j det Aj D 1 :
S> >
˛ S ˛ D E2 und D ˛ D ˛ D E2 ;
lich des kanonischen Skalarprodukts onssatz benutzt. Bei (ii) haben wir ausgenutzt, dass die
>
v w D v w; Determinanten zueinander transponierter Matrizen gleich
sind Und zu (iii) beachte man die Leibniz’sche Formel,
so gilt offenbar für die Matrix A D .b1 ; : : : ; bn / 2 wonach die Determinante eine Summe von Produkten kom-
Kn n , deren Spalten gerade die Basisvektoren b1 ; : : : ; bn plexer Zahlen ist.
9.5 Orthogonale und unitäre Endomorphismen
337 9
Wir betrachten im euklidischen Rn mit dem kanonischen Ska- Damit erhalten wir sehr einfach eine geordnete Orthonormal-
larprodukt für einen Vektor w 2 Rn n f0g der Länge 1, d. h., basis des Rn bezüglich der w eine Diagonalgestalt hat: Wir
kwk D 1, die Abbildung wählen die geordnete Orthonormalbasis .w; b2 ; : : : ; bn /, wo-
( bei .b2 ; : : : ; bn / eine geordnete Orthonormalbasis des .n 1/-
Rn ! Rn ; dimensionalen Untervektorraums w? ist. Für die Darstel-
w W
v 7! v 2 .w v/ w: lungsmatrix B M .w /B bezüglich dieser Basis B gilt:
0 1
Wir nennen w die Spiegelung entlang w. Wir begründen: 1 0 0
B0 1 0C
Jede Spiegelung w ist ein diagonalisierbarer orthogonaler B C
Endomorphismus. D D B M .w /B D B
B :: :: C
C
@ : : A
0 1
Problemanalyse und Strategie
Wir prüfen nach, dass w ein längenerhaltender Endomorphis- Also ist jede Spiegelung w im Rn diagonalisierbar, und
mus ist und konstruieren uns schließlich eine Basis bezüglich offenbar haben damit Spiegelungen und damit auch jede Dar-
der der Endomorphismus Diagonalgestalt hat. stellungsmatrix einer Spiegelung stets die Determinante 1.
Wir ermitteln noch die Darstellungsmatrix der Spiegelung
Lösung w bezüglich der geordneten Standardbasis En des Rn .
Weil für alle 2 R und u; v 2 Rn die Gleichung Für jedes v 2 Rn gilt:
i Eine orthogonale Matrix hat die Determinante C1 oder Die Darstellungsmatrizen von orthogonalen
1 und die Determinante einer unitären Matrix liegt auf bzw. unitären Endomorphismen bezüglich
dem Einheitskreis fz 2 C j jzj D 1g. Orthonormalbasen sind orthogonal
? Selbstfrage 9.10 bzw. unitär
Sind die Matrizen
0 1 0 1 Wir geben uns in einem endlichdimensionalen euklidischen
0 1 0 2 1 2
B0 C 1B
0 1A und @ 2 1C bzw. unitären Vektorraum V eine Orthonormalbasis B D
@ 2 A
3 .b1 ; : : : ; bn / vor. Eine solche existiert stets, man kann sie
1 0 0 1 2 2
aus einer Basis mit dem Verfahren von Gram und Schmidt
orthogonal? konstruieren.
Wir zeigen, dass zwei Vektoren v; w 2 V genau dann
Die Matrizen S ˛ und D ˛ aus obigem Beispiel sind somit senkrecht aufeinander stehen, wenn es ihre Koordinaten-
orthogonal. Und tatsächlich folgte die Orthogonalität der vektoren aus Rn bzw. C n bezüglich der Basis B und des
Abbildungen ˛ und ı˛ bezüglich des kanonischen Ska- kanonischen Skalarprodukts tun, d. h.:
larprodukts nur aus dieser Eigenschaft. Wir erhalten viel
allgemeiner: v w D 0 , Bv Bw D 0 :
Beweis Es ist nur noch zu zeigen, dass die Matrix A or- also gerade das kanonische Skalarprodukt der Koordinaten-
thogonal bzw. unitär ist, wenn 'A orthogonal bzw. unitär vektoren.
bezüglich des kanonischen Skalarprodukts ist. Wir betrachten nun einen Endomorphismus ' des eu-
Ist nun 'A orthogonal bzw. unitär, so gilt für alle v und klidischen bzw. unitären Vektorraums V und bilden die
w aus K :n Darstellungsmatrix dieses Endomorphismus bezüglich der
Orthonormalbasis B
v> w D v w D .A v/ .A w/ D v> A > A w :
A D B M .'/B D .B '.b1 /; : : : ; B '.bn // :
Setzt man hier die Standardeinheitsvektoren e i für v und
ej für w ein, so erhält man rechts die Komponente aij von Man beachte, dass mit obiger Gleichung v w D v w
B B
A > A und links 0, falls i ¤ j , und 1, falls i D j . Damit insbesondere auch
gilt A > A D En .
'.v/ '.w/ D B '.v/ B '.w/
Weil die Matrix A 2 Kn n gerade die Darstellungsmatrix
A D En M .'A /En von 'A bezüglich der kanonischen Basis
gilt. Wir berechnen nun das Produkt A > A:
ist, kann dieses Ergebnis zusammengefasst auch in folgen-
der Art formuliert werden: 0 >1
B '.b1 /
B :: C
Folgerung Die Darstellungsmatrix des Endomorphismus A> A D @ : A .B '.b1 /; : : : ; B '.bn //
'A ist genau dann orthogonal bzw. unitär, wenn 'A bezüg- B '.bn /
>
lich des kanonischen Skalarprodukts orthogonal bzw. unitär 0 1
> >
ist. B '.b1 / B '.b1 / B '.b1 / B '.bn /
B :: :: C
DB@ : :
C
A
Wir verallgemeinern dieses Ergebnis für beliebige Skalar- > >
produkte endlichdimensionaler Vektorräume. B '.b n / B '.b 1 / B '.b n / B '.bn /
9.5 Orthogonale und unitäre Endomorphismen
339 9
Ist nun ' ein orthogonaler bzw. unitärer Endomorphismus, Im
d. h. '.v/ '.w/ D v w, so können wir also ' in den n2 i
Produkten weglassen, damit folgt dann, weil die Elemente
der Basis B ja eine Orthonormalbasis bilden:
A > A D En :
Also ist die Matrix A orthogonal bzw. unitär. Ist umgekehrt 1 1 Re
vorausgesetzt, dass die Matrix A orthogonal bzw. unitär ist,
d. h., A > A D En , so zeigt obige Darstellung des Produkts,
dass '.bi / '.bj / D bi bj für alle i; j . Weil B eine Ba-
sis ist, folgt daraus, dass ' orthogonal bzw. unitär ist. Wir
i
haben gezeigt:
. Abb. 9.17 Die Eigenwerte orthogonaler und unitärer Matrizen liegen
auf dem Einheitskreis
Darstellungsmatrizen orthogonaler bzw. unitärer
Endomorphismen
Die Darstellungsmatrix eines Endomorphismus eines end- Beweis Sind 1 und 2 verschiedene Eigenwerte einer
lichdimensionalen euklidischen bzw. unitären Vektor- orthogonalen bzw. unitären Matrix A 2 Kn n mit den
raums bezüglich einer Orthonormalbasis ist genau dann Eigenvektoren v1 zu 1 und v2 zu 2 , so gilt mit dem kano-
orthogonal bzw. unitär, wenn der Endomorphismus ortho- nischen Skalarprodukt im Kn :
gonal bzw. unitär ist.
v1 v2 D .A v1 / .A v2 / D .1 v1 / .2 v2 /
D 1 2 .v1 v2 / :
? Selbstfrage 9.11
Beachten Sie, dass in diesem Satz kein mathematisches Aus v1 v2 ¤ 0 folgte 1 2 D 1. Wegen 1 D j2 j D 2 2
Symbol auftaucht. Können Sie diese Aussage mit mög- gilt 2 D 1 1
2 und somit 1 2 D 1, d. h. 1 D 2 , ein
lichst vielen Symbolen formulieren? Widerspruch. Damit gilt v1 v2 D 0.
a . Abb. 9.18 Die Drehachse Drehachse
Zu dem Punkt 2 R2 mit a2 C b 2 D 1 gibt es genau einer Drehung im R3 ist der Ei-
b
genraum zum Eigenwert 1
ein ˛ 2 Œ0; 2 Œ mit a D cos ˛ und b D sin ˛. Also gilt:
Dreireihige orthogonale Matrizen stellen M > M D .S > A S /> .S > A S / D S > A > A S D E3 :
Spiegelungen, Drehungen oder
r s
Drehspiegelungen dar Und weil det D det M D det S > det A det S D
t u
det A D 1, folgt die Existenz eines ˛ 2 Œ0; 2 Œ mit
Im R3 gibt es drei Arten von orthogonalen Matrizen: Spie-
gelungs-, Dreh- und Drehspiegelungsmatrizen. r s cos ˛ sin ˛
D
Wir betrachten zuerst den Fall einer orthogonalen 3 t u sin ˛ cos ˛
3-Matrix A mit der Determinante C1:
Jeder der eventuell komplexen Eigenwerte 1 ; 2 ; 3 Damit haben wir gezeigt, dass es zu jeder orthogonalen
von A hat den Betrag 1. Die Determinante von A ist das 3 3-Matrix A mit Determinante C1, d. h. zu jeder Dreh-
Produkt der Eigenwerte: matrix, eine orthogonale Matrix S und ein ˛ 2 Œ0; 2 Œ gibt
mit
1 D 1 2 3 : 0 1
1 0 0
Sind alle drei Eigenwerte 1 ; 2 ; 3 reell, so muss also einer S > A S D @0 cos ˛ sin ˛ A
der Eigenwerte gleich 1 sein. Ist aber einer der Eigenwerte 0 sin ˛ cos ˛
komplex, etwa 1 2 C n R, so ist wegen A 2 RŒX auch
1 ein Eigenwert, also etwa 1 D 2 . Damit erhalten wir Ist ˛ ¤ 0, so nennt man den dann eindimensionalen Eigen-
aber wegen 1 2 D 1 sogleich 3 D 1. raum zum Eigenwert 1 einer Drehmatrix A die Drehachse
Damit hat also A auf jeden Fall den Eigenwert 1 der Drehung v 7! A v.
und damit auch einen Eigenvektor zum Eigenwert 1. Der Eine solche Darstellung einer Drehmatrix bezeichnet
Eigenraum zum Eigenwert 1 ist entweder ein- oder drei- man als ihre Normalform und meint damit, dass diese Form
dimensional, in jedem Fall ist also folgende Bezeichnung die einfachste Darstellung ist.
sinnvoll:
Wir nennen eine orthogonale Matrix A 2 R3 3 mit ?Selbstfrage 9.13
det A D 1 eine Drehmatrix. Wie sieht die Darstellungsmatrix aus, wenn man die Vek-
toren der Basis .b1 ; b2 ; b3 / zyklisch vertauscht?
? Selbstfrage 9.12
Wieso kann der Eigenraum zum Eigenwert 1 eigentlich Nun wenden wir uns dem Fall zu, dass eine orthogonale
nicht zweidimensional sein? Matrix A 2 R3 3 die Determinante 1 hat. Wie oben zeigt
9.5 Orthogonale und unitäre Endomorphismen
341 9
man, dass A in diesem Fall den Eigenwert 1 mit einem Unitäre Matrizen sind diagonalisierbar,
zugehörigen normierten Eigenvektor b1 besitzt. Es gilt also orthogonale nicht immer
A b1 D b1 .
Wieder ergänzen wir diesen Eigenvektor zu einer geord-
neten Orthonormalbasis .b1 ; b2 ; b3 / des R3 . Wir erhalten Bei jeder unitären Matrix A 2 C n n zerfällt das cha-
mit der orthogonalen Matrix S D .b1 ; b2 ; b3 / die ebenfalls rakteristische Polynom A als Polynom über C stets in
orthogonale Matrix Linearfaktoren:
01 A D .1 X/ .n X/
1 0 0
M D S >A S D @ 0 r s A mit nicht notwendig verschiedenen 1 ; : : : ; n 2 C.
0 t u Wir folgern nun, dass für solche Matrizen stets algebrai-
sche und geometrische Vielfachheit für jeden Eigenwert
r s
Wegen det D det M D det A D 1 folgt wie- übereinstimmen. Insbesondere sind also unitäre Matrizen
t u stets diagonalisierbar. Wir folgern dieses Ergebnis aus dem
der: Satz:
r s cos ˛ sin ˛
D
t u sin ˛ cos ˛
Unitäre Endomorphismen sind diagonalisierbar
Ist ' ein unitärer Endomorphismus eines endlichdimen-
für ein ˛ 2 Œ0; 2 Œ.
sionalen unitären Vektorraums V mit den Eigenwerten
1. Fall: ˛ D 0. Es handelt sich dann bei
1 ; : : : ; n , so existiert eine Orthonormalbasis B von V
0 1
1 0 0 aus Eigenvektoren von ', d.ḣ.
M D @ 0 1 0A 0 1
1 0
0 0 1 B C
B
B M .'/B D @
:: C
: A
um die Darstellungsmatrix der Spiegelung entlang b1 . Da- 0 n
mit ist erkannt, dass A die Darstellungsmatrix einer Spie-
gelung, kurz eine Spiegelungsmatrix, ist.
2. Fall: ˛ ¤ 0. Es handelt sich dann bei
Beweis Wir beweisen den Satz durch Induktion nach der
0 1 Dimension n von V . Ist n D 1, so ist die Behauptung rich-
1 0 0
M D @ 0 cos ˛ sin ˛ A tig, da man jede von Null verschiedene komplexe Zahl als
0 sin ˛ cos ˛ einziges Element einer solchen Orthonormalbasis wählen
kann, jede solche Zahl ist ein Eigenvektor von '. Setzen
um die Darstellungsmatrix einer Drehspiegelung. wir also nun voraus, dass n > 1 ist und die Behauptung für
alle Zahlen m < n gilt.
Ist v1 ein Eigenvektor zum Eigenwert 1 von ', so be-
Die orthogonalen 3 3-Matrizen trachten wir das orthogonale Komplement zum Erzeugnis
Jede orthogonale 3 3-Matrix A ist entweder eine Dreh- von v1 :
matrix, eine Spiegelungsmatrix oder eine Drehspiege- U D hv1 i? D fv 2 V j v1 v D 0g :
lungsmatrix.
In jedem Fall gibt es eine orthogonale Matrix S 2 Die Einschränkung des unitären Endomorphismus ' auf
R3 3 und ein ˛ 2 Œ0; 2 Œ mit den Untervektorraum U von V , also die Abbildung
0 1
˙1 0 0 U ! V;
B 0
'jU W
>
S AS D @ cos ˛ sin ˛ C
A
v 7! '.v/
0 sin ˛ cos ˛
hat wegen
j1 j D 1 gilt. Und weil U als Untervektorraum eines unitä- ist unitär, also diagonalisierbar. Die Eigenwerte von A sind
ren Vektorraumes selbst wieder ein unitärer Vektorraum ist die Nullstellen des charakteristischen Polynoms:
und die Dimension von U gleich n1 < n ist, ist die Induk-
tionsvoraussetzung auf U anwendbar: Der Vektorraum U A D .i X/2 .1 X/ :
besitzt eine geordnete Orthonormalbasis B 0 D .b2 ; : : : ; bn / Damit haben wir den einfachen Eigenwert 1 und den dop-
mit pelten Eigenwert i. Nun bestimmen wir die Eigenräume:
0 1
2 0 0 1
* p1 +
B :: C
B 0 M .'jU /B 0 D @ B p1 C
2
: A
EigA .1/ D ker.A E3 / D @ 2 A ;
0 n 0
„ ƒ‚ …
Wir normieren den Eigenvektor v1 , setzen also b1 D DWb1
kv1 k1 v1 , B D .b1 ; : : : ; bn /, und erhalten so die ge- 0 1 0 1
* p1 0 +
wünschte Darstellung. B p12 C @ 0 A
EigA .i/ D ker.A i E3 / D @ 2 A; :
Für unitäre Matrizen besagt dieser Satz: 0 i
„ ƒ‚ … „ƒ‚…
DWb2 DWb3
Wir haben nun ausführlich orthogonale bzw. unitäre En- ' D 'A W v 7! A v des Kn bezüglich des kanonischen
domorphismen euklidischer bzw. unitärer Vektorräume be- Skalarprodukts selbstadjungiert, da für alle v; w 2 Kn
handelt. Nun betrachten wir weitere Endomorphismen eu- gilt:
klidischer bzw. unitärer Vektorräume.
'.v/ w D .A v/> w D v> A > w
9.6 Selbstadjungierte Endomorphismen D v> .A w/ D v '.w/ :
Wir erinnern an die orthogonalen bzw. unitären Endo- .v/ w D v 1 .w/ D v .w/ :
morphismen. Für jeden solchen Endomorphismus ' eines
euklidischen bzw. unitären Vektorraums V mit dem Skalar- Ein anderes Argument ist die Symmetrie der Darstel-
produkt gilt: lungsmatrizen von Spiegelungen.
4 Nicht selbstadjungiert ist die Drehung ' im R2 umden
v w D '.v/ '.w/ 1
Winkel 120 Grad. So gilt etwa für den Vektor v D ,
0
! p !
für alle v; w 2 V . Selbstadjungierte Endomorphismen sind 1=2 3=2
ganz ähnlich erklärt: dass '.v/ D p und w D , also
3=2 1=2
0 D '.v/ w ¤ v '.w/ : 9
Selbstadjungierter Endomorphismus
Man nennt einen Endomorphismus ' eines euklidischen
bzw. unitären Vektorraums V selbstadjungiert, wenn für
alle v; w 2 V gilt:
Darstellungsmatrizen selbstadjungierter
Endomorphismen bezüglich
'.v/ w D v '.w/ : Orthonormalbasen sind symmetrisch
bzw. hermitesch
Beweis Es reicht aus, wenn wir das für den komplexen Fall
zeigen, der reelle Fall ergibt sich dann einfach durch Weg- Wir wissen aber bisher noch nichts über die Existenz von
lassen der Konjugation. Eigenwerten reeller symmetrischer bzw. hermitescher Ma-
Wir wählen eine beliebige Orthonormalbasis B D trizen. Wir haben nur gezeigt, dass, wenn eine solche
.b1 ; : : : ; bn / von V , insbesondere ist also die Dimension Matrix einen Eigenwert hat, dieser dann zwangsläufig reell
von V gleich n. ist. Tatsächlich ist es aber so, dass jede reelle symmetri-
Ist A D .aij / die Darstellungsmatrix des selbstadjun- sche bzw. hermitesche n n-Matrix auch n Eigenwerte
gierten Endomorphismus ' bezüglich B, so ist für alle hat, hierbei zählen wir die Eigenwerte entsprechend ihrer
i; j 2 f1; : : : ; ng algebraischen Vielfachheiten. Die Begründung erfolgt über
einen Ausflug ins Komplexe.
aij D aj i
zu zeigen. Wir geben uns i; j 2 f1; : : : ; ng vor. Die j -te Jede symmetrische n n-Matrix hat n reelle
Spalte von A ist der Koordinatenvektor des Bildes des Eigenwerte
j -ten Basisvektors bj :
Wir betrachten eine symmetrische Matrix A 2 Rn n . Diese
'.bj / D a1j b1 C C anj bn : Matrix definiert einen selbstadjungierten Endomorphismus
346 Kapitel 9 Euklidische und unitäre Vektorräume – orthogonales Diagonalisieren
Wir wollen nun noch begründen, dass es zu jeder reellen Der Beweis geht ähnlich zu dem Beweis des Satzes zur Dia-
symmetrischen bzw. hermiteschen Matrix A 2 Kn n eine gonalisierbarkeit unitärer Endomorphismen.
Orthonormalbasis des Kn aus Eigenvektoren von A gibt.
Dazu liefert der folgende Abschnitt einen ersten Anhalts- Beweis Wir beweisen den Satz durch Induktion nach der
punkt. Dimension n von V . Ist n D 1, so ist die Behauptung
richtig, man kann z. B. die reelle bzw. komplexe Zahl 1 als
einziges Element einer solchen Orthonormalbasis wählen,
Eigenvektoren zu verschiedenen diese Zahl ist ein Eigenvektor von '. Setzen wir also nun
Eigenwerten stehen senkrecht zueinander voraus, dass n > 1 ist und die Behauptung für alle Zahlen
m < n gilt.
Ist v1 ein Eigenvektor zum Eigenwert 1 von ', so be-
Sind 1 und 2 verschiedene Eigenwerte einer reellen trachten wir den Orthogonalraum zum Erzeugnis von v :
1
symmetrischen bzw. hermiteschen Matrix A 2 Kn n mit
?
Eigenvektoren v1 zu 1 und v2 zu 2 , so gilt mit dem Ska- U D hv1 i D fv 2 V j v1 v D 0g :
>
larprodukt v w D v w des K wegen v1 ; v2 ¤ 0:
n
Die Einschränkung des selbstadjungierten Endomorphis-
mus ' auf den Untervektorraum U von V , also die Ab-
1 .v> > >
1 v 2 / D .1 v1 / v 2 D .A v 1 / v 2
bildung
D v> > >
1 A v 2 D v 1 .A v2 /
U ! V;
D v> > 'jU W
1 .2 v 2 / D 2 .v 1 v2 / : v 7! '.v/
Dabei sind die Spalten von S eine Orthonormalbasis des Kommentar Im R3 hat man das Vektorprodukt zur Ver-
Kn aus Eigenvektoren von A. fügung. Damit kann man sich oftmals etwas an Arbeit
ersparen. Sucht man eine Orthonormalbasis des R3 , wobei
ein normierter Basisvektor b1 D .b1 ; b2 ; b3 /> ¤ e 3 vor-
>
Ist A 2 K n n
eine reelle symmetrische bzw. hermitesche gegeben ist, so ist .b1 ; b2 ; b3 / mit b2 D .b2 ; b1 ; 0/ und
Matrix, so existiert nach diesem Satz eine Orthonormal- b3 D b1 b2 eine geordnete Orthogonalbasis. Normieren
basis des Kn aus Eigenvektoren von A. Dies heißt aber, liefert eine Orthonormalbasis.
dass n linear unabhängige Eigenvektoren von A existieren.
Damit muss für jeden Eigenwert von A die geometrische Mithilfe der erzielten Ergebnisse können wir nun ein Prob-
Vielfachheit gleich der algebraischen sein: lem lösen, vor dem wir zu Beginn dieses Kapitels standen.
Die Dimension jedes Eigenraums ist der Exponent des
zugehörigen Eigenwertes im charakteristischem Polynom.
Damit ist wieder klar, wie wir vorgehen, um eine Ortho- Die Definitheit von reellen symmetrischen
normalbasis zu einer reellen symmetrischen bzw. hermite- bzw. hermiteschen Matrizen lässt
schen Matrix A 2 Kn n zu konstruieren. sich mit den Eigenwerten und
Hauptunterdeterminanten bestimmen
Beispiel Die Matrix
0 1
1 i 0 Es ist im Allgemeinen schwer zu entscheiden, ob eine reelle
A D @i 1 0A 2 C 3 3
symmetrische oder hermitesche Matrix A 2 Kn n positiv
0 0 2 (semi-), negativ (semi-) oder indefinit ist, da es im Allge-
ist hermitesch, also diagonalisierbar. Wir bestimmen die Ei- meinen nicht immer leicht ist, das Vorzeichen von
genwerte von A, d. h. die Nullstellen des charakteristischen v> A v
Polynoms
zu bestimmen. Zum Glück gibt es Kriterien, die bei kleinen
A D ..1 X/ .1 X/ 1/ .2 X/ D X .2 X/2 : Matrizen leicht anzuwenden sind.
348 Kapitel 9 Euklidische und unitäre Vektorräume – orthogonales Diagonalisieren
Wir bestimmen zu der hermiteschen Matrix A 2 C 4 4 bzw. und b4 D ka4 k1 a4 D p12 a4 . Mit b3 und b4 haben wir den
reellen symmetrischen Matrix B 2 R4 4 eine unitäre Matrix anderen Teil einer Orthonormalbasis des C 4 bestehend aus Ei-
>
S 2 C 4 4 bzw. orthogonale Matrix T 2 R4 4 , sodass S A S genvektoren von A.
bzw. T > B T ein Diagonalmatrix ist: Mit der unitären Matrix S D .b1 ; b2 ; b3 ; b4 / gilt die Glei-
0 1 chung:
2 i 0 0
Bi 2 0 0C >
B C diag.1; 1; 3; 3/ D S A S :
ADB C 2 C 4 4 bzw.
@ 0 0 2 iA
0 0 i 2 Nun zur reellen symmetrischen Matrix B.
0 1 Wegen B D X 3 .30 X/ hat B den dreifachen Eigen-
1 2 3 4
B2 4 6 wert 0 und den einfachen Eigenwert 30.
B 8CC
BDB C 2 R4 4 Wir bestimmen Basen für die Eigenräume EigB .0/ und
@3 6 9 12A EigB .30/ zu den beiden Eigenwerten 0 und 30.
4 8 12 16 0 1
1 2 3 4
B2 4 6 8C
Problemanalyse und Strategie B C
EigB .0/ D ker.B 0 E4 / D ker B C
Wir bestimmen die Eigenwerte und die Orthonormalbasen der @3 6 9 12A
Eigenräume. 4 8 12 16
0 1 0 1 0 1 0 1
1 2 3 4 * 2 0 0 +
9 Lösung B0 0 0 0C B1C B3C B 0 C
B C B C B C B C
D ker B C D B C;B C;B C :
Wegen @0 0 0 0A @ 0 A @ 2 A @4A
0 0 0 0 0 0 3
A D ..2 X/ .2 X/ C i2 /2 D .1 X/2 .3 X/2 „ ƒ‚ … „ ƒ‚ … „ ƒ‚ …
DWa1 DWa2 DWa3
hat A die jeweils zweifachen Eigenwerte 1 und 3.
Wir bestimmen Basen für die Eigenräume EigA .1/ und Die drei Basisvektoren a1 , a2 und a3 bilden noch keine Ortho-
EigA .3/ zu den beiden Eigenwerten 1 und 3. normalbasis des Eigenraums. Eine solche erhalten wir, indem
0 1 wir das Verfahren von Gram und Schmidt auf die Vektoren a1 ,
1 i 0 0
Bi 1 0 0C a2 und a3 anwenden. Damit erhalten wir
B C 0 1 0 1 0 1
EigA .1/ D ker.A 1 E4 / D ker B C
@ 0 0 1 iA 2 0 5
0 0 i 1 1 BB1C
C 1 B B0C
C 1 B B10C
C
0 1 0 1 0 1 b1 D p B C; b2 D p B C; b3 D p B C;
1 i 0 0 0 + 5@0A 5 @4A 5 6@ 3 A
* i
B0 0 0 0C B1C B 0 C 0 3 4
B C B C B C
D ker B C D B C;B C :
@0 0 1 i A @0A @ i A also eine Orthonormalbasis fb1 ; b2 ; b3 g des Eigenraums zum
0 0 0 0 0 1 Eigenwert 0, also den ersten Teil einer Orthonormalbasis des
„ ƒ‚ … „ ƒ‚ …
DWa1 DWa2 R4 bestehend aus Eigenvektoren von B.
Wir haben die Basisvektoren a1 und a2 so gewählt, dass sie EigB .30/ D ker.B 30 E4 / :
senkrecht aufeinander stehen. Normieren von a1 und a2 lie-
fert b1 D ka1 k1 a1 D p12 a1 und b2 D ka2 k1 a2 D p12 a2 . Die Bestimmung dieses Kerns ist mühsam. Eine Überlegung
Die Vektoren b1 und b2 liefern also den ersten Teil einer Or- erspart uns diese Arbeit. Weil 30 ein einfacher Eigenwert
thonormalbasis des C 4 bestehend aus Eigenvektoren von A. ist, ist dieser Eigenraum eindimensional. Ein Vektor a4 , der
0 1 diesen Eigenraum erzeugt, steht senkrecht auf allen Eigen-
1 i 0 0
B i 1 0 vektoren zum Eigenwert 0. Ein Blick auf den Eigenvektor
B 0CC
EigA .3/ D ker.A 3 E4 / D ker B C a1 zeigt, dass als erste zwei Komponenten von a4 die Zah-
@0 0 1 i A
len 1 und 2 infrage kommen. Ein Blick auf a2 liefert dann
0 0 i 1 die mögliche dritte Komponente 3 für a4 , und betrachtet man
0 1 0 1 0 1
1 i 0 0 0 + a3 , so erhält man den Vektor a4 D .1; 2; 3; 4/> , der senkrecht
* i
B 0 0 0 0C B1C B0C auf allen Eigenvektoren zum Eigenwert 0 ist, also ein Eigen-
B C B C B C
D ker B CD B C ; B C : vektor zum Eigenwert 30 sein muss. Es liefert dann b4 D
@ 0 0 1 i A @0A @ i A
0 0 0 0 0 1 ka4 k1 a4 D p130 a4 eine Orthonormalbasis von EigB .30/.
„ƒ‚… „ƒ‚… Mit der orthogonalen Matrix T D .b1 ; b2 ; b3 ; b4 / erhal-
DWa3 DWa4
ten wir die Gleichung
Wieder wurden a3 und a4 so gewählt, dass sie senkrecht auf-
einander stehen. Normieren liefert b3 D ka3 k1 a3 D p12 a3 diag.0; 0; 0; 30/ D T > B T :
9.6 Selbstadjungierte Endomorphismen
349 9
Wie wir gezeigt haben, hat eine reelle symmetrische Für ein zweites Kriterium, das ebenfalls leicht anzuwenden
bzw. hermitesche n n-Matrix n (nicht notwendig verschie- ist, führen wir einen neuen Begriff ein.
dene) reelle Eigenwerte; es ist somit sinnvoll, von positiven Für jede n n-Matrix A D .aij /nn und jede Zahl
und negativen Eigenwerten zu sprechen. k 2 f1; : : : ; ng bezeichnet man die Determinante der lin-
ken oberen k k-Teilmatrix .aij /kk von A als Hauptminor
oder Hauptunterdeterminante. Die n Hauptunterdetermi-
Das Eigenwertkriterium zur Definitheit nanten einer n n-Matrix A D .aij /nn sind der Reihe nach
Eine reelle symmetrische oder hermitesche n n-Matrix gegeben durch:
A 2 Kn n ist genau dann
ˇ ˇ ˇ ˇ
4 positiv definit, wenn alle Eigenwerte von A positiv ˇ ˇ ˇa11 a12 a13 ˇ ˇa11 a1n ˇ
ˇ ˇ ˇa11 a12 ˇ ˇ ˇ ˇ ˇ
sind, ˇa11 ˇ ; ˇ ˇ ; ˇa21 a22 a23 ˇ ; : : : ; ˇˇ :: :: ˇ
ˇa21 a22 ˇ ˇ ˇ ˇ : : ˇˇ
4 negativ definit, wenn alle Eigenwerte von A negativ ˇa31 a32 a33 ˇ ˇan1 ann ˇ
sind,
4 positiv semidefinit, wenn alle Eigenwerte von A posi-
tiv oder null sind, Damit können wir das zweite wichtige Kriterium für die
4 negativ semidefinit, wenn alle Eigenwerte von A ne- Definitheit formulieren.
gativ oder null sind,
4 indefinit, wenn A positive und negative Eigenwerte
hat. Das Hauptminorenkriterium zur Definitheit
Eine reelle symmetrische oder hermitesche n n-Matrix
A 2 Kn n ist genau dann
Beweis Wir begründen das Kriterium für die positive De- 4 positiv definit, wenn alle n Hauptminoren positiv sind,
finitheit. Die Beweise für die negative Definitheit und die 4 negativ definit, wenn die n Hauptminoren alternierend
Semidefinitheit ergeben sich analog. Die Indefinitheit zu sind, d. h.,
beweisen haben wir als Aufgabe gestellt.
Ist 2 R ein Eigenwert einer positiv definiten Matrix det.aij /11 < 0 ; det.aij /22 > 0 ; det.aij /33 < 0 ; : : :
A und v ein zugehöriger Eigenvektor zum Eigenwert , so
gilt wegen A v D v durch Skalarproduktbildung dieser
Gleichung mit dem Vektor v> :
Beweis Wir begründen das Kriterium für die positive De-
> > >
v A v D v v D „ƒ‚…
„ƒ‚… v v : finitheit:
>0 >0 ): Die Matrix A sei positiv definit. Dann sind auch
die Matrizen .aij /1i;j k für alle k D 1; : : : ; n positiv de-
Somit muss positiv sein. finit. Es genügt also, wenn wir det.A/ > 0 zeigen. Weil
Interessanter ist, dass auch die Umkehrung gilt. Wir A symmetrisch bzw. hermitesch ist, gibt es eine orthogo-
gehen von einer reellen symmetrischen bzw. komplexen nale Matrix S und eine Diagonalmatrix D 2 Kn n mit
hermiteschen Matrix A 2 Kn n aus, deren n nicht not- >
S A S D D. Da A positiv definit ist, sind sämtliche
wendig verschiedenen Eigenwerte 1 ; : : : ; n positiv sind.
Diagonaleinträge von D reell und echt größer Null, ins-
Nach dem Satz zur Diagonalisierbarkeit reeller symmetri- >
scher bzw. hermitescher Matrizen existiert eine Orthonor- besondere ist det.D/ > 0. Also folgt det.S A S / D
malbasis B D .v1 ; : : : ; vn / des Kn aus Eigenvektoren von j det.S /j2 det.A/ D det.D/ > 0 und somit det.A/ > 0.
A. Wir stellen v 2 Kn n f0g als Linearkombination bezüg- (: Es sei nun det.aij /1i;j k > 0 für alle k D 1; : : : ; n.
lich der Basis B dar: Wir beweisen durch vollständige Induktion nach n, dass A
positiv definit ist. Für n D 1 ist die Behauptung klar. Es sei
v D 1 v 1 C C n v n ; also n > 1. Wir betrachten die zu A gehörige hermitesche
Sesquilinearform W Kn Kn ! K, .v; w/ 7! v> A w.
wobei also 1 ; : : : ; n 2 K sind. Wir setzen U D he 1 ; : : : ; e n1 i, wobei e i wie üblich den
Wegen v> >
i vj D 0 für i ¤ j sowie v i v i D 1 erhalten i-ten Vektor der kanonischen Basis des Kn bezeichne, und
wir mit der Sesquilinearität des kanonischen Skalarpro- AQ D .aij /1i;j n1 . Die Matrix AQ beschreibt die Sesqui-
dukts: linearform jU U eingeschränkt auf den Untervektorraum
! !
X n Xn U . Nach Induktionsvoraussetzung ist jU U positiv definit.
> >
v .A v/ D i v i i i vi Wir wählen mit dem Verfahren von Gram und Schmidt eine
i D1 i D1 Orthonormalbasis .a1 ; : : : ; an1 / von U bezüglich des Ska-
X
n
larprodukts jU U und erhalten D ha1 ; : : : ; an1 i. Wir
D i ji j2 kvi k2 > 0 ; P U ai e n
wählen weiter u D e n n1 i D1 kai k ai 2 K n U (wobei
n
i D1
wir vereinfachend anstelle von jU U geschrieben haben).
weil alle Eigenwerte 1 ; : : : ; n positiv sind. Es gilt u ? ai für alle i 2 f1; : : : ; n 1g (es ist dann
350 Kapitel 9 Euklidische und unitäre Vektorräume – orthogonales Diagonalisieren
.a1 ; : : : ; an1 ; u/ eine Basis des Kn ). Bezüglich der Basis von Vektoren v und w des R3 ein euklidisches Skalar-
.a1 ; : : : ; an1 ; u/ können wir dann darstellen als produkt, und R3 versehen mit diesem Produkt ist ein
euklidischer Vektorraum. 9
0 B 0
A D ?Selbstfrage 9.14
0 d
Entscheiden Sie über die Definitheit einer Diagonalma-
mit d D u u und einer Diagonalmatrix B. Wegen trix.
det.A 0 / D det.B/ d > 0 und det.B/ > 0 ist auch d > 0.
Da B nach Induktionsvoraussetzung positiv definit ist (es 9.7 Normale Endomorphismen
stellen B und A Q ein und dieselbe Sesquilinearform bezüg-
lich verschiedener Basen dar) und d > 0 ist, ist also auch
das durch A 0 gegebene Produkt positiv definit. Also ist auch Wir haben gezeigt, dass eine n n-Matrix A über einem be-
A positiv definit. liebigen Körper genau dann diagonalisierbar ist, wenn das
Das Kriterium für die negative Definitheit einer Matrix charakteristische Polynom über diesem Körper in Linear-
A D .aij / ergibt sich hieraus durch Betrachtung von A. faktoren zerfällt und für jeden Eigenwert die algebraische
Es ist nämlich A genau dann negativ definit, wenn A Vielfachheit gleich der geometrischen ist. Wir leiten nun
positiv definit ist, d. h., nach dem bereits bewiesenen Teil, für den Körper C ein deutlich einfacheres Kriterium her.
wenn Über C zerfällt jedes Polynom vom Grad größer gleich 1 in
Linearfaktoren, damit ist die erste Bedingung automatisch
det .aij /11 > 0 ; det .aij /22 > 0 ; erfüllt. Anstelle der Gleichheit der Vielfachheiten ist aber
9 det .aij /33 > 0 ; ::: tatsächlich nur die Gleichheit
> >
A A D AA
Wegen det.B/ D det.B/ für jede quadratische Matrix
B, deren Zeilen- und Spaltenzahl ungerade ist, folgt die nachzuweisen. Wir werden eine komplexe Matrix, die die-
Behauptung. se Gleichung erfüllt, normal nennen. Unter den komplexen
Matrizen sind es also genau die normalen Matrizen, die dia-
Kommentar Es ist nur dann sinnvoll, eines der beiden ge- gonalisierbar sind.
schilderten Kriterien zu benutzen, wenn die Matrix klein Natürlich behandeln wir nicht nur den komplexen Fall.
ist. Große Matrizen bringt man besser auf Sylvester’sche Wir bestimmen auch im reellen Fall die Normalform nor-
Normalform. An dieser Normalform kann ebenfalls die maler Matrizen. Abgesehen von evtl. 2 2-Kästchen auf der
Definitheit entschieden werden. Wir behandeln diese Nor- Hauptdiagonalen ist dies ebenfalls eine Diagonalmatrix.
malform im 7 Kap. 10. Der Begriff des normalen Endomorphismus verallge-
meinert orthogonale bzw. unitäre und selbstadjungierte
Beispiel Endomorphismen.
1 1 Mit K bezeichnen wir wieder einen der Körper R oder
4 Die Matrix A D ist positiv semidefinit. Sie hat
1 1 C – im euklidischen Fall ist K D R, im unitären gilt
nämlich die Eigenwerte 0 und 2. K D C.
Mit dem zweiten Kriterium finden wir, dass A nicht po-
sitiv definit ist, da
Nicht zu jedem Endomorphismus gibt es
det.aij /11 D 1 > 0 ; aber einen adjungierten Endomorphismus,
det.aij /22 D det A D 1 1 1 1 0 : aber falls einer existiert, so ist er
eindeutig bestimmt
01
1 0 1
4 Die Matrix A D @0 1 2A ist nach dem zweiten Kri-
Wir nannten einen Endomorphismus ' eines euklidischen
1 2 6
bzw. unitären Vektorraums V selbstadjungiert, wenn für al-
terium positiv definit, da
le v; w 2 V gilt:
det.aij /11 D 1 > 0 ; det.aij /22 D 1 1 > 0 ; v '.w/ D '.v/ w :
det.aij /33 D det A D 6 .1 C 4/ > 0 : Diese Bedingung schwächen wir nun ab: Sind ' und
Endomorphismen eines euklidischen oder unitären Vektor-
Mit dieser Matrix A ist also das Produkt zwischen Vek- raums V , so heißt der Endomorphismus zu ' adjun-
toren v und w des R3 giert, wenn für alle v; w 2 V gilt:
v w D v> A w v '.w/ D .v/ w :
9.7 Normale Endomorphismen
351 9
Ist ' selbstadjungiert, so ist ' zu sich selbst adjungiert – so Beispiel
erklärt sich die Namensgebung der selbstadjungierten En- 4 Es sei V der Vektorraum der stetigen komplexwertigen
domorphismen. Funktionen auf dem abgeschlossenen Intervall Œa; b mit
Ist ' irgendein Endomorphismus von V , so kann man dem unitären Skalarprodukt
natürlich die Frage stellen, ob es überhaupt einen Endomor-
phismus von V gibt, der zu ' adjungiert ist. Und falls es Zb
einen gibt, dann fragt man als nächstes, ob es verschiede- hf; gi D f .x/ g.x/ dx :
ne solche zu ' adjungierte Endomorphismen geben kann. a
Wir werden zeigen, dass, falls es überhaupt einen zu ' ad-
jungierten Endomorphismus gibt, dieser dann eindeutig Für eine Funktion h 2 V definieren wir den Endomor-
bestimmt ist. Daher ist es angebracht, einen Endomorphis- phismus 'h W V ! V durch
mus , der zu ' adjungiert ist, mit ' zu bezeichnen,
D ' , d. h., Œa; b ! C;
'h W f 7! h f W
x 7! h.x/ f .x/:
v '.w/ D ' .v/ w für alle v; w 2 V :
Mit ' D .' / bezeichnen wir den (eindeutig bestimm- Es gilt dann für alle f; g 2 V :
ten) zu ' adjungierten Endomorphismus.
Zb
hf; 'h .g/i D f .x/ h.x/ g.x/ dx
Eindeutigkeit des adjungierten Endomorphismus
a
Es sei ' ein Endomorphismus von V . Dann gilt:
(a) Falls und 0 zu ' adjungierte Endomorphismen
Zb
sind, so folgt D 0 . D h.x/ f .x/g.x/ dx
(b) Falls ' existiert, so existiert auch ' , und es gilt a
˝ ˛
' D '. D 'h .f /; g :
gilt.
Die Eigenräume normaler Endomorphismen
sind senkrecht zueinander
Im Fall K D R heißt eine quadratische Matrix also dann
normal, wenn A > A D A A > gilt. Wir listen zahlreiche Ist ' ein Endomorphismus eines K-Vektorraums V , so be-
Beispiele auf. zeichneten wir den Eigenraum von ' zum Eigenwert 2 K
stets mit Eig' ./. Wir verallgemeinern diese Bezeichnung
Beispiel etwas. Für jedes 2 K setzen wir
4 Jede symmetrische Matrix A 2 Rn n ist normal; es gilt
A > D A und damit A > A D A A > . E' ./ D fv 2 V j '.v/ D vg :
4 Jede hermitesche Matrix A 2 C n n ist normal; es gilt
> > > Es gilt:
A D A und damit A A D A A .
4 Jede schiefsymmetrische Matrix A 2 R n n
ist normal; E' ./ D Eig' ./ ;
es gilt A > D A und damit A > A D A A > .
4 Jede schiefhermitesche Matrix A 2 C n n ist normal. falls ein Eigenwert von ' ist. Ist hingegen kein Eigen-
Dabei heißt eine Matrix A 2 C n n schiefhermitesch, wert von ', so gilt E' ./ D f0g.
>
falls gilt A D A. Für jede solche Matrix gilt
A A D A A>.
> Lemma Es sei ' ein normaler Endomorphismus eines eu-
4 Jede orthogonale Matrix A 2 R n n
ist normal; es gilt klidischen bzw. unitären Vektorraums V . Dann gilt für
> 1 >
A D A und damit A A D A A . > jedes 2 K:
>
4 Jede unitäre Matrix A 2 C n n
ist normal; es gilt A D
> > E' ./ D E' ./ :
A 1 und damit A A D AA .
1 2
4 Die Matrix A D 2 R2 2 ist nicht normal. Es Ist ein Eigenwert von ', so heißt das, der Eigenraum von
3 4
' zum Eigenwert ist gleich dem Eigenraum der zu ' ad-
gilt: jungierten Abbildung ' zum Eigenwert .
1 2 1 3 5 11
A A> D D Beweis Es sei v 2 E' ./. Wir zeigen vorab zwei Identitä-
3 4 2 4 11 25
ten: Zum einen gilt:
> 1 3 1 2 10 14
A AD D k' .v/k2 D ' .v/ ' .v/ D v '.' .v//
2 4 3 4 14 20
D v ' '.v/ D v ' . v/ D .v ' .v// ;
4 Jeder orthogonale bzw. unitäre Endomorphismus ' ei-
nes euklidischen bzw. unitären Vektorraums V ist nor- und zum anderen gilt:
mal. Denn es gilt für alle v; w 2 V :
' .v/ v D v '.v/ D v . v/ D kvk2 :
1 1 1
v '.w/ D ' .v/ ' .'.w// D ' .v/ w :
Mit diesen zwei Aussagen erhalten wir nun:
1
Somit gilt ' D ' . Beachte ' ı ' D idV D ' ı ' .
k' .v/ vk2 D .' .v/ v/ .' .v/ v/
4 Jeder selbstadjungierte Endomorphismus ' ist normal;
es gilt ' D '. D k' .v/k2 .' .v/ v/ .v ' .v// C jj2 kvk2
4 Der Endomorphismus aus obigem Beispiel (das Diffe- D .v ' .v// jj2 kvk2 .v ' .v// C jj2 kvk2
renzieren der 2 -periodischen Funktionen) ist normal;
es gilt ' D '. 9 D 0:
Damit sind die normalen Endomorphismen eine gemeinsa- Damit folgt ' .v/ v D 0, d. h. v 2 E' ./.
me Verallgemeinerung der orthogonalen bzw. unitären und Gezeigt ist hiermit die Inklusion E' ./ E' ./.
selbstadjungierten Endomorphismen. Unitäre und selbstad- Die andere Inklusion erhalten wir nun ganz einfach: Wir
jungierte Endomorphismen endlichdimensionaler C-Vek- wenden die obige Argumentation an auf ' und anstel-
torräume sind (orthogonal) diagonalisierbar, wie wir längst le von ' und . Wegen ' D ' und D gilt folglich
wissen. Und einer unserer Ziele ist es zu zeigen, dass unter E' ./ E' ./.
354 Kapitel 9 Euklidische und unitäre Vektorräume – orthogonales Diagonalisieren
Wir listen wichtige Arten von im Allgemeinen komplexen 4 Orthogonale Matrix: A > D A 1 , hat höchstens die
Matrizen auf, erwähnen wesentliche Eigenschaften und geben Eigenwerte ˙1, ist invertierbar, ist von evtl. Drehkäst-
jeweils ein typisches Beispiel einer 2 2-Matrix an. chen auf der Diagonalen abgesehen diagonalisierbar, die
Spalten und Zeilen der Matrix bilden Orthonormalbasen
4 Diagonalmatrix: A D diag.1 ; : : : ; n /, hat die Ei- des Rn :
genwerte 1 ; : : : ; n , ist genau dann invertierbar, wenn !
1 ; : : : ; n ¤ 0: p12 p12
AD 1 1
p p
! 2 2
1 0
AD
0 3 4 Spezielle orthogonale Matrix: eine orthogonale Matrix
mit det A D 1, stellt eine Drehung dar:
4 Obere bzw. untere Dreiecksmatrix: Die Eigenwerte ste- !
hen auf der Hauptdiagonalen, ist zu einer Jordan-Matrix p1 p12
A D 12 1
ähnlich, ist genau dann invertierbar, wenn alle Diagonal- p p
2 2
einträge ungleich null sind:
! >
1 2 4 Unitäre Matrix: A D A 1 , hat Eigenwerte vom Betrag
AD 1, ist invertierbar, ist diagonalisierbar, die Spalten und Zei-
0 3
len der Matrix bilden Orthonormalbasen des C n :
9 4 Reelle symmetrische Matrix: A > D A, hat nur reelle !
p1 p1
Eigenwerte, ist diagonalisierbar, liefert eine symmetrische AD 2 2
pi
2
pi 2
Bilinearform:
!
1 2 4 Positiv definite Matrix: v> A v > 0 für alle v ¤ 0, ist
AD
2 3 symmetrisch, hat nur positive Eigenwerte, ist invertierbar,
liefert ein Skalarprodukt:
4 Hermitesche Matrix: A > D A, hat nur reelle Eigenwer- !
te, ist diagonalisierbar, liefert eine hermitesche Sesquili- 1 2
AD
nearform: 2 5
!
1 i
AD 4 Negativ definite Matrix: v> A v < 0 für alle v ¤ 0, ist
i 3
symmetrisch, hat nur negative Eigenwerte, ist invertierbar:
4 Reelle schiefsymmetrische Matrix: A > D A, hat nur !
3 2
Nullen auf der Hauptdiagonalen, hat nur rein imaginäre AD
2 2
Eigenwerte:
!
0 1 4 Indefinite Matrix: Es gibt v; w mit v> A v < 0 und
AD w> A w > 0, ist symmetrisch, hat einen negativen und
1 0
positiven Eigenwert:
4 Invertierbare Matrix: A A 1 D En , es gilt det A ¤ 0, !
hat höchstens Eigenwerte ungleich 0: 1 2
AD
! 2 2
1 0
AD
2 3 4 Reelle normale Matrix: A > A D A A > , ist von evtl.
2 2-Kästchen auf der Hauptdiagonalen abgesehen dia-
4 Idempotente Matrix: A 2 D A, stellt eine Projektion dar, gonalisierbar:
hat höchstens die Eigenwerte 0 und 1, ist diagonalisierbar:
!
! 1 1
1 1
AD
AD 2
1
2
1 1 1
2 2
> >
4 Nilpotente Matrix: A p D 0 für ein p 2 N, hat den ein- 4 Komplexe normale Matrix: A A D A A , ist diago-
zigen Eigenwert 0, ist zu einer Jordan-Matrix ähnlich: nalisierbar:
! !
1 1 1 i
AD AD
1 1 i 5
9.7 Normale Endomorphismen
355 9
Im Fall eines euklidischen Vektorraums, d. h., K D R, gilt Dimensionen der Eigenräume höchstens abzählbar unend-
somit für jedes 2 R wegen D : lich sind. Falls zudem noch L? D f0g im Teil (b) gilt, so ist
das Orthonormalsystem sogar eine Orthonormalbasis. Und
E' ./ D E' ./ ; nun kommt das Entscheidende: Ist V endlichdimensional,
so sind diese zwei Dinge von selbst erfüllt.
d. h., dass in diesem Fall insbesondere die Eigenräume zu
den gleichen Eigenwerten von ' und ' gleich sind.
Mit dem eben gezeigten Lemma erhalten wir nun die Zu jedem normalen Endomorphismus
Folgerung, dass die Eigenräume normaler Endomorphis- eines unitären Vektorraums gibt es
men zu verschiedenen Eigenwerten senkrecht aufeinander eine Orthonormalbasis aus Eigenvektoren
stehen. Damit sind wir dem Ziel, nämlich, dass es bei nor-
malen Endomorphismen endlich-dimensionaler Vektorräu-
me eine Orthonormalbasis aus Eigenvektoren gibt, wieder Wir wissen bereits, dass jeder unitäre und selbstadjungier-
etwas näher. te Endomorphismen ' eines endlichdimensionalen unitären
Vektorraums V orthogonal diagonalisierbar ist, d. h, dass
eine Orthonormalbasis B von V aus Eigenvektoren von '
Folgerung Es sei ' ein normaler Endomorphismus des eu-
existiert, bezüglich der die Darstellungsmatrix von ' eine
klidischen bzw. unitären Vektorraums V . Ist L V das
Diagonalgestalt besitzt.
Erzeugnis aller Eigenvektoren zu allen Eigenwerten von ',
Unitäre und selbstadjungierte Endomorphismen sind
so gilt:
normal. Wir erhalten somit das alte Resultat wieder in dem
(a) E' ./ ? E' ./ für alle ; 2 K mit ¤ .
allgemeinen Satz:
(b) '.L? / L? , und L? enthält keine Eigenvektoren
von '.
Beweis (a) Es seien v 2 E' ./ und w 2 E' ./. Mit obi- Der Spektralsatz für unitäre Räume
gem Lemma folgt nun w 2 E' ./, also Es sei ' ein normaler Endomorphismus des endlichdimen-
sionalen unitären Vektorraums V . Dann besitzt V eine
Orthonormalbasis, die aus Eigenvektoren von ' besteht.
. / .v w/ D .v w/ .v w/
Insbesondere ist ' diagonalisierbar.
D . v/ w v . w/
D '.v/ w v ' .w/
D v ' .w/ v ' .w/ Beweis Es sei L das Erzeugnis aller Eigenvektoren aller
D 0: Eigenwerte von '. Wir schränken den normalen Endomor-
phismus ' auf den Untervektorraum L? ein und erhalten
Für ¤ folgt somit v ? w. Das ist die Behauptung. wegen der Voraussetzung und dem Teil (b) aus obiger Fol-
(b) Angenommen, es gibt einen Eigenvektor v von ' in gerung:
L . Dann gilt v 2 L \ L? . Wegen L \ L? D f0g folgt
?
v D 0. Somit enthält L? keine Eigenvektoren von '. 'jL? 2 EndC .L? / und dim.L? / < 1 :
Es sei nun v 2 L? . Wir zeigen '.v/ 2 L? , d. h., '.v/ 2 ?
E' ./? für alle 2 K. Nach obigem Lemma gilt E' ./ D Angenommen, L ¤ f0g. Da das charakteristische Poly-
nom von 'jL? über C zerfällt, hat 'jL? Eigenwerte. Da
E' ./ für jedes 2 K. Damit erhalten wir nun für ein
nach der Aussage (b) der obigen Folgerung 'jL? keine Ei-
w 2 E' ./, 2 K:
genvektoren hat, erhalten wir einen Widerspruch. Somit gilt
L? D f0g, d. h., L D V .
'.v/ w D v ' .w/ D v . w/ D .v w/ D 0 ; Sind 1 ; : : : ; r die verschiedenen Eigenwerte von ', so
gilt also:
da v 2 L? und w 2 L. Damit ist auch die Behauptung in
(b) begründet. V D Eig' .1 / C C Eig' .r / :
Nun haben wir alle Vorbereitungen getroffen, um das zen- Wegen dem Teil (a) der Folgerung stehen Eigenräume zu
trale Ergebnis zu beweisen. Nach der Aussage (a) in obiger verschiedenen Eigenwerten senkrecht aufeinander. Weiter-
Folgerung erhält man mit der Vereinigung von Orthonor- hin erhalten wir aus v1 C C vr D 0 mit vi 2 Eig' .i /:
malbasen der Eigenräume eines normalen Endomorphis-
mus ein Orthonormalsystem des Vektorraums V bestehend 0 D 0 vi D .v1 C C vr / vi D kvi k2 ;
aus Eigenvektoren von V . Mit dem Orthonormierungs-
verfahren von Gram und Schmidt ist es möglich, in den d. h., dass v1 D D vr D 0 gilt. Wir haben begrün-
Eigenräumen Orthonormalbasen zu erzeugen, solange die det, dass V die direkte orthogonale Summe der Eigenräume
356 Kapitel 9 Euklidische und unitäre Vektorräume – orthogonales Diagonalisieren
ist, d. h. Beim Spektralsatz für unitäre Räume bzw. für normale Ma-
trizen ist es ganz wesentlich, dass der Grundkörper der
V D Eig' .1 / ⦹ ⦹ Eig' .r / : Körper C der komplexen Zahlen ist. Über C zerfällt näm-
Mit dem Gram-Schmidt’schen Orthonormierungsverfahren lich jedes Polynom in Linearfaktoren, sodass man sich
können wir in jedem der r Eigenräume Eig' .i / eine Or- um die allgemeine Voraussetzung zur Diagonalisierbarkeit,
thonormalbasis Bi konstruieren. Die Vereinigung dass nämlich das charakteristische Polynom zerfallen muss,
nicht den Kopf zerbrechen muss. Über R ist dies nicht ge-
[ r
währleistet. Und so wird man natürlich erwarten, dass man
BD Bi
über R nicht jeden normalen Endomorphismus bzw. jede
i D1
normale Matrix diagonalisieren kann. Wir untersuchen nun
dieser Orthonormalbasen B1 ; : : : ; Br ist dann eine Ortho- den reellen Fall genauer.
normalbasis von V . Die Elemente von B sind Eigenvekto-
ren von '. Damit ist alles begründet.
Zu jedem normalen Endomorphismus
Wir übersetzen das erhaltene Ergebnis in das Matrizenkal- eines euklidischen Vektorraums
kül und erhalten für eine komplexe quadratische Matrix A, gibt es eine Orthonormalbasis
dass A genau dann normal ist, wenn sie orthogonal diago- bezüglich der die Darstellungsmatrix
nalisierbar ist, etwas genauer:
eine Blockdiagonalmatrix ist
9 Der Spektralsatz für normale Matrizen Wir haben bereits erwähnt, dass es zu orthogonalen und
Es sei A 2 C n n . Die Matrix A ist genau dann normal, selbstadjungierten Endomorphismen ' eines endlichdi-
>
wenn es eine unitäre Matrix S 2 C n n , S 1 D S , gibt, mensionalen euklidischen Vektorraums V eine Orthonor-
sodass malbasis gibt bezüglich der die Darstellungsmatrix von '
eine Blockdiagonalgestalt hat. Im Fall eines selbstadjun-
D D S 1 A S gierten Endomorphismus ist die Darstellungsmatrix sogar
diagonal, im Fall eines orthogonalen Endomorphismus tau-
Diagonalgestalt hat. chen evtl. 2 2-Matrizen der Form . cos ˛ sin ˛
sin ˛ cos ˛ / auf.
Nun sind orthogonale und selbstadjungierte Endomor-
phismen insbesondere normal. Wir erhalten somit diese
Beweis Ist die Matrix A 2 C n n normal, so folgt aus Resultate aus dem allgemeineren Satz für normale Endo-
dem Spektralsatz für unitäre Räume, dass es eine geordnete morphismen:
Orthonormalbasis B D .b1 ; : : : ; bn / des C n aus Eigenvek-
toren des normalen Endomorphismus 'A W v 7! A v gibt.
Die Matrix S D .b1 ; : : : ; bn /, deren Spalten gerade die Ba- Der Spektralsatz für euklidische Räume
sisvektoren der Orthonormalbasis B bilde, ist dann unitär, Es sei ' ein normaler Endomorphismus des endlichdi-
>
d. h., S 1 D S , und erfüllt D D S 1 A S , wobei D eine mensionalen euklidischen Vektorraums V . Dann besitzt V
Diagonalmatrix ist. eine Orthonormalbasis B, sodass
Nun existiere zu A 2 C n n eine unitäre Matrix S , d. h., 0 1
>
S D S , sodass D D S 1 A S eine Diagonalmatrix ist.
1 1
B :: C
Es folgt: B : C
B C
B C
1 > > > B r C
A DSDS DS DS und A D S D S : B C
B C
B a1 b1 C
B C
Hieraus erhalten wir: B M .'/B D B b1 a1 C
B C
> > > > B C
AA D S DDS DS DDS D A A: B :: C
B : C
B C
B C
Folglich ist A normal. B as bs C
@ A
bs as
Kommentar In der linearen Algebra bezeichnet man die
Menge aller Eigenwerte einer linearen Abbildung ' bzw.
einer Matrix A als das Spektrum von ' bzw. A. In der mit 1 : : : ; r ; a1 ; : : : ; as ; b1 ; : : : ; bs 2 R, b1 ; : : : ; bs ¤ 0.
Funktionalanalysis wird dieses Spektrum für lineare Ope- Im Fall s D 0 ist ' diagonalisierbar.
ratoren unendlichdimensionaler Räume verallgemeinert.
9.7 Normale Endomorphismen
357 9
Zum Beweis dieses Satzes benötigen wir eine Hilfsaussage, werden kann, und für j > r der Vektor vj Eigenvektor zum
die wir dem Beweis des Spektralsatzes voranstellen. Eigenwert j 2 C n R ist. Setze für jedes solche j nun
p p
Lemma Wir betrachten den Endomorphismus 'A W C n ! uj D 2 Re.vj / ; wj D 2 Im.vj / 2 Rn :
C n , v 7! A v, wobei A 2 Rn n . Dann gilt für jedes 2 C:
(a) E ./ D E ./ D fv j v 2 E ./g. Es gilt dann:
'A 'A 'A
(b) Für v 2 E'A ./ seien Re.v/; Im.v/ 2 Rn der Real- und p !2
Imaginärteil von v. Dann gilt: 2
uj wj D .vj C vj / .vj vj /
(i) 'A .Re.v// D Re./ Re.v/ Im./ Im.v/, 2
(ii) 'A .Im.v// D Im./ Re.v/ C Re./ Im.v/. 1
D .kvj k2 kvj k2 / D 0
2
Beweis (a) Wir schreiben kürzer ' D 'A . Ist v 2 E' ./,
so gilt: und
p !2
'.v/ D A v D A v D v D v ; 2
kuj k2 D .vj C vj / .vj C vj /
2
d. h., dass v 2 E' ./, d. h., E' ./ E' ./. Wendet man 1
D .1 C 1/ D 1 ;
nun diese Argumentation auf anstelle von an, so erhält 2
man die andere Inklusion E' ./ E' ./. Damit ist bereits kwj k2 D 1 :
(a) gezeigt.
(b) Es gilt: Für k ¤ j gilt weiterhin wj ? vk . Somit ist
1
D .2 v C 2 v/ Es gilt weiterhin:
4
1 A wj D bj r uj C aj r wj :
D .'.v/ C '.v//
2
D '.Re.v// : Das zeigt, dass B M .'/B die im Satz angegebene Gestalt
hat.
Damit ist (i) in (b) nachgewiesen, die Gleichung in (ii) zeigt
man analog. Da jeder selbstadjungierte Endomorphismus insbesondere
normal ist, können wir den Spektralsatz auf selbstadjun-
Mit diesem Lemma ist der Beweis des Spektralsatzes gierte Endomorphismen endlichdimensionaler euklidischer
kurz. Vektorräume anwenden. Diese Endomorphismen können
wir weiterhin mit den symmetrischen Matrizen identifizie-
Beweis (des Spektralsatzes für euklidische Räume) Wir ren, daher erhalten wir:
dürfen ohne Einschränkung annehmen, dass V D Rn , das
kanonische Skalarprodukt und ' D 'A durch eine normale
Matrix A 2 Rn n gegeben ist. Nach dem Spektralsatz für Der Spektralsatz für symmetrische Matrizen
normale Matrizen existiert eine Orthonormalbasis BQ von Es sei A 2 Rn n . Die Matrix A ist genau dann symme-
C n aus Eigenvektoren von A. Nach obigem Lemma kann trisch, wenn es eine orthogonale Matrix S 2 Rn n , d. h.
BQ als S 1 D S > , gibt, sodass
gewählt werden, wobei für i r der Vektor vi ein Eigen- Diagonalgestalt hat.
vektor zum Eigenwert i 2 R sogar aus dem Rn gewählt
358 Kapitel 9 Euklidische und unitäre Vektorräume – orthogonales Diagonalisieren
Wir stellen wesentliche Begriffe für den reellen und den komplexen Fall eines Vektorraums mit einem Ska-
larprodukt gegenüber – dabei geben wir auch die Normalformen der Endomorphismen endlichdimensionaler
Vektorräume bzw. Matrizen an.
Reell Komplex
Euklidisches Skalarprodukt Unitäres Skalarprodukt
>
Symmetrische Matrix, A D A > , diagonalisierbar Hermitesche Matrix, A D A , diagonalisierbar
>
Orthogonale Matrix, A 1 D A > , im Allgemeinen nicht diagonalisier- Unitäre Matrix, A 1 D A , diagonalisierbar
bar, evtl. Drehkästchen auf der Diagonalen
Selbstadjungierter Endomorphismus, ' D ' , diagonalisierbar Selbstadjungierter Endomorphismus, ' D ' , diagonalisierbar
> >
Normale Matrix, A > A D A A > , im Allgemeinen nicht diagonalisier- Normale Matrix, A A D A A , diagonalisierbar
bar, evtl. schiefsymmetrische Kästchen auf der Diagonalen
Normaler Endomorphismus, ' ' D ' ' , im Allgemeinen nicht normaler Endomorphismus, ' ' D ' ' , diagonalisierbar
diagonalisierbar
Beweis Ist A 2 Rn n symmetrisch, so ist der Endo- Die Normalform eines orthogonalen
morphismus 'A W v 7! A v selbstadjungiert und somit Endomorphismus ist von Drehkästchen
normal. Nach dem Spektralsatz für euklidische Räume gibt abgesehen eine Diagonalmatrix
es eine Orthonormalbasis B des Rn aus Eigenvektoren
von A mit der im Satz angegeben Form, B M .'A /B D
S 1 A S , wobei die Spalten der orthogonalen Matrix S die Nun ist es nicht mehr schwer, das bereits früher zitierte Er-
Orthonormalbasis B bilden. Man beachte, dass die Darstel- gebnis zu beweisen:
lungsmatrix B M .'A /B D S 1 A S wegen
mit 1 : : : ; r ; a1 ; : : : ; as ; b1 ; : : : ; bs 2 R, b1 ; : : : ; bs ¤ 0. hermitesch?
Da B eine Orthonormalbasis ist, ist die Matrix B M .'/B Für welche a; b 2 C ist f außerdem positiv definit?
orthogonal. Damit gilt 2i D 1, sodass i D ˙1 für alle i D
1; : : : ; r. Und für die Kästchen . abii b ai / gilt ai C bi D 1 für
i 2 2
9.9 Im Laufe von zehn Stunden wurde alle zwei 9.13 Gegeben sei der euklidische Vektorraum RŒX3
Stunden, also zu den Zeiten t1 D 0, t2 D 2, t3 D 4, mit dem euklidischen Skalarprodukt
t4 D 6, t5 D 8 und t6 D 10 in Stunden, die Höhe h1 ; : : : ; h6
des Wasserstandes der Nordsee in Metern ermittelt. Da- Z1
mit haben wir sechs Paare .ti ; hi / für den Wasserstand der hp; qi D p.t/ q.t/ dt :
Nordsee zu bestimmten Zeiten vorliegen: 1
x1
9.17 Ein Endomorphismus ' eines Vektorraums V
5 5
mit ' 2 D ' heißt Projektion. Ist fb1 ; : : : ; bn g eine Ortho-
x1 x2
normalbasis des euklidischen Vektorraums V D Rn mit
dem kanonischen Skalarprodukt , so setzen wir
5 P i D bi b>
i 2 R
n n
für jedes i 2 f1; : : : ; ng :
Zeigen Sie:
(a) 'P2 i D 'P i und
P
(b) En D niD1 P i .
9.12 Es sei der euklidische Vektorraum R3 mit dem
Standardskalarprodukt gegeben, weiter seien Insbesondere ist somit für jedes i 2 f1; : : : ; ng die lineare
Abbildung 'P i eine Projektion.
0 1
0 1 0
9.18 Zeigen Sie, dass eine hermitesche Matrix A 2
AD@ 0 0 1 A
C n n genau dann indefinit ist, wenn sie sowohl einen posi-
1 0 0
tiven als auch einen negativen Eigenwert hat.
und ' D 'A W R3 ! R3 , v 7! Av, die zugehörige lineare 9.19 Eine Matrix A 2 Kn n , K ein Körper, nennt
Abbildung. man idempotent, falls A 2 D A gilt. Zeigen Sie: Für jede
(a) Ist ' eine Drehung? idempotente Matrix A 2 Kn n gilt:
(b) Stellen Sie ' als Produkt einer minimalen Anzahl von
Spiegelungen dar. Kn D ker A ˚ Bild A :
Antworten zu den Selbstfragen
361 9
9.20 Zeigen Sie, dass die QR-Zerlegung A D Q R 4 Zueinander ähnliche bzw. kongruente Matrizen haben
für eine invertierbare Matrix A eindeutig ist, wenn man for- denselben Rang, die Matrix A hat den Rang 2, die
dert, dass die Diagonaleintäge von R positiv sind. Nullmatrix den Rang 0. Somit können die Matrizen
weder kongruent noch ähnlich sein.
9.21 Es sei U ein Untervektorraum eines euklidisches
Vektorraums V . Zeigen Sie, dass im Fall U D R u mit vAntwort 9.5
kuk D 1 die orthogonale Projektion durch .v/ D .v Es gilt
0 1 11=2
u/ u, v 2 V , gegeben ist. Z
1 5 1 1=2 p
kpk D @ t 2 t 2 dt A D t j0 D 1= 5 :
5
9.22 Zeigen Sie: Die Matrix eiA ist unitär, falls A 2 0
C n n
hermitesch ist.
vAntwort 9.6
9.23 Zeigen Sie, dass man den Spektralsatz für ei- Die erste Regel gilt wegen der Symmetrie des Skalarpro-
nen selbstadjungierten Endomorphismen ' eines endlich- dukts, die zweite Regel wegen 0 v D 0 für jedes v und
dimensionalen R- bzw. C-Vektorraums V auch wie folgt die dritte Regel wegen der positiven Definitheit des Ska-
formulieren kann: Es ist ' eine Linearkombination der larprodukts.
orthogonalen Projektionen auf die verschiedenen Eigenräu-
me, wobei die Koeffizienten die Eigenwerte sind. vAntwort 9.7
Würde man die Linksstetigkeit nicht fordern, so wäre
auch jede Funktion, die stückweise die Nullfunktion ist
Antworten zu den Selbstfragen und an den Zwischenstellen beliebige Werte annimmt, ein
Element von V . Das Integral über das Quadrat einer sol-
chen Funktion wäre null, obwohl die Funktion nicht die
v Antwort 9.1
Nullfunktion ist. Somit wäre kein Skalarprodukt, da die
Weil Summen von Quadraten reeller Zahlen nicht negativ
positive Definitheit verletzt wäre. Die Stetigkeit in 0 sorgt
sind.
in ähnlicher Weise für die positive Definitheit: Eine Funk-
v Antwort 9.2 tion, die abgesehen vom Punkt 0 die Nullfunktion ist und
Aus 0 v D .0 C 0/ v D 0 v C 0 v folgt nach Sub- in der 0 einen sonst beliebigen (endlichen) Wert annimmt,
traktion von 0 v links und rechts des Gleichungszeichens wäre überall linksstetig, nicht die Nullfunktion und hätte
die Gleichung 0 v D 0. Für die Gleichung v 0 D 0 gehe die Norm 0.
man im zweiten Argument analog vor.
vAntwort 9.8
v Antwort 9.3 Gilt
Nein, wegen der nicht positiven Einträge 0 und 1 auf der u C u0 D v D w C w0
Diagonalen ist das Produkt nicht positiv definit: e 2 e 2 D 0
bzw. e 3 e 3 D 1. für Elemente u; w 2 U und u0 ; w0 2 U ? , so folgt:
0
v Antwort 9.4 u wDw
„ƒ‚… „ ƒ‚ u…0 :
!
1 0 2U 2U ?
Wir setzen A D .
0 2 Weil aber für den Durchschnitt U \ U ? D f0g gilt, folgt
4 Mit der Wahl S D E2 gilt: sogleich u D w und u0 D w0 , also die Eindeutigkeit einer
S > A S D A und S 1 A S D A : solchen Darstellung.
4 Es gibt keine
! invertierbare Matrix S mit S > A S D vAntwort
0 19.9
0 1 v1
(ein entsprechender Ansatz führt zu einem B:C
2 3 vDB :C
@ : A 2 C mit v1 D i und v2 ; : : : ; vn D 0, der Fall
n
v Antwort 9.12
Weil in diesem Fall die Matrix A den zweifachen Eigen-
wert 1 haben müsste; der dritte (verbleibende) Eigenwert
müsste dann aber auch 1 sein, da die Determinante das
Produkt der Eigenwerte ist.
v Antwort 9.13
Dann rutscht die 1 mit zugehöriger Zeile und Spalte nach
rechts unten durch,
0 1 0 1
1 0 0 cos ˛ 0 sin ˛
B0 cos ˛ sin ˛ C B 0 0 C
@ A; @ 1 A;
0 sin ˛ cos ˛ cos ˛ 0 sin ˛
0 1
cos ˛ sin ˛ 0
B sin ˛ 0C
@ cos ˛ A:
0 0 1
v Antwort 9.14
Eine Diagonalmatrix D D diag.1 ; : : : ; n / ist genau
9 dann positiv semidefinit bzw. negativ semidefinit, wenn
alle 1 ; : : : ; n größer gleich bzw. kleiner gleich null sind.
Die Diagonaleinträge von D sind nämlich die Eigenwerte
der Matrix D.
363 10
Quadriken – vielseitig
nutzbare Punktmengen
Inhaltsverzeichnis
Aufgaben – 404
n Sie finden unter anderem Antworten zu . . . Skalarprodukt noch eine weitere symmetrische Bilinear-
4 Was ist ein hyperbolisches Paraboloid? form, und deshalb wiederholen wir zunächst einiges aus
4 Warum ist die Signatur einer quadratischen Form trä- 7 Abschn. 9.1, insbesondere die Definition der Bilinearfor-
ge? men.
4 Inwiefern löst die Pseudoinverse unlösbare Glei- Ist V ein K-Vektorraum, so ist die Abbildung
chungssysteme?
V V ! K;
W
.x; y/ 7! .x; y/
Unter einer Quadrik in einem affinen Raum verstehen wir
die Menge jener Punkte, deren Koordinaten einer quadrati- eine Bilinearform auf V , wenn für alle x; x 0 ; y; y 0 2 V
schen Gleichung genügen. und 2 K gilt:
Die zweidimensionalen Quadriken sind – von Entar-
tungsfällen abgesehen – identisch mit den Kegelschnitten .x C x 0 ; y/ D .x; y/ C .x 0 ; y/;
und seit der Antike bekannt. Den Ausgangspunkt für die
.x; y/ D .x; y/;
Untersuchung der Kegelschnitte bildete damals allerdings
nicht deren Gleichung, sondern die Kegelschnitte wurden .x; y C y 0 / D .x; y/ C .x; y 0 /;
als geometrische Orte eingeführt, etwa die Ellipse als Ort .x; y/ D .x; y/:
der Punkte, deren Abstände von den beiden Brennpunkten
eine konstante Summe ergeben. Aber auch die Tatsache, Die Bilinearform heißt symmetrisch, wenn stets gilt
dass Ellipsen als perspektive Bilder von Kreisen auftre- .y; x/ D .x; y/. Bei .y; x/ D .x; y/ heißt die
ten, war vermutlich bereits um etwa 300 v. Chr. bekannt. Bilinearform alternierend.
Anfang des 17. Jahrhunderts konnte Johannes Kepler nach-
weisen, dass die Planetenbahnen Ellipsen sind. Sir Isaak Beispiel Bei V D R2 ist z. B.
10 Newton formulierte die zugrunde liegenden mechanischen
Gesetze und erkannte, dass sämtliche Kegelschnitttypen als .x; y/ D x1 y1 C x1 y2 C x2 y1 5x2 y2
Bahnen eines Massenpunkts bei dessen Bewegung um eine
x1 y1
zentrale Masse auftreten. für x D ,y D eine symmetrische Bilinear-
Dies war nur der Anfang jener herausragenden Rol- x2 y2
le, welche die Kegelschnitte und ihre höherdimensionalen form. So wie im 7 Kap. 9 können wir diese Bilinearform
Gegenstücke, die Quadriken, in der Mathematik und ihren auch mithilfe einer symmetrischen Matrix A darstellen,
Anwendungen in Naturwissenschaften und Technik spie- nämlich als
len. Quadriken haben bemerkenswerte geometrische Eigen-
> 1 1 y1
schaften und werden oft als lokale oder globale Approxi- .x; y/ D x A y D .x1 x2 / :
1 5 y2
mationen für Kurven und Flächen verwendet. Ellipsoide
sind für die Konvexitätstheorie von besonderer Bedeutung. Dabei ist zu beachten, dass an der Stelle .i; j / der Matrix
Doch soll die ästhetische Seite nicht unerwähnt bleiben. So A der Koeffizient von xi yj steht.
treten Ellipsoide als Kuppeln auf oder hyperbolische Para- Von der Berechnung zweireihiger Determinanten her
boloide als attraktive Dachflächen. kennen wir die alternierende Bilinearform
Wir behandeln im Folgenden die Hauptachsentransfor-
mation und damit zusammenhängend die Klassifikation der 0 .x; y/ D x1 y2 x2 y1 :
Quadriken. Von den Quadriken ist es nur ein kurzer Weg zu
anderen wichtigen Begriffen wie der „Singulärwertzerle- Die Matrix der Koeffizienten ist schiefsymmetrisch, denn
gung“ oder der „Pseudoinversen“ einer Matrix, welche z. B.
bei Problemen der Ausgleichsrechnung und Approximation 0 1 y1
0 .x; y/ D .x1 x2 / : 9
eingesetzt werden. 1 0 y2
1
zurückschließen, denn 4
4
1
1
0 x1
0 .x; y/ D x1 y1 C 3 x1 y2 x2 y1 5 x2 y2 0
3 2 1 0 1 2
1
1
x2 Offensichtlich ist e
symmetrisch. Als Einschränkung von
25 e
auf die Diagonale entsteht die quadratische Form e
mit
2
16
9 e
.x/ D .2 x/ 2 .x/ D 2 .x/:
4 1
1 Nun kommt es auf die Charakteristik des Körpers K an:
4 Bei char K ¤ 2 gibt es zur quadratischen Form eine
3 2 1 0 1 2 x1
1 symmetrische Bilinearform
1 4
1 1
9 1 D e
W .x; y/ 7! ..x C y/ .x/ .y// ;
2 2
16
2
25 deren Einschränkung auf die Diagonale gleich ist.
Man nennt diese Bilinearform die Polarform von .
. Abb. 10.2 Niveaulinien der positiv definiten quadratischen Form Angenommen, neben 1 sei auch 2 eine symmetrische
.x/ D x12 2x1 x2 C 2x22 Bilinearform mit 2 .x; x/ D 1 .x; x/ für alle x 2 V .
Dann folgt aus 1 .x C y; x C y/ D 2 .x C y; x C y/
4 0
x2 für alle .x; y/ 2 V 2 :
14 10
2
64 1 .x; x/ C 2 1 .x; y/ C 1 .y; y/
36 1 D 2 .x; x/ C 2 2 .x; y/ C 2 .y; y/
.x C y/ D .x C y; x C y/
D .x; x/ C .y; y/ C . .x; y/ C .y; x// In 7 Kap. 6 wurde gezeigt, dass jede lineare Abbildung
'W V ! W zwischen endlichdimensionalen K-Vektorräu-
D .x/ C .y/ C 0 .x; y/
men V und W nach der Einführung von Basen B in V und
0
mit .x; y/ D .x; y/ C .y; x/ als symmetrischer Bili- C in W eine Darstellungsmatrix C M .'/B besitzt mit der
nearform. Wir nehmen dies zum Anlass für eine Definition, Eigenschaft
die nicht von Bilinearformen ausgeht.
C '.x/ D C M .'/B B x:
Definition einer quadratischen Form Dies bedeutet, die C -Koordinaten des Bildes '.x/ 2 W
Eine Abbildung des Vektorraums V in seinen Grundkör- sind aus den B-Koordinaten des Urbilds x 2 V durch Mul-
per K heißt quadratische Form, wenn für alle x; y 2 V tiplikation mit der Darstellungsmatrix C M .'/B zu berech-
und 2 K gilt: nen. Umgekehrt stellt jede Matrix eine lineare Abbildung
1. . x/ D 2 .x/, und dar, und Eigenschaften von Matrizen spiegeln sich in Ei-
2. die Abbildung genschaften von linearen Abbildungen wieder.
e
W .x; y/ 7! .x C y/ .x/ .y/ Wir zeigen im Folgenden, dass die symmetrischen Ma-
trizen M , also solche mit M > D M , auf ähnliche Wei-
ist eine Bilinearform auf V . se den symmetrischen Bilinearformen zugeordnet werden
können.
10.1 Symmetrische Bilinearformen
367 10
V sei ein n-dimensionaler Vektorraum über K mit der Folgerung Symmetrische Bilinearformen sind durch sym-
geordneten Basis B D .b1 ; : : : ; bn /. Für x; y 2 V , also metrische Darstellungsmatrizen gekennzeichnet, alternie-
rende Bilinearformen durch schiefsymmetrische oder alter-
x D x1 b1 C C xn bn und y D y1 b1 C C yn bn ; nierende Darstellungsmatrizen.
ergibt sich aus unseren Regeln für Bilinearformen: Beweis a) Bei symmetrischem ergibt sich die Symmetrie
0 1 der Darstellungsmatrix M B . / unmittelbar aus .bj ; bi / D
Xn X
n
.bi ; bj /, und zwar für alle Basen B.
.x; y/ D @ xi bi ; yj bj A
i D1 j D1
Umgekehrt legt jede n n -Matrix M durch die Defini-
tion
X
n
D xi yj .bi ; bj /:
M .x; y/ D x > M y
i;j D1
Die letzte Summe erfolgt über alle möglichen Paare .i; j / eine Bilinearform auf K fest, denn es gilt
n
Darstellungsmatrix von bezüglich der Basis B. Es ist zu beachten, dass von den n2 Einträgen in einer
n n -Matrix im symmetrischen Fall nur n.nC1/ 2
voneinan-
der unabhängig sind.
Mithilfe der Darstellungsmatrix M B . / lässt sich .x; y/ b) Bei alternierendem ist .bj ; bi / D .bi ; bj /, al-
als Matrizenprodukt schreiben, nämlich: so M B . /> D M B . /.
Umgekehrt können wir wie im symmetrischen Fall vor-
.x; y/ D B x > M B . / B y: (10.1) gehen: Bei einer schiefsymmetrischen Matrix M ist
Beweis Wir bestätigen die in (10.1) angegebene Matrizen- y > M x D .y > M x/> D x > M > y D x > M y
schreibweise für .x; y/ durch Nachrechnen:
Zunächst ist und daher M .y; x/ D M .x; y/.
0 1 0Pn 1 Wegen der Nullen in der Hauptdiagonale einer schief-
y1 j D1 .b1 ; bj / yj
B:C B :: C symmetrischen n n -Matrix treten darin nur n.n1/
2 von-
M B . / @ :: A D @ : A : einander unabhängige Einträge auf.
Pn
yn j D1 .bn ; bj / yj
Beispiel Wir kehren zurück zum obigen Beispiel einer Bi-
Daraus folgt: linearform auf V D R2 :
0 1
y1 X .x; y/ D x1 y1 C x1 y2 C x2 y1 5x2 y2 :
B :: C X
n n
.x1 : : : xn / M B . / @ : A D xi .bi ; bj / yj
yn i D1 j D1 Wie lautet die Darstellungsmatrix M B . / bezüglich der
Basis B D .b1 ; b2 / mit
X n
D xi yj .bi ; bj /:
1 2
i;j D1 b1 D ; b2 D ‹
1 1
Man beachte die Bauart der beteiligten Matrizen in der Ma-
trizendarstellung (10.1) von .x; y/: Wir berechnen
1 n
n 1 .b1 ; b1 / D 2;
1 D 1 n .b1 ; b2 / D .b2 ; b1 / D 0;
.x; y/ D Bx
>
M B . / By
.b2 ; b2 / D 3
368 Kapitel 10 Quadriken – vielseitig nutzbare Punktmengen
und übertragen diese Werte in die Matrix Nachdem die quadratischen Formen und die zugehörigen
symmetrischen Bilinearformen, die Polarformen, einander
2 0 gegenseitig bedingen, macht es keinen Unterschied, ob
M B . / D :
0 3 man von der Darstellungsmatrix einer quadratischen Form
spricht oder von der Darstellungsmatrix der Polarform.
Die gegebene Koeffizientenmatrix A in der Darstellung
?Selbstfrage 10.3
1 1 y1 Bestimmen Sie die Polarform .x; y/ zur gegebenen qua-
.x; y/ D x > A y D .x1 x2 /
1 5 y2 dratischen Form
ist die Darstellungsmatrix von zur kanonischen Basis .x/ D x12 3x32 C 2x1 x2 5x2 x3
E D .e 1 ; e 2 /, also A D M E . /. 9
auf dem Vektorraum R3 zusammen mit deren kanonischer
Wenn wir nun die auf dem n-dimensionalen K-Vektorraum Darstellungsmatrix, also der Darstellungsmatrix M E ./
V definierte Bilinearform mit der Darstellungsmatrix bezüglich der kanonischen Basis E.
M B . / auf die Diagonale von V einschränken, so entsteht
die quadratische Form , wobei mit (10.1) gilt: So wie bei den linearen Abbildungen eines Vektorraums in
sich, den Endomorphismen, wollen wir auch bei den Bi-
linearformen durch die Wahl spezieller Basen möglichst
.x/ D .x; x/ D B x > M B . / B x:
einfache Darstellungsmatrizen erreichen. Dabei ist es hier
etwas einfacher, denn es gibt zu jeder symmetrischen Bili-
Bei M B . / D .aij / lautet die Summendarstellung dieser
nearform Darstellungsmatrizen in Diagonalform. Nachdem
quadratischen Form:
10 umgekehrt eine Diagonalmatrix stets symmetrisch ist, muss
X n jede diagonalisierbare Bilinearform symmetrisch sein.
.x/ D aij xi xj : (10.2) Eine Darstellungsmatrix M B . / in Diagonalform hat
i;j D1 viele Vorteile: Es vereinfacht sich die Koordinatendarstel-
lung von zu
Auf der rechten Seite steht ein Polynom oder genauer
eine Polynomfunktion in .x1 ; : : : ; xn /, in welcher jeder X n
.x; y/ D xi yj .bi ; bj /
Summand den Grad 2 hat. Wir können darin die rein
i;j D1
quadratischen Glieder ai i xi2 trennen von den gemischten
Summanden mit xi xj , die bei i ¤ j jeweils zweifach vor- D a112
x1 y1 C C ann 2
xn yn :
kommen, nämlich als .aij C aj i / xi xj .
Ist umgekehrt die quadratische Form durch die Sum- Es gibt nur mehr n Summanden. Die zugehörige qua-
menformel (10.2) gegeben, so können wir die Koeffizien- dratische Form ist genau dann positiv definit (siehe
tenmatrix .aij / noch abändern, ohne dabei .x/ zu ändern. 7 Abschn. 9.1), wenn ai i > 0 ist für alle i 2 f1; : : : ; ng.
Wir müssen ja nur dafür sorgen, dass die Einträge in der
Hauptdiagonalen gleich bleiben und ebenso die Summen
.aij C aj i /. Bei char K ¤ 2 können wir diese Summen zu Je zwei Darstellungsmatrizen
gleichen Teilen aufteilen, also einer Bilinearform sind kongruent
1
aij0 D aj0 i D .aij C aj i / Wenn wir in unserem Vektorraum von der Basis B zu B 0
2 wechseln, so gilt für die jeweiligen Koordinaten von x:
setzen. Damit erhalten wir eine symmetrische Koeffizien-
tenmatrix .aij0 /. Diese ist offensichtlich die Darstellungs- B 0 x D B 0 T B B x:
.x; y/ D B x > M B . / B y D B0 x
>
M B 0 . / B 0 y:
Dazu beachten wir die Transformationsmatrix
Wir ersetzen im mittleren Ausdruck die B-Koordinaten von 1 2
E T B D . E b1 ;E b2 / D :
x und y durch die jeweiligen B 0 -Koordinaten. Dies führt zu 1 1
Es gibt noch eine andere Begründung für die Invarianz 1. Die Vertauschung von bi und bj bewirkt in M B . / die
des Rangs, bei der wir uns allerdings auf den Fall einer Vertauschung der Elemente .bi ; bk / mit .bj ; bk / für
symmetrischen Bilinearform beschränken wollen: jedes k 2 f1; : : : ; ng, also der i-ten Zeile mit der j -ten
Wie im 7 Abschn. 9.3 erklärt, ist Anlass für eine sym- Zeile. Es werden aber auch die Elemente an den Stellen
metrische Relation auf V : Zwei Vektoren x; y 2 V heißen .k; i/ und .k; j / vertauscht, also die i-Spalte mit der
-orthogonal genau dann, wenn .x; y/ D 0 ist. Vekto- j -Spalte.
ren mit .y; y/ D 0 heißen isotrop bezüglich . Zu jedem 2. Die Multiplikation von bi mit dem Faktor bewirkt ei-
Unterraum U von V gibt es einen -Orthogonalraum U ? ne Multiplikation der i-ten Zeile und der i-ten Spalte
mit der Eigenschaft, dass .x; y/ D 0 ist für alle x 2 U von M B . / mit dem Faktor . Insbesondere kommt das
und y 2 U ? . Diagonalelement an der Stelle .i; i/ zweimal dran; es
Der -Orthogonalraum V ? heißt Radikal der symme- wird daher insgesamt mit 2 multipliziert.
trischen Bilinearform . Die Vektoren y 2 V ? sind zu 3. Wird bi ersetzt durch bi C bj , so wird zur i-ten Zeile
allen Vektoren aus V -orthogonal, also insbesondere auch das -Fache der j -ten Zeile addiert und zur i-ten Spalte
zu sich selbst und daher isotrop. das -Fache der j -ten Spalte. Dadurch kommt das Ele-
Die Matrizengleichung x > M B . / y D 0 ist genau ment an der Stelle .i; i/ wiederum zweimal dran – ganz
dann für alle x 2 V erfüllt, wenn M B . / y D 0 ist, also y in Übereinstimmung mit
das homogene lineare Gleichungssystem mit der Koeffizi-
entenmatrix M B . / löst. Die Dimension des Radikals von .bi C bj ; bi C bj /
ist somit n rg . D .bi ; bi / C 2 .bi ; bj / C 2 .bj ; bj /:
Eine symmetrische Bilinearform auf dem n-dimensio-
nalen K-Vektorraum V heißt entartet , wenn ihr Rang Die zu diesen Basiswechseln gehörigen Transformations-
kleiner ist als n. Andernfalls heißt nicht entartet oder matrizen B T B 0 , die Elementarmatrizen (siehe 7 Kap. 7)
10 radikalfrei, denn das Radikal ist f0g. Ist z. B. positiv de- entstehen aus der Einheitsmatrix durch Ausübung der je-
finit, wie bei einem euklidischen Skalarprodukt, so gilt für weiligen elementaren Spaltenumformung. So gehört etwa
x ¤ 0 stets .x; x/ D x x > 0. Dann ist 0 der einzige zum Ersatz von bi durch b0i D bi C bj die Transforma-
isotrope Vektor und daher radikalfrei. tionsmatrix
0 1
? Selbstfrage 10.5 1
B :: C
Welche Eigenschaft hat die symmetrische Darstellungs- B : C
matrix M B ./, wenn der i-te Basisvektor bi 2 B isotrop B C
B 1 C
B C i
ist bezüglich ? Wie sieht M B ./ aus, wenn bi dem Ra- B C
B
B T B0 D B
: : C
dikal von angehört? : C
B C j
B 1 C
B C
B :: C
Jede symmetrische Bilinearform besitzt @ : A
eine Darstellungsmatrix in Diagonalform 1
Beginn unter der Darstellungsmatrix M B . / die Einheits- Lemma Es sei eine symmetrische Bilinearform auf
matrix En dazuschreiben und bei den elementaren Spalten- dem n-dimensionalen K-Vektorraum V . Dann hat die
umformungen gleichzeitig mit umformen. Dann steht am Darstellungsmatrix M B . / genau dann die Diagonalform
Ende des Algorithmus unter M B 0 . / genau die Transforma- diag.a11 ; : : : ; arr ; 0; : : : ; 0/, wenn die Vektoren der Basis
tionsmatrix B T B 0 , welche mittels (10.3) die Umrechnung B paarweise -orthogonal sind, also .bi ; bj / D 0 ist
auf die Diagonalmatrix ermöglicht. für alle i ¤ j , und wenn die letzten n r Basisvektoren
brC1 ; : : : ; bn dem Radikal von angehören.
Beispiel Welche Transformationsmatrix B T B 0 bewirkt ge-
Die zum Vektor u 2 V -orthogonalen Vektoren y gehören
mäß (10.3) in dem Beispiel von vorhin die Umrechnung
dem Kern der Linearform
von A auf die endgültige Diagonalmatrix?
Wir wenden alle obigen Spaltenoperationen der Reihe
'u W V ! K; y 7! .u; y/
nach auf die Einheitsmatrix E4 an:
0 1 0 1 an. Liegt u im Radikal von , so ist 'u die Nullform und
0 1 0 0 0 1 0 0 der zugehörige Kern ganz V . Andernfalls ist der Kern von
s2 $s1 B1 0 0 0C s2 s1 B1 1 0 0C
E4 ! B C ! B C 'u 2 V ein .n 1/-dimensionaler Unterraum von V .
@0 0 1 0A @0 0 1 0A
0 0 0 1 0 0 0 1 Kommentar Bei unserem Diagonalisierungsverfahren mit-
0 1
0 1 2 1 tels gekoppelter Zeilen- und Spaltenumformungen er-
s3 2s2
s4 Cs2 B 1 1 2 1C gibt sich die zugrunde liegende Basis automatisch
! B @0
C
0 1 0A (. Abb. 10.4): Wir können keinesfalls erwarten, dass die-
0 0 0 1 se orthogonal oder gar orthonormiert ist. Es gibt zwar in
10 0
0 1 1 1
1 euklidischen Räumen eine diagonalisierende und gleich-
zeitig orthonormierte Basis, wie wir aus 7 Kap. 9 wissen,
s3 Cs4 B1 1 1 1C
! B @0
C doch erfordert deren Berechnung die Bestimmung von Ei-
0 1 0A genwerten und -vektoren einer symmetrischen Matrix. Wir
0 0 1 1 kommen darauf noch bei der Hauptachsentransformation
0 1
0 1 1 3=2 im nächsten Abschnitt zurück und nennen dies das ortho-
s4 12 s3 B1 1 1 3=2C gonale Diagonalisieren.
! B @0
C D B TB0 :
0 1 1=2A
0 0 1 1=2
Eine symmetrische Bilinearform hat viele
Damit gilt M B 0 . / D .B T B 0 /> M B . / B T B 0 , denn
verschiedene Diagonaldarstellungen
9
4
1
b1 diagonale von M B 0 . / nur mehr Werte aus f1; 1; 0g vor.
b2 Nach einer eventuellen Umreihung der Basisvektoren errei-
1
0 0 b02 x1
chen wir die folgende Normalform.
3 2 1 1 2
1
4
b01
1 9 Normalform reeller symmetrischer Bilinearformen
9
. Abb. 10.4 Die Niveaulinien der quadratischen Form .x/ aus M B 0 ./ D diag.a11 ; : : : ; ann / (10.4)
. Abb. 10.1 samt den diagonalisierenden Basen B D .b1 ; b2 / und B 0 D
.b01 ; b02 / bei a11 D D app D 1, apC1 pC1 D D arr D 1,
arC1 rC1 D D ann D 0 und 0 p r n.
1 2
hat bezüglich der Basis B D ; (beachte
1 1
In den zugehörigen Koordinaten gilt:
. Abb. 10.4) die Darstellungsmatrix
.x; y/ D x1 y1 C C xp yp xpC1 ypC1 xr yr :
2 0
M B . / D D diag.2; 3/: Wir werden sehen, dass diese spezielle Darstellungsmatrix
0 3
von sogar eindeutig ist, und wir nennen sie die Normal-
Aber auch die Basis form der reellen Bilinearform . Zu ihrer Festlegung sind
drei Zahlen erforderlich, die Anzahlen p der Einsen, .r p/
0 1 1 der Minus-Einsen und .n r/ der Nullen in der Hauptdia-
B D .b01 ; b02 / mit b01 D 0
; b2 D
1 0 gonale von M B 0 . /. Dieses Zahlentripel
nachdem alle hier auftretenden Koeffizienten positiv sind. definit oder semidefinit sind oder indefinit. Negativ semide-
Analog ist für alle x 2 h bpC1 ; : : : ; bn i finit etwa ist äquivalent zu p D 0.
.x/ D .x/ und damit reell sein. Es macht also durchaus .x; y/ D @ xi b i ; yj bj A
Sinn, von positiv definiten hermiteschen Formen zu spre- i D1 j D1
chen, wenn für alle x 2 V n f0g das .x/ > 0 ist. Und X n
e
.x; y/ D .x C y/ C i.x C iy/ M B . /> D M B . /; (10.7)
.1 C i/ ..x/ C .y//
denn aj i D .bj ; bi / D .bi ; bj / D aij . Derartige Matri-
ist eine Sesquilinearform. zen aus C n n heißen hermitesch.
Man beachte: Die Theorie der hermiteschen Sesquili-
nearformen umfasst jene der reellen symmetrischen Bili-
Es stellt sich dann als Einschränkung der Sesquilinear-
nearformen als Sonderfall. Wenn wir nämlich in der Dar-
form D 12 e auf die Diagonale von V heraus, denn
stellungsmatrix nur Einträge aij 2 R zulassen, so handelt
es sich um die Darstellungsmatrix einer reellen symme-
e
.x; x/ D 4 .x/ C i.1 C i/.1 i/.x/ 2.1 C i/.x/ trischen Bilinearform, nachdem die im hermiteschen Fall
D 4 .x/ C 2i .x/ 2.x/ 2i .x/ geforderte Bedingung (10.7) dann wegen aj i D aij D aij
D 2 .x/: eben nur die gewöhnliche Symmetrie bedeutet.
Wie lautet eine hermitesche Form .x/, wenn sie in
Man nennt dann so wie im Reellen e die zu gehörige Koordinaten dargestellt wird? Wie kann man aus dieser
Polarform. Darstellung ersehen, dass .x/ stets reell ist?
Wir spalten die Summe
X
n
Alle Darstellungsmatrizen .x/ D .x; x/ D aij xi xj
einer hermiteschen Sesquilinearform i;j D1
Hinsichtlich der Auswirkung elementarer Basiswechsel auf Beispiel Gesucht ist eine zu
diese Darstellungsmatrix zeigt sich ein Unterschied zu den 0 1
symmetrischen Bilinearformen: 1 i i
Setzen wir b0i D bi C bj , während alle anderen A D @i 0 2 iA
Basisvektoren unverändert bleiben, so wird das Element i 2Ci 1
ai k D .bi ; bk / aus M B . / zum Element
hermitesch kongruente Diagonalmatrix.
.bi C bj ; bk / D .bi ; bk / C .bj ; bk / Wir subtrahieren geeignete Vielfache der ersten Zeile
D ai k C aj k und Spalte von den zweiten und dritten, um in der ersten
Zeile und Spalte neben a11 D 1 nur mehr Nullen zu be-
in der neuen Darstellungsmatrix M B 0 . /. Dagegen wird kommen:
aki D .bk ; bi / zu 0 1 0 1
1 i i z2 Ci z1 1 i i
z3 i z1
@i 0 2 iA ! @0 1 3 iA
.bk ; bi C bj / D .bk ; bi / C .bk ; bj /
i 2Ci 1 0 3Ci 0
D aki C akj : 0 1
s2 i s1 1 0 0
s3 Ci s1
Es wird also beim Übergang von M B . / zu M B 0 . / zur ! @0 1 3 iA
0 3Ci 0
i-ten Zeile die -fache j -te Zeile addiert und zur i-ten Spal-
te die -fache j -Spalte. Jede elementare Zeilenumformung
Hierauf verfahren wir mit der Restmatrix ähnlich:
ist also hier mit der gleichartigen, jedoch konjugiert kom-
plexen Spaltenumformung zu koppeln. 0 1 0 1
1 0 0 1 0 0
Dies folgt auch aus der Matrizendarstellung (10.6): Für z C.3Ci/z
10 @0 1 3 iA 3 ! 2 @0 1 3 iA
alle x; y 2 V muss gelten: 0 3Ci 0 0 0 10
0 1
.x; y/ DB 0 x > M B 0 . / B 0 y D B x > M B . / B y s3 C.3i/s2
1 0 0
! @ 0 1 0 A D diag.1; 1; 10/:
D .B T B 0 B 0 x/> M B . / B T B 0 B 0 y
0 0 10
DB 0 x > .B T B 0 /> M B . / B T B 0 B 0 y:
Soll auch hier die Transformationsmatrix B T B 0 mitberech-
Das führt auf die folgende Gleichung zwischen den Dar- net werden, so wenden wir auf die Einheitsmatrix E3 der
stellungsmatrizen. Reihe nach die obigen Spaltenoperationen an. Dies führt zu
B T B0 :
0 1 0 1
Darstellungsmatrizen von Sesquilinearformen 1 0 0 s2 i s1 1 i i
s3 Ci s1
Für die Darstellungsmatrizen der Sesquilinearform be- E3 D @0 1 0A ! @0 1 0A
züglich der Basen B und B 0 gilt 0 0 1 0 0 1
0 1
1 i 1 2i
M B 0 ./ D .B T B 0 /> M B ./ B T B 0 s3 C.3i/s2
(10.8) ! @0 1 3 i A D B T B0 :
0 0 1
mit B T B 0 D B b01 B b0n als invertierbarer Matrix. Je
zwei derartige Darstellungsmatrizen von heißen zuein- Zur Probe können wir für M B . / D A bestätigen:
ander hermitesch kongruent .
0 1
1 0 0
.B T B 0 /> M B . / B T B 0 D @ i 1 0A
? Selbstfrage 10.10 1 C 2i 3 C i 1
Warum sind die zu einer hermiteschen Matrix kongruen- 0 10 1
1 i i 1 i 1 2i
ten Matrizen wieder hermitesch? @i 0 2 iA @0 1 3i A
i 2Ci 1 0 0 1
Will man eine hermitesche Darstellungsmatrix diagonali- 0 1
sieren, so kann man mithilfe dieser neuartig gekoppelten 1 0 0
elementaren Zeilen- und Spaltenumformungen ganz ähn- D @0 1 0 A D M B 0 . /: 9
lich vorgehen wie in dem in 7 Abschn. 10.1 vorstellten 0 0 10
Algorithmus für symmetrische Bilinearformen. Wir ver-
zichten auf die genaue Formulierung der notwendigen Die Elemente in der Hauptdiagonalen einer hermiteschen
Schritte 1 bis 3 und zeigen dafür ein Zahlenbeispiel. Matrix sind wegen ajj D ajj stets reell. Man kann daher
10.2 Hermitesche Sesquilinearformen
377 10
die positiven Diagonaleinträge wieder mittels bj0 D bj diesen Basen die orthonormierten heraussuchen. Dazu sind
p
und D 1= ajj auf +1 normieren und die negativen mit tiefer liegende Methoden erforderlich, die jedoch bereits im
p
D 1= ajj auf 1. 7 Kap. 9 entwickelt worden sind.
Nun ist eine Bemerkung notwendig: Da wir mit kom- In der Folge verwenden wir neben der Sesquilinearform
plexen Zahlen rechnen, könnte man z. B. bei ajj D 4 auch noch das durch einen Punkt gekennzeichnete Skalarpro-
den Basiswechsel bj0 D 21i bj vornehmen. Wird die j -te dukt sowie dessen Koordinatendarstellung als Matrizenpro-
Zeile mit 21i D 2i multipliziert, so muss die j -te Spalte dukt, sofern den Koordinaten eine orthonormierte Basis B
mit dem konjugiert komplexen Wert 2i multipliziert wer- zugrunde liegt. Das folgenden Lemma zeigt, dass sich
den. Beides zusammen ergibt als neues Diagonalelement direkt mit einem Skalarprodukt in Beziehung bringen lässt.
aber erst wieder 14 .4/ D 1. Beide Möglichkeiten führen
zu demselben Ergebnis. Lemma Zu jeder auf einem unitären Raum definierten Ses-
Somit gilt die Normalform aus (10.4) auch für die her- quilinearform gibt es einen Endomorphismus ' mit
miteschen Sesquilinearformen. Und auch der Trägheitssatz .x; y/ D '.x/ y; wobei B M .'/B D M B . /> :
von Sylvester bleibt weiterhin gültig, denn wegen .x/ 2 R
kann der obige Beweis wortwörtlich übernommen werden. ist genau dann hermitesch, wenn ' selbstadjungiert ist.
Folgerung Ist eine hermitesche Sesquilinearform auf ei- orthogonal bzw. unitär ist, können wir auch sagen: Zu jeder
nem unitären Raum, so gilt für je zwei Eigenvektoren hi ; hj reellen symmetrischen bzw. hermiteschen Matrix M gibt
der Matrix M B . /> und deren Eigenwerte i bzw. j es eine orthogonale bzw. unitäre Matrix T derart, dass
Schließlich kann durch Induktion gezeigt werden, dass zu Beispiel Wir bestimmen die Hauptachsen der schon mehr-
einem k-fachen Eigenwert einer hermiteschen Matrix M fach verwendeten reellen symmetrischen Bilinearform
stets ein k-dimensionaler Eigenraum EigM ./ gehört. Aus
diesem lassen sich somit k orthonormierte Eigenvektoren .x; y/ D x1 y1 C x1 y2 C x2 y1 5 x2 y2
auswählen. Dies ermöglicht insgesamt die genannte ortho-
1 1 y1
normierte Basis aus Eigenvektoren h1 ; : : : ; hn . Aber dies D .x1 x2 / :
1 5 y2
alles ist lediglich eine Folge des Spektralsatzes für hermi-
10 tesche Matrizen von 7 Abschn. 9.7.
Zunächst berechnen wir die Eigenwerte der kanonischen
Nun können wir verifizieren, dass die zur orthonor-
Darstellungsmatrix M E . / als Nullstellen des charakteris-
mierten Basis H aus Eigenvektoren gehörige Darstellungs-
tischen Polynoms
matrix M H . / Diagonalform aufweist: Nach (10.6) ist
nämlich
1 1
det D . 1/.5 C / 1;
.hi ; hj / D B h>
i M B . / B hj 1 5
>
D M B . /> B hi B hj
also die Wurzeln von
D .i B hi /> B hj
D .i hi / hj D i .hi hj / D i ıij 2 C 4 6 D 0:
unter Verwendung des Kronecker-Symbols ıij . Also ist
Wir erhalten:
M H . / D diag.1 ; : : : ; n /, was aber auch direkt aus dem
obigen Lemma folgt, denn .hi ; hj / D '.hi / hj . p p
1 D 2 C 10; 2 D 2 10
Bei all diesen Rechnungen sind natürlich die reellen
symmetrischen Bilinearformen als Sonderfall enthalten.
und als Lösungen der homogenen linearen Gleichungssys-
teme .M E . / i E2 / x D 0 die orthonormierte Basis
Transformation auf Hauptachsen H D .h1 ; h2 / mit
Zu jeder reellen symmetrischen Bilinearform bzw. hermi- p !
teschen Sesquilinearform auf einem n-dimensionalen 1 3˙ 10
h1;2 D p p :
euklidischen bzw. unitären Vektorraum gibt es eine ortho-
20 ˙ 6 10 1
normierte Basis H , welche diagonalisiert.
Bei M H ./ D diag.1 ; : : : ; n / sind die i die stets Die neue Darstellungsmatrix von lautet:
reellen Eigenwerte der Darstellungsmatrix M B ./ be-
züglich einer beliebigen orthonormierten Basis B. Die p !
1 0 2 C 10 0
B-Koordinaten B hi der orthonormierten Vektoren aus H M H . / D D p :
sind Eigenvektoren von M B ./> .
0 2 0 2 10
9
tel nun doch konsequent das Symbol A .V / für den affinen
4
h2
h1
Raum über dem Vektorraum V verwenden.
1 0 x1
3 2 0 1 2
1
1
1 9 zu quadratischen Funktionen
9
16
2 25
36 Um quadratische Formen bildlich darstellen zu können, ha-
ben wir in . Abb. 10.1, 10.2 und 10.3 die Niveaulinien von
. Abb. 10.5 Niveaulinien der quadratischen Form .x/ D x12 C2x1 x2 quadratischen Formen W R2 ! R dargestellt. Das waren
5x22 mit der orthonormierten und gleichzeitig diagonalisierenden Basis die von den Punkten x mit
H D .h1 ; h2 /
.x/ D c D konst.
Ein weiteres Zahlenbeispiel zur Hauptachsentransformati-
gebildeten Kurven, die Fasern der Abbildung . In den ge-
on einer quadratischen und einer hermiteschen Form findet
nannten Abbildungen traten als Niveaulinien Hyperbeln,
sich im 7 Abschn. 9.6.
Ellipsen und Geradenpaare auf. Wir hatten dort übrigens
Wie schon vorhin erwähnt, erfordert die Bestimmung
bereits von Punkten x gesprochen, also stillschweigend be-
diagonalisierender Basen deutlich weniger Aufwand als
reits die affine Ebene A .R2 / verwendet.
jene der Hauptachsen. Für einige Fragen müssen die Haupt-
Wir verallgemeinern diese Punktmengen, indem wir ne-
achsen gar nicht bestimmt werden, so z. B. bei jener nach
ben der quadratischen Form und der Konstanten c auch
dem Typ einer Quadrik, wie der folgende Abschnitt zeigen
noch eine Linearform ' einfügen.
wird.
.x/ D 2x12 x22 C 4x1 x3 6x2 2x3 C 5; Kommentar Die quadratische Funktion bestimmt die
zugehörige Quadrik Q. / eindeutig. Umgekehrt ist dies
also nicht der Fall. So haben z. B. die beiden Funktionen
0 10 1
1 ; 2 W A .R / ! R mit den kanonischen Darstellungen
2
2 0 2 x1
.x/ D .x1 ; x2 ; x3 / @0 1 0A @x2 A
2 0 0 x3 1 .x/ D x12 C x22 und 2 .x/ D 2 x12 C x22
0 1
x1
dieselbe Nullstellenmenge Q. 1 / D Q. 2 / D f0g. Erst
C .0; 6; 2/ @x2 A C 5 über C ist die zu einer Quadrik gehörige quadratische
x3 Funktion bis auf einen Faktor eindeutig, außer .x/ ist das
10.3 Quadriken und ihre Hauptachsentransformation
381 10
Quadrat einer linearen Funktion. Es haben nämlich z. B. die Wir können dies durch Nachrechnen überprüfen. Dazu
quadratischen Funktionen bestimmen wir zunächst die Umkehrtransformation zu . /.
Nachdem die dort auftretende 2 2 -Matrix orthogonal ist,
1 .x/ D x1 und 2 .x/ D x1
2
ist ihre Inverse die Transponierte, und wir erhalten:
0 p !
selbst in A .C 2 / dieselbe Nullstellenmenge. x1 1 2 1 x1 C 3= 5
Dp p
x2 5 1 2 x20 C 4= 5
0
Koordinatentransformationen können 2 1 2 1 x1
D Cp :
die Gleichung einer Quadrik vereinfachen 1 5 1 2 x20
Beispiel Die quadratische Funktion W A .R2 / ! R mit Wir beginnen damit, die Auswirkungen eines allgemeinen
Koordinatenwechsels auf eine quadratische Funktion zu
der kanonischen Darstellung
untersuchen. Dabei beschränken wir uns weiterhin auf kar-
.x/ D 9 x1 4 x1 x2 C 6 x2 32 x1 4 x2 C 24
2 2 tesische Koordinatensysteme. Wir untersuchen in diesem
Sinn die euklidische Geometrie der Quadriken und nicht
bestimmt als Nullstellenmenge Q. / eine Ellipse mit den deren affine Geometrie.
p
Achsenlängen 1 und 2 (. Abb. 10.6), denn nach Umrech- Ersetzen wir das Koordinatensystem .oI B/ durch das
nung auf die Koordinaten System .o0 I B 0 /, so bedeutet dies für die Koordinaten des-
0 selben Punkts x (vergleiche 7 Abschn. 5.5):
x1 1 3 1 2 1 x1
Dp Cp ( ) 0
.oIB/ x D .oIB/ o C B T B 0 .o0 IB 0 / x;
x20 5 4 5 1 2 x2
wobei die Matrix B T B 0 orthogonal, also .B T B 0 /1 D
wird dieselbe Punktmenge Q. / durch die Gleichung .B T B 0 /> ist. Wir setzen dies in die Darstellung (10.9)
1 02 .x/ D >
C 2 a> .oIB/ x C a
x102 C x 1D0 .oIB/ x A .oIB/ x
2 2
ein, wobei wir kurz T für die Transformationsmatrix B T B 0
beschrieben. schreiben sowie t statt .oIB/ o0 und x 0 statt .o0 IB 0 / x:
.x/ D .t > C x 0> T > /A.t C T x 0 /
x2 x20
C 2 a> .t C T x 0 / C a
D x 0> .T > A T /x 0
C t > A T x 0 C x 0> T > A t C 2 a> T x 0
Q. /
C t > A t C 2 a> t C a :
o0
Wir formen den mittleren, in x 0 linearen Term noch et-
x10 was um: Wegen A > D A können wir für die reelle Zahl
x 0> T > A t auch schreiben:
0 x1
x 0> T > A t D .x 0> T > A t/> D t > A T x 0 :
Deshalb bleibt als linearer Term:
. Abb. 10.6 Die Quadrik Q. / mit der kanonischen Gleichung .x/ D
9x12 4x1 x2 C 6x22 32x1 4x2 C 24 D 0 ist eine Ellipse 2 t > A T x 0 C 2 a> T x 0 D 2 .t > A C a> / T x 0 :
382 Kapitel 10 Quadriken – vielseitig nutzbare Punktmengen
Lemma Eine Änderung des kartesischen Koordinatensys- Nach der oben erklärten Hauptachsentransformation
tems von .oI B/ zu .o0 I B 0 / mittels der Transformations- symmetrischer Bilinearformen haben wir als neue ortho-
gleichung .oIB/ x D t C T .o0 IB 0 / x verändert gleichzeitig die normierte Basis B 0 D H eine aus lauter Eigenvektoren von
Darstellung .x/ D .oIB/ x > A .oIB/ x C 2 a> .oIB/ x C a A zu wählen. Die Transformationsmatrix lautet:
der quadratische Funktion W A .V / ! R zu
B T H D . B h1 ; : : : ;B hn /:
.x/ D .o0 IB 0 / x > A 0 .o0 IB 0 / x C 2 a0> .o0 IB 0 / x C a0
Damit wird A 0 zur Diagonalmatrix diag.1 ; : : : ; n / mit
mit den Eigenwerten i von A. Deren Vorzeichenverteilung er-
0 > gibt sich aus der Signatur .p; r p; n r/ von A. Wir
A D T AT;
können jedenfalls die p positiven Eigenwerte zu Beginn
a0 D T > .A t C a/ ; (10.11) reihen, anschließend bei r D rg.A/ die r p negativen
a0 D t > A t C 2 a> t C a D .o0 /: und schließlich die n r Nullen.
Wenn wir die positiven Eigenwerte i durch 1=˛i2 er-
Die in der quadratischen Funktion setzen und die negativen durch 1=˛i bei ˛i > 0, so folgt
2
Kommentar
W A .V / ! R vorkommende quadratische Form als quadratischer Anteil in der transformierten Darstellung
W V ! R bleibt unverändert, denn die Darstellungsmatrix von :
A wird durch eine zu A kongruente Matrix A 0 ersetzt.
> 0 02 02
Die lineare Abbildung ' hingegen wird verändert, denn .o0 IB 0 / x A .o0 IB 0 / x D 1 x1 C C r xr
der Übergang von der einzeilige Darstellungsmatrix a> zu x0 2
02
xp0 2 xpC1 x0 2
a0> ist bei t ¤ 0 keine Äquivalenz mehr. Dies ist deshalb D 12 C C 2 2 r2
˛1 ˛p ˛pC1 ˛r
ohne Änderung der quadratischen Funktion möglich,
10 weil nach dem Koordinatenwechsel nicht allein auf x,
mit 0 p r D rg.A/ n.
sondern auf x o0 angewendet wird.
2. Schritt: Nach der Beseitigung der gemischten Sum-
Durch die Vorgabe einer quadratischen Funktion
manden verlagern wir den Ursprung derart, dass die linea-
W A .V / ! R wird zwar die quadratische Form ein-
ren Summanden ai xi weitgehend verschwinden.
deutig festgelegt, nicht aber die lineare Abbildung ' sowie
Um in dem neuen Koordinatensystem .o0 I B 0 / gleich-
die Konstante a. Letztere ändern sich bei Verlagerung des
zeitig die Linearform zum Verschwinden zu bringen, muss
Ursprungs von A .V /.
in (10.11) a0 D 0 sein. Wegen der Invertierbarkeit von T
ist hierfür notwendig und hinreichend, dass t D .oIB/ o0 das
Wenn wir diesen Koordinatenwechsel so wie im 7 Kap. 5
inhomogene lineare Gleichungssystem
durch die erweiterte Transformationsmatrix T beschrei-
ben, also in der Form
A x D a (10.12)
>
1 1 0 1
x D D D T x0 ;
x t T x0 löst. Hier sind zwei Fälle zu unterscheiden.
Fall a) Das System (10.12) ist lösbar:
so erhalten wir die gegenüber M .oIB/ . / aus (10.10) neue Nach den Ergebnissen von 7 Kap. 3 wird in diesem Fall
erweiterte Darstellungsmatrix M .o0 IB 0 / . / auch direkt als der Rang nicht größer, wenn zur Koeffizientenmatrix die
das Matrizenprodukt Absolutspalte hinzugefügt wird – auch wenn diese zuvor
! mit 1 multipliziert wird. Also ist
> > >
1 t a a 1 0
M .o0 IB 0 / . / D ; rg.A j a/ D rg.A/ D r:
0 T> a A t T
wie eine einfache Rechnung mittels blockweiser Matrizen- Jeder Punkt m, dessen .oI B/-Koordinaten dieses Glei-
multiplikation bestätigt. Der Rang der erweiterten Matrix chungssystem lösen, heißt Mittelpunkt der Quadrik. In
bleibt bei dieser Transformation unverändert, weil T in- dem Koordinatensystem .mI H / nimmt die Gleichung der
vertierbar ist. Quadrik Q. / die Form
Nun können wir darangehen, durch eine geeignete Wahl 02
der Basis B 0 und des Koordinatenursprungs o0 die Koordi- x10 2 xp0 2 xpC1 xr0 2
C C C a0 D 0
natendarstellung der quadratischen Funktion aus (10.11) ˛12 ˛p2 2
˛pC1 ˛r2
und damit die Gleichung der Quadrik Q. / zu vereinfa-
chen. an. Die Lösungsmenge dieser Gleichung, also Q. /, bleibt
1. Schritt: Wir diagonalisieren die Polarform und eli- unverändert, wenn wir die Gleichung mit einem von null
minieren damit in der Quadrikengleichung alle gemischten verschiedenen Faktor multiplizieren. Bei a0 ¤ 0 können
Summanden aij xi xj mit i ¤ j . wir durch die Multiplikation mit 1=a0 die Konstante auf
10.3 Quadriken und ihre Hauptachsentransformation
383 10
1 normieren. Bei a0 D 0 erreichen wir durch eine etwaige Nachdem die Koordinaten von a bezüglich der Basis H
Multiplikation mit 1, dass die Anzahl der positiven Dia- Skalarprodukte sind (siehe 7 Abschn. 9.3), gilt:
gonaleinträge in A 0 nicht kleiner ist als jene der negativen.
Die Bezeichnung Mittelpunkt für die Lösungen von X
n X
r
i D1 i D1 0 D arC1
:: ::
: :
Fall b) Das System (10.12) ist nicht lösbar, es gibt kei-
0 D an
nen Mittelpunkt: Nun ist r D rg.A/ < rg.A j a/ n.
In diesem Fall können nicht alle linearen Summanden
Nun ist die Zerlegung von a in die beiden Komponenten
ai xi in der Quadrikengleichung eliminiert werden. Es wird
offensichtlich. Wir setzen
sich zeigen, dass ein linearer Term 2 xn0 bestehen bleibt. Da-
zu verhilft eine geeignete Zerlegung von a in die Summe 0 1 0 1
a1 0
zweier zueinander orthogonaler Komponenten. B:C B : C
B :: C B :: C
B C B C
Ba C B 0 C
B rC B C
Lemma Ist das lineare Gleichungssystem A x D a in H a1 D B C und H a0 D B C:
B0C BarC1 C
(10.12) nicht lösbar, so lässt sich der Vektor a derart in eine B C B C
B :: C B :: C
Summe a0 Ca1 zerlegen, dass einerseits a0 ein Eigenvektor @:A @ : A
von A zum Eigenwert 0 ist und andererseits das System 0 an
A x D a1 lösbar wird.
Beweis Für die Lösbarkeit des Systems A x D a1 ist Im parabolischen Fall bleibt ein linearer
notwendig und hinreichend, dass a1 im Bild der linearen Term in der Quadrikengleichung bestehen
Abbildung 'A W x 7! A x liegt. Dieser Unterraum Im.'A /
wird wegen A hi D i hi für i D 1; : : : ; n bei rC1 D
D n D 0 von den ersten r Eigenvektoren h1 ; : : : ; hr Wenn wir in der .oI B/-Darstellung von .x/ den Vektor a
aufgespannt. Der zur Hülle dieser Eigenvektoren orthogo- durch die Summe a0 C a1 nach (10.13) ersetzen, so entsteht
nale Raum ist die Hülle von hrC1 ; : : : ; hn , der Eigenraum >
EigA .0/ zum Eigenwert 0. .x/ D .oIB/ x A .oIB/ x C 2 a>
0 .oIB/ x
Die Zerlegung a D a0 C a1 wird durch die Bedingun- C 2 a>
1 .oIB/ x C a:
gen a0 2 EigA .0/ D h hrC1 ; : : : ; hn i und a1 2 Im.'A / D
h h1 ; : : : ; hr i eindeutig. Die beiden Komponenten a0 bzw. Darin kann der zweite lineare Summand zum Verschwin-
a1 entstehen durch orthogonale Projektion von a in den den gebracht werden, indem als Ursprung o0 ein Punkt ge-
Eigenraum EigA .0/ bzw. in dessen orthogonales Komple- wählt wird, dessen .oI B/-Koordinaten das System A x D
ment. a1 lösen.
384 Kapitel 10 Quadriken – vielseitig nutzbare Punktmengen
Wegen der freien Wahl der letzten nr orthonormierten wurde, auch allein durch kombinierte Zeilen- und Spal-
Basisvektoren hrC1 ; : : : ; hn innerhalb von EigA .0/ dürfen tenumformungen bestimmbar, also ohne orthogonales Dia-
wir den letzten in Richtung von a0 festsetzen. Dann ist in gonalisieren mittels Berechnung der Eigenwerte. Auch die
H a0 nur die letzte Koordinate von null verschieden, etwa Entscheidung, um welchen Typ es sich handelt, kann oh-
H a0 D an hn . Es bleibt in der Gleichung der Quadrik nur ne die Transformation auf Hauptachsen getroffen werden,
ein einziger linearer Term übrig, nämlich 2 an xn . Wegen nämlich allein anhand der Ränge der Matrizen A, .A j a/
r < n kommt sicherlich kein xn2 vor. und der erweiterten Darstellungsmatrix A .
Nun können wir noch die Konstante zu null machen, Die auf Normalform gebrachte Quadrik vom Typ 2
indem wir den Ursprung o0 durch ein geeignetes o00 D o0 C schneidet die Achse m C hi R für i p in Punkten, für
hn ersetzen. Dies bedeutet, wir substituieren xn D xn0 deren i-te .mI H /-Koordinate gilt:
, während alle anderen Koordinaten unverändert bleiben.
Auf der linken Seite der Quadrikengleichung folgt: xi2 =˛i2 1 D 0; also xi D ˙˛i ;
X
r
wobei i D 1=˛i2 ein positiver Eigenwert von A ist;
i xi2 C 2 an .xn0 / C a:
alle anderen Koordinaten sind null. Diese Schnittpunk-
i D1
te sind Scheitel der Quadrik. Das ˛i ist die zugehörigen
Die Wahl D a=2an beseitigt die Konstante. Achsenlänge, also der Abstand des Mittelpunkts von den
Schließlich können wir noch erreichen (gegebenenfalls Scheiteln.
nach Multiplikation mit 1), dass unter den quadratischen Die Geraden mChi R mit i p heißen auch Hauptach-
Summanden die Anzahl der positiven nicht kleiner ist als sen der Quadrik, jene mit p C 1 i r Nebenachsen. Die
jene der negativen. Nach der Division durch jan j wird der auf Nebenachsen liegenden Schnittpunkte haben rein ima-
p
Koeffizient von xn zu 2 oder 2. Im erstgenannten Fall kön- ginäre Koordinaten xi D ˙i ˛i . Bei einem mehrfachen
nen wir den Basisvektor hn noch umorientieren, also xn Eigenwert i ist die Achse m C hi R nicht mehr eindeutig.
10 durch xn ersetzen. Warum die Quadriken von Typ 3, also jene ohne Mit-
Damit finden wir für jede Quadrik ein geeignetes Koor- telpunkt, auch parabolisch genannt werden, zeigen die
dinatensystem, in welchem die Gleichung eine der nachste- folgenden Übersichtboxen mit Auflistungen der Quadriken
hend angeführten Normalformen annimmt. Die Koordina- im R2 bzw. R3 .
tenachsen sind Achsen der Quadrik.
Beispiel Wir bringen die Ellipse aus . Abb. 10.6 mit der
kanonischen Gleichung
Klassifikation der reellen Quadriken
Es gibt drei Typen von Quadriken in A .Rn /. Die Normal- .x/ D 9x12 4x1 x2 C 6x22 32x1 4x2 C 24 D 0
formen ihrer Gleichungen lauten wie folgt:
Typ 1 (kegeliger Typ): 0 p r n, p r p, auf Normalform.
rg.A / D rg.A j a/ D rg.A/ D r: In der Bezeichnung von (10.9) ist
xp2 2 9 2 16
x12 xpC1 xr2 AD ; aD und a D 24:
C C D 0: 2 6 2
˛12 2
˛p2 ˛pC1 ˛r2
Als Nullstellen des charakteristischen Polynoms
Typ 2 (Mittelpunktsquadrik): 0 p r n,
rg.A / > rg.A j a/ D rg.A/ D r:
9 2
det.A E2 / D det
2 2 6
x12 xp2 xpC1 xr2
C C 1 D 0: D 2 15 C 50
˛12 2
˛p2 ˛pC1 ˛r2
bringt die Quadrikengleichung mit (10.11) auf die verein- Eine Ellipse mit ˛ D ˛ ist natürlich ein Kreis mit dem
1 2
fachte Form Radius ˛1 . Gilt bei der Ellipse ˛1 > ˛2 , so heißt die ers-
te Koordinatenachse Hauptachse und ˛1 Hauptachsenlänge
1 x10 2 C 2 x20 2 C .m/ D 10 x10 2 C 5 x20 2 10 D 0
zum Unterschied von der Nebenachse und der Nebenach-
und nach Division durch 10 auf die Normalform senlänge ˛2 .
Dieselben Bezeichnungen werden auch bei der Hyper-
1 bel mit der obigen Normalform verwendet, wobei aber nur
x10 2 C x20 2 1 D 0
2 die Hauptachse reelle Scheitel trägt. Die durch die Hyper-
p belmitte gehenden Geraden mit der Gleichung x˛11 D ˙ ˛x22
mit ˛1 D 1 und ˛2 D 2. Die in . Abb. 10.7 markierten heißen Asymptoten. Sie bilden die Quadrik mit der Glei-
Scheitel haben die Koordinaten x2 x2
chung ˛12 ˛22 D 0 vom Typ 1b.
r r 1 2
2 2 2 1 Typ 3, parabolisch: Als einzige Normalformen bleiben
2˙ ; 1˙2 und 2 ˙ p ; 1 p : 9 x2
5 5 5 5 3a) .r; p/ D .1; 1/, .x/ D ˛12 2 x2 ,
1
Q. / ist eine Parabel mit dem Scheitel in 0,
Ein Beispiel mit einem parabolischen Typ folgt später in
3b) .r; p/ D .0; 0/, .x/ D x2 ,
der Beispielbox.
Q. / ist eine Gerade.
Die Quadriken in der Ebene und im Raum Die Konstante ˛12 in der Parabelgleichung heißt Parameter
(siehe . Abb. 10.8).
Die Kegelschnitte, also Ellipse, Parabel und Hyperbel,
Wir beginnen mit der Aufzählung aller Quadriken in haben trotz ihres verschiedenen Aussehens viele Gemein-
A .R2 /. Diese sind auch noch in einer Übersichtsbox zu- samkeiten. So treten sie alle als Lösungskurven des Einkör-
sammengefasst. perproblems auf (siehe Grundwissenbuch, Abschnitt 20.1).
386 Kapitel 10 Quadriken – vielseitig nutzbare Punktmengen
Wir stellen in der folgenden Tabelle die verschiedenen Typen der Quadriken der Ebene A .R2 / zusammen.
x2 x2 x2
˛2
˛2
z
f1 ˛1 x1 f1 ˛1 x1
f2 f2
f
x ˛12 =2 x1
˛12 =2
y L ˛12
q
. Abb. 10.8 Die Punkte x der Ellipse (links) mit den Achsenlängen
q f i D .˙e; 0/> , e D ˛12 C ˛22 , sind durch j ky f 1 k ky f 2 k j D
˛1 > ˛2 und den Brennpunkten f i D .˙e; 0/> bei e D ˛12 ˛22 2 ˛1 gekennzeichnet. Die Punkte z der Parabel (rechts) haben vom Brenn-
erfüllen die Bedingung kx f 1 k C kx f 2 k D 2 ˛1 . Die Punkte y punkt f D .0; ˛12 =2/> und von der Leitgeraden L mit der Gleichung
der Hyperbel (Mitte) mit den Achsenlängen ˛1 ; ˛2 und den Brennpunkten x2 D ˛12 =2 jeweils dieselbe Entfernung
Die . Abb. 10.11 illustriert, wie die Bahnen von der Wahl
der Anfangsgeschwindigkeit x.t P 0 / im gemeinsamen An-
fangspunkt x.t0 / abhängen.
x2 x2 x2
2c0 ) .r; p/ D .3; 1/, .x/ D ˛12 ˛22 ˛32 1,
1 2 3
Q. / ist ein zweischaliges Hyperboloid,
x2 x22 x32
2d0 ) .r; p/ D .3; 0/, .x/ D ˛12 ˛22
˛32
1,
1
Q. / D ;,
x2 x2
2e0 ) .r; p/ D .2; 2/, .x/ D ˛12 C ˛22 1,
1 2
Q. / ist ein elliptischer Zylinder,
x2 x2
2f0 ) .r; p/ D .2; 1/, .x/ D ˛12 ˛22 1,
1 2
Q. / ist ein hyperbolischer Zylinder,
x2 x2
2g0 ) .r; p/ D .2; 0/, .x/ D ˛12 ˛22 1,
1 2
Q. / D ;,
2h0 ) .r; p/ D .1; 1/, .x/ D x12 1,
Q. / besteht aus zwei parallelen Ebenen,
2i0 ) .r; p/ D .1; 0/, .x/ D x12 1,
Q. / D ;.
. Abb. 10.12 Der quadratische Kegel (links) mit Hyperbelschnitten, der elliptische Zylinder (Mitte) und der hyperbolische Zylinder (rechts) mit
seinen asymptotischen Ebenen (rot schattiert)
. Abb. 10.14 Das dreiachsige Ellipsoid sowie das ein- und zweischalige Hyperboloid mit achsenparallelen Schnittkurven
390 Kapitel 10 Quadriken – vielseitig nutzbare Punktmengen
Die folgenden Tabelle zeigt Ansichten aller Typen von Quadriken im Raum A .R3 /.
x2
x1
x1 x2
10.3 Quadriken und ihre Hauptachsentransformation
391 10
x3 x3
P1
P2 P1
P2
x1
x2 x2
x1
. Abb. 10.17 Die beiden Erzeugendenscharen eines einschaligen Hy- . Abb. 10.19 Das hyperbolische Paraboloid trägt so wie das einschalige
perboloids Hyperboloid zwei Erzeugendenscharen
Diese Schiebflächeneigenschaft folgt aus der Feststel- Hyperboloid können wir wieder Ebenenpaare
lung, dass für jedes k 2 R die Schnittkurve der Paraboloide
mit der Ebene x2 D k D konst. die Gleichung
x1 x2
E1 .t/W ˙ D t;
˛1 ˛2
x12 k2 x2 k2
˙ 2 2x3 D 0; also 12 2 x3 2 D 0 x1 x2 2x3
2 E2 .t/W D
˛1 ˛2 ˛1 2˛2 ˛1 ˛2 t
erfüllt und daher durch die Parallelverschiebung angeben, deren Schnittgerade für jedes t 2 R n f0g zur
Gänze dem Paraboloid angehört, weil alle ihre Punkte die
0 1 0 1 0 1 Paraboloidgleichung erfüllen. Es ergeben sich erneut zwei
x1 0 x1 Scharen von Geraden je nachdem, ob die oberen oder unte-
@x2 A 7! @ k A C @x 2 A ren Vorzeichen gewählt werden. Als Grenzfälle für t ! 0
x3 ˙k 2 =2˛22 x3 erhält man die beiden Scheitelerzeugenden
Zunächst befassen wir uns mit der Frage, wie sich eine also
p p
lineare Abbildung ' auf die Länge der Vektoren aus- 3C 5 3 5
wirkt. Dazu berechnen wir das Längenverzerrungsverhält- 1 D ; 2 D :
2 2
nis k'.x/k=kxk des Vektors x ¤ 0. Dieser Quotient aus
der Länge des Bilds durch die Länge des Urbilds ist dersel- Beide sind positiv. Also ist die Quadrik k eine Ellipse mit
be für alle Vielfachen von x, ¤ 0, denn den Achsenlängen
s p
k'.x/k jj k'.x/k k'.x/k 2 51
D D : ˛ D p D 0:618 ;
kxk jj kxk kxk 1
3C 5 2
s p
Das Verzerrungsverhältnis ist also nur von der Geraden hxi
2 5C1
abhängig. Man erhält bereits alle möglichen Verzerrungs- ˛2 D p D 1:618 :
verhältnisse, wenn man nur Einheitsvektoren abbildet. Für 3 5 2
10.4 Die Singulärwertzerlegung
393 10
Diese Achsenlängen sind die Extremwerte unter den Län- Die Quadrate der Singulärwerte sind
gen der Vektoren x 2 k, d. h., die Eigenwerte einer symmetrischen Matrix
˛1 kxk ˛2 :
Nun wenden wir uns dem allgemeinen Fall einer linearen
Nachdem die Bildvektoren '.x/ alle die Länge 1 haben, Abbildung
gilt für die Verzerrungsverhältnisse
V D Rn ! V 0 D Rm ;
1 p k'.x/k p 1 'W
D 1 2 D : x 7! A x
˛1 kxk ˛2
zu. Das kanonische Skalarprodukt zwischen Bildvektoren
Die Eigenwerte von A > A geben also die Quadrate der in V 0 bestimmt in V eine symmetrische Bilinearform ge-
extremenp Längenverzerrungsverhältnisse an. Wir nennen mäß der Gleichung
si D i für i D 1; 2 die Hauptverzerrungsverhältnis-
se oder die Singulärwerte von '. Die Achsen von k sind '.x/ '.y/ D .A x/> .A y/ D x > .A > A/ y; (10.15)
diejenigen Geraden, längs derer diese extremen Längenver-
>
zerrungen auftreten. Sie bestimmen die Hauptverzerrungs- denn das Matrizenprodukt .A A/ ist symmetrisch.
>
richtungen von '. Vektoren längs der Nebenachse von k Ist rg.A A/ D r, so gibt es r von null verschiedene
werden am stärksten verlängert, jene längs der Hauptachse Eigenwerte 1 ; : : : ; r von .A > A/ und eine orthonormierte
von k am meisten verkürzt. Basis H D .h1 ; : : : ; hn / aus Eigenvektoren von V , wobei
Für die orthonormierte Basis H aus Eigenvektoren von h rC1 ; : : : ; hn den Kern von ' aufspannen. Aus
>
A A wählen wir
! .A > A/ hj D j hj
p !
p ; h2 D 1 1 5
1 2
h1 D folgt für alle i; j 2 f1; : : : ; rg nach (10.15):
w 1 5 w 2
p '.hi / '.hj / D h> > >
i .A A/ hj D hi .j hj /
bei w D 10 C 2 5. Die zugehörigen Bilder
2
D j .hi hj /;
p ! p !
1 3C 5 1 1 5 also
'.h1 / D p ; '.h2 / D
w 1C 5 w 2
0 für i ¤ j;
p p '.hi / '.hj / D
j für i D j:
haben die Längen s1 D 1 bzw. s2 D 2 , und sie
sind zueinander orthogonal, wie deren verschwindendes Die ersten r Bildvektoren sind ¤ 0 und paarweise ortho-
Skalarprodukt beweist (. Abb. 10.20). Durch Normieren gonal. Wegen D k'.h /k2 sind die ersten r Eigenwerte
i i
entstehen daraus die Vektoren von .A > A/ positiv. Wir nennen die (positiven) Wurzeln aus
1 1 diesen Eigenwerten, also
h01 D '.h1 /; h02 D '.h2 / p
s1 s2
s1 D 1 D k'.h1 /k;
der orthonormierten Basis H 0 im Bildraum. ' erhält die ::
Darstellungsmatrix :
p
sr D r D k'.hr /k;
s1 0
H 0 M .'/H D . H 0 '.h /;
1 H 0 '.h 2 / / D
0 s2 die Singulärwerte von '. Dabei setzen wir die Vielfachheit
von si jener von i gleich.
in der Normalform (10.14) mit den beiden Hauptverzer-
Die durch Normierung der Bildvektoren entstehenden
rungsverhältnissen in der Hauptdiagonale.
Vektoren
Nachdem die lineare Abbildung ' in diesem Beispiel
sogar bijektiv ist, können wir umgekehrt auf analoge Weise 1 1
h01 D '.h1 /; : : : ; h0r D '.hr /
feststellen, dass die Bilder der Einheitsvektoren die Quadri- s1 sr
kengleichung
sind orthonormiert und lassen sich zu einer orthonormier-
0>
x .A > 1 1 0 0>
A / x D x .AA / x D 1> 1 0 ten Basis von V 0 ergänzen. Dabei ist hh01 ; : : : ; h0r i das Bild
Im.'/ V 0 und hh0rC1 ; : : : ; h0m i orthogonal dazu.
erfüllen. Dies führt auf die im rechten Bild von Wir haben also '.hi / D si h0i für i 2 f1; : : : ; rg und
. Abb. 10.20 gestrichelt eingezeichnete Ellipse mit Ach- '.hj / D 0 für j > r. Die H 0 -Koordinaten der Bilder
senlängen s1 und s2 , auf welcher die Spitzen von '.e 1 /, '.hi / sind die Spaltenvektoren in der Darstellungsmatrix
'.e 2 /, '.h1 / und '.h2 / liegen. H 0 M .'/H ; somit erhält diese die Normalform (10.14).
394 Kapitel 10 Quadriken – vielseitig nutzbare Punktmengen
?Selbstfrage 10.11
1. Wie lauten die Singulärwerte einer orthogonalen Ma-
Angenommen, B und B 0 sind beliebige orthonormierte trix A 2 Rn n ? Geben Sie Singulärwertzerlegungen
Basen in V bzw. V 0 und A ist die zugehörige Darstellungs- von A an.
matrix von '. Dann ist 2. Angenommen, 'W R3 ! R3 ist die orthogonale Pro-
jektion auf eine Ebene des R3 . Wie sieht die zugehö-
A D B 0 M .'/B D B 0 T H 0 H 0 M .'/H H T B ; rige Diagonalmatrix D mit den Singulärwerten aus?
'D
Skalierung
'.x/
Die jeweiligen Orthogonalräume sind 00
0
Ker.' / ? ' C .y 0 /
/
.'
?
Ker.'/ D hh1 ; : : : ; hr i V;
Im
ˇ
?
Im.'/ D hh0rC1 ; : : : ; h0m i V 0:
. Abb. 10.22 Die lineare Abbildung ' ist aus einer Orthogonalprojek-
tion , der Bijektion ˇ und der Einbettung 0 in V 0 zusammensetzbar, die
Die Verwendung von H -Koordinaten in V und H 0 -Koor- Pseudoinverse ' C aus der Orthogonalprojektion 0 im Zielraum, der In-
dinaten in V 0 macht deutlich, dass ' wie folgt zusammen- versen ˇ 1 und der Einbettung in V
396 Kapitel 10 Quadriken – vielseitig nutzbare Punktmengen
Angenommen, im R3 liegen Messdaten über zwei Positionen Wegen D D .s1 e 1 ; s2 e 2 ; s3 e 3 / mit .e 1 ; e 2 ; e 3 / als kano-
O0 und O00 eines starren Objekts O vor, etwa die Koordinaten- nischer Basis folgt:
vektoren p 0i und p 00i , i D 1; : : : ; n, der jeweils zwei Positionen
desselben Objektpunkts p i . Gesucht ist diejenige Bewegung, X
3
welche die eine Position in die andere überführt. Diese Bewe- kD U BV > k2 D .si e i r i /2
iD1
gung wird – abgesehen von der Verschiebung des Ursprungs
X
3
2 2
– (vergleiche 7 Abschn. 5.5) durch eine orthogonale dreirei- D si e i 2 si .e i r i / C r 2i
hige Matrix B beschrieben, also durch neun Einträge, welche iD1
sechs quadratische Bedingungen erfüllen müssen. X
3
2
Um nun diejenige orthogonale Matrix zu berechnen, wel- D si 2 si ri i C 1
che am besten auf die vorliegenden, mit gewissen Ungenau- iD1
Dies führt auf ein überbestimmtes System von linearen Glei- Dieser Wert ist minimal, wenn die zu subtrahierende Linear-
chungen p 0i A p i D 0 für die neun nun unabhängigen Ele- kombination
mente von A. Wie man dieses löst, zeigt der 7 Abschn. 10.5.
Im zweiten Schritt wird die orthogonale Matrix B berechnet, s1 r11 C s2 r22 C s3 r33
die im Sinne der Frobeniusnorm am nächsten bei A liegt. Wir
behandeln hier nur den zweiten Schritt. mit fest vorgegebenen positiven Koeffizienten s1 , s2 und s3
10 Gegeben sei eine invertierbare Matrix A 2 R3 3 . Gesucht ist
maximal ist. Die ri i sind einzelne Koordinaten von Einheits-
vektoren und daher alle 1. Die minimale Norm liegt also
diejenige orthogonale Matrix B 2 R3 3 , für welche kB Ak genau dann vor, wenn die Hauptdiagonalelemente r11 D
minimal ist. Dabei verwenden wir hier die Frobeniusnorm, die r22 D r33 D 1 sind. Somit bleibt r i D e i , also:
für die Matrix C D .c 1 ; c 2 ; c 3 / durch die Formel
p U B V > D E3 und weiter B D U > V :
kC k D kc 1 k2 C kc 2 k2 C kc 3 k2
Man erhält demnach die zu A nächstgelegene orthogonale
bestimmt ist. Diese Norm ändert sich nicht, wenn C links
Matrix B einfach dadurch, dass in der Singulärwertzerlegung
mit einer orthogonalen Matrix multipliziert wird, denn dabei
von A alle Singulärwerte gleich 1 gesetzt werden, also D
bleibt die Länge jedes einzelnen Spaltenvektors c i von C er-
durch E3 ersetzt wird.
halten. Weil kC k2 auch gleich der Quadratsumme der Längen
aller Zeilenvektoren ist, lässt die Rechtsmultiplikation von C
Kommentar Dies gilt auch noch, wenn einer der Eigen-
mit einer orthogonalen Matrix diese Norm ebenfalls invariant.
werte von A > A verschwindet, also etwa bei s3 D 0, weil
Wir gehen aus von der Singulärwertzerlegung
r11 D r22 D 1 als dritten Spaltenvektor in der orthogo-
A D U > D V mit D D diag.s1 ; s2 ; s3 / nalen Matrix U B V > nur mehr r 3 D e 3 zulässt. Erst bei
s2 D s3 D 0 ist das optimale B nicht mehr eindeutig.
mit s1 ; s2 ; s3 > 0, weil A invertierbar vorausgesetzt ist. Wir
suchen eine Matrix B, für welche die Differenz eine minima- Dies wird im Bereich der Bewegungsplanung angewandt, z. B.
le Norm kU > D V Bk aufweist. Dabei sind die Matrizen U , bei der Steuerung von Robotern:
V und B orthogonal. Deshalb ist Zur Festlegung einer stetigen Bewegung zwischen zwei
oder auch mehreren vorgegebenen Raumpositionen werden
kU > D V Bk D kU .U > D V B/V > k zunächst einzelne Punktbahnen unabhängig voneinander in-
D kD U B V > k: terpoliert, etwa jene des Ursprungs und der Einheitspunkte
eines mit dem Raumobjekt starr verbundenen Achsenkreu-
Wir setzen an: zes. Diese Bahnpunkte bestimmen zu jedem Zeitpunkt ein
zunächst noch affin verzerrtes Objekt, also – abgesehen von
U B V > D rik D .r 1 ; r 2 ; r 3 / der Verschiebung – das Bild in einer linearen Abbildung x 7!
A x. Indem nun A nach dem oben beschriebenen Verfahren
mit kr i k D 1, weil das Produkt orthogonaler Matrizen wieder durch eine orthogonale Matrix approximiert wird, werden die
orthogonal ist. Zwischenlagen kongruent zur Ausgangslage.
10.5 Die Pseudoinverse einer linearen Abbildung
397 10
bei r D rg A. Diese Normalform N r ist durch elementare Zei- D ist ein Spezialfall der Jordan-Normalform (siehe
lenumformungen und Spaltenvertauschungen zu erreichen. 7 Abschn. 8.7); alle Jordan-Kästchen sind 1 1-Matrizen.
Matrizen T 2 Rn n bzw. S 2 C n n
und eine zu A kongruen- 3B) Orthogonales Diagonalisieren
te Diagonalmatrix 0 1 Ist A 2 Rn n symmetrisch oder A 2 C n n hermitesch, so
1 ::: 0 sind alle Eigenwerte 1 ; : : : ; n reell, und es gibt eine or-
> B :: :: C
D D T > A T bzw. D D S A S bei D D B
@:
::
: :A
C thonormierte Basis von Eigenvektoren. Zu jedem derartigen
0 ::: n A gibt es eine orthogonale bzw. unitäre Matrix S , also mit
>
S 1 D S > bzw. S 1 D S , derart dass
Die Einträge 1 ; : : : ; n in dieser durch gekoppelte Zeilen-
und Spaltenumformungen erreichbaren Diagonalmatrix D D D diag.1 ; : : : ; n / D S 1 A S :
sind nicht eindeutig, wohl aber die Anzahlen p, q der posi-
tiven bzw. negativen Werte mit p C q D rg A gemäß dem Darauf beruht die Hauptachsentransformation quadratischer
Trägheitssatz. oder hermitescher Formen.
Gibt es keine Inverse zu einer linearen matrix der Pseudoinversen B M .' C /B 0 , die pseudoinverse
Abbildung, so doch eine Pseudoinverse Matrix A C von A, lautet dann:
C
B M .' /B 0 D .H T B /> D C H 0 T B 0 mit
Ist die lineare Abbildung ' nicht bijektiv, also r < n oder D C D H M .' C /H 0 D diag.s11 ; : : : ; sr1 /:
r < m, so ist ' nicht invertierbar. Die Menge ' 1 .x 0 / der
Urbilder von x 0 2 V 0 ist nur bei x 0 2 Im.'/ nicht leer und Nun setzen wir noch U D H 0 T B 0 und V D H T B .
10 dann gleich der Faser ˇ 1 .x 0 /CKer.'/. Mithilfe der obigen
Zerlegung ' D 0 ı ˇ ı mit dem bijektiven Mittelteil ˇ
bietet sich aber die Möglichkeit einer Ersatz-Inversen von Berechnung der pseudoinversen Matrix aus der
' an. Singulärwertzerlegung
Wir setzen die Orthogonalprojektion 0 von V 0 auf Hat A die Singulärwertzerlegung A D U > D V mit
Im.'/ zusammen mit ˇ 1 und einer Einbettungsabbildung D D diag.s1 ; : : : ; sr / 2 Rm n , so ist A C D V > D C U
in V (. Abb. 10.22), also ausführlich mit D C D diag.s 1 ; : : : ; s 1 / 2 Rn m .
1 r
m
0 ˇ 1
V 0 D R ! Im.'/ ! Ker.'/? ! V D Rn
0 0 1 0 0 1
y1 y1 =s1 Auf diese Weise wird in der nächsten Beispielbox die Pseu-
B : C B : C doinverse berechnet.
B :: C 0 01 0 0 1 B :: C
B C y1 y1 =s1 B C Ist die lineare Abbildung ' bijektiv, also m D n D r, so
B y 0 C 0 By 0 =s C
B r C B :: C ˇ1 B :: C B r rC fällt die Pseudoinverse mit der gewöhnlichen Inversen zu-
By 0 C 7! @ : A 7! @ : A 7! B 0 C :
B rC1 C B C sammen, denn dann ist ' D ˇ (. Abb. 10.22). Ansonsten
B : C yr0 yr0 =sr B : C
B : C B : C teilt die Pseudoinverse mit der Inversen die folgende Eigen-
@ : A @ : A
0
ym 0 schaften:
'C D ı ˇ 1 ı 0 W V 0 D Rm ! V D Rn ' ı ' C ı ' D ' und ' C ı ' ı ' C D ' C : (10.17)
nach E. H. Moore (1862–1932) und R. Penrose (geb. 1931) Ferner sind die Abbildungen ' C ı 'W V ! V und ' ı
die Moore-Penrose pseudoinverse Abbildung oder kurz ' C W V 0 ! V 0 selbstadjungierte Endomorphismen.
die Pseudoinverse von '.
Wir können die bisherige, auf der Singulärwertzerle- Beweis Das Produkt
gung von ' beruhende Festlegung der Pseudoinversen noch 0 1 0 1
etwas umformulieren. Es sei A D B 0 M .'/B die Darstel- x1 x1
B : C B:C
lungsmatrix von ' für beliebige orthonormierte Basen B B : C: B :: C
0 0 B C B C
von V und B von V . Dann ist B x C Bx C
C B r C B rC
D ' ı 'W V ! V; B C 7! B C
>
A D .H 0 T B 0 / D H T B mit D D diag.s1 ; : : : ; sr /; B x rC1 C B0C
B : C B:C
B : C B:C
@ : A @:A
wenn wir die Orthogonalität der Transformationsmatrix
x 0
H 0 TB0 2 R
m m n
gleich berücksichtigen. Die Darstellungs-
10.5 Die Pseudoinverse einer linearen Abbildung
399 10
Gegeben ist die lineare Abbildung Die Orthogonalprojektion W R3 ! R3 auf Ker.'/? lautet so-
0 1 0 1 mit W x 7! .x v/ v, also:
x1 ! ! x1
x10 0 10 1
Bx C 1 1 0 B C
1 1 0 x1
'W R ! R ; @ 2 A 7!
3 2
D @x2 A :
x20 2 2 0 x1 C x2 1B CB C
x3 x3 W x 7! p v D @1 1 0A @x2 A :
2 2
0 0 0 x3
Wir lautet die Pseudoinverse ' C ?
Diese Darstellungsmatrix ist das dyadische Quadrat v v> (sie-
Problemanalyse und Strategie he 7 Abschn. 5.4) des Vektors v. Wegen
!
Wir bestimmen den Kern und den Bildraum von ' und die 1 2 p
zugehörigen Orthogonalräume. Dann zerlegen wir ' in das '.v/ D p D 10 v0
2 4
Produkt 0 ı ˇ ı (. Abb. 10.22) und setzen ' C aus der
orthogonalen Projektion 0 auf Im.'/ und der Bijektion ˇ 1 erhalten wir die Bijektion
zusammen. p
ˇW Ker.'/? ! Im.'/; x v ! x 10 v0 :
Lösung
Nun brauchen wir noch im Bildraum R2 die orthogonale Pro-
Offensichtlich ist jektion 0 auf Im.'/. Es ist 0 W y 0 7! .y 0 v0 /v0 , daher
! ! ! !
x10 1 p y10 C 2y20 0 1 1 2 y10
0 D .x1 C x2 / D .x1 C x2 / 5 v0 0 0
W y 7! p v D :
x2 2 5 5 2 4 y20
ist die orthogonale Projektion von V auf den r-dimensio- mit der symmetrischen Darstellungsmatrix H 0 M . 0 /H 0 D
nalen Unterraum Ker.'/? . Die Darstellungsmatrix diag.1; : : : ; 1/ 2 Rm m gleich der orthogonalen Projektion
auf Im.'/ und selbstadjungiert.
M ./ D diag.1; : : : ; 1 / 2 R n n
Wegen .x/ 2 x C Ker.'/ (. Abb. 10.22) haben x und
H H
„ ƒ‚ …
r-mal .x/ dasselbe Bild unter '. Somit gilt:
ist als Diagonalmatrix symmetrisch, und diese Eigenschaft ' ı .' C ı '/ D ' ı D ':
bleibt bei Wechsel zwischen orthonormierten Basen er-
halten. Daher ist D ' C ı ' selbstadjungiert (siehe Mit einer analogen Begründung folgt:
7 Abschn. 9.6).
Analog ist der Endomorphismus ' C ı .' ı ' C / D ' C ı 0 D ' C :
0 0 1 0 01
y1 y1 Kommentar Jede orthogonale Projektion in einem n-
B : C B:C dimensionalen euklidischen Vektorraum V ist selbstadjun-
B : C
: B :: C
B C B C giert, sofern sie so wie vorhin als Endomorphismus, also
B y0 C By 0 C
0 C 0 0 B r C B C als Abbildung V ! V gesehen wird. Dies folgt auch aus
D ' ı ' W V ! V ; B 0 C 7! B r C
ByrC1 C B0C der Tatsache, dass die Darstellungsmatrix analog zu jener
B : C B:C
B : C B:C im Anschauungsraum (7 Abschn. 5.4) als Summe dyadi-
@ : A @:A
0
scher Quadrate von Vektoren einer orthonormierten Basis
ym 0 des Bildraums geschrieben werden kann.
400 Kapitel 10 Quadriken – vielseitig nutzbare Punktmengen
Wird die orthogonale Projektion jedoch als Abbildung Nachdem ' C ı ' die orthogonale Projektion von V ent-
V ! Im./ aufgefasst mit einem nunmehr r-dimensionalen lang der Fasern von ' auf Im.' C / ist, muss ' C jedes
Zielraum bei r D rg < n, so ist dies kein Endomorphis- '.x/ 2 Im.'/ auf das in Im.' C / gelegene eindeutige Ur-
mus mehr und damit natürlich auch nicht selbstadjungiert. bild .x/ abbilden. Somit ist ' C ı 0 D ' C identisch mit
der Pseudoinversen.
Die obige Folgerung lässt sich aber auch umkehren.
Lemma Es sei 'W V ! V 0 eine lineare Abbildung Für injektives oder surjektives ' ist
zwischen euklidischen Räumen. Erfüllt die Abbildung die Pseudoinverse direkt berechenbar
' C W V 0 ! V die Gleichungen (10.17) und sind ' C ı '
und ' ı ' C selbstadjungierte Endomorphismen, so ist ' C
die Moore-Penrose-Pseudoinverse von '. Wie können wir die Darstellungsmatrix der Pseudoinver-
sen ' C ohne Verwendung der Singulärwertzerlegung von
Beweis Liegt der Vektor u im Kern einer linearen Abbil- ' ausrechnen? Gibt es explizite Formeln?
dung '1 , so liegt er auch im Kern jeder Zusammensetzung Es sei A D B 0 M .'/B die Darstellungsmatrix von ' für
'2 ı '1 . Deshalb ist beliebige orthonormierte Basen B von V und B 0 von V 0 .
Dann ist
C
Ker.'/ Ker.' ı '/
C (10.17) diag.s1 ; : : : ; sr / D H 0 M .'/H D H 0 T B 0 A B T H 2 Rm n :
Ker.' ı ' ı '/ D Ker.'/:
Wir betrachten im Folgenden die durch die transponierte
Also gilt überall die Gleichheit. Matrix A > dargestellte adjungierte Abbildung
Liegt andererseits der Vektor v im Bild von '1 ı '2 für
10 eine mit '1 zusammensetzbare Abbildung '2 , so gehört er
' W V 0 ! V; B 0 x 0 ! A > B 0 x 0 :
auch zum Bild von '1 . Daher ist
(10.17) Für diese von V 0 nach V wirkende Abbildung gilt beim Ba-
Im.'/ Im.' ı ' C / Im.' ı ' C ı '/ D Im.'/; siswechsel von B zu H und B 0 zu H 0 :
und wieder muss überall Mengengleichheit bestehen. Die-
H M .' /H 0 D H T B A > B 0 T H 0 D .H 0 M .'/H />
selben Argumente gelten für ' C , und daher ist insgesamt
D diag.s1 ; : : : ; sr / 2 Rn m :
Ker.'/ D Ker.' C ı '/; Im.'/ D Im.' ı ' C /;
Ker.' / D Ker.' ı ' /; Im.' C / D Im.' C ı '/:
C C Ähnlich wie ' ist auch die adjungierte Abbildung ' zu-
sammensetzbar:
Das Produkt D ' C ı ' ist idempotent, denn
0
V 0 D Rm ! Im.'/ ! Ker.'/? ! V D Rn ;
ı D .' C ı ' ı ' C / ı ' D ' C ı ' D : 0 0 1 0 01
y1 s1 y1
B : C B : C
Somit ist eine Projektion, denn jedes y aus der Faser B :: C 0 01 0 01 B :: C
B C y1 s1 y1 B C
.x/ C Ker./ hat als Bild .y/ D 2 .x/ C 0 D .x/ B y 0 C 0 Bs y 0 C
B r C B :: C B :: C B r rC
denselben Vektor aus der Faser. By 0 C 7! @ : A 7! @ : A 7! B 0 C
B rC1 C B C
Nun ist selbstadjungiert vorausgesetzt. Daher gilt B : C yr0 sr yr0 B : C
B : C B : C
nach der Definition im 7 Abschn. 9.6 für alle Vektoren @ : A @ : A
u 2 Ker./ und x 2 V : 0
ym 0
u .x/ D .u/ x D 0: Die adjungierte Abbildung ' unterscheidet sich von ' C
lediglich im „Mittelteil“: Statt die i-te Koordinate durch
Das Bild Im./ ist also orthogonal zu Ker./ und damit
si zu dividieren, wird hier mit si multipliziert. Man kann
zu allen Fasern der Projektion . Somit ist die orthogo-
' C demnach aus ' und der Skalierung mit den Faktoren
nale Projektion parallel zum Kern von ' auf Ker.'/? D
1=s12 ; : : : ; 1=sr2 innerhalb von Ker.'/? zusammensetzen.
Im.' C /. Nach der Vertauschung von ' mit ' C folgt eben-
Die Skalierung mit den jeweils reziproken Werten, also
so, dass die selbstadjungierte Abbildung 0 D ' ı ' C eine
mit s12 ; : : : ; sr2 , tritt bei der Zusammensetzung ' ı 'W V !
orthogonale Projektion parallel zu den Fasern von ' C in
V auf, denn deren Darstellungsmatrix ist
das Bild Im.'/ ist. Wir erhalten, wie in . Abb. 10.22 dar-
gestellt:
.H 0 M .'/H /> H 0 M .'/H
C C
Ker.'/ ? Im.' / und Ker.' / ? Im.'/: D diag.s12 ; : : : ; sr2 ; 0 : : : ; 0/ 2 Rn n :
10.5 Die Pseudoinverse einer linearen Abbildung
401 10
Bei r D n ist die Abbildung ' injektiv, und es fehlen Kommentar Alle diese Überlegungen über die Pseudoin-
die Nullen in der Hauptdiagonale; die Produktmatrix ist verse einschließlich des Zusammenhangs mit der adjun-
invertierbar. Dann erledigt die zugehörige Inverse gerade gierten Abbildung gelten auch in unitären Räumen. Der
diejenige Skalierung, durch welche ' zur Pseudoinversen einzige Unterschied besteht darin, dass die Darstellungs-
' C wird. Bei injektivem ' gilt also matrix von ' die konjugiert komplexe der transponierten
>
Abbildung ist, also B M .' /B 0 D .B 0 M .'/B / .
' C D .' ı '/1 ı ' ;
A C A und A A C 'W V D Rn ! V 0 D Rm ; x 7! A x
Man beachte: In der voherigen Beispielbox war ' weder . Abb. 10.23 Die Forderung nach Verbesserungen mit minimaler Qua-
injektiv noch surjektiv. Dort war keine der angegebenen dratsumme führt zum Fußpunkt f der aus b an den Bildraum Im.'/
Formeln verwendbar. Siehe dazu auch die Aufgabe 18.16 . legbaren Normalen
402 Kapitel 10 Quadriken – vielseitig nutzbare Punktmengen
form zn
x 02 x 02
1 x102 C C n xn02 D 12 C C n2 D 1
˛1 ˛n Die quadratische Form auf der rechten Seite ist nach Vor-
aussetzung positiv definit. p
˛i die längste Halbachse, so ist i D 1=˛i2 der kleinste Durch Abtragen der Länge 1= QE längs des Normal-
>
Eigenwert der Matrix A A. vektors x mit kxk D 1 entstehen die Punkte
1 1
y D ˙p x D ˙q x:
QE
Näherungslösung eines überbestimmten x > .A > A/ x
homogenen Gleichungssystems Einer Hyperebene E mit minimalem QE entsprechen dabei
Ist A x D 0 ein nur trivial lösbares lineares homogenes Punkte y mit maximaler Norm kyk.
Gleichungssystem, so ist jeder Eigenvektor el zum kleins- Alle Punkte y genügen der quadratischen Gleichung
ten Eigenwert von A > A eine optimale Näherungslö-
sung, denn unter allen Vektoren derselben Länge hat e
l ein y > .A > A/ y D 1;
Bild Ael mit minimaler Norm, also mit derpkleinsten Ab- denn
weichung von 0. Bei ke l k D 1 ist kAe
l k D . 1
y > .A > A/ y D x > .A > A/ x D 1:
x > .A > A/ x
404 Kapitel 10 Quadriken – vielseitig nutzbare Punktmengen
Gesucht ist ein Kegelschnitt, welcher n > 5 gegebene Punkte 6 6-Matrix. Ist dann e ein Eigenvektor zu 1 , so bilden
p 1 ; : : : ; p n in der affinen Ebene A .R2 / bestmöglich appro- die Koordinaten von e die Koeffizienten in der Gleichung
ximiert. Die in den . Abb. 10.9 und 10.10 über die Fotos .x/ D 0 des gesuchten Kegelschnitts.
gezeichneten Kegelschnitte wurden nach diesem Verfahren Im Gegensatz zu dem in der . Abb. 10.24 gezeigten
berechnet. Beispiel mit einer linearen Funktion gibt der Wert .x/ kei-
nesfalls den Normalabstand des Punkts x vom Kegelschnitt
Wir setzen die kanonische Darstellung der zugrunde liegenden Q. / an; .x/ hat keine unmittelbar erkennbare geometri-
quadratischen Funktion .x/ an als sche Bedeutung. Die berechnete Lösung hängt von der Wahl
des Koordinatensystems ab. Bereits eine Verschiebung des
.x/ D k1 x12 C k2 x1 x2 C k3 x22 C k3 x1 C k5 x2 C k6
Koordinatenursprungs kann zu einem anderen Kegelschnitt
mit vorerst unbekannten Koeffizienten k1 ; : : : ; k6 . Wenn der führen.
Punkt p i der Quadrik Q. / angehört, muss .p i / D 0 sein.
x2
Dies ist eine lineare homogene Gleichung für die Koeffizi-
enten. Die n Punkte führen demnach auf ein überbestimmtes p5
System von n homogenen linearen Gleichungen. Wir suchen
dessen optimale Lösung nach dem vorhin beschriebenen Ver- p4
fahren und gehen daher wie folgt vor: p6
Für jedes i 2 f1; : : : ; ng berechnen wir aus den Koordina-
ten .x1 ; x2 /> des Punkts p i den Zeilenvektor
p7 p3
zi D .x12 ; x1 x2 ; x22 ; x1 ; x2 ; 1/:
10 Q. /
Dies ergibt insgesamt eine n 6 -Matrix als Koeffizientenma- p2
trix A unseres homogenen Gleichungssystems.
0 x1
Hierauf bestimmen wir das Matrizenprodukt A > A und p8
p1
suchen den kleinsten Eigenwert 1 dieser symmetrischen
Wir erhalten somit lauter Punkte y einer Quadrik, und anspruchsvolle Aufgaben, die fortgeschrittene Kon-
zwar eines Ellipsoids, nachdem alle Eigenwerte von A > A zepte (unter Umständen auch aus späteren Kapiteln)
positiv sind. Der kleinste Eigenwert bestimmt die längs- oder eigene mathematische Modellbildung benötigen
te Achse und damit als Eigenvektoren Normalvektoren der
Hyperebene E durch 0 mit der kürzeste Abstandsquadrat-
summe QE . Verständnisfragen
Kommentar Wie bei inhomogenen Gleichungssystemen ist 10.1 Welche der nachstehend genannten Polynome
auch im homogenen Fall festzuhalten, dass die Vervielfa- stellen quadratischen Formen, welche quadratische Funk-
chung einer einzelnen Gleichung die Matrix A und damit tionen dar:
das Ergebnis verändert. Von einer optimalen Näherungslö- (a) f .x/ D x12 7x22 C x32 C 4x1 x2 x3
sung können wir wieder nur sprechen, wenn die Zeilenvek- (b) f .x/ D x12 6x22 C x1 5x2 C 4
toren in der Koeffizientenmatrix längenmäßig ausgeglichen (c) f .x/ D x1 x2 C x3 x4 20x5
sind. (d) f .x/ D x12 x32 C x1 x4
10.2
Welche der nachstehend genannten Abbildun-
Aufgaben gen sind symmetrische Bilinearformen, welche hermite-
sche Sesquilinearformen?
(a) W C 2 C 2 ! C, .x; y/ D x1 y 1
Gelegentlich enthalten die Aufgaben mehr Angaben, als für
(b) W C 2 C 2 ! C, .x; y/ D x1 y 1 C x 2 y2
die Lösung erforderlich sind. Bei einigen anderen dage-
(c) W C C ! C, .x; y/ D x y
gen werden Daten aus dem Allgemeinwissen, aus anderen
(d) W C C ! C, .x; y/ D x y C y y
Quellen oder sinnvolle Schätzungen benötigt.
(e) W C 3 C 3 ! C, .x; y/ D x1 y2 x2 y1 C x3 y3
einfache Aufgaben mit wenigen Rechenschritten 10.3 Bestimmen Sie die Polarform der folgenden
mittelschwere Aufgaben, die etwas Denkarbeit und quadratischen Formen:
unter Umständen die Kombination verschiedener (a) W R3 ! R, .x/ D 4x1 x2 C x22 C 2x2 x3
Konzepte erfordern (b) W R3 ! R, .x/ D x12 x1 x2 C 6x1 x3 2x32
Aufgaben
405 10
10.4 Welche der folgenden Quadriken Q. / des 10.12 Transformieren Sie die folgenden Quadriken
A .R3 / ist parabolisch? Q. / des A .R3 / auf deren Hauptachsen und finden Sie
(a) .x/ D x22 C x32 C 2x1 x2 C 2x3 damit heraus, um welche Quadrik
p es sich
p handelt:
p
(b) .x/ D 4x12 C 2x1 x2 2x1 x3 x2 x3 C x1 C x2 (a) .x/ D x12 4x1 x2 C2 3 x2 x3 2 3 x1 C 3 x2 Cx3
(b) .x/ D 4x12 C 8x1 x2 C 4x2 x3 x32 C 4x3
(c) .x/ D 3x12 C 4x1 x2 4x1 x3 2x2 x3 30
Rechenaufgaben (d) .x/ D 13x12 10x1 x2 C 13x22 C 18x32 72
10.9 Transformieren Sie die folgenden Kegelschnit- Überprüfen Sie die Gleichungen ' ı ' C ı ' D ' und ' C ı
te Q. / auf deren Normalform und geben Sie Ursprung ' ı 'C D 'C.
und Richtungsvektoren der Hauptachsen an:
(a) .x/ D x12 C x1 x2 2 10.17 Berechnen Sie eine Näherungslösung des über-
p p bestimmten linearen Gleichungssystems
(b) .x/ D 5x12 4x1 x2 C 8x22 C 4 5 x1 16 5 x2 C 4
(c) .x/ D 9x12 24x1 x2 C 16x22 10x1 C 180x2 C 325 2x1 C 3x2 D 23:8
x1 C x2 D 9:6
10.10 Bestimmen Sie den Typ und im nicht para- x2 D 4:1
bolischen Fall einen Mittelpunkt der folgenden Quadriken
Q. / des A .R3 /: In der Absolutspalte stehen Messdaten von vergleichbarer
(a) .x/ D 8x12 C 4x1 x2 4x1 x3 2x2 x3 C 2x1 x3 Genauigkeit.
(b) .x/ D x12 6x22 C x1 5x2 .
(c) .x/ D 4x12 4x1 x2 4x1 x3 C 4x22 4x2 x3 C 4x32 Berechnen Sie in A .R2 / die Ausgleichsgerade
10.18
5x1 C 7x2 C 7x3 C 1 der gegebenen Punkte
1 3 4 4
10.11 Bestimmen Sie in Abhängigkeit vom Parameter p D ; p D ; p D ; p D ;
1 1 2 0 3 1 4 2
c 2 R den Typ der folgenden Quadrik Q. / des A .R /:
3
v Antwort 10.7
vAntwort 10.12
Die Signatur ist .1; 1; 0/. Mögliche diagonalisierende Ba-
Bei A C D .A > A/1 A > ist
sen sind
! !!
1 2 1 1 A A C A D A.A > A/1 .A > A/ D A
e
BD p ; p und
3 1 2 1
! !! und
1 1 1
e 0
B D ; p :
0 6 1 A C A A C D .A > A/1 .A > A/.A > A/1 A > D A C :
.x/ D .x; x/ D .x; x/ D .x/ D jj2 .x/: ist gleich ihrer Transponierten.
408 Kapitel 10 Quadriken – vielseitig nutzbare Punktmengen
v Antwort 10.13
Das Bild Im.'/ der linearen Abbildung 'W x 7! A x wird
von den Spaltenvektoren der Matrix A aufgespannt. Der
Vektor v ist orthogonal zu Im.'/, hat daher mit allen Spal-
tenvektoren von A ein verschwindendes Skalarprodukt,
also A > v D 0. Bei invertierbarem A > A können wir das
auch durch Nachrechnen bestätigen:
A > v D A > Ae
l A> b
D A > A.A > A/1 A > b A > b
D A > b A > b D 0:
kvk2 D v v D v> v D .e
l > A > b> / v
De
l > .A > v/ b> v D b v:
10
409
Serviceteil
Hinweise zu den Übungsaufgaben – 410
Stichwortverzeichnis – 425
Verständnisfragen Verständnisfragen
1.1 Bedenken Sie auch den Fall negativer Zahlen. 2.1 Ermitteln Sie zuerst das neutrale Element e und beach-
ten Sie, dass in jeder Zeile und jeder Spalte jedes Element
1.2 Zählen Sie die möglichen Belegungen einer entspre- genau einmal vorkommt.
chenden Wahrheitstafel!
2.2 Multiplizieren Sie die Gleichungen mit dem Inversen
Rechenaufgaben von a.
2.3 Füllen Sie erst die Tafel für die Multiplikation auf. Be-
1.3 Stellen Sie eine entsprechende Wahrheitstafel auf. gründen Sie, dass a b D 1 gilt.
1.6 Gehen Sie die vier Teilnehmer der Reihe nach durch: 2.6 Beachten Sie die Definitionen.
Nehmen Sie an, dass der Teilnehmer die Wahrheit sagt. Fin-
den Sie einen Widerspruch? 2.7 Beachten Sie die Definitionen.
1.7 Zeigen Sie die Gleichheit der angegebenen Mengen.
2.8 Beginnen Sie mit dem Erstellen der Verknüpfungstafel,
1.8 Zeigen Sie die Gleichheit der angegebenen Mengen. Sie erkennen dann, dass alle Elemente invertierbar sind und
Geben Sie für die zusätzliche Fragestellung ein Beispiel ei- ein neutrales Element existiert.
ner Abbildung an, bei der die angegebene Gleichheit nicht
gilt. 2.9 Begründen Sie, dass jede Untergruppe von .Z; C/ von
der Form .n Z; C/ ist.
1.9 –
1.10 Beachten Sie die Definitionen von injektiv und sur- 2.10 Das neutrale Element und die invertierbaren Elemente
jektiv. erkennt man an der Verknüpfungstafel. Das Assoziativge-
setz zeigt man durch direktes Nachprüfen.
1.11 Beachten Sie die Definitionen von injektiv und sur-
jektiv. 2.11 Man beachte die Division mit Rest.
1.16 Vergessen Sie nicht, die Wohldefiniertheit von f zu 2.13 (a) Nehmen Sie an, es gilt U1 6 U2 und U2 6 U1 .
zeigen. Führen Sie dies zu einem Widerspruch. (b) Benutzen Sie
den Teil (a). (c) Betrachten Sie z. B. die Klein’sche Vierer-
1.17 Zeigen Sie, dass symmetrisch ist. gruppe.
411
Hinweise zu den Übungsaufgaben
3.3 Man ermittle die Zeilenstufenform der erweiterten Ko- 4.2 Man beweise oder widerlege die Ausagen.
effizientenmatrix.
4.3 Wenden Sie das Kriterium für lineare Unabhängigkeit
3.4 Man suche ein Gegenbeispiel.
an.
3.5 Beachten Sie, dass die Abbildung Z ! Zp mit z 7! z
bei z z .mod p/ im Sinne des 7 Abschn. 2.2 hinsicht- 4.4 Wenden Sie das Kriterium für lineare Unabhängigkeit
lich der Addition und der Multiplikation verknüpfungstreu an.
ist.
4.5 Prüfen Sie für jede Menge nach, ob sie nichtleer ist
3.6 Transformieren Sie zunächst das System über R in und ob für je zwei Elemente auch deren Summe und zu
Zeilenstufenform. Achten Sie gleichzeitig darauf, welche jedem Element auch das skalare Vielfache davon wieder in
Divisionen in Restklassenkörpern nicht erlaubt wären. der entsprechenden Menge liegt.
3.7 Bringen Sie die erweiterte Koeffizientenmatrix auf 4.6 Prüfen Sie für jede Menge nach, ob sie nichtleer ist
Zeilenstufenform. und ob für je zwei Elemente auch deren Summe und zu
jedem Element auch das skalare Vielfache davon wieder in
der entsprechenden Menge liegt.
Rechenaufgaben
4.7 Geben Sie zur Standardbasis des Rn einen weiteren
Vektor an.
3.8 Benutzen Sie das Eliminationsverfahren von Gauß
oder das von Gauß und Jordan.
4.8 Suchen Sie ein Gegenbeispiel.
3.9 Bringen Sie die erweiterte Koeffizientenmatrix auf
Zeilenstufenform und unterscheiden Sie dann verschiede-
ne Fälle für a. Rechenaufgaben
3.11 Führen Sie das Eliminationsverfahren von Gauß 4.10 Überprüfen Sie die Menge auf lineare Unabhängig-
durch. keit.
3.12 Wenden Sie elementare Zeilenumformungen auf die 4.11 Überprüfen Sie die angegebenen Vektoren auf lineare
erweiterte Koeffizientenmatrix an und beachten Sie jeweils, Unabhängigkeit.
unter welchen Voraussetzungen an a und b diese zulässig
sind. 4.12 Zeigen Sie, dass die Menge einen Untervektorraum
des Rn bildet. Betrachten Sie für Basisvektoren Elemente
3.13 Man zerlege die Kraft F in drei Kräfte F a , F b und von U , die abgesehen von einer 1 und einer 1 nur Nullen
F c in Richtung der Stäbe. als Komponenten haben.
412 Hinweise zu den Übungsaufgaben
4.17 Betrachten Sie die Summanden in der folgen- 5.10 Der Richtungsvektor von G ist ein Normalvektor
den Darstellung von f : f .x/ D 12 .f .x/ C f .x// C von E.
2 .f .x/ f .x//.
1
6.7 Bestimmen Sie das Bild von ' und beachten Sie die Kapitel 7
Dimensionsformel.
6.9 Beachten Sie das Injektivitätskriterium. 7.1 Nehmen Sie an, dass det.A/ ¤ 0 ist und zeigen Sie,
dass Sie dadurch einen Widerspruch erhalten; zu welchen
6.10 In der i-ten Spalten der Darstellungsmatrix steht der Aussagen ist det.A/ ¤ 0 äquivalent?
Koordinatenvektor des Bildes des i-ten Basisvektors.
7.2 Man beachte die Regeln in der Übersicht.
6.11 –
7.3 Beachte die Übersicht.
6.12 Beachten Sie die Basistransformationsformel.
7.5 Verwenden Sie die Regeln aus 7 Abschn. 7.3. 8.3 Zeigen Sie, dass die charakteristischen Polynome der
beiden Matrizen A und A > gleich sind.
7.6 Nutzen Sie aus, dass die Summen der Zeilen/Spalten
gleich sind. 8.4 Geben Sie ein Gegenbeispiel an.
7.7 Bestimmen Sie die Determinante der Tridiagonalma- 8.5 Betrachten Sie für (a) das charakteristische Polynom
trix durch Entwicklung nach der ersten Zeile und denken von A:
Sie an die Fibonacci-Zahlen.
A D .1/n X n C C a1 X C a0 :
7.8 Beachten Sie die Determinantenregeln.
Was gilt für a0 ? Setzen Sie die Matrix A ein. Für den Teil
7.9 Unterscheiden Sie nach den Fällen n gerade und n un- (b) betrachte man das charakteristische Polynom von B
gerade. für eine Wurzel B von A und zeige Sp B 2 D .Sp B/2
2 det B.
7.10 Beachten Sie die Definition der Determinante eines
Endomorphismus. 8.6 Betrachten Sie .A En / A.
Beweisaufgaben Rechenaufgaben
7.11 Man beachte die Formeln zur Adjunkten. 8.7 Bestimmen Sie das charakteristische Polynom, dessen
Nullstellen und dann die Eigenräume zu den so ermittelten
7.12 Die Identitäten weisen Sie direkt nach, für die Eigenwerten.
Berechnung der Determinante ziehen Sie z. B. die Leib-
niz’sche Formel heran. 8.8 Bestimmen Sie die Eigenwerte, Eigenräume und wen-
den Sie das Kriterium für Diagonalisierbarkeit an.
2
7.13 Wenn man in jeder der n Positionen x addiert, so
wird aus der Determinante eine lineare Funktion in der 8.9 Diagonalisieren Sie die Darstellungsmatrix von ' be-
Variablen x, die deshalb durch ihre Werte an zwei verschie- züglich der Standardbasis.
denen Stellen bestimmt ist.
8.10 Beachten Sie die Beispiele zur Bestimmung einer Jor-
7.14 Führen Sie einen Beweis mit vollständiger Induktion dan-Basis im Text und gehen Sie analog vor.
über die Anzahl der Elemente aus f1; : : : ; ng, die unter
nicht fest bleiben.
Beweisaufgaben
7.15 Begründen Sie beim Teil (a), dass A ˝ B eine obere
Blockdreiecksmatrix ist und berechnen Sie dann die Deter-
8.11 Zeigen Sie die Behauptung duch vollständige Induk-
minante von A ˝B. Benutzen Sie dann die Aussage (a) um
tion.
(b) zu beweisen, indem Sie A durch elementare Zeilenum-
formungen auf eine obere Dreiecksmatrix transformieren.
8.12 Vollständige Induktion nach k.
7.16 Geben Sie A n explizit an und ziehen Sie jeweils die
i-te Zeile von der i C 1-ten Zeile ab. 8.13 Wenden Sie den Determinantenmultiplikationssatz an
und zeigen Sie, dass es nur eine Möglichkeit für einen Ei-
genwert der Matrix geben kann. Der Fundamentalsatz der
Kapitel 8 Algebra besagt dann, dass dieser Eigenwert auch tatsäch-
lich existiert. Für die Aussage in (c) beachte man den Satz
von Cayley-Hamilton.
Verständnisfragen
8.14 Benutzen Sie, dass jeder Vektor bezüglich einer Basis
8.1 Bilden Sie das Produkt von A 2 bzw. A 1 mit dem Ei- (aus Eigenvektoren) eindeutig darstellbar ist.
genvektor.
8.15 Unterscheiden Sie die Fälle, je nachdem, ob 0 ein Ei-
8.2 Betrachten Sie .A En / .A C En /. genwert von A B ist oder nicht.
415
Hinweise zu den Übungsaufgaben
8.17 Begründen Sie: Ist v 2 Eig' ./, so gilt .v/ 2 9.15 Gehen Sie wie im euklidischen Fall vor.
Eig' ./.
9.16 Benutzen Sie die Cauchy-Schwarz’sche Unglei-
chung.
Kapitel 9
9.17 Für (a)Pist nur P 2i D P i nachzuweisen. Für (b) be-
Verständnisfragen gründen Sie n
'P i D idV .
i D1
9.1 Man beachte die Definition eines euklidischen Skalar- 9.18 Beachten Sie den Beweis zum Kriterium der positiven
produkts. Definitheit.
9.2 Man suche ein Gegenbeispiel.
9.19 Schreiben Sie einen Vektor v 2 Kn in der Form v D
9.3 Transponieren und konjugieren Sie die Matrix B. v A v C A v.
9.4 Man beachte das Kriterium für Definitheit. 9.20 Zeigen Sie, dass aus dem Ansatz Q R D Q0 R 0 folgt
R D R 0 und Q D Q0 . Beachten Sie hierzu, dass das Pro-
dukt und das Inverse oberer Dreiecksmatrizen wieder eine
Rechenaufgaben obere Dreiecksmatrix ist.
9.5 Bestimmen Sie die Eigenwerte von A, dann eine Basis 9.21 Zeigen Sie, dass die Abbildung W V ! V mit
des R3 aus Eigenvektoren von A und orthonormieren Sie .v/ D .v u/ u, v 2 V , für jedes v aus V das gleiche Bild
schließlich diese Basis. Wählen Sie schließlich die Matrix der orthogonalen Projektion hat.
S , deren Spalten die orthonormierten Basisvektoren sind.
>
9.22 Begründen Sie die Gleichung .eiA / eiA D En .
9.6 Verwenden Sie das Orthonormierungsverfahren von
Gram und Schmidt.
9.23 Beachten Sie, dass sich ein selbstadjungierter Endo-
9.7 Bestimmen Sie alle Vektoren v D .vi /, welche die morphismus ' orthogonal diagonalisieren lässt, und wählen
Bedingungen v ? v1 und v ? v2 und kvk D 1 erfüllen. Sie eine Orthonormalbasis aus Eigenvektoren von '.
9.12 Beachten Sie das entsprechende Beispiel im Text. 10.4 Beachten Sie bei der Klassifikation der Quadriken das
0 Kriterium für den parabolischen Typ sowie die Definition
9.13 L.p/ D .1 x 2 /p 0 und partielle Integration. des Mittelpunkts.
416 Hinweise zu den Übungsaufgaben
10.5 Verwenden Sie den in 7 Abschn. 10.1 erklärten Al- 10.16 Wählen Sie b3 2 Ker.'/ (siehe . Abb. 10.22) und
gorithmus und reduzieren Sie die Einheitsmatrix bei den ergänzen Sie zu einer Basis B mit b ; b 2 Ker.'/? . Eben-
1 2
Spaltenoperationen mit. so ergänzen Sie im Zielraum '.b1 /; '.b2 / 2 Im.'/ durch
einen dazu orthogonalen Vektor b03 2 Ker.' / zu einer
10.6 Hier ist der Algorithmus aus 7 Abschn. 10.1 mit den Basis B 0 . Dann ist ' C durch '.bi / 7! bi , i D 1; 2, und
Zeilenoperationen und den jeweils gleichartigen, allerdings b0 7! 0 festgelegt.
3
konjugiert komplexen Spaltenoperationen zu verwenden.
10.17 Lösen Sie die Normalgleichungen.
10.7 Suchen Sie zunächst einen Basiswechsel, welcher die
auf R2 definierte quadratische Form .x/ D x1 x2 diagona- 10.18 G ist die Lösungsmenge einer linearen Gleichung
lisiert. l.x/ D u0 C u1 x1 C u2 x2 mit drei zunächst unbekannten
Koeffizienten u0 ; u1 ; u2 . Die gegebenen Punkte führen auf
10.8 Die gesuchte orthonormierte Basis H besteht aus Ei- vier lineare homogene Gleichungen für diese Unbekannten.
genvektoren der Darstellungsmatrix von . Dabei ist der Wert l.pi / proportional zum Normalabstand
des Punkts p i von der Geraden G (beachten Sie die Hes-
10.9 Folgen Sie den Schritten 1 und 2 aus 7 Abschn. 10.3. se’sche Normalform in 7 Abschn. 5.4).
10.10 Die Bestimmung des Typs ist auch ohne Hauptach-10.19 P ist die Nullstellenmenge einer quadratischen
.x/ Funktion x2 D ax1 C bx1 C c. Jeder der gegebenen Punkte
2
sentransformation möglich. Achtung, im Fall b) ist
als Funktion auf dem A .R3 / aufzufassen. führt auf eine lineare Gleichung für die unbekannten Koef-
fizienten.
10.11 Beachten Sie das im Zusammenhang mit der Klas-
sifikation der Quadriken angegebene Kriterium.
Beweisaufgaben
10.12 Folgen Sie den Schritten 1 und 2 aus
7 Abschn. 10.3. 10.20 Beachten Sie die Assoziativität der Matrizenmulti-
plikation.
10.13 Beachten Sie die Aufgabe 10.7.
10.21 Beachten Sie Aufgabe 10.20.
10.14 Nach den Resultaten des 7 Abschn. 10.4 sind die
Singulärwerte die Wurzeln aus den von null verschiedenen 10.22 Untersuchen Sie die Wirkung der Endomorphismen
Eigenwerten der symmetrischen Matrix A > A. auf eine Basis von Eigenvektoren.
417
Verständnisfragen Verständnisfragen
1.4 – 2.2 –
2.3
Beweise C 0 1 a b 0 1 a b
0 0 1 a b 0 0 0 0 0
1 1 0 b a 1 0 1 a b
1.5 –
a a b 0 1 a 0 a b 1
1.6 Herr Grün war der Täter. b b a 1 0 b 0 b 1 a
2.4 Nein.
1.7 –
2.5 Nur im Nullring f0g.
1.8 –
1.9 – Rechenaufgaben
1.10 –
2.6 (a) Die Verknüpfung ist nicht assoziativ, nicht kommu-
1.11 – tativ, es gibt kein neutrales Element. (b) Die Verknüpfung
ist assoziativ, kommutativ, 1 ist ein neutrales Element.
1.12 – (c) Die Verknüpfung ist assoziativ, kommutativ, es gibt kein
neutrales Element. (d) Die Verknüpfung ist assoziativ, kom-
1.13 – mutativ, es gibt kein neutrales Element.
2.9 Es ist fn Z j n 2 N0 g die Menge aller Untergruppen 3.9 Für a D 1 gibt es keine Lösung. Für a D 2 und
von Z D .Z; C/. a D 3 gibt es unendlich viele Lösungen. Für alle anderen
reellen Zahlen a gibt es genau eine Lösung. Im Fall a D 0
2.10 – ist dies .L D f.1; 0; 0/g, und im Fall a D 2 ist L D f. 13 C
1
3
t; t; 0/ j t 2 Rg die Lösungsmenge.
2.11 (a) 2 X 3 X 4 X 5 X C 6 D .2 X C 3 X C
4 3 2 2
3/ .X 2 3 X C 1/ C .X C 3/.
3.10 Die Lösungsmengen sind
(b) X 4 2 X 3 C 4 X 2 6 X C 8 D .X 3 X 2 C 3 X
a) L D f.3 C 2 i; 1 C 2 i; 3 i/g.
3/ .X 1/ C 5.
b) L D f 51 .3 C i; 3 4 i; 3 C 6 i/g.
c) L D .4 3 i; 2 i; 5 C i/ C.
2.12 P D X 6 6 X 4 4 X 3 C 12 X 2 24 X 4 2 ZŒX.
2.13 –
3.12 Das Gleichungssystem ist für alle Paare .a; b/ der Hy-
perbel H D f.a; b/ j b 2 a .a C 2/ D 0g nicht lösbar. Für
2.14 –
alle anderen Paare .a; b/ 2 R2 n H DW G ist das System
lösbar. Bei a ¤ 2 ist die Lösung eindeutig; bei a D 2, d. h.
2.15 –
für alle Paare .a; b/ D .2; b/ 2 G, gibt es unendlich viele
Lösungen.
Kapitel 3
3.13 F a D .12; 6; 30/, F b D .10; 10; 20/, F c D
.2; 4; 6/.
Verständnisfragen
3.1 Ja.
Beweisaufgaben
3.2 Nein.
3.14 –
3.3 Ja.
3.15 –
3.4 Nein.
und in Z3 4.2 Die Aussagen in (a) und (b) sind falsch, die Aussage
in (c) ist richtig.
L D f.0; 2; 0/; .0; 1; 1/; .0; 0; 2/g:
3.8 Das System a) ist nicht lösbar; die Lösungsmenge des 4.6 U2 ; U3 und U5 sind keine Untervektorräume, U1 ; U4
Systems b) lautet L D f. 13 .1t/; 1
3
.1C4 t/; t/ j t 2 Rg. und U5 hingegen schon.
419
Lösungen zu den Übungsaufgaben
4.7 Ja, es ist A D fe 1 ; : : : ; e n ; vg mit den Standard-Ein- 5.2 Es gibt zwei Lösungen,
heitsvektoren e 1 ; : : : ; e n und v D e 1 C C e n eine solche 0 1 0 1
Menge. 0 0 1 0 1 0
A 1 D @1 0 0A und A 2 D @0 0 1A D A 21 :
0 1 0 1 0 0
4.8 Nein, die Formel für dim.U C V C W / gilt nicht.
Keine uneigentlich orthogonale Matrix kann diese Bedin-
gungen erfüllen.
Rechenaufgaben
5.3 Es gibt vier Lösungen, wobei in den folgenden Darstel-
lungen einmal die oberen, einmal die unteren Vorzeichen zu
4.9 Alle Aussagen sind richtig.
wählen sind:
0 1
4.10 Ja, die Menge bildet eine Basis. 1 2 2
1
M 1;2 D @˙2 1 2A
3 2 ˙2 ˙1
4.11 Die Standardbasis E4 D fe 1 ; e 2 ; e 3 ; e 4 g ist eine Basis
0 1
von U . ˙5 10 10
1 @
M 3;4 D ˙14 5 2A
15 2 ˙10 ˙11
4.12 Es ist
80 1 0 1 0 19 5.4 Die zugehörige Drehmatrix lautet:
ˆ 1 0 0 >
ˆ >
ˆ
ˆB 0C B1C B 0 C> > 0 1
ˆ
<B C B C B C> = 2 1 2
B :: C B :: C B :: C 1
B WD B C ; B
: C B : C C ; : : : ; B C Rb D @ 2 2 1A
ˆ B B : C>
ˆ @ 1 A>
d;' 3 1
ˆ
ˆ@ 0A @0A >
> 2 2
:̂ >
;
1 1 1
Die Koordinatenvektoren der verdrehten Würfelecken sind
die Spaltenvektoren in
eine Basis von U , insbesondere gilt dim.U / D n 1.
0 1
0 2 1 1 2 4 3 1
1
4.13 Die Dimension ist 3. @0 2 4 2 1 1 3 1A
3 0 1 1 2 2 1 3 4
4.14 Die Vektoren c; d sind genau dann linear unabhängig,
5.5 Bei Benützung der üblichen Abkürzungen s ' und c '
falls ¤ 0 gilt.
für den Sinus und Kosinus des Drehwinkels lautet die Dreh-
matrix R d;' :
0 1
Beweisaufgaben .1 d12 / c ' C d12 d1 d2 .1 c '/ d3 s ' d1 d3 .1 c '/ C d2 s '
Bd d .1 c '/ C d s ' .1 d2 / c ' C d2
2 2
d2 d3 .1 c '/ d1 s ' C
@ 1 2 3 A
d1 d3 .1 c '/ d2 s ' d2 d3 .1 c '/ C d1 s ' .1 d32 / c ' C d32
4.15 –
Rechenaufgaben
4.16 –
5.6
4.17 –
kuk D 3; kvk D 15; cos ' D 8=45; ' 79:76ı
0 1
33 p
4.18 –
u v D @26A ; ku vk D 1961:
14
Kapitel 5 5.7
E1 W x2 C 2x3 8 D 0
Verständnisfragen
E2 W x1 C 2x3 5 D 0
5.1 ˚ Jede weitere Ebenengleichung ist eine Linearkombination
.n1 C n2 / x D k1 C k2 j .; / 2 R2 n f.0; 0/g : dieser beiden.
420 Lösungen zu den Übungsaufgaben
5.17
1 1 6.2 (a) Nein. (b) Ja.
cos ˛ D p ; sin ˛ D p ; ˛ D 45ı ;
2 2
p
1 2 2 6.3 Ja.
cos ˇ D ; sin ˇ D ; ˇ 70:53ı;
3 3
1 1 6.4 (a) Wahr, (b) wahr, (c) falsch, (d) wahr.
cos D p ; sin D p ; D 315ı :
2 2
5.18 0 1 Rechenaufgaben
1 0 0 0
B3 0 0 1C
D DB
@ 1
C
1 0 0A 6.5 (a) '1 ist nichtlinear. (b) '2 ist linear. (c) '3 ist nicht
2 0 1 0 linear.
421
Lösungen zu den Übungsaufgaben
0 0 0 0
0 1 Beweisaufgaben
0 0 0 0
d B1 0 0 0 C
BM DB @0 1 0 0 A
C
dX B 6.15 –
0 0 1 0
6.16 Ja.
6.11 0 1
2 1 6.17 –
@
B M .'/E2 D 2 1 A;
6.18 –
1 1
0 1
5 2 2 6.19Es ist f.1; 0; 1; 2/> ; .1; 0; 0; 1/> g eine Basis von
B3 0 1C U \W.
B
C M . /B D @
C;
2 1 1A
6.20 Es ist En CB.En AB/1 A das Inverse zu En BA.
3 0 1
0 1
8 5 6.21 –
B7 4C
B
C M . ı '/E2 D @
C 6.22 –
3 2A
7 4
Kapitel 7
6.12 (b) Es gilt
0 1 Verständnisfragen
1 0 0
B M .'/B D @ 0 2 0A und
0 0 3 7.1 –
0 1
2 1 2 7.2 Ja.
S D @2 1 1A
3 1 1 7.3 Ja.
422 Lösungen zu den Übungsaufgaben
Rechenaufgaben Rechenaufgaben
7.4 det.A/ D a b c d: 8.7 (a) Es 2 der einzige Eigenwert von A, und jeder
ist
1
Vektor aus n f0g ist ein Eigenvektor zum Eigenwert
7.5 det A D 21, det B D 0. 1
2 von A.
7.6 Die Determinante ist null. (b) Es sind
˙1 die beiden Eigenwert von B, und jeder
1
Vektor aus n f0g ist ein Eigenvektor zum Eigenwert
7.7 Die Determinante ist die Rekursionsformel für die Fi- 1
bonacci-Zahlen. 1
1 von B, und jeder Vektor aus n f0g ist ein Eigen-
1
7.8 Bei (a) und (c) handelt es sich um Multiplinearformen, vektor zum Eigenwert 1 von B.
bei (b) hingegen nicht.
8.8 (a) Die Matrix A ist nicht diagonalisierbar. (b) Die
n.n1/
7.9 det A D .1/ 2 d1 d2 : : : dn . Matrix B ist diagonalisierbar. (c) Die Matrix ist diagona-
lisierbar.
7.10 Es gilt det.'/ D 15. 0 1
1 0 a2 2 a3
B0 1 2 a 3 a2 C
8.9 (b) E3 M.'/E3 D B @
C
Beweisaufgaben 0 0 0 0 A
0 0 0 0
(c) Es ist B D .a2 2 a X C X 2 ; 2 a3 3 a2 X C
7.11 –
X 3 ; 1; X/ eine geeignete geordnete Basis, es gilt:
7.12 Es gilt det P 2 f˙1g. 0 1
0 0 0 0
B0 0 0 0C
7.13 – B
B M.'/B D @
C
0 0 1 0A
0 0 0 1
7.14 – 0 1
1 0
8.10 (a) Im Fall a 2 R n f1g gilt J D @0 3 0 A,
7.15 – 0 1
1 1 0 0 0 aC2
7.16 –
im Fall a D 1 gilt J D @0 1 0A
0 0 3
(b) Im Fall a D 1 ist B D f.1; 1; 1/> ; .3; 0; 2/> ;
Kapitel 8 .1; 2; 0/> g eine Jordan-Basis. Im Fall a D 1 ist B D
f.1; 1; 1/> ; .3; 3; 3/> ; .0; 0; 1/> g eine Jordan-Basis.
Verständnisfragen
Beweisaufgaben
8.1 (a) Ja, zum Eigenwert 2 . (b) Ja, zum Eigenwert 1 .
8.11 –
8.2 –
8.12 –
8.3 Die Matrizen A und A > haben dieselben Eigenwerte
und auch jeweils dieselben algebraischen und geometri-
schen Vielfachheiten. 8.13 Die Matrix hat den n-fachen Eigenwert 0.
0 1
1 10 2 8.15 –
0 2
8.5 A 1 D @0 1 0A, B D .
1 3
0 3 1 8.16 –
8.6 – 8.17 –
423
Lösungen zu den Übungsaufgaben
0 1
Kapitel 9 0 0 2 0
B0 2 0 6 C
9.13 (b) Es gilt A D B @0 0 6
C. (c) .1; X; 1
Verständnisfragen 0 A
0 0 0 12
3X 2 ; 3X 5X 3 /. (d) f1g ist eine Basis von ker L. fX; 1
9.1 Das erste Produkt ist kein Skalarprodukt, das zweite
3X 2 ; 3X 5X 3 g ist eine Basis von L.RŒX3 /.
schon.
9.16 –
Rechenaufgaben
9.17 –
0 p p 1
3 1 2 9.18 –
Bp p C
9.5 Es ist S D p1
6
@ 3 1 p2A
0 2 2 9.19 –
q q q 9.20 –
9.6 (a) Es ist f p1 ; X; 45
8
3
.X
2
2
1
3
/; 175
8
.X 3 35 X/g
2
eine Orthonormalbasis von Vq. 9.21 –
(b) Der Abstand beträgt 32 5
.
9.22 –
8 0 1 9
< i' i =
9.7 e
p @1A j ' 2 Œ0; 2 Œ . 9.23 –
: 3 ;
1
p Kapitel 10
9.8 Der minimale Abstand ist 2.
Verständnisfragen
9.9 Die Näherungsfunktion f lautet
10.1 d) ist eine quadratische Form; b), c) und d) sind qua-
2 t 2 t
f D 0:93 C 0:23 cos C 0:46 sin : dratische Funktionen.
12 12
9.10 Ja, sie ist ähnlich zu 10.2 a) ist hermitesch. Es kommt hier keine symmetrische
Bilinearform vor.
i˛
e 0 >
D S D˛ S : 10.3 a) .x; y/ D 2x1 y2 C 2x2 y1 C x2 y2 C x2 y3 C x3 y2
0 ei˛
b) .x; y/ D x1 y1 12 x1 y2 12 x2 y1 C 3x1 y3 C 3x3 y1
9.11 (a) Die Einheitskreislinie wird auf eine Ellipse mit 2x3 y3 .
den
2und 8 abgebildet. (b) Die zwei Geraden 10.4 b) ist parabolisch.
Halbachsen
1 1
und werden auf sich abgebildet.
1 1
0 1 01 11
1 0 0 2
0 2
10.11 Q. / ist bei c D 1 ein quadratischer Kegel, bei c D
a) M B ./ D 0
0 @ 1 0 A, B T B 0 D @ 0 1 1A 0 ein hyperbolisches Paraboloid und sonst ein einschaliges
0 0 1 0 1 0 Hyperboloid.
0 1 0 1
1 0 0 1 1 1 p p
10.12 a) 3x10 2 C . 2 1/x20 2 . 2 C 1/x30 2 11
D 0.
b) M B 0 ./ D @0 1 0 A, B T B 0 D @1 1 1A 6
Q. / p
ist einpeinschaliges Hyperboloid.
0 0 1 0 0 1 6.3C 105/ x 0 2
p p
6. 1053/ x 0 2
b) 8
1
8
2
C 2x3 D 0. Q. / ist
Die Signatur .p; r p; n r/ lautet in a) .2; 1; 0/, in b) ein hyperbolisches Paraboloid.
.1; 2; 0/. c) 5x10 2 x20 2 x30 2 30. Q. / ist ein zweischaliges
Drehhyperboloid.
10.6 Die diagonalisierte Darstellungsmatrix und eine zu- x0 2 x0 2 x0 2
d) 91 C 42 C 43 1 D 0. Q. / ist ein linsenförmiges
gehörige Transformationsmatrix lauten:
Drehellipsoid.
0 1
1 0 0
M B 0 ./ D @0 1 0A ; 10.13 Q. 0 / ist von Typ 1, Q. 1 / von Typ 2 mit n D r D
0 0 0 6, p D 3.
0 p p 1
1= 2 i= 2 0 p p
B p C 10.14 Die Singulärwerte sind 10 2, 5 2 und 5.
B TB0 D @ 0 1= 2 0A
0 0 1 10.15 0 1 0 p 1
2 4 4 6 2 0 0
Die Signatur von ist .p; r p; n r/ D .1; 1; 1/. AD@ 6 6 3 ADU@ 0 9 0A V >
2 4 4 0 0 0
10.7 Der Rang ist 6, die Signatur .3; 3; 0/.
0 1
1 0 1
1 @ p
10.8 U D p 0 2 0 A;
a) .x/ D 10x30 2 4x20 2 , .p; r p; n r/ D .1; 1; 1/, 2 1 0 1
b) .x/ D 3x10 2 C 6x30 2 , .p; r p; n r/ D .2; 0; 1/, 0 1
c) .x/ D 2x10 2 C2x20 2 C8x30 2 , .p; r p; nr/ D .3; 0; 0/. 1 2 2
1
V> D @ 2 2 1A
10.9 a) 3 2 1 2
p p
1 C 2 02 1 2 02
.x/ D x1 C x2 1:
4 4 10.16 0 1 0 10 01
y1 5 5 0 y1
Mittelpunkt ist p0, die Hauptachsen haben die Richtung der C @y A 1 @ A @
' W 2 D 2 2 4 y20 A :
Vektoren .1 ˙ 2; 1/> . p 10
y3 1 1 2 y30
b) .x/ D 14 x10 2 C 19 x20 2 1. Mittelpunkt .0; 5/> ,
Hauptachsen in Richtung von .2; 1/> und .1; 2/> . 10.17 x1 D 5:583, x2 D 4:183.
c) .x/ D 12 x10 2 2x2 mit dem Ursprung p D
.9; 3/> und den Achsenrichtungen .3; 4/> und 10.18 GW 0:34017 x C 0:33778 x C 0:87761 D 0.
1 2
.4; 3/> .
10.19 P W x2 D 5
12
x12 235
156
x1 C 263
52
.
10.10 a) Q. / ist kegelig (Typ 1) mit Mittelpunkt beliebig
auf der Geraden G D .t; 12 2t; 2t/> , t 2 R. Wegen
.x/ D .2x1 x3 /.4x1 C 2x2 C 1/ besteht Q. / aus zwei
Ebenen durch G.
Beweisaufgaben
b) Q. / ist eine Quadrik vom Typ 2 mit Mittelpunkt
auf der Geraden . 12 ; 12
5
; t/> , t 2 R, und zwar ein hyper- 10.20 –
bolischer Zylinder mit Erzeugenden parallel zur x3 -Achse.
c) Q. / ist parabolisch (Typ 3), und zwar wegen der 10.21 –
Signatur .2; 0; 1/ der quadratischen Form ein elliptisches
Paraboloid. 10.22 –
425 A–D
Stichwortverzeichnis
S T
Sarrus, Regel von 138, 226 Teilkörper 49
Satz des Pythagoras 128 Teilmenge 6
Satz von Cayley 40 Teilraum
Satz von Lagrange 37 – affin 124
Scheitel der Quadrik 384 Teilring 55
schiefhermitesch 353 Tetraeder
Schiefkörper 47 – regulär 140
Schmidt’sches Orthonormierungsverfahren 322 Trägheitssatz für Sesquilinearformen 377
selbstadjungiert 344 Trägheitssatz von Sylvester 373
senkrecht 319 Transformation 291
Sesquilinearform 332, 374 Transformationsmatrix 152
– hermitesch 374 – erweitert 160
Signatur 373, 374 transitiv 21
Signum 41, 225 Translation 150
singuläre Matrix 203 Transponierte 200
Singulärwert 393 Transposition 225
Singulärwertzerlegung 392–395 Triangulierbarkeit
Skalarprodukt 127 – Kriterium 275
– ausgeartet 330 triviale Untergruppe 36
– euklidisch 308
– kanonisches 128, 307, 308 U
– Standard- 307
überabzählbare Menge 17
– unitär 331
Umkehrabbildung 19
Skalierung 394
Unbestimmte 57
Spalte 75
ungerade Permutationen 225
Spaltenrang 183
unitärer Endomorphismus 333
Spaltenraum 183
Untergruppe 36
Spat 139
– echt 36
Spatprodukt 138
– trivial 36
– Volumen 139
Untergruppenkriterium 36
Spektralsatz
Unterkörper 49
– für euklidische Räume 356
Urbild 13
– für normale Matrizen 356
Urbildmenge 13
– für symmetrische Matrizen 357
– für unitäre Räume 355
Spektrum 356 V
spezielle lineare Gruppe 238 Vandermonde-Matrix 242
Spiegelung 337 Vektor
Spiegelung an Ebene 152 – Abstand 317
Spur einer Matrix 256 – Distanz 317
Standardbasis 130 – isotrop 330
Standardnorm 128 – Länge 307, 314, 333
Standardskalarprodukt 307 – negativ orientiert 243
Stelle – Norm 307, 314, 333
– Matrix 75 – normieren eines 127
Stufe – Normierung 321
– Zeilenstufenform 76 – orthogonal 319, 330, 334
Stufenform 72 – positiv orientiert 243
Stützstellen 241 – senkrecht 319, 330, 334
Subjunktion 3 – Winkel 318
Summe Vektorprodukt 134
– orthogonal 326 Vektorraum
Surjektion 15 – euklidisch 308
surjektiv 15 – unitär 331
symmetrisch 21 verallgemeinerter Eigenraum 288
symmetrische Bilinearform 364 Vereinigung 11
– Darstellungsmatrix 367 Vereinigung von Mengen 8
– entartet 370 Verkettung 17
– nicht entartet 370 Verknüpfung 32
– Normalform 373 Vielfachheit
431 R–Z
Stichwortverzeichnis
– algebraische 262 Z
– geometrische 262 Zahlenmengen 6
Volumen Zeile 75
– orientiert 140 Zeilenrang 183
Zeilenraum 183
W Zeilenstufenform 76
Zeilenumformungen, elementare 73
Wahrheitstafel 2 Zorn’sches Lemma 23
Wertebereich 12 Zylinder
Wertemenge 12 – elliptisch 388
Winkel 318 – hyperbolisch 388
– zwischen Vektoren 318 – parabolisch 389
springer.com
Willkommen zu den
Springer Alerts
Jetzt
•• Unser Neuerscheinungs-Service für Sie:
anmelden!
aktuell *** kostenlos *** passgenau *** flexibel