Sie sind auf Seite 1von 407

Grundkurs Mathematik

Gerd Fischer

Lineare
Algebra
Eine Einführung
für Studienanfänger
. Auflage
Grundkurs Mathematik

Berater

Prof. Dr. Martin Aigner,


Prof. Dr. Peter Gritzmann,
Prof. Dr. Volker Mehrmann,
Prof. Dr. Gisbert Wüstholz
Die Reihe "Grundkurs Mathematik" ist die bekannte Lehrbuchreihe im
handlichen kleinen Taschenbuch-Format passend zu den mathematischen
Grundvorlesungen, vorwiegend im ersten Studienjahr. Die Bücher sind di-
daktisch gut aufbereitet, kompakt geschrieben und enthalten viele Beispiele
und Übungsaufgaben.

In der Reihe werden Lehr- und Übungsbücher veröffentlicht, die bei der
Klausurvorbereitung unterstützen. Zielgruppe sind Studierende der Ma-
thematik aller Studiengänge, Studierende der Informatik, Naturwissen-
schaften und Technik, sowie interessierte Schülerinnen und Schüler der
Sekundarstufe II.

Die Reihe existiert seit 1975 und enthält die klassischen Bestseller von Otto
Forsterund Gerd Fischer zur Analysis und Linearen Algebra in aktualisier-
ter Neuauflage.
Gerd Fischer

Lineare Algebra
Eine Einführung
für Studienanfänger

18., aktualisierte Auflage

~ Springer Spektrum
Prof. Dr. Gerd Fischer
Technische Universität München, Deutschland
gfischer@ma.tum.de

ISBN 978-3-658-03944-8 ISBN 978-3-658-03945-5 (eBook)


DOI 10.1007/978-3-658-03945-5
Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen
Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über
http:/ I dnb.d-nb.de abrufbar.

Springer Spektrum
©Springer Fachmedien Wiesbaden 1975, .. , 2003, 2005, 2008, 2010, 2014
Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Ver-
wertung, die nicht ausdrücklich vom Urheberrechtsgesetz zugelassen ist, bedarf
der vorherigen Zustimmung des Verlags. Das gilt insbesondere für VervieWilti-
gungen, Bearbeitungen, Übersetzungen, Mikroverfilmungen und die Einspeiche-
rung und Verarbeitung in elektronischen Systemen.

Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen


usw. in diesem Werk berechtigt auch ohne besondere Kennzeichnung nicht zu der
Annahme, dass solche Namen im Sinne der Warenzeichen- und Markenschutz-
Gesetzgebung als frei zu betrachten wären und daher von jedermann benutzt wer-
den dürften.

Planung und Lektorat: Ulrike Schmickler-Hirzebruch I Barbara Gerlach

Gedruckt auf säurefreiem und chlorfrei gebleichtemPapier.

Springer Spektrum ist eine Marke von Springer DE. SpringerDE ist Teil der Fach-
verlagsgruppe Springer Science+ BusinessMedia
www.springer-spektrum.de
We must not accept the o/d blasphemous nonsense
that the ultimate justification of mathematical science
is the "glory ofthe human mind".
Abstraction and generalization
arenot more vitalfor mathematics
than individuality of phenomena
and, before all,
not more than inductive intuition.
Only the interplay of these Jorces and their synthesis
can keep mathematics alive
and prevent its drying out into a dead skeleton.
RICHARD COURANT

Vorwort zur 10. Auflage


Die erste im Jahr 1975 veröffentlichte Auflage dieses Buches war entstanden aus
meiner Vorlesung im Wintersemester 1972173 an der Universität Regensburg und
einer von Richard Schimpl angefertigten Ausarbeitung, die als Band 1 der Reihe
,,Der Regensburger Trichter" erschienen war. Es freut mich, daß das Buch in den
vergangeneo 20 Jahren so viel Anklang gefunden hat.
Im Jahr 1994/95 hatte ich an der Universität Düsseldorf wieder einmal Gele-
genheit, eine Anfängervorlesung über ,,Lineare Algebra" zu halten. Dabei fand
ich in dem alten Buch zahllose Dinge, die man wohl besser erklären kann. Dazu
kam die Versuchung, die Möglichkeiten von LKfp<: zu nutzen, was schließlich
dazu geführt hat, daß ich fast das ganze Buch neu aufgeschrieben habe.
Geblieben ist die Überzeugung, daß am Anfang jeder Theorie Probleme stehen
müssen, und daß die entwickelten Methoden danach zu bewerten sind, was sie
zur Lösung der Probleme beigetragen haben. Dies deutlich zu machen, ist in der
linearen Algebra eine vordringliche Aufgabe, weil hier die axiomatische Me-
thode sehr ausgeprägt ist. Mit Hilfe eines wohlorganisierten Instrumentariums
von Begriffen können Beweise kurz und klar durchgeführt werden, Rechnungen
können weitgehend vermieden werden und erhalten - wo sie notwendig sind -
eine Interpretation von einem abstrakteren Standpunkt aus.
Es hat lange gedauert, bis sich die lineare Algebra von einem Hilfsmittel der
sogenannten "analytischen Geometrie" (das ist die Lehre von den linearen und
VI

quadratischen geometrischen Gebilden) zu einer selbständigen Disziplin ent-


wickelt hat. Die größten Veränderungen gab es zu Anfang dieses Jahrhunderts,
als die axiomatische Methode durch den Einfluß von D. HILBERT und speziell in
der Algebra durch EMMY NOETHER ausgebaut wurde. Das zeigt ganz deutlich
ein Blick in Lehrbücher aus dieser Zeit, etwa die ,,klassische" Darstellung von
KOWALEWSKI [Kow 2]* aus dem Jahr 1910 und die 1931 erschienene ,,moder-
ne" Version von SCHREIER-SPERNER [S-S]. Dieser Wandel ist vergleichbar mit
dem Übergang vom Jugendstil zum Bauhaus. Inzwischen ist die lineare Algebra
durchdrungen von einer Ökonomie der Gedanken sowie einer Ästhetik in der
Darstellung, und sie ist unentbehrliches Hilfsmittel in vielen anderen Gebieten
geworden, etwa der Analysis und der angewandten Mathematik.
Dieser eindrucksvolle Fortschritt ist nicht frei von Gefahren. Die Axiomatik
beginnt mit den allgemeinsten Situationen und schreitet fort in Richtung zu spe-
zielleren Sachverhalten. Dieser Weg wurde mit letzter Konsequenz in den Wer-
ken von N. BOURBAKI [Bo], [C] beschritten. Er läuft der historischen Entwick-
lung - die einem ,,natürlichen Wachstum" der Mathematik entspricht - jedoch
meist entgegen. So wurden etwa Determinanten schon von LEIBNIZ um 1690
benutzt, CAYLEY begann 1850 Matrizen als eigenständige Objekte anzusehen,
der allgemeine Begriff des Körpers ist erstmals in dem 1895 bei Vieweg er-
schienenen ,,Lehrbuch der Algebra" von H. WEBER [We] zu finden. Abstrakte
Begriffe und ihre Axiome entstehen aus der Entdeckung von Gemeinsamkeiten,
sie setzen lange Erfahrung im naiven Umgang und kreative Auseinandersetzung
mit den Gegenständen der Mathematik voraus. Eine Darstellung, die mit den
Axiomen beginnt, könnte den verhängnisvollen Eindruck erwecken, als seien die
aufgestellten Regeln zuflillig oder willkürlich. Einer solchen Gefahr entgegenzu-
wirken, ist das stete Bestreben dieses Buches. Die neue Auflage soll helfen, die
abstrakten Begriffe noch mehr zu motivieren und die Beziehungen der linearen
Algebra zu ihren Anwendungen deutlicher zu machen.
Viele theoretische Überlegungen der linearen Algebra dienen der Rechtferti-
gung oder der Entwicklung von Rechenverfahren, mit deren Hilfe man schließ-
lich gegebene Probleme durch eine Iteration lösen kann. Dies wird hier in vie-
len Fällen bis zur Berechnung konkreter Beispiele vorgeführt. In der Praxis läßt
man besser einen Computer rechnen, aber die Schwelle zur Beschreibung von
Programmen dafür wurde in diesem Buch mit Vorsatz nicht überschritten. Für
einen Anfänger erscheint es mir viel wichtiger, zunächst einmal ohne Ablen-
kung durch Probleme der Programmierung die Struktur des Lösungsweges zu
verstehen und mit einfachsten, im Kopf berechenbaren Beispielen die unmittel-
*Eckige Klammern beziehen sich auf das Literaturverzeichnis
VII

bare gute Erfahrung zu machen, daß ein Algorithmus funktioniert. Danach kann
man getrost die Ausführung der Rechnungen einem fertigen Programmpaket wie
Maple oder Mathematica überlassen. Etwa im Rahmen der numerischen Mathe-
matik hat man Gelegenheit, die Rechenverfahren genauer zu studieren und dazu
weitere Hilfsmittel der linearen Algebra kennen zu lernen (vgl. etwa [Str]).
Dieses Buch ist entstanden aus Vorlesungen für Studienanfänger in den Fäch-
ern Mathematik, Physik und Informatik; an Vorkenntnissen ist nur das sogenann-
te "Schul wissen" (etwa im Umfang von [Sch]) nötig. Es enthält insgesamt genü-
gend viel Material für zwei Semester, dabei gibt es zahlreiche Möglichkeiten für
Auswahl und Reihenfolge. Der Text ist meist nach den Regeln der Logik an-
geordnet, in einer Vorlesung kann es gute Gründe geben, davon abzuweichen.
Einige Abschnitte sind durch einen Stern * markiert, als Anregung, sie beim ers-
ten Durchgang zu überspringen und später (etwa im zweiten Semester) darauf
zurückzukommen. Die Anwendungen der linearen Algebra auf affine und pro-
jektive Geometrie sowie die lineare Optimierung sind in einem eigenen Band [Fi]
enthalten, auch damit kann man den vorliegenden Text nach Belieben mischen.
Um Mathematik zu verstehen, genügt es nicht, ein Buch zu lesen oder eine
Vorlesung zu hören, man muß selbst an Problernen arbeiten. Als Anregung dazu
dienen die zahlreichen Aufgaben. Die dort eingestreuten Sterne sind nicht als
Warnung, sondern als besonderer Ansporn zu verstehen.
Der durch diese Neuauftage abgelöste Text war durch zahllose Hinweise von
Lesern fast restlos von Druckfehlern befreit worden. Nun gibt es sicher wieder
reichlich Nachschub, ich möchte auch die neuen Leser ermuntern, mir ,,Ansichts-
karten" zu schreiben.
Mein Dank gilt all denen, die bei der Neubearbeitung beteiligt waren: In ers-
ter Linie Hannes Stoppel, durch dessen Begeisterung, Bücher zu I5rpc-en, ich
in dieses Projekt geschlittert bin, Martin Gräf, der mit viel Sorgfalt die Übungs-
aufgaben zusammengestellt hat, Carsten Töller, dem einfallsreichen Meister der
Bilder und dem Verlag für seine stetige Unterstützung.

Düsseldorf, im September 1995 Gerd Fischer


VIII

Vorwort zur 17. und 18. Auflage

Seit der 10. Auflage hat es nur wenige größere Änderungen gegeben. Sie betreffen
Ergänzungen zu Quotientenräumen , Tensorprodukten und äußeren Produkten. Die-
se grundlegenden abstrakten Begriffe bereiten erfahrungsgemäß Studienanfängern
einige Schwierigkeiten; man sollte ihnen jedoch nicht zu lange ausweichen, denn sie
treten später als unentbehrliches Hilfsmittel an vielen Stellen wieder auf. Zudem
sind sie im hier behandelten Fall von Vektorräumen mit Hilfe von Basen noch recht
konkret zu beschreiben.
Birgit Griese und Hannes Stoppel haben die Aufgaben teilweise überarbeitet
und ein eigenes Buch mit Lösungen veröffentlicht. Das sollte die Leser nicht davon
abhalten, zunächst selbst daran zu arbeiten.
Neu in dieser Auflage ist eine Einführung zum Thema War·urn Linear-e Algebm?
Sie ist die überarbeitete Fassung einer einführenden Vorlesungs-Doppelstunde, die
GÜNTER M. ZIEGLER im April 2006 an der TUBerlin gehalten hat. Zum genaueren
Verständnis der daJ·in ausgeführten Beispiele sind Kenntnisse über die einfachsten
Begriffe und Techniken der Linearen Algebra niit:dich. vVer damit noch gaJ· nicht
vertraut ist, kann Eim:elheiten im Laufe seines Studiums der Linearen Algebra nach-
lesen.
Zu vielen Themen der Linearen Algebra findet ma.n interaktive Visua.lisierungen
unter

www.rna.the-vital.de

Diese wurden von JÜRGEN RICHTER-GEBERT <W der TU München im Rahmen des
Projektes rnnthe-v'itoJ m it dem Programm Cinder-elln erstellt
Mein Dank gilt den :<ahlreichen Lesern, die mich auf Unklarheiten und Fehler
hingewiP.~en ha.ben, gmt?: besonders Kollegen und Studierenden aus Berlin , München
und Rcgcnsburg. In den beiden letzten Auflagen wurden einige Druckfehler korrigiert und
Verbesserungen eingearbeitet. Es wird nun schwer sein, noch etwas zu finden; wer dennoch
Erfolg gehabt hat, wird gebeten, mir das mitzuteilen.

München, 2009 und 2013 Gerd Fischer


IX

VVaruna Lineare Algebra?


(von Gen! Fischer und Günter M. Ziegler)

Was ist Lineare Algebra?


Die Lineare Algebra gehört neben der reellen Analysis >~um Curriculum für St udie-
rende der Mathematik und anderer Fächer, die mathematische Methoden intensiv
benut>~en. Das liegt da.ran, da.ss sie 7.U den Grundpfeilern der Mathematik zählt , auf
denen alles andere aufbant. Zu den darüberliegenden Gebäudeteilen der Mathema-
tik gehören beispielsweise Algebra, Differentialgleichungen , Numerik, Differential-
geometrie, Funktionalanalysis usw. Die Beziehungen und Verwindungen zwisch en all
diesen Gebieten sind vielfältig und seinver schema tisch zu skizzieren. Aber Konsens
besteht , dass Lineare Algebra zur unverzichtbaren Basis gehört. Sie ist entstanden
aus der Aufgabe, lineare Gleichungssysteme zu lösen und solche Aufgaben treten
in allen Gebieten der IVIathematik und ihren Anwendungen immer wieder auf. W ie
schon in der Einleitung er wähnt wurde, hat es lange gedauert , bis die Lineme Al-
gebra aL~ eigenständiges Gebiet in die Lehrpläne au fgenommen wurde. Lange Zeit
wurde sie vorwiegend als technisches Hilfsmittel der Geometrie angesehen , zur Be-
schreibung von linearen Gebilden wie Geraden und Ebenen , sowie Kegelschnitten.
Eine der ersten zusammenfa.ssenden aber wenig b eachteten Darstellungen war die
1844 in Leipzig erschienene " A'Usdehn ungslehr-e" von H . GRASSMANN. Erst in der
Göttinger Schule wurden die abstrakten Hintergründe konsequent herausgearbeitet,
und Vekt orräume als die wesentlichen Objekte der Untersuchung eingeführt. Neben
dem Buch von SCHRr:T r:R und SP r:RNr:R [S-S] ist h ierzu auch die 1931 erstmals er-
schienene "Modeme Algebr-a" von B . L . VAN DER WAERDEN hervorzuheben. B is
in die 50er Jahre des vorigen J ahrhunderts hatten die entsprechenden Anfänger-
vorlesungen meist noch den T itel " Analyt'i8clu: Geometrie", erst danach wurde die
Geometrie als eine von mehreren möglichen Anwendungen in den Hintergrund ge-
drängt. Sorgfältige historische Hinweise zu dieser langen Entwicklung findet man
bei ßli!ESKORN [ß].
Seither wird in der Ausbild ung in Linearer Algebra neben der Beschäftigung mit
linearen Gleichungssystemen auch der Umgang mit abstrakten mathematischen
Strukturen , wie Gruppen , R ingen, Körpern, Vektorräumen usw. geübt. Dabei muss
man n mächst die mathematische Sprache lernen , d . h. präzise Formulierungen fi n-
den , mit denen St rukturen definiert sind, sowie korrekte Behaupt ungen darüber
a ufstellen, und stichhaltige Begrünelungen dafür erarbeiten . Die Anschauung kann
dab ei helfen, Beweise zu finden; aber dann beginnt die Knochenarbeit, sie präzise
aufzuschreiben. Das ist erfahrungsgemäß die größte Hürde für Studienanfänger .
X

Anwendungen der Linearen Algebra


Man sollte sich nicht der Illusion hingeben, dass ein eim<elnes mathematisches Teil-
gebiet, wie die Lineare Algebra, die Hilfsmittel ;our Lösung großer praktischer Pro-
bleme liefern könnte. Wenn Mathematik in die Praxis geht, dann gehen da immer
verschiedene mathematische Teilgebiete gemeinsam. Aber t rot;odem: Es gibt sehr
markante Beispiele für Anwendungen der Linearen Algebra- ein paar wollen wir im
Folgenden beschreiben.

1 Statik von Gerüsten. Da.s Problem, Bauwerke und andere Konstruktionen


auswführen, die stabil sind, ist alt und bei weitem nicht trivial. Betrachten wir etwa
ein Gerüst, d.h. ein Gebilde, das aus Streben und Knoten besteht (in der Baustatik
sprieht man von einem Fachwerk). Soll es sta.hil geba ut werden, so muss man
wissen, welche Kräfte auf die Bauteile wirken. Grundlegende Untersuchungen dazu
hat u.a. J. C. MAXWELL (1831 - 1879) geleistet, den man vor allem wegen seiner
Deiträge zur Elektrodynamik kennt; dann aber auch C . CU LMANN, von dem 1866
das Bueh "Die Omphii8che Statik" ersehien. Die lviethode benutzt Lineare Algebra,
sein Schüler M. KOECIILIN hat als Ingenieur die Statik des Eiffci-Turms gerechnet,
der seit der \Veltausstellung 1889 noch heute steht.
Wir wollen die Methode in ihrer graphischen und ihrer rechnerischen Form an einem
gan;o einfachen, aber doeh eharakteristischen Beispiel illustrieren.
Zur Vereinfachung betrachten wir ein ebenes Problem, nämlich die Aufhän-
gung eines Gewichtes (etwa. einer Lampe) an einer Mauer mit Hilfe eines Gestänges
in Form eines rechtwinkligen Dreiecks. Die Stangen und ihre Befestigungen rni\ssen
so a usgelegt sein, dass sie den entstehenden Zug- und Druckkräften standhalten.
Zunäehst wirkt im Punkt (I) eine Kraft K senkrec:ht nac:h unten, sie soll groß sein
im Vergleich ;oum Gewicht der Stangen.

Kräfte addieren sich wie Vektoren , im Punkt (1) ist K = K 1 Summe von K 2 und K:3 ;
K 2 verursacht einen Zug in R.iehtung @, K 3 einen Druck in Richtung@. Graphiseh
kann man K 2 und K 3 durch eine Parallelogrammkonstruktion ermitteln.
XI

K, K,

Im Punkt@ zerfällt die Zugkraft K 1 = K 2 in K 5 = -K3 und K 6 = K 1 , im Punkt


@) ist die Druckkraft K 7 = Kl· Der gesamte Fluss von Kräften und Gegenkräften
sieht dann so aus:

K,

.~
..

r
I
-K,

Gleichgewicht bedeutet, dass in jedem Befestigungspunkt die Summe aller angrei-


fenden Kräfte verschwindet; rechnerisch ergibt sich daraus ein System von linearen
Gleichungen. Da7>u beschreibt man jede der beteiligten Kräft e Ki als Vektor

mit reellen Komponenten x;,y;,z;. Im obigen ebenen Beispiel sind die z, = 0, das
Gleichgewicht im Punkt Q) ergibt folgende Bedingungen: K 1 ist vorgegeben, etwa
K 1 = (0, - 1), das bedeutet

Xr = 0 und Yl = - 1 .

Aus der Geometrie des Dreiecks und tan(15°) "" 0.268 folgt

0.268x:l + Y2 = 0 und Y3 =0
Schließlich ergibt die Gleichgewichtsbedingung K 1 - K2 - K 3 = 0, dass

x 1- x2- X:J =0 und Y1 - Y2- Ya = 0.


XII

Das sind 6 lineare Gleichungen für die 6 Komponenten der drei Kräfte, die Lö~ung
ist
K1 = (0, - 1), K 2 = ( -3.732,- 1) , K 3 = (3.732,0).
Daraus ergeben sich einfach die Kräfte in den Punkten @ und @). \Vie man sieht,
ist die Zugkraft auf die Befestigung im Punkt @ fas t viermal so groß wie das
angehängte Gewicht .
In komplizierteren Fällen sind die Gleidmngssyst.erne zu den einzelnen Punkten
stärker gekoppelt , man kann sie dann nur gemeinsam lösen. Hat man n Punkte und
in jedem Punkt. drei räumliehe Kräfte, so ergibt. das insgesamt. 9n zu bestimmende
Koordinaten. \Vic groß n sein kann, sieht man nicht nur a.m Eiffcl-Turm, sondern
schon an jedem BaukrmL
Neben den statischen Kräften gibt es aber auch dynamische Effekte, da durch ela.sti-
sehe Verformungen Schwingungen ausgelöst werden können. So wird berichtet , dass
im J ahr 1850 eine Drücke über den Fluss Maine bei Angers einstürzte, während
Soldaten im Gleichschritt darüber marschierten. Seither ist dem Militär verboten,
Brücken auf diese Art zu überqueren.
Ein aktuelleres Beispiel ist. die von Sm N ORMAN FOSTER und Partnern entwor-
fene Millenium Bridge über die Thernse in London, eine Fußgängerbrücke, die
St.. Paul's Cat.hedral mit. der Tat.e Modern Gallery verbindet.. Sie ist. konzipiert. als
" bla.cle of light" , die Tragseile zwischen den 144 m entfernten Pylonen haben einen
Durchhang von nur 2.3 m; das Ingenieurbüro ARUP berechnete die diffizile Statik.
Nach der Einweihung durch Königin ELISABETH li wurde die Brücke am 10. Ju-
ni 2000 eröffnet - am 12. Juni 2000 musste sie wieder geschlossen werden , da. sie
bedrohlieh zu wackeln anfing; seither heißt. sie "the wohhly bridge".
XIII

Nach vielen Experimenten und Rechnungen von ARUP wurde d ie Ursache gefunden:
Die Statik war in Ordnung, aber es entstanden seitliche Schwingungen, die durch
die Reakt ionen der Fußgänger noch verstärkt wurden: Durch Resonanz schaukelten
sich die Schwingungen gefährlich auf. Ein~clheiten da:.<u findet man unter [ARUP].
Der Umbau und Einbau von Schwingungsdämpfern koste te 5 Millionen Pfund. Im
Februar 2002 wurde das Ergebnis mit bis zu 20 000 Freiwilligen getestet und für
gut befunden. Seither ist. die ßrücke wieder geöffnet.

Was hat da.5 mit Linearer Algebra zu tun'? Schwingungen und ihre Dämpfung hängen
mit Mat rizen und ihren Eigenwerten zusammen.

2 Linearisierung. Iu der Praxis gibt es kaum eine strikt lineare Beziehung


zwischen zwei Größen ; selbst für P reise wird bei Abnahme größerer Mengen ein
Nachlass gewfihrt. Aber d ie Tangente an eine Funktion gibt in einem begrenzten
Bereich wenigstens eine brauchbare Näherung. Dieses Prinzip der Analysis heißt li-
neare Approximation, hier helfen die Methoden der Linearen Algebra. Man kann
es ausbauen und eine gegebene oder gesuchte differen~ierbare Funktion in ihrem
gesan1ten Definitionsbereich durch eine stückweise lineare Funktion approximie-
ren, etwa bei der Lösung von Differentialgleichungen durch Diskretisierung und
stückweise Linearisierung.
Als einfaches Beispiel sei die Berechnung einer W ä rmeverteilung in der Ebene an-
gegeben. ßezeichnet f(:r ,y) die Temperat ur im Punkt (x ,y), so erfüllt die FUnktion
f bei Temperaturgleichgewicht die partielle Different ialgleichung zweiten Grades
ß2 ß2
(ßx2 + äy2)f(2:,y) = 0,

man nennt sie Laplace-Gleichung, die Lösungen heißen harmonisch. Vhr neh-
men a n, dass die Ternperatmverteilung arn Raud eines Quadrats vorgegeben ist
und unverändert bleibt. Eine übliche Grundlage für die approximative numerische
Berechnung der Lösung f ist eine Diskretisierung: Man überzieht den quadratischen
Bereich mit einem genügend feinen quadratischen G itter von lvicsspunkten (xi,y1 ) .
Ersetzt man in der Laplaee-Gieichung Differentialquotienten d urch Differenzenquo-
tienten und schafft man die Nenner weg, so ergibt sich a n der Stelle ( x.,,y.i ) die
Bedingung
XIV

(.f(:ri+l,Yi) - J (:ri,Yi)) - (f(x;,Yi) - f (xi-l ,Yi ))


+(f(x;,YJ+ d - f(x; ,YJ))- (J(x;,Yi)- f (x;,YJ - d ) = 0,

d<~E ist gleichbedeutend mit

<x, ,y._,)

Physikalisch bedeutet diese Bedingung, dass die Temperatur an jeder Stelle (xi,yj )
im Inneren gleich dem Mittelwert der Temperaturen an den vier nächstgelegenen
Gitterpunkten ist. Insgesamt erhält man mit Hilfe von ( *) für die Temperaturen
f(xi,YJ) so viele lineare Gleichungen, wie man Gitterpunkte hat; dieses Gleichungs-
system ist zu lösen .
Als Beispiel wählen wir ein relativ grobmaschiges Gitter, rnit folgenden \Verten von
f auf den relevanten Gitterpunkten am Rand:
XV

(1,2) (2,2)
I
4

( l,l ) (2, 1 )

~_l __~ >-· -


0

Für die vier gesuchten Werte

erhält man daraus die linearen Gleichungen

4fu ft2 ht 3
- fu + 4ftz hz 10
- ! 11 + 4!2 1 hz 2
!t2 hl + 4fz2 4

*
mit den Lösungen

!11 = ~ 2.042, !1 2 = H ~ 3.583, h1 = H ~ 1.583 , hz = lfi ~ 2.292 .


Das entstehende stückweise lineare " harmonische" Funktionsgebirge sieht so aus:
XVI

3 Der Page Rank bei Google. Ein aktuelleres Beispiel für eine An-
wendung der Linearen Algebra ist die Internet-Suchmaschine Google, die in ihrer
ursprünglichen Form in den 90er .Jahren von den beiden St udenten S. BRIN und
L. PAGG entwickelt und 2001 patentiert wurde. V,Tichtiger I3estandteil ist eine Me--
thode für die Anordnung der Suchergebnisse im Browser, Grundlage dafür ist der
"PageRank" p(8) für jede Web-Site 8. E r ist ein Maß dafür, wie stark die Seite mit
anderen vernetzt ist, sagt allerdings nichts über die Qualität des Inhalts der Seite
au s. Die Definition des PageRank kann wie folgt motiviert werden.
Man stellt sieh einen Surfer vor, der einen \Veg auf den vorhandenen Seiten
8 1 , ... , SN des Internets zurücklegt. Er beginnt auf einer zufällig ausgewählten Seite
und folgt in der Regel einem der angegebenen Links. Da. er aber entmutigt. werden
kann (etwa weil die Links nicht mehr weiterhelfen), darf er gelegentlich auch einmal
auf eine b eliebige andere Seite springen. Um da..s zu präzisieren wird zunäehst ein
Damping Faktor d mit 0::::; d ::::; 1 festgesetzt (meist. wird d = 0.85 gewählt). Er
hat folgenden Einfluss: Auf irgendeiner Seite angekommen folgt der Surfer mit der
Wahrscheinlichkeit d einem zufällig ausgewählt en Link, mit der Wahrscheinlichkeit
1 - d springt er vom Zufall gesteuert auf eine beliebige andere Seite des Netzes.
Der PageRank p(S) ist nun erklärt als die Wahrscheinlichkeit dafür, dass sich der
Surfer auf einem sehr langen \Veg 7-U einem 7-ufüllig gewählt en Zeitpunkt auf der
Seite S befindet.. Da N sehr groß ist., wird p(S) eine sehr kleine Zahl sein, auf jeden
Fall gilt
0 ::::; p(S') :::; 1.
Nach den elementaren R egeln für eine Wahrscheinlichkeitsverteilung ist

Die Wahrscheinlichkeitsrechnung ergibt nun eine I3eziehung zwischen den verschie--


denen PageRanks. Dazu betrachtet man für eine Seite S alle Seiten, die einen Link
aufS enthalten, wir be:tcichnen sie mit T 1 , ... , Tn, wobei 0 ::::; n :::; N -1. Be:tcichnct
C-i die Anzahl der Links, die von T; ausgehen, so gilt

p(S) = d. (p(T 1 ) + .. . + p(T") ) + 1 - d .


CJ Cn N
Damit könnte man p(S) nur ausrechnen, wenn die Werte p(T;) schon bekannt wären.
Aber inanerhin erhält man auf diese \Veise ein System von N linearen Gleichungen
für dieN gesuchten Zahlen p(S\), . .. ,p(8N ).
Nach der T heorie kann man ein solches Gleichungssystem lösen, aber in der Praxis
benötigt man bei großem N sehr gute und schnelle numerische Verfahren. In der
Gründer:.~cit des Intem ets rechnete man noch mit etwa 20 Millionen Seiten, in:.~wi­
schen ist die Gesamtzahl N unüberschaubar geworden. Daher kann der PageR ank
nur noch für ausgewählte Seit en berechnet werden. Mehr dazu findet man bei [LM].
XVII

Urn das Prinzip erläutern zu können, geben wir ein ganz einfaehes Beispiel rnit
N = 3, das schematisch so aussieht:

Wie man daran erkennt, ist

Also lauten die drei Gleichungen für p; = p(S;) mit b := ~ ( 1- d):

P1 dp3 b
- ~Pl + P2 b
- ~Pl dp2 + P3 b

Für d = 0.85 erhält man die Lösungen

Jll ""0.388 , [!2 "" 0.215 , P:s "" 0.397 .

Da S2 weniger verlinkt ist, als S1 und S3 ist P2 nur etwa halb so groß wie P1 und
= 0.1 wird
p 3 . Bei kleineremdhaben die Links weniger E influss. Etwa fü r d

P1 "" 0.335 , P2 "" 0.317 , Pö "" 0.348 ,

da sind die PageRanks schon beinahe gleichverteilt.


Eine Variante des Gleichungssystems erhält man mit Hilfe der Linking Matrix A.
Bezeichnet c; für 1 :S i :S N die Anzahl der Links, die von der Seite S; ausgehen,
so hat A für 1 :S i,:i :SN die Einträge

falls i f= :i und S ; einen Link auf Si enthält;


sonst.

Im Extremfall d = 1 ist <hmn (p(S1 ), ... ,p(SN )) ein Eigenvektor der Matrix A
zum Eigenwert 1. Zur Lösung solcher Probleme gibt es auch schnelle numerische
Verfahren.
XVIII

4 Der Satz vom Politiker. Eine ganz andersartige Fragestellung betrifft


Graphen, das sind Konfigurationen, die aus Punkten und Verbindungsgeraden
(oder Ecken und Kanten ) bestehen. Ein Beispiel ist der Windmühlengraph.

Er hat eine zentrale Ecke und eine gerade Zahl von Ecken am Rand, kann also für
jede ungerade Zahl von Eeken konstruiert werden. Interpretiert man die Punkte als
Personen und die Kanten als gegenseitige Freundschaften, so stehen am Rand be-
freundete Paare, und jeder ist mit der Person in der Mitte befreundet. Eine solche
Person, die mit jedem befreundet ist, wird als Pol·i tiker b ezeichnet, seine "F\·eund-
schaf"t.en" sind berufsspezifisch. In dieser Interpreta tion hat der Windmühlengraph
dann folgende Eigensehaft:

Je zwei beliebige Personen haben immer


gcru.tn einen gerne'insarnf:n Freund

Der Satz vom Politiker sagt nun aus, dass Bedingung ( *) für n Personen nur
dann erfüllt sein kann, wenn n ungerade ist und es einen Politiker gibt. Außerdem
muss der entsprechende Graph ein Windmühlengraph sein.
Für diesen Satz ist gibt es elementare Beweise. Aber der klarst e und überzeugendste
wurde von P. ERDÖS, A. R.ENYI und V. Sös mit Hilfe von Linearer Algebra,genauer
Eigenwerten symmetrischer Matrizen gegeben; das findet man bei [A-Z, Kap. 34].
Der Schlüssel dazu ist die Adjazenzmatrix A des Graphen: Sind die Personen mit
1, ... , n nummeriert, so sind die Einträge von A gegeben durch

wenn i #j und i mit j befreundet,


a,:i := { ~' sonst.
XIX

Fazit
Unsere kleine Liste von Beispielen für Fragen, hinter denen Lineare Algebra steckt,
könnte man beliebig erweitern. Etwa in [A-I3] kann man nachlesen, was in einer
CD versteckt. ist, in [A-Z, Kap. 15] findet. man Ergebnisse zur berühmten Borsuk-
Vermutung über die Zerlegung von Teilmengen des rn:.n mit beschränktem Durch-
messer. Viele weitere Anwendungen findet man b ei G. STRANG [St. 1 ] und [St2 ] .
Um eine mathematische Theorie sachgemäß anwenden 7-U können, muss man sie
zunächst sorgfält ig studieren und genügend verstehen; das gilt auch für die Li-
neare Algebra. Daneben kann d ie Mathematik durch ihren klaren Aufba u und die
Schönheit. ihrer Strukturen begeistern; das zeigt. sich zu Beginn des Studiums beson-
ders in der Linearen Algebra, für die der Leser nun hoffe ntlich nachhaltig motiviert
ist..

Literatur zur Einführung


[A-B] Aigner, M. und E. Beltrends (Hrsg.): Alles Mnthernatik. Vieweg 2008'
[A-Z] Aigner, lVI. und G. M. Ziegler: Das BUCH der Beweise. Springer 20042
[AR.UP] www.arup.com/ MillcniumBridge/
[B] Brieskorn, E.: Linenre Algebra und Analytische Geometrie (mit historischen
Anmerkungen von E. Scholz). Vicwcg 1983
[LM] Langville, A . N. and C . D. 1\!Ieyer: Google 's PageRank and B eyond,
The Science of Search Engine Ranb ngs. Princcton 2006
[S-S] Schreier, 0. und E. Sperner: Einführung in die Analytische Geometrie
und Algebra. Teubner 1931
Strang, G.: L ineaT A lgelnn and its Applimtions. WB Saurrders 20054
Strang, G.: Linear Algebra: A Happy Chance to Apply Mathernatics.
Proc. Int. Congress on Math. Education (ICME - 10). Denmark 2004
Inhaltsverzeichnis

0 Lineare Gleichungssysteme 1
0.1 Der reellen-dimensionale Raum 1
0.2 Geraden in der Ebene . . . . . . 4
0.3 Ebenen und Geraden im Standardraum JR 3 11
0.4 Das Eliminationsverfahren von GAUSS . 20

1 Grundbegriffe 32
1.1 Mengen und Abbildungen 32
1.2 Gruppen . . . . . . . . . . 43
1.3 Ringe, Körper und Polynome . 54
1.4 Vektorräume . . . . . . . . . 75
1.5 Basis und Dimension . . . . 86
1.6 Summen von Vektorräumen* 100

2 Lineare Abbildungen 106


2.1 Beispiele und Definitionen . . . . . . . . . . . 106
2.2 Bild, Fasern und Kern, Quotientenvektorräurne* 114
2.3 Lineare Gleichungssysteme . . . . . 129
2.4 Lineare Abbildungen und Matrizen . 137
2.5 Multiplikation von Matrizen . . . . 143
2.6 Koordinatentransformationen . . . . 154
2.7 Elementarmatrizen und Matrizenumformungen 163

3 Determinanten 174
3.1 Beispiele und Definitionen 174
3.2 Existenz und Eindeutigkeit 186
3.3 Minoren* . . . . . . . . . 201
3.4 Determinante eines Endomorphismus und Orientierung* 212

4 Eigenwerte 222
4.1 Beispiele und Definitionen 222
4.2 Das charakteristische Polynom 228
4.3 Diagonalisierung . . . . . . . 234
4.4 Trigonalisierung* . . . . . . . 242
4.5 Potenzen eines Endomorphismus* 250
4.6 Die Jordansehe Normalform* . . . 259
XXI

5 Euklidische und unitäre Vektorräume 274


5.1 Das kanonische Skalarprodukt im JR" . 274
5.2 Das Vektorprodukt im JR 3 . . . . . . . 282
5.3 Das kanonische Skalarprodukt im C" . 286
5.4 Bilinearformen und Sesquilinearformen 288
5.5 Orthogonale und unitäre Endamorphismen . 303
5.6 Seihstadjungierte Endomorphismen* 312
5.7 Hauptachsentransformation* 318

6 Dualität und Tensorprodukte* 331


6.1 Dualräume . . . . . . . 331
6.2 Dualität und Skalarprodukte 340
6.3 Tensorprodukte . . . 350
6.4 Multilineare Algebra 366

Literaturverzeichnis 372

Namensverzeichnis 374

Sachwortverzeichnis 376

Symbolverzeichnis 383
Diese Blnrne der Linmn:n Algebm wurde entworfen von B et t ina Meserle, Clandia
Jodmm und Jonathan Zins!.
Kapitel 0
Lineare Gleichungssysteme
Schon die Nummer dieses Kapitels deutet an, daß es zur Motivation und Vorbereitung
der in Kapitel I beginnenden systematischen Darstellung dient. Wir haben dafür das
wichtigste Problem der elementaren linearen Algebra gewählt, nämlich lineare Glei-
chungssysteme. Dabei kann man sehr schön die wesentlichen Aspekte vorführen: den
geometrischen Hintergrund und die algorithmische Methode. Was auf die späteren Ka-
pitel verschoben wird, sind die präzisen Beweise mit Hilfe der üblichen theoretischen
Hilfsmittel.
Wer mit den verwendeten Notationen von Mengen und Abbildungen nicht vertraut
ist, kann bei Bedarf in 1.1 nachsehen.

0.1 Der reellen-dimensionale Raum


Ein großer Fortschritt in der Geometrie gelang durch Einführung von Koordinaten, die
man zur Erinnerung an R. DESCARTES auch kartesische Koordinaten nennt. Dadurch
kann man Punkte in den Räumen der Geometrie beschreiben durch Systeme von Zahlen,
und mit den Zahlen kann man rechnen. Diese Methode zur Behandlung geometrischer
Fragen nennt man analytische Geometrie. Die elementarsten Begriffe hierzu seien kurz
erklärt.

0.1.1. Wir gehen aus von den reellen Zahlen, deren Gesamtheit wir mit lR be-
zeichnen. Ihre Einführung ist Gegenstand der Analysis, in der Geometrie dienen
sie als Zahlengerade, und diese Zahlen kann man nach den üblichen Regeln ad-
dieren und multiplizieren.
Punkte der Ebene sind festgelegt durch Paare, Punkte des gewöhnlichen Rau-
mes durch Tripel von reellen Zahlen. Für die Theorie macht es keine Probleme,
gleich n-Tupel zu betrachten, wobei n eine beliebige natürliche Zahl ist. Damit
erhält man den reellen Standardraum der Dimension n
JR" = {X = (XI , . . . , X"): X I, . . . , X" E JR},
d .h. die Menge der geordneten n-Tupel (oder Vektoren) von reellen Zahlen. Ge-
ordnet heißt, daß die Reihenfolge wichtig ist, d.h. zwei n-Tupel (x 1, ••• , Xn) und
(y 1, • • • , Yn) sind genau dann gleich, wenn x 1 = y 1 , . •• , Xn = y,. . Die Zahlen
x 1 , • • • , Xn heißen Komponenten von x.
Der Fall n = 0 ist sinnlos, lR 1 ist die Zahlengerade, JR2 entspricht der Ebene
und JR 3 dem ,,Raum" . Für größere n hat man zunächst keine unmittelbare geo-
metrische Vorstellung mehr, dafür aber eine ganz andere und sehr realistische
Interpretation. Hat etwa eine Bank n Kunden, so kann man deren Kontostände
zu einem bestimmten Zeitpunkt mit x 1, • •• , Xn bezeichnen, alle zusammen (und

G. Fischer, Lineare Algebra, Grundkurs Mathematik,


DOI 10.1007/978-3-658-03945-5_ 1, ©Springer Fachmedien Wiesbaden 2014
2 0 Lineare Gleichungssysteme

geordnet') sind ein "Punkt"


X= (Xt, ... ,X11 ) E JR".

Die Entwicklung der Kontostände im Laufe der Zeit wird dann durch eine "Kur-
ve" im JR" beschrieben, ihre Beschreibung geht schon über den Rahmen der li-
nearen Algebra hinaus. Eine lineare Operation ist etwa die Berechnung der au-
genblicklichen Bilanz. Haben die Einlagen neben dem Nennwert x; einen Bör-
senkurs a;, so ist das bewertete Kapital gegeben durch
a,x, + ... + a 11 X 11 = b,

ein typischer Fall für eine lineare Gleichung.


In der Praxis hat man mehrere Bedingungen, und diese sind meist nicht durch
Gleichungen, sondern durch Ungleichungen gegeben, von der Art, daß für die
obige Summe Begrenzungen vorgegeben sind. Und das Problem besteht darin,
einen "Gewinn" zu optimieren. Zur Lösung solcher Aufgaben in der linearen
Optimierung (vgl. etwa [Pi]) benötigt man genügende Kenntnisse über lineare
Gleichungen, was vielleicht auch einen gewinnorientierten Leser eine Zeit lang
bei der Stange halten kann.

0.1.2. In der linearen Algebra muß man mit n-Tupeln rechnen. Die grundlegen-
den Operationen sind eine Addition
(x,, ... ,Xn) + (y,, · · · , Y") := (Xt + Yt• · · · ,Xn + Yn)
und eine Multiplikation mit einer Zahl A. E lR
A · (x,, . .. , X 11 ) := (A. · Xt, .. . , A · X 11 ) .

Man kann diese Operationen geometrisch deuten, wenn man dien-Tupel als Vek-
toren ansieht, d.h. naiv als Pfeile vom Ursprung 0 = (0, .. . , 0) mit Spitze in
x = (x 1, ••• , x11 ) . Für n = 2 kann man das einfach zeichnen:

x,

AX!
Bild 0.1
0.1 Der reellen-dimensionale Raum 3

Der Ursprung selbst heißt auch Nullvektor, wenn man ihn addiert, hat das keine
Wirkung. Multipliziert man mit ).. = 0, so wird jedes x zum Nullvektor. Das
Negative von x ist gegeben durch
-x := (-XJ, . . . , -xn),
es gilt x + (-x) = 0. Statt x + (-y) schreibt man kürzer x- y.

Bild0.2
Nach diesen wenigen Formalitäten können wir nun die einfachsten Beispiele
von linearen Gleichungen behandeln. Um die geometrische Anschauung dabei
zu benutzen, betrachten wir zunächst ausführlich die Fällen = 2 und n = 3.
4 0 Lineare Gleichungssysteme

0.2 Geraden in der Ebene


0.2.1. Durch zwei verschiedene Punkte geht genau eine Gerade, das gehört zu
den wenigen Tatsachen der Geometrie, die auch Nicht-Mathematikern einleuch-
ten. Mit Hilfe von Vektoren kann man das so beschreiben: Sind v, v' E JH:. 2 die
beiden Punkte, so ist w := v' - v .=!= 0. Die Punkte auf der Geraden L durch v
und v' kann man unter Benutzung eines reellen Parameters A. darstellen als
L = {x E IH:. 2 : esgibteinA. E JH:.mitx = v+A.w} =: v+IH:.w.
x2 v+ffi.w

Bild0.3
Man kann L auch ansehen als Bild der Zahlengerade JH:. unter der Abbildung
<f>: 1R-'>LCJH:.2 , A.t-+v+A.w .
Das nennt man eine Parametrisierung der Geraden.
0.2.2. Die zweite Möglichkeit der Beschreibung benutzt eine lineare Gleichung
der Form
a1x1 + azxz = b.
Dabei gelten x 1 , x 2 als Unbestimmte und a 1 , a 2 E JH:. als Koeffizienten . Die Un-
bestimmten sind variabel, die Koeffizienten fest. Man betrachtet die Menge der
Lösungen
L := {(xJ , Xz) E IH:. 2 : a1x1 +azxz = b}.
Ist a 1 = a2 = 0, so ist L = 0 für b =!= 0 und L = JH:. 2 für b = 0. Dieser
Fall gilt als "entartet". Andernfalls müßte man im Prinzip alle Paare (x 1 , x 2 ) in
die Gleichung einsetzen und feststellen, ob sie erfüllt ist. Wenn man das ohne
System tut, wird man dabei sehr selten Glück haben.
Ein gutes System ist eine Parametrisierung, mit deren Hilfe sich alle Lösungen
produzieren lassen. Das ist in diesem Fallleicht zu erhalten.
0.2 Geraden in der Ebene 5

I) Ist a 2 = 0 und a 1 =f. 0, so wird die gegebene Gleichung zu


b
X!=-,
a1
das ist eine zur x 2-Achse parallele Gerade, und eine Parametrisierung ist gegeben
durch

~-+ L, J.~ (: .J.).


1

Hier ist also die erste Koordinate fest, die zweite frei wählbar.
Ist a 1 = 0, aber a 2 =f. 0, so hat man nur die Rollen von x 1 und x 2 zu vertau-
schen.
2) Ist a 1 =f. 0 und a 2 =f. 0, so kann man die Gerade leicht zeichnen, indem man
die Schnittpunkte mit den Achsen x 1 = 0 und x 2 = 0 berechnet:
x2

L
Bild0.4
Wählt man wieder die x 2 -Koordinate eines Punktes der Geraden als Parameter
J.,
so kann man daraus
b azA
Xt = - - -
al a1
berechnen, und eine Parametrisierung der zunächst durch die Gleichung gegebe-
nen Geraden ist gefunden:
~ -+ L, ;_ ~ (!!.._ - azJ., ;_) .
al al

0.2.3. Zwei Geraden in der Ebene schneiden sich in genau einem Punkt, es sei
denn, sie sind gleich oder parallel. Sind sie durch Gleichungen gegeben, so stellt
sich die Frage, wie man entscheiden kann, welcher Fall vorliegt, und wie man
eventuell den eindeutigen Schnittpunkt findet. Dazu einige
6 0 Lineare Gleichungssysteme

Beispiele. a) Die Geraden seien gegeben durch


X I - Xz = 1,
Xz = 2.
Der Schnittpunkt p ist ganz einfach zu finden, indem man x 2 = 2 aus der zweiten
Gleichung in die erste einsetzt: xi = 1 + 2 = 3, also p = (3, 2).
Eine Variante ~ind die Gleichungen
X I - Xz 1,
XI+ 3xz 9.

x2 x, + 3x 2 = 9 x2

x1 - x2 = 1 x,- x 2 = 1
BildO.S
Zieht man die erste Gleichung von der zweiten ab und dividiert die Differenz
durch vier, so erhält man wieder die obigen Gleichungen, und man sieht an den
Zeichnungen, daß der Schnittpunkt der gleiche ist.
b) Die Geraden seien gegeben durch
X I - Xz 1,
2xi- 2xz b,
x2

Bild 0.6
mit beliebigem b. Man sieht sofort, daß sie für b = 2 gleich und für b =j: 2
parallel, also ohne Schnittpunkt sind. Darauf kommt man auch durch formales
0.2 Geraden in der Ebene 7

Rechnen, wenn man wieder die 2-fache erste Gleichung von der zweiten abzieht.
Das ergibt
I '
b-2.
Die zweite Gleichung lautet in jedem Fall b = 2. Ist b so gewählt, kann man sie
weglassen und es bleibt die erste. Ist b f. 2 gewählt, so ist die zweite Gleichung
nie erfüllt und man kann die erste weglassen.
c) Nun nehmen wir zu den zwei Geraden aus Beispiel a) eine dritte hinzu:
X1- X2 1,
9, II
2. III
x.

fi---+----+--
ifi---~--~------

Bild0.7
Daß sie keinen gemeinsamen Schnittpunkt haben, sieht man an Bild 0.7, wir
wollen es auch durch formales Umformen zeigen. Wie umgeformt wurde, ist
rechts vermerkt.
X! -Xz 1.
4x2 8, 11=11-I
2x2 1. Ill=III-I

Die Gleichungen fi und IÜ verlangen x 2 = 2 und x 2 = ~,das ist ein Widerspruch.


Wie man sieht, sind derartige Umformungen von Gleichungssystemen sehr
wirksam, wir werden in 0.4.6 eine Rechtfertigung dafür geben. In obigem Bei-
spiel sollte man bemerken, daß die gemeinsamen Schnittpunkte von I mit II und
I mit III erhalten bleiben.
8 0 Lineare Gleichungssysteme

0.2.4. Den Begriff Gerade hatten wir bisher noch nicht präzise erklärt, das soll
schleunigst nachgeholt werden:
Definition. Eine Teilmenge L C JR2 heißt Gerade, wenn es a 1 , a 2 , b E lR mit
(a1 , a 2 ) #- (0, 0) gibt, so daß
L = {(xJ,Xz) E lR2 : a,x, +azXz = b).
Daß man eine Gerade genauso gut mit Hilfe einer Parametrisierung beschreiben
kann, ist die Aussage von folgendem
Satz. Eine Teilmenge L C 1R2 ist genau dann eine Gerade, wenn es v, w E JR 2
mit w #- 0 gibt, so daß
L = v + lRw.
Dieser Satz folgt später sehr leicht aus der allgemeinen Theorie. Ohne weitere
Hilfsmittel ist der Beweis etwas mühsam, wir wollen es dennoch vorführen:
I) Ist L eine Gerade im Sinne der obigen Definition, so gibt es v und w mit den
angegebenen Eigenschaften.
Sei also L gegeben durch a 1, a 2 , b mit (a 1 , a 2) #- (0, 0). Wir führen den Fall
a 1 -1- 0 aus, der Fall a 2 -1- 0 geht analog. Indem man im Ergebnis von 0.2.2 1.. = 0
und/.. = a 1 setzt (siehe Bild 0.8), kommt man zu der Definition

v:=(:,.o). w:=(-a ,aJ), 2 L' :=v+lRw,

und es ist zu zeigen, daß L = L'. Dazu ist L CL' und L' c L zu beweisen.
x,

L'
Bild 0.8
0.2 Geraden in der Ebene 9

a) L C L': Ist (x,, Xz) E L, so ist a 1x 1 + a 2x 2 = b . Also gilt für A := x 2/a 1

(x, , xz) = (~- a2J.., a 1J..) = v + J..w.


Somit ist (x 1, x 2 ) E L'.
b) L' c L: Ist x E L', so gibt es ein J.. mit

X = V+ AW = ( ~- a2J.., a 1J..) = (x 1, Xz).

b
Setzt man x 1 - - a2 J.. und x 2 = a 1J.. in die Gleichung von Lein, so erhält
a,
man

Also ist x E L .
2) Ist L = v + lRw, so ist eine Gleichung zu finden. Ist v = (v 1, v2 ) und
w = (w 1 , w2 ) mit w 1 f. 0, so zeigt eine einfache Überlegung (siehe Bild 0.9),
daß

Xt- Vt Wt
sein muß. Wir definieren daher a 1 := Wz, az := -w 1, b := WzVt - Wt Vz und
L': =/(x,,xz)ElR2 : a,x,+azXz = b).

a) L C L': Dazu muß man x = v + J..w = (v 1 + J..w 1 , v2 + J..w 2 ) E L in die


Gleichung einsetzen. Das ergibt
Wz(Vt + J..w,)- w,(vz + AWz) = WzVt- WtVz.
Also ist x E L'.
v + JR.w

L'
Bild0.9
lO 0 Lineare Gleichungssysteme

b) L' c L: Sei x = (x 1, x 2 ) E L'. Dazu muß man ein).. E IR finden, so daß


X= (Xt,Xz) =V+ AW = (Vt + AW[, Vz +"Awz).
Wegen w 1 -=/= 0 kann man aus der ersten Komponente ausrechnen, daß
).. = X t - Vt
Wt
sein muß. Definiert man).. durch diese Gleichung, so folgt aus x E L', daß auch
WzVt - Wt Vz- WzXt
--=--'----'-..::...__..::..._..:. = Vz + >.. Wz .
az
Also ist x E L. D
0.3 Ebenen und Geraden im Standardraum JR 3 ll

0.3 Ebenen und Geraden im Standardraum JR3


0.3.1. Als ,,Raum" betrachten wir den dreidimensionalen reellen Raum. Wie in
der Ebene geht durch zwei verschiedene Punkte v, v' E JR3 genau eine Gerade
L. Ist w := v'- v, so ist wie in 0.2.1
L={v+A.w: A.ElR)=v+ lRw
eine Parameterdarstellung von L. Es gibtjedoch zwei wesentliche Unterschiede
zur Ebene:
1) Zwei Geraden sind im allgemeinen windschief, d.h. ohne Schnittpunkt und
nicht parallel.
2) Eine lineare Gleichung im JR 3 beschreibt eine Ebene, zur Beschreibung ei-
ner Geraden benötigt man zwei lineare Gleichungen (d.h. man stellt sie als
Schnitt von zwei Ebenen dar).
Das wird im folgenden genauer ausgeführt.
0.3.2. Wir betrachten eine lineare Gleichung der Form
a,x, + azxz + a3X3 = b
und die Menge der Lösungen
E = {(x1, Xz , x3) E 1R3 : a 1x 1 + azxz + a3x3 = b).
Ist a 1 = a 2 = a 3 = 0, so ist E = 0 für b i= 0 und E = JR 3 für b = 0. Für
a 1 = a 2 = 0, aber a 3 i= 0 lautet die Gleichung
b
x3 = -,
a3
Xa

-----71''---------x.

Bild 0.10
12 0 Lineare Gleichungssysteme

das ist eine Ebene parallel zur Ebene x 3 = 0.


Xa

Bild 0.11
Ist a 3 = 0 und (a 1 , a 2 ) # (0, 0), so haben wir eine Gerade
L = {(x J, xz) E IR?: a 1x 1 + a 2x 2 = b},
und E entsteht daraus, indem man alle im Raum darüber- und darunterliegenden
Punkte dazunimmt, d.h. (siehe Bild 0.11)
E = {(x 1, x 2 , x 3 ) E JR3 : (x 1, x 2 ) E L).
Sind alle drei Koeffizienten a; # 0, so schneidet E die Achsen an den Stellen
b j a;.
Xa

x2

Bild 0.12
0.3 Ebenen und Geraden im Standardraum IR3 13

Nach diesen Beispielen eine präzise


Definition. Eine Teilmenge E c IR3 heißt Ebene, wenn es a 1 , a 2 , a 3, b E IR mit
(a 1, a 2 , a 3 ) =f. (0, 0, 0) gibt, so daß
E={(x 1,xz, XJ)EIR3 : a 1xJ+a 2x 2 +aJXJ =b).

0.3.3. Zur Parametrisierung einer Geraden reicht ein Parameter, bei einer Ebene
geht es mit zweien, und zwar wie folgt. In der Ebenengleichung nehmen wir
a 3 =f. 0 an (andernfalls vertausche man die Indizes). Wir betrachten die Standard-
ebene IR2 und bezeichnen die Punkte mit (}q, A. 2 ) . Setzt man x 1 = A. 1, x 2 = A. 2 in
die Ebenengleichung ein, so erhält man
1
x3 = - (b- a 1A. 1 - azAz) .
a3

Eine triviale Rechnung ergibt

also ist <l>(IR 2 ) c E, und mit etwas mehr Rechnung als in 0.2.4 kann man zeigen,
daß

sogar bijektiv ist. Wir verzichten darauf, das hier vorzurechnen, weil es in 2.3 aus
der allgemeinen Theorie folgt. Die so erhaltene Abbildung <1> von der Standard-
ebene IR2 auf die in IR3 liegende Ebene E heißt Parametrisierung. In der oben
angegebenen Form hat sie eine einfache geometrische Interpretation: <1> ist die
Umkehrung der Projektion
lf: E -+ IR2 , (x 1, x 2 , x3) ~-+ (xJ, Xz) ,

auf die Koordinatenebene. Natürlich gibt es viele andere Parametrisierungen von


E.
Die oben mit Hilfe der Abbildung <1> angegebene Parametrisierung der Ebene
E kann man noch etwas anders schreiben. Sind u, v, w E IR3 gegeben, so sei
u + IRv + IRw := {x E IR3 : es gibt A. 1, A. 2 E IR mit x = u + A. 1 v + A. 2 w} .
14 0 Lineare Gleichungssysteme

x3

Bild 0.13
Das ist das Bild von <1>, wenn man

u <1>(0, 0) = ( 0, 0, ~) '

v <1>(1,0)-u= (1.0. -:~),


w <1>(0, 1)- u = ( 0 , 1,-::)

wählt.
x3

Bild 0.14
0.3 Ebenen und Geraden im Standardraum JR 3 15

0.3.4. Nun wollen wir zwei Ebenen schneiden. Dazu zunächst ein
Beispiel. Wir betrachten die Gleichungen
X1 +x2 + X3 -6, I
x1 + 2x2 + 3x3 -10 , li
und formen sie um zu
x1 +x2 +x3 -6,
X2 + 2x3 -4 . ll = li - I
Der Schnitt der beiden Ebenen ist eine Gerade L, ein Punkt darauf ist festgelegt
durch seine x3 -Koordinate. Übersetzt in eine Rechnung bedeutet das: man wählt
einen reellen Parameter A., setzt x 3 = A. und berechnet erst mit ii und dann mit I
X2 = -2A.-4 ,
x1 = A.- 2.
Das ergibt eine Parametrisierung von L
<f>: IR -+ L c IR3 , A. ~--+ (A. - 2, - 2A. - 4, A.) .
x3

Bild 0.15
Hat man allgemein zwei Ebenengleichungen
a1x1 + a2x2 + a3x3 b,
b'' II
16 0 Lineare Gleichungssysteme

und ist ai =F 0, so führt eine Umformung wie oben zu einem Unglück, wenn es
ein Q E lR gibt mit

Dann wird nämlich die linke Seite von ii := II- Q · I gleich Null. Das hat einen
geometrischen Hintergrund, denn (*) bedeutet, daß die durch I und II beschrie-
benen Ebenen parallel oder gleich sind. Ein präziser Beweis davon kann später
leicht nachgeholt werden (vgl. Aufgabe 8 zu 2.3).

0.3.5. Nun schneiden wir schließlich drei Ebenen im JR 3 .


Beispiel. Wir nehmen zu dem Beispiel aus 0.3.4 noch eine Gleichung dazu:

XI + X2 + X3 -6 ,
XI+ + 3x3
Zx2 -10, II
2xi + 3x2 + 6x3 -18. 111

.r3

Bild 0.16
Die drei Ebenen schneiden sich in einem Punkt. Um ihn zu berechnen, formen
wir wieder um. Die erste Runde ergibt
0.3 Ebenen und Geraden im Standardraum JR 3 17

x3

Bild 0.17

ll=II - 1
III = III- 21

Um den Schnittpunkt ganz schematisch ausrechnen zu können, formen wir III


noch einmal um zu

2x3 = -2.
- -
III = III- II
:::::::

Damit ergibt sich durch Einsetzen von unten nach oben

XJ -1 nach III,
Xz -2 nach II ,
x, -3 nach I.

Der einzige Schnittpunkt der drei Ebenen ist also ( - 3, -2, -1).

Ob dieses Verfahren im allgemeinen einen einzigen Schnittpunkt liefert, hängt


ganz von den Koeffizienten der drei Gleichungen ab (vgl. 2.3.6).
18 0 Lineare Gleichungssysteme

Xa

Bild 0.18
0.3 Ebenen und Geraden im Standardraum IR 3 19

Aufgaben zu 0.3

l. Zeigen Sie, dass für zwei Punkte v, w E IR!." die folgenden Bedingungen äquivalent
sind:
i) v # 0, und es gibt kein Q E IR!. mit w = Q· v.
ii) w # 0, und es gibt kein Q E IR!. mit v = Q · w.
iii) Sind A, 1-1. E IR mit J..v + 1-/.W = 0, so folgt notwendigerweise A = 1-1. = 0.
Man nennt v und w linear unabhängig, falls eine der obigen Bedingungen erfüllt ist. v
und w heißen linear abhängig, falls sie nicht linear unabhängig sind. Im untenstehenden
Bild sind v und w linear unabhängig, v und uJ linear abhängig.

Bild 0.19
2. a) Beweisen Sie, dass eine Teilmenge E des W genau dann eine Ebene ist, wenn es
Vektoren u, v, w E JR!.3 gibt, so dass v und w linear unabhängig sind und
E = u + JR!.v + JR!.w.
b) Finden Sie für die Ebene E =I (x 1, x 2, x 3) E JR3 : 3x 1 - 2x2 + x 3 = -1) eine Para-
metrisierung.
c) Geben Sie für die in Parameterdarstellung gegebene Ebene
E = (I , 2, 3) + IR!. · (4, 5, 6) + IR!. · (7, 8, 9)
eine beschreibende lineare Gleichung an.
3. Zeige Sie: Sind x, y, z E JR!.3 drei Punkte, die nicht auf einer Geraden liegen, so gibt
es genau eine Ebene E c JR3 , die x, y und z enthält, nämlich
E = x + IR!. · (x - y ) + IR!. · (x- z).
20 0 Lineare Gleichungssysteme

0.4 Das Eliminationsverfahren von GAUSS


0.4.1. Nach den vielen Spezialfällen und Beispielen ist der Leser hoffentlich
gerüstet für den allgemeinen Fall. Die Zahl n E N ist die Zahl der Unbestimm-
ten, davon unabhängig kann man eine Zahl m E N für die Anzahl der linearen
Bedingungen wählen. Da m die Anzahl der verfügbaren Buchstaben überschrei-
ten kann, verwenden wir für die Koeffizienten aiJ doppelte Indizes. Das Glei-
chungssystem lautet also:

+amnXn b",'
und gesucht ist die Menge der (x 1, ... , X 11 ) E IR:", die alle Gleichungen erfüllen.
Das System (*) ist mühsam aufzuschreiben. Ein Meister in übersichtlichen
Rechenverfahren war A. CAYLEY, der auch erstmals systematisch Matrizen
verwendete. Das hilft hier sofort. Die Koeffizienten a iJ schreibt man, wie sie
in ( *) vorkommen, als rechteckiges Schema (Matrix genannt)

A·-

Nun ist der Kniff, nicht die liegenden Vektoren (oderZei/en) (x 1 , ••• , X 11 ) und
(b 1 , •.• , b,J zu betrachten, sondern entsprechend der Anordnung der b; in (*)
die stehenden Vektoren (oder Spalten)

Zwischen der Matrix A und der Spalte x der Höhe n erklärt man ein Produkt,
das eine Spalte der Höhe m ergibt:

A·x :=

Dabei ist entscheidend, daß x so viele Zeilen wie A Spalten hat. Das lineare
Gleichungssystem (*)kann man dann in der Form
A. X= b (*')
0.4 Das Eliminationsverfahren von GAUSS 21

schreiben, wobei das eine Gleichheit von zwei Spalten mitjeweils m Zeilen be-
deutet. Diese geschickte Schreibweise ist gewöhnungsbedürftig und auch etwas
gefährlich, weil man leicht vergessen kann, was sie explizit bedeutet.
Man nennt A die Koeffizientenmatrix des linearen Gleichungssystems. Hängt
man die Spalte b noch an, so erhält man die Matrix

a1"
(A, b) :=

a","
sie heißt erweiterte Koeffizientenmatrix. Darin ist alle Information über das
Gleichungssystem enthalten.
Hat eine Matrix A insgesamt m Zeilen und n Spalten, so spricht man zur
Abkürzung von einer (m x n)-Matrix. Man schreibt dafür A = (aiJ), die reellen
Zahlen aiJ heißen Einträge von A.
Eine andere Methode, das Gleichungssystem (*) kürzer aufzuschreiben, be-
nutzt das Summenzeichen L · Allgemein ist
n

Lc1 := c 1 + ... + c".


J=l
Dabei heißt j der Summationsindex, man kann ihn durch jeden anderen Buch-
staben ersetzen. In dieser Schreibweise lautet die i -te Gleichung
n

LaiJxJ = bi,
}= 1

das ganze System also


II

LaiJXJ =bi füri=l , ... ,m .


}= I

Welche Schreibweise man bevorzugt, ist nebensächlich. Wir werden vorwiegend


A · x = b benutzen, weil dabei die geringste Anzahl von Buchstaben erforderlich
ist.
0.4.2. Nachdem eine energiesparende Schreibweise für Gleichungssysteme ver-
einbart ist, können wir das Problem der Lösung in Angriff nehmen. Die Lö-
sungsmenge ist nach Definition gleich
Lös(A,b):={xE!lli.": A·x=b),
wobei x als Spaltenvektor geschrieben ist. (Diese suggestive Bezeichnungsweise
habe ich bei [J) entdeckt; ich konnte nicht der Versuchung widerstehen, sie zu
22 0 Lineare Gleichungssysteme

übernehmen.) Das System zu lösen heißt, eine effiziente Methode zur Beschrei-
bung der Menge Lös (A, b) anzugeben. Was wir schließlich erhalten werden, ist
eine Zahl k E N und eine explizit angehbare bijektive Abbildung
<I>: lRk --* Lös (A, b) c JR",
sie heißt Parametrisierung. Die Berechnung von <I> mit Hilfe des nach C.F.
GAUSS benannten Eliminationsverfahrens ist recht einfach, das ist Ziel dieses
Kapitels. Der Nachweis der guten Eigenschaften von <I> erfordert etwas
Theorie und wird in Kapitel 2 nachgeholt. Der abstrakte Hintergrund von linea-
ren Gleichungssystemen wird schließlich in Kapitel 6 erläutert.
0.4.3. In den Beispielen aus 0.2 und 0.3 hatten wir Gleichungssysteme so lange
umgeformt, bis eine Parametrisierung schrittweise "von unten nach oben" be-
rechnet werden konnte. Beispiele für so umgeformte Koeffizientenmatrizen A
waren

(~ -~) (~ ~)
Die Nullen zu Beginn der Zeilen haben dabei eine typische Staffelung, die
Trennlinie von den anderen Einträgen hat Stufenform.
Definition. Einem x n-Matrix A = (aij) heißt in Zeilenstufenform, wenn sie
von der folgenden Form ist:

r
A=
0

Dabei müssen die Einträge an den mit ® markierten Stellen ungleich Null sein,
und unterhalb der eingezeichneten "Stufenlinie" dürfen nur Nullen stehen.
Damit auch die Grenzfälle klar geregelt sind, kann man diese Definition noch
präziser aufschreiben. A ist in Zeilenstufenform, wenn folgendes gilt:
I. Es gibt eine Zahl r mit 0 S r S m, so daß in den Zeilen mit Index 1 bis r
jeweils nicht nur Nullen stehen und in den Zeilen mit Index r + 1 bis m nur
Nullen stehen.
0.4 Das Eliminationsverfahren von GAUSS 23

2. Für jedes i mit 1 .:": i .:": r betrachten wir den niedrigsten Index ); der Spalte,
in der ein Eintrag ungleich Null steht, in Zeichen
); := min{j: a ij =f. 0) .
Offensichtlich ist 1 _:": ); .:": n, und die zusätzliche Stufenbedingung lautet
)I < )2 < · · · < )r ·
Man beachte, daß der Fall r = 0 zugelassen ist; dann sind alle Einträge von A
gleich Null. Die besonders ausgezeichneten und oben durch ® gekennzeichneten
Einträge
al ) l ' . .. ' ar)r
heißen Pivots (auf deutsch Angelpunkte) von A. Sie sind nach Definition von
Null verschieden.
Beispiel. Für

A=(~~~;~~~)
0 0 0 0 0 3 1
0 0 0 0 0 0 0
ist m = 4, n = 7, r = 3, J1 = 2, h = 3, h = 6.
Besonders einfach aufzuschreiben ist der Spezialfall, in dem
)I= 1, h = 2, ... , j, = r.
Dann hat A die Form

r
A=
0

Durch eine Umordnung der Spalten von A , d.h. eine andere Numerierung der
Unbekannten des entsprechenden Gleichungssystems, kann man das stets errei-
chen. Für die Praxis ist das nebensächlich, aber für die Theorie kann man sich
dadurch die lästigen Doppelindizes ); ersparen.
0.4.4. Nun geben wir ein Lösungsverfahren für ein lineares Gleichungssystem
an, bei dem die Koeffizientenmatrix A in Zeilenstufenform ist. Zur Vereinfa-
chung nehmen wir an, daß die Pivots in den ersten r Spalten sitzen. Dann hat die
24 0 Lineare Gleichungssysteme

erweiterte Koeffizientenmatrix die Gestalt

(A, b) = b,
0

bm

mit a, 1 # 0, ... , a,, # 0 . Die Einträge b,+ 1, ... , bm sind entscheidend für die
Frage, ob es überhaupt eine Lösung gibt.
Bemerkung. Gibt es ein b, # 0 mit r + 1 ::: i ::: m, so ist Lös (A, b) leer.
Beweis. Die i-te Gleichung lautet
0 · x 1 + ... + 0 · x" = b, # 0.
Diese Bedingung kann kein x erfüllen. D

Im gegenteiligen Fall
br+ l = ... = bm = 0
geben wir nun eine Methode an, Lösungen zu konstruieren. Dazu unterscheiden
wir zwischen zwei Arten von Variablen:
x,+ 1, ... , Xn sindfreie Variablen, sie können alle beliebigen Werte annehmen.
x 1 , ••• , x, sind gebundene Variablen, sie sind eindeutig dadurch festgelegt,
für welche Werte sich die freien Variablen entschieden haben.
Das kann man so beschreiben. Man setzt k := n- r, das ist die Zahl der freien
Variablen, wählt),. 1 , ••• , Ak E lR. als Parameter, und setzt

Zur Berechnung der x 1 , •• • , x, daraus beginnt man mit der r-ten Gleichung
a,,x, + ar.r+ l),.l + ... + a,n),.k = b , .
Daraus erhält man

Setzt man das in die (r - 1)-te Gleichung ein, erhält man analog
Xr - 1 = dr - l.r - lbr - 1 + d,_,_,b, + Cr - I,IAI + ... + Cr-l,kAk,
0.4 Das Eliminationsverfahren von GAUSS 25

wobei die auftretenden Zahlen c und d von den Einträgen der Zeilen r - 1 und r
aus der Matrix A abhängen. Fährt man so fort, erhält man schließlich
XJ = d!Ibl + ... + d1rbr + CJJAJ + ... + CJkAk .
Insgesamt ergibt sich eine Abbildung
<f> : !Rk --+ Lös ( A , b) c IR" ,
(AJ, ... ,A.k) ~ (XJ , . .. ,XnAJ, . .. ,A.k ),
wobei für x 1, .•• , Xr die oben berechneten von A. 1, .•• , Ab den Einträgen von
A und b 1 , ••• , br abhängigen Ausdrücke einzusetzen sind. Da hierfür nach den
obigen Rechnungen alle r Gleichungen erfüllt sind, liegen die Werte von <f> in
der Lösungsmenge Lös (A, b) . Man hat also für beliebig gewählte Parameter
A. 1 , ••• , A.k eine Lösung des gegebenen Gleichungssystems erhalten. D

Beispiel. Ist A die (4 x 7)-Matrix aus 0.4.3, und wählt man


bl = 3, b2 = 1, b3 = 2, b4 = 0,
so sind die Lösungen von A · x = b also in Spalten geschrieben gegeben durch
XI AJ
X2 ~ - 2A.2 - 3A.3 - ~A.4
XJ ~ - 3A.2 - 2A.3 + ~;,.4
x4 A.2
xs AJ
X6 ~- !;,.4
3 3
X7 A.4
0 I 0 0 0
3 0 -2 -3 5
2 - 2
I I
3 0 -3 -2 3
0 +AI 0 +A.2 + AJ 0 + A4 0
0 0 0 1 0
2 0 0 0 I
3 -3
0 0 0 0

0.4.5. Einen wichtigen Spezialfall wollen wir noch erwähnen: Ist die Matrix A
quadratisch, so hat man ebensoviele Gleichungen wie Unbekannte. Ist speziell
26 0 Lineare Gleichungssysteme

A auf Zeilenstufenform mit r = n, so ist

und es gibt wegen k n - r = 0 keinen freien Parameter, also eine einzige


Lösung
X = (Xt, ... , Xn),
die man wieder von unten nach oben berechnet. Ist überdies
bt = ... = bn = 0, SO ist Xn = ... = XJ = 0,
man erhält also nur die triviale Lösung. Beispiele für eindeutig lösbare Glei-
chungssysteme findet man in 0.2.3 a), 0.3.5 und Aufgabe 2.
0.4.6. Nachdem wir gesehen haben, wie sich ein Gleichungssystem in Zeilen-
stufenfarm lösen läßt, versuchen wir nun, ein beliebiges System auf diese Form
zu bringen. Dazu benutzen wir zwei Arten von elementaren Zeilenumformungen
der erweiterten Koeffizientenmatrix:
I) Vertauschung von zwei Zeilen.
2) Addition der A-fachen i -ten Zeile zur k-ten Zeile, wobei 0 ol A E IR und i ol k
ist.
Diese Umformungen sind gerechtfertigt durch den
Satz. Sei (A, b) die erweiterte Koeffizientenmatrix eines linearen Gleichungssy-
stems, und (Ä, b) aus (A, b) durch endlich viele elementare Zeilenumformun-
gen entstanden. Dann haben die Systeme A · x = b und Ä · x = b gleiche
Lösungsräume, in Zeichen Lös (A , b) = Lös (Ä, b).
Vorsicht! Man beachte, daß Spaltenumformungen eine völlig andere Wirkung
haben, weil dadurch die Unbekannten "gemischt" werden. Das ist unerwünscht.
Nur Vertauschungen in den ersten n Spalten sind ungefährlich, sie bewirken le-
diglich eine Umnumerierung der Unbekannten.
Beweis. Es genügt zu beweisen, daß der Lösungsraum bei einer einzigen elemen-
taren Zeilenumformung unverändert bleibt, denn dann ändert auch Wiederholung
nichts.
Typ 1) ist völlig unproblematisch, weil alle Gleichungen simultan erfüllt sein
müssen, die Reihenfolge ist gleichgültig.
0.4 Das Eliminationsverfahren von GAUSS 27

Bei Typ 2) muß man etwas rechnen. Da nur die Zeilen i und k betroffen sind,
genügt es zu zeigen, daß die beiden aus jeweils zwei Gleichungen bestehenden
Systeme
G;1XI + ... + G; X
11 11

ak1X1 + · · · + ak"X"
und
a; 1x 1 + ... + a;"x"
(akl + A.a;1)x1 + ... + (ak" + A.a;")x"
gleiche Lösungsräume haben. Erfüllt x = (x 1 , ••• , x") die Gleichungen (* ), so
auch die erste von(*) , und durch Addition der A.-fachen ersten Gleichung von(*)
zur zweiten die zweite Gleichung von (*). Umgekehrt folgt durch Subtraktion
der A.-fachen ersten Gleichung aus (*) von der zweiten auch die zweite Gleichung
aus(*). D
Was bei Umformungen vom Typ 2) geometrisch vorgeht, sieht man am einfachs-
ten in der Ebene. Zwei Gleichungen beschreiben zwei Geraden, die Lösungs-
menge besteht aus den Schnittpunkten (keiner, einer, oder eine ganze Gerade,
vgl. 0.2). Was verschiedene Faktoren A. bewirken, wollen wir am besten an ei-
nem Beispiel zeigen: Gegeben seien Geraden
L; durch x1 =1 und Lk durch x 1 - x2 = 2.
x,

Bild 0.20
28 0 Lineare Gleichungssysteme

Dann ist
Lk+Ai gegeben durch (I + A.)x 1 - x2 = 2 + A..
Diese Schar von Geraden mit Parameter A. geht durch (1 , -1), sie enthält alle
Geraden durch (I, -1) mit Ausnahme von L;, und die Zahl A. ist am Schnittpunkt
mit der Geraden x 1 = 2 zu sehen.
0.4.7. Der letzte und am schwierigsten in allgemeiner Form aufzuschreibende
Schritt ist enthalten in dem
Satz. Jede Matrix A kann man durch elementare Zeilenumformungen in eine
Matrix A in Zeilenstufenform überführen.
Beweis. Wir geben ein konkretes Verfahren an, das schrittweise durchgeführt
wird und so aufgebaut ist, daß daraus ohne große Schwierigkeiten ein Com-
puterprogramm gemacht werden kann. Wer durch die vielen Indizes verwirrt
ist, möge zunächst das unten angegebene Beispiel studieren, bei dem drei Run-
den nötig sind.
Sei A einem x n-Matrix. Ist A = 0, so hat A nach Definition schon Zeilen-
stufenform mit r = 0.
Ist A f 0, so gibt es mindestens einen Eintrag f 0. Also gibt es mindestens
eine von Null verschiedene Spalte, wir wählen die mit dem kleinsten Index )t.
in Zeichen
) 1 = min{j: es gibt ein i mit aiJ f 0).

Ist a 1h f 0, so können wir es als Pivot wählen. Andernfalls suchen wir uns ein
a;,j, f 0 und vertauschen die Zeile I mit der Zeile i 1• Das ist schon die erste
Zeile von A, also gilt für den ersten Pivot
al)i = ail)i.
Durch Umformungen vom Typ 2) kann man alle unterhalb von ä t j , stehenden
Einträge zu Null machen. Ist a einer davon, so soll
a + A.älj, = 0
werden, also hat man a
A. = --_-

r.)
al}J
zu wählen. Das Ergebnis dieser Umformungen ist von der Gestalt

Ä, ~ (I ..: ä:"
0.4 Das Eliminationsverfahren von GAUSS 29

wobei an den mit * markierten Stellen irgendwelche Einträge stehen. Die Matrix
A2 hat m- 1 Zeilen und n- j 1 Spalten.
Im zweiten Schritt macht man mit A 2 das Gleiche wie oben im ersten Schritt
mit A = A 1 : Ist A 2 = 0, so hat A1 schon Zeilenstufenform; andernfalls suche
man h > h und den Pivot a2h · Die dabei nötigen Zeilenumformungen von A2
kann man auf die Zeilen 2 bis m von A1 ausdehnen, ohne daß sich in den Spalten
1 bis j 1 etwas ändert, denn dort stehen nur Nullen.
Ist A2 umgeformt, so erhält man A 3 , u.s.w. Das Verfahren muß abbrechen,
weil die Zeilen- und Spaltenzahlen der Matrizen Ak abnehmen, oder weil im
Lauf des Verfahrens eine Matrix Ak = 0 entsteht. Das Endergebnis ist

0 Ia,j, *
D

Beispiel. Damit der Gang der Rechnung mit dem bloßen Auge zu erkennen ist,
sind die Einträge so gewählt, daß sie ganzzahlig bleiben.
0 0 2 9 0 3 4 5 9 f u _4_j_!)_
A= 0 3 4 5 9 0 0 2 9 0 0 1I I 2 9
"-" "-"
0 6 7 8 9 0 6 7 8 9 0 0 1-1 -2 -9
0 9 9 9 9 0 9 9 9 9 0 0 ~ -3 -6-18

~59
2--9 =A
"-" -~

0 0 0 10 0
I
0 0 0 10 9 0 0 0 0
Bei dem oben allgemein beschriebenen Verfahren wird aus r verschiedenen
Spalten jeweils ein Eintrag als Pivot ausgewählt, Kandidaten sind alle von Null
verschiedenen Einträge. Für die Theorie wird sich später zeigen, daß das Ergeb-
nis nicht von der Wahl abhängt. Für die Praxis ist es vorteilhaft, den vom Betrag
her größten Eintrag zu wählen, weil entsprechend (*) durch den Pivot dividiert
wird, und kleine Nenner zu großen Schwankungen führen können (vgl. Aufgabe
4).
30 0 Lineare Gleichungssysteme

0.4.8. Nun ist das Eliminationsvel'jahren von GAUSS für ein System von m
linearen Gleichungen und n Unbestimmten mit reellen Koeffizienten komplett,
wir fassen die einzelnen Schritte noch einmal zusammen:

1) Man schreibe die erweiterte Koeffizientenmatrix (A,b) auf.


2) Man bringe A auf Zeilenstufenform und forme dabei die Spalte b mit
um. Ergebnis ist (A, b), insbesondere die Zahl r . Beachte, daß in der
b-Spalte kein Pivot gesucht wird!
3) Man lese an b ab, ob es Lösungen gibt und wenn ja, berechne man die
Parametrisierung
<1:>: R "-r --+ Lös (A, b) = Lös (A,b) c JE."
der Lösungsmenge.

Schließlich bleibt noch zu überlegen, welche Eigenschaften die in 0.4.4 kon-


struierte Parametrisierung
<1:>: R k --+Lös (A , b) C JE."
.A =(.Al , . . . ,.Ak) 1-+ (x,(.A), ... ,Xr(.A) ,.A , , . . . ,Ak) = x
hat. Zunächst ist klar, daß verschiedene k -Tupel .A auch verschiedene Lösun-
gen x ergeben, denn die .A 1, . . . ,Ak sind die letzten k Komponenten von x. Ist
andrerseits
X:= (XJ, ... ,Xr,Xr+J, ... ,X11 ) E Lös (A,b)
eine beliebige Lösung des gegebenen linearen Gleichungssystems, so ist
X = <I>(Xr+l, ... ,in),
denn man kann als Parameter X:= (.Xr+ 1, ••• ,x11 ) wählen. Dann muss
XJ = X! (5.). ... ,Xr = x,(X)

sein, weil XJ, ... ,Xr als Funktionen von .A wie in 0.4.4 eindeutig festgelegt sind.
Die k- Tupel .A und die Lösungs-n-Tupel x entsprechen sich also in eineindeuti-
ger Weise. In der Terminologie von 1.1.4 kann man das so ausdrücken:
Satz. Die in 0.4.4 konstruierte Parametrisierung
<I> : JE.k --+Lös (A, b) c JE."
ist eine bijektive Abbildung.
Eine delikate Frage bleibt offen: Die kritische Zahl r mit n = k + r wurde
mit Hilfe von Umformungen der Matrix A erhalten, und es bleibt zu zeigen,
0.4 Das Eliminationsverfahren von GAUSS 31

daß sie unabhängig ist von den bei den Umformungen getroffenen Auswahlen,
etwa der Pivots. Das wird sich mit Hilfe von etwas Theorie in 2.3 recht einfach
ergeben: Die Zahl r ist der "Rang" der Matrix A und k ist die "Dimension" des
"affinen Raumes" Lös(A. b ). Aber auch ohne diese Ergebnisse können wir im
Folgenden lineare Gleichungssysteme schon lösen, wo immer sie auftreten.

Aufgaben zu 0.4
1. Lösen Sie folgende lineare Gleichungssysteme:
a)
X2 +2x3 +3.q 0
X] +2x2 +3x3 +4x4 0
2xl +3xz + 4x3 +5x4 0
3xl +4x2 +5x3 +6x4 0
b)
-6Xl +6x2 +2x3 -2X4 2
-9Xl +8xz +3x3 -2X4 3
-3.q +2xz + X3
-15xl +l4xz +5x3 -4X4 5

2. Geben Sie die Lösung des linearen Gleichungssystems an, das durch die fol-
gende erweiterte Koeffizientenmatrix gegeben ist:
-1
0
-5
-1
2
3

-1
-3
1
0
2
j)
-2

3. Bestimmen Sie, für welche t E lR das folgende lineare Gleichungssystem in


Matrixdarstellung lösbar ist und geben Sie gegebenenfalls die Lösung an.
4 2 12t )
12 7 12t +7
10 6 7t +8
4. Lösen Sie das folgende lineare Gleichungssystem auf einem Taschenrechner
mit einer Rechengenauigkeit von n Stellen hinter dem Komma (Abschneiden
weiterer Stellen ohne Rundung!) für e = w-k für größer werdendes k _:::: n,
und zwar einmal mit dem Pivot E: und einmal mit dem "maximalen Zeilenpivot"
1 der ersten Spalte.
X + y 2,
E:X + y 1.
Beschreiben Sie den geometrischen Hintergrund dieser Umformungen.
Kapitell
Grundbegriffe
Zu Beginn dieses Kapitels erklären wir die grundlegenden Begriffe der Algebra, die an
den verschiedensten Stellen der Mathematik auftauchen. Wie intensiv man dies bei der
ersten Lektüre studieren soll, ist eine Frage des Geschmacks. Wer gar keinen Appetit dar-
auf verspürt, kann sofort bis nach 1.4 weiterblättern, wo die wirkliche lineare Algebra,
nämlich die Theorie der Vektorräume, beginnt, und das, was er von den Grundbegriffen
später benötigt, bei Bedarf nachschlagen.

1.1 Mengen und Abbildungen


Wir wollen hier nicht auf die schwierige Frage eingehen, wie der Begriff,,Menge" erklärt
werden kann; das ist Gegenstand der mathematischen Grundlagenforschung. Für die
Zwecke der linearen Algebra genügt es, einige elementare Regeln und Bezeichnungen
zu erläutern. Wer an einer fundierten Darstellung interessiert ist, möge zum Beispiel
[F-P] konsultieren.

1.1.1. Die endlichen Mengen kann man im Prinzip durch eine vollständige Liste
ihrer Elemente angeben. Man schreibt dafür
X:= {x 1 ,x2 , • •• ,x"),
wobei der Doppelpunkt neben dem Gleichheitszeichen bedeutet, daß das links
stehende Symbol X durch den rechts stehenden Ausdruck definiert wird. Die
x; heißen Elemente von X, in Zeichen x; E X. Man beachte, daß die Ele-
mente x; nicht notwendig verschieden sein müssen, und daß die Reihenfolge
gleichgültig ist. Man nennt die Elemente x 1, ... , x" E X paarweise verschieden,
wenn
X; #- x 1 für i #- j . In diesem Fall ist n die Anzahl der Elemente von X .
Die leere Menge 0 ist dadurch gekennzeichnet, daß sie kein Element enthält.
Eine Menge X' heißt Teilmenge von X, in Zeichen X ' C X, wenn aus x E X '
immer x E X folgt. Es gilt
X =Y * X c Y und Y c X.
Die einfachste unendliche Menge ist die Menge
N := (0, 1, 2, 3, ... }
der natürlichen Zahlen. Man kann sie charakterisieren durch die PEANO-Axiome
(vgl. [Z]). Diese enthalten das Prinzip der vollständigen Induktion:
SeiM c N eine Teilmenge mitfolgenden Eigenschaften:
a) 0 E M,

G. Fischer, Lineare Algebra, Grundkurs Mathematik,


DOI 10.1007/978-3-658-03945-5_2, ©Springer Fachmedien Wiesbaden 2014
1.1 Mengen und Abbildungen 33

b) n E M =? n +I E M.
Dann ist M = N.
Mancher Leser wird sich an dieser Stelle zum ersten Mal -aber sicher insgesamt
nicht zum letzten Mal -darüber wundem, daß die Bezeichnungen in der Mathe-
matik nicht einheitlich sind. So wird die Null manchmal nicht als natürliche Zahl
angesehen. Es gibt Versuche, hier durch DIN-Normen Ordnung zu schaffen (vgl.
[DIN]), aber viele Mathematiker lieben mehr ihre Freiheit, als Normblätter.
Durch Erweiterungen von Zahlbereichen erhält man ausgehend von N die gan-
zen Zahlen
z= {0, +I, -I, +2, -2, ... }'
die rationalen Zahlen

Q = {~: p, q E Z, q ,t 0} ,
und etwa als Dezimalbrüche oder Cauchy-Folgen rationaler Zahlen die reellen
Zahlen lR. Es ist
N c Z c Q c IR c <C,
wobei die in gewisser Weise abschließende Erweiterung zu den komplexen Zah-
len <C in 1.3.3 und 1.3.9 behandelt wird. Einem Leser, der mehr über den Aufbau
der ,,Zahlen" wissen möchte, sei [Z] empfohlen.
1.1.2. In der linearen Algebra werden wir mit solchen Mengen auskommen, die
sich aus den in 1.1.1 angegebenen Mengen mit Hilfe einiger elementarer Opera-
tionen ableiten lassen.
Aus einer gegebenen Menge X kann man Teilmengen auswählen, die durch
gewisse Eigenschaften der Elemente charakterisiert sind, in Zeichen
X':= {x EX: x hat die Eigenschaft E} ,
zum Beispiel X' := {n E N: n ist gerade}.
Sind X 1, ••• , Xn Mengen, so hat man eine Vereinigung
X 1 U ... U Xn := {x : es gibtein i E {1, ... , n} mitx EX;}
und den Durchschnitt
XI n ... n Xn := {x: XE X; für alle i E {I, ... , n}} .
An einigen Stellen wird es nötig sein, Vereinigungen und Durchschnitte von
mehr als endlich vielen Mengen zu betrachten. Dazu verwendet man eine Menge
I, die Indexmenge heißt, so daß für jedes i E I eine Menge X; gegeben ist. Dann
sind Vereinigung und Durchschnitt erklärt durch
34 I Grundbegriffe

UX; := {x : esgibteini EI mitx E X;},

n
i E/

X; := {x: X E X; für alle i E I} .


i E/

n
Ist etwa I = N und X ; := [ -i, i] C lR für jedes i E Nein Intervall, so ist
U X; = lR und X ; = {0} .
i EN i EN
Ist X' c X eine Teilmenge, so nennt man
X -.... X' := {x EX : x rj. X' }
die Differenzmenge (oder das Komplement).
1.1.3. Zur Beschreibung von Beziehungen zwischen verschiedenen Mengen
verwendet man ,,Abbildungen" . Sind X und Y Mengen, so versteht man unter
einer Abbildung von X nach Y eine Vorschrift f , die jedem x E X eindeutig ein
f (x ) E Y zuordnet. Man schreibt dafür
f: X --+ Y , x r-+ f (x) .
Man beachte den Unterschied zwischen den beiden Pfeilen: "--+" steht zwischen
den Mengen und "r-+" zwischen den Elementen.
Zwei Abbildungen f: X --+ Y und g : X --+ Y heißen gleich, in Zeichen
f = g, wenn f(x) = g(x) für alle x EX. Mit
Abb(X, Y)
bezeichnen wir die Menge aller Abbildungen von X nach Y.
Ein Problem bei dieser Definition einer Abbildung ist, daß nicht präzisiert
ist, in welcher Form die Abbildungsvorschrift gegeben sein soll (genauso wenig
war festgelegt worden, in welcher Form die charakterisierende Eigenschaft einer
Teilmenge vorliegen soll). Besonders einfach zu beschreiben sind Abbildungen,
bei denen f (x) durch eine explizite Formel angegeben werden kann, etwa im
Fall X = Y = lR durch
f(x) = ax , f(x) = x 2 , f (x ) =../X.
ax

Bild 1.1
1.1 Mengen und Abbildungen 35

Die letzte Vorschrift ist schon problematisch, weil es für positive reelle Zahlen
zwei und für negative keine Quadratwurzel gibt. Eine Abbildung im Sinn der
Definition liegt nur vor, wenn man negative x ausschließt und für positive x eine
Wurzel (etwa die positive) auswählt. Dann hat man eine Abbildung
f: IR+ ~ IR+, X I-'> +,JX,
wobei IR+:= {x E IR : x:::: 0}.
Mit einer Abbildung kann man nicht nur Elemente, sondern auch Teilmengen
bewegen. Sei also f: X ~ Y und M c X, N c Y. Dann heißt
f(M) := {y E Y: esgibteinx E M mit y = f(x)) c Y
das Bild von M (in Y), insbesondere f(X) das Bild von X in Y, und
r'(N) := {x EX: f(x) E N} C X
das Urbild von N in X. Man beachte, daß für eine einelementige Menge
N = {y} das Urbild
r'cy) := r'clyD c x
eine Teilmenge ist, die aus mehreren Elementen bestehen, aber auch leer sein
kann (etwa bei f(x) = x 2 ). Daher ist f - 1 im allgemeinen keine Abbildung von
Y nach X im Sinn der Definition.
Noch eine Bezeichnungsweise: Ist f: X ~ Y eine Abbildung und M c X
eine Teilmenge, so nennt man
!IM: M ~ Y, x ~--'> f(x),
die Beschränkung von f auf M. Sie unterscheidet sich von f nur durch den
eingeschränkten Definitionsbereich. Ist Y C Y' eine Teilmenge, so ist es üblich,
mit f: X ~ Y' auch die Abbildung mit dem ausgedehnten Bildbereich zu
bezeichnen.
1.1.4. Besonders wichtige Eigenschaften von Abbildungen haben eigene Na-
men. Eine Abbildung f: X ~ Y heißt
injektiv, falls aus x, x' E X und f (x) = f (x ') stets x = x ' folgt,
sUijektiv, falls f(X) = Y,
d.h. falls es zu jedem y E Y ein x E X gibt mit y = f(x) ,
bijektiv, falls f injektiv und surjektiv ist.
[st f bijektiv, so gibt es zu jedem y E Y genau ein x E X mit f(x) = y. In
diesem Fall kann man also eine Umkehrabbildung
f - 1: Y ~X , y I-'> x = f- 1(y) mit y = f(x)
36 1 Grundbegriffe

erklären. Man beachte, daß das Symbol f - 1 in verschiedenen Bedeutungen vor-


kommt:
- bei einer beliebigen Abbildung ist für jede Teilmenge N c Y das Urbild
f - 1(N) C X eine Teilmenge,
- ist f bijektiv, so besteht für die einelementige Teilmenge {y} C Y das Urbild
f- 1 ( {y}) aus einem Element x, in Zeichen
r1({y)) = {x}'

dafür schreibt man dann f - 1 (y) = x.


Durch systematisches Zählen beweist man den folgenden einfachen
Satz. Ist X eine endliche Menge, so sindfüreine Abbildung f: X-+ X folgende
Bedingungen äquivalent:
i) f ist injektiv,
ii) f ist surjektiv,
iii) f ist bijektiv.

Beweis. X bestehe aus n Elementen, also X= {x 1 , ... , x"), wobeinEN ist und
die x; paarweise verschieden sind.
i) => ii): Wir zeigen ,,nicht surjektiv" => ,,nicht injektiv" . Ist f (X) =/= X, so
besteht f(X) aus m < n Elementen. Nun besagt das sogenannte Schubladen-
prinzip von DIRICHLET: Verteilt man n Objekte irgendwie in m Schubladen,
wobei m < n, so gibt es mindestens eine Schublade, in der mehr als ein Objekt
liegt. Also kann f nicht injektiv sein.
ii) => i): Ist f nicht injektiv, so gibt es X; , x 1 mit X ; =/= x 1 , aber f(x;) = f(x 1).
Dann kann f(X) höchstens n - I Elemente enthalten, also ist f nicht surjektiv.
Wegen ii) => i) folgt auch ii) => iii), iii) => i) ist klar. Damit sind alle möglichen
Implikationen bewiesen. 0

1.1.5. Sind X, Y, Z Mengen und f: X -+ Y sowie g : Y -+ Z Abbildungen,


so heißt die Abbildung
g o f: X-+ Z, x ~---+ g (f(x)) =: (g o f)(x)
die Komposition (oder Hintereinanderschaltung) von f und g (man sagt g kom-
poniert mit f für g o f) . Man beachte dabei, daß die zuerst angewandte Abbil-
dung rechts steht, im Gegensatz zum Diagramm
X~Y~Z.
1.1 Mengen und Abbildungen 37

Daher könnte man das Diagramm besser umgekehrt schreiben:


z?-y.!-x.
Bemerkung. Die Komposition von Abbildungen ist assoziativ, d.h. für Abbildun-
genf : X ~ Y , g: Y ~ Z und h : Z ~ W ist
(h 0 g) 0 f = h 0 (g 0 f).
Beweis. Ist x E X, so ist
((h o g) o f) (x) (h o g)(f(x)) = h (g (f(x)))
h ((g o f)(x)) = (h o (g o f)) (x). 0

Vorsicht! Die Komposition von Abbildungen ist i.a. nicht kommutativ. Ist
f: IR~IR, x~x+1,
g: IR~ IR, x ~ x2 •

so ist (f o g)(x) = x 2 + 1 und (g o f)(x) = (x + 1)2 , also f o g =/= g o f.

Um eine etwas andersartige Charakterisierung von Injektivität und Surjektivität


zu erhalten, erklären wir für jede Menge X die identische Abbildung
idx : X ~ X, x ~ x.

Lemma. Sei f: X ~ Y eine Abbildung zwischen den nicht leeren Mengen X


und Y. Dann gilt:
1) f ist genau dann injektiv, wenn es eine Abbildung g: Y ~ X gibt, so daß
g o f = idx.

2) f ist genau dann surjektiv, wenn es eine Abbildung g: Y ~ X gibt, so daß


f 0 g = idy.
3) f ist genau dann bijektiv, wenn es eine Abbildung g : Y ~ X gibt, so daß
g o f = idx und f o g = idy.ln diesem Fall ist g = f- 1•

Beweis. 1) Sei f injektiv. Dann gibt es zu jedem y E f(X) genau ein x EX mit
f(x) = y, und wir definieren g(y) := x. Ist x 0 E X beliebig, so definieren wir
weiter g(y) = x 0 für alle y E Y" f(X). Das ergibt eine Abbildung g: Y ~ X
mit g o f = idx.
Ist umgekehrt g: Y ~ X mit g o f = idx gegeben, und ist f(x) = f(x') für
x, x ' EX, so ist x = idx(x) = g (f(x)) = g (f(x')) = idx(x') = x '. Also ist f
injektiv.
38 1 Grundbegriffe

2) Sei f surjektiv. Zu jedem y E Y wählen wir ein festes x E X mit f(x) = y


und setzen g (y) : = x. Die so erklärte Abbildung g : Y ---+ X hat die Eigenschaft
f o g=idy.
Ist umgekehrt g : Y ---+ X mit f o g = idy gegeben, und ist y E Y , so ist
y = f (g(y)), also Bild von g(y) , und f ist surjektiv.

3) Ist f bijektiv, so erfüllt g := f - 1 die beiden Gleichungen. Ist umgekehrt


g : Y ---+ X mit g o f = idx und f o g = idr gegeben, so ist f nach 1) und 2)
bijektiv, und es gilt g = f - 1. D

1.1.6. Schon bei der Einführung des Raumes IR" hatten wir ein "direktes Pro-
dukt" betrachtet. Sind allgemeiner X 1, • • • , X" Mengen, so betrachten wir die
geordnetenn-Tupel
x=(XJ, . .. ,x") mit x 1 EX 1, • •• ,x"EX".
Genauer kann man x als Abbildung
x: {l, . .. ,n}---+X 1 U ... ux" mit x(i)EX;
ansehen (man nennt x auch Auswahlfunktion), und zur Vereinfachung der
Schreibweise x; := x(i) und x := (x 1 , •• • , x") setzen. Im Sinne der Gleich-
heit von Abbildungen gilt dann
(XI, ... , X 11 ) = (x; , .. . , x;,) {} X1 = x;, .. . , X 11 = x; .
Nun erklären wir das direkte Produkt
X 1 x . . . x X":= {(x 1, • •• ,x"): X; EX;}
als Menge der geordneten n- Tupel. Offensichtlich ist X 1 x . .. x X" i= 0, wenn
X; i= 0 für alle i E { l , . . . , n} .
Für jedes i hat man eine Projektion auf die i -te Komponente
rr;: X 1 x ... xX"---+X;, (x 1 , • •• , x;, . . . ,x")~x;.

Ist speziell X 1 = ... = X" = X, so schreibt man


X"= X X ... X X.
Ein Element von X" ist also eine Abbildung {l , . .. , n} ---+ X. Ist allgemeiner I
irgendeine Menge (man nennt sie lndexmenge), so nennt man eine Abbildung
<p: I---+ X ' i ~X;= <p(i) ,

eine Familie von Elementen in X. Man beachte den Unterschied zu einer Teil-
menge X ' c X, die man mit <p(/) vergleichen kann: die Elemente i E I kann
man als Etiketten (oder noch näher am Familienleben als Pflichten) ansehen, die
unter den Elementen von X verteilt werden. Jedes Etikett i hat einen eindeuti-
gen Empfänger x; , die Elemente von X' = <p(/) erhalten mindestens ein Etikett,
1.1 Mengen und Abbildungen 39

und es ist möglich, daß manche x E X' mehrere Etiketten erhalten (was zur oft
gehörten Klage "immer ich" führt).
Zur Abkürzung bezeichnet man eine Familie I --+ X oft mit (x;);EI·
Für die Indexmenge I = N der natürlichen Zahlen nennt man (x; );El\1 eine
Folge, das ist ein grundlegender Begriff der Analysis.
Vorsicht! Die Frage der Existenz der oben betrachteten Auswahlfunktionen ist
nicht unproblematisch. Das führt zum Auswahlaxiom, vgl. [F-P], das auch im
Beweis von Lemma 1.1.5 schon stillschweigend verwendet wurde.
1.1.7. Für eine Abbildung f: X --+ Y nennt man die Menge
f f := {(x, f(x)) EX X Y)
den Graphen von f. Damit kann man oft eine Abbildung durch eine Skizze
veranschaulichen.
y

f(x)
(x, f(x))

Bild 1.2
Nach der Definition einer Abbildung ist die Einschränkung der Projektion auf X
rr: f1--+X
bijektiv. Daraus folgt, daß das ,,Funktionengebirge" keine "Überhänge" hat, wie
im folgenden Bild:

Bild 1.3 Gebirge mit Überhängen: ln der Fränkischen Schweiz


40 1 Grundbegriffe

1.1.8. Das direkte Produkt ist auch nützlich, um Beziehungen (oder Relationen)
zwischen je zwei Elementen x, y E X zu studieren. Man schreibt dafür allge-
meinx ~ y.
Beispiele. a) X= Menge der Menschen, x ~ y :~ x kennt y.
b) X= IR:., X ~ y : ~ X ::: y.
c) X= IR:." , (x 1, ••• , x") ~ (y 1, ••• , y") :~ x~ + ... + x; = y~ + ... + y; .
d) X= Z, 0 =f. m E N, x ~ y :~ y- x durch m teilbar.

Eine Relation ist beschrieben durch ihren Graphen R c X x X , wobei


(x,y)ER~x ~y . (*)
Man kann also eine Relation auf X definieren als Teilmenge R C X x X, und
das Zeichen ~ durch (*) erklären.
Definition. Eine Relation ~ auf X heißt Äquivalenzrelation, wenn für beliebige
y, z E X gilt:
X ,

Al X ~ X, (reflexiv)
A2 X ~ y => y ~X, (symmetrisch)
A3 x ~ y und y ~ z => x ~ z. (transitiv)
In diesem Fall sagt man x ist äquivalent zu y für x ~ y.
Der Leser möge zur Übung die obigen Beispiele auf diese Eigenschaften über-
prüfen. Vor allem die Reflexivität in Beispiel a) ist etwas Nachdenken wert.
Hat man auf einer Menge eine Äquivalenzrelation eingeführt, so kann man
- wie wir sehen werden - zu einer neuen Menge übergehen, in der äquivalente
Elemente der ursprünglichen Menge zu ,,Repräsentanten" desselben neuen Ele-
mentes werden. Dabei wird - mit den Worten von HERMANN WEYL - alles
im Sinne des eingenommenen Standpunktes Unwesentliche an den untersuchten
Objekten abgestreift. Übersetzt ins Mengen-Latein, liest sich das wie folgt:
Ist eine Äquivalenzrelation auf einer Menge X gegeben, so heißt eine Teil-
menge A C X Äquivalenzklasse (bezüglich R), falls gilt:
1. A =f. 0.
2.x,yEA=> x ~ y .

3. XE A, y E X, X~ y => y E A.

Man überlege sich, wie die Äquivalenzklassen in obigen Beispielen c) und d)


aussehen.
1.1 Mengen und Abbildungen 41

Bemerkung. Ist R eine il:quivalenzrelation auf einer Menge X, so gehört jedes


Element a E X zu genau einer Äquivalenzklasse. Insbesondere gilt für zwei
beliebige Äquivalenzklassen A, A' entweder A = A' oder An A' = 0.
Beweis. Für ein fest gegebenes a E X definieren wir
A := {x E X: x ~ a).
Wir zeigen, daß A eine Äquivalenzklasse ist, die a enthält. Wegen a ~ a ist
a E A , und es folgt A =/= 0. Sind x, y E A , so ist x ~ a und y ~ a, also x ~ y
nach A2 und A3.
Ist x E A, y E X und x ~ y, so ist x ~ a, also nach A 2 und A3 auch y ~ a
und daher y E A. Damit ist gezeigt, daß a in mindestens einer Äquivalenzklasse
enthalten ist.
Es bleibt zu zeigen, daß zwei Äquivalenzklassen A und A' entweder gleich
oder disjunkt sind. Angenommen, es ist An A ' =1= 0 und a E An A '. Ist x E A,
so ist x ~ a, und wegen a E A ' folgt auch x E A' . Also ist A c A ' . Ebenso
beweist man A' C A, woraus A = A ' folgt. D
Jede Äquivalenzrelation R auf einer Menge X liefert also eine Zerlegung von X
in disjunkte Äquivalenzklassen. Diese Äquivalenzklassen betrachtet man als Ele-
mente einerneuen Menge, die man mit X/ R bezeichnet. Man nennt sie die Quo-
tientenmenge von X nach der Äquivalenzrelation R. Die Elemente von
X I R sind also spezielle Teilmengen von X. Indem man jedem Element a E X
die Äquivalenzklasse Aa zuordnet, in der es enthalten ist, erhält man eine kano-
nische (d.h. in der gegebenen Situation eindeutig festgelegte) Abbildung
X-+ X/ R, a t-+ Aa.
Das Urbild eines Elementes A E X/ R ist dabei wieder A , aber aufgefaßt als
Teilmenge von X.
Jedes a E A heißt ein Repräsentant der Äquivalenzklasse A. Im allgemeinen
gibt es keine Möglichkeit, spezielle Repräsentanten besonders auszuzeichnen.
Das wäre auch gar nicht im Sinne der durchgeführten Konstruktion.
Als Beispiel aus dem realen Leben kann eine Schule dienen: die Menge der
Schüler wird in Klassen eingeteilt, und für manche Fragen, etwa die Gestaltung
des Stundenplans, ist nur noch die Menge der Klassen von Bedeutung.

Aufgaben zu 1.1
1. Beweisen Sie die folgenden Rechenregeln für die Operationen mit Mengen:
a) X n Y=Y nX,XUY=YUX,
b) X n (Y n Z) = (X n Y) n Z , X U (Y U Z) = (X U Y) U Z ,
42 I Grundbegriffe

c) X n (Y u Z) = (X n Y) U (X n Z), X U (Y n Z) = (X U Y) n (X u Z),
d) X'- (Mr nMz) =(X'- MJ)U{X '- Mz), X'- (Mr UMz ) =(X'- Mr)n(X '- M2) .
2. Sei f: X -+ Y eine Abbildung. Zeigen Sie:
a) Ist Mr c Mz c X, so folgt f(MJ) C f(Mz).
Ist Nr c N2 c Y , so folgt f - 1(Nt) c f- 1(N2).
b) M c f - 1(/(M)) für M c X, f(f - 1 (N)) C N für N c Y
c) r 1(Y'-N)=X
'- r'CN)fürNcY.
d) Für Mr, M2 c X und N,, N2 c Y gilt:
r 1 (Nr n Nz) = /- 1(Nr) n r'(N2), r'CNt U N2) = r 1 (Nr) U r'CN2),
f(M, U Mz) = f(Mt) U /(M2), /(M, n Mz) C f(MJ) n f(Mz).
Finden Sie ein Beispiel, in dem f(M, n Mz) f f(MJ) n f(Mz) gilt!
3. Seien f: X -+ Y, g: Y -+ Z Abbildungen und g o f: X -> Z die Komposition
von f und g. Dann gilt:
a) Sindfund g injektiv (surjektiv), so ist auchgofinjektiv (surjektiv).
b) Istgof injektiv (surjektiv), so ist auch f injektiv (g surjektiv).
4. Untersuchen Sie die folgenden Abbildungen auf lnjektivität und Surjektivität:
a) f 1: ~ 2 -+~. (x,y)14x+y, b)fz: ~ 2 -+ ~. (x, y) 14x2 +y2 -I,
c) !J: ~ 2 -+~ 2 • (x , y)14(x+2y,2x-y),
5. Zwei Mengen X und Y heißen gleichmächtig genau dann, wenn es eine bijektive
Abbildung f: X -+ Y gibt. Eine Menge X heißt abzählbar unendlich, falls X und N
gleichmächtig sind.
a) Zeigen Sie, dass Z und Q abzählbar unendlich sind.
b) Zeigen Sie, dass ~ nicht abzählbar unendlich ist.
c) Für eine nichtleere Menge M sei Abb (M, {0, 1}) die Menge aller Abbildungen von
M nach {0, 1}. Zeigen Sie, dass Mund Abb (M, {0, 1}) nicht gleichmächtig sind.
6. Ein Konferenzhotel für Mathematiker hat genau N Betten. Das Hotel ist bereits voll
belegt, aber die Mathematiker lassen sich nach Belieben innerhalb des Hotels umquar-
tieren. Das Hotel soll aus wirtschaftlichen Gründen stets voll belegt sein, und wenn
möglich, sollen alle neu ankommenden Gäste untergebracht werden. Was macht man in
folgenden Fällen?
a) Ein weiterer Mathematiker trifft ein.
b) Die Insassen eines Kleinbusses mit n Plätzen suchen Unterkunft.
c) Ein Großraumbus mit N Personen kommt an.
d) n Großraumbusse treffen ein.
e) N Großraumbusse fahren vor.
1.2 Gruppen 43

1.2 Gruppen
1.2.1. Unter einer Verknüpfung (oder Komposition) auf einer Menge G versteht
man eine Vorschrift *· die zwei gegebenen Elementen a, b E G ein neues Ele-
ment *(a , b) E G zuordnet, d.h. eine Abbildung
*: G x G-+ G, (a , b) r-+ *(a,b) .
Wir geben einige Beispiele für solche Vorschriften * und schreiben dabei zur
Abkürzung a * b statt *(a, b):
a) Ist X eine Menge und G = Abb(X, X) die Menge aller Abbildungen
f: X-+X,
so ist für f, g E G nach 1.1.5 auch f o g E G, also kann man
f *g := f og
setzen.
b) In G = N, Z, IQl, IR oder IR: hat man Addition und Multiplikation, also kann
man für a, b E G
a * b := a + b oder a * b := a · b
setzen. Im Gegensatz zu Beispiel a) ist die Reihenfolge von a und b hier egal.
c) In G = IQl oder IR kann man
a*b:=4(a+b)
als das arithmetische Mittel von a und b erklären.
1.2.2. Verknüpfungen mit besonders guten Eigenschaften haben eigene Namen.
Definition. Eine Menge G zusammen mit einer Verknüpfung * heißt Gruppe,
wenn folgende Axiome erfüllt sind:
Gl (a * b) * c = a * (b * c) für alle a, b , c E G (Assoziativgesetz).
G2 Es gibt ein e E G (neutrales Element genannt) mit den folgenden Eigen-
schaften:
a) e * a = a für alle a E G.
b) Zu jedem a E G gibt es ein a' E G (inverses Element von a genannt) mit
a' * a = e.
Die Gruppe heißt abelsch (oder kommutativ), falls außerdem a *b = b * a für
allea,bEG.
44 1 Grundbegriffe

Falls das keine Verwirrung stiftet, schreibt man die Verknüpfung zur Verein-
fachung meist als Multiplikation, also a · b oder nur ab statt a * b.
Ist die Verknüpfung als Addition geschrieben, so setzt man stillschweigend
voraus, daß sie kommutativ ist. Das neutrale Element 0 heißt dann Nullelement,
das Inverse von a wird mit -a bezeichnet und heißt Negatives.
Wenn das Assoziativgesetz erfüllt ist, kann man bei mehrfachen Produkten die
Klammem weglassen, also schreiben:
abc = (ab)c = a(bc).
Zunächst wollen wir die Gruppenaxiome bei den Beispielen aus 1.2.1 nach-
prüfen.
a) In G = Abb(X, X) ist die Komposition nach 1.1.5 assoziativ, die identische
Abbildung idx erfüllt G2a, aber aus der Existenz eines g mit g o f = idx folgt,
daß f injektiv sein muß. Also ist G2b im allgemeinen nicht erfüllt.
Das kann man aber reparieren. Die Hintereinanderschaltung ist auch eine Ver-
knüpfung in der Teilmenge
S(X) := (f E Abb(X, X): f bijektiv} ,
und S(X) wird damit zu einer Gruppe. Sie heißt die symmetrische Gruppe der
Menge X. Ist X = { 1, ... , n}, so schreibt man S" statt S(X). Jedes a E S" heißt
Permutation der Zahlen 1, ... , n, und S" nennt man auch Permutationsgruppe.
In der linearen Algebra ist sie wichtig bei der Berechnung von Determinanten,
daher verschieben wir alles Weitere hierüber auf Kapitel 3. Insbesondere werden
wir dort sehen, daß s" für n ::: 3 nicht abelsch ist.
b) Hier sind nur Z , Q und ~ mit der Addition und~ : mit der Multiplikation
Gruppen. Der Leser möge zur Übung nachprüfen, welche Axiome in den anderen
Fällen verletzt sind.
c) Das arithmetische Mittel ist nur kommutativ, aber nicht assoziativ, und es gibt
kein neutrales Element.
1.2.3. Bei der Aufstellung von Axiomen versucht man, so wenig wie möglich zu
fordern und die weiteren Eigenschaften daraus abzuleiten. Insbesondere haben
wir weder bei e noch bei a' die Eindeutigkeit postuliert. Derartigen Kleinkram
kann man nachträglich beweisen.
Bemerkung. Ist G eine Gruppe, so gilt:
a) Das neutrale Elemente E G ist eindeutig bestimmt und hat auch die Eigen-
schaft a · e = a für alle a E G.
1.2 Gruppen 45

b) Das inverse Element a' ist für jedes a E G eindeutig bestimmt und hat auch
die Eigenschaft a · a' = e für alle a E G.
c) Da das Inverse zu a nach b) eindeutig bestimmt ist, kann man es mit a- 1 be-
zeichnen. Es giltfüra, b E G:
a- 1 • a = a · a- 1 = e, (a- 1) - 1 = a, (ab) - 1 = b- 1a - 1 •
d) Es gelten die folgenden Kürzungs regeln:
a·i=a·x=>x=x und y·a=y·a=>y=y.

Beweis. Wir betrachten ein neutralese und ein a E G. Zu a' gibt es ein a" mit
a"a' = e. Daraus folgt
=aa' e(aa' ) = (a"a')(aa') = a" (a'(aa'))
= a" ((a 'a)a') = a"(ea' ) = a"a' = e,
und somit ae = a(a'a) = (aa' )a = ea = a.
Ist e ein eventuelles anderes neutrales Element, so ist
ee =e und ee = e' also e =e.
Damit ist a) und die erste Gleichung von c) bewiesen.
Ist a' ein eventuelles anderes Inverses, so folgt
a' = a'e = a'(aa') = (a'a)a' = ea' = a'
unter Verwendung der bereits vorher bewiesenen Eigenschaften. Damit ist auch
b) bewiesen.
Aus aa - 1 = e folgt, daß a inverses Element zu a- 1 ist, d.h. (a - 1) - 1 = a .
Weiter gilt
(b- 1a- 1 )(ab) = b- 1(a - 1 (ab)) = b- 1((a - 1a)b) = b- 1(eb) = b- 1b = e .
Schließlich folgen die Kürzungsregeln durch Multiplikation der jeweils ersten
Gleichung von links bzw. rechts mit a- 1• 0

1.2.4. Auf der Suche nach Beispielen für Gruppen kann es helfen, das Axiom
G2 etwas anders zu formulieren. Dazu betrachten wir für ein festes a E G die
Abbildungen
Ta : G ---+ G , x 1-+ x · a , (Rechtstranslation), und
a T: G ---+ G , x 1-+ a · x, (Linkstranslation).
Lemma. ist G eine Gruppe, so sindfür jedes a E G die Abbildungen Ta und 0 T
bijektiv.
Ist umgekehrt G eine Menge mit einer assoziativen Verknüpfung, so folgt G2
aus der Surjektivität der Abbildungen Ta und a T für alle a E G.
46 Grundbegriffe

Beweis. Die Bijektivität von Ta und a r bedeutet, daß es zu b E G genau ein


x E G und genau ein y E G gibt mit
x ·a =b und a ·y =b,
d.h. daß diese Gleichungen mit x und y als Unbestimmten eindeutig lösbar sind.
Die Existenz einer Lösung ist klar, denn es genügt,
x = b · a- 1 und y = a- 1 • b

zu setzen. Sind x und y weitere Lösungen, so gilt


x ·a = x ·a und a · y = a · y,

also x = x und y = y nach der Kürzungsregel in 1.2.3.


Seien umgekehrt die Gleichungen
x ·a = b und a ·y = b

für beliebige a, b E G lösbar. Dann gibt es zu a eine mit e · a = a. Ist b E G


beliebig, so ist
e·b = e · (a · y) = (e · a) · y = a · y = b,
also existiert ein neutrales Element. Durch Lösen der Gleichung x · a = e erhält
man das inverse Element von a. D

1.2.5. Eine Verknüpfung auf einer endlichen Menge G {a 1 , ••• , a,.} kann
man im Prinzip dadurch angeben, daß man die Werte aller Produkte ai · a 1
in einem quadratischen Schema ähnlich einer Matrix aufschreibt. Dabei steht
ai - a 1 in der i-ten Zeile und der j-ten Spalte der Verknüpfungstafel (oder im Fall
einer Gruppe der Gruppentafel):

a;

Ob das Gruppenaxiom G2 erfüllt ist, kann man dann nach obigem Lemma da-
ran erkennen, ob jede Zeile und jede Spalte der Tafel eine Permutation von
GJ , ... , Q 11 ist.
Daraus folgt sofort, daß es nur eine Möglichkeit gibt, die 2-elementige Menge
G 2 = {a 1, a 2 } zu einer Gruppe zu machen: Ein Element, etwa a 1 = e, muß
1.2 Gruppen 47

neutral sein, das andere ist a 2 = a, und die Gruppentafel ist

Die Kommutativität erkennt man an der Symmetrie der Tafel. Ob das Assoziativ-
gesetz erfüllt ist, kann man der Tafel nicht direkt ansehen, das muß man (leider)
für alle möglichen n 3 Tripel nachprüfen.
Für n = 3 und G = {e, a , b} erhält man ebenfalls nur eine mögliche Grup-
pentafel, nämlich
e a b
e e a b
a a b e
b b e a

und man stellt fest, daß diese Multiplikation assoziativ ist. Für n = 4 und
G = {e, a, b, c} findet man leicht zwei wesentlich verschiedene Möglichkeiten,
nämlich
e a b c 0 e a b c
e e a b c e e a b c
a a b c e und a a e c b
b b c e a b b c e a
c c e a b c c b a e

Wieder ist die Kommutativität offensichtlich, die Assoziativität etwas mühsam


zu überprüfen. Um diese beiden verschiedenen Multiplikationen unterscheiden
zu können, schreiben wir G~ für G 4 mit der Multiplikation 0.
Es ist klar, daß dieses nur auf Ausprobieren beruhende Verfahren für größere
n zu kompliziert und unbefriedigend ist.

1.2.6. Um eine bessere Methode zum Studium von Gruppen zu erhalten, benö-
tigt man geeignete Begriffe, die Beziehungen der Gruppen untereinander regeln.
Definition. Sei G eine Gruppe mit Verknüpfung · und G' c G eine nichtleere
Teilmenge. G' heißt Untergruppe, wenn für a, b E G' auch a · b E G' und
a- 1 E G'.
48 1 Grundbegriffe

Sind G und H Gruppen mit Verknüpfungen · und 0, so heißt eine Abbildung


rp: G --+ H Homomorphismus (von Gruppen), wenn
rp(a · b) = rp(a) 0 rp(b) für alle a , b E G.
Ein Homomorphismus heißt Isomorphismus, wenn er bijektiv ist.
Zunächst einige unmittelbare Folgerungen aus den Definitionen.
Bemerkung 1. Ist G eine Gruppe und G' C G Untergruppe, so ist G' mit der
Verknüpfung aus G wieder eine Gruppe.
Man nennt diese Verknüpfung in G' die von G induzierte Verknüpfung.
Beweis. Die induzierte Verknüpfung ist assoziativ, weil sie aus G kommt. Da es
ein a E G' gibt, ist a- 1 E G' und a · a- 1 = e E G'. 0

Bemerkung 2. Sei rp: G --+ H ein Homomorphismus von Gruppen. Dann gilt:

a) rp(e) = e, wenn e E G und e E H die neutralen Elemente bezeichnen.

b) rp(a- 1 ) = rp(a)- 1 füralle a E G.

c) Ist rp Isomorphismus, so ist auch die Umkehrabbildung rp- 1 : H --+ G ein


Homomorphismus.

Beweis. a) folgt aus der Kürzungsregel in H, da


e 0 rp(e) = rp(e) = rp(e · e) = rp(e) 0 rp(e) ,
und daraus ergibt sich b ), weil
e = rp(e) = rp(a - 1 • a) = rp(a- 1) 0 rp(a).
Zum Beweis von c) nehmen wir c , d E H. Ist c = rp(a) und d = rp(b), so ist
rp(a ·b) = rp(a) 0 rp(b) = c 0 d, also rp - 1 (c 0 d) = a ·b = rp - 1 (c) ·rp- 1(d) .

Im folgenden werden wir die Verknüpfung und die neutralen Elemente in G und
H nur noch dann verschieden bezeichnen, wenn das erforderlich ist (etwa in dem
Beispiel b) weiter unten).
Beispiele. a) Zunächst betrachten wir die in 1.2.5 konstruierten Beispiele. Für
die Mengen gilt
1.2 Gruppen 49

aber bei keiner der Teilmengen handelt es sich um eine Untergruppe. Dagegen
ist

eine Untergruppe.
Die identische Abbildung G 4 -4 G~ ist kein Homomorphismus. Beispiele von
Homomorphismen cp : G 4 -4 G~ sind gegeben durch
cp(e) = cp(a) = cp(b) = cp(c) = e,
cp(e) = e, cp(a) = a, cp(b) = e, cp(c)=a,

cp(e) = e, cp(a) = b, cp(b) = e, cp (c ) = b,

cp(e) = e, cp(a) = c, cp(b) = e , cp(c) = c.


Die einfachen Begründungen seien dem Leser zur Übung empfohlen.
b) Ist G = lR mit der Addition und H = JR: mit der Multiplikation als Ver-
knüpfung, so ist die Exponentialfunktion
exp: lR -+ R: , x H ex ,
ein Isomorphismus, da ex+v = e-' . eY.
c) Wir betrachten die abelsche Gruppe Z mit der Addition als Verknüpfung. Für
jedes m E Z ist die Abbildung
cp.., : Z -4 Z , a c--+ m · a ,
ein Homomorphismus, denn m(a + b) = ma + mb. Sein Bild
mZ := {m · a: a E Z} C Z
ist eine Untergruppe, weil ma + mb = m(a + b) und -mb = m(-b) .
1.2.7. Im Anschluß an das letzte Beispiel kann man nun eine sogenannte zykli-
sche Gruppe mit m Elementen konstruieren. Wir nehmen m > 0 an und teilen
die ganzen Zahlen in m Klassen (d.h. disjunkte Teilmengen) folgendermaßen
ein: Zu jedem
r E {0, I, .. . , m- I}
betrachten wir die Menge
r + mZ := {r + m · a: a E Z} ,
die man sich als die um r verschobene Untergruppe mZ vorstellen kann (vgl.
1.1.8). Für m = 2 ist
0 + 2Z die Menge der geraden und
I + 2Z die Menge der ungeraden Zahlen.
50 I Grundbegriffe

Im allgemeinen Fall ist


Z = (0 + m Z) U (I + mZ) U .. . U (m - I + mZ) ,
und diese Vereinigung ist disjunkt. Zu welcher Klasse eine Zahl a E Z gehört,
kann man durch Division mit Rest entscheiden. Ist
a r
- = k + - mit k E Z und r E {0, ... , m - I) ,
m m
so ist a E r + mZ, denn a = r + mk. Daher nennt man die Klassen r + mZ auch
Restklassen modulo m : sie bestehen ausallden Zahlen, die bei Division durch m
den gleichen Rest hinterlassen. Zwei Zahlen a, a' liegen genau dann in derselben
Restklasse, wenn a - a' durch m teilbar ist. Man schreibt dafür auch
a = a'modm
und sagt "a ist kongruent a' modulo m". Für m = 0 ist die Kongruenz die
Gleichheit.
Zu jedem a E Z bezeichnen wir mit a = a + mZ seine Restklasse. Die Zahl
a heißt Repräsentant von a. In der Menge der Restklassen kann man nun eine
Addition definieren durch
a + b := a + b.
Diese Definition ist nur sinnvoll, wenn sie nicht von der Auswahl der Repräsen-
tanten abhängt. Man sagt dazu, die Addition ist wohldefiniert. Das ist aber ein-
fach zu sehen:
Ist a = a' und b = IJ', so ist a - a ' = mk und b- b' = ml mit k , 1 E Z, also
a +b = a' + b' + m(k + 1), d.h. a +b = a' + b'.
Nun können wir das Ergebnis formulieren:
Satz. Ist m E Z und m > 0, so ist die Menge
Z/mZ := (0, T, ... , m -1)
der Restklassen modulo m mit der oben erklärten Addition eine abelsche Gruppe,
und die Abbildung
Z-+ Zj mZ, a 1-+ a +mZ ,
ist ein surjektiver Homomorphismus.
Beweis. Die Assoziativität vererbt sich von Z nach Zj m Z :
(a + b) + c = + b + c = (a + b) + c = a-+--,('"'""b_+_c...,.)
a
= a + b + c = a + (IJ + c) .
Neutrales Element ist 0, denn 0 + a = 0 + a = a, und Inverses von a ist -a.
Auch die Kommutativität wird von Z vererbt. D
1.2 Gruppen 51

Man nennt Zjm'Z für m > 0 die zyklische Gruppe der Ordnung m, für m = 0 ist
Z j OZ = Z, diese Gruppe heißt unendlich zyklisch.
Das etwas ungewohnt erscheinende Rechnen mit Restklassen ist im täglichen
Leben höchst vertraut: Wer um 10 Uhr weggeht und 3 Stunden unterwegs ist,
kommt um I Uhr zurück. Denn der Stundenzeiger der Uhr rechnet modulo 12.
Die Zeitrechnung insgesamt mit ihren durch Sekunden, Minuten, Stunden, Tage
Monate und Jahre verursachten Kongruenzen ist weit komplizierter als dieser
letzte Abschnitt über Gruppen.
Teile der Restklassen modulo 7 findet man auf jedem Blatt eines Monatskalen-
ders. Betrachtet man die Wochentage als Restklassen, so ergibt deren Addition
in diesem Monat z.B. Mittwoch+ Samstag= Donnerstag. Die ebenfalls abge-
bildete Römerfläche wird in der projektiven Geometrie wieder auftauchen [Fi].
52 l Grundbegriffe

Ein Leser, der mit Kongruenzen immer noch Schwierigkeiten hat, ist in guter
Gesellschaft mit GOETHES Faust, der zu Mephisto sagt: ,,Mich dünkt, die Alte
spricht im Fieber", als die Hexe aus ihrem Rechenbuche vorliest:
Du must verstehn! Aus Fünfund Sechs,
Aus Eins mach Zehn, So sagt die Hex',
Und Zwei laß gehn, Mach Sieben und Acht,
Und Drei mach gleich, So ist's vollbracht:
So bist du reich. Und Neun ist Eins,
Verlier die Vier! Und Zehn ist keins.
Das ist das Hexen-Einmaleins.
Alles klar: die Hexe rechnet schließlich modulo 2. Nur am Anfang holperts noch
etwas, da scheint der Reim vor der Rechnung zu stehen.

Aufgaben zu 1.2
1. Sei G eine Gruppe mit aa = e für alle a E G, wobeiedas neutrale Element von G
bezeichnet. Zeigen Sie, dass G abelsch ist.
2. Bestimmen Sie (bis auf Isomorphie) alle Gruppen mit höchstens vier Elementen. Wel-
che davon sind abelsch?
3. Welche der folgenden Abbildungen sind Gruppenhomomorphismen?
a)/J: Z-> Z, z f-+ 2z, b)h: Z -> z. z f-+ z +I ,
c)!J: Z ->Q* , Zt-+z 2 +I, d)j4: iC*->IR*, Zt-+ lzl,
e)fs: <C -> IR*, z t-+ lzl ,
Dabei ist die Verknüpfung in Z, <C und Z/ pZ jeweils die Addition, in Q', IR* und <C*
jeweils die Multiplikation und p eine Primzahl.
4. Sei G eine Gruppe und A C G. Die von A erzeugte Untergruppe erz(A) ist definiert
durch
erz(A) = {a 1 · ... · an: n E N, a; E A oder a;- 1 E A}.
erz(A) ist somit die Menge aller endlichen Produkte von Elementen aus A bzw. deren
Inversen. Zeigen Sie, dass erz(A) die ,,kleinste" Untergruppe von G ist, die A enthält,
d.h.
i) erz(A) c G ist eine Untergruppe.
ii) Ist V c GeineUntergruppe mit Ac V, so folgt erz(A) c V.
Wie sieht erz(A) aus für den Fall, dass A einelementig ist?
1.2 Gruppen 53

5. Für eine natürliche Zahl n ::: 3 sei d E S(IR2 ) die Drehung um den Winkel 2rr In und
s E S(IR2 ) die Spiegelung an der x-Achse. Die Diedergruppe D" ist definiert durch
D" := erz({s, d}).
a) Wie viele Elemente hat D" ?
b) Geben Sie eine Gruppentafel von 0:3 an.

6. Eine Gruppe G heißt zyklisch, falls es ein g E G gibt mit G = erz({g}).


a) Wie sieht die Gruppentafel einer endlichen zyklischen Gruppe aus?
b)* Zeigen Sie, dassjede zyklische Gruppe entweder isomorph zu Z oder ZlnZ (n E N
geeignet) ist.

7. Zeigen Sie: Ist G eine abelsche Gruppe und H c G eine Untergruppe, so ist durch
x ~ y ~ xy- 1 EH
eine Äquivalenzrelation auf G erklärt. Sei G I H : =GI~ die Menge der Äquivalenz-
klassen, und die zu x E G gehörige Äquivalenzklasse sei mit x bezeichnet. Sind
x , x ' , y, y' E G mit x ~ x' und y ~ y', so ist xy ~ x' y'. Somit kann man auf G I H
durch
x · y := xy
eine Verknüpfung erklären.
Zeigen Sie, dass GI H auf diese Weise zu einer abelschen Gruppe wird und für
G = Z, H = n Z genau die in 1.2.7 definierten zyklischen Gruppen Zl n Z entstehen.
8. Man gebe ein Beispiel einer nicht assoziativen Verknüpfung auf der Menge
G = {I. 2, 3}, so dass für alle a E G die Translationen 1fi und a r aus 1.2.4 surjektiv
sind.
54 1 Grundbegriffe

1.3 Ringe, Körper und Polynome


1.3.1. Bei Gruppen hat man eine einzige Verknüpfung; ob man sie als Addition
oder als Multiplikation bezeichnet, ist nebensächlich. In der linearen Algebra
braucht man aber Addition und Multiplikation, also zwei Arten der Verknüpfung,
die miteinander in geregelter Beziehung stehen. Damit beschäftigt sich dieser
Abschnitt.
Definition. Eine Menge R zusammen mit zwei Verknüpfungen
+: R x R--+R, (a,b)r+a+b , und
R x R--+ R , (a, b) 1-+ a · b ,
heißt Ring, wenn folgendes gilt:
Rl R zusammen mit der Addition + ist eine abelsche Gruppe.
R2 Die Multiplikation · ist assoziativ.
R3 Es gelten die Distributivgesetze, d.h. für alle a, b, c E R gilt
a · (b + c) = a ·b +a ·c und (a + b) · c = a · c + b · c.
Ein Ring heißt kommutativ, wenn a · b = b · a für alle a, b E R. Ein Element
1 E R heißt Einselement, wenn I · a = a · 1 = a für alle a E R.
Wie üblich soll dabei zur Einsparung von Klammem die Multiplikation stärker
binden als die Addition.
Bemerkung. Ist R ein Ring und 0 E R das Nullelement, so gilt für alle a E R
O·a=a·O=O.
Beweis. 0 · a = (0 + 0) · a = 0 · a + 0 · a. 0

Beispiele. a) Die Mengen Z der ganzen Zahlen, Q der rationalen Zahlen und IR
der reellen Zahlen sind zusammen mit der üblichen Addition und Multiplikation
kommutative Ringe.
b) Ist I c IR ein Intervall und
R := {f: I--+ IR}
die Menge der reellwertigen Funktionen, so sind durch
(f + g)(x) := f( x) + g(x) (j · g)(x) := f(x) · g(x)
und
Verknüpfungen erklärt, und R wird damit zu einem kommutativen Ring. Das
folgt ganz leicht aus den Ringeigenschaften von R
c) In der Gruppe ZjmZ der Restklassen modulo maus 1.2.7 kann man durch
a. b := a. b
1.3 Ringe, Körper und Polynome 55

auch eine Multiplikation erklären. Denn ist wieder a- a' = mk und b- b' = ml ,
so folgt
a ·b = (a' +mk) · (b' +ml) = a' · b' +m(b'k +a'l +mkl).
Also ist die Definition der Multiplikation unabhängig von der Auswahl der Re-
präsentanten.
Die Regeln R2 und R3 und die Kommutativität der Multiplikation folgen ganz
einfach aus den entsprechenden Regeln in Z.
Die Multiplikationstafeln wollen wir für m = 2, 3, 4 explizit aufschreiben.
Dabei lassen wir zur Vereinfachung bei den Restklassen die Querstriche weg.
0 1 2 3
0 1 2
0 0 0 0 0
0 0 0 0
l 0 l 2 3
1 0 1 2
2 0 2 0 2
2 0 2 1
3 0 3 2 I
Die Multiplikation mit 0 ist uninteressant, wir betrachten also in diesen drei
Fällen die Menge R -.. . {0}. Für m = 2 und m = 3 ist sie zusammen mit der
Multiplikation wieder eine Gruppe, für m = 4 nicht, denn hier ist
I ·2 =3·2 und 2·2 =0.
Also ist die Kürzungsregel verletzt, und das Produkt 2 · 2 liegt nicht in R -.. . {0}.

1.3.2. Das vorangehende Beispiel motiviert die


Definition. Ein Ring R heißt nullteilerfrei, wenn für alle a, b E R aus a · b =0
stets a = 0 oder b = 0 folgt.

Bemerkung. Der Restklassenring ZjmZ ist genau dann nullteilerfrei, wenn m


eine Primzahl ist.
Beweis. Ist m keine Primzahl, also m = k ·l mit 1 < k, l < m, so ist
k, I =f. 0 , aber 0 = m = k ./.
Ist umgekehrt m Primzahl und k ·L = 0, so ist
k·l=r · m
für ein r E Z. Also hat entweder k oderleinen Primfaktor m, d.h. k = 0 oder
f = 0. D
56 I Grundbegriffe

Als Vorsorge für später noch eine


Definition. Ist R ein Ring und R' c R eine Teilmenge, so heißt R' Unterring,
wenn R' bezüglich der Addition Untergruppe ist (also entsprechend 1.2.6 für
a, b E R' auch a + b E R' und -a E R'), und bezüglich der Multiplikation für
a, b E R' auch a · b E R'.
SindRundS Ringe mit Verknüpfungen+,· und$, 0, so heißt eine Abbil-
dung rp: R -+ S ein Homomorphismus (von Ringen), wenn für alle a, b E R
gilt:
rp(a + b) = rp(a) EB rp(b) und rp(a · b) = rp(a) 0 rp(b).
Zum Beispiel ist mZ c Zein Unterring und Z -+ Z f mZ, a r+ a + mZ, ein
Homomorphismus.
1.3.3. In einem nullteilerfreien RingRist für a, b E R " {0) auch das Produkt
a · b E R " {0), also induziert die Multiplikation von R eine assoziative Multi-
plikation in R " {0). Das Gruppenaxiom G2 braucht jedoch keineswegs erfüllt
zu sein: Im Ring Z gibt es außer für 1 und -1 kein multiplikatives Inverses, im
Ring 22 der geraden Zahlen nicht einmal ein Einselement Ist R" {0) mit der
Multiplikation eine Gruppe und darüber hinaus der Ring kommutativ, so nennt
man ihn Körper. Das wollen wir noch einmal direkter aufschreiben:
Definition. Eine Menge K zusammen mit zwei Verknüpfungen
+: KxK -+K, (a,b)r+a+b, und
K x K-+ K, (a, b) r+ a · b,
heißt Körper, wenn folgendes gilt:
Kl K zusammen mit der Addition + ist eine abelsche Gruppe.
(Ihr neutrales Element wird mit 0, das zu a E K inverse Element mit -a
bezeichnet.)
K2 Bezeichnet K* := K " (0), so gilt für a, b E K* auch a · b E K*, und K *
zusammen mit der so erhaltenen Multiplikation ist eine abelsche Gruppe.
(Ihr neutrales Element wird mit I, das zu a E K * inverse Element mit a- 1
oder !ja bezeichnet. Man schreibt bfa = a- 1b = ba- 1 )
K3 Es gelten die Distributivgesetze, d.h. für a , b , c E K ist
a · (b + c) =a ·b + a ·c und (a + b) · c = a · c + b · c.
Bemerkung. In einem Körper K gelten die folgenden weiteren Rechenregeln
(dabei sind a, b, x, x E K beliebig):
a) 1 =/= 0 (also hat ein Körper mindestens zwei Elemente).
1.3 Ringe, Körper und Polynome 57

b) 0 · a = a · 0 = 0.

c) a · b = 0 => a = 0 oder b = 0.
d) a( -b) =-(ab) und ( -a)( -b) =ab.
e) x · a =i · a und a =f. 0 => x = i.
Beweis. a) ist ganz klar, denn I E K*, aber 0 f{. K*. b) sieht man wie in 1.3.1.
Die Nullteilerfreiheit c) ist in K2 enthalten. d) folgt aus
ab + (-a )b = (a + (-a) )b = 0 · b = 0 und
(-a)(-b) = -((-a)b) =-(-ab)= ab nach 1.2.3, Bem. c).
Die Kürzungsregel e) gilt in K *, also im Fall x, i E K *. Ist x = 0, so muß auch
i = 0, also x = i sein. 0

1.3.4. Beispiele für Körper. a) Die rationalen Zahlen Q und die reellen Zahlen
lR sind Körper. Das lernt man in der Analysis (vgl. etwa [Fol], §2).
b) Zur Konstruktion der komplexen Zahlen C führt man in der reellen Ebene
lR x lR eine Addition und Multiplikation ein. Die naheliegende Frage, warum das
im JR" mit n > 2 nicht mehr so geht, wird in [Z] behandelt.
Durch einfaches Nachprüfen der Körperaxiome beweist man:
lR x lR = {(a , b): a , b E JR}
zusammen mit der durch
(a , b) + (a' , b') := (a + a', b + b' )
definierten Addition und der durch
(a, b) · (a', b') := (aa'- bb', ab' + a'b)
definierten Multiplikation ist ein Körper mit (0,0) als neutralem Element der
Addition, (-a, -b) als Negativem von (a, b), (1,0) als neutralem Element der
Multiplikation und

(a,b)-! := c2:b2' a2-:b2)


als multiplikativem Inversen.
Wir nennen lR x lR mit diesen Verknüpfungen den Körper der komplexen Zah-
len und bezeichnen ihn mit C.
Die Abbildung
lR --+ lR x lR = C , a ~--+ (a, 0) ,
58 1 Grundbegriffe

ist injektiv. Da
(a, 0) + (a', 0) (a + a' , 0) und
(a, 0) · (a', 0) (a·a' ,O)
gilt, braucht man zwischen IR. und
IR.x{O}={(a,b)E<C: b=O)
auch hinsichtlich Addition und Multiplikation nicht zu unterscheiden. Man
kann also IR. mit IR. x {0}, d.h. a mit (a, 0) "identifizieren" und IR. als Teilmenge
von <C betrachten.
Dies wird noch einleuchtender durch folgende übliche Konventionen. Man
definiert i := (0, 1) als imaginäre Einheit. Dann ist i 2 = -1, und für jedes
(a , b) E <C gilt
(a , b) = (a, 0) + (0, b) = a + bi.
Für A. = (a, b) = a + bi E <C nennt man reA. .- a E IR. den Realteil und
imA. := b E IR. den lmaginärteil,
5c := a- bi E <C
heißt die zu A. konjugiert komplexe Zahl.
Für die komplexe Konjugation gelten folgende, ganz einfach nachzuweisende
Regeln: Für alle A., /.l E <C ist
A.+!-l X"+~t.
A·/.l A.·lt ,
A.E IR. {'} A.=J::.
Da für A. = a + bi E <C
A. · X = (a + bi) · (a - bi) = a 2 + b 2 E IR.+ ,
kann man den Absolutbetrag

IA.I := ~= Ja 2 +b2
definieren. Wie man leicht nachrechnet, ist für alle A., /.l E <C
lA. + 1-ll .::: IA. I + 11-ll Dreiecksungleichung und lA. · 1-ll = IA.I · 11-ll·

Vorsicht! Die in IR. vorhandene :::-Relation läßt sich nicht in sinnvoller Weise auf
<C fortsetzen. Für komplexe Zahlen kann man daher i.a. nur die Absolutbeträge
vergleichen, d.h. für A., /.l E <C ist
IA.I .::: 11-ll oder 11-ll .::: IA.I .
1.3 Ringe, Körper und Polynome 59

Im

re
Bild 1.4
Wir wollen noch eine geometrische Beschreibung von Addition und Multiplika-
tion komplexer Zahlen geben. Die Addition entspricht der Addition von Vektoren
im JR2 (Bild 1.5, vgl. auch Bild 0.1 ). Ist ).. eine von Null verschiedene komplexe
I .
Zahl und)...' = - · J..., so 1st IJ.. ' I = l. Es gibt also ein eindeutig bestimmtes
IJ...I
a E [0, 2Jr[, so daß

)..' = cos a + i · sin a = eia ,

wie man in der Analysis lernt.


Man nennt arg).. := a das Argument von J..., und es ist
A = IJ...I . e i arg l. .

Ist 11 = 1111 · eiarg 11 eine weitere von Null verschiedene komplexe Zahl, so ist
A . J1 = IJ...I . 1111 . eiarg A . eiarg/1 = IJ...I . 1111 . ei (argA+argll).

Bei der Multiplikation komplexer Zahlen werden also die Absolutbeträge multi-
pliziert und die Argumente addiert (Bild 1.5).
im im

re
Bild 1.5
60 1 Grundbegriffe

c) Wie wir gesehen haben, gibt es in jedem Körper zwei verschiedene Ele-
mente 0 und I. Daraus kann man schon einen Körper machen, indem man in
K = {0, I} Addition und Multiplikation einführt durch die Tafeln

+ 0 1
0 0 1 .
1 1 0 1

Offensichtlich ist das auch die einzige Möglichkeit, als Ring war dieser Körper
schon in 1.3.1 in der Form Z/2Z aufgetreten. Diese Verknüpfungen kann man
elektronisch leicht realisieren, daher ist dieser Körper der elementare Baustein
aller Computer.
d) In 1.3.2 hatten wir für jedes m E N-.... {0} den Restklassenring Z/mZ ein-
geführt und bewiesen, daß er genau dann nullteilerfrei ist, wenn m eine Primzahl
ist. Dies ist also eine notwendige Bedingung dafür, ein Körper zu sein. Daß es
auch hinreichend ist, folgt aus der etwas allgemeineren
Bemerkung. Ein nullteilerfreier, kommutativer Ring K mit endlich vielen Ele-
menten und Eins ist ein Körper:
Beweis. Nach 1.2.4 genügt es, für jedes a E K* zu zeigen, daß die Multiplikation
K* ~ K*, x f-* a · x,

eine surjektive Abbildung ist. Wenn K und damit auch K * endlich ist, genügt
dafür die Injektivität (vgl. 1.1.4). Die ist aber klar, denn für x =I= i und a ·X = a ·X
würde
a(x - i) = 0 und a =I= 0, x - i =I= 0

~~. D
Im Ring Z gilt für jedes n E N mit n ::": I
n · 1 := 1 + ...
'-v-'
+I= n =I= 0.
n- mal

In Z/mZ mit m ::": 1 ist die Restklasse I das Einselement, es gilt


m. I:= I+ ... + I= 1 + ... + 1 = m = o.
'-v-'
m-mal

Das zeigt einen grundlegenden Unterschied zwischen den beiden Ringen Z und
Z/mZ und motiviert die
1.3 Ringe, Körper und Polynome 61

Definition. IstRein Ring mit Einselement 1, so ist seine Charakteristik erklärt


durch
0 , falls n · 1 # 0 für alle n > 1 ,
char(R) := { -
min {n E N '- {0}: n · 1 = 0} sonst.
Lemma. Ist K ein Körper, so ist char (K) entweder Null oder eine Primzahl.
Beweis. Angenommen, char (K) = m = k · e # 0 mit 1 < k, e< m. Aus
0 = m . 1 = (k. e) . 1 = (k. l)(e . 1)
folgt wegen der Nullteilerfreiheit k · 1 = 0 oder e · I = 0 im Widerspruch zur
Minimalität von m. 0

Ist p eine Primzahl, so nennt man Z/ pZ den Primkörper der Charakteristik p.


In der Algebra lernt man, daß es zu jedem endlichen Körper K eine Primzahl p
gibt derart, daß Z/ pZ Unterkörper von K ist, und die Anzahl der Elemente von
K eine Potenz von p ist.
1.3.5. Spätestens bei der Suche nach Eigenwerten in Kapitel4 wird es sich nicht
mehr vermeiden lassen, Polynome beliebigen Grades zu Hilfe zu nehmen. Weil
es von der Systematik paßt, wollen wir die dann benötigten Tatsachen schon hier
zusammenstellen.
Wir nehmen einen Körper K und eine Unbestimmte t. Eine Unbestimmte soll
dabei einfach ein Buchstabe sein, für den man alles einsetzen darf, was sinnvoll
ist (das kann man präziser formulieren, aber damit wollen wir uns hier nicht
aufhalten, vgl. [F-S]). Ein Polynom mit Koeffizienten in K (oder Polynom über
K) ist dann ein formaler Ausdruck der Gestalt
f(t) = ao +alt+ ... + a"t",
wobei a0 , ... , a" E K. Meist schreibt man statt f (t) nur f. Mit K [t] bezeichnen
wir die Menge all solcher Polynome. Sind alle Koeffizienten av = 0, so spricht
man vom Nullpolynom und schreibt f = 0. Der Grad von f ist erklärt als
-oo, falls f = 0,
degf := {
max{vEN: av#O), sonst.
Schließlich heißt f normiert, wenn a" = l.
Das nächstliegende, was man für die Unbestimmte t einsetzen kann, sind Ele-
mente aus K . Ist >.. E K, so ist auch
f(A.) := ao + al).. + ... + a").." E K,
aus dem Polynom f erhält man also eine Abbildung
j: K-+K, A.f--+j(A.),
62 1 Grundbegriffe

insgesamt also (mit der Notation aus 1.1 .3) eine Abbildung
: K[t] --+ Abb(K, K), f r+ j.
Die etwas pedantische Unterscheidung von f und j ist leider nötig, wenn man
sich einmal mit endlichen Körpern eingelassen hat.
Beispiel. Ist K = {0, 1} der Körper mit zwei Elementen aus 1.3.4 und
f = t 2 + t, so ist ](0) = 0 + 0 = 0 und ](1) = 1 + 1 = 0,
also j die Nullabbildung, obwohl f =/= 0, weil a 1 = a2 = 1. Die obige Abbil-
dung - ist also nicht injektiv.

1.3.6. Die Menge K[t] hat viel Struktur, insbesondere eine natürliche Addition
und Multiplikation. Dazu nehmen wirf, g E K[t]. Ist
f = ao + a,t + ... + antn , g = bo + b,t + ... + bmt"',
so können wir zur Definition der Addition m = n annehmen (ist etwa m < n, so
setze man b",+1 = ... = bn = 0) . Dann ist
f + g := (ao + bo) + (a, + bdt + ... +(an + bn)tn .
Die Multiplikation ist dadurch erklärt, daß man formal ausmultipliziert, also
f ·g :=Co+ c,t + ... + Cn +mtn+m mit Ck = L a;bj .
i+J=k
Insbesondere ist
Co aobo,
c, aob1 + a,bo,
Cz aobz + a,b, + azbo,

Ist f · g = h, so nennt man f und g Teiler von h.


Bemerkung. IstKein Körper, so ist die Menge K[t] der Polynome über K zu-
sammen mit den oben definierten Verknüpfungen ein kommutativer Ring. Weiter
gilt
deg(f · g) = deg f + deg g
für f, g E K[t]. Dabei sollformal n- oo = -oo +m = -oo + (-oo) = -oo
sein.
Man nennt K[t] den Polynomring über K .
Beweis. Der Nachweis der Axiome erfordert nur geduldiges Rechnen. Die Aus-
sage über den Grad folgt aus anbm =/= 0, falls an, bm =/= 0. 0
1.3 Ringe, Körper und Polynome 63

Es sei angemerkt, daß man analog für einen kommutativen Ring R einen kom-
mutativen Polynomring R[t] erhält. Die Aussage über den Grad des Produktpo-
lynoms gilt nur über einem nullteilerfreien Ring.
1.3.7. Der Mangel eines Ringes gegenüber einem Körper ist der, daß man im
allgemeinen nicht dividieren kann. Bei ganzen Zahlen hat man als Ersatz eine
Division mit Rest (vgl. 1.2.7), die ganz analog auch für Polynome erklärt werden
kann.
Satz. Sind f , g E K[t], und ist g =f. 0, so gibt es dazu eindeutig bestimmte
Polynome q , r E K[t] derart, daß
f = q · g + r und deg r < deg g .

Man kann die Beziehung auch in der nicht ohne weiteres erlaubten, aber sehr
suggestiven Form
f r
- =q+-
g g
schreiben. Der Buchstabe q steht für "Quotient" , r für "Rest".
Beweis. Wir zeigen zunächst die Eindeutigkeit. Seien q , r, q', r' E K[t] mit
f = q · g + r = q' · g + r' , wobei deg r, deg r' < deg g .
Durch Subtraktion folgt
0 = (q- q' ) · g + (r- r') , also (q- q ' ) · g = r' - r . (*)
Da zwei gleiche Polynome gleichen Grad haben, folgt aus q =f. q' wegen g =f. 0
deg(r ' - r) = deg(q- q' ) + deg g:::: degg ,
was nicht sein kann. Also ist q = q' , und aus(*) folgt auch r = r'.
Zum Beweis der Existenz von q und r geben wir ein Verfahren an, mit dem
man diese Polynome schrittweise berechnen kann. Dazu schreibt man die Poly-
nome am besten nach fallenden Potenzen, also
f = ant" + .. . + a,t + ao , g = bmt"' + ... + b,t + bo,
wobei a,., bm =f. 0. Ist n < m , so kann man q = 0 und r = f wählen, denn
f = 0 · g + f und deg f < deg g .
Im Fall n :::: m teilt man zunächst die höchsten Terme von f und g , das ergibt
ql := an tn - m
bm
als höchsten Term von q. Im nächsten Schritt betrachtet man
f, := f - q, . g .
64 1 Grundbegriffe

Nach Definition ist deg f 1 < deg f. Ist deg f 1 < m, so kann man q = q 1 und
r = f 1 setzen. Andernfalls wiederholt man den ersten Schritt mit / 1 statt f, d.h.
man erhält den nächsten Term q 2 von q und
h := f, - q2 · g mit deg h < deg f, .
Da die Grade der fi bei jedem Schritt um mindestens eins abnehmen, erhält man
schließlich ein k :::: n - m + 1, so daß für
!k := fk - 1- qk · g erstmals degfk < degg,
und damit bricht das Verfahren ab: Setzt man die Gleichungen ineinander ein, so
ergibt sich
f = q,g + f, = (q, + q2)g + h = ... = (q, + ... + qk)g + !k'
also ist eine Lösung unseres Problems gegeben durch
q := q, + ... + qk und r := fk . 0

Da bei der Konstruktion von q immer nur durch bm dividiert wird, kann man im
Fall bm = l den Körper K durch einen Ring ersetzen.
Beispiel. Sei K = JR, f = 3t 3 + 2t + 1, g = t 2 - 4t.
Die Rechnung verläuft nach folgendem Schema:
(3t 3 + 2t + 1) : (t 2 - 4t) = 3t + 12 + (50t + 1) : (t 2 - 4t)
-3t 3 +12t 2
12t 2 + 2t + 1
-12t 2 +48t
50t +1
Es ist also q = 3t + 12 und r = 50t + 1.
1.3.8. Nach diesen formalen Vorbereitungen kommen wir nun zum eigentlichen
Thema, nämlich der Frage nach der Existenz von Nullstellen (d.h. A. E K mit
f(A.) = 0) bei Polynomen. Darauf kann man nämlich viele andere Fragen zu-
rückführen, etwa in Kapitel 4 die Frage nach der Existenz von Eigenwerten.
Neben der reinen Existenzfrage ist es für die Praxis wichtig, Verfahren für die
näherungsweise Berechnung von Nullstellen zu haben. Das lernt man in der nu-
merischen Mathematik (vgl. etwa [0]).
Beispiele. a) Ist K = lR und f = t 2 + 1, so ist f(A.) 2: 1 für alle A. E R Also
gibt es keine Nullstelle.
1.3 Ringe, Körper und Polynome 65

b) Ist K = {a0 , a 1, . • • , an} ein endlicher Körper und


f = (t - ao) · . .. · (t -an)+ 1 ,
so ist f (J...) = 1 für alle A E K, also hat f keine Nullstelle.
Zum Glück sind diese beiden Beispiele von ausgewählter Bosheit; im allgemei-
nen hat man doch etwas mehr Chancen, eine Nullstelle zu finden. Hat man eine
gefunden, so genügt es zur Suche nach weiteren, ein Polynom von kleinerem
Grad zu betrachten:
Lemma. Ist;... E K eine Nullstelle von f E K[t], so gibt es ein eindeutig be-
stimmtes g E K[t] mitfolgenden Eigenschaften:
1) f = (t - A.) · g.
2) deg g = (deg f) - l.

Beweis. Wir dividieren f durch (t- A.) mit Rest; es gibt also eindeutig bestimmte
g, r E K[t] mit
f = (t - J...)g +r und deg r < deg(t - A.) = 1.
Also ist r = a 0 mit a 0 E K . Aus f (A.) = 0 folgt durch Einsetzen von A
0 = (A. - A.) · g(J...) + r = 0 + ao,
also ist a0 = r = 0, und 1) ist bewiesen. Wegen
deg f = deg(t - A) + deg g = 1 + deg g
folgt 2). 0

Korollar 1. SeiKein beliebiger Körper, f E K[t] ein Polynom und k die Anzahl
der Nullstellen von f. Ist f vom Nullpolynom verschieden, so gilt
k:::: deg f.
Beweis. Wir führen Induktion über den Grad von f . Für deg f = 0 ist
f = a0 i= 0 ein konstantes Polynom. Dieses hat gar keine Nullstelle, also ist
unsere Behauptung richtig.
Sei degf = n ::: 1, und sei die Aussage schon für alle Polynome g E K[t]
mit deg g :::; n - 1 bewiesen. Wenn f keine Nullstelle hat, ist die Behauptung
richtig. Ist;... E Keine Nullstelle, so gibt es nach dem Lemma ein g E K[t] mit
f = (t - A.) · g und deg g = n - 1 .
Alle von A verschiedenen Nullstellen von f müssen auch Nullstellen von g sein.
Ist I die Anzahl der Nullstellen von g, so ist nach Induktionsannahme
l :::; n - 1 , also k :::; I + 1 :::; n . 0
66 I Grundbegriffe

Korollar 2. Ist K unendlich, so ist die Abbildung


: K[t]-+ Abb(K , K) , f ~--+ j,
injektiv.
Beweis. Seien / 1, fz E K[t] und g := fz- f 1 . Ist~ fz, so folgt g = 0,
d.h. g (A.) = 0 für alle A. E K . Also hat g unendlich viele Nullstellen, und aus
Korollar I folgt g = 0, somit ist f 1 = fz. 0

Ist A. Nullstelle von f, also f = (t- A.) · g , so kann A. auch Nullstelle von g sein.
Man spricht dann von einer mehrfachen Nullstelle.
Definition. Ist f E K[t] vom Nullpolynom verschieden und A. E K, so heißt
11(/; A.) := max{r E N: f = (t - A.)' · g mit g E K[t]}
die Vielfachheil der Nullstelle A. von f.
Nach dem Lemma gilt 11(/ ; A.) =0 ~ f(A.) ,P 0. Ist
f=(t-A.)'·g mit r=Jl(f ; A.),
so folgt g(A.) ,P 0. Die Vielfachheit der Nullstelle A. gibt also an, wie oft der
Linearfaktor (t - A.) in f enthalten ist.
Ist K = lR oder C, so kann man die Vielfachheit der Nullstelle mit den r-ten
Ableitungen f ''l von f in Beziehung bringen. Es gilt
11(/ ; A.) = max{r E N : f(A.) = j'(A.) = ... = J <' - 'l(A.) = 0} ,
wie man leicht nachrechnet.
1.3.9. Sind A. 1, . . . , A.k E K die verschiedenen Nullstellen eines Polynoms
f E K[t], und ist r; = 11(/ ; A.;) , so ist
f = (t - A.t)" ... . . (t - A.d' . g '
wobei g ein Polynom vom Grad n - (r 1 + .. . + rk) ohne Nullstellen ist. Der
schlimmste Fall ist g = f, der beste deg g = 0, d.h. f zerfällt in Linearfakto-
ren. Die wichtigste Existenzaussage für Nullstellen von Polynomen macht der
sogenannte
Fundamentalsatz der Algebra. Jedes Polynom f E <C[t] mit deg f > 0 hat
mindestens eine Nullstelle.
Dieser Satz wurde von C.F. GAUSS erstmals 1799 bewiesen. Es gibt dafür sehr
viele Beweise, die aber alle Hilfsmittel aus der Analysis benutzen, denn C ent-
steht aus JR, und die reellen Zahlen sind ein Produkt der Analysis. Der wohl
kürzeste Beweis verwendet Hilfsmittel aus der Theorie der holomorphen Funk-
tionen (vgl. etwa [F-L]).
1.3 Ringe, Körper und Polynome 67

Hat f E C[t] eine Nullstelle A, so kann man sie herausdividieren, also


f = (t- A). g
schreiben. Ist deg g > 0, so hat auch g eine komplexe Nulls teile, und indem man
das Verfahren so lange wiederholt, bis das verbleibende Polynom den Grad Null
hat, ergibt sich das
Korollar. Jedes Polynom f E C[t] zerfällt in Linearfaktoren, d.h. es gibt a und
Al,··· , An E<Cmitn =degf, sodaß
f =
a(t -Al) · . . . · (t -An).
1.3.10. Nun wollen wir aus dem Fundamentalsatz der Algebra Aussagen über
die Nullstellen reeller Polynome folgern. Dazu betrachten wir IR als Teilmenge
von <C (vgl. 1.3.4). Dann ist auch JR[t] Teilmenge von C[t].
Lemma./st f E IR[t] und A E <C eine Nullstelle von f , so ist auch die konjugiert
komplexe Zahl X E <C eine Nullstelle von f. Es gilt sogar
tJ.U; A) = tJ.U; X).

Die komplexen Nullstellen eines Polynoms mit reellen Koeffizienten liegen also
symmetrisch zur reellen Achse.
Beweis. Ist
f = ao + a1t + . .. + Gntn ,
so ist wegen a 0 = iio, ... , an = iin nach den Rechenregeln für die komplexe
Konjugation
j(X) =Go+ a1X + ... + Gn (I)n =Go+ G1A + ... + GnAn = j(A) = 0= 0.
im

re

Bild 1.6
Also ist auch XNullstelle von f. Um die Vielfachheiten von A und Xzu verglei-
chen, genügt es für jedes k E N
tJ.U ; A) :::: k =* tJ.U; X) :::: k
68 I Grundbegriffe

zu beweisen. Für A =I ist die Aussage trivial. Für A =/:. I verwenden wir den
folgenden
Hilfssatz. Sei f E IR[t] und A E C eine nicht reelle Nullstelle von f, sowie
g := (t- A)(t- I) E C[t]. Dann gilt:

l)gEIR[t].
2) Es gibt ein q E IR[t] mit f = g · q.
Nun genügt es, durch Induktion über k aus f.l.Cf ; A) ~ k die Existenz eines
Polynoms fk E IR[t] mit
f=l·!k
zu folgern. Dabei ist g wie im Hilfssatz erklärt.
Für k = 0 ist nichts zu beweisen. Sei also die Aussage für k ~ 0 bewiesen
und f.l.Cf ; A) ~ k +I. Dann ist f = gk · fk, und es muß f k(A) = 0 sein; aus dem
Hilfssatz folgt die Existenz eines f k+ I E IR[t] mit
also ist f = l +I · fk+ I .
!k = g · f k+I ,
Es bleibt der Hilfssatz zu beweisen. Dazu setzen wir
A = a + iß mit a, ß E IR.
Dann ist
g = (t - A)(t - I)= (t- a - iß)(t - a + iß) = t 2 - 2at + a2 + ß2 E IR[t] .
Durch Division mit Rest in IR[t] erhält man q, r E IR[t] mit
f = g · q + r und deg r ::::: ( deg g) - I = I.
Diese Gleichung gilt selbstverständlich auch in C[t] . Durch Einsetzen von A und
I folgt
r(A) = r(I ) = 0.
Nach Korollar I aus 1.3.8 folgt r = 0 wegen A =/:. I . Damit ist der Hilfssatz und
auch das Lemma bewiesen. D

Nun wenden wir auf ein Polynom f E IR[t] den Fundamentalsatz der Algebra
an. Danach gibt es a, AI, ... , A., E C, so daß
f = a (t - AI)· .. . · (t- A., ).
Da a der höchste Koeffizient ist, gilt a E IR.
Seien AI , . . . , Ak E IR und Ak+ I, . . . , An E C . Nach dem Lemma ist n - k, d.h.
die mit Vielfachheil gezählte Anzahl der nicht reellen Nullstellen, gerade, und
durch Umnumerierung kann man erreichen, daß
Ak+I = Ak+2• .. · , An- I =In
1.3 Ringe, Körper und Polynome 69

gilt. Jedes Paar A, A konjugiert komplexer Nullstellen mit A = a + iß kann man


also (wie wir im Hilfssatz gesehen haben) zu einem normierten quadratischen
Faktor
g = (t - A)(t -I) = t2 - 2at + (a 2 + ß2) E JR[t]
zusammenfassen. g hat keine reelle Nullstelle, was man auch an der Diskrimi-
nante ablesen kann:
4a 2 - 4(a 2 + ß 2 ) = -4ß 2 < 0.
Damit ist folgendes Ergebnis bewiesen:
Theorem. Jedes Polynom f E JR[t] mit deg f = n 2: I gestattet eine Zerlegung
f = a(t- A1) · ... · (t - A,) · g1 · .. . · g",,
wobei a, A1, ... , A, reell sind, mit a =f. 0, und g 1, . . . , gm E JR[t] normierte
Polynome vom Grad 2 ohne reelle Nullstellen sind. Insbesondere ist n = r +2m.
Korollar. Jedes Polynom f E JR[t] von ungeradem Grad hat mindestens eine
reelle Nullstelle.
Dies folgt sofort aus der Gleichung n = r +2m . Natürlich kann man die Aussage
des Korollars mit Hilfe des Zwischenwertsatzes viel einfacher direkt beweisen.
Es sei erwähnt, daß man den Fundamentalsatz der Algebra ohne weitere
Hilfsmittel der Analysis aus diesem Korollar ableiten kann (vgl. etwa [F-S]).
Der Fundamentalsatz der Algebra ist eine reine Existenzaussage, d.h. man
erhält daraus kein Verfahren zur praktischen Bestimmung der Nullstellen. Für
ein Polynom
at 2 + bt + c E C[t]
vom Grad 2 kann man die Nullstelle nach der Formel
-b ± ./b2 - 4ac
2a
berechnen. Etwas kompliziertere Formeln dieser Art gibt es auch für die Null-
stellen von Polynomen vom Grad 3 und 4.
Wie erstmals N.H. ABEL im Jahre 1826 zeigte, kann es solche allgemeine
Formeln für Polynome vom Grad größer als 4 aus algebraischen Gründen nicht
geben. Man ist daher weitgehend auf Näherungsverfahren zur Approximation
der Nullstellen angewiesen.
1.3.11. Wie gerade erläutert, gibt es keine allgemein gültige Formel zur Be-
rechnung der Nullstellen eines Polynoms aus den Koeffizienten. Die umgekehrte
Aufgabe istjedoch ganz einfach: Ist f E K[t] und
f(t) = t" + Cln-ltn-l + ... + ct1t + Clo = (t- A1) · . .. · (t- An),
70 1 Grundbegriffe

d.h. zerfällt f in Linearfaktoren, so folgt durch ausmultiplizieren der rechten


Seite
ao (~1tAl · ... · An ,
a1 ( ~1t- 1 (Az · ... ·An+ A1A3 · ... ·An+ . . . + A1 · ... · An-1) ,

tln-2 A1A2 + · · · + A1An + A2A3 + · · · + A2An + · · · + An-lAn,


tln-1 ~(Al+···+ An)·

Um das formal besser aufschreiben zu können, definieren wir für k = 1, ... , n


die elementarsymmetrischen Funktionen

Die Summe hat so viele Summanden, wie es Möglichkeiten gibt, k verschiedene


Indizes i1, ... ,ik E {1, ... ,n} auszuwählen, also(~) Summanden. Für die
Koeffizienten von f gilt dann
ak = ( ~1)n-kSn-k(Al, ... ' An).
Diese Aussage nennt man den Wurzelsatz von VIETA. Er gibt an, wie sich die
Koeffizienten aus den Nullstellen berechnen.
Wie schon gesagt, ist umgekehrt die Bestimmung der Nullstellen aus den Ko-
effizienten im Allgemeinen ein sehr schwieriges Problem. Im Spezialfall eines
reellen Polynoms gibt es immerhin einen Zusammenhang zwischen den Vorzei-
chen der Koeffizienten und den Nullstellen. Die Tendenz ist klar: Die Vorzeichen
der Koeffizienten beeinflussen den Verlauf der Werte und damit die Lage der re-
ellen Nullstellen eines Polynoms.
Vorweg behandeln wir den elementarsten Fall, der später (in 5.7.3) beim Test
der Definitheit einer Matrix nützlich sein wird. Wir machen dabei die sehr ein-
schränkende Voraussetzung, daß das Polynom f E ~[t] (mit Vielfachheit gezählt)
so viele reelle Nullstellen hat, wie sein Grad angibt.
Vorzeichenreget Angenommen, das reelle Polynom
f(t) = tn + Cln- ltn- l + ... + a1 t + ao
hat reelle Nullstellen A1 , ... , An. Dann gilt:

a) Genau dann sind alle Nullstellen Ai negativ, wenn alle Koeffizienten aj positiv
sind.
1.3 Ringe, Körper und Polynome 71

b) Genau dann sind alle Nullstellen A; positiv, wenn die Vorzeichen der Koeffi-
zienten ai alternierend sind, d.h. es ist
(-J)n-Ja1 > 0 für j = 0, ... , n-1.
Beweis. Es genügt, den Fall a) zu beweisen; Fall b) folgt daraus sof01t, indem
man das Polynom/:_ rnit.f:_ (t) :=f(-t) betrachtet.
Sind alle a1 > 0 und ist Jc :2': 0, so ist
f(Jc) = Jcn + a"_l A n-l + ... + ao :2': ao > 0.
Also sind alle Nullstellen negativ.
Sind alle A; < 0, so ist sk positiv für geradeskund negativ für ungerades k. Also ist
CXj = (-l)n -j · Sn-j > 0
für alle j. D
Um eine allgemeinere Aussage zu erhalten, definiert man zunächst für ein belie-
biges Polynom
g(t) := rm + ßm-lrm-l + ... + ßo E IR [t]
die Zahl Z(g) der Zeichenwechsel von g wie folgt: Man schrei bt die Koeffizienten
1, ß m- lo ßm- 2, ... , ßt, ßo
auf und zählt von links beginnend ab, wie oft die Vorzeichen der ß; wechseln.
Koeffizienten Null werden dabei einfach übergangen. Für den gleich folgenden
Beweis schreiben wir das noch etwas präziser auf. Es gibt eindeutig bestimmte
Indizes kp mit
m > kt > k2 > ... > kr :2': 0
derart, daß k 1 (von oben beginnend) der erste Index mit ßk, < 0 ist, k2 der erste
darauf folgende mit ßk, > 0 usw. Schließlich findet bei ßk, der letzte Vorzeichen-
wechsel statt. Dann ist offensichtlich

ßk { > 0 für p gerade, und r = Z(g) :s; m = deg g.


r < 0 für p ungerade,
Ohne Voraussetzung über die Gesamtzahl der reellen Nullstellen eines Poly-
noms f E IR [t] kann man nun mit Hilfe der Vorzeichen der Koeffizienten eine
Abschätzung für die Zahlen
N+ (f) :=Anzahl der positiven Nullstellen von f und
N_ (f) :=Anzahl der negativen Nullstellen von f
geben. Dabei sei wie oben( E IR [t] definiert durch L (t) := f(-t).
72 I Grundbegriffe

Vorzeichenregel von DESCARTF:S. Für ein Polynom


f(t) = t" +an-! rn-I + ... + aoE IR [ t]
mit ao "F 0 J?ilt
N+(j):::; Z (j) und N_ (j):::; Z (f_) .
Mit etwas zusätzlichem Aufwand kann man zeigen, daß die Differenz
Z(f)- N+(j) immer gerade ist.
Beweis. Da beim Übergang vonfzuf_ die Vorzeichen der Nullstellen umgekehrt
werden, genügt es, die erste Ungleichung zu zeigen. Dazu benutzen wir das
Lemma. ist J?(t) = tm + ßm_,rm-J + ... + ßo E IR [t] mit ßo "F 0 und 0 < A. E IR,
so folgt
Z((t- A.) · g) ;::Z(g) + 1.
Bei Multiplikation mit einem Linearfaktor mit positiver Nullstelle nehmen also
die Zeichenwechsel zu.
Sind }q ... , A.k mit k = N+(j) die positiven reellen Nullstellen von f, so gibt es
eine Zerlegung
f(t) = (t-A.I) · ... · (t-A.k) · g(t)
mit g(t) E IR [t]. Wegen Z(g);:: 0 folgt durch k-malige Anwendung des Lemmas
D

Es bleibt der etwas kniftlige Beweis des Lemmas. Für die Koeffizienten des Pro-
duktpolynoms
(t- A.) (tm + ß m- I rm-J + ... + ßo) = rm+ I+ Ymt"' + ... + Yo
gilt:
Ym = ß m- I -A. ,
Yi = ßJ-I - A.ßJ, fürj = l , ... ,m- 1,
Yo=-A.ßo.
Wir betrachten die oben angegebenen kritischen Indizes k 1 , ••• ,k,. Ist p unge-
rade, so folgt
ßkp < 0, ß kp+ I ;:: 0, also Ykp+J = ß kp - A.ß kp+J < 0.
Für gerade p ist
ß kp > 0, ß kp+I :::; 0, also Ykp+I = ß kp - A,ß kp+ 1 > 0.
Das bedeutet, daß ß kp und Ykp+ 1 für p = 1, ... , r dasselbe Vorzeichen haben.
1.3 Ringe, Körper und Polynome 73

Wegen y0 = - :Jcß 0 haben y0 und ßo entgegengesetzte Vorzeichen. Daher hat


(t - :Jc) · g mindestens einen Vorzeichenwechsel mehr als g . D
Noch allgemeiner kann man mit Hilfe so genannter STURMscher Ketten die An-
zahl der Nullstellen abschätzen, die in einem vorgegebenen Intervall liegen (vgl.
dazu etwa [D], [St], [Wi]).

Aufgaben zu 1.3
1. Bestimmen Sie (bis auf Isomorphie) alle Körper mit 3 bzw. 4 Elementen.
2. K und K' seien zwei Körper und 1.fJ : K ---7 K' ein Ringhomomorphismus. Zei-
gen Sie, dass 1.fJ entweder injektiv oder der Nullhomomorphismus ist.
3. Ist R ein Ring, M eine beliebige nichtleere Menge und S = Abb (M; R) die
Menge aller Abbildungen von M nach R, so ist auf S durch
(f + g) (m) := f(m) + g(m), (f · g) (m) := f(m) · g(m),
eine Addition und eine Multiplikation erklärt.
a) Zeigen Sie, dass S auf diese Weise zu einem Ring wird.
b) IstSein Körper, fallsRein Körper ist?
4. * Sei p E ru eine Primzahl und n E ru " {0 f. Zeigen Sie, dass es einen Kör-
per mit p" Elementen gibt.
5. Sei K' ein Körper und Kein Unterkörper von K' .
Zeigen Sie: Sindf, g E K[t], q E K'[t] mitf = qg, so folgt bereits q E K[t].
6. SeiKein Körperundx0 , .. . ,x",y0 , .. • ,y" EK mitx; 7'Xj für alle i7' j. Zeigen Sie, dass
es genau ein Polynom jE K[t] vom Grad:'O n gibt, so dassf(x;) = y; für i = 0, ... , n.
Hinweis: Konstruieren Sie zuerst Polynome i?k E K[t] vom Grad :'0 n mit

gk (x;)-
-{1 für i=k,
0 für i 7' k.
7. Seien f, g E C[t] Polynome mit f.1 (j, A.) :'0 J.l(g, A.) für alle A. E C. Zeigen Sie,
dass dannfein Teiler von g ist. Gilt diese Aussage auch in lR [t]?
8. SieK ein Körper und -: K[t] -> Abb (K, K), f ~--> die Abbildung aus J,
1.3.5, die jedem Polynomfdie zugehörige Abbildung! zuordnet. Zeigen Sie, dass -
surjektiv, aber nicht injektiv ist, falls der Körper K endlich ist.
9. Analog zu 1.3.5 definielt man ein Polynom mit Koeffizienten über einem
KörperKin n Unbestimmten t~o ... , ln als einen formalen Ausdruck der Gestalt
J(tt • .... t") = I, a; 1 ... ;" . t~ 1 • ... . r:;·.
0:5. i 1, .... in:5.k
74 I Grundbegriffe

wobei k E ru und ai I ... in E K K[t,' ... ' tnl bezeichne die Menge all solcher Poly-
nome. Wie für Polynome in einer Unbestimmten kann auch in K[tJ. ... , t11] eine
Addition und eine Multiplikation erklärt werden. Sind.f. g E K[tJ. . .. , t 11], so er-
folgt die Addition von f und g koeffizientenweise und die Multiplikation wieder
durch formales Ausmultiplizieren.
a) Finden Sie Formeln für die Addition und Multiplikation von Polynomen in
K[t 1, • •• , t11 ], und zeigen Sie, dass K[t 1, • • • , t11 ] auf diese Weise zu einem null-
teilerfreien, kommutativen Ring wird.
Ein Polynom h E K[t 1, ••• , t11] ".. ( 0} heißt homogen (vom Grad d), falls
h=

b) Für ein homogenes Polynom h E K[t 1, ••• , t11 ] vom Grad d gilt:
h(At~, . .. ,'Atn) = ')._d. h(t~, . .. ,tn) für alle 'A E K.
c) Ist K unendlich und jE K(t" ... ,t0 ) ".. (0}, so folgt aus
/('At,, ... ,At 0) = 'A" · f(tJ. ... ,!0 ) für alle 'A E K,
dass/homogen vom Grad d ist.
d) Ist h 1 homogen von Grad d, und h2 homogen vom Grad d 2, so ist h 1 • h2 ho-
mogen vom Grad d 1 + d 2 .
10. Sei Kein Körper und K[t] der Polynomring in einer Unbestimmten.
a) Zeigen Sie, dass in der Menge K[t] x (K[t] \ ( 0]) durch
(g, h) ~ (g',h') <=> gh' = g'h
eine Äquivalenzrelation gegeben ist.
K(t) sei die Menge der Äquivalenzklassen. Die zu (g, h) gehörige Äquivalenz-
klasse sei mit S. bezeichnet. Somit ist S. =!{<=> gh' =g'h.
h h h'
b) Zeigen Sie, dass in K(t) die Verknüpfungen
g g' gh' + hg' g g' gg'
-+-·= -·-·=-
h h' . hh' ' h h' . h' '
wohl definiert sind (vgl. 1.2.7).
c) Zeigen Sie schließlich, dass K(t) mit diesen Verknüpfungen zu einem Körper
wird. Man nennt K(t) den Kö1per der rationa len Funktionen.
11. Was folgt aus der Vorzeichenregel von DESCARTES für das Polynom t" + 1?
12. Man folgere die spezielle Vorzeichenregel aus der Vorzeichenregel von
DESCARTES.
1.4 Vektorräume 75

1.4 Vektorräume
In diesem ganzen Abschnitt bezeichnet K einen Körper. Wer die vorhergehenden De-
finitionen übersprungen hat, kann sich zunächst mit dem äußerst wichtigen Spezialfall
K = IR begnügen.

1.4.1. Bevor wir den allgemeinen Begriff des Vektorraums einführen, einige
Beispiele. a) Das Standardbeispiel ist der Standardraum
K" = {x = (x 1 , • •• , x,.): x; E K} .
Mit Hilfe der Addition und Multiplikation in K erhält man zwei neue Verknüp-
fungen
+: K" x K " -+ K", (x, y) 1-+ x y , und +
K x K" -+ K", (A., x) 1-+ ).. · x ,
durch
(xJ, ... , x,.) +(yJ , . . . , y,.) := (x1 + YI· ... , x,. + y,.) und
A · (x 1, •• • , x,.) := (A.x 1, ••• , AX,.).
Zur vorübergehenden Unterscheidung sind die neuen Verknüpfungen mit und +
· bezeichnet. In K wird die Addition durch + und die Multiplikation ohne Sym-
bol ausgedrückt. Man beachte, daß nur +
eine Verknüpfung im Sinn von 1.2. 1
ist (solche Verknüpfungen nennt man manchmal auch innere im Gegensatz zur
äußeren ·).
b) In der Menge M(m x n; K) der Matrizen mit m Zeilen, n Spalten und Ein-
trägen aus K kann man addieren und mit Skalaren multiplizieren:
Ist A = (aiJ), B = (biJ) E M(m x n; K) und).. E K, so sind
A +B := (aiJ + biJ) und ).. · A := (A.a;j) E M (m x n; K) .
Bei der Addition werden also die Einträge an den entsprechenden Stellen addiert,
bei Multiplikation mit).. alle Einträge gleich multipliziert. Bis auf die andere Art,
die Einträge aufzuschreiben, ist dieses Beispiel gleich K"' '" aus a).
c) Im Körper C der komplexen Zahlen kann man rp.it reellen Zahlen multiplizie-
ren, das ergibt eine Abbildung
IR x C -+ C , (A., a + ib) r+ A.a + iA.b .
d) Im Polynomring K[t] kann man neben Addition und Multiplikation von Po-
lynomen eine weitere Multiplikation
· : K x K[t] -+ K[t], (A., f) 1-+ ).. · f,
mit Elementen aus K erklären durch
).. · (ao + a1t + ... + a,.t") := A.a 0 + (A.a 1)t + ... + (A.a,.)t".
76 1 Grundbegriffe

e) IstMeine beliebige Menge und


V= {f : M---+ K) = Abb(M, K )
die Menge aller Abbildungen, so sind für f, g E V und Ä E K
f +g E V und Ä· f E V
erklärt durch
(f +g)(x) := f(x) + g(x) und (Ä · f)(x) := Af(x).
Offensichtlich erhält man im Spezialfall M = {1, .. . , n} wieder das Standard-
beispiel a).
Als Extrakt aus diesen Beispielen führen wir nun den wichtigsten Begriff der
linearen Algebra ein (zur Entstehung vgl. [Koe], Kap. 1, §2):
Definition. Sei K ein Körper. Eine Menge V zusammen mit einer inneren Ver-
knüpfung
+: V x V ---+ V, (v, w) ~--+ v +w ,
(Addition genannt) und einer äußeren Verknüpfung
.: K X V ---+ V ' (Ä' V) 1-+ Ä . V '

(Multiplikation mit Skalaren oder skalare Multiplikation genannt) heißt


K -Vektorraum (oder Vektorraum über K) , wenn folgendes gilt:
Vl V zusammen mit der Addition ist eine abelsche Gruppe (das neutrale Ele-
ment heißt Nullvektor, es wird mit 0, und das Negative wird mit -v be-
zeichnet).
V2 Die Multiplikation mit Skalaren muß in folgender Weise mit den anderen
Verknüpfungen verträglich sein:
(Ä + Jl) · V= A · V+ J1 ·V , Ä · (v +W) = Ä ·V+ A · W ,
Ä · (Jl · V) = (ÄJ.l) · V, 1· V =V ,
für alle Ä, J1 E K und v, w E V.

Man beachte, daß, wie in Beispiel a) erläutert, die Verknüpfungen in K und V


vorübergehend verschieden bezeichnet werden.
Durch Einsetzen der Definitionen und elementarste Rechnungen sieht man,
daß in den obigen Beispielen a) bis e) die Vektorraumaxiome erfüllt sind. Dabei
ist in Beispiel a) der Nullvektor gegeben durch 0= (0, . . . , 0) und das Negative
durch
1.4 Vektorräume 77

In Beispiel c) wird IC zu einem IR-Vektorraum.


Bemerkung. In einem K-Vektorraum V hat man die folgenden weiteren Rechen-
regeln:
a) 0 · v =0.

b) .\-0 = 0.

c) .\ · v = 0 => .\ = 0 oder v = 0.
d) (-l)·v=-v.

Beweis. a) 0 · v = (0 + 0) · v = 0 · v +0 · v.
b)A·O = .\ · (o+o) = -A·O + .\·0.
c) Ist.\· v = 0, aber.\ =J 0, so folgt
v = 1· v = (.A- 1 .\) · v = .\- 1 · (.\ · v) = .\- 1 · 0 = 0.
d) V + ( -1) · V = 1 · V + ( -1) · V = (1 - 1) · V = 0 · V = 0. D

Die Axiome und die daraus abgeleiteten Regeln zeigen insbesondere, daß es
völlig ungefährlich ist, wenn man die Verknüpfungen in K und V gleich be-
zeichnet und auch den Nullvektor 0 abmagert zu 0. Das wollen wir ab sofort tun.
Was gemeint ist, wird jeweils aus dem Zusammenhang klar werden.
1.4.2. In Kapitel 0 hatten wir homogene lineare Gleichungssysteme der Form
A · x = 0 mit reellen Koeffizienten betrachtet. Die Lösungen sind Teilmengen
W C !Rn, ihre präzise Beschreibung ist unser Ziel. Schlüssel dafür ist die Beob-
achtung, daß W von !Rn eine Vektorraumstruktur erbt. Allgemeiner ist die Frage,
wann das für eine Teilmenge W c V eines Vektorraumes der Fall ist.
Definition. Sei V ein K- Vektorraum und W C V eine Teilmenge. W heißt
Untervektorraum von V, falls folgendes gilt:
UVl W =J 0.
UV2 v, w E W => v + w E W
(d.h. W ist abgeschlossen gegenüber der Addition).
UV3 V E W , A E K => AV E w
(d.h. W ist abgeschlossen gegenüber der Multiplikation mit Skalaren).
78 I Grundbegriffe

Beispiele. a) In V = JR2 betrachten wir die Teilmengen

WI {0),
Wz {(XI , Xz) E JR 2 : UIXI + UzXz = h),
w3 { (x i , xz) E lR2 : xf+x;.::: 1),
w4 {(XI , Xz) E JR 2 : XI 2::_ 0, Xz 2::_ 0),
Ws {(XI , Xz) E JR2 : XI · Xz 2::_ 0) .

Der Leser prüfe die Bedingungen UV2 und UV3 nach. Nur für W1 und für W 2
mit h = 0 sind beide erfüllt.
b) Ist A eine reellem x n-Matrix, so ist die Lösungsmenge
W := {x E JR": Ax = 0)
des zugehörigen homogenen linearen Gleichungssystems (vgl. 0.4.2) ein Unter-
vektorraum des JR". Das rechnet man ganz leicht nach.
c) Im Vektorraum V = Abb(JR, IR) (vgl. 1.4.1, Beispiele)) hat man die Unter-
vektorräume
IR[t)" c JR(t] c D(IR, IR) c C(IR, IR) c Abb(IR, IR)
der Polynome vom Grad .::: d, aller Polynome, der differenzierbaren Funktionen
und der stetigen Funktionen.

1.4.3. Aus den Eigenschaften UV2 und UV3 folgt, daß Addition und Multipli-
kation mit Skalaren von V auf W induziert werden.
Satz. Ein Untervektorraum W C V ist zusammen mit der induzierten Addition
und Multiplikation mit Skalaren wieder ein Vektorraum.
Mit Hilfe dieses Satzes kann man sich in vielen Fällen (etwa Beispiel b) und
c) aus 1.4.2) den langweiligen Nachweis aller Vektorraumaxiome für W sparen,
wenn man das ein für alle mal schon in einem größeren V getan hatte.
Beweis. Die Eigenschaften V2 sowie Kommutativ- und Assoziativgesetz der Ad-
dition gelten in W, da sie in V gelten. Der Nullvektor 0 liegt in W, da wegen UV 1
ein v E W existiert, woraus 0 = 0 · v E W mit UV3 folgt. Zu jedem v E W ist
wegen UV3 auch - v = (-1) · v E W. 0
1.4 Vektorräume 79

Noch eine kleine Pflichtübung zur Erzeugung neuer Untervektorräume aus alten:
Lemma. Sei V ein Vektorraum, I eine beliebige Indexmenge, und für jedes
iE I sei ein Untervektorraum W; gegeben. Dann ist der Durchschnitt

W:=nW; c V
i E/

wieder ein Untervektorraum.


Beweis. Da 0 in allen W; enthalten ist, ist auch 0 E W, also W =/= 0. Sind
v, w E W, so sind v, w in allen W; enthalten. Da dann auch v + w in allen W;
enthalten ist, ist v + w in W enthalten. Ganz analog beweist man, daß mit A. E K
und v E W auch J...v E W gilt. 0

Beispiel. Ist V = lR[t] der Vektorraum aller reellen Polynome, I N und


W" := lR[tL der Untervektorraum der Polynome vom Grad ::::. d, so ist
n
deN
Wd =Wo= lR.

Vorsicht! Die Vereinigung von Untervektorräumen ist im allgemeinen kein Un-


tervektorraum. Man mache sich das an Beispielen klar (etwa zwei Geraden im
JR2 ). Es gilt sogar die
Bemerkung. Sind W, W' C V Untervektorräume derart, daß W U W' Unter-
vektorraum ist, so ist W C W ' oder W' C W.
Beweis. Angenommen, es ist W (j. W'. Dann ist W ' c W zu zeigen. Ist w' E W'
und w E W "- W', so sind w, w' E W U W' , also auch w + w' E W U W'. w + w'
kann nicht Element von W' sein, denn sonst wäre w = w + w'- w' E W'. Also
ist w + w' E W und auch w' = w + w' - w E W . 0

1.4.4. Eine Teilmenge eines Vektorraumes, die kein Untervektorraum ist, kann
man zu einem solchen abschließen. Wie das geht, wird nun beschrieben.
Wir betrachten eine noch etwas allgemeinere Situation, nämlich einen
K-Vektorraum V und eine Familie (v;);e 1 von Vektoren v; E V (vgl. 1.1.6). Ist
I = {I , .. . , r}, so hat man Vektoren v 1, ... , v,. Ein v E V heißt Linearkombi-
nation von v 1 , ... , v,, wenn es A. 1 , ... , A., E K gibt, so daß
V=A 1 v 1 + .. . +J...,v,.
Für allgemeines I definiert man
span K(v;);e /
als die Menge all der v E V, die sich aus einer (von v abhängigen) endlichen
Teilfamilie von (v;); EI linear kombinieren lassen. Um das präzise aufschreiben
80 1 Grundbegriffe

zu können, benötigt man Doppelindizes: Zu v E V muß es eine Zahl r E N


sowie Indizes i 1 , ••• , ir E I und Skalare At, ... , Ar geben, so daß
V = A [V; 1 + .. . + Ar V;, .

Man nennt span K(v;); E1 den von der Familie aufgespannten (oder erzeugten)
Raum. Ist I = 0, so setzt man
spanK(v;);E0 := {0}.
Für eine endliche Familie (vt. .. . , vr) verwendet man oft die suggestivere No-
tation
Kv1 + ... + Kvr := spanK(v 1, ••• , Vr)
= {v E V: es gibt At, ... , ArE K mit V= At v 1 + ... + ArVr).
Falls klar ist, welcher Körper gemeint ist, schreibt man nur span statt span K.
Bemerkung. Sei V ein K- Vektorraum und ( v; ); Ei eine Familie von Elementen
aus V. Dann gilt:
a) span (v;) C V ist Untervektorraum.
b) Ist W C V Untervektorraum, und gilt V; E W für alle i E I, so ist
span (v;) c W.

Kurz ausgedrückt: span ( v;) ist der kleinste Untervektorraum von V, der alle V;
enthält.
Beweis. a) ist ganz klar. Sind alle v; in W enthalten, so sind auch alle endlichen
Linearkombinationen aus den v; in W enthalten, denn W ist Untervektorraum.
Daraus folgt b). D

Ist M c V eine Teilmenge, so ist entsprechend span (M) erklärt als die Men-
ge aller endlichen Linearkombinationen von Vektoren aus M, und das ist der
kleinste Untervektorraum mit
M C span (M) C V .
Es mag auf den ersten Blick nicht recht einleuchten, warum man bei der Er-
zeugung eines Untervektorraumes allgemeiner von einer Familie von Vektoren
ausgeht. Das hat den Vorteil, daß es bei einer Familie (im Gegensatz zu ei-
ner Menge) sinnvoll ist, wenn man sagt "ein Vektor kommt mehrfach vor". Ist
I = {I, ... , n}, so haben die Vektoren der Familie außerdem eine natürliche
Reihenfolge.
Beispiele. a) Sei V= JR3 . Sind v 1 , v2 E JR3 , so ist span(v 1) die Gerade durch
0 und Vt. wenn Vt # 0. span (v 1 , v2 ) ist die Ebene durch 0, v1 und v2 , falls
Vz rf. span(v 1).
1.4 Vektorräume 81

b) Im K" mit I= {1, ... , n) erklären wir für i EI


e; := (0, ... , 0, I, 0, ... , 0) ,
wobei die 1 an der i-ten Stelle steht. Dann ist span (e;);EI = K".
c) Ist V = K[t] der Polynomring, I = N und v" = t", so ist
span (v")"EN = K[t] .

d) Betrachten wir m Beispiel a) aus 1.4.2 die Wj mit j 3, 4, 5, so ist


span (Wj) = ne.

1.4.5. Ein Untervektorraum kann von sehr vielen verschiedenen Familien er-
zeugt werden, und das kann mit unterschiedlicher Effizienz geschehen. Dazu
betrachten wir die Beispiele aus 1.4.4. Bei b) ist die Situation optimal, denn es
folgt für x = (x 1, ••• , x") E K" und
x = Atet + ... + A"e", daß At= x 1, ••• , A11 = x".
Die Linearkombination ist also für jedes x eindeutig bestimmt, entsprechend in
c). In den Beispielen aus d) hat man für jedes x E JR2 jeweils unendlich viele
Möglichkeiten, es linear aus Elementen von Wj zu kombinieren.
Die Eindeutigkeit ist besonders einfach beim Nullvektor zu überprüfen. Bei
beliebigen v 1 , ••• , v, hat man die triviale Linearkombination
0 = Ov 1 + ... + Ov,.
Gibt es eine andere Linearkombination des Nullvektors, so ist die Eindeutigkeit
der Darstellung verletzt. Das motiviert die
Definition. Sei V ein K-Vektorraum. Eine endliche Familie (v 1 , ••• , vr) von
Vektoren aus V heißt linear unabhängig, falls gilt: Sind A 1 , • •• , Ar E K und ist
AtVt + ... + A,Vr = 0,
so folgt
At = . . . = Ar= 0 .
Anders ausgedrückt bedeutet das, daß sich der Nullvektor nur trivial aus den
v 1 , ••• , v, linear kombinieren läßt.
Eine beliebige Familie (v;);E I von Vektoren aus V heißt linear unabhängig,
falls jede endliche Teilfamilie linear unabhängig ist.
Die Familie (V; ); EI heißt linear abhängig, falls sie nicht linear unabhängig ist,
d.h. falls es eine endliche Teilfamilie (v;,, ... , v;,) und At, . . . , Ar E K gibt, die
nicht alle gleich Null sind, so daß
A1V;1 + ... +ArV;, =0.
82 1 Grundbegriffe

Zur Bequemlichkeit sagt man meist an statt "die Familie ( v 1, ••• , v,) von Vekto-
ren aus V ist linear (un-)abhängig" einfacher "die Vektoren v 1 , ... , v, E V sind
linear (un-)abhängig".
Es ist vorteilhaft, auch die leere Familie, die den Nullvektorraum aufspannt,
linear unabhängig zu nennen.
Die Definition der linearen Unabhängigkeit ist grundlegend für die ganze lineare
Algebra, aber man muß sich etwas daran gewöhnen. Was sie geometrisch bedeu-
tet, sieht man sehr gut an der Bedingung aus Aufgabe 1 zu 0.3 für zwei Vektoren
im JR".
In der Definition der linearen Unabhängigkeit spielt der Nullvektor scheinbar
eine besondere Rolle. Daß dem nicht so ist, zeigt das
Lemma. Für eine Familie (v; ); Et von Vektoren eines K- Vektorraumes sindfol-
gende Bedingungen äquivalent:
i) (v;) ist linear unabhängig.
ii) Jeder Vektor v E span (v;) läßt sich in eindeutiger Weise aus Vektoren der
Familie (v;) linear kombinieren.

Beweis. ii) => i) ist klar, denn bei einer linear abhängigen Familie hat der Null-
vektor verschiedene Darstellungen.
i) => ii): Sei ein v E span ( v;) auf zwei Arten linear kombiniert, also
V= :L:>·;V; = L JL;V; , (*)
iE/ iE/

wobei in beiden Summen jeweils nur endlich viele der Skalare A.; und JL; von
Null verschieden sind. Es gibt also eine endliche Teilmenge J C I, so daß für
jedes A.; i= 0 oder JL ; i= 0 der Index in J enthalten ist. Aus ( *) folgt dann
L(A;- JL ;)V; = 0,
iE /

und wegen der vorausgesetzten linearen Unabhängigkeit folgt A.; = JL; für alle
i E J und somit auch für alle i E I, da ja die restlichen A.; und JL; ohnehin Null
waren. Damit ist die Eindeutigkeit der Linearkombination bewiesen. 0
1.4 Vektorräume 83

Beispiele. a) Im K" sind die Vektoren e 1 , •• • , e" linear unabhängig.


b) Ist A = (aiJ) E M(m x n; K) eine Matrix in Zeilenstufenform (vgl. 0.4.3), so
sind die ersten r Zeilen v 1, • •• , v, von A linear unabhängig. Ist nämlich
[alj,
'---"-------,la2h

A= 0
I a,;,

so folgt aus .l. 1 v 1 + ... + .l.,v, = 0 zunächst .l. 1a 1j, = 0, also .l. 1 = 0 wegen
a 1;, f 0. Im zweiten Schritt folgt daraus analog .l. 2 = 0 und weiter so
.l. 3 = .. . = .l., = 0. Analog zeigt man, daß die Spalten von A mit den Indi-
zes j 1 , h, ... , j, linear unabhängig sind.
c) Im Polynomring K[t] ist die Familie (t")"E", linear unabhängig.
Weitere Beispiele finden sich in den Aufgaben 8 und 9. Noch ein paar weitere
Kleinigkeiten:
Bemerkung. In jedem K- Vektorraum V gilt:
a) Ein einziger Vektor v E V ist genau dann linear unabhängig, wenn v f 0.
b) Gehört der Nullvektor zu einer Familie, so ist sie linear abhängig.
c) Kommt der gleiche Vektor in einer Familie mehrmals vor, so ist sie linear
abhängig.
d) Ist r ;::: 2, so sind die Vektoren v 1 , ••• , v, genau dann linear abhängig, wenn
einer davon Linearkombination der anderen ist.

Diese letzte Charakterisierung ist plausibler als die Definition, aber formal nicht
so bequem zu handhaben.
Beweis. a) Ist v linear abhängig, so gibt es ein). E K * mit .l.v = 0, also ist v = 0
nach Bemerkung c) in 1.4.1. Umgekehrt ist 0 linear abhängig, da 1 · 0 = 0.
b) I · 0 = 0.
c) Gibt es i 1, i2 E 1 mit i 1 f iz aber vi, = vi, , so ist 1 · vi, + (-1) vi, = 0.
84 1 Grundbegriffe

d) Sind die Vektoren v 1, . •. , v, linear abhängig, so gibt es ).. 1 , ... , ).., E K mit
).. 1 v1 + ... + ).., v, = 0 und ein k E { 1, ... , r} mit )..k i= 0. Dann ist

AJ
Vk = - -)..kV 1 - Ak-I
. . . -
)..k+I
- - V k - I - - - V k+ I -
)..k )..k
)..,
... - - V , .
)..k

Ist umgekehrt vk = iJ.I v1 + . .. + /J.k-I Vk-I + iJ.k+I Vk+I + . .. + !J.r v" so ist
iJ.IVI + · · · + iJ.k-IVk - 1 + (-l)Vk + iJ.k+IVk+I + · · · + IJ.rVr = 0· 0

Aufgaben zu 1.4

1. Welche der folgenden Mengen sind Untervektorräume der angegebenen Vektorräu-


me?
a) j(xi,xz,x3) E IR 3 : x1 = xz = Zx3} C JR 3.

b) ! Cx1, x2) E IR 2 : xf + xi = 0} C IR2 .

c) !Cf1+A,I.2)EIR2 : fl,AE IR}ciR2 .


d) (J E Abb (IR, IR): j(x) = j( - x) für alle x E IR) C Abb (IR, IR).
e) !CxJ,Xz,x3)EIR3 : XJ2:xz}ciR3
f) {A E M(m x n; IR): Aistin Zeilenstufenform) C M(m x n; IR).

2. Seien V und W zwei K- Vektorräume. Zeigen Sie, dass das direkte Produkt V x W
durch die Verknüpfungen
(v, w) + (v', w' ) := (v + v', w + w'), A · (v , w) := (l.v, l.w),
ebenfalls zu einem K- Vektorraum wird.
3. Ist X eine nichtleere Menge, V ein K- Vektorraum und Abb (X, V) die Menge aller
Abbildungen von X nach V, so ist auf Abb (X, V) durch
(j + g)(x) := j(x) + g(x), (1. · f)(x) := Aj(x),
eine Addition und eine skalare Multiplikation erklärt.
Zeigen Sie, dass Abb(X, V) mit diesen Verknüpfungen zu einem K-Vektorraum
wird.
4. Eine Abbildung f: IR -> IR heißt 2rr -periodisch, falls f (x ) = f (x + 2rr) für alle
x E IR.
a) Zeigen Sie, dass V = {f E Abb (IR, IR): f ist 2rr-periodisch) C Abb (IR, IR) ein
Untervektorraum ist.
b) Zeigen Sie, dass W = span (cos nx, sin mx)n.mEN ein Untervektorraum von V ist.
(Man nennt W den Vektorraum der trigonometrischen Polynome.)
1.4 Vektorräume 85

5. Seien

€1 .- { (x;)iEN: ta lx;l < 00} c Abb (N , IR:).


€ 2 {(X; liEf' : ta 2 00} c Abb (N, IR:).
lx; 1 <

e .- ((x; liEf\i : (x;)i EN konvergiert) c Abb (N, IR:)'


€ 00 . - ((x;);EN : (x;); EN beschränkt) C Abb (N, IR:).
Zeigen Sie, dass € 1 C € 2 C i C f 00 c Abb (N, IR:) eine aufsteigende Kette von Unter-
vektorräumen ist.
6. Kann eine abzählbar unendliche MengeMeine IR:- Vektorraumstruktur besitzen?
7. Gibt es eine <C-Vektorraumstruktur auf IR:, so dass die skalare Multiplikation
<C x IR: -+ IR: eingeschränkt auf IR: x IR: die übliche Multiplikation reeller Zahlen ist?
8. Sind die folgenden Vektoren linear unabhängig?
a) I . .J2. v'3 im Q- Vektorraum IR:.
b) (1 , 2, 3), (4, 5, 6), (7, 8, 9) im JR:3

c) {.,~, )" E:'> in Abb (IR:~ , IR:).


d) (cosnx, sinmxln.m E~'> '- 101 in Abb(ffi:, IR:).

9. Für welche t E IR: sind die folgenden Vektoren aus W linear abhängig?
(1 , 3, 4), (3, t, II) , (- 1, - 4, 0).

10. Stellen Sie den Vektor w jeweils als Linearkombination der Vektoren l.\, v2 , v3 dar:
a) W = (6, 2, J) , VJ = (1 , 0, J) , v2 = (7, 3, J), V}= (2, 5, 8).
b) W = (2, I, l) , V!= (1 , 5, l) , Vz = (0, 9 , 1), v3 = (3 , -3, 1).
86 l Grundbegriffe

1.5 Basis und Dimension


Nun muß die erste ernsthafte technische Schwierigkeit überwunden werden, um einem
Vektorraum eindeutig eine Zahl (genannt Dimension) als Maß für seine Größe zuordnen
zu können.

1.5.1. Zunächst die wichtigste


Definition. Eine Familie ß = (v;); E1 in einem Vektorraum V heißt Erzeugen-
densystem von V, wenn
V = span (v;);EI ,
d.h. wenn jedes v E V Linearkombination von endlich vielen v; ist.
Eine Familie ß = (v;);E1 in V heißt Basis von V, wenn sie ein linear un-
abhängiges Erzeugendensystem ist.
V heißt endlich erzeugt, falls es ein endliches Erzeugendensystem (d.h. eine
endliche Familie ß = (v 1, ... , Vn) mit V = span (V;) gibt. Ist ß eine endliche
Basis, so nennt man die Zahl n die Länge der Basis.
Beispiele. a) Die Begriffe sind so erklärt, daß die leere Familie eine Basis des
Nullvektorraumes ist. Diese kleine Freude kann man ihr gönnen.
b) K := (e 1 , .•. , en ) ist eine Basis des Kn, sie heißt die kanonische Basis oder
Standardbasis (vgl. Beispiel b) in 1.4.4).
c) Im Vektorraum M(m x n; K) hat man die Matrizen
0

0
E( = 0 ... 0 1 0 ... 0
0

0
mit einer Eins in der i-ten Zeile und j-ten Spalte und sonst Nullen. Diesem x n-
Matrizen bilden eine Basis von M(m x n; K). Das ist wieder nur eine Variante
von Beispiel b).
d) (l, i) ist eine Basis des IR-Vektorraumes <C.
e) (I , t, t 2 , ••. ) ist eine Basis unendlicher Länge des Polynomrings K[t].
1.5 Basis und Dimension 87

1.5.2. Das sieht alles recht einfach aus, bis auf eine zunächst spitzfindig erschei-
nende Frage: wenn man im K " neben der Standardbasis irgendeine andere Basis
findet, ist es gar nicht klar, daß sie die gleiche Länge hat. Im K" wäre das noch
zu verschmerzen, aber schon bei Untervektorräumen W c K" gibt es keine
Standardbasis mehr. Es ist nicht einmal ohne weiteres klar, daß jedes solche W
endlich erzeugt ist (Korollar 3 in 1.5.5). Daher kann man es nicht umgehen, die
Längen verschiedener Basen zu vergleichen. Bevor wir das in Angriff nehmen,
noch einige oft benutzte Varianten der Definition einer Basis. Zur Vereinfachung
der Bezeichnungen betrachten wir dabei nur endliche Familien.
Satz. Für eine Familie ß = (v 1 , ••• , v.,) von Vektoren eines K-Vektorraumes
V f= {0} sindfolgende Bedingungen gleichwertig:

i) ß ist eine Basis, d.h. ein linear unabhängiges Erzeugendensystem.


ii) ß ist ein "unverkürzbares" Erzeugendensystem, d.h.
(VJ, ... , Vr-l• Vr+l• . .. , V.,)

ist für jedes r E { 1, . .. , n} kein Erzeugendensystem mehr.

iii) Zu jedem v E V gibt es eindeutig bestimmte A 1, . . . , An E K mit


V = AJ VJ + ... + A., v., ,
d.h. ß ist ein Erzeugendensystem mit der zusätzlichen Eindeutigkeitseigen-
schaft.
iv) ß ist "unverlängerbar" linear unabhängig, d.h. ß ist linear unabhängig, und
für jedes v E V wird die Familie ( v 1 , .•• , Vn, v) linear abhängig.

Beweis. i) =} ii). Gegeben sei ein Erzeugendensystem ß. Ist ß verkürzbar, also


zur Vereinfachung der Notation mit r = 1
VJ = A2V2 + . . . + AnVn, SO folgt ( - 1)vl + A2V2 + . .. + AnVn = 0.
Also ist ß linear abhängig.
ii) =} iii). Sei wieder ß ein Erzeugendensystem. Ist die Eindeutigkeitseigenschaft
verletzt, so gibt es ein v E V mit
V = AJ VJ + . .. +An Vn = J.l-1 VJ + ... + JLn Vn,
und o.B.d.A. AJ f= JLl· Subtraktion der Linearkombinationen und Division
durch A1 - JLJ ergibt

also ist ß verkürzbar.


88 1 Grundbegriffe

iii) => iv). Aus iii) folgt, daß ß linear unabhängig ist. (Lemma in 1.4.5). Ist
v E V, so ist
v =At v 1 + ... + A" v", also At v 1 + ... + A" v" + (-l)v = 0,
d.h. (v 1 , ••• , v", v) ist linear abhängig.
iv) =>i). Sei ß unverlängerbar linear unabhängig. Für jedes v E V gibt es
At, ... ,A",A E K mit
AtV t + ... + A"V" + AV = 0.
Da ß linear unabhängig ist, muß A f. 0 sein, also ist
At A"
v = -;,:-Vt - ... - Tv",
und es ist bewiesen, daß ß ein Erzeugendensystem ist. 0

Der Beweis von iv) => i) ergibt den


Zusatz. Ist V nicht endlich erzeugt, so gibt es eine unendliche linear unabhän-
gige Familie.
Beweis. Es genügt zu zeigen, daß es für beliebiges n zu linear unabhängigen
Vektoren v 1 , ••• , v" einen weiteren Vektor v gibt, so daß auch ( v 1 , ••• , v" , v)
linear unabhängig ist. Wäre ( v 1, ... , v", v) für jedes v E V linear abhängig,
so wäre nach obigem Argument ( v 1, ••• , v") ein Erzeugendensystem, was der
Voraussetzung widerspricht. 0

1.5.3. Die Bedeutung des obigen Satzes erkennt man schon an seinem gar nicht
selbstverständlichen Korollar, dem
Basisauswahlsatz. Aus jedem endlichen Erzeugendensystem eines Vektorraumes
kann man eine Basis auswählen. Insbesondere hat jeder endlich erzeugte Vektor-
raum eine endliche Basis.
Beweis. Von dem gegebenen Erzeugendensystem nehme man so lange einzelne
Vektoren weg, bis es unverkürzbar geworden ist. Da am Anfang nur endlich viele
da waren, führt das Verfahren zum Ziel. 0

Allgemeiner gilt das


Theorem. Jeder Vektorraum besitzt eine Basis.
Der Beweis ist wesentlich schwieriger, wenn es kein endliches Erzeugendensy-
stem gibt, weil man möglicherweise unendlich viele Vektoren weglassen muß,
bis die Unverkürzbarkeit erreicht ist. Ein Beweis des Theorems erfordert Hilfs-
mittel aus der Mengenlehre, etwa das ZORNsehe Lemma. Darauf gehen wir hier
nicht ein (vgl. etwa [B 1], p.261).
1.5 Basis und Dimension 89

Im Falle nicht endlich erzeugter Vektorräume sind Basen im hier definierten


Sinn von geringer Bedeutung. Hier ist es für die Anwendungen in der Analysis
wichtiger, konvergente unendliche Linearkombinationen zu untersuchen. Damit
beschäftigt sich die Funktionalanalysis (vgl. etwa [M-V]).
1.5.4. Um die Längen verschiedener Basen zu vergleichen, muß man systema-
tisch Vektoren austauschen. Dieses Verfahren wurde schon 1862 von H. GRASS-
MANN beschrieben und ist später durch E. STEINITZ bekannt geworden. Ein ein-
zelner Schritt des Verfahrens wird geregelt durch das
Austauschlemma. Gegeben sei ein K- Vektorraum V mit der Basis
B=(v 1, •• • , v,) und w=)qv 1 + . . . +A,v,EV.
Ist k E { 1, ... , r} mit Ak =P 0, so ist
B' := (vt •. . . , vk- t. w, vk+ l• .. . , v, )
wieder eine Basis von V . Man kann also vk gegen w austauschen.
Beweis. Zur Vereinfachung der Schreibweise können wir annehmen, daß k = 1
ist (durch Umnumerierung kann man das erreichen). Es ist also zu zeigen, daß
B' = (w, v2, ... , v,) eine Basis von V ist. Ist v E V, so ist
V = J.l.t Vt + ... + J.lrVr
mit J.l.t, . .. , J.lr E K . Wegen At =P 0 ist
1 A2 A,
Vt = -w- -v2 - ••• - -v, also
At At At

V = !!:.!..w + (11-2 - J.l.tA2) V2 + ... + (11-r - J.l tAr) V,'


At At At
womit gezeigt ist, daß B' ein Erzeugendensystem ist.
Zum Nachweis der linearen Unabhängigkeit von B' sei
J.l.W+J.i.2V2 + ... +J.lrVr =0,
wobei J.l. , 11-2• . . . , J.lr E K . Setzt man w =At v 1 + ... + A,v, ein, so ergibt sich
J.I.AtVt + (J.I.A2 + J.1.2)v2 + ... + (J.I.A, + J.l,)v, = 0,
also J.I.At = J.I.A 2 + 11-2 = .. . = J.I.A, + J.lr = 0, da B linear unabhängig war.
Wegen At =P 0 folgt 11- = 0 und damit 11- 2 = ... = J.lr = 0. 0
Durch Iteration erhält man den
90 1 Grundbegriffe

Austauschsatz. In einem K- Vektorraum V seien eine Basis


B= (v 1 , ••• , v,)
und eine linear unabhängige Familie (w 1 , ••• , w") gegeben. Dann ist n _:": r ,
und es gibt Indizes i 1, • •• , i" E {I, ... , r} derart, daß man nach Austausch von
v;, gegen w 1, ••• , v;" gegen w" wieder eine Basis von V erhält. Numeriert man
so um, daß i 1 = I, ... , i" = n ist, so bedeutet das, daß
ß* = (WJ, ... , Wn, Vn+l' . .. , Vr)
eine Basis von V ist.
Vorsicht! Die Ungleichung n .:": r wird nicht vorausgesetzt, sondern gefolgert.
Beweis durch Induktion nach n. Für n = 0 ist nichts zu beweisen. Sei also
n =:: I, und sei der Satz schon für n- I bewiesen (Induktionsannahme).
Da auch ( w 1 , •• • , w"_ 1) linear unabhängig ist, ergibt die lnduktionsannahme,
daß (bei geeigneter Numerierung) (w 1 , ••• , w" _ 1 , v", . . . , v,) eine Basis von V
ist. Da nach Induktionsannahme n-1 .:": r gilt, muß zum Nachweis von n .:": r nur
noch der Falln - I = r ausgeschlossen werden. Dann wäre aber ( w 1, ••• , w"_ 1 )
schon eine Basis von V, was Aussage iv) aus Satz 1.5.2 widerspricht. Wir schrei-
ben
w" = A1w 1 + ... + A"_ lw" _ 1 + A"v" + ... + A,V,
mit A1 , ••• , A, E K. Wäre A" = . . . = A, = 0, so hätte man einen Widerspruch
zur linearen Unabhängigkeit von w 1, .•• , w". Bei erneuter geeigneter Nume-
rierung können wir also A" =F 0 annehmen, und wie wir im Austauschlemma
gesehen haben, läßt sich daher v" gegen w" austauschen. Also ist ß* eine Basis
von V. 0

1.5.5. Nach Überwindung dieser kleinen technischen Schwierigkeiten läuft die


Theorie wieder wie von selbst. Wir notieren die wichtigsten Folgerungen.
Korollar 1. Hat ein K -Vektorraum V eine endliche Basis, so ist jede Basis von
V endlich.
Beweis. Sei (v 1, ... , v,) eine endliche Basis und (w;);E1 eine beliebige Basis
von V. Wäre I unendlich, so gäbe es i 1, .. . , i,+ 1 E I derart, daß w;,, .. . , w;,+,
linear unabhängig wären. Das widerspricht aber dem Austauschsatz. 0

Korollar 2. Je zwei endliche Basen eines K- Vektorraumes haben gleiche Länge.


Beweis. Sind (v 1, ..• , v,) und (w 1, ... , wk) zwei Basen, so kann man den Aus-
tauschsatz zweimal anwenden, was k _:": r und r _:s k, also r = k ergibt. 0

Mit Hilfe dieser Ergebnisse können wir nun in sinnvoller Weise die Dimension
eines Vekton·aumes erklären.
1.5 Basis und Dimension 91

Definition. Ist V ein K- Vektorraum, so definieren wir


. { oo , falls V keine endliche Basis besitzt,
dimKV :=
r, falls V eine Basis der Länger besitzt.
dimK V heißt die Dimension von V über K . Falls klar ist, welcher Körper ge-
meint ist, schreibt man auch dim V .
Korollar 3. Ist W C V Untervektorraum eines endlich erzeugten Vektorraumes
V, so ist auch W endlich erzeugt, und es gilt dim W :::;: dim V.
Aus dimW = dimV folgt W =V.
Beweis. Wäre W nicht endlich erzeugt, so gäbe es nach dem Zusatz aus 1.5.2
eine unendliche linear unabhängige Familie, was dem Austauschsatz wider-
spricht. Also hat W eine endliche Basis, und wieder nach dem Austauschsatz
ist ihre Länge höchstens gleich dim V .
Sein= dimW = dimV und w 1 , • •• , w" Basis von W . Ist W =f. V, so gibt es
ein v E V " Wund w 1, ••• , w," v sind linear unabhängig im Widerspruch zum
Austauschsatz. D

In 1.5.3 hatten wir gesehen, daß man aus einem endlichen Erzeugendensystem
eine Basis auswählen kann. Manchmal ist die Konstruktion "aus der anderen
Richtung" wichtig:
Basisergänzungssatz./n einem endlich erzeugten Vektorraum V seien linear un-
abhängige Vektoren w 1 , •• • , w" gegeben. Dann kann man w"+1, • • • , w,. finden,
so daß
ß = (w1 , . .. , w," Wn + l• . . . , w,. )
eine Basis von V ist.
Beweis. Sei (v 1 , • •• , v",) ein Erzeugendensystem. Nach 1.5.3 kann man daraus
eine Basis auswählen, etwa (v 1 , • •• , v,.) mit r :::;: m. Nun wendet man den Aus-
tauschsatz an und sieht, daß bei geeigneter Numerierung durch
W n+ l := Vn + l ' · · · , W r := Vr

die gesuchte Ergänzung gefunden ist. D

Beispiele. a) dimK" = n, denn K" hat die kanonische Basis (e 1 , • • • , e"). Nach
Korollar 2 hat auch jede andere Basis von K" die Längen, was gar nicht selbst-
verständlich ist.
b) Geraden (bzw. Ebenen) durch den Nullpunkt des IR" sind Untervektorräume
der Dimension I (bzw. 2).
92 1 Grundbegriffe

c) Für den Polynomring gilt dimK K [t] = oo.


d) dim~C = 2 denn 1 und i bilden eine Basis. Dagegen ist dimcC = 1.
e) dilllQlR = oo (vgl. Aufgabe 4).

1.5.6. Bei der Definition eines Vektorraumes in 1.4.1 hatten wir einen Körper K
zugrundegelegt Zur Formulierung der Axiome genügt ein kommutativer Ring R
mit Einselement, man spricht dann von einem Modul über R. Die Begriffe wie
Linearkombination, Erzeugendensystem und lineare Unabhängigkeit kann man
in dieser allgemeineren Situation analog erklären.
In den vorangegangenen Beweisen wird immer wieder durch Skalare dividiert,
was einen Skalarenkörper voraussetzt. Über einem Ring ist von den erhaltenen
Aussagen über Basis und Dimension wenig zu retten. Daher beschränken wir
uns auf zwei Aufgaben (8 und 9), die als Warnung vor diesen Gefahren dienen
sollen.

1.5.7. Im Basisauswahlsatz 1.5.3 hatten wir bewiesen, daß man aus jedem end-
lichen Erzeugendensystem eine Basis auswählen kann. Für die Praxis ist das
Verfahren des Weglassens (und die Kontrolle, ob ein Erzeugendensystem übrig
bleibt) nicht gut geeignet. Weitaus einfacher ist es, aus einem Erzeugendensy-
stem eine Basis linear zu kombinieren. Wir behandeln hier den Spezialfall eines
Untervektorraumes W C K"; in 2.4.2 werden wir sehen, daß sich der allgemeine
Fall darauf zurückführen läßt.
Seien also a 1 , ... , am E K" gegeben, und sei W = span (a 1 , ... , am). Sind
die Vektoren a; Zeilen, so ergeben sie untereinandergeschrieben eine Matrix

a1n)
A= : E M(m x n; K),

amll

d.h. es ist a; = (a;I, . .. , a;n) .


Beispiel. Aus der kanonischen Basis (e 1, ••• , en) von K " erhält man die Matrix

E,' .· -- ( 01 01 ) E M(n x n ; K),

man nennt sie die n-reihige Einheitsmatrix. Dieser Name ist durch ihre Wirkung
bei der Matrizenmultiplikation erklärt (vgl. 2.5.4). Die Einträge von
1.5 Basis und Dimension 93

E,. = (8;j) sind die sogenannten KRONECKER-Symbole

0 für i =F j,
8; · := {
1 1 für i = j.
Nun kommen wir zurück auf die schon in Kapitel 0 benutzten Zeilenumformun-
gen. Anstatt der reellen Zahlen stehen Einträge aus einem beliebigen Körper K,
und wir betrachten vier verschiedene Arten von elementaren Zeilenumformun-
gen:
I Multiplikation der i-ten Zeile mit)... E K*:

II Addition der j -ten Zeile zur i -ten Zeile:

III Addition der J...-fachen j-ten Zeile zur i-ten Zeile (J... E K*):

() ( )
.. ..
a· a +J...a ·
A ~ .
,: ~ .
' a, ' ~ Am

u) (;: )~
IV Vertauschen der i-ten Zeile mit der j-ten Zeile:

A ~ ~ AN

Dabei bezeichnen jeweils a 1, ••• , am die Zeilen von A, es ist stets i =F j voraus-
gesetzt, und an den mit Punkten markierten Zeilen ändert sich nichts.
Die Typen III und IV entsprechen 1) und 2) aus 0.4.6. Die Typen I und II sind
noch elementarer, denn man kann III und IV daraus durch Kombination erhalten,
94 1 Grundbegriffe

und zwar nach folgendem Rezept:

Zum Verständnis der Wirkung von Zeilenumformungen hilft ein weiterer Be-
griff:
Definition. Ist A E M(m x n; K) mit Zeilen a 1 , • •• , am , so heißt
ZR(A) := span (a 1 , ••• , am) c K"
der Zeilenraum von A.
Lemma. Ist B aus A durch elementare Zeilenumformungen entstanden, so ist
ZR(B) = ZR(A).
Beweis. Nach der obigen Bemerkung genügt es, die Typen I und II zu betrachten.
Ist B = A 1 und v E ZR(A), so ist
/)-;
v = ... + JJ-;a; + .. . = .. . + ;:<A.a;) + ... ,
also auch v E ZR(B). Analog folgt v E ZR(A) aus v E ZR(B).
Ist B = An und v E ZR(A), so ist
v = ... + JJ-;a; + ... + /1-ja j + ... = ... + JJ-;(a; + aj) + ... + (/1- j - JJ-;)aj + ... ,
also v E ZR(B) und analog umgekehrt. 0

Wie in 0.4.7 beweist man den


Satz. Jede Matrix A E M(m x n; K) kann man durch elementare Zeilenumfor-
mungen auf Zeilenstufenform bringen. 0

Damit ist das zu Beginn dieses Abschnitts formulierte Problem gelöst: Hat man
aus den gegebenen Vektoren a 1 , ••• , am die Matrix A aufgestellt und diese zu
B in Zeilenstufenform umgeformt, so sind die von Null verschiedenen Zeilen
b 1 , ••• , b, von B eine Basis von W = ZR(A) = ZR(B), denn b 1 , • • • , b, sind
nach Beispiel b) in 1.4.5 linear unabhängig.
1.5 Basis und Dimension 95

Beispiel. Im JR 5 seien die Vektoren

GJ (0, 0, 0, 2, -1),
a2 (0,1,-2,1,0),
G3 (0,-1,2,1,-1),
a4 (0, 0, 0, 1, 2)

gegeben. Dann verläuft die Rechnung wie folgt:


0 0 0 2 - 1 0 1 1 -2 0
0 1 -2 1 0 01 0 0 2 -1
A= """ I
0 -1 2 -1 0 I -1 2 1 -1
0 0 0 2 0 1 0 0 1 2
I

~!_0_ ~!_ 0_
0 0 0 I 2 -1 0 0 0 I 1 2
"""
I """ I
0 0 0 I 2 -1 0 0 0 I 2 -1
0 0 0 ~ 1 2 0 0 0 ~ 2 -1

~02
""" """ =B.
0 0 0 0 I -5
I
0 0 0 0 1-5 0 0 0 0 0
Also ist eine Basis von W = span (a 1, a 2 , a 3 , a4 ) gegeben durch
b1 (0, !, -2, I, 0) ,
b2 (0, 0, 0, 1' 2) '
b3 (0, 0, 0, 0, -5).

1.5.8. Ob man Vektoren als Zeilen oder Spalten schreibt ist willkürlich, aber der
Übergang von der einen zur anderen Konvention wirft Fragen auf. Macht man
in einer Matrix Zeilen zu Spalten, so werden Spalten zu Zeilen; man nennt das
Transposition: Zu

A = (aij) E M(m x n; K) ist 'A = (a;) E M(n x m; K) mit a;1 := aJi .


96 1 Grundbegriffe

A heißt die Transponierte von A. Zum Beispiel ist für m


1 = 2 und n = 3

(~~:)~un
Eine quadratische Matrix wird dabei an der Diagonale gespiegelt. Abstrakt ge-
sehen ist die Transposition eine bijektive Abbildung
M(m x n; K) -+ M(n x m; K) , A 1-+ 1A,
und es gelten die folgenden Rechenregeln:
1) 1 (A + B) = A
1 +I B,
2) 1 (A · A) = A · A,1

3) 1 (1A) = A.
Nun kann man ganz analog zu 1.5.7 für eine Matrix A elementare Spalten-
umformungen, Spaltenraum SR(A), Spaltenstufenform etc. erklären, was durch
Transposition auf die entsprechenden Begriffe für Zeilen zurückgeführt werden
kann. Das sind einfache Spielereien, aber ein ernsthaftes Problem wird deutlich
durch die folgende
Definition. Für eine Matrix A E M(m x n; K) sei
Zeilenrang A := dimZR(A) und
Spaltenrang A := dim SR(A) .
Man beachte dabei, daß Zeilen- und Spaltenraum in verschiedenen Vektorräu-
men liegen:
ZR(A) c K" und SR(A) c K'" .
Zum Beispiel für A = E" ist ZR(E") = SR(E") = K", also
Zeilenrang E" = n = SpaltenrangEn .
Bei der Behandlung linearer Gleichungssysteme benötigt man die etwas überra-
schende Tatsache, daß diese beiden Zahlen für jede Matrix gleich sind. In 2.6.6
steht genügend viel Theorie für einen indexfreien Beweis zur Verfügung, in Ka-
pitel 6 wird der abstrakte Hintergrund beleuchtet. Der Schlüssel für einen direk-
ten Beweis mit den Hilfsmitteln dieses Kapitels ist das
Lemma. In der Matrix A E M(m x n ; K) sei die letzte Zeile Linearkombination
der vorhergehenden, A E M(m - 1 x n; K) entstehe aus A durch Weglassen der
letzten Zeile. Dann ist
Spaltenrang A = Spaltenrang A .
1.5 Basis und Dimension 97

Beweis. Wir bezeichnen die Zeilen von A mit a 1, ••• , am und die Spalten mit
a 1, ••• , a" (man beachte, daß der obere Index keine Potenz bedeuten soll). Nach
Voraussetzung gibt es f1. 1, .. . , fl.m - l E K mit
am = J.l.lal + ... + fl.m-lam-1 .
Das bedeutet, daß alle Spalten von A enthalten sind im Untervektorraum
W ={(XI, .. . , Xm) E Km : Xm = J.1.1X1 + ... + fl.m - IXm - 1),
also ist SR(A) C W. Nun betrachten wir die ,,Projektion"
Ir: w~ K'" - 1 , x=(xl,··· ,Xm)r+x=(xl , ··· ,Xm-1).
w

Bild 1.7
Nach Definition von A gilt SR(A) n: (SR(A)), zu zeigen ist dimSR(A) =
dimSR(A).
Nach 1.5.3 können wir annehmen, daß (a 1 , • •• , a~") für ein r mit 0 ::; r ::; n
eine Basis von SR(A) ist. Offensichtlich ist a1 , • •• , a,. ein Erzeugendensystem
von SR(A). Ist
A.1a1 + ... + A.,.a,. = 0,
so folgt daraus für die m-ten Komponenten von a 1 , • •• , a,.
m- 1 m- 1
A. 1 a,~ + ... + A.,.a;,, = A. 1 L J.L;a/ + ... + A.,. L J.L;a;
i=l i=i
r r
fl.l LA.Ja{+ ... + fl.m -1 L AJa~_ 1
}=I }=I
J.l.I·O+ .. . +J.Lm-1"0=0,
also folgt aus (*),daß A. 1a 1 + ... + A.,.a,. = 0 und somit A. 1 = ... = A.,. = 0.
Daher ist a1 , ••• , a,. eine Basis von SR(A).
Selbstverständlich bleibt der Zeilenraum ganz unverändert. Das folgt etwa aus
dem Lemma in 1.5.7. 0

Der Rest des Beweises für die Gleichheit von Zeilenrang und Spaltenrang ist
Aufgabe 13.
98 1 Grundbegriffe

Aufgaben zu 1.5
1. Gegeben seien im IR5 die Vektoren v 1 = (4, I, I, 0, -2), u2 (0, I, 4, -I, 2),
u3 = (4, 3, 9, - 2, 2), v4 = (1 , I, I, I , 1), v 5 = (0, -2, -8, 2, -4).
a) Bestimmen Sie eine Basis von V= span (u1, ..• , v5 ).
b) Wählen Sie alle möglichen Basen von V aus den Vektoren 11, ... , vs aus, und kom-
binieren Sie jeweils u1, ••• , u5 daraus linear.
2. Geben Sie für folgende Vektorräume jeweils eine Basis an:
a) l<xJ,X2,X3) E IR 3 : x1 =x3j,
b) I(XJ , x2 , X3, x4) E IR4 : XJ + 3x2 + 2x4 = 0, 2x1 + Xz + X3 = Oj,
c) span (t2, 12 + t, t 2 +I , 12 + t +I, 17 + r 5 ) c IR[r],
d) (J E Abb (IR, IR) : j(x) = 0 bis auf endlich viele x E IR).

3. FürdEN sei
Klt1 , ... , t"](d) :={FE K[t1, ... , t11 ]: Fist homogen vom Grad d oder F = 0)
(vgl. Aufgabe 9 zu 1.3). Beweisen Sie, dass K[t1, ... , t"](d ) c K[t 1, ... , t"] ein Unter-
vektorraum ist und bestimmen Sie dimK[tJ, ... , tn] (d)·
4. Zeigen Sie, dass IC endlich erzeugt über IR ist, aber IR nicht endlich erzeugt über IQI.
5. Ist (v;);e/ eine Basis des Vektorraumes V und (wJ)j eJ eine Basis des Vektorraumes
W. so ist ((u;, O));e/ U (CO, WJ)) }eJ eine Basis von V x W (vgl. Aufgabe 2 zu 1.4).
Insbesondere gilt
dimV x W = dimV + dimW ,
falls dim V, dim W < oo.
6. Sei V ein reeller Vektorraum und a, b, c, d , e E V. Zeigen Sie, dass die folgenden
Vektoren linear abhängig sind:
v1 = a + b + c, vz = 2a + 2b + 2c - d, V3 = a - b - e,
V4 = 5a + 6b - c + d + e , vs = a - c + 3e , V6 = a + b+ d + e.
7. Für einen endlichdimensionalen Vektorraum V definieren wir
h(V) := sup {n E N: es gibt eine Kette Vo C V 1 C ... C Vn-1 C V"
von Untervektorräumen mit V; "' V;+ 1 ) ·

Zeigen Sie h(V) = dimV.


8. Sei R = C(IR, IR) der Ring der stetigen Funktionen und
W := {f E R: es gibt ein Q E IR mit j(x) = 0 für x 2: Q) C R.
Für k E N definieren wir die Funktion
für alle x 2: k ,
fk(X) := { Ü
k-x fürx_:::k.
1.5 Basis und Dimension 99

a) W = span RCfklkE:< ·
b) W ist über R nicht endlich erzeugt (aber Rist über R endlich erzeugt).
c) Ist die Familie CfklkENlinear abhängig über R?
9. Zeigen Sie Z = 2Z + 3Z und folgern Sie daraus, dass es in Z unverkürzbare
Erzeugendensysteme verschiedener Längen gibt.
10. Wie viele Elemente hat ein endlichdimensionaler Vektorraum über einem endlichen
Körper?
11. * a) Ist K ein Körper mit char K = p > 0, so enthält K einen zu Z/ p Z isomorphen
Körper und kann somit als Z/ p Z - Vektorraum aufgefasst werden.
b) Zeigen Sie: IstKein endlicher Körper mit char K = p, so hat K genau tf' Elemente,
wobein = dimz; pz K.
12. Zeigen Sie: Zeilenrang = Spaltenrang für Matri zen mit sehr kleiner Zeilenzahl (etwa
m = I , 2) und beliebig großer Spaltenzahln.
13. Folgern Sie aus Lemma 1.5.8, dass für eine Matrix A E M(m x n; K)
a) Zeilenrang A ~ Spaltenrang A,
b) Zeilenrang A :::-; Spaltenrang A,

und somit insgesamt Zeilenrang A = Spaltenrang A gilt.


100 I Grundbegriffe

1.6 Summen von Vektorräumen*


Für die Menge der Linearkombinationen aus Vektoren VI , ... , v, hatten wir in 1.4.4
auch die Schreibweise

Kv1 + ... +Kv,

angegeben. Das soll andeuten, daß dies die Menge der Summen von Vektoren aus den
für vJ f= 0 eindimensionalen Räumen K v1 ist. Wir betrachten nun den Fall, daß die
Summanden aus beliebigen Untervektorräumen stammen, das wird in Kapitel 4 nützlich
sein. Einem eiligen Leser raten wir, dies zunächst zu überblättem.

1.6.1. Ausgangspunkt ist die folgende


Definition. Gegeben sei ein K- Vektorraum V mit Untervektorräumen
W1, . . . , W, c V. Dann heißt
W1 + ... + W, := { v E V: es gibt v1 E w1 mit v = v1 + ... + v,}
die Summe von W1, ... , W,.
Ohne Schwierigkeit beweist man die
Bemerkung. Für die oben definierte Summe gilt:
a) W1 + ... + W, C V ist ein Untervektorraum.
b) W1 + ... + W, = span (W1 U . .. U W, ).
c) dim(W1 + ... + W,) ::0 dimW1 + ... + dimW,. 0

Nun ist die Frage naheliegend, wie unscharf die letzte Ungleichung ist. Im Fall
r = 2 ist das einfach zu beantworten:

Dimensionsformel für Summen. Für endlichdimensionale Untervektorräume


W1, W2 C V gilt
dim(WI + Wz) = dim W1 + dim Wz - dim(WI n Wz) .
Beweis. Wir beginnen mit einer Basis (v 1 , .. . , vm) von W1 n W2 und ergänzen
sie entsprechend 1.5.5 zu Basen
(v 1, ... Vm,WJ, ... , wk) vonW1und (vJ, ... ,vm,w;, . .. ,w;) vonWz .
Die Behauptung ist bewiesen, wenn wir gezeigt haben, daß
ß : = (VJ, . .. ,Vm,WJ, . . . , Wk, W; , ... ,w;)
eine Basis von W1 + W2 ist. Daß W1 + W2 von ß erzeugt wird ist klar. Zum
Beweis der linearen Unabhängigkeit sei
AJ UJ + ... +Am Vm + J.LI WJ + ... + J.LkWk + J.L; w; + ... + j.L;w; = 0. (*)
1.6 Summen von Vektorräumen* 101

Setzen wir
V : = A1V1 + · · · + Am Vm + /l-1 W 1 + . . · + Jl-k Wk ,
so ist v E W 1 und -v = 1-1-'1w; + ... + 1-1-;w; E W 2, also v E W 1 n W 2. Also ist
V = A11V1 + .. . + A~ Vm
mit A;, ... , A;" E K, und wegen der Eindeutigkeit der Linearkombinationen
folgt insbesondere 1-1- 1 = . .. = !-1-k = 0. Setzt man das in (*) ein, so folgt auch
A1 = .. . = Am = Jl- 1 = . .. = 1-1-; = 0 .
1
0

1.6.2. Der Korrekturterm in der Dimensionsformel wird durch die Dimension


des Durchschnitts verursacht. Diesen Mangel einer Summendarstellung kann
man auch anders charakterisieren.
Lemma. ist V = W 1 + Wz, so sindfolgende Bedingungen äquivalent:
i) W 1 n W 2 = {0}.

ii) Jedes V E V ist eindeutig darstellbar als v = W1 + Wz mit W1 E W"


Wz E Wz.

iii) Zwei von Null verschiedene Vektoren w 1 E W 1 und w 2 E W 2 sind linear


unabhängig.

Beweis. i) =} ii): Ist v = w 1 + w2 = w1 + w2 , so folgt


wl - wl = Wz - Wz E wl n Wz.
ii) =} iii): Sind w 1 , w 2 linear abhängig, so erhält man verschiedene Darstellungen
des Nullvektors.
iii) =} i): Ist 0 =F v E W 1 n W 2 , so erhält man einen Widerspruch zu iii) durch
1v+(-!)v=0 . 0

Da Bedingung i) am kürzesten aufzuschreiben ist, die folgende


Definition. Ein Vektorraum V heißt direkte Summe von zwei Untervektorräumen
W 1 und W2 , in Zeichen
V = W 1 EB W 2 , wenn V = W 1+ W2 und W 1 n W2 = {0} .

1.6.3. Im endlichdimensionalen Fall hat man einfacher nachzuprüfende Bedin-


gungen für die Direktheit einer Summe.
102 1 Grundbegriffe

Satz. Ist V endlichdimensional mit Untervektorräumen W1 und W 2, so sind fol-


gende Bedingungen gleichwertig:
i) v = w1 EB w2.
ii) Es gibt Basen (w 1 , ... , wk) von W 1 und (w~, ... , wl) von W2 , so daß
(w 1, ... , wk, w~, ... , wl) eine Basis von V ist.
iii) V = W1 + W 2 und dimV = dimW1 + dimW2.

Beweis. i) =? ii) =? iii) folgt aus der Dimensionsformel (einschließlich Beweis)


in 1.6.1 im Spezialfall W1 n W 2 = {0}.
iii) =:- i): Nach der Dimensionsformel ist dim(W1 n W2) = 0, also
W1 n W2 = {o} . 0

Daraus folgt sofort die Existenz von "direkten Summanden" :


Korollar. Ist V endlichdimensional und W C V Untervektorraum, so gibt es da-
zu einen (im allgemeinen nicht eindeutig bestimmten) Untervektorraum
W' c V, so daß
V = W EBW'.
W' heißt direkter Summand von V zu W .
Beweis. Man nehme eine Basis (v 1 , . .. , vm) von W, ergänze sie nach 1.5.4 zu
einer Basis (v 1 , ... , Vm, Vm+1 , ... , Vn) von V und definiere
W' := span (vm+l> 0 0 0 'Vn) 0
0

1.6.4. In Kapitel 4 werden wir direkte Summen von mehreren Unterräumen an-
treffen. Zur Vorsorge dafür die
Definition. Ein Vektorraum V heißt direkte Summe von Untervektorräumen
W1o ... , Wk, in Zeichen
V = W1 EB ... EB Wk ,
wenn folgende Bedingungen erfüllt sind:
DSl V = W1 + ... + Wk .
DS2 Sind Wj E wl, 0 0 0 ' Wk E w k gegeben mit Wj + 0 0 0 + Wk = 0, so folgt
W1 = ... = Wk = 0.
1.6 Summen von Vektorräumen• 103

Vorsicht! Bedingung DS2 darf man für k > 2 nicht ersetzen durch
wl n ... n wk = {0} oder wi n wj = {0} für alle i =I= j
(vgl. Aufgabe 1).

Bild 1.8
Beispiel. Ist (v 1 , •• • , V 11 ) eine Basis von V, so ist V = K v 1 E9 ... E9 K V11 •

Satz. Für Untervektorräume W 1 , ••• , Wk eines endlichdimensionalen Vektor-


raumes V sind folgende Bedingungen äquivalent:
iJ v = W1 E9 . . . E9 wk.
ii) Ist für jedes i E { 1, ... , k} eine Basis ( v~il, . . . , vXl) von Wi gegeben, so
ist
ß := ( v~ 1 l, ... , u;,1l, ... , v~kl , ... , u;;l)
eine Basis von V.
iii) V= W 1 + ... + Wk und dimV = dimW1 + ... +dimWk.

Man beachte die Klammern bei den oberen Indizes. Sie dienen zur Unterschei-
dung von Exponenten, deren Stammplatz an dieser Stelle ist.
Beweis. i)=> ii). Offensichtlich ist ß ein Erzeugendensystem. Zum Beweis der
linearen Unabhängigkeit sei
+ .. . + Jl~:lu;,' l + ... + Jl~klv~kl + ... + Jl~;l v;:l =
Jl~llv~ll 0.
Setzen wir wi := 11\ilu~il + ... + Jl~;lv;;>. so bedeutet das
W1 + ... + Wk = 0 ,

und wegen DS2 muß w 1 = ... = wk = 0 sein. Also ist


Jl~ilv~il + .. . + Jl~;lv?l = 0 für i = 1, . .. , k,
un araus o gt 11 (i1 ) = ... = Jl,,(i) = 0 .
d d f I
104 1 Grundbegriffe

ii) {c} iii) ist klar.


ii) => i). Zum Nachweis von DS2 stellen wir jedes w; E W; durch die gegebene
Basis von W; dar:
W o

t
= 1/(i)v(i)
,_...1 1
+ · · · + //(i)v(i)
r"ri Ti ·

Aus der Annahme w 1 + ... + w k = 0 folgt


k
2: 2: f-l~i)v~i)
Ti

= o.
;~1 e~l

Da B eine Basis ist, folgt f-l~i) = 0 für alle Q und i, also ist auch
Wj = ... = Wk = 0. D

Aufgaben zu 1.6

1. Beweisen Sie, dass für einen Vektorraum V folgende Bedingungen äquivalent sind:

ii) Jedes v E V ist eindeutig darstellbar als v = w1 + ... + W k mit w; E W;.


iii) V = W1 + ... + Wk, W; =/= {0} für alle i und von Null verschiedene Vektoren
W! E W1, ... , Wk E Wk sind linear unabhängig.
Vorsicht! Die Voraussetzung W; =/= {0} ist wesentlich. Ist etwa W1 = {0}, so ist
die angegebene zweite Bedingung stets erfüllt!
k
iv) V = W1 + ... + Wk und W ; n 2::: Wj = {0} für alle i E {1, ... , k }.
j~ l
#i
v) V= W 1 + ... + WkundW;n(Wi+ 1 + ... + W k ) = {O}fürallei E {1, ... ,k - 1}.
Zeigen Sie anband von Gegenbeispielen, dass die obigen Bedingungen für k > 2 im
Allgemeinen nicht äquivalent sind zu W1 n ... n Wk = {0} bzw. W; n Wj = {0} für
allei=/=j.
2. Sind V und W Vektorräume, so gilt
V x W = (V x {0}) Ell ( {0} x W) .

3. Eine Matrix A E M(n x n; K) heißt symmetrisch, falls A = tA.


a) Zeigen Sie, dass die symmetrischen Matrizen einen Untervektorraum Sym(n ; K)
von M(n x n; K ) bilden. Geben Sie die Dimension und eine Basis von Sym(n; K)
an.
1.6 Summen von Vektorräumen* 105

Ist char K oft 2, so heißt A E M(n x n ; K) schiefsymmetrisch (oder alternierend), falls


'A = -A. Im Folgenden sei stets char K oft 2.
b) Zeigen Sie, dass die altemierenden Matrizen einen Untervektorraum Alt(n; K) von
M(n x n ; K) bilden. Bestimmen Sie auch für Alt(n; K) die Dimension und eine
Basis.
c) Für A E M(n x n ; K) sei As := ~(A + 'A) und Aa := ~(A - 1A). Zeigen Sie: As ist
symmetrisch, Aa ist alternierend, und es gilt A = A5 + Aa.
d) Es gilt: M(n x n ; K) = Sym(n; K) EB Alt(n; K).
Kapitel2
Lineare Abbildungen

2.1 Beispiele und Definitionen


2.1.1. a) Besonders wichtige Funktionen f: lR --+ lR sind die Polynome mit
f(x) = ao +a,x + ... +a"x",
denn die ganze Abbildungsvorschrift ist durch Angabe der Koeffizienten
a0 , ... , a," d.h. von n + 1 Zahlen, festgelegt. Ist a" =f. 0, so nennt man n den Grad
von f . Für Grad 0 hat man die konstanten und für Grad I die linearen Funktio-
nen. In der Analysis untersucht man, ob sich eine beliebige Funktion bei kleinen
Veränderungen des Arguments x nahezu wie eine lineare Funktion verhält; das
führt zum Begriff der Differenzierbarkeit. Daher sind die linearen Funktionen
unentbehrliches Hilfsmittel der Analysis. Wir betrachten also ein
f: lR--+ JR, x r-+ ax +b = f(x),
f(.r)

Bild2.1
mit a, b E JR. Ihr Graph ist eine Gerade mit Steigung a, die durch (0, b) geht.
Setzt man den konstanten Anteil b = 0, so bleibt eine Funktion f (x) = ax, die
durch eine einzige reelle Zahl a festgelegt ist, und offensichtlich die Eigenschaf-
ten
f(x + x') = f(x) + f(x ') und f(h) = Af(x)
für beliebige x, x', ). E lR hat.
b) Viel interessanter und anschaulich einfach zu verstehen ist die Situation in
der Ebene. Zunächst betrachten wir eine Drehung um den Nullpunkt mit dem
Winkel fJ . Das ist eine Abbildung
F : JR2 --+ JR2 ,

G. Fischer, Lineare Algebra, Grundkurs Mathematik,


DOI 10.1007/978-3-658-03945-5_3, © Springer Fachmedien Wiesbaden 2014
2.1 Beispiele und Definitionen 107

die sich wie folgt beschreiben läßt. Es ist


F(O)=O, F(e 1)=(cos0,sin0), F(e2 )=(-sinO,cosO),
und für ein beliebiges x = (x 1 , x 2 ) = x 1e 1 + x 2e2 ist
F(x) = x 1 F(eJ) + x 2 F(e 2 ) = (x 1 cos 0 - x 2 sin 0 , x 1 sin 0 + x 2 cos 0) .

.... ~.... e,
---·-·
........ _.. ...
'· ,·., _r (e 1)

\
\

Bild 2.2
Benutzen wir die Matrix

A =( :~:: ~;:noo) ,
und schreiben wir x und F(x) als Spaltenvektoren, so ist mit der in 0.4.1 er-
klärten Multiplikation F(x) = A · x.
An dieser Überlegung ist zu sehen, daß man für F(e 1) und F(e 2 ) beliebige
Vektoren a = (a 1 , a2 ), b = (b 1 , b 2) vorschreiben kann. Dann läßt sich F mit der
Konstruktion aus Bild 2.3 zu einer Abbildung von IR 2 auf sich ausdehnen.

F(eJ
F(x)

Bild2.3
Mit Hilfe der Matrix
108 2 Lineare Abbildungen

ist F wieder beschrieben durch F (x) = A · x.


c) Betrachtet man nun anstelle von IR einen beliebigen Körper K, und nimmt man
m und n anstelle von 2, so ist man sofort in einer recht allgemeinen Situation. Ist
nämlich A = (aiJ) einem x n-Matrix, so erhält man daraus eine Abbildung

F: K"-+K'",

Wie man leicht nachrechnet, hat sie wieder die Eigenschaft


F(x + x ') = F(x) + F(x'), F(h) = )..F(x)
für x , x' E K" und).. E K .
Mit Hilfe der in 0.4.1 erklärten Multiplikation einer Matrix A mit einer Spalte
kann man diese Abbildung einfacher beschreiben als
F: K" --+ K'"' X f-+ A . X'
wenn man die Vektoren von K" und K'" als Spalten entsprechender Höhe
schreibt. Setzt man für x die Basisvektoren e 1 , ••• , e" als Spalten ein und rechnet
man die Produkte aus, so stellt man fest, daß
A · e, , .. . , A · en
die Spalten von A in dieser Reihenfolge sind. Diese Beobachtung:
Die Spaltenvektoren der Matrix sind die Bilder der Basisvektoren
sollte man sich einprägen.
d) Die Transposition von Matrizen als Abbildung
F: M(m x n ; K) --+ M(n x m ; K)
hat nach den Rechenregeln in 1.5.8 die zu(*) analogen Eigenschaften.
e) Der Vektorraum V = C(/; IR) der auf einem Intervall I = [a, b] stetigen
Funktionen ist unendlichdimensional, und die Abbildung

f
b

S: C(I; IR)--+ IR , f r+ f(x)dx ,

hat nach den Rechenregeln für Integrale die zu (*) analogen Eigenschaften
S(f + g) = S(f) + S(g) , S(Aj) = AS(f) .
2.1 Beispiele und Definitionen 109

0 Ist V = 'D(l; IR) der Vektorraum der beliebig oft differenzierbaren Funktio-
nen, so hat die durch Differentiation erklärte Abbildung
D : V -+ V , f r-+ f ',
die zu (*) analoge Eigenschaft.
2.1.2. Die obigen Beispiele motivieren die folgende
Definition. Eine Abbildung F : V -+ W zwischen K- Vektorräumen V und W
heißt linear (genauer K -linear oder Homomorphismus von K- Vektorräumen),
wenn
Ll F(v + w) = F(v) + F(w),
L2 F(A.v) = A.F(v)
für alle v, w E V und alle A. E K. Diese beiden Bedingungen kann man zusam-
menfassen zu einer:
L F(A.v + {iW) = A.F(v) + i-iF(w)
für alle v, w E V und A., 1-i E K. Man überlegt sich ganz leicht, daß LI und L2
zusammen mit L gleichwertig sind.
Es ist üblich, den Begriff Homomorphismus zu verschärfen. Man nennt eine li-
neare Abbildung F : V -+ W einen
Isomorphismus, wenn F bijektiv ist,
Endomorphismus, wenn V= W,
Automorphismus, wenn V = W und F bijektiv ist.
Wir notieren einige einfache Folgerungen aus den Axiomen:
Bemerkung. Ist F : V -+ W linear; so gilt:
a) F(O) = 0 und F(v - w) = F(v) - F(w).
b) F(AJ VJ + ... +An Vn) = AJ F(VJ) + .. . + AnF(vn).
c) Ist die Familie (v;);EI in V linear abhängig, so ist (F(v;));EI in W linear
abhängig.
d) Sind V ' C V und W ' C W Untervektorräume, so sind auch F(V') C Wund
F - 1(W') C V Untervektorräume.
e) dimF(V) :::: dimV.

f) IstFein Isomorphismus, so ist auch F- 1 : W-+ V linear.


110 2 Lineare Abbildungen

= F(O · 0) = 0 · F(O) = 0 und


Beweis. a) F(O)
F(v- w) = F(v + (-l)w) = F(v) + (-l)F(w) = F(v)- F(w).

b) folgt durch wiederholte Anwendung der Regel L.


c) Ist für i 1, ... , in E I und A. 1, ... , An E K
AJV; 1 + ... +A.nv;. =0,
so folgt nach b)
A.1 F(v;,) + ... + A.nF(v;J = 0.

d) Wegen 0 E V' ist 0 = F(O) E F(V'). Sind w, w' E F(V'), so gibt es


v, v' E V' mit F(v) =wund F(v') = w'. Also ist
w + w' = F(v) + F(v') = F(v + v') E F(V'),
denn v + v' E V' . Für A. E K gilt wegen A.v E V'
A.w = A.F(v) = F(A.v) E F(V' ).
Sind v, v' E F- (W'), so bedeutet das F(v), F(v' )
1 E W'. Also ist
F(v + v') = F(v) + F(v' ) E W' ,
also v + v' E F - 1 (W') und analog sieht man A.v E F - 1 (W').
e) Hat man w 1 = F(vd, . . . , Wn = F(vn) E F(V) linear unabhängig, so sind
nach c) auch v 1 , ••• , Vn in V linear unabhängig.
f) Seien w , w' E W und A. , Jl E K. Ist w = F(v) und w' = F(v'), so ist
v = F- 1(w), v' = F - 1(w'), und es folgt aus
F(A.v + f.lv') = A.w + JlW 1

durch Anwendung von F - 1 auf beiden Seiten


A.F- 1(w) + f,lF - 1(w') = F - 1(A.w + JlW'). D

2.1.3. Lineare Abbildungen kann man in verschiedener Weise miteinander ver-


knüpfen. Zunächst betrachten wir die Hintereinanderschaltung.
Bemerkung 1. Sind V, V, W Vektorräume und G : V --+ V, F: V --+ W
lineare Abbildungen, so ist auch
F o G: V --+ W linear.
2.1 Beispiele und Definitionen 111

Man beachte dabei wie immer die Reihenfolge der Abbildungen, was man sich
in einem Diagramm aufzeichnen kann:

yV~
u F oG
w
Beweis. Für u, u' E U ist
(F o G)(u + u' ) F (G(u + u' )) = F (G(u) + G(u'))
F (G(u)) + F (G(u '))
(F o G)(u) + (F o G)(u' ).

Ganz analog zeigt man (F o G)(A.u) = A.(F o G)(u) . 0

In Aufgabe 3 zu 1.4 hatten wir gesehen, wie man für eine Menge X und einen
Vektorraum W die Menge Abb (X, W) zu einem Vektorraum machen kann. Ist
auch X = V ein K-Vektorraum, so definiert man
HomK(V , W) := {F : V--+ W: Fist K-linear}.

Falls klar ist, welcher Körper K gemeint ist, schreibt man einfacher
Hom(V, W) .

Bemerkung 2. Für Vektorräume V und W über demselben Körper K ist


Horn K (V, W) C Abb (V, W)
ein Untervektorraum.

Beweis. Für F, GE HomK(V, W) und A. E K ist zu zeigen, daß F + G und A.F


wieder K -linear sind. Das ist aber klar, denn für alle IJ, r E Kund v, w E V ist
(F + G)(iJV + rw) F(iJv + rw) + G(iJv + rw)
IJ F(v) + r F(w) + iJG(v) + rG(w)
IJ (F(v) + G(v)) + r (F(w) + G(w))

iJ(F + G)(v) + r(F + G)(w)


und
(A. · F)(iJV + rw) A.F(iJV + rw) = A. (iJ F(v) + r F(w))
iJA.F(v) + rA.F(w) = iJ(A. · F)(v) + r(A. · F)(w).

Wir vermerken noch, daß der Nullvektor in Horn K (V, W) die Nullabbildung
0: V--+ W mit O(v) := 0 für alle v E V
112 2 Lineare Abbildungen

ist, und die zu F: V ---+ W negative Abbildung gegeben ist durch


-F: V---+W mit (-F)(v) :=-F(v) fürallevEV. 0

Die Dimension von Horn (V, W) werden wir in 2.4.2 berechnen (siehe auch Auf-
gabe 6 zu 2.4).

2.1.4. Im Spezialfall V = W setzt man


End (V) :=Horn (V , V),
das sind die Endamorphismen von V. Diese Menge wird, wie wir in 2.1.3 gese-
hen haben, zu einem Vektorraum mit Addition und Multiplikation mit Skalaren.
Man kann überdies eine Multiplikation durch die Hintereinanderschaltung er-
klären, in Zeichen
F · G := F o G für F , G E End (V) .

Satz. Ist V ein K- Vektorraum, so ist End (V) zusammen mit der oben erklärten
Addition und Multiplikation ein Ring.
Der einfache Beweis sei dem Leser überlassen. In 2.6.4 werden wir sehen, daß
dieser Endomorphismenring für endlichdimensionales V zu einem Matrizenring
isomorph ist. Damit erhält man eine Methode, viele der interessanten Unterringe
von End (V) durch die Gestalt der entsprechenden Matrizen zu be-
schreiben.

Aufgaben zu 2.1

1. Sei X eine Menge und V der IR-Vektorraum aller Funktionen f: X -+ IR. Beweisen
Sie: Ist rp: X -+ X eine beliebige Abbildung, so ist die Abbildung
F"' : V -+ V , f f-> f o rp
IR-linear.
2. Untersuchen Sie die folgenden Abbildungen auf Linearität:
a) IR 2 -+ IR2 , (x , y)R(3x+2y,x), b) IR -+ IR, xf->ax+b ,
c) lli -+ IR, (x, y) f-> x + .Jiy (über !Q), d) <C -+ <C , z f-> z,
e) Abb (IR, IR) -+ IR , f f-> f(l), f) <C -+ <C , z f-> z (über IR).
3. Für einen Endamorphismus F: V -+ V ist die Menge der Fixpunkte von F definiert
durch Fix F := {v E V : F(v) = v).
a) Zeigen Sie, dass Fix F c V ein Untervektorraum ist.

b) Sei der Endamorphismus F gegeben durch


, ,., ., , 0 n,
2.1 Beispiele und Definitionen 113

~ ~ ~
ii) F: IR[t] --" IR[t], P 1-+ P',
iii) F: V(IR, IR) --'> V(IR, IR), f 1-+ f'.
Bestimmen Sie jeweils eine Basis von Fix F.

4. Zeigen Sie, dass die Menge Aut(V) der Automorphismen eines Vektorraums V mit
der Komposition von Abbildungen als Verknüpfung eine Gruppe ist.
5. Sei F: V --" V ein Endamorphismus des Vektorraums V und v E V, so dass für eine
natürliche Zahl n gilt:
F"(v) f. 0 und Fn+ l (v) = 0 .
Beweisen Sie, dass dann v, F(v), ... , F"(v) linear unabhängig sind.
6. Ist F: V --" Wein Isomorphismus und V = U1 EI) Uz, so ist W = F(UJ) EI) F(Uz).
114 2 Lineare Abbildungen

2.2 Bild, Fasern und Kern, Quotientenvektorräume*


Nachdem wir eine ganze Reihe formaler Eigenschaften von linearen Abbildungen be-
handelt haben, soll nun versucht werden, die "Geometrie" solcher Abbildungen etwas
besser zu verstehen.

2.2.1. Ist F: V -+ W eine lineare Abbildung, so nennen wir


Im F := F(V) das Bild von F (vgl. 1.1.3) ,
F - (w) := {v
1 E V: F(v) = w) dieFaserüberw E Wund
den Kern von F.

Bemerkung. Ist F: V -+ W linear, so gilt:


a) Im F C W und KerF C V sind Untervektorräume .
b) F surjektiv{:} Im F = W.
c) F injektiv{:} KerF = {0}.
d) Ist F injektiv, und sind v 1, ... , v" E V linear unabhängig, so sind auch die
Bilder F(v 1 ), ••• , F(v") linear unabhängig.
Beweis. a) und b) und die "Hinrichtung" von c) sind ganz klar. Gibt es umgekehrt
zwei verschiedene v, v' E V mit F(v) = F(v' ), so folgt F(v - v' ) = 0, also
0 "I v - v' E KerF.
Zu d) nehmen wir an, daß
1-LIF(vi)+ ... J-L"F(v") =0 .
Die linke Seite hat wegen der Linearität das Urbild I-LI v1 + ... +JA" v", wegen
der Injektivität folgt
/-LI VJ + ... + J-L 11 V 11 = 0,
also JA 1 = ... = JA" = 0. 0

Eine besonders wichtige Zahl für eine lineare Abbildung ist die Dimension ihres
Bildes. Man nennt sie den Rang, in Zeichen
rang F := dimim F.
Insbesondere beschreibt eine Matrix A E M(m x n; K ) eine lineare Abbildung
A : K" -+ K'" , x 1-+ y = Ax ,
wobei die Vektoren x E K" und y E K'" als Spalten geschrieben sind, und als
Rang von A, in Zeichen
rang A,
2.2 Bild, Fasern und Kern, Quotientenvektorräume* 115

bezeichnet man den Rang dieser linearen Abbildung. Ist (e 1 , ••• , en) die kano-
nische Basis des K", so sind
Ae 1 , •• • , Ae11
die Spalten von A, also ist
Im A = A(K") = span (Ae 1 , ••• , Ae11 ) ,
das ist der Spaltenraum von A. Also ist der gerade erklärte Rang von A gleich
dem in 1.5.8 eingeführten Spaltenrang. Will man ihn berechnen, so genügt es, A
auf Spaltenstufenform, d.h. 1 A auf Zeilenstufenform zu bringen (vgl. 1.5.7).
2.2.2. Die Begriffe Bild und Faser hat man analog für eine beliebige Abbildung
F : X --* Y zwischen Mengen, und X wird durch die Fasern in disjunkte Teil-
mengen zerlegt:
x= U r'(y).
yEimF

Wir wollen untersuchen, wie diese Faserung im Fall einer linearen Abbildung
aussieht. Dazu zunächst ein einfaches, aber typisches
Beispiel. Wir betrachten die Abbildung

F: IR 2 --* IR 2, (x')
x2
r+ (-2x + 2x
-x, +x2
1 2) .

Es ist Im F =IR· (2, 1), KerF= IR· (1, 1), und für (2b, b) E Im Fist die Faser
die Gerade mit der Gleichung x 2 = x 1 + b, also
F- 1 (2b , b) (O,b)+IR·(l,l)
= {(J.,b+J.): J. E IR}.

lmF

Bild2.4
Die Fasern sind also parallele Geraden, der Kern ist die einzige Faser durch den
Nullpunkt. Allgemein gilt die
116 2 Lineare Abbildungen

Bemerkung. Ist F: V -+ W linear, w E Im F und u E F - 1( w) beliebig, so ist


F- 1 (w) = u +KerF= {u + v: v E KerF}.

Beweis. Ist v' E F - 1(w) , so folgt


F(v') = F(u) => F(v' - u) = 0 => v := v'- u E KerF
=> v' = u + v E u + Ker F
Ist umgekehrt v' = u + v E u + KerF, so ist F(v') = F(u) = w, also
v' E F - 1(w). D

2.2.3. Teilmengen, die durch ,,Parallelverschiebung" eines Untervektorraumes


entstehen, erhalten einen eigenen Namen.
Definition. Eine Teilmenge X eines K- Vektorraumes V heißt ein affiner Unter-
raum , falls es ein v E V und einen Untervektorraum W c V gibt, so daß
X= v + W := {u E V: es gibt ein w E W mit u = v + w}
(Bild 2.5). Es ist vorteilhaft, auch die leere Menge einen affinen Unterraum zu
nennen.
Beispiele für affine Unterräume des IR" sind Punkte, Geraden und Ebenen (vgl.
Kap. 0).

X =u+ vV
w

Bild 2.5

Bemerkung. Sei X =v+W C V ein affiner Unterraum. Dann gilt:

a) Für ein beliebiges v' E X ist X = v' + W .


b) Ist v' E V und W' C V ein Untervektorraum mit v + W = v' + W', so folgt
W = W' und v' - v E W .

Kurz ausgedrückt: Zu einem affinen Unterraum v + W ist der Untervektorraum


W eindeutig bestimmt, und der Aufhängepunkt v kann beliebig in X gewählt
werden.
2.2 Bild, Fasern und Kern, Quotientenvektorräurne* 117

Beweis. a) Wir schreiben v' = v + w'.


X c v'+ W: u E X =} u = v+w mit w E W
=} u = v' + (w - w')

'* u E v' + W
v' +W C X: u = v' + w E v' + W =} u = V + (W + w') E V + W .
b) Definiert man
X - X := {u - u': u, u' E X}

als die Menge der Differenzen (man beachte den Unterschied zu der in 1.1.2
definierten Differenzmenge X '- X = 0), so sieht man ganz leicht, daß
X - X =W und X - X = W'
sein muß. Also ist W = W '.
Wegen v + W = v' + W gibt es ein w E W mit v' v + w. Also ist
v'- V= W E W. D

Da für einen affinen Unterraum X = v +W c V der Untervektorraum W


eindeutig bestimmt ist, können wir durch
dimX := dimW
die Dimension von X erklären.
2.2.4. Wir zeigen nun, wie man Basen wählen kann, die maßgeschneidert sind
für eine lineare Abbildung (vgl. 2.4.3).
Satz. Sei F: V ---+ W linear und dim V < oo. Sind Basen
(v 1 , •.• ,vk) vonKerF, (w 1 , ••• ,w,) vonlmF,
sowiebeliebigeVektorenu 1 E F - 1(w 1), ... , u, E F - 1(w, )gegeben,soist
A:=(uJ , ... ,u,.,vJ, .. . ,vk)
eine Basis von V. Insbesondere gilt die Dimensionsformel
dim V = dim Im F + dim Ker F.
Beweis. Für v E V sei
F(v) = !J-IWI + .. . + !J-,W, und v' := !J-IUI + ... + !J-,u,.
Wegen F(v) = F(v') folgt v- v' E KerF , also
v - v'= A.IvJ + . . . +A.k vk
und
118 2 Lineare Abbildungen

Also wird V durch A erzeugt. Ist


J-L1U1 + ··· + J-L,.Ur +A.1V1 + ·· · + A.k Vk = Ü,
so folgt durch Anwendung von F
J-Liwi+ ... +J-L,.w,.=O , also J-L 1 = .. . =J-L,.=Ü,
da w 1, .. . , w,. linear unabhängig sind. In ( *) eingesetzt ergibt sich
A.1v1+ ... +A.kvk=O, alsoA.1 , .. . ,A.k =O
da v1, ... , vk linear unabhängig sind. 0

Als unmittelbare Folgerung aus der Dimensionsformel notieren wir:


Korollar 1. Ist V endlichdimensional und F: V --+ W linear, so gilt für alle
nichtleeren Fasern
dim F - 1(w) = dimV- dimlm F. 0

Korollar 2. Zwischen zwei endlichdimensionalen Vektorräumen V und W gibt


es genau dann einen Isomorphismus, wenn dim V = dim W. 0

Korollar 3. Sei dim V = dim W < oo und F : V --+ W linear. Dann sind
folgende Bedingungen gleichwertig:
i) F injektiv
ii) F surjektiv
iii) F bijektiv 0

2.2.5. Durch weiteres Spielen mit den Basen aus Satz 2.2.4 erhält man folgenden
Faktorisierungssatz. Sei F: V --+ W linear und
A = (u1, . . . , u,., v 1, . . . , vk) eine Basis von V
mit KerF = span ( v 1, ... , vk). Definieren wir U = span (u 1, ... , u,. ), so gilt
1) V = U EB Ker F.

2) Die Einschränkung FIU : U --+Im Fist ein Isomorphismus.


3) Bezeichnet P: V = U EB KerF --+ U, v = u + v' ~--+ u, die Projektion auf
den ersten Summanden, so ist F = (FI U ) o P.
In Form eines Diagrammes hat man
2.2 Bild, Fasern und Kern, Quotientenvektorräume* 119

U Ffij ImF c W.
Insbesondere hatjede nichtleere Faser F - 1(w) mit U genau einen Schnittpunkt,
und es ist
P(v) = r 1 (F(v)) n U.

Man kann also F: V --+ W zerlegen (oder faktorisieren) in drei Anteile: ei-
ne Parallelprojektion, einen Isomorphismus und die Inklusion des Bildes. Der
zur Konstruktion erforderliche direkte Summand U ist allerdings nicht eindeutig
bestimmt, er hängt ab von der Wahl der Basisvektoren u 1, ••• , u,. Wenn in V
eine Winkelmessung möglich ist (vgl. Kapitel 5), kann man U eindeutig machen
durch die Vorschrift, auf KerF senkrecht zu stehen. Die Umkehrung Im F --+ U
von F IU nennt man einen Schnitt, da sie aus jeder Faser genau einen Punkt aus-
schneidet. Als gute Illustration kann Beispiel 2.2.2 mit k = r = 1 dienen.
+
V
---- w
F
F(v)

u FIU
~
ImF
KerF
Bild2.6
Beweis. 1) folgt aus der Charakterisierung direkter Summen in 1.6.3.
Wegen Ker FIU = (KerF) n U = {0} ist FIU auch injektiv, also Isomorphis-
mus mit Bild Im F. 3) folgt aus der Konstruktion von P. Ist schließlich
v E V und v = u + v' mit u E U und v' E KerF ,
so ist u = P(v), also F(v) = F(u) = F(P(v)) = : w. Ist überdies w 1, ••• , w,
eine Basis von Im F mit F(u i) = wi,
w = J.itWJ + .. . + J.irWr und V E F- 1 (w) n u'
0

Zur Vorbereitung auf den gleich folgenden Abschnitt über lineare Gleichungs-
systeme ist es nützlich, die gerade beschriebene allgemeine Situation für eine
120 2 Lineare Abbildungen

durch eine Matrix A E M(m x n; K) in Zeilenstufenform gegebene Abbildung


A: K" ~K m

zu betrachten. Sind (in der Notation von 0.4.3) j 1 , ••• , j, die Indizes der Pivot-
spalten, und sind e j,, . .. , ej , die zu diesen Indizes gehörigen Basisvektoren des
K", so sind die Bilder
A(ej,), ... , A(ej,) E Km
(das sind gerade die Pivotspalten) eine Basis von
Im (A) = span (e;, .. . , e~) .
Dabei ist mit (e;, ... , e',) die kanonische Basis des K' bezeichnet. Also ist
U :=span(ej,,·· · ,ej,)

in diesem Fall ein direkter Summand zum Kern von A im Sinn von 1.6.3. Der
Leser möge das zur Übung präzise begründen.
Für die erste Lektüre wird empfohlen, den Rest dieses Abschnittes zu über-
blättern und bei 2.3 wieder einzusteigen.

2.2.6. Ist F : V ~ W eine lineare Abbildung, so sind die Fasern von F nach
2.2.2 die zum Untervektorraum KerF C V parallelen affinen Räume. Wir wol-
len nun umgekehrt zu jedem vorgegebenen Untervektorraum U C V eine lineare
Abbildung mit Kern U konstruieren. Dazu benötigt man man einen Vektorraum
W als Bild; wir zeigen, daß es dafür einen kanonischen Kandidaten gibt, den
"Quotientenvektorraum" W = V/ U. Da die Konstruktion ziemlich abstrakt ist,
wollen wir zunächst etwas inhaltlichen Hintergrund bereitstellen.
Beispiel I. Sei V = IR2 und U c V eine Gerade durch den Ursprung. Man nennt
zwei Punkte v, v' E IR2 äquivalent, wenn die Differenz in U liegt, in Zeichen
V (; V 1 {:} V1 - V E U.

Geometrisch bedeutet das, daß v und v' gleich weit entfernt von U sind, wo-
bei die Entfernung von Punkten links von U negativ und rechts von U positiv
gerechnet sein soll.
Es ist ganz einfach zu sehen, daß dadurch in V eine Äquivalenzrelation im
Sinn von 1. 1.8 erklärt wird. Die Äquivalenzklassen sind die zu U parallelen Ge-
raden, das sind die affinen Räume aus 2.2.3.
Der Leser mache sich auch die Analogie zu den Restklassen modulo m aus
1.2.7 klar: Dort wurde die Gleichheit abgeschwächt zur Kongruenz, hier wird
gleich ersetzt durch gleich weit entfernt.
2.2 Bild, Fasern und Kern, Quotientenvektorräume* 121

7
,U - 'V

Bild2.7
Beispiel 2. a) Wir betrachten den unendlich-dimensionalen Vektorraum
C(JR) = {f: lR ---> lR: f stetig) .
Eine beliebige Teilmenge X c lR sei vorgegeben, ihr Komplement A := lR" X
soll die Rolle einer Ausnahmemenge spielen, d.h. die Werte von f auf A werden
als unwesentlich angesehen. Damit können wir den Untervektorraum
I(X) := {f E C(JR): f(x) = 0 für alle x E X} C C(JR)
der "unwesentlichen" Funktionen betrachten und für f, g E C(JR)
f ~ g :{} g- f E I(X)
erklären. In Worten bedeutet das, f und g sind im wesentlichen (d.h. außerhalb
A) gleich. Auch diese Äquivalenz ist eine kontrollierte (von A abhängige) Ab-
schwächung der Gleichheit.
b) Eine Variante davon ist die folgende: Man benutzt auf lR ein Integral (et-
wa das Riemann- oder besser das Lebesgue-lntegral), d.h. ein Integral, mit dem
möglichst viele Funktionen integrierbar sind. Sei
.C(JR) := {f: lR ---> lR: f integrierbar}

f
und
N := {f E .C(JR): lf(t)ldt = 0} c .C(JR) 0

IR
Nach den Rechenregeln für ein Integral folgt, daß N c .C(JR) ein Untervektor-
raum ist. Man beachte, daß N unendliche Dimension hat, denn etwa die Funk-
tionen f; mit fi (t) = 0 für t i= i und J; (i) = 1 sind für i E N in N linear unab-
hängig.
122 2 Lineare Abbildungen

Für f, g E L(JR) bedeutet f f,;8 dann

J if(t)- g(t)idt = 0.
IR
Dafür sagt man auch, f und g sind "fast überall" gleich, denn die Menge
{t E IR: f(t) # g(t))
muß sehr klein sein.
2.2.7. Sei nun ganz allgemein V ein K- Vektorraum und U c V ein Untervek-
torraum. Für v, v' E V erklären wir die Äquivalenz modulo U
V (; v' :{} V1 - V E U.
Aus den Eigenschaften eines Untervektorraumes folgt ganz einfach, daß die Be-
dingungen für eine Äquivalenzrelation aus 1.1.8 erfüllt sind.
Die Äquivalenzklasse eines v E V ist gleich dem affinen Unterraum, also
Iv' E V : v' u v} = v + U ,
denn
v' u v {} v' - v E U {} es gibt ein u E U mit v' = v +u.
Die Menge der Äquivalenzklassen wird mit V 1U bezeichnet, die kanonische
Abbildung sei
Q: V-+VIU={v+U: vEV), Vt-+Q(v)=v+U.
Dabei wird jedem Punkt der ihn enthaltende affine Raum zugeordnet, oder anders
ausgedrückt wird jeder Vektor ersetzt durch die Menge all der zu ihm
gleichwertigen Vektoren. Im Extremfall U = 0 ist die Äquivalenz die Gleich-
heit und Q wird bijektiv. Für U = V ist alles äquivalent, und V I U besteht nur
aus einem Element.
Nun kommt der entscheidende Schritt, nämlich die Beobachtung, daß man mit
den affinen Räumen rechnen kann wie mit Vektoren.
Satz. Sei V ein K-Vektorraum und U C V ein Untervektorraum. Dann kann
man die Menge V I U auf genau eine Weise so zu einem K- Vektorraum machen,
daß die kanonische Abbildung
Q: V-+VIU, v~-+v+U ,

linear wird. Weiter gilt:


1) Q ist surjektiv.

2) KerQ = U.
2.2 Bild, Fasern und Kern, Quotientenvektorräume* 123

3) dim V I V = dim V - dimV, falls dim V < oo.


4) Der Quotientenvektorraum V I V hat die folgende universelle Eigenschaft:
Ist F: V ----* W eine lineare Abbildung mit V C KerF, so gibt es genau eine
lineare Abbildung F: V I V ----* W mit F =F o (]. Das kann man in Form
eines kommutativen Diagramms schreiben:

Weiter ist KerF= (Ker F)l V.

Man nennt V I V den Quotientenvektorraum von V nach V . Diese Bezeichnung


entspricht der Vorstellung, daß man V aus V ,,herausdividiert", weil V in V I V
zur Null wird.
Beweis. Zur vorübergehenden Unterscheidung werden die neu zu definierenden
Verknüpfungen in V I V mit + und ·, die alten in V mit + und ohne Symbol
bezeichnet. Soll Q linear werden, so muß
(v +V)+ (w +V)= Q(V) +Q(W) = Q(V + w) = (v + w) +V,
;.,. . (v +V) =;.,. . Q(v) = e(A.v) = AV + V
gelten. Also gibt es nur eine Möglichkeit, die gesuchten Verknüpfungen in V I V
zu erklären:
(v +V)+ (w +V):= (v + w) +V, A. · (v +V):= A.v +V.
Es ist jedoch keineswegs klar, daß diese "Definition" sinnvoll ist. Man muß noch
zeigen, daß sie von der Wahl der Repräsentanten v und w unabhängig ist; dann
sagt man, durch + und · seien Verknüpfungen in V I V wohldefiniert.
Seien also weitere Repräsentanten v' , w' gegeben, d.h.
v + V = v' + V und w + V = w' + V ,
Dann ist v'- v E V und w' - w E V, also (v' + w')- (v + w) E V, und somit
(siehe Bild 2.8)
(v + w) + V = ( v' + w') + V .
Analog zeigt man, daß
A.v +V = A.v' +V,
d.h. auch die Multiplikation mit Skalaren ist in V I V wohldefiniert
124 2 Lineare Abbildungen

v'

w+ U

I
I
(t' + U ) + (w + U)
Bild 2.8
Der Nachweis der Vektorraumaxiome in V I U mit Hilfe der entsprechenden Re-
chenregeln in V bereitet keinerlei Probleme, das sei dem Leser zur Übung emp-
fohlen. Nullvektor in V I U ist U, denn
+ +
(v + U) U = (v + U) (0 + U) = (v + 0) + U = v + U,
und der zu v + U negative Vektor ist - v + U. Diese Rechnungen zeigen, daß die
Unterscheidung von + und +
überflüssig ist.
Die zusätzlichen Aussagen sind ganz einfach. 1) folgt aus der Definition
von Q. Ist v + U = U, so ist v E U, also folgt 2). 3) folgt aus der Dimensi-
onsformel in 2.2.4.
Zu 4) bemerkt man zunächst, daß wegen der Forderung F = F o Q für alle
V E V
F(v) = F (Q(v)) = F(v + U)
sein muß. Dadurch istFauch wohldefiniert: denn ist v + U = v' + U, so folgt
v' - v E U c KerF, also F(v) = F(v' ).
Die Linearität von F ist klar. Die Gleichung KerF = KerF I U folgt aus
v + U E KerF {o} v E Ker F {o} v + U E Ker F I U ,
wobei zu bedenken ist, daß KerF I U C V I U ein Untervektorraum ist. 0

Eine Schwierigkeit beim Verständnis der Quotientenstruktur besteht wohl dar-


in, daß Mengen von Vektoren (in diesem Fall affine Räume) zu neuen Vektoren
2.2 Bild, Fasern und Kern, Quotientenvektorräume* 125

werden. Aber Vektor zu sein hat keine individuelle Bedeutung; ein Vektor muß
sich nur innerhalb einer Gesamtheit von Vektoren (d.h. in einem Vektorraum)
nach den dort geltenden Spielregeln (den Axiomen) verhalten. In diesem Sin-
ne ist z.B. auch eine Funktion ein Vektor, d.h. ein Element oder ,,Punkt" eines
Vektorraumes (vgl. 1.4.1, Beispiele).
2.2.8. Manchmal mag es beruhigend sein, wenn man einen abstrakten Quotien-
tenvektorraum durch etwas Konkreteres ersetzen kann. Dazu betrachten wir noch
einmal die Beispiele aus 2.2.6.
\' = IR2

V'

I
v +U = w+U
Bild 2.9
Beispiel 1. Für eine Gerade U C V = IR2 ist der Quotient V 1U eindimensional.
Jeder affine Raum v + U E V I U kann durch einen Repräsentanten v E V gege-
ben werden, und man kann die Repräsentanten alle auf einen Streich in folgender
Weise erhalten: Ist V ' C V eine von U verschiedene Gerade durch 0, so schnei-
det V ' jeden affinen Raum v + U in genau einem Punkt (Bild 2.9). Bezeichnet
man mit
Q1 : V ' -+ V I u ' V I-+ V +u '
die Beschränkung der kanonischen Abbildung Q, so wird Q' zu einem Isomor-
phismus. Man kann also in gewisser Weise den abstrakten Quotientenvektorraum
V I U durch einen konkreten Untervektorraum V ' ersetzen. V' ist direkter Sum-
mand im Sinne von 1.6.3, d.h. es ist
V= U EB V',
126 2 Lineare Abbildungen

und die Umkehrung von g' ist ein Schnitt im Sinn von 2.2.5. Aber V ' hat den
Nachteil, nicht eindeutig zu sein. Ein besonders ausgezeichneter direkter Sum-
mand ist die zu U senkrechte Gerade U.L (vgl. dazu 5.4.8).
Daß die elementargeometrische Vorstellung hier nicht immer hilfreich ist, sieht
man an
Beispiel 2. a) Die Elemente aus C(IR)/I(X) sind Klassen auf IR stetiger Funk-
tionen, die auf X gleich sind. Eine solche Klasse kann man stetige Funktion auf
X nennen, damit hat man Stetigkeit auch auf nicht-offenen Teilmengen X c IR
erklärt.
Das geht zum Glück auch etwas weniger abstrakt. Sei
F(X) = {rp : X-+ IR}
der Vektorraum aller auf X definierten Funktionen und
a: C(IR) -+ F(X), f t-+ fiX ,
der Einschränkungshomomorphismus. Wir definieren
C(X) := Ima = {rp E F(X) : es gibt ein f E C(IR) mit rp =fiX) c F(X)
als den Vektorraum der auf X stetigen, d.h. auf IR stetig fortsetzbaren Funktionen.
Offenbar ist Kera = I(X), also hat man nach der universellen Eigenschaft des
Quotientenvektorraumes ein Diagramm
C(IR) a F(X)

ej / .
C(IR) / I(X)

wobei ä wegen Ker ä = Ker a / I(X) = 0 injektiv ist. Der abstrakte Quotienten-
vektorraum C(IR)/I(X) kann also als Untervektorraum des konkreteren Vektor-
raumes F(X) aufgefaßt werden.
b) Der Quotientenvektorraum
L(IR) := I-(IR)/N
besteht aus den Klassen fast überall gleicher Funktionen. Im Gegensatz zu a)
kann man ihn nicht als Untervektorraum von F(IR) realisieren (warum?). In
Aufgabe 6 zu 5.1 wird er mit einer Norm versehen. Das ergibt einen brauch-
baren Begriff der Konvergenz; der Preis dafür ist, daß man Funktionen durch
Äquivalenzklassen ersetzen muß.
2.2.9. Nach diesen Beispielen wieder zurück zur allgemeinen Theorie. Wir zei-
gen, daß man den Quotientenvektorraum weitgehend durch einen direkten Sum-
2.2 Bild, Fasern und Kern, Quotientenvektorräume* 127

manden ersetzen kann. Dessen Existenz war im endlich-dimensionalen Fall in


1.6.3 gezeigt worden. Im allgemeinen Fall ist das zwar auch noch richtig, aber
für die Praxis nutzlos.
Satz. Sei V = V 1 EEl V2 und Q: V -+ V I V2 die kanonische Abbildung. Dann ist
e' := eIVt : Vt -+ V I Vz
ein Isomorphismus.
Beweis. Jedes v E V hat eine eindeutige Darstellung v = v 1 + v2 mit v 1 E Vt
und v2 E V2 . Weiter ist
Q(V) = Q(Vt + Vz) = Vt + Vz + Vz = Vt + Vz = e'(vt).
Daraus folgt sofort, daß e' bijektiv ist. D

Aufgaben zu 2.2

1. Sei F: IR" -> IR'" gegeben durch die folgenden Matrizen:


0

(~ 2
5 !) (! I
0 0
0

0 :)
Bestimmen Sie jeweils Basen von Ker F und Im F.
2. Sei I c IR ein Intervall und
d: D(J; IR) -> D(J; IR), f f-* J'.
Zeigen Sie, dassdeine IR-lineare Abbildung ist, und geben Sie eine Basis von Ker d an .
Wie sieht Ker d aus im Fall, dass I disjunkte Vereinigung von Intervallen ist?
3. Sei V ein endlichdimensionaler Vektorraum und F: V -> V ein Endomorphismus.
Es sei definiert: Wo := V und W;+ t := F(W;) für i E N. Dann gilt: Es gibt ein m E N
mit Wm+i = Wm für alle i E N.
4. Sei F: V -> V linear mit F 2 = F. Zeigen Sie, dass es Untervektorräume U, W von
V gibtmit V= U EEl Wund F(W) = 0, F(u) = u füralle u EU.
5. Sei F: 11?.3 -> 11?.2 gegeben durch die Matrix

(-~ -~ _!).
a) Bestimmen Sie Basen A = (u, v 1 , v2 ) des 11?.3 und B = ( w, w' ) des 11?.2 , so dass
KerF= span (vt, vz), Im F = span (w) und F(u) = w .
128 2 Lineare Abbildungen

b) Geben Sie für x E Im Feine Parametrisierung der Faser r 1 (x) an und zeigen Sie,
dass jede nichtleere Faser F- 1(x) genau einen Schnittpunkt mit U = span (u) hat
(vgl. 2.2.5).

6. Beweisen Sie das Lemma aus 1.5.8 noch einmal, aber benutzen Sie nun, dass die
Projektion :n:: W --> K"' - 1 linear und injektiv ist.
7. Sei F: V --> W linear und U C W ein Untervektorraum. Zeigen Sie, dass dann
dimF- 1 (U) = dim(U n Im F) + dimKer F.
8. Geben Sie einen neuen Beweis von Teil a) der Bemerkung aus 2.2.3 unter Benutzung
der Äquivalenzrelation w in V .
9. Zeigen Sie mit Hilfe der universellen Eigenschaft des Quotientenvektorraumes, dass
für Vektorräume V, W sowie einen Untervektorraum U C V die lineare Abbildung
{FEHom(V,W): FiU=O)->Hom(V(U, W) mit F t4 F
(vgl. Satz 2.2.7) ein Isomorphismus von Vektorräumen ist.
2.3 Lineare Gleichungssysteme 129

2.3 Lineare Gleichungssysteme


Mit Hilfe der bisher entwickelten Techniken von Vektorräumen und linearen Abbil-
dungen können wir nun lineare Gleichungssysteme noch einmal von einem etwas ab-
strakteren Standpunkt aus behandeln und dabei auch die in Kapitel 0 versprochenen
Begründungen nachliefern.
2.3.1. In Kapitel 0 hatten wir nur den reellen Vektorraum lR 11 betrachtet. Man
kann ihn für einen beliebigen Körper K durch K" ersetzen, da bei der Behand-
lung von linearen Gleichungssystemen nur die Körpereigenschaften der reellen
Zahlen verwendet wurden.
Wir betrachtenjetzt allgemein eine Matrix A = (aij) E M(m x n; K) und eine
Spalte b = 1 (b 1 , ••• , b111 ) E M(m x I; K). Daraus ergibt sich das Gleichungssy-
stem
II

A ·x = b, d.h. l::.>iJXJ = bi für i = I , ... , m. (**)


}=1
Man nennt
II

A ·x = 0, d.h. L:>iJXJ = 0 für i = 1, . .. , m. (*)


}=1
das zu (**) gehörige homogene System; ist b =I= 0, so nennt man das System (**)
inhomogen. Die Mengen
Lös (A, b) := {x E K": A · x = b) c K"
nennt man Lösungs räume. Entscheidend für die Theorie ist die Beziehung zu der
durch A beschriebenen linearen Abbildung
F : K 11 -+ K 111 , X !--* A ·X ,

denn es ist Lös (A, b) = F- 1 (b), also insbesondere Lös (A, 0) =KerF.
Nach 2.2 ist die "Größe" der Lösungsräume festgelegt durch die Zahl
r :=rang F = rang A = Spaltenrang A.
Genauer folgt aus 2.2.3 und 2.2.4 das
Korollar. Gegeben sei das lineare Gleichungssystem A · x = b mit m Gleichun-
gen und n Unbekannten, es sei r = rang A. Dann gilt für die Lösungs räume:
1) Lös (A, 0) C K" ist ein Untervektorraum der Dimension n - r.
2) Lös (A, b) C K" ist entweder leeroder ein affiner Raum der Dimension n-r.
Ist v E Lös (A, b) beliebig, so ist
Lös(A,b)=v+Lös(A,O). 0
130 2 Lineare Abbildungen

Anders ausgedrückt sagt man dafür: Die allgemeine Lösung eines inhomoge-
nen linearen Gleichungssystems erhält man durch die Addition einer speziellen
Lösung des inhomogenen Gleichungssystems und der allgemeinen Lösung des
zugehörigen homogenen Gleichungssystems.

2.3.2. Der Lösungsraum eines homogenen linearen Gleichungssystems enthält


als Untervektorraum stets die triviale Lösung 0, für ein inhomogenes System gibt
es keine triviale Lösung. In 0.4.4 hatten wir durch Umformung der erweiterten
Koeffizientenmatrix am Ergebnis ablesen können, ob es Lösungen gibt. Auch
das kann man etwas abstrakter ansehen.
Wir vergleichen dazu die Matrizen A vom Rangrund (A, b). Die erweiterte
Matrix hat eine Spalte mehr, also ist
r ::; rang (A, b) ::; r +I.
Satz. Der Lösungsraum des linearen Gleichungssystems A · x b ist genau
dann nicht leer, wenn
rang A =rang (A, b).

Diese Bedingung wurde in den Jahren 1875176 von G . FONTENE, E. ROUCHE


und F.G. FROBENIUS gefunden (vgl. [Fr]).
Beweis. A beschreibt eine lineare Abbildung
A: K" -+ K"'' X 1-+ A .X '

und (A, b) beschreibt eine lineare Abbildung


A': K "+ 1 -+ K"', x' ~--+ A' · x ' .

Sind (e 1 , ••• , e") und (e;, . .. , e;,+ 1) die kanonischen Basen, so gilt
A(e d = A' (e;), . . . , A(e") = A' (e~ ) und A ' (e~+ 1 ) = b .
Bei der Abbildung A' kommt also b nach Konstruktion im Bild vor, während das
bei A gerade zu entscheiden ist. Wegen Im A C Im A ' ist stets
rang A ::; rang A ' .
Also ist rang A = rang A' gleichbedeutend mit Im A = Im A', d.h. nach Defini-
tion von A' mitbEIm A . 0

Hat man (A, b) auf Zeilenstufenform gebracht, so ist der Zeilenrang gleich der
Anzahl der von Null verschiedenen Zeilen. Verwenden wir die Gleichheit von
Zeilenrang und Spaltenrang (vgl. 1.5.8 und 2.6.6), so folgt die
2.3 Lineare Gleichungssysteme 131

Bemerkung. Sei

(A, b) =
0

Dann ist rang A =rang (A, b) genau dann, wenn


br+! = ... = bm = 0. 0

2.3.3. Wie im reellen Fall zeigt man, daß sich jede Matrix durch elementare Zei-
lenumformungen auf Zeilenstufenform Abringen läßt (vgl. 0.4.7), und daß sich
der Lösungsraum nicht ändert, wenn man dabei die Spalte b zu b mit umformt,
d.h.
Lös (A, b) =Lös (A, b)
(vgl. 0.4.6).
2.3.4. Schließlich betrachten wir noch einmal den Fall, daß die erweiterte Koef-
fizientenmatrix in Zeilenstufenform und der Lösungsraum Lös (A, b) nicht leer
ist. Nach eventueller Umordming der Spalten von A können wir annehmen, daß

~
~
(A, b) = arr b,
0

mit a;; i= 0 für i = 1, ... , rund br+I = ... = bm = 0.


Die in 0.4.4 konstruierte Parametrisierung müssen wir nun genauer ansehen.
132 2 Lineare Abbildungen

Die dort berechneten Koeffizienten tragen wir in Matrizen ein:


D' := (diJ) E M(r x r; K), C' := (ciJ) E M(r x k; K) .
Diese werden vergrößert zu

C := ( ~~ ) E M(n x k; K) und D := ( ~' ) E M(n x r; K),

das ergibt lineare Abbildungen


rp: K' ~ K" , b t-+ D · b, und <1> 0 : Kk ~ K " , ).. t-+ C · ).. ,
wobei b = '(b 1, ••• , b, ), und nach der in 0.4.4 ausgeführten Rechnung ist
<l>b: Kk ~ K" gegeben durch <l>b(A) = rp(b) + <l>o(A).
Nach Konstruktion von <l>b gilt für alle b E K'
<l>b(Kk) c Lös (A, b) = rp(b) +Lös (A , 0).
Für b = 0 sieht man an der Matrix C, daß <1> 0 injektiv ist. Weiter ist nach 2.3.1
dim Lös (A, 0) = k, also folgt
<1> 0 (Kk) =Lös (A, 0) ,
und durch Verschiebung um rp(b) ergibt sich daraus
<l>b( Kk) = Lös (A, b).
Man beachte, daß hierbei wieder die Gleichheit von Zeilenrang und Spaltenrang
benutzt wird: Die Dimension von Lös (A, b) ist nach der Dimensionsformel aus
2.2.4 durch den Spaltenrang bestimmt, an der Zeilenstufenform liest man den
Zeilenrang ab. Insgesamt ist folgendes bewiesen:
Satz. Sei (A, b) in Zeilenstufenform mit r = Zeilenrang A und b E K'. Dann
hat die in 0.4.4 konstruierte von b abhängige Parametrisierung
<l>b: Kn- r ~ Lös(A,b) C K"
folgende Eigenschaften:
I) <1>0 : Kn-r ~ Lös (A, 0) C K" ist ein Vektorraumisomorphismus.
2) <l>b: Kn-r ~ Lös (A , b) C K" istfür jedes b E K ' bijektiv.
3) Es gibt einen Homomorphismus rp: K' ~ K", so daßfür alle b E K'
<l>b = rp(b) + <l>o und Lös (A, b) = rp(b) +Lös (A, 0). D

Damit ist die Frage nach Lösbarkeit von linearen Gleichungssystemen beant-
wortet und auch die Abhängigkeit der Lösungsmenge von der ,,rechten Seite"
b explizit beschrieben. Die oben angegebene Abbildung rp: K' ~ K" ist ein
Schnitt im Sinne von 2.2.5.
2.3 Lineare Gleichungssysteme 133

Ist das System nicht in Zeilenstufenforrn, so kann man zeigen, daß der Über-
gang vom ursprünglichen b zum umgeformten b durch einen Isomorphismus
S: Km -+ Km , b~ b,
beschrieben wird. In 2.7.7 zeigen wir, wie man S berechnen kann.

2.3.5. Zur Beschreibung der Lösungen eines linearen Gleichungssystems be-


nutzt man oft eine weitere Sprechweise. Eine Basis (wi, ... , wd von Lös (A, 0)
heißt Fundamentalsystem von Lösungen des homogenen Systems. Ein beliebiges
v E Lös (A, b) heißt spezielle Lösung des inhomogenen Systems. Dann hat man
eine Darstellung

Lös (A, b) = v + Kwi + ... + Kwk,


und die Linearkombinationen der Lösungen sind eindeutig. Man erhält die Vek-
toren wi, ... , wk als Spalten der in 2.3.4 konstruierten Matrix C. Dabei ist je-
doch Vorsicht geboten, weil die Zeilen von C anders angeordnet sind, wenn die
Pivotspalten nicht die Voraussetzung); = i erfüllen.
Es lohnt sich nicht, den allgemeinen Fall aufzuschreiben, wir geben lieber ein
typisches
Beispiel. Wir betrachten das Gleichungssystem in Zeilenstufenform und mit be-
liebiger rechter Seite:

-4 0 h
2 1 bz
0 b3
2 b4
0 0 0 0 0 0 0

mit n = 7, m = 5, r = 4, )I = 2, )z = 3, h = 5, ) 4 = 6 und k = 3. Dann ist


xi = )q, x4 = A.z, x1 = A. 3, und daraus ergibt sich
x6 b4 - 2x7 = b4 - 2A.3 ,
Xs b3 - X6 = b3 - b4 + 2A.3 ,
X3 bz + X4 + xs - 2x6 - x1 = bz + b3 - 3b4 + A.z + 5A.3 ,
Xz bi - 2x4 + xs + 4x6 = bi + b3 + 3b4 - 2A.z - 6A.3.

Trägt man die erhaltenen Koeffizienten in die entsprechenden Matrizen ein, so


134 2 Lineare Abbildungen

wird
0 0 0 0 1 0 0
1 0 1 3 0 -2 -6
0 1 1 -3 0 5
D= 0 0 0 0 C= 0 0
0 0 1 -1 0 0 2
0 0 0 1 0 0 -2
0 0 0 0 0 0
Die Spalten von C sind das Fundamentalsystem, D · b ist für jedes b E K 4 eine
spezielle Lösung.

2.3.6. Zwei wichtige Spezialfälle linearer Gleichungssysteme haben eigene Na-


men. Besteht der Lösungsraum aus genau einem Element, so nennt man das Sy-
stem eindeutig lösbar. Aus dem bisher Bewiesenen folgt sofort die
Bemerkung. Für A E M(m x n; K) und b E Km sindfolgende Bedingungen
gleichwertig:
i) Das lineare Gleichungssystem A · x =bist eindeutig lösbar:

ii) rang A =rang (A, b) = n. 0

In diesem Fall besitzt das zugehörige homogene Gleichungssystem A · x = 0 nur


die triviale Lösung 0.
Ist m = n, so kann man ii) ersetzen durch rang A = n . Dies bedeutet, daß die
lineare Abbildung A: K" -+ K" surjektiv, also nach Korollar 3 aus 2.2.4 sogar
bijektiv ist. BezeichnetA-I die inverse Abbildung, so ist die eindeutige Lösung
x gegeben durch
X= A- 1(b).
Nach 2.5.5 ist A-I beschrieben durch die inverse Matrix.
Ist die Matrix A E M(m x n; K) vom Rang m, so ist die lineare Abbildung
A: K" -+ Km surjektiv, also ist der Lösungsraum von A · x = b für jedes
b E Km nicht leer. Ein solches Gleichungssystem nennt man universell lösbar.
Ist der Rang von A kleiner als m, so ist das System nur für spezielle b lösbar.
Ein Rechenverfahren, dies bei festem A für ein gegebenes b zu entscheiden,
leiten wir in 2.7.7 ab.
2.3 Lineare Gleichungssysteme 135

Aufgaben zu 2.3

1. Ein Nahrungsmittel enthält Schadstoffe S1 , •. . , Ss, die bei der Produktion und Lage-
rung als Bestandteile von Pflanzenschutzmitteln auftreten. Auf den einzelnen Stationen
werden die folgenden Pflanzenschutzmittel benutzt:
Station Mittel
I. Landwirt A
2. Rohproduktlagerung B
3. Veredelungsbetrieb c
4. Grossist und Transport D
5. Einzelhändler E
Die folgende Tabelle gibt die prozentuale Zusammensetzung der Mittel A, .. . ,E wieder:
s, s2 S3 s4 Ss
A 0.2 0.5 0 0.3 0
B 0. 1 0.6 0.3 0 0
c 0.1 0.2 0.2 0.3 0.2
D 0 0 0.1 0.4 0.5
E 0 0.1 0.3 0.3 0.3
Für das fertige Produkt ergibt die Nahrungmittelanalyse die folgenden Werte (in Ge-
wichtseinheiten):
Ss
0. 75 2.25 0.65 1.60 0. 75
Ermitteln Sie, wieviel (in Gewichtseinheiten) die einzelnen Stationen zur Schadstoffbe-
lastung beitragen.
2. Es seien Metall-Legierungen M 1 , M2 und M3 gegeben, die alle Kupfer, Silber und
Gold enthalten, und zwar in folgenden Prozentsätzen:
Kupfer Silber Gold
20 60 20
70 10 20
50 50 0
Kann man diese Legierungen so mischen, dass eine Legierung entsteht, die 40% Kupfer,
50% Silber und 10% Gold enthält?
136 2 Lineare Abbildungen

3. Zeigen Sie: Ist die Matrix A E M(m x n; K) in Zeilenstufenform und r der Rang von
A, so ist (e 1 , •.• , e,.) eine Basis von Im A C K"'.
4. Bestimmen Sie für das folgende Gleichungssystem in Zeilenstufenform mit beliebiger
rechter Seite Matrizen C und D wie in 2.3.4, so dass die Spalten von C ein Fundamen-
talsystem bilden und D · b für jedes b E !Ri eine spezielle Lösung ist.

( ~ ~ -~ =f ~ ~
0 0 0 0 0 -7 1 b4
J ~)
0 0 0 0 0 0 -4 b5
00000000

5. Gegeben seien die Matrizen

A = (~ ~ !)· B= ( 32 23 61 43)
2 1 3 2 .

a) Untersuchen Sie die folgenden Gleichungssysteme darauf, ob sie eindeutig lösbar


sind:

Ax =( ~), Bx =( ~) .
b) Untersuchen Sie die Gleichungssysteme Ax = b und Bx = b für beliebige b E JRl
darauf, ob sie universelllösbar sind.

6. Sei der Untervektorraum W c IR'' gegeben durch m lineare Gleichungen(/)[, ... , I{J111 ,
d. h.
W = {x E IR": 'Pl (x) = ... = I{J 111 (X) = 0}.
Zeigen Sie, dass dann W bereits durch eine einzige (nicht notwendig lineare) Gleichung
beschrieben werden kann. Genauer gilt: Es existiert ein Polynom f E IR[~, .. . , 111 ) mit
W = {(Xt, . . . , X 11 ) E IR": j(Xt, ... , X11 ) = 0}.
Zeigen Sie, dass diese Aussage auch gilt, falls man IR durch einen endlichen Körper K
ersetzt.
7. Finden Sie neue (kürzere) Beweise für Satz 0.2.4 und Aufgabe 2a) zu 0.3.
8. Zeigen Sie, dass eine Teilmenge L des IR3 eine Gerade ist (d. h. es existieren
v, w E JFt 3 , w # 0, mit L = v + !Ftw) genau dann, wenn es eine Matrix A E M(2 x 3; IR)
mit rang A = 2 und ein b E 1Ft2 gibt, so dass L = {x E IR3 : Ax = b}. Was bedeutet das
geometrisch?
2.4 Lineare Abbildungen und Matrizen 137

2.4 Lineare Abbildungen und Matrizen


Eine Abbildung F: X -+ Y von Mengen ist nach Definition eine Vorschrift, die je-
dem Argument x E X einen Wert F(x) E Y zuordnet. Dabei ist im allgemeinen nichts
darüber ausgesagt, wie die Vorschrift auszusehen hat, also kann man die Bilder verschie-
dener Argumente völlig unabhängig voneinander wählen.
Ganz anders ist die Situation für eine lineare Abbildung F: V -+ W zwischen Vek-
torräumen. Kennt man einen Wert F(v) , so ist F auf der ganzen Geraden Kv festgelegt.
Will man für einen weiteren Vektor v E V den Wert beliebig vorschreiben, so darf also
v' nicht auf der Geraden Kv liegen. Durch F(v) und F(v) ist dann F auf der ganzen
Ebene K v + K v' festgelegt, usw.

2.4.1. Die Frage, durch wieviele Vorgaben eine lineare Abbildung festgelegt ist,
hat eine einfache Antwort:
Satz. Gegeben seien endlichdimensionale Vektorräume V und W, sowie Vekto ren
v 1, . .. , v,. E V und w1, . .. , w,. E W. Dann gilt
1) Sind v 1 , ••• , v,. linear unabhängig, so gibt es mindestens eine lineare Abbil-
dung
F: V--+ W mit F(v;) = W; für i = !, ..·. ,r.
2) Ist (vl, ... , v,.) eine Basis, so gibt es genau eine lineare Abbildung
F: V--+W mit F(v;)=w; füri=l, ... ,r .
Dieses F hatfolgende Eigenschaften:
a) ImF=span(w 1, ••• ,w,. ).

b) F injektiv {} w 1 , •• • , w,. linear unabhängig.

Beweis. Wir beginnen mit Teil 2). Jedes v E V hat eine eindeutige Darstellung
v=.l. 1v1 + ... +.l.,.v,.,
wegen F (V;) = w; und der Linearität von F muß also
F(v) = .l. 1w 1 + ... + .l.,.w,.
sein. Also gibt es höchstens ein solches F, nämlich das durch (*) erklärte. Man
darf nun allerdings nicht versäumen zu zeigen, daß die durch (*) erklärte Abbil-
dung wirklich linear ist. Das folgt aus den Rechnungen
F(v + v') F(.l. 1v1 + . .. + .l.,.v,. + .l.'1v 1 + . .. + ).~v,.)
F ((.l.1 + .l.'1)vJ + . . . + (.l.,. + .l.;)v,.)
(.l.1 + .l.;)w1 + . .. + (.l.,. + .l.;)w,.
.l. 1 w 1 + ... + .l.,.w,. + .l.'1 w 1 + . . . .l.~w,.
F(v) + F(v')
138 2 Lineare Abbildungen

und
F(J...v) = F(H 1v 1 + ... + H,v,) = ).). 1w 1 + ... + H,w, = J...F(v).
Die Inklusion Im F c span (w 1, ••• , w,) ist klar. Ist umgekehrt
W=J-L 1w 1 + .. . +J-L,W,, sofolgt W=F(J-L 1v 1+ ... +J-L,V,).
Zu b) nehmen wir an, w 1 , • •• , w, sei linear abhängig. Dann gibt es
(J-L 1, . . . , J-Lr) f=. (0, ... , 0) mit
J-LIWI+ . . . +J-L,W,=0,
und es folgt F (J-L 1 v 1 + ... + J-Lr v,) = 0; also ist F nicht injektiv. Umgekehrt sei
F(v) = 0. Wir schreiben
v=J... 1v1+ ... +J...,v, , dannist J... 1w 1 + ... +J...,w,=0.
Wegen der linearen Unabhängigkeit von w" . .. , w, folgt ). 1 = ... = )., = 0,
also v = 0. Damit ist 2) bewiesen.
Ist v 1 , ••• , v, nun linear unabhängig, so können wir diese Familie zu einer
Basis
(vl, ... , V,, Vr+l• . . . , Vn)
ergänzen und durch Vorgabe beliebiger weiterer Werte Wr+l, ... , W11 entspre-
chend 2) ein F mit
F(v;) = w; füri = 1, ... ,n
finden. An dieser Konstruktion kann man erkennen, wie weit F von der Eindeu-
tigkeit entfernt ist: ein Maß dafür ist die Zahl n - r. 0

2.4.2. Der Satz aus 2.4.1 über die Erzeugung von linearen Abbildungen hat zahl-
reiche Folgerungen.
Korollar 1. Ist V ein Vektorraum mit einer Basis ß = (v" . .. , V11 ), so gibt es
dazu genau einen Isomorphismus
<t>B: K"--+ V mit <t>B(ej) = VJ für j = 1, ... ,n,
wobei (e 1 , ••• , e11 ) die kanonische Basis von K" bezeichnet. 0

<t> 8 heißt Koordinatensystem, damit werden wir uns in 2.6.1 weiter beschäftigen.
Korollar 2. Zu jeder linearen Abbildung F: K " --+ Km gibt es genau eine
Matrix A E M(m x n; K), so daß
F(x) = A · x
für alle Spaltenvektoren x E K ".
2.4 Lineare Abbildungen und Matrizen 139

Man braucht also in diesem Fall zwischen linearen Abbildungen und Matrizen
nicht mehr zu unterscheiden.
Beweis. Man schreibe F(e 1 ), ••• , F(e") als Spaltenvektoren nebeneinander,
das ergibt A. 0

Einen solchen Zusammenhang zwischen linearen Abbildungen und Matrizen


gibt es nicht nur in den Standardräumen:
Satz. Gegeben seien K- Vektorräume
V mit Basis A = (v 1 , .. . , v") und W mit Basis B = (w 1 , ... , Wm).

Dann gibt es zu jeder linearen Abbildung F: V ----* W genau eine Matrix A =


(a;j) E M(m x n; K), so daß

I>uw;
m
F(vi) = für j = I, . .. , n,
i= l

und die so erhaltene Abbildung


M;i: Horn (V, W)----* M(m x n; K), F 1-+ A = M;i(F),
ist ein Isomorphismus von K- Vektorräumen. Insbesondere gilt

M;i(F+G) = M;i(F) + M;i(G) und M;i(AF) = A.M;i(F).


Kurz gesagt: Nach Wahl fester Basen kann man lineare Abbildungen durch Ma-
trizen (d.h. relativ abstrakte durch konkrete Objekte) ersetzen. Man bezeichnet
M;i(F) als die Matrix, die F bezüglich der Basen A und B darstellt.
Beweis. Da B Basis ist, sind die Linearkombinationen aus ( *) und somit auch die
Spalten der Matrix A eindeutig bestimmt. Gehört zur Abbildung G die Matrix
B = (bu), so ist

I:>uw; + Lbuw; = 'L<au + bu)w; ,


m m m
(F + G)(vi ) = F(v1 ) + G(v1 ) =
i= l i= l i= l

und für A. E K ist


m m
(A.F)(vj) = A. · F(vj) = A. 'Lauw; = L(A.au)w;.
i= l i= l

Daher ist die Abbildung M;i linear. Da A eine Basis ist, gibt es nach 2.4.1 genau
ein F, das darauf die durch Bedingung(*) festgelegten Werte annimmt. Also ist
~~~ 0
140 2 Lineare Abbildungen

Zusatz. Im Spezialfall V = K" und W = K"' mit den kanonischenBasenKund


K' ist der kanonische Isomorphismus
M~.: Horn (K", K"') ---+ M(m x n; K) , F t--+ A,
die in Korollar 2 beschriebene Beziehung. 0

Mit Hilfe einer Basis kann man Vektoren eindeutig als Linearkombinationen dar-
stellen. Der obige Satz zeigt, wie man Abbildungen als Vektoren betrachten und
mit Hilfe zweier Basen analog verfahren kann. Dazu sei
· · { W· für k = j ,
F/ : V ---+ W erklärt durch F/ ( vk) := 0' sonst.
Dann ist M(f(F/) = E; (mit der Bezeichnung aus 1.5.1), und die m · n Abbil-
dungen F/ bilden eine Basis von Horn (V, W). Die zur Linearkombination eines
beliebigen F nötigen Skalare stehen an passender Stelle in M(f(F).
Die naheliegende Frage, wie sich die Matrix A ändert, wenn man in V und W
neue Basen einführt, wird in 2.6.5 beantwortet.
2.4.3. Als Folgerung aus 2.2.4 erhält man, daß bei Benutzung der dort konstru-
ierten Basen auch die darstellende Matrix besonders einfach wird.
Korollar. Sei F: V---+ W linear, n = dimV, m = dimW und r = dimlm F .
Dann gibt es Basen A von V und ß von W, so daß

MA(F) = ( E, 0 ) .
B 0 0

Dabei bezeichnetE, die in 1.5.7 eingeführte r-reihige Einheitsmatrix.


Beweis. Es genügt, die in 2.2.4 gewählte Basis von Im F zu einer Basis

von W zu ergänzen. 0

2.4.4. Ist der Bildraum W gleich dem Urbildraum V (d.h. hat man einen Endo-
morphismus), so setzt man am besten auch A = ß und zur Vereinfachung der
Notation MB Mg, sowie End (V) = Horn (V, V). Der Vektorraumisomor-
phismus
MB : End (V) ---+ M(n x n; K)
ist dann charakterisiert durch die Gleichungen
II

F(v1 )=LaiJvi für)=l, ... ,n,


i=l
2.4 Lineare Abbildungen und Matrizen 141

wenn ß = (v 1 , ••• , v") und A = (aij) = M 6 (F).


Die n-reihige Einheitsmatrix E" = (8ij) beschreibt dabei die identische Ab-
bildung, in Zeichen
MB(idv) = E".
Die zu 2.4.3 analoge Frage, für einen Endomorphismus eine besonders einfache
Basis zu finden, ist weit schwieriger zu beantworten. Sie ist Gegenstand von
Kapitel4.

Aufgaben zu 2.4

1. Gibt es eine lineare Abbildung F: IR2 -> IR2 mit


F(2, 0) = (0, 1), F(I, I) = (5, 2) , F(I, 2) = {2, 3)?

2. Sei B = (sin, cos, sin · cos, sin2 , cos 2 ) und V = span B c Abb {IR, IR). Betrachten
Sie den Endomorphismus F: V -> V, f t-> f', wobei f ' die erste Ableitung von f
bezeichnet.
a) Zeigen Sie, dass B eine Basis von V ist.
b) Bestimmen Sie die Matrix MB(F).
c) Bestimmen Sie Basen vonKerFund Im F.

3. Für n E N sei V" = span {1 , . .. , t") C IR[t] mit der Basis ß" = (I, . .. , t") und
V": V"-> Vn-1, f t-> f'
der Ableitungshomomorphismus.
a) Bestimmen Sie die Matrix Mg:_,(V").
b) Zeigen Sie, dass es eine lineare Abbildung I.,: V" _ 1 -> V" gibt mit V" o I" = id,
und bestimmen Sie Mg:-'(I").

4. Sei V = {f E IR[t]: deg f ::: 3} mit der Basis B = (I, t, r2, t 3). Wir betrachten die
linearen Abbildungen

f
I

F: V-> IR, ft-> f(t)dt und G: V-> IR3 , ft->{f(-l),f(O),f(l)).


-1

a) Es seien K und K' die kanonischen Basen von IR und W. Bestimmen Sie die Matrizen
M~(F) und M~. (G).
b) Zeigen Sie: Ker G c Ker F.
142 2 Lineare Abbildungen

c) Es gibt eine lineare Abbildung H: !Rl --> IR mit H o G = F.

5. Seien V und W endlichdimensionale Vektorräume mit V = Vi El1 Vz, W = W1 El1 Wz


sowie F: V --> W linear mit F(V;) c W; für i = I, 2. Zeigen Sie, dass es Basen A
von V und ß von W gibt mit

A
Ms(F)= ( A
0

wobei A E M(dimW1 x dimV1; K), BE M(dimWz x dimVz; K).


6. Zeigen Sie ohne Verwendung von Matrizen, dass die in 2.4.2 definierten Abbildungen
F/ : V--> Weine Basis von Hom(V, W) bilden.

7. Sei

A = ( =~ ! ~ ~)
-1 2 -2 -2
und F: IR4 --> IR3 die durch F(x) = Ax definierte lineare Abbildung. Bestimmen Sie
Basen A von IR4 und B von IR3 mit

M~(F) ~ ~ ~ ~)
= ( .
0 0 0 0
8. Sei V ein endlichdimensionaler Vektorraum und F: V --> V linear mit F2 F.
Zeigen Sie, dass es eine Basis B von V gibt mit

Ms(F) = (
Er
O
0)
O .

Hinweis: Aufgabe 5 und Aufgabe 4 zu 2.2.


9. Zeigen Sie: Ist F: V --> V ein Endamorphismus des endlichdimensionalen Vektor-
raums V mit dim Fix F = r (vgl. Aufgabe 3 zu 2.1), so existiert eine Basis B von V
mit

Ms(F) = ( Er
O *)* .
2.5 Multiplikation von Matrizen 143

2.5 Multiplikation von Matrizen


2.5.1. In 2.1.3 hatten wir gesehen, daß für lineare Abbildungen G: U ~ V
und F: V ~ W die Komposition F o G: U ~ W wieder linear ist. Im
Spezialfall U = K', V = K" , W = Km sind F und G entsprechend 2.4.2 durch
Matrizen A und B gegeben, und wir wollen ausrechnen, welche Matrix C die
lineare Abbildung F o G beschreibt. Das folgende Diagramm soll die Übersicht
erleichtern:
B A
----+ K" ----+ Km
Z1

1-+ y=
( y,)
: 1-+ z=
Yn
Zm
Ist B = (b 1k) E M(n x r; K) und y = B(x), so folgt
Yi = bJiXi + ... + bJ,Xr für j = 1, . . . , n, (b)

A = (aiJ) E M(m x n; K) und z = A(y) bedeutet


= GnYI + ... + a;,.y,. für i = 1, .. . , m,
Z; (a)

und schließlich C = (c;k) E M(m x r ; K), z = A(B(x)) bedeutet


Z; =cnx1 + ... +c;,x, füri = 1, .. . ,m. (c)

Setzt man (b) in (a) ein, so erhält man


Z; = an (b11x1 + ... + b1,x,) + ... + a;,. (b,.1x1 + ... + b,.,x,) (c' )
= (anb11 + ... + a;,.b,.1)x1 + .. . + (anbl, + ... + a;,.b",)x,.
Vergleich von (c) und (c') ergibt
C; 1 = anb 11 + ... + a;"b,.1, .. . , C;, = anblr + ... + a;,.b,.,.

Unter Verwendung von Summenzeichen schreibt sich das so:

Z; = taiJYJ = taii (tbJkXk) =t (taiJbJkxk)

t (t aijbjk) Xk = t C;kXk,
also ist
n
c;k = Laiibik für i = 1, ... ,m und k = 1, ... ,r.
}=I
144 2 Lineare Abbildungen

Diese kleine Rechnung, die nur auf der Umordnung einer Summe beruht, hat
wichtige Konsequenzen. Man kann damit eine Multiplikation von Matrizen pas-
sender Größe erklären.
2.5.2. Zur Definition der Multiplikation von Matrizen nehmen wir
A = (aiJ) E M(m x n ; K) und B = (bjk) E M(n x r; K),
d.h. die Spaltenzahl von A muß mit der Zeilenzahl von B übereinstimmen. Dann
ist das Produkt
II

A · B = (cik) E M(m x r; K) erklärt durch cik := '2..:_aiJbjk.


j=l

Die Matrix A · B hat also so viele Zeilen wie A und so viele Spalten wie B, die
gemeinsame Zahl n verschwindet bei der Multiplikation. Diese Größenverhält-
nisse kann man durch folgendes Schema zum Ausdruck bringen:

Gin I m.

Cmr

'-..-'
n r
Hieran sieht man auch gut, wie
Cik = Gitblk + .. . + Ginbnk
aus der i-ten Zeile von A und der k-ten Spalte von B entsteht. Ansonsten ist es
aber recht unpraktisch, Matrizen bei der Multiplikation so anzuschreiben. Ein
Beispiel der üblichen Schreibweise ist

(~ ~ -~ -~ ).(~~ =~~ ) ~ -~
2 -1 0 -3
=(
-1 -3
)
2.5 Multiplikation von Matrizen 145

c: )~
Ist speziell m = r = 1 und n beliebig, so ist

A ·B ~ (o, . . . a") · o,b, + .. . + a"b" E K ~ M(l x 1; K).

Man beachte, daß dagegen

a1 ) ( a1b1 ... a1b")


( : . (bl ". bll) = : : E M(n x n; K)

a" a"b1 a.'b"


gilt.
Ist speziell m = n =
r, so kann man für A, BE M(m x m; K) sowohl A · B
als auch B · A bilden, im allgemeinen ist aber A · B # B · A. Zum Beispiel ist

(~ ~)·(~ ~)=(~ ~)·


aber

(~ ~)·(~ ~)=(~ ~) ·
Daran sieht man außerdem, daß das Produkt von zwei Matrizen die Nullmatrix
ergeben kann, obwohl beide Matrizen von der Nullmatrix verschieden waren.
Beispiel. Ist f = (/1 , ••• , f m): IR" --+ IR"' eine differenzierbare Abbildung
(das heißt / 1, ••• , fm: IR" --+ IR sind differenzierbare Funktionen) mit
f(O) = 0 (diese Annahme dient nur zur Vereinfachung der Bezeichnungen),
und sind y 1, • • • , Yn die Koordinaten im IR", so sei

A ·- ( ~(0) ~(0) )
ofm (0) ofm (0)
a.. l a \!n

die sogenannte JACOBI-Matrix von f im Punkte Null.


Ist g = (g 1, ••• , g"): IR' --+ IR" eine weitere differenzierbare Abbildung mit
g (O) = 0, und sind x 1 , • • • , x, Koordinanten im IR', so bezeichnen wir mit

~ (0) ... ;!:(0) )


B ( . .
:= og":(0) ag, :(0)
a :q ax,
146 2 Lineare Abbildungen

die Jacobimatrix von g im Punkte Null. Ist h := f o g: JR,. --+ JR"' und
h = (h 1, ••• , hm), so gilt für die Jacobimatrix von h im Punkt Null
iJJ"
axl (0) !.J!IJ.(O)
ihr )
(
"""':(0) &11",:(0) = A . B.
axl axr
Das folgt sofort aus den Rechenregeln für die partiellen Ableitungen. Diese Ver-
knüpfungseigenschaft der Systeme partieller Ableitungen war im 19. Jahrhun-
dert einer der Ausgangspunkte für die Entwicklung des Matrizenkalküls gewe-
sen.

2.5.3. Zwei Spezialfälle der Matrizenmultiplikation sollen noch besonders er-


wähnt werden.
a) Drehungen des JR 2 um die Winkel a und ß werden nach 2.1.1 beschrieben
durch
A = ( cos a - sin a ) und 8 = ( cos ß - sin ß ) .
sm a cos a sin ß cos ß
Die Hintereinanderausführung ist eine Drehung um den Winkel a + ß, und sie
wird beschrieben durch B · A, das bedeutet

(
COS(CI + ß) - Sin(CI + ß) ) =
sin(CI + ß) COS(CI + ß)

cosacosß-sinasinß -(sinacosß+cosasinß)).
(
cos a sin ß + sin a cos ß cos a cos ß - sin a sin ß
Daß die Einträge auf beiden Seiten gleich sind, ist die Aussage der sogenannten
Additionstheoreme für Sinus und Cosinus. Dem Leser sei empfohlen, in diesem
Fall die Gleichheit A · B = B · A nachzuweisen, denn das ist bei Matrizen ein
bemerkenswertes Ereignis.
b) Die Multiplikation einer m x n-Matrix A mit einer n x I-Matrix, d.h. einer
Spalte x haben wir schon lange benutzt zur Beschreibung der linearen Abbildung
A : K" --+ K"' ' X 1-+ A . X .
Mit Hilfe der Matrizenmultiplikation geschrieben bedeutet die in 2.5.1 durch-
geführte Rechnung dann
A · (B · x) = (A · B) · x
2.5 Multiplikation von Matrizen 147

für jede (r x 1)-Matrix x. Das ist ein Spezialfall des Assoziativgesetzes für die
Matrizenmultiplikation, das in der folgenden Sammlung von Regeln enthalten
ist.
2.5.4. Rechenregeln für Matrizen. Sind Matrizen A, A' E M(m x n; K) und
B , B' E M(n x r; K), CE M(r x s; K) und A. E K gegeben, so gilt:
1) A · (B + B') = A · B +A · B' und (A + A' ) · B = A · B + A' · B.
(Distributivgesetze)
2) A · (A.B) = (A.A) · B = A.(A · B).

3) (A · B) · C = A · (B · C). (Assoziativgesetz)
4) '(A . B) =I B. 1A.

5) Em · A = A · E11 = A. (Neutralität der Einheitsmatrix)

Beweis. 1), 2) und 5) sind ganz einfach und erfordern höchstens etwas Schreib-
arbeit. Für den Beweis von 4) muß man sorgfältig mit den Buchstaben umgehen:
Ist A = (aiJ) und B = (bjk), so ist

L aijbjk,
II

A. B = (c;d mit C;k = also I (A. B) = c<;) mit C~; = C;k.


j=l
Weiter ist
1 B = (b~) mit b~j = bjk und 1 A = (a~;) mit a~; = aiJ,
also

L
n

b~ja~; = L bjkaiJ = L aiJbjk.


n n
1
B · 1A = (dk;) mit dk; =
j=l j=l j=l
Also ist c~; = dk;.
Bleibt der Beweis des Assoziativgesetzes 3). Dazu betrachten wir die beteilig-
ten Matrizen als lineare Abbildungen:
K s ~ K' _,! K 11 ~ K 111 •

Nach 1.1.5 gilt das Assoziativgesetz für die Hintereinanderschaltung von Abbil-
dungen, also ist
(A o B) o C = A o (B o C ) .
In 2.5.1 haben wir gezeigt, daß die Hintereinanderschaltung der Abbildungen
durch das Produkt der Matrizen ausgedrückt wird. Das liefert die Behauptung.
148 2 Lineare Abbildungen

Wer bei diesem Kniff Unwohlsein empfindet, möge zur Linderung noch ein-
mal Summen umordnen: Sei A = (aiJ), B = (b 1k) und C = (ck1). Dann ist
n

A·B = (a;d mita;k = LaiJ bJk,


J=l
also

Weiter ist
r
B. c = (ßjJ) mit ßJI = L bjkCkf,
k=l
also

A · (B · C) = (d:1) mitd;1 = taiJ · (tbikckl)


J=l k=l

Die beiden Summen für dil und d;1 enthalten genau die gleichen Summanden,
also ist dil = d;1• 0
Anstelle von A · B schreibt man für das Produkt von Matrizen meist nur AB.
Nach den Regeln 2) und 3) kann man auch Klammem weglassen und einfach
>..AB bzw. ABC
schreiben.
Vorsicht! In der Rechenregel 4) steht auf der rechten Seite der Gleichung nicht
1A · 1 B . In dieser Reihenfolge könnte man die Matrizen im allgemeinen nicht
einmal miteinander multiplizieren. Aber selbst wenn A , B E M(n x n; K) gilt,
ist im allgemeinen
I (A . B) i= 1A . I B .

Man kontrolliere das an Beispielen nach. Auch von der Richtigkeit des Assozia-
tivgesetzes sollte man sich anband von einigen Beispielen überzeugen, denn es
ist gar nicht selbstverständlich (und eine gute Kontrollmöglichkeit für die Rech-
nung).
Im Spezialfall quadratischer Matrizen folgt aus diesen Regeln das
Korollar. Die Menge M(n x n; K) mit der Addition aus 1.4.1 und der Multipli-
kation aus 2.5.2 ist ein Ring. 0

2.5.5. Es ist eine naheliegende Frage, wie der Rang der Produktmatrix von den
Rängen der Faktoren abhängt. Man hat folgende Abschätzungen:
2.5 Multiplikation von Matrizen 149

Lemma. Ist A E M(m x n; K) und B E M(n x r; K), so gilt


rang A +rang B - n :S: rang (A · B) :S: min {rang A, rang B} .

Beweis. Wir betrachten die Matrizen als lineare Abbildungen, das ergibt ein Dia-
gramm
K' A. B K'"

~~
K"

Weiter definieren wirF' := Allm B. Dann ist


Im F' = Im (A · B) und KerF' = Ker A n Im B .
Die Dimensionsformel aus 2.2.4 angewandt auf F ' ergibt
rang (A · 8) =rang F' = dimlm 8- dim KerF' = rang 8- dimKer F' . (*)
Daraus folgt rang (A · 8) :S: rang 8. Da Im (A · 8) c Im A, folgt die Abschätzung
nach oben. Wegen Ker F' C Ker A folgt aus ( *) weiter
rang (A · 8) 2: rang 8- dimKer A =rang 8 +rang A-n,
wobei die letzte Gleichung nach der Dimensionsformel für die Abbildung A gilt.
Das ergibt die Abschätzung nach unten.
Sie ist scharf, wenn Ker F' = Ker A, also wenn Ker A C Im B. 0

2.5.6. Wir betrachten den kanonischen Isomorphismus aus 2.4.2 im Fall m = n,


also
Horn (K" , K") --* M(n x n; K)
und fragen, welche quadratischen Matrizen die Isomorphismen
F: K"--* K"
beschreiben. Ein Isomorphismus hat eine Umkehrung F - 1 mit
F o F- 1 = F- 1 o F = idK" .
Übersetzt in die entsprechenden Matrizen ergibt das die
Definition. Eine Matrix A E M(n x n; K) heißt invertierbar, wenn es ein
A' E M(n x n; K) gibt mit
A · A' = A' · A = E 11 •
!50 2 Lineare Abbildungen

Bemerkung 1. Die Menge


GL (n; K) = {A E M(n x n; K): A invertierbar}
mit der Multiplikation von Matrizen als Verknüpfung ist eine Gruppe mit neutra-
lem ElementEn.
Sie heißt die allgemeine lineare Gruppe (generallinear).
Beweis. Zunächst ist zu zeigen, daß die Matrizenmultiplikation tatsächlich ei-
ne Multiplikation in GL (n ; K) induziert, d.h. daß für A , B E GL (n; K) auch
A · B E GL (n; K) gilt. Seien A' und B' so gewählt, daß
AA' = A' A = En = B B' = B' B
gilt. Dann ist
(B' A' )(AB) = En = (AB)(B' A')
nach dem Assoziativgesetz für die Matrizenmultiplikation, also ist AB invertier-
bar. Es bleiben die Gruppenaxiome GI und G2 nachzuweisen (vgl. 1.2.2).
Das Assoziativgesetz gilt in GL (n; K), denn die Multiplikation ist sogar in
M(n x n; K) assoziativ.
Die n-reihige Einheitsmatrix hat die Eigenschaft eines neutralen Elementes,
und zu A E GL (n ; K) gibt es nach Definition ein Inverses A'. 0
Wie wir in Abschnitt 1.2.3 gesehen haben, ist das Inverse A' eindeutig bestimmt,
und wie üblich schreibt man dafür A - I. Es gilt dann
(A- 1 r 1 =A und (AB)- 1 = B- 1A - 1 •
Bemerkung 2. Für eine Matrix A E M(n x n; K) sindfolgende Bedingungen
gleichwertig:
i) A ist invertierbar.
ii) 'A ist invertierbar.
iii) Spaltenrang A = n.
iv) Zeilenrang A = n.
Außerdem ist ('A)- 1 = '(A- 1) .
Beweis. i) =} ii) folgt aus '(A - 1)'A = '(AA- 1) = ' En = En, und ii) =} i)
ergibt sich daraus durch Transposition. i) ~ iii) ist eine Folgerung aus 2.2.4, und
ii) ~ iv) ergibt sich wieder durch Transposition. 0
2.5 Multiplikation von Matrizen 151

Aufgaben zu 2.5

1. Gegeben seien die Matrizen

-n c~U)
0 1
I 0
0 -1

D := ( -1 2 0 8 ) ,
E~u n
Berechnen Sie alle möglichen Produkte.
2. In dieser Aufgabe betrachten wir Eigenschaften "dünn besetzter" Matrizen, in denen
viele Einträge null sind.
a) SeinEN'- {0} und l = {1 , . .. , n). Wir betrachten die Menge l x I C N x N.
Finden Sie für k E N Gleichungen für die "Gerade" L in I x I durch (1, k) und
(2, k + l) sowie für die Gerade L' durch (k, l) und (k + I, 2). Finden Sie weiter
Ungleichungen für den Halbraum H in I x I, der oberhalb von L liegt und den
Halbraum H', der unterhalb von L' liegt.
I

b) Formulieren und beweisen Sie folgende Aussagen:

C~) (~) (~ )
!52 2 Lineare Abbildungen

( 0~) (~ ) ( 0~ )
c) Eine Matrix A = (aiJ) E M(n x n; K) heißt echte obere Dreiecksmatrix, falls 4} = 0
für i :::: j. Zeigen Sie, dass eine echte obere Dreiecksmatrix A nilpotent ist, d.h. es
existiert ein m E N mit A'" = 0.

3. Sind die folgenden Teilmengen Unterringe?


a) {(aij) E M(n x n; K): aiJ =Ofüri:::: j} C M(n x n; K )
b) {(aiJ) E M(n x n; K) : aiJ = 0 für i :;:: j + k oder j :;:: i + k} c M(n x n; K), wobei
kE N

c) {( ~ ~ ) E M(2 x 2; IR) : a E IQl, b, c E IR} C M(2 x 2; IR)

d) {( ~ ~ ) E M(2 x 2; K): a, b E K} C M(2 x 2; K )

e) {(aij) E M(n x n; K): aiJ = Ofüri -1 j oderi :::: k} C M (n x n; K), wobeik E N.

4. Sei Kein Körper und n E N '- {0}.


a) Für Ä E K gilt: (Ä En)B = B(ÄEn) für alle B E M (n x n ; K).
b) Zeigen Sie: Ist A E M(n x n; K) mit AB = BA für alle B E M(n x n ; K), so
existiert ein Ä E K mit A = ÄEn.

5. Sei C = { ( ~ ~b ) : a , b E IR } C M(2 x 2; IR).

a) Zeigen Sie, dass C ein Körper ist.


b) In C ist die Gleichung X2 + l = 0 lösbar.
c) C ist als Körper isomorph zu C.

6. Zeigen Sie, dass für eine Matrix B E M(n x k; IR) die Abbildung
<t>: M(m x n; IR) -+ M(m x k; IR) , A t-+ A · B ,
stetig ist.
7. Zeigen Sie, dass die Abschätzung
rangA + rangB- n ::::: rang(AB) ::::: min{rangA , rangB}
aus 2.5.5 für den Rang der Produktmatrix in beide Richtungen scharf ist, d. h. finden Sie
Beispiele für
rangA + rangB - n = rang(AB) und rang( AB) = min{rangA, rangB}.
2.5 Multiplikation von Matrizen 153

8. Wir wollen eine Methode angeben, um die Inverse einer Matrix auszurechnen:
Sei dazu A E M(n x n; K) invertierbar, d. h. rang A = n. Zeigen Sie: Ist

i- ( X.!i)
X - :

Xni
die Lösung des Gleichungssystems Ax = e;, so ist

X!n )

Xnn
Berechnen Sie auf diese Weise die inverse Matrix von

A = ( 0: jI 3 ~ -i~)
I 3 5
9. Für eine differenzierbare Abbildung
f: IR"---+ IR'", X t-+ (j,(x), .. . , fm(x)),
ist die Jacobi-Matrix von f im Punkt x definiert durch
Jacx f := ( of;
OXj
(x)) 0

Ist m = I und f zweimal stetig partiell differenzierbar, so versteht man unter der Hesse-
Matrix von f im Punkt x die Matrix

Hess,f := t x))
( -a- (
2
.
OX;OXj

a) Berechnen Sie die Jacobi-Matrix einer linearen Abbildung F : IIr ---+ IR'", x t-+ Ax,
wobei A E M(m x n; IR).
b) Sei
n
P: IR"---+ IR , (x,, ... , xn) t-+ LaiJXiXj + Lb;x;,
iS) i=l
wobei aiJ, b; E IR. Berechnen Sie die Jacobi-Matrix und die Hesse-Matrix von P.
!54 2 Lineare Abbildungen

2.6 Koordinatentransformationen
Eine immer wiederkehrende Methode in der linearen Algebra ist es, durch Anwendung
passender Begriffe langweilige Rechnungen mit Schlachten gegen Indizes zu vermeiden.
Das ist etwas gefahrlich, weil dadurch ein Trainingsrückstand im Rechnen entstehen
kann. Daher vertrauen wir in diesem Abschnitt besonders darauf, daß der Leser nebenbei
zur Übung genügend viele Beispiele rechnet.
2.6.1. Sei wieder V ein Vektorraum mit einer Basis ß = (v 1 , ••• , v"). Entspre-
chend 2.4.2 gehört dazu genau ein Isomorphismus
<1> 5 : K"-+V mit <I> 8 (e1)=v1 für)=i, ... ,n,
wobei (e 1 , ••• , e,J wie immer die kanonische Basis des K" bezeichnet. Nach
Definition ist
<l>s(x,, ... , X 11 ) = x,u, + ... +x"v".
Man nennt <1> 5 das durch ß bestimmte Koordinatensystem in V und
x = (x~> ... , x") = <I>ß 1 (v) E K"
die Koordinaten von v = x 1v 1 + ... +X 11 Vn-

2.6.2. Für Anwendungen ist es wichtig, verschiedene Koordinaten ineinander


umzurechnen. Dazu nimmt man an, es seien in V zwei Basen A = (v 1, ... , V 11 )
und ß = (w 1 , ••• , w 11 ) gegeben. Dann hat man ein Diagramm von Isomorphis-
men

K"~A
Tt := <I>ß' 0 <I> Al V

K" ~B
Man nennt die als lineare Abbildung angesehene Matrix Tri' E GL (n ; K) die
Transformationsmatrix des Basiswechsels. Sie hat nach Definition die folgende
Eigenschaft: ist
V = x,Vj + ... + Xn v" = Yl Wj + ... + Yn Wn E V, so ist

Kennt man die Matrix Tri', so kann man also die "neuen" Koordinaten y aus den
"alten" x berechnen.
2.6 Koordinatentransformationen 155

Das wichtigste Beispiel ist V = K" . Sind A und B die Matrizen mit den
Vektoren aus A und ß als Spalten, so wird obiges Diagramm zu

K"~
Tl K" also T = s - 1 • A.
K"/.
Ist insbesondere A die kanonische Basis, so folgt T = s - 1•
Ganz analog behandelt man den Fall, daß für allgemeines V die Vektoren aus
ß durch Linearkombinationen aus A gegeben sind. Sei

und S = (sij) die Matrix mit diesen Koeffizienten als Spalten. Es gilt
ct>s = ct>A o S,

denn die Werte der beiden Abbildungen auf der kanonischen Basis des K" sind
gleich:
(ct> A 0 S) (ej) = cp A(SIJ• . . . , S j) = S]jV! + ... + S jVn = Wj = cl>s(ej).
11 11

Als Ergebnis erhalten wir

s = ct>.:;' o ct>s = (Ttr' . also Tt = s- 1•


Das kann man in Form eines Diagramms schreiben:

K"~
S V

K"~
Damit ist das Problem wieder auf die Bestimmung einer inversen Matrix zurück-
geführt. Ein allgemeines Verfahren dafür wird in 2.7.4 angegeben. Wenigstens
ein ganz einfaches Beispiel rechnen wir direkt aus.
Beispiel. Im IR2 betrachten wir neben der kanonischen Basis JC = (e 1, e2 ) die
Basis
ß = (w 1 , w 2 ) mit w 1 = 1 (2, 1), w 2 = 1 (1, 3).
156 2 Lineare Abbildungen

Die Einträge von B- 1 betrachten wir als Unbestimmte, das ergibt die Bedingung

( 2 1) ( XI X3 ) = ( 1 0 ) .
1 3 Xz X4 0 1
Sie ist gleichwertig mit den linearen Gleichungssystemen
2xi + Xz
und
x1 + 3xz 0
Die eindeutigen Lösungen sind

Xz
XI=~'
= -~'
X]=-~,
X4=~,
.
also 1st B -I= I( 3-1)
5
-1 2
.

Für v = -e 1 - e 2 ist x = '(- 1, -1), also y B- 1 • x = '(-~, -t), d.h.


v = -~wl - ~Wz.

2.6.3. Der Zusammenhang zwischen Koordinatensystemen und darstellenden


Matrizen ergibt sich aus der
Bemerkung. Sei F: V --+ W eine lineare Abbildung, und seien A und ß Basen
von V und W. Dann hat man ein Diagramm linearer Abbildungen
<l>A
K" V

<I>a
---"'--- w'
und es gilt
<I>a o Mfi(F) = F o <I>A, also Mfi(F) = <I>ß 1 o F o <I>A.

Die darstellenden Matrizen sind offenbar eine Verallgemeinerung der Transfor-


mationsmatrizen, denn für V = W und F = idv gilt
Mfi(idv) = Tt.
Beweis. Es genügt zu zeigen, daß die beiden Abbildungen auf der kanonischen
Basis (e1, . .. , en ) übereinstimmen. Ist M fi (F) = A = (aij ), so ist

L:>ijwi,
m

<I>a (Mfi(F)(ej)) = <I>a(alj· . . . , amj) =


i= l
2.6 Koordinatentransformationen 157

m
F (<t>A(e1)) = F(v1) = LaiJwi.
i= l

Die zweite Gleichung folgt aus der ersten durch Multiplikation von links mit
<I>~·· 0

2.6.4. Im Diagramm aus 2.6.3 hat man zwei verschiedene Wege, mit Hilfe der
Abbildungen in Pfeilrichtung von K" nach W zu gelangen, und die Aussage
ist, daß auf den verschiedenen Wegen die gleiche Abbildung herauskommt. Ein
Diagramm mit dieser Eigenschaft heißt kommutativ. Wie nützlich dieser Begriff
ist, werden wir gleich sehen:
Satz. Gegeben seien Vektorräume U, V und W mit Basen A, ß und C, sowie
lineare Abbildungen G: U --+ V und F: V --+ W . Dann gilt:
M't(F o G) = M%(F) · M;i(G) .

Kurz ausgedrückt: Der Hintereinanderschaltung von linearen Abbildungen ent-


spricht das Produkt der darstellenden Matrizen.
Beweis. Für die Standardräume mit den kanonischen Basen wurde das schon
in 2.5.1 ausgerechnet. Der allgemeine Fall folgt daraus durch Betrachtung des
Diagramms
K' u
\B <l>s
GI
A ·B K'"- V F oG

<l>c
K" ------w,
wobei A = Mf(F) und B M;i(G) . Alle Teildiagramme sind kommutativ
(man mache sich klar warum), daher ist das ganze Diagramm kommutativ, und
insbesondere folgt die Behauptung.
Wer lieber etwas rechnet, betrachte einen Vektor u E U und seine Koordinaten
x = <1>:4 1 (u) . Wegen 2.5.4 ist
<1>~ 1 (G(u)) = B · x, <l>c 1 (F(G(u))) = A · (B · x) = (A · B) · <l>:;i 1(u) ,
also <I>C" 1 o (F o G) o <I> A = A · B . Auch daraus folgt die Behauptung. 0
!58 2 Lineare Abbildungen

Für den Spezialfall von Endamorphismen (vgl. 2.4.4) ergibt sich das
Korollar. In V seien eine Basis B sowie Endamorphismen F, G gegeben. Dann
ist
M 6 (F o G) = M 6 (F) · M 6 (G). 0

Insbesondere folgt daraus, daß


Ms: End (V) --* M(n x n; K)
ein Ringisomorphismus ist (vgl. 1.3.2, 2.1.4, 2.4.4 und 2.5.4).
2.6.5. Nun kommen wir zum wichtigsten Ergebnis dieses Abschnittes, nämlich
der Antwort auf die Frage, wie sich die darstellende Matrix bei Einführung neuer
Basen ändert.
Transformationsformel. Ist F: V --* W eine lineare Abbildung, sind A, A '
Basen von V und B, B' Basen von W, so ist das Diagramm

K"

K"

kommutativ. Insbesondere gilt für die beteiligten Matrizen


Mt,' (F) = Tff, · Mrf(F) · (TJ,r 1 •
Anders ausgedrückt: Sind
A = Mrf(F) und B = M6A,' (F)
die beiden Matrizen, die F bezüglich verschiedener Paare von Basen darstellen,
und sind
T = TJ,, S = Tff,
die Transformationsmatrizen zwischen den verschiedenen Basen, so gilt
B = S · A · T- 1 •
2.6 Koordinatentransformationen 159

Zum Beweis genügt es zu bemerken, daß nach 2.6.2 und 2.6.3 die dreieckigen
und viereckigen Teile des Diagramms kommutativ sind. Also ist das Gesamtdia-
gramm kommutativ. 0

Wer diesen Beweis als Hokuspokus ansieht, möge die Formel B = SAT- 1 di-
rekt durch Multiplikation der drei Matrizen nachrechnen (Viel Spaß mit den In-
dizes!). Dabei wird sich zeigen, daß nur Rechnungen wiederholt und ineinander
eingesetzt werden, die vorher schon einmal ausgeführt worden waren. Der Trick
besteht also darin, sich dieses zu ersparen.
Für den Spezialfall eines Endomorphismus ergibt sich mit der Notation aus
2.4.4 das
Korollar. Sind in V zwei Basen A und ß sowie ein Endamorphismus F gegeben,
so ist

oder anders ausgedrückt


B = SAS- 1 ,
wenn A = MA(F), B = MB(F) und S = Tf. 0

2.6.6. Nun endlich können wir noch einmal (vgl. auch 1.5.8) die Gleichheit von
Zeilenrang und Spaltenrang beweisen, ohne uns die Finger mit Indizes zu be-
schmutzen.
Satz. Für jede Matrix A E M(m x n; K) gilt
Zeilenrang A = Spaltenrang A .
Diese Zahl ist nach 2.2.1 gleich rang A.
Beweis. Wir betrachten A : K" ~ Km als lineare Abbildung und wählen in K"
und K'" Basen A und ß entsprechend 2.4.3, d.h. mit

M#(A) =B= ( ~ ~).


Für B ist offensichtlich
Zeilenrang B = r = Spaltenrang B .
Um zu zeigen, daß sich diese Gleichheit auf A überträgt, wählen wir entspre-
chend 2.6.5 invertierbare Matrizen Sund T mit
B = SAT.
Es genügt also der Beweis von folgendem
160 2 Lineare Abbildungen

Hilfssatz. Für A E M(m x n ; K), S E GL (m; K) und T E GL (n; K) gilt


1) Spaltenrang SAT = Spaltenrang A,
2) Zeilenrang SAT = Zeilenrang A.

Beweis des Hilfssatzes. Zu den gegebenen Matrizen gehört ein kommutatives


Diagramm linearer Abbildungen

K" ---'A:..::...__~ K"'

T s
SA:..:..::...T_ K"' .
K" -=-
DaS und T Isomorphismen sind, haben die linearen Abbildungen A und SAT
gleichen Rang, d.h. es gilt 1). Daraus folgt 2) durch Transposition, denn
Zeilenrang A = Spaltenrang 1 A und 1 (SAT ) = 1 T. 1 A. 1 S.
Man beachte, daß bei Multiplikation von A von rechts sogar der Spaltenraum,
bei Multiplikation von links nur seine Dimension erhalten bleibt. 0

Wie man die MatrizenSundTaus A berechnen kann, werden wir in 2.7.6 sehen.
2.6.7. Die Transformationsformel aus 2.6.5 ergibt in die Sprache der Matrizen
übersetzt die folgende
Definition. Zwei Matrizen A , B E M(m x n; K) heißen äquivalent, wenn es
SE GL (m; K) und TE GL (n; K) gibt mit
B = SAT- 1 •
Im Spezialfall m = n nennen wir A, B E M(m x m; K) ähnlich, wenn es ein
S E GL (m; K) gibt mit
B = SAS- 1 •

Aus 2.6.5 folgt sofort die


Bemerkung. Zwei Matrizen sind genau dann äquivalent, wenn sie bezüglich ver-
schiedener Paare von Basen die gleiche lineare Abbildung beschreiben.
Zwei quadratische Matrizen sind genau dann ähnlich, wenn sie bezüglich ver-
schiedener Basen den gleichen Endamorphismus beschreiben. 0

Daß dieser Begriff der Äquivalenz nichts Neues liefert, zeigt das
2.6 Koordinatentransformationen 161

Lemma. Zwei Matrizen sind genau dann äquivalent, wenn sie den gleichen
Rang haben. Insbesondere istjede Matrix vom Rang r äquivalent zu

Diese speziellen Matrizen repräsentieren die Äquivalenzklassen und heißen


Normalformen.
Zum Beweis genügt es, die Argumente aus 2.6.6 zu wiederholen. Daß äquivalente
Matrizen gleichen Rang haben, folgt aus dem dort bewiesenen Hilfssatz.
Ist A vom Rang r, so sieht man durch entsprechende Wahl von Basen in Km
und K", daß A äquivalent zu der obigen Normalform ist. Also ist A äquivalent
zu jeder anderen Matrix B vom Rang r (benutze Aufgabe 4 ). 0
Viel schwieriger ist die Frage nach Normalformenfür Klassen ähnlicher Matri-
zen. Das ist Thema von Kapitel 4.

Aufgaben zu 2.6

1. Gegeben sei ein endlichdimensionaler Vektorraum V mit Basen A, ß und C. Beweisen


Sie die ,,Kürzungsregel "

2. Im JR3 seien die Basen


A = ((1, -I, 2), (2, 3, 7), (2, 3, 6)) und ß = ((1, 2, 2), (-1, 3, 3), (-2, 7, 6))
gegeben.
a) Berechnen Sie die Transformationsmatrix T;f'.
b) Bestimmen Sie die Koordinaten des Vektors
V = 2 · (I, -I, 2) + 9 · (2, 3, 7) - 8 · (2, 3, 6)
bezüglich der Basis ß.

3. V sei ein IR- Vektorraum mit Basis A = (v1 , ••. , v4 ), W sei ein IR- Vektorraum mit
Basis ß = (w1, ... , w5). F: V-+ W sei die lineare Abbildung, die gegeben ist durch
3 I -2 2
-2 -2 7 -3
Mif(F) = 4 0 3
I 3 12 4
0 4 -17 5
162 2 Lineare Abbildungen

Schließlich seien A' = (v;, .. . , v~) mit v; = v1 + vz, v; = vz + v3, v; = v3 + v4,


V~= V4 und ß' = (w;, .. . , w;)mit w;
= WI, w; = WI + Wz, w; = -Wl + W3 ,
W~ = WI + W4, w; = WI + W5.
a) Zeigen Sie, dass A' eine Basis von V und B' eine Basis von W ist.
b) Berechnen Sie M{ (F) , M;j;(F) und M;j;' (F).
c) Bestimmen Sie F- 1(span (w 1, wz, w3)).

4. Zeigen Sie, dass durch


A ~ B <? A und B sind äquivalent
(vgl. 2.6.7) tatsächlich eine Äquivalenzrelation auf der Menge M(m x n; K) gegeben ist
und durch
A ~ B <? A und B sind ähnlich
(vgl. 2.6.7) eine Äquivalenzrelation auf M(m x m; K) erklärt ist.
5. Zeigen Sie, dass für A E M(n x n; IR) gilt: rang A = rang (A · 'A). Gilt dies auch,
falls A E M(n x n; <C)?
2.7 Elementarmatrizen und Matrizenumformungen 163

2.7 Elementarmatrizen und Matrizenumformungen


Die Bedeutung von Matrizenumformungen sieht man schon am Eliminationsverfahren
von GAUSS. Es gestattet die Lösung durch wiederholte Anwendung elementarer Schrit-
te. Auf diese Weise kann man in der linearen Algebra viele Probleme lösen. In die-
sem Abschnitt geben wir weitere Beispiele dafür: die Inversion einer quadratischen Ma-
trix und die explizite Bestimmung der Transformationsmatrizen, die eine gegebene Ma-
trix auf Normalform bringen. Zur theoretischen Begründung ist es dabei sehr hilfreich,
Matrizenumformungen zu interpretieren als Multiplikation mit speziellen invertierbaren
Matrizen, die ihrerseits die gesamte allgemeine lineare Gruppe erzeugen. Diese soge-
nannten ,,Elementarmatrizen" kann man als die Heinzelmännchen der linearen Algebra
bezeichnen: sie erledigen geräuschlos und zuverlässig die kleinen Schmutzarbeiten.

2.7.1. Istmeine beliebige natürliche Zahl, I ~ i, j ~ m mit i f= j und A E K *,


so nennt man die quadratischen Matrizen

i -te j-te
Spalte Spalte
-), -),

I
- }" - -0- +- i -te Zeile
I I I
S;(A) :=
I
-0- -I- +- j-te Zeile
I I
I
I

I
-I- -1- +- i -te Zeile
I I
Q{ :=

-0- - 1- +- j -te Zeile


I I
164 2 Lineare Abbildungen

1
-1- -J...- +--- i -te Zeile
I 1 I
Q{(J...) :=

-0- -1- +--- j -te Zeile


I I

+--- i -te Zeile

+--- j -te Zeile

aus M(m x m; K) Elementarmatrizen. Außer den eingetragenen oder durch


Punkte angedeuteten Komponenten sind dabei alle Komponenten gleich Null.
Sind E/ die in 1.5.1 definierten Matrizen und ist E die m-reihige Einheitsma-
trix, so ist
Q{=E+E(, Q{(J...)=E+J...E( und Si(J...)=E+(J...-1)E;.
Weiter ist selbstverständlich
Q{ = Q{(1) und P/ = Pj.
Grundlegend ist der Zusammenhang mit den elementaren Umformungen von
Matrizen. Ist A E M(m x n; K) und J.. E K* gegeben, so hatten wir in 1.5.7
umgeformte Matrizen betrachtet, die wie folgt aus A entstanden waren:
A1 durch Multiplikation der i-ten Zeile mit J...,
An durch Addition der j-ten Zeile zur i-ten Zeile,
Am durch Addition der >..-fachen j-ten Zeile zur i-ten Zeile,
2.7 Elementarmatrizen und Matrizenumformungen 165

A1v durch Vertauschen der i-ten und der j-ten Zeile.

Wie man sofort sieht, gilt

A 1 = S; (A.) · A, A 11 = Q{ · A ,
Am = Q{ (A.) · A , A1v = P/ · A .

Man sollte sich davon auch anhand von Beispielen überzeugen, um mehr Zutrau-
en zu den eigenartigen Elementarmatrizen zu gewinnen.
Ganz Entsprechendes gilt, wenn man anstatt Zeilen immer Spalten umformt.
Wir wollen es sicherheitshalber notieren. Ist A E M(m x n; K) und A. E K*, so
betrachten wir wieder die wie folgt aus A entstandenen Matrizen:

A 1 durch Multiplikation der i -ten Spalte mit A.,

A 11 durch Addition der i-ten Spalte zur j -ten Spalte,

A 111 durch Addition der A.-fachen i -ten Spalte zur j -ten Spalte,

A1v durch Vertauschen der j-ten und der i-ten Spalte.

Verwenden wir die entsprechenden n-reihigen Elementarmatrizen, so gilt

A1 = A · S;(A.), A11 = A · Q{ ,
A 111 =A · Qj(A.) , A 1v=A · Pj.

Kurz ausgedrückt: Multiplikation von links mit Elementarmatrizen bewirkt Zei-


lenumformungen, und Multiplikation von rechts mit Elementarmatrizen be-
wirkt Spaltenumformungen. Man beachte dabei die Vertauschung von i und j
beim Übergang von links nach rechts.
Bemerkung. Die Elementarmatrizen Qf (A.) und P/ sind Produkte von Elemen-
tarmatrizen vom Typ S;(A.) und Qf. Genauer gilt

Q{(A.) =Si(±)· Qf · SJ(A.), P/ = Qj · Q{(-1) · Qj · Sj(-1) .


Dies entspricht dem in 1.5.7 bemerkten Sachverhalt, daß sich Matrizenumfor-
mungen vom Typ III und IV aus Umformungen vom Typ I und II kombinieren
lassen.
Der Beweis der Bemerkung ist ganz einfach, wenn man die Multiplikation als
Zeilen- oder Spaltenumformung interpretiert. Wir wollen dies dem Leser über-
~rn. D
166 2 Lineare Abbildungen

2.7.2. Lemma. Die Elementannatrizen sind invertierbar und ihre Inversen sind
wieder Elementarmatrizen. Genauer gilt:
(S;(A))- 1 = S; U), (Q;f' = Q{(-1),
(Qf(A)r 1 = Qf(-A), (P/.)-1=P/..
Zum Beweis genügt es, die rechten Seiten der Gleichungen mit den linken zu
multiplizieren und festzustellen, daß die Einheitsmatrix herauskommt. 0

2.7.3. Satz. Jede invertierbare Matrix A E M(n x n ; K) ist (endliches) Produkt


von Elementannatrizen.
Man sagt dafür auch, daß die Gruppe GL (n; K) von den Elementarmatrizen
erzeugt wird.
Beweis. Nach 2.5.6 ist der Zeilenrang von A gleich n . Wie in 0.4.7 ausgeführt
ist, kann man A durch elementare Zeilenumformungen zu einer Matrix der Form

B =( b11 b;n )

0 bnn
mit von Null verschiedenen Diagonalelementen b 11 , ••• , b"" machen. Nach
2.7.1 gibt es Elementarmatrizen B 1, • •• , B, , so daß
B = B, · ... · B 1 · A.
Man kann nun B durch weitere Zeilenumformungen zur Einheitsmatrix E" ma-
chen. Dazu beseitigt man zunächst b 1", •• • , bn-l.n mit Hilfe der letzten Zeile,
dann b1.n-l, ... , bn- 2 .n-i mit Hilfe der vorletzten Zeile, usw. Schließlich nor-
miert man die Komponenten in der Diagonalen auf 1. Es gibt also nach 2.7.1
weitere Elementarmatrizen Br+i, ... , B 5 , so daß
E" = Bs · .. . · B,+,B = Bs · . .. · B, · A .
Daraus folgt
A-I = Bs · .. . · B, , also A = B~ 1 • ••• • Bs-i ,
und die Behauptung folgt aus 2.7.2. 0

2.7.4. Der Beweis von Satz 2.7.3 gestattet nun, ein einfaches Rechenverfahren
für die Bestimmung der inversen Matrix anzugeben. Es hat die angenehme zu-
sätzliche Eigenschaft, daß man von der gegebenen quadratischen Matrix im vor-
aus gar nicht zu wissen braucht, ob sie invertierbar ist. Das stellt sich im Laufe
der Rechnung heraus.
2.7 Elementarmatrizen und Matrizenumformungen 167

Sei also A E M(n x n ; K) gegeben. Man schreibt die Matrizen A und E" ne-
beneinander. Alle Umformungen, die im folgenden an A vorgenommen werden,
führt man parallel an E" durch.
Zunächst bringt man A durch Zeilenumformungen auf Zeilenstufenform. Da-
bei stellt sich heraus, ob
Zeilenrang A = n ,
d.h. ob A invertierbar ist (vgl. 2.5.6). Ist der Zeilenrang von A kleiner als n, so
kann man aufhören; die Umformungen mit E" waren dann umsonst. Ist der Zei-
lenrang von A gleich n, so führt man weitere Zeilenumformungen durch, bis aus
A die Matrix E" geworden ist. Schematisch sieht das so aus (die Umformungen
sind als Multiplikation mit Elementarmatrizen beschrieben):

Ist nun links aus A die Einheitsmatrix E" entstanden, so hat sich rechts aus E"
die inverse MatrixA - I aufgebaut, denn aus
B, ..... BI. A = E"
folgt

B, . . ... BI. E" = B, . ... . BI= A - 1 •


Diese erste schöne Anwendung wird den Leser hoffentlich schon vom Wert der
Elementarmatrizen überzeugen.
Vorsicht! Anstelle von Zeilenumformungen kann man auch ausschließlich
Spaltenumformungen anwenden. Aber bei abwechselnder Anwendung von Zei-
len- und Spaltenumformungen funktioniert das Verfahren im allgemeinen nicht.
168 2 Lineare Abbildungen

2.7.5. Beispiele. a)
0 1 -4 1 0 0
1 2 -1 0 1 0
A=
pl 1 1 2 0 0 1
2
1 2 - 1 0 1 0
0 I -4 I 0 0
1 1 2 0 0 I
Qj(-1)
I 2 -I 0 1 0
0 1 -4 1 0 0
0 -I 3 0 -1 1
Q~
1 2 -1 0 I 0
0 I -4 1 0 0
0 0 -I 1 -1 1
1 2 -1 0 1 0
0 1 -4 1 0 0
0 0 1 - 1 1 -1
1 0 7 -2 1 0
0 1 -4 1 0 0
0 0 1 -1 1 -1
1 0 0 5 -6 7
0 1 -4 1 0 0
0 0 1 -1 1 - 1
1 0 0 5 -6 7
0 1 0 -3 4 -4
0 0 1 -1 1 -1
Man berechne zur Kontrolle A · A - I !
2.7 Elementarmatrizen und Matrizenumformungen 169

b)
1 0 1 1 0 0
0 -1 0 0 1 0
A=
1 1 1 0 0 I
Q~(-1)
1 0 1 1 0 0
0 -1 0 0 1 0
0 1 0 -1 0 1
1 0 1 1 0 0
0 -1 0 0 1 0
0 0 0 -I 1 1
A ist nicht invertierbar, denn Zeilenrang A = 2.
2.7.6. Ist A E M(m x n; K) und
A : K" -+ Km , X ~ Ax ,
die zugehörige lineare Abbildung, so gibt es nach 2.6.5 Transformationsmatrizen
SE GL(m; K) und TE GL(n; K) mit

SAT - 1 = ( ~ ~),
wobei r =rang A. Wir leiten nun ein Rechenverfahrenfür die Bestimmung von
S und T ab. Dazu betrachten wir folgendes Schema:

I Bk· ... · B1· Ern L


I ....._ _ ·_B_~_·A_ _
B_k_··_·_· _JIL.....E_"_ _ ___,

I Bk ... .. BI . A. Cl . . . . . Ct I E" . Cl ..... Ct I


Zunächst wird A durch Zeilenumformungen auf Zeilenstufenform gebracht.
Die Zeilenumformungen entsprechen der Multiplikation von links mit m-reihi-
gen Elementarmatrizen B 1, • • • , Bk. Diese Umformungen führt man parallel an
170 2 Lineare Abbildungen

Em durch. Da die Matrix


Bk· .. . · B, · A
Zeilenstufenform hat, kann man sie durch Spaltenumformungen auf die Form

mit r = rang A bringen. Dies entspricht Multiplikation von rechts mit n-reihigen
Elementarmatrizen C 1, • • • , C1• Diese Spaltenumformungen führt man parallel
an En durch. Wegen

E, 0)
Bk· ... · B, · A · C, · ... · Ct = ( O O

sind durch
S =Bk· ... · B, =Bk· ... · B,Em und T - 1 = C, · . . . · Ct = EnCI · ... · Ct
Transformationsmatrizen der gewünschten Art gefunden.

Beispiel. Sei K = lR und A = ( 1 2 0 ) ·


2 2 1

1 0 1 2 0
0 1 2 2 1 =A

1012 010 0
s= -2 1 0 -2 1 0 1 0
0 0 1
1 0 2 1 0 0
0 1 -2 0 0 1
0 1 0
1 0 0 1 0 -2
0 1 -2 0 0 1
0 1 0
1 0 0 1 0 -2
SAT- 1 = 0 0 0 0 1 = T- 1 •
0 1 2
2.7 Elementarmatrizen und Matrizenumformungen 171

Ist

D=( ~ ~)·
so erhält man auch Basen A und ß von K" und Km, bezüglich derer A durch D
beschrieben wird. Dazu betrachten wir das Diagramm

K" ----'D=--~ Km

s
K"

das wegen D = S AT - I kommutativ ist. A und ß sind die Bilder der kanonischen
Basen IC und /C' von K" und Km unter den Isomorphismen T- 1 und s- 1• Also
erhält man A und ß als Spaltenvektoren von T - 1 und s- 1• Dazu muß man S
noch invertieren.
In unserem Beispiel ist

also sind

n~ (~ )" ' fD ~ (n
((1, 0, 0), (0, 0, 1), (-2, 1, 2)) und ((1, 2), (0, 1))
Basen der gesuchten Art. Zur Kontrolle prüft man nach:

A u) ~ (: ). A ( A

2.7.7. Natürlich kann man auch das Gaußsehe Eliminationsverfahren mit Hilfe
von Elementarmatrizen beschreiben. Sei das System
A ·X =b
gegeben. Die elementaren Zeilenumformungen von A und (A, b) werden be-
wirkt durch Multiplikation von links mit Elementarmatrizen aus GL (m; K). Ihr
Produkt ergibt eine Matrix
S E GL(m ; K) mit (A,b) = S · (A,b) = (SA, Sb),
wobei (A, b) die auf Zeilenstufenform gebrachte erweiterte Koeffizientenmatrix
ist. Man beachte, daß S allein durch A bestimmt ist. Die Berechnung von S kann
172 2 Lineare Abbildungen

man wieder schematisch durchführen, indem man die Zeilenumformungen von


A parallel an Em durchführt.

Em A
Bt· Em Bt·A

Bs · .. . · Bt · Em Bs · .. . · Bt · A

Ist nun aus A die Matrix A= 85 • ••• • 8 1 • A in Zeilenstufenform entstanden, so


hat sich links die Matrix
S = Bs · ... · Bt

aufgebaut. Damit kann man sofort entscheiden, ob für ein b E Km Lösungen von
Ax = b existieren. Man berechnet

und sieht nach, ob b,+ 1 = bm = 0, wobei r = rang A = rang A (vgl.


Aufgabe 5).

Aufgaben zu 2.7

1. Stellen Sie die folgende Matrix A als Produkt von Elementarmatrizen dar:
2.7 Elementarmatrizen und Matrizenumformungen 173

2. Sind die folgenden Matrizen invertierbar? Wenn ja, dann geben die inverse Matrix an.

( ; ~ ; ; ) E M(4 x 4, •J ( ; i ~ ;) E M(4 X 4 R)

(; :l M(3 x 3 •J (; : l M(3 X 3 Zf3Z)

3. Zeigen Sie:

A= ( : : ) E M(2 x 2; K) ist invertierbar {} ad- bc # 0.

Berechnen Sie in diesem Fall die Inverse von A.


4. Modifizieren Sie das Rechenverfahren aus 2.7.6 so, dass man statt S die inverse Matrix
s-• erhält (benutzen Sie dabei die Inversen der Elementarmatrizen aus 2.7.2).
5. Finden Sie für die Gleichungssysteme Ax = b aus 0.3.5 sowie aus Aufgabe 2 in
0.4 jeweils eine Matrix S, so dass A = SA in Zeilenstufenform ist, und berechnen Sie
b =Sb.
6. Beweisen Sie:
a) Für A E M(n x n; K) und m E N gilt:
m- 1 m-1
En - Am = (En- A)(L Ai)= (L A; )(En - A).
i= O i =O
(Dabei sei A 0 := En. )
b) Ist A E M(n x n; K) eine Matrix, für die ein m E N existiert mit A'" = 0, so ist
En - A invertierbar. Wie sieht die inverse Matrix aus?
Kapite13
Determinanten
In den vorhergehenden Kapiteln wurde laufend mit Linearkombinationen gerechnet, das
gilt als der "triviale" Teil der linearen Algebra. Nun steigen wir eine Stufe höher zur
Determinante, das ist eine Zahl, die man einer quadratischen Matrix zuordnet. LEIB-
NIZ gab schon um 1690 eine Formel zur Berechnung dieser Zahl an ([Kow 1], §!).
WEIERSTRASS benutzte in seinen Vorlesungen eine andere Methode: Er führte die De-
terminante mit axiomatisch angegebenen Eigenschaften ein. Dadurch kann man die chro-
nischen Vorzeichenprobleme erst einmal im Hintergrund halten und all das bereitstellen,
was man zur praktischen Berechnung der Determinanten benötigt. Es zeigt sich, daß
auch hier das Verfahren aus Kapitel 0 zur Überführung einer Matrix in Zeilenstufenform
zum Ziel führt. Diesen Weg haben wir mit Rücksicht auf eilige Leser in 3.1 beschritten.
Die Vorzeichenspiele werden systematisch in 3.2 vorgeführt.
Für genauere historische Hinweise seien die entsprechenden Exkurse in [BI], [Fr],
[Koe) und [Kowl] zur Lektüre empfohlen.

3.1 Beispiele und Definitionen


3.1.1. Zunächst geben wir zwei charakteristische Beispiele für das Auftreten von
Determinanten.
1) Gegeben sei ein lineares Gleichungssystem
a11x1 + a12X2 = b1,

a21X1 + a 22x2 =
b2. II
Wir suchen eine Formel für die Lösung, die man bei beliebigen Werten der Ko-
effizienten anwenden kann. Umformungen ergeben die Gleichungen

(a11a22 - a12a 21)x2 = a11b2 - a 21b1. anii - a21l


Definieren wir allgemein für eine (2 x 2)-Matrix eine Determinante durch

I : : I := ad- bc ,
so erhält man für die Lösungen des obigen Systems

I :~ :~: I I :~: :~ I
x1 = I . x2 = I .
a11 a12 a11 a12
1 1
a 21 a 22 a 21 a 22

G. Fischer, Lineare Algebra, Grundkurs Mathematik,


DOI I 0.1007/978-3-658-03945-5_ 4, ©Springer Fachmedien Wiesbaden 20 14
3.1 Beispiele und Definitionen 175

Das ist der einfachste Fall der CRAMERschen Regel. Sie versagt, wenn

Das bedeutet, daß der Rang der Koeffizientenmatrix kleiner als 2 ist. Entspre-
chend 2.3 gibt es hier keine eindeutige Lösung.
2) Die Fläche eines Dreiecks ist gegeben durch

1(Grundlinie mal Höhe) .

Das zeigt man mit Hilfe des CAVALIERischen Prinzips, indem man zuerst das
Dreieck verdoppelt zu einem Parallelogramm, und dieses dann verschiebt zu
einem Rechteck.

Bild3.1
Zur Berechnung der Fläche eines Parallelogramms in der Ebene nehmen wir an,
dieses sei durch zwei Vektoren

gegeben.

Bild 3.2
176 3 Determinanten

Wie in der Zeichnung angedeutet, ist


v = {! · V 1 = {! · (cosa, sina), w = a · W 1 = a · (cosß, sinß),
wobei [!, a > 0. Bezeichnet F bzw. F 1 die Fläche des von v und w bzw. V 1 und
W 1 aufgespannten Parallelogramms, so verläuft die Rechnung für 0 :::: ß - a :::: n
wie folgt:

h1 = sin (ß - a) = cos a sin ß - cos ß sin a = I cosa sina I,


cosß sinß
also
I {! · cos a
F=Q·a·F =Q·a·h =
1 1{! · sin a
a · cos ß a · sin ß
Die Fläche ist also gleich der Determinante. Daher kann man einige Eigenschaf-
I= I:: :: I
ten der Abbildung

det: M(2x2;1R)-+ IR, A= ( : : ) t--+ad-bc=detA

geometrisch illustrieren. Dazu die folgende Notation: sind


v = (a, b) und w = (c, d)

die Zeilenvektoren von A, so schreiben wir det A = det ( : ) .

a) Für A, f.1, E IR ist

det ( ~) = ). · det ( : ) det ( f.l,vW ) = f.1, • det ( : )

ZJ I Z .l u .\v "----""-'"'v
Bild3.3
Das bedeutet, daß die Fläche so gestreckt wird wie einzelne Seiten.
b) Für ). E IR ist

det ( v ) = det ( v )
w w+).v
3.1 Beispiele und Definitionen 177

Bild3.4
was die Invarianz der Fläche unter Scherungen nach dem Cavaliensehen Prinzip
bedeutet.
c)

Das bedeutet, das Einheitsquadrat hat die Fläche 1.


d)

Daran sieht man, daß nicht nur der Betrag, sondern auch das Vorzeichen der
Determinante eine geometrische Bedeutung hat. Es hängt von der Orientierung
des Paares v, w ab, darauf kommen wir in 3.4 zurück.
e)
det ( : ) = 0

ist gleichbedeutend mit der linearen Abhängigkeit von v und w, d.h. das Paralle-
logramm hat die Fläche Null.

Bild 3.5
So wie zwei Vektoren im JR2 ein Parallelogramm erklären, spannen drei Vektoren
im JR 3 einen Spat und n Vektoren im JR" ein Parallelotop auf, und es entsteht das
178 3 Determinanten

Problem, den Inhalt zu berechnen. Wie man in der Analysis lernt, ist das die
Determinante der n x n-Matrix mit den Vektoren als Zeilen ([Fo 3], §5).
3.1.2. Zur Erklärung der Determinante einer n x n-Matrix gibt es mehrere Mög-
lichkeiten, zwei davon sind:
1) Eine Formel, in der die Einträge vorkommen, so wie das oben bei (2 x 2)-
Matrizen angegeben war. Das hatte schon LEIBNIZ bei größeren Matrizen aus-
geführt, das Ergebnis- die allgemeine Leibniz-Formel in 3.2.5- ist leider ziem-
lich umständlich.
2) Eine Charakterisierung der Determinante durch Axiome, sie geht auf
WEIERSTRASS zurück (vgl. [Fr]). Das ist nicht nur eleganter, sondern ergibt
auch einfachere Methoden zur Berechnung als die Leibniz-Formel.
Nun zur axiomatischen Einführung der Determinante, wir benutzen dabei die
folgende Notation:
Ist A eine n-reihige quadratische Matrix, so bezeichnen wir stets mit
a 1 , ••• , an die Zeilenvektoren von A. Dann schreiben wir

Definition. Sei K ein Körper und n eine von Null verschiedene natürliche Zahl.
Eine Abbildung
det: M(nxn;K)~K, At-+detA ,
heißt Determinante, falls folgendes gilt:
D1 det ist linear in jeder Zeile. Genauer heißt das folgendes. Für jeden Index
i E { 1, . . . , n} gilt:

a) Ist ai = a; + a;' , so ist

b) Ist ai = >..a;, so ist


3.1 Beispiele und Definitionen 179

An den mit Punkten bezeichneten Stellen stehen dabei jeweils unverändert


die Zeilenvektoren a 1 , • • • , a;_ 1 , a;+ I, . . . , a" .
D2 det ist alternierend, d.h. hat A zwei gleiche Zeilen, so ist det A = 0.
D3 det ist normiert, d.h. det E" = 1.

Eine andere Schreibweise für die Determinante ist


a11
:= det ( :

a"" a", . ..
Man beachte dabei, daß die senkrechten Striche nichts mit einem Absolutbetrag
zu tun haben.
3.1.3. Diese Definition ist sehr einfach, aber es bleibt die Existenz und Eindeu-
tigkeit zu zeigen, und das wird etwas Mühe machen. Zunächst spielen wir mit
den Axiomen und leiten daraus weitere Regeln ab.
Satz. Eine Determinante det : M(n x n ; K) --+ K hat die folgenden weiteren
Eigenschaften:
04 Für jedes J.. E K ist det(J.. · A) = J.." · det A.
DS Ist eine'Zeile von A gleich Null, so ist det A = 0.
D6 Entsteht B aus A durch eine Zeilenvertauschung, so ist
det B = - det A .
Die Determinante ändert also bei Zeilenumformungen vom Typ IV ihr
Vorzeichen.
07 Ist).. E K , und entsteht Baus A durch Addition der J..-fachen j-ten Zeile
zur i -ten Zeile ( i =P j ), so ist
detB = detA.
Die Determinante bleibt also bei Zeilenumformungen vom Typ III unver-
ändert.

J
D8 Ist A eine obere Dreiecksmatrix, also

A~(:
so istdetA = J.. 1 • • • • • J..".
180 3 Determinanten

D9 Sein 2: 2 und A E M(n x n; K) von der Gestalt

A =( A1 C ) ,
0 Az
wobei A 1 und A2 quadratisch sind. Dann gilt
detA = (detAI) · (detA2 ) .
DIO det A = 0 ist gleichbedeutend mit rang A < n.
Dll Es gilt der Determinanten-Multiplikationssatz
det(A · B) = det A · det B
für alle A, B E M(n x n; K). Insbesondere giltfür A E GL (n; K)

+ +
det A-I = (det A)- 1 •

Vorsicht! Die ,,Regel" det(A B) = det A det B ist für n 2: 2 falsch.


Beweis. D4 und D5 folgen sofort aus Dl b). Zum Beweis von D6 nehmen wir
an, daß die Zeilen i < j vertauscht werden. Dann ist wegen D I a) und D2

det A + det B = det ( : : ) + det ( :~ )


~(:)+~(~)+~(~)+~(~)
det ( ai + ai ) = 0.
ai +ai
Dabei sind zur Vereinfachung der Schreibweise nur die Einträge der Zeilen i und
j angegeben, in den restlichen Zeilen ändert sich nichts.
Es sei bemerkt, daß D2 aus D6 folgt, wenn char(K) f. 2, denn hat A zwei
gleiche Zeilen, so ist nach D6
det A =- det A , also 2 det A =0.
D7: Wegen D I und D2 ist

det B = det ( ai : ;~.a1 ) = det A + ). det ( : ~) = det A .


3.1 Beispiele und Definitionen 181

dot :. )~ ;, ;"
D8: Sind alle A; =1- 0, so folgt durch wiederholte Anwendung von D7

d<tA ~ d<tE" ~ ;, ;"

Gibt es ein i mit A; = 0, so wählen wir i maximal, d.h. A;+ 1 , ••• , A" =1- 0 . Mit
Hilfe von Ai+l, ... , An räumt man den Rest der i-ten Zeile aus, und mit D7 und
D5 folgt det A = 0.
D9: Durch Zeilenumformungen vom Typ III und IV an A mache man A 1 zu einer
oberen Dreiecksmatrix B 1. Dabei bleibt A 2 unverändert, aus C werde C'. Ist k
die Anzahl der ausgeführten Zeilenvertauschungen, so ist
det A 1 = (- 1)k · det B 1 .
Dann mache man A 2 durch Zeilenumformungen vom Typ III und IV an A zu
einer oberen Dreiecksmatrix. Dabei bleiben B 1 und C' unverändert. Ist l die An-
zahl der ausgeführten Zeilenvertauschungen, so ist
det Az = (-1) 1 • det Bz .
Ist

B := ( ~1 ~~) ,

so sind B, B 1 und B 2 obere Dreiecksmatrizen, es ist also nach D8 offensichtlich


det B = (det Bd · (det B2) .

Wegen
det A = (-l)k+' · det B
folgt die Behauptung.
D 10: Durch Zeilenumformungen vom Typ III und IV bringen wir A auf Zeilen-
stufenfarm B. Dann ist B obere Dreiecksmatrix, also

und nach D6 und D7 ist det B = ± det A. Weiter ist rang A = rang B und wegen
D8
rang B = n {:} det B = A1 • •• • • An =/- 0 .
182 3 Determinanten

D 11: Ist rang A < n, so ist rang (A · B) < n, und die Gleichung lautet 0 = 0
nach DIO.
Andernfalls können wir A E GL (n; K) annehmen. Nach 2.7.3 gibt es Ele-
mentarmatrizen C 1, ... , C" SO daß
A =C 1 · •. • ·C, .
Es genügt also zu zeigen, daß für jede Elementarmatrix C vom Typ Si (A) oder
Q{ (vgl. 2.7 .1)
det(C · B) = detC · detB
gilt. Nach Eigenschaft D8 (die natürlich auch für untere Dreiecksmatrizen gilt)
ist
det Si(A) =A und det Q{ = I.
Multiplizieren von links mit Si (A) multipliziert die i-te Zeile von B mit A, also
ist
det (Si(A) · B) = A · det B
nach Dl. Multiplizieren von links mit Q{ bewirkt die Addition der j-ten zur
i -ten Zeile, also ist
det(Q{ · B) = 1· detB . 0

Dieser letzte Beweis wird den Leser hoffentlich in seiner Wertschätzung der Ele-
mentarmatrizen bestärken.
3.1.4. Für die Praxis der Berechnung von Determinanten hat man nun alle erfor-
derlichen Hilfsmittel zur Verfügung. Man bringt A durch Zeilenumformungen
vom Typ III und IV auf obere Dreiecksgestalt B. Ist k die Anzahl der dabei
durchgeführten Zeilenvertauschungen, so gilt
detA = (-ll · detB = (-l) k · A1 • ••• • A 11 •

Beispiele. a)
0 1 2 1 0 1 0 1 0
3 2 1 3 2 1 0 -1 1 0 -1 1 = 3.
0 0 1 2 0 2 0 0 3

b) Die Berechnung von Determinanten wird interessanter, wenn man die Ein-
träge aii der Matrix als Unbestimmte auffaßt, das sind Zahlen, für die man belie-
bige Elemente des Körpers einsetzen kann, und zwar unabhängig voneinander.
3.1 Beispiele und Definitionen 183

Es ist üblich, das dadurch anzudeuten, daß man statt a den Buchstaben x ver-
wendet. Auf diese Weise berechnet man mit Hilfe von D7 und D8

Xzi = XIIX22- XziX12 ·


0 Xzz- -XI2
X11

Man beachte, daß xii während der Rechnung vorübergehend im Nenner steht,
nicht aber am Anfang und am Ende. Mit Hilfe von D6 kann man noch einmal
direkt überprüfen, daß die Formel(*) auch für XII = 0 gilt.
c) Eine Matrix A = (aij) E M(n x n; K) heißt schiefsymmetrisch, wenn
aii = -aj; und a;; = 0 (im Fall charK =/= 2 folgt die zweite Bedingung aus
der ersten). Die Berechnung solcher Determinanten ist besonders interessant,
wir betrachten die Einträge wieder als Unbestimmte. Für n = 2 und 3 ist

0
I -xiz XIzl
0 =-
I x12
0 0
-xiz
I= x~z'
0 0 XI2 X13
-XI2 0 X23 -x12 0 Xz3 = 0.
-X13 -Xz3 0 0 0 0
Dabei wurde zu Zeile III die Kombination x23 I - x 13 II addiert. Das ist ungefähr-
xi2 XI2
lieh, denn für xi 2 = 0 ist das Ergebnis ohnehin klar. Nun zum Fall n = 4:

0 XI2 X13 XI4 0 XI2 X13 XI4

-XI2 0 -xl2 0
detA = X23 X24 X23 X24

- XI 3 - X 23 0 X34 0 0 0 Q(x)

-XI4 -X24 -x34 0 0 0 -Q(x) 0


durch geeignete Umformungen der Zeilen III und IV, wobei
Q(x) = P(x) mit P(x) := XI2X34- X13X24 + XI4X23 ·
XI2
Aus D9 folgt schließlich
detA = (P(x)) 2 .
Man nennt P(x ) ein PFAFFsches Polynom (vgl. Aufgabe 5 und Aufgabe 8 zu
3.2).
184 3 Determinanten

Aufgaben zu 3.1

1. Berechnen Sie die Determinanten von


0 I
I 0 I
0
0 I
0
2. Zeigen Sie:

d{ I
X

I
: ) - (x - n'<>+ 2) ,

det ("'+I
ab
ab
b 2 +I
ac
bc ) - •' +b' +c' +l
ac bc c 2 +I
3. Berechnen Sie:
sina cos a a sina bcosa ab
-cosa sina -a 2 sina b2 cosa a2b2
det 0 0 a2 b2
0 0 0 a b
0 0 0 -b a
4. Zeigen Sie, dass für eine Matrix A = (a;j) E M(n x n; K) gilt:
det(aij) = det((- l)i+ j · aij).

5. SeiKein Körper mit char K -12 und A E M(n x n; K) alternierend (vgl. Aufgabe 3
zu 1.6). Zeigen Sie:
a) Ist n ungerade, so ist det A = 0.
(Hinweis: Benutzen Sie Satz 3.2.6)
3.1 Beispiele und Definitionen 185

b) Ist n gerade, so ist det A Quadrat eines Polynoms in den Einträgen von A (vgl. Auf-
gabe 8 zu 3.2).

6. Sind f = amtm + ... + ao, g = bnt" + ... + bo E K[t] Polynome mit


deg f = m, deg g = n, so ist die Resultante von f und g definiert durch
ao

ao
1. ",,k,

bo
Res f ,g := det

m Zeilen

bo
Zeigen Sie die Äquivalenz der folgenden Aussagen:
i) Resf.g = 0.
ii) f, tf, ... , t"- 1f, g, tg, ... , tm-l g sind linear abhängig.
iii) Es existieren p, q E K[t], p, q =f. 0, mit deg p ::; n - I , deg q ::; m - I und
pf = qg.
Mit etwas Teilbarkeilstheorie von Polynomen kann man zeigen, dass i) bis iii) äquivalent
sind zu
iv) f und g haben einen gemeinsamen nichtkonstanten Teiler h E K[t].

Insbesondere ist also Resf.g = 0, falls f und g eine gemeinsame Nullstelle haben, und
im Fall K = IC gilt: Resf .g = 0 {} f und g haben eine gemeinsame Nullstelle.
186 3 Determinanten

3.2 Existenz und Eindeutigkeit


Bei der Berechnung der Determinante nach der Methode aus 3.1.4 bleibt eine kleine,
wieder spitzfindig erscheinende Frage: die durchzuführenden Zeilenvertauschungen sind
nicht eindeutig bestimmt, man hat Wahlmöglichkeiten. Aber das Ergebnis
( - 1/)., 1 · •.. · A" muß unabhängig von allen Auswahlen sein, insbesondere muß klar sein,
ob k gerade oder ungerade ist. Das wird besonders deutlich an dem charakteristischen
Beispiel einer Einheitsmatrix mit veränderter Reihenfolge der Zeilen: Dazu kommen wir
zurück auf die schon in 1.2.2 betrachteten Permutationen. Ist a eine bijektive Abbildung
von {I , ... , n) auf sich, und bezeichnen e1 , ••• , e" die kanonischen Basisvektoren, so
betrachten wir die Matrix

·- ( ea(l) )
Ea .- :
ea(n)

mit den Basisvektoren in permutierter Reihenfolge als Zeilen, und die Vorzeichen-Frage
spitzt sich zu zur Alternative
detEa =±I?
Vorzeichen sind eine Art von Butterbroten: die haben zwei Möglichkeiten zu fallen ([E]).
Zur Beantwortung der Vorzeichenfrage benötigen wir eine zuverlässige Methode, an
der Permutation zu erkennen, auf welche Arten sie durch wiederholte Vertauschungen
rückgängig gemacht werden kann.
3.2.1. Wie wir gerade gesehen haben, ist zunächst ein kleiner Exkurs über Per-
mutationen unvermeidlich.
Wie in 1.2.2 bezeichnen wir für jede natürliche Zahl n > 0 mit Sn die symme-
trische Gruppe von {1, ... , n }, d.h. die Gruppe aller bijektiven Abbildungen
a: {1, ... ,n}-+ {1, ... ,n) .
Die Elemente von S" nennen wir Permutationen. Das neutrale Element von Sn
ist die identische Abbildung, die wir mit id bezeichnen. Wie üblich schreiben wir
a E Sn explizit in der Form

a =[ a:l) a~)
n
a(n) ]·
Für a, s" ist dann

l[
T E

T · a = [ r(\)
n
r(n) a:l)
n
a(n) ]
[ 1
r(a(l))
n
r(a(n)) ]·
3.2 Existenz und Eindeutigkeit 187

zum Beispiel

aber

[~ ~ ~l[~ ~ ~]=[~ ~ ~]
Man beachte dabei, daß die rechts stehende Permutation zuerst angewandt wird,
wie das bei Abbildungen üblich ist.
Bemerkung. Die Gruppe S" enthält
n! := n · (n- I) · .. . · 2 · I
(sprich: n-Fakultät) Elemente. Für n :::: 3 ist Sn nicht abelsch.
Beweis. Wir überlegen, wie viele Möglichkeiten es gibt, Elemente a E Sn auf-
zubauen. Zunächst hat man für die Auswahl von
a (1) genau n Möglichkeiten.
Da a injektiv sein soll, muß a (2) # a ( 1) sein. Es verbleiben für die Auswahl
von
a (2) genau n - 1 Möglichkeiten.
Sind schließlich a(l), .. . , a(n- I) gewählt, so ist a(n) festgelegt, es gibt also
für
a(n) nur eine Möglichkeit.
Insgesamt gibt es daher
n · (n-1)· ... ·2·1=n!
verschiedene Permutationen in Sn. Ist für n :::: 3
3 4
a = [ 1 2 3 4 .. · nn ] und T = [ 1 2
1 3 2 4 . .. 2 3 4
so folgt wie oben T · a # a · T. Die Gruppen S 1 und S2 sind abeisch, wie man
sofort sieht. D

Um sehen zu können, wie schnell n! mit n wächst, benutzt man die Formel von
STIRLING

n!~~-;;, (n)"
188 3 Determinanten

wobei~ eine asymptotische Näherung bezeichnet ([Fol], §20). Die Zahl 60! ist
ungefähr gleich 1082 , das ist in etwa die geschätzte Zahl der Nukleonen des Uni-
versums. Eine (60 x 60)-Matrix ist dagegen in den Problemen der Anwendungen
als klein anzusehen.
3.2.2. Um die Veränderung des Vorzeichens der Determinante bei Umordnung
der Zeilen zu kontrollieren, vertauscht man mehrfach jeweils zwei Zeilen. Solche
Permutationen haben einen eigenen Namen.
Eine Permutation r E S" heißt Transposition, falls r zwei Elemente aus
{1, ... , n} vertauscht und alle übrigen fest läßt, d.h. wenn es k, l E { l, ... , n}
mit k # l gibt, so daß gilt:
r (k) l,
r(l) = k und
r(i) = füri E {1 , ... ,n) '-. {k,l) .
1
Offensichtlich gilt r - = r für jede Transposition r ES".
Daß man allein mit Vertauschungen von Zeilen auskommt, zeigt das
Lemma. Ist n 2: 2, so gibt es zu jedem a ES" (keineswegs eindeutig bestimmte)
Transpositionen rl •...• Tk E s" mit
Cf = T1 · ..• · Tk.

Beweis. Ist a = id und r E S" irgendeine Transposition, so ist


id = r · r - 1 = r · r.
Andernfalls gibt es ein i 1 E { 1, .. . , n} mit
a(i) = i für i = 1, ... , i 1 - 1 und a(i 1) # i 1, a(i 1) > i1 .
also sogar
Sei r 1 die Transposition, die i 1 mit a (i 1) vertauscht, und a 1 := r 1 · a. Dann ist
a 1(i)=i füri=l , ... ,i 1 .
Entweder ist nun a 1 = id, oder es gibt ein i 2 mit i 2 > i 1 und
a 1(i) = i für i = 1, ... , i2 - 1 und a1 (i2) > i2 .
Analog erhält man r 2 und a 2 und schließlich ein k :::; n sowie Transpositionen
r 1, ... , rk mit ak = rk · .. . · r 1 · a = id. Daraus folgt
0

Zur Vorsorge noch eine kleine technische


Bemerkung. Sei n :=: 2 und

To := [ 1 2 3 . . . nn ] E S"
2 1 3 . ..
3.2 Existenz und Eindeutigkeit 189

die Transposition, die I und 2 vertauscht. Dann gibt es zu jeder beliebigen


Transposition r E Sn ein a E Sn mit
r =a . ro . a - 1

Beweis. Seien k und l die von r vertauschten Elemente. Wir behaupten, daß jedes
Sn mit
IJ E

a(l) =k und a(2) =l


die verlangte Eigenschaft hat. Sei r ' := a · r 0 · a - 1• Wegen a - 1(k) = 1 und
a - 1(1) = 2 ist
r ' (k) = a(ro(l)) = a(2) = l und r '(l) = a(r0 (2)) = a(l) = k.
Für i ct {k, l) ist a - 1 (i) ct {1, 2}, also
r '(i) = a(r0 (a - 1(i))) = a(a - 1(i)) = i .
Daraus folgt r ' = r. 0

3.2.3. Die Zerlegung einer Permutation in Transpositionen ist nicht eindeutig.


Wir müssen aber beweisen, daß die Anzahl der nötigen Transpositionen entwe-
der immer gerade oder immer ungerade ist. Zu diesem Zweck ordnen wir jeder
Permutation ein Vorzeichen zu. Elementar kann man es so beschreiben:
Ist a E Sn, so nennt manjedes Paar i, j E { 1, .. . , n) mit
i < j , aber a(i) > a(j) ,
einen Fehlstand von a . Zum Beispiel hat

a=[l23]
2 3 1
insgesamt 2 Fehlstände, nämlich
1 < 3, aber 2 > 1, und 2 < 3, aber 3 > 1.
Wir definieren das Signum (d.h. "Vorzeichen" ) von a durch
+1 , falls a eine gerade Anzahl von Fehlständen hat,
signa := {
-1, falls a eine ungerade Anzahl von Fehlständen hat.
Man nennt a E Sn
gerade , falls sign a = +1 , und
ungerade, falls" signa = -1 .
Diese Definition ist recht gut geeignet, um das Signum durch systematisches
Zählen zu berechnen, aber zu schwerfällig für theoretische Überlegungen. Daher
190 3 Determinanten

ist es hilfreich, das Zählen der Fehlstände und das Berechnen des Signums in
einer Formel zusammenzufassen. In den folgenden Produkten sollen i und j stets
die Menge {1, ... , n} durchlaufen, und zwar mit den unter dem Produktsymbol
vermerkten Nebenbedingungen.

. n
Lemma. Für jedes a E Sn gilt
a(j)- a(i)
s1gna = . . .
i<j 1- l

Beweis. Man mache sich erst einmal klar, daß man das Produkt als einen langen
Bruch schreiben kann, bei dem in Nenner und Zähler die gleichen Differenzen
vorkommen, allerdings im Zähler im allgemeinen an anderer Stelle und - das ist
der Kniff- im Fall eines Fehlstandes mit negativem Vorzeichen.
Diese Vorstellung übersetzt man in die folgende Rechnung, bei der m die An-
zahl der Fehlstände bezeichnet:

n(a(j)-a(i))=(
I<]
n
I < )
(a(j)-a(i)))·(-1)'" n
I<)
la(j)-a(i)l
a(i )<a(j) a(i)>a(j)

= (-l)mnla(j)- a(i)l = (-l)mnu- i).


i< j i<j

Bei der letzten Gleichung wird verwendet, daß die beiden Produkte bis auf die
Reihenfolge die gleichen Faktoren enthalten. Das folgt aus der Bijektivität der
Abbildung a. D
Die entscheidende Eigenschaft des Signums ist, daß es mit der Hintereinander-
schaltung von Permutationen verträglich ist.
Satz. Für alle a, r E Sn gilt sign ( r · a) = (sign r) · (signa ).
Insbesondere gilt signa- 1 = signa für jedes a E Sn.
Anders ausgedrückt bedeutet das, daß die Abbildung
sign : Sn ~ {+ 1, - 1}
ein Homomorphismus in die Gruppe von zwei Elementen ist.
Beweis. Es ist
sign(r · a)
n r(a(j))- r(a(i))
1
n n
i <j -I

r(a(j~)- r(~(i)) . a(j)- ~(i) .


i<J a(1)-a(z) i<J 1-1
3.2 Existenz und Eindeutigkeit 191

Da das zweite Produkt gleich sign a ist, genügt es zu zeigen, daß das erste Pro-
dukt gleich sign -r ist.
n -r(a(j))- -r(a(i))

n
i <j a(j)- a(i)

i <j
a(i )<a (j)
-r(a(j))- -r(a(i))
a(j)-a(i) n i <j
a( i )>a(j)
-r(a(j))- -r(a(i))
a(j)- a(i)

n -r(a(j))- -r(a(i))
a(j) - a(i) n -r(a(j))- -r(a(i))
a(j)- a(i)

n
i <) i >j
a (i )<a(j) a(i)<a (j)
-r(a(j))- -r(a(i))
a (i )<a (j ) a(j)- a(i)

Da a bijektiv ist, enthält dieses letzte Produkt bis auf die Reihenfolge die glei-
chen Faktoren wie

n
-r(j)- -r(i)
.
i<j
.
1
.
= s1gn-r,
-l

und der Satz ist bewiesen. 0

Damit ist die zu Beginn von 3.2.3 gestellte Frage über die Anzahl der Transpo-
sitionen beantwortet:
Korollar 1. Sei n ::: 2.

1) Für jede Transposition -r E Sn gilt sign -r = -1 .

2) ist a E Sn und a = <1 · . . . · 'k mit Transpositionen <1 , ... , -rk E Sn , so ist
signa = (-l)k .

Beweis. Ist -r0 die Transposition, die 1 und 2 vertauscht, so ist sign -r 0 = -1 , denn
-r0 hat genau einen Fehlstand. Nach der Bemerkung aus 3.2.2 gibt es ein a E Sn
mit -r = a · -r0 · a - I, also folgt aus obigem Satz
sign-r = signa · sign-r0 · (signa) - 1 = sign-r0 = -1.

2) folgt aus 1) wieder nach obigem Satz. 0

Als entscheidende Folgerung für Determinanten erhalten wir das


192 3 Determinanten

Korollar 2. Für jede Permutation a E Sn ist

ea(l) )
det ( ; = signa.
ea(n)
Beweis. Ist a = r 1 • ••• • rk> so kann man En durch k Zeilenvertauschungen in die
obige Matrix überführen. 0

3.2.4. Die Gruppe Sn zerfallt in zwei Klassen, die der geraden und die der un-
geraden Permutationen, und diese beiden Klassen sind nahezu gleichberechtigt.
Zunächst zu den geraden:
An : = {a E Sn : sign a = +I} c Sn
ist nach dem Satz aus 3.2.3 eine Untergruppe, sie heißt die alternierende Gruppe.
Für jedes r E Sn haben wir
An<:= {a · T: a E An} .
Für sign r = + 1 ist offenbar An r = An.
Bemerkung. Ist r E Sn mit sign r = -1 gegeben, so ist
Sn = An u An T und An n An T = 0 .
Insbesondere ist die Anzahl der Elemente von A n gleich ~n!.
Beweis. Sei a E Sn mit sign a = -1 gegeben. Nach 3.2.3 ist sign (a · r - I) = + 1,
also ist a E An r, denn a = (a · r -I) · r. Für jedes a E An r ist sign a = -1 ,
also ist die Vereinigung auch disjunkt.
Nach 1.2.4 ist die Abbildung An ~ An r, a 1-+ a · r , bijektiv. Da Sn aus n!
Elementen besteht, enthalten An und An r je ~n! Elemente. 0
3.2.5. Es gibt mehrere Möglichkeiten, die Existenz und Eindeutigkeit der mit
den Axiomen von WEIERSTRASS charakterisierten Determinante zu beweisen.
Wir benutzen dazu den Weg über die Formel von LEIBNIZ, die zwar wenig be-
liebt, aber dennoch klassisch und manchmal für die Theorie nützlich ist.
Theorem. IstKein Körper und n 2: 1, so gibt es genau eine Determinante
det: M(n x n; K) ~ K,
und zwar istfür A = (aij) E M(n x n ; K)
det A = L sign (a) . al a (l ) . . .. . ana(n) .

Die Formel (*) von LEIBNIZ hat für jede Permutation einen, also insgesamt n!
Summanden.
3.2 Existenz und Eindeutigkeit 193

Beweis. Wir zeigen zunächst, daß die Formel (*) aus den Axiomen folgt, das
beweist die Eindeutigkeit. Dazu zerlegen wir jeden Zeilenvektor a; von A in
a; = ailei + ... + a;nen
und wenden Zeile für Zeile von oben nach unten das Axiom D l an, bis eine
Summe mit n" Summanden entstanden ist. Das nennt man eine Entwicklung von
A nach Zeilen.

)
Nun gilt nach Korollar 2 aus 3.2.3 und D2

det (
e~,· ) ={ signa, falls es ein a E Sn gibt mit a(v) = iv für alle v,
· 0, sonst.
e;n

Also bleiben "nur" n! der n" Summanden übrig, und es gilt ( *).
Leider ist der Beweis damit noch nicht zu Ende, denn allein aus der Tatsache,
daß man die Axiome zur Ableitung der Formel benutzt hat, folgt noch nicht, daß
die Formel alle diese Eigenschaften hat.
Für den Existenzbeweis definieren wir nun die Determinante durch die For-
mel von LEIBNIZ, und es sind die Axiome von WEIERSTRASS nachzuprüfen.
Danach herrscht wieder Frieden zwischen den beiden alten Herren.
194 3 Determinanten

Dl sieht man direkt an der Summe

d<t ( ,; +";') L sign(()). al a (l) .. . . . (a:a(i) + a;~(i)) . . . . . Gna(n)

L sign(()) . GJa(l) . . . . . a ;a(i) . . . . . Gncr(n)


aESn

+ L sign(()). GJcr(l) .. . .. a;~(i) .. .. . Gncr(n)

also gilt Dl a). Für b) zeigt man, daß jeder Summand mit A. multipliziert wird.
D2 Angenommen, die k-te und die I-te Zeile von A seien gleich, wobei k < I.
Ist r die Transposition, die k und I vertauscht, so ist nach 3.2.4
S" = A" U A"r,
und diese Vereinigung ist disjunkt. Ist() E A" , so gilt
sign() =+1 und sign(() ·r)=-1.
Wenn () die Gruppe A" durchläuft, durchläuft () · r die Menge A" r. Also ist
detA = L GJ cr(l) ·. · · · Gncr(n)- L
GJcr (r(l)) · . • · · Gncr(r(n)) • (**)
aEAn aEA 11
Da die k-te und die I-te Zeile von A gleich sind, gilt nach der Definition von r
GJcr(r(l)) . · · · . Gkcr(r(k)) . · · · • Gtcr(r (l)) . · · · • Gncr(r(n))

= G Jcr(l) · · · · · Gkcr(l) • • · · · Gtcr(k) • • • • • Gncr(n)

= GJ cr (l ) . · · · . Gkcr(k ) • • • • • Gtcr(l) • • • • • Gncr(n)

= GJ cr (l) · . .. • Gncr(n) •

Also heben sich in (**) die Summanden gegenseitig auf, und es folgt
detA = 0.
D3 Ist 8iJ das Kronecker-Symbol und() E S", so ist
0 für () =I id ,
O lcr( l ) · · · · · Oncr(n) = { .. .
1 fur () = 1d.
Also ist
detE" = det(8ij) = L sign(()) · 8 1cr(l) · .. . · Oncr(n ) = sign(id) = 1. D
a E Sn
3.2 Existenz und Eindeutigkeit 195

3.2.6. Durch den Existenz- und Eindeutigkeitssatz ist die theoretische Rechtfer-
tigung dafür geliefert, daß man Determinanten so berechnen darf, wie wir es in
3.1.4 mit Hilfe von Zeilenumformungen getan hatten. Man kann aber für kleine
n auch die Formel von LEIBNIZ verwenden:
Für n = 2 ist

I a11 a,21 = a11a22 - a,2a21 .


a21 a22

Für n = 3 ist
a11 a,z a,3
a11a22a33 + a12a23a31 + a13a2,a32
a21 Gzz a23
-a11a23a32 - a,2a21a33 - a13a22a31 .
GJI a 32 a33

Die Summe hat 3! = 3 · 2 · l = 6 Summanden. Man kann sich diese Formel


leicht merken durch die Regel von SARRUS: Man schreibt den ersten und zweiten
Spaltenvektor noch einmal hinter die Matrix:

Bild 3.6
Die Koeffizienten längs der ,,Hauptdiagonale" und ihrer Parallelen ergeben
dann die Summanden mit positivem Vorzeichen, die Koeffizienten längs der "Ne-
bendiagonalen" und ihrer Parallelen ergeben die Summanden mit negativem Vor-
zeichen.
Für n = 4 erhält man eine Summe mit 4! = 24 Summanden, was schon höchst
unangenehm ist. Man beachte, daß ein Analogon zur Regel von SARRUS für
n ~ 4 nicht gilt. Für n = 4 würde man auf diese Weise nur 8 von 24 Summanden
erhalten, und die Vorzeichen würden im allgemeinen nicht stimmen (wovon man
sich zur Übung ein für allemal überzeugen sollte).
Wegen des rasanten Wachstums von n! sind auch Computer mit der Formel
von LEIBNIZ überfordert (vgl. Aufgabe 5). Die Methode aus 3.1.4 erfordert we-
sentlich weniger Rechenaufwand.
Zur Rehabilitation der Formel von LEIBNIZ geben wir zwei theoretische An-
wendungen. Die Einträge a ij der Matrix kann man als insgesamt n 2 Unbestimmte
ansehen, dann ist die Abbildung
det: K" 2 ---+ K
ein Polynom, im Fall K R oder IC insbesondere differenzierbar und somit
196 3 Determinanten

stetig.
In den Axiomen der Determinante sind die Zeilen vor den Spalten ausgezeich-
net. Das ist nur scheinbar so:
Satz. Für eine Matrix A E M(n x n; K) gilt det 'A = det A.
Beweis. Ist A = (a;j). so ist' A = (a;) mit a;j = aji· Nun gilt
det'A L sign(a) ·
a ES11
a;u(l) · . . . · a~u(n)

I: sign(a). au(l ) l . . . . . a u(n )n


a ESn

L sign(a- 1) · a,u - '(1 ) · .. . · anu - l (n)

a ES11
detA .
Bei der vorletzten Gleichung wurde benutzt, daß für jedes a E Sn

gilt, denn bis auf die Reihenfolge enthalten die beiden Produkte die gleichen
Faktoren. Außerdem wurde verwendet, daß nach 3.2.3
signa = signa- 1
gilt. Für die letzte Gleichung haben wir benutzt, daß mit a auch a- 1 "ganz Sn
durchläuft". Genauer gesagt bedeutet das, daß die Abbildung
Sn -+ Sn ' a 1-+ a -I '

bijektiv ist. Dies folgt sofort aus der Eindeutigkeit des inversen Elementes (vgl.
1.2.3). 0

3.2.7. Wie nützlich es ist, wenn man abwechselnd mit Zeilen und Spalten ope-
rieren kann, zeigt das
Beispiel. Wir betrachten x 1 , ... , Xn als Unbestimmte und definieren die
VANDERMONDE-Determinante

l:!..n := det ( ~ ~I
1 Xn · •·

Offensichtlich ist 6.. 1 = 1, 6.. 2 = x 2 - x 1• Für n = 3 formt man zuerst Spalten


3.2 Existenz und Eindeutigkeit 197

um und zieht dann Faktoren aus den Zeilen:


XJ x2I X! x f - xf XJ -XJ 0
X2 x2
2 x2 x i - X1X2 X2 -X! X 2(X2- XI)

X3 x2 XJ x j - X1X3 X3 -XJ X3(X3 - XJ)


3

I::=:: ::~:: =::~ I = (x2- x1)(x3- x 1) I~ :: I


= (x2- xJ)(x3- xJ)(x3- x2).

n
Nach diesem Muster erhält man durch Induktion übern (Aufgabe 2)
Ö.n = (X j - X;) .
l ~ i < ) :5: n

Daraus folgt, daß die Zeilen oder Spalten der obigen Matrix genau dann linear
abhängig sind, wenn x; = x 1 für mindestens ein Paar i =1- j.
3.2.8. Wie wir gesehen haben, ist es oft nützlich, in eine Matrix nicht nur Ele-
mente eines Körpers, sondern allgemeinere Symbole- etwa Unbestimmte- ein-
tragen und damit rechnen zu dürfen. Damit das kein Ritt über den Bodensee
bleibt, wird etwas theoretische Rechtfertigung dafür bereitgestellt.
Wir gehen aus von einem kommutativen Ring R mit Einselement 1 (s. 1.3.1).
Mit
M(n x n; R)
bezeichnen wir die quadratischen n-reihigen Matrizen mit Einträgen aus R. Ad-
dition und Multiplikation von Matrizen kann man wie bei einem Körper erklären
(1.4.1 und 2.5.1), damit wird M(n xn; R) zu einem Ring mit Einselement En. Da
im Beweis des Existenz- und Eindeutigkeitstheorems aus 3.2.5 nirgendwo durch
Einträge der Matrix dividiert wird, kann man ihn wörtlich auf R übertragen. Man
überzeuge sich, daß die Kommutativität verwendet wird! Daraus folgt, daß die
Determinante
det: M(n x n; R)---+ R, A = (aij) I-+ L sign(a) · GJu(l) · ••• · Gnu(n)

die Eigenschaften D1, D2 und D3 aus 3.1.2 hat.


Man beachte, daß von allen Folgerungen D4 bis Dll nur diejenigen direkt
übertragen werden können, bei deren Beweis nicht dividiert wurde (Aufgabe 7).
198 3 Determinanten

Aufgaben zu 3.2

1. Stellen Sie die Permutation

a=[s12345]
4 3 2 1
als Produkt von Transpositionen dar.
2. Beweisen Sie mit Induktion nach n, dass für die Vandermonde-Determinante gilt:
I
det ( ;
x1
; X~--1)= n (Xj-Xi).
l:S)<j~n
I x., x~-I

3. Geben Sie eine unendliche Teilmenge des llir an, in der jeweils n verschiedene Punkte
linear unabhängig sind.
4. Zeigen Sie noch einmal
det(aij) = det((-l)i+j. aij),
(vgl. Aufgabe 4 zu 3.1), aber benutzen Sie nun zum Beweis die Formel von LEIBNIZ.
5. ln dieser Aufgabe soll der Aufwand zum Berechnen der Determinante mit Hilfe der
Leibniz-Formel bzw. des Gauß-Algorithmus verglichen werden.
a) Bestimmen Sie die Anzahl der Additionen und Multiplikationen, die nötig sind, wenn
man die Determinante von A = (aij) E M(n x n; IR)
i) mit der Leibniz-Formel,
ii) durch Umformung der Matrix in Zeilenstufenform mit dem Gauß-Algorithmus
und Aufmultiplizieren der Diagonalelemente berechnet.
b) Es stehe ein Computer zur Verfügung, der Addition und Multiplikation in 0.2 Mikro-
sekunden durchführen kann. Schätzen Sie ab, für welche Größe von Matrizen man
mit den Verfahren i) bzw. ii) in einer vorgegebenen Rechenzeit von höchstens 48
Stunden auf diesem Computer Determinanten berechnen kann.

6. Beweisen Sie die Regeln D4 bis Dll aus 3.1.3 mit Hilfe der Leibniz-Formel.
7. Welche der Eigenschaften D4 bis Dll gelten, falls man Determinanten von Matrizen
aus M(n x n; R) für einen Ring R betrachtet (vgl. 3.2.8)?
8. (Fortsetzung von Aufgabe 5 zu 3.1.)
Sei K ein Körper mit char K #- 2, n E N ...._ {0} gerade, also n = 2m für ein m E N und
A E M(n x n; K) schiefsymmetrisch. Definiert man
P(Xii· ... ,Xnn) = "L:sign(a) · Xo-(l)o-(2) · ... · Xo- (2m - l)o-(2m),
3.2 Existenz und Eindeutigkeit 199

wobei über alle a E Sn mit a (2i) > a (2i - I) für i = I, ... , m summiert wird, so gilt
det A = <;;h P(all, ... , a 1111 )) 2 Man nennt Pein Pfajfsches Polynom.
9. Seien v, w zwei verschiedene Punkte des K2 und L c K 2 die Gerade durch v und w .
Dann gilt:

10.* Zeigen Sie, dass die Menge


SL(2; Z) := {A E M(2 x 2; Z): detA =I}
eine Gruppe bzgl. der Multiplikation ist und erzeugt wird von den Matrizen

A =( ~ :) B =( -~ ~)
d.h. SL(2; Z) =erz (A, B) (vgl. Aufgabe 4 zu 1.2).
11. Gegeben sei ein offenes Intervall I c IR und die IR-Vektorräume
C := C(/; IR)= {a: I-> IR: a stetig},
V:= IJ(/; IR") = {'P ='('PI· ... , 'Pn): I--> IR":
'Pi beliebig oft differenzierbar} .
Matrizen A E M(n x n ; C) und b E M(n x I; C) bestimmen das lineare Differentialglei-
chungssystem
y' = A · y +b.
Für b = 0 heißt das System homogen. Die Lösungsräume sind erklärt durch
.C := {ip E IJ: !p1 = A · 'P + b} und .Co:= {'PE IJ: !p1 = A · ip}
a) Zeigen Sie, dass Co C V ein Untervektorraum und .C C V ein affiner Unterraum ist.
b) Zeigen Sie, dass für 'P(l), ... , 'P(n) E .Co folgende Bedingungen äquivalent sind:
i) 'P(l), ... , 'P(n) sind über IR linear unabhängig.
ii) Für ein xo E I sind !p(I)(xo), ... , !p(n>(xo) E IR" linear unabhängig.

iii) det ('Pij)) =I 0. Diese Determinante heißt WRONSKI-Determinante.


c) Zeigen Sie, dass dim.C = n (unabhängig von A).
Hinweis: Man benutze die in der Analysis bewiesene Existenz- und Eindeutigkeitsaus-
sage ([Fo 2], §12), wonach es bei gegebenem -Xb zu beliebigem Anfangswert c E IR"
genau eine Lösung !p von (*)mit !p{-Xb) = c gibt.
200 3 Determinanten

12. Bestimmen Sie alle Lösungen der Differentialgleichung j' = -y. Überführen Sie
dazu die Differentialgleichung mit dem Ansatz )b = y, y 1 = y' in ein lineares Diffe-
rentialgleichungssystem wie in Aufgabe II, und benutzen Sie, dass rp genau dann eine
Lösung von y" = - y ist, wenn (rp, rp') eine Lösung des linearen Systems ist.
3.3 Minoren* 201

3.3 Minoren*
Wie wir gesehen haben, wird die Berechnung von Determinanten bei wachsendem n sehr
viel schwieriger. Daher kann es manchmal helfen, in einer Matrix Zeilen und Spalten zu
streichen, und zunächst die Determinante der kleineren Matrix zu berechnen.

3.3.1. Zunächst benötigen wir einige sehr technische Vorbereitungen. Ist


A = (a;1 ) E M(n x n; K), so sei AiJ für festes i, j die Matrix, die aus A entsteht,
indem man aiJ durch 1 und alle anderen Komponenten, die in der i -ten Zeile oder
der j -ten Spalte stehen, durch 0 ersetzt. Ausgeschrieben ist
all ai.J-1 0 ai.J+I aln

a; - 1.1 ai- I,J - 1 0 ai- I.J+I ai - l.n

AiJ = 0 0 1 0 0
a;+I.I ai+I .J -1 0 ai+I.J + I ai+I,n

anl an.j-1 0 an. }+l Gnn

Die Matrix
Aj = (ai) E M(n x n; K) af1 := detA 1;
mit
heißt die zu A komplementäre Matrix. Man beachte dabei die Umkehrung der
Reihenfolge der Indizes. Weiter bezeichnen wir mit
Gtn

A~lj := a,,.,.-----ah-:,1-~--a;n E M((n - 1) x (n - I); K)

nj

die Matrix, die man durch Streichen der i-ten Zeile und der j-ten Spalte aus A
erhält.
Bemerkung 1. Es gilt stets
detAiJ = (-l)i+J detA;1 .
202 3 Determinanten

Beweis. Durchi- 1 Vertauschungen benachbarter Zeilen und j - 1 Vertauschun-


gen benachbarter Spalten kann man AiJ auf die Form

0 ) 1
( 0
A;J
bringen. Also folgt die Behauptung aus D6 und D9 wegen
<-o<i-l)+(j- 1) = <-1r+'. o
Ist A = (a 1, ... , a") E M(n x n; K), wobei a 1, ... , a" die Spaltenvektoren von
A sind, und ist
e' = 'e; = '(0, ... , 0, 1, 0, ... , 0) ,
so ist
(a~, . .. ,ai-l,ei,aJ+I, ... ,a")

die Matrix, die aus A entsteht, indem man aiJ durch 1 und alle anderen Kompo-
nenten der j-ten Spalte durch 0 ersetzt. Im Gegensatz zu AiJ bleiben die restli-
chen Komponenten der i -ten Zeile unverändert.
Bemerkung 2. Es gilt stets
detAiJ = det(a 1 , .•. , ai - 1, e', ai+l, ... , a").

Beweis. Durch Addition von Vielfachen der j-ten Spalte zu den anderen Spalten
kann man (a 1 , ••• , aJ - I, e', a i+l, ... , a") in AiJ überführen. Also folgt die Be-
hauptung aus D7. 0

Satz. Ist A E M(n x n; K) und An die zu A komplementäre Matrix, so ist


A 0 • A = A ·Au= (detA) · E".
Beweis. Wir berechnen die Komponenten von A 0 • A:
n
L:a; a
n

1 1k l:a1kdetA 1,
)=I ) =I
II

'"'
L.. a Jk de t(a I , ... , a i-1 , e j , a i+l , .. . , a ") nach Bem. 2
)=I
n
'"' 1 ke j ,a i+l , .. . ,a ")
de t(a I , ... ,a i- 1,~a nach Dl
j= l

det(al' . . . 'ai- 1' ak' ai+l' . .. ' a" )


8;k · det A . nach D2
Also ist An · A = (det A) · E". Analog berechnet man A · A 0. 0
3.3 Minoren* 203

3.3.2. In den Definitionen und Beweisen von 3.3.1 kann man den Körper K
durch einen kommutativen Ring R mit Einselement ersetzen (vgl. 3.2.8). Der
Leser möge zur Übung die Einzelheiten überprüfen. Kritischer Punkt ist der Be-
weis von Bemerkung 2; aber da man die 1 als Pivot für die Umformungen hat,
geht alles gut. Ergebnis ist das
Korollar. Ist R ein kommutativer Ring mit I und A l E M(n x n; R) die zu
A E M(n x n; R) komplementäre Matrix, so gilt
A'·A=A·A 0 =(detA)·En . 0

Dies wird in 4.5.3 sehr nützlich sein.


3.3.3. Die gerade bewiesene Eigenschaft der komplementären Matrix hat wich-
tige Konsequenzen. Wir beschränken uns wieder auf den Fall eines Körpers K.
Entwicklungssatz von LAPLACE. Ist n ~ 2 und A E M(n x n; K), so giltfür
jedes i E {1, ... , n}
n

detA = 2)-ly+j · aij · detA;j


j~l

(Entwicklung nach der i -ten Zeile) und für jedes j E { 1, . . . , n}


n
det A = _l) -l)i+j · aij · det A;j
i=l
(Entwicklung nach der j-ten Spalte). Dabei bezeichnet A ;j jeweils die in 3.3.I
definierte Streichungsmatrix.
Beweis. Nach Satz 3.3.1 ist det A für jedes i gleich der i -ten Komponente in der
Diagonale der Matrix A · A n, also
II II II

detA = "L_,aijajin = "L_,aij · detAij = "L_,(-1) i+1 aij · detAij,


j~l j~ l j~ l

nach Bemerkung I aus 3.3.1. Indem man ebenso mit A 0 • A verfährt, erhält man
die Formel für die Entwicklung nach der j -ten Spalte. 0
Genau genommen gibt der Entwicklungssatz von Laplace nur ein Verfahren an,
die Summanden der Formel von LEIBNIZ in einer speziellen Reihenfolge aufzu-
schreiben. Das kann aber doch nützlich sein, etwa dann, wenn in einer Zeile oder
Spalte viele Nullen stehen. Als Beispiel berechnen wir noch einmal
0 I 2
3 2 1
0
204 3 Determinanten

Die durch den Faktor ( -1 )i+i bewirkte Vorzeichenverteilung kann man sich als
"Schachbrettmuster'' vorstellen:
+ - + - + - + -

- +
+ - + - +-

+ - + - + - + -
- + - + - + - +
+ - + - + - + -
- + - + - + - +
+ - + - + - + -
- + - + - + - +

3.3.4. Aus Satz 3.3.1 sieht man sofort, daß die komplementäre Matrix bis auf
den Faktor det A gleich der inversen Matrix ist. Das kann man nach Bemerkung
I in 3.3.1 auch so ausdrücken:
Satz. Sei A E GL (n; K). Definiert man C = (ciJ) E M(n x n; K) durch
C;J := (-1)i+J · detA;1 ,
so ist
A-1=_1_ · 'C. 0
detA
Im Spezialfall n = 2 erhält man

a b ) -t 1 ' ( d -c ) 1 ( d -b )
(
c d = ad- bc . -b a = ad- bc. -c a ·

Auch für n = 3, 4 ist dieses Verfahren noch nützlich. Man berechne zur Übung

und vergleiche das Ergebnis mit dem in 2.7.5 erhaltenen.


Für größere n ist der Rechenaufwand wieder zu groß, weil man n 2 Determi-
nanten berechnen muß. Dafür eine schöne Anwendung in der Theorie. Wegen
der Stetigkeit von
det : M(n x n; IR)---+ IR
3.3 Minoren* 205

ist GL (n; JR) C M(n x n; JR) eine offene Teilmenge, und aus den obigen Formeln
folgt, daß die Abbildung
GL(n; JR)--+ GL(n; lR), A ~--+ A- 1 ,
differenzierbar ist. Das ist nützlich in der Analysis.

3.3.5. Auch für die Lösung linearer Gleichungssysteme ist die komplementäre
Matrix nützlich, und zwar im Fall
A ·x = b mit A E GL (n; K).
Hier ist die entsprechend 2.3.6 eindeutige Lösung gegeben durch
x=A- 1 -b.
Man kann x auch ohne explizite Berechnung der inversen Matrix bestimmen:
Sind a 1 , ••• , a" die Spaltenvektoren von A, so hat A-l nach 3.3.1 in der i-ten
Zeile und der j-ten Spalte die Komponente
det A ji det(a 1 , ••• , ai-l, ei, ai+l, . .. , a")
detA detA
Für die i-te Komponente von x =A-lb folgt nach Dl und Satz 3.2.6
x; =
n
Ld t A = de t(a I , ... , a i - 1, b , a i + l , . .. , a ") .
b .~
J= l 1 detA detA
Man kann also x; berechnen aus der Determinante von A und der Determinante
der Matrix, die aus A durch Austausch der i -ten Spalte gegen b entsteht. Wir
fassen das Ergebnis noch einmal zusammen.
CRAMERsche Regel. Sei A E GL (n; K), b E K" und x = '(x 1, ••• , x") E K"
die eindeutig bestimmte Lösung des Gleichungssystems
A ·X =b .
Bezeichnen a 1 , ... , a" die Spaltenvektoren der Matrix A, so gilt für jedes
i E {1 , . .. , n)
det(a 1 , ••• , ai-l, b, ai+l, . . . , a")
X;= 0
detA
Für große n ist diese Regel zur Bestimmung der Lösung nicht praktisch, denn
man muß dazu n+ I Determinanten berechnen. Für theoretische Untersuchungen
ist die Cramersche Regel jedoch sehr wertvoll. Im Fall K = lR kann man damit
zum Beispielleicht einsehen, daß die Lösung x des Gleichungssystems A · x = b
stetig von den Koeffizienten von A und b abhängt.
206 3 Determinanten

Als Beispiel betrachten wir das Gleichungssystem


x1 +xz = 1,
Xz +x3 = 1,
3xl +2xz +x3 = 0,
mit der Koeffizientenmatrix

Durch elementare Umformungen erhält man das reduzierte Gleichungssystem


X1 +xz 1,
Xz +x3 = 1,
2x3= -2,
und daraus die Lösung

Wegen det A = 2 ergibt die Cramersche Regel

XI=~ I I= I=
1 I 0 1 I 0
1 I 1
0 2 1
- 1. Xz =~I 0 I 1
3 0 1
2.

I=
1 1 1
X3=~I 0 1 1
3 2 0
-1.

3.3.6. Nach D10 ist rang A < n für A E M(n x n; K) gleichbedeutend mit
det A = 0. Um zu sehen, wie weit der Rang absinkt, muß man weitere Determi-
nanten berechnen. Das kann man sogar auf beliebige Matrizen ausdehnen.
Ist A E M(m x n; K) und k ::S: min{m, n}, so heißt eine quadratische Matrix
A' E M(k x k ; K) eine k-reihige Teilmatrix von A, wenn A durch Zeilen- und
Spaltenvertauschungen auf die Form

gebracht werden kann (wobei an den mit * bezeichneten Stellen beliebige Ma-
trizen stehen können). Das ist insbesondere dann der Fall, wenn A' aus A durch
Streichen von m - k Zeilen und n - k Spalten entstanden ist. det A ' heißt ein
k-reihiger Minor.
3.3 Minoren* 207

Satz.SeiA E M(m xn;K)undr E NmitO<r:S min{m,n}.


Dann sind folgende Bedingungen gleichwertig:

i) r = rangA.

ii) Es gibt einen r-reihigen Minor i= 0, und für k > r ist jeder k-reihige Minor
gleich Null.

Beweis. Es genügt zu zeigen, daß für jedes k E N mit 0 < k ::0 min {m, n]
folgende Bedingungen gleichwertig sind:
a) rang A 2: k .

b) Es gibt eine k-reihige Teilmatrix A' von A mit det A' i= 0.


b) =? a). Aus det A ' i= 0 folgt rang A ' = kund somit rang A 2: k, weil sich der
Rang einer Matrix bei Zeilen- und Spaltenvertauschungen nicht ändert.
a) =? b). Ist rang A 2: k, so gibt es k linear unabhängige Zeilenvektoren in A.
Nach Zeilenvertauschungen können wir sie in die ersten k Zeilen bringen. Sei B
die Matrix, die aus diesen Zeilen besteht. Wegen
Zeilenrang B = k = Spaltenrang B
gibt es k linear unabhängige Spaltenvektoren in B . Durch Spaltenvertauschun-
gen können wir sie in die ersten k Spalten bringen. Sei A ' E M(k x k ; K) die
aus diesen Spalten bestehende Matrix. A' ist eine Teilmatrix von A, und wegen
rang A' = k gilt det A' i= 0, was zu zeigen war. 0

3.3.7. Die in 3.1.3 als Eigenschaft Oll bewiesene Multiplikativität der Deter-
minante hat eine Verallgemeinerung, die zum Beispiel in der Analysis bei der
Berechnung von Inhalten benutzt wird (vgl. [Fo3], §14). Sie betrifft rechtecki-
ge Matrizen. Dafür kann man zwar i.a. keine Determinante mehr erklären, aber
Minoren. Sei A = (a 1 , ••• , a") E M(m x n; K), wobei die aj E Km die Spal-
tenvektoren bezeichnen. Ist m ::0 n, so definieren wir für 1 ::0 k 1 < . .. < km ::0 n
die Teilmatrix
AkJ .....k'" := (aki' . .. 'akm) E M(m X m ; K).
det (Ak 1• ••• k'") heißt ein m-reihiger Minor von A, davon gibt es

(mn) = (n- n!m)! m! = n·(n-1)· ... ·(n -m+1)


m · (m - 1) · . . . · 2 · 1
Stück (vgl. [Fol], §1). Hat B die gleiche Größe wie A, so ist A · 1 B quadratisch,
also gibt es davon eine Determinante. Wie man sie berechnen kann, sagt das
208 3 Determinanten

Determinanten-Multiplikationstheorem. Ist m ::; n, so gilt für alle Matrizen


A, B E M(m x n; K)
det(A· 1 B)= L (detAk' .k"' )·(detBk, , .k"'). (*)
I :"Ski < .. . < km ~ n

Der Fall m > n ist langweilig (vgl. Aufgabe 2), für m = 1 ist die Aussage
offensichtlich.
Beweis. Für sehr kleinem und n kann man die Formel(*) durch direkte Rech-
nung mit der Leibniz-Formel beweisen (Aufgabe 3), aber im allgemeinen Fall ist
das eine einzige Index-Schlacht (vgl. etwa [Kow 1], §34). Übersichtlicher ist ei-
ne geeignete Zerlegung der Rechnung in elementare Schritte. Bei quadratischem
A ging das mit Hilfe einer Produktdarstellung durch Elementarmatrizen (D 11 in
3.1.3). Im rechteckigen Fall wird A bei festem, aber beliebigem B zeilenweise
aus besonders einfachen Matrizen aufgebaut, das kann man als Umkehrung der
Entwicklung nach Zeilen aus 3.2.5 ansehen.
1) Wir zeigen die Gültigkeit von (*)für

eJ, )
A= ( fürbeliebige j 1, ... , j,. E {1, ... , n).

e~"'
Man beachte, daß die Zeilenvektoren e1 im K" liegen. Für dieses spezielle A
sind die Minoren ganz einfach zu berechnen: Ist 1 ::; k 1 < ... < k,. ::; n, so gilt

detA k ,, .. .,'"
k
= { signa, falls j; = ka (i ) für ein a E Sm,
0, sonst .
Nun betrachten wir die Wirkung der Multiplikation mit A: Ist

B = W, ... ,b") , so folgt A · 1B =( bJ' ) .


blm

Die Determinante von A · 1 B ist also höchstens dann von Null verschieden, wenn
j 1, ... , jm paarweise verschieden sind, d.h. wenn es eine Permutation a E S,.
und 1 ::; k1 < ... < k,. ::; n gibt mit j ; = k a (i) • und es ist dann
det (A · 1 B) = signa . det Bk,.... k.., .
Also gilt in diesem Fall (*) mit einem einzigen Summanden auf der rechten
Seite.
3.3 Minoren* 209

2) Gilt die Fonnel für A, und entsteht A aus A durch Multiplikation der i -ten
Zeile mit).. E K, so gilt die Fonnel auchfür A. In Zeichen
(*) =} C*) .
Ist C := A ·'Bund C := A · 'B, so entsteht C aus C durch Multiplikation der
i-ten Zeile mit A. Nach D1 ist
detAk, .... k" =).. · detAk, . .km und detC =).. · detC,
also folgt C*) =).. · (*).
3) Ist die i -te Zeile a; von A eine Summe a; = ä; + i'i;, und gilt die Formel für

und A=

so gilt sie auchfür A. In Zeichen


(*)und(~)=} (*).
Wir setzen C := A · 'B, C := A·'Bund C = A · 'B. Axiom D1 angewandt auf
Ak, ....km undCergibt
- o::k1 . .. .km - ::0
detAk, . ..k" = detAk, . ...km+ detA und detC = detC + detC,
also folgt(*)=(*)+(*).
Es bleibt zu zeigen, daß man mit Hilfe von 1), 2) und 3) jede beliebige Matrix

A = (aij) = ( ~1 ) mit Zeilenvektoren a; E K"


a:n
schrittweise aufbauen kann: In der ersten Etappe wählt man die Indizes
)2, ... jm E { 1, ... , n} beliebig, aber fest. Läßt man h von 1 bis n laufen, und
wählt man nacheinander ).. j, = a 1h, so folgt die Gültigkeit von (*) für

A1 = ( :112 ) für beliebige jz, . . . , jm .

e~m
In der zweiten Etappe hält man a 1 sowie h . ... , jm fest und läßt h von 1 bis n
210 3 Determinanten

laufen. Das ergibt wie oben die Gültigkeit von(*) für

für beliebige )3, .. . , jm .

In der m-ten Etappe erhält man schließlich(*) für Am = A. 0

3.3.8. Im Spezialfall m = n erhält man mit der oben angewandten Methode


einen neuen Beweis des Determinantenmultiplikationssatzes D 11. Für B = A
ergibt sich das
Korollar. Für jedes A E M(m x n; K) mit m _::: n gilt
det(A· 1 A)= L det(Ak, . .k". ) 2 • 0

Man nennt det(A · 1 A) eine GRAMsehe Determinante. Insbesondere ist sie für
K = lR nie negativ und genau dann Null, wenn rang A < m (vgl. 3.3.6).

Aufgaben zu 3.3

1. In dieser Aufgabe geht es um weitere Eigenschaften der komplementären Matrix.


a) Ist die Abbildung M(n x n; K)-+ M(n x n; K), A ,_. AUlinear?
b) Zeigen Sie: 1 (Al) = (1 A) D, (Aß)D = stt Au.
c) det A 0 = (det A)"- 1•

d) (A 0) 0 = (det A)n - l · A .

2. Sind A, BE M(m x n; K) und istm > n, so folgt detA · 1 B = 0.


3. Beweisen Sie die Formel für det A · 1 B aus 3.3.7 durch direktes Ausrechnen, wenn
A , BE M(2 x 3; K) sind.

4. Beweisen Sie:

~
a
-b
( : _; ) = (a2 + b2 + c2 + d 2) 2 .
det -c
d a - b
-d -c b a
3.3 Minoren* 211

5. Für x = (XI, ... , Xn) und y = (y1 , ... , Yn) aus K" sind äquivalent:

i) x und y sind linear abhängig.

ii) det ( x; y; ) = 0 f..uraIIet,J.


..
Xj Yi

6.Ist E = span (x, y) C K" ein 2-dimensionaler Untervektorraum, so definieren wir

Pii = det ( X; Y; ) für I ~i < j ~n.


Xj Yi

Man nennt p(x, y) = (pij)l soi <i Sn E KGl die (homogenen) Plückerkoordinaten von
E = span (x. y); nach Aufgabe 5 ist p(x, y) i= 0.
a) Zeigen Sie, dass die Plückerkoordinaten bis auf einen Faktor aus K " {0} nur von
E abhängen: Ist E = span (x, y) = span (x' , y') , so existiert ein A. E K " {0} mit
p(x, y) = 1.. · p(x 1 , y 1 ).In diesem Sinne wollen wir auch einfach von den Plücker-
koordinaten p(E) von E reden, diese sind daim bis auf einen Faktor i= 0 eindeutig
bestimmt.

b) Zeigen Sie: Sind E1 , Ez C K" Untervektorräume der Dimension 2, so dass p(E1)


und p(Ez) linear abhängig sind, so folgt E 1 = E2 .

c) Ist E = span (x, y) c K 4 , so erfüllen die Plückerkoordinaten (pij) von E die Glei-
chung P12P34- PI3P24 + PI4P23 = 0. Ist umgekehrt p = (pij)Jsi<i54 E K 6 '-- 0
gegeben mit P12P34 - PI3P24 + PI4P23 = 0, so existiert ein 2-dimensionaler Unter-
vektorraum E = span (x , y) c K 4 mit p(E) = p.

d) Sind E 1 = span (x, y), E2 = span (x 1 , y 1 ) C K 4 zweidimensionale Untervektor-


räume mit Plückerkoordinaten p(E1) = (pij) . p(E2) = (qij ). so gilt:

X1 Yl
I I)
XI Y1

E1 n E2 i= {0} {} det ( x2
x3
Y2
Y3
x~ Y~
X3 Y3
=0

X4 Y4 X~ Y~

7. Zeigen Sie, dass det(x) = L uES" sign(a) · Xl a( l ) · ... · Xnu (n) E K[x11, ... , X1111 ] ein
irreduzibles Polynom ist, das heißt, dass aus det(x ) = P · Q mit Polynomen P und Q
stets P E K oder Q E K folgt.
212 3 Determinanten

3.4 Determinante eines Endomorphismus und Orientierung*


3.4.1. Nach den vielen Rechnungen mit Determinanten kommen wir zurück zur
Frage nach ihrer geometrischen Bedeutung. Eine Matrix A E M(n x n; K) kann
auch als Endamorphismus des K" angesehen werden. Dabei wird die Standard-
basis e 1 , ••• , en auf die Spaltenvektoren a 1 , .•. , a" von A abgebildet. Im Fall
K =IR hat der von e 1 , •• • , en aufgespannte Würfel im IR" das Volumen 1, das
von a 1 , ••• , a" aufgespannte Parallelotop hat das Volumen
fdet 1 Af = ldetAI
(vgl. [Fo3], §5). Der Betrag der Determinante ist also das Maß für die durch den
Endamorphismus bewirkte Veränderung des Volumens.
Sind ein beliebiger K- Vektorraum V mit dim V < oo und ein Endamorphis-
mus
F: v~ V
gegeben, so kann man eine Basis B von V wählen und
det F := det M 8 (F) E K
setzen. Ist A eine andere Basis von V, so gibt es nach 2.6.5 ein S E GL (n; K)
mit
MA(F) = s. MB(F) . s- l, also ist detMA(F) = detMB(F)
nach D 11 aus 3.1.3. Daher haben wir eine wohldefinierte Abbildung
det: End (V) ~ K , F 1--+ det F.
Im Gegensatz zum IR" hat man in einem allgemeinen V keine Volumenmessung
mehr. Immerhin folgt aus D10 in 3.1.3 die
Bemerkung. Für FE End (V) sindfolgende Bedingungen gleichwertig:
i) F ist surjektiv.

ii) det F f. 0. 0

3.4.2. Für einen Endamorphismus des IR" ist der Betrag der Determinante ein
Maß für die Veränderung der Volumina (vgl. 3.4.1). Das Vorzeichen der Deter-
minante hat ebenfalls eine geometrische Bedeutung.
Beispiele. a) Sei

A=( -1
und A' =( _l
4
I
1)
I
2
3.4 Determinante eines Endomorphismus und Orientierung• 213

Es ist det A = ~ > 0 und det A' = - ~ < 0. Die Wirkung von A auf den
Buchstaben F ist in Bild 3.7 zu sehen: Das Bild unter A ist nach einer Drehung
wieder als F zu erkennen, das Bild unter A' ist gespiegelt.
b) Bei einem Automorphismus A des JR 3 betrachtet man das Bild einer linken
Hand. Ist det A > 0, so sieht es wieder aus wie eine linke Hand, falls det A < 0,
wird daraus eine rechte Hand.

.r2

-----.r,
Bild 3.7

Das motiviert die


Definition. Ein Automorphismus eines JR-Vektorraumes V mit dim V < oo heißt
orientierungstreu, falls det F > 0, und
orientierungsuntreu, falls det F < 0.

3.4.3. Es ist bezeichnend für die Schwierigkeit der Definition, daß man "orien-
tierungstreu" erklären kann, bevor klar ist, was eine "Orientierung" ist. Das wird
nun nachgeholt:
Definition. Seien A= (v 1, •• • , Vn) und B = (w 1, • •• , wn) Basen des JR-Vek-
torraumes V und F der nach 2.4.1 eindeutig bestimmte Automorphismus von V
mit
214 3 Determinanten

Dann heißen A und B gleichorientiert, in Zeichen A ~ B, wenn det F > 0.


Offensichtlich ist dadurch eine Äquivalenzrelation in der Menge X aller Basen
von V erklärt, und X zerfällt in zwei Äquivalenzklassen
x = x· u x. ,
wobei je zwei Basen aus derselben Klasse gleichorientiert sind. Man beachte,
daß x• und X. völlig gleichberechtigt sind.
Unter einer Orientierung von V versteht man eine Äquivalenzklasse gleich-
orientierter Basen; dafür gibt es zwei Möglichkeiten.

Bild 3.8 (aus [B 2))


Für V = JR" kann man die Zerlegung von X explizit beschreiben. Man hat eine
kanonische bijektive Abbildung
M: X---+GL(n;JR), AH-A=M(A),
wenn M (A) die Matrix mit den Vektoren der Basis A als Spalten bezeichnet
(vgl. Aufgabe 1), und es gilt
A ~ B ~ det M (A) · det M (ß) > 0 .
Man beachte dabei, daß det M (ß) und det M (B) - I das gleiche Vorzeichen haben.
Die Gruppe GL (n; JR) hat eine disjunkte Zerlegung in
G+ := {AEGL(n;JR): detA>O) und
G_ := {A E GL(n; JR): detA < 0} .
Im JR" gibt es die kanonische (d.h. nach DUDEN "den kirchlichen Bestimmungen
gemäße") Basis K, sie ist in einer der beiden Klassen x• oder X. enthalten, und
diese ist dadurch ausgezeichnet (also ist es hier schon wieder vorbei mit der
Gleichberechtigung). Ist etwa K E x•, so folgt
G+ = M(X") und G_ = M(X.).
Wir können also im Fall V = JR" die Zerlegung
X = X" U X. ersetzen durch GL (n ; JR) = G+ U G_.
3.4 Determinante eines Endemorphismus und Orientierung• 215

Offensichtlich ist G+ C GL (n; lR) eine Untergruppe, und es gilt die


Bemerkung. Ist T E GL (n; JR) mit det T < 0 gegeben, und ist
r:: GL (n ; JR) ---+ GL (n; JR), A 1-+ A · T,
die Rechtstranslation (vgl. 1.2.4 ), so gilt
r(G+) = G_ und r(G_) = G+ .
Der Beweis verläuft wie in 3.2.4. 0
3.4.4. Nun wollen wir zeigen, daß zwei Basen des JR" genau dann gleichorien-
tiert sind, wenn sie sich "stetig ineinander verformen" lassen. Vor allem muß
präzisiert werden, was das heißen soll. Dabei können wir entsprechend 3.4.3 die
Menge aller Basen durch GL (n; JR) ersetzen.
Definition. Sind A, B E GL (n; JR), so versteht man unter einem Weg von A
nach B eine stetige Abbildung
rp: I-+ GL(n; JR), t 1-+ rp(t) = (rpiJ(t)) ,
wobei I = [a, ß] C lR ein Intervall ist, mit rp(a) = A und rp(ß) = B. Die
Stetigkeit von rp bedeutet, daß die n 2 Funktionen rp;1 mit Werten in lR stetig sind.
Wesentlich dabei ist, daß die Matrix rp(t) für jedes t E I invertierbar ist.
Die Matrizen A, B E GL (n; JR) nennt man verbindbar (in Zeichen A ~ B),
wenn es einen Weg von A nach B gibt.
Man betrachtet t als Zeitparameter, die Spalten von rp(t) beschreiben eine Basis,
die sich im Lauf der Zeit verformt.
Theorem. Für zwei Matrizen A , B E GL (n; JR) sind folgende Bedingungen
gleichwertig:
i) A und B liegen in derselben Klasse G+ oder G_, d.h. det (A · B) > 0,
ii) A und B sind in GL (n ; JR) verbindbar.

In der Sprache der Topologie sagt man dafür, daß GL (n, JR) in die zwei Zusam-
menhangskomponenten G+ und G_ zerfällt.
Korollar. Zwei Basen A und ß des JR" sind genau dann gleichorientiert, wenn
sie stetig ineinander verformbar sind.
Wesentlich dabei ist wieder, daß man zu jedem Zeitpunkt der Verformung eine
Basis hat.
Beispiele. a) Im JR 1 besteht eine Basis aus einem einzigen Vektor x E JR* =
GL (1; JR). Ist y ein weiterer, so gibt es genau dann einen Weg von x nach y,
216 3 Determinanten

wenn beide gleiches Vorzeichen haben (Bild 3.9). Dabei benutzt man den Zwi-
schenwertsatz ([Fo1], §11).

C\ ;3
r~ !3 • t

Bild3.9
b) Die Basen A = (e 1 , e2 ) und B = ( -e 1 , e2 ) sind nicht stetig ineinander ver-
formbar. Man mache dazu ein Experiment mit einer nicht mehr benutzten oder
gedachten Uhr: versuche, sie durch unabhängige Bewegung beider Zeiger von 3
Uhr auf 9 Uhr zu stellen, so daß die beiden Zeiger dabei nie auf einer Geraden
liegen!
c) Daumen, Zeigefinger und Mittelfinger einer nicht ganz flach gestreckten lin-
ken und rechten Hand repräsentieren die beiden möglichen Orientierungen des
IR3 • Dreht man so lange, bis Mittelfinger und Zeigefinger der beiden Hände auf-
einander liegen, so zeigen die Daumen in verschiedene Richtungen.

Wir benutzen folgende Teilresultate:


Lemma 1. Die Verbindbarkeif ist eine Äquivalenzrelation in GL (n; IR).
Lemma 2. Ist rp: I -+ GL (n; IR) ein Weg von A nach B, so habendet A und
det B das gleiche Vorzeichen.
Lemma 3. Ist A E GL (n; IR) mit det A > 0, so gibt es einen Weg von A nach
En .
Daraus ergibt sich leicht der Beweis des Theorems: Nach Lemma 2 gilt
ii) =} i). Es bleibt also i) =} ii) zu zeigen:
Sind A, B E G+, so gibt es nach Lemma 3 Wege von A nach En und von B
nach En, also nach Lemma 1 auch einen Weg von A nach B.

J
Sind A, B E G_, so setze man etwa

T - [ -1 dann ist y - I = T.
3.4 Determinante eines Endamorphismus und Orientierung* 217

Die Rechtstranslation C 1-+ C · T bewirkt eine Multiplikation der ersten Spalte


mit -1, das ist eine stetige Abbildung von GL (n; lR) auf sich. Da A · T und
B · T E G+, gibt es einen Weg dazwischen, durch die Rechtstranslation mit T
erhält man daraus einen Weg von A nach B. 0
Zum Beweis von Lemma 1 verweisen wir auf Aufgabe 2. 0

Beweis von Lemma 2. Nach 3.2.6 ist die Determinante stetig, also ist
det o q:> : 1 ----+ lR , t 1-+ det (q:> (t )) ,

eine stetige Funktion. Da det(q:>(t)) =I 0 für alle t , hat det(cp(t)) nach dem Zwi-
schenwertsatz für alle t das gleiche Vorzeichen. 0
Beweis von Lemma 3. Durch eine Folge verschiedenartiger Umformungen wird
A in Eil überführt. Der Kniff ist, diese Umformungen nicht auf einen Schlag,
sondern langsam durchzuführen. Dadurch erhält man kleine Wegstückchen, die
man schließlich zum ganzen Weg von A nach Eil zusammenfügt.
Zur Vorbereitung der ersten Etappe überlegt man sich, daß jede invertierbare
Matrix durch Spaltenumformungen vom Typ III (Addition einer M-fachen i-ten
Spalte zu einer j-ten Spalte mit j =I i) in eine Diagonalmatrix

überführt werden kann (Aufgabe 3). Es ist wichtig, Spaltenvertauschungen zu


vermeiden, weil sie das Vorzeichen der Determinante verändern.
Seien also Elementarmatrizen C 1, •• • , Ck vom Typ II1 gefunden, so daß
D = A · C1 · . .. · Ck .
Ist C = Q{ (M) eine davon, so zeigen wir, wie daraus ein Wegstückehen gemacht
werden kann. Ist
A = (... , ai, ... , a 1 , .. . ) , so ist A · Q{ (M) = (. .. , ai , ... , a 1 +{Lai , .. . ) .

Definieren wir eine stetige Abbildung


1/1 : [0, I) ----+ GL (n ; lR) , t t-+ A · Q{ (t · M) ,
so ist 1jJ (0) = A und 1jJ ( 1) = A · Q{ (f.L). Wie die stetige Ausführung dieser
Scherung verläuft, ist in Bild 3.10 angedeutet.
218 3 Determinanten

/aj+J.Lai
,•''/
. :.-. ····· · ~ / J.Lai
a / .
/

Bild 3.10
Nach Lemma 1 kann man die so erhaltenen k Wegstückehen zusammensetzen
zur ersten Etappe
if!1: [al,ßil-*GL(n;JR.) mit if!l(aJ)=Aundcpl(ßi)=D.
Aus D7 folgt det (cp 1(t)) = det A für jedes t E [a 1, ßd, insbesondere

J
det A = det D = A. 1 · ... · A.., .
In der zweiten Etappe wird D verbunden mit

D ~ ('' ·· wore; E;
A.;
= - =±1.
lA.; I

-
Dazu benutzen wir, daß man in JR.* jedes A. mit E = ~ geradlinig verbinden kann
durch

X: [0, 1]-* lR.*, t ~--* A. + (E- A.)t = A. ( 1 + c~l 1) t) .

,\~ 1

-11 ~~~:,
Bild 3.11
Die Multiplikation der Spalten mit Faktoren kann man auch durch Elementar-
matrizen vom Typ Sj (Jl.) bewirken, also ist

D' = D · S1 (il) ·... · S., c:. l),


3.4 Determinante eines Endamorphismus und Orientierung* 219

und jedes der n Wegstückehen von D nach D' ist beschrieben durch Multiplika-
tionmit

s1 (I+C: -I)r)
11
für t E [0, 1]. Diesen Stückehen zusammengefügt ergeben einen Weg
cp2: [a2, ß2l-+ GL(n; JR) mit Cf!2Ca2) =D und CfJ2Cß2l = D' .
Da I+ (fh- I) t > 0 für 0::; t ::; I,
ist det D' = +1,
also ist die Anzahl der
Einträge -1 in D' gerade.
In der dritten Etappe wird D' mit En verbunden, dazu nimmt man sich in
jedem Schritt ein Pärchen von negativen Einsen vor. Wie sie gemeinsam ins Po-
sitive gewendet werden können, sieht man am besten im Spezialfall n = 2. Man
nimmt die stetige Abbildung

t ,..... (
cost - sint ) .
a: [-n,0]-+GL(2;1R),
sin t cos t
Für sie gilt

a(-n)= (-1 0)
0 -1
, a(O) =( ~ ~ ) = E2.
Falls die beiden Einträge - 1 an beliebigen Stellen sitzen, verwendet man die
Abbildung

cost - sint
E GL (n; lR).
sin t cost

Macht man dies nacheinander für jedes Paar, so erhält man insgesamt das Weg-
stück
Cf!3: [a3, ß3] -+ GL (n; lR) mit cp3(a3) = D' und C{J3(ß3) = En.
Durch Zusammensetzung von cp 1, cp2 und cp3 erhält man schließlich den gesuchten
Weg von A nach En. 0
220 3 Determinanten

Wie wir gesehen haben, gibt es für einen reellen Vektorraum zwei mögliche Ori-
entierungen. Viel schwieriger ist es, den Begriff der Orientierung für eine reelle
Mannigfaltigkeit, etwa eine Fläche, zu erklären. Das einfachste Beispiel für eine
nicht orientierbare Fläche ist das um 1850 entdeckte MÖBIUSband, das nicht nur
Anselm Wüßtegern und Sophie beschäftigt hat (mehr darüber in [P]):
3.4 Determinante eines Endemorphismus und Orientierung* 221

Aufgaben zu 3.4

1. Sei V ein K-Vektorraum, X die Menge aller Basen von V und ß E X. Zeigen Sie,
dass die Abbildung
<ll: X --+ GL(n; K), .A f-> T!J. = M~ (id)
bijektiv ist. Wie hängt <ll im Fall V = !Fr mit der in 3.4.3 definierten kanonischen
Bijektion
M: X --+ GL(n; IR)
zusammen?
2. Beweisen Sie, dass die Verbindbarkeil von Matrizen in GL(n; IR) eine Äquivalenzre-
lation in GL(n; IR) definiert.
3. Zeigen Sie, dass man eine invertierbare Matrix A E GL(n; K) durch Spaltenumfor-
mungen vom Typ Ili auf Diagonalgestalt bringen kann.
4. Zeigen Sie, dass in M(m x n; IR) je zwei Matrizen durch einen Weg verbindbar sind.
5. Beweisen Sie, dass GL(n; I[) zusammenhängend ist, das heißt, dass je zwei Matrizen
aus GL(n; I[) durch einen Weg in GL(n; C) verbunden sind.
Kapitel4
Eigenwerte
In Abschnitt 2.2.4 hatten wir für eine lineare Abbildung F: V -+ W ein Paar von
Basen konstruiert, bezüglich derer F durch

mit r = rang F dargestellt wird. Die nötigen Transformationsmatrizen sind ganz einfach
explizit zu berechnen (vgl. 2.7.6).
Zur Beschreibung eines Endomorphismus benutzt man eine einzige Basis, und ihre
Anpassung an eine lineare Abbildung ist weit schwieriger als wenn man zwei Basen
variieren kann. In die Matrizenrechnung übersetzt bedeutet diese Frage, zu einer qua-
dratischen Matrix A eine möglichst einfache ähnliche Matrix
B = SAS- 1
zu finden (vgl. 2.6.7). Insbesondere wird sich zeigen, daß man hierzu stärkere Hilfsmittel
aus der Algebra, nämlich Polynome höheren Grades benötigt, obwohl in der linearen
Algebra zunächst nur der Grad I interessiert. Die benutzten Tatsachen über Polynome
sind in Abschnitt 1.3 zusammengestellt.

4.1 Beispiele und Definitionen


4.1.1. Wir beginnen mit dem einfachsten Fall, nämlich einem K- Vektorraum V
mit dim V = 1. Ist F E End (V) und 0 # v E V, so gibt es ein eindeutig
bestimmtes ).. E K mit
F(v) =).. · v,
und dieses ).. hängt nicht von der Wahl von v ab. Denn ist w = J-LV ein anderer
Vektor von V, so ist
F(w) = F(J-Lv) = J-LAV = AJ-LV = )..w.
Die Abbildung F ist also durch die Zahl ).. festgelegt.
Auch in höherdimensionalen Räumen darf man auf Vektoren hoffen, die bei
Anwendung von F nur mit einem Faktor multipliziert werden, weil dann die
Wirkung von F wenigstens in bestimmten Richtungen besonders einfach zu ver-
stehen ist. Das führt zu der
Definition. Sei F ein Endamorphismus des K - Vektorraums V. Ein ).. E K heißt
Eigenwert von F, wenn es ein v E V mit v # 0 gibt, so daß gilt
F(v) = )..v.

G. Fischer, Lineare Algebra, Grundkurs Mathematik,


DOI 10.1007/978-3-658-03945-5_5, ©Springer Fachmedien Wiesbaden 2014
4.1 Beispiele und Definitionen 223

Jedes vom Nullvektor verschiedene v E V mit F(v) = A.v heißt Eigenvektor von
F (zum Eigenwert A.).

Vorsicht! Man beachte, daß natürlich 0 E K ein Eigenwert sein kann, der Null-
vektor 0 E V jedoch nach Definition nie Eigenvektor ist.
Das zentrale Problem dieses Kapitels ist die Frage nach der Existenz und der
Vielfalt von Eigenvektoren. Dazu zunächst drei
Beispiele. a) Es sei V = JR2 undFeine Drehung um den Winkel a, die beschrie-
ben wird durch die Matrix

A = ( cos a - sin a ) .
sina cosa

e2
F (e,)

Bild4.1
Anschaulich ist klar, daß es mit Ausnahme der Fälle a = 0 und a = rr keinen
Eigenvektor geben kann.
b) Wir variieren das erste Beispiel, indem wir die Richtung von F(e 2 ) umkehren.
Dann ist die beschreibende Matrix

, ( cosa sina )
A =
sina - cosa

Wenn man die Gerade mit dem Winkel ~ einzeichnet, erkennt man, daß die Ab-
bildung Feine Spiegelung an dieser Geraden ist. Damit hat man zwei Eigenvek-
toren gefunden:

v1 (cos ~ · sin ~ ) zum Eigenwert A. 1 = 1 und


v2 ( cos "';" , sin "';") zum Eigenwert A.2 = - 1,
224 4 Eigenwerte

und diese beiden bilden eine Basis ß = (v 1, v2 ) von IR2 mit


Ma(F) = ( 1 0 ) .
0 -1

i
I. \ \ F(e,)

-u, = F(u,)
Bild4.2
c) Sei I C IR ein Intervall und V = V(!; IR) der unendlichdimensionale
IR-Vektorraum der auf I beliebig oft differenzierbaren Funktionen. Ein Endo-
morphismus ist gegeben durch
F: V---+ V, rp ~--* rp' .

Dieses F hat jedes beliebige ). E IR als Eigenwert, denn


rp(x) := ceü

ist für jedes c E IR* ein Eigenvektor zu 1.. Das ist ein erster Hinweis auf die
Bedeutung der Eigenwerttheorie für Differentialgleichungen (vgl. auch Aufgabe
3).

4.1.2. Endomorphismen wie im obigen Beispiel b) erhalten einen eigenen Na-


men:
Definition. Ein Endomorphismus heißt diagonalisierbar, wenn es eine Basis aus
Eigenvektoren gibt.
4.1 Beispiele und Definitionen 225

Dieser Name erklärt sich aus der


Bemerkung. Ist dim V = n < oo, so ist F E End (V) genau dann diagonali-
sierbar, wenn es eine Basis ß = (v 1 , •.• , Vn) von V gibt, so daß MB(F) eine
Diagonalmatrix ist, d.h.

0).
An

Das folgt unmittelbar aus der Definition der darstellenden Matrix. 0

Insbesondere nennt man eine Matrix A E M(n x n; K) diagonalisierbar, wenn


der durch A beschriebene Endamorphismus von Kn diagonalisierbar ist. Nach
2.6.7 ist das gleichwertig mit der Existenz einer Matrix SE GL (n; K) mit

0
sAs- 1 = ( A.O, "• n ) '

d.h. A ist ähnlich zu einer Diagonalmatrix.


Es sei daran erinnert, daß die Spalten von s-t eine Basis aus Eigenvektoren
von A sind. Das sieht man zum Beispiel durch Multiplikation obiger Gleichung
von links mit s- 1.
Vorsicht! Selbst wenn F diagonalisierbar ist, braucht nichtjeder Vektor ungleich
Null aus V ein Eigenvektor zu sein. Man mache sich das an Beispielen klar (etwa
Beispiel b) oben oder Bild 4.3)!
V2 = F(v 2 ) 1• F(v )

~F(",) 1
Bild 4.3

4.1.3. Bevor wir eine Methode angeben, Eigenwerte zu finden, beweisen wir den
Satz. Angenommen, F E End (V) hat paarweise verschiedene Eigenwerte
A. 1 , • •• , A."' wobein = dim V. Dann ist F diagonalisierbar.
226 4 Eigenwerte

Da es zu jedem Eigenwert A; mindestens einen Eigenvektor v; #- 0 gibt, folgt


der Satz sofort aus dem
Lemma. Gegeben seien F E End (V) und Eigenvektoren Vt, ... , Vm zu paar-
weise verschiedenen Eigenwerten At , ... , A".. Dann sind v 1 , . . . , Vm linear un-
abhängig. Insbesondere ist m :::; dim V.
Beweis. Wir führen Induktion überm. Der Fall m = 1 ist wegen v 1 #- 0 klar.
Sei m ::=:: 2, und sei die Aussage für m - 1 bereits bewiesen. Wir betrachten die
Bedingung

Darauf können wir einerseits F anwenden, andererseits mit A1 multiplizieren und


die Ergebnisse voneinander subtrahieren. Das ergibt
atAt Vt + a zAzVz + ... + amAm Vm 0,
atAJ Vt + azAJ Vz + ... + amAt v", 0
und
az(Az- AJ)Vz + ... + am(A". - AJ)Vm = 0.
Nach Induktionsannahme sind v2 , ... , Vm linear unabhängig, also ist
az(Az- At)= ... = am(Am- AJ) = 0,
und da die Eigenwerte verschieden sind, folgt
az = ... = am = 0.
Setzt man das in (*) ein, so folgt a 1v 1 = 0 und wegen v 1 #- 0 auch a 1 = 0. D

4.1.4. Wie wir gesehen haben, gibt es höchstens n = dim V Eigenwerte, da-
gegen im allgemeinen sehr viel mehr Eigenvektoren. Daher ist es nützlich, alle
Eigenvektoren zu einem festen Eigenwert zusammenzufassen.
Definition. Ist F ein Endamorphismus von V und A E K, so nennen wir
Eig(F; A) := {v E V: F(v) = AV}
den Eigenraum von F bezüglich A.
Bemerkung.
a) Eig (F; A) C V ist ein Untervektorraum.
b) AistEigenwert von F <? Eig (F; A) #- {0}.
c) Eig (F; A) "- {0} ist die Menge der zu A gehörigen Eigenvektoren von F.
4.1 Beispiele und Definitionen 227

d) Eig (F; A) = Ker (F- Aidv ).


e) Sind AI, Az E K verschieden, so ist Eig (F; AI) n Eig (F; A2) = {0}.
Beweis. a) bis d) ist ganz klar, e) folgt aus dem Lemma in 4 .1.3. 0

Aufgaben zu 4.1

1. Zeigen Sie: Ein nilpotenter Endamorphismus hat null als einzigen Eigenwert.
2. Gegeben sei die lineare Abbildung F: 7J(/; IR)--* 1J(I; IR) , rp 1-> qJ', wobei I c IR
ein Intervall ist.
a) Bestimmen Sie die reellen Eigenwerte von F.
b) Bestimmen Sie eine Basis von Eig(F, -I).

3. Sei I C IR ein offenes Intervall. Durch eine Matrix A E M(n x n; IR) ist das homogene
lineare Differentialgleichungssystem
y' = A. y
bestimmt; nach Aufgabe II zu 3.2 hat der zugehörige Lösungsraum
l-o = (rp E 7J(l; IR"): rp' = A · rp} C 1J(l; IR")
die Dimension n . Um Lösungen zu erhalten, kann man den Ansatz
rp(t) = e).1 • v

benutzen, wobei ). E IR und v E IR". Zeigen Sie:


a) rp(l) = eJ.t · v ist eine Lösung I 0 von y= A · y genau dann, wenn v Eigenvektor
von A zum Eigenwert ). ist.
b) Lösungen rp(l>(t) = eJ.,r ·VI, ... , rp<kl(r) = e'' 1 · Vk sind linear unabhängig genau
dann, wenn VI, ... , vk linear unabhängig sind.
Insbesondere erhält man mit diesem Ansatz eine Basis des Lösungsraums, falls A dia-
gonalisierbar ist.
4. Sei V ein K- Vektorraum und F: V --* V linear. Zeigen Sie: Hat F 2 +F den Eigen-
wert -I, so hat F 3 den Eigenwert l.
5. Gegeben sei ein K- Vektorraum V und F, G E End( V). Beweisen Sie:
a) Ist v E V Eigenvektor von F o G zum Eigenwert). E K, und ist G(v) I 0, so ist
G(v) Eigenvektor vonG o Fzum Eigenwert A.
b) Ist V endlichdimensional, so habenF o Gund G o F dieselben Eigenwerte.
228 4 Eigenwerte

4.2 Das charakteristische Polynom


In diesem Abschnitt entwickeln wir eine systematische Methode zur Suche von Eigen-
werten und zur Bestimmung der zugehörigen Eigenräume. Entscheidend dafür ist die
Determinante eines Endomorphismus, von der wir in 3.4.1 gesehen hatten, daß sie wohl-
definiert ist, wenn der zugrundeliegende Vektorraum endlichdimensional ist. Das muß in
diesem ganzen Abschnitt stillschweigend vorausgesetzt werden.
4.2.1. Grundlegend ist die folgende einfache
Bemerkung. Für F E End (V) und J... E K sindfolgende Bedingungen gleich-
wertig:
i) J... ist Eigenwert von F.
ii) det(F- J...idv) = 0.
Beweis. Für festes ).. E K ist die Existenz eines v i= 0 mit F(v) = J...v gleichbe-
deutend mit

F(v)- J...v = 0
~ (F- J...idv)(v) = 0 wegen der Linearität,
~ Ker (F - J...idv) i= {0} nach der Definition des Kerns,
~ Im (F - "J...idv) i= V nach der Dimensionsformel aus 2.2.4,
~ rang (F - J...idv) < dim V nach Definition des Ranges,
~ det(F - J...idv) = 0 nach 3.4.1. D

4.2.2. Durch die obige Bemerkung ist die Suche nach Eigenwerten zurückge-
führt auf die Suche nach Nullstellen der Abbildung
h: K--> K, J... r+ det(F- J...id v).
Diese nennen wir die charakteristische Funktion von F. Wir zeigen, daß sie
durch ein Polynom beschrieben wird.
Sei dazu A eine Basis von V und A = MA(F) . Ist t eine Unbestimmte, so
definieren wir

an2

Die Definition dieser Determinante ist etwas problematisch, weil in der Matrix
die Unbestimmte t vorkommt. Man hat mehrere Möglichkeiten, damit umzuge-
hen:
4.2 Das charakteristische Polynom 229

1) Man kann für t beliebige A E K einsetzen und damit rechnen. Für unendli-
ches K ist das nach Korollar 2 aus 1.3.8 keine Einschränkung.
2) Man kann die Determinante formal nach der Formel von LEIBNIZ aus 3.2.5
ausrechnen. Eine Rechtfertigung dafür wurde in 3.2.8 gegeben.
3) Man kann die Einträge von A - t · En als Elemente des Körpers K(t) der
rationalen Funktionen ansehen (vgl. Aufgabe 10 in 1.3).
Das Ergebnis der Rechnung ist
PA (t) = (a11 - t) · ... · (ann - t) + Q ,
wobei der erste Summand zur identischen Permutation gehört und Q die rest-
liche Summe über Sn'-- (id} ist. Da in einem Summanden von Q als Faktoren
höchstens n - 2 Diagonalkomponenten auftreten können, ist Q ein Polynom
vom Grad höchstens n - 2. Nun ist
(a11- t) · ... · (ann- t) = (-1)"tn + (-1)n - l(all + ... +ann)tn- I + Ql,
wobei Q1 ein Polynom vom Grad höchstens n -2 ist. Also ist PA(t) ein Polynom
vom Grad n mit Koeffizienten aus K, d.h. es gibt a 0 , . • . , an E K, so daß
PA(t) = antn + an-Itn - I + ... + a1t + ao.
Dabei ist
( -1)n'
( - l)n- I(a 11 + ... +ann) und
a0 detA.
Man nennt (a 11 + ... +ann) auch die Spur von A. Die Koeffizienten a 1, . . . , an-z
sind nicht so leicht aufzuschreiben, sie haben auch keine speziellen Namen.
Diese Überlegung zeigt, daß PA(t) ein Element des Polynomrings K[t] ist
(siehe 1.3.6). Man nennt
PA(t) = det(A- t · E n) E K[t]
das charakteristische Polynom der (n x n)-Matrix A.
Setzt man für die Unbekannte t ein A E K ein, so erhält man eine Abbildung
PA: K __,.. K' A ~ PA(A) .
Nun zurück zu F . Für jedes A E K ist
MA(F - A · idv) = A- A · E n.
Also ist
det(F - A · idv) = det(A - A · En) = PA(A),
d.h. die charakteristische Funktion von F ist beschrieben durch das charakteris-
tische Polynom von A.
230 4 Eigenwerte

Ist nunBeineweitere Basis von V, so ist B := M 8 (F) zu A ähnlich.


Lemma. Ähnliche Matrizen haben das gleiche charakteristische Polynom.
Beweis. Sei B = S A s- 1 mit S E GL (n; K). Eine formale Rechnung mit der
Unbestimmten t (d.h. genauereine Rechnung im Ring M(n x n; K[t]) , vgl. 3.2.8)
ergibt
S · t · E" · s- 1 = t · E" .
Also ist
B- t · E" = SAS- 1 - S · t · E" · s- 1 = S(A- t · E")S- 1 •
Anwendung der Determinante ergibt
det(B- t · E") = det S · det(A- t · E") · (det S)- 1 = det(A- t · E")
und somit P8 (t) = PA(t). 0

4.2.3. Damit ist gezeigt, daß das charakteristische Polynom der darstellenden
Matrix nicht von der Wahl der Basis abhängt. Also ist folgende Definition sinn-
voll:
SeiFein Endamorphismus und A eine Basis von V. Ist A = MA(F), so nennen
w1r
PF(t) := PA(t)
das charakteristische Polynom von F.
Insgesamt haben wir folgendes bewiesen:
Satz. Sei V ein K- Vektorraum der Dimension n < oo und F ein Endamorphis-
mus von V. Dann hat das charakteristische Polynom PF(t) E K[t] diefolgenden
Eigenschaften:
1) deg PF = n.
2) PF beschreibt die Abbildung K -c> K,).. ~ det(F- )..idv ).
3) Die Nullstellen von PF sind die Eigenwerte von F.
4) Ist A eine Matrix, die F darstellt, so ist PF(t) = det(A - t · E"). 0

Damit ist das geometrische Problem, die Eigenwerte eines Endamorphismus zu


finden, auf das algebraische Problem der Bestimmung der Nullstellen eines Po-
lynoms zurückgeführt.
4.2.4. Hat man einen Eigenwert gefunden, so ist die Bestimmung des Eigenrau-
mes ganz einfach. Wir können uns dabei auf den Fall V = K" beschränken. Aus
4.1.4 folgt sofort die
4.2 Das charakteristische Polynom 231

Bemerkung. Ist ein Endamorphismus A: K" --+ K" durch die Matrix
A E M(n x n; K) gegeben, so ist der Eigenraum Eig (A; A.) für jedes A. E K
der Lösungsraum des homogenen linearen Gleichungssystems
(A- A.En)x = 0 . D

Nach der vielen Theorie ist es höchste Zeit für einige


Beispiele. a) Ist

A = ( cosa - sina )
sma cos a
die Matrix einer Drehung im IR 2 (vgl. 2.1.1), so ist
PA(t) = t 2 - 2t COSO! + 1.
Dieses quadratische Polynom hat nach 1.3.9 genau dann eine reelle Wurzel,
wenn
4 cos 2 a - 4 ::: 0 , d.h. cos 2 a =1
gilt. Das ist nur für a = 0 und a = rr der Fall. Diese beiden Drehungen sind
trivialerweise diagonalisierbar, alle anderen Drehungen besitzen keine Eigenvek-
toren. Damit ist noch einmal durch die allgemeine Theorie bestätigt, was wir in
4.1.1 anschaulich gesehen hatten.
b) Für eine Spiegelung

A =( :~:= -s~::a )
ist PA (t) = t 2 - 1 = (t + 1)(t - 1). Also ist A nach 4.1. 3 diagonalisierbar, was
wir in 4.1.1 schon direkt bewiesen hatten.
c) Für

A = ( -1 6)
-1 4
ist PA(t) = t 2 -3t+2 = (t-1)(t-2). Setzen wir A 1 = A- E 2 , A 2 = A-2E2 ,
so haben wir die linearen Gleichungssysteme

A1 • x =0 und A2 • x =0 mit Lösungen 3


( 1) und
2
( 1) ,

das sind also Eigenvektoren zu den Eigenwerten 1 und 2. Zur Kontrolle berechnet
232 4 Eigenwerte

man

s. A. s- 1 = ( 1 -2 ) ( -1 6 ) ( 3 2 ) = ( 1 0 ) .
-1 3 -1 4 I 1 0 2

d) Ist

~3
nI ·I=~
-1 -t -I 1
A ( - 2 so ist PA= -3 -2- t 3
-2 -2 -2 -2 3-t

-t ·I -2-1
-2
3
3- t + 3 3-t 1- ·I 2
-1
-2- I 3

- 1(1 2 - 1) + 3(1- 1)- 2(t- I)= -t 3 + 12 + t - 1

-(t- 1) 2 (1 + 1).
Darauf kommen wir in 4.3.4 zurück.
Es darf nicht verschwiegen werden, daß die Beispiele c) und d) sehr künstlich
sind, weil man die Nullstellen der charakteristischen Polynome mehr oder weni-
ger schnell erkennen kann. Ist das nicht der Fall, so muß man die Methoden der
Numerik verwenden, um die Nullstellen näherungsweise zu berechnen. Wie man
ebenfalls in der Numerik lernt, gibt es Verfahren, Eigenwerte und Eigenvektoren
in einem Aufwasch gemeinsam zu approximieren. Das hier angegebene Verfah-
ren, zuerst die Eigenwerte und anschließend die Eigenvektoren zu suchen, hilft
nur für die Theorie und in besonderen Glücksfällen, die bei den hier behandelten
Beispielen inszeniert wurden. Dennoch haben derartige Beispiele einen Sinn:
man kann erst einmal ohne Ablenkung durch größeren Rechenaufwand einen
Lösungsweg deutlich erkennen.

Aufgaben zu 4.2

1. Berechnen Sie das charakteristische Polynom, die Eigenwerte und Eigenvektoren von

( ~ ~~ ) und ( -~ ~ -~ )
2 -2 1 -4 0 6

2. Beweisen Sie: Ist A E M(2 x 2; IR) symmetrisch, so hat A reelle Eigenwerte.


4.2 Das charakteristische Polynom 233

3. Sei V ein endlichdimensionaler Vektorraum und F E End(V). Zeigen Sie, dass


PF(O) 1 0 genau dann, wennFein Isomorphismus ist.

4. Zeigen Sie, dass die Matrix


0 0 -ao
0 0 -O't

A= 0
0
0 -an - 1

das charakteristische Polynom PA(t) = (-l)"(t" +a11 _ 1tn - l + ... +a 1t +ao) besitzt.
5. Sei A E M(n x n; K) und <I>: M(n x n; K) --+ M(n x n ; K) der Endomorphismus,
der durch die Linksmultiplikation mit A gegeben ist, das heißt <1>(8) = AB. Zeigen Sie,
dass für die charakteristischen Polynome von A und <I> gilt: P<t> = (PA )11 •
234 4 Eigenwerte

4.3 Diagonalisierung
4.3.1. Zunächst halten wir als Ergebnis der vorhergehenden Abschnitte folgen-
des fest:
Satz. SeiFein Endamorphismus von V mit n = dimV. Dann gilt:

1) ist F diagonalisierbar, so ist PF = ±(t- A1) • ••• • (t- A"), d.h. das charak-
teristische Polynom zerfällt in Linearfaktoren.

2) Ist PF = ±(t- A1) • •• • • (t- A") mit paarweise verschiedenen A1 , ••• , A",
so ist F diagonalisierbar.

Beweis. 1) ist klar, weil man das charakteristische Polynom mit Hilfe einer Basis
aus Eigenvektoren berechnen kann, und

0
) = (A, - t) ..... (A" - t).
An- t

2) folgt aus 4.1.3 und 4.2.3. 0

4.3.2. Nach 4.3.1 bleibt also zu klären, wann F im Falle mehrfacher Nullstel-
len des charakteristischen Polynoms noch diagonalisierbar ist. Zu diesem Zweck
fassen wir in PF gleiche Linearfaktoren zusammen, d.h. wir schreiben

wobei die A1 , ••• , Ak paarweise verschieden sind, 1 :::: ri :::: n für i = 1, ... , k
und r 1 + ... + '"k = n. Der Exponent ri ist die Vielfachheit der Nullstelle Ai von
PF, in der Notation von 1.3.8 ist ri = J.t(PF; Ai). Andererseits gehört zu Ai der
Eigenraum Eig (F; Ai).
Lemma. Ist A Eigenwert von F, so gilt 1 :::: dimEig (F; A) :::: J.t(PF; A).

Beweis. Sei v 1, ••• , Vs eine Basis von Eig (F; A). Die Ungleichung 1 :::: s ist
klar, da A Eigenwert ist. Zum Beweis der zweiten Ungleichung ergänzen wir die
Basis von Eig (F; A) zu einer Basis
4.3 Diagonalisierung 235

von V. Dann ist


0

*
0

0 A'

also PF = (t- A)' ·PA' nach D8 und D9 in 3.1.3, und damit


dimEig (F; A) = s:::; J.L(PF; A). 0

4.3.3. Nun können wir zeigen, daß die obigen Ungleichungen ein leicht nach-
prüfbares Kriterium für die Diagonalisierbarkeit ergeben. Um den Beweis kürzer
und die Aussage klarer zu machen, benutzen wir die in 1.6.4 bereitgestellten Tat-
sachen über direkte Summen.
Theorem. Sei V ein endlichdimensionaler K- Vektorraum und F E End (V).
Dann sind die folgenden Bedingungen äquivalent:

i) Fist diagonalisierbar.

ii) a) Das charakteristische Polynom PF zerfällt in Linearfaktoren und


b) dimEig (F; A) = J.L(PF ; A)für alle Eigenwerte A von F.

iii) Sind A 1 , ••• , Ak die paarweise verschiedenen Eigenwerte von F, so ist


V = Eig (F; A1) EB .. . EB Eig (F; Ak).

Beweis. i) => ii). Ist F diagonalisierbar, so ordnen wir die Basis von V aus Ei-
genvektoren entsprechend den verschiedenen Eigenwerten A1, .•• , Ab d.h. für
i = I, ... , k betrachten wir eine Basis
(v~il, ... ,v;;l) von Eig(F;A;) .
Setzen wirr; := J.L(PF, A;), so gilt
s1 + ... + Sk = n, r1 + ... + rk = n und S; :::; r; .
Das geht nur, wenn s; = r; für alle i, das ist Bedingung ii) b).
ii) => iii). Sei W := Eig (F; ). 1 ) + ... + Eig (F ; f.k). Nach Lemma 4.1.3 und der
Definition der direkten Summe in 1.6.4 gilt
W = Eig (F; A1) EB ... EB Eig (F; f.k).
236 4 Eigenwerte

Aus ii) und Bedingung iii) in Satz 1.6.4 folgt dim W = r 1 + ... + rk = n, also ist
W=V .
. des 1. E {I , . .. , k} se1. B; = ( v1Ul , .. . , vs,Ul) eme
..m.) => 1.) . F..ur Je . . von
B as1s
Eig (F; J..;). Nach 1.6.4 ist
B := (v~ 1 l, ... , v; ll, ... , v~kl,
1 ... , v;;))

l
eine Basis von V, und da sie nach Definition aus Eigenvektoren besteht, ist F
diagonalisierbar. Insbesondere ist s ; = r; für alle i und
AJ
,,-mru

l
AJ 0
Mß(F) =
0 Ak

,,.mru
Ak 0

4.3.4. Mit Hilfe der gerade abgeschlossenen theoretischen Überlegungen kann


man ein praktisches Verfahren für die Diagonalisierung eines Endamorphismus
F von einem endlichdimensionalen K- Vektorraum V angeben:
1. Schritt: Mit Hilfe einer Basis A von V und der Matrix A = MA (F) berechne
man das charakteristische Polynom. Wenn man eine Zerlegung in Linearfakto-
ren angeben kann, ist das erste und für die Rechnung entscheidende Hindernis
überwunden.
2. Schritt: Für jeden Eigenwert ). von F bestimme man durch Lösung eines
linearen Gleichungssystems eine Basis von Eig (F; J..). Damit kann man kontrol-
lieren, ob
dimEig (F; J..) = J.L(PF; J..)
gilt. Genau dann, wenn dies für alle ). der Fall ist, ist F diagonalisierbar. Ent-
sprechend 4.3.3 bilden dann die Basen der Eigenräume zusammen eine Basis B
von V .
Beispiel. Sei F: IR 3 --r IR 3 gegeben durch
F(x, y, z) := (-y + z, -3x- 2y + 3z, -2x- 2y + 3z) .
4.3 Diagonalisierung 237

Bezeichnet I( die kanonische Basis von JR3 , so ist

A := MJC(F) = ( -~ =~ 1
3
3
)

-2 -2
und PF = -1 3 + t 2 + t - 1 = -(t- 1) 2 (! + 1). Also sind A. 1 = 1 und A. 2 = -1
die beiden einzigen Eigenwerte von F. Eig (F; 1) ist der Lösungsraum von

(=~ _;~ -2 -2
1
3- 1
~ ) . ( :~
X3
) = ( ~)
0
'

umgeformt -x 1 - x 2 + x 3 = 0. Es ist also J.I..(PF; 1) = 2 = dim Eig (F; 1), und


((1, 0, 1), (0, 1, 1)) ist eine Basis von Eig (F; 1).
Ebenso ist Eig ( F; -1) der Lösungsraum von

( -~ ~ +~
-2
_;
-2
1
3 1
) . ( :~
X3
) = ( ~
0
)

umgeformt
x, - Xz + x3 = 0, -4x2 + 6x3 = 0.
Es ist also J.I..(PF; -1) = 1 = dimEig (F; -1), und (1, 3, 2) ist eine Basis von
Eig (F; -1). Somit ist
ß = ((1, 0, 1), (0, 1, 1), (1, 3, 2))
eine Basis von JR bestehend aus Eigenvektoren von F . Für die Transformati-
3,

onsmatrix S = Tff' gilt

s-' = ( ~ ~
I
0

2
) also s= ~ -~ =~ ~ )
(
1 1 -1
Für

D := ( ~ 0 ~)
0 0 - 1
muß somit D = SAS - 1 gelten, was man zur Kontrolle der Rechnung benutzen
kann.
238 4 Eigenwerte

4.3.5. Ist eine Masse an einer Feder aufgehängt und zur Zeit t = 0 in senkrech-
ter Richtung in die Position y(O) = a mit Geschwindigkeit y(O) = ß ausge-
lenkt, so ist die weitere Bewegung bestimmt durch die Differentialgleichung der
gedämpften Schwingung
y + 2Jly + w 2 y = 0, y(O) = a , y(O) = ß.

Bild 4.4

Dabei sind w , Jl E JR+ Konstanten, w ist durch die Feder und Jl durch die Rei-
bung bestimmt. Wie üblich macht man daraus mit y 0 = y und y 1 = y das lineare
System erster Ordnung
Yo y, , Yo(O) = a ,
y, -W 2 Yo- 2JlYI , Y1 (0) = ß ·
Das führt auf die Matrix mit von t unabhängigen Einträgen

A = ( _: 2 -~Jl )

Einer Diagonalisierung von A entspricht eine Entkoppelung des Systems (*),


und wenn A zu einer oberen Dreiecksmatrix gemacht werden kann, ist das Sy-
stem von unten nach oben explizit lösbar (vgl. [Fo2] , §14). Daher betrachten wir
das charakteristische Polynom
PA(A)=).. 2 +2JI}..+w 2 , also A=-JI±JJI2 -w2 •

Entscheidend für die Art der Bewegung ist die Diskriminante Jl 2 - w2 . Es sind
drei Fälle möglich.
1) 0 ~ Jl < w, d.h. Jl 2 - w2 < 0, (schwache Dämpfung)
4.3 Diagonalisierung 239

2) J.i = OJ, d.h. J.i 2 - w 2 = 0, (aperiodischer Grenzfall)


3) J.i > w, d.h. j.i 2 - w 2 > 0 (starke Dämpfung)
Im Fall 3) gibt es zwei verschiedene negative Eigenwerte
AJ = -JL + .jJ.i2- w2' A.z = -JL- .jJ.i2 - w2'
also ist A diagonalisierbar.
Im Fall2) ist A. = -JL =-wein 2-facher Eigenwert, die Matrix

A - A.E2 = ( w2 1 )
-0) -0)

hat den Rang 1, also ist dimEig (A; -w) = 1, und A ist nicht diagonalisierbar.
In 4.4 werden wir sehen, daß A trigonalisierbar ist.
Im Fall1) gibt es keine reellen Eigenwerte, dafür aber zwei verschiedene kom-
plexe. Also ist A komplex diagonalisierbar, man kann also zunächst komplexe
und daraus reelle Lösungen berechnen. Die explizite Durchführung der Lösung
von(*) überlassen wir dem Leser (Aufgabe 4 und Aufgabe 4 zu 4.4).
4.3.6. Gelegentlich tritt das Problem auf, daß man zwei oder mehrere Enda-
morphismen mit einer gemeinsamen Basis diagonalisieren will (man nennt das
simultane Diagonalisierung). Daß dies nicht immer gehen kann, sieht man am
schnellsten mit Matrizen: Gibt es zu A , B E M(n x n; K) ein S E GL (n ; K)
mit
SAs- I = D und sss-I = fj ,
wobei D und iJ Diagonalmatrizen bezeichnen, so folgt aus D · iJ = iJ · D, daß
s. A = s- 1 bs . s- 1 DS = s- 1 DS. s- 1 bs = A. s.
Erfreulicherweise ist die Vertauschbarkeit auch hinreichend. Es gilt also:
Satz. Zwei diagonalisierbare Endomorphismen F, G E End K(V) sind genau dann
simultan diagonalisierbar, wenn F o G = G o F .
Beweis. Nach Voraussetzung hat man die Zerlegungen in Eigenräume
= Eig (F ; A.J) EB .. . EB Eig (F; A.k)
V
= Eig (G; !LI) EB ... EB Eig (G ; J.il ),
wobei A.; bzw. J.i J die Eigenwerte von F bzw. G bezeichnen. Wir halten ein A.
fest und betrachten
W := Eig (F; A.).
Ist w E W, so ist F(G(w)) = G(F(w)) = G(A.w) = A.G(w), also ist W auch
G-invariant (vgl. 4.4.1). Wir definieren
W1 :=WnEig(G;JL1) fürj=l, ... ,/,
240 4 Eigenwerte

und es genügt zu zeigen, daß W = W 1 EEJ ... EEJ W1, da dies dann für alle Eigenwerte
von F gilt. Wegen Lemma 4.1.3 ist nur zu zeigen, daß
W= W 1 + ... +W, .
Zu w E W gibt es w 1 E Eig (G; /AJ), so daß w = w 1 + ... + w 1• Daraus folgt
F(w) = F(w!) + ... + F(w1)
= A.w = A.w 1 + ... + A.w1 ,
daher ist wegen der Eindeutigkeit in der direkten Summe
F(w 1) = A.w 1 , also w 1 E Wund somit w 1 E W1 . 0

Aufgaben zu 4.3

1. Beweisen Sie Teil 2) von Satz 4.3.1 mit Hilfe von Theorem 4.3.3.

(~ ~ ;;) c: ~ -:) (-: -: -:)


2. Sind die folgenden Matrizen diagonalisierbar?

(~: n
3. Für welche a, b E IR ist die Matrix

diagonalisierbar?
4. Wir betrachten das Differentialgleichungssystem mit Anfangswertbedingung
y= A · y, Yo(O) = a , Yl (0) = ß (*)
für die gedämpfte Schwingung (siehe 4.3.5), wobei

A = ( _: 2 -~~ ) ·

a) Im Fall ~ > w ist A (reell) diagonalisierbar. Bestimmen Sie eine Basis des Ii aus
Eigenvektoren von A und geben Sie eine Basis des Lösungsraums von y = A · y an
(vgl. Aufgabe 3 zu 4.1). Wie sieht die Lösung von(*) aus?
b) Im Fall~ < w ist A E M(2 x 2; IC) komplex diagonalisierbar. Bestimmen Sie die
Eigenwerte von A und geben Sie eine Basis des e
aus Eigenvektoren von A an. Ist
4.3 Diagonalisierung 241

>.. EI[ Eigenwert von A zum Eigenvektor v E C2 , so ist re e'' · v, im e'' · v eine Basis
des Lösungsraums von y = A · y ([Fo2], §13). Bestimmen Sie auch in diesem Fall
die Lösung von(*).

5. Diagonalisieren Sie die Matrizen

A ~ ~: I~ ~;) ~
( : B ( -: ; =i ;i)
aus M(4 x4; IR) simultan, d. h. bestimmen Sie eine Matrix SE GL(4; IR), so dass SAs- 1
und SBS- 1 Diagonalmatrizen sind.
6. Seien A , B E M(n x n ; K) mit AB = BA und alle Eigenwerte von A und B seien
einfach. Dann gilt: A und B haben die gleichen Eigenvektoren.
7. Zeigen Sie, dass es für >.. E K und natürliche Zahlen IJ., n mit I :s: iJ. :s: n stets eine
Matrix A E M(n x n ; K) gibt mit {I.( PA;)..)= Jl. und dim Eig(A; )..) = I.
8. Es sei K ein Körper mit char K # 2. Zeigen Sie, dass die Lösungen der Gleichung
A 2 = Ez in M(2 x 2; K) genau von derfolgenden Gestalt sind:

A = Ez, A = -Ez oder A = SDS- 1 mit D = ( I O ) und SE GL(2; K).


0 -1

9. Sei F ein diagonalisierbarer Endamorphismus eines endlichdimensionalen IR-Vektor-


raums, für den gilt: Sind v und w Eigenvektoren von F , so ist v + w ein Eigenvektor von
F oder v + w = 0. Zeigen Sie, dass es ein ).. E IR gibt mit F = ).. · id.
10. Seien A, B E M(3 x 3; IR) zwei Matrizen mit den charakteristischen Polynomen
PA (t) = -1 3 + 2t 2 - t und P8 (t) = -t 3 + 7r 2 - 9t + 3. Zeigen Sie, dass der Kern von
AB die Dimension I hat.
242 4 Eigenwerte

4.4 Trigonalisierung*
Wie wir in 4.3.3 gesehen hatten, gibt es zwei Bedingungen für die Diagonalisierbarkeit
eines Endomorphismus:
a) Das charakteristische Polynom muß in Linearfaktoren zerfallen, und
b) die Dimensionen der Eigenräume müssen gleich den Vielfachheilen der Eigen-
werte sein.
In diesem Abschnitt zeigen wir, daß ein Endomorphismus, der nur Bedingung a) erfüllt,
wenigstens durch eine obere Dreiecksmatrix beschrieben werden kann.
4.4.1. Um die geometrischen Eigenschaften komplizierter Endamorphismen
besser verstehen zu können, sind ein paar neue Begriffe nützlich.
Definition. Sei F: V ~ V ein Endamorphismus und W c V ein Untervektor-
raum. W heißt F-invariant, wenn F(W) C W.
Es gibt stets die trivialen, aber nutzlosen Beispiele W = {0} und W = V. Je
mehr weitere invariante Unterräume existieren, desto übersichtlicher ist ein En-
domorphismus. Ist etwa F diagonalisierbar und (v 1 , ••. , v") eine Basis aus Ei-
genvektoren, so ist
V = W1 EB . .. EB W" mit W; =K · V;

eine Zerlegung in eindimensionale invariante Unterräume. Im Falle mehrfacher


Eigenwerte (4.3.3) hat man eine weitere Zerlegung
V= Eig (F; AI) EB .. . EB Eig (F; Ak)
in invariante Unterräume der Dimensionen r 1, ... , r k.
Die Beziehung zwischen invarianten Unterräumen und charakteristischem Po-
lynom ist in einer Richtung ganz klar.
Bemerkung. Ist W C V ein F -invarianter Unterraum, so ist PF 1w ein Teiler von
PF.

Beweis. Wir ergänzen eine Basis ß' von W zu einer Basis ß von V. Dann ist

MB(F ) =( MB·(FIW) A* ) ,
0
also PF = PFIII' ·PA nach D9 in 3.1.3. 0
4.4 Trigonalisierung* 243

Beispiel. In IQl[t] hat das Polynom t"- 2 für n 2: 2 keinen Teiler kleineren Grades
(Aufgabe 1). Also hat der durch

beschriebene Endamorphismus des IQl" nur die trivialen invarianten Unterräume.

4.4.2. Sei A E M(n x n; K) eine obere Dreiecksmatrix, d.h. aiJ = 0 für i > j.
Unter dem Endamorphismus Ades K" sind die Untervektorräume
W, := span (e 1 , ••• , e,)
für I ::S r ::S n invariant. Das motiviert die
Definition. Unter einer Fahne (V,) in einem n -dimensionalen Vektorraum V ver-
steht man eine Kette
{0} = Vo C V, C . .. C Vn =V
von Untervektorräumen mit dim V, = r. Ist F E End (V), so heißt die Fahne
F-invariant, wenn
F(V,) c V, für aller E {0, .. . , n).

Man kann sich V0 als Befestigungspunkt, V 1 als Stange und V2 als Tuch der
Fahne vorstellen.

Bild4.5
Mit Hilfe jeder Basis eines Vektorraumes kann man viele Fahnen konstruie-
ren, aber aus der Existenz einer F -invarianten Fahne folgt insbesondere wegen
F ( V1) C V 1, daß es einen Eigenvektor geben muß.
244 4 Eigenwerte

Bemerkung. Für FE End (V) sindfolgende Bedingungen gleichwertig:


i) Es gibt eine F -invariante Fahne in V.
ii) Es gibt eine Basis ß von V, so daß Ms(F) obere Dreiecksmatrix ist.

Ist das der Fall, so heißt F trigonalisierbar.


Beweis. Die Beziehung zwischen Fahne (V,) und Basis ß (VI, ... , V 11 ) ist
geregelt durch
V, = span (v 1 , •.• , v,.) für aller . 0

Übersetzt in den Matrizenkalkül ergibt das die


Definition. A E M(n x n ; K) heißt trigonalisierbar, wenn es einS E GL (n; K)
gibt, so daß SAS- 1 obere Dreiecksmatrix ist.

4.4.3. Ergebnis dieses Abschnittes ist der


Trigonalisierungssatz. Für einen Endamorphismus F eines n-dimensionalen
K- Vektorraumes sind folgende Bedingungen äquivalent:

i) Fist trigonalisierbar.
ii) Das charakteristische Polynom PF zerfällt in Linearfaktoren, d.h.
PF = ±(t- AI) · ... · (t- A11 ) mit AI, . . . , A11 E K.

Mit Hilfe des Fundamentalsatzes der Algebra (1.3.9) folgt das


Korollar. Jeder Endamorphismus eines endlich-dimensionalen komplexen Vek-
torraumes ist trigonalisierbar. o
Eine weitere wichtige Anwendung betrifft die Lösung linearer Systeme von Dif-
ferentialgleichungen ([Fo2], §14).
Beweis des Satzes. i) =} ii) ist klar, denn ist A = (aiJ) = M 6 (F) eine obere
Dreiecksmatrix, so folgt aus D8 in 3.1.3, daß
PF = (a11- t) · ... · (ann- t).
ii) => i) wird durch Induktion übern = dim V bewiesen. Für n = 0, 1 ist nichts
zu zeigen. Ist n :;:: 2, so wähle man einen Eigenvektor v 1 zu A1 und ergänze ihn
zu einer Basis ß = (v 1 , w 2 , • • • , W 11 ) von V . Dann ist
V = V1 Eil W mit V1 := span (v 1) und W := span (w 2 , ... , W 11 ) ,
4.4 Trigonalisierung* 245

und

~I ···
[jl2
Ms(F) = [ ; B
GJn

0
V1 ist F -invariant, W im allgemeinen nicht; das Hindernis dagegen sind die Ein-
träge a 12 , •• • , a 1" . Der Ausweg ist folgender: Durch
H(w 1) = aiJvl und G(w1) = a21w2 + ... + G11JW 11
sind lineare Abbildungen H : W ~ V1 und G : W ~ W erklärt mit
F(w) = H(w) + G(w) für alle w E W .

F(W)

Bild4.6
Für die charakteristischen Polynome gilt
PF = (A.J - t) · PG , also PG = (A.2 - t) · .. . · (A.n - t) .
Die Induktionsvoraussetzung angewandt auf W ergibt eine G-invariante Fahne
{0} = Wo C . . . C Wn - l = W ,
246 4 Eigenwerte

und wir behaupten, daß durch V, := V 1 + W,_ 1 eine F -invariante Fahne gegeben
ist. Das folgt aus
F(J-LVt + w) = AtJ-LVt + H(w) + G(w)
wegen H(w) E VI und G(w) E w,_[ für w E Wr- l· 0

4.4.4. Obwohl obiger Satz sehr nützlich ist, muß man doch bemerken, daß die
Beweismethode nicht genügend sorgfältig auf die Geometrie der Abbildung
achtet.
Beispiel. Ist F E End (ll~?) gegeben durch die Diagonalmatrix

D=(~ ~)·
so kann man mit v 1 = e 1 und :A 1 = I beginnen. Die Ergänzung durch w 2 ist
beliebig: wählt man etwa w 2 = (-I , 1), so wird

A = MB(F) = ( ~ ~) ,
und damit ist die schöne Diagonalmatrix versaut. Auch vom algebraischen
Standpunkt hat A eine unangenehme Eigenschaft. Es ist

A = D +N mit N = ( ~ ~) .

Dabei ist N nilpotent (vgl. 4.5 .7) mit N 2 = 0, aber D · N =1= N · D.

In 4.6 wird gezeigt, wie man den nilpotenten Anteil N auf eine der Abbildung
angepaßte Normalform bringen kann.
4.4.5. Wir geben nun ein Rechenverfahren zur Trigonalisierung eines Endamor-
phismus an. Es genügt dazu, eine Matrix A E M(n x n; K) zu betrachten, für
die
PA=±(t-At)· ... ·(t-An) mit A[, . . . ,AnEK.
Gesucht ist eine Matrix SE GL (n; K), so daß
D := S · A · s - t
eine obere Dreiecksmatrix ist. Der Beweis des Trigonalisierungssatzes 4.4.3 er-
gibt das folgende Iterationsverfahren.
4.4 Trigonalisierung* 247

1. Schritt: Wir betrachten W1 = K" mit der Basis ß 1 = Kund dem Endomor-
phismus A 1 = A . Zu )q berechnet man einen Eigenvektor v 1 E K". Nach dem
Austauschlemma 1.5.4 bestimmt man ein j 1 E {I, . . . , n}, so daß
ß 2 := (v) , e), . .. , -ej,, ... , en )
wieder eine Basis von K" ist. Das Zeichen ~ bedeutet dabei, daß e1, ausgelassen
wird. Wir betrachten die Transformationsmatrix
S I- 1 ·-TB'
· - B,
mit der Basis ß 2 als Spalten. Dann ist

2. Schritt: Wir betrachten W2 mit der Basis B; = ( e 1, • • • , e)t , ... , e") und dem
Endamorphismus A;.
Es ist
PA; = ±(t - A2) · . .. · (t - An ).
Zu f-2 berechnet man einen Eigenvektor v2 E W2, und man wählt ein h i= j 1, so
daß
B; == (vz, e, , .. . , eJI' . .. , eh, .. . , e" )
eine Basis von W2 , also
ß 3 =(v, , v2 , e1, ... ,"'ij1 , ••• , e h,· ·· , en)
eine Basis von K" ist. Mit der Transformationsmatrix S11 = T:,' erhält man
AJ
* *
0 f- 2
* *
A3 = s2. A. s :; 1 = 0
A'3
0 0
Bei der Berechnung von S2 kann man benutzen, daß

TßB'1 -- T:B'
ß1
. T:B'
ß2
und B.~- r~m
TB2 - ·· :
B'
TB,'
2
0

0
248 4 Eigenwerte

Spätestens im (n- I )-ten Schritt erhält man eine obere Dreiecksmatrix A", denn
A;, ist eine (1 x 1)-Matrix. Also ist
D := A" = S" _I · A · S,~~~
eine obere Dreiecksmatrix.
Vorsicht! Die im ersten Schritt berechnete erste Zeile von A 2 kann sich in jedem
der folgenden Schritte wieder ändern, analog für die anderen Zeilen. Das ist nicht
angenehm.
Beispiel. Sei K = IR, n = 3 und

Dann ist PA = - ( t - 2) 3, also ).. 1 = ;..2 = )..3 = 2. Wegen rang (A- 2E3) = 2
ist
dimEig(A; 2) = 1 < 3 = J.I.(PA; 2) ,
also ist A nicht diagonalisierbar. Die Iteration läuft wie folgt:
1. Schritt: v1 = (I, -I, 1), } I = 1, ß2 = (v 1, e2, e3 ),

S; 1 = ( -~ ~ ~)
I 0 1
S1 = ( ~ ~)
O
-1 0 1

A2 = St · A · S; 1 = ( 02142
4 3)
01-2 0

2. Schritt: W2 = span (e2, e3), v2 = e2 - e3, h = 2,

Also ist S = S2.


4.4 Trigonalisierung* 249

Aufgaben zu 4.4

1. Zeigen Sie, dass das Polynom t'' - 2 E IQ[t] für n ;::: 2 keinen Teiler P E IQ[t] mit
I :S deg P :S n - I besitzt.
2. Trigonalisieren Sie mit dem Verfahren aus 4.4.5 die Matrizen

3. Zeigen Sie mit Induktion nach n = dim V: Ist V ein endlichdimensionaler K- Vektorraum
und F: V -+ V ein nilpotenter Endomorphismus, so existiert eine Basis ß von V mit

und es gilt PF (I) = ±t".


4. (Fortsetzung von Aufgabe 4 in 4.3.) Zeigen Sie, dass die Matrix

A = ( _: 2 -~~)
im Fall ~ = w trigonalisierbar ist, und bestimmen Sie eine Matrix S E GL(2; IR), so
dass 8 = SAs- I obere Dreiecksmatrix ist. Das System y = A · y geht somit durch die
Substitution z = Sy über in z = 8 · z, und es reicht, das (einfachere) System z = 8 · z
zu lösen. Bestimmen Sie auf diese Weise eine Basis des Lösungsraums von y = A · y
und lösen (*)in 4.3.5 auch im aperiodischen Grenzfall.
250 4 Eigenwerte

4.5 Potenzen eines Endomorphismus*


Zurgenauen Beschreibung eines Endamorphismus - insbesondere bei der Suche nach
invarianten Unterräumen - muß man systematisch das Ergebnis der wiederholten An-
wendung der Abbildung betrachten. Das legt die Weiterentwicklung der algebraischen
Hilfsmittel nahe. Das wichtigste Ergebnis ist der Satz von CAYLEY-HAMILTON.

4.5.1. Die Eigenwertbedingung F( v) = )..v kann man auch komplizierter aus-


drücken: in dem linearen Polynom
L(t) = t - )..
setzt man F statt t und id v statt 1, das ergibt
L(F) := F- )..idv ,
und es ist Eig (F; )..) = Ker L(F). Was hat man damit gewonnen? Ist
P(t) = a,t' + ... + a 1t + a 0 E K[t]
ein beliebiges Polynom, so kann man analog
P(F) := a , F' + ... + a 1 F + etoidv E End (V)
setzen. Ist 0 # v E Ker P (F ), so gilt
a,F'(v) + ... +a 1 F(v) +a0 v = 0,
d.h. die Vektoren v, F(v), . .. , F'(v) sind linear abhängig, wenn P # 0. Ist
a, # 0, so folgt, daß
W = span ( v, F( v ) , . . . , F r - ! ( v ))

ein F -invarianter Unterraum von V mit 1 ::0 dim W ::0 r ist. Ist P (F) = 0, so
kann man diese Konstruktion mitjedem beliebigen v starten.
Beispiel. Sei F diagonalisierbar mit den paarweise verschiedenen Eigenwerten
Ak und
).. 1, • • • ,

Q(t) = (I - )..J) · ... · (t - Ad.


Jedes v E V hat nach 4.3.3 eine Darstellung v = v 1 + ... + vk mit V; E
Eig (F: A;). Benutzt man, daß für)..# 11- und 0 # v E Eig (F: A)
0 # (F- 11-idv )(v) = ()..- J.i)V E Eig (F; )..) ,
so folgt sofort Q(F) = 0 und Q'(F) # 0 für jeden echten Teiler Q' von Q .
Weiter folgt Pr(F) = 0, wenn
Pr = (t - ).. 1)'" ' • •• • • (t - )..d'"'
das charakteristische Polynom bezeichnet.
4.5 Potenzen eines Endomorphismus* 251

4.5.2. Das Einsetzen eines Endamorphismus in Polynome ist beschrieben durch


die Abbildung
<h: K[t] --+ End (V), P(t) r--T P(F).
Dies ist ein Homomorphismus von Ringen und auch von K- Vektorräumen. Das
Bild
K[F] = {P(F): P(t) E K[t]} c End V
ist ein kommutativer Unterring des (nicht kommutativen) Ringes End V , und der
Kern
Ir:= {P(t ) E K[t]: P(F) = 0} C K[t]
heißt Ideal von F. Wegen dimK[t] = oo und dirnEnd (V) < oo gibt es in IF
ein normiertes Polynom vom Grad _:s n 2 (vgl. Aufgabe 3). Ist F diagonalisierbar,
so hatten wir in 4.5.1 sogar ein Polynom Q E IF vom Grad k _:s n angegeben.
4.5.3. Wir zeigen nun, daß sich die Schranke der Grade in IF für alle Endomor-
phismen F auf n = dim V verbessern läßt. Es gilt sogar noch mehr:
Satz von CAYLEY-HAMILTON. Sei V ein endlichdimensionaler K- Vektor-
raum, F E End (V) und PF E K[t] sein charakteristisches Polynom. Dann
ist
PF(F) = 0 E End (V).
Insbesondere gilt für jede Matrix A E M(n x n; K)
PA(A) = 0 E M(n x n; K).
Vorsicht! Es ist entscheidend, daß die Null ein Endamorphismus oder eine Ma-
trix, nicht die Null in K ist. Daher ist der naheliegende "Beweis"
PA(A) = det(A - A · E") = det(A - A) = det(O) = 0
nicht richtig. Am Ende steht die 0 E K, der Fehler steht schon in der ersten
Gleichung, weil ganz naiv bei einem Eintrag der Determinante t = A gesetzt
wurde, dann aber mit Einträgen aus K weitergerechnet wird.
Mit einem Trick von SERGE LANG [L] kann man diesen falschen Beweis zu
einem richtigen aufmöbeln. Das Problem dabei ist folgendes: die Einträge einer
Determinante müssen aus einem kommutativen Ring stammen (3.2.8), die Ringe
quadratischer Matrizen sind i.a. nicht kommutativ. Der Ausweg ist, daß man sich
auf den kommutativen Unterring (4.5.2)
K[A] C M(n x n; K)
beschränken kann. Nach diesen Vorbemerkungen zum
252 4 Eigenwerte

Beweis. Man kann den Endamorphismus F von V mit Hilfe einer Basis durch
eine Matrix A E M(n x n; K) beschreiben. Also genügt es, den Satz dafür zu
beweisen.
Für n = 1 ist die Aussage trivial, für n = 2 kann man sie noch durch direkte
Rechnung mit Matrizen beweisen. Im allgemeinen Fall benutzen wir, wie oben
erläutert, Matrizen mit Einträgen aus den kommutativen Ringen K[t] und K [A].
Zunächst sei
B(t) := '(A- tE11 ) E M(n X n ; K[t]).
Die Einträge von B (t) außerhalb der Diagonalen sind Elemente von K, und in
der Diagonalen stehen lineare Polynome, es ist
detß(t) = PA(t) E K[t] .

Nun wird die Unbestimmte t durch die Matrix A und jeder Eintrag a,-1 durch
a,1 En ersetzt. Das ergibt
GttEn- A Gz t En ··· Gn[En )
B(A) = ( : : : E M(n x n; K[A]).
GJnEn a2nEn ... GnnEn- A
Diese Matrix kann mit einer Spalte multipliziert werden, deren Einträge Spalten-
vektoren des K" sind. Insbesondere ist

B(A) ( el)
. -
(all et-Ae t+Gztez + .. . +anlen)
. . . -
(0)
. (**)
~~~ - a1:,e1 + Gzne2 + .:.. + annen - A:e" - ~ .

Nun sei s=(t) E M(n x n ; K[t]) die in 3.3.1 erklärte, zu B(t) komplementäre
Matrix. Ihre Einträge sind entsprechend der Definition Polynome vom Grad
:::: n- 1, und es gilt wegen(*)
B n(t) · B(t) = PA(t) · En.
Setzt man auf beiden Seiten A für t ein, so folgt mit Hilfe von(**)

Da PA(A) auf einer Basis die Werte 0 E K" hat, ist PA (A) = 0 als Matrix. 0
Dieser Beweis ist extrem kurz und elegant, aber für einen Geometer
mag er wie algebraischer Hokuspokus aussehen. Daher noch ein anderer
4.5 Potenzen eines Endomorphismus* 253

Beweis, bei dem man vielleicht besser ein Gefühl dafür bekommen kann,
warum die Kombination PF(F) von Potenzen von Falles in V zu Null macht.
Zunächst betrachten wir den Spezialfall K = C. Nach 4.4.3 ist F trigonali-
sierbar, d.h. es gibt eine F-invariante Fahne
{0} = V0 c V 1 C .. . c V" = V .
Ist ß = (v 1 , ••• , vn) eine Basis von V mit V; = span (v 1, •• • , v;) für
i = 1, . .. , n, so ist

AJ *)
Ms(F) =(
0 An '

wobei A1 , IC die Eigenwerte von F sind. Da


• •. , A" E
PF = (Al - t) ..... (A" - t)'
kann man PF(F) schrittweise aufbauen: Ist
G; := (A,idv- F) o (Azidv - F) o ... o (A;idv - F) E End (V)
für i = I , .. . , n, so ist G" = PF(F) . Es genügt also durch Induktion zu zeigen,
daß
G;(V;)={O} füri=1, ... , n.
Der Fall i = 1 ist klar, da F(v 1) = A1v 1• Sei nun i ~ 2 und v E V;. Dann gibt es
ein w E V;_ 1 und ein J.L E IC, so daß v = w + J.LV; . Da
A;W- F(w) E V; _ 1 und A; V;- F(v;) E V; _ 1 ,
ist nach Induktionsvoraussetzung
G;(w) = (G; _ 1 o (A;idv- F)) (w) =G; _ 1 (A;W- F(w)) = 0
und
G;(v;) = (G;_ 1 o (A;idv- F)) (v;) =G; _ 1 (A;V;- F(v;)) = 0.
Also istG;(v) =G;(w) + J.LG; (v;) = 0.
Der Leser möchte sich überlegen, wie viel einfacher der Beweis wird, wenn F
diagonalisierbar ist, d.h. wenn F(v;) = A;V; (vgl. Aufgabe 5).
Den Fall K = lR kann man durch Komplexifizierung auf den obigen Fall
zurückführen, obwohl F nicht reell trigonalisierbar sein muß. Am einfachsten
geht das mit Hilfe einer Matrix
A = M 8 (F) ,
wobeißirgend eine Basis von V ist (die "professionelle" Methode der Komple-
xifizierung ist in 6.3.4 b) ausgeführt). A beschreibt einen Endamorphismus
A : IC" -+ IC",
254 4 Eigenwerte

also ist PA(A) = 0 E End C". Nach 2.6.4 ist


Ma(PF(F)) = Pr(M8 (F)) = PA(A),
also auch PF(F) = 0 E End V.
Diese Methode ist nicht auflR und C beschränkt, denn zu jedemKörperKund
jedem Polynom f E K[l] gibt es einen Oberkörper K ' :::J K, so daß f E K ' [l]
in Linearfaktoren zerfällt: etwa den Zerfällungskörper von f oder den algebrai-
schen Abschluß von K (siehe z.B. [F-S]).
4.5.4. Als Beispiel für eine Anwendung des Satzes von CAYLEY-HAMILTON
wollen wir in Analogie zu Korollar 4.4.3 zeigen, daß sichjeder Endamorphismus
eines reellen Vektorraumes beinahe trigonalisieren läßt.
Theorem./sl F Endamorphismus eines reellen Vektorraumes V, so gibt es eine
Basis ß derart, daß

*
Ä,.

mit Ä 1, .... Ä,. E lR und B; 0 lR und b(- 4c; < 0


( 1 --bc,' ) mit b;, c; E

füri = 1, ... , m .
Lemma. Jeder Endamorphismus F eines reellen Vektorraumes V mit
dim V 2: 1 hat einen invarianten Unterraum W mit I ::=:: dim W ::=:: 2.
Beweis des Lemmas. Nach 1.3.10 gibt es eine Zerlegung
PF = ±(t- ÄJ) · ... · (t- Ä,) · Q J(t) · .. . · Qm(t)
mit Q; (t) = t 2 + b; t + C; und bf- 4c; < 0. Ist r 2: 1, so gibt es einen Eigenvektor
v1 zu Ä 1, und W = lR · v1 ist invariant.
Im Fall r = 0 starten wir mit einem beliebigen 0 i= v E V. Nach CAYLEY-
HAMILTON ist
PF(F)(v) = (Q 1 (F) o . .. o Qm(F)) (v) = 0.
Also gibt es ein eindeutig bestimmtes i E { 1, ... , m} mit
w := (Q;+ 1 (F) o ... o Qm(F)) (v) i= 0 und Q ; (F)(w) = 0,
4.5 Potenzen eines Endomorphismus* 255

wobei w := v gesetzt wird, falls i = m, d.h. Q111 (F)(v) = 0. Wir setzen


W := span (w, F(w)).
Aus Q;(F)(w) = 0 folgt
F (F(w)) + b;F(w) + C;W = 0 ,
also ist F(W) C W . Da F keinen Eigenwert hat, ist ß = (w, F(w)) eine Basis
von W , und es gilt

M B(FIW) = ( 01 -C; ) '


-b;
0

Den Beweis des Theorems führt man schrittweise nach dem Muster des Induk-
tionsbeweises von Satz 4.4.3. In der ersten Etappe baut man die Eigenräume ab,
in der zweiten die zweidimensionalen invarianten Unterräume. Das ergibt eine
Folge von Zerlegungen
V = Vo EB W1 = V1 EB Wz = Vz EB W3 = ... =V,. EB W,.+l
= V,.+z EB W,-+3 = Vr+4 EB Wr+5 = ... = Vr+2m EB W,.+2m+l,
wobei W1 = V, W, +2m+l = {0} und
{0} = Vo C V1 C . .. C V,. C V, +2 C . .. C Vr+2m =V
mit dimV1 = j und F(V1) C V1. Dazu verwendet man die eindeutige Zerlegung
von

H;: W; --+ V;_ 1 und F;: W; --+ W; .


Die Einzelheiten seien getrost dem Leser überlassen. 0

4.5.5. Nun wollen wir das in 4 .5.2 begonnene und durch den Satz von CAYLEY-
HAMILTON unterbrochene Spiel mit den Polynomen noch etwas weiter treiben.

Definition. Eine Teilmenge I eines kommutativen Ringes R heißt Ideal, wenn


gilt
I 1 P , Q EI=> P- Q EI,
I2 P E I, QE R => Q· P E I.

Ein Beispiel dafür ist unser Ideal IF c K[t] .


256 4 Eigenwerte

Satz. Zu jedem Ideal I C K [t] mit I# {0} gibt es ein eindeutiges Polynom M
mit folgenden Eigenschaften:
1) M ist normiert, d.h. M = t d + ... , wobei d = deg M .
2) Für j edes P EI gibt es ein Q E K[t] mit P = Q · M .

M heißt Minimalpolynom von I , im Fall I = I p Minimalpolynom von F .


Beweis. Sei d := min {r: es gibt ein PE I mit P # 0 und r = deg P} E N.
Wir nehmen ein normiertes M E I mit deg M = d. Ein beliebiges P E I
dividieren wir entsprechend 1.3.7 mit Rest durch M:
P=Q·M + R ,
wobei R = 0 oder deg R < d. Es genügt, den Fall R # 0 auszuschließen. Dann
wäre
R= P - Q ·ME I
im Widerspruch zur Minimalität von d. Die Eindeutigkeit ist klar. D

4.5.6. Es ist in der Geometrie eines Endamorphismus begründet, wie weit sich
das Minimalpolynom vom charakteristischen Polynom unterscheidet.
Beispiel. Sei
0 1
0
1
0
A= E M (n x n ; K),
0
0
0

wobei d - 1 mit 1 :::; d :::; n die Anzahl der Einsen in der Nebendiagonalen
bezeichnet. Das bedeutet
A (e!) = 0, A(e 2 ) = e1 , . . . , A(ed) = ed_ 1 und A(ei) = 0 sonst.
Für die Potenzen A 1 mit 1 :::; l :::; d gilt A 1(ed) = ed_z, also ist Ad = 0, aber
Ad- 1 # 0. Daraus folgt
PA = ±tn , MA = td .
Im Extremfall d = 1 ist A = 0 und PA = ±MA:.
Allgemein gilt folgende Beziehung zwischen charakteristischem Polynom Pp
und Minimalpolynom M p:
4.5 Potenzen eines Endomorphismus* 257

Satz. Sei V ein n-dimensionaler K -Vektorraum, FE End (V). Dann gilt:


1) MF teilt PF.
2) PF teilt M'J.

Beweis. I) folgt sofort aus dem Satz von CAYLE Y-HAMILTON. Zum Beweis von
2) wollen wir voraussetzen, daß K Unterkörper von IC ist. Im allgemeinen Fall
kann man einen algebraischen Abschluß K verwenden, aber so weit wollen wir
nicht in die Algebra ausschweifen (vgl. [F-S]).
Wir können F ersetzen durch A E M(n x n; K) . Die Polynome MA und PA
zerfallen über IC in Linearfaktoren (vgl. 1.3.9). Zunächst betrachten wir
PA = ±(t - AJ)'' ... . . (t- Ak)'' ,
wobei A. 1, . . . , A.k E IC paarweise verschieden sind. Aus Teil I) folgt
MA = (t - A. 1 ) ' ' • ••• • (t - A.k)'' mit 0 :::: s; :::: r; für i = I, .. . , k,
d.h. M A hat keine weiteren Linearfaktoren. Wir zeigen, daß keiner fehlt, d.h. daß
S; :::: I ist für alle i . Angenommen s; = 0 für ein i. Dann nehmen wir einen
Eigenvektor V; E IC" zu A.; und wenden MA(A ) darauf an. Mit der gleichen
Rechnung wie im Beispiel4.5.1 folgt
MA(A)(v;) '# 0
im Widerspruch zu MA(A) = 0. Nun definieren wir
Q := (t - AJ)"' ' - " · . . . · (l - A.dns, - r, E IC[t].
Nach Definition von Q gilt M~ = ±Q · PA, und da M~ . PA E K[t] folgt
Q E K[t] (Aufgabe 5 zu 1.3). D

4.5.7. Manchmal kann das Minimalpolynom helfen, Beweise etwas abstrakter


und kürzer zu machen. Dafür geben wir ein naheliegendes Beispiel.
Definition. Man nennt F E End K(V) nilpotent, wenn Fk = 0 für ein k :::: I.
Satz. Ist F E End K (V ) und n = dim V , so sindfolgende Aussagen äquivalent:
i) F ist nilpotent.
ii) F J = Ofürein d mit l:::: d:::: n.
iii) PF = ±t".
iv) Es gibt eine Basis ß von V , so daß

M B(F) =
(00 ·. 0*)
258 4 Eigenwerte

Beweis. i) bedeutet rk E I p. Also ist Mp = t" mit I _::: d _::: n und Pr = ±t".
Das zeigt i) => ii) und iii). Der Trigonalisierungssatz 4.4.3 enthält iii) => iv).
Schließlich folgt iv) => i) nach Aufgabe 2 zu 2.5. D

Aufgabe 3 zu 4.4 zeigt, daß es auch ohne Minimalpolynom geht.

Aufgaben zu 4.5

1. Sei F: V --+ V linear und P E K[t]. Zeigen Sie: Ist). E Kein Eigenwert von F , so
ist P(A.) ein Eigenwert von P(F).
2. Ist F: V --+ V linear und P, Q E K[t] , so ist
P(F) o Q(F) = Q(F) o P(F) = (P · Q)(F).

3. Sei F: V --+ V ein Endamorphismus des K- Vektorraums V. Dann gilt:

a) Die Abbildung <Pr: K[t] --+ End(V) , P(t) t--> P(F) ist ein Homomorphismus von
Ringen und von K- Vektorräumen.

b) K[F] = {P(F): P E K[t]} ist ein kommutativer Unterring von End( V).

c) Ist dim V = n < oo, so existiert ein normiertes Polynom P E K[r] vom Grad ::: ,j2
mit P(F) = 0. (Hinweis: Betrachten Sie id, F , F 2 , ... , F" 1 .)

4. Beweisen Sie den Satz von CAYLEY-HAMILTON durch direkte Rechnung für Matri-
zen
A E M(2 x 2; K).

5. Beweisen Sie den Satz von CAYLEY-HAMILTON für einen diagonalierbaren Endo-
morphismus.
6. Geben Sie noch einen anderen Beweis des Satzes von CAYLEY-HAMILTON durch
Induktion nach n = dim V mit der folgenden Methode:

a) Zeigen Sie, dass F(W) C Wund berechnen Sie Pc(t) für G := Fl W (siehe Aufga-
be 4 in 4.2) .

b) Zeigen Sie Pc(G) = 0 E End (W).

c) Folgern Sie daraus im Fall k < n mit der Bemerkung aus 4.4.4 und der Induktions-
annahme, dass Pr(F) = 0.

7. Seien A. 1 , ..• , A.,. E K die paarweise verschiedenen Eigenwerte eines diagonalisier-


baren Endamorphismus F über einem endlichdimensionalen Vektorraum. Zeigen Sie,
dass (1- A.J) · ... · (1- A.,.) E K[t] das Minimalpolynom von Fist.
4.6 Die Jordansehe Normal form* 259

4.6 Die Jordansehe Normalform*


Gegenstand dieses Abschnittes sind Endomorphismen, deren charakteristisches Poly-
nom in Linearfaktoren zerfällt. Bedingungen für die Diagonalisierbarkeit sind in 4.1 .3
und 4.3.3 angegeben. Sind sie nicht erfüllt, so kann man entsprechend 4.4.3 wenigstens
trigonalisieren. Unbefriedigend dabei ist, daß man gar nichts von den Einträgen über der
Diagonale weiß. Das wird nun nachgeholt.
Wir benutzen dabei nur elementare Methoden der linearen Algebra und verzichten
darauf, das Minimalpolynom und die Teilbarkeilstheorie im Polynomring einzusetzen.
Damit geht manches etwas eleganter, aber insgesamt nicht kürzer (vgl. etwa [82]).

4.6.1. Im folgenden sei stets K ein beliebiger Körper und V ein K- Vektorraum
mit dimV:;:: 1. Ist FE End (V) und
PF = ±(t- AJ),. 1 • • • • • (t- Ak)'1 mit A1 , ••• , Ak E K paarweise verschieden,
so ist V nach 4.3.3 genau dann direkte Summe der F-invarianten Eigenräume
Eig (F; A;), wenn
dimEig (F; A;) = J.L(PF; A;) = r; .
Ist die Dimension des Eigenraumes zu klein, so kann man ihn mit folgendem
Trick passend vergrößern. Für einen Eigenwert A der Vielfachheil r :;:: I ist
Eig (F; A) = Ker (F - Aidv) c Ker (F - Aidv )' = : Hau (F; A).
Man nennt Hau (F; A) den Hauptraum (oder verallgemeinerten Eigenraum)
von F zum Eigenwert A. Damit kann man schon das Ergebnis der ersten Etappe
formulieren:
Satz über die Hauptraumzerlegung. Sei F E End K(V) und
PF = ±(t - AJ)'I .... . (t - Ad'
mit paarweise verschiedenen A1, ••• , Ak E K. Es sei V; :=Hau (F; A;) C V für
jedes A; der Hauptraum. Dann gilt:
1) F(V;) C V; unddimV; = r; füri = 1, ... ,k.
2) v = V1 EB ... EB vk.
3) F hat eine Zerlegung F = F D + F N mit
a) Fv diagonalisierbar,
b) FN ni/potent,
c) Fv o FN = FN o Fv .

Übersetzt man das in die Sprache der Matrizen, und verwendet man noch, daß
jede nilpotente Matrix in eine obere Dreiecksmatrix transformiert werden kann
(4.5.7), so erhält man das
260 4 Eigenwerte

Korollar. Sei A E M(n x n; K), so daß PA = ±(t- A. 1)'"' · ... · (t- A.k)'.'. Dann
gibt es eine invertierbare Matrix S E GL (n; K) derart, daß

IA,E"+N,I 0

=:A,

wobei für i = 1, ... , k


A.;
A.;E,; + N; = (
O *) E M(r, x r,; K)

A.,
mit nilpotenten N; . Insbesondere ist A= D + N, wobei D Diagonalmatrix, N
nilpotent ist, und es gilt
D·N=N · D . 0

Folgerungen aus der letzten Eigenschaft sind in Aufgabe 4 und Aufgabe 5 ent-
halten.
4.6.2. Zur Vorbereitung der Hauptraumzerlegung betrachten wir einen Eigen-
wert A. von F und Potenzen von
G := F- A.id v .
Das können wir auch für ein ganz beliebiges G E End V tun. Offensichtlich hat
man die Ketten
{0} c KerG c KerG 2 c ... c KerG 1 ,
V ~ Im G :::) Im G 2 :::) .•• :::) Im G 1 ,
und für jedes l ist dim Ker G 1 + dim Im G 1 = dim V nach 2.2.4. Im allgemeinen
ist jedoch
KerG 1 n ImG1 # {0},
man hat also keine direkte Summe (vgl. Beispiel 4.5.6). Da V endlichdimensio-
nal ist, können die beiden Ketten nicht endlos auf- bzw. absteigen. Das ist der
Schlüssel zum entscheidenden
4.6 Die Jordansehe Normalform* 261

Lemma von FITTING. Zu einem G E End K (V) betrachten wir die beiden Zah-
len
d := min{l E N: Ker G 1 = Ker G1+ 1 } und r := f.L(PG; 0),
wobei G 0 := idv· Dann gilt:
1) d = min{l :Im G 1 =Im G 1+ 1 }.
2) Ker Gd+i = Ker Gd, Im Gd+i = Im Gd für alle i E N.

3) Die Räume V := Ker Gd und W :=Im Gd sind G-invariant.

4) (GiV)d = 0 und GI W: W ~ W ist ein Isomorphismus.

5) Für das Minimalpolynom von GIV gilt MG IU = td.


6) V= V EB W, dimV = r ::': d, dimW = n- r.
Insbesondere gibt es eine Basis ß von V, so daß

MB(G)=(~ ~)mit Nd=O und CEGL(n-r ; K).

Beweis. Wir betrachten das Diagramm

KerG 1 c V~ ImG 1
n u
KerG 1+ 1 c V~ ImG 1+ 1 .
Unter Benutzung der Dimensionsformel2.2.4 für G 1 und G/+ 1 folgt
ImG 1+ 1 = ImG 1 {} dimlmG 1+ 1 = dimlmG 1
{} dimKerG 1+ 1 = dim KerG 1
{} KerG 1+ 1 = KerG 1 •
Dies ist weiter gleichwertig damit, daß Gllm G 1: Im G 1 --+ Im G 1+1 ein Isomor-
phismus ist. Daraus folgt sofort 1) und GIW Isomorphismus, also auch 2). Der
Rest von 3) und 4) ist klar. Zu 5) genügt es zu zeigen, daß aus (GIV)d - I = 0
folgen würde, daß
KerGd =V c KerGd- I .
Ist vE V n W, so ist Gd(v) = 0 und v = Gd(w) für ein w E V . Daraus folgt
G 2d(w) = 0, also
w E KerG 2d = KerGd
262 4 Eigenwerte

nach 2), und somit 0 = Gd(w) = v . Wegen dim U + dim W = dim V hat man V =
U EB W, und es bleibt die Berechnung der Dimension von U. Nach Definition von U
ist dim U 2: d. Wegen
t ' · Q = Pc = Pc1u · Pc1w mit Q(O) I 0
und Pc u = ±t111 mit m = dimU folgt m = r, denn für den Isomorphismus G IW
1

ist Pc 1w(0) I 0. 0

Insbesondere folgt aus den obigen Argumenten die


Bemerkung. Ist).. Eigenwert von Fund G := F- )..idv, so ist d = 1 gleichbe-
deutend mit
Eig (F; )..) = Hau (F; )..) . 0

4.6.3. Nun beweisen wir den Satz über die Hauptraumzerlegung durch Induk-
tion über die Zahl k ::: 1 der verschiedenen Eigenwerte. Zu ).. 1 definieren wir
G := F- ).. 1 • idv . Dann ist
Pc(t - AJ) = PF(t) , also !l(Pc; 0) = 11(PF; AJ) = r1.
Nach Lemma 4.6.2 ist V =Hau (F; ).. 1) EB W, und die beiden Summanden sind
wegen F = G + ).. 1idv auch F-invariant. Weiter gilt
PF1w = ±(r - ;. zr' ·... ·
<r - ;...r· .
also können wir auf F IW die Induktionsannahme anwenden, daraus folgen I )
und 2).
Die Zerlegung 3) zeigt man am einfachsten mit Matrizen, die Bezeichnungen
seien wie im Korollar gewählt. Die Existenz erhält man mit

D ·- ( ~ 0

o ·.i;..kE,,i
) und N ·- ( ~o 0

.5]
)

eine einfache Rechnung zeigt

D·N= (~ O ) =N·D.
0 IAkNk l 0

Zusatz. Die Zerlegung F = Fv + FN ist sogar eindeutig, wenn man a), b) und
c) verlangt.
Der Beweis benutzt 4.3.6 und etwas Teilbarkeilstheorie von Polynomen (vgl. et-
wa [B2], §11).
4.6 Die Jordansehe Norrnalform* 263

4.6.4. Aus den obigen Beweisen kann man ein Rechenverfahren ableiten, wir
geben dafür ein
Beispiel. Gegeben sei die Matrix

A = ( - ~: ~: ~ ~
- - )
-4 -6 -1
mit PA = - t 3 + 5t 2 - 7t + 3 = - (t- 1) 2 · (t- 3). In der Notation von 4.6.3 ist
k = 2, A1 = 1, r 1 = 2, J.. 2 = 3, r2 = 1. Wir betrachten die Matrizen

B1 = A- J..1E3 = (-~: -~~ -~~), Bz = A- AzE3 = (-~! -~: -~~),


-4 -6 -2 - 4 - 6 -4
sowie

B~1 =B~=(-~! -~! -~~) • -4 -4 -8


Es ist rang BI = 2 > 1 =rang Br Daraus folgt
Eig (A; J.. 1) = Ker B1~ KerB~= Hau (A; J.. 1),
und somit ist A nicht diagonalisierbar. Indem man die zu B~ und B 2 gehörenden
homogenen Gleichungssysteme löst, erhält man Basen
(' (2 , 0, -1) , '(0, 2, -1)) von Hau (A ; J.. 1)
und
' ( -7 , 4, 1) von Hau (A; J.. 2) = Eig(A ; J.. 2) .

Trägt man die erhaltenen Basisvektoren als Spalten in eine Matrix ein, so erhält
man

s- 1 = ( ~ ~ -: ) und s= ~ 1
( -: -: - : )
-1 -1 I -2 - 2 -4
sowie

~: ~)
16
( ( 16 25 ) = Ez + N
SAS- = 1 -~ _ und mit N 2 = 0.
-9 -14
0 3
264 4 Eigenwerte

Nun muß man noch die Basis von Hau (A; A 1) so transfonnieren, daß ein Basis-
vektor v Eigenvektor zu At wird (vgl. 4.4.5). Er hat die Form

V = a · 1 (2, 0, -1) +ß· 1 (0, 2, -1).

Die Bedingung Av =vergibt 3a + 5ß = 0, also kann man v = 1 (5, -3, -1)


wählen. Aus der neuen Basis von JR 3 erhält man die Transformationsmatrix

5 2 -7 ) 1 ( -4 -5 -8 )
T- 1 = ( -3 0 4 T =- 1 2 -1
3
-1 -1 1 -3 -3 -6

sowie

4.6.5. Auf der zweiten Etappe des Weges zur JORDANsehen Normalform wird
zu einem nilpotenten Endamorphismus eine Basis maßgeschneidert. Um das Er-
gebnis einfach formulieren zu können, definieren wir die Jordanmatrix

für die 1{ = 0 gilt, und k die minimale Potenz mit dieser Eigenschaft ist. Man
beachte, daß 1 1 = (0).
Theorem. Sei G ein nilpotenter Endamorphismus eines K-Vektorraumes V und
d := rnin{/: G 1 = 0}. Dann gibt es eindeutig bestimmte Zahlen s 1, ... , SJ E N
mit

d · SJ + (d - 1)sd- t + ... + s 1 = r = dimV

und eine Basis B von V , so daß


4.6 Die Jordansehe Norrnalform* 265

} srmal

0
} sd-1-mal
Ms(G) =

} s1-mal

Beweis. Wir definieren U1 := Ker G 1 und betrachten die Kette


{O} = Uo c U1 c ... c u d- 1 c ud = v.
Da d minimal ist, sind alle Inklusionen echt. Wir vermerken zwei weitere Eigen-
schaften:
(1) Für 1 :::::I::::: d ist G- 1(U1_ 1) = U~o insbesondere G (U1) C U1+
Das ist klar, denn
v E G- 1(U1- d <::> G(v) E U1-J <::> 0 = G 1- 1 (G(v)) = G 1(v) <::> v E U1.
Durch Anwendung von G auf die erste Gleichung folgt
G(U1) = G (G- 1 (U1-d) c U1-1.
Daß hier keine Gleichheit mehr gelten muß, sieht man etwa an der durch
G(eJ) = G(e2) = 0, G(e3) = e2
gegebenen Abbildung des K 3 mit d = 2.

(2) Ist W c V ein Untervektorraum mit W n U1 = {0} für irgend ein I > 0, so
ist GI W injektiv.
Denn da Ker G = U1 c U1, gilt sogar W n Ker G = {0}.
Damit konstruieren wir nun schrittweise eine direkte Summenzerlegung von V.
Zunächst wählen wir Wd c V mit
V= Ud= Ud- 1 EEl WJ .
Aus (I) folgt G(WJ) c Ud- J und G(Wd) n Ud_2 = {0}. Also gibt es eine Zerle-
gung
266 4 Eigenwerte

Die Iteration dieses Verfahrens kann man schematisch darstellen, wobei die
Pfeile die Wirkung von G zeigen:

V"
-1-

u d- 1 EB w"
-1- -1-
Ud - 2 EB wd- 1 EB w"
-1- -1- -1-

U1 EB Wz EB w 3 EB .. . EB w"
-1- -1- -1- -1-
Uo EB W1 EB Wz EB ...
EB w d-1 EB w"
Jede Zeile ist dabei eine Zerlegung von V, wegen U0 = 0 ist insbesondere
V = W1 EB Wz EB ... EB W" .
Da nach (2) alldie Beschränkungen von G in der Kette
w"-+ w d- 1 -+ . .. -+ W1
injektiv sind, können wir nun bei Wd beginnend durch schrittweise Ergänzung
Basen aller W1 und damit insgesamt eine Basis von V nach folgendem Schema
erhalten:
(d) (d)
w1 , ••••• • ••• • Ws11
(d - 1) (d - 1)
G(w~dJ), ... ... ,G(w;::>) , Wl '· · · · • · · · ' W sd- 1

Dabei ist die erste Zeile eine Basis von Wd, die zweite von Wd-I, und schließlich
die letzte von

Die Matrix M 8 (G) hat die versprochene Form, wenn man ß in folgender Weise
anordnet: Man läuft in jeder Spalte von unten nach oben und liest die Spalten
von links nach rechts.
4.6 Die Jordansehe Normal form* 267

Um zu zeigen, daß die Zahlen si, ... , SJ allein durch G bestimmt sind, benut-
zen wir die Existenz von Zerlegungen
v, = v,_I EB w, = v,_I EB G(W/+I) EB w,
für I = I, . . . , d mit Wd+I = 0. Danach ist
s1 = dimW, = dimV1 - dimV1_I- dimW,+I,
also sind diese Zahlen rekursiv aus den Dimensionen der Kerne von G 1 bere-
chenbar (vgl. Aufgabe 6). D
4.6.6. Wir berechnen ein einfaches
Beispiel. Gegeben sei die Matrix

B =( ~ ~ ~)
0 0 0
mit B2 = ( ~ ~ ~) und B3 = 0.
0 0 0
Es ist d = 3, und für V 1 := Ker B 1 gilt
{0} = Vo c VI= spanei c Vz = span (ei, e2) c v3 = JR3 •
Aus der Bedingung
lR3 = Vz EEl W3
folgt, daß wir W 3 = span e 3 wählen können. Somit ist s 3 = 1. Aus
lR3 = VI Ef) Wz Ef) w3
folgt dim W2 = I, also s 2 = 0, und B · e 3 = '(3, 2, 0) ist der richtige Basisvektor
von W2 . Schließlich ist

Der gesuchte Basisvektor von WI ist B 2 · e3 = B · '(3, 2, 0) = 2ei, somit ist auch
si = 0. Trägt man die gefundenen Basisvektoren in der richtigen Reihenfolge
als Spalten in eine Matrix ein, so erhält man

T-I = ( ~~~ ) , und daraus -~ ~) .

0n
0 0 1 0 4
Das Ergebnis ist die Jordanmatrix

TBT-' ~ ~
268 4 Eigenwerte

4.6.7. Durch Kombination der Hauptraumzerlegung aus 4.6.1 und der Normal-
form nilpotenter Endamorphismen aus 4.6.5 erhält man schließlich die
JORDANsehe Normalform. Sei F E End K (V) derart, daß das charakteristi-
sche Polynom in Linearfaktoren zerfällt, also
PF =±(t-At)'' .. . .. (t- Ak)''
mit paarweise verschiedenen At, ... , Ak E K. Dann gibt es eine Basis ß von V,
so daß

IA,E"+N, I 0

wobei N; für i 1, ... , k in der Normalform von 4.6.5 ist. Ausgeschrieben


bedeutet das

A; 0
A;
A;E,., + N; =
A; 0

0
A;
Diese Teilmatrix zum Eigenwert A; enthält außer Nullen nur Jordanmatrizen ent-
lang der Diagonale. Ein Block der Gestalt
A;

A;
4.6 Die Jordansehe Normal form* 269

mit d Einträgen Ai und d - I Einsen heißt Jordanblock der Länge d zu Ai. Der
oberste und größte Jordanblock in Ai Er; + Ni hat die Größe di mit
1 :::, di = min {l: Nj = 0} :::, ri ,
das ist die Vielfachheil der Nullstelle Ai im Minimalpolynom von F (Aufgabe
8).
Für I :::, j :::, di seien s?> 0:: 0 die Anzahlen der Jordanblöcke der Größe j zu
Ai in Ai Er; + Ni. Es ist s ~;> =:: I , und durch Abzählung der Längen folgt

(i )
disd; + (di - I)sd; - l + ...
(i)
+ s 1(i) = ri.

Die Elemente Ai E K und ri, di , s jil E N sind allein durch den Endamorphismus
F bestimmt (für die sy> folgt das aus Aufgabe 6). Sie heißen daher Invarianten
von F. Die Eigenwerte Ai kann man im Fall K = lR oder C kontinuierliche
Invarianten nennen. Die anderen sind diskret und durch die oben angegebenen
Beziehungen, sowie
r1 + ... + rk = n
aneinander gekoppelt. Alle Invarianten zusammen beschreiben in komprimierter
Form die "Geometrie von F". Umgekehrt bedeutet dies, daß es so viele Möglich-
keiten gibt, wesentlich verschiedene Endamorphismen zu konstruieren, wie man
"Sätze" von solchen Invarianten zusammenstellen kann. Nur die Reihenfolge der
Jordanblöcke ist unwesentlich, sie kann durch eine passende Permutation der Ba-
sisvektoren beliebig verändert werden. Das ist die Aussage dieses wohl schwie-
rigsten Theorems der elementaren linearen Algebra.
Das Verfahren, die Normalform zu berechnen, hat praktische Anwendungen,
etwa bei der Lösung von Systemen linearer Differentialgleichungen mit kon-
stanten Koeffizienten. An sich genügt es, die Systeme nach verschiedenenen Ei-
genwerten zu entkoppeln (das geht mit der Hauptraumzerlegung) und in jedem
Hauptraum zu trigonalisieren (dann kann man die Teilsysteme von unten nach
oben lösen, vgl. [Fo 2], §14). Aber der Rechenaufwand für die verbesserte Tri-
gonalisierung mit der JORDAN-Methode ist kaum größer als bei der Methode aus
4.4.5.
Nach all den schon geleisteten Vorbereitungen ist der Beweis nunmehr ganz
kurz: Für i = I, ... , k setzen wir
Vi :=Hau (F; Ai) und Gi := (F - Aiid v) IVi .
Anwendung von 4.6.5 aufGiergibt eine Basis Bi von Vi. und aus B 1 , ••. , Bk
baut man sich das gesuchte B auf (vgl. 1.6.4). D
270 4 Eigenwerte

Für die Minimalpolynome von G; und F gilt (Aufgabe 8)


MG, = td' und MF = (t- A1)d' · ... · (t- Ak)d' .
Ist speziell d 1 = ... = dk = 1, so gibt es keine Einsen neben der Diagonale, und
es folgt zusammen mit 4.6.1 und 4.6.7 das
Korollar. Für ein F E End K (V) sindfolgende Bedingungen gleichwertig:
i) Fist diagonalisierbar.
ii) M F = (t- AI)· ... · (t- Ad. wobei A1 , ••• , Ak die verschiedenen Eigenwerte
von F bezeichnen.
iii) Es gibt paarweise verschiedene A 1 , ••• , Am E K, so daß
(F - )q idv) o ... o (F- Amidv) = 0 E End K (V). 0

4.6.8. Für die praktische Berechnung der Jordansehen Nonnalforrn verwenden


wir wieder das
Beispiel.

A ~ ( -: ~ -:)

mit dem charakteristischen Polynom PA = - (t- 2) 3 (vgl. 4.4.5). Wir betrachten

B := A- 2E 3 = ( -~ _: -~ ) mit B2 = ( ~ -~ -~)
1 2 1 0 2 2
und B = 0. Dann ist
3

U1 := KerB= span'(l, - 1, 1)
Uz := KerB 2 = span ('(1, - 1,1), '(0, - 1, 1)).
Entsprechend 4.6.5 haben wir die Zerlegungen
~=~m~=~m~m~=~m~m~m~ .
das ergibt die Basisvektoren

n n
e3 E w 3 • B . e3 = I (3, -1, 1) E Wz und B2 . e3 = r (2, -2, 2) E wl .
In der richtigen Reihenfolge als Spalten in eine Matrix eingetragen erhält man

~
r ' ( -: _: mit 1 ~ ~ -~( -;
4.6 Die Jordansehe Normalform* 271

n
und als Ergebnis

TAr'~o ~
u n~· ~ o n
Das kann man vergleichen mit den Ergebnissen der Trigonalisierung in 4.4.5

SAS-' ~ ~ ~
D s 0

n
und der Transformation der nilpotenten Matrix D - 2E 3 zu

f(D-2E,)T-'~h ~· T~~u -~
Es ist T · S = T, also kann man T auch durch Kombination der vorher durch-
geführten Rechnungen erhalten. Man beachte, daß dabei nicht notwendig die-
selbe Transformationsmatrix entstehen muß, weil sie nicht eindeutig bestimmt
ist.
Hat A mehr als einen Eigenwert, so muß man zunächst die Zerlegung in Haupt-
räume berechnen. Dann kann man in jedem Hauptraum wie oben verfahren. Da
der gesamte Raum nach 4.6.1 direkte Summe der Haupträume ist, ergeben die
unabhängig voneinander konstruierten Basen der Haupträume zusammen eine
Basis der gewünschten Art des gesamten Raumes.

Aufgaben zu 4.6

_: l
1. Bestimmen Sie die Haupträume der folgenden Matrizen:
2 3 3 8

(~
4 2
0 2 7 2 8
I 2
0 0 2 5 4
0 I -3
0 0 0 -I -4
0 0 -I
0 0 0 0 - I
272 4 Eigenwerte

2. Bestimmen Sie Basen, bezüglich derer die folgenden nilpotenten Matrizen Jordansehe
Normalform haben, und geben Sie jeweils das Minimalpolynom an:
-2 0 -I 2

(: :)
2 I -3 -I 0 3
0 0 2 I - I -3
0 I 0 0 -I -2
0 -I 0 0 2
3. Bestimmen Sie Basen, bezüglich derer die folgenden Matrizen Jordansehe Normal-
form haben, und geben Sie jeweils das charakteristische und das Minimalpolynom an:
2 0 -2
I 0 -I
0 2 0 -I
0 2 -2
0 0 0
4. Mit Hilfe des Satzes über die Jordansehe Normalform kann man recht einfach hohe
Potenzen von Matrizen berechnen. Zeigen Sie:
a) Ist A E M(n x n; K), SE GL(n; K) undm E N, so gilt (SAS- 1)m = SAms- 1•

b) Sind A, BE M(n x n; K) mit AB= BA und m E N, so gilt

(A + B)m = t
k=O
(m)Ak Bm-k .
k
c) Bestimmen Sie für die Matrix

eine Matrix S E GL(3; IR), so dass A = S(D + N)S- 1, wobei D Diagonalmatrix,


N nilpotent und DN = ND ist. Berechnen Sie mit Hilfe von a) und b) (und ohne
Computer) A50

5. Betrachten Sie die Verallgemeinerung der Exponentialfunktion für Matrizen; für jede
Matrix A E M(n x n; IR) existiert

exp(A) := !im
m--> oo k = O
L -k!I Ak .
m

a) Bestimmen Sie exp(D) für eine Diagonalmatrix D.


4.6 Die Jordansehe Normalform* 273

b) Ist A E M(n x n; IF!:) und SE GL(n; IF!:), so folgt exp(SAS- 1) = S · exp(A) · s- 1.


c) Sind A , B E M(n x n; IF!:) mit AB= BA, so gilt exp(A + B) = exp(A)exp(B).
d) Bestimmen Sie für die Matrix

eine Matrix SE GL(3; IF!:), so dass A = S(D + N)S- 1, wobei D Diagonalmatrix, N


nilpotent und DN = ND ist, und berechnen Sie exp(A).

6. Zeigen Sie, dass für die Zahlen s1, ... , Sd in 4.6.5 gilt:
Si= dim(U,/VJ- 1)- dim(U/+1/ U,) .

7. Gegeben sei ein endlichdimensionaler IC-Vektorraum V. Zwei Endamorphismen F


und G von V heißen ähnlich, wenn es einen Isomorphismus H von V gibt mit
G =H o Fo H- 1
a) Zeigen Sie, dass dadurch eine Äquivalenzrelation auf der Menge der Endamorphis-
men von V gegeben ist.
b) Für F, G E End( V) sind folgende Bedingungen gleichwertig:
i) F und G sind ähnlich.
ii) Für jede Basis ß von V sind Mß(F) und Mß(G) ähnlich.
iii) Die Jordansehen Normalformen von F und G haben (bis auf die Reihenfolge)
die gleichen Invarianten.

8. SeiFE EndK(V) ein Endomorphismus, dessen charakteristisches Polynom in Line-


arfaktoren zerfällt. Beweisen Sie, dass man das Minimalpolynom MF aus den Invarian-
ten von F berechnen kann: Mit den Bezeichnungen von 4.6.7 gilt
MF(t) = (t- ),J)d' ..... (t- ),k)d'.

9. Sei V ein 6-dimensionaler IF!:-Vektorraum und F ein Endamorphismus von V mit


PF(t) = (t - l)(t + 2)\ M F(t) = (t - l)(t + 2) 3 . Bestimmen Sie alle möglichen
Jordansehen Normalformen von F.
10. Sei V ein endlichdimensionaler IF!:-Vektorraum und F ein Endamorphismus von V
mit F 3 = F. Zeigen Sie, dass F diagonalisierbar ist.
KapitelS
Euklidische und unitäre Vektorräume
In den vorhergehenden Kapiteln wurden Vektorräume über einem beliebigen Körper
behandelt. Über den reellen und komplexen Zahlen hat man ein zusätzliches wichti-
ges Hilfsmittel, das die Messung von Längen und Winkeln gestattet, nämlich ein
Skalarprodukt. Damit ausgestattet nennt man reelle bzw. komplexe Vektonäume
euklidisch bzw. unitär. Bevor wir die üblichen allgemeinen Begriffe einführen, ge-
ben wir die wichtigsten kanonischen Beispiele.

5.1 Das kanonische Skalarprodukt im IR."


5.1.1. Zwei Vektoren x = (x 1 , • •• , x ,J und y = (y 1 , •• • , y") des IR" ordnet
man die Zahl
(x, y) = x 1y 1 + .. . + x"y"
zu. Das ergibt eine Abbildung
} : IR" x IR" --+ IR , (x, y) r+ (x, y) ,
sie heißt kanonisches Skalarprodukt. Schreibt man x und y als Spaltenvektoren,
so ist

(x ,y) = 'x·y = (x 1 , • • • ,x") ( ~ 1 )·

y"
Die formalen Eigenschaften dieses Produktes rechnet man mühelos nach:
I. (x + x', y) = (x ,y}+(x' ,y}, (x, y + y') = (x, y } + (x , y'),
(}..x , y} = }.. (x, y}, (x, }..y} = }..(x, y ) ,
2. (x ,y) = (y,x) ,
3. (x , x)~O und (x ,x} =O {'? x=O ,
für x , x ' , y , y' E IR" und }.. E IR. Man beachte, daß nur bei 3. eine spezielle
Eigenschaft der reellen Zahlen benutzt wird:
(x,x) =x ~+ ... + x,~,
und eine Summe von Quadraten ist nicht negativ. Insbesondere kann man daraus
die Wurzel ziehen, was eine Abbildung
II II : IR"--+ IR+ , x 1-+ llxll := ~,

ergibt, die Norm heißt. Im IR 1 ist llx II = lxl, im IR 2 ist


llx ll = Jx~ + xi
G. Fischer, Lineare Algebra, Grundkurs Mathematik,
DOI 10.1007/978-3-658-03945-5_6, © Springer Fachmedien Wiesbaden 2014
5.1 Das kanonische Skalarprodukt im JR" 275

nach dem klassischen Satz von PYTHAGORAS die Länge von x. Auch im JR" ist
llx II der Abstand vom Nullpunkt zum Punkt x.
Um Abstände zwischen beliebigen Punkten zu messen, betrachtet man die
Abbildung
d: JR" x JR" ~ JR+, d(x , y) := IIY- xll·
Explizit berechnet man den Abstand (oder die Metrik) durch
d(x , y) := J(y i- x 1) 2 + ... + (y"- x")z.
5.1.2. Die wichtigsten Eigenschaften von Norm und Abstand sind die folgen-
den
Nl llx II = 0 {} x = 0,

N2 IIAxll = lAI · llx ll ,


N3 llx + Yll :::: ll.r ll + II YII. Dreiecksungleichung

Dl d(x ,y) =0{?x= y,


D2 d(y, x) = d(x, y), Symmetrie
D3 d(x ,z):::;d(x,y)+d(y,z). Dreiecksungleichung
Die jeweiligen Eigenschaften I und 2 sind klar. D3 folgt aus N3, denn
x -z=x -y+y - z .
X

BildS.l

5.1.3. Man kann versuchen, die Ungleichung N3 direkt nachzurechnen. Aber es


ist ökonomischer, sie aus der folgenden allgemeineren Ungleichung abzuleiten.
Ungleichung von CAUCHY-SCHWARZ. Für x, y E JR" gilt
l(x, y)l:::: llx ii · II YII
und
l(x, y)l = llxll · IIY II
genau dann, wenn x und y linear abhängig sind.
276 5 Euklidische und unitäre Vektorräume

Zunächst beweisen wir damit die Dreiecksungleichung:


llx+y ll2 = (x+y, x+y ) = (x,x ) +2(x,y) +(y , y)
:::: llxll 2 + 211xll · IIYII + IIYII 2 = Cllxll + IIYII)2 .

Die Quadratwurzel ist monoton, also folgt N3. 0

Beweis der CAUCHY-SCHWARZschen Ungleichung. Wegen der Monotonie der


Wurzel kann man beide Seiten quadrieren, es genügt also zu zeigen, daß
(x,x) ·(y ,y) - (x,y) 2 ~ 0. (*)
Wie man das durch Ausrechnen zeigen kann, wird in 5.4.7 beschrieben. Wer ger-
ne mit Kniffen rechnet, betrachte die Matrix
Xi
A= ( X,. ) .
Y1 y,.
Dann ist
A-'A= ( (x,x) (x,y) ) ,
(y, x) (y, y)
die abzuschätzende Differenz ist also gleich det(A ·' A ). Daher folgt(*) aus 3.3.7,
denn

det(A . 'A) = 1 ~f;~,. :~ ~


I :: 1
2
0.
Gleichheit bei Cauchy-Schwarz bedeutet, daß alle Minoren x;y1 - x 1 y; ver-
schwinden, und das bedeutet rang A < 2 (vgl. 3.3.6). 0

5.1.4. Wie wir gesehen haben, hat die Cauchy-Schwarzsche Ungleichung ei-
ne Konsequenz für die Längenmessung, nämlich die Dreiecksungleichung. Man
kann durch Betrachtung des Quotienten von linker und rechter Seite darüber hin-
aus eine sinnvolle Winkelmessung erklären:
Für zwei von Null verschiedene Vektoren x, y E IR." ist nach der Ungleichung
von CAUCHY-SCHWARZ
- 1 _:: : (x' y) < +I .
llxii·IIYII-
Also ist dieser Quotient gleich cos 0 für genau ein 0 E [0, rr]. Dies nennt man
den Winkel zwischen x und y, in Zeichen
(x , y)
L (x, y) := arccos (*)
llxii·IIYII
Um zu zeigen, daß diese Definition mit dem übereinstimmt, was man sich geo-
metrisch unter einem (unorientierten) Winkel vorstellt, bemerken wir zunächst,
5.1 Das kanonische Skalarprodukt im IR" 277

daß
L(x,y) = L(y, x),
L(Ax,y) = L(x,y) = L(x,A.y) für A. > 0 .
Da die beiden Vektoren in einer Ebene liegen, behandeln wir nur den Fall n = 2
(daß dies keine echte Einschränkung ist, wird sich in 5.4.9 zeigen). Wir ersetzen
x und y durch
I I 1
I
X =-·X und y = - · y.
llxll IIYII
Dann ist llx'll = lly'll = I und L (x, y) = L (x ' , y' ). Aus der Analysis weiß
man, daß es a, ß E [0, 2n[ gibt, so daß
x' = (cosa, sina), y' = (cosß, sinß).
Also gilt
(x', y') = cosa cos ß + sina sin ß = cos(ß- a),
nach einem "Additionstheorem" für den Cosinus, wobei wir ß - a E [0, n]
annehmen können. Insgesamt folgt
L (x,y)=ß-a,
was der Erwartung entspricht.

(0.1):

.r

Bild 5.2
Man beachte, daß die Erklärung des Winkels mit Hilfe des Skalarprodukts for-
mal einfacher ist als mit Hilfe eines Bogenmaßes in der Analysis. Anstatt eines
Kurvenintegrals benötigt man lediglich die Potenzreihe des Arcussinus.
Offensichtlich ist L (x, y) = I gleichbedeutend mit (x, y) = 0. Das kann
man ohne den Cosinus sehen:
Zwei Vektoren x, y E IR" heißen senkrecht, wenn
(x,y) = 0.
Dazu müssen die Vektoren nicht einmal von Null verschieden sein.
278 5 Euklidische und unitäre Vektorräume

Die Definition ( *) für den Winkel kann man auch in der Form

(x, y ) = llxll · IIYII · cos .0::: (x, y)

schreiben, im Gegensatz zu(*) ist dabei x = 0 oder y = 0 erlaubt. Die Formel


( *') erlaubt eine geometrische Erklärung des Skalarproduktes als Produkt von
llxll und
IIYII·cos L(x,y),

wobei der zweite Faktor gleich der senkrechten Projektion des Vektors y auf
die durch x aufgespannte Gerade ist. Man beachte dabei das Vorzeichen: Ist
tJ = .0::: (x , y), so gilt
7T
>0 für 0 :::: tJ < 2,
7T
<0 für 2 < tJ :::: JT •

X
'-----v------" ~

//y// · cos <l(x , y) > 0 //y//. cos <l(x, y) < 0


Bild5.3

Aufgaben zu 5.1

1. Zeigen Sie, dass für alle x, y E IR'' gilt:

a) (x + y, x- y) = llxll 2 - IIYII2
b) llx- Yll 2 = llxll 2 + IIYII 2 - 2(x, y)
= llxll 2 + IIYII 2 - 211xll · llyll cos !J.
(verallgemeinerter Satz von PYTHAGORAS oder Cosinussatz)

c) llx + .Y II 2 - llx- yll 2 = 4(x, y).


d) llx + yf + llx- yll 2 = 211xll 2 + 211YII 2 (Parallelogramm-Gleichung)
5.1 Das kanonische Skalarprodukt im JR" 279

Bild 5.4
2. Beweisen Sie die Cauchy-Schwarzsche Ungleichung durch direkte Rechnung im Fall
n =I, 2, 3.
3. Mit Hilfe des Winkels zwischen Vektoren kann man auch den Winkel zwischen Gera-
den erklären. Sind L = v + IRw und L' = v' + IRw' Geraden im IR", so sei der Winkel
zwischen L und L' erklärt durch
L. (w w' ) falls (w, w') ~ 0,
L. (L , L ' ) := { '
L. (-w , w' ) sonst .
Zeigen Sie, dass diese Definition unabhängig von der Auswahl von w und ul ist, und
dass 0::: L. (L , L') ::: ~gilt.
4. Zwei Vektoren x, y E IR" heißen orthogonal (in Zeichen x j_y), wenn (x, y) = 0. Sind
x, y 'I 0, so gilt offenbar
7(
xj_y {} L(x, y)=z·
Ist L = v + IRw C IR" eine Gerade, so heißt s E IR" orthogonal zu L , wenn (s, x- y) = 0
für alle x, y E L. Zeigen Sie:
a) Ist L = v + IRw C IR" eine Gerade und s E IR", so gilt:
s ist orthogonal zu L {} s j_ w .
b) Ist L = {(x 1 ,xz) E IR2 : a 1x 1 +azx2 = b} eine Gerade im IR2 , so ist (a 1 ,az) ortho-
gonal zu L.
Zu einer Geraden orthogonale Vektoren kann man benutzen, um den kirzesten Abstand
zwischen einem Punkt und einer Geraden zu bestimmen. Ist L = v + IRw C ~· eine
Gerade und u E IR", so ist der Abstand zwischen u und L definiert als
d(u , L ) := min{ llx - ull: x E L}.
Zeigen Sie, dass für den Abstand zwischen u und L gilt:
c) Es gibt ein eindeutig bestimmtes x E L , so dass (x - u) orthogonal zu L ist. Für x
gilt d(u, L) = ll x - u II (d. h. der senkrechte Abstand ist der kürzeste).
Für Geraden im IR2 kann man den Abstand von einem Punkt noch einfacher beschreiben.
280 5 Euklidische und unitäre Vektorräume

Es gilt:
d) Ist L c IR2 eine Gerade, s E JR2 '- {0) orthogonal zu L und v E L beliebig, so ist
L = {x E IR2 : (s, x - v) = 0) .
Ist u E JR2 , so folgt aus c), dass
d(u L) = l(s, u- v)l.
' llsll
Ist speziell L = {(x1. xz) E IR2 : a1 x1 + azxz = b) und u = (u 1. uz), so ergibt sich
la1ul + azuz- bi
d(u,L)= ~ .
y~a~ + ai
Mit Hilfe von d) können wir nun für Gleichungen von Geraden im Ii die sogenannte
Hessesehe Nonna/farm herleiten: Ist s E JR2 '- {0) orthogonal zur Geraden L c JR2 , so
sein := Tih ·
s. Dann ist llnll = I. Man nennt n einen Normalenvektor zu L; nach d) gilt
für beliebiges v E L, dass
L = {x E IR2 : (n, x- v) = 0).
Für jedes u E IR2 gilt dann d(u , L) = l(n, u- v)l. die Funktion (n, u- v) misst also mit
Vorzeichen den Abstand von u zu L.
• L

(n.J' - 1') = 0

(11,.1"-v)>O
1?
\8
Bild5.5
5. Aufgabe 4 lässt sich leicht verallgemeinern, um den Abstand zwischen einem Punkt
und einer Hyperebene im IR" zu bestimmen; eine Teilmenge H des IR" heißt dabei Hy-
perebene, falls H ein affiner Unterraum der Dimension (n - I) ist, d. h. es existiert ein
v E IR" und ein Untervektorraum W c IR" der Dimension (n- 1), so dass H = v + W.
Ist H = v + span (w1 • ... , w" _ I) C IR" eine Hyperebene, so heißt s E IR" orthogonal
zu H, wenn (s, x- y) = 0 für alle x, y EH. Zeigen Sie:
a) s ist orthogonal zu H {} s ..Lw; für i =I , ... , n- I.
b) Ist die Hyperebene gegeben durch H = {(x1 , ... , x") E IR" : a 1x 1+ .. .+a"x" = b) ,
so ist (ai •... , a") orthogonal zu H.
5.1 Das kanonische Skalarprodukt im IR" 281

Ist die Hyperebene H also durch eine Gleichung gegeben, so findet man leicht einen
zu H orthogonalen Vektor. Was man tun kann, falls die Ebene in Parameterdarstellung
gegeben ist, wird in Aufgabe 6 zu 5.2 gezeigt.
Ist H C IR" eine Hyperebene und u E IR", so ist der Abstand zwischen u und H erklärt
durch
d(u, H) := min{[[x- uff: x EH}.
Beweisen Sie:
c) Es gibt ein eindeutig bestimmtes x E H, so dass (x - u) orthogonal zu H ist. Es gilt
d(u, H) = fix - u II (d. h. der senkrechte Abstand ist der kürzeste).
d) Ist H = {(XJ, ... ,x11 ) E IR": a 1x 1 + .. . +a,.x,. = b) und u = (u 1 , ... , u,.) E IR",
so gilt
d (u , H ) = faiuJ+ ... +a,.u,.-b[ .
ja~+ ... +a,;
Ist N orthogonal zu H mit II N II = I und v E H beliebig, so leitet man wie in Aufgabe
4 die Hessesehe Normalform der Gleichung der Hyperebene ab:
H = {x E IR": (N, x- v) = 0}.

6. Seien N C .C(IR) wie in Beispiel 2b) aus 2.2.6. Betrachten Sie die Abbildungen

II II: .C(IR) --+ IR, ! ~--* f 1/(t)f dt, und


IR
1111': .C(IR)/N--> IR, ! +N ~--* 11/11 .
Welche davon ist eine Norm?
282 5 Euklidische und unitäre Vektorräume

5.2 Das Vektorprodukt im JR3


5.2.1. Eine ganz spezielle Multiplikation gibt es für n = 3:
JR? x R 3 --+ JR3 , (x, y) ~--+ x x y , mit

X X Y := (XzY3- X3Y2• X3Y1- X1V3, XJY2- X2Y1) •

Diese Definition des Vektorproduktes (weil das Ergebnis wieder ein Vektor ist)
kann man sich leichter merken durch die Regel
e1 e2 e3

X X y= XJ Xz XJ

wobei man die Determinante formal nach der ersten Zeile entwickelt. Daransieht
man auch, daß sich auf diese Weise für beliebiges n ein Produkt mit n - 1 Fak-
toren erklären läßt (Aufgabe 6).
Zunächst notieren wir wieder die formalen und ganz einfach zu beweisenden
Rechenregeln. Für x, x', y, y' E JR3 und A. E lR gilt:
I. (x + x') x y = x x y + x' x y, X X (y + y') = X X y +X X y' ,
Ax X y = A.(x X y), X X AJ = A(X X y),
2. y X X = - X X y , also X X X = 0,
3. x x y = 0 9 x, y linear abhängig.
5.2.2. Den engen Zusammenhang zwischen Vektorprodukt und Skalarprodukt
sieht man an den folgenden Regeln.
Bemerkung. Für x, y, z E R 3 gilt:
a)

X1 Xz

(xxy,z)=det ( y1 Y2 (x x y, x) = (x x y, y) = 0.
ZJ Z2

b)

Beweis. a) folgt sofort aus den Definitionen. Eigenschaft b) ist eine Präzisierung
der CAUCHY-SCHWARZschen Ungleichung und folgt sofort aus dem in 5.1.3
5.2 Das Vektorprodukt im JR 3 283

gegebenen Beweis für n = 3, da


llx X Yll 2 = I X2 X3 2 2 2
Yz Y3 1 + I :: :: 1 + I :: :: 1

Die zweite Gleichung von b) folgt aus der Definition des Winkels fJ = ,{ (x , y)
und
0

Aus dieser Bemerkung kann man nun die geometrischen Eigenschaften des Vek-
torproduktes ablesen. Wir starten mit linear unabhängigen Vektoren x, y E IR 3
(andernfalls ist x x y = 0). Aus a) folgt, daß x x y senkrecht auf der von x und y
aufgespannten Ebene steht Also ist festgelegt, auf welcher Geraden x x y liegt
Aus b) folgt, daß die Länge von x x y gleich der Fläche des von x und y aufge-
spannten Parallelogramms ist Damit ist x x y bis auf das Vorzeichen festgelegt
Welches man zu wählen hat, ist eine Frage der Orientierung. Dazu betrachten
wir die Basis
B=(x,y,z=xxy)
von !R3 . Nach Eigenschaft a) ist die Determinante gleich (x x y, x x y), also
positiv, und somit sindBunddie kanonische Basis gleichorientiert (vgL 3.4.3).
Also hat x x y zu x und y die gleiche Richtung wie e 3 zu e 1 und e 2 (vgL Bild
5.6).
e, :r+y

eI
z =xxy
Bild5.6

Außerdem folgt aus Teil b) der Bemerkung, daß ein Parallelogramm bei vorge-
gebenen Seitenlängen dann die größte Fläche hat, wenn es ein Rechteck ist Eine
Verallgemeinerung davon beweisen wir in 5 .4.10.
284 5 Euklidische und unitäre Vektorräume

Aufgaben zu 5.2

1. Zeigen Sie für x, y, z E IR3 die Grassmann-Identität


x x (y x z) = (x, z)y- (x, y)z
und folgern daraus die Jacobi-Identität
X X (y X Z) +y X (z X X)+ Z X (x X y) = 0.

2. Für x, x', y, y' E IR 3 gilt:

a) (x x y) x (x' x y') = x ' · det ( :~ ~~ ~~


X3 Y3 Y3
) - y' · det ( :~ ~:
X3 Y3
:l ).
X~
b) (x x y,x' x y') = (x,x')(y,y')- (y,x')(x ,y' ).

3. Seien x, y, z E IR3 Dann gilt:


x, y, z sind linear unabhängig {;> x x y, y x z, z x x sind linear unabhängig .

4. Gegeben sei eine Ebene E = v + IRw1 + IRw 2 c IR 3 . Zeigen Sie: Setzt man
a := Wt x wz und b := (v, a), so gilt

E = {x E JR 3 : (x, a) = b}.
5. Wir wollen mit Hilfe des Vektorproduktes eine Parameterdarstellung der Schnitt-
geraden zweier nichtparalleler Ebenen im W bestimmen. Sind zwei Ebenen
E = v + IRw1 + IRwz, E' = v' + IRw; + IRw; C IR3 gegeben, so sei W = IRw1 + IRw2,
W' = IRw; + !Rw;. Da die beiden Ebenen nicht parallel sind, ist W # W, und damit hat
V = W n W' die Dimension l. Zeigen Sie:
a) Ist L = E n E' und u E L, so ist L = u +V.

b) Seien s = w 1 x wz, s' = w; x w; und w = s x s'. Dann gilt V= IRw.


Bestimmen Sie nach diesem Verfahren eine Parameterdarstellung von E n E, wobei
E = (0, 2, 3) + IR(3, 6, 5) + IR(!, 7, -I),
E' = (-1, 3, 2) + IR(8, 2, 3) + IR(2, -I , -2) .
5.2 Das Vektorprodukt im JR 3 285

s'
s

u L
Bild 5.7
6. Das Vektorprodukt zweier Vektoren im W lässt sich für n > 3 folgendermaßen zu
einem Produkt von n- I Vektoren im IR" verallgemeinern: Sind xCil, ... , x<n - I) E ~".
so sei
n
x 0 l x ... x x <n-l) := L(- l)i+I(detA;) · e; ,
i= l
wobei A E M((n - I) x n; ~)die Matrix ist, die aus den Zeilen x<l), ... , x<n-I) besteht
und A; aus A durch Streichen der i-ten Spalte entsteht. Wie im Fall n = 3 entsteht
x<l) x ... x x<n-I) also durch formales Entwickeln von

er e2 en )
x~l) xfl x,\ 1)
(

det (n:- 1) (n - 1) (n:- 1)


Xr x2 Xn

nach der ersten Zeile. Zeigen Sie, dass für das verallgemeinerte Vektorprodukt gilt:
a) xOl x . . . x x(i-I) x (x + y) x x(i+l) x ... x x<n-l ) =
X(l) X ... X X(i-l) X X X X(i + l) X ... X X(n-l)+
X (I) X ... X X(i-l) X y X X(i + l) X ... X X(n - l),

x<l) x ... x x(i - I ) x (J,.x) x x U+I) x ... x x<n - l ) =


A(X(l) X ... X X(i - l) X X X X (i +l) X . .. X X(n - l)) .

b) xOl x ... x x<n-I) = 0 {} xOl, ... , x<n - l) linear abhängig.

YI Yn

)
(!) (! )
Xr Xn
c) (xOl x ... x x<n - l) , y) = det ( ;

(n - l) (n - l ) (n - I)
Xr x2 x"
d) (x(l) x . .. x x<n - l ) , x<il) = 0, für i = I, ... , n - I.
286 5 Euklidische und unitäre Vektorräume

5.3 Das kanonische Skalarprodukt im C"


5.3.1. Zu einer komplexen Zahl z = x + iy hatten wir in 1.3.4
z=x-iy und lzl = -.fil =Jx 2+y2
erklärt. Der Zahl z E IC entspricht der Vektor (x, y ) E ne, und mit der im ~2
definierten Norm ist
lz l = ll(x , y) ll.
Für die Geometrie des IC" benutzt man die Abbildung
IC" x IC" --+ IC, (z, w) 1-+ (z, w) c, mit

(z, w )c := z 1 w1 + ... + z"w" für z = (z 1, •• • , z") , w = (w 1, • •• , w").


Sie heißt kanonisches Skalarprodukt. Der Index c wird nur vorübergehend an-
gehängt, um auf den Unterschied zum entsprechenden Skalarprodukt im ~~~ hin-
zuweisen. Ohne jede Mühe beweist man die folgenden Rechenregeln.
I. (z + z', w) c = (z, w) c + (z', w)c, (z, w + w')c = (z, w)c + (z, w') c,
(A.z, w)c = A.(z, w)c, (z, A.w)c = X(z, w)c,
2. (w, Z)c = (z, w)c,

3. (z, z)c E ~ + und (z, Z)c = 0 {o> z= 0

für z, z', "' u/ E IC" und A. E IC. Wie wir in 5.4.7 zeigen werden, erhält man eine
Norm in IC" durch die Abbildung
IC"--+ ~+, z ~--+ ll z ll := ~-
5.3.2. Besonders wichtig ist die Beziehung zum kanonischen Skalarprodukt im
~" . Bezüglich der natürlichen Inklusion
~ciC, x=x+i·O,
gibt es kein Problem: entsprechend i st ~~~ c C", und ( , )c ist eine Fortsetzung
von ( , ) . Anders ist es bei der Abbildung
~ 2 " --+ IC", v = (XJ, Yl• . .. , x," y") 1-+ (XJ + iyJ, . .. , x" + iy") = Z.

t ZvZ~ t t
Ist v' E ~2" ein anderer Vektor, dem z' E IC" entspricht, so ist

(z, z')c = = (xv< + YvY~) - i det ( :: ~: )


= (v, v') - iw(v, v'),
wobei ( , ) das Skalarprodukt im ~ 2 " bezeichnet und
W: ~2n X ~2n --+ ~
5.3 Das kanonische Skalarprodukt im C" 287

durch die darüberstehende Summe erklärt ist. Offensichtlich ist


w(v', v) = -w(v, v').
Das alte Skalarprodukt im IR! 2" ist also der Realteil des Skalarproduktes im C",
dazu kommt ein alternierender ImaginärteiL Da er für v = v' verschwindet,
erhält man auf IR!2" und C" die gleiche Norm.

Aufgaben zu 5.3

1. Zeigen Sie, dass die schiefsymmetrische Bi linearform (vgl. 5.4.1) w: W" x IR2" --+ IR
aus 5.3.2 nicht-entartet ist, d. h. : Ist w(v, w) = 0 für alle w E W", so ist v = 0.
2. Sei 1 : IR2" --+ IR 2" der Endomorphismus, der gegeben ist durch
l(XI, YI, ... , Xn, y") = (-Y I, XJ, ... , -y,. , x,.).
(Identifiziert man IR2" mit IC" wie in 5.3.2, so ist 1 einfach die Multiplikation mit i.)
Zeigen Sie, dass für das kanonische Skalarprodukt ( , ) im W", die Abbildung w aus
5.3.2 und 1 der folgende Zusammenhang besteht:
Für alle v, w E IR2" ist (v, w) = w(v , l(w) ).

3. Eine komplexe Struktur auf einem IR-Vektorraum V ist ein Endamorphismus 1 von V
mit 1 2 = - id. Zeigen Sie:

a) Mit der skalaren Multiplikation (x + iy) · v := xv + yl(v) wird V zu einem


C -Vektorraum.

b) Ist V endlichdimensional, so ist diiTR V gerade.


288 5 Euklidische und unitäre Vektorräume

5.4 Bilinearformen und Sesquilinearformen


Nachdem wir die wichtigsten Beispiele beschrieben haben, werden nun die üblichen
allgemeinen Begriffe eingeführt.

5.4.1. Zunächst darf K wieder ein allgemeiner Körper sein. Ist V ein Vektor-
raum darüber, so betrachten wir eine Abbildung
s: V x V~ K, (v, w) H- s(v, w).
Sie heißt Bilinearform auf V, wenn folgendes gilt:
BI s(v + v', w) = s(v, w) + s(v', w), s(A.v, w) = A.s(v, w),

B2 s(v, w + w') = s(v, w) + s(v, w'), s(v, A.w) = A.s(v, w).

Die Abbildung s heißt symmetrisch, falls


S s(v, w) = s(w, v),
und alternierend (oder schiefsymmetrisch), falls
A s(w, v) = -s(v, w).

Dabei istjeweils v, v', w, w' E V und A. E K.

Beispiel. Sei K = IR, I = [a, b] C IR ein Intervall und V = C(l; IR) der
Vektorraum der darauf stetigen Funktionen. Da jede stetige Funktion integrierbar
ist, hat man eine Abbildung

J
b

V x V~ IR, (J,g) H- f(t)g(t)dt,


a

und diese ist nach den Rechenregeln für Integrale eine symmetrische Bilinear-
forrn.

5.4.2. Ist V im Gegensatz zu obigem Beispiel endlich-dimensional, so kann man


Bilinearforrnen durch Matrizen beschreiben. Sei also s eine Bilinearforrn und
ß = (v 1 , • • • , vn) eine Basis von V. Wir betrachten die Matrix
M 8 (s) := (s(v;, v1 ));1 E M(n x n; K ) .
Wie bei linearen Abbildungen nennt man sie die darstellende Matrix von s be-
züglich ß. Durch sie ist s vollständig festgelegt. Genauer gilt:
Bemerkung. Sei s eine Bilinearform auf V mit Basis ß, <1> 8 : K" ~ V das
zugehörige Koordinatensystem. Wir betrachten die Matrix A = M 8 (s) undfür
5.4 Bilinearformen und Sesquilinearformen 289

v, w E V die Koordinaten x = <l>ß 1 (v), y = <l>ß 1(w). Dann ist

a11

s(v,w)= xAy=(XJ, . .. ,xn)


1 ( ;

an I

Beweis. Es ist
s(v, w) = s(XJ VJ + ... +xnVn, YJVJ + ... + YnVn)'
also folgt die Behauptung durch wiederholte Anwendung von Bl und B2, weil
aij = s(v;, v1). Das Ergebnis kann man auch als Doppelsumme mit n 2 Summan-
den schreiben:

=L
n

s(v, w) aijXiYJ . 0
i.j=l

Ist umgekehrt auf V mit Basis ß eine beliebige quadratische Matrix A = (aij)
gegeben, so ist durch die obige Formel eine Bilinearform s mit
s(v;, v 1) = aij
erklärt. Das folgt etwa aus den Rechenregeln für die Matrizenmultiplikation. Die
Symmetrie von s ist gleichbedeutend mit der Symmetrie von A. Zusammenfas-
send gilt:
Satz. Sei V ein K- Vektorraum mit n = dim V < oo und ß eine Basis. Dann ist
die Abbildung
s 1-+ MB(s)
von den Bilinearformen auf V in M(n x n; K) bijektiv, und s ist genau dann
symmetrisch, wenn M 8 (s) symmetrisch ist.
Daß zu verschiedenen Matrizen verschiedene Bilinearformen gehören, kann
man in einer Art von Kürzungsregel ausdrücken:
Lemma. Gegeben seien A , B E M(n x n; K) derart, daß
'xAy = 'xBy
für alle Spaltenvektoren x, y E K". Dann ist A = B.
Beweis. Es genügt, für x und y die kanonische Basis einzusetzen und zu bemer-
ken, daß
D
290 5 Euklidische und unitäre Vektorräume

5.4.3. Die Beschreibung einer Bilinearform durch eine Matrix hat Ähnlichkeit
mit der entsprechenden Beschreibung eines Endamorphismus (2.4.3). Ein we-
sentlicher Unterschied zeigt sich im Transformationsverhalten.
Transformationsformel. Sei V ein endlichdimensionaler Vektorraum mit Ba-
sen A, ß, und sei TJ. die entsprechende Transformationsmatrix (2.6.2). Für jede
Bi linearform s auf V gilt dann
MB(s) = 1 TJ. · MA(s) · TJ..

Man beachte, daß dagegen für einen Endamorphismus F von V nach 2.6.5 gilt:
MB(F) = Tf · MA(F) · TJ., wobei Tf = (TJ.r 1 •
Beweis. Seien v, v' E V mit v = <t>A(x) = <t>B(Y) und v' = <t>A(x' ) = <t>B(y').
Ist T := TJ. , so ist x = Ty und x ' = Ty'. Setzen wir weiter A := MA(s) und
B := M 8 (s), so folgt
1 yBy' = s(v, v') = 1xAx' = 1 (Ty)A(Ty' ) = 1 y( 1 T AT)y' .

Da dies für alle y und y' gilt, folgt die Behauptung B = 1 TAT aus Lemma
5.4.2. 0
Ist S = Tif = T - 1, so können wir die beiden Transformationsformeln auch in
der folgenden Form vergleichen:
A = 1 SB S für eine Bilineaiform und
B = SAS- 1 , d.h. A = s- 1 B S für einen Endomorphismus.
5.4.4. Ist s : V x V -+ K eine symmetrische Bilinearform, so erhält man daraus
eine Abbildung
q: V -+ K, v r+ q(v) := s(v, v).
Sie heißt die zu s gehörige quadratische Form. Da s bilinear ist, folgt
q(A.v) = A. 2q(v)
E K. Ist insbesondere V
für A. K" und s durch eine symmetrische Matrix
A = (aiJ) gegeben, so ist
I! 11

q(x 1, ••• , x") = L aiJx;x1 = La;;x; + L 2aiJx;x1 ,


i.j=l i=l I S i <)Sn

das ist ein homogenes quadratisches Polynom in den Unbestimmten


Xt, ... ' Xn.
Es ist nicht selbstverständlich, daß man die ursprüngliche Form s aus q rekon-
struieren kann. Diesen Kniff nennt man
5.4 Bilinearformen und Sesquilinearformen 291

Polarisierung. Ist char(K) =I 2, so gilt für jede symmetrische Bilinearform s


und die zugehörige quadratische Form q auf V
s(v, w) = ! (q(v + w)- q(v)- q(w)) .

Das rechnet man ohne Schwierigkeit nach. 0

5.4.5. Für die Längenmessung im <C" benötigt man die komplexe Konjugation,
das ist eine Abbildung
<C--+<C, ZI--+Z,
die ein Körperhomomorphismus ist, und die zweimal angewandt die Identität ist.
Ist V ein komplexer Vektorraum, so heißt eine Abbildung F: V --+ V semi-
linear (d.h. halb oder halbwegs linear), wenn
F(v + w) = F(v) + F(w) und F("Av) = 5.F(v)
für v, w E V und A. E <C. Entsprechend nennt man eine Abbildung
s: VxV--+<C
sesquilinear (d.h. 1 ~-fach linear), wenn s im ersten Argument linear und im
zweiten Argument semilinear ist, d.h.
BI s(v + v' , w)
= s(v, w) + s(v', w), s("Av, w) = "As(v, w),
B2 s(v, w + w') = s(v, w) + s(v, w') , s(v, "Aw) = 5.s(v, w),
und hermitesch, wenn zusätzlich
H s(w, v) = s(v, w) .
Dabei ist jeweils v, v', w, w' E V und).. E <C. Standardbeispiel dafür ist das
kanonische Skalarprodukt im <C".
Wie eine Bilinearform kann man auch eine Sesquilinearforrn durch eine Ma-
trix beschreiben, indem man an der richtigen Stelle einen Querstrich einfügt. Wir
notieren nur die Ergebnisse: Ist A Basis von V und
A = MA(s) = (s(v; , vj)), v = <l>A(x) und w = <l>A(Y),
so ist
s(v,w)='xAji.
Ist ß eine weitere Basis, B = M6 (s) und T = T'j, so hat man die Transformati-
onsformel
292 5 Euklidische und unitäre Vektorräume

Weiter ist die Sesquilinearform s genau dann hermitesch, wenn die Matrix
A = MA(s) hermitesch ist, d.h.
'A= Ä.
Schließlich hat man auch im Komplexen für Sesquilinearformen eine Polarisie-
rung
s(v , w) = ~ (q(v + w)- q(v- w) + iq(v + iw)- iq(v- iw)) .

5.4.6. Symmetrische Bilinearformen oder hermitesche Formen sind viel allge-


meiner als die Standardbeispiele aus 5.1 und 5.3, denn zum Beispiel die Null-
abbildung s (d.h. s ( v, w) = 0 für alle v, w) erfüllt trivialerweise all die ange-
gebenen Bedingungen. Zur Formulierung einer starken Qualitätsbedingung be-
schränken wir uns auf den reellen und komplexen Fall . Dazu ist es vorteilhaft,
den Buchstaben IK für
IK = IR oder IK = C
zu verwenden. Sei also V ein IK-Vektorraum und
s: V x V--+ IK
eine symmetrische Bilinearform (bzw. hermitesche Form). Dann heißt s positiv
definit, wenn
S (V , V) > 0 für jedes V E V mit V =/= 0 .
Man beachte dabei, daß auch im hermiteschen Fall s(v , v) E IR ist.
Eine symmetrische (bzw. hermitesche) Matrix A heißt positiv definit, wenn
'x Ax > 0 für jeden Spaltenvektor x =1= 0 aus IK 11 •
In 5.7.3 geben wir relativ leicht nachprüfbare Bedingungen dafür an.
Vorsicht! Es kann
s(v;, v;) > 0
für alle Vektoren v; einer Basis sein, ohne daß s positiv definit ist. Man betrachte
als Beispiel
s: IR 2 x IR 2 --+ IR , (x, , Xz , y, , yz) r+ x, y, - XzYz,
und überlege sich, welches Vorzeichen s(v , v) in Abhängigkeit von v hat.
Zur Abkürzung nennt man eine positiv definite symmetrische Bilinearform
bzw. hermitesche Form ein Skalarprodukt und einen reellen bzw. komplexen
Vektorraum zusammen mit einem Skalarprodukt einen euklidischen bzw. uni-
tären Vektorraum.
In den folgenden Abschnitten wird sich zeigen, wie sich diese zusätzliche
Struktur benutzen läßt, um neue Ergebnisse über die Diagonalisierung zu be-
weisen.
5.4 Bilinearformen und Sesquilinearformen 293

Die Standardräume IR" bzw. <C" haben neben der natürlichen Vektorraumstruk-
tur auch eine natürliche euklidische bzw. unitäre Struktur in sich (vgl. 5.1 und
5.3). Man kann sich also fragen, was die vielen abstrakten Begriffe nützen. Eine
Rechtfertigung besteht darin, daß die abstrakten Bedingungen oft einfacher zu
handhaben und zu verstehen sind, als wenn man immer nur mit n-Tupeln von
Zahlen rechnet. So wie im Wald, den man oft wegen der vielen Bäume nicht
sieht.
5.4.7. Sei V ein euklidischer bzw. unitärer Vektorraum mit Skalarprodukt ( , ).
Wir definieren eine Norm
llvll=~.
Um zu zeigen, daß sie die Eigenschaften einer Norm aus 5.1.2 hat, benötigt man
wieder die
Ungleichung von CAUCHY-SCHWARZ. Ist V ein euklidischer bzw. unitärer
Vektorraum, so giltfür alle v, w E V
l (v, w)l :'0 llvll·llwll,
und die Gleichheit gilt genau dann, wenn v und w linear abhängig sind.
Beweis. Für alle Ä, J.L E IK gilt
0 :'0 (Äv + J.LW, Äv + J.LW) = Ü(v, v) + J.LiL(w, w) + Äji,(v, w) + J.LJ...(w, v) .
Ist w =F 0, so kann man Ä := (w, w) > 0 einsetzen und durch Ä dividieren, also
ist
0 :'0 (v, v)(w, w) + J.LiL + ji,(v, w) + J.L(w , v).
Setzt man weiter J.L := - (v, w ), so folgt
0 :'0 (v , v)(w, w)- (v, w)(v , w) = llvll 2 · llw ll 2 - l(v, w)l 2 .
Durch Wurzelziehen folgt die Ungleichung, falls w =F 0. Für w = 0 lautet sie
0 = 0.
Um festzustellen, wann die Gleichung
l(v , w)l = llvll· llw ll
gilt, können wir wieder w =F 0 annehmen. Ist v = a · w, so ist
l(v, w)l = Iai · (w , w) = lal·llwll· llwll = lla · wll · llwll,
also folgt (*) . Ist (*) erfüllt, so folgt mit Ä und J.L wie oben
0 = (Äv + J.LW, Äv + J.LW), also Äv + J.LW =0. 0

Der obige Beweis benutzt nur die abstrakten Eigenschaften des Skalarproduktes
und ist einfacher als der in 5 .1.3 gegebene. Dafür konnten wir dort die Differenz
294 5 Euklidische und unitäre Vektorräume

der Quadrate der beiden Seiten von CAUCHY-SCHWARZ explizit als Summe von
Quadraten darstellen, was zum Beispiel in 5.2.2 nützlich gewesen war.
Als Folgerung aus der CAUCHY-SCHWARZschen Ungleichung erhalten wir,
daß in einem euklidischen oder unitären Vektorraum die oben definierte Norm
und die daraus erhaltene Metrik
d(v, w) := llw- vll
die in 5.1.2 angegebenen Eigenschaften haben. Die Beweise verlaufen wie dort.
Man beachte, daß umgekehrt auf einem IK-Vektorraum nicht jede Metrik wie
oben aus einer Norm und nicht jede Norm aus einem Skalarprodukt entsteht
(vgl. Aufgabe 5).
5.4.8. In einem euklidischen Vektorraum kann man wie in 5.1.4 mit Hilfe der
CAUCHY-SCHWARZschen Ungleichung eine Winkelmessung erklären. Im fol-
genden sind wir in erster Linie daran interessiert, wann zwei Vektoren senkrecht
stehen. Das kann man auch im komplexen Fall erklären.
Definition. Sei V ein euklidischer bzw. unitärer Vektorraum.
a) Zwei Vektoren v, w E V heißen orthogonal, in Zeichen
v ..L w :{} (v, w) = 0.
b) Zwei Untervektorräume U, W C V heißen orthogonal, in Zeichen
U ..L W :{} u ..Lw für alle u E U und alle w E W .
c) Ist U C V ein Untervektorraum, so definiert man sein orthogonales Komple-
ment
u~ := lv E V: V ..Lu für alle u E U} .
Das ist wieder ein Untervektorraum.

Bild 5.8

d) Eine Familie (v 1 , ••• , Vn) in V heißt orthogonal, wenn


V; ..L vj für alle i =f. j.
5.4 Bilinearformen und Sesquilinearformen 295

Sie heißt orthonomzal, falls zusätzlich


IIV; II = 1 für alle i ,
und Orthonormalbasis, falls sie auch eine Basis ist, d.h. eine Basis mit
(v;, v1 ) = 8iJ.
e) Ist V = V1 EB ... EB Vb so heißt die direkte Summe orthogonal, in Zeichen
V = VI (!) .. . (!) vk , falls V; .l vj für alle i =f. j .

Bemerkung 1. Ist (v 1 , ••• , v11 ) eine orthogonale Familie in V und v; =f. 0 für
alle i, so gilt:
a) Die Familie (a 1 v 1, ••• , a 11 v 11 ) mita; := llv;ll- 1 ist orthonormal.
b) (v 1 , ••• , v11 ) ist linear unabhängig.

Beweis. a) Aus
(a ;v;, a 1 v1 ) = a,a1 (v;, v1 )
folgt für i =f. j, daß die Vektoren orthogonal sind, und für i j gilt wegen
a; E IR
(a;v;, a;v; ) = a;ä;(v;, v;) = ai ll v;ll 2 = 1.

b) Bildet man das Skalarprodukt von beiden Seiten der Gleichung


AJVJ+ ... +A11 Vn=0
mit v;, so folgt A.; ( v;, v; ) = 0, also A.; = 0, da (v; , v; ) =f. 0. Das entspricht ganz
der Vorstellung, daß ein senkrecht stehender Vektor unabhängig ist. o
Eine ganz einfache, aber wichtige Eigenschaft einer Orthonormalbasis ist die
folgende:
Bemerkung 2. Sei (v 1 , ••• , V 11 ) eine Orthonormalbasis von V und v E V belie-
big. Setzt man
A.;:=(v ,v;), soist v=A. 1v 1 + . . . +A11 V 11 •

Beweis. Die A.; sind eindeutig bestimmt, also genügt es, die rechte Seite skalar
mit V; zu multiplizieren:
(v, v;) = A.J(v 1, v;) + ... + A 11 (V 11 , v;) = A;. 0

5.4.9. Im IR" oder C" mit dem kanonischen Skalarprodukt ist die kanonische
Basis orthonormal. Wenn eine gewisse geometrische Situation vorgegeben ist,
296 5 Euklidische und unitäre Vektorräume

kann es nützlich sein, eine Orthonormalbasis daran anzupassen. Das führt zu der
Frage, wie viele Möglichkeiten es gibt, eine Orthonormalbasis zu finden. Eine
konstruktive Antwort gibt der auf J. GRAM und E. SCHMIDT zurückgehende
Orthonormalisierungssatz. Sei V ein endlichdimensionaler euklidischer bzw.
unitärer Vektorraum und W C V ein Untervektorraum mit Orthonormalbasis
( w 1, ••• , Wm ). Dann gibt es eine Ergänzung zu einer Orthonormalbasis
(w,, . .. 'Wm, Wm+J, ... 'Wn) von V.

Da der Fall W = 0 erlaubt ist, folgt sofort das


Korollar 1. Jeder endlichdimensionale euklidische bzw. unitäre Vektorraum be-
sitzt eine Orthonormalbasis. 0

Die nach der Aussage des Satzes existierenden Vektoren Wm + 1, •.. , w" stehen
senkrecht auf W, also ist
W' := span (wm+l• ... , w") c W.L.
Ist umgekehrt
w = AJW) + . .. + AmWm + Am+JWm+l + . . . + A"Wn E w.L,
so folgt durch skalare Multiplikation dieser Gleichung von rechts mit wi
0 = (w , wi) = ).i für i = 1, . . . , m,
also w E W', und insgesamt
w .L = span(wm+l· . .. • w").
Insbesondere folgt mit Hilfe von 1.6.3 und der Notation aus 5.4.8 das
Korollar 2. Ist W Untervektorraum eines euklidischen bzw. unitären Vektorrau-
mes V, so gilt
V= W Q;)W.L und dimV = dimW + dimW.L. 0

Beweis des Orthonormalisierungssatzes. Ist W = V, so ist nichts mehr zu tun.


Andernfalls gibt es einen Vektor v E V -.... W, und wir definieren
v := (v, w )w + ... + (v, w".)w"..
1 1

Dies nennt man die senkrechte Projektion von v auf W, denn setzt man
W := V - V , SO ist W ..l W .
5.4 Bilinearformen und Sesquilinearformen 297

,..__ _ _ _ _ _ _ _____:=-;0""------- w,
(v, w,)w1
Bild 5.9

Dazu genügt es zu zeigen, daß w .l w; für i = 1, . .. , m, und das folgt aus


(w, w;) = {v, w; ) - {ü, w;) = {v, w; ) - {v , w;) = 0,
da {w; , w1 ) = 8iJ. Bis auf die Länge ist w schon für die Ergänzung der Basis
geeignet, wir setzen
1
Wm+l :=M·W.
Nun hat W' := span(w 1, .. . , Wm + I) eine Orthonormalbasis (w 1 , . . . , W m + 1),
und es ist dim W' = m + 1. Indem man das obige Verfahren so oft wie nötig
wiederholt, erhält man schließlich die gewünschte Ergänzung. D

Für die praktische Rechnung ergänzt man die Basis von W durch v",+ 1, ... , v"
zu einer Basis von V und berechnet Wm+l durch Orthonormalisieren von Vm +l
wie oben. Da aus der Konstruktion folgt, daß
Vm +2 rf. span (w1, .. . , w",, Wm+l) = span (w1, ... , w",, Vm + l),
kann man mit Vm + 2 fortfahren. lm letzten Schritt orthonormiert man v" (vgl.
Aufgabe 8).
5.4.10. Ein Skalarprodukt ist der abstrakte Hintergrund von Längenmessung.
Damit kann man iterativ auch höherdimensionale Volumina messen: Die Fläche
eines Parallelogramms ist gleich der Länge der Grundlinie und Höhe, das Volu-
men eines Spates gleich Grundfläche und Höhe, u.s.w. Zur Erklärung des allge-
meinen rn-dimensionalen Volumens verwenden wir eine Gramsehe Determinan-
te. Mit Hilfe des Orthogonalisierungsverfahrens aus 5.4.9 ergibt sich eine schöne
geometrische Folgerung dafür.
298 5 Euklidische und unitäre Vektorräume

In einem endlichdimensionalen euklidischen Vektorraum V seien beliebige


Vektoren v1, .. . , Vm E V gegeben, wobei rn::; n. Dann nennt man
(v1, v1)
G(vl, .. . ,vm):= det ( ;
(vm, v1)
die Gramsehe Determinante von v1, ... , Vm·
Bemerkung. Es gilt stets G(v1 , . . . , vm) 2 0 und
G(v1, ... , vm) >0 ~ (v1, ... , vm) linear unabhängig.

Beweis. Nach 5.4.9 gibt es eine Orthonormalbasis (w1, ... , wn) von V. Ist

und A := (a;j) E M(rn x n; IR), so ist


G(v1, .. . ,vm) = det (A- tA).
Also folgt die Behauptung sofort aus 3.3.8. 0

Nach dieser Bemerkung kann man aus der Gramsehen Determinante die Wurzel
ziehen, und durch
Vol (vl, . .. , Vm) := vG(vl, .. . , vm)
das rn-dimensionale Volumen des durch v1, ... , Vm aufgespannten Spates er-
klären. Das ist die Grundlage der Definition von Verallgemeinerten Oberflächen-
integralen in der Analysis (siehe etwa [Fo3]).
Im R 3 mit dem kanonischen Skalarprodukt kann man eine beliebige Basis
(v1. . .. , vn) als Zeilen in eine Matrix A eintragen. Dann ist
Vol (v1, ... , Vn) = J(det A) 2 = ldet Al ,
wie in 3.1.1, 2 e).
Nun entsteht die Frage, wie man mit rn Vektoren gegebener Länge ein möglichst
großes rn-dimensionales Volumen aufspannen kann. Es ist höchst plausibel, daß
die Vektoren dazu orthogonal sein müssen. Das besagt die
Ungleichung von HADAMARD. Seien v1 , ... , Vm beliebige Vektoren in einem
n-dimensionalen Vektorraum V mit rn ::; n. Dann ist
Vol (v1, ... , Vm) :S: llvd · .. · · llvmll,
und Gleichheit besteht genau dann, wenn die v; paarweise orthogonal sind, d.h.
wenn der aufgespannte Spat ein Quader ist.
5.4 Bilinearformen und Sesquilinearformen 299

Beweis. Es genügt, die Ungleichung in der quadratischen Form


G(vb·· · ,vm) ~ (v1,v1) · ... · (vm,Vm)
zu beweisen, und dazu genügt es zu zeigen, daß für jedes r ~ m folgendes gilt:
Für die eindeutig bestimmte orthogonale Zerlegung (siehe 5.4.9)
v. = v + v' mit v= AJV1 + ... + Ar- JVr- 1 und v' l_span (v1, . . . , v._J)
ist
G(v1, ... , v. ) = G(v1 , ... , Vr-1) · (v', v') ~ G(vl> . .. , Vr-d · (v., v.),
und die Ungleichung ist genau dann eine Gleichung, wenn
v. l_span (v1 , ... , Vr-1) .
Die Ungleichung und das Kriterium für die Gleichheit folgen unmittelbar aus der
Definition. Zum Beweis der ersten Gleichung verwenden wir:
(v;,v.) = (v;,v) für i = 1, ... ,r - 1 und (vnvr) = (v',v') + (v,v).
Daher ist

(v1, v) )

(vr-b Vr-1) (vr-1,v)


(v, Vr-1) (v',v') + (v,v)
Indem man von der letzten Spalte die Spalten 1 bis r - 1, jeweils multipliziert
mit >. 1 , ... , >.._ 1 , abzieht, wird daraus die Spalte

und die Behauptung folgt durch Entwicklung der Determinante nach der neuen
letzten Spalte. D

Aufgaben zu 5.4

1. Sei K ein Körper mit char K f= 2 und V ein K -Vektorraum. Zeigen Sie, dass sich
jede Bilinearform auf V in eindeutiger Weise als Summe einer symmetrischen und einer
schiefsymmetrischen Bilinearform darstellen lässt.
300 5 Euklidische und unitäre Vektorräume

2. Sei V ein 3-dimensionaler IR-Vektorraum, A = (v1, v2 , v 3 ) eine Basis von V und s


eine Bilinearform auf V mit

I 2)
I I
I
Zeigen Sie, dass ß = (v, + vz, vz + v3, vz) eine Basis von V ist, und berechnen Sie
MB(S).

3. Gegeben seien F, G EHom(IR3 , IR) mit F(x 1, x 2 , x3) = a 1x 1 + azxz + a3x3 ,


G(x, , xz , x3) = b,x, + + b3x3. Zeigen Sie, dass s: IR3 x IR3 --+ IR,
bzxz
(x, y) >--> F(x) · G(y) eine Bilinearform ist, und bestimmen Sie die Matrix von s
bezüglich der kanonischen Basis des IR'.
4. Zeigen Sie, dass für einen IR-Vektorraum V der folgende Zusammenhang zwischen
Normen und Skalarprodukten gilt:
a) Ist ( , } ein Skalarprodukt auf V mit zugehöriger Norm ll vll = J\V,V), so gilt die
Parallelogramm-Gleichung
llv + wll 2 + llv- wll 2 = 211vll 2 + 211wll 2 .
b)* Ist umgekehrt II II eine Norm auf V, die die Parallelogrammgleichung erfüllt, so
existiert ein Skalarprodukt ( , } auf V mit II v II = J\V,V).

5. Wir wollen zeigen, dass auf einem IR-Vektorraum nicht jede Metrik aus einer Norm
und nicht jede Norm aus einem Skalarprodukt entsteht. (Zur Erinnerung: Eine Norm auf
einem IR-Vektorraum V ist eine Abbildung V--+ IRt- mit den Eigenschaften NI, N2, N3
aus 5.1.2, eine Metrik auf V ist eine Abbildung V x V --+ IRt- mit den Eigenschaften
01 , 02,03 aus 5.1.2.)
a) Zeigen Sie, dass für n 2:: 2 auf dem IR" durch llxll := max{lx;l: I :::; i :::; n) eine
Norm definiert ist, für die kein Skalarprodukt ( } auf nr existiert mit
llx II = v'{X,X)
b) Sei V = C(IR; IR) der Vektorraum der stetigen Funktionen, und für k E N, f E V sei
llfllk := max{lf(x)l: x E [-k,k]}. Zeigen Sie, dass durch

d(f,g ):=frk llf-gllk


k=O l+llf- gllk
eine Metrik auf V definiert ist, für die keine Norm II II : V --+ IR.r existiert, so dass
II!- gll = d(f, g).
6. Sei V ein endlichdimensionaler Vektorraum mit Skalarprodukt ( , } und (LI , . . . , v,)
eine orthonormale Familie in V . Beweisen Sie, dass die folgenden Bedingungen äquiva-
lent sind:
5.4 Bilinearformen und Sesquilinearformen 301

i) (v 1 , ••• , v,) ist eine Basis von V.

ii) Ist v E V, so folgt aus (v, v; ) = 0 für alle i, dass v = 0 ist.


r
iii) Ist v E V, so gilt: v = l::(v, v;) · v;.
i= l
r
iv) Für alle v, w E V gilt: (v, w) = :L (v, v;} · (v;, w).
i=l

v) Füralle v E V gilt: llvll 2 = t


i=l
l(v, v;}l 2

7. Sei B = ( ~ J2, cos x, sin x , cos 2x, sin 2x, ... ) und
W = span B c C([O, 2rr]; IR) = V
(vgl. mit dem Vektorraum der trigonometrischen Polynome in Aufgabe 4 zu 1.4). Zeigen
Sie:
2JT
a) Durch (f, g) := ~ J f(x)g(x) dx ist ein Skalarprodukt auf V definiert.
0

b) Bist eine Orthonorrnalbasis (bzgl. ( , }) von W.

c) Ist f(x) = ~J2 + 'tcakcoskx + bksinkx) E W, so gilt ak (f,coskx),


k=l
bk = (f, sin kx}. Für f E V heißen die Zahlen
ak = (f. coskx ), k E N '- (0), bt = (f, sinlx}, l E N '- (0},
die Fourierkoeffizienten von f.
d)* Ist f E V und sind ako bk die Fourierkoeffizienten von f , so gilt die Ungleichung
von Bessel:
00

11!11 2 2: a6 + L;cai + bf) ·


k=l

e)* Sind f, g E V stückweise stetig differenzierbar, und sind ~ . bk die Fourierkoef-


fizienten von f und a~, b~ die Fourierkoeffizienten von g, so gilt die Formel von
Parseval:
00

(f, g ) = a 0 ab + L;caka~ + bkb~).


k= l
302 5 Euklidische und unitäre Vektorräume

8. Bestimmen Sie mit dem Schmidtschen Verfahren eine Orthonormalbasis des folgen-
den Untervektorraums des JR5 :
2
0 0
span 0 I I 0
0 0 0 2
0 0 2 3

9. Gegeben sei auf V= span (1, I, 12 , 1 3 ) c IR[I] das Skalarprodukt


l

s(f, g) = j f(l)g(t) d1.


- I

a) Bestimmen Sie die Matrix von s bezüglich der Basis (1 , 1, ?, 13 ).


b) Bestimmen Sie eine Orthonormalbasis von V.

10.* Ein symp/eklischer Vektorraum ist ein IR-Vektorraum V mit einer schiefsymmetri-
schen Bilinearform w, die nicht-entartet ist (d.h. dass aus w(v, w) = 0 für alle w E V
stets v = 0 folgt). Eine Basis (v1, ... , Vn, w 1, .. . , Wn) von V heißt Darboux-Basis,
wenn gilt: w(v;. v1 ) = w(w;, w 1) = 0 und w(v;, w 1 ) = 8iJ für alle i, j. Zeigen Sie,
dass jeder endlichdimensionale symplektische Vektorraum eine Darboux-Basis besitzt
(und damit insbesondere gerade Dimension hat).
5.5 Orthogonale und unitäre Endomorphismen 303

5.5 Orthogonale und unitäre Endomorphismen


Besonders wichtig sind die Abbildungen, die Abstände und Winkel erhalten. Es wird
sich zeigen, daß sie geometrische Eigenschaften haben, die anschaulich gar nicht offen-
sichtlich sind. Bei den grundlegenden Begriffen kann man den reellen und komplexen
Fall gemeinsam behandeln, erst anschließend werden Unterschiede und interessante Be-
ziehungen zwischen beiden Fällen sichtbar. Wie bisher setzen wir stets stillschweigend
voraus, daß alle auftretenden Vektorräume endlichdimensional sind.
5.5.1. Für eine Abbildung, die Abstände erhalten soll, verlangen wir zunächst
scheinbar etwas mehr.
Definition. Sei V ein euklidischer bzw. unitärer Vektorraum und F ein Endo-
morphismus von V. Dann heißt F orthogonal bzw. unitär, wenn
(F(v), F(w) ) = (v, w) für alle v, w E V.
Bemerkung. Ein orthogonales bzw. unitäres F E End (V) hat folgende weiteren
Eigenschaften:
a) IIF(v)ll = llvll füralle v E V.
b) v _l w =? F(v) _l F(w).
c) Fist Isomorphismus und F - 1 ist orthogonal bzw. unitär.
d) Ist A. E K Eigenwert von F, so ist lA. I = l.

Beweis. a) und b) sind klar. Aus a) folgt, daß F injektiv ist, daher folgt c) aus
2.2.4. Ist v Eigenvektor zum Eigenwert A., so ist
llvll = IIF(v)ll = IIA.vll = IA.I·IIvll, also IA.I = 1 wegen llvll # 0. 0

Man nennt orthogonale bzw. unitäre Abbildungen oft auch lsometrien, d.h. Ab-
bildungen, die Abstände erhalten. Das ist gerechtfertigt durch das folgende
Lemma. Ist F E End (V) mit II F(v)ll = llvll für alle v E V, so ist F orthogo-
nal bzw. unitär.
Beweis. Aus der Invarianz der Norm folgt die Invarianz der zum Skalarprodukt
gehörigen quadratischen Form. Aus den Polarisierungsgleichungen in 5.4.4 und
5.4.5 folgt daher die Invarianz des Skalarproduktes. 0

Vorsicht! Ist F orthogonal, so erhält F auch Winkel, insbesondere rechte Win-


kel. Aus der Definition des Winkels in 5.1.4 sieht man, daß für 0 # Q E IR auch
die Abbildung Q · F Winkel erhält. Für IQI # 1 ist sie aber nicht mehr orthogo-
nal im Sinne der Definition. Diese allgemein übliche Bezeichnungsweise ist also
etwas irreführend.
304 5 Euklidische und unitäre Vektorräume

5.5.2. Im IR" und C" mit dem kanonischen Skalarprodukt sind Endamorphis-
men durch Matrizen beschrieben. Für die Abbildung A : IK" --+ IK" bedeutet
orthogonal bzw. unitär dann
'xy = '(Ax)Ay = 'x ('AA) y für alle x, y,
also 'AA =E 11 , d.h. A-l = 'A. Das erklärt die
Definition. Eine Matrix A E GL (n; IR) heißt orthogonal, falls
A - 1 ='A,
und entsprechend heißt A E GL (n; C) unitär, falls
A-l ='A.

Für eine unitäre Matrix A folgt aus A · 'A = En


I detA1 2 = detA · detA = detA · det'A = det (A · 'A) = detE" = 1,
daß I det AI = 1. Entsprechend ist für eine orthogonale Matrix det A = ± 1. Man
nennt A eigentlich orthogonal, wenn det A = + 1. Das bedeutet nach 3.4.2, daß
A Orientierungstreu ist. Die Mengen
O(n) := {A EGL(n;IR) : A- 1 ='A) , (orthogonale Gruppe)
SO(n) := {A E O(n): detA = 1} und (spezielle orthogonale Gruppe)
U(n) := {A E GL(n; C): A- = 1 'A) (unitäre Gruppe)
der orthogonalen, eigentlich orthogonalen und unitären Matrizen sind Unter-
gruppen von GL(n; IR) bzw. GL(n; C). Wir zeigen das für U(n). Sind A, B
unitär, so ist
(AB) - 1 = B- 1A- 1 = 'B'A ='(AB) und r
(A - 1 1 = A = '(A- 1) ,
also sind AB und A - l unitär.
Bemerkung. Für A E M(n x n; JK) sindfolgende Bedingungen gleichwertig:
i) A ist orthogonal bzw. unitär.
ii) Die Spalten von A sind eine Orthonormalbasis von IK".
iii) Die Zeilen von A sind eine Orthonormalbasis von IK 11 •

Beweis. ii) bedeutet 'AA =E 11 , d.h. 'AA = En und iii) bedeutet A · 'A = E 11 • 0

5.5.3. Der Übergang von den allgemeinen Räumen und Endamorphismen zu


Standardräumen und Matrizen geschieht nach der folgenden Regel.
5.5 Orthogonale und unitäre Endomorphismen 305

Satz. Sei V ein euklidischer bzw. unitärer Vektorraum mit einer Orthonormalba-
sis BundFein Endamorphismus von V . Dann gilt:
F orthogonal (bzw. unitär) {} M 8 (F) orthogonal (bzw. unitär).

Beweis. Sei A := M 8 (F) E M(n x n; JK), und für v, w E V seien x, y die


Koordinaten, d.h. v = <P 8 (x) und w = <P 8 ( y) . Da B orthonormal ist, folgt
(v,w) ='xy,
wobei x und y Spaltenvektoren im JK" sind. Daß F orthogonal bzw. unitär ist,
bedeutet dann
'(Ax)Ay='xy, also 'AA=E". 0

5.5.4. Als interessante Beispiele wollen wir die orthogonalen Abbildungen des
IR" für kleine n genauer ansehen.
a) Der Fall n = 1 ist unergiebig, es gibt nur die Möglichkeiten
F(x)=±x .

b) Für n = 2 genügt es, die orthogonalen (2 x 2)-Matrizen anzugeben.


Lemma./st A E 0(2), so gibt es ein a E [0, 2n: [, so daß

A =( cos a - sin a ) oder A = (


cosa sina )
.
sma cosa sina - cosa

Im ersten Fall ist A E S0(2), die Abbildung ist eine Drehung. Im zweiten Fall
ist det A = -1, die Abbildung ist eine Spiegelung an einer Geraden (vgl. 4.1.1).
Vom Standpunkt der Topologie hat die Gruppe 0 (2) zwei Zusammenhangs-
komponenten, jede ist homöomorph zu einer Kreislinie (vgl. 3.4.4).
Beweis. Ist A E 0(2), so muß ' A · A = E 2 sein. Ist
A=(: ;).
so folgt
1. a 2 + b2 = 1, 2. c 2 + d2 = 1 und 3. ac + bd = 0.
Wegen 1. und 2. gibt es a , a' E [0, 2rr[, so daß
a = cos a , b = sin a , c = sin a ' , d = cos a ' .
Nach 3. ist 0 = cosa · sina' + sina · cosa' = sin(a + a '). Also ist a + a '
entweder ein geradzahliges oder ein ungeradzahliges Vielfaches von n:. Deshalb
306 5 Euklidische und unitäre Vektorräume

ist entweder
c sina' = - sina und d = cosa' = cosa oder
c sina' = sina und d = cosa' = - cosa.
0

Wir erinnern daran, was schon in 4.2.4 über die Eigenwerte einer Matrix
A E 0 (2) bewiesen wurde:
Ist det A = + 1, so gibt es nur im Fall a = 0 oder a = rr Eigenwerte.
Ist detA = -1, so gibt es Eigenwerte +1 und -1 , und die zugehörigen Ei-
genvektoren stehen senkrecht aufeinander.
c) Ist F: JH:.3 ---+ JH:. 3 orthogonal, so betrachten wir das charakteristische Polynom
PF . Es hat den Grad 3, also nach dem Zwischenwertsatz der Analysis mindestens
eine reelle Nullstelle. Also hat Feinen Eigenwert .l- 1, und nach 5.5.1 ist .l- 1 = ± 1.
Sei w1 E JH:.3 ein Eigenvektor dazu, wir können llwdl = 1 annehmen. Nach
5.4.9 können wir ihn zu einer Orthonormalbasis ß = (w 1 , w 2 , w 3 ) ergänzen.
Bezeichnet W c JH:. 3 die von w2 und w3 aufgespannte Ebene, so folgt aus der
Bemerkung in 5.5.1 , daß F(W) = W. Also ist

MB(F)~o s~A,
und aus 5.5.3 folgt A' E 0(2). Weiter ist det A = .l- 1 · det A' . Nun sind Fallunter-
scheidungen nötig.
Sei det F = detA = +1. Ist .l- 1 = -1, so muß det A' = -1 sein. Daher kann
man w2 und w3 als Eigenvektoren zu den Eigenwerten .l- 2 = + 1 und .l- 3 = -1
wählen, d.h.

Ist }q = + 1, so muß auch det A' = +I sein, also gibt es ein a E [0, 2rr [, so daß

A =( ~ co~ s~n
a
0 sina
- a )
cosa

Ist det F = -1, so gibt es bei geeigneter Wahl von w2 und w3 für A die Möglich-
5.5 Orthogonale und unitäre Endomorphismen 307

keiten

Man überlege sich, was das geometrisch bedeutet. Als Anwendung für das tägli-
che Leben notieren wir den
Satz vom Fußball. Bei jedem Fußballspiel, in dem nur ein Ball benutzt wird,
gibt es zwei Punkte auf der Oberfläche des Balles, die sich zu Beginn der ersten
und der zweiten Halbzeit (wenn der Ball genau auf dem Anstoßpunkt liegt) an
der gleichen Stelle im umgebenden Raum befinden.
Beweis. Im Fall det F = +1 gibt es stets einen Eigenwert + 1. 0

Diese Aussage ist zur Abwechslung leichter zu beweisen als anschaulich zu ver-
stehen.
5.5.5. Bevor wir eine Normalform für beliebig große orthogonale Matrizen an-
geben, behandeln wir den unitären Fall, weil er einfacher ist.
Theorem. Jeder unitäre Endamorphismus Feines unitären Vektorraumes besitzt
eine Orthonormalbasis aus Eigenvektoren von F. Insbesondere ist er diagonali-
sierbar.
Übersetzt in den Matrizenkalkül erhält man:
Korollar. Zu A E U (n) gibt es ein S E U (n) mit

wobei A; E C mit lA.; I = 1 für i = 1, . . . , n.


Beweis des Korollars. Als Spalten von S verwendet man eine Basis des C" , die
aus Eigenvektoren von A besteht. 0

Beweis des Theorems. Wir führen Induktion übern = dim V . Für n = 0 ist nichts
zu beweisen. Sei also n ::=: 1 und
PF = ±(t- A. 1) · .. . · (t- A.") mit A.~o .. . , A." E C
die nach dem Fundamentalsatz der Algebra (1.3 .9) existierende Linearfaktorzer-
legung des charakteristischen Polynoms von F. Zum Eigenwert A. 1 wählen wir
308 5 Euklidische und unitäre Vektorräume

einen Eigenvektor v 1 mit II v 1 11 = 1. Wir betrachten das orthogonale Komplement


zur Geraden Cv 1, d.h.
W:={wEV : (v 1 ,w)=0).
Die entscheidende Tatsache ist nun, daß F(W) = W gilt, d.h. daß Wein inva-
rianter Unterraum ist. Da Fein Isomorphismus ist, genügt es F(W) c W zu
beweisen. Wegen lA. 1 1 = 1 ist insbesondere A. 1 =/= 0, also folgt aus
A.J(v 1, F(w)) = (A. 1 v 1, F(w)) = (F(v 1), F(w)) = (v 1 , w) = 0 ,
daß (F(w), v 1) = 0 und somit F(W) C W .
Nun betrachten wir den Endamorphismus G := FIW von W. Als Einschrän-
kung von Fist er wieder unitär, und wegen dim W = n-1 (vgl. 5.4.9) können wir
auf G die Induktionsannahme anwenden. Danach gibt es eine Orthonormalbasis
(v 2 , ... , V11 ) von W , bestehend aus Eigenvektoren von G und damit auch von F.
Die Basis (v 1 , v2 , ... , V11 ) ist orthonormal und besteht aus Eigenvektoren von F.
0

Wie man eine derartige Orthonormalbasis konkret ausrechnen kann, wird in


5.6.3 erläutert.
5.5.6. Im Gegensatz zu der gerade im komplexen Fall bewiesenen Diagonali-
sierbarkeit unitärer Endamorphismen gibt es reell orthogonale Endamorphismen
ohne Eigenwerte. Das einfachste Beispiel sind Drehungen der Ebene IR 2 (siehe
4.1.1). Wir zeigen nun, daß dieses Gegenbeispiel im wesentlichen das einzige
ist: alle anderen lassen sich daraus aufbauen.
Theorem. Ist F ein orthogonaler Endamorphismus eines euklidischen Vektor-
raumes V, so gibt es in V eine Orthonormalbasis ß derart, daß
+1

+1
-1 0

-1
0 ~

wobeifür j = 1, ... , k

Ai= ( cosJJi -sinJJi) E S0(2) mit JJ 1 E [0,2n[, aberJJi =f=O,JT .


sin JJ 1 cos JJ 1
5.5 Orthogonale und unitäre Endamorphismen 309

F ist also charakterisiert durch die Anzahlen r und s der Eigenwerte + 1 und
-1 sowie der Winkel lJ 1, ... , lJb wobei r + s + 2k = dim V. Die orthogonale
Matrix heißt in Normalform.
Die Form der Matrix zeigt, dass V in ein- und zweidimensionale invariante
Unterräume zerfällt. Das ist der springende Punkt. Man beachte auch den Unter-
schied zu 4.5.4: dort ist V nicht direkte Summe der invarianten Unterräume, also
erhält man nicht nur Nullen oberhalb der Diagonale.
Lemma. Zu einem orthogonalen Endamorphismus F eines euklidischen Vek-
torraumes V mit dim V :=:: 1 gibt es stets einen Untervektorraum W C V mit
F ( W) c W und 1 _::: dim W _::: 2 .

Der Beweis des Theorems kann damit ganz einfach durch Induktion über
n = dim V geführt werden.
Für n = 0 ist nichts zu beweisen, sei also n :=:: 1. Nach dem Lemma gibt es
einen Untervektorraum W c V mit
1 _::: dimW _::: 2 und F(W) = W,
denn eine orthogonale Abbildung ist injektiv. Insbesondere ist F _, wieder ortho-
gonal. Also ist für w E W und v E W .L
(F(v), w) = (r'(F(v)), F - 1(w)) = (v, F - 1(w )) = 0,
und es folgt F(Wl.) = W 1. . Damit haben wir F zerlegt in zwei orthogonale
Abbildungen
G := FIW: W--+ W und H := FIW.L: W.L--+ W.L.
Da dimW.L < n , können wir auf H die Induktionsvoraussetzung anwenden und
erhalten eine Basis ß' von W .L der gewünschten Art.
Ist dim W = I, so gibt es einen Eigenvektor v E W mit II v II = 1 zu einem
Eigenwert ± 1. Ergänzt man ß' an passender Stelle durch v zu ß, so hat diese
Basis von V die gewünschten Eigenschaften.
Im Fall dim W = 2 gibt es eine Orthonormalbasis ( v 1, v2 ) von W, bezüglich
der G beschrieben wird durch eine Matrix der Form

( ±1 0 ) oder ( cos lJ - sin lJ ) mit lJ -:/= 0, TC •


0 ±1 sin lJ cos lJ
Indem man v 1 und v2 an passenden Stellen in ß' einfügt, erhält man wieder die
gewünschte Basis ß von V.
Wie der Beweis zeigt, ist V die orthogonale Summe der invarianten Unterräume
der Dimension _::: 2. D
310 5 Euklidische und unitäre Vektorräume

Zum Beweis des Lemmas kann man verschiedene bereits bekannte Ergebnisse
verwenden. Wir geben drei Alternativen.
l. Mit dem Satz von CAYLEY-HAMILTON. Das wurde schon in 4.5.4 ohne
die Voraussetzung der Orthogonalität erledigt. Entscheidend dabei war die Zer-
legung des charakteristischen Polynoms in lineare und quadratische Faktoren.O
Bei den beiden folgenden Beweisen betrachten wir zur Vereinfachung den
Spezialfall V = JR" mit dem kanonischen Skalarprodukt und eine orthogonale
Matrix A.
2. Durch ,.Symmetrisierung". Wir definieren
' A := A + 1A = A +A-I.
Offenbar ist 'A symmetrisch, also gibt es einen Eigenvektor von 'A, d.h.
0 i= v E JR" und Ä E lR mit ' Av = Äv (das wird zwar erst in 5.6.2 bewiesen, aber
ohne Benutzung der Ergebnisse dieses Abschnitts). Wir behaupten, daß
W := span(v, Av)
die gewünschten Eigenschaften hat. Das folgt sofort durch Anwendung von A
auf
Av+A- 1 v =Äv =? A 2 v = -v+J..Av. 0
Mit Hilfe der adjungierten Abbildung (6.2.4) kann man diesen Beweis auch für
komplexes V durchführen.
3. Durch "Komplexifizierung". Wir betrachten den Endamorphismus
A : <C" --+ <C", z ~ Az .
Er ist unitär, denn A ist orthogonal. Also gibt es nach 5.5.5 einen komplexen
Eigenvektor, d.h. 0 i= z E <C" und Ä E <C, so daß A z = J..z. Da A reell ist, folgt
Az = Az = ÄZ = Ü .
z
Also ist Eigenvektor zu X. Wir definieren daraus reelle Vektoren
X := !Cz + z) E JR" und y = i;Cz- z) E JR"
und behaupten, daß W : = span(x, y) C JR" unter A invariant ist. Dazu schrei-
ben wir Ä = a + iß mit a, ß E lR. Dann folgt
Ax ~(Az + AZ) = ~(J..z + Xz) = re J..z = ax- ßy,
Ay = i;(Az- AZ) = i;CJ..z- Xz) =im J..z = ßx + ay. o
Für allgemeines V kann man die Komplexifizierung mit Hilfe des Tensorpro-
dukts (6.3.4 b) erklären.
Der erste Beweis ist sicher der eleganteste. Aber wenn man eine orthogonale
Matrix explizit auf Normalform bringen will, geben die beiden anderen Beweise
sofort Anleitungen, wie man das iterativ bewerkstelligen kann.
5.5 Orthogonale und unitäre Endamorphismen 311

Aufgaben zu 5.5

1. Zeigen Sie, dass für FE 0(3) gilt: F(x) x F(y) = (det F) · F(x x y).
2. Ist V ein euklidischer Vektorraum und F E End( V), so heißt F winkeltreu, falls F
injektiv ist und
.{ (v, w) = .{ (F(v), F(w)) für alle v, w E V'- {0}.
Zeigen Sie, dass F winkeltreu ist genau dann, wenn ein orthogonales G E End( V) und
ein A. E IR'- {0} existieren mit F = A. • G.
3. Sei z = x+iy E IC", wobei x, y E IR". Zeigen Sie:
x und y sind linear unabhängig über IR {} z und z sind linear unabhängig über IC.
4. Bestimmen Sie für die Matrix

A~ 9~
66 -I8J6 IO.ji8 )
( 6J6 n 1sJT2
-]4.ji8 -9JT2 60
eine Matrix SE U(3), so dass SAS Diagonalgestalt hat und eine Matrix TE 0(3), so
1

dass für ein a E [0, 2rr [ gilt:


I 0
'TAT= ( 0 cosa
0 sina

5. Sei rr E Sn eine Permutation und die lineare Abbildung frr : IR" --+ IR" definiert durch
j"(x 1, •.• , Xn) = (x"o 1, ... , X 11 (n)l· Bestimmen Sie die Eigenwerte von frr·
6. Gegeben sei ein symplektischer Vektorraum V (vgl. Aufgabe 10 zu 5.4) und eine
komplexe Struktur 1 auf V (vgl. Aufgabe 3 zu 5.3), so dass für alle v, w E V gilt:
w(v , w) = w(l(v), 1(w)).

a) Zeigen Sie, dass durch (v, w) := w(v, 1(w)) eine symmetrische Bilinearform auf V
definiert wird, und dass 1 orthogonal bezüglich ( ) ist, d. h. es gilt
(v, w) = (J(v), 1(w) ) für alle v, w E V.
b) Die komplexe Struktur 1 heißt w-kalibriert, wenn ( ) positiv definit ist. Zeigen
Sie, dass in diesem Fall durch s(v, w) := (v, w) - iw(v , w) eine positiv definite
hermitesche Form auf dem von 1 induzierten IC-Vektorraum V gegeben ist.
312 5 Euklidische und unitäre Vektorräume

5.6 Seihstadjungierte Endomorphismen*


Dieser Abschnitt dient dem Studium von Endomorphismen, die durch symmetrische
Matrizen beschrieben werden. Insbesondere werden wir zeigen, daß sie stets diagonali-
sierbar sind. Das hat zahlreiche Anwendungen in Geometrie und Analysis.

5.6.1. Mit V wird stets ein endlichdimensionaler euklidischer bzw. unitärer


Vektorraum bezeichnet. Zu einem F E End V werden wir in 6.2.4 einen ad-
jungierten Endamorphismus Fad erklären, der durch die Bedingung
(F(v), w) = (v, Fad(w)) für alle v, w E V
charakterisiert ist. Das erklärt die folgende
Definition. Ein Endamorphismus F eines euklidischen bzw. unitären Vektorrau-
mes V heißt selbstadjungiert, wenn
(F(v), w) = (v, F(w)) für alle v, w E V.
In Matrizen übersetzt ist diese Beziehung gut bekannt:
Satz. Sei F ein Endamorphismus von V und B eine Orthonormalbasis. Dann
gilt: F seihstadjungiert <? M 6 (F) symmetrisch bzw. hermitesch.
Beweis. Es genügt, den unitären Fall zu behandeln. Sind x, y E K" Spaltenvek-
toren, v = <f> 6 (x), w = <f> 6 (y) und A = M 6 (F) , so ist (v, w) = 1xji, da B
orthonormal ist, also
(F(v), w) = 1 (Ax)ji = 1 x 1Aji und (v, F(w )) = 1 xAji.
Also ist F genau dann selbstadjungiert, wenn 1A = A. 0

5.6.2. Die Diagonale einer hermiteschen Matrix muß reell sein. Analog gilt das
Lemma. Ist F selbstadjungiert, so sind (auch im komplexen Fall) alle Eigenwer-
te reell. Insbesondere hat eine hermiresehe Matrix nur reelle Eigenwerte.
Beweis. Ist F(v) = A.v mit v f. 0, so folgt
A.(v, v) = (A.v, v) = (F(v), v) = (v, F(v)) = (v, A.v) = X(v, v),
also ist A. = 5:. 0

Theorem. Ist F ein seihstadjungierter Endamorphismus eines euklidischen


bzw. unitären Vektorraumes, so gibt es eine Orthonormalbasis von V, die aus
Eigenvektoren von F besteht.
Korollar. Ist A E M(n x n; K) eine symmetrische bzw. hermitesche Matrix, so
gibt es eine orthogonale bzw. unitäre Matrix S, so daß
5.6 Seihstadjungierte Endomorphismen* 313

1
SAS = ( AO' 'On )
A
mit At, ... , An E lR.

Beweis des Theorems. Wir behandeln zunächst den Fall !K = C. Da IC algebra-


isch abgeschlossen ist, zerfällt das charakteristische Polynom in Linearfaktoren,
und nach dem Lemma sind alle Eigenwerte reell, also ist
PF =±(t-At) ..... (t- An) mit At, ... ' An E JR.
Nun führen wir Induktion übern. Der Falln = 0 ist klar, für n ;::: 1 gibt es einen Ei-
genvektor Vt zu A1 mit llv 1 11 = I und wir definieren
W :={wEV: (v 1, w ) =0}.
W ist invariant unter F, d.h. F(W) c W, denn für w E W gilt
(vt. F(w)) = ( F(v t). w) = (AtVt, w ) = At (Vt, w) = 0.
Nach Induktionsannahme gibt es eine Orthonormalbasis von W aus Eigenvek-
toren von F IW, durch v 1 wird sie zur gewünschten Orthonormalbasis von V
ergänzt.
Der Fall lK = lR kann genauso behandelt werden, wenn man weiß, daß das
charakteristische Polynom PF auch in diesem Fall in Linearfaktoren zerfällt. Da-
zu wählt man eine beliebige Orthonormalbasis ß in V. Nach 5.6.1 ist M 6 (F)
symmetrisch, also auch hermitesch. Im Fall lK = IC hatten wir gesehen, daß PA
in reelle Linearfaktoren zerfällt, und aus PF = PA folgt die Behauptung.
Man beachte bei diesem Beweis, daß obiges Lemma nichts über die Existenz
von Eigenwerten aussagt. Man kann es erst anwenden, wenn man sie hat, und
dazu macht man den Ausflug ins Komplexe. 0

5.6.3. Faßt man die Eigenvektoren der verschiedenen Eigenwerte zu Eigenräu-


men zusammen, so erhält man aus den Theoremen 5.5.5 und 5.6.2 das
Korollar. Sind A 1, ••• , Ak die verschiedenen Eigenwerte eines seihstadjungier-
ten oder unitären Endamorphismus F von V, so ist
V = Eig (F; At) Q;i ... Q;!Eig (F ; Ak) .
Beweis. Ist A ein Eigenwert der Vielfachheit r , so gehören dazu r Eigenvektoren
aus der nach den Theoremen existierenden Orthonormalbasis, und sie bilden eine
Basis von Eig (F ; A). Daraus erhält man die Orthogonalität der Zerlegung.
Daß die Eigenräume zu verschiedenen Eigenwerten stets orthogonal sind, kann
man auch noch einmal direkt nachrechnen: Sind v und w Eigenvektoren zu
314 5 Euklidische und unitäre Vektorräume

A. # JJ-, so ist im selbstadjungierten Fall wegen fi. = JJ-


= (A.v, w) = ( F(v), w) = (v, F(w) ) = (v , JJ-W) = JJ-(V, w),
A.(v, w)
also (v, w)= 0, und im unitären Fall
(v , w) = (F(v), F(w)) = (A.v, JJ-W) = A.fi. (v, w).
Aus (v, w) # 0 folgt A.fi. = I. Wegen IJJ-1 = I folgt fi. = Jl- - J, also A. = JJ-. D
Zur praktischen Berechnung einer Orthonormalbasis aus Eigenvektoren kann
man wie folgt verfahren:
I) Man bestimme die Linearfaktorzerlegung des charakteristischen Polynoms
PF = ±(t- AJ)'' ..... (t- A.d' '
wobei A. 1 , ••• , A.k paarweise verschieden sind.
2) Für jeden Eigenwert A. der Vielfachheil r bestimme man eine Basis von
Eig (F; A.) durch Lösen eines linearen Gleichungssystems.
3) Man orthonormalisiere die in 2) erhaltenen Basen nach dem Verfahren aus
5.4.9, und zwar unabhängig voneinander in den verschiedenen Eigenräumen.
4) Die k Basen der Eigenräume aus 3) bilden zusammen die gesuchte Basis aus
Eigenvektoren von V.

Beispiel. Sei

A := / 5 (
10
5 -14
5
)
1~ E M(3 x 3; JR:.).
10 2 -11
Wie man leicht nachrechnet, bilden die Spaltenvektoren eine Orthonormalbasis
von JR:.3 , und es ist det A = I. Also ist A E S 0 (3). Als charakteristisches Poly-
nom erhält man
PA = -t 3 - t2 + t +l = -(t- l)(t + 1) 2 •
Zur Bestimmung von Eig (A ; I) hat man das homogene lineare Gleichungssy-
stem mit der Koeffizientenmatrix
-5 5
10 )
_..!._ ( 5 -29
15
10 2 -2~
zu lösen. Man findetEig (A; I) = lR:. · (5, I, 2).
5.6 Selbstadjungierte Endomorphismen* 315

Eig (A; -1) ist Lösungsraum des homogenen linearen Gleichungssystems


mit der Koeffizientenmatrix

15
1 ( 25 5
5
10)
2
10 2 4
und man erhält Eig (A; - 1) = Eig (A; I) L. Etwa
(0, -2, 1) und (1 , -1 , -2)
bilden eine orthogonale Basis von Eig (A; -1). Also ist
ß := ( 5o (5 , 1, 2) , )s (O, -2, 1) , ~ (1 , -1 , -2))
eine Orthonormalbasis des JR 3 , bestehend aus Eigenvektoren von A. Setzen wir

( kvJo 0 ~)
T:= -{s =~
6 =Tf._ ,
J30 ../5 vo

u
so folgt

'TAT~ -r _n ~ D.

oder gleichbedeutend damit T · D · 'T = A , was man mit etwas weniger Rechen-
arbeit nachprüfen kann.
5.6.4. Wie in 5.6.2 bewiesen wurde, zerfällt das charakteristische Polynom ei-
ner reellen symmetrischen Matrix in reelle Linearfaktoren. Das ist eine höchst
überraschende Tatsache, aus dem Beweis mit der Komplexifizierung kann man
kaum den geometrischen Hintergrund erkennen. Daher geben wir noch einen
ganz reellen Beweis. Nach der üblichen Methode, die Eigenwerte schrittweise
abzubauen, genügt der Beweis von folgendem
Lemma. Jede symmetrische Matrix A E M(n x n ; lR) hat einen reellen Eigen-
wert.
Beweis. Wir betrachten die zu A gehörige quadratische Form
q : JR" ~ lR , x r-+ ' x Ax .
Das ist ein homogenes Polynom vom Grad 2 (vgl. 5.4.4), insbesondere eine ste-
tige Funktion. Die Sphäre
S := {x E JR" : llxll = 1)
316 5 Euklidische und unitäre Vektorräume

ist kompakt, also nimmt q darauf ein Maximum an (vgl. [Fo2], §3). Es gibt also
ein v ES mit
'vAv:;:: 'xAx fürallex ES.
Wir behaupten nun, daß dieses v ein Eigenvektor ist. Dazu genügt es zu zeigen:
Für w E S mit v .l w ist auch A v .l w . (*)
Denn ist W := (lRv).L, so folgt AvE W .L = IRv .
Zum Nachweis von(*) betrachten wir für r E]O, 1] und a := ~den
Vektor
x :=av+rw .
Wegen v .l w ist x E S. Da A symmetrisch ist, gilt 'v A w = 'w A v , also ist
'vAv :;:: 'xAx = a 2 · 'vAv + 2ar · 'wAv + r 2 · 'wAw.
Daraus folgt nach Division durch r
2a('wAv)::; r('vAv- 'wAw).
Angenommen, A v wäre nicht orthogonal zu w. Indem wir eventuell w durch - w
ersetzen, können wir 'w A v > 0 annehmen. Da außerdem nach der Wahl von v
'vAv- 'wAw:;:: 0
gilt, ergäbe sich aus (**) ein Widerspruch, wenn man r gegen 0 (und damit a
gegen I) gehen läßt.
Wegen II v II = 1 folgt sofort, daß 'v A v der Eigenwert zum Eigenvektor v ist.
Da die weiteren Eigenwerte von A Werte der quadratischen Form q auf W n S
sind, folgt weiter, daß 'v A v der größte Eigenwert von A ist (dabei ist wie oben
W = (lRv) .L). D

Bei dieser Beweismethode werden Eigenwert und Eigenvektor gleichzeitig ge-


funden, daraus kann auch leicht ein Approximationsverfahren zur numerischen
Lösung gemacht werden.
5.6 Selbstadjungierte Endomorphismen* 317

Aufgaben zu 5.6

1. Sei F: IK" ~ IK" ein seihstadjungierter, nilpotenter Endomorphismus. Zeigen Sie,


dass F = 0 ist.
2. Seien F und G zwei seihstadjungierte Endamorphismen auf einem endlichdimensio-
nalen euklidischen hzw. unitären Vektorraum V. Zeigen Sie, dass F o G seihstadjungiert
ist genau dann, wenn F o G = G o F.
3. Bestimmen Sie für die Matrix

eine orthogonale Matrix SE 0(3), so dass 1 SAS eine Diagonalmatrix ist.


318 5 Euklidische und unitäre Vektorräume

5.7 Hauptachsentransformation*
Ist eine symmetrische Bilinearform positiv definit, so kann man dazu nach dem Verfah-
ren von GRAM-SCHMIDT entsprechend 5.4.9 eine Orthonormalbasis konstruieren. Das
wirft folgende Fragen auf:
I) Wie kann man einfach entscheiden, ob eine symmetrische Bilinearform positiv defi-
nit ist?
2) Gibt es einen Ersatz für eine Orthonormalbasis im nicht positiv definiten Fall?
Darauf werden in diesem Abschnitt Antworten gegeben.
5.7.1. Wir behandeln zunächst den reellen Fall und betrachten erst einmal eine
symmetrische Bilinearform
S : JR" X JR" -+ JR.

Sie ist nach 5.4.2 bestimmt durch die symmetrische Matrix A = (s(e;, e1 )). Für
Spaltenvektoren x, y E JR" gilt
s(x, y) = 1 xAy = (Ax, y) = (x, Ay ) ,
wobei ( , ) das kanonische Skalarprodukt des JR" bezeichnet. Die Matrix A kann
auch angesehen werden als ein seihstadjungierter Endamorphismus
A : JR" -+ JR" ,
der nach 5.6.2 diagonalisierbar ist. Es gibt also eine orthonormale Basis
B = (w 1 , •• • , W 11 ) des Rn aus Eigenvektoren, d.h. A; E lR mit
Aw; = A;W;, also s(w;, w 1) = (Aw;, w 1) = A; (w;, w 1) = A; · 8iJ.
Sind die Eigenwerte A1 , ... , An so numeriert, daß
AJ, . .. ,Ak>O, Ak+J, ... ,A111 <Ü und Am+t= ... =An=O,
so setzen wir
, { jA;I-~ · w; füri = 1, ... ,m,
w ·-

I
i .- w; für i = m + 1, . . . , n.
Das ergibt eine bezüglich ( , ) orthogonale Basis B' = (w;, ... , w~) des JR" mit
+1 für1:Si=j:Sk ,
s(w;,w)= -1 fürk+1:Si=j:Sm,
0 sonst.
Mit Matrizen beschreibt man das so: Ist S E 0 (n) derart, daß

SAS- 1 = ( At ·. ) = :D,

An
5.7 Hauptachsentransformation* 319

so folgt aus s- 1 ='Sund der Transformationsformel 5.4.3 mit T := s- 1, daß


Ms(s) ='TAT = D.
Weiter ist

M,(.<) ~ ( E, -E, O) ~' D'


mit k +l = m. Wir fassen das Ergebnis zusammen:
Hauptachsentransformation symmetrischer Matrizen. Sei A E M(n x n; JR)
symmetrisch und s die durch A beschriebene Bilinearform auflR.". Dann gilt:
1) Ist ß = (w1, . .. , Wn) eine Orthonormalbasis des JR." bezüglich des Standard-
skalarproduktes bestehend aus Eigenvektoren des Endamorphismus A, so ist

Ms(s) = ( A.o, "•o,, ) d.h. s(w;, w 1) = A.; · 8iJ,

wobei ).. 1 , ... , An die Eigenwerte von A sind.


2) Es gibt eine Basis ß' des JR.", so daß

Mw(<) ~ ( :• -H, : ) ~ D',

d.h. es gibt ein T' E GL (n; lR) mit D' = 'T' AT'. 0

Es sei bemerkt, daß man Teil 2) auch ohne Benutzung von 5.6.2 direkt durch
simultane Zeilen- und Spaltenumformungen von A über jedem Körper K mit
char(K) # 2 beweisen kann (siehe 5.7.5).
Vorsicht! Die Eigenwerte von A sind nur Invarianten des Endomorphismus, für
eine Bilinearform ist der Begriff Eigenwert sinnlos.
In 5.7.4 werden wir zeigen, daß die Zahlen k und I Invarianten der Bilinearform
sind.
5.7.2. Um den Namen Hauptachsentransformation zu erklären, geben wir fol -
gendes
320 5 Euklidische und unitäre Vektorräume

Beispiel. Sei

A =(; ~) E M(2 x 2; IR) .

Dann ists(x, y) = a(XIYI +x2y2) + ß(XIY2 +x2y1) . Aus


PA(t) = t2- 2at + (a 2 - ß 2)

erhält man die Eigenwerte A. 1 = a + ß und A. 2 =a-ß, sowie die Eigenvektoren


1 1
w 1 = J2(1, 1) und w2 = J2(-l , 1).

Dafür gilt s(w 1 , w2) = 0, s(w 1 , w 1) = a + ß und s(w 2 , w2) =a-ß. Die zu s
gehörige quadratische Form ist gegeben durch
q(x) = ax~ + 2ßx,x2 + axi.
Sind z1, z2 die Koordinaten bezüglich der Basis (w 1 , w2 ) , so gilt

(
X1 ) = _1 ( 1 -1 ) ( Z1 ) ,
X2 J2 1 1 Z2

also
q(x(z)) = (a + ß)zi + (a- ß)z~.
In den neuen z- Koordinaten ist also der gemischte Term mit z 1z2 verschwunden.
Um das geometrisch zu interpretieren, betrachten wir die Kurve
C:={xEIR 2 : q(x)=1}.

Ist A. 1 > 0 und A. 2 i= 0, so setzen wir


1 1
a·--- b·= - -
·-.;;:; und
-~-

Dann lautet die Gleichung von C in den z-Koordinaten


2 2
~ ± z2 = 1.
a2 b2
Im Fall+ ist das eine Ellipse, im Fall- eine Hyperbel, a und b sindjeweils die
Hauptachsen.
5.7 Hauptachsentransformation* 321

x2
z2

Bild 5.10

Dieser geometrische Aspekt der Bilinearformen wird ausführlich in [Fi] behan-


delt.
5.7.3. Nun geben wir einige Folgerungen aus der Hauptachsentransformation in
5.7.1 an
Korollar 1. Eine symmetrische Matrix A E M(n x n ; IR;) ist genau dann positiv
definit, wenn ihre Eigenwerte A1 , . . . , An positiv sind.
Beweis. Jeden Spaltenvektor x E rn;n stellen wir mit Hilfe einer OrthonormaJba-
sis aus Eigenvektoren als
X = fhWt + · · · + f-LnWn
dar. Dann folgt unter Benutzung der Bilinearität
txAx = Atf-Li + .. · + Anf-L~ ,
und daraus liest man sofort die Behauptung ab. D

Um die positive Definitheit einer Matrix zu testen, muß man die Eigenwerte
nicht ausrechnen; es reicht zu wissen, daß sie irgendwelche positiven Werte ha-
ben. Dazu genügt es, das charakteristische Polynom zu berechnen und die Vor-
zeichenreget aus 1.3.11 anzuwenden. Es folgt sofort
Korollar 2. Sei A E M(n x n ; IR;) eine symmetrische Matrix und
PA = ( -l)ntn + O:n-ltn-l + ... + O:tt + O:o
ihr charakteristisches Polynom. Dann gilt:
Apositiv definit.;=:> ( -l)jo:j > Ofür j = 0, ... , n- 1. D
322 5 Euklidische und unitäre Vektorräume

5.7.4. Wir betrachten nun einen endlichdimensionalen R -Vektorraum V mit ei-


ner symmetrischen Bilinearform s und der zugehörigen quadratischen Form
q: V--->R , v--->q(v)= s(v,v) .
Das Ziel ist, q bezüglich einer geeigneten Basis von V möglichst einfach darzu-
stellen. Dazu erklärt man zunächst
Vo:={v E V: s(v,w) =Ofüralle w E V}c V
als Ausartungsraum von s. Das ist offenbar ein Untervektorraum von V und
rang (s) := dimV- dimV0
heißt der Rang von s (vgl. dazu Aufgabe 7).

Diagonalisierung einer quadratischen Form. Sei V ein R-Vektorraum mit


n := dimV und s eine symmetrische Bilinemform mit der zugehörigen qua-
dratischen Form q auf V. Dann gibt es eine Basis

von V mitfolgenden Eigenschaften: Es ist r =rang (s) undfür


n k

v = Laivi E V gilt q(v) = LaT - L af.


i=l i=l

Insbesondere hat man eine Zerlegung


V = V+ E!:J V_ EB V0
mit q(v) > 0 für 0 =I v E V+ , q(v) < 0 für 0 =I v E V_ und q(v) = 0
für V E Vo.

Beweis. Wir wählen zunächst eine beliebige Basis A von V und betrachten die
darstellende Matrix A := MA(s) . Mit Hilfe von Teil b) des Satzes über die
Hauptachsentransformation aus 5.7.1 erhalten wir eme neue Basis
13 = (v1 , ... , vn) von V mit s(vi, vJ) = 0 für i =I j und
q(vi ) +1 für i = 1, . . . , k,
q(vi) -1 für i = k + 1, .. . ,r,
q(vi) 0 für i=r+1 , ... ,n .
5.7 Hauptachsentransformation* 323

Daraus folgt sofort die behauptete Darstellung von q(v) . Setzt man
V+:= span (v1 , .. . , vk) und V_:= span (vk+I, ... , vr),
so erhält man die gewünschte direkte Summe. 0

Zur Untersuchung der Vorzeichen der Werte von q kann man die Mengen
C+ .- {vEV: q(v)>O}U{O}
C_ := {vEV: q(v)<O}U{O}
Co := {vEV: q(v)=O}
betrachten. Das sindjedoch fast nie Untervektorräume (Aufgabe 6). Es gilt
V+ c C+ , V_ c C_ , Vo c Co,
aber diese Untervektorräume sind nicht eindeutig bestimmt. Ein klassisches Er-
gebnis besagt, dass wenigstens die Dimensionen eindeutig bestimmt sind.

Trägheitsgesetz von SYLVESTER. Hat manfür eine quadratische Form q auf


einem IR.- Vektorraum V zwei Zerlegungen
V = V+ E9 V_ E9 Vo = V~ E9 v.:_ E9 Vo
mit q(v) > OfürO =/= v E V+ undO =/= v E V~,
sowie q(v) < Ofür 0 =I= V E v_
und 0 =I= V E V..'. '
so folgt
dim V~ = dimV+ und dimv.:_ = dim V_ .

Die Zahlen r+(q) := dimV+ und r_(q) := dimV_ sind also neben dem Rang
weitere Invarianten der quadratischen Form. Das Paar (r+(q), r _ (q)) wird auch
Signatur von q genannt.

Beweis. Es genügt folgendes zu zeigen: Ist W c V ein Untervektorraum mit


q(w) > 0 für 0 =/= w E W, so folgt
dimW:::; dimV+.
Aufgrund der Symmettie folgt dann dim V~ = dim V+ und analog erhält man
dimV..'. = dimV_ .
Angenommen dimW > climV+ = dimV- dim(V_ E9 Vo). Nach der Dimen-
sionsformel aus 1.6.1 gibt es ein
0 =1= w E W n (V_ E9 Vo) ,
324 5 Euklidische und unitäre Vektorräume

also w = V_ + Vo mit V_ E v_ und Vo E Va. Dann ist aber


q(w) = s(v _ + v 0 , v_ + v 0 ) = s(v_ , v _ ) + 0:::; 0,
mit Widerspruch zu q(w) > 0. 0

Für quadratische Matrizen weiß man, daß die Eigenwerte beim Übergang von A
zu SAS- 1 erhalten bleiben, beim Übergang zu tsAS dagegen im allgemeinen
verändert werden. Aus dem Trägheitsgesetz folgt sofort
Korollar. Sei A E M(n x n ; R) symmetrisch und SE GL(n; R). Dann haben
A und tsAS

mit Vielfachheil gezählt die gleichen Anzahlen positiver und negativer Eigenwer-
te.

5.7.5. Bisher haben wir Hauptachsentransformationen nur im reellen Fall be-


handelt, weil er besonders wichtig ist und im engen Zusammenhang zu den Ska-
larprodukten steht. Dabei bleibt ein Problem: Zur Kontrolle der Definitheil ei-
ner Matrix hat man entsprechend 5.7.3 das charakteristische Polynom, d.h. eine
Determinante zu berechnen. Weil darin die Unbestimmte t auftritt, helfen Um-
formungen wenig und der Rechenaufwand ist für große Matrizen enorm. Daher
ist es nützlich, eine einfachere Methode zu haben, bei der die Matrix schrittwei-
se umgeformt wird. Überdies geht das für jeden Körper K, in dem 1 + 1 =/= 0
ist. Zunächst geben wir als Verallgemeinerung des Orthonormalsierungssatzes in
5.4.9, den
Orthogonalisierungssatz. Sei V ein endlichdimensionaler Vektorraum über ei-
nem Körper K mit char(K ) =!= 2 und
s: V x V->K
eine symmetrische Bilinearform. Dann gibt es eine Basis B = ( v1, ... , vn) von
V mit
s(vi,vj )=O füri=/=j.

Ist q: V-> K die zugehörige quadratische Form und ai := q( vi ), so folgt


q(v) = a1xi + ... + ctnX~ für V = X 1V1 + ... + XnVn .
Die quadratische Form ist also in diesen Koordinaten frei von "gemischten Ter-
men" xixj mit i =/= j.
5.7 Hauptachsentransformation* 325

Beweis. Wir führen Induktion übern = dimV. Für n = 1 ist nichts zu beweisen.
Ist q(v) = 0 für alle v, so folgt s (v, w) = 0 für alle v, w E V nach der Polarisie-
rung in 5.4.4. Andernfalls gibt es ein v1 E V mit q(vl) # 0. Wir betrachten
W := {w E V: s(v 1 ,w) = 0}
und behaupten V = Kv1 EI) W. Ist v E Kv1 n W, so folgt
v=>..v1 und 0=s(v1,v)=>..s(v1,vl), also >..=0 und v=O.
Zum Nachweis von V = K v 1 + W definieren wir zu v E V
, s(v1,v)
v := s(v1,v1)v1 .
Dann ist v = v' + (v - v'), und aus s(v1, v) = s(vb v' ) folgt v - v' E W.
Bezeichnet s die Beschränkung von s auf W, so gibt es nach Induktionsan-
nahme eine Basis (v2 , ••• , vn) von W mit
s(v;,vj)=O füri,jE{2, .. . , n}undi#j.
Also kann man ß := (vl> v2 , .. . , vn ) wählen. 0

Mit Hilfe der Transformationsformel5.4.3 folgt das


Korollar. Zu einer symmetrischen Matrix A E M(n x n; K) gibt es ein
SE GL (n; K), so daß

tSAS=
( aol aon)
0

Es sei noch einmal bemerkt, daß die Zahlen a; nicht eindeutig bestimmt sind. Im
reellen Fall sind nach dem Trägheitssatz 5.7.4 jedoch die Vorzeichen festgelegt.
5.7.6. Zur Berechnung einer Transformationsmatrix S wie in obigem Korollar
gibt es eine symmetrische Umformungsmethode. Dabei werden an A simultan
Zeilen- und Spaltenumformungen durchgeführt, bis eine Diagonalmatrix ent-
standen ist. DieSpaltenumformungen werden ausgedehnt auf die danebenstehen-
de Matrix En. Das kann man mit Hilfe von Elementarmatrizen C; schematisch
326 5 Euklidische und unitäre Vektorräume

so beschreiben:

'C· ... ·'C1·A·C1· . .. ·C, En·C1· ... ·C,

Ist links eine Diagonalmatrix D entstanden, so hat man rechts S mit


D = 'SAS.

Wegen des Assoziativgesetzes der Matrizenmultiplikation ist es gleichgültig, ob


man in jedem Schritt zuerst die Spalten oder die Zeilen umformt. Eine Strategie
für die Umformungen wollen wir nicht allgemein aufschreiben, wir geben dafür
zwei typische
Beispiele. a) Wir betrachten auf Jlil: 2 die quadratische Form q(x 1, x 2 ) x 1x 2.
Setzt man x1 = Y1 + Yz und Xz = Y1 - yz, so ist
q(x(y)) = (yl + Yz)(yl - Yz) = Y~- Y~ ·
Mit Matrizen geht das so: zu q gehört die Bilinearform
s(x , x) = ~XIXZ + ~XIXZ .
Ein mögliches Umformungsschema ist folgendes.

I
0 2 I 0
A= I
2 0 0 1
I
1 2 1 0
I
2 0 1 1
I 0 1 -2I
I
0 -4I 1 2
1 0 1 1
D= =S
0 -1 1 -1

Entsprechend 5.4.3 ist x = Sy .


b) Wir betrachten wieder auf Jlil: 2 eine quadratische Form mit a =P 0 und führen
quadratische Ergänzung durch:
5.7 Hauptachsentransfonnation* 327

q(x) ax~+ 2bxtx2 + cxi


a (x 2I + 21z.x
a I x 2 + lix2 ) + cx 2 - lix
2
02
2
a 2
2

a (xt + ~x2) 2 + (c- ~) xi


ay~+(c-~)yi ,
wenn Yt = Xt + ~x2 und Y2 = x2.
In Matrizen geht das viel schneller:
a b 1 0
A=
b c 0 1
·----
_I!_
a 0 1 a
D= =S
0 c--
b'
a
0 I
Es ist wieder x = Sy. Weiter gilt
b2 ac- b 2 detA
c-- = - -- = --.
a a a
Also ist A genau dann positiv definit, wenn a > 0 und det A > 0.
5.7.7. Nun kommen wir zu dem versprochenen Kriterium für die positive Defini-
theil einer Matrix A E M(n x n ; JR). Hat man entsprechend 5.7.6 ein
S E GL (n; JR) gefunden, so daß

1
SAS = u
( aO, :" )

so ist A nach dem Trägheitssatz 5.7.4 genau dann positiv definit, wenn
a; > 0 für i = 1, .. . , n .
Das kann man noch etwas anders formulieren. Dazu bezeichnen wir für
k = 1, ... , n mit
Ak E M(k X k; JR)
die linke obere k-reihige und k-spaltige Teilmatrix von A. Ihre Determinante
det Ak heißt Hauptminor von A. Schon bei JACOBI findet man das
Hauptminoren-Kriterium für Definitheit. Für eine symmetrische Matrix
A E M(n x n; lR) gilt:
A positiv definit {} det Ak > 0 für k = 1, . . . , n .
328 5 Euklidische und unitäre Vektorräume

Beweis. "=>":Jede positiv definite Matrix hat positive Determinante, denn ist

'SAS = ( aO, :,,


u ) mit a; > 0 für i = 1, ... , n ,

so ist det A · (det S) 2 = a 1 • • • • • a". Die Matrix Ak beschreibt die Beschränkung


der zu A gehörigen Bilinearform auf
( (x 1, ... , x") E JR" : Xk+ 1 = . . . = x" = 0}
also ist auch Ak positiv definit und somit det Ak > 0.
"{=":Wir führen Induktion übern . Der Fall n = 1 ist klar. Nach Induktionsan-
nahme ist A"_ 1 positiv definit, also gibt es einT E GL (n - 1; lR) mit

1 0
'T · A"_1 • T =( a ) und ct; > 0 für i = 1, ... , n- 1 .
0 Cin-1

Wir definieren

Dann ist
T'·-

(~) 0 ... 0
T

~
:
E GL(n ; JR) .

0
[ a, ß, )
'T'AT' = O . =· B
Cin - 1 ßn- 1

ßl . .. ßn-1 ß"

Nach Voraussetzung ist det A = det A" > 0, also auch det B > 0. Wir setzen

ß;
mit Y; = - - ,
Ci;
5.7 Hauptachsentransformation* 329

daraus folgt

Wegen 0 < det B =


a, ..... an folgt auch an > 0. 0
(det S) 2
Dieses Kriterium ist mehr von theoretischem als von praktischem Interesse, weil
dabei n Minoren auszurechnen sind. Schneller ist die Umformungsmethode aus
5.7.6.

Aufgaben zu 5.7

1. Sei s die symmetrische Bi linearform auf dem W, die gegeben ist durch die Matrix

(-: ~: -n
Bestimmen Sie eine BasisAdes ~R3 , so dass MA (s) Diagonalgestalt hat und eine weitere
Basis ß, so dass

Mß(S) = ( ~ O ~ )
0 0 -1

2. Sei V = V(]- I , I[; IR) der Vektorraum der auf)- I, I [differenzierbaren Funktio-
nen.
a) Zeigen Sie, dass d : V x V -+ IR, (f, g) t-+ (fg )' (0) eine symmetrische Bilinear-
forrn ist.
b) Bestimmen Sie den Ausartungsraum 'Do von d.

3. Diagonalisieren Sie die Matrizen

mit der symmetrischen Umformungsmethode aus 5.7.6.


330 5 Euklidische und unitäre Vektorräume

4. Eine symmetrische Matrix A E M(n x n; JF.) heißt negativ definit, wenn


1 xAx < 0
für jedes 0 f x E JF.n. Zeigen Sie: A negativ definit <=? - A positiv definit.
5. Überprüfen Sie die folgenden Matrizen auf Definitheit:

~ ~ -2 ) ( -3 -~ -3 ) ( ~ 0 -8 )

-~ -~ -~ 1~
(
-2 0 0 -8 2

6. Eine Teilmenge C eines K-Vektorraumes V heißt Kegel, wenn für v E C und .>.. E K
auch .>.. · v E C gilt.
Man zeige, dass die in 5.7.4 erklärten Mengen C0 , C+ und C_ im Fall K = R Kegel
sind, und man bestimme diese Kegel sowie Vo explizit für V = R 2 , wennsdurch die
Matrix

( ~ -~)
erklärt ist.
7. Sei seine symmetrische Bilinearform auf V, n := dimV, Beine Basis von V und
A := MB(s). Ist

Lösungsraum des homogenen Gleichungssystems und <I>B : R n _, V das Koordinaten-


system zu B, so folgt
Vo = <I>B(L).
Insbesondere gilt rang (s) = rang ( A) und dimVo = n - rang A.
Kapitel6

Dualität und Tensorprodukte*


In diesem letzten Kapitel werden noch einige Dinge angefügt, die höchstens dadurch
Schwierigkeiten bereiten, daß sie relativ abstrakt sind. Das ist vergleichbar mit den
Atembeschwerden, die sich im Hochgebirge wegen der immer dünner werdenden Luft
einstellen können.

6.1 Dualräume
Vektoren des Standardraumes K" hatten wir als Zeilen oder Spalten geschrieben, je
nachdem, was gerade günstiger war. Daraus kann man eine schöne Theorie machen,
die eine neue Sicht auf lineare Gleichungssysteme und quadratische Matrizen eröffnet.
Was hier zunächst als reine Spielerei erscheinen mag, ist ein wichtiges Hilfsmittel der
theoretischen Physik.
6.1.1. Die linke Seite einer linearen Gleichung hat die Form
a1x1 + ... +a"x".

Schreibt man x = '(x 1 , . . . , x") als Spalte und a = (a 1, ... , a") als Zeile, so
kann man x als Element des K" und a als eine lineare Abbildung
a: K" --+ K , x ~ a · x = a 1x 1 + ... + a"x" ,
d.h. als Element von Horn (K" , K) betrachten. Das ist nach 2.1.3 wieder ein
Vektorraum.
Definition. Ist V ein K- Vektorraum, so heißt
V*:= HomK(V, K) = {rp: V--+ K: rp linear}
der Dualraum von V. Die Elemente von V* heißen Linearformen auf V .
Im folgenden wird sich zeigen, daß der Name Dualraum gerechtfertigt ist. Be-
sonders interessant ist der Fall, daß V ein unendlichdimensionaler Funktionen-
raum ist.
Beispiel. Sei I = [a , b] C IR ein Intervall und V := D(I ; IR) der Vektorraum
der auf I differenzierbaren Funktionen. Dann sind

J
b

u: V--+ IR, f ~ f(x)dx

und df
o: V--+IR , f ~ dx (c) '
wobei a < c < b, zwei Linearformen auf V .

G. Fischer, Lineare Algebra, Grundkurs Mathematik,


DOI 10.1007/978-3-658-03945-5_7, © Springer Fachmedien Wiesbaden 2014
332 6 Dualität und Tensorprodukte*

Dieses Beispiel mag als Andeutung für den Nutzen der Dualräume in der Ana-
lysis dienen, das ist Gegenstand der Funktionalanalysis.
6.1.2. In der linearen Algebra kann man die Dualitätstheorie nur für endlichdi-
mensionale Vektorräume entwickeln. Dies sei nun stets vorausgesetzt. Ist
ß = (v 1 , ••• , v") eine Basis von V, so gibt es zu jedem i E {1, .. . , n) nach
2.4.1 genau eine lineare Abbildung
v;: V ---+ K mit v;(vj) = oiJ.
Vorsicht! Die Linearform v; hängt nicht nur vom Vektor vi, sondern auch von
den anderen Basisvektoren ab!
Bemerkung. Für jede Basis ß = (v 1 , .•. , v") von V ist ß* = (vi, ... , v~) eine
Basis von V*.
Man nennt ß* die zu ß duale Basis.
Beweis. Dies folgt aus 2.4.2, wir wollen es noch einmal direkt nachrechnen. Zu
jedem rp E V* sind }q, ... , :>.." gesucht, so daß
rp=A.Ivi+ ... +:>.."v;.
Setzt man vi in rp ein, so ergibt sich aus(*), daß A.i = rp(vi) sein muß. Daraus
fu~~~. 0

Da man jeden Vektor v =/= 0 zu einer Basis ergänzen kann, folgt das
Korollar 1. Zu jedem v E V mit v =/= 0 gibt es ein rp E V* mit rp( v) =/= 0. 0

Mit Hilfe von 2.4.1 erhält man


Korollar 2. Zu jeder Basis ß = (v 1 , • •• , v") von V gibt es einen Isomorphismus
\lla: V---+ V* mit \lla(vi) = v; . 0

Vorsicht! Dieser Isomorphismus hängt von der Auswahl der Basis ab, ebenso ist
das rp aus Korollar 1 abhängig von der Ergänzung.
Beispiele. a) Im K" hat man zur kanonischen Basis K = (e 1 , • •• , e") die kano-
nische Basis
K* = (ei , ... , e;) von V* .
Mit der Konvention, Vektoren als Spalten und Linearformen als Zeilen zu
schreiben, ist
e; = (0, ... ,0, 1,0 ... ,0)
mit der 1 an der i -ten Stelle.
6.1 Dualräume 333

b) Im K 2 betrachten wir neben der kanonischen Basis die Basis B = (v 1, v2) mit
v 1 = e 1 und v 2 = '(l, l) . Aus e 1 = v1 und e2 = v2 - v 1 folgt
v~(e1) = l, v~(ez) = -l, v;(e1) = 0, v;(ez ) = l,

Vorsicht! Man beachte die Tücke der Notation: Es ist v, = e~o aber vT "/= eT,
weil die beiden Sternchen verschiedene Bedeutung haben.
6.1.3. In 0.2.4 hatten wir für eine parametrisierte Gerade in der Ebene eine Glei-
chung bestimmt. Diese Frage kann man nun noch einmal abstrakter betrachten.
Ist 0 i= x = '(x 1, x 2 ) E IR2 und L = IR· x c IR2 die Gerade durch 0 und x, so
sind die a = (a 1 , a 2 ) E (IR2 )* gesucht mit
a,x, + azxz = 0.
Lo
L

Bild6.1
Sie liegen auf einer Geraden in L0*, die senkrecht auf L steht, wenn man IR 2
(IR2 )
und (IR ) *nicht unterscheidet. Allgemeiner kann man für einen Untervektorraum
2

alle "beschreibenden Gleichungen" zusammenfassen.


Definition. Ist V ein K- Vektorraum und U c V ein Untervektorraum, so heißt
U 0 := {!p E V*: ip(u) = 0 für alle u E V} C V*
der zu U orthogonale Raum (oder der Annullator von U). Das ist offensichtlich
ein Untervektorraum.
Man beachte den Unterschied zur Orthogonalität in Räumen mit Skalarprodukt:
dort liegt das orthogonale Komplement U l_ in V, hier liegt U 0 in V*. Dennoch
gibt es starke Beziehungen:
Satz. Für jeden Untervektorraum U C V gilt
dim U 0 = dim V - dim U .
Genauer gilt: Ist (u 1 , ••• , uk) Basis von U und B = (u 1 , ••• , uk. v 1 , ••• , v,)
Basis von V, so bilden die Linearformen vT, ... , v; aus B* eine Basis von U 0 .
334 6 Dualität und Tensorprodukte*

Beweis. Da v7 . ... , v; einer Basis entnommen wurden, sind sie linear unabhän-
gig. Also bleibt
U 0 = span (v~, ... , v;)
zu zeigen. ":::)'' ist klar, da vj (u;) = 0. Zum Nachweis von "c" sei rp E U 0 und
rp = J11U~ + ... + J1kuZ + }.. 1 v~ + ... + }..,v;.
Setzt man u; ein, so wird 0 = rp(u;) = J1;. 0

6.1.4. Nun zeigen wir, daß man nicht nur Vektorräume, sondern auch lineare
Abbildungen dualisieren kann. Dazu betrachten wir das Diagramm
F

mit K- Vektorräumen V und W, sowie linearen Abbildungen F und 1/r. Dann ist
1/r E W*, und mit Hilfe von 2.1.3 folgt 1/r o F E V*; also können wir eine duale
Abbildung
F*: W*----+ V*, 1/r ~-> F*(l/r) := 1/r o F,
erklären. Aus
F*(}..,lfr, + Azl/rz) = (}..,lfr, + Azl/rz) o F = }.., (1/r, o F) + Az(l/rz o F)
= }..,F*(l/rd + }..zF*(l/rz)
folgt die Linearität von F* . Also hat man noch abstrakter eine Abbildung
HomK(V , W)----+ HomK(W*, V*), F ~-> F*,
die ein Vektorraumisomorphismus ist (Aufgabe 3). Das kann man auch mit Hilfe
von Matrizen sehen:
Satz. Gegeben seien K -Vektorräume V und W mit Basen A und ß, sowie eine
lineare Abbildung F: V ----+ W. Dann gilt:
M~:(F*) = '(Mt(F)).

Kurz ausgedrückt: Die duale Abbildung wird bezüglich der dualen Basen durch
die transponierte Matrix beschrieben.
Beweis. Sei A = (v 1, ••• , Vn) und ß = (w 1, ••• , Wm) . Entsprechend 2.4.2 be-
deutet Mt(F) = (aiJ ), daß

= I>iJw;,
m
F(vj) also aiJ = w; (F(vj)) = F*(w;)(vj).
i= l
6.1 Dualräume 335

I!

F*(wn = I)1;vj, also b 1; = F*(wn (v 1 ),


J=l

und insgesamt aiJ = b Ji. 0

6.1.5. Zu einer linearen Abbildung F: V --+ W hat man ein Diagramm

KerF C V ~ Im F C W ,

und entsprechend für die duale Abbildung


F'
V* :J Im F* ----- W* :J KerF*.

Einen Zusammenhang zwischen diesen beiden Folgen erhält man mit Hilfe der
in 6.1.3 erklärten Orthogonalität:
Satz. Ist F: V --+ W eine lineare Abbildung zwischen endlichdimensionalen
Vektorräumen, so gilt
Im F* = (Ker F) 0 und KerF* = (Im F) 0 .

Korollar 1. Unter den obigen Voraussetzungen gilt


rang F* = rang F .

Beweis von Korollar 1. Mit Hilfe von 2.2.4 und 6.1 .3 folgt
rang F* dim Im F* = dim(Ker F) 0 = dim V - dim KerF
= dim Im F = rang F . 0

Im Spezialfall V = K" und W = K'" ist F durch eine Matrix A und F* nach
6.1.4 durch 'A beschrieben. Daher ergibt Korollar l einen neuen und sehr ab-
strakten Beweis von
Korollar 2. Für jede Matrix A E M(m x n; K) gilt
Zeilenrang A = Spaltenrang A .
0

Beweis des Satzes. Zum Nachweis der ersten Gleichung sind zwei Inklusionen
zu zeigen: Dazu betrachten wir das Diagramm
336 6 Dualität und Tensorprodukte*

V F W

~)~
K
Ist ip = ~ o F, so folgt 1pjKer F = 0, also gilt "c".
Sei umgekehrt ip E V* mit 1pjKer F = 0 gegeben. Zur Konstruktion eines
~ E W* mit ip = ~ o F wählen wir entsprechend 2.2.4 Basen

A = (u 1, .. . ,u"v 1 , ... ,vd vonVund


B = (w 1, •• • ,w"w,+ 1 , •• • ,wm) vonW
mit KerF= span (v 1, ... , vk), Im F = span (w 1, ... , w,) und F(u;) = w; für
i = 1, ... , r. Nach 2.4.1 gibt es genau ein lineares ~ mit
ip(u;) für i = 1, .. . , r ,
~(w;) := {
0 sonst.
Nach Konstruktion von ~ ist ip = ~ o F.
Die zweite Gleichung kann man ähnlich beweisen oder mit Hilfe von 6.1. 7
aus der ersten folgern. D

6.1.6. Den Dualraum kann man zu jedem Vektorraum bilden, also auch zu V* .
Auf diese Weise erhält man zu V den Bidualraum
V** :=(V*)* = Horn (V*, K).
Die in 6.1.2 konstruierten Isomorphismen V ---'> V* waren von der Auswahl
einer Basis abhängig. Dagegen hat man eine kanonische Abbildung
l: V ---'> v··, V f-+ l v, mit l v(ip) := ip(V).
Mit Hilfe der Korollare I und 2 aus 6.1.2 folgt durch einfache Rechnungen der
Satz. Für jeden endlichdimensionalen K- Vektorraum V ist die kanonische Ab-
bildung
t: V---'> V**
ein Isomorphismus. D

Man kann also V mit V** identifizieren und in suggestiver Form


v(ip) = ip(v)
schreiben. In dieser Form ist die Dualität zwischen Vektoren und Linearformen
besonders deutlich.
Korollar. Für jede lineare Abbildung F: V ---'> W gilt F** = F. D
6.1 Dualräume 337

Im K" dualisiert man durch Transponieren:

(J ~ (J
K" (K")* __,. (K")** = K",

(x,, ... ,x.) ~


6.1.7. Die in 6.1.3 eingeführten orthogonalen Räume ermöglichen eine abstrakte
Beschreibung linearer Gleichungssysteme. Zunächst eine allgemeine
Bemerkung. Für jeden Untervektorraum W C V gilt
(W 0 ) 0 = W C V = V**.

Beweis. Wegen der Dimensionsformel in 6.1.3 genügt es, W C (W 0 ) 0 zu zeigen.


Das ist aber klar, denn für w E Wund rp E W 0 gilt w(rp) = rp(w) = 0. D

Damit kann man lineare Gleichungssysteme wie folgt interpretieren. Gegeben


sei das System
A ·x = 0 mit A E M(m x n; K) und W =Lös (A, 0) c K".
Die Zeilen a 1, a"' von A sind Linearformen, wir definieren
.•• ,

••• , a"') c (K")*


U := span (a 1 , mit dimU =rang A.
Nach Definition des Lösungsraumes gilt
W = U 0 und n = dim W + dimU .
Das Gleichungssystem lösen bedeutet also, zu vorgegebenem U c (K")* eine
Basis von U 0 c K" zu finden, und die Zeilenumformungen von A entsprechend
0.4.7 dienen dazu, eine Basis von U zu konstruieren.
Das duale Problem ist folgendes : Gegeben ein Untervektorraum W c K" und
gesucht eine Matrix A, so daß
W =Lös (A, 0).
Die Zeilen der Matrix A erhält man durch ein Erzeugendensystem des Raumes
U c (K")* mit
u = W0 ' d.h. U0 = w.
W sei gegeben durch eine Matrix X E M(n x l; K) mit Spalten w 1 , ••• , w 1, so
daß W = span (w 1 , ••• , w 1). Dann ist
u = Ia E (K")*: a. X= o} '
338 6 Dualität und Tensorprodukte*

d.h. man hat das Gleichungssystem


'X · 1a =0
zu lösen. Eine Basis des Lösungsraumes liefert die Zeilen von A . Ist
k := dim W ::=:; I, so ist r := n - k = rang A ,
und es gilt A ·X = 0 in M(r x I; K).
Damit hat man ein Rezept für die Berechnung von Gleichungenfür W: Man
nehme ein Erzeugendensystem von W, forme daraus 1 X und löse das entspre-
chende Gleichungssystem.
Beispiel. Seien w 1 = '(1, I , 1) und w 2 = '(0, -1 , 1) E JR 3 . Eine Gleichung der
davon aufgespannten Ebene W erhält man durch Lösen des Gleichungssystems
mit der Matrix

'X=(~ ~1 ~)·
Eine Fundamentallösung ist (a 1 , a 2 , a 3 ) = ( -2, 1, 1), also lautet eine Gleichung
fürW
-2xi +x2+x3 =0.
Das geht auch mit dem Vektorprodukt aus 5 .2, denn w 1 x w2 = (2, -I , -I).
6.1 Dualräume 339

Aufgaben zu 6.1

1. Gegeben sei ein endlichdimensionaler Vektorraum V mit Basen A und ß. Sind A'
und ß* die zugehörigen dualen Basen von V*, so gilt für die Transformationsmatrizen
rf,' = ('TifT'.
2. Gegeben sei der Untervektorraum

v~·~,((l) (_!) . (J)) CR·


Bestimmen Sie eine Basis von U0 .
3. Zeigen Sie, dass für Vektorräume V, W durch Hom(V , W) --+ Hom(W* , V*),
F f-+ F* , ein Isomorphismus von Vektorräumen gegeben ist.
4. Sei F: V --+ W ein Homomorphismus und V c W ein Untervektorraum. Zeigen
Sie: F*(U 0 ) = (F - 1(U)) 0 .
w,, Wz C V Untervektorräume. Zeigen Sie:
5. Es seien
a) (W 1+ W 2) 0 = w? n wf,
b) (W1 n W2 ) 0 = w? + wf.
340 6 Dualität und Tensorprodukte*

6.2 Dualität und Skalarprodukte


In diesem Abschnitt wollen wir zeigen, wie schön und kanonisch die Dualitätstheorie in
euklidischen und unitären Vektorräumen wird.
6.2.1. Zunächst wollen wir den Begriff einer Bilinearforrn aus 5.4.1 noch leicht
verallgemeinern. Gegeben seien K- Vektorräume V und W sowie eine Abbildung
b: V x W ~ K, (v, w) f-+ b(v, w).
Für festes v E V und w E W definieren wir
bv: W ~ K, w f-+ b(v, w), und
b w: V ~ K, v f-+ b(v, w).
Man nennt b bilinear, wenn bv und bw für alle v E V und w E W linear sind.
Ist das der Fall, so erhält man lineare Abbildungen
b': V ~ W* , v f-+ b v , und
b": W ~ V* , W f-+ bw .
Eine Bilinearform b heißt nicht ausgeartet, wenn b' und b" injektiv sind.
Beispiele dafür sind V x V*~ K, (v, rp) f-+ rp(v) ,
für jeden K- Vektorraum V und seinen Dualraum V* , sowie ein Skalarprodukt
V x V~ IR, (v, v' ) f-+ (v, v'),
für jeden IR-Vektorraum V . Das folgt aus Korollar 1 in 6.1.2 und der Definition
eines Skalarproduktes in 5.4.6.
Satz. Sind V und W endlichdimensional, und ist
b: V X w~ K
eine nicht ausgeartete Bilinearform, so sind die Abbildungen
b' : V -+ W* und b": W ~ V*
/somorphismen.
Beweis. Da b' und b" injektiv sind, ist nach 6.1 .2
dimV:::: dimW * = dimW und dimW:::: dimV* = dimV.
Also folgt dim V = dim W = dim V* = dim W* . 0

6.2.2. Aus dem obigen Satz folgt sofort das


Korollar. In einem euklidischen Vektorraum V ist die Abbildung
\jJ: V ~ V* , v f-+ (v, ) ,
ein Isomorphismus. 0
6.2 Dualität und Skalarprodukte 341

Man beachte die suggestive Notation: Für rp = (v, ) ist rp(v') = (v, v'). Wegen
der Symmetrie des Skalarproduktes kann man IJI ebensogut durch v r+ ( , v)
erklären.
Im Gegensatz zu den Isomorphismen IJI 6 : V ~ V* aus 6.1.2, die von der
Wahl der Basis abhängen, ist der obige Isomorphismus kanonisch, wenn ein Ska-
larprodukt vorgegeben ist.
Im Spezialfall V = IR" hat man die kanonische Basis K = (e 1 , ••• , e") und
das kanonische Skalarprodukt ( , ) mit
(ei,ej)=Öij.
In diesem Fall stimmt der Isomorphismus
IJI: IR" ~ (IR")* , v r+ (v, ) ,
mit dem Isomorphismus
IJ!~e: IR" ~ (IR")* , ei ~--+ e;,
aus 6.1.2 überein.
6.2.3. In dem Beispiel aus 6.1.3 kann man neben L c IR2 und L 0 c (IR2)* auch
die zu L senkrechte Gerade
L .L = {(a, , a2) E IR2 : a,x, +a2x 2 =0}

Bild6.2
betrachten. Ihr Bild unter dem kanonischen Isomorphismus ist L Allgemein 0.

hat man die folgende Beziehung zwischen dem in 5.4.8 definierten orthogonalen
Komplement und dem in 6.1.3 definierten Annulator:
Satz. Sei V ein euklidischer Vektorraum und IJI: V ~ V* der kanonische
Isomorphismus. Dann gilt:
1) Für jeden Untervektorraum U c V ist IJI ( U .L) = U 0.
2) Ist ß = (v 1, ••• , v") eine Orthonormalbasis von V und ß* = (vt , ... , v:)
die duale Basis entsprechend 6.1.2, so ist IJI(vi) = v;.
342 6 Dualität und Tensorprodukte*

In einem euklidischen Vektorraum mit Orthonormalbasis treten also die in 6.1.2


beschriebenen Schwierigkeiten nicht auf!
Beweis. 1) Nach den Dimensionsformeln in 5.4.9 und 6.1.3 ist
dimU.L = dimV- dimU = dimU 0 ,
also genügt es, 111 ( U .L) c U 0 zu beweisen. Das ist aber klar, denn für v E U .L
und u EU ist
111(v)(u) = (v, u) = 0.
2) folgt aus 111(v;)(vj) = (v;, vj) = öij = vi(vj). D

6.2.4. Wie in 5.6.1 versprochen, wird nun eine adjungierte Abbildung erklärt.
Gegeben seien euklidische Vektorräume V und W , sowie eine lineare Abbildung
F: V-+ W.
Dazu konstruieren wir eine lineare Abbildung
Pd: W--+ V mit (F(v), w) = (v, F"d(w))
für alle v E V und w E W. Sind <I> und 111 die kanonischen Isomorphismen, so
bedeutet(*), daß das Diagramm
Fad
v-w
<I> l 1111
V* ....E.:.._W*

kommutiert, d.h. Fad = <1>- 1 o F* o 111. Das sieht man am einfachsten so: Für
w E W ist
111(w) = ( , w ), also F* (111(w)) = (F( ), w).
Nach Definition von pd gilt
F* (111(w)) =<I> (Fad(w)) = ( , Fad(w)),
daraus folgt die Gleichung (*).Man erhält die adjungierte Abbildung also da-
durch, daß man die duale Abbildung mit Hilfe der kanonischen Isomorphismen
in die ursprünglichen Vektorräume zurückholt. Die Beschreibung durch Matri-
zen ist klar:
Bemerkung. Sind V und W euklidische Vektorräume mit Orthonormalbasen A
und B, so gilt für jede lineare Abbildung F: V --+ W
M~(F"d) =' (M!i(F) ). D
6.2 Dualität und Skalarprodukte 343

Aus Satz 6.1.5 folgt sofort der


Satz. Ist F: V ---. W eine lineare Abbildung zwischen euklidischen Vektorräu-
men, so gilt
Im rd = (Ker F) j_ und Ker FM = (Im F)j_ .
Insbesondere hat man im Fall V = W orthogonale Zerlegungen
V = KerF Q;)Im F ad = Ker FM Q;)lm F .
Ist überdies F selbstadjungiert, d.h. F = Fad, so gilt:
V = KerF Q;)Im F. D

Diese letzte Zerlegung folgt schon aus der orthogonalen Diagonalisierbarkeit von
F (5.6.3).
6.2.5. Was wir bisher für reelle euklidische Vektorräume beschrieben haben,
kann man mit einer kleinen Modifikation auf komplexe unitäre Räume übert-
ragen. Ist auf dem C-Vektorraum V eine sesquilineare Abbildung
s: VxV---.C
gegeben, so hat man dazu mit der Notation aus 6.2.1 wegen der Linearität im
ersten Argument eine Abbildung
s11 : V___. v·, V ~ s( , v) .
Sie ist jedoch im Gegensatz zum bilinearen Fall nur semilinear. Im Fall eines
Skalarproduktes erhält man einen kanonischen Semi-Isomorphismus (d.h. eine
bijektive semilineare Abbildung)
\1.1: V___. v·, V~ ( , v) .
Ist V ein unitärer Vektorraum und F E End (V), so ist die adjungierte Abbildung
Fad := q.,-1 o F * o \1.1
wieder C-linear, weil dabei zweimal konjugiert wird (durch \1.1 und w- 1), und
man erhält insgesamt den folgenden
Satz. Sei F ein Endamorphismus eines unitären Vektorraumes V. Der dazu ad-
jungierte Endamorphismus FM hatfolgende Eigenschaften:
1) (F(v) , w) = (v,Fad(w) ) fürallev,w E V.
2) Im Fad = (Ker F) j_ und Ker FM = (Im F) j_.
3) IstB eine Orthonormalbasisvon V , so gilt MB (FM) = 1 MB(F) .
344 6 Dualität und Tensorprodukte*

Beweis. 1) folgt wie in 6.2.4 aus der Definition der adjungierten Abbildung.
2) kann man aus Satz 6.1.5 folgern oder direkt nachrechnen. Wir tun das für die
zweite Gleichung: w E (Im F).l gilt genau dann, wenn
0 = (F(v), w) = (v , Fad(w)) für alle v E V.
Da ein Skalarprodukt nicht ausgeartet ist, bedeutet das w E Ker Fad.
Zu 3) setzen wir für ß = (v 1, ... , Vn)

La; v;
n n
F(v 1 ) = 1 und Fad(v;) = LbJ;VJ.
i=l J= l
Aus I) folgt
0

6.2.6. In Kapitel 5 hatten wir für folgende Arten von Endamorphismen F uni-
tärer Vektorräume bewiesen, daß es eine Orthonormalbasis aus Eigenvektoren
gibt:
1) Für unitäres F (5.5 .5),
2) für seihstadjungiertes F (5.6.2).
Wir wollen nun zeigen, daß dies Spezialfälle eines allgemeineren Ergebnisses
sind. Dafür benötigen wir die zunächst wenig motivierte
Definition. Ein Endamorphismus F eines unitären Vektorraumes V heißt
normal, wenn
F o Fad = Fad o F .
Entsprechend heißt eine Matrix A E M(n x n; IC) normal, wenn A · 'A = 'A · A.
Beispiele. a) Jedes unitäre F ist normal, denn aus
(v, r'(w)) = (F(v), w) = (v, Fad(w))
folgt Fad= F - 1 und F o Fad= idv =Fad o F .
b) Jedes seihstadjungierte Fist normal, denn aus
(F(v), w) = (v, F(w)) = (v, Fad(w))
folgt F = Fad, also F o Fad= F 2 =Fad o F .
Entscheidend ist der folgende
Satz. Ist V unitär und F E End (V) normal, so gilt
Ker Fad = KerF und Im Fad = Im F .
6.2 Dualität und Skalarprodukte 345

Insbesondere hat man eine orthogonale Zerlegung V = KerF Q;)lm F.


Beweis. Da das Skalarprodukt positiv definit ist, bedeutet v E KerF
0 (F(v), F(v) ) = (v, pad (F(v))) = (v, F (F"d(v)))

(F (Pd(v)), v) = (Pd(v), pad(v)) = 0.


Das ist gleichwertig mit v E Ker pad. Die zweite Gleichung folgt mit Hilfe von
S~z6.2~. 0

Korollar. Ist F normal, so ist Eig (F; A) = Eig ( pad; 5..) für jedes A E IC.
Beweis. Für G := F- Aidv ist G"d = pad- Iidv, und aus
G"d o G p•d o F + AX'idv - X'F- AFad

F 0 pad + X'Aidv - Apad - X'F = G o Gad


folgt, daß auch G normal ist. Also ist nach obigem Satz
Eig (F; A) = Ker G = Ker G"d = Eig (F"d; X'). 0

6.2.7. Nun können wir das abschließende Ergebnis beweisen:


Theorem. Für einen Endamorphismus F eines unitären C- Vektorraumes V
sindfolgende Bedingungen gleichwertig:
i) Es gibt eine Orthonormalbasis von V bestehend aus Eigenvektoren von F.
ii) F ist normal.

Beweis. i) =? ii): Ist ß = (Vt , . . . , vn) Orthonormalbasis und F(v;) = A;V;, so


ist (vj , p•d(v; )) = ( F(vj ), v; ) = Aj (vj, v;) = Oij Aj. Also tolgt pad(v;) = I; v; und
F (Fad(v;)) = F(I;v;) =A;X;v;=X';A;V;= p•d (F(v;)).
Da F o pad = p ad o F auf ß , folgt diese Gleichung allgemein.
ii) =? i): Wie bei den entsprechenden Beweisen in Kapitel 5 führen wir Induktion
übern = dim V. Das charakteristische Polynom zerfällt nach 1.3.9, also ist
PF(t) =±(t - At) · ... · (t- An) mit At , .. . , An E C.
Sei Vt Eigenvektor zu At und Vt := C · Vt. Wir definieren
W:={wEV : (W , Vt)=0}.
Dann ist V = Vt © W , und wegen dim W = n - I und der Induktionsannahme
genügt es, folgendes zu beweisen:
F(W) C W und Fl W ist normal.
346 6 Dualität und Tensorprodukte*

Die erste Behauptung folgt aus


(F(w) , v 1) = (w , F"d(v 1 ) ) = (w,X"1 v 1 ) = A. 1( w , v 1 ) = 0.
Daß FIW normal ist, folgt aus F"d(W) c W, und letzteres gilt wegen
(v 1 , F "d(w)) = ( F(v 1), w ) = (A. 1v 1, w) = A. 1( v 1 , w) = 0. 0

Für Matrizen folgt das


Korollar. Ein A E M(n x n ; iC) ist genau dann normal, wenn es einS E U (n )
gibt, so daß SAS- 1 eine Diagonalmatrix ist. o
6.2.8. Nach dem längeren Ausflug in die recht abstrakte Dualitätstheorie wollen
wir wieder zurückkehren in die dreidimensionale Realität und mit all den zur
Verfügung stehenden Werkzeugen eine Formel für den Abstand windschiefer
Geraden herleiten.
Gegeben seien zwei Geraden im IR 3 in Parameterdarstellungen
L = v + IR w und L' = v' + IRw' ,
wobei 0 # w , w' E IR 3 Sie heißen parallel, wenn IRw = IRw' und windschief,
wenn sie sich nicht schneiden und nicht parallel sind. Nach Aufgabe 5 ist das
gleichwertig damit, daß
(x := v' - v, w , w') linear unabhängig,
also eine Basis von IR 3 sind. Wir definieren den Abstand (vgl. 5.1.1)
d(L, L' ) := min !d(u , u' ) = llu'- ull: u E L , u' E L' } .
Es ist anschaulich plausibel, muß aber bewiesen werden, daß dieses Minimum
tatsächlich angenommen wird. Vom Standpunkt der Al)alysis ist dazu die Funk-
tion
IR1 -+ IR, (A., A.') r-+ ll v' + A.'w' - v - A.wll ,
auf Extrema zu untersuchen. Einfacher ist eine direkte geometrische Methode.
Lemma. Angenommen, u E L und u' E L' sind Punkte, so daß y := u' - u auf
w und w ' senkrecht steht. Dann ist
d (u , u' ) = d(L, L').

Das bedeutet, daß ein senkrechter Abstand minimal ist. Die Existenz und Ein-
deutigkeit von solchen Fuß punkten u und u' für ein gemeinsames Lot wird an-
schließend gezeigt.
Beweis. Da v E L und v' E L' beliebig gewählt werden können, genügt es,
d (u , u' ) ::= d(v , v') (* * *)
6.2 Dualität und Skalarprodukte 347

zu zeigen. Wir halten V 1 E L 1 fest und suchen ein vE L, so daß V1 - v auf L


senkrecht steht. Man macht dazu den Ansatz
v = v + QW und 0 = (v 1
- v, w ) = (x , w ) - Q(w , w ) .

Bild6.3
Daraus ist 12 und somit auch v eindeutig bestimmt. Nach dem Satz von PYTHA-
GORAS im rechtwinkligen Dreieck mit den Ecken v, V 1 und v folgt

d (v, v 1 ) ::::: d(v, v 1) . (*)


Für die nächste Abschätzung definieren wir s := V1 - v - y. Es gilt
(s, y) = (V 1
- U1 + u- v , y) = (v 1
- U1 , y ) + (u- v , y) = 0 ,
denn y steht auf L und L 1 senkrecht. Also steht s auf y senkrecht, und wir kön-
nen im rechtwinkligen Dreieck mit den Ecken v, V und v + y wieder den Satz 1

von PYTHAGORAS anwenden, was


d(u , u 1 ) = IIYII ::::: d(v , v 1
)

ergibt. Aus(*) und(**) folgt(***) .


Es bleibt also die Aufgabe, die Fußpunkte zu bestimmen. Wir leiten dafür zu-
nächst notwendige Bedingungen her.
Das orthogonale Komplement von JRw + 1Rw 1 wird aufgespannt vom Vektor-
produkt w x W 1 (vgl. 5.2). Also sind A. , A1 , ß E IR gesucht mit ß =I= 0 und
u = v + A.w , U1 =V +AW 1 1 1
, y =U 1
- u = ß(w x W 1 ).

Das bedeutet
A. Al
w x W1 = ax + f.LW + f.L W 1 1
, wobei f.L=--, f.LI =ß .
ß
Um a, f.L, f.L 1 aus dieser impliziten Formel zu extrahieren, verwenden wir, daß
I I
w x w , wxx, x x w
348 6 Dualität und Tensorprodukte*

wieder eine Basis von JR3 ist (Aufgabe 3 zu 5.2). Daher ist
( , w x w ') , ( , w' x x), ( , x x w)
eine Basis von (1R3)*. Wenden wir sie nacheinander auf Gleichung (*) an, so
folgt nach den Beziehungen zwischen Vektorprodukt und Skalarprodukt (5.2.2),
daß
llw x w'll 2 ( W X W1 , W1 X X) (w x w',x x w)
ct= f.J.= f.J.' = ------------
(x,w x w')' (w,w' x x) (w',x x w)
sein muß . Aus 5.2.2 folgt weiter, daß die drei Nenner gleich sind.
Definieren wir nun umgekehrt cx, f.J., f.J.' durch die oben berechneten Aus-
drücke, und setzen wir
f f f
Z := W X W - ctX - f.J.W - f.J. W ,
so folgt z= 0 aus
(z, w x w') = (z, w' x x) = (z, x x w) = 0,
da diese drei Linearformen eine Basis von (1R 3 )* bilden. Indem man aus cx, f.J., f.J.'
noch ß, A, )..'ausrechnet, erhält man folgendes Ergebnis.
Satz. Für zwei windschiefe Geraden
L = v + JR.w und L' = v' + JRw'
im JR.3 seien u := v + )cw und u' := v' + )c'w' mit
._ (w x w' , (v' - v) x w') , ._ (w x w', (v'- v) x w)
).. .- , ).. .- .
llw x w'll 2 llw x w'll 2
l(w x w', v'- v)l
Dann istd(L, L') = d(u, u') = . D
llw x w'll
Für die Anwendung dieser Formel ist es vorteilhaft, die Vektoren w und w' zu
normieren.

Aufgaben zu 6.2

1. Seien V , W euklidische Vektorräume, F: V -+ W linear und U c W ein Untervek-


torraum. Dann gilt: pd(Ul.) = (F- 1(U))1..
2. Ist V ein euklidischer Vektorraum und F: V -+ V selbstadjungiert, so gilt
F(Ul.) = (F - 1(U))l. für alle Untervektorräume U c V. Gilt die Umkehrung auch?
3. Zeigen Sie, dass für einen unitären Vektorraum V durch End(V) -+ End(V),
F >-+ pct ein Semi-Isomorphismus gegeben ist.
4. Sei A E M(n x n; IC) antihermitesch, das heißt -A = 'A. Zeigen Sie, dassAnormal
ist und alle Eigenwerte von A in i!R liegen.
6.2 Dualität und Skalarprodukte 349

5. Seien L = v + IF!.w und L' = v' + IF!.w' zwei Geraden im IR:." und x := v' - v. Zeigen
Sie:
L und L' sind windschief {} x, w und w' sind linear unabhängig .

6. Gegeben seien zwei windschiefe Geraden L = v + IF!.w und I.: = v' + IF!.w' im IR:.".
Wir wollen zwei Methoden angeben, um den Abstand
d(L, L') = min{d(u , u') = llu'- ull: u E L , u' E L')
zu berechnen. Zur Vereinfachung nehmen wir llwll = llu/11 = I an und definieren
8: IR:.2 --> IR:., (J" , J"'),_. llv' +J"'w' -v-J"w11 2 .

a) Untersuchen Sie die Funktion omit Hilfe der Differentialrechnung auf Extrema und
bestimmen damit den Abstand d(L, L').
b) Es gilt o(J", J"') = ;" 2 + aH' + ;"'2 + bJ" + cJ"' + d. Setzen Sie J-1. := ;" + ~;"' und
11-' = 7 J"' und zeigen Sie, dass man auf diese Weise o
durch quadratische
Ergänzung schreiben kann als o(J", J.!) = (J-L - e) 2 + (J-L' - f) 2 + g. Dann ist
g = d(L, L').
350 6 Dualität und Tensorprodukte*

6.3 Tensorprodukte
" . . . what is the use of a book
without pictures or conversa-
tion?"
aus Alice in Wanderfand
Der Begriff eines ,,Tensors" wird in der theoretischen Physik seit langer Zeit benutzt; es
hat etwas gedauert, bis es den Mathematikern gelungen ist, dafür einen befriedigenden
formalen Rahmen zu zimmern. Er ist sehr präzise, aber höchst abstrakt und daher nicht
allgemein beliebt.
Vom naiven Standpunkt startet man mit "skalaren" Größen a: das sind die Elemen-
te des Grundkörpers. Folgen davon, also (a1, a 2 , ... ) sind "Vektoren", sie haben einen
einzigen Index. Folgen von Vektoren sind gegeben durch au, dazu benötigt man zwei
Indizes, und diese Objekte heißen "Tensoren". Das wirft die Frage auf, warum man statt
Tensor nicht einfach Matrix sagt. Dabei muß man bedenken, daß Matrizen Hilfsmittel
sind, mit denen man verschiedenartige abstrakte Vorgänge beschreiben kann. Etwa eine
quadratische Matrix kann sowohl einen Endamorphismus (2.4.4) als auch eine Bilinear-
form (5.4.2) beschreiben. Daher ist etwas Vorbereitung nötig, bis man sagen kann, was
die charakteristischen Eigenschaften eines Tensors sind.

6.3.1. Der Begriff der Bi linearform aus 5.4.1 und 6.2.1 muß noch einmal verall-
gemeinert werden. Sind V, W und U Vektorräume über demselben Körper K,
so heißt eine Abbildung
~:VxW-+U

bilinear, wenn für jeweils festes v E V und w E W die Abbildungen


~v: W -+ U, w 1-+ t(v, w), und
~"': V -+ U, v 1-+ ~(v, w),
linear sind. Es ist leicht zu sehen, daß die Menge
Bi! (V, W; U) := {~: V x W-+ U: ~ist bilinear}
wieder ein K- Vektorraum ist.
Beispiele. a) Seien V = W = K[t]d bzw. U = K[tb die Vektorräume der
Polynome vom Grad :::: d bzw. :::: 2d mit Basen
1, t, ... , td bzw. 1, t, ... , t 2d und
~ : K[t]d x K[t]d -+ K[tbJ , (P, Q) 1-+ P ·Q,
die Multiplikationsabbildung, wobei das Produkt P · Q nach der in 1.3.6 angege-
benen Formel erklärt ist. Daran sieht man sofort, daß ~ bilinear ist. Insbesondere
ist t(t;, ti) = ri+J, also liegt die Basis von K[t]u im Bild Im~ c K[thJ. Dies
6.3 Tensorprodukte 351

istjedoch im allgemeinen kein Untervektorraum. Sei etwa d = 1:


für K = Q ist t 2 - 2f{_ Im~, obwohl t 2 , -2 E Im~,

für K = lR ist t2 +I f{_ Im ~ , obwohl t 2, 1 E Im ~ ,


denn diese quadratischen Polynome sind nicht Produkt von linearen Polynomen,
weil .J2 f{_ IQ und i f{_ JR.
b) Seien nun V = W = K[t] bzw. U = K[t 1 , t 2 ) die unendlich dimensionalen
Vektorräume der Polynome in einer Veränderlichen t bzw. in zwei Veränderli-
chen 11> t 2 mit Basen
( t 1EN von K[t] bzw. (r; · ti) (i.j)ENXN
von K[t 1, 12] .
Auch hier hat man eine Multiplikation
~: K[t] x K[t]-+ K[t 1 , t2l , (P(t) , Q(t)) t-+ P(t 1) • Q(t2).
Das bedeutet, man ersetzt vor der Multiplikation die Variabletin P durch t 1 und
in Q durch t2 • Mit etwas Rechnung (vgl. Aufgabe 9 zu 1.3) sieht man, daß ~
wieder bilinear ist. Auch hier liegt die Basis von U im Bild von ~, denn es ist
wi, tj) = t; . t~ '
aber Im~ c U ist kein Untervektorraum. Man überlege sich, daß etwa das Poly-
nom t 1t 2 + 1 für keinen KörperKin Im~ liegt.
6.3.2. In 2.4.1 hatten wir gesehen, daß eine lineare Abbildung durch die Bil-
der einer Basis eindeutig bestimmt ist. Für bilineare Abbildungen kann man das
geeignet modifizieren. Man beachte dazu folgendes: Sind ( v;);EI und ( w j) jEJ
Basen von V und W, so hat man eine durch die disjunkte Vereinigung von I und
J indizierte Basis
{(v;, O))i EI ' ((O, Wj )) jEJ
von V x W (vgl. Aufgabe 5 zu 1.5). Dagegen ist die durch I x J indizierte
Familie
(v;, wj)
im allgemeinen weder ein Erzeugendensystem noch linear unabhängig in
V X w.
Grundlegend ist die folgende einfache
Bemerkung. Seien V bzw. W Vekto rräume über K mit Basen (v;); EI bzw.
(wj)j EJ· Ist U ein weiterer K-Vektorraum, so gibt es zu einer beliebig vorge-
gebenen Familie (uij)(i.j )El xJ in U genau eine bilineare Abbildung
~: VxW-+U mit ~(v;,wj)=u;j füralle (i,j)EixJ.
352 6 Dualität und Tensorprodukte*

Vorsicht! Die Vektoren ( v;, 0) und (0, w j) der Basis von V x W werden durch
jede bilineare Abbildung auf Null abgebildet.
Beweis. Um ohne großen zusätzlichen Aufwand an Indizes auch unendliche Ba-
sen mit behandeln zu können, vereinbaren wir zunächst eine vereinfachte
Schreibweise. Jeder Vektor v E V ist endliche Linearkombination der v;. Das
bedeutet, es gibt ein m E N, i 1, ••• , i", EI und A. 1, • • • , A.", E K, so daß
m
V= LAkV;,.
k~l

Dafür schreiben wir einfacher


V= L 1
A;V; ,

wobei L:' andeuten soll, daß nur endlich viele der formal aufgeschriebenen
Summanden # 0 sind. Das kann man etwa dadurch erreichen, daß man bis auf
endlich viele Ausnahmen alle A.; = 0 setzt. Ist I endlich, so ist die eingeschränk-
te Summe L:' gleich der vollen Summe L · Wer nur an diesem Fall interessiert
ist, kann den Unterschied ignorieren.
Zur Definition von l; betrachten wir ein beliebiges Paar (v, w) E V x W . Es
sei v = L:' A.; v; und w = L:' f.L j w j. Angenommen, es gibt ein bilineares l; wie
gesucht. Dann muß

l;(v, w) = l; (I:'A;V;, L
I )
1
f.LjWj) = L:\!J,jl;{V; , W j ) = L:\IJ,jUij
l ,j 1,)

sein. Da die A.; und f.L j durch (v, w) eindeutig bestimmt sind, gibt es höchstens
eine solche Abbildung.
Umgekehrt ist zu zeigen, daß durch
l;(v, w) := L:' A.; IJ, j Uij
i ,j

tatsächlich eine bilineare Abbildung erklärt ist. Dazu halten wir w fest. Dann ist
$w: V--+ U, v = L\;v; I-* L 1
A; f.L j Uij,
i ,j

offensichtlich linear, mit


~w(V;) = L 1
f.L j Uij .
j

Analog können wir v festhalten und w variabel lassen. 0


6.3 Tensorprodukte 353

6.3.3. Der Vektorraum U und die Vektoren uiJ waren in obiger Bemerkung ganz
beliebig gewählt gewesen. Nun wollen wir zeigen, daß unter all den möglichen
Wahlen eine besonders ausgezeichnet ist, nämlich ein Vektorraum U, in dem die
u;1 eine Basis sind.

Theorem. Seien V und W Vektorräume über K. Dann gibt es einen K ·Vektor-


raum V 0 K W zusammen mit einer bilinearen Abbildung
1) : VxW-+V0KW,
die folgende universelle Eigenschaft haben: Zu jedem K · Vektorraum U zusam-
men mit einer bilinearen Abbildung
~:VxW-+U

gibt es genau eine lineare Abbildung


~0 : V 0K w-+ u
mit~ = ~0 o 1). Das kann man durch ein kommutatives Diagramm illustrieren:
VxW

1)1 ~
V0KW~ U

Weiter gilt: Falls dim V, dim W < oo, so ist


dim(V 0K W) = (dimV) · (dimW) .

Falls klar ist, welches K Grundkörper ist, schreibt man nur 0 statt 0 K.

Man nennt V 0 K W das Tensorprodukt von V und W über K. Die Elemente von
V 0 K W heißen Tensoren.
Beweis. Wir wählen Basen (v;);EI von V und (w1) 1E 1 von W (vgl. 1.5.3) und
definieren V 0 W als den Vektorraum der endlichen Linearkombinationen von
formalen Ausdrücken der Form v; 0 w 1 . Präziser ausgedrückt betrachten wir den
K · Vektorraum
Abb(JxJ, K) = {r: l x J-+ K)
(vgl. 1.4.1, Beispiele) und seinen Untervektorraum
V0W:= {r: l x l-+K : r(i,))#Ofürnurendlichviele(i,)) E l x J}.
Dann ist V; 0 w 1 E V 0 W die Abbildung, deren Wert an der einzigen Stelle (i, ) )
gleich 1 und sonst 0 ist. Offenbar ist (v; 0 w 1) u.JlEixJ eine Basis von V 0 W,
354 6 Dualität und Tensorprodukte*

denn für r E V 0 W gilt


r = L r(i, j)(v; 0 w
i,j
1) ,

wobei nur endlich viele Summanden i= 0 sind. Also haben wir ein Erzeugenden-
system. Ist

i,j

so gilt r(i, j) = aii = 0, weil die Nullabbildung überall den Wert Null hat. Zur
Definition von 71 benutzen wir die Bemerkung 6.3.2: Es genügt,
71(V;, Wj) :=V; 0 Wj
zu setzen. Sind beliebige Vektoren
V= L 1
A;V; E V und w = L:' f-iJWJ E W

gegeben, so ist wegen der Bilinearität von 71

V 0 W := 71(v , w) = 77 (L:'A.;v;, L 1
/-ijWj) = L A;/-ij(V; 0 Wj).
1

l J 1,)

Nun zur universellen Eigenschaft: Ist ~: V x W ~ U gegeben, so betrachten


wir die Vektoren u ii := ~(v;, w 1) EU. Wegen der Bedingung~=~® o 71 muß
~® (V; 0 Wj) = Uij
sein. Nach 2.4.1 gibt es genau eine lineare Abbildung~® : V 0 W ~ U mit
dieser Eigenschaft. Weiter ist nach 2.4.1

~® (L.'aij(V; 0 Wj)) = L.'aijUij.


l.j l,)

Also ist ~0 (v 0 w) = ~ (v , w) für alle (v , w) E V x W, und die universelle


Eigenschaft ist bewiesen.
Der Zusatz über die Dimensionen ist klar, denn besteht I aus m und J aus n
Elementen, so besteht I x J aus m · n Elementen. 0

Aus der Bilinearität von 71 folgen sofort grundlegende


Rechenregeln für Tensoren. Ist 71: V x W ~ V 0 Wund v 0 w := 71(v, w ),
so giltfür v, v' E V, w , w' E Wund A. E K:
a) v 0 w + v' 0 w = (v + v' ) 0 w, v 0 w + v 0 w' =v0 (w + w' ),
b) (A. · v) 0 w =
v 0 (A. · w) =
A. · (v 0 w). o
6.3 Tensorprodukte 355

Man beachte, daß im Gegensatz zu a) eine beliebige Summe v ® w + v' ® w' im


allgemeinen nicht zu einem Produkt zusammengezogen werden kann. Die Regel
AV ®K W = V ®K AW
für A. E K kann man so lesen, daß der Index K unter dem Tensorzeichen ® an-
gibt, welche Faktoren zwischen den beiden Seiten ausgetauscht werden dürfen.
6.3.4. Wie schon gesagt, das Tensorprodukt ist ein sehr abstrakter Begriff, der
bei der ersten Lektüre schwindelerregend sein kann. Dem soll durch einige kon-
krete Beispiele entgegengewirkt werden. Der geometrische Hintergrund des ei-
genartigen Wechsels von bilinear zu linear wird in Aufgabe 3 beleuchtet.
Beispiele. a) Wie in 6.3.1 betrachten wir die Multiplikation von Polynomen
~: K[t] X K[t] ~ K[t,, t21·
Nach der universellen Eigenschaft des Tensorproduktes gibt es eine lineare Ab-
bildung
~0: K[t] ®K K[t] ~ K[t, , t2J, t; ® t 1 ~ t; · tJ.
Da die Monome t;t{ eine Basis des K- Vektorraumes K[t 1 , t2] bilden, ist ~0 ein
Isomorphismus. Man kann also die Identifikationen
K[t] ®K K[t] = K[t1, t 2], t ® 1 = t 1 und 1 ® t = t2
vornehmen, was eine neue Methode ergibt, den Polynomring von zwei Verän-
derlichen aus dem einer Veränderlichen zu konstruieren. Indem man die Grade
passend abschneidet, kann man daraus auch endlichdimensionale Beispiele er-
halten.
b) Sei W ein beliebiger lR-Vektorraum und V = IC als lR-Vektorraum. Wir be-
trachten die universelle bilineare Abbildung
IC x W ~ IC ® 11 W, (A., w) ~ A. ® w.
Ist (w 1 )JEJ eine Basis von W, so erhalten wir zusammen mit der Basis 1, i von
IC die Basis
(1 ® w 1)JEJ U (i ® w 1) 1E1 von IC ®R W .
Also hatjedes w* E IC ® 11 Weine eindeutige Darstellung
w* = .L'aj(1 ® Wj) + _L' ß 1(i ® Wj) = _L'(aj + ß1i) ® Wj = L 1
Aj ® Wj
j j j j
mit a 1 , ß1 E lR und A.1 E IC. In dem JR-Vektorraum IC ® 11 W können wir eine
Multiplikation mit komplexen Zahlen definieren durch

c X (IC ®R W) ~ c ®R w , ( A, ~';.. j ® w j) ~ ~IA . Aj ® w j .


356 6 Dualität und Tensorprodukte*

Ohne jede Schwierigkeit prtift man die Axiome aus 1.4.1 nach: C 0R W wird
so zu einem komplexen Vektorraum mit Basis (I 0 w 1 )JEJ über C. Man nennt
C 0 R W die Komplexifizierung von W.
Die Einschränkung von C x W --+ C ®R W auf l x W ergibt eine IR-lineare
Abbildung
w --+ c 0R w ' w I-+ I0 w.
Sie ist injektiv, also ist ihr Bild l 0 W isomorph zu W, d.h. W kann als reeller
Untervektorraum von C 0R W aufgefaßt werden.
Im Spezialfall W = IR" kann man das viel einfacher beschreiben: IR" hat die
Basis
e1 = (0, ... , 0, l, 0, ... , 0) E IR", j = 1, ... , n.
Da die l an der Stelle j auch eine komplexe Zahl ist, kann man e 1 ebenso als
Element des C" ansehen. Präziser kann man dafür l 0 e1 E C'' schreiben. Dann
ist die Abbildung
n

C ®IR IR" --+ C" , ~=>· i 0 ei 1--+ ()-. 1 , . . . , A.") ,


}=I

ein Isomorphismus von C-Vektorräumen, und IR" ist in kanonischer Weise ein
reeller Untervektorraum des C". Das hatten wir z.B. in 5.5.6 benutzt.
6.3.5. Die Beziehung des Tensorproduktes zu einem vertrauten Produkt sieht
man schön am Polynomring (Beispiel a) in 6.3.3). Weitere Beispiele für solche
Beziehungen erhält man mit Hilfe der Dualräume.
Sind V und W Vektorräume mit Dualräumen V* und W*, so betrachten wir
folgende Konstruktionen:
a) Für zwei Linearformen tp E V* und 1jl E W* ist das Produkt
tp ·1/1: V x W--+ K, (v, w) 1--+ tp(v) · 1/! (w),
eine Bilinearform, die zugehörige Abbildung
(tp ·1/1) 0 : V 0 W--+ K, v 0 w ~--+ tp(v) ·1/!(w),
ist linear, also ist (tp · 1/1) 0 E (V 0 W)*. Die so entstandene Abbildung
v• x w• --+ (V 0 W)* , (tp, 1/1) ~--+ (tp · 1/1) 0 ,
ist wiederum bilinear, d.h. sie wird zu einer linearen Abbildung
V* 0 W* --+ (V 0 W) * , tp 01/1 ~--+ (tp ·1/1) 0 .
Daß tp 0 1/1 eine Linearform auf V 0 W erklärt, kann man auch so sehen:
(tp 01/!)(v 0 w) := tp(v) ·1/!(w), (a)
6.3 Tensorprodukte 357

wobei rechts das gewöhnliche Produkt in K steht.


b) Die durch Multiplikation mit Skalaren in W erhaltene Abbildung
V*xW->Hom (V, W), (if!,W)>-? if!( ) · w , wobei
IP( ) . w : V --+ w , V f--7 IP(V) . w ,
ist bilinear, dazu gehört die lineare Abbildung
V* 0 W --> Horn (V, W) , if! 0 w >--> if!( ) · w .
Das kann man wieder kürzer ausdrücken durch
(if! 0 w)(v) := if!(v) · w . (ß)
Diese Spielereien gipfeln in dem
Satz. Sind V und W endlich-dimensionale Vektorräume, so sind die beiden
oben erklärten kanonischen Abbildungen
a: V*0W*->(V ® W)* und ß: V* ® W ->Hom(V,W)
Isomorphismen.
Beweis. Wirbenutzen Basen (v 1 , ... , vm) von V und (w 1 , .. . , wn) von W, sowie
die zugehörigen dualen Basen (v;, ... , v~.) von V* und (w;, ... , w~) von W*
(vgl. 6.1.2). Daraus erhält man Basen
(v; 0 wj );,J von V* ® W* und ( (vi ® WJ)*)i,J von (V 0 W)* ,
und es genügt a( v; ® wj) = (v; ® Wj )* zu zeigen. Das folgt aber aus
a(v; 0 wj)(vk ® wz) = v; (vk)wj(wz) = 8ikOjz = (v; ® wj)*(vk 0 wz) .
Um zu zeigen, daß ß ein Isomorphismus ist, benutzen wir die Basen
(v; 0 Wj)i,J von V* ® W und (F!)i,J von Horn (V, W)
mit F/ (vk) = O;kWJ wie in 2.4.2. Aus
ß(v; ® wj)(vk) = v; (vk)wj = O;kWj
folgt, daß ß diese Basen aufeinander abbildet. D

6.3.6. Nun kommen wir zurück auf die eingangs gestellte Frage nach den Bezie-
hungen von Tensoren zu Matrizen. Es werde A als lineare Abbildung aufgefaßt;
dann ist
A E Horn (K m, K n) ~ (Km)* 0 K n .
Wirkt A als Bilinearform, so ist
A E Bil(Km, K n; K) ~ Hom (Km0K n,K) = (Km®K n)* ~ (Km)*®(Kn)*,
wobeialldie Isomorphismen kanonisch sind (vgl. Aufgabe 2a). Allgemein ist
358 6 Dualität und Tensorprodukte*

- eine lineare Abbildung von V nachWein Tensor aus V* 0 W,


- eine Bilinearforrn auf V x Wein Tensor aus V* 0 W*.
6.3.7. In einem Tensorprodukt V 0 V sind zwei Tensoren v 0 v' und v' 0 v
im allgemeinen verschieden (vgl. etwa die Beispiele in 6.3.1). Man kann das
Tensorprodukt so modifizieren, daß der Unterschied zwischen v 0 v' und v' 0 v
genau kontrollierbar wird. Dazu die

Definition. Sind V und W Vektorräume über K, so heißt eine bilineare Abbil-


dung
~: VxV-+W
symmetrisch, wenn ~(v, v') = ~(v', v) für alle v, v' E V und
alternierend, wenn ~(v, v) = 0 für alle v E V.
Bemerkung. Ist~ alternierend, so gilt
~(v', v) = -~(v, v') füralle v, v' E V,
und im Fall char(K) =/= 2 gilt auch die Umkehrung.

Beweis. ~(v + v', v + v') = ~(v , v) + ~(v', v') + ~(v, v' ) + ~(v', v). 0

Ob eine bilineare Abbildung ~ symmetrisch oder alternierend ist, kann man mit
Hilfe der linearen Abbildung~® entscheiden. Dazu betrachten wir die Untervek-
torräume
S(V) := span (v 0 v' - v' 0 v)u.v'EV C V 0 V
und
A(V) := span (v 0 v)uEV C V 0 V .

Lemma. Für jedes bilineare ~: V x V -+ W gilt


~symmetrisch <? S(V) c Ker~0 ,
~ alternierend <? A(V) C Ker ~®.

Beweis. Das folgt sofort aus


~(v, v')- ~(v ', v) = ~0 (v 0 v')- ~0 (v' 0 v) = ~0 ( v 0 v'- v' 0 v),

~(v, v) = ~0 (v 0 v). 0

6.3.8. Analog zum Tensorprodukt beweisen wir nun die Existenz eines äußeren
Produktes.
6.3 Tensorprodukte 359

Theorem. Für jeden K- Vektorraum V mit dim V 2:: 2 gibt es einen K -Vektor-
raum V 1\ V zusammen mit einer alternierenden Abbildung
/\ : V x V~V /\ V ,
die folgende universelle Eigenschaft haben: zu jedem K- Vektorraum W zusam-
men mit einer alternierenden Abbildung ~ : V x V ~ W gibt es genau eine
lineare Abbildung~" derart, daß das Diagramm
VxV

kommutiert. Ist (v 1, • • • , vn) eine Basis von V, so ist durch V; 1\ v1 := 1\ (v; , v1)
mit I ~ i < j ~ n eine Basis von V 1\ V gegeben. Insbesondere ist
.
d1m(V 1\ V) = (n)
2 =
n(n-1)
2 .

Beweis. Wir erklären das äußere Produkt als Quotientenvektorraum des Tensor-
produktes:
V 1\ V :=(V ® V) / A(V) ,
wobei A(V) der in 6.3 .7 erklärte Untervektorraum ist. Bezeichnet
Q : V ® V~V /\ V
die kanonische Abbildung, so erklären wir 1\ := Q o TJ . Für v, v ' E V ist also
v 1\ v' := 1\ (v , v') = Q(TJ(V, v')) = Q(V ® v' ) .
Die Abbildung 1\ ist bilinear und nach dem Lemma aus 6.3.7 auch alternierend.
Zum Beweis der universellen Eigenschaft betrachten wir das folgende Dia-
gramm:

V x V~

___k_._

Yy
V ®V W

~A
V I\ V
Zu ~ gibt es nach 6.3.3 ein eindeutiges lineares ~® und nach der universellen
360 6 Dualität und Tensorprodukte*

Eigenschaft des Quotienten (2.2.7) wegen Lemma 6.3.7 ein eindeutiges lineares
~". Aus der Kommutativität des Diagramms ( *) folgt

~" (v 1\ v') = ~(v, v').


Es bleibt die Behauptung über die Basis von V 1\ V zu zeigen, das ist die einzige
Schwierigkeit. Da V@ V von Tensoren der Form V;@ v1 erzeugt wird, erzeugen
die Produkte v; 1\ v J den Raum V 1\ V. Wegen v; 1\ v; = 0 und v 1 1\ V; = - v; 1\ v 1
sind schon die (;) Produkte
V; 1\ V j mit i < j
ein Erzeugendensystem, und es genügt, die lineare Unabhängigkeit zu beweisen.
Dazu betrachten wir den Vektorraum W = K N mit N = (;), und wir be-
zeichnen die kanonische Basis von K N mit
(eij)t :oi<J:On .
Eine alternierende Abbildung ~ : V x V --+ K N konstruieren wir wie folgt: sind
v = LA.;v; und v' = LJ-t;V;
in V gegeben, so betrachten wir die Matrix

A = ( At An )
/1-1 /-Ln
und bezeichnen mit aiJ .- A;/1-J - AJ/1-i den entsprechenden 2-Minor von A.
Dann ist durch

i<)

eine sehr gute alternierende Abbildung gegeben: wegen der universellen Eigen-
schaft muß
~" (v; 1\ v1) = Hv;, v 1) = eiJ
sein, und aus der linearen Unabhängigkeit der eiJ in K N folgt die Behauptung.
Die so erhaltene Abbildung
~" : VI\V-+KN
ist ein Isomorphismus. Er liefert eine etwas konkretere Beschreibung des äußeren
Produktes. 0

Die Tatsache, daß die Abbildung 1\ alternierend ist, kann man auch ausdrücken
in den folgenden
Rechenregeln für das äußere Produkt. Für v, v', w, w' E V und 1.. E K gilt:
a) (v + v') 1\ w = v 1\ w + v' 1\ w, v 1\ (w + w') = v 1\ w + v 1\ w',
6.3 Tensorprodukte 361

b) (A.v) 1\ w = v 1\ (A.w) = A.(v 1\ w),


c) v 1\ v = 0 und v' 1\ v = -v 1\ v'. 0

Vorsicht! Ein Produkt V 1\ W mit V =/= W macht keinen Sinn! Daher nennt man
das äußere Produkt manchmal auch äußere Potenz.
6.3.9. Da äußere Produkte in verschiedenartigen Verkleidungen auftreten kön-
nen, wollen wir den Leser mit einigen kanonischen Isomorphismen wappnen.
Zur Abkürzung verwenden wir die folgenden Bezeichnungen:
Bil (V; W) := {~: V x V-+ W : ~ bilinear} und
Alt2 (V; W) := {~ E Bil(V, V; W) : ~alternierend}.
Die universelle Eigenschaft des Tensorproduktes ergibt den kanonischen Isomor-
phismus
Bi! (V; K)-+ (V 0 V) * , ~ ~ ~0 ,
(Aufgabe 2). Aus der Quotientenabbildung
V 0 V-+ V 1\ V= (V 0 V) / A(V)
erhalten wir den Isomorphismus
rr: {1/IE(V0V)*: 1/liA(V)=O)-+(V /\ V)*, 1/J~{f.
(Aufgabe 9 zu 2.2). Nach Lemma 6.3.7 ist die Abbildung
Alt2 (V; K) -+ (V 1\ V)* , ~ ~ €0 ,
wohldefiniert und ein Isomorphismus. Wenn wir (V 1\ V) * mit Hilfe von rr als
Untervektorraum von (V 0 V)* ansehen, ergibt sich das kommutative Diagramm
von Inklusionen und Isomorphismen
Alt2 (V; K) C Bi! (V; K)
-1- -1-
(V 1\ V) * c (V 0 V) * .
Um eine Beziehung zwischen (V 1\ V)* und V* 1\ V* zu erhalten, betrachten wir
die Abbildung
a: V* x V*-+ Alt2 (V; K), (cp , 1/1) ~ a(cp, 1/1),
mit
cp(v) cp(w) )
a(cp, 1/J)(v, w) := det ( .
1/J(v) 1/J(w)
Aus den Eigenschaften der Determinante folgt, daß a(cp , 1/J) alternierend ist. Al-
so gehört dazu die lineare Abbildung
a " : V * 1\ V*-+ Alt2 (V; K) .
362 6 Dualität und Tensorprodukte•

Wir zeigen, daß sie für endlichdimensionales V ein Isomorphismus ist. Dazu
wählen wir eine Basis (v 1, . . . , vn) von V und die duale Basis (v;, .. . , v;) von
V*. Dann ist durch
v;' 1\ vj , 1 :::= i < j :::= n ,
eine Basis von V* 1\ V* gegeben. Dach Definition von a ist

al\(v; 1\ v)(vb

v,) =
{ 1 für (i, j) = (k, /),
0 sonst.
Für ein beliebiges ~ E Alt2 (V; K) können wir daher ein eindeutiges Urbild
unter a/\ finden, nämlich
:~:::>iJcv; 1\ vj) mit aiJ := ~(v;, v1).
i<j

Also ist al\ bijektiv. Insgesamt haben wir damit den


Satz. Für einen endlichdimensionalen Vektorraum V gibt es kanonische Isomor-
phismen
V* 1\ V*-+ Alt2 (V; K)-+ (V 1\ V)* . 0

Aufgaben zu 6.3

1. Es sei V ein Vektorraum über einen Körper K und L ::J K ein Erweiterungskörper
von L, d.h. L ist ein Körper und Kein Unterring von L (vgl. 1.3.2).
a) Zeigen Sie, dass L eine Struktur als K- Vektorraum trägt.
b) Für Elemente L: J...; 181 v; E L 181K V und J... E L definieren wir eine skalare Multipli-
kation durch
A. (LA; 181 V;) := LU; 181 V; .

Zeigen Sie, dass L 181K V mit der üblichen Addition und dieser skalaren Multiplika-
tion zu einem L-Vektorraum wird.
c) Ist die Familie (v;);EI eine Basis von V über K, so ist die Familie (1181 t-!);EI eine
Basis von L 181K V über L. Insbesondere gilt dimK V = dimL(L 181K V).
d) Durch die Abbildung
<p: V-+ K 181K V ' V 1-+ 1181 V'

ist ein Isomorphismus von K -Vektorräumen gegeben.

2. Es seien U, V, W Vektorräume über demselben Körper K.


6.3 Tensorprodukte 363

a) Zeigen Sie, dass die Menge Bi! (V, W; U) mit der Addition von Abbildungen und der
üblichen Multiplikation mit Skalaren ein K- Vektorraum ist und dass die kanonische
Abbildung
Bi!( V, W; U) --+ Hom(V ® W , U) ,
~ t-+ ~®'
ein Vektorraumisomorphismus ist. Insbesondere erhält man für V = W und U = K
einen Isomorphismus
Bi! (V ; K)--+ (V® V)*, ~ r+ ~ 0 .

b) Zeigen Sie analog, dass die Menge Al~ (V; W) mit der Addition von Abbildungen
und der üblichen Multiplikation von Skalaren ein K- Vektorraum ist, und dass die
kanonische Abbildung
Alt 2 (V; W) --+ Hom(V 1\ V, W),
~ t-+ ~A'
ein Vektorraumisomorphismus ist. Für W = K erhält man einen Isomorphismus
Alt2 (V; K) --+ V* 1\ V*, ~ t-+ ~".

3. In dieser Aufgabe betrachten wir die kanonische Abbildung


7J: V x W--+ V® W, (v, w) r+ v ® w,
noch etwas genauer.
a) Zeigen Sie, dass Q := TJ(V x W) c V® Wein Kegel ist, d.h. für u E Q und).. E K
ist AUE Q.
b)* Für V= Km und W = K" gebe man Gleichungen für Q in Km® K" = Km·n an.
(Hinweis: Beschreiben Sie 71 durch Zij := x;yj .)
c) Wann ist 71 injektiv/smjektivlbijektiv?

4. Es seien V und W Vektorräume über einenKörperKund (lJ)iE/ bzw. (wj)jEJ Fami-


lien linear unabhängiger Vektoren in V bzw. W.
a) Die Familie
(v; ® Wj)(i.j)EixJ

ist linear unabhängig in V ®K W.


b) Für Vektoren v E V und w E W gilt:
v®w = 0 => v = 0 oder w = 0.
5. Für K-Vektorräume V, V', W, W' sowie Homomorphismen F: V --+ V' und
G: W --+ W' definieren wir das Tensorprodukt von F und G durch
(F ® G): V ® W --+ V'® W',
v®w r+ F(v)®G(w).
364 6 Dualität und Tensorprodukte*

Zeigen Sie, dass hierdurch ein Vektorraurn-Isomorphismus


HomK(V , V') 0 HomK{W, W' ) ___,. HomK(V 0 W, V' 0 W')
definiert wird.
6. Für Vektoren VI , vz E V gilt:
VI, vz sind linear abhängig {} VI 1\ vz = 0 in V 1\ V .

7. Sei A ein K- Vektorraum. A heißt K -Algebra, falls es zusätzlich eine Multiplikations-


abbildung
JA: A x A ___,. A, (a , a') 1-+ JA(a,a ' ) =: a · a',
mit folgenden Eigenschaften gibt:
I) JA ist K -bilinear.
2) A zusammen mit der Vektorraumaddition und der Multiplikation JA ist ein Ring.
a) Zeigen Sie, dass die folgenden K- Vektorräume auch K -Algebren sind:
i) der IR-Vektorraum IC,
ii) der K- Vektorraum M(n x n; K) bzgl. der Matrizenmultiplikation,

iii) der K-Vektorraum K[ti , ... , tn] bzgl. der üblichen Multiplikation von Polyno-
men (vgl. Aufgabe 9 zu 1.3).
b) Sind K -Algebren A und B gegeben, so ist A 0 B als K- Vektorraum erklärt. Zeigen
Sie, dass A 0 B auf eindeutige Weise so zu einer K -Algebra gemacht werden kann,
dass für alle a, a' E A und b, b' E B
(a 0 b) · (a' 0 b' ) = (a · a' ) 0 (b · b')
gilt.
c) Wird K[t]0K[t] wie in b) zu einer K -Algebra gemacht, so definiert der Vektorraurn-
Isomorphismus
K[t]0 K[t] ___,. K[ti , t 2 ] , ti 0 t i ~--+ t(t{,
aus Beispiel6.3.4 a) einen Isomorphismus von Ringen mit IK[r] ® K[rJ 1-+ IK[r 1.r2 J·

8. Zeigen Sie in Analogie zu Theorem 6.3.8 die Existenz eines symmetrischen Produktes :
Für jeden K- Vektorraum V gibt es einen K- Vektorraum V v V zusammen mit einer
symmetrischen Abbildung
v: vxv_,.vvv,
die folgende universelle Eigenschaft erfüllen: zu jedem K- Vektorraum W zusammen mit
einer symmetrischen Abbildung ~ : V x V ___,. W gibt es genau eine lineare Abbildung
~v derart, dass das Diagramm
6.3 Tensorprodukte 365

VxV

vl ~
vvv - ~V w
kommutiert. Ist (v 1, ••• , vn) eine Basis von V, so ist durch v; v VJ .- v(v;, VJ) mit
i~ j eine Basis von V v V gegeben. Insbesondere ist

.
dtm(V V V) =
(n +
2
I) = - + -l)n .
(n -
2

9. Beweisen Sie mit Hilfe der universellen Eigenschaften aus Theorem 6.3.3, Theorem
6.3.8 und Aufgabe 8 die Eindeutigkeit von Tensorprodukt, äußerem Produkt und sym-
metrischem Produkt, d.h.
a) gibt es ij: V x W -+ V® W mit denselben Eigenschaften, dann existiert ein Iso-
morphismus r, so dass das Diagramm

VxW
V "-....ij
v ® w __E_._ v®w
kommutiert.
b) gibt es i\ : V x W -+ V i\ W mit denselben Eigenschaften, dann existiert ein Iso-
morphismus r, so dass das Diagramm

V X w
1\/ "-...,Ä
V 1\ W __E_._ V i\ W
kommutiert.
c) gibt esv: V x W -+ VvW mit denselben Eigenschaften, dann existiert ein Iso-
morphismus r, so dass das Diagramm

VxW
v/ "'-.,V
V v W __E_._ VvW
kommutiert.
366 6 Dualität und Tensorprodukte*

6.4 Multilineare Algebra


Die bisher behandelten Tensorprodukte haben zwei Faktoren, sie hängen zusammen mit
bilinearen Abbildungen. Etwa in der Integrationstheorie ([Fo 3], §19) und der Differen-
tialgeometrie ([K-N] , Chapter 1-2) benötigt man auch Produkte mit mehreren Faktoren.
In diesem letzten Abschnitt soll noch kurz das Wichtigste darüber zusammengestellt
werden.

6.4.1. Zunächst der grundlegende Begriff: Gegeben seien K- Vektorräume


V1 , ••• , Vk und W. Eine Abbildung
~ : V1 x .. . x vk -+ w
heißt multilinear (oder k-fach linear), wenn für jedes i E (1, . . . , k) und fest
gewählte VJ E VJ (j = 1, . .. , i - 1, i + 1, .. . , k) die Abbildung
V; -+ W , v 1-+ ~(v~o . .. , v; - 1, v , v; + J. ... , vk) ,

K -linear ist. Kurz ausgedrückt: hält man alle bis auf eine Variable fest, so ent-
steht jeweils eine lineare Abbildung. Eine derartige Bedingung war schon bei der
Definition der Determinante benutzt worden (D 1 in 3.1.2).
Ganz analog zu 6.3.3 beweist man das
Theorem. Zu K- Vektorräumen V1 , • •. , Vk gibt es einen K- Vektorraum
V 1 ® ... ® Vk zusammen mit einer universellen multilinearen Abbildung
T} : VI X .. . X Vk -+ VI Q9 . .. Q9 Vk , (V~o ... , Vk) !-+ VJ Q9 • .. Q9 Vk,
d.h. zu jeder multilinearen Abbildung
~ : V1 x ... x vk -+ w
gibt es genau eine lineare Abbildung~® derart, daß das Diagramm
vl x ... x vk

kommutiert. Sind alle V1 endlichdimensional mit Basen


(V ~j), • . . , V ;n)
}
, j = 1, . . . , k ,
so ist eine Basis von V1 ® . .. ® Vk gegeben durch die Produkte
(k)
v;,(I) ® .. . ®v;, mzt. 1 :s:i1 ::c:r1 .
Insbesondere ist dim(V1 ® .. . ® Vk) = dim V1 · ... · dim Vk . D
6.4 Multilineare Algebra 367

Ein wichtiger Spezialfall ist folgender: Für einen K- Vektorraum V erklärt man
T := V* 0 . .. 0 V* 0 V 0 . . . 0 V .
'-.,.-' '--v-"'
p- mal q-mal

Ein Element von T wird p-fach kovarianter und q-fach kontravarianter Ten-
sor genannt. Für seine Darstellung sei (v 1, ••• , vn) eine Basis von V und (in
der üblichen Bezeichnungsweise der Physik) (v 1 , ••• , v") die zugehörige duale
Basis von V*. Dann hatjedes Element vonTeineeindeutige Darstellung
'"""' j, ··)q i, fO, ip
L aii···ip v '<Y . . .
fO,
'Cl v
fO, . fO, fO,
'01 vJI '<Y . • . '<Y vJq
.

miti 1, ... , i P' ) 1 , ••• , )q E {I, ... , n} und a~'.:.;~· E K. In dieser Form begegnet
man Tensoren in der Physik.

6.4.2. Auch die Verallgemeinerung symmetrischer und äußerer Produkte von 2


auf k Faktoren bereitet keine grundsätzlichen Probleme, sie erfordert nur viele
Buchstaben, die auf den ersten Blick recht verwirrend sein können. Zur Abkür-
zung schreiben wir dabei
vk := v x ... x v
'--v-"'
k- mal

für einen Vektorraum V und eine natürliche Zahl k 2: 1.


Definition. Sind V und W Vektorräume über K, so heißt eine k-fach lineare
Abbildung

symmetrisch, wenn ~(v 1 , ... , vk) = ~(v<rO>• . . . , v<r(k))


für jede Permutation u E Sk ,
alternierend, wenn Hv1, . .. , vk) = 0,
falls vi = v j für ein Paar (i, )) mit i i= j .

Analog zu 3.2.3 beweist man die


Bemerkung. Ist ~ alternierend und u E Sk> so ist
~(V<r(l)> ... , V<r (k)) = sign(u) · ~( VJ, .. . , Vk).
368 6 Dualität und Tensorprodukte*

In ti!/ V := V ® ... ® V betrachten wir die folgenden Untervektorräume:


'-v-'
k-mal

Sk (V) Span (VI Q9 ... 0 Vk - Va(!) 0 . . . 0 Va(k)),


wobei VI 0 ... 0 Vk E QSl V und a E Sk ,
Ak(V) .- span (v1 ® ... ® vk),
wobei v; = v1 für ein (i, j) mit i =/= j.
Analog zu 6.3.7 folgt das
Lemma. Für jedes k-fach lineare~: Vk ~ W gilt:
~symmetrisch {} Sk(V) c Ker~0 ,
~alternierend {} Ak(V) c Ker~0 .

Theorem. Zu einem K- Vektorraum V und einer natürlichen Zahl k 2':: I gibt


es einen K- Vektorraum (\ k V zusammen mit einer universellen alternierenden
Abbildung
/\: vk~(\kv,
d.h. zu jeder alternierenden Abbildung
~: vk ~ w
gibt es genau eine lineare Abbildung~" derart, daß das Diagramm
vk

w
kommutiert. Ist (vi> ... , v.) eine Basis von V, so ist eine Basis von (\k V gege-
ben durch die Produkte
V; L 1\ ... 1\ V;, mit 1 :5 i 1 < ... < h :5 n .
Insbesondere ist dim (\ k V = =
(;)für 1 ::; k ::; n dim V . Für k > n setzt man
(\kV=O.
Beweis. Man erklärt/\ alsKomposition Vk ~ ®kV ~ ®kV/Ak(V).
Zur Konstruktion der Basis benutze man N = (;),den KN mit Basis e;, ..;, und
die alternierende Abbildung
~: yk ~ KN, (w 1, ••• , wk) 1-+ La;, . .;, ·
e;, ...;,.
Dabei sei w; = L~= I )..iJv1 , daraus erhält man eine (k x n)-Matrix. A = ()..iJ),
und a;, . ;, ist der zu den Spalten i 1, .•• , ik gehörende Minor der Matrix. A . D
Damit sollte der Leser gerüstet sein für das Studium der Integrationstheorie etwa
in [Fo 3].
6.4 Multilineare Algebra 369

Aufgaben zu 6.4

1. Führen Sie die Einzelheiten des Beweises von Theorem 6.4.1 aus.
2. Zeigen Sie, dass für K- Vektorräume V1, Vz und V3 die kanonischen Abbildungen, die
gegeben sind durch

Isomorphismen sind. Folgern Sie daraus, dass für jeden K- Vektorraum W die Vek-
torräume
Bi! ((VI ® Vz), V3 ; W), Bi! CV1, (Vz ® V3); W)
(vgl. Aufgabe 2 zu 6.3) und
Tri! (VI, Vz, V3; W) := (~: VI X Vz X v3 -+ w: ~ trilinear}
kanonisch isomorph sind.
3. Beweisen Sie Theorem 6.4.2.
4. Es sei V ein K- Vektorraum.
a) Für Vektoren v1, ... , vk E V gilt:
VI, . . . , Vk sind linear abhängig <;> VI 1\ ... 1\ Vk = 0 in 1\k V .
b) Ist dimV = n, so gilt 1\k V = 0 für k > n.

5. Beweisen Sie die folgende Verallgemeinerung von Aufgabe 7 zu Abschnitt 6.3:


Zu einem K- Vektorraum V und einer natürlichen Zahl k ;::: I gibt es einen K- Vektor-
raum Vk V zusammen mit einer universellen symmetrischen Abbildung
v : vk-+ vkv,
d.h. zu jeder symmetrischen Abbildung
~: vk-+ w
gibt es genau eine lineare Abbildung l;v derart, dass das Diagramm
vk

w
kommutiert. Ist ( VJ , ... , Vn) eine Basis von V, so ist eine Basis von vk V gegeben
durch die Produkte
370 6 Dualität und Tensorprodukte*

Insbesondere ist dim Vk V = ( n+!- 1) .

Der Raum Vk V heißt symmetrisches Produkt der Ordnung k über V.


6. Es sei (e i , ... , en ) eine Basis des Standardraumes K" . Mit K[ti , .. . , tnl (k) bezeich-
nen wir den Vektorraum der homogenen Polynome vom Grad k in den Unbestimmten
t 1 , ... , tn (vgl. Aufgabe 9 zu 1.3). Zeigen Sie, dass durch die Zuordnung
Vk K"
~ K[ti, . .. , tn](k) , e;, V . . . V e;, r+ t; 1 • ••• • t;, ,
ein Isomorphismus von K- Vektorräumen definiert wird .
7. V sei ein endlichdimensionaler K- Vektorraum und a = (a1 /\ .. . 1\ ak) E 1\k V sowie
ß = (ßi 1\ .. · 1\ ßtl E /\ 1 V·
a) Zeigen Sie, dass eine bilineare Abbildung
J.l: 1\k V X f\ 1 V~ 1\k+/ V
mit
(a , ß) f-+ CXJ 1\ . .. 1\ O!k 1\ ßi 1\ · · · 1\ ßt
existiert. Das Element a 1\ ß := J.L(a , ß) heißt äußeres Produkt von a und ß.
b) Esgilt

8. Es sei V ein endlichdimensionaler K- Vektorraum mit dim V = n.


a) Zeigen Sie, dass die bilinearen Abbildungen, die durch die folgenden Zuordnungen
definiert werden, nicht ausgeartet sind (vgl. 6.2.1).
i) 1\k V x 1\"- k V~ /\"V~ K , (a , ß) r+ a 1\ ß .
Die Isomorphie von 1\" V und K ergibt sich dabei aus Theorem 6.4.2.
ii) Als Verallgemeinerung des Beispiels aus 6.2.1
1\k V* x 1\k V~ K , (cp 1 A . . . I\ Cf?ko V I I\ . .. /\ Vk) r+ detcp(v) ,
wobei
CJ?I (vi) .. ·
cp(v) = ( :
CJ?k ( vi)

b) Folgern Sie aus Teil a), dass es kanonische Isomorphismen

i) 1\k v• ~ (1\k v)* und


ii) 1\k V~ 1\n- k V *

gibt.
6.4 Multilineare Algebra 371

9. V und W seien K- Vektorräume. Zeigen Sie, dass die Menge


Altk(V; W) := ~~: Vk ~ W: ~ist alternierend}
zusammen mit der Addition von Abbildungen und der üblichen Multiplikation mit Ska-
laren ein K- Vektorraum ist, und dass die kanonische Abbildung
Altk(V; W) ~ Hom(;\k V, W), ~ 1-+ ~1\ ,
ein Vektorraumisomorphismus ist. Insbesondere erhält man für W = K einen kanoni-
schen Isomorphismus
AI~(V; K) ~ ;\k V*.
Literaturverzeichnis
Lehrbücher der linearen Algebra
[B I) E. Brieskom: Lineare Algebra und Analytische Geometrie I. Vieweg 1983.
[B 2] E. Brieskom: Lineare Algebra und Analytische Geometrie I!. Vieweg 1985.
[Bo) N. Bourbaki: Elements de mathematique, speziell Serie VI.- Livre Il. Algebre,
Ch. 2. Algebre lineaire. Hermann 1962.
[J] K. Jänich: Lineare Algebra. Springer 1979.
[Koe] M. Koecher: Lineare Algebra und analytische Geometrie. Springer 1983.
[Kow I) G. Kowalewski: Einführung in die Determinantentheorie. Veit & Co 1909.
4. Auflage, W. de Gruyter 1953.
[Kow 2] G. Kowalewski: Einführung in die Analytische Geometrie. Veit & Co 1910.
4. Auflage, W. de Gruyter 1953.
[S-S] 0. Schreier und E. Sperner: Einführung in die Analytische Geometrie und
Algebra. Teubner 1931.
[Str] G. Strang: Linear Algebra and its Applications. Academic Press 1976.

Ergänzende Literatur
[Cl H. Cartan: Nicolas Bourbaki und die heutige Mathematik. Arbeitsgemein-
schaft für Forschung des Landes Nordrhein-Westfalen, Heft 76. Westdeutscher
Verlag 1959.
[D] L.E. Dickson: New First Course in the Theory of Equations. Wiley 1939.
[DIN] DIN-Taschenbuch 202: Formelzeichen, Forme/satz, Mathematische Zeichen
und Begriffe. Beuth 1994.
[E] R. Ehrlich: Why toast Iands jelly-side down. Princeton University Press 1997.
[Fi] G. Fischer: Analytische Geometrie. Vieweg 1978.
[F-L) W. Fischer und I. Lieb: Funktionentheorie I. Vieweg 1980.
[Fo I) 0 . Forster: Analysis I. Vieweg 1976.
[Fo2] 0. Forster: Analysis 2. Vieweg 1977.
[Fo3] 0. Forster: Analysis 3. Vieweg 1981.
[F-P] U. Friedrichsdor[ und A. Prestel: Mengenlehre fiir den Mathematiker.
Vieweg 1985.
[Fr) F.G. Frobenius: Zur Theorie der linearen Gleichungen. Journal für die reine
und angewandte Mathematik 129, 175-180 (1905).
[F-S] G. Fischer und R. Sacher: Einfiihrung in die Algebra. Teubner 1974.
[K-N] S. Kobayashi and K. Nomizu: Faundarions of Differential Geometry, Vol. 1.
Wiley-Interscience 1963.

G. F ischer, Lineare Algebra, Grundkurs Mathematik,


DOI 10.1007/978-3-658-03945-5, ©Springer Fachmedien Wiesbaden 2014
Literaturverzeichnis 373

[L] S. Lang: Algebra. Addison-Wes1ey 1965.


[Le] Lexikon bedeutender Mathematiker. Bibliographisches Institut Leipzig, 1990.
[M-V] R. Meise und D. Vogt: Einfii.hrung in die Funktionalnalysis. Vieweg 1992.
[0] G. Opfer: Numerische Mathematikfii.r Anfänger. Vieweg 1992.
[P] J.-P. Petit: Das Geometrikon. Vieweg 1995.
[Sch] W. Schar1au: Schulwissen Mathematik: Ein Überblick. Vieweg 1994.
[St] J. Stoer: Einfii.hrung in die numerische Mathematik. Springer 1972.
[We] H. Weber: Lehrbuch der Algebra, Band 1. Vieweg 1895.
[Wi] F.A. Willers: Methoden der praktischen Analysis, 3. Auflage. W. de Gruyter
1957.
[Z] H.D. Ebbinghaus et a1: Zahlen. Springer 1983.
Namensverzeichnis

ABEL, NIELS HENRIK (1802-1829), 69


SESSEL, FRIEDRICH WILHELM (1784-1846), 286
BOURBAKI, NICOLAS (1934-1983 ?), VI
CAUCHY, AUGUST!N (1789-1857), 275
CAVALIERI, BONAVENTURA (1598- 1647), 175
CAYLEY, ARTHUR (1821-1895), VI, 20,251
COURANT, RICHARD (1888-1972), V
CRAMER, ÜABRIEL (1704-1752), 175,205
DESCARTES, RENE (1596-1650), I, 72
DIRICHLET, PETER (1805-1859), 36
EUKLID (etwa 365-300 v.Chr.), 292
FITTING, HANS (1906-1938), 261
FONTENE, GEORGES (1848-1923), 130
FROBENIUS, FERDINAND GEORG (1849-1917), 130
GAUSS, CARL FRIEDRICH (1777-1855), 22,66
GOETHE, JOHANN WOLFGANG VON (1749- 1832), 52
GRAM, J0RGEN (1850-1916), 210
HADAMARD, JAQUES (1865-1963), 298
HAMILTON, SIR WILLIAM (1805-1865), 251
HILBERT, DAVID (1862- 1943), VI
]ACOBJ, CARL GUSTAV (1804-1851), 145, 327
JORDAN, CAMILLE (1838-1922), 264
KOWALEWSKI, GERHARD (1876-1950), VI
KRONECKER, LEOPOLD (1823-1891), 93
LANG, SERGE (1927- ), 251
LAPLACE, PIERRE S!MON (1749-1827), 203
LEIBNIZ, GOTTFRIED WJLHELM (1646-1716), VI, 174, 192
MÖBIUS, AUGUST FERDINAND (1790-1868), 220
NOETHER, EMMY (1882-1935), VI
PEANO, GUISEPPE (1858-1939), 32
PFAFF, JOHANN FRIEDRICH (1765-1825), 183
PYTHAGORAS (etwa 580-500 v.Chr.), 347
ROUCHE, EUGENE (1832-1910), 130
SARRUS, PIERRE (1798- 1861), 195
SCHMIDT, ERHARD (1876-1959), 296
Namensverzeichnis 375

SCHREIER, ÜTTO (1901-1929), VI


SCHWARZ, HERMANN AMANDUS (1843-1921), 275
STEINITZ, ERNST (1871-1928), 89
STIRLING, JAMES (1692-1770), 187
SYLVESTER, JAMES (1814-1897), 322
VANDERMONDE, ALEXANDRE (1735-1796), 196
VIETA, FRAN<;:OIS (1540-1603), 70
WEBER, HEINRICH (1842-1913), VI
WEIERSTRASS, KARL (1815-1897), 174, 178, 192
WEYL, HERMANN (1885-1955), 40
ZORN, MAX (1906--1993), 88

Einzelheiten zu Leben und Werk findet man zum Beispiel in [Le].


Sachwortverzeichnis

Abbildung, 34, 84 arithmetisches Mittel, 43


2rr -periodische, 84 assoziativ, 37, 43, 54, 147
adjungierte, 342 aufgespannt, 80
bilineare, 350 Ausartungsraum, 322
duale, 334 Austauschlemma, 89
kanonische, 122, 357 Austauschsatz, 90
lineare, I 09 Auswahlaxiom, 39
multilineare, 366 Auswahlfunktion, 38
abelsch, 43 Automorphismus, 109
Ableitungshomomorphismus, 127, 141
Absolutbetrag, 58 Basis, 86, 88
Abstand, 275, 279, 349 kanonische, 86
Punkt von Gerade, 279 orthonormale, 295
Punkt von Hyperebene, 280 verformbare, 215
windschiefer Geraden, 349 Basisauswahlsatz, 88
abzählbar unendlich, 42 Basisergänzungssatz, 91
Addition Beschränkung, 35
von Abbildungen, 76, 84 Besselsche Ungleichung, 301
von Matrizen, 75 Bidualraum, 336
von Polynomen, 62 bijektiv, 35, 37
von Vektoren, 2, 76 Bild, 35, 114
Addition in Ringen, 54 Bilinearform, 288
Additionstheorem, 146 alternierende, 288
adjungiert, 342 nicht ausgeartete, 340
ähnlich, 160, 273 symmetrische, 288
äquivalent, 40, 120, 160
Cauchy-Schwarzsche Ungleichung, 275,
Äquivalenzklasse, 40
293
Äquivalenzrelation, 40
Cavalierisches Prinzip, 175
äußeres Produkt, 358, 367
Cayley-Hamilton
affiner Unterraum, 30, 116
Satz von, 251
Algebra, 364
Charakteristik, 61
alternierend, 105, 179, 184, 192, 288,
charakteristisches Polynom, 229, 230
358,367,371
Cosinussatz, 278
Annulator, 333, 341
Cramersche Regel , 175,205
antihermitesch, 348
Anzahl, 32
Sachwortverzeichnis 377

Darboux-Basis, 302 Eintrag, 21


darstellende Matrix, 288 Element, 32
Determinante, 198 inverses, 43, 45
einer Matrix 174,178,192,197 negatives, 44
eines Endomorphismus, 210 neutrales, 43, 44, 147
Gramsche, 298 Elementarmatrix, 164
Determinanten-Multiplikationssatz, 180 elementarsymmetrisch 70
Determinanten-Multiplikationstheorem, Elimination, 22, 30
208 Eliminationsverfahren von Gauß, 20, 30,
diagonalisierbar, 224, 225, 234, 235, 270, 130, 171
307 Ellipse, 320
simultan, 239 endlich erzeugt, 86
Diagonalmatrix, 225 Endomorphismenring, 112
Diagramm, Endomorphismus, 109, 112
kommutatives, 157 adjunktiver, 312
Diedergruppe, 53 ähnlicher, 273
Differentialgleichung, 199, 200, 227, 240 diagonalisierbarer, 224
Differenzmenge, 34 nilpotenter, 257
Dimension, I, 91, 117 normaler, 344
Dimensionsformel, orthogonaler, 303
für Kern und Bild, 117 selbstadjungierter, 312
für Summen, 100 trigonalisierbarer, 244
direkte Summe, 101 unitärer, 303
direktes Produkt, 38 Entwicklung, 203
Diskriminante, 69 Erzeugendensystem, 86, 87
distributiv, 54, 56, 147 erzeugt, 80, 166
Division mit Rest, 63 Erzeugung von linearen Abbildungen, 138
Drehung, 106, 146, 223, 231, 305 euklidisch, 292
Dreieck, 175 Exponentialfunktion, 272
Dreiecksmatrix, 175, 243
Dreiecksungleichung, 275 Fahne
duale Basis, 332 invariante, 243
Dualraum, 331 Faktorgruppe, 53
Durchschnitt, 33, 79 Faktorisierungssatz, 119
Fakultät, 187
Ebene, 13 Familie, 38, 80
Eigenraum, 226, 231, 259 Faser, 114
Eigenvektor, 223 Faserung, 115
Eigenwert, 222 Fehlstand, 189
Einheitsmatrix, 92, 147 Fitting
Einselement, 54 Lemma von, 261
378 Sachwertverzeichnis

Fixpunkt, 112 Hauptminoren-Kriterium für Definitheit,


Folge 327
beschränkte, 85 Hauptraum, 259
konvergente, 85 hermitesch, 291
Fourierkoeffizient, 30 I Hesse-Matrix, 153
Fundamentalsatz der Algebra, 66 Hessesehe Normalform, 280, 281
Fundamentalsystem, 133 homogen, 73, 290
Funktion Homomorphismus
differenzierbare, 78 von Gruppen, 48
lineare, 106 von Ringen, 56
rationale, 74 von Vektorräumen, I 09
stetige, 78 Hyperbel, 320
Fußball Hyperebene, 280
Satz vom, 307
Ideal, 251,255
Gerade, 4, 8, 346 imaginäre Einheit, 58
gleichmäßig, 42 Imaginärtei1, 58
Indexmenge, 33, 38
Gleichung
Induktion, 32
lineare, 2
induziert, 48, 78
Gleichungssystem
injektiv, 35, 37
lineares, 20,129,337
invariant, 242
Grad, 61,73
Isometrie, 303
Gram-Schmidtscher Orthogonalisierungs-
Isomorphismus, 48, 109, 118, 149
satz, 296
kanonischer, 336, 340
Gramsehe Determinante, 210, 298
Graph, 39,40
Jacobi-Identität, 284
Grassmann-Identität, 284
Jakobi-Matrix, 145, 153
Gruppe, 43
Jordanblock, 269
allgemeine lineare, ISO Jordanmatrix, 264
alternierende, 192 Jordansehe Norma1form, 268
orthogonale, 304
spezielle orthogonale, 304 kanonisch, 41, 86, 122, 140, 214, 274,
symmetrische, 44, 186 336
unitäre, 304 Kem,ll4
zyklische, 49, 53 Klasse, 41, 49
Gruppentafel, 46 Koeffizient, 4, 61
Koeffizientenmatrix, 21, 129
Hadarmadsche Ungleichung, 298 erweiterte, 21, 131
Hauptachsentransformation, 319 Körper, 56
Hauptminor, 327 kommutativ, 43, 54, !57
Sachwortverzeichnis 379

Komplement, 34 Matrix, 20, 75


orthogonales, 294, 341 ähnliche, 160, 230
komplementär, 201 äquivalente, 160
komplexe Struktur, 287, 311 antihermitesche, 348
w-kalibrierte, 311 darstellende, 139, 156, 288, 291
Komplexifizierurig, 253, 310, 356 diagonalisierbare, 225
Komponente, I, 38 dünn besetzt, !51
Komposition, 36, 38 hermitesche, 292, 312
kongruent, 50 inverse, 150, 166, 204
Konjugation, 291 invertierbare, 149, 166
konjugiert, 58 komplementäre, 20 I
Koordinaten, 154 normale, 344
kartesische, I orthogonale, 304
Koordinatensystem, 138, 154 positiv definite, 292, 321 , 327
Kronecker-Symbol, 93 Rang einer, 30
Kürzungsregel, 45, 161 symmetrische, 104, 312, 315, 319,
325
Länge einer Basis, 86, 90 transponierte, 334
Längenmessung, 297 trigonalisierbare, 244
Laplacescher Entwicklungssatz, 203 unitäre, 304, 307
Leibnizsche Formel, 192 Matrizenring, 148
linear abhängig, 18, 81 Menge, 32
linear unabhängig, 18, 81 endliche, 32
lineare Optimierung, 2 leere, 32
lineares Gleichungssystem, 20 unendliche, 32
Linearfaktor, 66 Metrik, 275, 294, 300
Linearform, 331 Minimalpolynom, 256
Linearkombination, 79 Minor, 206, 207
triviale, 81 Modul, 92
Linkstranslation, 45 Möbiusband, 220
Lösung, 4, II, 21 , 129 Monom, 355
allgemeine, 130 multilinear, 366
eindeutige, 134 Multiplikation
spezielle, 133 mit Skalaren, 2, 76
triviale, 26, 130, 134 von Endomorphismen, 112
universelle, 134 von Matrizen, 144
Lösungsmenge, 21, 78 von Polynomen, 62
Lösungsräume, 129 Multiplikation in Ringen, 54
380 Sachwertverzeichnis

negativ definit, 330 Parallelotop, 177


Negatives, 44, 76 Parallelprojektion, 119
nicht ausgeartet, 370 Parameter, 4, 24
nilpotent, 227, 257, 264 Parameterdarstellung, II
Norm,274,286,293,294, 300 Parametrisierung, 4, 13, 22, 30, 131
normal, 344 Parsevalsehe U ng1eichung, 30 I
Normalenvektor, 280 Peano-Axiome, 32
Normalform, 161, 309 Permutation, 44, 186
ähnliche Matrizen, 268 gerade, 189
äquivalente Matrizen, 261 ungerade, 189
Jordansche, 268 Pfaffsches Polynom, 183, 199
nilpotenter Endomorphismus, 264 Pivot, 23, 29
orthogonaler Endomorphismus, 308 Plückerkoordinaten, 21 1
seihstadjungierter Endomorphismus, Polarisierung, 291, 292
312 Polynom, 61, 73, 106, 350, 355
symmetrischer Bilinearformen, 324 charakteristisches, 229, 230
unitärer Endomorphismen, 307 homogenes, 73,98,370
normiert, 61, 179 trigonometrisches, 84, 30 I
n-Tupel, 38 Polynomring, 62, 73
Nullelement, 44, 54 positiv definit, 292, 321, 327
Nullpolynom, 61 Produkt
Nullstelle, 64 äußeres, 358, 370
mehrfache, 66 direktes, 38, 84, 98, I 04
Vielfachheit, 66 symmetrisches, 364, 370
nullstellenfrei, 57 von Matrizen, 144
nullteilerfei, 55 Projektion, 38, 296
Nullvektor, 3, 76 Pythagoras,
Satz von, 278
Optimierung
lineare, 2 quadratische Ergänzung, 326
Orientierung, 214 quadratische Form, 290
kanonische, 214 Quotientenmenge, 41
orientierungstreu, 213 Quotientenvektorraum, 123
orthogonal,279,294,303,304,308,333
orthonormal, 295 Rang, 114, 148, 159, 206, 335
Orthonormalisierung, 296, 324 Rang einer Matrix, 30
Raum
paarweise verschieden, 32 affiner, 30
parallel, 346 Realteil, 58
Parallelogramm, 175, 283 Rechtstranslation, 45
Parallelogramm-Gleichung, 278, 300 reflexiv, 40
Sachwortverzeichnis 381

Reihe Summe
absolut konvergente, 85 direkte, 101, 102
Relation, 40 orthogonale, 295
Repräsentant, 41, 50 von Vektorräumen, 100
RestkJasse, 50 Summenzeichen, 21
Restklassenring, 55 surjektiv, 35, 37
Resultante, 185 Sylvestersches Trägheitsgesetz, 322
Ring, 54 symmetrisch, 40, 104,232,288,358,367,
Römerfläche, 51 369
symmetrische Gruppe, 44, 186
Sarrussche Regel, 195 Symmetrisierung, 105, 310
Scherung, 177 symplektischer Vekturraum, 302, 311
schiefsymmetrisch, I 05, 183, 288
Schnitt, 119, 132 Teiler, 62
Schubladenprinzip, 36 Teilmatrix, 206
Schwingung, 238 Teilmenge, 32, 33
Schwingungsgleichung, 240 Tensor, 350, 353
selbstadjungiert, 312 kontravarianter, 367
semilinear, 291 kovarianter, 367
senkrecht, 277 Tensorprodukt, 353, 366
sesquilinear, 291 Trägheitssatz, 322
Signum, 189 Transformationsformel, 290, 291
Skalarprodukt, 292, 300 für Bilinearformen, 290
kanonisches, 274, 286 für Endomorphismen, 158
Spaltenrang, 96, 99, 159 für lineare Abbildungen, 158
Spaltenraum, 96 für Sesqui1inearformen, 291
Spaltenumformung, 165 Transformationsmatrix, 154, 169, 325
Spat, 177, 298 transitiv, 40
spezielle lineare Gruppe, 199 Translation, 45
Spiegelung, 223, 231, 305 Transposition, 95, 188, 337
Spur, 229 trigonalisierbar, 244
Standardbasis, 86
Standardebene, 13 überabzäh1bar, 42
Standardraum, 75 Umkehrabbildung, 35
reeller, 1 Unbestimmte, 4, 61, 73, 182
stetig verformbar, 215 unitär, 292, 303, 304, 307
Stirlingsche Formel, 187 universelle Eigenschaft, 369
Sturmsehe Ketten, 72 des äußeren Produkts, 359, 368
Summand des Quotientenvektorraums, 123
direkter, 102, 120 des Tensorprodukts, 353, 366
Summationsindex, 21 Untergruppe, 47
382 Sachwortverzeichnis

Unterraum windschief, II , 346


affiner, 116 Winkel, 276, 279
invarianter, 254 winkeltreu, 311
Unterring, 56 wohldefiniert, 50, 123
Untervektorraum, 77 Wronski-Determinante, 199
invarianter, 242
Urbild, 35 Zahlen
Ursprung, 2 ganze,33
komplexe, 33, 57
Vandermonde-Determinante, 196, 198 natürliche, 32
Variable rationale, 33, 57
freie, 24 reelle, 33, 57
gebundene, 24 Zeichenwechsel, 71
Vektor, I, 76 Zeilenrang, 96, 99, 159, 335
liegender, 20 Zeilenraum, 94
stehender, 20 Zeilenstufenform, 22, 28, 94, 131
Vektorprodukt, 282, 285 Zeilenumformung, 26, 93, 165
verallgemeinertes, 285 zusammenhängend, 221
Vektorraum, 76
verbindbar, 221
Vereinigung, 33
Verknüpfung, 43
äußere, 75
innere, 75
Verknüpfungstafel, 46
Vielfachheit, 66
Vielascher Wurzelsatz, 70
Vorzeichenregel, 72, 321
Symbolverzeichnis

D Ende eines Beweises ( '} Skalarprodukt, 274


oder Beweis klar
II II Norm, 274
a := b a ist definiert durch b, 32
L Winkel, 276
a=?b aus a folgt b
d Abstand, 275
a~b a und b sind gleichwertig

{} Mengenklammern c komplexe Zahlen, 33, 57


0 leere Menge, 32 K IR oder C, 292
E Element, 32 N natürliche Zahlen, 32
c Teilmenge,32 Q rationale Zahlen, 33
u Vereinigung, 33 IR reelle Zahlen, 1, 33
n Durchschnitt, 33 IR+ nicht-negative reelle Zahlen, 35
IR*
X
" Differenzmenge, 34
direktes Produkt, 38
+
IR"
positive reelle Zahlen, 43
reeller Standardraum, I
oder Vektorprodukt, 269 z ganze Zahlen, 33
->,I-> Abbildungspfeile, 34 ZjmZ zyklische Gruppe, 50, 51
0 Komposition von
Abbildungen, 36
K* Elemente ungleich Null, 56
Beschränkung von
V* dualer Vektorraum, 331
Abbildungen, 35
r~ Umkehrabbildung von f, 35 K" Standardraum, 75
äquivalent, 40 K[t] Polynomring über K, 62
(X;)iEI Familie, 39 K kanonische Basis, 86
L Summenzeichen, 21 e; kanonischer Basisvektor, 81
2:' eingeschränkte Summe, 352 15;; Kronecker-Symbol, 93
n Produktzeichen, 190 c stetige Funktionen, 78
+ Summe, 102 V differenzierbare Funktionen, 78
El1 direkte Summe, 101
Q) orthogonale Summe, 295 An alternierende Gruppe, 192
® Tensorprodukt, 353 Sn symmetrische Gruppe, 44
&l k-faches Tensorprodukt, 368 M(m x n; K) Matrizenraum, 75
1\ äußeres Produkt, 359
GL (n; K) allgemeine lineare Gruppe, 150
1\k k- faches äußeres Produkt von V ,
O(n) orthogonale Gruppe, 304
368
V symmetrisches Produkt, 364
SO(n) spezielle orthogonale Gruppe, 304
vk k-faches symmetrisches Produkt, U(n) unitäre Gruppe, 304
369
384 Symbolverzeichnis

A- 1 inverse Matrix, 150 Abb Abbildungen, 34


'A transponierte Matrix, 95 Alt alternierende Abbildungen, 361
Au komplementäre Matrix, 201 371
d I
Basismatrix, 86 Bi! bilineare Abbildungen, 350, 361
En n-reihige Einheitsmatrix, 92 char Charakteristik, 61
MA
B darstellende Matrix, 139 deg Grad, 61
MB darstellende Matrix, 140, det Determinante, 176, 178,
158,288 192,212
TA
B Transformationsmatrix, 155 dim Dimension, 91
Q{ E1ementarmatrix, 163 Eig Eigenraum, 226
Q{ (). ) E1ementarmatrix, 164 Hau Hauptraum, 259
S;(A.) Elementarmatrix, 163 End Endomorphismen, 112
pi Elementarmatrix, 164 Horn Homomorphismen, 111
I
Im Bild, 114
cpB Koordinatensystem, 138 Ker Kern, 114
Fi Basishomomorphismen, 139 Lös Lösungsmenge, 20
I
Fad adjungierte Abbildung, 342 rang Rang, 114, 159
sign Signum, 190
IF Ideal von F, 251
span aufgespannter Vektorraum, 80

Das könnte Ihnen auch gefallen