Sie sind auf Seite 1von 262

Mathematik fu

 r Ingenieure I
(fu
r Informatiker)

Wintersemester 2005/2006

Vorlesungsskript von Hans Grabmu


ller
u
berarbeitet von Peter Knabner und Alexander Pre htel
Institut fu
r Angewandte Mathematik

Friedri h{Alexander{Universit
at Erlangen{Nu
 rnberg

Inhaltsverzei hnis
0 Logik und Mengenlehre
0.1 Grundlagen der Logik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
0.2 Naive Mengenlehre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1 Vektoren
1.1 Der Gauss{Algorithmus . . . . . . . . . . . . . . . . . .
1.2 Skalarenvektoren und Vektorraume . . . . . . . . . . . .
1.3 Untervektorraume . . . . . . . . . . . . . . . . . . . . .
1.4 Lineare Abhangigkeit . . . . . . . . . . . . . . . . . . .
1.5 Dimension und Basis . . . . . . . . . . . . . . . . . . . .
1.6 Untermannigfaltigkeiten . . . . . . . . . . . . . . . . . .
1.7 Skalarprodukte . . . . . . . . . . . . . . . . . . . . . . .
1.8 Praehilbertraume und normierte Vektorraume . . . . . .
1.9 Orthogonalkomplemente und geometris he Anwendungen
2 Reelle Zahlen
2.1 Vorbemerkungen uber reelle Zahlen . . . . . . .
2.2 Grundbegri e der Algebra . . . . . . . . . . . .
2.2.1 Relationen und Abbildungen . . . . . . .
2.2.2 Algebrais he Operationen . . . . . . . .
2.2.3 Homomorphismen, Kongruenzrelationen
2.2.4 Gruppen, Ringe, Korper . . . . . . . . .
2.3 Vollstandige Induktion . . . . . . . . . . . . . .
2.4 R als geordneter Korper . . . . . . . . . . . . .
2.5 Intervalle, Betrag, Signum . . . . . . . . . . . .
2.6 Das Vollstandigkeitsaxiom in R . . . . . . . . .
2.7 Elemente der Kombinatorik . . . . . . . . . . .
3 Komplexe Zahlen
3.1 C als Menge geordneter Paare . . .
3.2 Die Gausss he Zahlenebene . . . .
3.3 Die komplexe Exponentialfunktion
3.4 Polynome . . . . . . . . . . . . . .
3.5 Nullstellen von Polynomen . . . . .

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

4 Matrizen
4.1 Kapitel 1 verallgemeinert auf K -Vektorraume fur einen Korper K . . . . . .
4.2 Abbildungen, Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4.3 Lineare Abbildungen. Kern und Bild . . . . . . . . . . . . . . . . . . . . . .

iii

1
1
1

.
.
.
.
.
.
.
.
.

5
5
17
24
26
33
38
42
46
51

.
.
.
.
.
.
.
.
.
.
.

63
63
69
69
73
75
81
86
90
96
99
104

.
.
.
.
.

121
121
125
131
136
142

149
. 149
. 150
. 154

4.4
4.5
4.6
4.7
4.8
4.9
4.10
4.11

Das Matrizenprodukt . . . . . . . . . . . . . . . . . . .
Die inverse Matrix . . . . . . . . . . . . . . . . . . . .
Basis{ und Koordinatentransformation . . . . . . . . .
Matrizen im Skalarprodukt . . . . . . . . . . . . . . .
Spezielle Matrizen . . . . . . . . . . . . . . . . . . . .
Direkte numeris he Losung linearer Glei hungssysteme
Determinanten und Anwendungen . . . . . . . . . . .
Das Vektorprodukt . . . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

166
174
177
182
185
196
211
227

5 Eigenwerte und Eigenvektoren von Matrizen


5.1 Das Eigenwertproblem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.2 Der Satz von Cayley{Hamilton . . . . . . . . . . . . . . . . . . . . . . . . . .
5.3 A hnli he Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

235
235
240
241

Kapitel 0
Logik und Mengenlehre
0.1 Grundlagen der Logik
Die in dieser Vorlesung benotigten Grundlagen der mathematis hen Logik sind elementar und
intuitiv lei ht na hvollziehbar. Wir setzen sie als weitestgehend bekannt voraus oder verwenden
sie, ohne eine ausdru kli he Re htfertigung zu geben. Folgende Begri e des mathematis hen
S hlieens sollten gelau g sein:
 Tertium non datur. Jede Aussage A ist entweder wahr oder fals h, das heit, es gilt
entweder A oder (auss hlieend) :A (ni ht A).
 Implikationen. (a) A ) B : Aus A folgt B oder B ist notwendig fur A oder A ist
hinrei hend fur B .
(b) A , B : A gilt genau dann, wenn B gilt oder A ist notwendig und hinrei hend
fur B . Diese Aussage ist logis h aquivalent mit A ) B und B ) A.
 Indirekter Beweis. Dieser ist eines der hau gsten Beweisverfahren zum Beweis einer
Aussage der Form A ) B . Man geht formal in folgenden S hritten vor:
Voraussetzung: Gelte A.
Widerspru hsannahme: Es gilt :B )    ) es gilt :A W
Folgerung: Es gilt B .
2
 Quantoren. Diese sind im eigentli hen Sinne stenogra s he Kurzel zur Vereinfa hung
mathematis her S hreibweisen. Wir verwenden
9 oder VW in der Bedeutung es gibt oder es existiert;
8 und in der Bedeutung fur alle.
Die Quantoren _ und ^ sind streng stellungsgebunden (sie stehen jeweils vor einer Aussage). Die Quantoren 9 und 8 konnen weitestgehend frei verwendet werden (hinsi htli h
beliebiger Positionen). Beispiele werden im Verlauf der Vorlesung gegeben.

0.2 Begri e und Symbole aus der Mengenlehre


(1845{1913) gab folgende De nition einer Menge:
De nition 0.1 Eine Menge ist eine Zusammenfassung von wohlbestimmten und wohlunter-

G. Cantor

s hiedenen Objekten zu einem Ganzen. Diese Objekte heien Elemente der Menge.

Die Begri e der naiven Mengenlehre sollen hier als bekannt vorausgesetzt werden, da sie si h
mit der Einfuhrung der "modernen" Mathematik in unser S hulsystem do h in das Bewusstsein der heutigen Generation weitestgehend eingepragt haben. Fur Mengen M; A; B verwenden
wir kommentarlos die folgenden Bezei hnungen und Verknupfungen:

 a 2 M , a 2= M ; A = B , A =6 B ; A  B , A  B (enthalten oder glei h); A 6= B (das heit


A  B und A =
6 B ).
 A [ B (Vereinigung).
 A \ B (Dur hs hnitt).
 A n B (Di erenz); das ist die Menge aller Elemente a 2 A mit a 2= B . Man bea hte
A n B 6= B n A.
 ; (Symbol fur die leere Menge).
Mengen werden harakterisiert entweder dur h Aufzahlen ihrer Elemente in ges hweiften
Klammern, zum Beispiel
M := fHe; Ne; Ar; Kr; Xe; Rng;
oder dur h Angabe einer harakteristis hen Eigens haft, zum Beispiel
M := fa : a ist ein Edelgasg:

Der De nitionsdoppelpunkt ":=" ist folgendermaen zu verstehen. Die Groe na hst dem
":" wird dur h den Ausdru k na hst dem "=" de niert und ist dann festgelegt, zum Beispiel:
A n B := fa : a 2 A und a 2= B g:

Hat man eine feste Grundmenge


6= ;, so sind folgende De nitionen sinnvoll:
De nition 0.2 (a) Fur jede Teilmenge A 
heie

C A := A := A :=
n A
das Komplement von A (bezugli h
) oder die zu A komplementare Menge. (Folgerung:
A und A sind disjunkt: A \ A = ;:)
(b) Ein System von Teilmengen A einer ni htleeren Menge
heie eine Mengenalgebra uber

:, (genau dann, wenn gilt:)


(A1)
2 A;
(A2) A 2 A
) A 2 A;
(A3) A; B 2 A ) A [ B 2 A:

In einer Mengenalgebra sind die ubli hen Mengenoperationen uneinges hrankt dur hfuhrbar.
Die Verknupfung vers hiedener Mengenoperationen kann ni ht willkurli h ges hehen; sie ist
vielmehr dur h strenge Gesetzmaigkeiten geregelt. Wir listen die wi htigsten dieser Gesetze
hier auf.

(K)

A [ B = B [ A; A \ B = B \ A;
(

(As)
(

(D)

(Kommutativgesetz)

(A [ B ) [ C = A [ (B [ C ) =: A [ B [ C;
(A \ B ) \ C = A \ (B \ C ) =: A \ B \ C ;

(Assoziativgesetz)

A [ (B \ C ) = (A [ B ) \ (A [ C );
A \ (B [ C ) = (A \ B ) [ (A \ C );

(Distributivgesetz)

(Id)

A [ A = A; A \ A = A;

(Idempotenzgesetz)

(N)

A \
= A; A [ ; = A 8 A 
;

(neutrale Elemente)

(Do)

A \ ; = ;; A [
=
8 A 
;

(dominante Elemente)

(Ko)

A n B = A \ B ; A \ A = ;; A [ A =
; A = A:

(Komplemente)

Die Beziehungen (Ko) gelten fur Teilmengen A; B 


. Wegen (As) konnen die Operationen
[ und \ au h fur (endli he oder unendli he) Systeme von Mengen Aj ; j 2 I , (I sei eine
beliebige Indexmenge) sinnvoll erklart werden:
S
jT
2I
j 2I

Aj := fa :

9 j0 2 I mit a 2 Aj g;
Aj := fa : a 2 Aj 8 j 2 I g:
0

De nition 0.3 (a) Fur eine ni htleere Menge


heie die Zahl

j
j := ard
:=

Anzahl der Elemente in

die Kardinalitat oder Ma htigkeit der Menge


.
heie endli h, wenn j
j eine endli he
Zahl ist; ansonsten heie
unendli h.
(b) Die Menge aller Teilmengen einer ni htleeren Menge
heie die Potenzmenge von
,
bezei hnet mit P (
) oder mit 2
:

P (
) := 2
:= fA : A 
g:
Bemerkung 0.4 Gema De nition gilt stets ; 
fur jede Menge
, so dass immer au h
; 2 2
folgt. Fur endli he Mengen
hat man j2
j = 2j
j, was hier ni ht gezeigt werden soll.
Diese Beziehung allein begrundet die Wahl des Symbols 2
fur die Potenzmenge.
2

Auf einem Mengensystem Aj 2 P (


); j 2 I; gelten die de Morgans hen Formeln:
(M1)
(M2)

T
j 2I

S
j 2I

Aj
Aj

=
=

S
j 2I

T
j 2I

A j ;
A j :

Wir zeigen jetzt unsere fruhere Behauptung, dass in einer Mengenalgebra die ubli hen Mengenoperationen uneinges hrankt dur hfuhrbar sind.
Satz 0.5 Ist A eine Mengenalgebra uber
, so gilt stets:
(i) ; 2 A;
(ii) A \ B 2 A 8 A; B 2 A;
(iii) A n B 2 A 8 A; B 2 A;
(iv)
(v)

j 2I
T
j 2I

Aj

2 A 8 Aj 2 A und jede endli he Indexmenge I ;

Aj

2 A 8 Aj 2 A und jede endli he Indexmenge I .

Begrundungen: (i) folgt wegen ; =


aus (A1) und (A2). (ii) gilt wegen


(M1)

= (A [ B )
mit den Axiomen (A2) und (A3). (iii) folgt aus (A2) und (ii) unter Verwendung von mit
A\B

(Ko)

= A \ B :
S hlieli h erhalt man (iv) und (v) dur h iterierte Anwendung von (A3) bzw. (ii).
AnB

Bemerkung 0.6 (a) In (iv) und (v) ist die Endli hkeit der Indexmenge I wesentli h. Ist I
unendli h, so werden wir spater zeigen, dass die Aussage
S
(A4) Aj 2 A; j 2 I ) Aj 2 A
j 2I

im allgemeinen fals h ist. Ein System A von Teilmengen einer ni htleeren Menge
mit den
Eigens haften (A1), (A2), (A3) und (A4) heit eine {Algebra uber
.
2
(b) Fur eine beliebige Menge
ist die Potenzmenge P (
) stets eine {Algebra.
Von Bedeutung wird im Folgenden no h der Begri des Produktes von Mengen sein:
De nition 0.7 Fur zwei Mengen A; B heie die Menge
A  B := f(a; b) : a 2 A und b 2 B g
das ( artesis he) Produkt von A und B . Das Paar (a; b) heie geordnetes Elementpaar.

(a) Das Produkt der Mengen A := f1; 2; 3g und B := f3; 0g ist die Menge
A  B = f(1; 0); (1; 3); (2; 0); (2; 3); (3; 0); (3; 3)g:
(b) Fur jede Menge M gilt
M  ; = ;; ;  M = ;:
BSP. (0.1)

Wir verweisen auf Beispiel 0.1

Kapitel 1
Vektoren
1.1 Lineare Glei hungssysteme. Der Gauss{Algorithmus
Lineare Glei hungssysteme treten in uberaus zahlrei hen Problemen der Mathematik, der
Physik und der Ingenieurwissens haften auf. Wir wollen hier ein einfuhrendes Beispiel mit
neutralem Charakter voranstellen.

BSP. (1.1) Ein Nahrungsmittel enthalte vers hiedene Inhaltssto e S1 ; S2 ; : : : ; S5 , die als Bestandteile A; B; C; D; E in der Produktionskette in das Endprodukt geraten sind. Die Produktionskette ist in der ersten Tabelle aufgelistet. In der zweiten Tabelle ist die Zusammensetzung der vers hiedenen Chemikalien na h Anteilen der Inhaltssto e S1; S2 ; : : : ; S5 aufges hlusselt (in der Einheit
[Gewi ht/Gewi ht).
S1 S2 S3 S4 S5
1) Landwirt
:A
A 0:2 0:5
0:3
2) Rohproduktlager : B
B
0
:
1
0
:
6
0
:
3
3) Veredelungsbetrieb : C
C 0:1 0:2 0:2 0:3 0:2
4) Grossist
:D
D
0:1 0:4 0:5
:E
5) Einzelhandler
E
0:1 0:3 0:3 0:3
Eine Probe des fertigen Nahrungsmittels beim Endverbrau her ergab die folgende Analyse (in der
Einheit [Gewi ht):
S1

S2

S3

S4

S5

0:75 2:25 0:65 1:60 0:75


Problemstellung: Mit wel hen Mengen sind die einzelnen Stationen an den Inhaltssto en
des Fertigproduktes beteiligt? Mathematisierung: Sei x1 (in Gewi htseinheiten) die Menge
der Zugabe A, die der Landwirt verwendet hat, : : :, x5 die Menge der Chemikalie E , die
der Einzelhandler verwendet hat. Zu losen ist das folgende System von funf Glei hungen
mit funf Unbekannten x1 ; x2 ; : : : ; x5 :
0:2x1 + 0:1x2 + 0:1x3 + 0x4 + 0x5 = 0:75;
0:5x1 + 0:6x2 + 0:2x3 + 0x4 + 0:1x5 = 2:25;
0x1 + 0:3x2 + 0:2x3 + 0:1x4 + 0:3x5 = 0:65;
0:3x1 + 0x2 + 0:3x3 + 0:4x4 + 0:3x5 = 1:60;
0x1 + 0x2 + 0:2x3 + 0:5x4 + 0:3x5 = 0:75:
Es ist zu erwarten, dass zu diesen funf Glei hungen Losungen x1; x2 ; : : : ; x5 2 R existieren. Tatsa hli h pruft man dur h einfa hes Einsetzen, dass das obige System mit folgenden Zahlen erfullbar ist:
x1 = 3; x2 = 1; x3 = 0:5; x4 = 1; x5 = 0:5:
5

De nition 1.1 R := fxjx ist reelle Zahl, d.h. x ist Dezimalbru h g,


N := fnjn ist nat
urli he Zahl: n = 1; 2; 3 : : :g;
f g = Menge,
fxj Eigens haft, die die Elemente x der Menge harakterisiert. g

Zur Aussagenlogik (); ^; _; 8; 9) und Mengenlehre ([; \; n) siehe Kapitel 0 und VL Theoretis he Informatik.
Mathematis he Fragen:

A) Existenz einer Losung.


Es gibt mindestens eine Losung.
Na hweis dur h
a) \Konkrete" Angabe:
- geht nur bei konkretem Beispiel, ni ht bei allgemeinen Problem.
- woher kommt die konkrete Losung?
b) \Abstrakte" Argumentation:
z.B. Widerspru hsbeweis
Annahme: es gibt keine Losung x1 ; : : : ; x5 ) : : : ) : : : ) Widerspru h (z.B. 0 = 1).
Losung dadur h ni ht bekannt.
) Angabe/Herleitung eines Algorithmus (\Re henvors hrift") zur Bestimmung einer Losung.
Bei endli h vielen S hritten dur h (exakte) Dur hfuhrung des Algorithmus (exakte) Angabe einer Losung.
B) Eindeutigkeit einer Losung
Es gibt ho hstens eine Losung x

Sind x und y Losungen, dann x = y:


Na hweis nur dur h \abstrakte" Argumentation!
Die Fragen A) und B) sind i.a. unabhangig voneinander.
Gilt A) und B), dann: Es gibt genau eine Losung.
Wir betra hten folgende Notation:
Geordnetes Paar und kartesis hes Produkt:
Seien A und B Mengen. Fur a 2 A und b 2 B heit (a; b) geordnetes Paar. Zwei Paare
(a; b) und (a0; b0 ) heien glei h, falls a = a0 und b = b0 gilt. Die Menge A  B := f(a; b) : a 2
A; b 2 B g aller geordneten Paare heit kartesis hes Produkt (oder Kreuzprodukt) von A und
B:
Beispiel: A = f4; 3; 2g; B = f1; 2g: Dann ist

A  B = f(4; 1); (3; 2); (2; 1); (4; 2); (3; 2); (2; 2)g

De nition 1.2 (n-Tupel und n-fa hes kartesis hes Produkt) Seien A1 ; A2 ; A3 ; : : : ; An Mengen. Fur aj 2 Aj ; j = 1; : : : ; n; heit (a1 ; a2 ; : : : ; an ) n-Tupel: Zwei n T upel (a1 ; a2 ; : : : ; an )
und (b1 ; b2 ; : : : ; bn ) heien glei h, falls aj = bj fur alle j = 1; : : : ; n gilt. Die Menge A1  A2 
: : :  An := f(a1 ; a2 ; : : : ; an ) : aj 2 Aj ; j = 1; : : : ; ng aller n T upel heit kartesis hes Produkt
(oder Kreuzprodukt) der Mengen A1 ; : : : ; An:

Wir erweitern das einfuhrende Beispiel zu folgendem allgemeinen Problem:


Gegeben seien Elemente
ajk 2 R ; bj 2 R ; j = 1; 2; : : : ; m; k = 1; 2; : : : ; n; (m; n 2 N fest):
Gesu ht ist ein n{Tupel (x1 ; x2 ; : : : ; xn ) 2 R  R      R =: R n , fur wel hes die folgenden
Glei hungen simultan gelten:

a11 x1 + a12 x2 +    + a1n xn = b1 ;


a21 x1 + a22 x2 +    + a2n xn = b2 ;

...

+ ... +    + ... = ...


am1 x1 + am2 x2 +    + amn xn = bm ;
oder kurzer

aj 1 x1 + aj 2 x2 + : : : + ajnxn = bj fur alle j = 1; : : : ; m

(j te Zeile des Glei hungssystems)


oder kurzer

aj 1 x1 + aj 2 x2 + : : : + ajn xn = bj
(meistens au h nur: j = 1; : : : ; m)

8 j = 1; : : : ; m

und s hlieli h mit der Notation


n
X
i=1
n
P

ai = a1 + : : : + an fur aj 2 R ; j = 1; : : : ; n

n
P

(wobei naturli h ai = ak = : : :)
i=1
k=1
in Kurzform
n
X
k=1

ajk xk = bj

8 j = 1; 2; : : : ; m:

(LG)

De nition 1.3 Das System (LG) heie ein lineares Glei hungssystem mit n Unbekannten xk und m Glei hungen. Die Elemente ajk heien die Koezienten, und die Elemente bj
re hte Seiten. Das System heie homogen, wenn bj = 0 8 j = 1; 2; : : : ; m gilt; sonst heie es
inhomogen. Die stets existierende Losung x1 = x2 =    = xn = 0 des homogenen Systems

heie triviale Losung.

Wir wollen im Zusammenhang mit (LG) also die folgenden Fragen diskutieren:

 Wann existieren Losungstupel (x1; x2 ; : : : ; xn)?


 Sind Losungstupel eindeutig bestimmt?

 Wie konnen Losungstupel algorithmis h bestimmt werden?


Die Beantwortung dieser Fragen gestaltet si h in einigen Spezialfallen sehr elementar. Dazu
verwenden wir fur (LG) eine s hematis he Darstellung in der selbsterklarenden Form
Kurzform:

x1
a11
a21

...

x2
a12
a22

...

am1 am2

   xn
   a1n
   a2n

b1
b2

>
>
;

...

. . . ...

9
>
>
=

   amn bm

{z
n

m Zeilen

} |{z}

Spalten

Wir betra hten erst einmal den Spezialfall:


Sei j 2 f1; : : : ; mg :
Fur die Zeile j moge also gelten:
ajk = 0 fur k = 1;    ; j 1; falls j 1  n; bzw.
k = 1;    ; n;
falls j 1 > n:

(D)

kurz: ajk = 0 fur k = 1;    ; min(j 1; n).


Dadur h treten in der j -ten Glei hung nur die Unbekannten xj ; xj+1; : : : ; xn auf.
De nition 1.4 Ein Glei hungssystem mit (D) hat (obere) Dreie ksgestalt bzw. heit
(oberes) Sta elsystem ( S-System).
Sind xj+1; : : : ; xn s hon bekannt/festgelegt und ist ajj 6= 0 fur j = 1; : : : ; n (das Diagonalelement), dann kann xj eindeutig aus der j -ten Glei hung bestimmt werden. Fur m  n
ist also xn aus der n-ten Glei hung als xn = bn=ann eindeutig zu bestimmen. Somit kann xn 1
eindeutig aus der n-ten Glei hung bestimmt werden et ., also:
TYP (I) Eindeutiger Typ:

9
>
>
>
>
>
>
>
>
=

0
0

0
0

>
>
>
>
>
>
>
>
;

mn

ajj 6= 0

Charakteristis h fur diesen Typ ist, dass alle Diagonalelemente von Null vers hieden sind

 = ajj 6= 0 8 j = 1; 2; : : : ; n.
Ist m > n und gilt (D), dann ist notwendig fur j = n + 1; : : : ; m :
ajk = 0 fur k = 1; : : : ; n;

also sind alle Koezienten der Glei hungen n + 1; : : : ; m glei h 0 (triviale Glei hungen).

Das gilt ni ht notwendig fur die re hten Seiten!


Im Fall bn+1 = : : : = bm = 0 gilt:
Das Losungstupel (x1 ; x2; : : : ; xn) ist eindeutig bestimmt: Beginnend mit xn lassen si h alle
xk in eindeutiger Weise sukzessive bere hnen, und zwar dur h Ru kwartseinsetzen:
1
xj =

ajj

bj

n
X
k=j +1

Dabei ist

ajk xk ;

n
X
k=n+1

8 j = n; n 1; : : : ; 1:

: : : := 0

(oder allgemeiner jede Summe uber einem leeren Indexberei h).


Das Ru kwartseinsetzen kann algorithmis h sehr einfa h formuliert werden. Vorzugeben sind
die Koezienten ajk des linearen Glei hungssystems (LG) vom Typ (I) sowie die re hten
Seiten bj .
Ru kwartseinsetzen zur Bere hnung von (x1 ; x2 ; : : : ; xn ).
1:
2:
3:
4:
5:

j := n; n 1; : : : ; 1 :
s := bj ;
f
ur k := j + 1; j + 2; : : : ; n :
s := s ajk  xk ;
xj := s=ajj .(Ende k; j )

f
ur

BSP. (1.2)
x1 + 3 x2
x3 + 0 x 4 =
x2 + 4 x3 + x4 =
x3
2 x4 =
5 x4 =

0 =

1
0
9
20
0

)
)
)
)

x1 = 1 1 = 0 ;
x2 = 4 4 + 0 = 0 ;
x3 = 8 + 9 = 1 ;
x4 = 4 :

Die eindeutig bestimmte Losung ist x1 = 0; x2 = 0; x3 = 1; x4 = 4:


Ein Spezialfall der Dreie ksform ist die Stufenform: Hier sind au h fur jede Zeile j = 1; : : : ; n
die \ersten" Koezienten = 0; d.h. zu j gibt es ein k(j ) 2 f1; : : : ; ng mit
k(j )  j; k(1)  k(2)  : : :  k(n);
ajk = 0 fur k = 1; : : : ; k(j ) 1;

und aj;k(j) 6= 0 (der Koezient auf Stufenposition).


Ist m > n, dann gilt fur die Zeilen j = n + 1; : : : ; m
ajk = 0

fur

k = 1; : : : ; n:

Das s hliet ni ht aus, dass au h fur ein k > k(j ) (oder sogar alle k > k(j )) au h ajk = 0 gilt.
Der Typ (I) bedeutet also: m  n;
k(j ) = j fur j = 1; : : : ; n:

TYP (II) Mehrdeutiger Typ:


Mindestens einmal k(j ) > j : bn+1 = : : : = bm = 0; falls m > n

jf

jf jf

jf

jf jf jf

9
>
>
>
>
>
>
>
>
=

jf

>
>
>
>
>
>
>
>
;

0 0
0 0

k(1) = 1
k(2) = 3
k(3) = 6
k(4) = 8
k(5) = 12

Charakteristis h fur diesen Typ ist, dass ni ht alle Koezienten  6= 0 auf den Stufenpositionen Diagonalelemente sind, d.h. k(j ) > j fur mindestens ein j oder aber m < n. Die
Diagonalelemente ajj der Variablen xj in den Positionen f sind Null; diese Variablen xj sind
frei wahlbar und im Fall m < n au h die Variablen xm+1 ; : : : ; xn . Werden die Ausdru ke auf
den Positionen f auf die re hte Seite gebra ht, so entsteht nun wieder ein eindeutig losbares
System vom Typ (I).
BSP. (1.3)
k(1) = 1 :
k(2) = 3 :

4 x1

3 x2 +

4 x3
2 x3 + 2x4 +

= 8
= 14
0 = 0

x5
x5

x1 =

)
)

2 + 34 x2
x3 = 7

x3 + 14 x5 ;
x4 21 x5 ;

) x1 = 2 + 34 x2 (7 x4 21 x5 ) + 14 x5
= 9 + 43 x2 + x4 + 34 x5 :

O enbar konnen die Variablen x2 = C1 ; x4 = C2; x5 = C3 mit beliebigen Werten belegt werden, so
dass die folgende mehrdeutige Losung resultiert:
3
1 C3; x4 = C2; x5 = C3 :
3
x1 = 9 + C1 + C2 + C3 ; x2 = C1 ; x3 = 7 C2
4
4
2
Es liegen also glei h unendli h viele vers hiedene Losungen vor.
TYP (III) Unlosbarer Typ:
m > n und bj 6= 0 fur ein j 2 fn + 1 : : : ; mg :

9
>
>
>
>
>
>
>
>
=

0
0


0

>
>
>
>
>
>
>
>
;

Auf den gekennzei hneten Stufenpositionen  6= 0 stehen wieder ni htvers hwindende Koef zienten, ebenso auf der gekennzei hneten Position von bj . Da die Zeile 0 =  dur h keine
Wahl der xk erfullbar ist, liegt hier ein unlosbares Glei hungssystem vor.

BSP. (1.4)

4 x1

3 x2 +

4 x3
x5 = 8
2 x3 + 2x4 + x5 = 14
0 x4 + 0 x5 = 7 ) unlosbar!

Gelingt es, ein beliebiges Glei hungssystem (LG) in die Stufenform zu bringen, so gewinnt
man sofort die Losung gema den oben angegebenen S hritten zu den Typen (I), (II) oder

(III). Ein Verfahren, wel hes ohne Anderung
der Losungsmenge die Transformation des Systems (LG) in die Stufenform leistet, ist der Gauss{Algorithmus. Zu dessen Verstandnis
benotigen wir den Begri einer elementaren Umformung (Gauss{S hritt).
De nition 1.5 Unter einer elementaren Umformung eines linearen Glei hungssystems versteht man eine der folgenden Operationen:

(A) Multiplikation einer Zeile mit einer Zahl 6= 0: Zj ! Zj ;


(B) Zu einer Zeile wird das Vielfa he einer anderen Zeile addiert: Zj + Zk ! Zj ;
(C) Zwei Zeilen werden vertaus ht: Zj $ Zk ;
(D) (Zwei Spalten werden vertaus ht. Dadur h andert si h die Nummerierung der Unbekannten).

Wir betra hten das lineare Glei hungssystem


0 x 1 + x2
3 x3 + 2 x4 = 4;
2 x1 + 4 x 2 + 6 x3
2 x4 = 10;
3 x1 + 9 x 2
3 x3 + 0 x4 = 12:
Vereinfa hung der S hreibweise: Da die Stellung der Unbekannten (x1 ; x2 ; : : : ; xn ) ohnehin klar ist,
konnen die xk fortgelassen werden. Wi htig sind nur die Stellungen der Koezienten ajk und der
re hten Seiten bj .
0 1 3 2
4
1 Z2 ! Z2 ; Z1 $ Z2
2
4
6
2
10
2
3 9 3 0
12
1 2 3 1
5
Z3 3Z1 ! Z3
0 1 3 2
4
3 9 3 0
12
1 2 3 1
5
Z3 3Z2 ! Z3
0 1 3 2
4
0 3 12 3
3
1 2 3 1
5
4
0 1 3 2
0 0 3 3
15
Dur h den Prozess des Spaltenausraumens mittels elementarer Umformungen haben wir ein S{
System vom Typ (II) erzeugt. Die Losung kann nun direkt bestimmt werden. Der Wert der Variablen
x4 = C ist beliebig wahlbar. Wir erhalten in dieser Reihenfolge x3 = 5 C; x2 = 19 5C; x1 =
48 + 14C . Das Losungstupel lautet somit
(x1 ; x2 ; x3 ; x4 ) = ( 48 + 14C; 19 5C; 5 C; C ).
BSP. (1.5)

Dur h Einsetzen in das Ausgangssystem uberpruft man sofort, dass dieses Tupel ni ht nur das S{
System lost, sondern au h das Ausgangssystem.
Die hier formulierte Aussage bleibt au h im allgemeinen Fall wahr:

Satz 1.6 Die Losungsmenge eines linearen Glei hungssystems wird dur h elementare Umformungen ni ht verandert.

Begrundung: Diese ist klar bei Umformungen vom Typ (A) oder (C). Zu zeigen ist die Aussage fur
Gauss{S hritte vom Typ (B). Zum Beispiel gelte Zl + Zi ! Zl . Ist (p1 ; p2 ; : : : ; pn ) eine Losung
von (LG) vor der Umformung, so gilt insbesondere

n
X
k=1

n
X

alk pk = bl ;

(1.1)

(alk + aik )pk = bl + bi :

(1.2)

aik pk = bi ;

k=1

aber na h der Umformung


n
X
k=1

aik pk = bi ;

n
X
k=1

Das heit, (p1; p2 ; : : : ; pn) ist au h eine Losung des transformierten Systems. Sei nun umgekehrt
(p1 ; p2; : : : ; pn) eine Losung des transformierten Systems, so gelangt man dur h den Gauss{S hritt
Zl Zi ) Zl mit demselben wieder von (1.2) zuru k zum Ausgangssystem (1.1). Man erkennt,
dass (p1 ; p2; : : : ; pn) au h eine Losung des Ausgangssystems ist.
2
Mit dem oben dur hgefuhrten Verfahren des Spaltenausraumens dur h elementare Umformungen haben wir bereits die Grundform des Gauss{Algorithmus vorliegen, den wir in der
folgenden Weise s hematisieren konnen:

0 1.Spalte enthlt nur


0 Nullen:
0
0
=> x1 beliebig
0
0
0

betrachten
Restsystem

*
*

Koeffizient = 0
GAUSS-Schritt(C)
K

GAUSS-Schritte

(A) und (B)

*
0
0
0
0
0
0

K: Falls mehrere Koeffizienten = 0 sind, so


ist es numerisch am vorteilhaftesten, den
betragsgrten Koeffizienten in Zeile 1 zu
schaffen (Pivot-Element).

Mit dem Restsystem wir der GAUSSAlgorithmus wieder von vorne durchlaufen.
Nach endlich vielen Schritten hat man ein
S-System erzeugt.

betrachten

Restsystem

*
Restsystem

Das folgende Zahlens hema


1 2
1 Z2 ! Z2
5
0
5
Z3 10Z2 ! Z2
0 10
1 Z3 ! Z3
1 2
3
Z1 + 2Z3 ! Z1
0 1
Z2 45 Z3 ! Z2
0 0
1 2
Z1 + 2Z2 ! Z1
0 1
0 0
1 0
0 1
0 0
ist dem linearen Glei hungssystem
x1
2 x2
3 x1
x2
5 x1
BSP. (1.6)

2
4
5
2
4
5
3
0
0
1
0
0
1

2
20
40 9
2=
4 ; () S{System, Typ (I)
0
2
4
0
x1
= 10
10
x2
= 4
4
x3 = 0
0
2 x3 = 2;
2 x3 = 26;
5 x3 = 50

zugeordnet, wobei wir beim Aufs hreiben des Zahlens hemas die elementaren Umformungen
Z2 3Z1 ! Z2 und Z3 5Z1 ! Z3 dur hgefuhrt haben. Wir erkennen bereits in der Position
(), dass das vorgelegte System eindeutig losbar ist. Dur h weitere elementare Umformungen erhalt
man das zuletzt aufges hriebene entkoppelte System, in wel hem das Losungstupel sofort ablesbar
ist:
(x1 ; x2; x3 ) = (10; 4; 0):
Wir betra hten das lineare Glei hungssystem
x1
x2 + x3 + 2 x4 = 5;
2 x1 + 2 x2
x3
3 x4 = 9;
3 x1
3 x2 + 4 x3 + 8 x4 = 18:
Wir fuhren beim Aufs hreiben des zugeordneten Zahlens hemas die elementaren Umformungen
Z2 + 2Z1 ! Z2 und Z3 3Z1 ! Z3 dur h. Mit diesem S hritt wird die erste Spalte ausgeraumt.
1 1 1 2
5
Z3 Z2 ! Z3
0 0 1 1
1
Z2 Z3 ! Z2
0 0 1 2
39
1 1 1 2
5=
Z1 Z2 2Z3 ! Z1
0 0 1 0
1 ; () S{System, Typ (II)
0 0 0 1
2
x1 x2
= 2
2
1 1 0 0
x
=
1
1
3
0 0 1 0
x4 = 2
2
0 0 0 1
Aus dem entkoppelten System kann das Losungstupel wiederum unmittelbar abgelesen werden. Wir
wahlen x2 = C beliebig. Es folgt
(x1 ; x2 ; x3 ; x4 ) = (2 + C; C; 1; 2); C 2 R:
BSP. (1.7)

Bemerkung 1.7 Wir vereinbaren eine Addition + von n{Tupeln und eine Multiplikation

mit Skalaren {mal in folgender Weise:

+
:
{mal :

(x1 ; x2; : : : ; xn) + (y1; y2; : : : ; yn) := (x1 + y1; x2 + y2; : : : ; xn + yn);
 (x1 ; x2 ; : : : ; xn ) := ( x1 ;  x2 ; : : : ;  xn )
mit (x1 ; x2; : : : ; xn); (y1; y2; : : : ; yn) 2 R n und  2 R.
2

Setzen wir jetzt im obigen Beispiel


(h1 ; h2 ; h3 ; h4 ) := (C; C; 0; 0); (p1 ; p2 ; p3; p4 ) := (2; 0; 1; 2);
so hat das Losungstupel die Form
(x1 ; x2 ; x3; x4 ) = (h1 ; h2 ; h3 ; h4 ) + (p1 ; p2; p3 ; p4):
Wir stellen fest, dass das 4{Tupel (h1 ; h2 ; h3 ; h4 ) = (C; C; 0; 0) fur jede Wahl von C 2 R Losung des
homogenen Systems ist:
C
C + 1  0 + 2  0 = 0;
2C + 2C
10
3  0 = 0;
3C
3 C + 4  0 + 8  0 = 0:
Der hier beoba htete Zusammenhang ist in allgemeiner Form gultig. Wir formulieren ihn als

Satz 1.8 Zwei Losungen (x1 ; x2 ; : : : ; xn ) und (y1; y2 ; : : : ; yn) des inhomogenen Systems (LG)
unters heiden si h stets nur um eine Losung des homogenen Systems. Das heit, das n{Tupel

(h1 ; h2; : : : ; hn) := (x1 ; x2; : : : ; xn) (y1; y2; : : : ; yn) = (x1 y1; x2 y2; : : : ; xn yn)
lost das homogene System. Weiter erhalt man die Losungsgesamtheit des inhomogenen Systems (LG), wenn man nur eine dieser Losungen kennt { eine sogenannte partikulare Losung
(p1 ; p2; : : : ; pn) { und dazu eine beliebige Losung (h1; h2 ; : : : ; hn) des homogenen Systems addiert:

L(LG) = f(x1 ; x2; : : : ; xn) 2 R n : (x1; x2 ; : : : ; xn) = (h1 ; h2; : : : ; hn) + (p1; p2; : : : ; pn)g:
Begrundung: Sind (x1 ; x2 ; : : : ; xn ) und (y1 ; y2 ; : : : ; yn ) Losungen des inhomogenen Systems (LG), so

gilt

n
X
k=1

ajk xk = bj ;

n
X
k=1

ajk yk = bj

8 j = 1; 2; : : : ; m:

Dur h Subtraktion beider Glei hungen erhalt man


n
X

Also ist (h1 ; h2 ; : : : ; hn ) := (x1

k=1

ajk (xk

yk ) = 0

8 j = 1; 2; : : : ; m:

y1 ; x2 y2 ; : : : ; xn yn ) eine Losung des homogenen Systems.

Bei beliebig, fest gewahlter Losung p~ 2 R n des inhomogenen Systems (sofern eine existiert!),
kann also jede Losung ~x 2 R n ges hrieben werden als
~x = ~p + ~h mit ~h := ~x p~;

und ~h ist eine Losung des homogenen Systems.


Hat andererseits ~x 2 R n die Form (1.3), dann ist wegen
n
X
k=1

ajk pk = bj ;

n
X
k=1

n
X
k=1

(1.3)

ajk hk = 0; j = 1; : : : ; m

ajk (pk + hk ) = bj ; j = 1; : : : ; m

au h ~x Losung des inhomogenen Systems.

Bemerkung 1.9 (a) Homogene Systeme werden dur h elementare Umformungen in homogene Systeme uberfuhrt. Der Typ (III) (unlosbar) kann also ni ht auftreten und damit ist ein
homogenes System immer losbar (au h direkt einsehbar: Es gibt immer die triviale Losung
~x = ~0).
(b) Bei S{Systemen vom Typ (I) (eindeutiger Typ) hat das homogene System nur die triviale Losung. Dies gilt au h fur alle Systeme, die si h dur h elementare Umformungen auf ein
S{System vom Typ (I) zuru kfuhren lassen.
( ) Ist (h1; h2 ; : : : ; hn) eine Losung des homogenen Systems (LG), so au h C (h1; h2; : : : ; hn)
= (C  h1; C  h2; : : : ; C  hn) mit jeder Zahl C 2 R . Das heit, hat das homogene System (LG)
eine ni httriviale Losung, was genau bei der Transformierbarkeit auf Typ (II) gilt, so hat
es au h unendli h viele Losungen. Ist daruber hinaus das inhomogene System losbar, so hat
au h dieses unendli h viele Losungen.

Wir betra hten das lineare Glei hungssystem


2 x1 + 2 x 2
3 x3 + 4 x4 = 1;
x1
2 x 2 + x3
x4 = 2;
4 x1
2 x2
x3 + 2 x4 = 1:
Wir fuhren bereits beim Aufs hreiben des zugeordneten Zahlens hemas eine elementare Umformung
Z1 $ Z2 dur h, so dass in Zeile 1 an erster Stelle eine 1 ers heint.
1 2 1 1
2
Z2 2Z1 ! Z2
2
2
3
4
1
Z3 4Z1 ! Z3
4 2 1 2
1
1 2 1 1
2
Z3 Z2 ! Z3
0 6 5 6
3
1 Z2 ! Z2
6
0 6 5 6
99
1 2 1 1
2=
5
1
Z1 + 2Z2 ! Z1
0 1 6 1
2 ; () S{System, Typ (III)
0 0 0 0
6
2 x3 +x4 = 1
x1
1 0 23 1
1
3
5
1
x
0 1 56 1
2 6 x3 +x4 = 12
2
6
0 0 0 0
0 = 6
Das System in der Position () ist unlosbar, da die dritte Zeile der ni ht erfullbaren Glei hung
0  x1 + 0  x2 + 0  x3 + 0  x4 = 6 entspri ht. Betra hten wir jedo h das homogene System mit
lauter Nullen auf der re hten Seite, so entnehmen wir dem entkoppelten System, dass x3 = C1 und
x4 = C2 beliebig wahlbare Zahlen sind. Wir erhalten die folgende Losung des homogenen Systems:
(h1 ; h2 ; h3 ; h4 ) = ( 23 C1 C2; 65 C1 C2 ; C1 ; C2)
= C1 ( 23 ; 56 ; 1; 0) + C2 ( 1; 1; 0; 1):
BSP. (1.8)

Wir bringen die Erfahrung aus den obigen Beispielen in den folgenden Satz ein.
Satz 1.10 (Gausss her Algorithmus)
Jedes lineare Glei hungssystem (LG) kann (falls ni ht alle Koezienten aik = 0 sind) dur h
elementare Umformungen (Gauss{S hritte) in ein Sta elsystem der folgenden Form gebra ht
werden:
xr1

+ 1r +1 xr +1 + : : : +
1

1r2 xr2
xr2

+  +
+  +
...

1rk xrk
2rk xrk
..
.
xrk

+  +
+  +


+  +

1n xn
2n xn
..
.
kn xn

=
=

=
0 =
..
.

0 =

d1 ;
d2 ;
..
.
dk ;
dk+1 ;
..
.
dm :

(1.4)

Es durfen au h Spaltenvertaus hungen (D) vorgenommen werden, wenn uber die Umnummerierung der Variablen Bu h gefuhrt wird. Dabei gilt 1  r1 < r2 <    < rk  n und
1  k  minfm; ng. Die Zahl k heit der Rang des linearen Glei hungssystems (LG).
(a) Das lineare Glei hungssystem (LG) ist genau dann losbar, wenn im Sta elsystem (1.3) die
Bedingungen
dk+1 = dk+2 =    = dm = 0

erfullt sind.
(b) Im Falle der Losbarkeit konnen alle xi auer den Unbekannten xr ; xr ; : : : ; xrk frei gewahlt
werden; das sind n k Freiheitsgrade. Die Losungsgesamtheit des Systems (LG) enthalt dann
n k frei wahlbare Parameter.
1

Wir betra hten das lineare Glei hungssystem


3 x 2 + x3
+ x5 = 1;
2 x1
3 x 2 + x3
2 x4
x5 = 2;
2 x1 + 3 x2 + 3 x3
2 x4 + x5 = 4;
4 x1
3 x2 + 3 x3
4 x4
x5 = 5:
Wir fuhren beim Aufs hreiben des zugeordneten Zahlens hemas die elementaren Umformungen
Z3 Z2 ! Z3 , Z4 2Z2 ! Z4 und Z1 $ Z2 dur h, so dass folgendes System ers heint:
BSP. (1.9)

2 3 1 2 1
2
0 3 1 0 1
1
0 6 2 0 2
2
0 3 1 0 1
19
2 3 1 2 1
2>
>
Z1 + Z2 ! Z 1
=
1
0
3
1
0
1
1 Z1 ! Z1
() S{System, Typ (II)
0 0 0 0 0
0>
12 Z2 ! Z2
>
;
3
0 0 0 0 0
0
3
1 0 1 1 0
21
x1
+x3 x4
= 23
0 1 31 0 13
3
0 0 0 0 0
0
x2 + 13 x3
+ 13 x5 = 31
0 0 0 0 0
0
Wir haben bei diesem Beispiel m = 4; n = 5 sowie r1 = 1; r2 = 2. Also ist der Rang k = 2. Das
System hat n k = 3 Freiheitsgrade, und die drei frei wahlbaren Parameter sind x3 = C1; x4 =
C2 ; x5 = C3 . Die Losung lautet nun
(x1 ; x2 ; x3; x4 ; x5 ) = ( 23 ; 13 ; 0; 0; 0) + C1 ( 1; 13 ; 1; 0; 0)
+ C2 (1; 0; 0; 1; 0) + C3 (0; 13 ; 0; 0; 1):
Z4 Z2 ! Z4
Z3 2Z2 ! Z3

1.2 Skalarenvektoren und Vektorraume


BSP. (1.10)

Bei den in Abs hnitt 1.1 behandelten linearen Glei hungssystemen


x1 x2    xn
1
a11
a21

...

a12
a22

...

am1 am2

   a1n
   a2n

. . . ...

b1
b2

...

   amn bm

treten geordnete m{Tupel (bzw. n{Tupel) reeller oder komplexer Zahlen in vers hiedener Konstellation auf, zum Beispiel:
(a) Die Koezienten der j {ten Zeile bilden das n{Tupel (aj1; aj2 ; : : : ; ajn).

(b) Die Koezienten der k{ten Spalte bilden das m{Tupel (a1k ; a2k ; : : : ; amk ).
( ) Die re hten Seiten bilden das m{Tupel (b1 ; b2 ; : : : ; bm ).
(d) Jede Losung bildet ein n{Tupel (x1 ; x2; : : : ; xn).
Es liegt nahe, in den Fallen (b) und ( ) geordnete m{Tupel in Spaltenform zu s hreiben und mit
einem Kurzsymbol zu bezei hnen:
2

~b := 6
6
4

b1
b2

...

bm

7
7
7;
5

bk 2 R ;

In dieser S hreibweise wird das Cartesis he Produkt Rn := R|  R {z    R} als Menge von Zahlenn{mal
spalten aufgefasst:
2
3
Rn

~x : ~x =

6
6
6
4

x1
x2

...

xn

7
7
7;
5

xk 2 R :

Es ist ubli h, die Elemente von R in diesem Zusammenhang als Skalare zu bezei hnen. In
diesem Sinne de nieren wir:
De nition 1.11 Das geordnete n{Tupel
2

~x = 6
4

x1
x2
..
.
xn

7
7
5

2 Rn

heie Skalarenvektor (au h Spaltenvektor) oder kurz Vektor. Die Elemente xk 2 R heien
Komponenten von ~x. R 1 wird wiederum mit R identi ziert, und statt ~x = (x) 2 R 1 s hreiben
wir einfa h x. Das geordnete n{Tupel

~x T := (x1 ; x2 ; : : : ; xn )
heie der zu ~x transponierte Vektor (oder Zeilenvektor). Es gelte
2
6

(~x T )T = (x1 ; x2 ; : : : ; xn)T = ~x = 64

x1
x2
..
.
xn

3
7
7
5

8 ~x 2 R n ;

womit eine platzsparende S hreibweise von Spaltenvektoren ermogli ht wird. Wenn klar ist,
dass ~x 2 R n , d.h. ein n-Tupel gemeint ist, wird der Pfeil au h weggelassen, d.h.
2
6

x := ~x = 6
4

x1
x2
..
.
xn

7
7:
5

Zum Beispiel:

23
1 5 = (2; 1; 0)T 2 R3 :
0

x := ~x := 4

Auf der Menge R n fuhren wir zwei algebrais he Operationen + (Addition) und {mal (Multiplikation mit Skalaren) ein:
De nition 1.12 (a) Die Addition + :
2
6

~x + ~y = 6
6
4

x1
x2
..
.
xn

7 6
7 6
7+6
5 4

 R n ! R n ist erklart dur h die Vors hrift

Rn

y1
y2
..
.
yn

7
7
7
5

:= 66

6
4

x1 + y1
x2 + y2
..
.
xn + yn

Der Vektor ~x + ~y heie die Summe von ~x und ~y .


(b) Die Multiplikation mit Skalaren {mal : R  R n
2

 ~x = 

6
6
6
4

x1
x2
..
.
xn

7
7
7
5

6
:= 66
4

x1
x2
..
.
xn

3
7
7
7
5

8 ~x; ~y 2 R n :

! R n ist erklart gema

3
7
7
7
5

8  2 R 8 ~x 2 R n :

Der Vektor  ~x heie skalares Vielfa hes von ~x.


2

23 253 2 13
Zum Beispiel: 2 4 2 5 4 6 5 = 4 2 5;
3
0
6
das heit, Addition und {Multiplikation wirken komponentenweise.

Da die obigen Operationen Addition und {Multiplikation in R n vollstandig zuru kgefuhrt


sind auf die Addition und die Multiplikation in R , ubertragen si h au h einige Re hengesetze
von R auf R n . Man deduziert ohne S hwierigkeiten die folgenden Re henregeln:
Wir setzen V := R n . Dann gelten in (V; +; {mal) die folgenden Re hengesetze:
(A) Fur die Addition:
(A.V1) ~x + ~y = ~y + ~x,
(Kommutativgesetz)
(Assoziativgesetz)
(A.V2) ~x + (~y + ~z) = (~x + ~y) + ~z,
(A.V3) ~a + ~x = ~b besitzt fur jede Vorgabe ~a; ~b 2 V genau eine Losung ~x,
namli h die Di erenz von ~b und ~a : ~x = ~a + ~b.
Dabei ist ~a := ( a1 ; : : : ; an)T fur ~a = (a1; : : : ; an)T .
(M) Fur die Multiplikation mit Skalaren ({Multiplikation):
(M.V1) ( + )~x =  ~x +  ~x,
(1. Distributivgesetz)
(M.V2) (~x + ~y) =  ~x +  ~y,
(2. Distributivgesetz)
(M.V3) ( )~x = ( ~x),
(Assoziativgesetz)
(M.V4) 1  ~x = ~x.
(neutrales Element)

Bemerkung 1.13 Die Eigens haft (A.V3) ist allgemein (d.h. unabhangig von R n ) aquivalent

mit
(A:V 30) Es gibt genau ein ~0 2 V , so dass ~x + ~0 = ~x
(neutrales Element),
T
~
(konkret: 0 = (0; : : : ; 0) ).
00
(A:V 3 ) Zu ~x 2 V gibt es genau ein ~x 2 V; so dass ~x + ~x = ~0 (inverses Element),
(konkret: ~x = ( x1 ; : : : ; xn )T ).

Weiter folgt aus den obigen Eigens haften:


~0;

0~x =
~x =
~0 =
~x =

( 1)~x;
~0;
0 ,  = 0 oder ~x = ~0:

Wir benutzen folgende Kurzs hreibweise:


~a ~b := ~a + ~b;

d.h. konkret in R n

~a ~b = (a1

b1 ; : : : ; a n

b n )T :

De nition 1.14 Mit den obigen Verknupfungen + und {mal versehen, heie R n n{dimensionaler Skalarenvektorraum uber R .

Neben den Skalarenvektorraumen spielen au h no h andere Vektorraume eine erhebli he Rolle


in der Analysis, zum Beispiel Funktionenraume.
BSP. (1.11)

Wir setzen

Rn

[z := fP (z) : P (z) ist Polynom uber R vom Grade ho hstens n g.


l

k=0

k=0

Fur P; Q 2 Rn [z mit P (z) := P ak zk und Q(z) := P bk zk , (ak ; bk 2 R; 0  l; m  n), setzen wir:


+
:
Dabei ist z.B. bei

(P + Q)(z) :=
l>m
:

k=0
am+1 := : : : al := 0:

{mal

( P )(z)

 P (z ) =

:=

P (z ) + Q(z ) =

fl;mg
maxX

l
X
k=0

(ak + bk )zk 8 z 2 R;

( ak )zk 8 z 2 R 8  2 R:

Mit diesen Verknupfungen veri ziert man auf Rn [z lei ht die Re hengesetze (A.V1){(A.V3) der
Addition und (M.V1){(M.V4) der {Multiplikation.
De nition 1.15 Gegeben seien eine Menge V 6= ;. Auf V seien eine Addition + und eine
{Multiplikation {mal mit Skalaren  2 R so erklart, dass die Re hengesetze (A.V1){(A.V3)
und (M.V1){(M.V4) gelten. Dann heie (V; +; {mal) Vektorraum (VR) uber R (man hmal
au h linearer Raum), speziell ein reeller VR.

(a) Der Raum Rn ist ein VR uber R.


(b) Ortsvektoren sind Pfeile im (1{, 2{ oder 3{dimensionalen) Ans hauungsraum, die angebunden
sind an den Ursprung und mit der Pfeilspitze zu einem beliebigen Punkt des Ans hauungsraumes
fuhren. Wir setzen zum Beispiel
BSP. (1.12)

A2 := fOrtsvektoren im 2D{Ans hauungsraumg:

Dann ist A2 ein VR uber R. Die Re hengesetze erhalt man elementargeometris h aus der Ans hauung.
x1

3
_
x
2

x1 + x2
x

0
0
-x

x2

Addition na h dem Parallelogramm der Krafte

Multiplikation mit Skalaren

In derselben Weise erklart man au h den VR


A3 := fOrtsvektoren im 3D{Ans hauungsraumg:
z
z

()

x= 3
2

x
x= y
z
y

()

y
x
1

Verans hauli hung von R2

Verans hauli hung von R3

Hau g werden A2 und A3 zur Verans hauli hung der Vektorraume R2 bzw. R3 herangezogen, indem
man im Ursprung ~0 aufeinander senkre hte Koordinatena hsen einfuhrt und dem Punkt P des
Ans hauungsraumes denjenigen Zahlenvektor ~x = (x; y)T in R2 bzw. ~x = (x; y; z)T in R3 zuordnet,
dessen senkre hte Projektion auf die Koordinatena hsen die Zahlen x; y bzw. z liefert.
( ) Freie Vektoren. Im Gegensatz zu Ortsvektoren nennt man Pfeile im n{dimensionalen Ans hauungsraum (n = 1; 2; 3), die in einem beliebigen Punkt angeknupft sind, freie Vektoren ~v. Genauer
hat man:
[~v := A quivalenzklasse aller mit ~v glei hgeri hteten, glei hlangen Stre ken.

ein Reprsentant von v


w
v+w

v
v

[v]

Addition und {Multiplikation

Freie Vektoren

freier V

Die Menge V2 := f[~v : ~v freier Vektor im 2D{Ans hauungsraumg bildet einen VR uber R. Dabei
werden + und {mal erklart dur h Addition zweier Reprasentanten bzw. dur h Multiplikation
des entspre henden Skalars  mit einem Reprasentanten. Naturli h kann dabei immer derjenige
Reprasentant gewahlt werden, dessen Pfeil im Ursprung beginnt. Auf diese Weise sind V2 und R2
zueinander algebrais h isomorph. Analoge Betra htungen gelten fur V3 und R3 . Ein Beispiel fur den
hier vorliegenden Vektorraum ist der physikalis he Raum der Krafte:
3D Koord
Krafte
!
V3
! :
R3
~ +K
~
K

Q
6QQQ
Q
U berlagerung $

7
~ 
K

Q
kQQ

QQ

~
K

K1
K2
K3

+4

K1
K2
K3

=4

K1 + K1
K2 + K2
K3 + K3

3
5

Zur Bes hreibung physikalis her Vektoren sind also + und {mal in genau passender Weise de niert.
BSP. (1.13)

Matrizen.

De nition 1.16 Es seien m; n  1 naturli he Zahlen. Ein re hte kiges Skalarens hema
2

a11 a12    a1n


6 a21 a22    a2n 7
7
A := 6
6 .
7
.
.
.
.
.
.
.
4 .
. . 5
.
am1 am2    amn
mit Koezienten ajk 2 R heie eine m  n{Matrix uber R. Dabei heie m die Zeilenzahl und n
die Spaltenzahl. Matrizen A; B; C s hreibt man hau g in Kurzform


A = ajk

j =1;:::;m
k=1;:::;n

= (ajk );

B = (bjk ); C = ( jk ):

Dabei heie j der Zeilenindex und k der Spaltenindex, 1  j  m;


Menge aller m  n{Matrizen uber R bezei hnet.
Zum Beispiel: A :=
a11 = 2; a12 = 5 usw.

2 5 0 2
1 2 0

R (2;3)

1  k  n. Mit R(m;n) wird die

ist eine 2  3{Matrix uber

mit Koezienten

Es gilt R(n;1) = Rn . Mit Hilfe der Transposition "T" kann au h R(1;n) mit Rn identi ziert werden: A = (a1 ; a2 ; : : : ; an ) 2 R(1;n) , AT = (a1; a2 ; : : : ; an)T 2 Rn :
Um auf der Menge R(m;n) eine Vektorraumstruktur zu erklaren, de nieren wir die beiden folgenden
algebrais hen Operationen + und {mal
+
: A + B = (ajk ) + (bjk ) := (ajk + bjk ) 8 A; B 2 R(m;n) ;
{mal :
 A =  (ajk )
:= ( ajk ) 8 A 2 R(m;n) 8  2 R:
Wie bei den Vektoren werden hier Addition und {Multiplikation elementweise dur hgefuhrt. Diese
Operationen haben wieder die Eigens haften (A.V1){(A.V3) und (M.V1){(M.V4); das heit
Sonderfall:

(R(m;n) ; +; {mal) ist ein Vektorraum uber R.





0
1
0
Zum Beispiel: A wie oben; B := 1 3 2 2 R(2;3) ;


2
6
0
) A + B = 2 5 2 2 R(2;3) ;

BSP. (1.14)

R{wertige

Abbildungen. Es sei eine beliebige Menge M

=6 ; gegeben. Die Menge

aller Abbildungen f : M ! R fassen wir zusammen zur Menge


Abb(M ) := ff j f : M ! Rg:
Zum Beispiel: sin; os; exp 2 Abb(R).
Eine lineare Struktur auf Abb(M ), unter der (Abb(M ); +; {mal) zu einem Vektorraum uber R
wird, kann dur h folgende Operationen de niert werden:
+
: (f + g)(p) := f (p) + g(p) 8 f; g 2 Abb(M ) 8 p 2 M;
{mal :
( f )(p) :=  f (p) 8 f 2 Abb(M ) 8  2 R 8 p 2 M:
Hier werden Addition und {Multiplikation argumentweise dur hgefuhrt. Vektorraume vom Typ
Abb(M ) heien Funktionenraume.
Es gilt fur alle n 2 N (als Menge)
R n [z  Abb (R )
BSP. (1.15) Nullvektorraum. Eine einelementige Menge feg kann nur dann ein Vektorraum
uber R sein, wenn + und {mal wie folgt erklart sind:
e + e := e;  e := e 8  2 R:
Tatsa hli h genugen diese Operationen den Re henregeln (A.V1){(A.V3) und (M.V1){(M.V4). Fur
 = 0 ergibt si h insbesondere, dass e selbst der Nullvektor ist. Deshalb ist es sinnvoll, diesen
Vektorraum mit f~0g oder O zu bezei hnen und ihn den Nullvektorraum zu nennen.
BSP. (1.16) Wir betra hten in R3 die Teilmenge
U := f(x1 ; x2 ; x3 )T 2 R3 : x1 + x2 = 0g  R3 :
Auf der Menge U sind die algebrais hen Operationen + und {mal wie auf R3 erklart. Es gilt
o ensi htli h ~x 2 U genau dann, wenn der Vektor ~x 2 R3 die Form ~x = (x1 ; x1; x3 )T hat. Wir

zeigen nun, dass Addition und {Multiplikation ni ht aus der Menge U hinausfuhren. Fur ~x; ~y 2 U
und  2 R gilt namli h:
2
3 2
3 2
3
2
3 2
3
x1
y1
x1 + y1
x1
 x1
~x + ~y = 4 x1 5 + 4 y1 5 = 4 x1 y1 5 2 U;  ~x =  4 x1 5 = 4  x1 5 2 U:
x3
y3
x3 + y3
x3
 x3
Man uberzeugt si h s hnell, dass in U wiederum die Vektorraumeigens haften (A.V1){(A.V3) und
(M.V1){(M.V4) gelten, so dass U selbst ein VR uber R ist.

1.3 Untervektorraume
De nition 1.17 Sei V ein Vektorraum uber R . Eine Teilmenge ; 6= U  V heie Unter(vektor)raum von V (kurz: UR), wenn gilt:

(U1)
(U2)

~u + ~v 2 U 8 ~u; ~v 2 U;
 ~u 2 U 8  2 R 8~u 2 U:

, ~u + ~v 2 U 8~u~v 2 U; ;  2 R :


Bemerkung 1.18 (a) Der UR U tragt stets die in V erklarten algebrais hen Operationen
+ und {mal. Aus (U2) folgt ~0 2 U wegen ~0 = 0~x fur jedes ~x 2 U , und ~x 2 U wegen
~x = ( 1)~x; aus (U1) und (U2) ergibt si h, dass U abges hlossen ist gegenuber + und
{mal.
(b) In jedem Vektorraum V sind stets die trivialen Unterraume U = f~0g (kleinster UR) und
U = V (groter UR) enthalten.
2
BSP. (1.17) Es seien V := Rn und Uk := f(x1 ; x2 ; : : : ; xk ; 0; : : : ; 0)T
1  k  n gegeben. Dann ist Uk ein UR. Die Zuordnungvors hrift
Rk

xj

2 Rg 

Rn

mit

3 (x1 ; x2 ; : : : ; xk )T 7! (x1 ; x2 ; : : : ; xk ; 0; : : : ; 0)T 2 Uk

identi ziert Uk mit Rk (Genauer: Sie ist ein linearer Isomorphismus: s.u.). In dieser Weise ist jeder
Vektorraum Rk mit k  n ein UR des Vektorraums Rn .
BSP. (1.18) Es sei Rn [z := fP (z ) : P (z ) ist Polynom uber R vom Grade ho hstens ng. Dann
ist jeder Vektorraum Rm [z mit m  n ein UR von Rn [z.
BSP. (1.19) Wir betra hten die Teilmenge von R(3;3)
U

:=

A 2 R(3;3) : A = 4

a11 a12 a13


0 a22 a23
0 0 a33

3
5;

ajk 2 R :

Dann ist U ein UR von R(3;3) .


BSP. (1.20) Es sei V ein VR uber R, und ~v 2 V sei fest gewahlt. Die Menge
U

:= span f~vg := f ~v :  2 Rg

ist ein UR von V , und dieser heie der von ~v aufgespannte Unterraum oder der Spann von ~v.
BSP. (1.21) Es sei V ein VR uber R, und U1 ; U2 seien zwei UR von V . Dann gilt:
U1 \ U2

ist stets ein Unterraum von V .

Es ist klar, wegen ~0 2 U1 \ U2 gilt U1 \ U2 6= ;. Wir zeigen (U1) und (U2), und wahlen dazu
~u; ~v 2 U1 \ U2 sowie ;  2 R. Dann gilt  ~u +  ~v 2 Uj ; j = 1; 2, also au h  ~u +  ~v 2 U1 \ U2 .
BSP. (1.22) Gegenbeispiele. (a) Sind U1 und U2 Unterraume von V , so ist U1 [ U2 i.a. kein


UR, wie folgendes konkrete Beispiel
belegt.
Es
seien
V := R2 , U1 := f x0 : x 2 Rg und U2 := f y0 :
 



y 2 Rg gesetzt. Wir haben 10 ; 01 2 U1 [ U2 , aber 10 + 01 = 11 2= U1 [ U2 .
(b) Es sei U x:= f(x; xy)T 2 R2 :06=xx 0g Teilmenge des Vektorraumes R2 . Dann ist U kein UR. Denn
wegen ( 1) y = y 2= U 8 y 2 U ist (U2) verletzt.
( ) Wie vorher sei V := R2 . Dann ist U := f xy 2 R2 : x2 + y2 = r2 > 0g die Kreislinie vom Radius
r um den Mittelpunkt ~0. Wegen ~0 2= U ist au h U kein UR von R2 .
De nition 1.19 Gegeben sei ein Vektorraum V uber R . Fur ni htleere Teilmengen U1 ; U2 
V heie

U1 + U2 := f~u 2 V : ~u = ~u1 + ~u2 mit ~u1 2 U1 ; ~u2 2 U2 g


die Summe von U1 und U2 .

Satz 1.20 Sind U1 ; U2 zwei Unterraume des Vektorraums V , so ist au h die Summe U1 + U2
ein UR von V .
Begrundung: Es ist klar, wegen ~0 2 U1 + U2 gilt U1 + U2 6= ;. Wir zeigen (U1) und (U2), und wahlen
dazu ~u; ~v 2 U1 + U2 sowie ;  2 R. Dann gilt ~u = ~u1 + ~u2 und ~v = ~v1 + ~v2 . Hieraus folgt

 ~u +  ~v = ( ~u1 +  ~v1 ) +( ~u2 +  ~v2 ) 2 U1 + U2 :


|

{z

2U1

{z

2U2

Fur  =  = 1 erhalten wir (U1), und fur  = 0 resultiert (U2).

2
Bemerkung 1.21 Sind U1 ; U2 Unterraume des Vektorraums V mit U1 \ U2 = f~0g, so ist die
Zerlegung

~u = ~u1 + ~u2 2 U1 + U2
eindeutig. In der Tat, ware ~u = ~v1 + ~v2 2 U1 + U2 eine weitere Zerlegung, so ware namli h
~0 = ~u ~u = (~u1 ~v1 ) + (~u2 ~v2 ), also
(|~u1 {z ~v1}) = (|~v2 {z ~u2}) 2 U1 \ U2 = f~0g:
2U1

2U2

Das heit, ~u1 = ~v1 und ~u2 = ~v2 .


2
De nition 1.22 Sind U1 ; U2 zwei Unterraume des Vektorraums V , so heie die Summe U1 +
U2 direkt, falls gilt: U1 \ U2 = f~0g.
U1  U2 := U1 + U2 mit U1 \ U2 = f~0g:
Ist speziell V = U1  U2 , so heie U1  U2 die direkte Zerlegung von V in die Komponenten
U1 und U2 .




BSP. (1.23) (a) Es gelte V := R2 , und es sei ~u1 := 10 ; ~u2 := 01 sowie ~u3 := 11 gesetzt. Dann
gilt fur Uj := span f~uj g; j = 1; 2; 3:
R2

= U 1  U2 ;

R2

R2

= U1  U 3 ;

= U 2  U3 :

U2
U2

v2

U3
v3

u2

u3

u1

U1

v1

u1

Direkte Zerlegung R2 = U1  U2

v1

U1

Direkte Zerlegung R2 = U1  U3

(b) Eine analoge Konstruktion gilt au h fur den Vektorraum V := Rn : Setzt man
~uj := (0; : : : ; 0; |{z}
1 ; 0; : : : ; 0)T ; Uj := span f~uj g; j = 1; 2; : : : ; n;
j {te

so gilt

Stelle

Rn

= U1  U 2      U n :

1.4 Lineare Abhangigkeit

In diesem Abs hnitt ist V ein Vektorraum uber R . Es seien ~v1; ~v2 ; : : : ; ~vm 2 V feste Vektoren.
Aus den Re henregeln der Addition und der {Multiplikation in V folgt dann, dass stets au h
~v := 1 ~v1 + 2 ~v2 +    + m~vm =

m
X
k=1

k ~vk

8  1 ; 2 ; : : : ;  m 2 R

ein Element von V ist.


De nition 1.23 Ein Vektor ~v 2 V , der si h in der folgenden Form s hreiben lasst:
~v =

m
X
k=1

k ~vk mit 1 ; 2 ; : : : ; m 2 R und ~v1 ; ~v2 ; : : : ; ~vm 2 V ,

heie Linearkombination (LK) von ~v1 ; ~v2 ; : : : ; ~vm . Die Skalare 1 ; 2 ; : : : ; m heien Koezienten der LK. Im Falle m = 1 heie ~v skalares Vielfa hes von ~v1 .

BSP. (1.24)

(a) Es sei V := R4 gesetzt. Aus


2
13 213 2 03
6
7
6
7
6
7
5 64 10 75 2 64 00 75 +3 64 11 75
1
0
1
| {z }
| {z }
| {z }
=:~v1

=:~v2

=:~v3

2
6
6
4
|

13 2
1 77 = 66
05 4
1
{z }

=:~v4

23
1 77 =: ~v
35
6

folgt, dass ~v eine LK der Vektoren ~v1 ; ~v2 ; ~v3; ~v4 mit Koezienten 5; 2; 3; 1 ist.
(b) Es sei V := Rn . Bezei hnet 1 das Einselement der Multiplikation in R, so setzen wir:
~ej := (0; : : : ; 0;

Dann folgt:

j {te

~v =

j =1

2 V; j = 1; 2; : : : ; n:

Stelle

n
X

; 0; : : : ; 0)T

|{z}

j ~ej = 6
6
4

1
2

...

n

3
7
7
7
5

2 V 8  1 ; 2 ; : : : ;  n 2 R :

Das heit, jeder Skalarenvektor ~v 2 Rn kann als LK der Einheitsvektoren ~e1 ; ~e2 ; : : : ; ~en dargestellt
werden.
( ) Es sei nV := Rn [z = fP (z) : P (z) ist Polynom uber R vom Grade ho hstens n g. Wir folgern:
P
Pn (z ) := ak z k ist LK der Monome 1; z; z 2 ; : : : ; z n 2 V .
k=0
Werden mit einem xierten Vektorsystem ~v1; ~v2 ; : : : ; ~vm 2 V alle mogli hen Linearkombinationen konstruiert, so ergibt si h ein Unterraum U von V . Denn mit
~v :=

sind au h

m
X
k=1

~v + w~ =

m
X

k~vk ; w~ :=
m
X
k=1

k=1

k~vk ; j ; j 2 R ;

( k + k )~vk ;  ~v =

m
X
k=1

( k )~vk

weitere LK des Systems ~v1 ; ~v2; : : : ; ~vm 2 V . Es gelten also in U die Unterraumaxiome (U1)
und (U2).
Satz 1.24 Gegeben sei ein Vektorraum V uber R und darin ein Vektorsystem ~v1 ; ~v2 ; : : : ; ~vm 2

V . Dann bildet die Menge aller LK der Vektoren ~v1 ; ~v2 ; : : : ; ~vm einen Unterraum U  V .
Dieser heie die lineare Hulle der Vektoren ~v1 ; ~v2 ; : : : ; ~vm oder der von ~v1 ; ~v2 ; : : : ; ~vm aufgespannte Unterraum oder kurz der Spann der Vektoren ~v1 ; ~v2 ; : : : ; ~vm :


U = span f~v1 ; ~v2 ; : : : ; ~vm g := ~v 2 V : ~v =

m
X
k=1

k ~vk ; j 2 R .

(Man hmal setzt man au h U = h~v1; ~v2 ; : : : ; ~vm i.)

(a) In V := Rn seien die Einheitsvektoren ~ej 2


BSP. (1.24(b)) erklart. Dann gilt ganz o ensi htli h
BSP. (1.25)

Rn

V; j

= 1; 2; : : : ; n, wie in

= span f~e1 ; ~e2 ; : : : ; ~eng:




Zum Beispiel
hat man furn = 2: R2 = span f 10 ; 01 g = span f 11 ; 11 ; 51 ; 14g,

Vektoren 11 ; 11 ; 51 ; 14 ist selbst eine LK der beiden Einheitsvektoren 10 ; 01 .

(b) In V := R3 de nieren wir


(2

denn jeder der

(2 1 3 2
1 3 2 0 3)
1 3 2 1 3) 
U := span 4 0 5 ; 4 1 5 = span 4 1 5 ; 4 1 5 ; 4 0 5 6= R3 :
1
0
1
1
1

Die Vektoren (1; 1; 1)T und (1; 1; 1)T sind LK der Vektoren (1; 0; 1)T und (0; 1; 0)T . Der Vektor
(0; 0; 1)T 2 R3 gehort ni ht zu U . Die LK
2
13 203 23!203
 4 0 5+ 4 1 5=4  5=4 0 5
1
0

1
fuhrt auf die widerspru hli he Bedingung 0 =  = 1.
( ) Es sei V ein beliebiger VR uber R. Ferner seien Vektoren ~0 6= ~v 2 V und V 3 w~ 2= span f~vg
xiert. Dann heie
U := span f~v g
Gerade in V dur h ~0,
U := span f~v ; w~ g Ebene in V dur h ~0.

v + w

v
0
U

Gerade dur h ~0

Ebene dur h ~0

Im Sonderfall ~v := ~0 2 V erhalten wir den Nullvektorraum U = span f~0g = O:


(d) Rn [z := fP (z) : P (z) ist Polynom uber R vom Grade ho hstens n g = span f1; z; z2 ; : : : ; zn g:
Problemstellung: Es seien ein Vektorraum V uber R und ein Vektorsystem
~v1 ; ~v2 ; : : : ; ~vm 2 V gegeben.
(A) Wann gilt fur ein ~v 2 V au h ~v 2 span f~v1 ; ~v2; : : : ; ~vmg ?
(B) Falls ~v 2 span f~v1 ; ~v2; : : : ; ~vmg gilt, gibt es eine oder mehrere LK fur ~v?

Wir behandeln zuna hst das Problem (B) der Eindeutigkeit. Dazu sei angenommen, es waren
~v =

m
X
k=1

k ~vk ; ~v =

m
X
k=1

k ~vk ; j 6= j fur mindestens ein j

zwei LK fur ~v 2 span f~v1; ~v2; : : : ; ~vm g. Dann folgt


~0 = ~v ~v =

m
X
k=1

(k k ) ~vk ;

und dies ist eine ni httriviale Darstellung des Nullvektors , keine Eindeutigkeit.
De nition 1.25 Ein Vektorsystem ~v1 ; ~v2 ; : : : ; ~vm 2 V heie linear unabhangig (LU) genau dann, wenn jeder Vektor ~v 2 span f~v1 ; ~v2 ; : : : ; ~vm g genau eine LK aus den Vektoren
~v1 ; ~v2 ; : : : ; ~vm besitzt. Andernfalls heie das System ~v1 ; ~v2 ; : : : ; ~vm linear abhangig (LA).

Satz 1.26 Gegeben seien ein Vektorraum V uber R und ein Vektorsystem ~v1 ; ~v2 ; : : : ; ~vm 2 V .
Dann gilt:

P
~v1 ; ~v2 ; : : : ; ~vm sind LU , Aus ~0 = k ~vk folgt stets 1 = 2 =    = m = 0.
k=1
Das heit, es existiert nur die triviale Darstellung des Nullvektors.
m

P
~v1 ; ~v2 ; : : : ; ~vm sind LA , Es gibt i und in ~0 = k ~vk sind ni ht samtli he j
k=1
glei h Null. Das heit, es existiert eine ni httriviale Darstellung des Nullvektors.
Genauer: Es gibt 1 ; : : : ; n 2 R ; so dass j 6= 0 fur ein j 2 f1; : : : ; ng und
m
~0 = P k~vk .
k=1

(a) In V := R2 sind ~v1 := 11; ~v2 := 25; ~v3 := 01 linear abhangig, denn es gilt
3~v3 .
seien die Einheitsvektoren ~ej := (0; : : : ; 0; |{z}
1 ; 0; : : : ; 0)T 2 V; j = 1; 2; : : : ; n, wie
j
vorher eingefuhrt. O enbar gilt

BSP. (1.26)
~0 = 2~v1 + ~v2
(b) In V := Rn

{te Stelle

~0 =

n
X
k=1

k ~ek = (1 ; 2 ; : : : ; n )T

genau fur 1 = 2 =    = n = 0. Das heit, die Vektoren ~e1 ; ~e2 ; : : : ; ~en sind LU. Wir hatten bereits
R n = span f~e1 ; ~
e2 ; : : : ; ~en g gezeigt.
( ) In Rn [z := fP (z) : P (z) ist Polynom uber R vom Grade ho hstens n g setzen wir pj (z) := zj 2
are
R n [z ; j = 1; 2; : : : ; n. W
n
X
Pn (z ) := k pk (z ) = 0 8 z 2 R
k=0

und waren ni ht alle j glei h Null, so ware Pn(z) 6= 0 ein Polynom vom Grade ho hstens n mit
mehr als n Nullstellen. Dies widerspri ht der Aussage von Satz 3.31(b) (siehe spater). Also ist Pn(z)
das Nullpolynom, und das System 1; z; z2 ; : : : ; zn ist LU fur jede Wahl von n 2 N .
(d) Jeder Vektor ~v 2 V; ~v 6= ~0, ist LU. Fur je zwei Vektoren ~v1; ~v2 2 V ist das System ~v1 ; ~v2; ~v1 + ~v2
LA, denn es gilt ja 1 ~v1 + 1 ~v2 1(~v1 + ~v2) = ~0: f0g ist LA (1  0 = 0):
In V := R n reduziert si h das Na hprufen der linearen Unabhangigkeit eines Vektorsystems
~v1 ; ~v2 ; : : : ; ~vm 2 R auf das Losen eines homogenen linearen Glei hungssystems mit n Zeilen
und m Spalten.

Zum Beispiel prufen wir in V := R3 die lineare Unabhangigkeit des Systems ~v1 := (1; 1; 1)T ; ~v2 :=
(1; 1; 2)T ; ~v3 := (2; 1; 1)T :
vk = k-te Spalte
8
2 + 23 = 0;
1 1 2 0
< 1 +
3
~0 = P k ~vk , 1 + 2 + 3 = 0;
(LG)
1
1 1 0
:
k=1
1 2 1 0
1 + 22 + 3 = 0:

Wir fuhren beim Aufs hreiben des zugeordneten Zahlens hemas die elementaren Umformungen
Z2 Z1 ! Z2 und Z3 Z1 ! Z3 dur h:
1 1 2
0
Z2 $ Z3
0 0 1
0
0 1 1
09
1 1 2
0 = S{System, Typ (I)
0 ; ) 1 = 2 = 3 = 0:
0 1 1
0 0 1
0
Also ist das System ~v1 ; ~v2 ; ~v3 LU.

Bei der obigen Re hnung ist es unerhebli h, ob die Nullen auf der re hten Seite mitgefuhrt
werden oder ni ht. Wir sehen ferner, dass in (LG) die Komponenten des Vektors ~vj die Koezienten der j {ten Spalte bilden. Mit dieser Erkenntnis ergibt si h in R m das folgende
Prufverfahren auf lineare Unabhangigkeit:

(~v1; ~v2 ; : : : ; ~vn)

Gauss{S hritte

8
>
>
>
>
>
>
>
>
>
>
>
>
>
>
>
>
>
>
<
>
>
>
>
>
>
>
>
>
>
>
>
>
>
>
>
>
>
:

jf

S{System, Typ (I)

) ~v1; : : : ; ~vn LU
(d.h. m  n)

S{System, Typ (II)

jf

) ~v1; : : : ; ~vn

LA

(dh. m < n oder mind. ein k(j ) > j )

Insbesondere sind v1; : : : ; Vn 2 R m fur n > m immer LA.


BSP. (1.27) Es seien in V := R4 die Vektoren ~v1 := (1; 0; 2; 1)T ; ~v2 := ( 1; 1; 0; 1)T ; ~v3 :=
(0; a; 4; 4)T mit a 2 R gegeben. Wir fuhren beim Aufs hreiben des zugeordneten Zahlens hemas
die elementaren Umformungen Z3 + 2Z1 ! Z3 und Z4 Z1 ! Z4 dur h:

(~v1 ; ~v2 ; ~v3 ) )


Z4 + Z3 ! Z4
Z3 + 2Z2 ! Z3

1
0
0
0
1
0
0
0

1
0
1
a
2
4
2
4
1
0
1
a
0 4 + 2a
0
0

9
=
;

) ~v1 ; ~v2 ; ~v3

LU fur a 6= 2,
LA fur a = 2.

Wir konnen in R m nun au h mit Hilfe eines ahnli hen Prufverfahrens das obige Problem (A)
losen. Es gilt o enbar ~v 2 U := span f~v1; ~v2; : : : ; ~vm g genau dann, wenn das inhomogene
Glei hungssystem (~v1; ~v2; : : : ; ~vn j ~v) losbar ist:

(~v1 ; ~v2; : : : ; ~vn j ~v) )

Gauss

d1
d2
d3 S{System

dm

8
>
<
>
:

Typ (I) : ~v 2 U;
Typ (II) : ~v 2 U;
Typ (III) : ~v 2= U:

Daruber hinaus erfahrt man glei hzeitig, ob das Vektorsystem ~v1; ~v2 ; : : : ; ~vm linear unabhangig (Typ (I)) oder linear abhangig (Typ (II)) ist.
BSP. (1.28)
~v := (b; 1; 1; 0)T

Es seien in V := R4 die Vektoren ~v1 ; ~v2 ; ~v3 wie in BSP. (1.27) erklart, und es sei
mit b 2 R gegeben.
1
0
0
0
1
0
0
0

b
1
0
1
1
a
(~v1; ~v2 ; ~v3 j ~v) )
2
4 1 + 2b
b9
2
4
1
0
b>
>
Z4 + Z3 ! Z 4
1 = ) Typ (III) fur a = 2 oder b 6= 1,
1
a
Z3 + 2Z2 ! Z3
0 4 + 2a 3 + 2b >
Typ (I) fur a 6= 2 und b = 1.
>
0
0 1+b ;
Also folgt ~v 2 span f~v1 ; ~v2 ; ~v3 g genau fur a 6= 2 und b = 1.
BSP. (1.29) Au h in dem Vektorraum V := R(m;n) fuhren die Problemstellungen (A) und (B)
stets auf lineare Glei hungssysteme, da in den Vektorraumstrukturen R(m;n) Rmn \entspri ht"
(genauer: s.u.: linear isomorph ist). Es ist zum Beispiel in V := R(2;2) das Problem (B), namli h

 





 
0
0


+

1
1
0
1
0
0
!
1
1
2
= 0 0 ;
1 0 1 +2 2 0 +3 1 0 = 2 + 
1
2
3
| {z }
| {z }
| {z }

=:A

=:B

=:C

aquivalent mit der Losung des linearen Glei hungssystems


1
= 0; 9
>
=
1 + 2
= 0; >
, 1 = 2 = 3 = 0:
22 + 3 = 0; >
>
;
1
= 0;
Wir erhalten hier die lineare Unabhangigkeit der Matrizen A; B; C .
Wir fassen in dem folgenden Satz einige o ensi htli he Folgerungen aus der De nition der
linearen Unabhangigkeit zusammen:
Satz 1.27 Es sei V ein Vektorraum uber R , und es sei ~v1 ; ~v2 ; : : : ; ~vm 2 V ein Vektorsystem.
(a) Das Vektorsystem ~0; ~v1 ; ~v2; : : : ; ~vm ist stets LA.
(b) Sind ~v1; ~v2 ; : : : ; ~vm LU, so gilt dies au h fur das System ~v1; ~v2 ; : : : ; ~vm 1 . (Erhalt der LU
bei Verkurzung.)
( ) Sind ~v1 ; ~v2; : : : ; ~vm LA, so gilt dies au h fur das System ~v1 ; ~v2; : : : ; ~vm ; ~v 8 ~v 2 V . (Erhalt
der LA bei Verlangerung.)
Bemerkung 1.28 Zwei Vektoren ~v1 ; ~v2 2 V nf~0g sind genau dann linear abhangig, wenn
Skalare 1; 2 2 R existieren mit ~0 = 1 ~v1 + 2 ~v2 und 1 6= 0 6= 2. Das heit, es gibt Zahlen
1 6= 0 6= 2 mit
~v2 = 1 ~v1 ; ~v1 = 2 ~v2 :
Allgemeiner gilt das folgende Resultat:

Satz 1.29 Es sei V ein Vektorraum uber R . Ein Vektorsystem ~v1 ; ~v2 ; : : : ; ~vm 2 V; m  2, ist
genau dann LA, wenn ein Index j 2 f1; 2; : : : ; mg existiert mit
~vj 2 span f~v1 ; : : : ; ~vj 1; ~vj +1 ; : : : ; ~vm g:

Voruberlegung:
Hat man in V zwei Vektorsysteme ~v1; ~v2 ; : : : ; ~vm und w~ 1; w~ 2 ; : : : ; w~ m+1 , wel he jedes fur si h LU ist,
so gibt es einen Index j 2 f1; 2; : : : ; m +1g derart, dass au h das Vektorsystem ~v1 ; ~v2; : : : ; ~vm ; w~ j LU
ist.
Widerspru hsbeweis: Andernfalls hatten wir w~ j 2 span f~v1 ; ~v2 ; : : : ; ~vm g 8 j = 1; 2; : : : ; m + 1. Das
heit, es ware
w~ j =

m
X
k=1

kj ~vk 8 j = 1; 2; : : : ; m + 1;

und ni ht alle kj sind Null:

Es folgte beim Test auf LU wegen der linearen Unabhangigkeit des Systems ~v1 ; ~v2 ; : : : ; ~vm :
~0 =

m
+1
X
j =1

xj w~ j =

m
X
k=1

kj xj A ~vk ,

m
+1
X
j =1

m
+1
X
j =1

kj xj = 0 8 k = 1; 2; : : : ; m:

(1.5)

Setzen wir ~j := (1j ; 2j ; : : : ; mj )T 2 Rm , so resultiert aquivalent das homogene lineare Glei hungssystem (~1 ; ~2 ; : : : ; ~m+1 j ~0), dessen Spaltenanzahl m + 1 groer ist als die Anzahl m der Zeilen.
Daher ist das Vektorsystem ~1; ~2 ; : : : ; ~m+1 2 Rm linear abhangig, und die Skalare xj in Glei hung
(1.5) sind so wahlbar, dass ni ht alle Null sind. Dies bedeutet aber die lineare Abhangigkeit des
Vektorsystems w~ 1; w~ 2 ; : : : ; w~ m+1 , was im Widerspru h zur Voraussetzung steht.

Als Folgerung nden wir:

Satz 1.30 (Austaus hsatz)

Es sei V ein Vektorraum uber R , und es seien ~v1 ; ~v2 ; : : : ; ~vm 2 V sowie w~ 1 ; w~ 2; : : : ; w~ m+l 2
V; l  1, zwei linear unabhangige Vektorsysteme. Dann gibt es paarweise vers hiedene Indizes
j1 ; j2 ; : : : ; jl 2 f1; 2; : : : ; m + lg derart, dass das Vektorsystem

~v1 ; ~v2 ; : : : ; ~vm ; w~ j ; : : : ; w~ jl


1

linear unabhangig ist.

BSP. (1.30) In V := R4 seien ~v1 := (1; 1; 1; 0)T ; ~v2 := (0; 1; 1; 0)T sowie w~ 1 := (1; 0; 0; 0)T ,
w~ 2 := (0; 1; 0; 0)T ; w~ 3 := (0; 0; 1; 0)T ; w~ 4 := (0; 0; 0; 1)T gegeben. Dann sind die beiden Vektorsysteme ~v1; ~v2 und w~ 1 ; w~ 2 ; w~ 3 ; w~ 4 jedes fur si h linear unabhangig. Man uberzeugt si h dur h einfa he

Re hnung, dass au h die Vektorsysteme

sowie ~v1; ~v2 ; w~ 3 ; w~ 4


jedes fur si h LU sind. Hingegen sind die Vektorsysteme
~v1 ; ~v2 ; w~ 1 und ~v1 ; ~v2 ; w~ 2 ; w~ 3
jedes fur si h LA.
Hinweis: Die Erganzungsvektoren w~ j ; : : : ; w~ jl im Austaus hsatz sind i.a. ni ht eindeutig festgelegt.
~v1 ; ~v2 ; w~ 2 ; w~ 4

1.5 Dimension und Basis


Wir betra hten hier wiederum einen beliebigen Korper R , die Aussagen gelten aber fur einen
beliebigen Korper K .
De nition 1.31 (a) Es sei V ein Vektorraum uber R . Ein Vektorsystem ~v1 ; ~v2 ; : : : ; ~vn 2 V

heie Basis von V der Lange n, wenn gilt:

(B1) ~v1 ; ~v2; : : : ; ~vn ist LU, (B2) V = span f~v1 ; ~v2; : : : ; ~vng.
n
P

Die zu jedem ~v 2 V eindeutig bestimmten Skalare j 2 R mit


k ~vk heien die Kompok=1
nenten von ~v in der Basis ~v1 ; ~v2 ; : : : ; ~vn .
(b) Ein Vektorraum V uber R hat die (endli he) Dimension n , wenn in V eine Basis der
Lange n existiert. In diesem Fall s hreibt man

n = dim V < 1:
Insbesondere ordnet man dem Nullvektorraum die Dimension 0 zu.
Die Dimension dim V = n eines Vektorraumes V muss also eindeutig festgelegt sein, was

au h stimmt.
Satz 1.32 Es sei V ein Vektorraum uber R . Ferner seien ~v1 ; ~v2 ; : : : ; ~vn und w~ 1 ; w~ 2 ; : : : ; w~ m ,
zwei Basen von V . Dann gilt stets m = n.
Begrundung: Sei o.B.d.A. m = n + l; l  0; n > 0: Wegen V = span f~v1 ; ~v2 ; : : : ; ~vn g gilt w~ j 2
span f~v1 ; ~v2 ; : : : ; ~vn g 8 j = 1; 2; : : :, n+l. Ware l > 0, so ware das Vektorsystem ~v1; ~v2 ; : : : ; ~vn; w~ j ; : : : ; w~ jl
wegen Satz 1.30 linear unabhangig, im Widerspru h zu w~ jk 2 span f~v1 ; ~v2 ; : : : ; ~vn g.
2
1

BSP. (1.31)

Standardbasis. Die Einheitsvektoren ~ej

~ej := (0; : : : ; 0;

; 0; : : : ; 0)T

|{z}

j {te

in V := Rn bilden eine Basis:

2 Rn ; j = 1; 2; : : : ; n.

Stelle

Satz 1.33 Es gilt dim R n = n: Das obige System der Einheitsvektoren ~e1 ; ~e2 ; : : : ; ~en ist eine
Basis von R n . Diese Basis ~e1 ; ~e2 ; : : : ; ~en heie die Standardbasis von R n . Jeder Vektor ~x =
(x1 ; x2 ; : : : ; xn )T 2 R n hat in der Standardbasis die Darstellung
2
6

~x = 6
6
4

x1
x2
..
.
xn

3
7
7
7
5

n
X
k=1

xk ~ek :

Das heit, die Komponenten von ~x in der Standardbasis sind gerade die Skalare xk 2 R .

BSP. (1.32) Cartesis he Basis. In der Standardverans hauli hung der Vektorraume R2 und R3
dur h A2 bzw. A3 werden im Ursprung O aufeinander senkre hte Koordinatena hsen eingefuhrt.

Fur die Standardbasis fuhrt man neue Notationen ein, namli h:


2
3
2
3
2
3




0
1
0
~ex := 10 ; ~ey := 01 in R2 und ~ex := 4 0 5 ; ~ey := 4 1 5 ; ~ez := 4 0 5 in R3 :
1
0
0

z
z

ez
(0,0,1)

e2 (0,1)

ey (0,1,0)
ex

(1,0)
0

e1

(1,0,0)

Cartesis he

Basis des R2
Cartesis he Basis des R3
In A2 s hlieen die Basisvektoren ~ex und ~ey einen re hten Winkel ein; in A3 stehen ~ex; ~ey ; ~ez paarweise senkre ht aufeinander und bilden ein Re htssystem: Die positiven x{, y{ und z {Ri htungen
konnen dur h Daumen, Zeige nger und Mittel nger der re hten Hand wiedergegeben werden, (und

zwar in dieser Reihenfolge). Andere ubli he Bezei hungen sind


~i := ~ex = ~e1 ; ~j := ~ey = ~e2 ; ~k := ~ez = ~e3 :
Die Vektoren der Cartesis hen Basis haben stets die (Euklidis he) Lange 1. Es gilt
2

~x = 4

BSP. (1.33)

x
y
z

3
5

= x ~ex + y ~ey + z ~ez 8 ~x 2 R3 :

(a) Im Vektorraum V := R(m;n) bilden die m  n{Matrizen


2

0  0  0 3
6 .. . .
6 .
. ... . . . ... 777
6
7
Ajk := 6
6 0    1jk    0 7 ; j = 1; 2; : : : ; m; k = 1; 2; : : : ; n
6 .. . .
.
.
.
4 .
. .. . . .. 75
0  0  0
eine Basis. Der einzige ni htvers hwindende Koezient 1jk := 1 steht in der j {ten Zeile und der
k{ten Spalte. Es gibt genau m  n vers hiedene Matrizen Ajk , so dass dim R(m;n) = m  n folgt.
(b) Im Vektorraum Rn [z := fP (z) : P (z) ist Polynom uber R vom Grade ho hstens n g bilden die
Monome 1; z; z 2 ; : : : ; z n eine Basis. Also folgt dim Rn [z = n + 1.
( ) Im Vektorraum R[z := falle Polynome uber R g existieren linear unabhangige Vektorsysteme
1; z; z2 ; : : : beliebiger Lange. Eine endli he Basis gibt es ni ht. Wir setzen dim R[z = 1.
De nition 1.34 Ein Vektorraum V , der keine endli he Dimension besitzt, heie unendli h
dimensional.

Bemerkung 1.35 (a) Jeder Vektorraum V uber R mit dim V = n < 1 hat eine Basis. Das
folgt aus der De nition der Dimension.
(b) Eine Basis in V ist ni ht eindeutig bestimmt. Zum Beispiel ist mit ~v1; ~v2 ; : : : ; ~vn au h
1 ~v1 ; 2 ~v2 ; : : : ; n ~vn eine Basis von V , solange j 6= 0 gilt. Ist dim V = n < 1, so haben

jedo h alle Basen von V genau n linear unabhangige Vektoren (Satz 1.32). Jedes Vektorsystem in V mit mehr als n Vektoren ist LA.
( ) Ist dim V = n < 1 und ist das Vektorsystem ~v1; ~v2; : : : ; ~vm 2 V; m < n, bereits LU, so
gibt es Vektoren ~vm+1; : : : ; ~vn 2 V derart, dass das erganzte System ~v1; ~v2; : : : ; ~vn eine Basis
von V ist. Denn wahlen wir eine Basis w~ 1 ; w~ 2; : : : ; w~ n 2 V , so konnen gema Satz 1.30 Indizes
j1 ; j2 ; : : : ; jn m 2 f1; 2; : : : ; ng so bestimmt werden, dass das Vektorsystem ~v1 ; ~v2 ; : : : ; ~vm ; w~ j ,
: : : ; w~ jn m linear unabhangig ist. Man setzt nun ~vm+1 := w~ j ; : : : ; ~vn := w~ jn m .
2
1

Satz 1.36 (Basiserganzungssatz)


Sei V ein Vektorraum uber R mit dim V = n < 1.
(a) Ist das Vektorsystem ~v1; ~v2 ; : : : ; ~vm 2 V mit m < n LU, so existieren Vektoren ~vm+1; ~vm+2 ,
: : : ; ~vn 2 V derart, dass das System ~v1 ; ~v2 ; : : : ; ~vn eine Basis von V ist.
(b) Ist U1  V ein UR mit dim U1 = m < n, so existiert ein weiterer UR U2  V mit
dim U2 = n m derart, dass V = U1  U2 gilt.
Begrundung: Im Falle (a) ist ni hts zu beweisen. Im Falle (b) sei ~v1 ; ~v2 ; : : : ; ~vm 2 U1  V eine
Basis von U1 . Dann wahlen wir eine Basiserganzung ~vm+1 ; ~vm+2 ; : : : ; ~vn 2 V wie in (a). Der UR
U2 := span f~vm+1 ; ~vm+2 ; : : : ; ~vn g leistet nun das Verlangte.
2

Bemerkung 1.37 (a) Fur endli hdimensionale Unterraume U1 ; U2  V mit direkter Summe
gilt stets
dim(U1  U2 ) = dim U1 + dim U2 :

(b) Falls dim V = n < 1 vorliegt, so gilt fur jeden Unterraum U  V :


dim U  n = dim V .
( ) Es seien U1 ; U2 endli hdimensionale UR eines Vektorraumes V . Setzen wir D := U1 \ U2 , so
ist D ein UR sowohl von U1 als au h von U2. Wegen Satz 1.36(b) gibt es Unterraume D1  U1
und D2  U2 mit D  D1 = U1 und D  D2 = U2 . Aus dem Ergebnis (a) folgern wir:
dim U1 + dim U2 = 2 dim D + dim D1 + dim D2 :

(1.6)

Andererseits zeigt man mit etwas mehr Aufwand U1 + U2 = D  D1  D2, so dass wiederum
na h (a) folgt:
dim(U1 + U2) = dim D + dim D1 + dim D2 :
(1.7)
Dur h Subtraktion von (1.6) und (1.7) erhalten wir somit:
2
Satz 1.38 (Dimensionssatz fur Unterraume)

Sei V ein Vektorraum uber R . Es seien U1 ; U2  V endli hdimensionale Unterraume. Dann


gilt:
dim(U1 + U2 ) = dim U1 + dim U2 dim(U1 \ U2 ):

Wir befassen uns nun mit dem Problem der Bestimmung einer Basis fur den Unterraum U := span f~v1; ~v2 ; : : : ; ~vmg  R n . Dieses Problem hat naturli h die triviale Losung
~v1 ; ~v2 ; : : : ; ~vm , falls das Vektorsystem ~v1 ; ~v2 ; : : : ; ~vm LU ist. Im Falle der linearen Abhangigkeit ist es weder o ensi htli h, wel he Vektoren eine Basis bilden, no h ist es klar, wie gro
dim U ist. Zur Behandlung beider Fragen de nieren wir:

De nition 1.39 Elementare Umformungen eines Vektorsystems ~v1 ; ~v2 ; : : : ; ~vm in einem
Vektorraum V sind:

(A)

Vertaus hung zweier Vektoren: ~vj $ ~vk :

(B)

Multiplikation eines Vektors mit einer Zahl  6= 0:  ~vj ! ~vj :

(C)

Addition von  ~vk ;  2 R , zu einem Vektor ~vj : ~vj +  ~vk ! ~vj :

Die folgende Aussage ist nun o ensi htli h, da elementare Umformungen ni hts anderes als
Linearkombinationen innerhalb des gegebenen Vektorsystems sind:
Satz 1.40 Unter den elementaren Umformungen (A), (B), (C) eines Vektorsystems ~v1 ; ~v2 ,
: : : ; ~vm verandert si h U := span f~v1 ; ~v2 ; : : : ; ~vm g ni ht.
Bemerkung 1.41 (a) Im Vektorraum V := R n konnen die transponierten Vektoren ~v1T ; ~v2T ,
: : : ; ~vmT 2 R n als Zeilen einer Matrix
2

AT

6
:= 66
4

~v1T
~v2T

...

~vmT

3
7
7
7
5

2 R (m;n)

interpretiert werden. Elementare Umformungen des Vektorsystems ~v1 ; ~v2; : : : ; ~vm entspre-

hen nun den elementaren Zeilenumformungen der Matrix AT .


(b) Wir bringen die Matrix AT dur h Gauss{S hritte in eine Sta elform:
2

AT

6
= 66
4

~v1T
~v2T

...

~vmT

3
7
7
7
5

Gauss{S hritte

 j f1

 j f2

=: ~u1T
=: ~u2T

 j f3 =: ~ukT

S{System, Typ (I)


oder Typ (II).

Die ni htvers hwindenden Zeilenvektoren ~u1T ; ~u2T ; : : : ; ~ukT 2 R n bilden ein linear unabhangiges
Vektorsystem ~u1; ~u2; : : : ; ~uk, und es gilt
U = span f~u1 ; ~u2; : : : ; ~uk g.

Das heit, das System ~u1; ~u2; : : : ; ~uk ist die gesu hte Basis des Unterraumes U = span f~v1 ,
~v2 ; : : : ; ~vm g, und es gilt dim U = k.
2
BSP. (1.34) In V := R4 sei
( 1; 1; 2; 1)T ; ~v4 := (1; 3; 2; 0)T

das Vektorsystem ~v1 := (2; 5; 4; 2)T ; ~v2 := (1; 4; 2; 1)T ; ~v3 :=


gegeben. Man bestimme eine Basis fur U := span f~v1 , ~v2; ~v3 ; ~v4 g.

Losung:
2

2
1
1
1
1
0
0
0
1
0
0
0

~v1T
6 ~
v2T 7
7
AT := 6
4 ~
v3T 5 !
~v4T
Z1 $ Z2
Z2 2Z1 ! Z2
Z3 + Z1 ! Z3
Z4 Z1 ! Z4
Z3 $ Z4
Z4 + Z2 ! Z 4
1
3 Z2 ! Z2
Z3 + Z2 ! Z 3
Z3 ! Z3

5
4
1
3
4
3
3
1
4
1
0
0

4
2
2
2
2
0
0
0
2
0
0
0

2
1
1
0
1
0
0
1
1
0
1
0

= ~u1T
= ~u2T
= ~u3T

9
>
>
>
>
=

) S{System, Typ (II).

>
>
>
>
;

Wir lesen hier die Basis direkt ab:


2

1 3 2 0 3 2 0 3)
6 4 7 6 1 7 6 0 7
7 6
7 6
7
U = span f~u1 ; ~u2 ; ~u3 g = span 6
4 2 5;4 0 5;4 0 5 ;
1
0
1 }
{z
|
(

Basis

0 3)
6 0 7
7
E := span 6
4 1 5 :
0
(

Um einen Erganzungsraum E fur U = span f~v1 ; ~v2; : : : ; ~vmg so zu bestimmen, dass U  E =


R n gilt, w
ahlt man
E = span f~ej ; ~ej ; : : : ; ~ejn k g,
1

worin ~ejTl = (0; : : : ; 0; 1; 0; : : : ; 0) derjenige Einheitsvektor der Standardbasis ist, dessen 1 an


der Position fl des obigen Sta elsystems steht, l = 1; 2; : : : ; n k.
BSP. (1.35) In V := R5 sei das Vektorsystem ~v1 := (1; 1; 0; 4; 5)T ; ~v2 := ( 1; 0; 3; 4;
~v3 := ( 1; 1; 0; 4; 4)T ; ~v4 := (1; 1; 0; 4; 6)T gegeben. Man bestimme Basis, Dimension
Erganzungsraum fur U := span f~v1 ; ~v2; ~v3 ; ~v4 g. Losung:
2

AT

:=

6
6
4

~v1T
~v2T
~v3T
~v4T

3
7
7
5

Z2 + Z1 ! Z2
Z3 + Z1 ! Z3
Z4 Z1 ! Z4
Z1 5Z3 ! Z1
Z2 Z3 ! Z 2
Z4 Z3 ! Z 4

1
1
1
1
1
0
0
0
1
0
0
0

1
0
1
1
1
1
0
0
1
1
0
0

0
3
0
0
0
3
0
0
0
3
0
0

4
4
4
4
4
0
0
0
4
0
0
0

5
4
4
6
5
1
1
1
0
0
1
0

= ~u1T
= ~u2T
= ~u3T

9
>
>
=
>
>
;

) S{System, Typ (II).

4)T ,
und

Wir lesen hier Dimension, Basis und Erganzungsraum direkt ab: dim U = 3;
2

3 2
3 2
3
1
0
0
(6
7 6
7 6
7)
6 1 7 6 1 7 6 0 7
7 6
7 6
7
U = span f~u1 ; ~u2 ; ~u3 g = span 6
6 0 7;6 3 7;6 0 7 ;
4 4 5 4 0 5 4 0 5
0
0
1 }
{z
|

3 2
3
0
0
(6
7 6
7)
6 0 7 6 0 7
7 6
7
E := span 6
6 1 7;6 0 7 :
4 0 5 4 1 5
0
0

Basis

1.6 Ane Unterraume (Untermannigfaltigkeiten)


Es sei V ein Vektorraum uber dem Korper R . Dann tragt jeder Unterraum ; 6= U  V die
lineare Struktur von V , und es gilt insbesondere ~0 2 U . Dur h Parallelvers hiebung von
U um einen festen Vektor ~p 2 V wird die lineare Struktur an auf ein Gebilde M := ~p + U
ubertragen:

u
p

0
U

=p

+U

Dur h Parallelvers hiebung des UR U um


einen festen Vektor p~ entsteht die UM
M = p~ + U

De nition 1.42 Es sei V ein Vektorraum uber R . Eine Teilmenge ; 6= M  V heie aner Unterraum (oder lineare Untermannigfaltigkeit) (UM) von V genau dann, wenn ein
Unterraum ; 6= U  V und ein fester Vektor p~ 2 V existieren mit
M = p~ + U = f~v 2 V : ~v = p~ + ~u; ~u 2 U g:






Ist dim U = 0, so ist M = ~p, und M heie Punkt in V .


Ist dim U = 1, so heie M Gerade in V .
Ist dim U = 2, so heie M Ebene in V .
Ist dim U = n

1 und dim V = n, so heie M Hyperebene in V .

Im Sonderfall dim V = 3 sind also die Hyperebenen in V genau die Ebenen in V . Der Unterraum U ist dur h die Vorgabe der UM M eindeutig festgelegt, denn es gilt
(i) ~v1 ~v2 2 U 8 ~v1 ; ~v2 2 M;

(ii) ~p 2 U ) U = M:

De nition 1.43 (a) Ist M = ~p + U eine UM von V , so heie der Unterraum U die Ri htung
von M .
(b) Es seien M1 ; M2 zwei UM von V mit Ri htungen U1 bzw. U2 . Dann heien M1 ; M2
 parallel, wenn U1  U2 oder U2  U1 gilt,
 e ht parallel, wenn U1 = U2 gilt. In diesem Falle setzt man M1 kM2.
( ) Ist ~u1; ~u2; : : : ; ~um eine Basis von U : U = span f~u1; ~u2; : : : ; ~umg und dim U = m < 1, so
heie M endli hdimensional, und man s hreibt dim M := dim U = m. In diesem Falle hat
M die Parameterdarstellung
n

M = ~v 2 V : ~v = ~p +

m
P
k=1

k ~uk ; 1 ; 2 ; : : : ; m 2 R

mit dem Aufhangepunkt p~, den Ri htungsvektoren ~u1 ; ~u2 ; : : : ; ~um und den Parametern
1 ; 2 ; : : : ; m .

BSP. (1.36)

Parameterdarstellung einer Geraden in V


~
G||G

P*0

P0
p0

p*0

:= R3 :

G
x

0
x

Parameterdarstellung von Geraden in R3


Gegeben seien ein Punkt P0 2 A3 mit Ortsvektor ~p0 2 R3 , ferner eine Ri htung ~u 2 R3 ; ~u 6= ~0. Dann

ist

G := f~x 2 R3 : ~x = ~p0 +  ~u;  2 R g

eine Gerade in R3 , und die Glei hung

~x = ~p0 +  ~u;  2 R;

ist ihre Parameterdarstellung. Zusatz: Seien von G ledigli h die zwei Punkte P0 ; P1 mit Ortsvektoren
und ~p1 bekannt, so erhalt man gema
~x = ~p0 +  (p~1 ~p0 );  2 R;
die Parameterdarstellung der Geraden G.
Zum Beispiel: Die Parameterdarstellung einer Geraden dur h die zwei Punkte P0 (1; 4; 3) und
P1 (2; 3; 4) ist zu bestimmen. Losung: Es gilt p~0 = (1; 4; 3)T ; ~p1 = (2; 3; 4)T , ~u := p~1 ~p0 =
(1; 7; 7)T , und somit
2
13 2 13
G:
~x = 4 4 5 +  4 7 5 ;  2 R:
3
7
p~0

BSP. (1.37)

Parameterdarstellung einer Ebene in V

:= R3 :

x
P2
u2
u1
P1

p0

E
z

0
x

Parameterdarstellung einer Ebene in R3


Gegeben seien ein Punkt P0 2 A3 mit Ortsvektor p~0 2 R3 , ferner zwei linear unabhangige Vektoren
~u1 6= ~0 6= ~u2 ; ~uj 2 R3 , die eine Ri htung U = span f~u1 ; ~u2 g de nieren. Dann ist

E := f~x 2 R3 : ~x = p~0 + 1 ~u1 + 2 ~u2 ; 1 ; 2 2 R g

eine Ebene in R3 , und die Glei hung


~x = p~0 + 1 ~u1 + 2 ~u2 ; 1 ; 2 2 R;
ist ihre Parameterdarstellung. Zusatz: Seien von E ledigli h drei ni ht auf einer Geraden liegende
Punkte P0 ; P1 ; P2 mit Ortsvektoren p~0; p~1 bzw. p~2 bekannt, so erhalt man gema
~x = ~p0 + 1 (p~1 p~0 ) + 2 (p~2 p~0 ); 1 ; 2 2 R;
die Parameterdarstellung der Ebene E .
Zum Beispiel: Die Parameterdarstellung einer Ebene dur h die drei Punkte P0 (1; 4; 3), P1 (2; 3; 4)
und P2 ( 1; 2; 3) ist zu bestimmen. Losung: Es gilt p~0 = (1; 4; 3)T ; p~1 = (2; 3; 4)T ; p~2 =
( 1; 2; 3)T sowie ~u1 := p~1 p~0 = (1; 7; 7)T ; ~u2 := p~2 p~0 = ( 2; 2; 0)T , und somit
2
2
2
13
13
23
E:
~x = 4 4 5 + 1 4 7 5 + 2 4 2 5 ; 1 ; 2 2 R:
3
7
0
Hau g ist man daran interessiert, von zwei Untermannigfaltigkeiten M1 ; M2 die S hnittmenge
M1 \ M2 zu bestimmen; so zum Beispiel die S hnittmenge von zwei Ebenen, zwei Geraden oder
einer Geraden und einer Ebene. Wir geben hier einen Weg an, der i.a. fur endli hdimensionale
Vektorraume V gangbar ist. In V := R 3 gibt es eine wesentli h elegantere Methode, die aber
das Vektorprodukt verwendet, wel hes wir erst spater einfuhren werden. Zur Vorbereitung
zeigen wir:
Satz 1.44 Es sei V ein Vektorraum uber R , und es seien M; M1 ; M2 Untermannigfaltigkeiten
von V .
(a) Gilt M = p~ + U , so gilt au h M = ~v + U 8 ~v 2 M .
(b) Entweder es gilt M1 \ M2 = ; oder M1 \ M2 ist wiederum UM von V .
Begrundungen: (a) Es sei ~v 2 M . Dann folgt ~v + U = ~p + (~v p~) +U = p~ + U .
| {z }
2U

(b) Es sei M1 \ M2 6= ;. Dann existiert ein ~p 2 M1 \ M2 , und es folgen aus (a) die Darstellungen M1 =
p~ + U1 ; M2 = p~ + U2 . Wir ers hlieen M1 \ M2 = ~p +(U1 \ U2 ), und dies ist eine Untermannigfaltigkeit,
da U1 \ U2 ja ein UR ist.
2

Bemerkung 1.45 Haben die Untermannigfaltigkeiten M1 ; M2  V die Parameterdarstellungen


M1 : ~v = ~p + 1 ~a1 +    + m ~am ;
M2 : ~v = ~q + 1 ~b1 +    + l ~bl ;
so fuhrt das S hnittproblem M1 \ M2 auf die zu losende Glei hung
1 ~a1 + 2 ~a2 +    + m ~am

1 ~b1

2 ~b2

   l ~bl = ~q ~p:

Im speziellen Fall V := Rn ist somit ein inhomogenes lineares Glei hungssystem


(~a1;~a2 ; : : : ;~am; ~b1 ; ~b2 ; : : : ; ~bl j ~q p~)
zu losen. Das Losungstupel (1; 2; : : : ; m; 1; 2; : : : ; l ) de niert zwei Parametersatze 1 ; 2,
: : : ; m und 1 ; 2 ; : : : ; l , von denen nur einer benotigt wird, also au h nur bere hnet zu
werden brau ht. In der Regel wird man den kleineren Parametersatz bestimmen. Man erhalt so
je na h Wahl des bere hneten Parametersatzes die zwei aquivalenten Parameterdarstellungen
der S hnittmannigfaltigkeit
2
M1 \ M2 : ~v = p~ + 1 ~a1 +
M1 \ M2 : ~v = q~ + 1 ~b1 +

   + m ~am ;
   + l ~bl :

BSP. (1.38) Es seien in V := A3 die Punkte P0 (1; 1; 2), P1 (0; 1; 1), P2 (2; 1; 1) und Q0 (1; 1; 1),
Q1 (2; 0; 1), Q2 (0; 3; 5) gegeben. Man bestimme in R3 die Ebenen E1 und E2 mit Pj 2 E1 und
Qj 2 E2 ; j = 0; 1; 2. Man bestimme ferner die S hnittgerade G = E1 \ E2 . Losung: Mit den
Ortsvektoren p~j und ~qj der Punkte Pj bzw. Qj ergeben si h folgende Parameterdarstellungen:
2

2
2
13
13
13
E1 : ~x = ~p0 + 1 (p~1 p~0 ) +2 (p~2 p~0 ) = 4 1 5 + 1 4 0 5 + 2 4 2 5 ; 1 ; 2 2 R;
| {z }
| {z }
2
1
1
=:~a
=:~a
2

2
2
13
13
13
E2 : ~x = ~q0 + 1 (~q1 {z ~q0}) +2 (|~q2 {z ~q0}) = 4 1 5 + 1 4 1 5 + 2 4 2 5 ; 1 ; 2 2 R:
|
1
2
4
=:~b
=:~b
2

Zur Bestimmung der S hnittmannigfaltigkeit E1 \ E2 mussen wir das lineare Glei hungssystem
(~a1 ;~a2 ; ~b1 ; ~b2 j ~q0 p~0) losen. Dazu verwenden wir den Gauss{Algorithmus:
Z1 ! Z1
Z3 + Z1 ! Z3
Z3 Z2 ! Z3

1
0
1
1
0
0
1
0
0

1
2
1
1
2
2
1
2
0

1
1
2
1
1
3
1
1
2

1
2
4
1
2
5
1
2
3

0
0
1
0
0
1
0
0
1

1
2
1

=
=
=

3 
4 2
1 
4 2
3 
2 2

1;
4
1;
4
1;
2

2

frei.

Mit dem frei wahlbaren Parameter  := 12 2 erhalten wir bei Wahl des Parametersatzes 1 ; 2 die
Parameterdarstellung:
2

2
2
3
3
3
2
3
1
1
1
1

: ~x = 21 4 3 5 + 22 4 1 5 = 12 4 3 5 +  4 1 5 ;  2 R:
4
2
4
2

Wird hingegen der Parametersatz 1; 2 gewahlt, so resultiert dieselbe Parameterdarstellung
2

2
2
2
3
3
3
3
2
3
1
1
1

: ~x = 14 4 6 5 + 42 4 0 + 2 5 = 12 4 3 5 +  4 1 5 ;  2 R:
8
3+1
4
2

1.7 Skalarprodukte: Winkel und Langen


In der Cartesis hen Basis des Vektorraumes R 2 hat ein Ortsvektor ~x = (x1; x2 )T 2 R2 die
Lange

k~xk = x21 + x22 :

x2

x
x+y

x-y

e2

e1

x1

-y

Lange des Vektors ~x 2 R2

Im glei hs henkligen Dreie k gilt ~x ? ~y

Dies folgt unmittelbar aus dem Pythagorais hen Lehrsatz. Analog gilt in der Cartesis hen
Basis des R 3 fur jeden Ortsvektor ~x = (x1; x2 ; x3 )T 2 R 3 :
q

k~xk = x21 + x22 + x23 :


Allgemein wird man die Standardbasis des R n zu folgender De nition heranziehen:
De nition 1.46 In der Standardbasis des R n ist die
~x = (x1 ; x2 ; : : : ; xn )T 2 R n erklart dur h die Zahl

k~xk :=

n
X
k=1

Statt Lange sagt man au h Betrag oder Norm.

x2k

Euklidis he

!1=2

Lange eines Ortsvektors

Es gibt au h andere Normen auf R n ! (s.u.)


BSP. (1.39) (a) In R1 = R ist kxk einfa h der Betrag der Zahl x 2 R.
(b) Der Vektor ~x := ( 7; 1; 2; 1)T 2 R4 hat die Norm k~xk = p49 + 1 + 4 + 1 = p55.
( ) Fur jeden Einheitsvektor ~ej 2 Rn ; j = 1; 2; : : : ; n, der Standardbasis gilt k~ej k = 1.
(d) Fur ~x := (x1 ; x2; : : : ; xn)T 2 Rn und ~y := (y1; y2 ; : : : ; yn)T 2 Rn gilt

k~x  ~yk =

n
X
k=1

(xk  yk )2

!1=2

(e) Ist ~x 6= 0 ein beliebiger Vektor, so hat k~x1k ~x die Lange 1.

In R 2 folgt aus elementargeometris hen U berlegungen uber glei hs henklige Dreie ke (siehe
obige Skizze), dass zwei Vektoren ~x = (x1 ; x2 )T und ~y = (y1; y2)T genau dann aufeinander
senkre ht stehen, wenn gilt:
k~x ~yk = k~x + ~yk:
In der Cartesis hen Basis folgt:
0 = k~x + ~yk2 k~x ~yk2 = 4 (x1y1 + x2 y2):
Eine ahnli he Re hnung in R 3 liefert die Bedingung 0 = x1 y1 + x2y2 + x3y3. Es ist zwe kmaig,
fur die Re hengroe x1y1 + x2y2 +    + xnyn eine eigene Bezei hnung einzufuhren:
De nition 1.47 (a) Fur je zwei Vektoren ~x := (x1 ; x2 ; : : : ; xn )T 2
: : : ; yn )T 2 R n heie die Zahl

h~x; ~yi :=

n
X
k=1

Rn

und ~y := (y1 ; y2 ,

xk yk

Standardskalarprodukt von ~x; ~y 2 R n (au h inneres Produkt oder kurz Skalarprodukt).


(b) Zwei Vektoren ~x; ~y 2 R n heien zueinander orthogonal (oder stehen senkre ht aufeinander), in Zei hen ~x ? ~y, wenn h~x; ~yi = 0 gilt:

~x ? ~y :, h~x; ~yi = 0:

(a) In R4 gilt fur ~x := ( 7; 1; 2; 1)T ; ~y := (3; 0; 1; 5)T und ~z := (1; 0; 0; 7)T :


h~x; ~yi = 28; h~y; ~zi = 32; h~x; ~zi = 0 ) ~x ? ~z:
(b) Stets gilt h~0; ~xi = 0, also ~0 ? ~x 8 ~x 2 Rn .
BSP. (1.40)

Norm und Skalarprodukt in R n haben folgende Eigens haften:

Satz 1.48 (a) Das Skalarprodukt ist eine Abbildung h; i : R n  R n ! R mit den Eigens haften

(SP1) h~x; ~xi > 0 , ~0 6= ~x 2 R n ,


(positive De nitheit)
(SP2) h ~x +  ~y; ~zi = h~x; ~zi + h~y; ~zi 8 ;  2 R 8 ~x; ~y; ~z 2 R n ; (Bilinearitat)
(SP3) h~x; ~yi = h~y; ~xi 8 ~x; ~y 2 R ;
(Symmetrie)

(b) Die Norm ist eine Abbildung k  k : R n ! R mit den Eigens haften
(N1) k~xk > 0 , ~0 6= ~x 2 R ,
(N2) k ~xk = jj  k~xk 8  2 R 8 ~x 2 R ;
(N3) k~x + ~yk  k~xk + k~yk 8 ~x; ~y 2 R ;

(De nitheit)
(Homogenitat)
(Dreie ksunglei hung)

( ) Norm und Skalarprodukt sind verknupft gema


p

k~xk = h~x; ~xi 8 ~x 2 R :


Es gilt fur alle ~x; ~y 2 R 2 :
k~x ~yk2 = k~xk2 + k~yk2

2 k~xk k~yk os <) (~x; ~y); (Cosinussatz)


h~x; ~yi = k~xk k~yk os <) (~x; ~y) fur x 6= 0 und y 6= 0

(1.8)
(1.9)
(1.10)
(1.11)

jh~x; ~yij  k~xk k~yk: (Cau hy{S hwarz{Unglei hung)


Begrundungen: Die Eigens haften (SP1){(SP3) und (N1), (N2) lassen si h unmittelbar aus den De nitionen herleiten. Ebenso o enkundig ist die Relation (1.8).
Beweis von (1.10): Es sei nun speziell k~xk = k~yk = 1 angenommen. Wir setzen :=<) (~x; ~y) und
erhalten aus der folgenden Skizze sin 2 = 12 k~x ~yk, und somit:
os = 1 2 sin2( 2 ) = 1 21 k~x ~yk2 = 1 21 h~x ~y; ~x ~yi
= 1 21 k~xk2 12 k~yk2 + h~x; ~yi = h~x; ~yi:
y
||y||

=1

_
1 ||x - y||
2

_
2

0
||x||

=1

x-y

Zum Beweis von (1.10)

Also gilt h~x; ~yi = os fur Vektoren der Lange 1. Fur beliebige Vektoren ~x 6= ~0 6= ~y sind ~x=k~xk und
~y=k~y k sol he Vektoren der Lange 1. Fur diese gilt also:
os = os <) (~x; ~y) = h k~x~xk ; k~y~yk i = kh~x~xk;k~y~yik ;
und daraus folgt (1.10). Mit k~x ~yk2 = k~xk2 + k~yk2 2h~x; ~yi ist die Glei hung (1.9) jetzt eine
unmittelbare Folgerung von (1.10), und wegen j os j  1 resultiert soglei h au h (1.11). S hlieli h
haben wir (N3):
(1:11)
k~x + ~yk2 = k~xk2 + 2h~x; ~yi + k~yk2  (k~xk + k~yk)2 :
2

Allgemein: Aus der Cau hy-S hwarzs hen Unglei hung folgt (bei (1.8)) die Dreie ksunglei hung.
Es seien ~x; ~y 2 R n fur beliebiges n 2 N ; ~x 6= 0 6= ~y: Sind ~x; ~y linear abhangig, gilt also
:=<) (~x; ~y) = 0 bzw. os = 0:

Sind ~x; ~y linear unabhangig, so ist V := spanf~x; ~yg zweidimensional und bei beliebiger Wahl
einer Basis ~b1 ; ~b2 von V wird dur h
~v = ~b1 + ~b2 7!




2 R2

V mit R 2 \identi ziert" (genauer spater).


Um <) (~v1 ; ~v2) zu erklaren fur vi = i~b1 + i~b2 mit eindeutigen i; i 2 R ; i = 1; 2; kann auf
<)



1 ;  2
1
2



in R 2

zuru kgegri en werden, damit au h (1.10) und damit (1.9) und (1.11) gelten muss

jje1jj = jje2jj = 1 und e1 ? e2 :


Dadur h wird insbesondere <) (~x; ~y) unabhangig von dieser (Orthonormal)Basis und es hatte
au h (1.10) direkt zur De nition und zum Ausre hnen von os <) (~x; ~y) herangezogen werden
konnen ohne \geometris he" U berlegungen (s.u.).
Bemerkung 1.49 (a) Fur ~x; ~y; ~z 2 R n und ;  2 R folgt zusammen mit (SP2) und (SP3):

h~x;  ~y +  ~zi = h ~y +  ~z; ~xi = h~y; ~xi + h~z; ~xi = h~x; ~yi + h~x; ~zi:
Diese Eigens haft und (SP2) re htfertigen den Begri Bilinearitat.
(b) Fur =<) (~x; ~y) = =2 folgt aus (1.10) wieder h~x; ~yi = 0, also ~x ? ~y. In diesem Falle ist
(1.9) ni hts anderes als der Pythagorais he Lehrsatz.
( ) Setzen wir
d(~x; ~y) := k~x ~y k =

n
X
k=1

(xk yk )2

!1=2

8 ~x; ~y 2 R n ;

so wird auf Rn eine Metrik d(; ) : R n  R n ! R erklart, die wiederum die Eigens haften
(M1) d(~x; ~y) > 0 , ~x 6= ~y,
(M2) d(~x; ~y) = d(~y; ~x) 8 ~x; ~y 2 R n ;
(M3) d(~x; ~y)  d(~x; ~z) + d(~z; ~y) 8 ~x; ~y; ~z 2 R n ;

(De nitheit)
(Symmetrie)
(Dreie ksunglei hung)

hat. Diese heit die Euklidis he Metrik (Distanz, Entfernung).


(d) Ein Vektor ~x 2 R n mit der Norm k~xk = 1 heie Einheitsvektor. Jeder Vektor ~0 6= ~x 2 R n
wird dur h die Normierung ~x=k~xk zum Einheitsvektor.
2

1.8 Praehilbertraume und normierte Vektorraume

Bemerkung 1.50 Normen und Skalarprodukte lassen si h ni ht nur { wie bisher getan { in
V := R n erklaren, sondern au h in vielen anderen Vektorraumen.

Ist beispielsweise I := [a; b; a; b 2 R; a < b, ein abges hlossenes Intervall, und ist
V := 1 (I ) := fP (x) : P (x) ist ein fur alle x 2 I de niertes Polynom g,
so kann si h der mit dem Integralbegri vertraute Leser davon uberzeugen, dass dur h die Vors hrift
Zb

hP; Qi := P (x) Q(x) dx; P; Q 2 1(I );

ein Skalarprodukt auf V erklart ist.

De nition 1.51 Sei V ein Vektorraum uber R . (a) Das Skalarprodukt ist eine Abbildung
h; i : V  V ! R mit den Eigens haften

(SP1) h~x; ~xi > 0 , ~0 6= ~x 2 V ,


(positive De nitheit)
(SP2) h ~x+  ~y; ~zi =  h~x; ~zi +  h~y; ~zi 8 ;  2 R 8 ~x; ~y; ~z 2 V; (Sesquilinearitat)
(SP3) h~x; ~yi = h~y; ~xi 8 ~x; ~y 2 V:
(Symmetrie)
(b) Die Norm ist eine Abbildung k  k : V ! R mit den Eigens haften
(N1) k~xk > 0 , ~0 6= ~x 2 V ,
(N2) k ~xk = jj  k~xk 8  2 R 8 ~x 2 V;
(N3) k~x + ~yk  k~xk + k~yk 8 ~x; ~y 2 V:

(De nitheit)
(Homogenitat)
(Dreie ksunglei hung)

De nition 1.52 (a) Ein Vektorraum V uber R heie Praehilbertraum, wenn in V ein Skalarprodukt h; i : V  V ! R erklart ist, wel hes die Eigens haften (SP1), (SP2) und (SP3)
hat. Ein Praehilbertraum V uber R mit dim V < 1 heie au h ein Euklidis her Vektorraum.
(b) Ein Vektorraum V uber R heie normierter Vektorraum, wenn in V eine Norm k  k :
V ! R erklart ist mit den Eigens haften (N1), (N2), (N3).
( ) Ist V einpPraehilbertraum uber R mit dem Skalarprodukt h; i, so heie die uber die Relation k~xk := h~x; ~x; i 8 ~x 2 V erklarte Abbildung kk : V ! R die dur h das Skalarprodukt
induzierte Norm.
Bemerkung 1.53 (a) Jeder Praehilbertraum ist glei hzeitig ein normierter VR; die Umkehrung gilt im allgemeinen ni ht. Zum Beispiel ist

k~xk1 :=

n
X

jxk j; ~x 2 R n ;

k=1
n , die
Rp

eine Norm auf dem Vektorraum V :=


vers hieden ist von der dur h das Standardskalarprodukt induzierten Norm k~xk = h~x; ~xi. Die Norm k~xk1 lasst si h ni ht dur h ein
Skalarprodukt induzieren.
(b) Auf jedem normierten Vektorraum V wird vermoge
d(~x; ~y) := k~x ~yk 8 ~x; ~y 2 V
stets eine Metrik mit den fruher erklarten Eigens haften (M1), (M2), (M3) induziert.
2

BSP. (1.41) (a) Wir setzen V := A3 = fOrtsvektoren im 3D{Ans hauungsraumg und versehen
V mit dem (basisunabhangigen!) Skalarprodukt

h~x; ~yi := k~xk k~yk os <) (~x; ~y):

Dann ist V ein Praehilbertraum.


(b) Wie oben erlautert, ist V := Rn mit dem Standardskalarprodukt
h~x; ~yi :=

ein Praehilbertraum.

n
X
k=1

x k yk

Wir stellen na hfolgend wi htige Re henregeln fur das Skalarprodukt zusammen.


Satz 1.54 Es sei V ein Praehilbertraum uber R . Dann gilt:

h~x;  ~y +  ~zi =  h~x; ~yi +  h~x; ~zi 8 ;  2 R 8 ~x; ~y; ~z 2 V (Bilinearitat); (1.12)
k~x + ~yk2 = k~xk2 + k~yk2 + 2 h~x; ~yi 8 ~x; ~y 2 V;
(1.13)
jh~x; ~yij  k~xk k~yk 8 ~x; ~y 2 V; (Cau hy{S hwarz{Unglei hung). (1.14)
In der Cau hy{S hwarz{Unglei hung tritt Glei hheit genau dann ein, wenn ~x; ~y linear
abhangig sind.
Begrundung: Wir zeigen zuna hst (1.12). Es folgt aus den Eigens haften eines Skalarprodukts (wort-

li h wie in Bemerkung 1.49a):

h~x;  ~y +  ~zi (SP=3) h ~y +  ~z; ~xi (SP=2)  h~y; ~xi +  h~z; ~xi (SP=3)  h~x; ~yi +  h~x; ~zi:

Wir beweisen jetzt (1.13):


k~x + ~yk2 = h~x + ~y; ~x + ~yi (SP=2) h~x; ~x + ~yi + h~y; ~x + ~yi (1=:12) h~x; ~xi + h~x; ~yi + h~y; ~xi + h~y; ~yi
(SP 3)

= k~xk2 + k~yk2 + h~x; ~yi + h~x; ~yi = k~xk2 + k~yk2 + 2 h~x; ~yi:
Zum Beweis von (1.14) vermerken wir, dass die Behauptung fur ~y = ~0 trivial ist. Es sei also ~y 6= ~0
angenommen. Dann folgt:
0 



~
x


h
~x; ~yi 2 (1:13) 2 2
k~yk k~yk ~y = k~xk k~yk + jh~x; ~yij2 2 h~x; h~x; ~yi ~yi

(1:13)

= k~xk2 k~yk2 + jh~x; ~yij2 2 ( h~x; ~yih~x; ~yi) = k~xk2 k~yk2 jh~x; ~yij2 :
Ist ~x +  ~y = ~0, so gilt kxkyk hkx;yyki yk = 0:
Satz 1.55 Sei V ein Praehilbertraum uber R mit Skalarprodukt h; i: Dur h
p

k~xk := h~x; ~xi


wird eine Norm k  k : V ! R ! R erklart, die induzierte Norm.
(N 1); (N 2) folgen unmittelbar.

Aus (1.13) und (1.14) erhalt man jetzt wie fur V = R n (N3), namli h

k~x + ~yk2  k~xk2 + k~yk2 + 2 k~xk k~yk = (k~xk + k~yk)2 :


Bemerkung 1.56 (a) In V := R n hat die Cau hy{S hwarz{Unglei hung (1.14) die Form


n
X



x
y

k k


k=1

n
X
k=1

jxk j2

!1=2

n
X
k=1

jyk j2

!1=2

(b) Ist V ein Praehilbertraum uber R , so wird dur h h~x; ~yi=k~xk k~yk fur jedes Paar von Vektoren
~x 6= ~0 6= ~y eine reelle Zahl aus dem Intervall [ 1; 1 erklart:
De nition 1.57 Gegeben sei ein Praehilbertraum V uber R . Die dur h

os := h~x; ~yi und 0   ; ~x 6= ~0 6= ~y; ~x; ~y 2 V;

k~xk k~yk
eindeutig de nierte Zahl 2 R heie der (unorientierte) Winkel zwis hen den Vektoren ~x; ~y,

bezei hnet mit =:<) (~x; ~y).


ist wohlde niert, da na h (1.14)

k kxhkx;ykiyk k  1

Zum Beispiel in V := R 5 haben wir fur ~x := (0; 1; 1; 0; 0)T und ~y := (1; 1; 1; 0; 1)T :

p
h
~x; ~yi
2
= 2;
os =
=p
k~xk k~yk
22 2


also =<) (~x; ~y) = :

4
( ) Ist V ein normierter Vektorraum, so heie jeder Vektor ~v 2 V mit k~vk = 1 ein Ein~ kw~ k eine Normierung auf die Lange 1
heitsvektor. Fur ~0 6= w~ 2 V wird vermoge ~v := w=
5
induziert.
p Zum Beispiel sei in V := R der Vektor w~ := ( 2; 1; 3; 0; 1)T 2 V gegeben. Wegen
kw~ k = 15 ist w~ kein Einheitsvektor. Normierung liefert den Einheitsvektor:
1
w~
p
=
~v =
( 2; 1; 3; 0; 1)T :
kw~ k
15
(d) In einem normierten Vektorraum V ers hliet man aus (N3) dur h vollstandige Induktion
die verallgemeinerte Dreie ksunglei hung
2


n
X



~
v

k

k=1

n
X
k=1

k~vk k 8 ~v1; ~v2 ; : : : ; ~vn 2 V:

In jedem Praehilbertraum kann genau wie in R n ein Orthogonalitatsbegri erklart werden.


De nition 1.58 (a) Gegeben sei ein Praehilbertraum V . Zwei Vektoren ~u; ~v 2 V sind orthogonal oder zueinander senkre ht, in Zei hen: ~u ? ~v , wenn h~u; ~v i = 0 gilt:
~u ? ~v :, h~u; ~vi = 0:

(b) Gelte dim V = n < 1. Eine Basis ~v1 ; ~v2; : : : ; ~vn von V heie Orthogonalbasis genau
dann, wenn gilt

h~vj ; ~vk i = 0 8 j 6= k:

Eine Basis ~v1 ; ~v2 ; : : : ; ~vn von V heie Orthonormalbasis (ON{Basis) genau dann, wenn gilt

h~vj ; ~vk i = jk 8 j; k = 1; 2; : : : ; n:
Dabei heie

jk :=

1 : j = k;
0 : j 6= k

das Krone ker{Symbol. Eine Orthonormalbasis besteht mit anderen Worten aus Einheitsvektoren, die paarweise zueinander senkre ht sind.

BSP. (1.42) (a) Die Standardbasis ~e1 ; ~e2 ; : : : ; ~en in V := Rn ist eine ON{Basis! Aus der Darstellung ~ej = (0; : : : ; 0; |{z}
1 ; 0; : : : ; 0)T ; j = 1; 2; : : : ; n, deduziert man sofort:
j {te

Stelle

k~ej k2 = h~ej ; ~ej i = 1; h~ej ; ~ek i = 0 8 j 6= k; j; k = 1; 2; : : : ; n:

(b) Es sei V := R3 , versehen mit dem Standardskalarprodukt. Man pruft lei ht na h, dass au h das
folgende Vektorsystem eine ON{Basis von R3 ist:
1
1
1
~v1 := (2; 2; 1)T ; ~v2 := p (1; 1; 0)T ; ~v3 := p ( 1; 1; 4)T :
3
18
2
Allgemein kann jede Basis in einem Praehilbertraum in eine ON{Basis umgewandelt werden. Ein konstruktives Umwandlungsverfahren wurde von Erhard S hmidt (1876{1959,
Professor fur Mathematik in Berlin) gefunden:
Satz 1.59 (S hmidts hes Orthonormalisierungsverfahren)
In einem Praehilbertraum V sei ein System ~u1 ; ~u2; : : : ; ~un 2 V; n 2 N , linear unabhangiger
Vektoren gegeben. Dann existiert ein Orthonormalsystem ~v1 ; ~v2 ; : : : ; ~vn 2 V mit der Eigens haft

span f~v1; ~v2; : : : ; ~vng = span f~u1; ~u2; : : : ; ~ung:

Man erhalt das ON{System konstruktiv dur h folgende Rekursion:

w~ 1 := ~u1 ;
w~ k := ~uk
~vj :=

k 1
X
j =1

h~uk ; ~vj i ~vj ; k = 2; 3; : : : ; n;

w~ j
kw~ j k ; j = 1; 2; : : : ; n:

9
>
>
>
>
>
>
=
>
>
>
>
>
>
;

(ONS)

Begrundung: Na h Konstruktion gilt ja bereits k~vj k = 1. Nun zeigen wir mit vollstandiger Induktion
na h k die Orthogonalitat h~vl+1 ; ~vj i = 0; 8 l = 1; : : : ; k; 8 j = 1; 2; : : : ; l  n 1. Fur k = 1 haben

wir per Konstruktion:

h~v2 ; ~v1 i = kw~1 k h~u2 h~u2 ; ~v1 i ~v1 ; ~v1 i = kw~1 k h~u2 ; ~v1 i kw~1 k h~u2 ; ~v1i k~v1 k2 = 0:
2
2
2

Also gilt die Induktionsverankerung. Wir zeigen jetzt den S hluss von k auf k + 1. Gelte nun bereits
h~vl+1 ; ~vj i = 0 fur ein k  n 2, und fur l = 1; : : : ; k; j = 1; 2; : : : ; l bzw. h~vi ; ~vj i = ij fur i; j =

1; : : : ; k + 1. Dann folgt fur j = 1; : : : ; k + 1:


k+1
X

h~vk+2; ~vj i = kw~ 1 k h~uk+2


k+2

l=1

h~uk+2; ~vl i ~vl ; ~vj i

k+1
X

= kw~ k h~uk+2 ; ~vj i


k+2

l=1

h~uk+2 ; ~vl i h|~vl{z; ~vj }i = 0:


=lj

BSP. (1.43) Es sei V := R4 , versehen mit dem Standardskalarprodukt. Um in dem Unterraum


U := f(x1 ; x2 ; x3 ; x4 )T 2 V : x3 = x1 2x2 + x4 g eine Basis zu bestimmen, setzen wir in die
Glei hung x3 = x1 2x2 + x4 na heinander die Tripel (x1 ; x2 ; x4 ) = (1; 0; 0); (0; 1; 0); (0; 0; 1) ein.

Wir erhalten die Basisvektoren


~u1 := (1; 0; 1; 0)T ; ~u2 := (0; 1; 2; 0)T ; ~u3 := (0; 0; 1; 1)T :
Mit dem S hmidts hen Orthonormalisierungsverfahren konstruieren wir nun eine ON{Basis von U :
2
6

w~ 1 := 6
4
2
6

w~ 2 := 6
4
2

w~ 3 :=

6
6
4

1
0 77 = ~u
15 1
0
3
3
2
2
0
1
1 77 1 (0 2) 66 0 77 = 66
4 1 5
4
25 2
0
0
3
2
3
1
0
0 77 1 (1 + 0) 66 0 77 1 (0
4 1 5
15 2
3
0
1

1
1
1
0

3
7
7
5
2

1)

6
6
4

1
1
1
0

3
7
7
5

= 61

6
6
4

1
2
1
6

1
6 0 7
1
6
) ~v1 = p 4 1 75 ;
2
0
3
2
1
7
6
) ~v2 = p1 64 11 75 ;
3
0
3
3
2
1
7
1 6 2 77 :
7 )~
v3 = p 6
5
42 4 1 5
6

Bemerkung 1.60 (a) Jeder endli hdimensionale Praehilbertraum V besitzt eine ON{Basis.
Denn ist dim V = n, so kann die existierende Basis ~u1; ~u2; : : : ; ~un mit dem Verfahren (ONS)
orthonormiert werden.
(b) Es gelte dim V = n, und es sei ~v1 ; ~v2; : : : ; ~vn eine gema (a) existierende ON{Basis. Dann
n
P
ist jeder Vektor ~u 2 V eine LK der Basisvektoren: ~u = k ~vk mit den Komponenten
k=1

h~u; ~vj i =

n
X

k h~vk ; ~vj i = j ; j = 1; 2; : : : ; n:
| {z }
k=1
=kj

Das heit, in einer ON{Basis des Vektorraumes V gestattet jeder Vektor die Darstellung
~u =

n
X
k=1

h~u; ~vk i ~vk ; 8 ~u 2 V:

De nition 1.61 Die Zahlen k := h~u; ~vk i in der obigen Darstellung heien die Fourier{
Koezienten des Vektors ~u in der ON{Basis ~v1 ; ~v2 ; : : : ; ~vn .

Fur jeden weiteren Vektor ~v 2 V mit den Fourier{Koezienten j := h~v; ~vj i gilt nun

h~u; ~vi =

n
DX
k=1

k ~vk ;

n
X
j =1

j ~vj =

n X
n
X

k j h~vk ; ~vj i;
| {z }
k=1 j =1
=kj

und somit

h~u; ~vi =

n
X
k=1

 k k

~v =~u

) k~uk2 =

n
X
k=1

jh~u; ~vk ij2:

BSP. (1.44) Es sei U der Unterraum aus BSP. (1.43) mit der dort konstruierten ON{Basis
~v1 ; ~v2 ; ~v3 . Wir geben die Vektoren ~u := (2; 2; 1; 5)T 2 U und ~v := (1; 1; 0; 1)T 2 U vor. Dann

erre hnet man sofort die Fourier{Koezienten


h~u; ~v1 i = p32 ; h~u; ~v2 i = p13 ; h~u; ~v3 i = p3542 ;
h~v; ~v3 i = p742 :
h~v; ~v1 i = p12 ; h~v; ~v2 i = p23 ;
O enbar gilt
h~u; ~vi = p 3p p 2p p35 p 7 = 5;
2 2 3 3 42 42
in U bereinstimmung mit dem Wert des Standardskalarproduktes h~u; ~vi = 2 2 5 = 5.

1.9 Orthogonalkomplemente und geometris he Anwendungen


In diesem Abs hnitt sei V stets ein Praehilbertraum (uber R ).
De nition 1.62 Das Orthogonalkomplement U ? eines Unterraumes U  V ist die Menge
U ? := f~v 2 V : h~u; ~vi = 0 8 ~u 2 U g:

Es sei V := R4 , versehen mit dem Standardskalarprodukt. Man erkennt sehr


einfa h, dass die beiden Vektoren ~a := (1; 0; 1; 0)T und ~b := (0; 1; 0; 1)T den Unterraum U :=
f(x1 ; x2 ; x3 ; x4 )T 2 V : x1 = x3 und x2 = x4 g aufspannen. (Klar, ~a; ~b 2 U sind LU, und wegen der
zwei Nebenbedingungen x1 = x3 ; x2 = x4 muss dim U = 2 gelten.) Wir setzen jetzt ~ := (1; 0; 1; 0)T
und d~ := (0; 1; 0; 1)T und behaupten:
U ? = span f~ ; d~g; dim U ? = 2:
Tatsa hli h, es gilt fur jeden Vektor ~u := 1 ~a + 2 ~b 2 U und jeden Vektor ~v := 1 ~ + 2 d~:
h~u; ~vi = 1 1 h|~a{z;~ }i +2 1 h|~b;~
i +1 2 h~a; d~i +2 2 h~b; d~i = 0:
{z }
| {z }
| {z }
BSP. (1.45)

Also haben wir ~v 2 U ?, d.h.

=0

=0

=0

=0

span f~ ; d~g  U ? und dim U ?  2:

Wir sehen ferner, es gilt hier dim V = dim U + dim U ?, was kein Zufall ist, wie folgender Satz
zeigt:

Satz 1.63 Es sei U  V ein Unterraum des Praehilbertraumes V . Dann gilt:


(a) Stets ist au h U ? ein Unterraum von V (au h wenn nur U  V gilt).
(b) Ist ~u1; ~u2; : : : ; ~um eine Basis von U , so gilt ~v 2 U ? genau dann, wenn

h~uk ; ~vi = 0 8 k = 1; 2; : : : ; m:
( ) Stets gilt U  U ?? := (U ?)?:
(d) (Satz von der orthogonalen Zerlegung.)
Es sei dim V < 1. Dann gilt U \ U ? = f~0g und U + U ? = V , also
V = U  U ?; dim V = dim U + dim U ?:
Das heit, zu jedem Vektor ~v 2 V gibt es eindeutig bestimmte Vektoren ~u; ~u? mit

~v = ~u + ~u?; ~u 2 U; ~u? 2 U ? :
Begrundungen: (a) Wegen h~u; ~0i
;  2 R vorgegeben. Dann folgt

= 0 8 ~u 2 U haben wir ~0 2 U ? 6= ;. Seien nun ~v; w~ 2 U ? und

h~u;  ~v +  w~ i =  h|~u{z; ~v}i + h|~u{z; w~ }i = 0 8 ~u 2 U;


=0

=0

also  ~v +  w~ 2 U ?. Somit sind die Unterraumaxiome (U1) und (U2) in U ? erfullt.


(b) ~v 2 V und h~uk ; ~vi = 0 8 k = 1; 2; : : : ; m implizieren klar h~u; ~vi = 0 8 ~u 2 U . Also haben wir
~v 2 U ?. Sei nun umgekehrt ~v 2 U ? gegeben. Dann haben wir h~u; ~vi = 0 8 ~u 2 U . Mit der speziellen
Wahl ~u := ~uk 2 U erhalt man also h~uk ; ~vi = 0 8 k = 1; 2; : : : ; m.
( ) Jedes ~u 2 U erfullt h~u; ~vi = 0 8 ~v 2 U ?. Also folgt ~u 2 U ??.
(d) Sei ~v1; : : : ; ~vn eine ONB von U, die na h Satz 1.36 zu einer Basis ~v1 ; : : : ; ~vn ; ~v~n+1 ; : : : ; ~v~n+m von
V erganzt werden kann. Anwendung des Orthonormalisierungsverfahrens Satz 1.59 belasst ~v ; : : : ; ~vn ,
so dass eine ONB ~v1 ; : : : ; ~vn ; ~vn+1; : : : ; ~vn+m von V entsteht.
Sei ~u 2 V , dann
nP
+m
~u =
h~u; ~vi i~vi = ~u1 + ~u2
mit
i=1
n
P
~u1 :=
h~u; ~vi i~vi
2U
i=1
nP
+m
~u2 :=
h~u; ~vi i~vi
i=n+1

Sei w~ 2 U beliebig, w~ = P hw;


~ ~vi i~vi , dann ist
i=1

h~u2 ; w~ i =

n
nX
+m X
i=n+1 j =1

h~u; ~vi ihw;


~ ~vj ih~vi ; ~vj i = 0

d.h. ~u2 2 U ?.
Die Summe ist direkt, da ~u 2 U \ U ? ) h~u; ~ui = 0 ) ~u = 0.

Bemerkung 1.64 (a) Im Falle dim V < 1 gilt fur jeden Unterraum U  V sogar stets
U = U ??. Dies folgt unmittelbar aus den direkten Summen und der Orthogonalitat der
Raume:
U ?  U = V = U ?  U ??:
(b) Dur h die orthogonale Zerlegung ~v = ~u + ~u? mit ~u 2 U und ~u? 2 U ? wird jeder Vektor
~v 2 V in eindeutiger Weise auf einen Vektor PU (~v ) := ~u 2 U abgebildet.
2

v
U

0
PU(v)
U

Orthogonale Projektion auf den


Unterraum U

De nition 1.65 Es sei dim V < 1: Der Vektor PU (~v ) 2 U aus der eindeutigen Darstellung
~v = PU (~v ) + ~u? mit ~u? 2 U ? heie die orthogonale Projektion des Vektors ~v 2 V auf den
Unterraum U  V .

Wegen U = U ?? ist
sowie au h

~v = ~u + ~u? mit u = PU (~v ) 2 U

und ~u? 2 U ?

~v = ~u? + ~u mit ~u? = PU ? (~v ) 2 U ? und ~u 2 U ??.

Insgesamt gilt also fur ~u 2 U die eindeutige Darstellung


~u = PU (~u) + PU ? (~u)

(1.15)

Die orthogonale Projektion hat eine sehr wi htige Extremaleigens haft:


Satz 1.66 Es seien V ein endli hdimensionaler Praehilbertraum, U  V ein Unterraum und
~v 2 V ein fester Vektor. Dann gilt:

k~v PU (~v)k = min


k~v ~uk < k~v w~ k 8 w~ 2 U : w~ 6= PU (~v):
~u2U

(1.16)

Insbesondere ist PU (~v ) = ~v fur ~v 2 U:


Ist ~u1 ; ~u2 ; : : : ; ~um eine ON{Basis von U , so gestattet PU (~v) die folgende Darstellung:

PU (~v) =

m
X
k=1

h~v; ~uk i ~uk:

(1.17)

Begrundung: Fur jeden Vektor w~ 2 U

~v

Hieraus folgt

haben wir (vgl. obige Skizze):


w~ = ~v PU (~v) + PU (~v ) w~ =: ~u? + ~x:
| {z } | {z
}
=~u?2U ?

2U

k~v w~ k2 = k~u? + ~xk2 = k~u?k2 + k~xk2 + 2 h|~u?{z; ~x}i = k~v PU (~v)k2 + kPU (~v) w~ k2 :
=0

Fur w~ 6= PU (~v) folgt daraus k~v PU (~v)k < k~v w~ k, also (1.15).
Die Darstellung (1.17) wurde im Beweis von Satz 1.63 (d) gezeigt, ergibt si h aber au h dur h die
Bemerkung 1.67 Das Minimierungsproblem (1.16) hat au h eine eindeutige Losung, falls V unendli hdimensional und etwa U endli hdimensional ist. Nennt man dieses Element in U kleinsten
Abstands dann PU (~v ); so gilt fur die Abwei hung ~v PU (~v)
~v PU (~v ) 2 U ?
und somit ergibt si h au h in diesem Fall die orthogonale Zerlegung
~u = PU (~v) + ~u?
mit ~u? 2 U ? aus Satz 1.63.

Das S hmidts he Orthonormalisierungsverfahren (ONS) lasst si h also verstehen als


w~ k := ~uk PVk (~uk ) = PVk? (~uk )
mit Vk 1 = span f~v1 ; : : : ; ~vk 1g:
1

BSP. (1.46)

In dem Praehilbertraum V := R4 betra hten wir den Unterraum

:= f(x1 ; x2 ; x3; x4 )T 2 V : x3 = x1 2x2 + x4g


(vgl. das BSP. 1.43) in Abs hnitt 1.8). Der Unterraum U  V wird von folgender ON{Basis aufgespannt:
1
1
1
~u1 := p (1; 0; 1; 0)T ; ~u2 := p (1; 1; 1; 0)T ; ~u3 := p ( 1; 2; 1; 6)T :
2
3
42
T
Die orthogonale Projektion der beiden Vektoren ~v1 := (1; 2; 3; 4) und ~v2 := (2; 2; 1; 3)T (2 U !) auf U
ist zu bere hnen. Wir haben:
3
X
1
30
4
PU (~v1 ) = h~v1 ; ~uk i~uk = p ~u1 + 0 ~u2 + p ~u3 = (9; 10; 19; 30)T ;
7
42
2
k=1
U

PU (~v2 ) =

3
X
k=1

h~v2 ; ~uk i~uk = p3 ~u1 + p3 ~u2 + p21 ~u3 = (2; 2; 1; 3)T = ~v2 :
3
42
2

Das zweite Ergebnis uberras ht ni ht: der Vektor ~v2 liegt bereits in U .
Ist M := ~p + U  V ein aner Unterraum, so ist es sinnvoll, den Abstand eines Punktes
~v 2 V von M als kurzeste Entfernung (bezugli h einer gegebenen Metrik in V ) zwis hen ~v
und M zu erklaren.

De nition 1.68 Gegeben sei ein Praehilbertraum V und eine Untermannigfaltigkeit M :=


p~ + U von V , wobei dim U < 1. Fur ~v 2 V heie die Zahl
d(~v ; M ) := min k~v

w~ k = min k~v
~u2U

w~ 2M

~p ~uk

der Abstand des Punktes ~v 2 V von M . Gema Satz 1.66 haben wir na h (1.15)

d(~v ; M ) = k~v

~p PU (~v

~p)k = kPU ? (~v

~p)k:

Sind Mi := p~i + Ui zwei UM von V , so heie die Zahl

d(M1 ; M2 ) := u~min
kp~1 + ~u1
2U
~u2 2U2
1

~p2 ~u2 k

der Abstand von M1 und M2 . Setzen wir

W := U1 + U2 = f~u 2 V : ~u = ~u1 + ~u2 mit ~u1 2 U1 ; ~u2 2 U2 g;

so gilt

d(M1 ; M2 ) = kPW ? (p~1

p~2 )k:

BSP. (1.47) Abstand zweier Ebenen in V := R4 . Es seien in V die Vektoren ~p1 :=


(4; 1; 2; 3)T ; p~2 := (3; 2; 1; 4)T sowie ~u11 := (1; 0; 2; 1)T ; ~u12 := (1; 1; 0; 2)T und ~u21 :=
(2; 2; 3; 4)T ; ~u22 := (0; 1; 1; 1)T vorgeben, mit denen wir die beiden Ebenen Ej := p~j + Uj ; Uj :=
span f~uj1; ~uj2g; j = 1; 2, de nieren. Wir bere hnen den Abstand d(E1 ; E2 ) von E1 und E2 .
1.S hritt: Wir bestimmen eine Basis fur den Unterraum W := U1 + U2 = span f~u11 ; ~u12 ; ~u21 , ~u22 g

mit Hilfe des Gauss{Algorithmus:


2 T 3
~u11
1 0 2 1
T
6 ~
7
u12 7 )
1 1 0 2
AT := 6
T 5
4 ~
u21
2
2 3 4
T
~u22
0 1 1 1
1 0 2 1
Z2 Z1 ! Z 2
0 1 2 1
Z3 2Z1 ! Z3
0 2 1 2
0 1 1 1
9
Z2 $ Z4
1 0 2 1 = ~u1T >
>
>
>
Z3 2Z2 ! Z3
=
T
0
1
1
1
=
~
u
2
Z4 Z2 ! Z 4
) S{System, Typ (II).
0 0 1 0 = ~u3T >
>
Z4 Z3 ! Z 4
>
>
;
1
0 0 0 0
3 Z3 ! Z3
Wir haben also W = span f~u1 ; ~u2 ; ~u3g, und der Erganzungsraum wird von dem Vektor ~u4 :=
(0; 0; 0; 1)T aufgespannt.
2.S hritt: Mit Hilfe des S hmidts hen Orthonormalisierungsverfahrens formen wir nun das Vektorsystem ~u1 ; ~u2 ; ~u3; ~u4 in ein ON{System ~v1; ~v2 ; ~v3 ; ~v4 um. Man erhalt mit elementarer, aber etwas
langli her Re hnung:
2
2
2
2
13
13
13
13
1 6 0 77 ; ~v = p1 66 2 77 ; ~v = p1 66 0 77 ; ~v = p1 66 1 77 :
~v1 = p 6
64 2 5 2 64 0 5 3 34 1 5 4 34 0 5
1
1
1
1

Nun gilt

W ? = span f~v4 g = span p13 ( 1;

1; 0; 1)T ;
und tatsa hli h uberzeugt man si h sehr einfa h, dass der Vektor ~v4 senkre ht steht auf den Vektoren
~u11 ; ~u12 ; ~u21 ; ~u22 , also au h auf U1 und U2 . Es gilt nun PW ? (p~1 p~2 ) = hp~1 p~2 ; ~v4 i ~v4 = p53 ~v4 , und
hieraus resultiert s hlieli h
5
d(E1 ; E2 ) = kPW ? (p~1 p~2 )k = p :
3
Ist die Untermannigfaltigkeit M eine Hyperebene in V , gilt also H := M = p~ + U mit
dim U = dim V 1, so hat man dim U ? = 1. (Man sagt au h: Die Kodimension ist 1).
Folgli h gilt U ? = span f~ng mit einem Vektor ~0 6= ~n 2 V .
De nition 1.69 Es seien V ein Praehilbertraum mit dim V < 1, ferner U  V ein Unterraum mit dim U = dim V 1 und p~ 2 V ein fester Vektor. Dann heie jeder Vektor ~0 6= ~n 2 U ?
eine Normale an die Hyperebene H = p~ + U .
Satz 1.70 (a) Ist ~n 2 V eine Normale an die Hyperebene H = p~ + U , so gilt die Darstellung
H = f~v 2 V : h~v

p~; ~ni = 0g = f~v 2 V : h~v; ~ni = hp~; ~ni = onstg:

(b) Sind ~0 6= ~n 2 V und 2 R vorgegeben, so ist dur h


H := f~v 2 V : h~v; ~ni = 0g

(1.18)

genau eine Hyperebene in dem endli hdimensionalen Praehilbertraum V bestimmt. Die Darstellung (1.18) heit Hesses he Normalform einer Hyperebene in V .
Begrundungen: (a) Wegen U ? = span f~ng und wegen ~v ~p 2 U 8 ~v 2 H
aquivalent h~v p~; ~ni = 0 und au h umgekehrt, da U ?? = U .

(b) O ensi htli h ist

H~ :=

gilt immer ~v

~p ? ~n, oder

~n
k~nk2

+ (span f~ng)?
eine Hyperebene in V , und diese erfullt die Darstellung 1.18, d.h. H~  H . Ist andererseits ~v 2 H ,
setze
~n
w~ := ~v 2 ;
jj~njj
dann ist
hw;
~ ~ni = h~v ; ~ni = 0;
d.h. w~ 2 span f~ng? und so ~v 2 H~ .
2
Bemerkung 1.71 (a) Die Aussagen (a) und (b) in Satz 1.70 sind insbesondere ri htig, wenn
der Normalenvektor ~n dur h den Einheitsnormalenvektor (die Einheitsnormale)
~n0 := 

ersetzt wird.

~n
k~nk

(1.19)

(b) In (1.19) kann das Vorzei hen stets so gewahlt werden, dass hp~; ~n0i  0 gilt. In diesem
Fall gibt
d(~0; H ) = khp~; ~n0 i ~n0 k = hp~; ~n0 i = hp~; ~ni jj~n1 jj =  jj ~njj  0
(1.20)
(da d(w~ ; H ) = jjPU ? (w~ ~p)jj = jjhw~ ~p; ~n0i~n0 jj; denn H = P + U; U ? = span f~n0g) den
Abstand der Hyperebene H vom Ursprung ~0 an.
( ) Es seien V und ~n0 wie in (b) gegeben. Dann heie
d (w~ ; H ) := hw~ p~; ~n0 i

der orientierte Abstand des Punktes w~ 2 V von der Hyperebene H . Es gilt:


d (w~ ; H ) ist
BSP. (1.48)

die Glei hung

negativ, falls ~0 und w~ auf einer Seite von H liegen;


positiv, falls ~0 und w~ auf entgegengesetzten Seiten von H liegen:

Ebenen (= Hyperebenen) in R3 . In V

E := f~x = (x; y; z )T

:= R3 sei die Untermannigfaltigkeit E dur h

2 R3 : ax + by + z = dg; a; b; ; d 2 R fest;

gegeben. Mit Hilfe des Vektors ~n := (a; b; )T 6= ~0 erhalt man unter Verwendung des Standardskalarproduktes die folgende Darstellung:
E = f~x 2 R3

: h~x; ~ni = dg:

Dies ist gema Satz 1.70 die Hesses he Normalform einer Hyperebene in R3 . Mit einem festen
Vektor p~ 2 E folgt wegen hp~; ~ni = d nun au h
h~x ~p; ~ni = 0 , h~x; ~ni = hp~; ~ni = onst 8 ~x 2 E:
n

x-p
x

y
x

Geometris he Interpretation der Hesse{


s hen Normalform einer Ebene E in R3

Die obige Glei hung kann geometris h in der folgenden Weise interpretiert werden: Die Vektoren
~x p~ 8 ~x 2 E stehen senkre ht auf dem Vektor ~n. Die Untermannigfaltigkeit E  R3 ist eine Ebene.
Wegen ~n ? E fallt das Lot von ~0 auf E in die Ri htung ~n. Das heit, die orthogonale Projektion
von p~ auf den Unterraum span f~ng ist das Lot von ~0 auf E .

De nition 1.72 Eine Glei hung der Form ax + by + z = d mit ni ht glei hzeitig vers hwindenden Zahlen a; b; ; d 2 R heie allgemeine Ebenenglei hung einer Ebene E  R 3 . Der

Vektor

~n := (a; b; )T

heie Normalenvektor an E . Er steht senkre ht auf der Ebene E . Der Vektor

~n0 :=

~n = p 1
(a; b; )T
2
2
2
k~nk  a + b +

heie Einheitsnormale(nvektor) an E . Bei geeigneter Wahl des Vorzei hens von ~n0 gibt die
Zahl
d
= p 2 d 2 2  0 (Vorzei henwahl!)
d(~0; E ) :=
k~nk  a + b +
den Abstand der Ebene E vom Ursprung ~0 an. Einheitsnormale ~n0 zusammen mit einem
Punkt p~ 2 E oder zusammen mit dem Abstand d(~0; E ) legen die Ebene E eindeutig fest:

h~x; ~n0i = hp~; ~n0i = d(~0; E );

(Hesses he Normalform).

Zum Beispiel laute die allgemeine Ebenenglei hung einer Ebene E  R3 :

2y + 3z + 5 = 0 ,

x + 2y

3z = 5: Vorzei henwahl getro en: d > 0.

 Normalenvektor: ~n = ( 1; 2; 3)T ;
 Einheitsnormale: ~n0 = p1 ( 1; 2; 3)T ;

14

 Abstand der Ebene E vom Ursprung ~0: d(~0; E ) = p5 > 0;

14

s he Normalform: p514 = h~x; ~n0 i = p114 ( x + 2y 3z):

Hesse

BSP. (1.49)

Paramaterdarstellung von E , Hesses he Normalform von E .

Es ist klar, da beide Formen dieselbe Ebene darstellen, mussen si h beide Darstellungen au h ineinander uberfuhren lassen.
(i) Es sei die Hesses he Normalform (HNF) der Ebene E gegeben:
E := f~x 2 R3 : h~x; ~n0 i = d(~0; E )g:
Man wahle in dieser Menge drei Vektoren p~; ~x1 ; ~x2 so, dass die beiden Vektoren ~u1 := ~x1 p~ und
~u2 := ~x2 ~p LU sind. In diesem Falle resultiert bereits die Parameterdarstellung
E = f~x 2 R3 : ~x = ~p + 1 ~u1 + 2 ~u2 ; 1 ; 2 2 Rg:
(1.21)
Man vers ha t si h die drei gesu hten Vektoren ~p; ~x1 ; ~x2 dur h Einsetzen von Zahlen x; y; z in die
HNF. Bei einer Ebene E in "allgemeiner" Lage (das heit, E liegt ni ht parallel zu einer der drei
Koordinatenebenen), konnen in der Regel dur h Einsetzen der drei Zahlentupel (x = 0; y = 1); (y =

0; z = 1); (z = 0; x = 1) in die HNF die drei gesu hten Vektoren bestimmt werden. Wir betra hten
als Beispiel die Ebene E aus BSP. 1.48 mit der HNF
h~x; ~n0i = p5 = p1 ( x + 2y 3z) , x + 2y 3z = 5:
14 14
Wir verwenden die letzte Glei hung und erhalten
)
(x = 0; y = 1) ) p~ = (0; 1; 1)T ; 9
>
T;
=
~
u
=(
8
;
1
;
2)
1
(y = 0; z = 1) ) ~x1 = ( 8; 0; 1)T ; > ) ~u =(1; 2; 1)T ;
LU:
;
2
T
(z = 0; x = 1) ) ~x = (1; 3; 0) ;
2

Die gesu hte Parameterdarstellung lautet nun


E = f~x 2 R3 : ~x = (0; 1;

1)T + 1 ( 8; 1; 2)T + 2 (1; 2; 1)T ; 1 ; 2 2 Rg.

(ii) Gegeben sei nun eine Parameterdarstellung (1.21) der Ebene E . Fur die Darstellung von E in
der Hesses hen Normalform h~x p~; ~n0i = 0 verfugen wir bereits uber den Aufhangepunkt p~, den wir
(1.21) entnehmen. Die Einheitsnormale ~n0 muss nun so bestimmt werden, dass die Orthogonalitatsrelationen ~u1 ? ~n0 ? ~u2 gelten. Zur Losung dieser Aufgabe fuhren wir ein spezielles Produkt ein,
wel hes zwei Vektoren ~x; ~y 2 R3 einen Vektor ~z 2 R3 mit ~x ? ~z ? ~y zuordnet.
De nition 1.73 In der Standardbasis des R 3 seien zwei Vektoren ~x := (x1 ; x2 ; x3 )T 2 R 3 und
~y := (y1 ; y2; y3 )T 2 R 3 gegeben. Dann heie der dur h die Vors hrift
2

~z := ~x  ~y := 4

x2 y3
x3 y1
x1 y2

x 3 y2
x 1 y3
x 2 y1

3
5

(1.22)

de nierte Vektor ~z 2 R 3 das Vektorprodukt (Kreuzprodukt) der Vektoren ~x und ~y.


Zum Beispiel: Das Vektorprodukt der beiden Vektoren ~u1 := ( 8; 1; 2)T und ~u2 := (1; 2; 1)T
ist der Vektor ~u1  ~u2 = ( 5; 10; 15)T :

Bea hte: Das Vektorprodukt ist nur im Euklidis hen Vektorraum R 3 erklart!

Satz 1.74 Bezugli h des Standardskalarproduktes steht der Vektor ~x  ~y 2 R 3 senkre ht auf
beiden Vektoren ~x 2 R 3 und ~y 2 R 3 :
~x ? ~x  ~y ? ~y:
Begrundung: O enbar gilt na h De nition

h~x; ~x  ~yi = x1x2 y3 x1x3 y2 + x2x3 y1 x2x1 y3 + x3x1y2 x3x2y1 = 0;


und mit ahnli her Re hnung erhalt man au h h~y; ~x  ~yi = 0.
2
Wir folgern aus diesem Satz, dass der oben bere hnete Vektor ~n := ~u1  ~u2 = ( 5; 10; 15)T
die geforderten Orthogonalitatsrelationen ~u1 ? ~n ? ~u2 erfullt. Dur h Normierung erhalten wir die

Einheitsnormale und daraus s hlieli h die gesu hte Hesses he Normalform (p~ = (0; 1; 1)T ):
Einheitsnormale: ~n0 = p114 ( 1; 2; 3)T ;

HNF: h~x; ~n0 i = hp~; ~n0 i = p514 :

BSP. (1.50)

Geraden G.

Lotfupunkt und Abstand eines Punktes w~ 2 R3 von einer Ebene E bzw. einer

Wird das Lot von einem Punkt P 2 A3 mit Ortsvektor w~ 2 R3 auf eine Ebene E gefallt, so gilt fur
die Lange d(w;~ E ) des Lotes (das ist der Abstand des Punktes P von der Ebene E ):
d (w;
~ E ) = hw;
~ ~n0 i d(~0; E ):
P
w
d*(w,E)
n0
E

d(0,E)

Abstand des Punktes w~ von der Ebene E

Hier sind die Einheitsnormale ~n0 und der Abstand d(~0; E ) der Ebene E vom Ursprung ~0 aus der
Hesses hen Normalform h~x; ~n0 i = d(~0; E ) der Ebene E zu entnehmen.
Bea hte: d (w;
~ E ) ist negativ, wenn
Ebene E liegen, vgl. obige Skizze!

die Punkte ~0 und w~ auf der glei hen Seite der

Der Lotfupunkt mit dem Ortsvektor ~` liegt auf der Geraden G := f~x 2 R3 : ~x = w~ +  ~n0 ;  2 Rg:
Er bildet also die S hnittmannigfaltigkeit G \ E :
~` 2 G ) ~` = w~ +  ~n0 ;
~` 2 E ) h~`; ~n0 i = d(~0; E )

) h~`; ~n0i = hw;


~ ~n0 i +  = d(~0; E ):

Dur h Au osen na h  resultiert  = d(~0; E ) hw;


~ ~n0 i =

d (w;
~ E ), und somit

~` = w~ d (w;
~ E ) ~n0 :
Zum Beispiel seien die Ebene E := f~x 2 R3 : 2x y +2z +5 = 0g und der Punkt w~ := (1; 2; 3)T 2 R3
gegeben. Dann ist ~n0 = 13 ( 2; 1; 2)T die Einheitsnormale, und es resultiert die HNF h~x; ~n0 i = 35 =:
d(~0; E ). Wir erhalten den Abstand d (w;
~ E ) = hw;
~ ~n0 i d(~0; E ) = 63 35 = 113 des Punktes w~ von
E . Hiermit resultiert s hlieli h der Lotfupunktvektor

~` = w~ d (w;
~ E ) ~n0 = (1; 2; 3)T

+ 119 ( 2; 1; 2)T = 19 ( 13; 29; 5)T :

Um den Abstand des Punktes w~ von einer Geraden G  R3 zu bere hnen, verwenden wir ebenfalls
den Lotfupunkt des Lotes von w~ auf G.

w P
p

d(w,G)

u
l

Abstand und Lotfupunkt eines Punktes


w~ bezugli h einer Geraden G

Es sei ~` der Ortsvektor des Lotfupunktes von w~ 2 R3 auf der Geraden G := f~x 2 R3 : ~x =
p~ +  ~u;  2 Rg. Wegen w~ ~` ? ~u ist also ~` eindeutig bestimmt dur h die zwei Bedingungen ~` = p~ +  ~u
und hw~ ~`; ~ui = 0. Einsetzen der ersten Bedingung in die zweite fuhrt auf hw~ p~; ~ui  k~uk2 = 0,
und hieraus kann  bere hnet werden. Es folgt:
Lotfupunkt: ~` = p~ + hw~ ~p2; ~ui ~u,

k~uk

Abstand: d(w;
~ G) = kw~ ~`k.

Zum Beispiel seien die Gerade G := f~x 2 R3 : ~x = p~ +  ~u;  2 Rg mit p~ := (1; 4; 3)T und
~u := (1; 7; 7)T sowie der Punkt w~ := (1; 2; 3)T gegeben. Dann gilt k~uk2 = 99; hw~ p~; ~ui = 42, und
somit ~` = (1; 4; 3)T + 4299 (1; 7; 7)T = 331 (47; 34; 1)T . Wir erhalten den folgenden Abstand des
Punktes w~ von der Geraden G:

p
10 p22:
d(w;
~ G) = kw~ ~`k = 332 4950 = 11

BSP. (1.51)

S hnittgerade zweier Ebenen E1 und E2 .


Die Bestimmung der S hnittmannigfaltigkeit E1 \ E2 fur zwei Ebenen E1; E2 in R3 wird sehr einfa h,
wenn fur E1 ; E2 allgemeine Ebenenglei hungen oder Hesses he Normalformen vorliegen:

Ej := f~x 2 R3 : aj x + bj y + j z = dj g; j = 1; 2:

Voraussetzung fur E1 \ E2 6= ; ist die Bedingung E1 6 kE2 . Das heit, die beiden Normalenvektoren
~n1 = (a1 ; b1 ; 1 )T und ~n2 = (a2 ; b2 ; 2 )T mussen linear unabhangig sein. In diesem Falle gilt fur die
S hnittgerade E1 \ E2 = G := f~x 2 R3 : ~x = p~ +  ~u;  2 R g die Bedingung ~n1 ? G p ? ~n2. Die
Ri htung ~u von G erhalt man somit gema
~u = ~n1  ~n2 .

Den Aufhangepunkt p~ = (x; y; z)T von G erhalt man dur h Bestimmen einer speziellen Losung des
linearen Glei hungssystems
a1 x + b1 y + 1 z = d1 ;
a2 x + b2 y + 2 z = d2 ;
zum Beipiel dur h Wahl von x = 0 oder y = 0 oder z = 0.
Als Zahlenbeispiel seien die Ebenen E1 := f~x 2 R3 : x + y z = 0g und E2 := f~x 2 R3 : 2y z = 1g
vorgelegt. Mit ~n1 = (1; 1; 1)T und ~n2 = (0; 2; 1)T resultiert die Ri htung
~u = ~n1  ~n2 = (1; 1; 2)T ;

wahrend aus dem linearen Glei hungssystem


x +

= 0;
= 1
dur h Wahl von x = 0 die spezielle Losung p~ = (0; 1; 1)T ermittelt werden kann. Also folgt
y
2y

z
z

E1 \ E2 = f~x 2 R3 : ~x = (0; 1; 1)T

+  (1; 1; 2)T ;  2 R g:

BSP. (1.52) Projektion eines Vektors w~ 2 V auf eine Hyperebene H  V in vorgegebener


Projektionsri htung ~u 2 V .
Es sei V ein endli hdimensionaler Praehilbertraum, in wel hem eine Hyperebene H in der Hesses hen Normalform H = f~v 2 V : h~v ; ~ni = 0g vorliege. Wir geben Vektoren ~u; w
~ 2 V vor und
wollen die Projektion P~u(w~ ) von w~ in Ri htung ~u auf die Hyperebene H bestimmen.
u

Pu(w)
u

Projektion des Punktes w~ in Ri htung


~u auf eine Hyperebene H

Die Projektion P~u(w~ ) muss die zwei Bedingungen (i) P~u (w~ ) = w~ +  ~u und (ii) P~u(w~ ) 2 H erfullen.
Setzt man also (i) in die HNF der Hyperebene H ein, so ndet man hw;
~ ~ni +  h~u; ~ni = . Falls ~u 6 kH
ist, so gilt h~u; ~ni 6= 0, und es resultiert:
P~u (w~ ) = w~
Sonderfall: Orthogonale Projektion.
Bei orthogonaler Projektion von w~ auf H

PH (w~ ) = w~

hw;
~ ~ni
h~u; ~ni ~u:

haben wir ~u = ~n zu setzen. Wir erhalten

hw;
~ ~ni
~ ~n0 i d(~0; H ) ~n0 ;
k~nk2 ~n = w~ [ hw;

und dies ist wiederum der Lotfupunkt des Lotes von w~ auf H . Die Lange des Lotes betragt
1 jhw;
d(w;
~ H ) = kw~ PH (w~ )k =
~ ~ni j:
k~nk

Kapitel 2
Reelle Zahlen
2.1 Informelle Vorbemerkungen uber reelle Zahlen
Der Umgang mit reellen Zahlen, insbesondere ihre Verknupfung dur h die vier Grundre henarten, darf als vertraut vorausgesetzt werden. Jeder hat dur h einfa he Aufgaben des Alltags
praktis he Erfahrungen mit reellen Zahlen gewonnen, und zwar im Umgang mit Geld, dur h
Messen, dur h Wagen, im Dialog mit dem Computer, u.a.m. Ebenso vorausgesetzt werden
konnen die Bedeutungen der Ordnungssymbole "<","" sowie der Dezimalbru he.
Was sind reelle Zahlen?
Auf den tieferen Sinn dieser Frage stot man bei dem Versu h, eine widerspru hsfreie Antwort
zu geben. Eine spontane Antwort fallt gar ni ht lei ht; sie zu geben, vers hieben wir auf einen
spateren Zeitpunkt. Vorab bedienen wir uns eines beliebten Hilfsmittels zur Visualisierung
der reellen Zahlen, namli h der Zahlengeraden:
Q
s
x'

O
e
0

E
e
1

P
x

e s

Die Zahlengerade

Auf einer Geraden werden beliebig ein Nullpunkt O und re hts davon ein Einheitspunkt E
festgelegt. Jeder weitere Punkt P auf der Geraden reprasentiert genau eine reelle Zahl x. Ihr
Wert ist das Verhaltnis der Stre ken OP zu OE . Insbesondere reprasentieren der Punkt O
die Zahl 0 und der Punkt E die Zahl 1. Punkten Q links von O werden negative Zahlen x0
zugeordnet. Mit dieser Konstruktion sei vorlau g die folgende Bezei hnung vereinbart:
R

:= fx : x = Wert des Punktes P auf der Zahlengeradeng:

Die ganzzahligen Vielfa hen der Stre ke OE re hts von O reprasentieren in R die Teilmenge
der naturli hen Zahlen
N := f1; 2; 3; : : :g:
63

Praktis h { und hau g verwendet { ist die Bezei hnung N 0 := f0; 1; 2; 3 : : :g, aber 0 ist keine
naturli he Zahl.
Addition "+" und Multiplikation "" sind in N uneinges hrankt dur hfuhrbar: Summe und Produkt zweier naturli her Zahlen sind wieder eine
naturli he Zahl. Das heit, die Menge N ist unter den beiden algebrais hen
Operationen "+" und "" abges hlossen.
Aber: Subtraktion und Division sind nur man hmal in N dur hfuhrbar. Etwas genauer kann

man N (axiomatis h zugrunde legen) und daraus Z konstruieren (um immer subtrahieren zu
konnen).

Es gibt keine naturli hen Zahlen x; y 2 N mit 9 + x = 4 bzw. 20  y = 4. Wie jeder


wei, hat die erste Glei hung die Losung x = 5 2= N , die zweite die Losung y = 204 2= N .
BSP. (2.1)

Abhilfe s ha t man dur h Erweiterung der Menge N . Die Subtraktion wird uneinges hrankt
ausfuhrbar, wenn N zur Menge der ganzen Zahlen erweitert wird:
Z :=

f: : : ; 3; 2; 1; 0; 1; 2; 3 : : :g:

 Z mit e hter Inklusion sowie


8 a; b 2 Z 9! x 2 Z : a + x = b; (x := b a):

Merke: Es gilt N

Das heit, die Subtraktion ist in Z uneinges hrankt dur hfuhrbar.


Die eindeutige Losbarkeit ist aquivalent mit:

9! neutrales Element 0 2 Z bzgl. +


8 a 2 Z 9! inverses Element a 2 Z bzgl. + :
Die Division ist in Z im Allgemeinen nur mit Rest dur hfuhrbar. Die Glei hung
a  x = b; 0 6= a; b 2 Z;

hat nur man hmal eine Losung in Z; zum Beispiel resultiert mit a = 4; b = 20 die Losung
x = 5 2 Z. Hingegen erhalt man fur a = 20; b = 4 die Losung x = 204 2= Z. Es genugt,
si h auf Faktoren a 2 N zu bes hranken. Andernfalls ersetze man x dur h y := x. Stets gilt
(zum Beweis vgl. Satz 2.28):

8 a 2 N 8 b 2 Z 9! x 2 Z 9! r 2 Z; 0  r < a : a  x + r = b:
Die Zahl r heit Divisionsrest. Wir haben zum Beispiel 3  5 + 2 = 17 (oder glei hbedeutend
17 : 3 = 5 Rest 2) sowie 4  5 + 3 = 17 (oder glei hbedeutend ( 17) : 4 = 5 Rest 3).
Diese unpraktis he Division mit Rest erubrigt si h, wenn Z zur Menge der rationalen Zahlen
erweitert wird:


:= x = p : p 2 Z und q 2 N := Bru he bzw. Menge der periodis hen Dezimalbru he:


q

Bemerkung 2.1 Die zweite Bezei hnung erklart si h dur h: periodis her Dezimalbru h r
ist vom allgemeinen Typ
r := r|0 ; r1 r{z
   dn} :
2    rm} |d1 d2{z
Vorperiode

Periode

Die genaue Bedeutung fur Periode 6= 0 wird unten erklart. Gilt d1 = d2 =    = dn = 0,


so liegt ein abbre hender Dezimalbru h vor (oder ein periodis her Dezimalbru h mit der
Periode Null).
2
Wir motivieren die Glei hheit der beiden obigen De nitionen von Q .
(a) Das ubli he Divisionsverfahren liefert zu jeder Zahl r = pq vom angegebenen Typ einen
periodis hen Dezimalbru h, zum Beispiel
3
118
2 Q:
=
(
3)
:
8
=
0
; 375 = 0; 3750 2 Q ;
8
55 = 118 : 55 = 2; 145
(b) Unter Verwendung der Identitat
d1  10n 1 + d2  10n 2 +    + dn
0; d1d2    dn =
n

10

kann umgekehrt jeder periodis he Dezimalbru h r := r0; r1r2    rk d1d2    dn in der Form
r = pq mit p 2 Z und q 2 N dargestellt werden, zum Beispiel
0; 375 = 375 = 3  125 = 3 2 Q ;
1000 8  125 8


1
45
n=2 1
21 +
= 21 + 5
2; 145 = 2; 1 + 0; 045 = (21 + 0; 45) =
10
10
99
10 110
236 = 118 2 Q :
= 110 55
Die Identitat gilt, da man unter einem periodis hen Dezimalbru h folgendes versteht:
0; d1 : : : dn = d1 10 1 + : : : + dn10 n + d1 10 n 1 + : : : + dn10 2n : : :
= d1 (10 1 + 10 n 1 + : : :) +
...
+dn(10 n + 10 n n + : : :)
= d1 10 1(1 + 10 n + 10 2n + : : :) +
...
+dn10 n(1 + 10 n + 10 2n + : : :)
n )0 + (10 n )1 + : : : + (10 n )l : : : )
= d1 10 1 + : : : + dn10 n((10
|
{z
}
=

n
X
i=1

=:

di 10 i ;

mit := (q0 + q1 + : : : + ql + : : :) fur q := 10 n , d.h. 0 < q < 1


Wie ist zu verstehen als \unendli he" Summe? Man zeigt per Induktion:

k
X

ql =

1 qk+1 :
1 q

l=0
p
2
q)
1
q
k=1:
1 + q = 1 q = (1 q1)(1+
=1+q :
q
kP
+1
p
k+1
= 1 1 q (1 qk+1 + qk+1 qk+2) :
k !k+1:
q l = 1 1q q + q k+1
l=0
Fur k ! 1 wird qk+1 \beliebig" klein (8 " > 0 9 K0 2 N 8 k  K0 : jqk+1j  "),

ges hrieben:

q k+1 ! 0 fur k ! 1;

und daraus (genauer 2. Semester)


k
P
ql
l=0

also

= 1 1qkq ! 1 1 q fur k ! 1;
+1

= 1 1 q =:

Pn di10

1
P
ql
k=0

und so 0; d1 : : : dn = i 1 10
(erklart au h das \Geheimnis" 0; 9 = 1; 0).
=1

Pn di 10n

= i 10n 1

=1

Bemerkung 2.2 (a) Die Periodizitat eines Bru hes hangt ni ht von der Wahl des Zi ernsystems ab (also ni ht davon, ob der Bru h im Dual{, Oktal{, Dezimal{, Hexagesimal{ usw. System dargestellt wird).
(b) Es gilt Z  Q , da die Zahl p 2 Z mit dem Bru h p1 2 Q identi ziert werden kann.
( ) Die pq {Darstellung ist ni ht eindeutig, zum Beispiel gilt

1 = 2 = 3 = :
3 6 9
Eindeutigkeit wird erst dur h die folgende Forderung errei ht:


:= r = pq : p 2 Z; q 2 N und p; q teilerfremd :

(d) Au h die Darstellung periodis her Dezimalbru he ist ni ht eindeutig; zum Beispiel gilt
3; 14159 = 3; 14160:
In Q sind jetzt die vier Grundre henarten uneinges hrankt dur hfuhrbar.
Gegeben seien rationale Zahlen rj := pj =qj 2 Q ; j = 1; 2: Die Glei hung
r1 + x = r2 hat die eindeutige Losung
pq pq
x= 2 1 1 2
q1 q2

2 Q:

Die Glei hung r1  x = r2 hat stets dann eine eindeutige Losung x 2 Q , wenn
r1 6= 0 gilt. Diese Losung lautet
pq
x = 2 1 2 Q:
p1 q2

Die zweite Eigens haft ist aquivalent zu:

9! neutrales Element 1 bzgl. 


8 x 2 Q ; x 6= 09! inverses Element x1 2 Q :
Bemerkung 2.3 (a) Fur r1 = 0 ist die Glei hung r1  x = r2 entweder widerspru hsvoll
(r2 6= 0) oder fur alle x 2 Q erfullt (r2 = 0). Daher fordert man:
Division dur h Null ist verboten!

Es existiert eine (vollstandige) Ordnung auf Q , d.h. fur x; y 2 Q gilt x  y oder y  x.


(b) Zwis hen zwei vers hiedenen rationalen Zahlen r; s liegen stets unendli h viele weitere
rationale Zahlen, zum Beispiel die Zahlen
r1 :=

r+s

; r2 :=
2

r + r1

r + r2



; r3 :=
2
r3 r2

; : : : ; rj +1 :=

r + rj

;:::

s
r1

Wir werden bald die Di htheit von Q in der Menge der reellen Zahlen begrunden. Mit der
obigen Konstruktion zeigt man dana h sogar, dass in jedem Abs hnitt positiver Lange der
Zahlengeraden beliebig viele Punkte aus Q liegen. (Negation: Es gibt keinen Abs hnitt positiver Lange der Zahlengeraden, in dem keine Zahl aus Q existiert.) Unter dem Ein uss
der pythagorais hen S hule waren die antiken Grie hen lange der Meinung, das Problem der
Langenmessung sei stets in Q losbar: Eine vorgegebene Einheitsstre ke OE wird derart in q
glei he Teile zerlegt, dass ein so erhaltenes Teilstu k genau p{mal in eine zu messende Stre ke
OP hineinpasst. Die Lange OP ist dann die rationale Zahl x = pq . Es war fur die Grie hen ein
tiefer S ho k, als ein Mitglied eben jener pythagorais hen S hule die Entde kung ma hte, dass
die "rationale" Zahlengerade Lo her aufweist. Es gibt Punkte auf der Zahlengeraden, denen
keine rationale Zahl zugeordnet ist:
Satz 2.4 Die Glei hung x  x = 2 hat keine Losung x 2 Q .
Begrundung:

Diese wird indirekt gegeben. Angenommen, es existiere ein sol hes x = pq 2 Q mit

teilerfremden p; q 2 N

 2

) x  x = pq
) 2 teilt p

=2 )

) 2 teilt q

Also ist die Behauptung wahr.

p2 = 2q2
4 teilt p2 = 2q2

) x = pq = 22pq0
0

) 2 teilt p2 = p  p
) 2 teilt q2
) p und q ni ht teilerfremd W :
2

Geometris he Darstellung der Zahl

Die Diagonale x des Einheitsquadrates genugt der Glei hungp x  x = 2 (Satz des Pythagoras). Der Endpunkt P , der bei Drehung der Diagonalen x = 2 in die Zahlengerade entsteht,
ist kein rationaler Punkt! (Der frevelhafte Entde ker dieser Ungeheuerli hkeit soll zur Strafe
von seinen pythagorais hen Genossen wahrend einer Seefahrt ins Meer geworfen worden sein.
Wir sind heute mehr denn je bere htigt zu fragen, ob hier das Strafma ni ht das Gesetz der
Verhaltnismaigkeit gesprengt hat. Jeder der handelsubli hen Computer arbeitet auss hlieli h mit einer Arithmetik auf der Basis der rationalen Zahlen. Wozu also no h mehr Zahlen?
Der Glaube an die fast unbegrenzten Mogli hkeiten moderner Computer bedarf wohl keiner
ideologis hen Untermauerung mehr. Oder?)
Ein weiterer Beweis fur die Lu kenhaftigkeit der "rationalen" Zahlengeraden ist die Existenz
ni htperiodis her Dezimalbru he, wie zum Beispiel
x := 0; 1 01 001 0001 00001 : : ::

Was ist zu verstehen unter


x = 0; d1 d2 : : : dl : : :

mit dl 2 f0; : : : ; 9g?

(und damit unter r0 ; r1 : : : rm d1 : : : ; dl : : : mit r0 2 Z; ri 2 f0; : : : ; 9g; i = 1; : : : ; m:)


Wir mussen analog zu oben
1
X
l=1

dur h Na hweis von

dl 10

einen Sinn zuordnen,

(fur dl = 1 8 l 2 N s hon ges hehen)


k
X
l=1

fur ein 2 R :

dl 10

! fur k ! 1

De nition 2.5 Jeder ni htperiodis he Dezimalbru h heit irrationale Zahl. Die Vereinigungsmenge von rationalen und irrationalen Zahlen bildet die Menge der reellen Zahlen:
R

:= Menge der Dezimalbru he:

Bemerkung 2.6 (a) Wir haben na h Konstruktion N  Z  Q  R , jeweils mit e hter


Inklusion.
(b) In der obigen De nition der reellen Zahlen sind no h folgende Punkte zu klaren.

 Abhangigkeit von der Dezimaldarstellung?


 Re hengesetze fur irrationale Zahlen?
 Ist die Glei hung x  x = 2 in R wirkli h losbar, das heit, wird nun die "Lu kenlosigkeit"

der Zahlengeraden gewahrleistet? Die ni ht beweisbare Antwort lautet "JA". Sie wird in
der Mathematik als Axiom postuliert, und zwar als sogenanntes Vollstandigkeitsaxiom.
Wir kommen in Abs hnitt 2.6 darauf zuru k.
2

2.2 Grundbegri e der Algebra


2.2.1

Relationen und Abbildungen

Es ist eine elementare Tatsa he, dass je zwei naturli he Zahlen x; y 2 N in der Relation x  y
zueinander stehen konnen (oder ni ht). Somit ist dur h
R := f(x; y ) 2 N  N : x  y g

eine Teilmenge von N  N sinnvoll erklart. Man nennt R eine Relation auf N . Allgemeiner
gelte:
De nition 2.7 Eine Korrespondenz R  M  M heie eine Relation auf der Menge M .
Anstelle von (x; y ) 2 R s hreibt man xRy (oder man verwendet statt R ein anderes Zei hen).
BSP. (2.2)

Na hfolgend bezei hnen R1 und R2 Relationen auf der Menge N der naturli hen

Zahlen.
(i) xR1y bedeute x < y:
R1 = f(x; y) 2 N  N : x < yg = f(1; 2); (1; 3); (1; 4); : : : ; (2; 3); (2; 4); (2; 5); : : : g:
(ii) xR2y bedeute 2j(x + y) (in Worten: 2 teilt x + y):
R2 = f(x; y) 2 N  N : 2j(x + y)g = f(1; 1); (1; 3); (1; 5); : : : ; (2; 2); (2; 4); (2; 6); : : : g:
De nition 2.8 Eine Relation R auf einer Menge M heie

(a) re exiv :, es gilt xRx 8 x 2 M ,


(b) symmetris h :, xRy impliziert stets yRx,
( ) antisymmetris h :, xRy und yRx gelten genau dann, wenn x = y,
(d) transitiv :, xRy und yRz implizieren xRz.
Es ist lei ht na hvollziehbar, dass die Relation = auf der Menge N die Eigens haften (a){
(d) hat. Hingegen hat die Relation  auf N die Eigens haften (a), ( ){(d), wahrend die
Symmetriebedingung (b) ni ht gilt.

De nition 2.9 Eine Relation R auf einer Menge M heie



 Aquivalenzrelation
:, R ist re exiv, symmetris h und transitiv,

Ordnungsrelation :, R ist re exiv, antisymmetris h und transitiv. Das Paar (M; R)


heie geordnete Menge. Gilt fur alle x; y 2 M xRy oder yRx; so heie (M; R) vollstandig (oder linear) geordnet.
(a) Die Relation R2 aus BSP. 2.2 ist eine A quivalenzrelation. Re exivitat und Symmetrie sind
klar. { Transitivitat: Gelten xR2 y und yR2z, so sind x + y und y + z dur h 2 teilbar, und
somit au h x + z = (x + y) (y + z) + 2z.
(b) Fur M := N ; Z; Q oder R ist das Paar (M; ) vollstandig geordnet.

( ) Die Menge N der naturli hen Zahlen, versehen mit der Relation
R := f(x; y ) 2 N  N : xjy g
ist eine geordnete Menge; aber R ist keine vollstandige Ordnung. Es gilt weder 4j5 no h 5j4
(zum Beispiel).
BSP. (2.3)

xjy , y = x; 2 N
yjx , x = y; 2 N
) x = y = x ) = 1 ) = = 1

(antisymmetris h)
xjy; yjz ) y = x; z = y ) z = x ) xjz

(d) Fur eine ni htleere Menge


setzen wir
R := f(A; B ) 2 P (
)  P (
) : A  B g;
das heit, R ist die Inklusionsrelation. Das Paar (P (
); ) ist wiederum eine geordnete Menge,
die i.a. aber ni ht vollstandig geordnet ist. So gilt z.B. in P (f1; 3; 5g) weder f1; 3g  f1; 5g no h
f1; 5g  f1; 3g.
Eine A quivalenzrelation R auf einer ni htleeren Menge M induziert stets eine Zerfallung (Partition) von M in Klassen aquivalenter Elemente.
De nition 2.10 (a) Eine Partition von M ist
S ein System fAi : i 2 I g von ni htleeren,
paarweise disjunkten Teilmengen Ai  M mit Ai = M .
(b) Die Menge

i2I

[xR := fy 2 M : xRyg  M


aller zu x 2 M aquivalenten Elemente von M heie die Aquivalenzklasse
von x, und x nennt
man einen Vertreter von [xR . Hau g s hreibt man einfa her [x anstelle von [xR , wenn eine

Verwe hslung der Aquivalenzrelation
R ausges hlossen ist.
Dass jede A quivalenzrelation R auf M stets eine Partition von M induziert, liegt an folgenden

Eigens haften.

Satz 2.11 Sei R eine Aquivalenzrelation
auf M . Dann gilt fur alle x; y 2 M :
S
(a) x 2 [xR und somit M = [xR ,
x2M

(b) [xR \ [yR 6= ; , [xR = [yR.

 quivalenzklassen.
Begrundungen: (a) Diese Aussage gilt auf Grund der De nition der A
(b) Gilt [x = [y, so ist o enbar [x \ [y = [x 6= ;. Sei andererseits z 2 [x \ [y 6= ;. Dann folgt zRx
sowie zRy, also [z = [x und [z = [y.
z 2 [x ) zRx
w 2 [z ) wRz
w 2 [x ) wRx

() xRz)

) wRx ) w 2 [x [z = [x
) wRz ) w 2 [z

(Klar, w 2 [z bedeutet wRz, und somit au h wRx, da R transitiv ist. Dies liefert w 2 [x, also
[z  [x. Genauso zeigt man [x  [z.)
2
Bemerkung 2.12 Man nennt die Menge aller A quivalenzklassen von M unter der A quivalenzrelation R au h die Quotientenmenge von R:
M=R := f[xR : x 2 M g:
BSP. (2.4)

Wir betra hten auf N die A quivalenzrelation R2 aus BSP. (2.2). Fur jedes x 2 N ist

[xR := fy 2 N : 2j(x + y)g;


und man erhalt hier genau zwei vers hiedene A quivalenzklassen, namli h
[1R = fx 2 N : 2j(x + 1)g = f1; 3; 5; : : :g = [3 = [5 = : : : ;
[2R = fx 2 N : 2j(x + 2)g = f2; 4; 6; : : :g = [4 = [6 = : : : :
2

Bei einer De nition unter Benutzung von Vertretern einer A quivalenzklasse ist also auf Wohlde niton zu a hten!
Wie wir s hon festgestellt haben, ist (N ; ) eine vollstandig geordnete Menge, und es ist uns
intuitiv klar, dass sie ein kleinstes Element hat, namli h das Element 1.
De nition 2.13 Es sei (M; ) eine vollstandig geordnete Menge, und es sei A  M gegeben.
(a) x 2 A heie kleinstes Element oder Minimum von A (in Zei hen: x = min(A)) :, es
gilt x  y 8 y 2 A.
(b) x 2 A heie grotes Element oder Maximum von A (in Zei hen: x = max(A)) :, es
gilt y  x 8 y 2 A.
(Wegen der Antisymmetrie der Ordnungsrelation kann es in (a) bzw. (b) ho hstens ein sol hes
x 2 A geben.)
BSP. (2.5)

Elemente.

Es gilt min(N 0 ) = 0; die Mengen Z; Q; R haben keine kleinsten und keine groten

Das wi htigste Hilfsmittel zur Untersu hung von Mengenstrukturen sind die Funktionen oder
Abbildungen von einer Menge M in eine zweite Menge N . Wir werden in Abs hnitt 4.2
ausfuhrli her auf diesen Begri eingehen und bes hranken uns hier nur auf die Erlauterung
der Grundtatsa hen.

De nition 2.14 Es seien M und N Mengen, und es sei f  M  N eine Korrespondenz. f


heie eine Abbildung (oder Funktion oder Zuordnung) von M in N :,

8 x 2 M 9! y 2 N : (x; y) 2 f:

(A)

Es soll nun stets die ubli he S hreibweise verwendet werden, namli h

f :M

!N

anstelle von f

 M  N; y = f (x)

anstelle von (x; y ) 2 f:

Das Element y = f (x) heie Bild von x unter f , und das Element x heie Urbild von y .

Bemerkung 2.15 (a) Wir bezei hnen mit

Abb (M; N ) := ff : M ! N : f ist Funktiong


die Menge aller Abbildungen (oder den Funktionenraum) von M na h N .
(b) Fur f; g 2 Abb (M; N ) gilt f = g genau dann, wenn f (x) = g(x) 8 x 2 M .
( ) Die folgenden Varianten fur Funktionsbezei hnungen sollen exemplaris h aufgezeigt werden:
f : R ! R mit f (x) := x2 8 x 2 R ;
oder : x 7! x2;
oder : Funktion x2 :
f
Statt f : M ! N s hreibt man au h M !
N.

De nition 2.16 Gegeben seien Mengen M; N und eine Funktion f 2 Abb (M; N ).
(a) Fur A  M heie
f (A) :=

[
x2A

f (x) = fy 2 N : y = f (x) und x 2 Ag

die Bildmenge von A unter f . Man setzt Bild f := f (M ).


(b) Fur B  Bild f heie

f 1 (B ) := fx 2 M : f (x) 2 B g
die Urbildmenge von B bezugli h f .
( ) Die Funktion f heie

surjektiv (oder Abbildung auf), wenn gilt: f (M ) = N . Dies ist genau dann der Fall,
wenn
8 y 2 N 9 x 2 M : y = f (x);

injektiv (oder eineindeutige Abbildung), wenn gilt:

x1 ; x2 2 M und f (x1 ) = f (x2 )

) x 1 = x2 :

In Worten: Jedes Bild y 2 f (M ) hat genau ein Urbild x 2 M;

bijektiv (oder eineindeutige Abbildung auf), wenn f injektiv und surjektiv ist.

(d) Ist f bijektiv, so wird dur h


f 1 := f(y; x) 2 N  M : y = f (x) und y 2 N g
die Umkehrabbildung f 1 von f de niert, und wir s hreiben wieder x = f 1 (y ) anstelle von
(y; x) 2 f 1. Es ist f 1 : N ! M ebenfalls bijektiv, und es gilt (f 1) 1 = f .

BSP. (2.6) (a) Die Abbildung IdM : M ! M mit IdM (x) := x 8 x 2 M heie Identitat auf
M , wobei man hau g einfa her Id oder 1 s hreibt. Diese ist bijektiv.
(b) Die Abbildung iA : A ! M mit iA (x) := x 8 x 2 A heie Einbettung von A  M in M . Sie ist
injektiv.
( ) Die Eins hrankung f jA : A ! N von f 2 Abb(M; N ) auf A  M mit f jA(x) := f (x) 8 x 2 A
ist injektiv, falls f injektiv ist.
(d) Die Fortsetzung f : M ! N einer Funktion g 2 Abb(A; N ) ist de niert dur h f jA := g.
2.2.2

Algebrais he Operationen

Wir haben bereits in Abs hnitt 2.1 festgestellt, dass auf der Menge N der naturli hen Zahlen
die Re henoperationen des Addierens und des Multiplizierens uneinges hrankt dur hfuhrbar
sind, ohne die Menge N zu verlassen. Die Operationen + und  sind Abbildungen des artesis hen Produkts N  N in N :
+ : N  N ! N mit (a; b) 7! a + b;

 : N  N ! N mit (a; b) 7! a  b:

(2.1)

Allgemeiner haben wir:


De nition 2.17 Es sei M eine ni htleere Menge. Eine Abbildung

 : M  M ! M; (a; b) 7! a  b 8 a; b 2 M
heie eine binare algebrais he Operation (oder Verknupfung) auf M .

BSP. (2.7) (a) Wir ersetzen in (2.1) die Menge N dur h M := Z oder M := Q oder M := R.
Dann sind + und  Verknupfungen auf M .
(b) Fur eine Menge
sind die Abbildungen
[ : P (
)  P (
) ! P (
); (A; B ) 7! A [ B 8 A; B 
;
\ : P (
)  P (
) ! P (
); (A; B ) 7! A \ B 8 A; B 

Verknupfungen auf P (
).

Wir unters heiden vers hiedene Eigens haften von Verknupfungen:


De nition 2.18 (a) Eine Verknupfung  auf einer Menge M heie
 kommutativ :, a  b = b  a 8 a; b 2 M ,
 assoziativ :, (a  b)  = a  (b  ) 8 a; b; 2 M .

(b) Ein Element e 2 M heie neutrales Element (oder Einselement) der Verknupfung ,
wenn gilt: e  a = a = a  e 8 a 2 M .
( ) Es sei e 2 M neutral bezugli h . Ein Element a 1 2 M heie invers zu a 2 M bezugli h
, wenn gilt: a  a 1 = e = a 1  a. Das Element a heie invertierbar, wenn es mindestens
ein Inverses a 1 gibt.

BSP. (2.8) (a) Die im vorangegangenen BSP. (2.7) betra hteten Verknupfungen + und  auf
M := Z; Q oder R sind kommutativ und assoziativ. Es ist 0 neutrales Element von + und 1 neutrales
Element von . Jedes a 2 M hat bezugli h + das inverse Element ( a). In Z existieren bezugli h 
keine inversen Elemente (mit Ausnahme von a = 1).

(b) Auf P (
) sind [ und \ ebenfalls kommutativ und assoziativ. Es ist ; neutrales Element von [
und
neutrales Element von \. Inverse Elemente existieren ni ht.
( ) Die Verknupfung : Z  Z ! Z mit (a; b) 7! a b ist weder kommutativ no h assoziativ.

Bemerkung 2.19 (a) Existiert ein neutrales Element e 2 M der Verknupfung , so ist e
eindeutig bestimmt. Denn ware e0 2 M ebenfalls neutral bezugli h , so ware e  e0 = e0 , (weil
e neutral ist), und ebenso e  e0 = e, (weil e0 neutral ist). Also gilt e = e0 .
(b) Ist die Verknupfung  auf M assoziativ, so kann man Klammern ohne Bedenken fortlassen:

(a  b)  = a  (b  ) := a  b  :
Ist  daruber hinaus kommutativ, so konnen Faktoren beliebig vertaus ht werden:
a b = b a = b a = 
( ) Neben den binaren algebrais hen Operationen  : M  M ! M konnen au h andere
algebrais he Operationen auf einer Menge M erklart werden. Zum Beispiel ist die Abbildung
: P (
) ! P (
); A 7! A = A
 8A

eine unare algebrais he Operation. Eine Menge M mit der Gesamtheit ihrer algebrais hen
Operationen heie eine algebrais he Struktur oder kurz eine Algebra. Ein Beispiel ist die
2
in De nition 0.2 erklarte Mengenalgebra (P (
); [; \; ) uber einer Menge
.
De nition 2.20 Es sei  eine Verknupfung auf einer Menge M , und es sei U  M ni htleere
Teilmenge. (U; ) heie eine Unteralgebra oder Teilalgebra der Algebra (M; ), wenn  au h
eine Verknupfung auf U ist, d.h. wenn gilt:

ab2U

8 a; b 2 U:

(In analoger Weise de niert man Unteralgebren, wenn auf M mehrere algebrais he Operationen erklart sind.)

BSP. (2.9)

Es ist (N ; +; ) eine Unteralgbra der Algebra (Z; +; ).

In dem vorstehenden Beispiel sind auf den Tragermengen N bzw. Z zwei Verknupfungen +
und  erklart. Wir sind aus der S hulerfahrung mit der Re henregel
Punktre hnung geht vor Stri hre hnung

vertraut. Es mussen also unter Umstanden bei gemeinsamem Auftreten mehrerer Verknupfungen gewisse Re henvors hriften bea htet werden:

De nition 2.21 Eine Verknupfung  heie in M distributiv bezugli h einer Verknupfung


2, wenn fur alle x; y; z 2 M gilt:
x  (y 2z ) = (x  y )2(x  z );
(x2y)  z = (x  z)2(y  z):
(D)

O ensi htli h ist die Multiplikation  auf den Mengen M := N ; Z; Q oder R distributiv
bezugli h der Addition +. Die Distributivitat ist im allgemeinen keine symmetris he Eigens haft. Das heit, aus der Distributivitat von  bezugli h 2 folgt ni ht die Distributivitat von
2 bezugli h . Dies zeigt unser Beispiel mit  :=  und 2 := +. Hingegen zeigt die Tabelle in Abs hnitt 0.2, Seite 3, dass in der Mengenalgebra (P (
); [; \; ) sowohl [ distributiv
bezugli h \ ist, als au h \ distributiv bezugli h [.
2.2.3

Homomorphismen, Kongruenzrelationen

Wir betra hten Mengen M und N , auf denen jeweils eine Verknupfung  bzw. 2 erklart sei,
so dass Algebren (M; ) und (N; 2) resultieren. Ferner sei eine Funktion f 2 Abb (M; N )
gegeben. Dann sind o ensi htli h
f (x  y ) 2 N;

f (x)2f (y ) 2 N

8 x; y 2 M

wohlde nierte Elemente. Wir fragen na h sol hen Funktionen f , fur die gilt:
f (x  y ) = f (x)2f (y )

8 x; y 2 M:

BSP. (2.10) Es seien M := N ; N := Q sowie  :=


0 6= r = pq 2 Q sind die Potenzen rn = pqnn 2 Q ; n 2 N ,
f : (N ; +) ! (Q ; ) dur h die Vors hrift
f (n) := rn

(H)

+ und 2 :=  gesetzt. Fur eine feste Zahl


stets erklart. Wir de nieren die Abbildung

8 n 2 N:

Nun gilt das bekannte Potenzgesetz


f (n + m) = rn+m = rn rm = f (n)  f (m) 8n; m 2 N ;
d.h. die Bedingung (H) ist erfullt.
De nition 2.22 Es seien (M; ) und (N; 2) algebrais he Strukturen mit Verknupfungen 
bzw. 2. Eine Funktion f 2 Abb (M; N ) heie Homomorphismus genau dann, wenn (H) gilt.
Ein Homomorphismus f : (M; ) ! (N; 2) heie
 Monomorphismus :, f ist injektiv,
 Epimorphismus :, f ist surjektiv,
 Isomorphismus :, f ist bijektiv,
 Endomorphismus :, (M; ) = (N; 2),
 Automorphismus :, (M; ) = (N; 2), und f ist bijektiv.
(Tragen M und N mehrere Verknupfungen i ; 2i ; i = 1; 2; : : : ; k, so muss (H) fur jeden einzelnen Index i = 1; 2; : : : ; k gelten.)

Bemerkung 2.23 (a) Gibt es einen Isomorphismus f : M ! N zwis hen zwei Algebren M
und N , so nennt man M und N isomorph, in Zei hen M 
= N . Das einfa hste Beispiel fur
einen Isomorphismus ist die identis he Abbildung
IdM : (M; ) ! (M; ):

(b) Die Isomorphiebeziehung 


= ist eine A quivalenzrelation auf der Familie aller Algebren
(M; ).
( ) Aus der Si ht der Algebra wird zwis hen isomorphen Algebren ni ht unters hieden, da si h
diese nur dur h die Benennung ihrer Elemente unters heiden. Von Interesse sind ledigli h die
algebrais hen Operationen auf einer Menge, ni ht aber die Art ihrer Elemente. Beherrs ht man
das Re hnen in der einen Algebra und ist eine Isomorphie auf eine andere Algebra bekannt,
so beherrs ht man au h das Re hnen in dieser.
2
BSP. (2.11) Wir betra hten auf einer ni htleeren Menge M
f(x; y) 2 M  M : xRyg. Wie wir in Satz 2.11 gesehen haben,
Menge M dur h das System der A quivalenzklassen

eine A quivalenzrelation R =
induziert R eine Partition der

[xR := fy 2 M : xRyg:
Ist  eine Verknupfung auf M , so kann  dur h die folgende Vors hrift auf die Quotientenmenge
M=R := f[xR : x 2 M g transportiert werden, sofern R mit  strukturvertragli h ist, vgl. De nition
2.25:
[xR  [yR := [x  yR = fz 2 M : (x  y)Rzg 8 x; y 2 M:
(2.2)
Die dur h die Partition induzierte Abbildung
x 7! (x) := [xR ;
 : (M; ) ! (M=R; );
ist ein Homomorphismus. Man erkennt sofort, dass wegen (2.2) die Bedingung (H) gilt, namli h:
(x  y) = [x  yR = [xR  [yR = (x)  (y) 8 x; y 2 M:
De nition 2.24 Die Abbildung  : M ! M=R heie die naturli he Abbildung oder die
kanonis he Projektion von M auf M=R.
BSP. (2.12) Es sei im vorangegangenen BSP. (2.11) M
Relation R dur h die Vors hrift
R := f(x; y) 2 Z  Z

:= Z gesetzt, und es werde auf Z eine

: 4j(x y)g
erklart. xRy bedeutet also: 4 teilt x y. Wir zeigen, dass R eine A quivalenzrelation ist.
 R ist re exiv: 4 teilt x x = 0 ist per De nition wahr. Also gilt xRx.
 R ist symmetris h: Ist 4 Teiler von x y, so au h Teiler von y x = (x y). Also folgt aus
xRy stets au h yRx.
 R ist transitiv: Sei 4 Teiler von x y und von y z. Wegen x z = (x y) +(y z) folgt nun
4j(x z). Also gilt die Implikation: xRy und yRz ) xRz.

Die Quotientenmenge

:= f[x : x 2 Zg; [x := fy 2 Z : 4j(x y)g;


besteht aus genau vier Elementen, namli h
[0 = fx 2 Z : 4jxg
= f: : : ; 12; 8; 4; 0; 4; 8; 12; : : : g = f4k : k 2 Zg;
[1 = fx 2 Z : 4j(x 1)g = f: : : ; 11; 7; 3; 1; 5; 9; 13; : : : g = f4k + 1 : k 2 Zg;
[2 = fx 2 Z : 4j(x 2)g = f: : : ; 10; 6; 2; 2; 6; 10; 14; : : : g = f4k + 2 : k 2 Zg;
[3 = fx 2 Z : 4j(x 3)g = f: : : ; 9; 5; 1; 3; 7; 11; 15; : : : g = f4k + 3 : k 2 Zg:
Beispielsweise liegen die Zahlen 3 und 15 in derselben A quivalenzklasse, so dass [3 = [15 gilt.
Allgemeiner hat man fur jedes x 2 Z und jedes k 2 Z:
[x = [x + 4k = [x 4k:
Nun sind auf Z die zwei algebrais hen Operationen + und  erklart. Dur h die folgende Vors hrift
werden + und  auf die Quotientenmenge Z=R transportiert. Fur alle x; y 2 Z gelte:
[x + [y := [x + y = [x + y 4k; k 2 Z;
[x  [y := [x  y = [x  y 4r; r 2 Z:
Die mogli hen Resultate bestimmt man am besten dur h Aufstellen von Operationstafeln fur die
Verknupfungen + und :
 [0 [1 [2 [3
+ [0 [1 [2 [3
[0 [0 [1 [2 [3
[0 [0 [0 [0 [0
[1 [1 [2 [3 [0
[1 [0 [1 [2 [3
[2 [2 [3 [0 [1
[2 [0 [2 [0 [2
[3 [3 [0 [1 [2
[3 [0 [3 [2 [1
Man stellt sehr einfa h fest, dass die kanonis he Projektion  : Z ! Z=R; x 7! (x) := [x, fur beide
Operationen + und  die Bedingung (H) erfullt, also ein Homomorphismus ist.
Z=R

Die in dem BSP. (2.12) diskutierte A quivalenzrelation R hat o enbar die Eigens haft, dass
aus xRy stets au h (x + z)R(y + z) sowie (x  z)R(y  z) fur jedes z 2 Z folgt. Denn ist 4
ein Teiler von x y, so ganz o enbar au h ein Teiler von (x + z) (y + z) = x y und von
x  z y  z = (x y )  z . Das heit, die Relation R ist strukturvertragli h mit den beiden
Verknupfungen + und . In diesem Sinne de nieren wir:

De nition 2.25 Gegeben sei eine Algebra (M; ). Eine Aquivalenzrelation
R auf M heie
Kongruenzrelation :, Fur alle x; y; z 2 M gilt
xRy ) (z  x)R(z  y );
xRy ) (x  z )R(y  z ):

(Die Verallgemeinerung fur Kongruenzrelationen auf Algebren mit mehreren Operationen bedeutet, dass R mit allen Operationen auf M strukturvertragli h sein muss.)
Als A quivalenzrelation induziert jede Kongruenzrelation R auf der Algebra (M; ) eine Partition der Menge M . Der resultierenden Quotientenmenge

M=R = f[xR : x 2 M g;

[xR := fy 2 M : xRyg;
wird dur h die Vors hrift (2.2) wegen der Kongruenz eine algebrais he Struktur (M=R; )
aufgepragt.

De nition 2.26 Die Quotientenmenge M=R := f[xR : x 2 M g na h der Kongruenzrelation


R, gemeinsam mit der dur h (2.2) de nierten Verknupfung  heie Faktoralgebra (M=R; )
der Algebra (M; ) na h der Kongruenzrelation R.

In Verallgemeinerung von BSP. (2.12) betra hten wir auf (Z; +; ) fur eine feste Zahl
die Kongruenzrelation
xRn y :, nj(x y) (in Worten: n teilt x y).
Die Kongruenzrelation
Rn := f(x; y) 2 Z  Z : nj(x y)g
wird ubli herweise mit n oder einfa h nur mit  bezei hnet. Man setzt
x  y mod n anstelle von nj(x y)
und sagt: x ist kongruent y modulo n.
Man pruft ohne S hwierigkeit na h, dass die Faktoralgebra Zn := Z=n genau aus n vers hiedenen
A quivalenzklassen besteht, namli h:
BSP. (2.13)

n2N

Zn

= f[0; [1; : : : ; [n 1g; [a := fx 2 Z : x  a mod ng; a = 0; 1; : : : ; n 1:


De nition 2.27 Fur a 2 Z und n 2 N heie die Aquivalenzklasse

[a = [an := fx 2 Z : x  a mod ng = fx 2 Z : nj(a x)g = fa kn : k 2 Zg


die Restklasse von a modulo n. Denn es gilt x 2 [a genau dann, wenn k 2 Z existiert mit kn = a x
oder a = kn + x. Das heit, a ist dur h n teilbar mit Rest x bzw. x ist dur h n teilbar mit Rest a.
Addition und Multiplikation von Restklassen sind in der oben erlauterten Weise erklart:
[a + [b := [a + b = [a + b r  n; mit a; b 2 Z und r; s 2 Z:
[a  [b := [a  b = [a  b s  n;
Zum Beispiel gelten fur n = 7 sowie fur a = 5 und b = 9:
[5 + [ 9 = [ 4 = [ 4 ( 1)  7 = [3;
[5  [ 9 = [ 45 = [ 45 ( 7)  7 = [4;
und es ist


(Z7; +; ) = f[0; [1; [2; [3; [4; [5; [6g; +;  :
Wie die De nition 2.27 zeigt, gibt es zu jedem a 2 Z und zu n 2 N Zahlen k; x 2 Z mit a = kn + x.
Die Divisionsreste x bilden dabei gerade die A quivalenzklasse [a. Wir konnen diesen Sa hverhalt in
der folgenden Weise prazisieren:
Satz 2.28 Es seien Zahlen a; b 2 Z mit b 6= 0 gegeben. Dann gilt
9! q 2 Z 9! r 2 f0; 1; : : : ; jbj 1g : a = bq + r:

(2.3)

Begrundung (i) Wir zeigen die Existenz von q und r. Sei zuna hst b > 0 angenommen. Dann bestimmen wir
die Zahl q 2 Z so, dass gilt: q  ab < q +1. Wegen b > 0 folgt aquivalent: bq  a < bq + b. Setzen wir r := a bq,
so haben wir also 0  r < b sowie a = bq + r, wie behauptet wurde.
Ist hingegen b < 0, so bestimmen wir nun q 2 Z so, dass gilt: q 1 < ab  q. Wegen ( b) = jbj > 0 gilt nun
bq  a < bq + jbj, und somit erfullt r := a bq die geforderten Bedingungen 0  r < jbj sowie a = bq + r.
(ii) Wir zeigen die Eindeutigkeit von q und r. Waren q0 2 Z und r0 2 f0; 1; : : : ; jbj 1g ebenfalls Zahlen, die
das Verlangte leisten, so ware bq + r = a = bq0 + r0 , und folgli h b(q q0 ) = r0 r. Also ware b Teiler von
r0 r. Wegen jr0 rj < jbj kann dies nur fur r0 = r gelten, und daraus folgt wegen b =
6 0 au h q = q0 . 2
Aus (2.3) ergibt si h bja genau fur r = 0. Ist also r = 0, so ist b der grote gemeinsame Teiler

(ggT) von a und b. Ist hingegen r > 0, so mussen gemeinsame Teiler von r und b wegen (2.3)
au h Teiler von a sein. Um sol he zu bestimmen, unters heiden wir wegen 0  r < jbj zwei
Falle gema

 rjb, also b = rq1. In diesem Fall folgt aus (2.3): a = r(qq1 + 1). Also ist r ggT von a und
b. Ferner gilt wegen (2.3)

r = a qb =: x1 a + y1 b mit x1 := 1 und y1 := q 2 Z:

 r=j b (r teilt ni ht b). In diesem Fall ist erneut Satz 2.28 anwendbar: Es existieren
eindeutig Zahlen q1; r1 2 Z mit
b = rq1 + r1 ;

0 < r1 < r:

Au h hier tre en wir eine Fallunters heidung gema r1jr bzw. r1=j r. Im ersten Fall gilt
r = r1 q2 , und es folgen b = r1 (q1 q2 + 1) sowie a = r1 (qq1 + 1)q2 . Das heit, r1 ist ggT von a
und b mit der Darstellung
r1 = b rq1 = b(x1 a + y1 b)q1 =: x2 a + y2 b mit x2 := x1 q1 und y2 := 1 y1 q1 :

Im zweiten Fall r1=j r ist wiederum Satz 2.28 anwendbar: Es existieren eindeutig Zahlen

q2 ; r2 2 Z mit

r = r1 q2 + r2 ;
0 < r 2 < r1 ;
usf. Da die Divisionsreste r; r1; r2; : : : 2 Z na h absteigender Groe jbj > r > r1 > r2 > : : : >
rk > 0 geordnet sind, endet das Verfahren na h endli h vielen S hritten mit einer Zerlegung
rk 2 = rk 1qk + rk ;

0 < r k < rk 1 ;

fur die entweder rk jrk 1; (rk > 1), oder rk = 1 gilt. In beiden Fallen existieren Zahlen xk ; yk 2
Z mit
rk = xk a + yk b:
Im erstgenannten Fall ist rk ggT von a und b. Im zweiten Fall gibt es (auer dem trivialen
Teiler 1) keinen ggT von a und b, und in diesem Fall heien a und b teilerfremd.
Satz 2.29 Zwei Zahlen a und b sind genau dann teilerfremd, wenn x; y 2 Z existieren mit
1 = xa + yb.
Begrundung: Ganz o ensi htli h folgt aus der Darstellung 1 = xa + yb, dass a und b teilerfremd sein mussen. Sind andererseits a und b als teilerfremd vorausgesetzt, so ergibt si h die
Behauptung aus dem oben angefuhrten Divisionsverfahren.
2

Wir bere hnen den ggT der beiden Zahlen 246 und 384 sowie der Zahlen 161 und
384:
384 = 246  1 + 138
246 = 138  1 + 108
384 = 161  2 + 62
138 = 108  1 + 30
161 = 62  2 + 37
108 = 30  3 + 18
62 = 37  1 + 25
30 = 18  1 + 12
37 = 25  1 + 12
18 = 12  1 + 6
25 = 12  2 + 1
12 = 6  2 + 0
Der ggT von 246 und 384 ist also 6, wahrend 161 und 384 teilerfremd sind.
BSP. (2.14)

De nition 2.30 Das oben vorgestellte Divisionsverfahren zur Ermittlung des ggT zweier Zahlen a; b 2 Z heit Euklidis her Divisionsalgorithmus [Euklid, a. 300 v. Chr..

In den meisten hoheren Programmierspra hen kann die Zerlegung (2.3) der beiden Zahlen
a; b 2 Z mit den folgenden Befehlen ausgefuhrt werden:
q := a div b;

r := a mod b:

Die gewuns hte Zerlegung (2.3) resultiert dann fur b 6= 0 in der Form
a = b  (a div b) + a mod b:

Diese Befehle verwenden wir in dem folgenden numeris hen Algorithmus, der fur zwei gegebene
Zahlen a; b 2 Z den groten gemeinsamen Teiler d 2 Z bere hnet, und dazu no h zwei Zahlen
x; y 2 Z mit d = xa + yb. Der Fall d = 1 (Teilerfremdheit) wird ebenfalls mitberu ksi htigt.
1 : Eingabe von a; b 2 Z; d := a; := b;
2 : x := 1; y := 0; u := 0; v := 1;
3 : falls 6= 0 dann
4 : wiederhole
5:
q := d div ; r := d mod ;
6:
w := x q  u; z := y q  v ;
7:
d := ; := r; x := u; u := w; y := v ; v := z ;
8 : bis ( = 0):(Endedann)

(2.4)

In der folgenden Tabelle haben wir fur einige Zahlenpaare a; b 2 Z den ggT mit Hilfe des Euklidis hen
Teileralgorithmus (2.4) bere hnet. Es ist zu bea hten, dass der ggT d 2 Z nur bis auf das Vorzei hen
eindeutig bestimmt ist: Mit d ist au h d groter gemeinsamer Teiler zweier Zahlen a; b 2 Z.
a
b
d
x
y
xa + yb
246 384
6 25 16
6
161 384
1 31 13
1
5687 451
11 18 227
11
9358 226
2 27 1118
2
55 4795
5 436
5
5
0
27
27
0
1
27
31
0
31
1
0
31

2.2.4

Gruppen, Ringe, Ko
rper

Eine der einfa hsten algebrais hen Strukturen besteht aus einer ni htleeren Menge M mit einer
einzigen Verknupfung . Eine sol he Algebra (M; ) heie ein Gruppoid. Hat die Verknupfung
 weitere spezielle Eigens haften, so erhalt man Gruppoide, die eigene spezi s he Namen
tragen. Wir erwahnen hier nur die drei wi htigsten:
De nition 2.31 Ein Gruppoid (M; ) heie
 Halbgruppe :, Die Verknupfung  ist assoziativ, d.h.
(x  y)  z = x  (y  z) 8 x; y; z 2 M:
(G2)
 Gruppe :, Es gelten (G2) und

8 a; b 2 M existieren eindeutig bestimmte Losungen x; y 2 M der Glei(G3)


hungen a  x = b und y  a = b.
 abels he Gruppe [na h N.H. Abel, 1802{1829 :, (M; ) ist Gruppe mit kommutativer Verknupfung , d.h. es gelten:
x  y = y  x 8 x; y 2 M;
(G1)
(x  y)  z = x  (y  z) 8 x; y; z 2 M;
(G2)
8 a; b 2 M existiert genau eine Losung x 2 M der Glei hung a  x = b.
(G3)
Bemerkung 2.32 (a) In einer Gruppe (M; ) existiert stets genau ein neutrales Element
e 2 M.
Begrundung: Wir setzen in (G3) b := a. Dann existieren zu jedem a 2 M eindeutig e; e0 2 M mit
a  e = a;
e0  a = a:
(2.5)
Wir zeigen, e und e0 sind unabhangig von a. Denn sei b 2 M beliebig. Dann existieren wegen (G3)
x; y 2 M mit a  x = b und y  a = b. Man erhalt somit aus (2.5)
y  (a  e) = y  a = b;
(e0  a)  x = a  x = b:
Wegen (G2) konnen die Klammern anders gesetzt werden, so dass b  e = b und e0  b = b folgen.
Also sind e und e0 ni ht von a abhangig. Nun setzen wir in (2.5) a := e. Dann gilt
e  e = e;
e0  e = e:
Wegen der eindeutigen Losbarkeit der Glei hung y  e = e muss somit e = e0 gelten. Mit anderen
Worten, es existiert genau ein e 2 M mit
e  a = a = a  e 8 a 2 M;
2
und das ist gema De nition das neutrale Element.
(b) In einer Gruppe (M; ) existiert zu jedem a 2 M genau ein Inverses a 1 2 M .
Begrundung: Wir setzen in (G3) b := e, worin e 2 M das neutrale Element bezei hne. Dann existieren
zu jedem a 2 M eindeutig x; y 2 M mit
a  x = e;
y  a = e:
Hieraus folgt unter Verwendung von (G2)
y = y  e = y  (a  x) = (y  a)  x = e  x = x;
also x = y, und somit x = a 1.
2

(a) Die Algebra (N ; +) ist eine Halbgruppe, aber keine Gruppe. O enbar gilt (G2),
ni ht aber (G3), denn beispielsweise besitzt die Glei hung 3 + x = 2 keine Losung x 2 N .
(b) Die Algebra (M; ) mit M := N 0 ; Z; Q oder R ist eine Halbgruppe, aber keine Gruppe. (G3) gilt
ni ht, denn beispielsweise besitzt die Glei hung 0  x = 2 keine Losung x 2 M .
( ) Die Algebra (M; +) mit M := Z; Q oder R ist eine abels he Gruppe. Das neutrale Element ist
die Zahl 0, und das Inverse von a 2 M ist ( a).
(d) Die Algebra (M; ) mit M := Q nf0g oder R nf0g ist eine abels he Gruppe. Das neutrale Element
ist die Zahl 1, und das Inverse von a 2 M ist a 1 := a1 .
(e) Es sei Z4 die Faktoralgebra Z=4 = f[0; [1; [2; [3g, vgl. BSP. (2.12). Dann ist (Z4; +) eine
abels he Gruppe mit neutralem Element [0. Das Inverse von [a; a 2 Z, ist [ a = [ a 4k; k 2 Z.
Diese Aussagen konnen sehr lei ht an der Operationstafel fur + uberpruft werden, s. Seite 18. Ganz
analog vergewissert man si h, dass die Algebra (Zn; +) fur jedes feste n 2 N eine abels he Gruppe
mit neutralem Element [0 bildet. Das Element [a; a 2 Z, hat das Inverse [ a = [ a kn; k 2 Z.
(f) Die Algebra (Zn; ); n 2 N , ist eine Halbgruppe, und fur n  2 keine Gruppe. Da die Verknupfung 
assoziativ ist, gilt (G2). Hingegen ist (G3) fur n  2 ni ht erfullt. Beispielsweise besitzt die Glei hung
[0  [x = [n 1 keine Losung [x 2 Zn. Andernfalls gabe es namli h eine Zahl k 2 Z mit
[0  [x = [0  x = [0  x kn = [n 1; also (k + 1)n = 1:
Wegen n  2 ist diese Glei hung fur kein k 2 Z erfullbar.
BSP. (2.15)

Bemerkung 2.33 Eine abels he Gruppe (M; +) mit der Addition + als Verknupfung heit
au h Modul.
2

Neben den Gruppoiden bilden Mengen mit zwei Verknupfungen die na hsteinfa hen algebrais hen Strukturen. Wir bezei hnen diese Verknupfungen der Einfa hheit halber als Addition
+ und Multiplikation , und wir s hreiben ab anstelle von a  b.
De nition 2.34 Eine Algebra (M; +; ) heie ein Ring, wenn gilt:

 (M; +) ist eine abels he Gruppe (also ein Modul),


 (M; ) ist ein Gruppoid,
 die Multiplikation  ist distributiv bezugli h +: Fur alle x; y; z 2 M gilt
x(y + z ) = xy + xz;

(x + y)z = xz + yz:

(R1)
(R2)
(D)

Das neutrale Element der abels hen Gruppe (M; +) heie Nullelement, bezei hnet mit 0.

Spezielle Eigens haften des multiplikativen Gruppoids (M; ) spezi zieren Sonderformen von
Ringen, die wir na hfolgend de nieren.
De nition 2.35 Ein Ring (M; +; ) heie




assoziativ :, (M; ) bildet eine Halbgruppe,


assoziativ{kommutativ :, (M; ) bildet eine Halbgruppe mit kommutativer Multiplikation.

Ein assoziativer Ring, in wel hem die Halbgruppe (M; ) ein neutrales Element (Einselement)
e 2 M besitzt, heie assoziativer Ring mit Einselement.

(a) Die Menge der ganzen Zahlen Z mit den Verknupfungen + und  bildet einen
assoziativ{kommutativen Ring (Z; +; ) mit Einselement, namli h dem Element e = 1, und dem
Nullelement 0 der Addition. Dieser Ring hat no h folgende spezielle Eigens haft. Fur je zwei Zahlen
a; b 2 Z gilt
BSP. (2.16)

ab = 0

, a = 0 und/oder b = 0.

(NT)

Diese Eigens haft ist fur einen Ring keineswegs selbstverstandli h, wie wir an folgendem Beispiel
sehen werden.
(b) Wir betra hten die Faktoralgebra (Zn; +; ) := (Z=n; +; ); n 2 N , vgl. BSP. (2.13). Wir haben
bereits in BSP. (2.15(e) und (f)) festgestellt, dass (Zn; +) eine abels he Gruppe ist, wahrend (Zn; )
eine Halbgruppe bildet mit kommutativer Multiplikation. Es existiert sogar ein Einselement, namli h
die A quivalenzklasse [1:
[1  [x = [x  [1 = [1  x = [x 8 x 2 Z:
Das heit die Faktoralgebra (Zn; +; ) ist ein assoziativ{kommutativer Ring mit Einselement.
De nition 2.36

Zn

heit Restklassenring von Z modulo n.

Wegen der Existenz eines Einselements in Zn ist es bere htigt zu fragen, ob zu jeder Restklasse
[a 2 Zn ein Inverses [a 1 2 Zn existiert. Wir beantworten diese Frage in dem folgenden Satz:
Satz 2.37 Es seien n 2 N und a 2 Z gegeben. Genau dann besitzt [a 2 Zn bezugli h der Multiplikation  ein Inverses [a 1 2 Zn, wenn a und n teilerfremd sind.
Begrundung: (i) Ist [a 2 Zn invertierbar, so existiert ein b 2 Z mit [a  [b = [1, also mit ab  1 mod n
oder aquivalent: nj(1 ab). Folgli h existiert ein k 2 Z mit kn = 1 ab. Es gilt also 1 = ab + kn, so
dass a und n gema Satz 2.29 teilerfremd sind.
(ii) Sind nun andererseits a und n teilerfremd, so existieren na h Satz 2.29 Zahlen b; k 2 Z mit
1 = ab + kn. Fur die Restklasse [b 2 Zn gilt dann [a  [b = [1, vgl. (i). Also ist [b invers zu [a. 2
Bemerkung 2.38 Sind a 2 Z und n 2 N teilerfremd, so existiert gema Satz 2.37 zu [a 2 Zn ein
Inverses [a 1 2 Zn mit [a[a 1 = [1. Die Bere hnung von [a 1 erfolgt am besten unter Verwendung
des Euklidis hen Divisionsalgorithmus (2.4). Dieser liefert zu jedem Paar a; n teilerfremder Zahlen
zwei Elemente x; y 2 Z mit 1 = ax + ny. Setzt man [a 1 := [x, so gilt wegen ax  1 mod n die
Relation [a  [a 1 = [ax = [1. Somit ist [a 1 invers zu [a.
2
In Zn ist die Bedingung (NT) i.a. ni ht erfullt. Es gilt zum Beispiel in Z4 (vgl. BSP. (2.12)):
[2  [2 = [4 = [4 1  4 = [0;
obwohl wir [2 6= [0 haben. Ist allgemeiner n = j  k; 1 < j; k < n, eine zusammengesetzte Zahl, so
gilt in Zn:
[j 6= [0; [k 6= [0; [j  [k = [j  k = [n = [n 1  n = [0;
das heit, die Bedingung (NT) ist in diesem Fall stets verletzt.
De nition 2.39 (a) Sei (M; +; ) ein assoziativer Ring mit Nullelement 0. Gilt fur a; b 2
M n f0g die Glei hung
ab = 0;
so heien a; b Nullteiler, und zwar a ein Links{ und b ein Re htsnullteiler. In kommutativen
Ringen entfallen die Spezi kationen Links und Re hts.
(b) Ein assoziativ{kommutativer Ring (M; +; ) mit Einselement und ohne Nullteiler heie
Integritatsberei h oder Integritatsring.

(a) Die Algebra (Z; +; ) ist also ein Integritatsberei h.


(b) Ware der Restklassenring Zn nullteilerfrei, so ware er ebenfalls ein Integritatsring, wie das
BSP. (2.16(b)) lehrt. Wir fragen deshalb na h mogli hen Zahlen 2  n 2 N , fur die Zn nullteilerfrei
ist. Angenommen, es gebe Nullteiler [a; [b 2 Zn n f[0g. Dann gilt fur ein k 2 Z
[a  [b = [ab = [ab kn = [0:
(2.6)
Wegen 0 2= [a und 0 2= [b gelten n=j a (n teilt ni ht a) und n=j b. Andererseits hatten wir wegen (2.6)
die Glei hung ab = kn. Da n kein Teiler von a oder b sein kann, folgt zwangslau g kja oder kjb. Es
sei zum Beispiel k Teiler von a: a = jk mit 0 6= j 2 Z. Dann folgt jb = n mit j 6= n 6= b (sonst hatten
wir nja bzw. njb). Das heit, j 6= 1 und b 6= 1 mussen Teiler von n sein: n ist eine zusammengesetzte
Zahl.
De nition 2.40 Eine Zahl p 2 N heie Primzahl, wenn p > 1 gilt und wenn p nur die
trivialen Teiler 1 und p besitzt.
BSP. (2.17)

In der Zusammenfassung haben wir gezeigt:


Satz 2.41 Der Restklassenring Zn modulo n ist genau dann nullteilerfrei, wenn n eine Primzahl ist. Fur jede Primzahl p 2 N ist Zp also ein Integritatsberei h.

In einem Integritatsberei h (M; +; ) mit mehr als einem Element mussen das Nullelement 0
und das Einselement e 2 M voneinander vers hieden sein.
Begrundung: Sind 0 2 M das Nullelement und e 2 M das Einselement, und ware e = 0, so hatten

wir

ae = a;
b + e = b 8 a; b 2 M:
Hieraus folgte ab + ae = ab 8 a; b 2 M . Fur b := e waren nun ab = a und a + ae = a 8 a 2 M .
Folgli h ware ae neutral bezugli h +, und wegen der Eindeutigkeit neutraler Elemente hatten wir
ae = 0 8 a 2 M . Wir erhielten
ab = (ae)  (be) = 0  0 = 0  e = 0 8 a; b 2 M:

Das heit, jedes Element a 2 M ware Nullteiler, im Widerspru h zur De nition eines Integritatsberei hs.
2
Sei nun ein assoziativer Ring (M; +; ) mit dem Nullelement 0 gegeben. Bildet das Gruppoid
(M n f0g; ) sogar eine abels he Gruppe, so ist der Ring (M; +; ) assoziativ{kommutativ, und
es existiert ein Einselement. Wir behaupten, dass Nullteiler ni ht existieren.
Begrundung: Aus (G3) erhalten wir namli h

8 a; b 2 M n f0g 9! x 2 M n f0g : ax = b:

Ware a ein Nullteiler, so ware ay = 0, und es folgte


a(y + x) = ay + ax = 0 + b = b:
Das heit, au h y + x ware eine Losung der Glei hung ax = b, im Widerspru h zur Eindeutigkeitsaussage in (G3).
2
Wir haben mit anderen Worten einen Integritatsring vorliegen. Dieser tragt einen besonderen
Namen:

De nition 2.42 Ein assoziativer Ring (M; +; ) mit mehr als einem Element heie ein Korper, wenn (M n f0g; ) eine abels he Gruppe ist.

Zusammenfassend konnen wir einen Korper in der folgenden Weise harakterisieren.


Satz 2.43 Eine Algebra (K ; +; ) mit mehr als einem Element ist genau dann ein Korper,
wenn das folgende Axiomensystem gilt.

Axiome der Addition in K :


8 a; b 2 K gibt es genau ein Element a + b 2 K , genannt die Summe von a und b.
Die Verknupfung "+" erfullt 8 a; b; 2 K :
(A1) a + b = b + a;
(Kommutativgesetz)
(A2) a + (b + ) = (a + b) + ;
(Assoziativgesetz)
(A3) 9 genau ein x 2 K mit a + x = b.
Es bezei hne 0 2 K das neutrale Element bezugli h "+".
Axiome der Multiplikation in K :
8 a; b 2 K gibt es genau ein Element a  b 2 K , genannt das Produkt von a und b.
Die Verknupfung "" erfullt 8 a; b; 2 K :
(M1) a  b = b  a;
(Kommutativgesetz)
(M2) a  (b  ) = (a  b)  ;
(Assoziativgesetz)
(M3) 8 0 6= a 2 K 9 genau ein x 2 K mit a  x = b.
Regelung zwis hen "+" und "":
(D) a  (b + ) = a  b + a  :

(Distributivgesetz)

Bemerkung 2.44 In einem Korper (K ; +; ) existieren also stets eindeutig bestimmte neutrale Elemente "0" der Addition + und "1" der Multiplikation . Es gilt

0 6= 1:
Daruber hinaus existiert zu jedem a 2 K ein eindeutig bestimmtes Inverses der Addition +,
bezei hnet mit ( a): a +( a) = 0, und zu jedem 0 6= a 2 K ein eindeutig bestimmtes Inverses
der Multiplikation , bezei hnet mit a 1: a  a 1 = 1.
2
BSP. (2.18) (a) Die Algebra (Q ; +; ) ist ein Korper. (Z; +; ) ist kein Korper, da (M3) ni ht
gilt.
(b) Es sei p eine Primzahl. Dann ist der Restklassenring Zp von Z modulo p gema Satz 2.41 ein
Integritatsberei h. Wir zeigen, dass das Gruppoid (Zp n f[0g; ) alle Eigens haften einer abels hen
Gruppe hat, so dass Zp sogar ein (endli her) Korper ist.
O enbar gelten in (Zp n f[0g; ) bereits die beiden Axiome (M1) und (M2). Zum Beweis von (M3)
seien [a 2 Zp n f[0g und [b 2 Zp vorgegeben. Da p 2 [0 prim ist, und da [0 \ [a = ; gilt, sind
a und p teilerfremd. Gema Satz 2.37 existiert deshalb ein Inverses [a 1 2 Zp mit [a  [a 1 = [1.
Setzen wir [x := [a 1  [b 2 Zp, so folgt nun unter Verwendung von (M2)
[a  [x = [a  ([a 1  [b) = ([a  [a 1)  [b = [1  [b = [b:

Das heit, die Glei hung [a  [x = [b hat stets eine Losung [x 2 Zp. Ware [x0 2 Zp eine weitere
Losung, so ware
[a  ([x + [ x0) = [a  [x x0 = [b + [ b = [0:
Da Zp wegen Satz 2.41 nullteilerfrei ist, muss notwendig [x x0 = [0 gelten. Somit ist [x = [x0, und
es gilt (M3). Ist n keine Primzahl, n = j  k; 1 < j; k < n, und hatte die Glei hung [j  [x = [b 2 Zn
eine Losung [x 2 Zn, so ware [x0 := [x + [k 6= [x ebenfalls Losung:
[j  [x0 = [j  [x + [j  k = [j  [x + [0 = [j  [x = [b:
In diesem Fall ist (M3) verletzt. Somit haben wir:
Satz 2.45 Der Restklassenring Zn von Z modulo n ist genau dann ein Korper, wenn n eine
Primzahl ist. Fur p prim bezei hnen wir den Korper Zp mit Fp und nennen ihn den Restklassenkorper von Z modulo p.

2.3 Die naturli hen Zahlen und vollstandige Induktion


Am Anfang der in Abs hnitt 2.1 vorgenommenen Zahlberei hserweiterungen stand als Grundmenge die Menge N der naturli hen Zahlen. Was sind naturli he Zahlen? Diese Frage kann
na h heutiger Meinung ni ht sinnvoll gestellt werden. Naturli he Zahlen sind existent! Hingegen ist die Frage na h einem Axiomensystem fur die naturli hen Zahlen dur haus sinnvoll.
Von dem italienis hen Mathematiker G. Peano (1858{1932) stammt folgendes System von
funf Axiomen, aus dem dur h logis hen S hluss der gesamte Aussagenbestand der Theorie
naturli her Zahlen gefolgert werden kann.
(P1) 1 ist eine naturli he Zahl.
(P2) Jeder naturli hen Zahl n ist genau eine naturli he Zahl n0 zugeordnet, die
der Na hfolger von n heit.
(P3) 1 ist kein Na hfolger.
(P4) n; m 2 N und n 6= m implizieren n0 6= m0 .
(P5) Eine Eigens haft A(n), die fur n = 1 gilt und die fur beliebiges n die
Implikation A(n) ) A(n0 ) zulat, gilt fur alle naturli hen Zahlen n.
Es ist ubli h, den Na hfolger n0 der naturli hen Zahl n mit n + 1 zu bezei hnen, in Konsistenz
mit der algebrais hen Operation "+" auf N . Fur unsere Zwe ke von wesentli hem Belang ist
das Axiom (P5), aus dem si h das Prinzip der vollstandigen Induktion ableitet.
Satz 2.46 (Vollstandige Induktion)
Es sei A(n) eine Eigens haft, die von naturli hen Zahlen n 2 N abhange, und es gelte:
(a) Induktionsverankerung: A(1) ist wahr.
(b) Vererbung oder S hluss von n auf n + 1: Falls A(n) fur beliebiges n 2 N wahr ist, so
ist au h A(n + 1) wahr.
Dann ist A(n) ist fur alle n 2 N wahr.

Bemerkung 2.47 Die Induktionsverankerung muss ni ht zwangslau g bei n = 1 gesetzt


werden. Sie kann au h bei beliebigem n = n0 2 N 0 beginnen. Die Behauptung des obigen
Satzes gilt dann fur alle n  n0.
2

Die Beoba htung uber die Summe der ungeraden Zahlen


1 = 1; 1 + 3 = 4; 1 + 3 + 5 = 9; 1 + 3 + 5 + 7 = 16; : : : ;
legt die folgende Vermutung nahe:
BSP. (2.19)

1 + 3 + 5 +    + (2n 1) = n2 8 n 2 N :

A(n):

Wir beweisen A(n) dur h vollstandige Induktion.


 Verankerung: n = 1 : 1 = 12 ) A(1) ist ri htig.
 Vererbung: Gelte A(n). Zeige A(n) ) A(n + 1) fur alle n 2 N :
A(n + 1) :
1| + 3 + 5 + {z
   + (2n 1)} +[(2(n + 1) 1 = n2 + 2n + 1 = (n + 1)2 :
A(n): n2

Folgerung: A(n) gilt fur alle n 2 N .

Rekursive De nition mit dem Prinzip der vollstandigen Induktion:


(I) Summende nition. Gegeben seien Zahlen m; n 2 Z mit m  n. Wir de nieren rekursiv
BSP. (2.20)

m
X
k=m
n+1
X
k=m

Aus Satz 2.46 folgt dann:

ak

:=

ak

:=
n
X
k=m

(Verankerung),

am
n
X
k=m

ak + an+1

(Vererbung).

ak = am + am+1 +    + an :

Bemerkung 2.48 (a) Vereinbarungsgema setzt man stets


n
X
k=m

ak := 0 fur m > n:

(b) Die Variable k 2 Z heit der Summationsindex. Man kann ein beliebiges Symbol als
Summationsindex verwenden, ohne den Summenwert zu verandern.
n
X
k=m

ak = am + am+1 +    + an =

n
X
j =m

aj

n m
k:=j m X

k=0

ak+m ; usw.

Wir geben na hfolgend einige Beispiele:


n
X
k=0
n
X
j =1
n
X
j =m
n
X
k=1
n
X
k=m

ak = a0 + a1 + a2 +    + an fur festes a 2 R und n  0,


j2 =
aj =

n
X
j =0
k
X

j 2 = 12 + 2 2 +    + n 2 ;

j =m

aj +

n
X
j =k+1

fur k = m; m + 1; : : : ; n,

aj

1 = 1| + 1 +{z   + 1} = n;
a =

n mal

: m > n;
a(n + 1 m) : m  n und a 2 R :

(II) Produktde nition. Gegeben seien Zahlen m; n 2 Z mit m  n. Wir de nieren rekursiv
m
Y
k=m
nY
+1
k=m

ak := am
n
Y

ak :=

k=m

ak an+1

(Verankerung),
(Vererbung).

Aus Satz 2.46 folgt dann:


n
Y
k=m

ak = am  am+1 

    an :

Vereinbarungsgema setzt man stets


n
Y
k=m

ak := 1 fur m > n:

Als ein wi htiges Beispiel nennen wir hier:


n
Y
k=1

k = 1  2  3    (n 1)  n =: n! 8 n 2 N spri h: n{Fakultat.

Stirling: n! 

n!

1
1
2
2
3
6
4
24
5
120
6
720
7
5040
8
40320
9
362880
10
3628800
11
39916800
12
479001600
13
6227020800
14
87178291200
15
1307674368000
16
20922789888000
17
355687428096000
18
6402373705728000
19 121645100408832000
20 2432902008176640000

9:98981759637E 0001
1:99896286613E+0000
5:99832652444E+0000
2:39958871148E+0001
1:19986154090E+0002
7:19940381651E+0002
5:03968625818E+0003
4:03180454053E+0004
3:62865917961E+0005
3:62868474890E+0006
3:99157434222E+0007
4:78990871796E+0008
6:22690126670E+0009
8:71768410367E+0010
1:30765533732E+0012
2:09225212611E+0013
3:55683369493E+0014
6:40230835132E+0015
1:21643983025E+0017
2:43288179196E+0018

In der Spalte "Stirling" ist eine Naherungsformel fur n! angegeben, die fur Werte n  1 eine
sehr gute Approximation liefert. Dies ist die Stirlings he Formel (e ist die Eulers he Zahl,
vgl. Abs hnitt 3.3):
 n n p
n! 
2n; n  1:
e
Bemerkung 2.49 (a) Es gilt die folgende Funktionalglei hung der Fakultat
n! = n  (n 1)! 8 n 2 N :

Fur n = 1 hat man 1! = 1  0!, und hieraus gewinnt man vereinbarungsgema


0! := 1:
(b) Hau g setzt man fur das Produkt der ungeraden Zahlen
n
Y

(2k + 1) = 1  3  5    (2n + 1) =: (2n + 1)!! (spri h: (2n + 1){Semifakultat.)

k=0

Es gilt

(2n + 1)!
(2n + 1)!
(2n + 1)!! = 2  4  6    2n = 2nn! :

( ) Die Fakultaten wa hsen mit n ras h an, wie die obige Tabelle zeigt.

2.4

als geordneter Korper

Hier soll ni ht ein langwieriger genetis her Weg na hvollzogen werden, auf dem die reellen
Zahlen aus dem Peanos hen Axiomensystem der naturli hen Zahlen abgeleitet werden. Einem
Vors hlag D. Hilberts (1862{1943) folgend, wollen wir vielmehr fur die reellen Zahlen selbst
ein Axiomensystem aufstellen, wel hes uneinges hrankte Anwendung der vier arithmetis hen
Grundoperationen erlaubt. Es ist si her sinnvoll, dem Beispiel des Korpers (Q ; +; ) folgend,
die Axiomatik in der Algebra (R ; +; ) so festzulegen, dass R selbst ein Korper wird. Dazu
haben wir gema Satz 2.43 das folgende Axiomensystem auf R einzufuhren:
Axiome der Addition in R :
8 a; b 2 R gibt es genau eine Zahl a + b 2 R, genannt die Summe von a und b. Die
Verknupfung "+" erfullt 8 a; b; 2 R :
(A1) a + b = b + a;
(Kommutativgesetz)
(A2) a + (b + ) = (a + b) + ;
(Assoziativgesetz)
(A3) 9 genau ein x 2 R mit a + x = b.
Axiome der Multiplikation in R :
8 a; b 2 R gibt es genau eine Zahl a  b 2 R , genannt das Produkt von a und b. Die
Verknupfung "" erfullt 8 a; b; 2 R :
(M1) a  b = b  a;
(Kommutativgesetz)
(M2) a  (b  ) = (a  b)  ;
(Assoziativgesetz)
(M3) 8 0 6= a 2 R 9 genau ein x 2 R mit a  x = b.
Regelung zwis hen "+" und "":
(D) a  (b + ) = a  b + a  :

(Distributivgesetz)

Bemerkung 2.50 (a) Wie wir bereits in Bemerkung 2.44 festgestellt haben, folgen aus diesem Axiomensystem:

 9! ein neutrales Element der Addition +, namli h die reelle Zahl 0 ('Null') mit a +0 =
a 8 a 2 R.
 9! ein neutrales Element der Multiplikation , namli h die reelle Zahl 1 ('Eins') mit
1  a = a 8 a 2 R.
 8 a 2 R 9! ein Inverses bezugli h +, namli h die Zahl ( a) 2 R mit a + ( a) = 0.
 8 0 =6 a 2 R 9! ein Inverses bezugli h , namli h die Zahl a 1 2 R mit a  a 1 = 1.
(b) Man verwendet nun in bekannter Weise die Abkurzungen
a := ( a);

usw.

1 := a 1; a b := a + ( b); b := b  1 ; ab := a  b; a + b + := (a + b) + ;

Aus dem Axiomensystem des Korpers

konnen jetzt die zahlrei hen Re hengesetze der

Arithmetik abgeleitet werden, deren Groteil zum kanonis hen S hulsto gehoren. Besonders
erwahnt werden soll, dass R ja nullteilerfrei ist. Demzufolge gelten:
ab = a und a 6= 0 ) b = :
ab = 0 , a = 0 und/oder b = 0:

(i)
(ii)

(Kurzungsregel)

Merke: In (i) auf die Bedingung a 6= 0 a hten! Das folgende Beispiel sollte
lehrrei h sein. Gegeben seien a; b 2 R , und es werde := a b gesetzt.
) b + = a j  (a b)
) ab + a bb b = aa ab ) ab bb b = aa ab a
) b(a b ) = a(a b ) j : (a b )
) b=a

fur je zwei beliebige Zahlen. Was wurde fals h gema ht?


Die Regel (ii) verwendet man hau g zur Losung von Glei hungen, z.B.
x2 x 6 = 0 , (x + 2)(x 3) = 0 , x = 2 oder x = 3:
Die Regeln
n
X

k=m

n
Y

ak = am + am+1 +    + an ;

k=m

ak = am am+1    an

konnen als verallgemeinerte Assoziativgesetze der Addition bzw. der Multiplikation angesehen werden. Ebenso hat man ein verallgemeinertes Distributivgesetz
r
X
k=1

ak

s
X
j =1

bj =

r
X

s
X

k=1

j =1

ak bj =

s
X

r
X

j =1

k=1

(Man hmal s hreibt man Doppelsummen in der Kurzform


BSP. (2.21)

ak bj =:

n
P
j;k=1

:=

r X
s
X
k=1 j =1

n P
n
P
j =1 k=1

ak bj :

.)

Potenzen.
n
Y

Mit den Erweiterungen

k=1

a = a|  a{z   a} =: an
n{mal

8 a 2 R 8 n 2 N:

8 a 2 R; a n := a1n 8 0 6= a 2 R
gelten die folgenden Re henregeln fur beliebige Potenzen m; n 2 Z:
a0 := 1

(i) anam = an+m; (ii) ambm = (ab)m ; (iii) (am )n = amn .


BSP. (2.22)

Der se hsjahrige C.F. Gauss verblu te seinen Lehrer mit der folgenden Re hnung:
100
X
k=1

k = 50  101 = 5050:

Warum Gauss re ht hatte, ergibt si h aus folgender U berlegung, die fur jedes n 2 N gilt:
S :=

n
n
X
k:=n+1 j X
j =1

k=1

Au osen na h S ergibt:

(n + 1
S=

S :=

j =0

n
X
j =1

j=

n
X
k=1

n(n + 1)

qj

= 1+q

Au osen na h S liefert

n
X
j =1

qj

n 1
1 k:==j 1 1 + q X qk = 1 + q
k=0
8
>
<

n
X
k=1

k = n(n + 1) S:

Geometris he Summenformel. Seien q 2 R

BSP. (2.23)
n
X

k) = (n + 1)

und n 2 N 0 fest gewahlt.


n
X
k=0

qk

qn

= 1 + qS

qn+1 :

qn+1
q

: q 6= 1;
1
>
:
j =0
(n + 1) : q = 1:
Die obige Beziehung nennt man geometris he Summenformel. Wir vermerken hier zum spateren
Gebrau h, dass die Formel au h fur beliebige komplexe Zahlen q gilt.
S=

n
X

qj =

Ausser den arithmetis hen Operationen + und  ist auf R eine Ordnungsrelation
a  b (spri h: a kleiner glei h b)

:, a < b oder a = b

erklart, vgl. De nition 2.9. Man uberpruft ohne S hwierigkeit den folgenden Sa hverhalt:
Satz 2.51 Die Korper (Q ; +; ) und (R ; +; ), versehen mit der Ordnungsrelation , sind
vollstandig geordnet.

Man hmal ist es sinnvoll, den Glei hheitsfall = auszus hlieen und anstelle von  die "s harfere" Relation
a < b spri h: a kleiner b (, b > a ( b groer a))
zu betra hten. Fur diese gilt ni ht mehr das Axiom der Re exivitat. Ansonsten haben wir
jedo h:
Axiome der Ordnung < in R:
"<" ist eine Relation auf der Menge

der reellen Zahlen mit folgenden Eigen-

s haften:
(O1)
Fur a; b 2 R gilt genau eine der drei Mogli hkeiten
a < b; a = b; b < a;
(Tri hotomiegesetz)
(O2) a < b und b < ) a < ;
(Transitivitat)
(O3) a < b ) a + < b + 8 2 R ;
(Monotonie der Addition)
(O4) a < b und 0 < ) a  < b  : (Monotonie der Multiplikation)
Bea hte: In (O4) ist die Forderung 0 < ganz wesentli h. Fur  0 ist die S hlussfolgerung
fals h, zum Beispiel 2  ( 1) 6< 6  ( 1).

Die Ordnungrelation  auf R ma ht folgende Bezei hnungen sinnvoll:


a 2 R heie

positiv :, a > 0;
negativ :, a < 0:

Als Folgerung aus der Ordnungsrelation  und den Axiomen (O1){(O4) erhalt man alle
Re henregeln fur Unglei hungen, die wir na hfolgend au isten. Die meisten sind intuitiv klar,
eine Beweisfuhrung jedo h muhsam. Es wird hier auf Beweise verzi htet.
Re henregeln der Ordnungsrelation. Fur a; b; ; d 2 R gilt:
(1)
ab > 0 , (a > 0 und b > 0) oder (a < 0 und b < 0);
(2)
a > 0 und b > 0 ) a + b > 0; a > 0 , a < 0;
(3)
a  b und b  a , a = b;
(4)
a 6= 0 , a2 > 0;
(5)
a < b und  d ) a + < b + d und a d < b ;
(6)
0  a < b und 0  < d ) 0  a < bd;
(7)
0 < a < b ) 0 < 1b < a1 ;
Vorsi ht bei Kehrwerten!
(8)
b < a < 0 ) a1 < 1b < 0;
Vorsi ht bei Kehrwerten!
1
(9)
a < b ) a < 2 (a + b) < b;
(10) 0  a < b ) 0  an < bn 8 n 2 N ;
Bea hte das Glei hheitszei hen!
(11) a < b +  8  > 0 ) a  b:

Ein in der Analysis wiederholt auftretendes Problem ist der Na hweis von Unglei hungen
A  B , worin A und B reellwertige arithmetis he Ausdru ke sind. Zwei Verfahren sind gebrau hli h:
(I) Umformungsverfahren.
A  B ( A 1  B1 (    ( A n  Bn ;

wobei die letzte Relation wahr ist.


(II) Abs hatzverfahren.

A  A1  A2      B;

wobei jeder Teils hritt mit einfa hen Mitteln einsi htig gema ht werden kann. Hau g wird
au h das Prinzip der vollstandigen Induktion in diesem Zusammenhang verwendet. In der
Regel benotigt man viel Erfahrung zum Aunden des ri htigen Abs hatzverfahrens. Im folgenden Satz sind einige wi htige Unglei hungen zusammengefasst, an denen wir vers hiedene
Beweisverfahren demonstrieren konnen.
Satz 2.52 Es gelten die folgenden elementaren Unglei hungen.
(i)
2 ab  a2 + 1 b2 8 a; b 2 R 8  > 0:


(ii)

(a + b)2  2 a2 + 2 b2 8 a; b 2 R :


a+b 2

(iii)

ab 

(iv)

n < an 8 a  2 8 n 2 N :

(v)

1 + na  (1 + a)n 8 a  1 8 n 2 N :

8 a; b 2 R

ab 

2 8 a  0; b  0:

(Bernoulli{Unglei hung)

Begrundungen: (i) Fur ; 2 R folgt aus 0  ( )2 = 2


Fur beliebiges  > 0 ers hliet man:


a+b

2 + 2 die Unglei hung 2  2 + 2 .

2 p  |p{z }  2 + 2 ) 2 ab  a2 + 1 b2 :
| {z } =:b
=:a
(ii) Mit  := 1 in (i) folgt (a + b)2 = a2 + 2 ab + b2  2a2 + 2b2:

(iii) Wir s hlieen na h den Umformungsverfahren:




a+b 2
2 2
2
2
2
2
ab 
2 ( 4ab  (a + b) = a + 2ab + b ( 0  a 2ab + b = (a b) ;
und die letzte Relation ist wahr.
(iv) Wir beweisen mit vollstandiger Induktion die Aussage A(n) : n < an.
 Verankerung: 1 < a ist wahr fur alle a  2, also gilt A(1).
 Vererbung: Wir zeigen die Implikation A(n) ) A(n + 1).
A(n + 1) :

A(n)
an+1 = a  an > a  n  2n = n + n  n + 1:

(v) Wir beweisen ebenfalls mit vollstandiger Induktion die Aussage A(n) : 1 + na  (1 + a)n.
 Verankerung: 1 + 1  a = 1 + a = (1 + a)1 ist wahr, also gilt A(1).
 Vererbung: Zum Beweis der Implikation A(n) ) A(n + 1) verwenden wir a2  0 ) na2  0.
A(n + 1) :

A(n)

(1 + a)n+1 = (1 + a)n (1 + a)  (1 + na)(1 + a)  1 + (n + 1)a:

Hiermit ist alles gezeigt.

Eine Verallgemeinerung der Unglei hung (ii) zeigen wir in dem folgenden
Satz 2.53 (Cau hy{S hwarzs he Unglei hung)
Gegeben seien n 2 N und beliebige reelle Zahlen a1 ; a2 ; : : : ; an sowie b1 ; b2 ; : : : ; bn . Dann gilt:
n
X
k=1

ak bk

!2

n
X
k=1

a2k

n
X
k=1

b2k :

Begrundung: Wir setzen zur Abkurzung


n
X

Um die behauptete
Identitat

X
X
A := a2k  0; B := b2k  0; C := ak bk 2 R:
k=1
k=1
k=1
Unglei hung C 2  AB zu zeigen, verwenden wir die fur

0

alle ;  2 R gultige

n
X
k=1

(ak + bk )2 = 2 A + 2B + 2C:


p

Da uber ;  frei verfugt werden darf, wahlen wir  := B und  :=  A mit  := 1 so, dass
C  0 gilt. Dann folgt

p
p p
0  2AB + 2C AB = 2 AB AB + C :
p
p
Im Falle AB > 0 resultiert 0  AB + C , oder aquivalent C  AB. Dur h Quadrieren erhalt
man die behauptete Unglei hung. In den Fallen A = 0 oder B = 0 ist stets au h C = 0.
2
Bemerkung 2.54 Der Spezialfall b1 = b2 =    = bn = 1 fuhrt auf die Unglei hung
n
X
k=1

ak

!2

n

n
X
k=1

a2k :

Fur n = 2 ndet man hier die Aussage (ii), Satz 2.52, wieder.
p2
p2

Zu gegebenen Zahlen ak := k + 2 k + 1; k 2 N , bestimme man ein N 2 N


so, dass die Abs hatzung 0 < ak <  := 10 6 8 k  N gilt. Zur Losung dieser Aufgabe verwenden
wir den folgenden einfa hen
Tri k: Da ak = k k mit Wurzelausdru ken k ; k gilt, sollte man stets eine Erweiterung mit k + k vornehmen!
( )( + ) 2 2
k k = k k k k = k k ; Wurzeln im Zahler vers hwinden!
k + k
k + k
BSP. (2.24)

Fur das Beispiel folgt

2
2
pk2 + 2 kp 2 1  p 2 1 p 2 = 21k 8 k 2 N :
k +2+ k +1
k + k
1
6
Also muss die Bedingung aN  2N <  = 10 erfullt sein, und diese gilt si her fur N > 21 = 0:5  106 ,
ak =

das heit fur

:= 500001 .
BSP. (2.25) Zu gegebenen Zahlen an := (1 + n1 )n zeige man
an 1  an 8 n  2; n 2 N :
Die Losung nden mit wir mit einem ahnli hen Tri k wie im vorstehenden Beispiel und dur h Anwendung der Bernoulli{Unglei hung.
n

1 n
1 n
1
1
1
1
1
n
n
n


an = 1 +
n
1 n1 n = 1 n1 n  1 n1 n
N

n

= 1 + n1 1

n

= an

BERN.

1:

2.5 Intervalle, Betrag, Signum


Mit der Ordnungsrelation  auf dem Korper R lassen si h einige weitere Begri e einfuhren.
De nition 2.55 (Intervalle)
Es seien reelle Zahlen a; b 2 R gegeben mit a  b. Dann heien die Teilmengen von R

[a; b
(a; b)
[a; b)
(a; b

:=
:=
:=
:=

fx 2 R
fx 2 R
fx 2 R
fx 2 R

:
:
:
:

a  x  bg
a < x < bg
a  x < bg
a < x  bg

abges hlossenes Intervall;


o enes Intervall;
(re htsseitig) halbo enes Intervall;
(linksseitig) halbo enes Intervall:

Zum Beispiel:

1 2 [ 1; 3); 3 2= [ 1; 3); (a; a) = ;; [a; a = fag:


Bemerkung 2.56 (a) O ene Intervalle haben weder ein kleinstes no h ein grotes Element.
(b) Die Zahl b a ist die Lange der Intervalle [a; b; [a; b); (a; b); (a; b.
( ) Jedes Intervall mit endli her Lange heie bes hrankt. Die unbes hrankten Intervalle in
R sind genau die Intervalle der Form
[a; +1) := fx 2 R : x  ag; (a; +1) := fx 2 R : x > ag;
( 1; b) := fx 2 R : x < bg; ( 1; b := fx 2 R : x  bg;
fur beliebige Zahlen a; b 2 R , ferner
( 1; +1) := R : (Spezielle Bezei hnung: R + := (0; +1); R + := [0; +1) :)
(d) Stets gilt 1 2= R , denn diese Elemente verstoen gegen die Gesetze der Arithmetik. Zum
Beispiel ist die Implikation +1 + a = +1 ) a = 0 8a 2 R ganz o enbar fals h. Wir folgern,
dass Intervalle an den 1{Enden immer o en sein mussen.
2
De nition 2.57 (Betrag und Signum)
Fur reelle Zahlen x 2 R heie

8
>
<

sign (x) := >


:

+1 : x > 0;
0 : x = 0;
1 : x<0

das Signum von x. Die ni htnegative Zahl

jxj := x  sign (x)


heie der Absolutbetrag (oder einfa h der Betrag) von x.
Zum Beispiel:

sign (0) = 0; sign ( 7) = 1; sign ( 2) = 1;


p p
p p
j0j = 0  sign (0) = 0; j 7j = 7 sign ( 7) = 7; j 2j = 2 sign ( 2) = 2:
Allgemein folgt hieraus die Darstellung

jxj = xx :: xx < 00:;

|x|

sign(x)
1

x
-1
x

Graph der Signums{Funktion

Graph der Betrags{Funktion

Fur den Betrag gelten elementare Re hengesetze, die zum Teil direkt aus der De nition gefolgert werden konnen.
Satz 2.58 Fur reelle Zahlen x; y;  2 R gelten
(N1) jxj  0 und (jxj = 0 genau, wenn x = 0);
(N2) j xj = jjjxj;
(N3)
jjxj jyjj  jx + yj  jxj + jyj.

(Dreie ksunglei hung)

Begrundung fur (N3), da (N1) und (N2) klar sind: Zuna hst gilt fur   0:

jxj   ,   x  +:

(2.7)

Man hat ferner jxj+jyj  x+y  jxj jyj = (jxj+jyj), und wegen (2.7) folgt dann jx+yj  jxj+jyj.
Ersetzt man y dur h y und verwendet (N2), so resultiert
jx yj  jxj + j yj = jxj + jyj:

(2.8)

Mit (2.8) ers hlieen wir jxj = jx + y yj  jx + yj + jyj oder aquivalent jxj jyj  jx + yj, und dur h
Vertaus hen von x und y die Unglei hung jyj jxj = (jxj jyj)  jx + yj. Multiplizieren wir hier
mit 1 und verwenden (2.7), so ergibt si h die behauptete Unglei hung jjxj jyjj  jx + yj. 2
Wir geben weitere Re hengesetze fur den Betrag an:

x

y

= jxj 8 0 6= y 2 R ; 8 x 2 R :

jyj

(2.9)

Eine Verallgemeinerung von (N2) lautet:




n

Y

ak



k=1

n
Y
k=1

jak j;

(2.10)

und hieraus ergibt si h speziell a2 = ja2j = ja  aj = jaj  jaj = jaj2. Eine Verallgemeinerung
von (N3) lautet:


n

X

ak



k=1

n
X
k=1

jak j;

(2.11)

und unter Verwendung von (7.4), (7.5) sowie der Unglei hung von Cau hy{S hwarz erhalt
man


!
!
!
n
2
X

ak bk



k=1

n
X

k=1

jak jjbk j 

n
X
k=1

n
X

a2

k=1

b2k :

(2.12)

Der Betrag jaj einer reellen Zahl a 2 R hat auf der Zahlengeraden die geometris he Bedeutung
des Abstandes oder der Distanz d(a; 0) zum Nullpunkt. Allgemeiner bezei hnet
d(x; a) := jx aj

8 x; a 2 R

die Distanz eines Punktes x 2 R von einem Punkt a 2 R . Die Funktion d(; ) : R  R !
[0; +1) hat die folgenden harakteristis hen Eigens haften:
Satz 2.59 Fur reelle Zahlen x; y; z 2 R und fur d(x; y ) := jx y j gelten
(M1) d(x; y)  0 und (d(x; y) = 0 genau, wenn x = y);
(M2) d(x; y) = d(y; x);
(M3) d(x; y)  d(x; z) + d(z; y).
(Dreie ksunglei hung)
Begrundung: (M1)

gilt wegen (N1) in Satz 2.58, wahrend (M2) aus der De nition folgt. S hlieli h
erhalt man (M3) unter Verwendung von (N3): d(x; y) = jx yj = j(x z)+(z y)j  jx zj + jz yj =
d(x; z ) + d(z; y).
2
z

y
x

Geometris he Verans hauli hung


der Dreie ksunglei hung

Bemerkung 2.60 (a) Die Dreie ksunglei hung konnen wir erst in der Menge C der komplexen Zahlen ri htig interpretieren. Werden namli h in C drei Geraden zum S hnitt gebra ht
und sind die S hnittpunkte x; y; z die E ken des Dreie ks gema Skizze, so dru kt (M3) die
aus der Elementargeometrie bekannte Tatsa he aus, dass die Summe zweier Dreie ksseiten
ni ht kleiner sein kann als die dritte Dreie ksseite, vgl. au h Abs hnitt 3.2.
(b) Mit Hilfe von d(; ) misst man entweder den Abstand zwis hen zwei Punkten aus R , zum
Beispiel d( 1; 3) = j 1 3j = 4, oder man verwendet d(; ) zur De nition von Umgebungen
um einen festen Punkt, zum Beispiel

(a ; a + ) = fx 2 R : d(x; a) < g; [a ; a +  = fx 2 R : d(x; a)  g:


Wegen dieser Maeigens haft tragt d(; ) au h den Namen Metrik.

2.6 Das Vollstandigkeitsaxiom in


S hnitt

R,

Dedekinds her

In Abs hnitt 2.4 wurden Korper{ und Ordnungsaxiome diskutiert, die ni ht nur in R Geltung
haben, sondern gema Satz 2.51 au h in der Menge Q der rationalen Zahlen. Was ist der
wesentli he Unters hied zwis hen R und Q ? p
Wir haben gezeigt, dass die "rationale" Zahlengerade Lu ken aufweist; es gilt zum Beispiel 2 2= Q . Die reelle Zahlengerade hingegen ist
lu kenlos! Ni ht nur auf dem Papier kann die Zahlengerade als beidseitig unendli h ausgedehnte Linie visualisiert werden, sondern zum Beispiel au h dur h einen gespannten Faden,
der na h zwei Seiten unendli h lang ist. Lu kenlosigkeit bedeutet hier: Wird der Faden mit einer S here in zwei Teile zers hnitten, so tri t die S here an der S hnittstelle genau eine "reelle
Zahl". Diese unbeweisbare Feststellung gehort zu den Grundaxiomen der reellen Zahlen:
Vollstandigkeitsaxiom von R:

(V)

Jeder S hnitt in R tri t genau eine reelle Zahl.

Zu klaren sind die Begri e S hnitt und Tre en in mathematis her Terminologie. Diese Begri sbildungen stammen von R. Dedekind (1831{1916).
De nition 2.61 (Dedekinds her S hnitt)
Ein S hnitt in
Eigens haften:

ist eine Partition von

dur h zwei Teilmengen O und U mit folgenden

O 6= ; 6= U ,
O [ U = R ; O \ U = ;,
x 2 U und y 2 O ) x < y:
Ein S hnitt tri t die Zahl t 2 R , wenn x  t  y 8 x 2 U 8 y 2 O gelten, das heit, wenn t
grotes Element von U oder kleinstes Element von O ist.

(S1)
(S2)
(S3)

(a) Wir setzen U := fx 2 R : x < g und O := fx 2 R : x  g. Dieser S hnitt


tri t die Zahl t =  2 R.
(b) Wir setzen U := fx 2 R+ : x  2g und O := fx 2 R+ : x > 2g. Dieser S hnitt tri t die Zahl
t = 2 2 Q.
( ) Fur p > 0 setzen wir U := fx 2 R+ : x2 < pg und O := fx 2 R+ : x2  pg. Dieser S hnitt
tri t die Zahl t 2 R+ mit t2 = p. Das heit, fur jedes p > 0 ist die Glei hung x2 = p eindeutig in R+
losbar. Eine analoge Aussage gilt au h in R := ( 1; 0).
BSP. (2.26)

Bea hte: Fur eine S hnittzahl t gilt entweder t 2 U (dann ist t grotes Element von U , und
es gilt gema De nition 2.13: t = max U ) oder t 2 O (dann ist t kleinstes Element von O
und wir haben t = min O). Ni ht jede unendli he Teilmenge M  R hat ein grotes/kleinstes

Element, vgl. BSP. (2.5). Diese Feststellung tri t selbst auf bes hrankte Teilmengen zu:
BSP. (2.27) Die Teilmenge M  R mit

:= fx 2 R : x = 2 + n1 ; n 2 N g
ist bes hrankt; es gilt 2  x  3 8 x 2 M . Denno h existiert min M ni ht, wahrend max M = 3 ist
(setze n = 1).
M

Einen Ersatz fur das fehlende Maximum oder Minimum vers ha en wir uns mit folgender
De nition:

De nition 2.62 (In mum, Supremum)


Gegeben sei eine ni htleere Teilmenge M  R .

 M heie na h unten bes hrankt :, 9 a 2 R : a  x 8 x 2 M .

Jedes sol he a heie

untere S hranke von M .

9 b 2 R : x  b 8 x 2 M.

M heie na h oben bes hrankt :,


obere S hranke von M .

Gibt es eine grote untere S hranke s von M , so heie s das In mum von M ,

Jedes sol he b heit

s = inf M:

Gibt es eine kleinste obere S hranke S von M , so heie S das Supremum von M ,

S = sup M:
Folgerungen. (a) Tri t ein S hnitt in R die Zahl t, so gilt inf O = t = sup U .
(b) Besitzt M ein Maximum (ein Minimum), so gilt max M = sup M , und analog min M =
inf M . Fur M := N existieren weder max M no h sup M , was in BSP. (2.28) naher begrundet
wird, wahrend min M = inf M = 1 gilt. In BSP. (2.27) existiert min M ni ht. Wir haben
jedo h inf M = 2 sowie max M = sup M = 3.
( ) Setzt man M := fx 2 R : x 2 M g, so folgert man

9 inf M , 9 sup( M ) und 9 sup M , 9 inf( M ).


(d) Fur Intervalle I in der Form [a; b; [a; b); (a; b); (a; b mit a; b 2 R und a < b gilt stets
inf I = a; sup I = b:
Ist I o en bei a, so existiert min I ni ht; ist I o en bei b, so existiert max I ni ht.
(e) Aus Konsistenzgrunden setzt man
sup(a; +1) =: +1; inf( 1; b) =: 1:
Die Frage na h der Existenz von Supremum und In mum einer Teilmenge M  R kann
wegen Folgerung ( ) auf die Frage na h der Existenz von sup M allein bes hrankt werden. Die
Antwort geben wir im folgenden
Satz 2.63 (Supremumsprinzip)
(a) Die ni htleere Teilmenge M  R sei na h oben bes hrankt. Dann existiert S := sup M .
(b) Es sei S 2 R gegeben. Genau dann gilt S = sup M fur eine Teilmenge ; 6= M  R , wenn
S eine obere S hranke ist und wenn gilt:

^ _

>0 x2M

 < x:

(2.13)

Begrundungen: (a) Mit den Mengen O := fb 2 R : b obere S hranke von M g 6= ; und U := R n O


liegt wegen O [ U = R, O \ U = ; und x < y 8 x 2 U 8 y 2 O ein Dedekinds her S hnitt vor,
der gema (V) genau eine S hnittzahl S = inf O festlegt. Also folgt na h De nition die Existenz von
sup M = S .
(b) Wir zeigen hier nur die Implikation S = sup M ) (2:13). Die Implikation "(" kann mit Hilfe

eines Dedekind{S hnittes vom Leser selbst gezeigt werden. Wir fuhren einen indirekten Beweis und
nehmen dazu an, es gelte S = sup M , ni ht aber (2.13). Das logis he Gegenteil der Aussage (2.13)
erhalt man dur h Umdrehen der Quantoren ^, _ sowie aller Unglei hungen im Aussageteil:
_ ^

>0 x2M

S   x:

Dies besagt, S  < S ist obere S hranke von M . Also kann S ni ht kleinste obere S hranke gewesen
sein, im Widerspru h zu S = sup M .
2
BSP. (2.28) Es sei M := N gesetzt. Angenommen, es existiere S := sup N . Wir setzen in (8.1)
 := 1 und folgern 9 n 2 N : S 1 < n oder aquivalent S < n + 1. Aus den Peano{Axiomen folgt
aber n + 1 2 N . Also kann S ni ht obere S hranke von N sein.
Die Menge N der naturli hen Zahlen ist na h oben unbes hrankt.
Diese Tatsa he wird in der Literatur { in lei ht modi zierter Form { als Satz des Ar himedes gefuhrt.
Satz 2.64 (Ar himedes, um 280{212 v.Chr.)
Zu jeder reellen Zahl x 2 R gibt es eine naturli he Zahl n 2 N mit x  n.
BSP. (2.29) Approximation einer Zahl x 2 R dur h eine Zahl r 2 Q . Na hfolgend sei stets
nj 2 D := f0; 1; 2; : : : ; 9g eine dezimale Zi er. Zu gegebenem x 2 R+ konstruieren wir dur h wiederholte Anwendung des Ar himedis hen Satzes 2.64 eine naturli he Zahl n 2 N und dezimale
Zi ern n1; n2; : : : ; nk so, dass die rationale Zahl rk := n; n1n2    nk das gegebene x mit einem Fehler

ho hstens 10 k approximiert:

9 n 2 N0 : n < x  n + 1
) 9 n1 2 D : n1 < 10 x 10 n  n1 + 1
() 0 < x (n + 0; n1 )  10 1 )
) 9 n2 2 D : n2 < 100 x 100 n 10 n1  n2 + 1 () 0 < x (n + 0; n1 n2)  10 2 )

...
na h k S hritten:

...

...

) 9 nk 2 D : n + 0; n1 n2    nk < x  n + 0; n1 n2    nk + 10 k :
Der endli he Dezimalbru h rk := n; n1n2    nk ist eine rationale Zahl, fur die gilt:
d(x; rk ) = jx rk j  10 k :
Zu gegebenem  > 0 kann k 2 N stets so bestimmt werden dass 10 k <  erfullt ist. Mit dieser
Feststellung erhalten wir zusammenfassend:
Satz 2.65 Zu jeder reellen Zahl x 2 R und zu jedem  > 0 gibt es eine rationale Zahl r 2 Q
mit d(x; r) = jx rj < . Das heit, Q liegt di ht in R .

Auf diesem Satz beruht das Prinzip jeder digitalen Re henanlage. Digitale Computer arbeiten
auss hlieli h
mit rationalen Zahlen in endli her Dualdarstellung. Dass trotzdem Zahlen wie
p
2 2= Q verarbeitet
p werden konnen, ist dur h Satz 2.65 begrundet. Der pComputer bere hnet
ni ht wirkli h 2, sondern eine rationale Approximation rWurzel mit d( 2; rWurzel ) < . Der
Fehler  ist dur h die Mas hinengenauigkeit bestimmt ( Anzahl der verarbeiteten Dualstellen).
BSP. (2.30)

Auss hopfung von R dur h Intervalle. Aus den beiden Implikationen


1
[
[ n; n  R ) [ n; n  R;

(i)

8n2N :

(ii)

x 2 R Satz)1:17 9 n

n=1

02N

: jxj  n0 ) x 2 [

n 0 ; n0

1
[
n=1

n; n

resultiert die folgende Auss hopfung von R dur h abges hlossene Intervalle:
=

1
[

n=1

n; n:

Analoge Auss hopfungen gelten au h mit o enen bzw. halbo enen Intervallen der Form ( n; n),
( n; n oder [ n; n).
BSP. (2.31) Auss hopfung von o enen Intervallen dur h abges hlossene Intervalle. Fur gegebene reelle Zahlen a; b 2 R mit a + 2 < b (diese Bedingung ist rein te hnis h) gelten die beiden
folgenden Implikationen:
1
[
1
1
(i) 8 n 2 N : [a + n ; b n  (a; b) ) [a + n1 ; b n1  (a; b);
n=1

(ii)

x 2 (a; b) ) 9 n0 2 N

: x 2 [a + n1 ; b

n0

Aus (i) und (ii) ers hlieen wir


(a; b) =

1
[

) (a; b) 

[a + n1 ; b

1
[
n=1

[a + n1 ; b n1 :

1 :

n=1

Bea hte: Eine sol he Auss hopfung gilt ni ht fur das abges hlossene Intervall [a; b. Denn die Implikation (ii) wird fals h fur x = a und x = b. Hingegen gilt:

[a; b =

1
\
n=1

[a

1;b + 1 =

1
\

(a

n=1

n; b

+ n1 ):

Man beweise dies zur U bung!


BSP. (2.32) Wir geben hier eine Mengenalgebra A an, die keine {Algebra ist. Dazu sei

:= R = ( 1; +1) gesetzt. A sei die Menge aller Intervalle der Form ( 1; , (a; b, (d; +1),
;, ( 1; +1) und deren endli he Vereinigungen. Dabei sei angenommen, dass a; b; ; d 2 R; a < b,
beliebige Zahlen sind. O enbar sind die Komplemente der oben angegebenen Intervalle wiederum
Intervalle oder endli he Vereinigungen von Intervallen des angegebenen Typs. Es ist ni ht uns hwer,
fur A die Axiome (A1){(A3) einer Mengenalgebra aus De nition 0.2(b) zu veri zieren. A ist jedo h
keine {Algebra, denn das Axiom (A4) aus Bemerkung 0.6 ist ni ht erfullt. Seien namli h a; b 2 R

1 2 A; j 2 N ,
j

mit a + 1 < b fest gewahlt. Setzt man Aj := (a; b


1
[

j =1

so erhalt man wie in BSP. (2.31)

Aj = (a; b) 2= A:

BSP. (2.33)
Potenzen mit rationalem Exponenten; Wurzeln. Zu gegebenen Zahlen a  0
und n 2 N ist eine Losung x  0 der Glei hung xn = a zu bestimmen. Da R nullteilerfrei ist, hat die
Glei hung xn = 0 genau eine Losung, namli h x = 0. Fur a > 0 diskutieren wir (i) das Problem der
Existenz und (ii) das Problem der Eindeutigkeit.
(i) Sei a > 0 gegeben. Dur h die Mengen U := fx 2 R+

: xn < ag und O := fx 2 R+ : xn  ag
wird ein Dedekinds her S hnitt von R+ de niert, der wegen des Vollstandigkeitsaxioms (V) genau
eine Zahl t > 0 tri t mit tn = a. Also existiert eine Losung x > 0.
(ii) Waren x; y  0 zwei Losungen mit x < y, so ergabe si h widerspru hli h a = xn < yn = a. Also
ist die Losung eindeutig.
Satz 2.66 Fur festes a  0 und n 2 N existiert genau eine reelle Zahl x  0 mit xn = a.
De nition 2.67 Die gema Satz 2.66 eindeutig bestimmte Losung x  0 der Glei hung xn =
a; n 2 N , heie n{te Wurzel von a  0. Wir s hreiben hierfur
p
x = n a =: a1=n .

pn

0 = 0.
p
Bemerkung 2.68 (a) Die reelle Zahl n a ist hier auss hlieli h fur a  0 erklart worden. Ist
a < 0, so werdenpwir erst im Rahmen der komplexen Zahlen die Bedeutung despmengenwertigen Symbols n a erklaren konnen. Insbesondere ist es fals h, zum Beispiel
8 = 2 zu
setzen, obwohl ( 2)3 = 8 gilt. Man unters heide sorgfaltig die zwei vers hiedenen Aufgaben
 Bestimme die Zahl x = pn a  0, fur wel he xn = a  0 gilt.
 Bestimme die Losungsmenge pn a der Glei hung xn = a 2 R .
pa anstelle von pa. Stets gilt pa2 = jaj 8 a 2 R . Existiert die
(b) Man
s hreibt
einfa her
pn a, so gilt ( pn a)n = a. Es ist im allgemeinen fals h, pn an = a zu setzen, wie das Beispiel
Zahl
p
( 1)2 6= 1 lehrt. Jedo h:
pn n
a = a , a  0:
Insbesondere gilt

( ) Die reellen Losungen x 2 R der Glei hung xn = a 2 R fassen wir in der folgenden Tabelle
zusammen:
2
Reelle Losungen von xn = a

a0

n = 2m
n = 2m + 1

a<0

n = 2m
n = 2m + 1

(n gerade)

x=na

(n ungerade)

x= na

(n gerade)

keine reelle Lsg.

(n ungerade)

x=

p
n

jaj

De nition 2.69 Fur a > 0 und r := p=q mit q 2 N ; p 2 N 0 gelte:


ar :=

pq ap pq ap; a r := p1
0r := 0
=
q p;
a

fur r > 0; 00 := 1:

Dur h diese De nition sind Potenzen mit beliebigem rationalen Exponenten erklart. Die Potenzre henregeln, wie zum Beispiel
ar as

ar+s ;

(ar )s

ars ;

p
p
m
a = nm a = a1=nm ;

werden als bekannt vorausgesetzt.


Wir konnen jetzt die Aussage (iii) aus Satz 2.52 verallgemeinern.
Satz 2.70 (arithmetis h{geometris hes Mittel)
Fur gegebene reelle Zahlen a1 ; a2 ; : : : ; an mit ak  0, gilt stets
A :=

n
X

n k=1

ak 

v
u n
uY
n
t
ak
k=1

=: G:

Die Zahl A heit arithmetis hes Mittel der ak , die Zahl G heit geometris hes Mittel der
ak .

Die etwas umfangrei here Begrundung wird in den U bungen erbra ht.

2.7 Der binomis he Lehrsatz; Elemente der Kombinatorik


Binompotenzen sind Ausdru ke der Form (a + b)n mit a; b

lei ht veri zierbar sind die folgenden Identitaten:

2 R und n 2 N . Bekannt und

(a + b)1 = a + b; (a + b)2 = a2 + 2ab + b2 ; (a + b)3 = a3 + 3a2 b + 3ab2 + b3 :


Fur allgemeines n 2 N benotigen wir die folgende Begri sbildung:
De nition 2.71 Es seien Zahlen 2 R und k 2 N 0 gegeben. Es werde
 

0 := 1;

 

( 1)( 2)    ( k + 1)

fur k  1
:=
k!
k

gesetzt. Die so de nierten Zahlen


k

(spri h: uber k) heien Binomialkoezienten.

Die Zahlen 2 R und n 2 N seien beliebig.

BSP. (2.34)

 


=
1
1! = ;
 
n
n(n 1)(n 2)    (n
=
n!
n
 
5
5  4  3 = 10;
=
3
123
 
10 = 10  9  8  7  6 = 252;
5
12345


1=3 = 13 ( 13 1)( 13 2)(
1234
4

n + 1)

1
3

= 1;

3) = 1  4  7  10 = 35 :
34  1  2  3  4 243

Weitere Re henregeln, die ohne S hwierigkeiten aus der De nition der Binomialkoezienten
gefolgert werden konnen, sind im folgenden Satz zusammengefasst.
Satz 2.72 Fur Zahlen n; k 2 N 0 gilt stets:


 
n
n!
n
= k!(n k)! = n k falls 0  k  n;
(a)
k
 

n
= 0 falls k > n;
k

   

n+1
n
n
+ k = k falls 1  k  n:
k 1

(b)
( )

Begrundung fur ( ):


1 +

 

n
k

= (k 1)!(nn! k + 1)! + k!(nn! k)! = k!(n nk! + 1)! (k + n + 1




(
n + 1)!
n+1
= k!(n + 1 k)! = k :

k)

Die Formel ( ) ermogli ht eine bequeme rekursive Bere hnung der Binomialkoezienten nk. Das
folgende Bere hnungss hema heit Pas als hes Dreie k (B. Pas al, 1623{1662). Jede Zahl ist die
Summe der beiden daruberstehenden Zahlen.
0
1
0
1
1
1
k
2
1
2
1
k
3
1
3
3
1
k
4
1
4
6
4
1
k
5
1 5
10
10
5 1
k
6
1 6 15
20
15 6 1
k
s hnellen Bere hAus derselben Beziehung lasst si h au h ein einfa her numeris her Algorithmusnzur
nung der Binomialkoezienten herleiten. Wir setzen zur Vereinfa hung bnk := k. Mit dem folgenden
Algorithmus werden zu einer vorgegebenen Zahl N 2 N alle Binomialkoezienten bnk ; 0  k  n 
N , bere hnet.

Einlesen: N 2 N ; b00 := 1;
f
ur n := 1; 2; : : : ; N :
bn0 := 1; bnn := 1;
fur k := 1; 2; : : : ; n 1 :
bnk := bn 1;k 1 + bn 1;k : (Ende k, Ende n)
Fur N = 12 haben wir die folgende Tabelle mit dem obige Algorithmus bere hnet:
4 5 6 7 8 9 10 11 12
nnk 0 1 2 3
0 1
1 1 1
2 1 2 1
3 1 3 3 1
4 1 4 6 4 1
5 1 5 10 10 5 1
6 1 6 15 20 15 6 1
7 1 7 21 35 35 21 7 1
8 1 8 28 56 70 56 28 8 1
9 1 9 36 84 126 126 84 36 9 1
10 1 10 45 120 210 252 210 120 45 10 1
11 1 11 55 165 330 462 462 330 165 55 11 1
12 1 12 66 220 495 792 924 792 495 220 66 12 1
1:
2:
3:
4:
5:

Satz 2.73 (Binomis her Lehrsatz)


Gegeben seien Zahlen a; b 2 R und n 2 N . Dann gilt:
A(n)

(a + b)n

n  
X
n

ak bn k :
k
k=0
(Zum Beispiel: (a + b)5 = 1  b5 + 5  ab4 + 10  a2b3 + 10  a3 b2 + 5  a4 b + 1  a5 .)

Begrundung: Wir verwenden zum Beweis der Aussage A(n) vollstandige Induktion na h n.
 Verankerung: A(1) ist ri htig, denn es gilt
 

1 b + 1a = b + a = a + b:
0
1
 Vererbung: Wir zeigen die Implikation A(n) ) A(n + 1).
(a + b)1 =

(a + b)

n+1

n A(n)

(a + b)(a + b) = (a + b)

n  
X
n

a k bn k
k
k=0



n
(+1)
n
X n
X n
=
ak+1bn k +
ak bn+1 k
k
k
k=0
k=0

nX
+1 n
n+1 
X
n
j :=k+1
j
n
+1
j
ab
+
=
ak bn+1 k
j
1
k
j =1
k=0
 

  
nX
+1
n
n
n
k:=j
k
n
+1
k
ab
+
bn+1
=
+
0
k
1
k
k=1 |
| {z }
{z
}
=(n+1
=1=(n+1
k )
0 )
nX
+1 n + 1
=
ak bn+1 k :
k
k=0

Die Zeilensummen im Pas al{Dreie k ergeben den Wert

BSP. (2.35)

2 = (1 + 1) =
n

n  
X
n

k
k=0

 

 

= 0 + 1 +  +

 

n
:
n

(2.14)

Ganz analog erhalt man


0 = (1 1)

n
X

 

n
=
k
k=0

 

( 1) = 0
k

 

1 +    + ( 1)

 

n
:
n

(2.15)

Addiert man (2.14) und (2.15) und teilt ans hlieend die Summe dur h 2, so folgt:
2

 

1= n

 

 

n
2k

+    (bri ht ab fur 2k > n).


0 + 2 + 4 + +
Subtrahiert man (2.14) und (2.15) und teilt ans hlieend die Di erenz dur h 2, so folgt:
n

 

 

1 + 3 + 5 +    + 2k + 1 +    (bri ht ab fur 2k + 1 > n).

BSP. (2.36)

angezeigt:

 

1= n

mk

Das
 

Wa hstum der Binomialkoezienten


 

m
1 n
< k
k
n k

(2.16)
(2.17)

wird dur h folgende Unglei hungen

 k1!  2k1 1 ; 8 m; n; k 2 N : m < n und 1  k  n:

(2.18)

Eine Begrundung verwendet die Tatsa he, dass fur jede Zahl 1  a < n die Unglei hung 1 ma < 1
gilt. Hieraus resultiert:
1 m = 1  (1 m1 )(1 m2 )    (1 km1 ) < 1  (1 n1 )(1 n2 )    (1 k n 1 )
mk k
k!
k!
 
= n1k nk  1  1k!  1 = 1  2 13    k  2  21   k = 2k1 1 :
BSP. (2.37)

Die Menge E := fx 2 R : x = (1 + n1 )n; n 2 N g ist bes hrankt:



m 
n
2  1 + 1 < 1 + 1 < 3 8 m; n 2 N : m < n:
m

a
n

(2.19)

Zur Begrundung verwenden wir zuna hst die Bernoulli{Unglei hung (1 + m1 )m  1 + m  m1 = 2,


aus der die linke Unglei hung folgt. Fur den Beweis der re hten Unglei hung verwenden wir den
binomis hen Lehrsatz, indem wir a := 1=m und b := 1 setzen:
 
  
m
n

n
m
X
1
1
m (2:18) X
n
1
1
<
=
= 1+
1+
m

(2:18)
<
geom: =Summe

k=0

mk k

nk k
k=0
nX1  j

1
1
k 1 =1+
2
2
j =0
k=1
n
1 + 1 1 (11==2)2 < 1 + 2 = 3:
1+

n
X

BSP. (2.38)

Wa hstum der Fakultaten. Es gilt




 n n

n+1

n

8 n 2 N:
(2.20)
3 < n!  2
Die linke Unglei hungsseite zeigt man dur h vollstandige Induktion unter Verwendung von (2.19).
Die re hte Unglei hungsseite erhalt man Hilfe des Satzes vom arithmetis h{geometris hen Mittel.
(U bungsaufgabe!)
"Die Fakultat ers hlagt jede Potenz", das heit, fur jede Zahl a > 0 gibt es ein N 2 N mit
an < n!

8 n  N:

(2.21)

Zur Begrundung wahlen wir zum Beispiel N  3a. Dann folgt aus der Unglei hung (2.20) die folgende
Abs hatzung:
an

 3

n

= 3

N nYN  
N

k=1

< N !(N + 1)(N + 2)    n = n!

Elemente der Kombinatorik, Lapla e{Experimente.

Aussagen zur Sto hastik werden ausfuhrli her im 4. Semester behandelt.

BSP. (2.39) Wird ein idealer Spielwurfel (Augenzahlen: 1,2,3,4,5,6) geworfen, so ist im Ergebnis
jede der se hs Augenzahlen glei hmogli h. Im physikalis hen Sinn ist der Wurfelwurf ein Experiment
(das heit unter glei hen Bedingungen beliebig oft wiederholbar) mit ni htdeterministis hem Ausgang. Das Ergebnis des Experiments, namli h die geworfene Augenzahl, ist rein zufallig bestimmt.
Sol he Experimente heien im wahrs heinli hkeitstheoretis hen Sinn Zufallsexperimente. Darunter fallen der hier vorgestellte Wurfelwurf, aber au h Munzwurf, Ziehen von Losen in der Lotterie,
Roulette, usw.

Die Gesamtheit aller mogli hen Ausgange oder Ergebnisse eines Zufallsexperiments fasst man
zu einer Menge
zusammen, dem Ergebnisraum. Beispiele sind
 Wurfelwurf:
= f1; 2; 3; 4; 5; 6g,
 Munzwurf:
= fZ; W g, mit der Bedeutung Z = 'Zahl', W = 'Wappen',
 Ziehen von Losen:
= fN; Gg, mit der Bedeutung N = 'Niete', G = 'Gewinn'.
Der Ergebnisraum
ist ni ht notwendig endli h; zum Beispiel tri t ein rein zufallig gelegter
Dedekinds her S hnitt eine reelle Zahl x 2 R =
.
De nition 2.74 Es sei ein Zufallsexperiment gegeben mit Ergebnisraum
.
(a) Jede Teilmenge A 
heie ein Ereignis; insbesondere heie A := ; das unmogli he
Ereignis und A :=
das si here Ereignis.
(b) Ein Zufallsexperiment heie Lapla e{Experiment, wenn der Ergebnisraum
endli h ist:
j
j  ard
< 1, und wenn jedes Ergebnis glei hmogli h ist. Die einelementigen Teilmengen
A := f! g; ! 2
, heien Elementarereignisse.

( ) Die Potenzmenge A := 2
= P (
) heie die Ereignisalgebra des Lapla e{Experiments.
(Bea hte: A ist eine  {Algebra.)
(d) Die Zahl

P (A) :=

jAj ; A 2 A;
j
j

heie die Lapla e{Wahrs heinli hkeit des Ereignisses A. Die hierdur h induzierte 'Funktion' P mit A 3 A 7! P (A) 2 [0; 1 heie Wahrs heinli hkeitsverteilung auf A oder kurz
Wahrs heinli hkeit.

Beim Munzwurf hatten wir


= fZ; W g, so dass j
j = 2 und A = f;; fZ g; fW g;
g
folgen. Die Relationen
j;j
j
j
P (;) =
j
j = 0; P (
) = j
j = 1
gelten o enbar fur jedes Zufallsexperiment. Wir haben beim Munzwurf no h die beiden Wahrs heinli hkeiten (generell s hreiben wir P (!) anstelle von P (f!g)):
jfZ gj = 1 = jfW gj = P (W ):
P (Z ) =
j
j 2 j
j
BSP. (2.40)

BSP. (2.41) Beim Wurfelwurf hatten wir


= f1; 2; 3; 4; 5; 6g, so dass j
j = 6 gilt. A besteht
aus 26 = 64 Elementen, die hier ni ht aufgelistet werden sollen. Einige Wahrs heinli hkeiten:

 P (k) = jfj
kgjj = 61 8 k = 1; 2; : : : ; 6;

 A=^ "Augenzahl gerade" ) A = f2; 4; 6g ) P (A) = jjA


jj = 63 = 21 :

 A=^ "Augenzahl prim" ) A = f2; 3; 5g ) P (A) = 12 :


 B =^ "Augenzahl 6= 6" ) B = f1; 2; 3; 4; 5g = A mit A = f6g.
) P (B ) = jjB
jj = 65 = 1 61 = 1 P (A) = P (A ):
Wir fassen die wi htigsten Regeln zusammen:
P (;) = 0; P (
) = 1 P (A) = 1 P (A) 8 A 2 A:

Hier und im folgenden verwenden wir die in der Wahrs heinli hkeitstheorie ubli he Bezei hnung A fur das Komplement einer Menge A.
BSP. (2.42) Wir greifen aus dem Intervall [100; 999 eine naturli he Zahl n 2 N rein zufallig

heraus und bestimmen zu diesem Lapla e{Experiment die Wahrs heinli hkeit P (A) fur das Ereignis
Es gilt o enbar
= [100; 999 \ N mit j
j =
999 99 = 900 sowie
A = fn 2 N : n = a1 a2 a3 ; a1 2 f1; 2; : : : ; 9g und a2 ; a3 2 f0; 1; : : : ; 9g
und aj paarweise vers hiedeng:
Fur die Bere hnung von jAj uberlegen wir uns die mogli hen Belegungen der Zi ern a1 ; a2 ; a3 :

A=^ "Die Zahl n hat lauter vers hiedene Zi ern".

Belegung von a1 : 9 Mogli hkeiten f1; 2; : : : ; 9g


Belegung von a2 : 9 Mogli hkeiten f0; 1; 2; : : : ; 9g n fa1 g
Belegung von a3 : 8 Mogli hkeiten f0; 1; 2; : : : ; 9g n fa1 ; a2 g
Hiermit ers hlieen wir:
jAj = 648 = 0:72:
P (A) :=
j
j 900

9
=
;

insgesamt
9  9  8 = 648
Mogli hkeiten.

Bemerkung 2.75 Die Darstellung n = a1 a2 a3 darf ni ht als Produkt a1 a2 a3 missverstanden
werden; es ist vielmehr die Dezimaldarstellung einer naturli hen Zahl gemeint, bei der die
Stellung der Zi ern wesentli h ist. Unmissverstandli h wird die Darstellung erst, wenn wir
n = (a1 ; a2 ; a3 ) s hreiben.
2
De nition 2.76 (a) Eine Menge fa1 ; a2 ; : : : ; an g heie (geordnetes) n{Tupel, ges hrieben
(a1 ; a2; : : : ; an), wenn a1 stets das erste, a2 stets das zweite, : : :, an stets das n{te Element ist.
Zwei n{Tupel (a1 ; a2 ; : : : ; an ) und (b1 ; b2 ; : : : ; bn ) sind genau dann glei h, wenn aj = bj 8 j =
1; 2; : : : ; n gilt.
(b) Gegeben seien ni htleere Mengen E1 ; E2; : : : ; En. Die Menge aller geordneten n{Tupel
(a1 ; a2; : : : ; an) mit aj 2 Ej 8 j = 1; 2; : : : ; n, heie das artesis he Produkt der Ej , ges hrieben E1  E2      En . Falls E1 = E2 =    = En gilt, so s hreibt man kurzer E n . Statt E 1
s hreibt man E , statt (a) einfa h a.
Zum Beispiel:
R+

 [0; 1 = f(x; y) : x; y 2 R und x > 0; 0  y  1g;


R 3 = f(x1 ; x2 ; x3 ) : xj 2 R ; j = 1; 2; 3g:

Das in BSP. (2.42) diskutierte Problem gehort zur Klasse der


Belegungsprobleme: Es seien k S hubladen S1 ; S2 ; : : : ; Sk untereinander und in
dieser Reihenfolge aufgestellt. In S1 werde ein Objekt a1 , dann in S2 ein Objekt
a2 usw. gelegt. Das Ergebnis heie eine Belegung (a1 ; a2 ; : : : ; ak ) der S hubladen.
Problemstellung: Wieviele Belegungen gibt es insgesamt, wenn es n1 Mogli hkeiten gibt, S1 zu belegen, dana h n2 Mogli hkeiten, S2 zu belegen, : : :, und
s hlieli h nk Mogli hkeiten, Sk zu belegen?

Bemerkung 2.77 Bilden die nj Elemente aj die Menge Ej , so ist eine Belegung ein geordnetes k{Tupel (a1 ; a2; : : : ; ak ) 2 E1  E2      Ek .
2
BSP. (2.43) Es sind alle dreistelligen Dezimalzahlen in N zu bestimmen, die si h aus der Ziffernmenge f1; 2; 3g kombinieren lassen. Wenn wir keine Wiederholung einer Zi er zulassen, so sind

das o enkundig die 6 = 3! Zahlen

123 213 312


132 231 321
Lassen wir hingegen Wiederholungen von Zi ern zu, so sind die folgenden 27 = 33 Belegungen
mogli h:
111 121 131 211 221 231 311 321 331
112 122 132 212 222 232 312 322 332
113 123 133 213 223 233 313 323 333

Wir spezi zieren den Begri der Belegung unter Beru ksi htigung des Wiederholungsfalles:

De nition 2.78 Gegeben sei die endli he Menge


mit j
j = n. Das geordnete k{Tupel
(a1 ; a2; : : : ; ak ) mit k  n heie geordnete Probe vom Umfang k aus der Menge
(vom
Umfang n) ohne Wiederholung, wenn (a1 ; a2 ; : : : ; ak ) wie folgt entsteht:
a1 wird aus
entnommen,
a2 wird aus
n fa1 g entnommen,
..
.
ak wird aus
n fa1 ; a2 ; : : : ; ak 1 g entnommen.

Die Losung des Belegungsproblems wird jetzt dur h das folgende Abzahltheorem bes hrieben:
Satz 2.79 (Produktregel)
Fur jede naturli he Zahl k 2 N gilt die folgende Aussage A(k): Hat man k S hubladen
S1 ; S2 ; : : : ; Sk und
n1 Mogli hkeiten, S1 zu belegen, und dana h
n2 Mogli hkeiten, S2 zu belegen, und dana h
..
.
nk Mogli hkeiten, Sk zu belegen,

so gibt es insgesamt n1  n2    nk Belegungen der S1 ; S2 ; : : : ; Sk .


Begrundung: Wir beweisen A(k) mit vollstandiger Induktion na h k.
 Verankerung: Die Aussage A(1) ist na h Voraussetzung wahr.

Vererbung: Gibt es nk+1 Mogli hkeiten, die S hublade Sk+1 zu belegen, so lasst si h jede dieser
Mogli hkeiten mit den gema A(k) bestehenden n1  n2    nk Belegungen der S1; S2 ; : : : ; Sk
kombinieren. Insgesamt hat man dann n1  n2    nk  nk+1 Belegungen der S1; S2 ; : : : ; Sk+1, also
Aussage A(k + 1).
2

Der folgende Satz zahlt zu den zentralen Resultaten der Kombinatorik:


Satz 2.80 Gegeben seien eine endli he Menge
mit j
j = n und eine naturli he Zahl k 2
N;

k  n. Dann gilt:

(a) Die Anzahl der geordneten Proben vom Umfang k aus


ohne Wiederholung ist
 
n
= n! :
n(n 1)    (n k + 1) = k!
(2.22)
(n k)!
k
(b) Die Anzahl der geordneten Proben vom Umfang k aus
mit Wiederholung ist
nk :

(2.23)

( ) Die Anzahl der ungeordneten Proben vom Umfang k aus


(=^ ni htgeordnete Teilmenge
A 
mit jAj = k) ohne Wiederholung ist
 

n
:
k

(2.24)

(d) Die Anzahl der ungeordneten Proben vom Umfang k aus


mit Wiederholung ist


n+k 1
:
(2.25)
k

Bemerkung 2.81 Die Aussage (a) liefert im Sonderfall k = n die Anzahl der vers hiedenen Anordnungen von n Elementen. Jede sol he Anordnung ist ein geordnetes n{Tupel, das na h Jakob
Bernoulli (1635{1705) eine Permutation der gegebenen n Elemente heit.
2

Im abbildungstheoretis hen Sinn de nieren wir allgemeiner:


De nition 2.82 Fur eine gegebene Menge
heie f 2 Abb(
;
) eine Permutation :, f
bijektiv.

ist

Insbesondere ist die identis he Abbildung Id


:
!
eine Permutation. Ist
eine endli he Menge
mit n Elementen, so gibt Satz 2.80(a) also Auskunft uber die Anzahl aller mogli hen Permutationen
auf
:
Jede endli he Menge
mit j
j = n hat genau n! Permutationen.
(2.26)
BSP. (2.44) Gegeben sei ein glei hseitiges Dreie k, dessen E kpunkte wir entgegen der ubli hen
Nomenklatur mit 1; 2; 3 bezei hnen.
3

Glei hseitiges Dreie k mit Hohen

Die Menge M aller Abbildungen, die das glei hseitige Dreie k in si h selbst uberfuhren, besteht
genau aus den 3! = 6 Permutationen der E kpunkte. Wir s hreiben jede sol he Permutation in der
Form


3
2
1
=
;
ai 2 f1; 2; 3g; ai 6= aj :
a1 a2 a3
Zum Beispiel geht das glei hseitige Dreie k bei Drehung um 120o in si h selbst uber: Die E kpunkte
11; 22; 33werden in dieser Reihenfolge auf die E kpunkte 2; 3; 1 abgebildet. Wir s hreiben dafur =
2 3 1 . In der folgenden Tabelle sind die 6 Permutationen i zusammen mit ihrer geometris hen
Bedeutung aufgelistet.
i
i
geometris he Bedeutung
1 11 22 33
Drehung um 0o
2 21 32 13
Drehung um 120o
3 31 12 23
Drehung um 240o
4 11 32 23 Spiegelung an der Hohe dur h den E kpunkt 1
5 31 22 13 Spiegelung an der Hohe dur h den E kpunkt 2
6 21 12 33 Spiegelung an der Hohe dur h den E kpunkt 3

Es ist nun M := f 1 ; 2 ; : : : ; 6 g. Wir fuhren auf M eine Verknupfung ein, namli h die Hintereinanderausfuhrung oder das Kompositum zweier Permutationen, z.B.:

 
 

1
2
3
1
2
3
1
2
3
2 5 =
2 3 1 3 2 1 = 1 3 2 = 4 :
Man sieht sofort, dass ni ht aus M hinausfuhrt: : M  M ! M . Daruber hinaus uberzeugt man
si h dur h einfa hes Na hre hnen, dass assoziativ ist, ni ht aber kommutativ. Es gilt zum Beispiel

 

1
2
3
1
2
3
4 = 2 5 =
1 3 2 6= 2 1 3 = 5 2 = 6:
Ganz o ensi htli h ist die Permutation 1 das neutrale
Element (Einselement) bezugli h , und zu
jedem Element i 2 M gibt es genau ein Inverses i 1 2 M ; zum Beispiel gilt 3 1 = 2 , wie folgende
Re hnung zeigt:

 
 


 

1
2
3
1
2
3
1
2
3
1
2
3
1
2
3
3 2 =
3 1 2 2 3 1 = 1 2 3 = 1 = 2 3 1 3 1 2 = 2 3 :
Somit gilt das Gruppenaxiom (G3) aus De nition 1.23. Die Glei hungen
x = ;
y =
haben fur jedes Paar ; 2 M jeweils genau eine Losung x; y 2 M , namli h x = 1 und
y = 1 . Wir setzen zum Beispiel := 3 und := 6 . Dann haben wir 3 x = 6 genau fur
x = 2 6 = 5 sowie y 3 = 6 genau fur y = 6 2 = 4 . Damit erfullt die Algebra (M; ) alle
Gruppenaxiome; es liegt eine endli he Gruppe vor, fur die die folgende Operationstafel gilt:
1 2 3 4 5 6

1
2
3
4
5
6

1
2
3
4
5
6

2
3
1
5
6
4

3
1
2
6
4
5

4
6
5
1
3
2

5
4
6
2
1
3

6
5
4
3
2
1

Begrundungen von Satz 2.80: (a) Eine geordnete Probe vom Umfang k entspri ht genau einer Belegung von S1; S2 ; : : : ; Sk . Ohne Wiederholung: Es gibt nun genau n Mogli hkeiten, S1 zu belegen,
dana h genau n 1 Mogli hkeiten, S2 zu belegen, : : :, und s hlieli h genau n (k 1) Mogli hkeiten,
Sk zu belegen. Aus Satz 2.79 erhalten wir jetzt die Behauptung (2.22).
(b) Mit Wiederholung: Fur jede S hublade Sj ; j = 1; 2; : : : ; k; gibt es genau n = j
j vers hiedene
Belegungen. Gema Satz 2.79 sind dies insgesamt nk Belegungen.
( ) Bei ungeordneten Proben vom Umfang k brau hen o enbar
die k! Permutationen ni ht unters hie .
n
den zu werden. Mit dem Resultat (a) folgt dann k! k k! = nk fur die Anzahl der ungeordneten
Proben ohne Wiederholung.
(d) Dur h n 1 Trennstri he erzeugen wir zuna hst fur jedes der n Objekte a1 ; a2 ; : : : ; an der Menge

ein Feld:

a1

a2



aj



an 1

an

Wird bei der Entnahme der Probe das Objekt aj gezogen, so s hreiben wir ein Kreuz  in das Feld
Da wir Wiederholung zulassen, konnen in einem Feld mehrere Kreuze auftreten. Da die Probe

aj .

den Umfang k hat, entsteht auf diese Weise eine Folge von n + k 1 Zei hen, namli h k Kreuzen
und n 1 Stri hen, zum Beispiel   j  jj  . Hier ist n = 4, k = 6, und die Objekte a1; a2 und
a4 wurden zweimal, einmal bzw. dreimal gezogen. Dur h die Vorgabe der n 1 Stri he sind bereits
n 1 Stellen in der Zei henkette belegt. Also stellt si h die Frage, auf wieviele Artendie k Kreuze
auf die n + k 1 Zei henstellen verteilt werden konnen. Na h ( ) geht das auf n+kk 1 Arten. 2
Anzahl der Proben von Umfang k aus
mit j
j = n

geordnete Probe ungeordnete Probe


 
n
n!
ohne Wiederholung (k  n)
k
(n k)!


n+k 1
k
mit Wiederholung (k 2 N )
n
k

Bea hte: Der Umfang k von Proben mit Wiederholung ist ni ht auf k  n bes hrankt, da
jedes der n Elemente aus
in der Wiederholung beliebig oft auftreten kann.
BSP. (2.45) "k aus n"{Lotto. Es sei 1  k  n. Mit wel her Wahrs heinli hkeit hat man beim
"k aus n"{Lotto genau k Ri htige? Zur Beantwortung dieser Frage wird das Lotto als Lapla e{
Experiment gedeutet. Das Ankreuzen von k Zahlen auf dem Lottos hein entspri ht der "Entnahme
einer ungeordneten Probe vom Umfang k aus der Menge f1S
; 2; : : : ; ng ohne Wiederholung", und dies
ist ein Elementarereignis f!g aus dem Ergebnisraum
:= f!g. Wir erhalten aus (2.24)

j
j =

Zwei Zahlenbeispiele:

 

n
k

) P (!) = 1

 

n
:
k


49
"6 aus 49" : j
j = 6 = 13983816 ) P ("6 Ri htige") = 0:0000000715;
 
"7 aus 38" : j
j = 387 = 12620256 ) P ("7 Ri htige") = 0:000000079:

BSP. (2.46) Fuballtoto. Mit wel her Wahrs heinli hkeit hat man genau 11 Ri htige getippt?
(Hier gehen wir von der hypothetis hen Annahme aus, dass die 11 Spielergebnisse rein zufallig
bestimmt wurden, zum Beispiel dur h Losents heid, weil wegen s hle hter Witterung alle Spiele eines
Spieltags abgesagt werden mussten.) Wir deuten das Toto als Lapla e{Experiment. Das Ankreuzen
der 11 Ergebnisse auf den Totozettel entspri ht der "Entnahme einer geordneten Probe vom Umfang
11 ausS f0; 1; 2g mit Wiederholung", und dies ist ein Elementarereignis f!g aus dem Ergebnisraum

:= f!g. Wir erhalten aus (2.23)


j
j = 311 = 177147 ) P ("11 Ri htige") = 3 11 = 0:000005645:
BSP. (2.47) Eine Gruppe von 15 Studenten erhalt ein Freikontingent von 3 Theaterkarten.
Wieviele Arten der Kartenvergabe gibt es, wenn
(a) 3 numerierte Sitzplatze, (b) 3 unnumerierte Stehplatze
vorliegen? Man unters heide, ob eine Person
(i) genau eine Karte, (ii) mehrere Karten
nehmen kann. Wir verwenden zur Losung die Aussagen von Satz 2.80:

(ai) =^ "Entnahme einer geordneten Probe vom Umfang 3 aus f1; 2; : : : ; 15g ohne Wiederholung"
(2:22) 15!
) (15 3)! = 2730 Mogli hkeiten.
(aii) =^ "Entnahme einer geordneten Probe vom Umfang 3 aus f1; 2; : : : ; 15g mit Wiederholung"
(2:23) 3
) 15 = 3375 Mogli hkeiten.
(bi) =^ "Entnahme
einer ungeordneten Probe vom Umfang 3 aus f1; 2; : : : ; 15g ohne Wiederholung"
(2:24) 15
) 3 = 455 Mogli hkeiten.
(bii) =^ "Entnahme einer ungeordneten Probe vom Umfang 3 aus f1; 2; : : : ; 15g mit Wiederholung"
(2:25) 15+3 1 17
)
3 = 3 = 680 Mogli hkeiten.
(Wir wollen zur Formel (2.25) no h eine Plausibilitatsbetra htung ans hlieen und nehmen dazu in
dem obigen Beispiel die einfa here Situation mit n = 3 Studenten und k = 3 Karten an. Es gibt nur
folgende Falle:
 Einer hat alle 3 Karten : 3 Mogli hkeiten;
 Je einer hat 1 Karte : 1 Mogli hkeit;
 Einer hat 2 Karten, ein weiterer 1 Karte, der dritte 0 Karten : 6 Mogli hkeiten.

In der Summe resultieren 10 =

3+3 1 = 5 Mogli hkeiten.)


3
3

In meiner Vorlesung sitzen n  1 Horer. Mit wel her


Wahrs heinli hkeit haben mindestens 2 Horer am selben Tag Geburtstag (unter der Annahme, dass
S haltjahre ni ht beru ksi htigt werden und dass jeder der 365 Tage glei hwahrs heinli h ist)? Wir
bes hreiben zuna hst das zugeordnete Lapla e{Experiment. Es ist klar, fur n > 365 erhalt man P =
1. Jeden Horer identi zieren wir mit seinem Geburtstag aj . Gema der Sitzordnung erhalten wir dann
ein geordnetes n{Tupel (a1 ; a2 ; : : : ; an ) und dieses entspri ht der "Entnahme einer geordneten Probe
vom Umfang n aus f1; 2; : : : ; 365g mit Wiederholung". Dies sind die Elementarereignisse f!g aus dem
Ergebnisraum
:= Sf!g. Wir erhalten aus (2.23) j
j = 365n . Gesu ht ist nun die Wahrs heinli hkeit
des Ereignisses A=^ "Mindestens zwei Elemente des n{Tupels ! 2
sind glei h". Dazu betra hten wir
das komplementare Ereignis A=^ "Alle Elemente sind vers hieden" =^ "geordnete Probe vom Umfang
n aus f1; 2; : : : ; 365g ohne Wiederholung". Fur n  365 folgt nun aus (2.22):
BSP. (2.48)

Geburtstags{Mat hing.


365! ; 1  n  365:
jAj = (365365!n)! ) P (A) = 1 jjA
jj = 1 365n (365
n)!
Die numeris hen Werte der Wahrs heinli hkeiten P (A) haben wir fur die Zahlen 1  n  100 in
der folgenden Tabelle aufgelistet. Es ist ganz interessant zu wissen, dass bereits ab 23 Horern mit
mehr als 50%{iger Wahrs heinli hkeit mindestens 2 Horer am selben Tag Geburtstag haben. Bei 100
Horern ist dieses Ereignis fast si her.

P (A)

P (A)

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25

0:000000
0:002740
0:008204
0:016356
0:027136
0:040462
0:056236
0:074335
0:094624
0:116948
0:141141
0:167025
0:194410
0:223103
0:252901
0:283604
0:315008
0:346911
0:379119
0:411438
0:443688
0:475695
0:507297
0:538344
0:568700

26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50

0:598241
0:626859
0:654461
0:680969
0:706316
0:730455
0:753348
0:774972
0:795317
0:814383
0:832182
0:848734
0:864068
0:878220
0:891232
0:903152
0:914030
0:923923
0:932885
0:940976
0:948253
0:954774
0:960598
0:965780
0:970374

51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75

P (A)

P (A)

0:974432 76
0:978005 77
0:981138 78
0:983877 79
0:986262 80
0:988332 81
0:990122 82
0:991665 83
0:992989 84
0:994123 85
0:995089 86
0:995910 87
0:996604 88
0:997190 89
0:997683 90
0:998096 91
0:998440 92
0:998726 93
0:998964 94
0:999160 95
0:999321 96
0:999453 97
0:999561 98
0:999649 99
0:999720 100

0:999777
0:999824
0:999861
0:999891
0:999914
0:999933
0:999948
0:999960
0:999969
0:999976
0:999982
0:999986
0:999989
0:999992
0:999994
0:999995
0:999997
0:999997
0:999998
0:999999
0:999999
0:999999
0:999999
1:000000
1:000000

Beiweitem s hwieriger zu bestimmen ist zum Beispiel beim "6 aus 49"{Lotto die Wahrs heinli hkeit fur das Ereignis "Genau k Ri htige", k = 1; 2; 3; 4; 5, oder fur das Ereignis "Mindestens
k Ri htige". Ein wi htiges Hilfsmittel zur Losung dieser Probleme ist das Urnenmodell von
 lya (1887-?).
G. Po
Urnenmodell. In einer Urne be nden si h N Kugeln, darunter S s hwarze, 1 
S < N . Die restli hen Kugeln sind wei. Es werden zwei Zufallsexperimente

unters hieden:
(a) Ziehen ohne Zuru klegen: Es werden rein zufallig na heinander n Kugeln
(1  n  N ) aus der Urne gezogen und beiseitegelegt.
(b) Ziehen mit Zuru klegen: Es werden rein zufallig na heinander n Kugeln
(n 2 N ) aus der Urne gezogen, und jede gezogene Kugel wird vor dem na hsten
Zug wieder in die Urne zuru kgelegt.

Satz 2.83 Beim obigen Urnenmodell werden rein zufallig n  N Kugeln ohne Zuru klegen
gezogen. Dann ist die Wahrs heinli hkeit des Ereignisses

Ak =^ "Genau k der gezogenen n Kugeln sind s hwarz"


dur h folgende Vors hrift bestimmt:

P (Ak ) =

S N S
k n k ;
N
n

0  k  minfn; S g:

(2.27)

Werden hingegen n 2 N Kugeln mit Zuru klegen gezogen, so ist die Wahrs heinli hkeit des
Ereignisses Ak dur h folgende Vors hrift bestimmt:

P (Ak ) =

 

S
n k
p (1 p)n k ; 0  k  n; p := :
N
k

(2.28)

Wir denken uns die N Kugeln unters heidbar, etwa numeriert von 1 bis N (wie zum
Beispiel die Kugeln der Lottozahlen). Die Unters heidbarkeit ist wi htig beim Ziehen mit Zuru klegen. Zum Beispiel muss das n{Tupel (1; 1; : : : ; 1) unters heidbar sein vom n{Tupel (1; 2; : : : ; n). Das
Unters heidungsmerkmal 'S hwarz' bzw. 'Wei' beru ksi htigen wir in der Numerierung der s hwarzen Kugeln von 1 bis S und der weien Kugeln von S + 1 bis N .
(i) Ziehen mit Zuru klegen: Werden n Kugeln gezogen, so entspri ht dies der "Entnahme einer
geordneten Probe vom Umfang n aus f1; 2; : : : ; N g mit Wiederholung". Der aus diesen Elementarereignissen gebildete Ereignisraum
erfullt gema (2.23) j
j = N n. Das Ereignis Ak wird nun in
der folgenden Weise zerlegt:
 B 1^= "Ziehe zuerst k s hwarze Kugeln aus f1; 2; : : : ; S g mit Zuru klegen" =^ "Entnahme einer
geordneten Probe vom Umfang k aus f1; 2; : : : ; S g mit Wiederholung". Es gilt gema (2.23)
jB 1j = S k .
 B 2^= "Ziehe dann n k weie Kugeln aus fS +1; S +2; : : : ; N g mit Zuru klegen" =^ "Entnahme
einer geordneten Probe vom Umfang n k aus fS + 1; S + 2; : : : ; N g mit Wiederholung". Es
gilt gema (2.23) jB 2j = (N S )n k .
 B 3^= "Verteile s hlieli h die k s hwarzen Kugeln auf die n Platze des n{Tupels" =^ "Entnahme
einer ungeordneten Probe vom Umfang k aus f1; 2; : : : ; ng ohne Wiederholung". Es gilt gema
(2.24) jB 3j = nk .
Der Produktsatz 2.79 liefert jetzt:

Begrundung:

jAk j = jB 1jjB 2jjB 3j =

 

n k
S (N
k

S)

n k

und s hlieli h folgt die Lapla e{Wahrs heinli hkeit

Nn

 

n k
p (1 p)n k ;
k

 
j
Ak j
n k
P (Ak ) =
=
p (1 p)n k :
k
j
j

(ii) Ziehen ohne Zuru klegen: Wir erklaren


; B 1; B 2; B 3 wie in (i), wobei in
; B 1; B 2 "mit Wiederholung" ersetzt wird dur h "ohne Wiederholung". Gema Satz 2.80 gilt nun:
 

Mithin folgt

j
j = n! Nn ;

jB 1j = k! Sk ;

jB 2j = (n k)!
 

jAk j = jB 1jjB 2jjB 3j = n! Sk

Wir erhalten das behauptete Resultat

P (Ak ) =

BSP. (2.49)

 

N S
:
n k

N S
:
n k

jAk j = S N S  N :


k n k
j
j
n

"7 aus 38"{Lotto (ehemaliges Mittwo hs{Lotto). Es sind die Wahrs heinli hkeiten

fur folgende Ereignisse zu bestimmen:


(i) Ak =^ "Genau k Ri htige getippt", k = 0; 1; : : : ; 7,

(ii) Bk =^ "Mindestens k Ri htige getippt", k = 0; 1; : : : ; 7.


Wir interpretieren das Lotto als Urnenmodell mit N = 38 Kugeln. Die 7 von der Lottogesells haft
gezogenen Kugeln entspre hen nun den S = 7 s hwarzen Kugeln in der Urne. Das Ankreuzen der 7
Zahlen auf dem Tippzettel entspri ht dann dem Ziehen von n = 7 Kugeln ohne Zuru klegen. Aus
Satz 2.83 resultiert somit die folgende Losung der Aufgabe (i):
 

  
7
31
38 .
P (Ak ) =
k 7 k
7

Numeris he Werte konnen der folgenden Tabelle entnommen werden:


k

P (Ak )

P (Ak )

0
1
2
3

0:208 361 463


0:408 388 467
0:282 730 477
0:087 262 493

4
5
6
7

0:012 466 070


0:000 773 756
0:000 017 195
0:000 000 079

(ii) Es ist zuna hst klar, dass Bk = Ak [ Ak+1 [    [ A7 gilt und dass die Ereignisse Ak und Aj fur
j 6= k disjunkt sind. Bei sol hen Ereignissen addieren si h die Wahrs heinli hkeiten:
0

P

n
[

j =k

Aj A =

n
X
j =k

P (Aj ):

Diese Beziehung wird mit wahrs heinli hkeitstheoretis hen Hilfsmitteln begrundet, die wir hier ni ht
bereitstellen wollen. Aus (i) erhalten wir somit die folgende Losung der Aufgabe (ii):
P (Bk ) =

7
X
j =k

P (Aj ) =

0
7  
X


j =k

31

1
 
A

38:
7

Zum Beispiel erre hnet


man aus den Daten der obigen Tabelle den folgenden Zahlenwert P (B5) =
:
0:000791030 = 0:08%. Das heit, in 8 von 10 000 Fallen kann man damit re hnen, 5 Ri htige getippt
zu haben. (Bei zwei Tippreihen pro Wo he stellt si h etwa alle 12 Jahre ein sol hes Erfolgserlebnis
ein!)
BSP. (2.50) Die Wahrs heinli hkeit fur eine Knabengeburt betragt p = 0:514. Eine Familie hat
5 Kinder. Gesu ht sind die Wahrs heinli hkeiten fur folgende Verteilungen:
(i) 2 Mad hen und 3 Jungen, (ii) 5 Mad hen.
Wir losen die Aufgabe unter Heranziehung des Urnenmodells. Von N Kugeln (entpre hend der
Gesamtzahl aller Geburten) sind S s hwarz (Anzahl der Knabengeburten). N und S brau hen ni ht
bekannt zu sein, da der Quotient p = S=N = 0:514 gegeben ist. Greift man nun willkurli h 5
Kinder heraus, so entspri ht dies dem Ziehen von n = 5 Kugeln mit Zuru klegen aus der Urne. Die
Ereignisse nAk =^ "Genau k der n Kinder sind Knaben" haben gema Satz 2.83 die Wahrs heinli hkeit
P (Ak ) = k pk (1 p)n k . Wir erhalten also folgende Losungen:
(i) n = 5; k = 3 : P (A3 ) = 53(0:514)3 (0:486)2 =: 0:3207;
(ii) n = 5; k = 0 : P (A0 ) = 50(0:514)0 (0:486)5 =: 0:0271:
Abs hlieend teilen wir no h ohne Beweis eine Variante des Belegungsproblems mit.

Satz 2.84 Es seien k S hubladen S1 ; S2 ; : : : ; Sk , und dazu naturli he Zahlen n1 ; n2 ; : : : ; nk


sowie n := n1 + n2 +    + nk Objekte gegeben. Dann gibt es
n!

(2.29)

n1 !n2 !    nk !
Mogli hkeiten, diese n Objekte so auf die k S hubladen zu verteilen, dass n1 Objekte in S1 ,
n2 Objekte in S2 , : : :, s hlieli h nk Objekte in Sk liegen.

BSP. (2.51) Beim Skatspiel sind S1 ; S2 ; S3 die drei Spieler, und S4 ist der Skat. Jeder Spieler
erhalt n1 = n2 = n3 = 10 Karten; in den Skat wandern n4 = 2 Karten. Es gibt n = n1 + n2 + n3 + n4 =

32 Spielkarten. Gema Satz 2.84 erlaubt somit das Skatspiel


32!
10!10!10!2! = 2753294408504 640
vers hiedene Kartenverteilungen.

Kapitel 3
Komplexe Zahlen
3.1 Die komplexen Zahlen als geordnete Paare reeller
Zahlen
Wir beginnen mit einer motivierenden
De nition 3.1 Glei hungen in der Form
x2 + ax + b = 0 mit gegebenen Zahlen a; b 2 R

(3.1)

heien quadratis he Glei hungen fur eine gesu hte Zahl x. Jedes x 2 R , fur wel hes die
Glei hung (3.1) gilt, heie eine reelle Losung. Dur h Addition von b + a4 auf beiden Seiten
von (3.1) ers heint links eine Binompotenz, so dass folgende Glei hungen aquivalent mit (3.1)
sind:

a 2 a2
1
y:=x+a=2
x+
y 2 = (a2 4b):
(3.2)
,
b
=
2

Der Ausdru k a4 heit quadratis he Erganzung.


Bemerkung 3.2 (a) Gilt a2 4b > 0, so hat die Glei hung (3.1) genau zwei reelle Losungen,
2

namli h
x+ :=

+ 1 a2 4b; x := a
2 2
2

1 pa2 4b; kurz: x := 1  a  pa2 4b  :



2
2

(b) Gilt a2 4b = 0, so hat die Glei hung (3.1) genau eine reelle Losung, namli h x0 := a2 :
( ) Gilt a2 4b < 0, so ist die Glei hung (3.1) in R ni ht losbar.

Um im Falle ( ) einen Ausweg zu nden, konstruierten wir einen Erweiterungskorper von R


derart, dass die Glei hung (3.1) ohne Eins hrankungen an a; b 2 R stets losbar ist. In diesem
Korper gibt es keine lineare Ordnung  mit den Eigens haften aus De nition 2.9.
Wir erinnern daran, dass wir bei der Erweiterung der ganzen Zahlen Z auf die rationalen
Zahlen Q die Bru he r := pq 2 Q eingefuhrt hatten. Da jeder Bru h eindeutig dur h die
beiden Zahlen p; q festgelegt ist, konnen wir Q au h deuten als die Menge aller geordneten
Zahlenpaare (p; q) 2 Z  (Z nf0g). Wir hatten gezeigt, dass die so de nierte Zahlenmenge mit
der bekannten Addition + und der Multiplikation  ein Korper ist. Bei der vorzunehmenden
Zahlberei hserweiterung von R gehen wir jetzt in analogen S hritten vor:
121

De nition 3.3 Auf der Menge der geordneten Zahlenpaare (x; y ) 2 R  R =: R 2 seien die
zwei Verknupfungen + (Addition) und  (Multiplikation) wie folgt erklart:

"+":
"":

(x1 ; y1) + (x2 ; y2) := (x1 + x2 ; y1 + y2);


(x1 ; y1)  (x2 ; y2) := (x1 x2 y1y2; x1y2 + x2y1):

(3.3)

Mit einiger Re henarbeit verbunden, aber dur haus elementar beweisbar ist folgender Satz:
Satz 3.4 In der Algebra (R  R ; +; ) mit den gema (3.3) de nierten Verknupfungen + und
 gelten die Korperaxiome (A1){(A3) und (M1){(M3) sowie (D) aus Satz 2.43. Dabei ist
(0; 0) neutrales Element bezugli h +; (1; 0) neutrales Element bezugli h :
Begrundung: Es sollen hier nur die Axiome (A3) und (M3) gezeigt werden; die anderen Axiome erhalt

man ganz analog.


(A3): Die Glei hung (a; b)+ z = ( ; d) hat die Losung z = ( a; d b) 2 R  R , und fur = a; d = b
folgt z = (0; 0) als neutrales Element der Addition.
(M3): Die Glei hung (a; b)  z = ( ; d) hat fur (a; b) 6= (0; 0) die Losung


a + bd ad b
z = 2 2 ; 2 2 2 R  R;
a +b a +b
und fur = a; d = b folgt z = (1; 0) als neutrales Element der Multiplikation.
2
BSP. (3.1) (i) Inverses Element der Addition: Die Glei hung (a; b)+ z = (0; 0) hat gema (A3)
die Losung
z = ( a; b) =: (a; b);
zum Beispiel: ( 43 ; 7) ( 18 ; 10) := ( 43 ; 7) + ( 81 ; 10) = ( 43 18 ; 7 10) = ( 58 ; 17):
(ii) Inverses Element der Multiplikation: Die Glei hung (a; b)  z = (1; 0) hat fur (a; b) 6= (0; 0)
gema (M3) die Losung


1
a
b
1
z = (a; b) =:
(a; b) := a2 + b2 ; a2 + b2 ;

 

8 ; 640 =
4474 ; 536 :
zum Beispiel: ( 43 ; 7) : ( 18 ; 10) = ( 43 ; 7)  ( ;110) = ( 34 ; 7)  6401
6401
6401 6401
1
8

Na h diesen Vorbetra htungen wird die folgende De nition sinnvoll:


De nition 3.5 Die Menge C := R  R , versehen mit den in (3.3) erklarten algebrais hen
Operationen + und , heie Korper der komplexen Zahlen.
An dieser Stelle ist es no h ni ht erkennbar, dass C eine Erweiterung des Korpers R ist; dies
gelingt erst, wenn R mit einer geeigneten Teilmenge von C identi ziert wird. Dazu betra hten
wir die Projektion von C = R  R auf die erste Komponente
RC

:= fz 2 C : z = (a; 0)g  C :

In R C gelten die Operationen + und  wie in R : (a1 ; 0) + (a2 ; 0) = (a1 + a2 ; 0), und deshalb
ma ht die folgende De nition einen Sinn:
De nition 3.6 (a) Wir setzen (a; 0) := a und identi zieren so die Menge R C  C mit R .
(b) Das Element (0; 1) 2= R C heie imaginare Einheit, bezei hnet mit i; i := (0; 1).

Satz 3.7 (a) Es gilt fur jedes z 2 C die Darstellung z = x + iy mit reellen Zahlen x; y 2 R ,
und somit

= fz : z = x + iy; x; y 2 R g.

(b) Es gilt i2 = 1, das heit, die Glei hung z2 = 1 hat in C mindestens die Losung z = i.
Begrundung: (a) Wir haben z = (x; y) 2
z = x + iy mit x; y 2 R.
(b) Es gilt i2 = (0; 1)  (0; 1) = ( 1; 0) =

genau, wenn z = (x; 0) + (y; 0)  (0; 1) oder aquivalent

1.

2
Die Darstellung z = x + iy hat fur das formale Re hnen den Vorteil, dass man mit ihr genauso
wie im Reellen re hnen kann { ledigli h unter Bea htung der zusatzli hen Re henregel i2 = 1.
Mit anderen Worten, die oben eingefuhrte Multiplikation  darf wieder vergessen werden!
ist ein Korper, der ni ht geordnet ist. Die Ordnungsaxiome fur 
konnen in C ni ht gelten. Zum Beispiel musste aus i 6= 0 na h den Re henregeln
der Ordnungsrelation 1 = i2 > 0 gelten, was o enkundig widerspru hli h ist.

Merke:

Die folgenden Begri e muss man si h unbedingt einpragen:


Fur jede komplexe Zahl z = x + iy 2 C heie
 x =: Re z der Realteil von z,
 y =: Im z der Imaginarteil von z,
p
 jzj := x2 + y2 der Betrag von z,
 z := x iy die zu z konjugiert komplexe Zahl.
Hau g setzt man au h

kzk := jzj = (Re z)2 + (Im z)2 ;


und nennt kzk die Norm von z 2 C . Fur kzk gelten die Eigens haften (N1){(N3) aus Satz
2.58, namli h:
(N1)

kzk  0 und (kzk = 0 genau fur z = 0).


p
Klar, z = 0 , x + iy = 0 , x = 0 und y = 0 , x2 + y2 = 0 , kzk = 0.
(N2)
kzk = jjkzk 8  2 C .
Setzt man  :=  + i , so ist z = x y + i(y + x ). Und hieraus folgt

p
p
p
kzk = (x y )2 + (y + x )2 = 2 +  2 x2 + y2 = jjkzk:

(N3)
kz1 + z2 k  kz1k + kz2 k 8 z1 = x1 + iy1 2 C 8 z2 = x2 + iy2 2 C :
Wir
die Cau hy{S hwarz{Unglei hung aus Satz 2.53. Es gilt x1 x2 + y1y2 
p
p verwenden
x21 + y12 x22 + y22 = kz1 kkz2 k, und hiermit folgt

kz1 + z2 k2 = kz1 k2 + kz2 k2 + 2(x1 x2 + y1y2)  (kz1k + kz2 k)2:

Wir haben hier bereits Gebrau h gema ht von den Formeln der arithmetis hen Operationen fur
z1 = x1 + iy1 und z2 = x2 + iy2 :
Addition in C :
z1 + z2 = (x1 + x2 ) + i(y1 + y2 ):
Multiplikation in C :

z1  z2 = (x1 x2 y1 y2 ) + i(x1 y2 + x2 y1 ):

Division in C fur z2 6= 0 (, z2 6= 0):

z1
z2

= zz12zz22 = (x1 x2 + y1yx2)2 ++iy(x2 2 y1


2

x 1 y2 )

= jzz12zj22 :

Wir stellen na hfolgend weitere Re henregeln fur komplexe Zahlen z; z1 ; z2 2 C zusammen.


(a)

Re z = 12 (z + z); Im z = 21i (z z);

z1
= z1 fur z2 6= 0;
z2
z2

(b)

(z1  z2 ) = z1  z2 ; z1  z2 = z1  z2 ;

( )

jzj = jzj; z  z = jzj2 = jz2 j  0;




jz1  z2 j = jz1jjz2j; zz1 = jjzz1jj fur z2 6= 0;
2
2
jjz1j jz2 jj  jz1 + z2j  jz1j + jz2 j;
(Dreie ksunglei hung)

(d)
(e)
(f)



n

X

zk



k=1

n
X
k=1

jzk j; zk 2 C :

(Verallg. Dreie ksunglei hung)

BSP. (3.2)
1 + 2i:

Arithmetis hes Re hnen mit komplexen Zahlen,

BSP. (3.3)

Potenzen von z .

z1 + z2
z1 z2
z1 z2
jz2 j
z1
z2
z0
zn
z

=
=
=
=
=

z.B. mit z1 := 2 + 5i;

z2

:=

(2 1) + i(5 + 2) = 1 + 7i;
(2 + 1) + i(5 2) = 3 + 3i;
( 2 10) + i(4 5) = 12 i;
p
p
1 + 4 = 5;
z1 z2 ( 2 + 10) + i( 4 5) 8 9i
= 5 :
jz2j2 =
5

:= 1 8 z 2 C ; n  
X n
xn k (iy)k 8 z 2 C ; n 2 N ;
= (x + iy)n =
k
k=0
 n
1
:=
8 0 6= z; n 2 N :
z

Zum Beispiel gelten i21 = i(i2 )10 = i( 1)10 = i, i90 = (i2 )45 = ( 1)45 = 1. Allgemein hat man vier
Fallunters heidungen fur k 2 N :
i4k = 1; i4k+1 = i; i4k+2 = 1; i4k+3 = i:

Es gilt ferner


jij = jij = 1; 1i = jiij2 = i:

Bea hte: Die Bere hnung der Potenzen z n

mit Hilfe des binomis hen Lehrsatzes mag fur n = 1; 2; 3


gerade no h angehen; zum Beispiel pruft man einfa h na h:
(2 + 5i)3 = 8 + 60i 150 125i = 142 65i:
Fur hohere Potenzen wird dieses Verfahren s hnell unubersi htli h und aufwendig. Wir stellen ein
wesentli h einfa heres Verfahren in Abs hnitt 3.2 vor.
BSP. (3.4) Quadratwurzeln. Die Gesamtheit der Losungen z 2 C der quadratis hen Glei hung
z 2 = = (a + ib) 2 C ist zu bestimmen. Wir zeigen hier einen mogli hen Weg auf, der von dem
Ansatz z = x + iy ausgeht und na h dem Einsetzen in z 2 = auf beiden Seiten der Glei hung Real{
und Imaginarteile abglei ht. Wir zeigen dies exemplaris h fur := 21 20i. Zuna hst sind die
beiden Glei hungen z2 = 21 20i und x2 y2 + 2ixy = 21 20i aquivalent. Verglei h der Real{
und Imaginarteile liefert:
()
x2 y2 = 21 ) (x2 y2 )2 = x4 + y4 2x2 y2 = 441
2xy = 20 ())
4x2 y2 = 400
()
x2 + y2 = 29 ,
(x2 + y2)2 = 841
2x2 = 8 ,
x = 2; y = 10=x = 5
Wir haben auf diese Weise die zwei komplexen Zahlen z := (2 5i) bestimmt. Da wir an der
Stelle () die A quivalenz der Aussagen unterbro hen haben (bea hte: a = b ) a2 = b2 , ni ht aber
a = b ( a2 = b2 ), mussen wir die Ri htigkeit der gefundenen Losungen no h dur h Einsetzen in die
Ausgangsglei hung bestatigen:
z+2 = (2 5i)(2 5i) = (4 25) + i( 10 10) = 21 20i = ( z+ )2 = z 2 :
(Wir bemerken zur A quivalenz bei (): Die zweite Losung von (x2 + y2)2 = 841, namli h x2 + y2 =
29, kann ni ht mit reellen Zahlen x; y errei ht werden!)
Wir geben abs hlieend eine allgemeine Losungsformel fur quadratis he Glei hungen an. Dabei gelte
sign(b) := 1 fur b  0 und sign(b) := 1 fur b < 0:
z 2 = a + ib , z = 

"r
p

1
2

a2 + b 2 + a

+ i sign(b)

r 
p

1
2

a2 + b 2 a

Na h dem Verfahren von BSP. (3.4) kann man prinzipiell au h z3 = a + ib unter Verwendung des
Ansatzes z = x + iy und der binomis hen Formel losen. Da dies jedo h sehr muhsam ist und bei
hoheren Potenzen ni ht mehr dur hfuhrbar wird, werden wir ein einfa heres und allgemeingultiges
Verfahren in Abs hnitt 3.3 vorstellen.

3.2 Die Gausss he Zahlenebene. Polardarstellung komplexer Zahlen


Eine geometris he Interpretation der komplexen Zahlen C ergibt si h, wenn man auf die Darstellung von z = x + iy als geordnetes Paar z = (x; y) reeller Zahlen x; y 2 R zuru kgreift. Sol-

he Paare stellen Punkte der Euklidis hen Ebene dar. Es war die Idee von C.F. Gauss (1777{
1855), die reelle Zahl y in "i{Einheiten" aufzutragen, hingegen die Zahl x in "1{Einheiten".
i
iy

z = (x,y)

-2 + 2i
3+i

(0,1) = i
(1,0) = 1 x

-1 -2i

Gausss he

Zahlenebene

Darstellung komplexer Zahlen


z1 - z2
z1

z1
z1 + z 2

|z1 - z2|
-z2
z2

z2

Summe zweier Zahlen z1 ; z2 2 C

Di erenz zweier Zahlen z1 ; z2 2 C

z
z1 + z 2
|z|

|z2|

|z

z2

z2 |

x
y

|z|

|z1|

z1

_
z

Betrag und konjugierte Zahl von z 2 C

Dreie ksunglei hung

Bemerkung 3.8 Wie im Reellen gibt die Norm kz k oder der Betrag jz j einer komplexen
Zahl z 2 C ihren Euklidis hen Abstand vom Ursprungspunkt 0 2 C an. Bezei hnen wir
wieder mit
p
d(z1 ; z2 ) := kz1 z2 k = jz1 z2 j = (x1 x2 )2 + (y1 y2 )2

die Distanz zweier Punkte z1 ; z2 2 C , so erfullt die "Funktion" d(; ) : C  C ! [0; +1) die
in Satz 2.59 formulierten Bedingungen (M1){(M3) einer Metrik.
2
Na hfolgend werden elementare Kenntnisse der ebenen Geometrie und der Trigonometrie aus
der S hulmathematik vorausgesetzt, das heit insbesondere, Vertrautheit mit den Symbolen

der trigonometris hen Funktionen sin; os; tan usw.


Polardarstellung komplexer Zahlen

Winkelmessung (<) {Messung). Die Bewegung eines Punktes P (x; y ) auf der Einheitskreislinie wird unter Beru ksi htigung der Bewegungsri htung mit Hilfe des Winkels ' bes hrieben.
y

+
P(x,y)

sin

cos

E(1,0) x

Winkelmessung
De nition 3.9 (a) Bewegt si h P (x; y ) auf der Einheitskreislinie entgegen dem Uhrzeigersinn, so heie diese Ri htung mathematis h positiv. Die entgegengesetzte Ri htung heie
mathematis h negativ.
(b) Ein in mathematis h positiver Ri htung gemessener Winkel ' hat ein positives Winkelma.
( ) Die Einheiten des Winkelmaes sind entweder das Gradma oder das Bogenma. Die
Vollkreislinie hat das Gradma 360o bzw. das Bogenma 2 . Dem Bogenma entspri ht die
Lange des uber einem Winkel ' liegenden Kreisbogenstu kes der Einheitskreislinie. Es gelten
folgende Umre hnungsformeln:

Gradma

Bogenma
o


) ' = 180
o
180o ' (
o =
'

o

Zum Beispiel: 180o=


^ ; 90o=^ =2; 60o=^ =3; 45o=^ =4; 30o=^ =6; 1o=^ =180 =: 0:017:
Bemerkung 3.10 Winkel werden hau g dur h Angabe der beiden S henkel a; b gekennzei h-

net:

a
(a,b)

Orientierung bea hten: <) (a; b) 6=<) (b; a)

Allerdings ist <) (a; b) dur h die Angabe der S henkel a; b nur bis auf additive Vielfa he von 2
festgelegt. Will man zum Beispiel Bewegungen bes hreiben, bei denen der Punkt P (x; y) die
Einheitskreislinie mehrfa h in positiver oder negativer Ri htung dur hlauft, so mussen Winkel
'  2 und ' < 0 zugelassen werden. Der Werteberei h umfasst die Gesamtheit der reellen
Zahlen 1 < ' < +1, und die Winkelangabe ' =<) (a; b) ist nun unendli h vieldeutig.
Setzen wir
R := f('; ) 2 R  R : ' 

mod 2g = f('; ) 2 R  R : 9 k 2 Z mit

' = 2kg;

so re hnet man na h, dass R eine Kongruenzrelation auf der abels hen Gruppe (R ; +) ist,
vgl. De nition 2.25. Winkelmessung induziert mit anderen Worten auf R eine Partition dur h
A quivalenzklassen
['H R := f' 2 R : '  'H mod 2g = f'H + 2k : k 2 Zg; 'H 2 I;
worin I 

ein halbo enes Intervall der Lange 2 bezei hnet. Man nennt 'H 2 I den
Hauptwert, wobei fur die Festlegung von I zwei Standards ubli h sind:
R

Standard (A):
Zum Beispiel:

Stets gilt jedo h:

0  'H < 2


Standard (B):

21
4

'H


R

3 'H =

5
4

 < 'H



: Standard (A);

3 : Standard (B):
4

' = 2k fur ein k 2 Z:

Bemerkung 3.11 Bei Verwendung der S hreibweise ' =<) (a; b) ist immer die A quivalenzklasse ['R gemeint, deren Reprasentant ' ist. Die 2{Vielfa hen sind geometris h unbedeutend, da sie in der Zei hnung ni ht gesehen werden. Sie werden aber bei den komplexen
Wurzeln relevant, die wir weiter unten studieren werden.
2

Dur h Projektion des Punktes P (x; y) erhalt man in bekannter Weise die von ' abhangigen
Winkelfunktionen

' 7! sin ' =: y (y {Koordinate oder Ordinate von P (x; y )) "Sinus von '",
' 7! os ' =: x (x{Koordinate oder Abszisse von P (x; y )) "Cosinus von '".

sin
1

_
-1
2

3
-_
2

_
1
2

3
_
2

-1

Der Graph der Sinus{Funktion


cos
1
3
-_
2

_
1
2

_
-1
2

3
_
2

-1

Der Graph der Cosinus{Funktion


Sinus und Cosinus sind auf ganz R erklarte reelle Funktionen, fur die die folgenden Re hen-

regeln gelten:

(a) os2 ' + sin2 ' = 1;

(Satz des Pythagoras)


(b) sin( ') = sin '; os( ') = os ',
(Paritat ungerade/gerade)
( ) sin(' + 2k) = sin '; os(' + 2k) = os ' 8 k 2 Z,
(Periodizitat)
(d) sin(  ) = sin os  os sin ,
(Additionstheorem)
() sin 2 = 2 sin os ),
(Additionstheorem)
(e) os(  ) = os os  sin sin ,
2
2
() os 2 = os sin ),
(f) Ist a2 + b2 = 1 fur a; b 2 R , so existiert ein ' 2 R mit a = os ' und
b = sin '. Dabei ist ' eindeutig bis auf Vielfa he von 2 bestimmt. Das
heit, der Hauptwert 'H ist eindeutig bestimmt.
Man bere hnet os '; sin ' bzw. 'H in (f) entweder aus sin = os{Tabellen oder in unserem
Computer{Zeitalter einfa her mit dem Tas henre hner.

Wir verwenden die Additionstheoreme zur Bere hnung von Amplitude A und Pha'H ):
senvers hiebung 'H der S hwingung x := 3 os + 4sin =: A os(


p
3
4
x = 32 + 42 p 2 2 os + p 2 2 sin :
3 +4
3 +4
BSP. (3.5)

Setzen wir hier a := 3= 32 + 42 = 3=5 und b := 4= 32 + 42 = 4=5, so gilt a2 + b2 = 1. Also gibt es


genau einen Hauptwert
'H 2 [0; 2) mit os 'H = 3=5 und sin 'H = 4=5. Mit dem Tas henre hner
ermittelt man 'H =: 0:9273. Nun erhalten wir mit dem Additionstheorem (e)
x = 5( os 'H os + sin 'H sin ) = 5 os( 'H ):
y

r
sin

P(x,y)

z = x + iy

cos E x

|z|

=:

y = r sin

x = r cos

Strahlensatz: osx ' = r1 = siny '

Gausss he

x = r os '; y = r sin ':

Zahlenebene

z = x + iy = r( os ' + i sin '):

De nition 3.12 Die Darstellung z = r( os ' + i sin ') der komplexen Zahl z = x + iy mit
r := jz j =

x2 + y 2 =

(Re z)2 + (Im z)2

heie Polardarstellung von z . Der Winkel ' heit das Argument von z , ges hrieben ' =
arg z fur z 6= 0. Fur z = 0 ist kein Argument erklart.

Bemerkung 3.13 (a) Das Argument ' = arg z der komplexen Zahl z ist mehrdeutig; hingegen ist der Hauptwert argH z := 'H eindeutig festgelegt. Es gilt arg z = argH z + 2k; k 2 Z.
p
(b) Jede komplexe Zahl z = x + iy 2 C ist dur h Vorgabe von Betrag r = jzj = x2 + y2
und Argument 'H = argH z eindeutig festgelegt. Denn es gibt genau ein 'H mit
os 'H = p 2x 2 = x ; sin 'H = p 2y 2 = y :
r
r
x +y
x +y

Die Darstellung von 'H kann erst im Rahmen der Umkehrfunktionen (Ingenieur{Mathematik II) verstandli h erfolgen. Wir geben hier eine praktikable Erklarung unter Verwendung
der Tas henre hnerfunktion tan 1  ar tan, wobei wir den Standard (A) (0  'H < 2)
zugrundelegen:
2

z = x + iy ) 'H = argH z =

8
>
>
>
>
>
>
>
<
>
>
>
>
>
>
>
:

ar tan xy
: x > 0;

y
 + ar tan x : x < 0;

2 + ar tan xy : x > 0;

: x = 0;
2
3
: x = 0;
2

y  0;
y 2 R;
y < 0;
y > 0;
y < 0:

Wird hingegen der Standard (B) (  < 'H  ) zugrundegelegt, so gilt:

z = x + iy ) 'H = argH z =

8
>
>
>
>
>
>
>
<

ar tan xy
: x > 0;

: x < 0;
 + ar tan xy

 + ar tan xy : x < 0;

: x = 0;
2

: x = 0;
2

>
>
>
>
>
>
>
:

y 2 R;
y  0;
y < 0;
y > 0;
y < 0:

BSP. (3.6) (a) Fur z = 3 2i haben wir x = 3 > 0 und y = 2 < 0. Also folgen r = jz j = 13
:
sowie 'A = arg
H z = 2 + ar tan( 2=3) = 5:695183 im Standard (A) bzw. 'B = argH z =
:
ar tan( 2=3) = 0:588003 im Standard (B). Es gilt 'A 'B = 2 sowie die Polardarstellung
z=

13 [ os('A;B ) + i sin('A;B ) :
(b) Seien r = jzj := 2 und ' = arg z = 5=6 gegeben. Dann resultiert
!
p
p

1
3
5

5

+
i = 3 + i:
z = 2 os 6 + i sin 6 = 2
2 2
Die folgende Tabelle nutzli her Funktionswerte von sin und os wurde bereits in BSP. (3.6)
zu Rate gezogen:
'

sin '

1
2

os '

1
2

0=0

4=1

30o=^ 6 45o=^ 4 60o=^ 3


1
2
1
2

1
2
1
2

p
p

1
2

1
2

90o=^ 2
1
2
1
2

4=1

0=0

120o=^ 23 135o=^ 34 150o=^ 56


1
2

1
2

1
2

1
2

1
2

1
2

180o=^ 
1
2
1
2

0=0

4= 1

3.3 Die komplexe Exponentialfunktion


Wir wollen eine neue Bezei hnung fur die in der Polardarstellung z = r( os ' + i sin ') einer
komplexen Zahl z auftretende Summe f (') := os ' + i sin ' 2 C nden. Dabei gehen wir aus
von den beiden Identitaten
f (0) = 1;
f ('1 + '2 ) = os('1 + '2 ) + i sin('1 + '2 ) Add:=Thm: f ('1 )f ('2):

(3.4)
(3.5)

Sol he Identitaten gelten zum Beispiel fur Potenzen einer reellen Zahl a > 0:
f (x) := ax ) f (0) = a0 = 1; f (x + y ) = ax+y = ax ay = f (x)f (y );

vgl. au h BSP. (2.10). Die letzte Glei hung wurde zuna hst nur fur rationale Zahlen x; y
begrundet. Wir werden spater eine sol he Gesetzmaigkeit fur beliebige Zahlen x; y 2 R
zeigen.

De nition 3.14 Fur ' 2 R setzen wir exp(i') := f (') = os ' + i sin ', kurz exp(i') = ei' .
Jede komplexe Zahl z mit jz j = r und arg z = ' gestattet jetzt die Polardarstellung
z = r ei' = r ei('+2k) ; k 2 Z:
Zum Beispiel:
p
(i) z = 3 + i = 2 ei  = 2 e5i=6 usw.
5
6

i
i

exp

(ii) ei + 1 = os  + i sin  + 1 = 1 + 1 = 0:


ex

1
0

Die Funktionswerte exp(i') liegen auf


der Einheitskreislinie

Graph der Exponential{Funktion

Wegen jei'j = 1 liegen die Zahlen ei' 2 C auf der Einheitskreislinie. Das heit, die 'Funktion'
exp wi kelt die imaginare A hse in C um den Einheitskreis. Der Versu h, exp z fur beliebige
Zahlen z 2 C zu erklaren, ergibt si h nun zwangslau g. Aus Kontinuitatsgrunden ist es
sinnvoll, das Bestehen der Identitat (3.4) sowie der Funktionalglei hung (3.5) fur alle z1; z2 2
C zu fordern. Es soll mit anderen Worten gelten:
exp(0) = 1; exp(z1 + z2 ) = exp(z1 ) exp(z2 ) 8 z1 ; z2 2 C :

(3.6)

Setzen wir hier z = x + iy ein, so resultiert


exp(x + iy) = exp(x) exp(iy) = exp(x) ( os y + i sin y):
Das heit, die Vors hrift exp z ist fur alle z 2 C eindeutig festgelegt, wenn exp x fur alle x 2 R
erklart ist. Hinsi htli h der Beziehungen (3.6) bietet si h ein Ansatz in der Form
exp x := ax; x 2 R ;
mit geeigneter Basis a > 0 an. Aus Grunden, die spater dur h Reihenentwi klungen motiviert
werden, wahlen wir:
De nition 3.15 (a) Mit der Eulers hen Zahl e := 2:718 281 828 459 04    setzen wir
exp x := ex 8 x 2 R ;

wobei fur rationale x = p=q; p 2 Z; q 2 N ; gelte: ex := q ep . (Im Sinne der numeris hen
Mathematik ist es ausrei hend, diese Darstellung zu verwenden, da wir jedes x 2 R ja beliebig
genau dur h eine Zahl r 2 Q annahern konnen.)
(b) Die komplexe Exponentialfunktion exp : C ! C ist de niert gema

ez := exp z = exp(x + iy ) := ex ( os y + i sin y )

8 z := x + iy 2 C :

Zum Beispiel: e 3+7i = e 3 ( os 7 + i sin 7) =: 0:0498(0:7539 + i  0:6570). Hier sind die numeris hen Werte mit den Tas henre hnerfunktionen sin; os; ex ermittelt worden. Eine analytis he
Bere hnungsmethode mittels Reihenentwi klungen werden wir im 2. Semester angeben.
Re henregeln fu
 r Polardarstellungen komplexer Zahlen.

(I) Konjugation. Aus der Polardarstellung von z = r ei' folgern wir:


z = r( os ' + i sin ') = r( os ' i sin ') = r [ os( ') + i sin( ') = r e

i' :

Bei Konjugation resultiert somit die Re henregel


r ei' = r e

arg z = arg z:

i' ;

(II) Multiplikation. Fur je zwei Zahlen zj := rj ei'j ; j = 1; 2; folgern wir:


(3:3)
z1 z2 = r1 r2 ei' ei' = r1 r2 ei(' +' ) ;
das heit, es gilt arg(z1z2 ) = arg z1 + arg z2 .
1

Bei Multiplikation: Betrage multiplizieren und Argumente addieren!


(III) Division. Fur je zwei Zahlen zj := rj ei'j ; j = 1; 2; mit r2 6= 0 folgern wir:
z1 z1 z2 r1 i'
=
= e e
z2 jz2 j2 r2
1

i'2

(3:3) r1 i('1
= e
r2

'2 ) ;

das heit, es gilt arg( zz ) = arg z1 arg z2.


1

Bei Division: Betrage dividieren und Argumente subtrahieren!


p
p
Zum Beispiel gilt fur z1 := 1 i = 2 e5i=4 und z2 := 1 + i 3 = 2 ei=3 :

p
p
p
p
p
 z1 z2 = 2 2 e19i=12 = 2 2 e 5i=12 = 2 2 os 512 i sin 512 = 1 3 i(1 + 3);


p 
p
p
p
 zz1 = 12 2 e11i=12 = 21 2 os 1112 + i sin 1112 = 41 1 3 + i(1 3) :
2

Z2

Z2

2
Z
-1
Z2

1
Z1

2
Z1 Z2

Graphis he Darstellung
der Multiplikation

2 1

Z1

Graphis he Darstellung
der Division

Multiplikation und Division der Zahl z1 := r1 ei' mit z2 := r2 ei' bewirken Drehstre kungen, das heit, eine Drehung um den Winkel <) '2 und eine Stre kung (oder Stau hung) um
den Faktor r2. Die oben eingezei hneten Dreie ke sind jeweils ahnli h; sie haben glei he Winkel. Daraus resultiert eine graphis he Konstruktionsmogli hkeit von z1 z2 und z1 =z2 .
(IV) Formeln von Moivre. Eine n{fa he Anwendung der Multiplikationsregel auf z := r ei'
liefert:
Satz 3.16 (von Moivre)
Fur z := r ei' 2 C mit z 6= 0 gilt:
1

z n = rn ein' = rn ( os n' + i sin n')


Insbesondere erhalt man

1 = 1e
z

i'

8 n 2 Z:

= 1 ( os ' i sin '):

r
r
p i=4 10 5 10i=4
2e
=2 e
= 32i:

Zum Beispiel: (i) (1 + i)10 =


(ii) Einerseits gilt wegen der Moivres he Formeln

( os ' + i sin ')n = (ei' )n = ein' = os n' + i sin n' 8 n 2 N ;


zum Beispiel: ( os ' + i sin ')3 = os 3' + i sin 3'. Andererseits folgt aus dem binomis hen Lehrsatz
n
X

 

n
osk ' (i sin ')n k ;
k
k=0
was im Falle n = 3 die Summe os3 ' 3 os ' sin2 ' + i(3 os2 ' sin ' sin3 ') liefert. Verglei ht man
auf beiden Seiten Real{ und Imaginarteile, so resultieren speziell fur n = 3 die Beziehungen

( os ' + i sin ') =


n

os3 ' = 14 os 3' + 43 os '; sin3 ' = 34 sin ' 41 sin3':

(V) Komplexe Wurzeln. Mit Hilfe des Satzes von Moivre zeigen wir:
Satz 3.17 (von den n{ten Wurzeln)
Gegeben seien die komplexe Zahl = r ei' 2 C mit r 6= 0, und eine naturli he Zahl n 2 N .
Dann gibt es genau n vers hiedene Losungen z0 ; z1 ; : : : ; zn 1 der Glei hung z n = , und zwar
gilt

' 2k
+ ; k = 0; 1; : : : ; n 1:
n
n
Die Losungen zk heien
die n{ten (komplexen) Wurzeln von ; die Menge der zk bezei hnet
p
1
=n
n
man mit oder :
p
1=n := n := fz0 ; z1 ; : : : ; zk g:
Begrundung: Die mogli hen Losungen setzen wir in Parameterdarstellung z = R ei an, so dass
zk = r1=n ei'k mit 'k :=

z n = aquivalent ist mit

und  = n1 [' + 2k; k 2 Z:


Fur k = 0; 1; : : : ; n 1 erhalt man vers hiedene Losungen  = 'k . Fur k = n erhalt man wiederum
 = '0 + 2=^ '0 , und fur alle anderen k 2 Z erhalt man ebenso ein , wel hes si h nur um ein
2{Vielfa hes von einem bereits bestimmten 'k unters heidet.
2
Rn ein = r ei' = r ei('+2k) , R = r1=n

Bemerkung 3.18 (a) Es gilt n 0 = 0.


p
(b) Fur 6= 0 ist n stets eine Menge von n vers hiedenen komplexen Zahlen, also n{deutig.
( ) Wegen der Mehrdeutigkeit haben einigePotenzgesetze
aus R keine Gultigkeit mehr; es
m
pn m
p
n
sind zum Beispiel im allgemeinen und vers hiedene Mengen! Ebenso

i=

1=

1 p1 =1 2
W : Was ist fals h?
1 = 1 i )i =1

(d) Die Losungen n der Glei hung zn = liegen alle auf einem Kreis vom Radius j j1=n und
bilden die E kpunkte eines regelmaigen n{E ks.
2
i Z1

e1

e2
2
3

e0

2
5

1
Z2

Z0

e3
e4

Die 5{ten Einheitswurzeln


Wir bestimmen zum Beispiel die Menge i = fz 2 C : z3 = ig = fzk ; k = 0; 1; 2g. Aus der
Polardarstellung i = e i=2 ergibt si h sofort zk = ei( =2+2k)=3 , und somit
Die Wurzeln

p
3


p
p
1
1
i=
2
7
i=
6
i=
= 2 ( 3 i); e = i; e = 2 ( 3 + i) :
Wir bestimmen zum Beispiel die Menge p1 = fz 2 C : z5 = 1g = fzk ; k = 0; 1; 2; 3; 4g. Aus der
Polardarstellung 1 = ei0 ergibt si h sofort zk = e2ik=5 , und somit
p n 2i=5 4i=5 6i=5 8i=5 o
:
1 = 1; e ; e ; e ; e

ei=6

De nition 3.19 Die Wurzeln

pn

1 = ek : ek := e2ik=n; k = 0; 1; : : : ; n 1

heien die n{ten Einheitswurzeln.

Satz 3.20 (a) Ist z^ eine (bekannte) Losung der Glei hung z n = 6= 0, so erhalt man alle

Losungen gema

zk = z^  ek ; k = 0; 1; : : : ; n 1;

worin ek die n{ten Einheitswurzeln sind.


(b) Die Losungen zk der Glei hung zn = erfullen die Bedingung
n 1
X
zk = 0; n  2:
k=0

Begrundungen: (a) Wegen 6= 0 gilt au h z^ 6= 0, so dass alle oben de nierten Zahlen zk ; k


0; 1; : : : ; n 1, vers hieden sind. Daruber hinaus gilt o enkundig zkn = z^n  enk = z^n = .

(b) Mit dem Resultat (a) ndet man sofort:


nX1
k=0

zk = z^

n 1
X
k=0

e2i=n

k

= z^ 11

e2in=n
e2i=n

= z^  0 = 0:

(VI) Teilmengen der komplexen Ebene. Dur h Glei hungen oder Unglei hungen mit Betragen komplexer Zahlen lassen si h man hmal Teilmengen von C re ht elegant bes hreiben.
Wir fuhren dies an drei Beispielen vor.
BSP. (3.7) (a) Die Menge Sr (z0 ) := fz 2 C : jz z0 j = rg mit r > 0 und festem z0 2 C ist die

Kreislinie vom Radius r

um den Mittelpunkt z0. Denn setzen wir z = x + iy und z0 = x0 + iy0, so


ers hlieen wir die bekannte Kreisglei hung
jz z0 j2 = r2 = (x x0 )2 + (y y0)2 :
(b) Die Menge Br (z0 ) := fz 2 C : jz z0 j < rg ist die Kreiss heibe vom Radius r um den
Mittelpunkt z0 ohne die Randlinie Sr (z0 ).

o
n

( ) Wir analysieren die Teilmenge M := z 2 C : Re z z i < 0 . Dazu setzen wir z = x + iy und
bere hnen
z
z (z + i) (x + iy)(x i(y 1)) x2 + y(y 1) + ix
=
= x2 + (y 1)2 = x2 + (y 1)2 :
z i jz ij2
Wir bilden jetzt den Realteil:
2
Re z z i = xx2 ++ y(y(y 1)1)2 <! 0 , x2 + y2 y  x2 + (y 21 )2 14 < 0:
Dies ist die Glei hung der Kreiss heibe vom Radius 12 um den Mittelpunkt 2i ohne Randlinie.

3.4 Polynome
De nition 3.21 Eine Abbildung Pn : C ! C mit n 2 N 0 und
Pn (z ) := a0 + a1 z +    + an

zn

n
X
k=0

ak z k

8 z 2 C ; ak 2 C ; an 6= 0;

(3.7)

heie ein komplexes Polynom n{ten Grades. Eine Abbildung Pn : R ! R in der Form
(3.7), jedo h mit ak 2 R und z = x 2 R heie ein reelles Polynom n{ten Grades. Die Zahl
Grad Pn := n 2 N 0 heie Grad des Polynoms; die gegebenen Elemente ak ; k = 0; 1; : : : ; n,
heien die Koezienten des Polynoms. Ein Polynom P0 (z ) := a0 6= 0 vom Grade 0 ist
das Element a0 selbst. Gilt in (3.7) ak = 0 fur alle Koezienten, so heie P (z )  0 das
m
P
Nullpolynom, wel hes keinen Grad hat. Zwei Polynome Pn und Qm , Qm (z ) :=
bk z k ,
k=0
heien glei h, wenn ak = bk fur alle k gilt.
Zum Beispiel ist eine Binompotenz

(1 + z) =
n

n  
X
n

k
k=0

1
2

z k = 1 + nz + n(n

1)z2 +    + zn =: Pn (z)

ein (komplexes, falls z 2 C , bzw. reelles, falls z 2 R) Polynom vom Grade n.

In der Menge [z aller Polynome (von beliebigem Grad) sind eine Addition + und eine
Multiplikation  dur h 'punktweise' Operationen erklart: Man addiert bzw. multipliziert jeweils
die Funktionswerte Pn(z) und Qm (z) von Polynomen Pn; Qm 2 [z, d.h. man de niert fur
alle z 2 C :
+ : (Pn + Qm )(z) := Pn(z) + Qm (z);
(3.8)
 : (Pn  Qm)(z) := Pn(z)  Qm(z):
Es gilt
Grad (Pn + Qm )  maxfGrad Pn; Grad Qm g;
Grad (Pn  Qm) = Grad Pn + Grad Qm ; sofern Pn 6= 0 6= Qm :
Zum Beispiel seien P3 (z ) := 4z 3

 (P3 + Q2 )(z) =
 (P3  Q2)(z) =

=
Grad(P3  Q2) =

3iz + 2i 1 und Q2 (z) := 2z2 iz + 1 vorgelegt. Dann gilt:


4z3 + 2z2 4iz + 2i 1; Grad(P3 + Q2) = 3:
(4z3 3iz + 2i 1)(2z2 iz + 1)
8z5 4iz4 + (4 6i)z3 + (4i 5)z2 + (2 2i)z + 2i 1;
3 + 2 = 5:

Wie die De nition 3.21 zeigt, wird zur Konstruktion von Polynomen na h der Vors hrift
(3.7) als wesentli he Voraussetzung die Vorgabe eines assoziativ{kommutativen Rings R =
(R; +; ) mit Einselement verlangt, vgl. De nition 2.35. Fur Koezienten ak 2 R und fur z 2 R
ist dann der algebrais he Ausdru k (3.7) stets sinnvoll erklart, und wir haben Pn(z) 2 R. Die
Menge aller Polynome uber R wird mit R[z bezei hnet. Auf R[z werden genau dur h die
Vors hrift (3.8) eine Addition + und eine Multiplikation  erklart. Die resultierende Algebra
(R[z; +; ) ist wieder ein Ring:
Satz 3.22 Es sei R = (R; +; ) ein assoziativ{kommutativer Ring mit Einselement e. Dann
bildet die Menge R[z aller dur h die formale Vors hrift
Pn (z ) := a0 + a1 z +    + an z n =

n
X
k=0

ak z k

de nierten Polynome Pn, zusammen mit den Verknupfungen + und  aus (3.8) einen assoziativ{kommutativen Ring mit Einselement P0 (z ) := e und Nullelement P (z )  0. Man nennt
R[z den Polynomring uber R.

Die einzelnen Ringaxiome sind lei ht na hzure hnen; dies sei dem Leser zur U bung empfohlen.

In De nition 3.21 haben wir Polynome sogar uber einem Korper erklart, namli h uber C
bzw. R . Wir spezi zieren deshalb R[z gema C [z bzw. R [x. Allgemeiner s hreiben wir K [z
fur den Polynomring uber einem Korper K . Die Vermutung, dass K [z selbst ein Korper
sein konnte, ist leider fals h: Das Korperaxiom (M3) (siehe Satz 2.43) gilt ni ht! Denn zu
0 6= Pn 2 K [z und 0 6= Rm 2 K [z mit Grad Rm < Grad Pn existiert kein Polynom D 2 K [z
mit
Pn (z )  D(z ) = Rm (z ) 8 z 2 K :
Andernfalls ware Grad Rm = Grad Pn + Grad D  Grad Pn, im Widerspru h zur Vorgabe.
Hingegen gilt stets:

Satz 3.23 Ist R ein Integritatsberei h, so ist stets au h R[z integer.

Begrundung: Wir brau hen nur no h zu zeigen, dass R[z nullteilerfrei ist. Seien also Pn (z ) =
m
n
P
P
bk z k 2 R[z n f0g mit Grad Pn = n und Grad Qm = m gegeben. Dann
ak z k ; Qm (z ) =
k=0
k=0
gilt an 6= 0 6= bm, und folgli h au h anbm 6= 0, denn R ist nullteilerfrei. Also folgt

(Pn  Qm)(z) = Pn(z)  Qm(z) =

n
X
k=0

m
X

ak z k

k=0

bk z k

= anbm zn+m +    + a0 b0 6 0;

und somit Grad(Pn  Qm ) = n + m. Das heit, Pn  Qm kann ni ht das Nullpolynom sein.


2
Wie wir in BSP. (2.17) gesehen haben, ist (Z; +; ) ein Integritatsberei h, und somit ist au h

der Polynomring Z[z integer. In Z konnten wir eine Division mit Rest dur hfuhren (Satz
2.28). Ist R ein Korper, so gilt ein Analogon au h fur den Polynomring R[z:
Satz 3.24 (Division mit Rest)
Es sei K ein Korper, und es sei Pn 2 K [z mit Pn 6= 0. Dann existieren zu jedem Qm 2 K [z
eindeutig bestimmte Polynome D; R 2 K [z mit R = 0 oder Grad R < Grad Pn und
Qm (z ) = Pn (z )  D(z ) + R(z )

8 z 2 K:

Begrundung: (a) Existenz: Gilt Qm = 0 oder Grad Qm = m < n = Grad Pn , so liegt der triviale
Fall mit D(z) = 0 und R := Qm vor. Es sei also m  n. Dann bere hnet man D und R mit dem
bekannten Euklidis hen Teileralgorithmus, den wir hier exemplaris h auf Q [z vorfuhren. Es seien
zum Beispiel P3 (z) := 8z3 + 15z2 5 und Q4 (z) := 2z4 5z3 + 5z 2.

(2z4
2z4

5z3

15 z 3
4
5 3
4z
5 3
4z

+ 7532 z2
75 z 2
32

+5z
+ 45 z
+ 154 z
+ 154 z

2) : (

=P3 (z)
}|
8z3 + 15z2

5) =

=:D(z)
}| {
1z + 5
4
32

25
32
39
32

=: R(z)

Es gilt nun in der Tat


1 5
75 z2 + 15 z 39 )
P3 (z )  D(z ) + R(z ) = ( 8z 3 + 15z 2 5)( z + ) + (
4 32
32
4 32
= Q4(z) = 2z4 5z3 + 5z 2:
Mit diesem konstruktiven Verfahren konnen auf ganz analoge Weise die Polynome D(z) und R(z)
uber einem beliebigen Korper K bere hnet werden.
(b) Eindeutigkeit: Sind D0 und R0 ebenfalls Polynome, die das Verlangte leisten, so folgt
Pn (z )  (D(z ) D0 (z )) = R(z ) R0 (z ) 8 z 2 K
mit Grad(R R0) < Grad Pn. Ware D D0 6= 0, so ware im Widerspru h dazu Grad(R R0) =
Grad Pn + Grad(D D0)  Grad Pn. Also folgt D = D0 und somit au h R = R0.
2
Fur numeris he Zwe ke kann der Euklidis he Teileralgorithmus lei ht mit dem folgenden Programm
realisiert werden, wel hes zu vorgegebenen Polynomen
Pn (z ) :=

n
X
k=0

ak z k ; an 6= 0;

Qm (z ) :=

m
X
k=0

bk z k

zwei Polynome
D(z ) :=

m
Xn
k=0

dk z k ;

R(z ) :=

rk z k ;

Grad R < Grad Pn ;

so bere hnet, dass die folgende Darstellung gilt:


Qm (z ) = Pn (z )  D(z ) + R(z ):
Euklidis her

1:
2:
3:
4:
5:
6:
7:
8:
9:
10:
11:
12:
13:
14:
15:
16:

Divisionsalgorithmus zur Bere hnung von D(z ) und R(z ):

Einlesen von n := Grad Pn ; m := Grad Qm; ak mit


a := an ; k := 1;
fur j := 0; 1; : : : ; maxfn; mg :
dj := 0; (Ende j )
falls (bm = 0) dann

an 6= 0; bk ;

wiederhole

m := m 1;
bis ((bm 6= 0) oder (m = 0)); (Ende falls)
falls (bm 6= 0 und m  n) dann
e := m n + 1;
wiederhole
:= bm k+1 =a; de k := ;
fur j := 0; 1; : : : ; n :
bj +e k := bj +e k  aj ; (Ende j )
k := k + 1;
bis (k > e). (Ende dann)

Na h Ablauf des Programms hat der Algorithmus die gesu hten Koezienten dk und rk :=
bere hnet.
Fur die Polynome vom Grade  3 verwendet man in der Regel spezielle Bezei hnungen:






bk

P0 (z ) := a0 heie konstantes Polynom oder Konstante,


P1 (z ) := a0 + a1 z heie lineares Polynom,
P2 (z ) := a0 + a1 z + a2 z 2 heie quadratis hes Polynom,

P3 (z ) := a0 + a1 z + a2 z 2 + a3 z 3 heie kubis hes Polynom.

Grundlage fur die folgenden U berlegungen ist die Division mit Rest eines Polynoms Pn 2 K [z
dur h ein lineares Polynom in der speziellen Form P1(z) := z z0 . Man nennt dieses spezielle
P1 (z ) mit festem z0 2 K einen Linearfaktor. Die gestellte Aufgabe wird am ezientesten
dur h das
Horner{S hema

gelost (William George Horner, 1786{1837).

Zuna hst einmal liefert das Horner{S hema einen numeris h stabilen Algorithmus zur Bere hnung
des Funktionswertes Pn(z0 ) fur ein gegebenes Polynom Pn 2 K [z in einem festen Punkt z0 2 K ,

(wenn wir speziell K := Q betra hten). Auf einem sequentiell arbeitenden Computer ist es wegen
ungunstiger Fehlerfortp anzung unvorteilhaft, die Bere hnung dur h sequentielles Abarbeiten der
Darstellung
Pn (z0 ) = a0 + a1 z0 + a2 z02 +    + an z0n
(3.9)
vorzunehmen. Besser ist es (na h einer Idee von P. Ruffini (1765{1822) aus dem Jahre 1808, die
dann 1819 von Horner no hmals unabhangig entde kt wurde), die Bere hnung dur h sequentielles
Abarbeiten der folgenden Darstellung vorzunehmen:
Pn (z0 ) = [   [[(an z0 + an 1 )z0 + an 2 z0 + an 3 z0 +    + a1 z0 + a0 :
(3.10)
Die Glei hheit der beiden Darstellungen (3.9) und (3.10) erkennt man sofort dur h Ausmultiplizieren. Man startet mit der Bere hnung der innersten Klammer und s hreitet dana h sukzessive bis zur
Bere hnung der auersten Klammer voran. Die Re henvors hrift (3.10) ist gegenuber (3.9) weitaus
unemp ndli her hinsi htli h der Fortp anzung von Rundungsfehlern bei numeris her Re hnung.
Zum Beispiel sind fur jz0 j  1; z0 2 Q , die Potenzen z0k sehr kleine Zahlen, so dass die Bere hnung
von Pn(z0 ) in der Reihenfolge (3.9) zu erhebli hen Stellenauslos hungen fuhren kann. Ein omputergere hter Algorithmus des Horner{S hemas hat folgende Form:
Algorithmus zur Bere hnung von Pn (z ) an einer Neustelle z0 :

Einlesen von ak ; z0;


p := an ;
fur k := n 1; n 2; : : : ; 0 :
p := ak + z0  p: (Ende k)
Na h Ablauf des Algorithmus hat die Variable p die Wertzuweisung Pn(z0 ) erhalten.
1:
2:
3:
4:

Will man genau dieselbe Re hnung von Hand auf dem Papier dur hfuhren, so ist es vorteilhaft,
die folgende Anordnung, genannt Horner{S hema, zu verwenden. Diese gilt fur beliebige
Polynome Pn 2 K [z:
an

+
0

z0 bn 1

an 1

an 2

z0 bn 1

z0 bn 2

% bn

% bn




 %

a1

a0

z0 b1

z0 b0

b0

% Pn(z0 )

Bea hte: Au h vers hwindende Koezienten ak = 0 mussen in diesem S hema mitgefuhrt

werden! Sie zu vergessen ist eine beliebte Fehlerquelle bei dem unerfahrenen Anwender des
Horner{S hemas.

Es sei das reelle Polynom P4(x) := 4x4 3x3 + x 10 gegeben. Man bere hne den
Funktionswert P4 ( 3). Hier ist also zu bea hten, dass a2 = 0 gilt, wahrend wir z0 = x0 = 3 zu
setzen haben.
4 3 0
1 10
 12 45 135 402
x0 = 3 4 15 45 134 392 = P4 ( 3)
Die Bedeutung der Koezienten bk im Horner{S hema: Man erkennt an der oben angegebenen Bere hnungsvors hrift sehr lei ht, dass die Koezienten bk gema folgender Vors hrift rekursiv de niert
sind:
bn 1 := an ; bk := ak+1 + z0 bk+1 ; k = n 2; n 3; : : : ; 0:
(3.11)
BSP. (3.8)

Die so de nierten Koezienten bk sind mit der Losung der folgenden Aufgabe verknupft. Zu gegebenem Pn 2 K [z ist dasjenige Polynom
Pn 1 (z ) :=

nX1
k=0

k z k

gesu ht, fur wel hes die Beziehung




Pn (z ) = (z z0 )Pn 1 (z ) + Pn (z0 ) = (z z0 ) n 1 z n 1 + n 2 z n 2 +    + 0 + Pn (z0 ) (3.12)
identis h in z 2 K erfullt ist. Dur h Ordnen na h glei hen Potenzen in z erhalt man die aquivalente
Glei hung
[an n 1zn +[an 1 ( n 2 z0 n 1)zn 1 +    +[a1 ( 0 z0 1 )z +[a0 (Pn (z0 ) z0 0) = 0:
Diese Glei hung ist genau dann fur alle z 2 K erfullt, wenn die Koezientenausdru ke [   vor den
z {Potenzen vers hwinden (Methode des Koezientenverglei hs). Dies fuhrt ganz o enbar auf die
Bedingungen
n 1 := an ; k := ak+1 + z0 k+1 ; k = n 2; n 3; : : : ; 0;
(3.13)
und s hlieli h Pn (z0 ) z0 0 = a0 . Dur h Verglei h der beiden Rekursionen (3.11) und (3.13) ergibt
si h o enkundig k = bk 8 k = 0; 1; : : : ; n 1.
Zusammenfassend haben wir:

Satz 3.25 (Abspaltung eines Linearfaktors)


n
P
ak z k 2 K [z vom Grade n  1 gegeben, ferner ein festes
Es sei ein Polynom Pn (z ) :=
k=0
Element z0 2 K . Es seien bk ; k = 0; 1; : : : ; n 1, die gema (3.11) mit dem Horner{S hema
bere hneten Koezienten. Dann gilt

Pn (z ) = (z
Das lineare Polynom z

z0 )

n 1
X
k=0

bk z k + Pn (z0 )

8 z0 2 K :

(3.14)

z0 heie Linearfaktor.

In BSP. (3.8) hat also (3.14) die Form


P4 (x) = 4x4 3x3 + x 10 = (x + 3)(4x3 15x2 + 45x 134) + 392:
Taylor{Entwi klung

eines Polynoms (Brook Taylor,

tung des Linearfaktors z

z0

am Polynom Pn

1685{1731). Wir fuhren nun die AbspalnP1


1 (z ) = bk z k dur h:
k=0

Pn 1 (z ) = (z z0 )Pn 2 (z ) + Pn 1 (z0 ):
n 2
neuen Polynoms Pn 2(z) := P k zk ergeben
k=0

si h wiederum aus dem


Die Koezienten k des
Horner{S hema na h der Bere hnungsvors hrift (3.11):
n 2 := bn 1 ; k := bk+1 + z0 k+1 ; k = n 3; n 4; : : : ; 0:

Wir verfahren so fort, bis wir s hlieli h bei P1 (z) = (z z0 )an + P1 (z0 ) angelangt sind. Dur h
sukzessives Einsetzen erkennt man jetzt die folgende Darstellung
9
Pn (z ) = [   [[[(z z0 )an + P1 (z0 )(z z0 ) + P2 (z0 )(z z0 ) + P3 (z0 )(z z0 ) >
>
>
>
>
=
+    + Pn 1 (z0 )(z z0 ) + Pn(z0 )
(3.15)
n
>
X
>
>
k
>
dk (z z0 ) mit dk := Pn k (z0 ) und dn := P0 (z0 ) = an :
=
>
;
k=0

De nition 3.26 Die Darstellung (3.15) heie die Taylor{Entwi klung des Polynoms Pn (z )
n
P
= ak zk an der Stelle z0 . Die Koezienten dk erhalt man dur h fortgesetzte Anwendung
k=0
des Horner{S hemas mit z = z0 . Dabei entsteht das vollstandige Horner{S hema.
Bemerkung 3.27 Wir werden im Rahmen der Di erentialre hnung den folgenden Zusammenhang zwis hen den Koezienten dk und den Ableitungen Pn(k)(z0) des Polynoms Pn 2 K [z
an der Stelle z = z0 herstellen, sofern wir uns in K = R oder K = C bewegen:
2

1
dk = Pn k (z0 ) = Pn(k) (z0 ):
k!

(3.16)

BSP. (3.9)

4
4
4
4

3
0
1 10
12 45 135 402
15 45 134 392 = P4( 3)
12 81 378
27 126 -512
= 1!1  P40 ( 3)
12 117
39 243
= 2!1  P400( 3)
12
-51
= 3!1  P4000( 3)

4
= 4!1  P4iv ( 3)
Wir greifen hier no hmals das reelle Polynom P4 (x) := 4x4 3x3 + x 10 aus BSP. (3.8)
auf. Mit x0 := 3 und a4 := 4; a3 := 3; a2 := 0; a1 := 1; a0 := 10 bere hnen wir das
vollstandige Horner{S hema. Aus den eingerahmten Koezienten ergibt si h die Taylor{
Entwi klung des Polynoms P4(x) an der Stelle x0 = 3 in der Form:
P4 (x) = 4(x + 3)4

51(x + 3)3 + 243(x + 3)2 512(x + 3) + 392:

3.5 Nullstellen von Polynomen


Es sei R = (R; +; ) ein assoziativ{kommutativer Ring mit Einselement.
De nition 3.28 Ein Element z0 2 R heie Nullstelle des Polynoms Pn 2 R[z , wenn gilt:
Pn (z0 ) = 0.

BSP. (3.10) (a) Beim Nullpolynom P (z )  0 2 R[z ist jedes z0 2 R Nullstelle. Das konstante
Polynom P0 (z) := a0 6= 0 hat keine Nullstelle.
(b) Ist K ein Korper, so hat das
lineare Polynom P1(z) := a0 + a1z = a1  (z + aa ) 2 K [z o ensi htli h
a
genau eine Nullstelle z0 = a 2 K .
( ) Das quadratis he Polynom P2 (z) := a0 + a1z + a2 z2 = a2  (z2 + aa z + aa ) 2 K [z brau ht in K
keine Nullstellen zu besitzen. So hat etwa z2 2 2 Q [z keine Nullstelle in Q , und z2 +1 2 R[z keine
Nullstelle in R. Hingegen hat P2 2 C [z im allgemeinen zwei vers hiedene Nullstellen
0
1

0
1

1
2

0
2

1  a  qa2 4a a  ;
0 2
1
1
0 2a2
p
wie wir bereits in Abs hnitt 3.1 gezeigt haben. Der komplexe Ausdru k a21 4a0 a2 ist 2{wertig.
Wir legen uns auf einen der beiden Werte fest; der andere unters heidet si h nur dur h das Vorzei hen. Ein quadratis hes Polynom P2 2 C [z hat also mindestens eine Nullstelle (falls a21 = 4a0 a2 )
und ho hstens zwei Nullstellen (falls a21 6= 4a0 a2).
(d) Polynome 3. und 4.Grades: Fur Pn 2 C [z ; n = 3 oder n = 4, ndet man in den gangigen Formelsammlungen algebrais he Ausdru ke zur Bes hreibung aller Nullstellen; diese sind zum Teil sehr
unhandli h und kaum no h gebrau hli h. (Cardanis he Formeln fur kubis he Polynome; Geronimo
Cardano (1501{1576), Arzt und Mathematiker (!). Die na h ihm benannten Formeln sind s hon
fruher von S. Del Ferro (1465{1526) und N. Tartaglia (1500{1557) verwendet worden.)
(e) Polynome vom Grade  5: Fur Pn 2 C [z; n  5, zeigte Niels Henrik Abel (1802{1829) im Jahre
1826, dass es im allgemeinen unmogli h ist, Nullstellen dieser Polynome formelmaig zu erfassen.
z =

Das Existenzproblem von Nullstellen. Wie die obigen Beispiele zeigen, ist die
Frage, ob ein Polynom Pn 2 R[z uberhaupt Nullstellen in R hat, ni httrivial.
Im wi htigsten Fall Pn 2 C [z ist das Existenzproblem fur n = 0; 1; 2; 3; 4 trivial
losbar dur h Angabe expliziter Formeln. Der ni httriviale Fall n  5 wurde 1797

von Carl Friedri h Gauss (1777{1855) positiv beantwortet. Die Gausss he Dissertation (1799) enthalt folgende Aussage:
Satz 3.29 (Fundamentalsatz der Algebra)
Jedes Polynom Pn 2 C [z vom Grade n  1 besitzt in C mindestens eine Nullstelle.

Der Beweis dieses Satzes wird am einfa hsten mit Hilfsmitteln aus der Funktionentheorie gefuhrt, die
hier no h ni ht bereitgestellt sind. Wir verzi hten an dieser Stelle auf den { ohnehin nur theoretis h
interessierenden { Beweis.
In allgemeinen Korpern K kann man ledigli h eine obere S hranke fur die Anzahl der mogli hen
Nullstellen von Pn 2 K [z angeben. Ist namli h z1 2 K eine Nullstelle des Polynoms Pn (z), so gilt
wegen Satz 3.25 die Darstellung
Pn (z ) = (z z1 )Pn 1 (z ) = (z z1 )

nX1
k=0

bk z k :

(3.17)

Wir sagen, das Polynom Pn(z) ist teilbar dur h (z z1 ). Ist z1 au h Nullstelle von Pn 1 (z), so liefert
no hmalige Anwendung des Satzes 3.25 die Darstellung Pn(z) = (z z1)2 Pn 2 (z); d.h. (z z1 )2
ist Teiler von Pn (z), usw. Da n = Grad Pn endli h ist, gibt es unter den Potenzen (z z1 )j , wel he
Teiler von Pn (z) sind, eine mit grotem Exponenten k  n:

De nition 3.30 Ein Element z1 2 K heie Nullstelle der Ordnung oder Vielfa hheit k 2 N
von Pn 2 K [z , wenn ein Polynom Q 2 K [z existiert mit:
Pn (z ) = (z

z1 )k Q(z ) 8 z 2 K und Q(z1 ) 6= 0:

Mit diesen Begri sbildungen zeigen wir:


Satz 3.31 (Linearfaktorzerlegung)
Es sei K ein Korper, und es sei Pn (z ) =

n
P

ak z k mit an 6= 0; n  1, ein Polynom aus K [z .

k=0
Dann gilt:
(a) Sind z1; z2 ; : : : ; zm paarweise vers hiedene Nullstellen von Pn(z) mit Vielfa hheiten k1; k2;
: : : ; km , so ist Pn(z ) teilbar dur h

(z z1)k (z z2 )k    (z zm )km :
1

(b) Pn 2 K [z hat in K ho hstens n Nullstellen, wobei jede Nullstelle so oft gezahlt wird, wie
ihre Vielfa hheit angibt.
( ) Pn 2 C [z hat in C genau n Nullstellen.
(d) Pn 2 C [z gestattet die Linearfaktorzerlegung
Pn (z ) = an (z

z1

)k1 (z

z2

)k2

   (z zm

)km

= an

m
Y
j =1

(z zj )kj 8 z 2 C ;

(3.18)

wobei z1 ; z2 ; : : : ; zm ; m  n, die paarweise vers hiedenen Nullstellen mit Vielfa hheiten k1 ; k2 ,


: : : ; km sind. Es gilt na h ( ) n = k1 + k2 +    + km .

Begrundungen: (a) Diese Behauptung folgt na h derselben Argumentation wie im Vorspann, indem

wir nun mehrere Nullstellen beru ksi htigen.


(b) Gema (a) gilt
(3.19)
Pn (z ) = (z z1 )k (z z2 )k    (z zm )km Q(z ) 8 z 2 K ;
mit 0 6= Q 2 K [z und Q(zj ) 6= 0 fur j = 1; 2; : : : ; m. Somit haben wir
n = Grad Pn = k1 + k2 +    + km + Grad Q  k1 + k2 +    + km :
(3.20)
( ) Gema Satz 3.29 hat Pn 2 C [z mindestens eine Nullstelle z1 2 C . Es seien nun z1 ; z2 ; : : : ; zm
bereits alle Nullstellen von Pn [z mit Vielfa hheiten k1; k2 ; : : : ; km . Dann gilt (3.19). Ware k1 + : : : +
km < n, so ware na h (3.20) Grad Q  1. Gema Satz 3.29 hatte Q(z ) eine Nullstelle zm+1 6= zj ; j =
1; 2; : : : ; m, und wir hatten somit widerspru hli h eine weitere Nullstelle von Pn(z) konstruiert. Also
gilt k1 + : : : + km = n.
(d) Diese Behauptung folgt unmittelbar aus der Beweisfuhrung von ( ).
2
BSP. (3.11) Das Polynom P6 (z ) := 3z 6 (15 6i)z 5 +(15 30i)z 4 +(27+36i)z 3 (42 24i)z 2
(12 + 48i)z + 24 2 C [z hat die Linearfaktorzerlegung P6 (z) = 3(z 2)3 (z + 1)(z + i)2 , und hiermit:
9
z1 = 2 ist Nullstelle der Ordnung k1 = 3, =
z2 = 1 ist Nullstelle der Ordnung k2 = 1,
k1 + k2 + k3 = 6 = Grad P6 (z ):
;
z3 = i ist Nullstelle der Ordnung k3 = 2,
1

Als wi htige Folgerung aus Satz 3.31 ergibt si h der

Satz 3.32 (Identitatssatz fur Polynome)


Sei K ein Korper und seien zwei Polynome Pn ; Qn 2 K [z gegeben:
Pn (z ) :=

n
X
k=0

ak

zk ;

Qn (z ) :=

n
X
k=0

bk z k :

Falls Pn(zj ) = Qn (zj ) fur n + 1 vers hiedene zj 2 K gilt, j = 1; 2; : : : ; n + 1, so muss


Pn (z ) = Qn (z ) 8 z 2 K gelten, also au h ak = bk 8 k = 0; 1; : : : ; n.
Begrundung: Nehmen wir im Gegenteil an, es gebe ein grotes m; 0  m  n, mit am 6= bm und
m
P
ak = bk 8 k = m + 1; m + 2; : : : ; n, so hat das Di erenzpolynom Pn (z ) Qn(z ) = (ak bk )z k
k=0
vom Grade ho hstens m die n + 1 vers hiedenen Nullstellen zj . Dies steht im Widerspru h zu Satz

3.31(b).

Die Vietas hen Wurzelsatze fur Pn 2 C [z (Fran ois Viete, 1540{1603): Ist an = 1, und sind
z1 ; z2 ; : : : ; zn 2 C die (ni ht notwendig voneinander vers hiedenen) Nullstellen des Polynoms Pn (z ) =

zn +

nP1
k=0

ak z k 2 C [z ,

so erhalt man gema (3.18) die Darstellung

n 1
Ausmultipl
:X
Vk (z1 ; z2 ; : : : ; zn )z k
Pn (z ) = (z z1 )(z z2 )    (z zn ) =
k=0

+ zn:

Wegen Satz 3.32 hat man ak = Vk (z1 ; z2 ; : : : ; zn ), das heit, man erhalt formelmaige Beziehungen
zwis hen den Koezienten ak und den Wurzeln z1 ; z2 ; : : : ; zn des Polynoms Pn(z). Diese Beziehungen heien die Vietas hen Wurzelsatze.
BSP. (3.12) (a) Fur quadratis he Polynome gilt z 2 + a1 z + a0 = (z z1 )(z z2 ) = z 2 (z1 +
z2 )z + z1 z2 , und somit
a1 = (z1 + z2 ); a0 = z1 z2 :
(b) Fur kubis he Polynome gilt z3 + a2z2 + a1z + a0 = (z
z3 )z 2 + (z1 z2 + z1 z3 + z2 z3 )z z1 z2 z3 , und somit
a2 =

(z1 + z2 + z3 );

z1 )(z

z3 ) = z 3

a1 = z1 z2 + z1 z3 + z2 z3 ; a0 = z1 z2 z3 :

Im allgemeinen Fall n  2 erhalt man die folgenden


Vietas hen Wurzels
atze fur Pn 2 C [z :
an 1

an 2

= +

n
X

zk ;

k=1
n
X

j;k=1
j<k

zj zk ;

n
X

an 3

...

...
= ( 1)nz1 z2    zn:

a0

z2 )(z

j;k;l=1
j<k<l

zj zk zl ;

(z1 + z2 +

Das Hauptproblem der Polynomlehre, namli h das Aunden samtli her Nullstellen von
Pn 2 K [z fur n  2 ist mit den bisherigen Erorterungen no h ni ht gelost. In glei her Weise
ist die Frage na h der genauen Anzahl der Nullstellen in K unbeantwortet, wenn wir vom
Sonderfall K = C absehen. Man nimmt dieses wi htige Beispiel aber zum Anlass fur folgende
De nition 3.33 Ein Korper K heie algebrais h abges hlossen, wenn fur jedes Polynom
Pn 2 K [z gilt: Die Anzahl seiner Nullstellen in K ist glei h dem Grad von Pn (z ). Dabei wird
jede Nullstelle mit ihrer Vielfa hheit gezahlt.

Satz 3.31( ) besagt also, dass der Korper C algebrais h abges hlossen ist; die Korper Q und
R sind es ni ht. Die Bestimmung der n Nullstellen von Pn 2 C [z kann im allgemeinen Fall
nur approximativ mit den Hilfsmitteln der numeris hen Mathematik und unter Einsatz von
Computern erfolgen. Die folgenden Ergebnisse konnen aber hau g eine nutzli he Hilfestellung
leisten beim Erraten einzelner Nullstellen.
n
P

ak z k 2
Satz 3.34 Gegeben sei das Polynom n{ten Grades Pn (z ) :=
k=0
an 6= 0; n  1. Dann gilt fur jede Nullstelle z1 ; z2 ; : : : ; zn von Pn(z ):

jzk j 



o
n a
a1
an 1
0
max ; 1 + ; : : : ; 1 +
:
an
an
an

Begrundung: Wir setzen

:= max

n a
0
;

an

1+


a1
; : : : ;

an

1+


an

an

C [z ,

mit

(3.21)

1 o:

Dann folgt fur jzj > M :


n

jPn (z)j  jan j jzjn


n

nP1
k=1

 jan j jzjn (M 1)
n

 jan j jzjn
n

> jan j jz jn

j aak jjzjk

nP1
k=1

n
(M 1) jjzzjj
z jn
(M 1) jM

j aa0 j
n

jzjk

1
1
1
1

1 = 0:

Also kann fur jzj > M keine Nullstelle von Pn(z) existieren.
2
BSP. (3.13) Die Abs hatzung (3.21) kann sehr grob sein, wie am Beispiel P3 (z ) := z 3 6z 2 +
11z 6 = (z 1)(z 2)(z 3) erkennbar wird. Wir haben hier jzk j  3, wahrend aus (3.21) jzk j  12
folgt.
Eine Sonderstellung nehmen Polynome Pn 2 R [x mit reellen Koezienten ein, wenn man
Nullstellen im Erweiterungskorper C zulat.
n
P

ak xk 2 R [x mit reellen
Satz 3.35 Gegeben sei ein Polynom n-ten Grades Pn(x) :=
k=0
Koezienten ak 2 R ; k = 0; 1; : : : ; n; an 6= 0. Ist z0 2 C eine Nullstelle von Pn (x), so au h
die konjugiert komplexe Zahl z0 .

Begrundung: Wegen ak = ak

folgern wir aus Pn (z0 ) = 0:

Pn (z0 ) =

n
X
k=0

ak 0

zk

n
X
k=0

ak z0k = Pn (z0 ) = 0 = 0:

Folgerungen bei reellen Koezienten. (a) Ni htreelle Nullstellen von Pn 2 R[x treten stets paarweise auf: z0 ; z0 2 C sind entweder beide Nullstellen oder beide keine Nullstellen.
(b) Ist Grad Pn = 2m + 1 eine ungerade Zahl, so hat Pn 2 R[x mindestens eine reelle Nullstelle.
( ) Ist z0 = x0 + iy0 eine ni htreelle Nullstelle von Pn 2 R[x, so gilt gema (3.18) die Beziehung

Pn (x) = (x z0 )(x z0 )Pn 2 (x) = [x2


|

2x0x{z+ (x20 + y02 )} Pn 2 (x) 8 x 2 R:

hat keine reellen NS

Das heit, ein Polynom Pn 2 R[x lat si h stets in reelle Linearfaktoren und reelle quadratis he
Polynome zerlegen; die letzteren sind in R selbst ni ht mehr in reelle Linearfaktoren zerlegbar:
Pn (x) = an (x x1 )(x x2 )    (x2 1 x + 1 )    (x2 m x + m ) 8 x 2 R
(3.22)
mit xj ; j ; j 2 R und 2j 4 j < 0:
q

Neben den reellen Nullstellen xj hat man die komplexen Nullstellenpaare zj := 12 ( j  i 4 j 2j ).
Zum Beispiel gilt
P6 (x) := x6 3x5 + 5x4 9x3 + 8x2 6x + 4 = (x 1)(x 2)(x2 + 1)(x2 + 2)
mit x1 := 1; x2 := 2; z1 := i; z2 := ip2. Wir fassen diese Eigens haft von Polynomen uber
einem Korper K in der folgenden De nition zusammen.
vom Grade n  1 heie irreduzibel uber K oder ein
Primpolynom, wenn es keine Polynome Q; R 2 K [z gibt mit Grad Q < n, Grad R < n und Pn (z ) =
Q(z )  R(z ) 8 z 2 K .

De nition 3.36 Ein Polynom Pn 2

[z

Im obigen Beispiel sind x2 + 1 und x2 + 2 irreduzibel


puber R, aber reduzibel2 uber C , denn es gilt ja
p
2
2
x + 1 = (x + i)(x i) und x + 2 = (x + i 2)(x i 2). Ganz analog ist x 2 irreduzibel uber Q ,
aber reduzibel uber R.
Eine weitere Hilfestellung fur das Raten von Nullstellen leistet folgender
n
P

Satz 3.37 Hat das Polynom Pn (x) := ak xk 2 Z[x mit ganzzahlige Koezienten ak 2 Z
k=0
ganzzahlige Nullstellen xk 2 Z, so sind diese Teiler des Koezienten a0 , (wobei au h die
trivialen Teiler 1; a0 zulassig sind).

Die ganzzahligen Nullstellen des Polynoms P4 (x) := 2x4 6x3 4x2 + 24x 16
brau hen nur unter den Teilern von a0 = 16 gesu ht zu werden. Als mogli he Kandidaten mussen
die Zahlen 1; 2; 4; 8; 16 betra htet werden. Man probiert mit den betragskleinsten Teilern mit
dem Resultat, dass x1 = 1 als Nullstelle erkannt wird. Das Abspalten des Linearfaktors x x1 mit
dem Horner{S hema (siehe unten) liefert ein Restpolynom P3 (x) = 2x3 4x2 8x +16. Ganzzahlige
Nullstellen von P3 (x) teilen wie vorher den Koezienten 16. Die Probe mit den obigen Teilern fuhrt
BSP. (3.14)

auf eine Nullstelle x2 = 2, und na h Abspalten des Linearfaktors x x2 mit dem Horner{S hema
verbleibt das quadratis he Restpolynom P2(x) = 2x2 8 = 2(x 2)(x + 2).
2 6 4 24 16
1  2 4 8 16
2 4 8 16 0 = P4 (1)
2  4 0 16
2 0 8 0
An der Linearfaktorzerlegung P4 (x) = 2(x 1)(x 2)2 (x + 2) sind jetzt alle Nullstellen mit ihren
Vielfa hheiten ablesbar.

Kapitel 4
Matrizen
4.1 Kapitel 1 verallgemeinert auf K -Vektorraume fur
einen Korper K
Die U berlegungen von Kapitel 1 gelten zum groten Teil au h fur allgemeine K -Vektorraume,
wenn K ein beliebiger Korper ist.

In Abs hnitt 1.1 kann au h ein lineares Glei hungssystem in K betra htet werden und alle
U berlegungen bleiben gultig.
In Abs hnitt 1.2 kann au h R dur h einen beliebigen Korper K ersetzt werden. Statt des
R -Vektorraums R n betra htet man also den K -Vektorraum K n . K n ist au h ein Vektorraum
uber einem Korper K~  K . Also ist C n au h ein R -Vektorraum (ni ht nur ein C -Vektorraum),
R ist aber kein C -Vektorraum. In BSP. (1.11) kann allgemein der Polynomraum
K n [z := fP (z )jP (z ) ist Polynom u
ber K vom Grad ho hstens ng
betra htet werden. In BSP. (1.13) wird allgemein der Matrizenraum uber K ;
K (m;n)

betra htet, in BSP. (1.14) K -wertige Abbildungen.


Die Abs hnitte 1.3 und 1.4 gelten weiterhin fur allgemeine K .
In Abs hnitt 1.5 gelten weiterhin die allgemeinen Aussagen, nur in BSP. (1.33) muss bei
Betra htung von K n [z bzw. K [z vorausgesetzt werden, dass K ni ht endli h ist.
Abs hnitt 1.6 gilt au h fur allgemeine K .
Die Langen- und Winkelmessung von Abs hnitt 1.7 hingegen bleibt K = R , d.h. dem Raum
R n vorbehalten.
Eine Verallgemeinerung erfolgt teilweise in Abs hnitt 1.8, aber nur fur die Falle K = R (wie
dort) und K = C .
Der Versu h, das Standardskalarprodukt des R n , namli h

h~x; ~yi =

n
X
k=1

xk yk ; ~x = (x1 ; x2 ; : : : ; xn )T ; ~y = (y1 ; y2; : : : ; yn)T ;

auf Vektoren ~x; ~y 2 C n auszudehnen, fuhrt zur Verletzung der De nitheitsbedingung (SP1).
Zum Beispiel erhalt man fur den Vektor ~x := (1+ i; 0; : : : ; 0)T 2 C n aus obigem Skalarprodukt
2 = 2i. In diesem Fall ist es ni ht mogli h, die Lange oder Norm des
die Zahl h~x; ~xi = (1 + i)p
Vektors ~x gema k~xk = h~x; ~xi zu erklaren.
149

Mit einer geeigneten Modi zierung der De nition kann das Skalarprodukt au h auf C n eingefuhrt werden:
De nition 4.1 (a) Fur je zwei Vektoren ~x = (x1 ; x2 ; : : : ; xn )T 2 C n und ~y = (y1 ; y2, : : : ; yn)T 2
Cn

heie

h~x; ~yi :=

n
X
k=1

Standardskalarprodukt von ~x; ~y 2 C n :


(b) Die Zahl
p

k~xk := h~x; ~xi =

n
X
k=1

xk xk

xk yk

!1=2

n
X
k=1

jxk j2

!1=2

heie die Lange oder die dur h das Skalarprodukt induzierte Norm des Vektors ~x =

(x1 ; x2 ; : : : ; xn)T 2 C n .

Zum Beispiel: In C 2 seien die Vektoren ~x := (1 + i; 1 i)T ; ~y := ( 2; 2i)T gegeben. Dann gilt
h~x; ~yi = 2(1 + i) 2i(1 i) = p4(1 + i) sowie k~xk = [(1 + i)(1 i) + (1 i)(1 + i)1=2 = 2 und
k~yk = [( 2)( 2) + 2i( 2i)1=2 = 2 2.

Die Eigens haften von Standardskalarprodukt und induzierter Norm gelten weiterhin mit
entspre hender Modi kation:
(SP3) wird ersetzt dur h
(SP3) h~x; ~yi = h~y; ~xi 8 ~x; ~y 2 V:
De nition 1.51 ist dann zu modi zieren zu

h~x; ~y + ~zi = h~x; ~yi + h~x; ~zi:


In einem C -Vektorraum ist also ein Skalarprodukt ni ht bilinear, sondern nur sesquilinear.
Die Winkelde nition von De nition 1.57 bleibt R -Praehilbertraumen vorbehalten.
Alles weitere gilt au h fur den komplexen Fall.
Die allgemeinen Aussagen von Abs hnitt 1.9 gelten au h in C -Praehilbertraumen.

4.2 Abbildungen, Funktionen


Der Inhalt dieses Abs hnitts vertieft die Ausfuhrungen von Abs hnitt 2.2.1.

Zahlrei he physikalis he und te hnis he Vorgange werden dur h Funktionen bes hrieben. Wir nennen hier das Beispiel eines idealen Gases, wel hes bei konstanter Temperatur in einem Kolben einges hlossen sei. Na h dem Boyle{Mariotte{Gesetz besteht der folgende funktionale Zusammenhang
zwis hen dem Dru k p und dem Volumen V :
pV

= = onst (= R T );

worin T die Temperatur des Gases, R die ideale Gaskonstante bezei hnet.

Zum Boyle{Mariotte{Gesetz von


idealen Gasen
Hier kann der Dru k p als Funktion des Volumens V aufgefasst werden:

p(V ) = :
V

Funktionen oder Abbildungen sind spezielle Korrespondenzen mit der Abbildungseigens haft (A), wie wir in De nition 1.11 festgestellt haben Wir betra hten nun stets ni htleere
Mengen X; Y sowie den Funktionenraum Abb (X; Y ) aller Abbildungen von X na h Y . Die
uberaus wi htigen Begri e der Surjektivitat, Injektivitat und Bijektivitat fur f 2 Abb (X; Y )
sollen hier no hmals in Erinnerung gebra ht werden.
De nition 4.2 Gegeben seien Mengen X; Y und eine Funktion f 2 Abb (X; Y ).
S
(a) Fur A  X heie f (A) := f (x) = fy 2 Y : y = f (x) und x 2 Ag die Bildmenge
x2A
von A unter f . Man setzt Bild f := f (X ).
(b) Fur B  Bild f heie f 1(B ) := fx 2 X : f (x) 2 B g die Urbildmenge von B bezugli h
f . Speziell fur b 2 Bild f heie f 1 (b) := fa 2 X : f (a) = bg die Losungsmenge der
Glei hung f (x) = b.
( ) Die Funktion f heie
 surjektiv (oder Abbildung auf) , wenn gilt: f (X ) = Y . Dies ist genau dann der Fall,
wenn

8 y 2 Y 9 x 2 X : y = f (x);

injektiv (oder eineindeutige Abbildung) , wenn gilt:

x1 ; x2 2 X und f (x1 ) = f (x2 )

) x 1 = x2 :

In Worten: Jedes Bild y 2 f (X ) hat genau ein Urbild x 2 X;


bijektiv (oder eineindeutige Abbildung auf), wenn f injektiv und surjektiv ist.

(d) Ist f bijektiv, so wird dur h


f 1 := f(y; x) 2 Y

 X : y = f (x)

und y 2 Y g

die Umkehrabbildung f 1 von f de niert (denn jedem Element y 2 Y wird genau ein Element x 2 X zugeordnet), und wir s hreiben wieder x = f 1 (y ) anstelle von (y; x) 2 f 1 . Es
ist f 1 : Y ! X ebenfalls bijektiv, und es gilt (f 1) 1 = f .

BSP. (4.1) (a) Jede Funktion einer reellen Veranderli hen x ist eine Abbildung, insbesondere
f : R ! R mit f (x) := sin x oder f (x) := os x. Beide Abbildungen sind weder injektiv no h
surjektiv, denn es gilt ja f (R) = [ 1; 1 und zum Beispiel sin0 = sin  = 0 = os 2 = os 32 .
Hingegen ist die Funktion f (x) = 2x + 1 bijektiv, denn fur jedes y 2 R ist x := 21 (y 1) 2 R genau
das Element mit y = f (x).
(b) Es sei X := Y := N .

 f (x) := 2x :: xx => 11; ist weder surjektiv no h injektiv, (da 1 2= f (N ) und f (1) = 2 = f (2));

 f (x) := x + 1 ist injektiv, aber ni ht surjektiv, (da 1 2= (N ));




 f (x) := x1 1 :: xx >= 11; ist surjektiv, aber ni ht injektiv, (da f (1) = 1 = f (2));
8
<

2 : x = 1;
x : x>2
( ) Fur eine gegebene Abbildung f : X ! Y und fur gegebenes b 2 Y hat die Glei hung f (x) = b
9
8
9
stets
=
< surjektiv =
ho hstens ; eine Losung x 2 X , falls f : injektiv ; ist.
genau
bijektiv
 f (x) := : 1 : x = 2; ist bijektiv.

BSP. (4.2) (a) Die Funktion f : C ! C mit f (z ) := a1 z + a0 ; a1 6= 0; ist bijektiv. Die


Umkehrabbildung f 1 : C ! C ist gegeben dur h f 1( ) := ( a0 )=a1.
(b) Die Bijektivitat geht bereits bei Polynomen 2. Grades verloren. Zum Beispiel ist f : R ! R
mit f (x) := x2 weder injektiv no h surjektiv. Betra htet man jedo h die Eins hrankung von
f auf R + := (0; +1):
f jR + =: f~ 2 Abb (R ; R + ) mit f~(x) :=

x2 ; x 2 R + ;
;; x  0;

so ist f~ bijektiv. Die Umkehrabbildung ist f~ 1(y) := py; y > 0. Ganz analog ist die Eins hrankung
 2
x ; x2R ;
~
~
f jR =: f 2 Abb (R ; R + ) mit f (x) :=
;; x  0;
bijektiv, und ihre Umkehrabbildung ist f~ 1(y) := py; y > 0.
Wie das BSP. (4.2(b)) lehrt, ist es hau g sinnvoll, Funktionen f 2 Abb (X; Y ) nur auf einer
Teilmenge von X zu erklaren, obwohl sie formelmaig auf ganz X vorliegen. In diesem Sinne
de nieren wir:
De nition 4.3 Gegeben sei eine Funktion f : X ! Y . Dann heie die Menge D(f ) := fx 2
X : f (x) 6= ;g  X der De nitionsberei h von f . Ist X die maximale Menge, auf der f

dur h einen formelmaigen Ausdru k sinnvoll erklart werden kann, so heie X der maximale
De nitionsberei h von f .

Bea hte: De nitionsberei h und Bildberei h beein ussen die Eigens haften einer

Abbildung ganz wesentli h!

De nition 4.4 (a) Zwei Mengen X; Y heien glei hma htig, wenn es eine bijektive Abbildung f 2 Abb (X; Y ) mit D(f ) = X gibt.
(b) Eine Menge X heie abzahlbar, wenn es eine injektive Abbildung f : X ! N mit
D(f ) = X gibt. Die Menge X heie unendli h, wenn es eine injektive Abbildung g : N ! X
mit D(g ) = N gibt. Andernfalls heie X endli h.
Zum Beispiel ist die Menge G := fn 2 N : n = 2m mit m 2 N g abzahlbar unendli h, denn die
Abbildung g : N ! G mit g(m) := 2m 8 m 2 N ist bijektiv. Ebenso ist die Menge der rationalen
Zahlen Q := fr 2 R : r = p=q mit p 2 Z; q 2 N g abzahlbar unendli h. Bes hrankt man si h
zuna hst nur auf die positiven rationalen Zahlen Q + , so kann eine bijektive Abbildung f : Q + ! N

in der folgenden Weise konstruiert werden:


1
1
1
2
#
1
3

3
4
5
6
! 21
1 ! 1
1 ! 1 
.
%
.
%
.
2
3
4
5
6 
2
2
2
2
2
%
.
%
.
2
3
4
5
6 
3
3
3
3
3
.
%
.
...
...
...
...
...
...   

Dieses S hema wird in der dur h die Pfeile angegebenen Reihenfolge dur hgezahlt. Mehrfa h auftretende rationale Zahlen werden nur einmal gezahlt. Man ordnet der an n{ter Stelle auftretenden
rationalen Zahl r die naturli he Zahl n zu.
De nition 4.5 Sind f : X ! Y und g : Y ! Z Abbildungen mit Bild f  D(g ), so
heie h := g f : X ! Z mit h(x) := g [f (x) die Hintereinanderausfuhrung oder das

Kompositum von f und g . Das Kompositum ist assoziativ, aber ni ht kommutativ:

(g f ) k = g (f k); aber g f 6= f g im allgemeinen,


falls samtli he Abbildungen erklart sind.

f
X

f
Z

g f

Das Kompositum von f und g

Die inverse Abbildung

(a) Es seien R !f R !g R + := [0; +1) mit f (x) := a1 x + a0; a1 6= 0, und g(x) := x2


gegeben. Dann gilt:
(g f )(x) = (a1 x + a0)2 ; (f g)(x) = a1x2 + a0 6= (g f )(x):
(b) Fur jede Funktion f 2 Abb(X; Y ) gelten f IdX 2 Abb(X; Y ) und f IdX = f sowie IdY f 2
Abb(X; Y ) und IdY f = f .
BSP. (4.3)

De nition 4.6 Es seien f : X ! Y und g : Y ! X Abbildungen.


(a) Die Abbildung g heie Linksinverse von f falls gilt:

Bild f  D(g) und g f = IdX :


Ist f injektiv mit D(f ) = X , so existiert stets eine Linksinverse.
(b) Die Abbildung g heie Re htsinverse von f falls gilt:

Bild g  D(f ) und f g = IdY :


Ist f surjektiv mit D(f ) = X , so existiert stets eine Re htsinverse.
( ) Die Abbildung g heie Inverse von f , wenn g sowohl Re hts{ als au h Linksinverse von f
ist. Die Inverse g existiert genau dann, wenn f bijektiv ist. Man s hreibt f 1 := g und hat

f 1 f = IdX ; f f 1 = IdY :
BSP. (4.4) (a) Die Funktion f : R ! R + mit f (x) := x2 ist surjektiv. Sie besitzt die Re htp
p
sinverse g : R + ! R mit g(x) := x. Denn o enbar gilt (f g)(x) = ( x)2 = x 8 x  0, also
f g = IdR .
(b) Die Funktion
f : R + ! R mit f (x) := x2 ist injektiv
. Sie besitzt die Linksinverse g : R ! R +
p
p
2
mit g(x) := jxj. Denn o enbar gilt (g f )(x) = jx j = x 8 x  0, also g f = IdR .
( ) Die Abbildungpf : R ! R mit f (x) := x5 ist bijektiv. Sie besitzt
die Inverse g : R ! R mit
5 )  pjxj5 = jxj  sign(x) = x 8 x 2 R
g(x) := sign(x)  jxj. Denn o enbar
gilt
(
g

f
)(
x
)
=
sign(
x
 p 5
sowie (f g)(x) = (sign(x))5  jxj = jxj  sign(x5) = jxj  sign(x) = x 8 x 2 R.
+

Bemerkung 4.7 (a) Sind f : X ! Y und g : Y ! Z bijektiv, so gelten

(f 1) 1 = f; [g f 1 = f 1 g 1:
(b) Die Menge

Inv (X ) := ff : X ! X : f bijektiv g

bildet unter der Verknupfung eine (ni ht{kommutative) Gruppe (Inv (X ); ) mit neutralem Element IdX und inversem Element f 1. Hingegen bildet (Abb (X; X ); ) ledigli h eine
Halbgruppe mit neutralem Element IdX . Diese heie die symmetris he Halbgruppe von X
oder au h Transformationshalbgruppe.
2

4.3 Lineare Abbildungen. Kern und Bild


Eine Sonderstellung unter den Abbildungen f : X ! Y nehmen in vieler Hinsi ht die linearen
Abbildungen uber Vektorraumen ein. Na hfolgend bezei hnet K einen beliebigen Korper.

De nition 4.8 Gegeben seien Vektorraume V und W uber demselben Korper K . Eine Abbildung f : V ! W mit D(f ) = V heie linear genau dann, wenn gilt:
f ( ~u +  ~v) =  f (~u) +  f (~v)

8 ;  2 K 8 ~u; ~v 2 V:

(L)

Setzt man in (L)  =  = 0, so resultiert die fur lineare Abbildungen stets gultige Beziehung

f (~0) = ~0.

Bemerkung 4.9 Die Bedingung (L) besagt, dass eine lineare Abbildung f 2 Abb (V; W )
vertragli h ist mit den algebrais hen Strukturen von (V; +; {mal) und (W; +; {mal). Es gilt
namli h fur jede der algebrais hen Verknupfungen + und {mal die Vertragli hkeitsbedingung
(H) aus Abs hnitt 2.2.3, so dass mit f ein Homomorphismus im Sinne der De nition 2.22
vorliegt. Speziell fur V = W ist f ein Endomorphismus.
2
BSP. (4.5)

Es sei V ein VR uber K , und es sei r 2 K ein festes Element. Dann ist
f :V

! V mit f (~v) := r ~v 8 ~v 2 V

eine lineare Abbildung. Als Spezialfalle sind enthalten: fur r = 0 die triviale Abbildung f (~v) =
sowie fur r = 1 die identis he Abbildung oder Identitat f (~v) = ~v 8 ~v 2 V , also f = IdV .

~0 8 ~v 2 V

BSP. (4.6)
und es sei W

folgt, dass

Es sei V ein Praehilbertraum uber K := R oder K := C mit Skalarprodukt h; i,


:= K . Der Vektor w~ 2 V sei fest gewahlt. Aus dem Axiom (SP2) fur Skalarprodukte
f :V

! K mit f (~v) := h~v; w~ i 8 ~v 2 V

eine lineare Abbildung ist. Bea hte: Setzt man stattdessen


g : V ! K mit g(~v ) := hw;
~ ~v i 8 ~v 2 V;
so ist diese Abbildung nur fur K = R, ni ht aber fur K = C linear.
BSP. (4.7) Es sei V := K (m;n) . Die Elemente von V sind die m  n{Matrizen uber K :
2

A 2 K (m;n)

a11 a12
a21 a22

   a1n
   a2n

am1 am2

   amn

, A = 664 ..
.

... . . .

...

3
7
7
7
5

= (ajk ) mit

ajk 2 K :

Es wird nun ein Produkt der Matrix A 2 K (m;n) mit einem Vektor ~x 2 K n derart erklart, dass ein
Vektor ~y 2 K m entsteht:
De nition 4.10 Das Produkt der Matrix A = (ajk ) 2 K (m;n) mit dem Vektor ~x = (x1 ; x2 ,
: : : ; xn )T 2 K n ist derjenige Vektor ~y = (y1 ; y2 ; : : : ; ym )T 2 K m , dessen Komponenten gema
yj =

n
X
k=1

ajk xk ; j = 1; 2; : : : ; m,

(MP)

de niert sind. Explizit gilt also:


2
6

A~x = 6
6
4

a11 a12    a1n


a21 a22    a2n
..
.. . . . ..
.
.
.
am1 am2    amn

32
7
7
7
5

x1
x2
..
.
xn

6
6
6
4

7
7
7
5

= 66

6
4

a11 x1 + a12 x2 +    + a1n xn


a21 x1 + a22 x2 +    + a2n xn
..
.
am1 x1 + am2 x2 +    + amn xn

3
7
7
7
5

= ~y:

Das heit, das Produkt (MP) wird na h dem S hema Zeile mal Spalte gebildet.
(MP) kann au h so interpretiert werden, dass A~x die Linearkombination der Spalten ~a1;    ;~an
mit den Koezienten x1;    ; xn darstellt.
Wel hen Algorithmus zum Aufbau von A~x (bei einem Datentyp ve tor)ergibt diese Si htweise? Speziell fur ~x = ~ej , den j-ten Einheitsvektor, ist also A~x = A~ej = ~aj :

BSP. (4.8)

|

2
3
2 + 5i 5 + 2i 0  4 1 1 i 5 =  2 + 5i + 5 + 2i 5i + 2  =  9 + 2i ;
2 5i {z
5 2i 3i } 2
2 5i + 5 2i 5i 2 + 6i | 5 {z6i }
|

2C (2;3)

{z

2C 3

2C 2

0 0 1 32 x 3 2 z 3
4 1 0 0 5 4 y 5 = 4 x 5:
0 {z1 0 } | {zz } | {zy }
|
2R(3;3)

2R3

2R3

Die einfa he algorithmis he Struktur des Produktes (MP) erlaubt es, die Bere hnung von A~x = ~y
sehr ezient mit dem Computer vorzunehmen:
Algorithmus zur Bere hnung des Produktes ~y := A~x:
1:
2:
3:
4:
5:

Einlesen von ajk ; xk ;


fur j := 1; 2; : : : ; m :
yj := 0;
fur k := 1; 2; : : : ; n :
yj := yj + ajk  xk :

(Ende

j; k)

Satz 4.11 Dur h das Produkt (MP) wird jeder Matrix A 2 K (m;n) eine lineare Abbildung
fA : K n ! K m mit fA (~x) := A~x
zugeordnet. Es ist ubli h, die Abbildung fA mit der Matrix A zu identi zieren.
Begrundung: Zu gegebenen Elementen ~x; ~u
w~ := A( ~x +  ~u). Dann folgt aus (MP):

wj =

n
X
k=1

ajk ( xk +  uk ) = 

n
X
k=1

2 K n und ;  2 K setzen wir ~y := A~x; ~v := A~u und

ajk xk + 

Also gilt w~ = A( ~x +  ~u) =  A~x +  A~u.

n
X
k=1

ajk uk =  yj +  vj 8 j = 1; 2; : : : ; m:

Bemerkung 4.12 In Abs hnitt 1.1 hatten wir lineare Glei hungssysteme
n
X
k=1

ajk xk = bj ; j = 1; 2; : : : ; m;

(LG)

betra htet. Mit Hilfe der Koezientenmatrix A := (ajk ) konnen wir jetzt (LG) in der neuen
Form
A~x = ~b
(LG)'
s hreiben. Hier ist die re hte Seite ~b = (b1; b2 ; : : : ; bm )T 2 K m vorgegeben, und der Losungsvektor ~x = (x1; x2 ; : : : ; xn)T 2 K n ist gesu ht.
2
De nition 4.13 Es seien V; W Vektorraume uber demselben Korper K . Dann setzen wir
L(V; W ) := ff : V
Speziell heie

! W : f ist lineare Abbildungg:

V 0 := L(V; K ) = ff : V

! K : f ist lineare Abbildungg

der algebrais he Dual von V . Die Elemente von V 0 heien lineare Funktionale auf V .
Zum Beispiel gilt A 2 L(K n ; K m )
h; ~ui 2 V 0 fur jedes feste ~u 2 V .

fur jede Matrix A 2 K (m;n) . Ist V ein Praehilbertraum, so gilt

Die Menge L(V; W ) ist selbst ein Vektorraum uber K :


Satz 4.14 Gegeben seien Vektorraume V; W uber demselben Korper K . Versieht man die
Menge der linearen Abbildungen L(V; W ) mit den folgenden algebrais hen Operationen + und
{mal, so ist L(V; W ) selbst ein Vektorraum uber K :

:
{mal :

(f + g)(~v) := f (~v) + g(~v) 8 f; g 2 L(V; W ) 8 ~v 2 V;


( f )(~v) :=  f (~v) 8  2 K 8 f 2 L(V; W ) 8 ~v 2 V:

Begrundung: Diese erfolgt lei ht dur h Na hre hnen der Vektorraumaxiome, was hier ni ht vorgefuhrt

werden soll.

Bemerkung 4.15 Wir haben oben s hon gezeigt, dass die Inklusion K (m;n)  L(K n ; K m )
gilt. Wir werden im na hsten Satz 4.16 sogar die Glei hheit K (m;n) = L(K n ; K m ) zeigen. Die
soeben eingefuhrten algebrais hen Operationen + und {mal sind dieselben, die wir bereits
in Abs hnitt 1.2 auf K (m;n) erklart hatten (vgl. BSP. 1.13):
2

8 A; B 2 K (m;n) 8 ;  2 K :  A +  B =  (ajk ) +  (bjk) := ( ajk +  bjk ):


Satz 4.16 (a) Es gelte dim V = n < 1, und es sei ~v1 ; ~v2 ; : : : ; ~vn 2 V eine Basis von V . Dann
ist jedes f 2 L(V; W ) allein dur h die Vorgabe der Bilder w~ j := f (~vj ) 2 W 8 j = 1; 2; : : : ; n,

eindeutig bestimmt.
(b) Es gilt

K (m;n)

= L(K n ; K m ):

Ist namli h ~e1 ; ~e2 ; : : : ; ~en die Standardbasis des


f 2 L(K n ; K m ) gegeben, so bilden die Vektoren

~aj := f (~ej ) 2 K m

Kn

und ist eine beliebige lineare Abbildung

8 j = 1; 2; : : : ; n,

die Spalten einer Matrix A := (~a1 ;~a2 ; : : : ;~an ) 2 K (m;n) mit der Eigens haft A~x = f (~x)
K n ; das heit, es gilt f = A.

8 ~x 2
n

(a) Da jeder Vektor ~u 2 V in der angegebenen Basis die Darstellung ~u = P k~vk


k=1
zulasst, erhalten wir
n
n
n
X
 X
X
f (~u) = f
k~vk = k f (~vk ) = k w~ k ;

Begrundungen:

k=1

k=1

k=1

und zu dieser Darstellung werden auss hlieli h die Bilder w~ j benotigt.


(b) Gema (a) ist jede lineare Abbildung f 2 L(K n ; K m ) dur h die Vorgabe der Bilder ~aj :=
f (~ej ) 8 j = 1; 2; : : : ; n eindeutig festgelegt. Wir bilden die Matrix A := (~a1 ;~a2 ; : : : ;~an ) 2 K (m;n) .
Dann erhalt man aus (MP) ganz o ensi htli h die folgenden Relationen:
A~ej = ~aj

8 j = 1; 2; : : : ; n:

Hieraus resultiert fur jeden Vektor ~x = P xk~ek 2 K n :


k=1

A~x =

BSP. (4.9)

n
X
k=1

xk A~ek =

n
X
k=1

xk f (~ek )

(L)

= f (~x):

Es ist A 2 L(R5 ; R3 ) so zu bestimmen, dass gilt:


2

A~x = 4

x1 2x5 + x3
x2 + 4x4 x3
x4 x1

3
5

8 ~x = (x1; x2 ; x3 ; x4 ; x5 )T 2 R5 :

O enbar ist die Abbildungsvors hrift A : R5 ! R3 linear, so dass A als 3  5{Matrix


darstellbar ist. Wir setzen A = (~a1 ;~a2; : : : ;~a5 ) und bere hnen die Spaltenvektoren ~aj = A~ej aus
obiger Vors hrift: A~e1 = (1; 0; 1)T ; A~e2 = (0; 1; 0)T ; A~e3 = (1; 1; 0)T ; A~e4 = (0; 4; 1)T ; A~e5 =
( 2; 0; 0)T . Hieraus ergibt si h:
2
3
1 0 1 0 2
A = (~a1 ;~a2 ;~a3 ;~a4 ;~a5 ) = 4 0 1 1 4 0 5 :
1 0 0 1 0

Losung:

Kern und Bild einer linearen Abbildung

De nition 4.17 Es seien V; W Vektorraume uber demselben Korper K . Fur eine lineare
2 L(V; W ) heie die Menge

Abbildung f

Kern f := f~v 2 V : f (~v) = ~0g  V

der Kern oder Nullraum von f . (Andere Bezei hnungen sind N (f ) oder Ker f .) Die Menge

Bild f := fw~ 2 W : w~ = f (~v) und ~v 2 V g  W


heie Bild oder Bildraum von f . (Andere Bezei hnungen sind R(f ) oder im (f ) fur "range"
bzw. "image").

Satz 4.18 Fur f 2 L(V; W ) ist Kern f  V ein Unterraum von V und Bild f  W ein
Unterraum von W .
Begrundung: Wegen f (~0) = ~0 2 Bild f haben wir Kern f 6= ;. Seien ferner ~u; ~v 2 Kern f gegeben.
Dann gilt fur ;  2 K :
f ( ~u +  ~v ) =  f (~u) +  f (~v) = ~0 + ~0 = ~0;
also  ~u +  ~v 2 Kern f . Wir setzen w~ := f (~u); ~z := f (~v), und erhalten
 w~ +  ~z =  f (~u) +  f (~v) = f ( ~u +  ~v) 2 Bild f:
Es gelten somit die Unterraumaxiome (U1) und (U2) fur Kern f und Bild f .
2
BSP. (4.10) Es sei A = (ajk ) 2 K (m;n) = L(K n ; K m ) gegeben. O ensi htli h gilt:

Kern A ist die Losungsmenge des homogenen linearen Glei hungssystems:


~x 2 Kern A , A~x = ~0

n
X
k=1

ajk xk = 0

8 j = 1; 2; : : : ; m:

Der Unterraum Kern A kann also mit dem Gauss{Algorithmus bere hnet werden. Wir bestimmen
nun den Unterraum Bild A. Fur die Einheitsvektoren ~e1 ; ~e2 ; : : : ; ~en der Standardbasis des K n haben
wir in Satz 4.16 gezeigt:
A := (~a1 ;~a2 ; : : : ;~an ) = (A~e1 ; A~e2 ; : : : ; A~en ):
n

Mit der Darstellung ~x = P xk~ek eines beliebigen Vektors ~x 2 K n resultiert hieraus:


k=1

A~x = A

Das heit, es gilt stets

n
X
k=1

xk~ek

n
 (L) X

k=1

xk A~ek =

n
X
k=1

xk~ak 2 span f~a1 ;~a2 ; : : : ;~an g:

Bild A = span f~a1 ;~a2 ; : : : ;~an g:

Satz 4.19 Es sei A = (ajk ) 2 K (m;n) eine m  n{Matrix. Dann besteht der Unterraum
Kern A  K n genau aus der Losungsmenge des homogenen linearen Glei hungssystems

Kern A = f~x 2 K n : A~x = ~0g:


Der Unterraum Bild A  K m wird von den Spaltenvektoren ~ak := (a1k ; a2k ; : : : ; amk )T ; k =
1; 2; : : : ; n, der Matrix A aufgespannt:

Bild A = span f~a1 ;~a2; : : : ;~ang; ~ak = A~ek 8 k = 1; 2; : : : ; n:

Falls fur die Matrix A 2 K (m;n) die Dimensionsrelation m < n gilt, so konnen nur maximal m
der n Spaltenvektoren ~a1;~a2 ; : : : ;~an der Matrix A linear unabhangig sein. Wegen Bild A 
K m muss n
amli h dim Bild A  m gelten. Man de niert in diesem Zusammenhang:
De nition 4.20 Es seien V; W Vektorraume uber demselben Korper K . Fur f 2 L(V; W )
heie die Zahl

Rang f := dim Bild f


der Rang von f , sofern der Unterraum Bild f endli hdimensional ist. Fur eine Matrix A 2

K (m;n)

ist insbesondere

Rang A = dim Bild A = Maximalzahl der LU Spaltenvektoren.


Basen fu
r

Kern A und Bild A

Wir verwenden das in Abs hnitt 1.5 bes hriebene Verfahren zur Bere hnung einer Basis in
einem gegebenen Unterraum.
(I) Basis fur Kern A: Zu gegebener Matrix A 2 K (m;n) ist das homogene lineare Glei hungssystem A~x = ~0 zu losen:

0 9
=
 j f1
0 >
S{System, Typ (I)
~

0 >n r
(A j 0) )
oder Typ (II).
 j f2 0 ;
O
0
Die Komponenten xl des Losungsvektors ~x = (x1 ; x2; : : : ; xn)T in den Positionen fl des obigen
S hemas sind frei wahlbare Parameter C1 ; C2; : : : ; Cr ; r  n. Setzt man sukzessive Cl := jl
fur j = 1; 2; : : : ; r in das obige S hema ein, so erhalt man dur h Losen des verbleibenden Glei hungssystems na heinander r Basisvektoren von Kern A, die wir mit neuen Bezei hnungen
Gauss{S hritte

~h1 ; ~h2 ; : : : ; ~hr 2 Kern A

versehen wollen. Mit diesen Basisvektoren kann die Losungsmenge des homogenen linearen
Glei hungssystems A~x = ~0 in der folgenden Form ges hrieben werden:

L(LG) = f~x 2 K n : ~x = C1~h1 + C2~h2 +    + Cr~hr ; Cj 2 K g.


Dass si h der Unterraum Kern A unter den Gauss{S hritten ni ht verandert, das hatten wir
bereits in Satz 1.40 festgestellt.
BSP. (4.11)

(A j ~0) ,
Z1 , Z3
Z2 + Z1 ) Z 2
Z3 2Z1 ) Z3
Z3 , Z 2
Z3 2Z2 ) Z3

2 4
1 2
1 2
1 2
0 0
0 0
1 2
0 0
0 0

1 7
1 2
1 4
1 4
2 2
1 1
1 4
1 1
0 0

0
0
0
0
0
09
0=
0 ; ) S{System, Typ (II).
0

Die Komponenten des Losungsvektors ~x = (x1 ; x2 ; x3 ; x4 )T in den gekennzei hneten Positionen


sind also frei wahlbar: x2 = C1 ; x4 = C2. Mit der speziellen Wahl (C1 ; C2 ) = (1; 0) bzw. (C1 ; C2 ) =
(0; 1) erhalt man aus dem obigen System die beiden Basisvektoren ~h1 = ( 2; 1; 0; 0)T bzw. ~h2 =
( 3; 0; 1; 1)T . Es folgt also fur die Losungen von A~x = ~0:
2
2
2
23
33
2 3 2 3 3)
(
6 1 7
6
7
6
7 6
7
7 + C2 6 0 7 ; Kern A = span 6 1 7 ; 6 0 7 ; dimKern A = 2:
~x = C1 6
4 0 5
4 1 5
4 0 5 4 1 5
0
1
0
1
(II) Basis fur Bild A: Zu gegebener Matrix A = (~a1 ;~a2; : : : ;~an) 2 K (m;n) ist eine Basis des
Unterraumes Bild A = span f~a1;~a2 ; : : : ;~ang zu bestimmen. Das heit, es ist die Maximalzahl
der linear unabhangigen Spaltenvektoren aufzu nden. Dazu wenden wir das Verfahren aus
Abs hnitt 1.5 an. Wir s hreiben das transponierte Vektorsystem ~a1T ;~a2T ; : : : ;~anT 2 K m als
Zeilen einer Matrix
2
3
T
6
AT := 6
6
4

~a1
~a2T

...

~anT

7
7
7
5

2 K (n;m)

und wenden dana h elementare Zeilenumformungen so auf die Matrix AT an, dass AT in eine
Sta elform ubergeht:
2

7
7
7
5

~a1T
6 ~a T
2
AT = 6
6 ..

~anT


)

Gauss{S hritte

 j f1

 j f2

 j f3

=: ~b1T
=: ~b2T
...
=: ~bsT

S{System, Typ (I)


oder Typ (II).

Die ni htvers hwindenden Zeilenvektoren ~b1T ; ~b2T ; : : : ; ~bsT 2 K m bilden eine Basis ~b1 ; ~b2; : : : ; ~bs
von Bild A, und es gilt
Bild A = span f~b1 ; ~b2 ; : : : ; ~bsg, Rang A =s.
BSP. (4.12)

Fur die Matrix A aus BSP. 4.11 bestimmen wir eine Basis von Bild A.
2

~a1T
6 ~a T 7
2 7
AT := 6
4 ~a T 5 )
3
~a4T
Z1 , Z3
Z2 4Z1 ) Z2
Z3 2Z1 ) Z3
Z4 7Z1 ) Z4
Z3 , Z2
Z3 + 2Z2 ) Z3
Z4 + 3Z2 ) Z4

2
4
1
7
1
0
0
0
1
0
0
0

1 1
2 2
1 1
2 4
1 1
6 2
3 1
9 3
1 1
3 1
0 0
0 0

= ~b1T
= ~b2T

9
>
>
>
>
=
>
>
>
>
;

) S{System, Typ (II).

Wir lesen hier die Basis von Bild A sowie den Erganzungsraum E mit E  Bild A = R3 direkt ab:
(2
(2
1 3 2 0 3)
0 3)
Bild A = span 4 1 5 ; 4 3 5 ; dimBild A = 2; E = span 4 0 5 :
1
1
1
Bea hte: Das obige Beispiel der linearen Abbildung A
Dimensionsformel

2 L(R 4 ; R 3 ) =: L(V; W ) liefert die

dim Bild A + dim Kern A = dim V (= dim R 4 = 4):

(4.1)

Wir wollen die Dimensionsformel (4.1) fur beliebige lineare Abbildungen auf einem endli hdimensionalen Vektorraum V zeigen:
Satz 4.21 Es seien V; W Vektorraume uber demselben Korper K , und es gelte dim V < 1.
Dann gilt fur jedes f 2 L(V; W ) die Dimensionsformel
dim Bild f + dim Kern f = dim V:
Begrundung: Wir setzen dim V =: n sowie dimKern f
Kern f  V gibt es eine Basis ~h1 ; ~h2 ; : : : ; ~hp 2 Kern f :

=: p  n. Fur den endli hdimensionalen UR

Kern f = span f~h1 ; ~h2 ; : : : ; ~hpg; f (~hj ) = ~0 8 j = 1; 2; : : : ; p:


Falls p = n gilt, so folgt V = Kern f und somit Bild f = f (V ) = f~0g. In diesem Falle ist die
Behauptung o enkundig wahr. Es sei nun p < n. Wir wahlen gema Satz 1.36 eine Basiserganzung
~hp+1 ; ~hp+2 ; : : : ; ~hn , so dass V = span f~h1 ; ~h2 ; : : : ; ~hn g gilt. Jeder Vektor ~v 2 V gestattet nun eine
n
Zerlegung ~v = P vk~hk , und es folgt
k=1

f (~v) = f

Mithin resultiert

n
n
 (L) X
X
X
~hk ) +
vk f (~hk ):
vk f (~hk ) =
vk f ({z
vk~hk =
}
|
k=p+1
k=1
k=1
=~0 k=p+1

n
X

Bild f = span ff (~hp+1); f (~hp+2 ); : : : ; f (~hn)g:


Wir zeigen, dass die Vektoren f (~hp+1); f (~hp+2); : : : ; f (~hn ) 2 W LU sind. In diesem Falle folgt dann
s hon die behauptete Dimensionsformel dimBild f = n p = dim V dimKern f . Zur linearen
Unabhangigkeit:
~0 =

n
X
k=p+1

k f (~hk ) = f

n
 X
k=p+1

k~hk

fur gewisse k 2 K ; k = 1;    ; p und so

n
X
k=p+1

~0 =

n
X
k=1

k~hk 2 Kern f

n
X
k=p+1

k~hk =

k~hk ;

also wegen der LU der ~hk erhalten wir s hlieli h


p+1 = p+2 =    = n = 0 (und au h 1 =    = p = 0):
Als direkte Folgerung aus dem vorstehenden Satz erhalten wir:

p
X
k=1

k~hk :

Satz 4.22 Es seien V; W endli hdimensionale Vektorraume uber demselben Korper K . Dann

gilt:

f injektiv
f surjektiv

, dim V = dim Bild f;


, dim W = dim Bild f:

Im Falle dim V = dim W folgt sogar


f injektiv

, f surjektiv , f bijektiv.

Werden diese Resultate speziell auf lineare Abbildungen A 2 K (m;n) = L(K n ; K m ) bezogen, so
erhalten wir die
Bemerkung 4.23 (a) Stets gilt
Rang A = dim Bild A = Maximalzahl der LU Spalten.
Wir haben gezeigt, dass Bild A dur h elementare (Spalten{) Umformungen ni ht verandert
wird!
(b) Aus dem Gauss{Algorithmus zur Ermittlung von Kern A ersieht man:

0 9
=
 j f1
0 >
n r

0 > LU Zeilen.
~x 2 Kern A , A~x = ~0 , (A j ~0) )
 j f2 0 ;
O
0
Wir ers hlieen hieraus:
Gauss{S hritte

dim Kern A =: r = n Maximalzahl der LU Zeilen.


Dur h elementare (Zeilen{) Umformungen wird Kern A ni ht verandert!
( ) Es gilt gema Satz 4.21 die Dimensionsformel
Rang A + dim Kern A = dim K n = n:
Tragt man diese in die Relationen unter (a) und (b) ein, so erhalt man
Rang A = Maximalzahl der LU Spalten = Maximalzahl der LU Zeilen.
Hieraus folgern wir, dass fur eine m  n{Matrix A stets gilt:
Rang A  minfm; ng:
Es folgt ferner
A 2 K (m;n) ist

8
>
<
>
:

injektiv
surjektiv
bijektiv

9
>
=
>
;

8
>
<

,>
:

Rang A = n;
Rang A = m;
Rang A = m = n:

Das heit, bijektive Matrizen mussen notwendig dieselbe Zeilen{ und Spaltenzahl haben.
Wir nennen diese Matrizen quadratis h oder n  n{Matrizen.
2

Wir setzen die obigen Erkenntnisse um in Losbarkeitsaussagen fur lineare Glei hungssysteme
A~x = ~b; A 2 K (m;n) ; ~b 2 K m :

(LG)'

Satz 4.24 (a) Existenz einer Losung:

(LG)' besitzt eine Losung , ~b 2 Bild A , Rang A = Rang (A j ~b):


Dabei bezei hnet (A j ~b) 2 K (m;n+1) die um den Spaltenvektor ~b erweiterte Matrix A.
(b) Eindeutigkeit von Losungen:

(LG)' besitzt ho hstens eine Losung , Kern A = f~0g , Rang A = n:


( ) Bestandige Losbarkeit:
(LG)' hat fur jede Vorgabe ~b 2 K m eine Losung , Rang A = m , dim Kern A = n m:
(d) Struktur der Losungsmenge (Losungsgesamtheit): Ist ~xp 2 K n eine Losung des linearen
Glei hungssystems (LG)', so bildet der ane Unterraum

L(LG)' = ~xp + Kern A := f~x 2 K n : ~x = ~xp + ~h

mit ~h 2 Kern Ag

die Losungsgesamtheit. Wegen r := dim Kern A = n Rang A bedarf es also r Parameter zur
Bes hreibung der Losungsgesamtheit.
Begrundungen: (a) Es ist klar, (LG)' ist genau dann losbar, wenn ~b 2 Bild A gilt, oder aquivalent, wenn ~b 2 span f~a1;~a2 ; : : : ;~ang gilt. Dann folgt span f~a1 ;~a2 ; : : : ;~ang = span f~a1 ;~a2 ; : : : ;~an; ~bg =
Bild(A j ~b) und wir erhalten Rang A = Rang (A j ~b). Diese Aussage ist au h umkehrbar. Gilt
namli h Rang A = Rang (A j ~b), so ist span f~a1 ;~a2 ; : : : ;~ang = span f~a1 ;~a2 ; : : : ;~an ; ~bg, und wir folgern ~b 2 span f~a1 ;~a2 ; : : : ;~an g = Bild A.
(b) Wir haben Kern A = f~0g , dimKern A = 0 , n Rang A = 0.

( ) Diese Aussage folgt aus den obigen Kriterien fur Surjektivitat und der Dimensionsformel (4.1).

2
Aus der Dimensionsformel (4.1), namli h Rang A + dim Kern A = n 8 A 2 K (m;n) folgt
s hlieli h no h im Falle quadratis her Matrizen:
Satz 4.25 Es sei A 2 K (n;n) eine quadratis he n  n{Matrix. Dann sind die folgenden
Aussagen (a), (b) und ( ) aquivalent:
(a) Kern A = f~0g, das heit, das homogene System A~x = ~0 hat nur die triviale Losung
~x = ~0.
(b) Rang A = n, das heit, das inhomogene System A~x = ~b ist fur jede Vorgabe ~b 2 K n
(eindeutig) losbar.
( ) Das inhomogene System A~x = ~b hat fur jede re hte Seite ~b 2 K n genau eine Losung.

BSP. (4.13)

(a) Es seien A 2 R(3;4) und ~b 2 R3 wie folgt vorgelegt:


2

2 4 1 7
1
A = 4 1 2 1 2 5 ; ~b = 4 2 5 :
1 2 1 4
0
Wir haben oben in den Beispielen BSP. 4.11 und BSP. 4.12 bereits gezeigt, dass Rang A = 2 =
dimKern A gilt. Das heit, das inhomogene System A~x = ~b ist ni ht fur jede Vorgabe ~b 2 R3 losbar.
Um zu prufen, ob die Losbarkeitsbegingung ~b 2 Bild A gilt, zeigen wir Rang (A j ~b) = 2 = Rang A:
(A j ~b) $
Z1 $ Z 3
Z2 + Z 1 ! Z 2
Z3 2Z1 ! Z3
Z3 $ Z2
Z3 2Z2 ! Z3

2 4
1 2
1 2
1 2
0 0
0 0
1 2
0 0
0 0

1 7
1 2
1 4
1 4
2 2
1 1
1 4
1 1
0 0

1
2
0
0
2
1)
0
1
0

(LU).

Wir erhalten in der Tat Rang (A j ~b) = 2. Wir bere hnen jetzt eine spezielle Losung ~xp =
(x1 ; x2 ; x3 ; x4)T des inhomogenen Systems, indem wir die Komponenten xj in den oben gekennzei hneten Positionen Null setzen: x2 = x4 = 0. Es folgt mit einfa her Re hnung x1 = x3 = 1. Da
wir Kern A bereits in BSP. 4.11 bere hnet hatten, erhalten wir nun die Losungsmenge
2
2
2
13
23
3 3)
(
6 0 7
6 1 7
6 0 7
7
6
7
6
7
~xp + Kern A = ~x 2 R3 : ~x = 6
4 1 5 + C1 4 0 5 + C2 4 1 5 :
0
0
1
(b) Es seien jetzt A 2 R(3;3) und ~b 2 R3 wie folgt vorgelegt:
2
2
0 1 13
83
A = 4 1 0 1 5 ; ~b = 4 7 5 :
1 1 0
7
Die Matrix A ist quadratis h. Wir bere hnen in einem 1. S hritt: Rang (A j ~b) und eine Basis fur
Kern A:
8
0 1 1
(A j ~b) $
7
1 0 1
7
1 1 0
1 0 1
7
Z1 $ Z2
0
1
1
8
Z3 Z1 ! Z 3
0 1 1
14 9
1 0 1
7=
Z3 Z2 ! Z 3
S{Matrix, Typ (I).
0 1 1
8
0 0 2
22 ;
Wir erhalten hier Rang (A j ~b) = 3 sowie Kern A = f~0g, so dass au h Rang A = 3 folgt. Die eindeutig
bestimmte Losung ~x = (x1; x2 ; x3 ; )T = ( 4; 3; 11)T des inhomogenen Systems ergibt si h mit
lei hter Re hnung aus obigem S hema.

2. S hritt: Wir bestimmen eine Basis fur Bild A. Hierzu ist keine Re hnung mehr erforderli h. Wegen
Rang A = 3 hat die Matrix Vollrang, das heit, ihre drei Spaltenvektoren sind bereits LU:
(2

0 3 2 1 3 2 1 3)
Bild A = span 4 1 5 ; 4 0 5 ; 4 1 5 :
1
1
0

4.4 Das Matrizenprodukt


Es seien U; V; W Vektorraume uber demselben Korper K , der sonst beliebig sein darf. Es seien
ferner f; g lineare Abbildungen mit

!f V !g W:
Dann ist die Hintereinanderausfuhrung g f : U ! W wohlde niert, und wegen
g [f ( ~u +  ~v) = g [ f (~u) +  f (~v) =  g [f (~u) +  g [f (~v) 8 ~u; ~v 2 U 8 ;  2 K
ist g f wieder eine lineare Abbildung. Wird diese Erkenntnis auf Matrizen A; B ubertragen,
U

so resultiert:
Satz 4.26 Gegeben seien Matrizen A 2 K (m;n) und B 2 K (n;l) , so dass gilt
Kl

Dann ist A B : K l

B n A m
!
K !K :

! K m notwendig wieder eine lineare Abbildung, namli h wegen


A B 2 L(K l ; K m ) = K (m;l)

eine m  l{Matrix.

Wir wollen bei gegebenen Matrizen A = (aij ), B = (bjk ) und C = ( ik ) := A B den


Zusammenhang zwis hen den Koezienten aij ; bjk und ik studieren. Dazu s hreiben wir die
Vektorglei hung ~y = C~x := A[B~x unter Verwendung der Multiplikationsregel (MP) aus
Abs hnitt 4.3 komponentenweise auf und verglei hen dana h die einzelnen Faktoren in den
Produkten:
yi =

l
X
k=1

ik xk =

n
X
j =1

aij

l
X
k=1

bjk xk =

n
l X
X
k=1

j =1

aij bjk xk

8 i = 1; 2; : : : ; m:

Da diese Glei hung fur alle Vektoren ~x 2 K l gilt, erhalten wir:


De nition 4.27 Fur eine m  n{Matrix A = (aij ) 2 K (m;n) und eine n  l{Matrix B =
(bjk ) 2 K (n;l) ist das Matrizenprodukt C = A B =: AB 2 K (m;l) stets de niert, wobei die

Koezienten ik der Produktmatrix C na h folgender Vors hrift zu bilden sind:

ik =

n
X
j =1

aij bjk ; i = 1; 2; : : : ; m; k = 1; 2; : : : ; l:

Das heit, der Koezient ik entsteht gema der Multiplikationsregel


i{te Zeile mal k{te Spalte.

(4.2)

Zum Beispiel:


2i 5 + i i
5 0{z 2

23

!
i

4
|

0 1 i 2 3  16 + 3i 7i 1 3 + i 20 + 9i 
3 i 1 4 5 = 1 2i 5
:
5
i
12
i
i 0 0 1
|
{z
}
{z
}
24

34

Merke: Das Matrizenprodukt AB ist nur de niert, wenn gilt:

Spaltenzahl von A = Zeilenzahl von B .


9
>
=
>
;
|

9
>
>
>
>
>
>
>
>
=

A
{z

>
>
>
>
>
>
>
>
;
|

9
>
=
>
;

|
{z
l

C
{z
l

Hat die Matrix B die Spaltenvektoren ~b1 ; ~b2; : : : ; ~bl , so gilt


AB = A (~b1 ; ~b2 ; : : : ; ~bl ) = (A~b1 ; A~b2 ; : : : ; A~bl ):

Das heit, die Spaltenvektoren der Produktmatrix AB sind gerade die Bilder A~bj
der Spaltenvektoren ~bj ; j = 1; 2; : : : ; l.

Die einfa he algorithmis he Struktur des Produktes (4.2) ermogli ht es wiederum, die Bere hnung
von AB sehr ezient mit dem Computer vorzunehmen:
Algorithmus zur Bere hnung des Produktes C := AB :

Einlesen von aij ; bjk ;


fur i := 1; 2; : : : ; m :
fur k := 1; 2; : : : ; l :
s := 0;
fur j := 1; 2; : : : ; n :
s := s + aij  bjk ; (Ende j )
ik := s: (Ende i; k)
Je na h Datenstruktur kann au h eine andere Anordnung der S hleifen i, j , k sinnvoll sein.
1:
2:
3:
4:
5:
6:
7:

Aus der De nition des Matrizenproduktes konnen die folgenden Re henregeln sofort abgeleitet
werden:
Re henregeln fur das Matrizenprodukt AB; A 2 K (m;n) mit B 2 K (n;l) :
(a) A(BC ) = (AB )C =: ABC 8 C 2 K (l;r) ;
(Assoziativgesetz)
)
(A + C )B = AB + CB 8 C 2 K (m;n) ;
(Distributivgesetze)
(b)
A(B + C ) = AB + AC 8 C 2 K (n;l) :

Bemerkung 4.28 Ein Kommutativgesetz AB = BA gilt im Allgemeinen ni ht, au h dann


ni ht, wenn beide Produkte erklart sind. Zum Beispiel:

 



 


0 0
0 0 1 1
1 1
1 1 0 0
0 0 1 1 = 0 0 ; aber 1 1 0 0 = 1 1 :
Spezielle Matrizen sind:

2
6

O = On = (0jk ) = 6
6

die Nullmatrix

| entspri ht den Nullabbildungen |,

0
0
...
0

0
0
...
0

 0
   0 77

. . . ...
 0
2

die Einheitsmatrix

E = En = Idn = 1n =

| entspri ht den identis hen Abbildungen |.

6
6
6
4

1
0
...
0

0
1
...
0

7
5

2 K (n;n) ,
3

 0
   0 77

. . . ... 75 2 K (n;n) ,
 1

Die Nullmatrix O = (0jk ) kann au h als ni htquadratis he m  n{Matrix sinnvoll


erklart werden. Stets gilt
AOn = Om A = O; AEn = Em A = A

8 A 2 K (m;n) :

Fur quadratis he Matrizen A; B 2 K (n;n) sind Potenzen erklart:


A0 := E; Ak := AA
   A} 8 k 2 N ; (A + B )2 = A2 + B 2 + AB + BA; usw.
| {z
k{mal
De nition 4.29 Eine Matrix A 2 K (n;n) mit Ak = O fur ein k 2 N heie nilpotent.
Zum Beispiel ist die folgende Matrix nilpotent:


0 1 ) A2 = 0 10 1 = 0 0 = O:
0 0
0 0 0 0
0 0
Dieses Beispiel lehrt: Aus AB = O fur A 2 K (m;n) und B 2 K (n;l) folgt keineswegs A = O oder
B = O. Ebenso folgt aus AB = CB fur ein C 2 K (m;n) keineswegs A = C .
A :=

Bemerkung 4.30 Wir erkennen aus den obigen Re henregeln, dass die Menge der quadratis hen Matrizen K (n;n) ; n  2, versehen mit den beiden algebrais hen Operationen + und
, eine Algebra (K (n;n) ; +; ) bildet. Diese ist ein Ring mit dem Einselement En, vgl. De nition 2.34. Das Gruppoid (K (n;n) ; ) ist sogar assoziativ (ni ht aber kommutativ), also eine
Halbgruppe. Der assoziative Ring (K (n;n) ; +; ) ist ni ht nullteilerfrei, wie obiges Beispiel lehrt.
BSP. (4.14)

(a) Eine Matrix  2 K (n;n) in der Form


2
3
1 0    0
6 0   0 7
 = 664 .. ..2 . . . .. 775 =: diag (1; 2 ; : : : ; n)
. .
.
0 0    n

heie Diagonalmatrix. Dur h eine Diagonalmatrix werden Einheitsbasisvektoren also nur gestre kt.
(b) Jede Matrix A 2 K (m;1) ist ein Spaltenvektor: A = (a1 ; a2 ; : : : ; am )T =: ~a 2 K m . Deshalb konnen
wir K (m;1) = K m setzen. Jede Matrix B 2 K (1;n) ist ein Zeilenvektor: B = (b1 ; b2 ; : : : ; bn ) =: ~b T mit
~b 2 K n . Es kann deshalb K (1;n) vermoge der Transposition "T " mit K n identi ziert werden. Gilt
speziell n = m, so folgt aus diesen U berlegungen:
2
6

BA = ~b T ~a = (b1 ; b2 ; : : : ; bn ) 6
6
4

a1
a2

...

an

3
7
7
7
5

n
X
k=1

bk ak

8 A 2 K (1;n) 8 B 2 K (n;1) :

Im speziellen Fall K = R haben wir somit ~b T ~a = h~a; ~bi 8 ~a; ~b 2 Rn .


Das Tensorprodukt und Anwendungen

Wir bes hranken uns hier auss hlieli h auf den Korper der reellen Zahlen K = R . Im Gegensatz zum Skalarprodukt ~b T ~a = h~a; ~bi, wel hes nur fur Vektoren ~a; ~b 2 R n glei her Dimension
erklart ist, kann das Produkt ~a ~b T au h fur Vektoren ~a 2 R m ; ~b 2 R n mit n 6= m sinnvoll de niert werden. Das Ergebnis ist eine m  n{Matrix. Es gilt namli h 8 A 2 R (m;1) 8 B 2 R (1;n) :
2
6

a1
a2

AB = 6
6 ..
4

am

7
7
7 (b1 ; b2 ; : : : ; bn ) = ~a ~b T
5

a1 b1 a1 b2
a2 b1 a2 b2

   a1 bn
   a2 bn

am b1 am b2

   a m bn

= 66 ..
4 .

...

...

...

3
7
7
7
5

2 R (m;n) :

De nition 4.31 Fur jedes Paar von Vektoren ~a 2 R m und ~b 2 R n heie die m  n{Matrix
~a
~b := ~a ~b T = (ai bj )ij fur ~a = (a1 ;    ; am )T ; ~b = (b1 ;    ; bn )T (spri h: ~a Tensor ~b) das
dyadis he Produkt oder Tensorprodukt von ~a und ~b.
Fur jeden Vektor ~x 2 R n haben wir:

(~a
~b)~x := ~a h~b; ~xi 8 ~x 2 R n
Die Matrix C der linearen Abbildung ~a
~b 2 L(R n ; R m ) lautet also
~a
~b = C = (b1~a; b2~a; : : : ; bn~a) 2 R (m;n)

8 ~a 2 R m 8 ~b 2 R n :

ist das Tensorprodukt der Vektoren ~a := ( 1; 1)T 2 R2 und ~b := (3; 3; 1)T 2 R3


gegeben dur h die Matrix
2
3




3
3
~a
~b = ~a ~b T = 11 (3; 3; 1) = 33 33 11 6= 4 3 3 5 = ~b
~a:
1 1
Zum Beispiel

Bemerkung 4.32 (a) Das Tensorprodukt ist ni ht kommutativ; es gilt jedo h:

(~a
~b)T = (~a ~b T )T = ~b~a T = ~b
~a 8 ~a 2 R m 8 ~b 2 R n :

(b) Die folgenden Re henregeln konnen unmittelbar aus der De nition abgeleitet werden
(stets seien ~a;~aj 2 R m und ~b; ~bj 2 R n vorausgesetzt):
~a
( ~b)
=  (~a
~b) = (~a)
~b
~a
(~b1 + ~b2 ) = ~a
~b1 + ~a
~b2 ;
(~a1 + ~a2 )
~b = ~a1
~b + ~a2
~b:

8  2 R;

BSP. (4.15) Orthogonalprojektion (?{Projektion) eines Vektors ~x 2 Rn auf eine Ri htung


~a 2 Rn ; k~ak = 1, d.h. auf spanf~ag; Diese wird gema untenstehender Skizze geleistet dur h die Abbildungsvors hrift P : Rn ! Rn mit
P~x := ~a k~xk os = ~a h~a; ~xi = (~a
~a)~x; ~x 2 Rn :

Man erkennt sofort, dass eine lineare Abbildung P 2 L(Rn ; Rn ) vorliegt.


Merke: Es sei ~a 2 Rn mit k~ak = 1 gegeben. Die Matrix P der ?{Projektion auf
Ri htung ~a ist das Tensorprodukt
P

die

= ~a
~a 2 R(n;n) :

Somit ist P~x = (~a


~a)~x = ~a h~a; ~xi die ?{Projektion des Vektors ~x 2 Rn auf die Ri htung ~a.
Px

n0

n0<n0,x>

a
x

Px

?{Projektion auf eine Ri htung


~a 2 Rn , k~ak = 1

Von der Ans hauung ist es klar, dass

?{Projektion auf eine Hyperebene


H  Rn dur h ~0
P2 = P

(4.3)

gelten muss. Dies wird au h dur h die Re hnung bestatigt. In der Tat, fur jedes ~x 2 Rn gilt:
P 2 ~x = P (P~x) = ~a h~a; P~xi = ~a h~a;~aih~a; ~xi = P~x:
| {z }
=1

die ?{Projektion auf die Ri htung ~a := 62 (1; 2; 3; 2)T dur h die folgende
4  4{Matrix bes hrieben:
2
1 2 3 23
1 6 2 4 6 4 77 :
P = ~a
~a = 6
18 4 3 6 9 6 5
2 4 6 4
Zum Beispiel wird in R4

BSP. (4.16) Orthogonalprojektion (?{Projektion) eines Vektors ~x 2 Rn auf eine Hyperebene


H  Rn dur h ~0:
Die Hyperebene H sei in der Hesses hen Normalform (HNF) H = f~v 2 Rn : h~v; ~n0i = 0g mit
k~n0 k = 1 vorgelegt. Dann wird die gesu hte ?{Projektion gema obiger Skizze dur h die folgende
Abbildungsvors hrift P : Rn ! Rn geleistet:

P~x = ~x P~ ~x := ~x ~n0 h~n0 ; ~xi = ( Idn ~n0


~n0 )~x:
Dabei ist Pe die oben angegebene Projektion auf die Ri htung ~n0.
Man erkennt au h hier wieder sofort, dass eine lineare Abbildung P 2 L(Rn ; Rn ) vorliegt.

Merke: Es sei H  Rn eine Hyperebene dur h ~0 in der HNF H = f~v 2 Rn : h~v; ~n0 i = 0g
mit k~n0k = 1. Die Matrix P der ?{Projektion auf die Hyperebene H ist gegeben dur h

~n0
~n0 2 R(n;n) :

= Idn

Da Pe (4.3) erfullt, tut dies au h P . Zum Beispiel wird in R3 die ?{Projektion auf die Ebene E :=
f~v 2 R3 : h~v; ~n0i = 0g mit ~n0 := p16 (1; 2; 1)T dur h die folgende 3  3{Matrix bes hrieben:
2
1 0 03 12 1 2 13 12 5 2 13
4 2
4 2 5 = 6 4 2 2 2 5:
P = Id3 ~n0
~n0 = 4 0 1 0 5
6
1 2 1
1 2 5
0 0 1
Wir nehmen das Bestehen der Glei hung (4.3) fur die beiden ?{Projektionen in BSP. (4.15)
und BSP. (4.16) zum Anlass fur folgende De nition:
De nition 4.33 Es sei V ein Vektorraum. Eine lineare Abbildung P 2 L(V; V ) heie eine
Projektion, wenn gilt P 2 = P . Eine Projektion P projiziert auf den Unterraum Bild P =
P (V )  V .
In BSP. (4.15) projiziert P orthogonal auf den UR span f~ag  Rn . In BSP. (4.16) projiziert P
orthogonal auf den UR (span f~n0 g)?  Rn . Bea hte: Ni ht jede Projektion ist eine ?{Projektion!
BSP. (4.17) Projektion eines Vektors ~x 2 Rn auf eine Hyperebene H  Rn in Ri htung ~a: Die
Hyperebene H sei in der Hesses hen Normalform (HNF) H = f~v 2 Rn : h~v; ~n0 i = g mit k~n0k = 1
vorgelegt, und es sei ~a 2 Rn mit k~ak = 1 eine feste Ri htung. Dann ist die gesu hte Projektion P~a~x
eines Vektors ~x 2 Rn dur h die folgende Vors hrift festgelegt (vgl. untenstehende Skizze):
(i) P~a~x ~x = ~a; (ii) P~a~x 2 H; also h~n0; P~a~xi = :
Diese Glei hungen sind genau dann eindeutig na h P~a au osbar, wenn h~n0;~ai =6 0 gilt, wenn also ~a

und ~n0 ni ht senkre ht zueinander sind. Setzt man namli h (i) in (ii) ein, so resultiert die Glei hung
h~n0 ; ~xi +  h~n0 ;~ai = , aus der der Parameter  eindeutig bere hnet werden kann. Wird dieses  in
(i) eingesetzt, so resultiert die gesu hte Losung



1
P ~x =
~a + Id
~a
~n ~x:
~a

h~n0 ;~ai

h~n0 ;~ai

(a) Genau dann ist P~a : Rn ! Rn eine lineare Abbildung, wenn = 0 gilt, das
heit, wenn die Hyperebene H dur h den Ursprung ~0 verlauft:
1 ~a
~n :
P = Id

Bemerkung 4.34

~a

h~n0;~ai

In diesem Fall gilt ebenfalls die Beziehung (3.2), namli h


1 ~a h~n0; P ~xi = P ~x:
P~a2~x = P~a (P~a ~x) = P~a~x
~a
h~n ;~ai | {z~a }
0

=0; weil ~n0 ?P~a~x

(b) Im Falle ~a = ~n0 erhalten wir aus (a) wiederum die ?{Projektion auf die Hyperebene H dur h ~0,
die wir bereits in BSP. (4.3.3) studiert haben, namli h P := P~n = Idn ~n0
~n0.
2
0

n0

y
G

Pax

a<a,x>

a
0
a
0

Projektion in vorgegebener Ri htung ~a


auf eine Hyperebene H

xi

Sx

Spiegelung an einer Geraden G

Als Zahlenbeispiel wollen wir die Projektion P~a~x eines beliebigen Vektors ~x 2pR4 in Ri htung ~a :=
p16 (1; 2; 1; 0)T auf die Hyperebene H := f~v 2 R4 : v1 + 2v2 + 3v3 2v4 = 2g bestimmen. Wir
p
p p
haben hier o enbar ~n0 = 62 (1; 2; 3; 2)T sowie = 2= 18 = 31 . Hieraus resultieren h~n0;~ai = 91 p3
und
2
2
3 82
39
3
1
2
3
2
1
0
0
0
>
p 6 17 >
>
>
<6
7=
7 16 2
2
2
4
6
4
0
1
0
0
6
6
7
7
6
7
P~a ~x =
~x
4 0 0 1 0 5 24 1
2 3 4 5>
2 4 1 5+>
>
>
:
;
0
0 0 0 0
0 0 0 1
2
2
3
32
3
p 6 1 7 6 1 2 3 2 7 6 x1 7
= 22 64 21 75 + 21 64 12 22 65 44 75 64 xx23 75 :
0
0 0 0 2
x4
Spiegelung von ~x 2 Rn an einer Geraden G = span f~ag; ~a 2 Rn ; k~ak = 1: Diese wird
gema obiger Skizze geleistet dur h die Abbildungsvors hrift S : Rn ! Rn mit

BSP. (4.18)

S~x := ~a h~a; ~xi ~y;

wobei ~y = ~x
L(Rn ; Rn ).

~a h~a; ~xi

gilt. Man erhalt wiederum eine lineare Abbildung S = 2 ~a


~a

Idn

Merke: Es sei ~a 2 Rn mit k~ak = 1 gegeben. Die Matrix S der Spiegelung an der Geraden
G := span f~ag ist gegeben dur h

S = 2 ~a
~a

Somit ist S~x = (2 ~a


~a
Geraden G = span f~ag.

Idn 2 R(n;n) :

Idn )~x = 2 ~a h~a; ~xi ~x die Spiegelung des Vektors ~x 2 Rn

an der

Von der Ans hauung her ist es au h hier klar, dass


S 2 = Idn

(4.4)

gelten muss. Dies wird dur h die folgende Re hnung bestatigt. Fur jedes ~x 2 Rn gilt:
S 2~x = S (S~x) = 2 ~a h~a; S~xi S~x = 4 ~a h~a;~aih~a; ~xi 2 ~ah~a; ~xi S~x = ~x:
| {z }
=1

die Spiegelung an der Geraden G = span f~ag mit ~a := p16 (1; 2; 1)T dur h
die folgende 3  3{Matrix bes hrieben:
2
2
3 2
3
3
1
2
1
2
2
1
1
0
0
1
1
S = 2 ~a
~a Id3 = 4 2 4 2 5 4 0 1 0 5 = 4 2 1 2 5 :
3 1 2 1
3 1 2 2
0 0 1

Zum Beispiel wird in R3

Wir nehmen dieses Beispiel zum Anlass fur folgende


De nition 4.35 Es sei V ein Vektorraum. Eine lineare Abbildung S 2 L(V; V ) heie eine
Spiegelung oder Involution, wenn gilt S 2 = Id. Dabei ist der Spiegelraum
AS := f~v 2 V : S~v = ~v g = Kern (S

Id)

die Menge derjenigen Punkte, die in si h selbst abgebildet werden. Das heit, eine Spiegelung
S spiegelt an dem Unterraum Kern (S Id).

In dem obigen Beispiel haben wir ~x 2 Kern(S Id) genau dann, wenn ~a h~a; ~xi = ~x oder aquivalent
= ~a;  2 R, gilt. Wir ersehen hier, dass die Gerade Kern(S Id) = span f~ag tatsa hli h
Spiegelraum ist.
BSP. (4.19) Spiegelung von ~x 2 Rn an einer Hyperebene H  Rn dur h ~0: Die Hyperebene H
sei in der Hesses hen Normalform (HNF) H = f~v 2 Rn : h~v; ~n0i = 0g mit k~n0 k = 1 vorgelegt. Dann
wird die gesu hte Spiegelung dur h die folgende Abbildungsvors hrift S : Rn ! Rn geleistet:
S~x := ( Idn 2 ~n0
~n0 )~x:
Man erkennt au h hier wieder sofort, dass eine lineare Abbildung S 2 L(Rn ; Rn ) vorliegt. Wir
prufen die Bedingung (3.3) na h. Es gilt in der Tat:
S 2~x = S (S~x) = S~x 2 ~n0 h~n0 ; S~xi = S~x 2 ~n0 h~n0 ; ~xi + 4 ~n0 h~n0{z
; ~n0}ih~n0 ; ~xi = ~x:
|

~x

=1

Also ist S eine Spiegelung. Um den Spiegelraum zu ermitteln, bere hnen wir Kern(S Idn) =
Kern(~n0
~n0). Es gilt o enbar (~n0
~n0)~x = ~n0 h~n0; ~xi = ~0 genau fur ~x ? ~n0. Der Spiegelraum ist
also der Unterraum Kern(S Idn) = (span f~n0 g)? = H .
Merke: Es sei H  Rn eine Hyperebene dur h ~0 in der HNF H = f~v 2 Rn : h~v; ~n0 i = 0g
mit k~n0k = 1. Die Matrix S der Spiegelung an der Hyperebene H ist gegeben dur h

S = Idn

2 ~n0
~n0 2 R(n;n) :

Somit ist S~x = ~x 2(~n0


~n0)~x = ~x 2 ~n0 h~n0; ~xi die Spiegelung des Vektors ~x 2 Rn an
der Hyperebene H .

Zum Beispiel
p16 (1; 2; 1)T

wird in R3 die Spiegelung an der Ebene E := f~v 2 R3 : h~v; ~n0i = 0g mit ~n0 :=
dur h die folgende 3  3{Matrix bes hrieben:

= Id3

1 0 03 12 1
2 ~n0
~n0 = 4 0 1 0 5 3 4 2
0 0 1
1

2
4
2

13 12 2
2 5= 3 4 2
1
1

2 13
1 2 5:
2 2

Wir notieren s hlieli h no h die folgende Regel fur die Hintereinanderausfuhrung zweier
Tensorprodukte:
(~a
~b)(~
d~) = ~a (~b T ~ )d~T = h~b;~ i (~a
d~) 2 R (m;n) 8 ~a 2 R m ~b;~ 2 R l ; d~ 2 R n :
Mit dieser Regel kann in einfa her Weise bestatigt werden, dass P := ~a
~a fur ~a 2 R n ; k~ak = 1;
stets eine Projektion ist:
P 2 = (~a
~a)(~a
~a) = h~a;~ai (~a
~a) = ~a
~a = P:

4.5 Die inverse Matrix


Sei K ein beliebiger Korper. Fur eine gegebene Matrix A 2 K (m;n) stellt si h die Frage na h
der Existenz der inversen Abbildung A 1. Um eine Antwort zu geben, zeigen wir in einem
ersten S hritt, dass A 1 notwendigerweise eine lineare Abbildung sein muss:
Satz 4.36 Es seien V; W Vektorraume uber demselben Korper K . Ist die lineare Abbildung
f 2 L(V; W ) bijektiv, so existiert die inverse Abbildung f 1 2 L(W; V ); das heit, f 1 ist
wiederum linear.

! W bijektiv ist, existiert die Umkehrabbildung f 1 : W ! V .


Wir zeigen ihre Linearitat. Dazu seien ~u; ~v 2 V gegeben. Wir setzen w~ := f (~u) und ~z := f (~v). Fur
;  2 K folgt nun aus der Linearitatsbeziehung (L): f ( ~u +  ~v) =  f (~u) +  f (~v) =  w~ +  ~z.

Begrundung: Da die Abbildung f : V

Wendet man auf diese Glei hung re hts und links die Umkehrabbildung f 1 an, so resultiert s hon
die behauptete Linearitat
f 1 ( w~ +  ~z) =  ~u +  ~v =  f 1 (w~ ) +  f 1(~z ):

Bemerkung 4.37 (a) Jede lineare bijektive Abbildung f 2 L(V; W ) ist ein Isomorphismus
von V na h W , vgl. De nition 2.22.
(b) Existiert zu einer Matrix A 2 K (m;n) die inverse Abbildung A 1 : K m ! K n , so muss
gema Satz 4.36 notwendig A 1 2 L(K m ; K n ) = K (n;m) gelten. Das heit, A 1 ist stets wieder
eine Matrix.
( ) Wie in Bemerkung 4.23( ), Abs hnitt 4.3, gezeigt wurde, ist die Matrix A 2 K (m;n) genau
dann bijektiv und somit invertierbar, wenn gilt

Rang A = m = n:
Das heit,

invertierbare Matrizen sind notwendigerweise quadratis h.

(d) Die invertierbaren Matrizen A 2 K (n;n) sind also genau die invertierbaren Elemente des
assoziativen Ringes (K (n;n) ; +; ). Somit muss fur die Inversen A 1 2 K (n;n) gelten:
2
AA 1 = En = A 1 A:
Algorithmus zur Bere hnung von

Wir nehmen also an, die Matrix A 2 K (n;n) erfulle die obige Rangbedingung Rang A = n. Wir
werden in Abs hnitt 4.10 ein Determinantenkriterium fur die Rangbedingung angeben. Mit
dessen Hilfe kann die Rangbedingung insbesondere fur n  3 einfa h na hgepruft werden. (Das
Kriterium lautet det A 6= 0 ). Im allgemeinen Fall ist es zwe kmaig, die Rangbedingung mit
dem Gauss{Algorithmus na hzuprufen: Genau dann gilt Rang A = n, wenn A in ein S{System
vom Typ (I) ubergefuhrt werden kann. Wir verwenden nun die Vektoren ~ej der Standardbasis
des K n zur Darstellung der Einheitsmatrix in der Form En = (~e1 ; ~e2; : : : ; ~en). Man erkennt an
dieser Darstellung, dass gilt
En A = AEn = A; also En = A 1 A = AA 1 :

Das heit, der Ansatz A 1 := (~b1 ; ~b2 ; : : : ; ~bn) fuhrt uber AA 1 = (A~b1 ; A~b2 ; : : : ; A~bn) =! En =
(~e1 ; ~e2; : : : ; ~en) auf die n linearen Glei hungssysteme
A~bj = ~ej

8 j = 1; 2; : : : ; n:

Diese lost man simultan mit Hilfe des Gauss{Algorithmus, und zwar muss das System (A j
En ) wegen ~bj = A 1~ej mittels elementarer Zeilenumformungen genau auf die Form (En j
~b1 ; ~b2 ; : : : ; ~bn ) = (En j A 1 ) gebra ht werden:
(A j En)

! (En j A 1):

Gauss{S hritte

BSP. (4.20)

(A j E3) ,
Z1 , Z2
Z3 Z1 ) Z 3
Z3 Z2 ) Z 3
1
2 Z3 ) Z3
Z2 Z3 ) Z 2
Z1 Z3 ) Z 1

E3

8
>
>
<
>
>
:

0 1 1
1 0 1
1 1 0
1 0 1
0 1 1
0 1 1
1 0 0
0 1 0
0 0 1

1
2
1
2
1
2

1
0
0
0
1
0

0
1
0
1
0
1

1
2
1
2
1
2

0
0
1
0
0
19

1
2
1
2
1
2

>
>
=
>
>
;

A 1

Wir haben in diesem Beispiel also


2
0 1 13
A = 4 1 0 1 5;
1 1 0

A 1 = 12

1
1
1

13
1 5;
1

1
1
1

und die Probe AA 1 = E3 bestatigt die Ri htigkeit des Ergebnisses.


Probe niemals vergessen! Die Gefahr von Re henfehlern bei der Dur hfuhrung
der Gauss{S hritte ist sehr gro, da sehr viele arithmetis he Re henoperationen
dur hgefuhrt werden mussen.

Es bezei hne im folgenden


Inv (K n )  K (n;n) = Menge der invertierbaren n  n{Matrizen.
Satz 4.38 Fur jede Matrix A 2 Inv (K n ) hat das lineare Glei hungssystem A~x = ~b die eindeutig bestimmte Losung

~x = A 1~b.

Dieses Ergebnis ist wegen des Aufwands zur Bere hnung von A 1 nur dann von praktis her Bedeutung, wenn das lineare Glei hungssystem A~x = ~b fur mehrere re hte Seiten
~b = ~bj ; j = 1; 2; : : : ; N , gelost werden soll.
BSP. (4.21) Man lose A~x = ~bj fur ~b1 :=
A 2 R(3;3) aus BSP. (4.20). Die Losungen sind:
2

~x1 =

14
2

1
1
1

1
1
1

(8; 7; 7)T , ~b2 := ( 1; 3; 2)T und fur die Matrix

2
1 32 8 3 2 4 3
1
1
4
5
4
4
5
5
1
7 = 3 ; ~x2 = 2 1
1
1
7
11

1
1
1

1 32 1 3 2 3 3
1 5 4 3 5 = 4 1 5:
1
2
0

Wir stellen na hfolgend einige Re henregeln fur die Elemente von Inv (K n ) zusammen.
Satz 4.39 Fur invertierbare Matrizen A; B 2 Inv (K n ) gilt:
(i) (A 1 ) 1 = A; (ii) (AB ) 1 = B 1A 1 ; (iii) ( A) 1 = 1 A 1 8  6= 0:
Begrundung: Die Relationen (i) und (iii) ergeben si h unmittelbar aus der De nition der Umkehrab-

bildung. Wir zeigen (ii):


~y := AB~x , A

1 ~y = B~x , B 1 A 1 ~y = ~x = (AB ) 1 ~y , B 1 A 1 = (AB ) 1 :

Linear unabhangige Vektorsysteme werden dur h Isomorphismen in linear unabhangige Vektorsysteme ubergefuhrt:
Satz 4.40 Es seien V; W Vektorraume uber demselben Korper K , und es sei f 2 L(V; W ) ein

Isomorphismus. Ein Vektorsystem ~v1 ; ~v2 ; : : : ; ~vm 2 V ist LU , Das System der Bildvektoren
f (~v1 ); f (~v2 ); : : : ; f (~vm ) 2 W ist LU.

Begrundung: Wir zeigen zuna hst die Implikation ")". Sei also ein linear unabhangiges Vektorsystem
~v1 ; ~v2 ; : : : ; ~vm 2 V gegeben. Wahle Zahlen 1 ; 2 ; : : : ; m 2 K mit

~0 =

m
X
k=1

k f (~vk )

(L)

=f

m
X
k=1

k ~vk :

Da f bijektiv ist, folgern wir f 1(~0) = ~0 = P k ~vk . Also muss wegen der LU des Vektorsyk=1
stems ~v1; ~v2 ; : : : ; ~vm , k = 0 8 k = 1; 2; : : : ; m gelten. Das heit, das System der Bildvektoren
f (~v1 ); f (~v2 ); : : : ; f (~vm ) 2 W ist LU. Die Implikation "(" zeigt man nun ganz analog.
2
Bemerkung 4.41 (a) Ist f 2 L(V; W ) ein Isomorphismus und ist einer der Vektorraume V
oder W endli hdimensional, so gilt dim V = dim W .

(b) Ein Isomorphismus f 2 L(V; W ) bildet Basen von V auf Basen von W ab, und umgekehrt.
( ) Insbesondere gilt fur jede invertierbare Matrix A 2 Inv (K n ):
Rang (AB ) = Rang B 8 B 2 K (n;m) ; Rang (CA) = Rang C 8 C 2 K (m;n) :

4.6 Basis{ und Koordinatentransformation


Wir nehmen die obige Bemerkung 4.41(b) uber die Abbildung von Basen auf Basen dur h
einen Isomorphismus zum Anlass, die folgende Fragestellung zu untersu hen:
Problem: Es sei ein Vektorraum V uber dem Korper K mit dim V =: n < 1
gegeben. Es seien ferner ~a1;~a2 ; : : : ;~an 2 V und ~b1 ; ~b2 ; : : : ; ~bn 2 V zwei Basen von
V . Gibt es einen Isomorphismus f 2 L(V; V ) mit f (~aj ) = ~bj 8 j = 1; 2; : : : ; n,

und falls dieser existiert, wie bere hnet man ihn? Wie transformieren si h ferner die
Koordinaten eines Vektors ~v 2 V beim We hsel von der Basis ~a1 ;~a2 ; : : : ;~an in die
Basis ~b1 ; ~b2 ; : : : ; ~bn?

Wir werden beide Fragen in mehreren S hritten untersu hen.


1. S hritt: Wir haben in Satz 4.16(a) gezeigt, dass eine lineare Abbildung f 2 L(V; V ) allein dur h
die Zuordnungsvors hrift ~bj = f (~aj ); j = 1; 2; : : : ; n, eindeutig bestimmt ist. Also existiert ein f 2
L(V; V ) mit den geforderten Abbildungseigens haften. Wegen Bild f = span f~b1 ; ~b2 ; : : : ; ~bn g = V gilt
Rang f = n. Somit ist f gema Satz 4.22 bijektiv, also ein Isomorphismus. Fur den allgemeinen Fall
eines Vektorraumes V kann eine Darstellung von f ni ht angegeben werden.
Sonderfall: Im Vektorraum V := K n bilden die Basisvektoren ~a1 ;~a2 ; : : : ;~an und ~b1 ; ~b2 ; : : : ; ~bn die
Spalten von Matrizen A := (~a1 ;~a2; : : : ;~an ) 2 Inv (K n ) bzw. B := (~b1 ; ~b2 ; : : : ; ~bn) 2 Inv (K n ), denn es
gilt ja Rang A = Rang B = n. Somit folgt
F

:= BA 1 2 Inv (K n ),

und wegen (~b1 ; ~b2 ; : : : ; ~bn ) = B = F A = (F~a1 ; F~a2 ; : : : ; F~an) leistet der Isomorphismus F die verlangte Basistransformation ~bj = F~aj ; j = 1; 2; : : : ; n.

2. S hritt: Wir untersu hen jetzt die Frage na h der Transformation der Koordinaten bei Basiswe hsel. Es ist klar, gema der De nition einer Basis in V mussen eindeutig de nierte Zahlen jk ; jk 2 K ,
und zu jedem ~v 2 V eindeutig de nierte Zahlen j ; j 2 K ; j; k = 1; 2; : : : ; n, existieren mit

~bj
~v

n
X

k=1

n
X

j =1

jk~ak ; ~aj =
j ~aj =

n
X
j =1

n
X
k=1

8 j = 1; 2; : : : ; n;

jk~bk

(4.5)
(4.6)

j ~bj :

3. S hritt: Mit dem Ansatz T := (tjk ) 2 K (n;n) zeigen wir nun die Existenz einer linearen Abbildung
~ = T ~ zwis hen dem Koordinatenvektor ~ := (1 ; 2 ; : : : ; n )T von ~v bezugli h der Basis ~aj und
dem Koordinatenvektor ~ := (1; 2 ; : : : ; n)T von ~v bezugli h der Basis ~bj . Setzen wir namli h die

Beziehungen (4.5) in (4.6) ein, so gilt


~v =

n
X
j =1

j

n
X
k=1

jk~bk

n X
n
X


X
jk j ~bk =!
k ~bk :
k=1 j =1
k=1

Da das Vektorsystem ~b1 ; ~b2 ; : : : ; ~bn LU ist, folgern wir


k =

n
X
j =1

jk j =:

n
X
j =1

tkj j = (T ~)k

8 k = 1; 2; : : : ; n:

Das heit, die Transformationsmatrix T = (tjk ) := ( jk )T ist dur h die Beziehungen (4.5) eindeutig
bestimmt:
2
2 ~T 3
3
T

= ( jk )T =

6
6
6
4

1
~2T

...

~nT

7
7
7
5

mit

~k =

6
6
6
4

1k
2k

...

nk

7
7
7;
5

k = 1; 2; : : : ; n:

Nun gilt o enbar ~ = ST ~ und ~ = T S~ 8 ~; ~ 2 K n . Das heit, die Koezienten jk ; jk in (4.5)
sind ni ht unabhangig voneinander; sie stehen in der Relation
S := ( jk )T ; T := ( jk )T ) S = T 1 :
Wir bestimmen ganz analog eine Transformationsmatrix S := (sjk ) 2 K (n;n) zum Koordinatenwe hsel ~ = S~. Es folgt nun aus den Beziehungen (4.5) und (4.6):

4. S hritt:

~v =

n
X
j =1

j

n
X
k=1

jk~ak

n X
n
X


X
jk j ~ak =!
k ~ak :
j
=1
k=1
k=1

Da das Vektorsystem ~a1 ;~a2 ; : : : ;~an LU ist, folgern wir jetzt


k =

n
X
j =1

jk j =:

n
X
j =1

skj j = (S~)k

8 k = 1; 2; : : : ; n:

Das heit, die Transformationsmatrix S = (sjk ) := ( jk )T ist wiederum dur h die Beziehungen (4.7)
eindeutig bestimmt:
2
3
2
3
S = ( jk )T

6
6
6
4

~ 1T
~ 2T

...

~ nT

7
7
7
5

mit

~ k =

6
6
6
4

1k
2k

...

nk

7
7
7;
5

k = 1; 2; : : : ; n:

Fuhren wir wie oben die Matrizen A; B 2 Inv (K n ) ein, so konnen wir die
Glei hungen (5.1) in der Form B = AS = AT 1 und A = BT s hreiben. In diesem Fall leisten die
folgenden Matrizen die gesu hten Koordinatentransformationen:
Sonderfall V :=

Kn:

=B

1 A; S = T 1 = A 1 B:

De nition 4.42 Es sei V ein Vektorraum uber K mit dim V = n < 1. Es seien ~a1 ;~a2 ,
: : : ;~an 2 V und ~b1 ; ~b2 ; : : : ; ~bn 2 V zwei Basen von V . Dann existiert ein Isomorphismus
f 2 L(V; V ) mit f (~aj ) = ~bj 8 j = 1; 2; : : : ; n. Dieser heie Basistransformation zum
Basiswe hsel von ~a1 ;~a2 ; : : : ;~an auf ~b1 ; ~b2 ; : : : ; ~bn . Die lineare Abbildung T 2 K (n;n) mit ~ =
T ~, so dass fur gegebenes ~v 2 V gilt
n
X
j =1

j ~aj = ~v =

n
X
j =1

j ~bj ;

heie Koordinatentransformation zum Basiswe hsel von ~a1 ;~a2 ; : : : ;~an auf ~b1 ; ~b2 ; : : : ; ~bn .

Satz 4.43 (a) In einem Vektorraum V uber K mit endli her Dimension dim V = n existieren
zu jedem Basiswe hsel von ~a1 ;~a2 ; : : : ;~an auf ~b1 ; ~b2 ; : : : ; ~bn Umre hnungsformeln
~bj = Pnk=1 jk~ak ; ~aj = Pnk=1 jk~bk

8 j = 1; 2; : : : ; n:

(4.7)

Die Spaltenvektoren ~k := ( 1k ; 2k ; : : : ; nk )T bzw. ~ k := ( 1k ; 2k ; : : : ; nk )T ; k = 1; 2; : : : ; n,


der aus (5.1) resultierenden Matrizen ( jk ) und ( jk ) bilden in der folgenden Weise die Matrix T (bzw. S ) der Koordinatentransformation zum Basiswe hsel von ~a1 ;~a2 ; : : : ;~an auf
~b1 ; ~b2 ; : : : ; ~bn (bzw. von ~b1 ; ~b2 ; : : : ; ~bn auf ~a1 ;~a2 ; : : : ;~an ):
2

6
= 664

~1T
~2T
..
.
~nT

7
7
7;
5

6
6
6
4

S=

~ 1T
~ 2T
..
.
~ nT

3
7
7
7:
5

Die Matrix T 2 K (n;n) ist ein Isomorphismus; es gilt T 1 = S .


(b) Im Sonderfall V := K n bilden wir mit den gegebenen Basisvektoren ~a1 ;~a2; : : : ;~an 2 K n
und ~b1 ; ~b2 ; : : : ; ~bn 2 K n die Matrizen A; B 2 Inv (K n ) gema A := (~a1 ;~a2 ; : : : ;~an ) und B :=
(~b1 ; ~b2 ; : : : ; ~bn). Dann folgt:

Basiswe hsel Matrix der Basistransform. Matrix der Koordinatentransform.


A!B
F = BA 1
T = B 1A
B!A
F 1 = AB 1
T 1 = A 1B

BSP. (4.22) Es sei V := R4 . Es sei ~a1 ;~a2 ;~a3 ;~a4 die Standardbasis von R4 . Dann gilt A := Id4 =
A 1 . Es sei ferner eine neue Basis ~b1 ; ~b2 ; ~b3 ; ~b4 gegeben, so dass die Matrix B := (~b1 ; ~b2 ; ~b3 ; ~b4 ) in der

folgenden Form vorliegt:

2
1 2 1 13
3 1 4 23
6 2 0 1 1 7
3 2 1 77 :
1 16
7
6 1
B=6
4 2 1 0 1 5 ) B = 5 4 1
2 3 15
1 1 2 0
5 5 5 5
Somit sind F := BA 1 = B und T := B 1A = B 1 die Matrizen der Basistransformation bzw. der
Koordinatentransformation zum Basiswe hsel A ! B . In der Standardbasis hat zum Beispiel der
Vektor ~x := ( 50; 25; 8; 1)T 2 R4 die Koordinaten j = xj ; j = 1; 2; 3; 4. Wir bere hnen den
Koordinatenvektor von ~x in der neuen Basis ~bj :
2
3 1 4 2 3 2 50 3 2 19 3
1 6 1 3 2 1 77 66 25 77 = 66 28 77 :
~ = T ~ = 6
5 4 1 2 3 1 54 8 5 4 5 5
5 5 5 5
1
18
Hieraus ers hlieen wir
~x = 19 ~b1 28 ~b2 + 5 ~b3 18 ~b4 ;
und die Einsetzprobe
2
19 56 + 5 18 3 2 50 3
6 38 0 + 5 18 7 6 25 7
7 6
7
~x = 19 ~b1 28 ~b2 + 5 ~b3 18 ~b4 = 6
4 38 28 + 0 18 5 = 4
85
19 28 + 10 0
1
bestatigt die Ri htigkeit des Ergebnisses.
BSP. (4.23) Es sei V := C n [z := fP (z ) : P ist Polynom uber C mit Grad P  ng. Wir
betra hten speziell C 3 [z = span f1; z; z2 ; z3 g mit der Basis aj (z) := zj 1; j = 1; 2; 3; 4. Das System b1(z) := 1 + z; b2(z) := 1 z2 ; b3 (z) := z + 2z3 ; b4(z) := z2 + 3z3 2 C 3 [z ist LU, so dass
au h C 3 [z = span fb1 (z); b2 (z); b3 (z); b4 (z)g gilt. Die Umre hnungsformeln (4.7) konnen hier sofort
abgeleitet werden:
2
2
3
3
1 1 0 0
1 1 0 0
6
6
7
7
( jk ) = 64 01 10 01 02 75 ) S = ( jk )T = 64 01 10 01 10 75 :
0 0 1 3
0 0 2 3
Wir erhalten nun die Matrix T = S 1 der Koordinatentransformation zum Basiswe hsel von aj (z)
auf bj (z), namli h
2
2
3 2 3 13
3 2 3 23
1 6 2 2 3 1 77 ) ( ) = 1 66 2 2 3 2 77 :
T = S 1 = ( jk )T = 6
jk
54 3 3 3 15
54 3 3 3 25
2 2 2 1
1 1 1 1

hat das Polynom P3(z) := z3 8z2 + 25z 50 = P k zk in der Basis aj (z) den
k=0
Koordinatenvektor ~ := ( 50; 25; 8; 1)T 2 R4 . Dieser wird auf den folgenden Koordinatenvektor ~

Zum Beispiel

in der Basis bj (z) transformiert:


2

~ = T ~ =

1 66
54

3
2
3
2

2
2
3
2

1 32
1 77 66
1 54
1

3
3
3
2

50 3 2
25 77 = 66
85 4
1

25 3
25 77 :
50 5
33

Hieraus ers hlieen wir


P3 (z ) =

25 b1 (z) 25 b2 (z) + 50 b3 (z) 33 b4 (z);

und die Einsetzprobe


P3 (z )

= 25 b1 (z) 25 b2 (z) + 50 b3 (z) 33 b4 (z)


= 25 25z 25 + 25z2 + 50z + 100z3 33z2 99z3
= z3 8z2 + 25z 50
bestatigt die Ri htigkeit des Ergebnisses.
BSP. (4.24) In V := R2 seien fur festes 2 [0; 2) Matrizen





os

sin

os

sin

S := sin os ; T :=
sin os
gegeben. Man veri ziert unmittelbar T 1 = S , das heit, T 2 R(2;2) ist ein Isomorphismus. Aus
der Standardbasis ~e1 = (1; 0)T ; ~e2 = (0; 1)T erhalten wir vermoge ~bj := S ~ej eine neue Basis ~b1 :=
( os ; sin )T ; ~b2 := ( sin ; os )T . Wie die Skizze zeigt, entsteht diese Basis dur h Drehung der
Standardbasis in R2 um den Winkel :

e2

b1 = Se1

Se2 = b2

e1

Drehung der Standardbasis um den


Winkel
Hier sind S und T die Matrizen der Basistransformation zum Basiswe hsel Id2 ! B bzw. B !
Id2 , wahrend T und S die Matrizen der Koordinatentransformation zum Basiswe hsel Id2 ! B
bzw. B ! Id2 darstellen. Ganz analog bes hreiben in R3 die Matrizen

1
0
0 3 2 os 0 sin 3 2 os sin 0 3
0 1
0 5 ; 4 sin os 0 5
S := 4 0 os sin 5 ; 4
0
0 1
sin 0 os
0 sin os
Drehungen der Standardbasis um einen Winkel mit den Dreha hsen in Ri htung ~e1 ; ~e2 bzw. ~e3 .
(Die Dreha hse ist jeweils der Unterraum Kern(S Id3).)
2

4.7 Matrizen im Skalarprodukt


In diesem Abs hnitt gelte K := R oder K := C , und wir bezei hnen mit h; in das Standardskalarprodukt in dem Vektorraum V := K n sowie mit k  k die dur h das Skalarprodukt
induzierte Norm.
De nition 4.44 Fur eine gegebene Matrix A = (ajk ) 2 K (m;n) heie
 A := ( jk ) 2 K (m;n) mit jk := ajk die zu A konjugierte Matrix,
 AT := ( jk ) 2 K (n;m) (bea hte die vertaus hten Zeilen{ und Spaltendimensionen n
bzw. m!) mit jk := akj fur j = 1; 2; : : : ; n und k = 1; 2; : : : ; m die zu A transponierte
Matrix,

 A := (A)T = (AT ) 2 K (n;m) die zu A adjungierte Matrix.




5
+
2
i
3
2
i
0
Zum Beispiel gilt fur A =
2 + 5i 4 + i i :
A =

5 2i 3 + 2i
2 5i 4 i

3
5
+
2
i
2
+
5
i
0 ; AT = 4 3 2i 4 + i 5 ;
i
0
i


3
5
2
i 2 5i
A = 4 3 + 2i 4 i 5 :
0
i

Bemerkung 4.45 Die zu A = (ajk ) transponierte (oder gesturzte) Matrix AT entsteht dur h
Vertaus hen der Zeilen mit den Spalten. Dies entspri ht einer Spiegelung an der Hauptdiagonalen ajj ; j = 1; 2; : : : ; minfn; mg. Sind ~ak 2 K m ; k = 1; 2; : : : ; n, die Spaltenvektoren
der Matrix A, das heit gilt A = (~a1;~a2 ; : : : ;~an), so folgt:
3
2
~a1T
6 ~a T 7
2 7
T
A =6
6 .. 7 :
4 . 5
~anT
Insofern sind Vektortransposition und Matrixtransposition konsistent.
2

Fur K := R gilt stets A = AT :


Die Bedeutung der adjungierten Matrix wird unter anderem dur h das folgende Resultat klar.
Satz 4.46 Fur eine gegebene Matrix A 2 K (m;n) ist A 2 K (n;m) die einzige Matrix mit

hA~x; ~yim = h~x; A~yin 8 ~x 2 K n 8 ~y 2 K m :


Begrundung: Wir haben fur jedes feste ~x 2 K n und ~y 2 K m :
hA~x; ~yim =

n
m X
X
j =1

k=1

ajk xk yj =

n
X
k=1

xk

m
X
j =1

ajk yj

(4.8)

= h~x; A~yin:

Um die Eindeutigkeit zu zeigen, nehmen wir an, es gebe eine weitere Matrix B 2
hA~x; ~yim = h~x; B~yin 8 ~x 2 K n 8 ~y 2 K m . Dann folgt

0 = hA~x; ~yim hA~x; ~yim = h~x; A~y B~yin ~x:=A=~y B~y k(A B )~yk2 ;
also A~y = B~y 8 ~y 2 K m . Dies gilt nur fur A = B .

K (n;m)

mit

2
In dem folgenden Satz sind die wi htigsten Re henregeln fur die drei Operationen " Konjugation", "Transposition" und "Adjunktion" zusammengestellt.

Satz 4.47 (a) Fur eine Matrix A 2 K (m;n) und fur jede der drei Operationen  (= Konjugation oder Transposition oder Adjunktion) gilt:

(i) (A) = A, (ii) (A   B ) = A  B  8 B 2 K (m;n) 8  2 K (mit T := ).


(b) Fur je zwei Matrizen A 2 K (m;n) und B 2 K (n;l) gilt:
(i) (AB ) = AB , (ii) (AB )T = B T AT , (iii) (AB ) = B  A:
( ) Fur eine Matrix A 2 Inv (K n ) gilt:
(i) (A 1 )T = (AT ) 1, (ii) (A 1) = (A) 1 :
(d) Fur jedes Paar von Vektoren ~a 2 Rm , ~b 2 R n und jede Matrix A 2 R (n;l) gilt:
(i) (~a
~b)T = ~b
~a, (ii) (~a
~b) A = ~a
(AT~b).
Begrundungen: Die Aussagen (a), (b) und (d) erhalt man unmittelbar aus den entspre henden De -

nitionen unter Verwendung der Beziehung (4.8). Wir zeigen nun die Aussage ( .ii). Fur jedes Paar
Vektoren ~x; ~y 2 K n gilt:
h~x; (A 1 ) ~yin = hA 1~x; ~yin = hA 1~x; A (A ) 1~yin = hAA 1~x; (A ) 1~yin = h~x; (A ) 1~yin:
Hieraus folgt (A 1 ) = (A ) 1, sofern A bijektiv ist. Die Bijektivitat von A ergibt si h aber aus
dem na hsten Satz.
2
Satz 4.48 (a) Fur jede gegebene Matrix A 2 K (m;n) stehen die Unterraume Kern und Bild
von A und A in der folgenden Relation zueinander:

Kern A = (Bild A)? und Kern A = (Bild A )?;

(4.9)

(Kern A)? = Bild A und (Kern A)? = Bild A :

(4.10)

(b) Fur die Dimensionen der Unterraume Kern und Bild von A 2 K (m;n) und A gilt:
(i) Rang A = Rang A = Rang A = Spaltenrang A (= Anzahl der LU Spalten)
= Zeilenrang A (= Anzahl der LU Zeilen)  minfn; mg.
(ii) dim Kern A dim Kern A = n m.
(iii) A ist surjektiv , A ist injektiv , dim Kern A = n m.
Begrundungen: (a) Wir zeigen zuna hst (4.9). Es gelten die folgenden Implikationen:
~y 2 Kern A , A ~y = ~0 , h~x; A ~yin = hA~x; ~yim = 0 8 ~x 2 K n
, ~y ? Bild A , ~y 2 (Bild A)?:

Somit folgt Kern A = (Bild A)?, fur A statt A folgt Kern A = (Bild A )?. Wir zeigen nun (4.10).
Dazu verwenden wir die Relation U = U ??, die fur jeden Unterraum U eines endli hdimensionalen Praehilbertraumes gilt, vgl. Satz 1.63( ) und Bemerkung 1.64(a). Wir haben hier gema (4.8):

(Kern A )? = (Bild A)?? = Bild A sowie (Kern A)? = (Bild A)?? = Bild A .
(b) Zum Beweis von (i) setzen wir Rang A =: r  n. Klar, die Vektoren ~a1 ;~a2 ; : : : ;~ar sind genau
dann LU, wenn dies fur die konjugierten Vektoren ~a1; ~a2 ; : : : ; ~ar gilt. Also folgt Rang A = Rang A.
Ferner erhalten wir aus (a) dur h orthogonale Zerlegungen:
Satz 4:6
K m = Kern A  Bild A ) m = dimKern A + Rang A = dimKern A + Rang A ;
Satz 4:6
K n = Kern A  Bild A ) n = dimKern A + Rang A = dimKern A + Rang A:
Dies impliziert s hon (fur K = R s hon in Bemerkung 4.23( ))
Rang A = RangA  minfm; ng; n m = dimKern A dimKern A :
(4.11)
Der Rest ergibt si h aus den Bemerkungen 4.23. Die Aussage (ii) haben wir s hon mit (4.11) gezeigt.
S hlieli h sieht man (iii) wie folgt ein:
(a)
A surjektiv , Bild A = K m , f~0g = (Bild A)? = Kern A
:11)
, A injektiv (4,
dimKern A = n m:
Fur die Losung linearer Glei hgungssysteme resultiert aus diesen Zusammenhangen:
Satz 4.49 Gegeben seien eine Matrix A 2 K (m;n) und ein Vektor ~b 2 K m . Dann gelten fur
die Losbarkeit des linearen Glei hungssystems A~x = ~b die folgenden Aussagen:
A~x = ~b ist losbar
Der Vektor ~b muss also m
folgt

, ~b 2 (Kern A)? , h~b; ~vim = 0 8 ~v 2 Kern A:

(4.12)

Rang A Losbarkeitsbedingungen erfullen. Ist Rang A = m, so

8 ~b 2 K m , dim Kern A = 0 = dim Kern A + m n:


(4.13)
Begrundung: Die Losbarkeitsbedingungen folgen aus vorstehendem Satz 4.48(a), wobei wir im Beweis
bereits die Dimensionsrelation dimKern A = m Rang A gezeigt haben.
2
BSP. (4.25) Fur wel he Vektoren ~b = (b1 ; b2 ; b3 ; b4 )T 2 R4 ist das lineare Glei hungssystem
A~x = ~b bei gegebener Matrix A losbar?
2
1 1 13
6 2
0 1 77 :
A=6
4 1
1 15
2 1 1
Losung: Es muss die Losbarkeitsbedingung ~b 2 (Kern AT )? erfullt sein. Wir bere hnen ~v 2
Kern AT , AT ~v = ~0:
1 2 1 2
0
(AT j ~0) ,
1 0 1 1
0
1 1 1 1
0
Z1 $ Z2
1 0 1 1
0
Z2 + Z1 ! Z2
0 2 0 1
0
Z3 + Z1 ! Z3
0 1 0 0
09
1 0 1 1
0=
Z3 $ Z2
0 ; ) ~v = C1(1; 0; 1; 0)T :
0
1
0
0
Z3 + 2Z2 ! Z3
0
0 0 0 1
A~x = ~b ist losbar

Wir erhalten hieraus Kern A = span f(1; 0; 1; 0)T g, und somit dimKern A = 1. Es ist also genau
eine Losbarkeitsbedingung zu erfullen, und diese lautet:
0 = h~b; ~vi4 = h(b1 ; b2 ; b3 ; b4)T ; (1; 0; 1; 0)T i4 = b1 + b3:
Das heit, jeder Vektor in der Form ~b = (b1 ; b2; b1 ; b4 )T ist Element von Bild A, und fur ein sol hes
~b ist A~x = ~b losbar. Wir folgern ferner aus m = 4 und n = 3, dass Rang A = m dimKern A = 3
sowie dimKern A = dimKern A + n m = 0 gilt. Das heit, die Spaltenvektoren der Matrix A sind
LU, und das lineare Glei hungssystem A~x = ~b ist fur jedes ~b in der obigen Form eindeutig losbar.
Man pruft lei ht na h, dass die Losung die folgende Form hat:
2

~x = 4

x1
x2
x3

=4

b1 b4
b4 b2
2b4 b2 2b1

5:

4.8 Spezielle Matrizen


(I) Symmetris he und hermites he Matrizen.
Es gelte na hfolgend K := R oder K := C .
De nition 4.50 Eine Matrix A = (ajk ) 2 K (n;n) heie symmetris h (K := R ) oder hermites h (K := C ), wenn gilt:
A = A ; oder aquivalent

ajk = akj

8 j; k = 1; 2; : : : ; n.

Insbesondere muss ajj 2 R 8 j = 1; 2; : : : ; n gelten. Das heit, die Hauptdiagonalelemente


einer hermites hen Matrix sind stets reell.
Zum Beispiel ist die folgende Matrix A 2 C (3;3) hermites h:
2

10 2 + 5i 5 + 2i 3 
0
3i 5 = A :
A := 4 2 5i
5 2i 3i
7

Wir listen na hfolgend Beispiele und Eigens haften hermites her Matrizen auf.
Satz 4.51 (a) Fur jede Matrix A 2 K (n;n) sind folgende Matrizen hermites h:
A + A ; AA ; A A:
Es gelten ferner die Beziehungen

Kern A A = Kern A;
Bild A A = Bild A ;

Kern AA = Kern A ;


Bild AA = Bild A:

(b) Jede reelle Diagonalmatrix ist symmetris h; das Tensorprodukt ~v


~v ist symmetris h fur
jeden Vektor ~v 2 R n .

( ) Ist A 2 K (n;n) hermites h, so gilt stets

hA~x; ~xin 2 R 8 ~x 2 K n ; BAB  hermites h 8 B 2 K (n;n) .


(d) A 2 K (n;n) hermites h , A hermites h , A 1 hermites h, falls A 2 Inv (K n ).
(e) Sind A; B 2 K (n;n) hermites h, so gilt dies au h fur A +  B , sofern  reell ist. Das heit,

die symmetris hen Matrizen bilden einen Unterraum von R (n;n) , wahrend die hermites hen
Matrizen keinen Unterraum von C (n;n) bilden.
Begrundungen: (a) Wir zeigen Kern A A  Kern A und wahlen dazu ~x 2 Kern A A. Aus A A~x = ~0

ers hlieen wir

0 = h~x; A A~xin = hA~x; A~xin = kA~xk2 ;


und somit ~x 2 Kern A. Dies bedeutet Kern A A  Kern A, also au h Kern A A = Kern A, da stets
die triviale Inklusion Kern A  Kern AA gilt. Wir zeigen nun Bild A  Bild A A. Dazu wahlen wir
~v 2 (Bild A A)? , so dass folgt:
0 = h~v; A A~vin = hA~v; A~vin = kA~vk2 , ~v 2 Kern A = (Bild A )?:
Wir ersehen hieraus (Bild A A)?  (Bild A)?, und dur h U bergang zu den Orthogonalkomplementen erhalt man die behauptete Inklusion. Da stets Bild AA  Bild A gilt, resultiert jetzt die
Glei hung Bild AA = Bild A . Ganz analog geht man bei der Matrix AA vor (setze A statt A).
(b) Es ist (~v
~v)T = (~v ~v T )T = ~v T T ~v T = ~v ~v T = ~v
~v.
( ) Fur jedes ~x 2 K n haben wir
hA~x; ~xin = h~x; A~xin = h~x; A~xin = hA~x; ~xin :
Also muss das Skalarprodukt hA~x; ~xin reell sein. Wir haben ferner fur ~x; ~y 2 K n :
hBAB ~x; ~yin = hAB ~x; B ~yin = hB ~x; AB ~yin = h~x; BAB ~yin:
(d) Diese Behauptung folgt unmittelbar aus den Relationen A = A und (A 1 ) = (A ) 1 .
2
(e) Es gilt ( B ) =  B  =  B =!  B genau fur  2 R.
(II) Antisymmetris he und antihermites he Matrizen.
Es gelte na hfolgend wiederum K := R oder K := C .
De nition 4.52 Eine Matrix A = (ajk ) 2 K (n;n) heie antisymmetris h (K := R ) oder
antihermites h (K := C ), wenn gilt:
A = A ; oder aquivalent

ajk = akj

8 j; k = 1; 2; : : : ; n.

Insbesondere muss ajj 2 iR 8 j = 1; 2; : : : ; n gelten. Das heit, die Hauptdiagonalelemente


einer antihermites hen Matrix sind stets rein imaginar oder Null.
Zum Beispiel ist die folgende Matrix A 2 C (3;3) antihermites h:
2
2i 2 + 5i 5 + 2i 3
A := 4 2 + 5i
0
3i 5 = A:
5 + 2i 3i
i

Wir listen na hfolgend wieder Beispiele und Eigens haften antihermites her Matrizen auf.

Satz 4.53 (a) Fur jede Matrix A 2 K (n;n) ist die Matrix A A antihermites h. Hiermit
kann jede Matrix A 2 K (n;n) in eindeutiger Weise zerlegt werden in einen hermites hen und
einen antihermites hen Anteil, namli h:

1
2

1
2

A = (A + A ) + (A A ):

(b) Ist A 2 K (n;n) antihermites h, so gilt stets


Re hA~x; ~xin = 0 8 ~x 2 K n ; BAB  antihermites h 8 B 2 K (n;n) .
Das heit insbesondere ~x ? A~x, wenn A antisymmetris h und ~x reell ist.
( ) A 2 K (n;n) antihermites h , A antihermites h , A 1 antihermites h, falls A 2 Inv (K n ).
(d) Sind A; B 2 K (n;n) antihermites h, so gilt dies au h fur A +  B , sofern  reell ist.
Das heit, die antisymmetris hen Matrizen bilden einen Unterraum von R (n;n) , wahrend die
antihermites hen Matrizen keinen Unterraum von C (n;n) bilden.
Begrundungen: Wir zeigen hier nur den ersten Teil der Aussage (b), da alle anderen Aussagen direkt
aus den De nitionen folgen. Fur jedes ~x 2 K n haben wir namli h
hA~x; ~xin = h~x; A~xin = h~x; A~xin = hA~x; ~xin :

2
Also muss das Skalarprodukt hA~x; ~xin rein imaginar sein.
BSP. (4.26) Wir geben hier ein Beispiel fur die Zerlegung einer Matrix in den hermites hen und
den antihermites hen Anteil:
2
1 3i 1 + i 3
2 + 4i 2 4i 4 + 2i 3 2 2 3 i 3 + i 3 2 4i
1 5:
A := 4 4 2i 4i
6 5 = 4 3 + i 0 5 5 + 4 1 3i 4i
1+i
1
0
3 i 5 0
2
4
0
(III) Orthogonale und unitare Matrizen.
Es gelte na hfolgend wiederum K := R oder K := C .
De nition 4.54 Eine Matrix Q = (qjk ) 2 K (n;n) heie orthogonal (K := R ) oder unitar
(K := C ), wenn gilt
Q 1 = Q ;

oder aquivalent

hQ~x; Q~yin = h~x; ~yin 8 ~x; ~y 2 K n :

Insbesondere erfullt eine unitare Matrix die Relationen Q Q = Idn = QQ .


Zum Beispiel ist die folgende Matrix Q 2 R(3;3) orthogonal:
2
6

Q := 6
4

p16
p26
p16

p111
p111
p311

p766
p466
p166

7
7:
5

Man bere hnet namli h QT Q = Id3 oder man pruft das in dem folgenden Satz 4.55(d) angegebene
Kriterium na h.
Wir geben in dem folgenden Satz Beispiele und Eigens haften unitarer Matrizen an:

Satz 4.55 (a) Fur jedes Paar unitarer Matrizen Q; Q1 2 K (n;n) sind QQ1 und Q1 Q unitar.
Ferner ist Q = Q 1 unitar, und  Q ist unitar genau fur jj = 1.
(b) Ist Q 2 K (n;n) unitar, so gilt

kQ~xk = k~xk

und

h~x; ~yin = hQ~x; Q~yin 8 ~x; ~y 2 K n :


k~xk k~yk kQ~xk kQ~yk

Das heit, unter einer unitaren Abbildung Q bleibt die euklidis he Lange des Vektors ~x erhalten. Ist Q orthogonal, so bleiben sogar die Winkel zwis hen zwei Vektoren ~x und ~y unter der
Abbildung Q erhalten.
( ) Ist ~a1 ;~a2; : : : ;~an 2 K n eine ON{Basis, so wird diese unter der unitaren Matrix Q 2 K (n;n)
wieder in eine ON{Basis Q~a1 ; Q~a2 ; : : : ; Q~an 2 K n abgebildet.
(d) Hauptkriterium fur unitare Matrizen:
Eine Matrix Q = (~q1 ; ~q2 ; : : : ; ~qn ) 2 K (n;n) ist genau dann unitar, wenn die Spaltenvektoren ~q1 ; ~q2 ; : : : ; ~qn eine ON{Basis des K n bilden.
Begrundungen: (a) Die Unitaritat ( Q) =  Q =! ( Q) 1 = 1 Q 1 = 1 Q liegt genau dann vor,
wenn jj2 = 1 gilt.
(b) Es gilt kQ~xk2 = hQ~x; Q~xin = h~x; Q Q~xin = h~x; ~xin = k~xk2 8 ~x 2 K n .
( ) Es gilt jk = h~aj ;~ak in = hQ~aj ; Q~ak in 8 j; k = 1; 2; : : : ; n.
(d) Da die Standardbasis ~e1 ; ~e2 ; : : : ; ~en eine ON{Basis des K n ist, folgt aus ( ), dass die Spaltenvektoren ~qj = Q~ej ; j = 1; 2; : : : ; n, ebenfalls eine ON{Basis des K n bilden. Ist umgekehrt das Vektorsystem
~q1 ; q~2 ; : : : ; q~n eine ON{Basis des K n , so hat die Matrix Q := (~q1 ; ~q2 ; : : : ; q~n ) Vollrang Rang Q = n.
Also ist Q ein Isomorphismus, und
die inverse Matrix Q 1 existiert. Wir zeigen Q = Q 1 . In der
T

Tat, mit der Bezei hnung ~qj = ~qj = ~qjT fur K = R gilt:
2
6

Q Q = 6
6
4

BSP. (4.27)

q~1
~q2

...

q~n

3
7
7
7
5

(~q1 ; ~q2; : : : ; ~qn) = (h~qj ; ~qk in) = (jk ) = Idn:

Es sei w~ 2 Rn mit kw~ k = 1 gegeben. Die Matrix


S := Idn

2 w~
w~ 2 R(n;n)

bes hreibt gema BSP. 4.19 in Abs hnitt 4.4 eine Spiegelung an dem Spiegelraum Kern(S Idn ) =
Kern(w~
w~ ) = f~v 2 Rn : h~v; w~ in = 0g. Dieser ist o enbar die Hyperebene dur h ~0 mit dem
Einheitsnormalenvektor w~ . Wir zeigen: S ist symmetris h. In der Tat, mit Hilfe von Satz 4.51(b)
ers hlieen wir S T = Idn 2(w~
w~ )T = Idn 2 w~
w~ = S . Wir folgern hieraus, dass S orthogonal
ist. Da S eine Spiegelung ist, gilt namli h Idn = S 2 = S T S = SS T .
BSP. (4.28)

Es sei  2 [0; 2) ein fester Winkel.

De nition 4.56 Eine Matrix U := U (p; q; ) 2 R(n;n) in der speziellen Form


2

U (p; q; )

:=

6
6
6
6
6
6
6
6
6
6
6
6
6
6
6
6
6
6
6
6
6
4

...

upp
..
.
..
.
..
.
uqp

         upq

...

...

"

"

p{te Spalte

mit

  

..
.
..
.
..
.
uqq

7
7
7
7
7
7
7
7
7
7
7
7
7
7
7
7
7
7
7
7
7
5

p{te Zeile

q{te Zeile

q{te Spalte

upp := uqq := os ; upq := sin ; uqp :=

sin ;  2 [0; 2);

heie eine (p; q){Rotationsmatrix oder kurz eine Ja obi{Rotation.

Man erkennt sofort, dass U T = U (p; q; ) = U 1 gilt. Also ist U eine orthogonale Matrix. Wegen


Kern(U Idn ) = Kern ~0; : : : ; ~0; ( os
 1) ~ep sin  ~eq ; ~0; : : : ; ~0; sin  ~ep + ( os  1) ~eq ; ~0; : : : ; ~0
|
|
{z
}
{z
}
p te Spalte
q{te Spalte
erhalt man mit einfa her Re hnung
Kern(U Idn) = span f~e1 ; : : : ; ~ep 1; ~ep+1 ; : : : ; ~eq 1 ; ~eq+1; : : : ; ~en g;
sofern  > 0 gilt. Es ist klar, dass jeder Vektor ~x 2 Kern(U Idn) dur h die Matrix U auf si h selbst
abgebildet wird: U~x = ~x. Hingegen werden Vektoren in der Ebene span f~ep; ~eq g dur h die Abbildung
U um einen Winkel  gedreht. Die orthogonale Matrix U = U (p; q; ) bewirkt mit anderen Worten
eine Drehung der (p; q){Ebene im Rn um den Winkel .
(IV) Projektionen.
Es gelte na hfolgend wiederum K := R oder K := C .
De nition 4.57 Eine Matrix P 2 K (n;n) heie eine Projektion auf den Unterraum Bild P ,
wenn gilt

Eine Projektion P

P2 = P.

2 K (n;n) heie orthogonal, wenn gilt


Bild P = (Kern P )?:

In diesem Falle hat man K n = Kern P  Bild P . Das heit, wegen ~x = (~x P~x) + P~x mit
P~x 2 Bild P 8 ~x 2 K n ist eine Projektion P genau dann orthogonal, wenn gilt

~x P~x ? Bild P

8 ~x 2 K n :

Zum Beispiel re hnet man sofort na h, dass die folgende Matrix die Glei hung P 2 = P

eine Projektion ist.

erfullt, also

2 3 33
P := 4 1 2 1 5 :
1 1 2
Die Matrix P ist aber keine orthogonale Projektion. Zum Beispiel wird der Vektor ~x := (1; 0; 0)T
abgebildet auf ~y := ~x P~x = (3; 1; 1)T , und dieser Vektor ist zu keinem der Spaltenvektoren von
P orthogonal. Also kann au h ni ht ~y ? Bild P gelten.

Die Fragen, wie man mit einfa hen Kriterien na hpruft, ob eine Projektion orthogonal ist,
und wie man bei Vorgabe des Unterraumes Bild P die orthogonale Projektion P bestimmt,
werden in dem folgenden Satz beantwortet.
Satz 4.58 (a) Eine Projektion P 2 K (n;n) ist genau dann orthogonal, wenn P hermites h
ist, das heit, wenn gilt:

P = P.

(b) Ist U  K n ein Unterraum, so gibt es genau eine orthogonale Projektion P 2 K (n;n) auf
U = Bild P . Ist ~a1 ;~a2 ; : : : ;~ap eine Basis von U , so heie die Matrix A := (~a1 ;~a2 ; : : : ;~ap ) 2
K (n;p)

Fundamentalmatrix oder Basismatrix von U . Fur jede Basismatrix A 2 K (n;p) gilt:


(i) Die Grams he Matrix A A ist invertierbar: AA 2 Inv (K p ).

(ii) Die orthogonale Projektion P auf den Unterraum U ist die Matrix
P := A(A A) 1 A .

( ) Ist ~u1; ~u2; : : : ; ~up 2 R n eine ON{Basis des Unterraumes U  R n , so lat si h die ortho-

gonale Projektion P auf U einfa her bere hnen dur h

P=

p
X
k=1

~uk
~uk :

Begrundungen: (a) Wir haben oben gezeigt, dass eine Projektion P 2 K (n;n) genau dann orthogonal
ist, wenn ~x P~x ? Bild P 8 ~x 2 K n gilt. Dies ist genau dann der Fall, wenn gilt:
0 = hP ~y; ~x P~xin = h~y; P ~x P  P~xin 8 ~x; ~y 2 K n ;

oder aquivalent P  = P  P . Da die Matrix P  P hermites h ist, muss dies au h fur P  gelten.
(b) Eindeutigkeit: Seien P1 , P2 orthogonale Projektionen auf U , dann gilt fur ~x 2 K n
kP1 x P2 xk2 = hP1 x P2 x; P1 x P2 xi =
hP1 x; P| 1 x {z P2x}i hP2 x; P| 1 x {z P2 x}i =

Def.

2U

2U

hx; P1 x P2 xi hx; P1 x P2 xi = 0
Zum Beweis von (i) zeigen wir Kern A A = f~0g. Dann folgt namli h bereits A A 2 Inv (K p ). In der
Tat, fur ~x 2 Kern A A haben wir A A~x = ~0, und somit
0 = h~x; A A~xip = hA~x; A~xin = kA~xk2 :

Wegen Rang A = p folgern wir aus dem Dimensionssatz (Satz 4.21) dimKern A = 0, und somit muss
~x = ~0 gelten. Zum Beweis von (ii) zeigen wir zuna hst P 2 = P . Dies erkennt man aber sofort an
P 2 = A(A A) 1 A A(A A) 1 A = P . Wir zeigen jetzt P  = P :
|
{z
}
= Id

P  = [A(A A) 1 A  = A[(A A) 1  A = A[(A A) 1 A = A(A A) 1 A = P:


S hlieli h mussen wir no h Bild P = Bild A (= U ) zeigen. Da (A A) 1 : K p ! K p ein Isomorphismus ist, gilt Bild A = Bild A(A A) 1 . Somit folgt aus Satz 4.51(a) au h Bild P = Bild A(A A) 1 A
= Bild AA = Bild A.

( ) Der Vektor P~x 2 U hat gema Bemerkung 1.60(b), S. 50, in der ON{Basis ~u1 ; ~u2; : : : ; ~up die
Darstellung
p
X
P~x = hP~x; ~uk in ~uk ; ~x 2 Rn :
Wegen h~x; ~uk in = h(|~x

k=1
P~x) +P~x; ~uk in = hP~x; ~uk in

{z

?U

P~x =

folgt daraus s hon die behauptete Darstellung:

p
X

p
X

k=1

k=1

h~x; ~uk in ~uk =

~uk
~uk ~x:

Merke: (i) Eine orthogonale Projektion P 6= Id kann nie au h eine orthogonale


(oder unitare) Matrix sein. Andernfalls hatten wir P = P 2 = P P = P 1P = Id,

im Widerspru h zur Voraussetzung.


(ii) Ist die orthogonale Projektion P auf einen Unterraum U  R n zu bestimmen,
so gehe man nie den Weg uber die Grams he Matrix. Dieser ist aufwendiger als der
Weg uber das Aunden einer ON{Basis von U und der Verwendung der Darstellung
P=

p
X
k=1

~uk
~uk :

BSP. (4.29) Wir demonstrieren beide Wege an dem Beispiel der ?{Projektion auf den Unterraum U := span f~a1 ;~a2 ;~a3 g  R3 mit ~a1 := (1; 0; 1)T , ~a2 := (1; 2; 1)T und ~a3 := (2; 2; 2)T . Man erkennt soglei h, dass ~a1;~a2 LU sind, wahrend ~a3 = ~a1 +~a2 gilt. Das heit, wir haben U = span f~a1 ;~a2 g.

1.Methode: Wir verwenden die Grams he Matrix.


2







1 13
1
3
1
1
0
1
2
2



1
4
5
A = (~a1 ;~a2 ) = 0 2 ; A = 1 2 1 ; A A = 2 6 ; (A A) =
4 1 1 :
1 1
Hiermit bere hnet man die gesu hte ?{Projektion
2
2
3
3



1
1
1
0
1
1
3 1 1 0 1 = 1 4 0 2 0 5:
P = A(A A) 1 A = 4 0 2 5
1 1 1 2 1 2 1 0 1
4 1 1
Es ist ni ht s hwer, die Bedingungen P 2 = P und P T = P na hzuprufen. Man erkennt au h sofort,
Bild P = span f(1; 0; 1)T ; (0; 2; 0)T g = span f~a1 ;~ap2 ~a1 g = span f~a1 ;~a2 g = U .
2.Methode: Die Vektoren ~a1 =k~a1 k = (1; 0; 1)T = 2 =: ~u1 und (~a2 ~a1 )=k~a2 ~a1 k = (0; 1; 0)T =: ~u2
bilden eine ON{Basis von U . Also haben2wir:
2
3 2
3
3
1
0
1
1
0
1
0
0
0
1
1
P = ~u1
~u1 + ~u2
~u2 = 4 0 0 0 5 + 4 0 1 0 5 = 4 0 2 0 5 :
2 1 0 1
2
1 0 1
0 0 0

Lineare Ausglei hsprobleme:

In den Anwendungen spielt die in Satz 1.66 angegebene Extremaleigens haft der orthogonalen Projektion eine wi htige Rolle. Wir formulieren die Relation (1.9) aus Abs hnitt 1.9 hier
fur eine orthogonale Projektion P 2 K (n;n) :

k~x P~xk = ~vmin


k
~x P~vk  k~x P~yk 8 ~y 2 K n .
n
2K

(4.14)

Ist zum Beispiel ein lineares Glei hungssystem A~x = ~b bei gegebener Koezientenmatrix
A = (ajk ) 2 K (m;n) und gegebener re hter Seite ~b = (b1 ; b2 ; : : : ; bm )T 2 K m unlosbar, so
bestimmt man hau g anstelle der fehlenden exakten Losung eine beste Losung ~x0 2 K n im
Sinne der kleinsten Fehlerquadrate: der Fehler

kF (~x)k := kA~x ~bk =

m X
n
X

j =1 k=1

ajk xk

1=2
2
bj j

soll fur ~x = ~x0 am kleinsten werden:

kA~x0 ~bk = ~xmin


kA~x ~bk:
2K n
Die Losung dieser Aufgabe bes hreiben wir in dem folgenden
Satz 4.59 Gegeben seien eine Matrix A 2 K (m;n) und ein Vektor ~b 2 K m . Es sei P 2 K (m;m)
die orthogonale Projektion auf den Unterraum Bild A  K m . Genau dann ist ~x0 2 K n eine
beste Losung (im Sinne kleinster Fehlerquadrate) des linearen Glei hungssystems A~x = ~b,
wenn A~x0 = P~b gilt, oder aquivalent, wenn die Gausss hen Normalglei hungen
A A~x0 = A~b
erfullt sind. Diese sind fur jede Vorgabe ~b 2 K m (i.a. mehrdeutig) losbar.
Begrundung: Wir ers hlieen aus (4.14): Es gilt k~b A~x0 k = minn k~b A~xk genau
~x2K
Also ist diese Bedingung genau dann wahr, wenn fur alle ~y 2 K n gilt:
A~x0 ~b ? BildP = BildA

(4.15)

fur A~x0 = P~b:

0 = hA~x0 ~b; A~yim = hA A~x0 A~b; ~yin;


oder aquivalent AA~x0 = A~b. In Satz 4.51(a) haben wir die Relation Bild AA = Bild A gezeigt,
so dass stets A~b 2 Bild A A gilt. Also sind die Gausss hen Normalglei hungen losbar.
2
BSP. (4.30) Das lineare Glei hungssystem A~x = ~b mit der Koezientenmatrix
2
1 1 13
6 2
0 1 77
A := 6
4 1
1 15
2 1 1

ist fur die re hte Seite ~b := (1; 2; 3; 4)T unlosbar, man vgl. BSP. (4.25) in Abs hnitt 4.7. Wir bestimmen eine beste Losung ~x0 im Sinne kleinster Fehlerquadrate dur h Losen der Gausss hen Normalglei hungen AA~x0 = A~b:
2
2
3
2
3
1 1 1 3 2 10 4 6 3
1
2
1
2
10
6
7
2 0 1 7 = 4 4 3 3 5 ; A~b = 4 2 5 :
A A = 4 1 0 1 1 5 6
4 1
1 15
1 1 1 1
4
6 3 4
2 1 1
Man bere hnet aus diesen Daten ohne S hwierigkeiten die in diesem Beispiel eindeutig bestimmte
beste Losung ~x0 := ( 5; 2; 8)T .
Bemerkung 4.60 Die zwei Glei hungen A A~x = A~b und A~x = P~b haben wegen Bild A A
= Bild A und Kern A A = Kern A dieselbe Losungsmenge, sofern P die orthogonale Projektion auf Bild A ist. Ist insbesondere A~x = ~b losbar, so muss ~b = P~b erfullt sein. In diesem
Falle haben die Glei hungen A A~x = A~b und A~x = ~b dieselbe Losungsmenge. Es ist aber
numeris h ni ht ratsam, anstelle des linearen Glei hungssystems A~x = ~b die Gausss hen
Normalglei hungen zu losen, da ihre numeris he Losung weitaus emp ndli her gegenuber Rundungsfehlern ist. Weiter sollte au h ein Ausglei hsproblem ab einer bestimmten Groe ni ht
uber die Normalglei hung numeris h gelost werden, sondern z. B. uber eine Q-R{Zerlegung
(siehe Kapitel 4.9).
2

(V) Positiv de nite Matrizen.


Es gelte hier K := R oder K := C .
De nition 4.61 Eine Matrix A 2 K (n;n) heie positiv de nit, wenn A hermites h ist: A =
A , und wenn gilt:
hA~x; ~xin > 0 8 ~0 6= ~x 2 K n :
(4.16)
BSP. (4.31)

(a) Fur A 2 Inv (K n ) ist A A 2 K (n;n) stets positiv de nit:


hA A~x; ~xin = hA~x; A~xin = kA~xk2 > 0 8 ~0 =6 ~x 2 K n :

(b) Die folgende Matrix A ist ebenfalls positiv de nit:


*2

3 2

3+

2x1 + x2
x1
>
2 1 03 >
<
T und hA~x; ~xi = 4 x + 3x 5 ; 4 x 5
A
=
A
1
2
2
n
A := 4 1 3 0 5 )
4
x
x
>
3
3
>
0 0 4
:
= 2x2 + 2x1 x2 + 3x2 + 4x2 = x2 + (x1 + x2 )2 + 2x2 + 4x2 > 0:
2

Satz 4.62 Gegeben sei die positiv de nite Matrix A 2 K (n;n) . Dann gelten:
(a) A 2 Inv (K n ), und A 1 ist wieder positiv de nit.
(b) Alle Hauptuntermatrizen von A sind positiv de nit.
( )
ajj > 0 8j = 1; 2; : : : ; n:

Begrundungen: (a) Die homogene Glei hung A~x = ~0 hat nur die triviale Losung ~x = ~0, so dass
A 2 Inv (K n ) folgt. Andernfalls gabe es namli h ein ~0 6= ~x 2 K n mit A~x = ~0, und folgli h hA~x; ~xin = 0,
im Widerspru h zu (4.16). Setzen wir ~y := A~x, so gilt ~y 6= ~0 8 ~x 6= ~0, und somit

0 < hA~x; ~xin = h~y; A 1~yin = h~y; A 1~yin = hA


Somit ist A 1 na h obiger Charakterisierung positiv de nit.
(b) Es sei A~ eine Hauptuntermatrix von A = (ajk ):
2

A~ := 6
4

ajj

   ajr

arj

   arr

... . . . ...

1 ~y; ~yin :

3
7
5

2 K (p;p) ; p := r j:

Wegen A = A gilt o ensi htli h A~ = A~. Wir erweitern jeden Vektor ~0 6= ~x~ := (~x1 ; x~2; : : : ; x~p)T 2 K p
zu einem Vektor
~x = (0; : : : ; 0; |{z}
x~1 ; x~2 ; : : : ; x~p ; 0; : : : ; 0)T 2 K n :
j {te Stelle
Es gilt ~x 6= ~0, und wegen (4.16) folgt:
0 < hA~x; ~xin = hA~~x~; ~x~ip 8 ~0 6= ~x~ 2 K p :
( ) Wir setzen A = (~a1 ;~a2 ; : : : ;~an ) und haben mit den Einheitsvektoren ~ej der Standardbasis des
K n wegen (4.16):
0 < hA~ej ; ~ej in = h~aj ; ~ej in = ajj 8 j = 1; 2; : : : ; n:

Bemerkung 4.63 Man erkennt an dem Beweis der Aussage (b), dass die positive De nitheit
aller Hauptuntermatrizen au h hinrei hend ist fur die positive De nitheit einer Matrix A =
A 2 K (n;n) . Ein Na hprufen dieses Kriteriums ist aber wenig praktikabel. Hau g kommt man
mit dem folgenden einfa heren (aber nur hinrei henden) Kriterium aus.
2
Die Bedeutung positiv de niter Matrizen liegt fur K = R darin, dass die Losungen des Glei hungssystems
A~x = ~b
genau die Losungen der Minimierungsaufgabe
f (~x) : = minff (~y)j~y 2 R n g
(4.17)
1
mit
f (~x) : = hA~x; ~xi h~b; ~xi
2
sind. Betra htet man eine diskretes Modell z. B. der Me hanik (Stabwerte), so stellt (4.17)
das Prinzip der minimalen (potentiellen) Energie dar, das Glei hungssystem die Glei hgewi htsbedingungen des Prinzips der virtuellen Arbeit.
Satz 4.64 Sei A = (ajk ) 2 R (n;n) ) positiv de nit, ~b 2 R n , dann sind die Losungen von (4.17)
und A~x = ~b identis h.

Begrundung: Wir zeigen nur (4.17) ) A~x = ~b, die umgekehrte Ri htung ergibt si h
~x 2 Rn Losung von (4.17), ~y 6= 0 2 Rn beliebig. Insbesondere nimmt dann g : R ! R
f (~x + ~y) in  = 0 sein Minimum an und

g()

=
=
=

1 hA(~x + ~y); ~x + ~yi h~b; ~x + ~yi


2
1 hA~x; ~xi +  < A~x; ~yi + hA~y; ~xi + 2hA~y > 0; ~yi h~b; ~xi
2
1 hA~y; ~yi2 + hA~x ~b; ~yi + 1 hA~x; ~i h~b; ~xi
2
2

ahnli h. Sei
mit g() :=

h~b; ~y i

g ist also eine na h oben geo nete Parabel, die ihr Minimum bei  = 0 genau dann annimmt,
wenn
hA~x ~b; ~yi = 0 8 y 2 Rn
bzw.
A~x = ~b:

Bemerkung 4.65 Der obige S hluss hatte au h dur h


d
g () = hA~y; ~yi + hA~x ~b; ~yi
d
und  = 0 Minimum von g ! dd g() j=0 = 0 realisiert werden konnen, d.h. es wurde nur die
alte S hulkenntnis
Minimum ) Ableitung = 0
ausgenutzt, die fur allgemeine Funktionen f (bzw. g) gilt. Da f hier wegen der positiven De nitheit von A die Form einer "mehrdimensionalen\ Parabel hat, gilt aber au h, was allgemein
fals h ist:
Ableitung = 0 ) Minimum:

Satz 4.66 Eine Matrix A = (ajk ) 2 K (n;n) heie stark (zeilen{) diagonaldominant, wenn

gilt:

jajj j >

n
X

jajk j 8 j = 1; 2; : : : ; n:

k=1
k=
6 j

(4.18)

Eine stark diagonaldominante hermites he Matrix A = A mit positiven Diagonalelementen


ajj > 0 8 j = 1; 2; : : : ; n ist positiv de nit.
Begrundung: Wegen A = A = (ajk ) ist das Skalarprodukt Q(~x) := hA~x; ~xin fur alle ~x 2 K n
reell, und es gilt jajk j = jakj j. Sei nun ~0 6= ~x 2 K n gegeben. Wir verwenden die Unglei hung
2jxk xj j  jxk j2 + jxj j2 :
Q(~x)

n
n X
X
j =1 k=1

ajk xk xj 

n 
X
ajj
 21
j =1

n
X
k=1
k6=j

n
X
j =1

ajj jxj j2

n
n X
1X
2
2
2 j=1 k jajk j(jxk j + jxj j )
=1

k6=j

jajk j jxj j2 + 21


n
X
k=1

akk jxk j2

n
n X
X
j =1

k=1
k6=j

jakj j jxk j2 :

Wird in der letzten Doppelsumme die Summationsreihenfolge vertaus ht, so resultiert s hlieli h auf
Grund der starken Diagonaldominanz:
Q(~x) 

n 
X
j =1

ajj

also die positive De nitheit.


BSP. (4.32) Die folgende Matrix

n
X
k=1
k6=j

jajk j jxj j2 > 0 8 ~0 6= ~x 2 K n ;

5 1 + i 3i 3
A := 4 1 i
6 2 3i 5 = A
3i 2 + 3i 7
ist stark diagonaldominant und somit positiv de nit, da die Hauptdiagonalelemente positiv sind.

4.9 Die numeris he Losung linearer Glei hungssysteme


mit direkten Verfahren
Wir zeigen hier, wie man den Gauss{Algorithmus zur Losung linearer Glei hungssysteme
A~x = ~b

(LG)

in eine numeris h verwertbare Form bringen kann.

Dazu setzen wir stets voraus, dass das System (LG) fur gegebenes A = (ajk ) 2 K (n;n) und jede
re hte Seite ~b 2 K n genau eine Losung ~x besitzt. Dies ist fur A 2 Inv (K n ) der Fall. Wir zeigen
zuna hst unter geeigneten Zusatzannahmen, dass dur h elementare Umformungen in ho hstens n 1
Eliminationss hritten ohne Zeilenvertaus hungen der U bergang von (LG) auf die Form R~x = ~ mit
einer Re htsdreie ksmatrix R 2 UR (K n ) bewerkstelligt werden kann.
1.Eliminationss hritt (Ausraumen der 1.Spalte): Annahme: a11 6= 0: Dur h die elementaren
Zeilenumformungen vom Typ (B)
a
lj 1 := j 1 ; j = 2; 3; : : : ; n;
(4.19)
a11
a(1)
jk

:= ajk
geht (LG) uber in die neue Form

x1
a11

lj 1 a1k ; b(1)
j := bj
x2
a12
a(1)
22

lj 1b1 ; j; k = 2; 3; : : : ; n;

(4.20)

   xn 1
   a1n b1
(1)
   a(1)
2n b2

0
(LG)(1)
... ... . . . ...
...
(1) (1)
0 a(1)
n2    ann bn
Gema Satz 1.6 haben (LG) und (LG)(1) dieselbe Losungsmenge. In (LG)(1) kann jedo h x1 dur h
die ubrigen Unbekannten x2 ; x3; : : : ; xn ausgedru kt werden:
n

1 b1 X
a1k xk :
(4.21)
x1 =
a11

k=2

Die Unbekannten x2; x3 ; : : : ; xn sind allein dur h das reduzierte (n 1)  (n 1){System im oben
gekennzei hneten Teilfeld bestimmt. In diesem System wird der Eliminationsvorgang wiederholt.
2.Eliminationss hritt (Ausraumen der 2.Spalte): Annahme: a(1)
22 6= 0: Setze
(1)
:= a(1)
(4.22)
j 2 =a22 ; j = 3; 4; : : : ; n;
(1) l a(1) ; b(2) := b(1) l b(1) ; j; k = 3; 4; : : : ; n:
(4.23)
j2 2
j 2 2k
j
j
jk := ajk
A hnli h wie im 1. S hritt erhalt man na h Dur hfuhrung von (4.22) und (4.23) ein zu (LG) aquivalentes System (LG)(2) , aus wel hem die Unbekannte x2 gema
n


X
1
(1)
(4.24)
a(1) x
b
x =
lj 2
a(2)

a(1)
22

k=3

2k

bere hnet werden kann. In konsequenter Fortsetzung dieser Strategie resultiert im

m{ten Eliminationss hritt

(m 1) 6= 0: Setze
(Ausraumen der m{ten Spalte): Annahme: amm

(m 1) =a(m 1) ; j = m + 1; m + 2; : : : ; n;
:= ajm
mm
(m 1) l a(m 1) ; b(m) := b(m 1) l b(m 1) ; j; k = m + 1; : : : ; n:
jm m
jm mk
j
j
jk := ajk
1 S hritten ist die gewuns hte Form R~x = ~ errei ht mit
(0)
a(0)
jk := ajk ; bj := bj ; j; k = 1; 2; : : : ; n;
rjk := a(jkj 1) ; k = j; j + 1; : : : ; n;
j := b(jj 1) ; j = 1; 2; : : : ; n:
ljm
a(m)

Na h n

(4.25)
(4.26)
(4.27)
(4.28)

De nition 4.67 Das hier dargestellte Verfahren heit der Gausss he Algorithmus ohne
Pivotisierung. Die Divisoren a(jjj 1) ; j = 1; 2; : : : ; n, fur die die Bedingung
a(jjj 1) =
6 0

(4.29)

vorausgesetzt wurde, heien Pivotelemente.

Es lassen si h nun sehr einfa he Beziehungen zwis hen den Koezienten ajk ; rjk ; ljk ; bj und j
aufstellen:
Folgerung A. Gegeben sei die Matrix A 2 Inv (K n ). Dann gelten beim Gausss hen Algorith-

mus ohne Pivotisierung die Relationen

ajk = rjk +
ajk =
bj = j +
Begrundung: Fur j  2 und k  j

rjk = a(jkj 1)

j 1
X
m=1

k
X
m=1
j 1
X
m=1

ljm rmk ; k  j  1;

(4.30)

ljm rmk ; j > k  1;

(4.31)

ljm m ; j = 1; 2; : : : ; n:

(4.32)

folgt aus (4.20), (4.23) et . und aus (4.28):


(j 2)
(1)
= ajk lj1a(0)
1k lj 2a2k    lj;j 1aj 1;k
= ajk lj1r1k lj2r2k    lj;j 1rj 1;k ;

oder in anderer S hreibweise:


ajk = rjk +

j 1
X
m=1

ljm rmk ; k  j  2;

und diese Relation liefert au h fur j = 1 das ri htige Resultat. Also gilt (4.30). Fur k  2 und j > k
erhalten wir ganz analog aus (4.19), (4.22) et .:
ljk =

a(jkk 1)
a(kkk 1)

ajk
a(kkk 1)

= r1

kk

ajk

lj 1a(0)
1k
lj 1 r1k

lj 2 a(1)
2k

lj 2 r2k

   lj;k 1a(kk 12);k




   lj;k 1rk 1;k :

Dur h Au osen dieser Beziehung na h ajk resultiert (4.31) zuna hst fur j > k  2. Wegen (4.19) ist
(4.31) aber au h fur k = 1 ri htig. S hlieli h zeigen wir no h (4.32) unter Verwendung von (4.20),
(4.23) et . und von (4.28):
(j 1)
j = b(jj 1) = bj lj 1 b1 lj 2 b(1)
2    lj;j 1bj 1
= bj lj1 1 lj2 2    lj;j 1 j 1
fur alle j  2. Au osen na h bj liefert zuna hst (4.32) fur j  2. Wegen (4.28) gilt dieses Resultat
au h no h fur j = 1.
2
Folgerung B. Wird die Matrix L 2 K (n;n) gema
2
3
1
0
0
 0
0
6 l
1
0
 0
0 77
6 21
6 l
l32
1
 0
0 77
6 31
L := (ljk ) := 6 ..
6 .
6
4 ln 1;1
ln1

..
.
ln 1;2
ln2

..
. . . ...
.
ln 1;3    1
ln3
   ln 1;n

..
.

0
1

7
7
7
5

erklart, so lat si h (4.32) o enbar in der Matrixform

L~ = ~b

(4.33)

s hreiben. Das heit, die neue re hte Seite ~ kann in der Reihenfolge 1 ; 2 ; : : : ; n dur h den
Prozess des Vorwartseinsetzens aus den Glei hungen

j = bj

j 1
X
m=1

ljm m ; j = 1; 2;    ; n

(4.34)

gewonnen werden. (4.33) kann dur h Vorwartseinsetzen gelost werden, analog zu

R~x = ~b
dur h Ru kwartseinsetzen bei bekanntem ~b, da es si h um Links- (oder untere) bzw. Re hts(oder obere) Dreie ksmatrizen mit ni htvers hwimmenden Diagonalelementen handelt.

Es sei K ein beliebiger Korper.


De nition 4.68 Matrizen in der speziellen Form

= R := (rjk ) 2 K (n;n) mit rjk = 0 fur j > k heien Re htsdreie ksmatrizen;


= L := (ljk ) 2 K (n;n) mit ljk = 0 fur j < k heien Linksdreie ksmatrizen.
Wir setzen

UR (K n ) :=
UL (K n ) :=

fR 2 K (n;n) : R ist Re htsdreie ksmatrixg;


fL 2 K (n;n) : L ist Linksdreie ksmatrixg:

Bemerkung 4.69 (a) Verglei ht man das Matrixprodukt (MP) mit (4.30) und (4.31), so
erkennt man die A quivalenz von (4.30) und (4.31) mit der Matrizenglei hung
A = LR;

L 2 UL (K n ); R 2 UR (K n ):

(4.35)

Die Relation (4.35) ist die LR{Zerlegung der Matrix A, die wir hier konstruktiv unter
der Bedingung (4.29) ermittelt haben. Damit kann die Losung ~x von A~x = ~b mit Hilfe des
Gausss hen Algorithmus grundsatzli h in den drei folgenden Teils hritten bere hnet werden.
1. S hritt: A = LR (LR{Zerlegung von A)
2. S hritt: L~ = ~b (Vorwartseinsetzen zur Bere hn. von ~ )
3. S hritt: R~x = ~ (Ru kwartseinsetzen zur Bere hn. von ~x)

(4.36)

(b) Na h dem m{ten Eliminationss hritt (m = 1; 2; : : : ; n 1) hat die m{te Spalte in (LG)(m)
unterhalb der Diagonalen Nulleintrage. Es emp ehlt si h, ni ht diese Nullen einzutragen,
sondern aus Grunden der Platzersparnis die Elemente der Matrix L. Man verfahre also na h
folgender Strategie:
x1 x2    xn 1
x1 x2   
xn 1
a11 a12
a21 a22
a31 a32

   a1n b1
   a2n b2
   a3n b3

an1 an2

   ann bn

...

...

. . . ...

...

;
Gauss{S hritte

r11 r12
l21 r22
l31 l32





r1n
r2n
r3n

ln1 ln2



rnn n

...

...

...

...

1
2
3

...

Kritik: Das Verfahren (4.36) lebt ganz wesentli h von der Bedingung (4.29). Wie wir in
(V) gezeigt haben, wird jedo h selbst fur A 2 Inv (K n ) ni ht immer a(jjj 1) 6= 0 fur alle
j = 1; n : : : ; n zu erwarten sein. In diesem Fall bri ht der soeben bes hriebene Eliminations-

algorithmus zusammen. Wir zeigen jedo h:

Folgerung C. Gegeben sei die Matrix A 2 Inv (K n ). Dann gibt es vor dem m{ten Eliminationss hritt des Gausss hen Algorithmus eine Zeilenvertaus hung derart, dass das Diagonal(m 1) der entstehenden Matrix der folgenden Bedingung genugt:
element amm
(m 1) 6= 0
amm

(4.37)

Begrundung: Angenommen, es ware a11 = 0. Wegen Rang A = n gibt es mindestens einen Zeilenindex
j 2 f1; 2; : : : ; ng mit aj 1 6= 0, d. h. die Zeilenvertaus hung Z1 $ Zj bewirkt (4.37). Den Rest zeigt

2
man dur h vollstandige Induktion.
Zeilen- (oder au h Spalten-)vertaus hungen konnen dur h Multiplikation mit (elementaren) Permutationsmatrizen bes hrieben werden.
De nition 4.70 Eine Matrix Pjk 2 K (n;n) , die dur h Vertaus hung der Zeilen Zj $ Zk aus
der Einheitsmatrix Idn 2 K (n;n) hervorgeht, heie elementare Permutation. Eine Matrix
P 2 K (n;n) heie Permutationsmatrix, wenn sie das Produkt einer endli hen Anzahl von
elementaren Permutationen ist: P = Pp Pp 1    P1 .

Bemerkung 4.71 Pm ist ni ht eindeutig festgelegt, da man in der Regel mehrere Mogli h(m 1) 6= 0 zu nden.
keiten hat, in der m{ten Spalte Elemente ajm

Die Darstellung als Matrizenmultiplikation dient nur der theoretis hen Analyse, ni ht der
algorithmis hen Umsetzung (wurde zu vielen unnotigen Operationen fuhren). Analog kann
der m-te Eliminationss hritt dur h die Multiplikation von links mit einer speziellen Matrix
L(m) dargestellt werden, etwa fur m = 1 dur h
(A(1) ; b(1) ) := L(1) (A(0) ; b(0) );
und

L(1)

a21
a11

B
B
B
:= B
B
B


...
...

an1
a11

0
1
0
...
0

wobei A(0) := A; b(0) := b

(4.38)

  0
0  0 C
C
... ...
... ...
 0

...
0
1

C
C
C
C
A

2 R n;n :

(4.39)

L(1) ist eine Linksdreie ksmatrix und lasst si h darstellen als


T
L(1) = Id l(1) e1 ;

wobei l(1) =
Dann gilt:

a
0; 21 ;    ; an1
a11
a11

T

(4.40)

A(1) e1 = a11 e1 ;

d.h. in der ersten Spalte ist nur a(2)


11 6= 0 und

e1 (A(2) ; b(2) ) = e1 (A(1) ; b(1) );


T

d.h. die erste Zeile bleibt unverandert, wie gewuns ht.


Allgemein lasst si h der m-te Eliminationss hritt (ohne Zeilenvertaus hung) s hreiben als
A(m) = L(m) A(m 1)
mit einer analogen Linksdreie ksmatrix L(m) , wobei
am(m+11);m
0;    ; 0; (m 1) ;    ;
amm
T
(
m
)
(
m
)
m
L
:= E l e
l(m) :=

(m 1) 
anm
(m 1)
amm

Die Eliminationss hritte 1; : : : ; n 1 ergeben also


R := A(n 1) = L(n 1) L(n 2)    L(1) A

bzw. wieder

A = LR

(4.41)

mit

L := (L(1) ) 1 : : : (L(n 1) ) 1 :

Die L(m) sind dabei invertierbar, da ihre Diagnonalelemente ni ht vers hwinden (d.h. Vorwartssubstitution ist dur hfuhrbar bzw. der Eliminationss hritt kann wieder ru kgangig gema ht
werden. L ist Linksdreie ksmatrix, da au h L 1 2 UL(K n ) fur L 2 UL(K n ) und invertierbar
und au h L1 L2 2 UL(K n ) fur Li 2 UL(K n ) (analog fur UR (K n )). Kommen jetzt no h dur h
elementare Permutionen P1 ; : : : ; Pn 1 (eventuell auf = Idn, wenn keine Vertaus hung notig)
hinzu, bewirkt also der Gauss-Algorithmus
R = L(n 1) Pn 1 : : : L(1) P1 A:

Dur h genaue Analyse lasst si h dies umformen zu


R = L^ (n 1) L^ (n 2) : : : L^ (1) P A:
0

Dabei ist

L^ (k) = Pk L(k) Pk1 2 UL (K n )

und Pk die Permutation, die dur h Hintereinanderausfuhrung der Vertaus hungen k + 1; : : : ;
n 1 entsteht. P beinhaltet also alle Vertaus hungen 1; : : : ; n 1: Also
0

mit

P A = LR
P = P
L = (L^ (1) ) 1    (L^ (n 1) ) 1 2 UL (K n ):

(4.42)

Dies kann au h so aufgefasst werden, dass (falls sie bekannt waren) die Zeilenvertaus hungen
zuerst ausgefuhrt werden konnen und dann der Gauss-Algorithmus ohne Pivotisierung. Die
Form von L^ (k) zeigt, dass dur h die obige Spei herstrategie (im unteren Dreie k in A) mit
na hfolgenden Vertaus hungen (au h der Eintrage lij ) na h dem Verfahren die Matrix L gema
(4.42) im unteren Dreie k der Spei hermatrix steht.
Na h (4.42) ist also A~x = ~b aquivalent zu
LR~x = P~b;

was na h der LR{Zerlegung mit Vorwarts- und Ru kwartssubstitution gelost werden kann.
De nition 4.72 Der gema den Formeln (4.19){(4.26) dur hgefuhrte Gauss{Algorithmus
unter Bea htung der Zeilenpermutationen P1 ; P2 ; : : : ; Pp heit Gauss{Algorithmus mit Spaltenpivotisierung.

Vom theoretis hen Standpunkt aus ist nun alles uber den Gauss{Algorithmus gesagt. Wir
haben oben darauf hingewiesen, dass wir in der Pivotwahl no h eine gewisse Freiheit haben,
so dass die konkrete Wahl no h o en bleibt. Fur die Numerik ist aber die zwe kmaige Wahl
der Pivots von ganz ents heidender Bedeutung.
De nition 4.73 (a) Werden im Gauss{Algorithmus die Pivotelemente sukzessive in der Diagonalen gewahlt, so spri ht man von einer Diagonalstrategie. (Vorteil: Keine Zeilenvertau-

s hungen erforderli h. Na hteil: Ni ht jede Matrix gestattet die Anwendung der Diagonalstrategie. Ausserdem besteht die Gefahr fals her Resultate dur h Rundungsfehler.)

(b) Spaltenmaximumstrategie: Es wird vor dem m{ten Eliminationss hritt das betragsgro-

te Element in der m{ten Spalte gesu ht:

Finde p so, dass


(m
max
a
j m jm

1) = a(m 1) :
pm

(4.43)

(Vorteil: Gefahr der Verfals hung dur h Rundungsfehler wird gemindert, jedo h ni ht ganzli h
beseitigt: Na hteil: Zeilenvertaus hungen lassen si h ni ht vermeiden.)
( ) Vollstandige Maximumstrategie: Es wird vor dem m{ten Eliminationss hritt das betragsgrote Element insgesamt gesu ht:

Finde p; q so, dass jmax


m;km


(m
ajk

1) = a(m 1) :
pq

(4.44)

(Vorteil: Verfals hung dur h Rundungsfehler wird auf ein Minimum reduziert. Na hteil: Er-

hebli her Bu hhaltungsaufwand, da sowohl Zeilen als au h Spalten vertaus ht werden mussen.
Bei groen Systemen wird deshalb diese Strategie kaum verwendet.)

Die Diagonalstrategie lat si h bei Systemen mit stark (zeilen{) diagonaldominanter Matrix
sinnvoll anwenden. Es gilt namli h:
Folgerung D. Gegeben sei die stark (zeilen{) diagonaldominante Matrix A 2 K (n;n) . Dann
fuhrt der Gauss{Algorithmus mit der Diagonalstrategie zur Losung von A~x = ~b.
6 0, also zulassiges Pivotelement. Damit ist der 1. EliminationsBegrundung: Gema (4.18) ist a11 =

s hritt zulassig. Zu zeigen hat man, dass si h die Diagonaldominanz auf die reduzierte Matrix (a(1)
jk )
vererbt. Aus (4.19) und (4.20) folgt:
jajk j

und hiermit resultiert:


n
X
k=2
k6=j

ja(1) j
jk



aj 1 a1k


a

11

n
X
k=2
k6=j

n
X
k=1
k6=j

fjajk j +
jajk j

(4:18)
< jajj j
n



ajk



aj 1


a

11

ja1k jg

jaj1j +

jaj1j +



n
aj 1 n X


a

11



aj 1 n


a a11

11

k=2

ja1k j
o

ja1j j

j j ja1j j = jajj j

P (1)
(1)
Wegen ja(1)
22 j > ja2k j  0 ist also a22 zulassiges Pivotelement.

k=3

a a
aj 1 a1k
j

j
ajk j + j 1 1k ;
=
j
a(1)
jk

a11
a11



aj 1 a1j


a

11

 ja(1)
jj j:
2

Bemerkung 4.74 Wir haben hier ni ht A 2 Inv (K n ) vorausgesetzt. Dies ergibt si h von
selbst aus der Diagonaldominanz.
2

Die S hwa he der Spaltenmaximumstrategie besteht darin, dass bei starken Unters hieden
in der Groenordung der Koezienten vers hiedener Zeilen erhebli he Rundungsfehler dur h
Stellenauslos hung auftreten konnen. Die Matrix A ist dann ni ht equilibriert. Eine Equilibrierung wird errei ht dur h

De nition 4.75 (Skalieren des Glei hungssystems A~x =~b)


 1
n
P
Fur j = 1; 2; : : : ; n wird die j {te Zeile mit dem Faktor :=
jajk j multipliziert. Fur
k=1
~
~
~
das so entstehende neue System A~x = b gilt dann
n
X
k=1

ja~jk j = 1; j = 1; 2; : : : ; n;

ja~jk j  1:

Leider geht die Skalierung des Systems A~x = ~b na h jedem Eliminationss hritt des Gauss{Algorithmus wieder verloren. Eine Neuskalierung na h jedem Eliminationss hritt verdoppelt aber den
Gesamtaufwand. Zur Vermeidung eines zu hohen Aufwands bei Si herstellung eines numeris h stabilen Verfahrens wahlt man den folgenden
Ausweg: Man wendet die vollstandige Skalierung nur implizit an, fuhrt sie aber explizit ni ht aus.
Dies ges hieht dur h die
De nition 4.76 (Relative Spaltenmaximumstrategie)

Es wird vor dem m{ten Eliminationss hritt das relativ betragsgrote Element in der m{ten
Spalte gesu ht:
9
n
P
(
m 1)
(
m 1)
=
sj := jajl j; qj := jajm j=sj : >
l=m
(4.45)
;
Finde p so, da max qj = qp: >
j m

I. LR{Zerlegung na h Gauss mit relativer Spaltenmaximumstrategie.


1:
2:
3:
4:
5:
6:
7:
8:
9:
10:
11:
12:
13:
14:
15:
16:
17:
18:
19:
20:
21:

det := 1;
fur k := 1; 2; : : : ; n 1 :
max := 0; pk := 0;
fur j := k; k + 1; : : : ; n :
s := 0;
fur l := k; k + 1; : : : ; n :
s := s + jajl j; (Ende l)
q := jajk j=s;
falls q > max :
max := q; pk := j ; (Ende j )
falls max = 0 : STOP;
falls pk 6= k :
det := det;
fur l := 1; 2; : : : ; n :
h := akl ; akl := apk ;l ; apk ;l := h; (Ende l)
det := det akk ;
fur j := k + 1; k + 2; : : : ; n :
ajk := ajk =akk ;
fur l := k + 1; k + 2; : : : ; n :
ajl := ajl ajk  akl ; (Ende l; j; k)
det := det ann:

(4.46)

Erlauterungen. Die Variable det enthalt na h Abs hluss aller Re hnungen die Determinante von
A, siehe Abs hnitt 4.10. Die Zeilen 2{10 enthalten den Algorithmus der relativen Spaltenmaximumstrategie gema den Formeln 4.45. Der Vektor p~ := (p1 ; p2; : : : ; pn)T enthalt die Information uber
zu bewerkstelligende Zeilenvertaus hungen; pk ist glei h dem Index derjenigen Zeile, wel he vor dem

k-ten Eliminationss hritt mit der k-ten Zeile vertaus ht wird. Fur pk = k erfolgt keine Vertaus hung.

Die erforderli he Vertaus hung wird (inm)den Zeilen 12{15 dur hgefuhrt. Die Zeilen 17{20 enthalten die
Bere hnung der Elemente ljm und ajk gema den Formeln (4.25) und (4.26). Dabei werden die Elemente ljk in der Matrix A unterhalb der Diagonalen an die Stelle der ajk gesetzt. Na h Beendigung
der Zerlegung gilt also
ajk = ljk 8j > k und ajk = rjk 8j  k:
Mit der relativen Spaltenmaximumstrategie haben wir jetzt den Gauss{Algorithmus in eine brau hbare Form gebra ht, die weitestgehend unemp ndli h gegenuber Rundungsfehlerfortp anzung ist.
Gema der Zerlegung (4.42) des gesamten Re hens hemas in drei Teils hritte konnen wir ein Computer{Programm aufbauen, wel hes die drei Re hens hritte:
 LR{Zerlegung,
 Vorwartseinsetzen,
 Ru kwartseinsetzen
in dieser Reihenfolge enthalt.
II. Vorwartseinsetzen zur Bere hnung von ~ .

1:
2:
3:
4:
5:
6:
7:

fur k := 1; 2; : : : ; n
falls pk 6= k :

1:
h := bk ; bk := bpk ; bpk := h; (Ende k)
fur j := 1; 2; : : : ; n :
j := bj ;
fur l := 1; 2; : : : ; j 1 :
j := j ajl  l : (Ende l; j )

(4.47)

Erlauterungen. Vor dem Vorwartseinsetzen sind die in der Matrix A dur hgefuhrten Zeilenvertaus hungen au h im Vektor ~b na hzuvollziehen. Dies wird in den Zeilen 1{3 bewerkstelligt. In den Zeilen
4{7 wird der Vektor ~ bere hnet.
III. Ru kwartseinsetzen zur Bere hnung von ~x.
1:
2:
3:
4:
5:

f
ur

j := n; n 1; : : : ; 1 :
s := j ;
f
ur k := j + 1; j + 2; : : : ; n :
s := s ajk  xk ; (Ende k)
xj := s=ajj : (Ende j )

(4.48)

Erlauterung. In den Zeilen 1{5 wird der Losungsvektor ~x na h den Formeln (4.21) bere hnet.
Spei herplatzminimierung: Da der Vektor ~b na h der Bere hnung von ~ ni ht mehr benotigt wird,
kann in (4.47) die Zahl j sofort na h ihrer Bere hnung auf den Spei herplatz bj gesetzt werden.
Ebenso kann in (4.48) die Zahl xj sofort na h ihrer Bere hnung auf den Spei herplatz j gesetzt
werden. Na h Dur hfuhrung dieser beiden S hritte steht an der Stelle des Vektors ~b der Losungsvektor
~x.

Eine LR{Zerlegung einer Matrix A bzw. P A ist ni ht eindeutig. Sei D eine Diagonalmatrix
mit ni htvers hwindenden Diagonaleintragen, d.h. invertierbar, dann gilt
~
A = LR = (LD)(D 1 R) =: L~ R;

und L~ 2 UL(K n ); R~ 2 UR (K n ): Auf diese Weise konnen die Diagonaleintrage von L und R
"hin- und herges hoben\ werden. Die LR{Zerlegung in (4.35) wurde so dur h die Bedingung
lii = 1; i = 1; : : : ; n;
festgelegt. Will man lii und rii; i = 1; : : : ; n, vorgeben, muss man zu einer LDR{Zerlegung
mit einer Diagonalmatrix D ubergehen.
Satz 4.77 (a) A 2 K (n;n) ni htsingular und A = L~ R~ eine Drei kszerlegung (L~ ni ht notwendig
normiert auf lii = 1; i = 1; : : : ; n). Seien l1 ; : : : ; ln 6= 0; r1 ; : : : ; rn 6= 0 gegeben. Dann existiert
eine Linksdreie ksmatrix L mit (L)ii = li fur alle i, eine Re htsdreie ksmatrix R mit (R)ii = ri

fur alle i und eine Diagonalmatrix D, so dass


A = LDR
(4.49)
(b) Eine Darstellung eines ni htsingularen A 2 K (n;n) in der Form (4.49) bei vorgegebenen
Diagonalen von L und R ist eindeutig.

Ist A 2 K (n;n) positiv de nit, dann kann man die Zerlegung zu


A = LL ;
(4.50)
mit L 2 UL (K n ), einer Cholesky{Zerlegung vereinfa hen. Wir betra hten nur K = R :
Satz 4.78 (a) Sei A 2 K (n;n) ni htsingular, hermites h und besitze eine LR{Zerlegung, dann
existiert eine Linksdreie ksmatrix L mit (L)ii = 1 und eine Diagonalmatrix D mit (D)ii 2 R
fur i = 1;    ; n; so dass
A = LDL
(4.51)
(b) Sei A 2 K (n;n) positiv de nit, dann besitzt A eine Cholesky{Zerlegung mit (L)ii > 0 fur
i = 1;    ; n. Diese ist eindeutig.

Begrundung: (a) Na h Satz 4.77(a) existiert eine Zerlegung A = LDR mit (L)ii = (R)ii = 1, also
LDR = A = A = R D L

und na h Satz 4.77(b) also

L = R und D = D ;

d.h. (D)ii 2 R:
(b) Ohne Beweis benutzen wir: Eine positive de nite Matrix hat eine LR{Zerlegung (im GaussAlogrithmus ist also die Diagonalstrategie anwendbar), also gilt na h (a)
A = LDL
mit L 2 UL(K n ) und einer reellen Diagonalmatrix D. Es ist sogar di := (D)ii > 0, da fur die Wahl
~x := (L ) 1~ei 6= 0 gilt
0 < hA~x; ~xin = hLDL~x; ~xin
= hD(L~x); L~xin = hD~ei ; ~ei in = di
Also kann die Diagonalmatrix D1=2 mit den Diagonaleintragen d1i =2 de niert werden, fur die
D = D1=2 D1=2 und so
A = LD1=2 (LD1=2 ) =: L~ L~ 
mit L 2 UL(K n ); (L~ )ii = (L)ii d1i =2 = d1i =2 > 0.
Die Eindeutigkeit bleibt als U bung.
2
Aus A = LL ergibt si h folgendes Verfahren:

Satz 4.79 (Verfahren von Cholesky)


Gegeben sei die positiv de nite Matrix A 2 K (n;n) . Dann wird die Linksdreie ksmatrix L =
(ljk ) 2 UL(K n ) der Cholesky{Zerlegung A = LL mit ljj > 0 8j = 1; 2; : : : ; n na h den
folgenden Formeln iterativ aus den Elementen ajk der Matrix A bere hnet:

Bere hne l11 := a11 > 0;


f
ur j := 1; 2; : : : ; n :
f
ur k := j + 1; j + 2; : : : ; n :

1. S hritt:
2. S hritt:
3. S hritt:
4. S hritt:

bere hne lkj := ljj1 ajk

5. S hritt:
BSP. (4.33)

bere hne ljj

A := 4

p
l11 = a11 =
lk1 = l111 (a1k
l22 = (a22

4. S hritt:

lk2 = l221 (a2k

Ergebnis:

5
2
1

2
8
3

5.
0) = ap5k ) l21 = p25 ;
2 )1=2 = (8 4 )1=2 = p6 .
l21
5
5

3. S hritt:

5. S hritt:

:= ajj

jP1

m=1

m=1

jljmj2

ljm  lkm ;
o1=2

Fur die folgende Matrix A 2 R(3;3) ist die Cholesky{Zerlegung zu bere hnen:
2

1. S hritt:
2. S hritt:

jP1

1
P

m=1

13
3 5:
7
l31 = p15 :

) l32 = (a23 l21 l31 )=l22 = 617p5 :

l2m lkm )

p
2 )1=2 = p935 .
2 l32
l33 = (a33 l31
6 5

L=

p1

2
6

54

5
2
1

0
6

03
0 75 ;

17 p935

6
Einsetzprobe ergibt korrekt LLT = A.

5
1
6 0
T
L =p 4
5 0
2

2
6
0

13

17

p9356

7
5:

Mit Hilfe der Cholesky{Zerlegung (4.50) kann jetzt die Losung des linearen Glei hungssystems A~x = ~b = LL~x na h der Methode von Cholesky in den folgenden drei S hritten
vorgenommen werden:
1. S hritt: A = LL (Cholesky{Zerlegung von A),
2. S hritt: L~ = ~b (Vorwartseinsetzen zur Bere hn. von ~ ),
3. S hritt: L~x = ~ (Ru kwartseinsetzen zur Bere hn. von ~x).

(4.52)

In der Praxis wird man am hau gsten auf reelle symmetris he Matrizen stossen. Sind diese positiv
de nit, so ist es angezeigt, die Cholesky{Zerlegung dur hzufuhren. Wir geben na hfolgend e ektive
Computer{Algorithmen an, die die drei S hritte (4.52) vollziehen:
I. Cholesky{Zerlegung fur reelle positiv de nite Matrizen

fur m := 1; 2; : : : ; n :
falls amm  0 : STOP;

1:
2:
3:
4:
5:
6:
7:

lmm := amm ;
fur j := m + 1; m + 2; : : : ; n :
ljm := ajm =lmm ;
fur k := m + 1; m + 2; : : : ; j :
ajk := ajk ljm  lkm . (Ende m; j; k)

(4.53)

II.Vorwartseinsetzen zur Bere hnung von ~ .

j := 1; 2; : : : ; n :
s := bj ;
fur k := 1; 2; : : : ; j 1 :
s := s ljk  k ; (Ende k)
j := s=ljj . (Ende j )

1:
2:
3:
4:
5:

fur

(4.54)

III. Ru kwartseinsetzen zur Bere hnung von ~x.

j := n; n 1; : : : ; 1 :
s := j ;
fur k := j + 1; j + 2; : : : ; n :
s := s lkj  xk ; (Ende k)
xj := s=ljj . (Ende j )

1:
2:
3:
4:
5:

fur

(4.55)

Bemerkung 4.80 Spei herplatzreduzierung: Der Wert von ajk wird zuletzt bei der Bere hnung von ljk benotigt. Deshalb kann die Matrix L an der Stelle von A aufgebaut werden.
Dazu genugt es, in (4.53) die Variable l mit a zu identi zieren. Desglei hen sind in (4.54) die
Variable mit b und in (4.55) die Variable x mit identi zierbar. Am S hluss steht also die
Losung ~x an der Stelle des Vektors ~b.
2
BSP. (4.34)

Man erkennt sofort, dass die n  n{Bandmatrix


2

6
6
6
6
6
:= 66
6
6
6
4

5
2
1

2
6
2
1

1
2
7
2

1
2
7

1
2

2
1

7
2
1

2
6
2

1
2
5

7
7
7
7
7
7
7
7
7
7
5

positiv de nit ist. Sie ist namli h stark diagonaldominant, symmetris h und erfullt ajj >
0 8 j = 1; 2; : : : ; n. Also tri t Satz (4.66) zu. Wir losen jetzt das System A~x = ~b fur n = 10
unter Verwendung des Cholesky{Verfahrens (4.79) zu vorgegebener re hter Seite
~b := (4; 8; 15; 20; 25; 30; 35; 40; 25; 40)T 2 R 10 :

Mit dem Algorithmus (4.53) bere hnen wir zuna hst die Linksdreie ksmatrix L der Cholesky{
Zerlegung A = LL :

Linksdreie ksmatrix L der Cholesky{Zerlegung: Dimension n = 10.


2
6
6
6
6
6
6
6
6
6
6
6
6
6
6
4

2:236 067E+00
8:944 271E 01
4:472 135E 01
0:000 000E+00
0:000 000E+00
0:000 000E+00
0:000 000E+00
0:000 000E+00
0:000 000E+00
0:000 000E+00

2:280 350E+00
7:016 464E 01
4:385 290E 01
0:000 000E+00
0:000 000E+00
0:000 000E+00
0:000 000E+00
0:000 000E+00
0:000 000E+00

2:511 511E+00
6:738 202E 01
3:981 665E 01
0:000 000E+00
0:000 000E+00
0:000 000E+00
0:000 000E+00
0:000 000E+00

2:520 646E+00
6:870 092E 01
3:967 236E 01
0:000 000E+00
0:000 000E+00
0:000 000E+00
0:000 000E+00

2:523 783E+00
6:844 673E 01
3:962 305E 01
0:000 000E+00
0:000 000E+00
0:000 000E+00
O

3
7
7
7
7
7
7
7
7:
7
7
7
7
7
7
5

2:524 700E+00
6:847 516E 01 2:524 701E+00
3:960 865E 01 6:847 460E 01 2:524 725E+00
0:000 000E+00 3:960 864E 01 6:847 403E 01 2:318 242E+00
0:000 000E+00 0:000 000E+00 3:960 826E 01 7:457 315E 01 2:070 507E+00
Mit den beiden Algorithmen (4.54) (Vorwartseinsetzen) und (4.55) (Ru kwartseinsetzen) bere hnen wir jetzt den Hilfsvektor ~ dur h Losen der Glei hung L~ = ~b und dana h den Losungsvektor ~x aus LT ~x = ~ :
3
2
3
2
1:000 000E+00
1:788 854E+00
6 2:000 000E+00 7
6 4:209 878E+00 7
7
6
7
6
+00
6 3:000 000E+00 7
7
6 6:830 087E
7
6
7
6
6 4:000 000E+00 7
6 9:027 881E+00 7
7
6
7
6
6 5:000 000E+00 7
6 1:128 572E+01 7
7
7
x=6
~ = 6
6 6:000 000E+00 7 :
6 1:352 363E+01 7 ; ~
7
6
7
6
6 7:000 000E+00 7
6 1:575 971E+01 7
7
6
7
6
6 8:000 000E+00 7
6 1:799 596E+01 7
7
6
7
6
4 9:000 000E+00 5
4 1:340 686E+01 5
1:000 000E+01
2:070 507E+01
Wie sind die gefundenen Verfahren zu bewerten?
Dabei ist zu bea hten:
(1) der Aufwand, der fur den Erhalt einer Losung notig ist;
(2) die Genauigkeit der Losung.
(1) kann in der Anzahl von Multiplikationen (und Additionen) gemessen werden.
Allgemein ist zu bea hten, dass i.a. (auf jeden Fall immer auf einem Computer) nie eine
Re hnung exakt in R dur hgefuhrt wird, sondern in einer endli hen Teilmenge davon, den
Mas hinenzahlen. Au h die algebrais hen Operationen sind ni ht exakt auf den Mas hinenzahlen, da diese Menge ni ht diesbezugli h abges hlossen ist und so zumindest eine Rundung

des Re henergebnisses zu einer Mas hinenzahl notig ist. Dies fuhrt au h bei einem in R exakten Verfahren zu einem fehlerbehafteten Ergebnis. Dies kann so interpretiert werden, dass
statt A~x = ~b
A~y = ~b + ~b
mit einer fehlerbehafteten re hten Seite gelost wird.
Der dabei gema hte Fehler
~x := ~y ~x
hangt sehr vom Verhalten von A ab. Fur n = 2 ist A~x = ~b als S hnitt zweier Geraden
vorstellbar.
x2

6
QQ
QQ
QQ
QQ
QQ




QQ

QQ




QQ - x1




Q


x2

((((


(

((((

(
(

(

(

(
(
((
r

r
r

- x1

Je na h dem Winkel, unter dem si h diese s hneiden, ist der Ein uss der glei hen Storung ~b
stark unters hiedli h. Allgemein fur ein invertierbares A
~x = A 1 ~b

Groen von Vektoren werden dur h Normen gemessen, konkret etwa die Euklidis he Norm
k k. Auf K (n;n) soll eine Norm benutzt werden, die mit der Vektornorm auf K n vertragli h
ist, indem gilt

kA~xk 6 kAkk~xk

(4.56)

Eine mogli he Wahl ist die Frobenius-Norm.

kAk := kAkF : =
fur

n
X
i;j =1

jaij j2)1=2

A = (aij )ij

Es gibt au h eine "bessere\, die Spektral-Norm, die aber die Kenntnis von Eigenwerten (siehe
Abs hnitt 5) brau ht.
Somit gilt
k~xk 6 kA 1 kk~bk; k~bk = kA~xk 6 kAkk~xk
und also fur den relativen Fehler (bei ~x 6= 0)

k~xk 6 kAkkA 1k k~bk


k~xk
k~bk

(4.57)

Der relative Eingangsfehler wird also eventuell dur h


(A) := kAkkA 1 k

(4.58)

die Kondition von A verstarkt. U bli he Re hner und Programmierspra hen (C, C++) haben
eine Darstellungsgenauigkeit von a. 14 Stellen. Das heit aber, dass ein Glei hungssystem mit
(A) > 1014 ni ht zuverlassig gelost werden kann, unabhangig vom Verfahren.
Um so wi htiger ist es, dass das Verfahren ni ht zur Fehlerverstarkung beitragt (i.f. sei K = R ).
Das kann beim Gauss-Algorithmus dur haus der Fall sein. Besser ist in dieser Hinsi ht ein
Transformationsverfahren:
A ! A(1) = Q(1) A ! A(2) = Q(2) A(1)    ! A(n 1) = R;
wobei die transformierenden, die Spalten ausraumenden\ Matrizen Q(i) orthogonal sind, da

"
fur die Kondition in der Spektralnorm
gemessen gilt (siehe Abs hnitt 5)
(A) := (QA)

fur eine orthogonale Matrix Q, d.h. die Kondition des Problems ni ht vers hle htert wird.
Die Matrizen Q(i) konnen als Spiegelungen (Householder-Verfahren) oder Drehungen (GivensVerfahren) konstruiert werden.
Zum Beispiel muss beim Householder-Verfahren im ersten S hritt die erste Spalte Ae1 auf ein
Vielfa hes von e1 ; e1, gespiegelt werden. Dies wird dur h
Q(1) = 2~v
~v

Idn

(4.59)

mit
~v : = 2 1=2 (~a1 + sign(a11 ) e1 )= 1=2 ;
: = k~a1 k := 2 + ka11 k

realisiert.
Ein Ausglei hsproblem uber die Normalglei hungen zu losen (4.15) ist vom Standpunkt der
Kondition ni ht zu empfehlen, da in der Spektralnorm
k(A A) = k(A)2

gilt, d.h. die doppelte Anzahl von Stellen dur h die Fehlerfortp anzung verloren geht. Die
obigen orthogonalen Transformationen konnen aber au h auf eine ni htquadratis he Matrix
angewendet werden. Es gilt
Satz 4.81 Sei A 2 R (m;n) fur beliebige m; n 2 N , dann existiert ein orthogonales Q 2 R (m;n)
und eine Re htsdreie ksmatrix R 2 R (m;n) , d.h.

(Rij ) = 0 fur i = 1;    ; m; j = 1;    ; n; i > j


mit
die sogenannte QR{Zerlegung.

A = QR

(4.60)

Begrundung: Sukzessive dur h z.B. Householder-Transformationen.

Damit kann aber au h das Ausglei hsproblem behandelt werden. Wir betra hten nur den typis hen
Fall m > n und Rang A = n. Dann ist AA invertierbar und das Ausglei hsproblem eindeutig losbar.
Es sei die QR{Zerlegung
A = QR
!
~
bere hnet mit R = R0 und R~ 2 R(n;n) , dann hat au h R~ Rang n, d.h. ist invertierbar.
Fur den beim Ausglei hsproblem zu minimierenden Defekt gilt (da QT orthogonal)
kA~x ~bk2 = kQT (A~x ~b)k2
= kR~x QT~bk2
(4.61)
T
2
T
2
~
~
~
= kR~x (Q b)1 k + k(Q b)2 k
Dabei ist ein Vektor y 2 Rm zerlegt worden in y(1) 2 Rn , die ersten n Komponenten, und den Rest
y(2) 2 Rm n .
In (4.61) kann nur der erste Summand dur h die Wahl von ~x beein usst werden, und zwar optional
dur h Losen von
~ x = (QT~b)1
R~
(dur h Ru kwartssubstitution). Dies ist dann die eindeutige Losung des Ausglei hsproblems, fur die
dann der Defekt
kA~x bk = k(QT ~b)2 k
vorliegt.
2

4.10 Determinanten und Anwendungen


In diesem Abs hnitt ist K ein beliebiger Korper. Es bezei hnet 1 das neutrale Element der
Multiplikation.
De nition 4.82 Mit det : K (n;n) ! K sei diejenige Abbildung bezei hnet, die jeder quadratis hen Matrix A 2 K (n;n) ein Element det A 2 K (spri h: Determinante von A) gema
folgender Vors hrift zuordnet. Es werde induktiv de niert:

n=1:
n=2:
n3:

det A = det(a) := a;


20

det A = det a db := ad b = 4
det A :=

n
X
j =1

( 1)j+1aj1 det Aj1;

&
%

b = A21
d = A11

13
A5 ;

(4.62)

worin Aj 1 2 K (n 1;n 1) diejenige Strei hungsmatrix von A 2 K (n;n) ist, die dur h Strei hung
der j {ten Zeile und der 1.Spalte entstanden ist.
Allgemein ist die Strei hungsmatrix Ajk 2 K (n 1;n 1) die Matrix, die aus A dur h Weglassen

der j-ten Zeile und k-ten Spalte hervorgeht.

Zum Beispiel gelten fur K

:= C :


4
i
5
2
i
det(2 5i) = 2 5i; det 2 + 5i 6 = 24i (5 2i)(2 + 5i) = 20 45i:

Merke: Determinanten fur allgemeine ni htquadratis he Matrizen A 2 K (m;n) ; n 6=


m; sind ni ht erklart!
Im konkreten Fall einer gegebenen Matrix A = (ajk ) 2 K (n;n) s hreibt man au h:

det A =
2


a
11
a
21
..
.

an1
3






... ;

ann

a12
a22

   a1n
   a2n

an2



...

...

Aj 1 =

6
6
6
6
6
4

a12

...

6
6
6
6
6
4

aj 2

...

an2



a13

...

a1n

...

...

aj 3

...

ajn

...

...

{z 

an3

ann

=:Bj

7
7
7
7
7
5

2
2 4 3
4

(3
;
3)

4
5
2i 0 5 2 C
zum Beispiel:
A :=
) det A = 2i 0
1
6 14i
6 14i 4
Bemerkung 4.83 (a) In jeder Strei hungsmatrix Aj 1 von A = (ajk ) 2 K (n;n)
ment aj2 aus der 2Matrix A:2
3

3
5 :
1
4

fehlt das Ele-

j {te Zeile gestri hen!

Fur einen festen Index j fuhren wir die Matrix Bj 2 K (n 1;n 2) ; 1  j  n, wie oben skizziert
ein. Es bezei hne Bjk 2 K (n 2;n 2) die aus Bj entstehende Strei hungsmatrix, wenn in A neben
der j {ten Zeile au h no h die k{te Zeile gestri hen wird. Mit anderen Worten, Bjk ist aus A
dur h Strei hung der j {ten und der k{ten Zeile sowie der 1. und der 2. Spalte entstanden. Es
gilt ganz o ensi htli h Bjk = Bkj ; j 6= k sowie Bjj = Bj . Setzen wir hier vereinbarungsgema
det Bjj := 0, und wenden wir die De nitionsvors hrift (4.62) auf det Aj1 an, so erhalten wir:
det Aj1 =

n
X
k=1

( 1)k+1ak2 sign (j k) det Bjk 8 j = 1; 2; : : : ; n; det Bjj := 0:

(4.63)

Der Vorzei henwe hsel bei j = k kommt deshalb zustande, weil die Matrizen Bj;j 1 und
Bj;j +1 in Aj 1 aufeinanderfolgende Strei hungsmatrizen sind, wahrend der Faktor ( 1)k+1 in
(4.63) einen doppelten Vorzei henwe hsel zahlt.
(b) Fur die praktis he Bere hnung von det A na h der Vors hrift (4.62) mussen alle Determinanten det Aj1 auf 2  2{Determinanten zuru kgefuhrt werden, die dann einfa h bere hnet
werden konnen.
( ) Fur n = 3 bere hnen wir na h der Vors hrift (4.62):
2





a1 b1 1
a2 b2 2
a3 b3 3

= a1 bb2 2
3 3

a2

b1 1 + a
b3 3 3

b1 1
b2 2

= a1(b2 3 b3 2 ) a2 (b1 3 b3 1) + a3(b1 2 b2 1 ):

Merke: In K (3;3) gilt die Merkregel von Sarrus:











j a1 b1
& %
& %
& %
a1 b1 1
X
det 4 a2 b2 2 5 = a2 b2 2 j a2 b2 = &
% %
& %
& &
a3 b3 3
a3 b3 3 j a3 b3
2

a1

b1

%:

Wir verwenden die Regel von Sarrus zur Bere hnung der folgenden Determinante:


4 3 j 2
4

2


2
4
3
&
&
%
&
%
%


det A = 2i 0 5 = 2i 0 5 j 2i 0

6 14i 41 % %
& %
& &
1
6
14i 4 j 6 14i
= 0 120 + 84 0 140i + 2i = (36 + 138i):
Bere hnet man hingegen det A na h der Vors hrift (4.62), so hat man:
det A = 2 A11 + 2i A21 + 6 A31 = 2  ( 70i) + 2i  (1 42i) + 6  ( 20) = (36 + 138i):
BSP. (4.35)

Fur n > 3 gibt es keine der Regel von Sarrus entspre hende Bere hnungsvors hrift. Notigenfalls muss in (4.62) die Bere hnung der Determinanten det Aj1 auf die Bere hnung von
3  3{Determinanten zuru kgefuhrt werden, die dann unter Verwendung der Regel von Sarrus ausgewertet werden konnen. Diese Vorgehensweise ist sehr aufwendig; wir u
berlegen uns
einige S hritte zu ihrer Vereinfa hung. Zu diesem Zwe k geben wir die folgende
Interpretation von det : K (n;n) ! K : Die Determinante det ist eine Funktion der
Spaltenvektoren der Matrix A = (~a1;~a2 ; : : : ;~an):

det : K| n  K n {z
     K n} ! K mit det(~a1 ;~a2; : : : ;~an) 2 K ; ~aj 2 K n :
n{mal
Satz 4.84 Dur h Vertaus hung von zwei bena hbarten Spalten andert si h das Vorzei hen
von det A, ni ht aber j det Aj:

det(~a1; : : : ;~aj ;~aj+1; : : : ;~an) = det(~a1 ; : : : ;~aj+1;~aj ; : : : ;~an):


Begrundung: Fur n = 2 kann die Behauptung direkt dur h Ausre hnen bestatigt werden. Fur n  3
unters heiden wir zwei Falle gema den Vertaus hungen S1 $ S2 und Sj $ Sj+1; j 6= 1.
(a) Dur h die Vertaus hung S1 $ S2 werde die Matrix A in die Matrix A~ abgebildet. Vor der

Vertaus hung haben wir gema (4.62):


n
n X
n
X
X
( 1)j+k aj1ak2 sign(j
det A = ( 1)j+1 aj1 det Aj1 (4=:63)
j =1 k=1

j =1

Na h der Vertaus hung gilt hingegen:


n
n X
n
X
X
( 1)j+k aj2ak1 sign(j
( 1)j+1aj2 det A~j1 (4=:63)
det A~ =
j $k

j =1
n
n X
X
j =1 k=1

j =1 k=1

Bkj = det A:
( 1)j+k aj1ak2 |sign({zk j}) det |{z}

= sign (j k)

=Bjk

k)det Bjk :
k)det Bjk

(b) Dur h die Vertaus hung Sj $ Sj+1 werde die Matrix A in die Matrix A~ abgebildet. Zum Beweis
von det A = det A~ fuhren wir vollstandige Induktion na h der Raumdimension n dur h.
 Verankerung: Fur n = 3 ist nur no h der Fall S2 $ S3 zu kontrollieren. Diesen bestatigt man
aber lei ht dur h Na hre hnen mittels der Regel von Sarrus.
 Vererbung: Gelte nun die Behauptung bereits fur n 1  3, und sei A 2 K (n;n) :
n
n
 X

X
= ( 1)j+1 aj1( det Aj1) = det A:
det A~ = ( 1)j+1aj1 det A~j1
|{z}

j =1

2K (n

1;n

1)

j =1

Mit diesem Ergebnis erhalt man sofort einige weitere Bere hnungsmogli hkeiten fur die Determinante det A.
Satz 4.85 (Entwi klungssatz von Lapla e)
Fur die Determinante einer Matrix A = (ajk ) 2 K (n;n) gilt die folgende Entwi klung na h der
k{ten Spalte:

det A =

n
X
j =1

( 1)j+k ajk det Ajk 8 k = 1; 2; : : : ; n:

(4.64)

Begrundung: Bringt man in der Matrix A = (~a1 ;~a2 ; : : : ;~an ) den Spaltenvektor ~ak vor den Spaltenvektor ~a1:
~
A = (~a1 ; : : : ;~ak 1 ;~ak ;~ak+1 ; : : : ;~an ) ! (~ak ;~a1 ; : : : ;~ak 1 ;~ak+1 ; : : : ;~an ) =: A;

so sind dazu genau k 1 bena hbarte Spaltenvertaus hungen erforderli h. Also gilt gema Satz 4.84:
n
X
det A = ( 1)k 1 det A~ = ( 1)j+1+k 1ajk det A~j1 :
|{z}

j =1

=Ajk

In der folgenden Determinante wird na h der 3. Spalte entwi kelt. Da diese nur ein
einziges von Null vers hiedenes Element enthalt, besteht die Summe (4.64) aus nur einem Summanden:

k=3
1 1 4 j 1 1

1
1
0
4
& %
& %
& %
:
3+3 2 3 3 j 2 3
2
3
0
3
=
2(
1)

:
% %
& %
& &
3 4 2 2 j =3

4 1 1 j 4 1
:
4
1
0
1
= 2(3 + 12 + 8 48 3 2) = 60:
BSP. (4.36)

Merke: Das Vorzei hen ( 1)j +k vor dem Element ajk im Entwi klungssatz (4.64)
entnimmt man dem folgenden Vorzei henparkett:












+   

  
+
+
+   

j
+
k
det ( 1) =
+
+
   :
+
+
+   
+

... ... ... ... ... . . .

Mit dem Lapla e{Entwi klungssatz kann jetzt die Determinante der adjungierten Matrix
lei ht bere hnet werden:

Satz 4.86 Fur jede Matrix A = (ajk ) 2 K (n;n) gelten:

det A = det A = det A; det AT = det A;


det A =

n
X
k=1

(4.65)

( 1)j+k ajk det Ajk 8 j = 1; 2; : : : ; n:

(4.66)

(Entwi klung na h der j {ten Zeile.)

Da die Aussage det A = det A sofort aus den Regeln der Konjugation komplexer
Zahlen folgt, brau hen wir wegen A = A T nur die Glei hung det AT = det A zu zeigen. Es gilt
AT = (akj ), das heit, das Element ajk in der j {ten Zeile und der k{ten Spalte wandert dur h
Transposition in die k{te Zeile und die j {te Spalte. Dies hat fur die Strei hungsmatrizen die Relation
(AT )jk = (Akj )T zur Folge. Zum Beweis von (4.65) fuhren wir nun vollstandige Induktion na h der
Raumdimension n dur h.
 Verankerung: Fur n = 2 zeigt man det AT = det A direkt dur h Ausre hnen. Gelte dies nun
bereits fur n 1  2.
Begrundungen:

Vererbung:

n  det AT

(4:64)

n X
n
X

( 1)j+k akj

k=1 j =1
n
n X
X
j =1

k=1

det(AT )jk
| {z }

=det(Akj )T =det Akj



1)j+k akj det Akj (4=:64) n  det A:

Na h Division dur h n hat man die Behauptung (4.65). Zum Beweis von (4.66) verwenden wir (4.65):
det A = det AT =

n
X

n
X

j =1

j =1

( 1)j+k akj det(AT )jk =

( 1)j+k akj |det({z


Ajk )T :
}

Vertaus ht man hier die Indizes j und k, so hat man (4.66).

=det Akj

BSP. (4.37)

3
3
1
i

:
7
3
6

6 1 0 0 0 7
7
6
= 6 :
det A = ( 1) 2i
7;
1
2i
1
1 5
4
4
:
2
4
0
1
2
i 1 1 2 3

:
7
6
3
7
0
2
i
4
6 3

T
7;
= 66
det A = ( 1) 1
:
7
1 0
1
0 5
i
4
:
i
0
1
1 3
2
 i 1 1 2

:
7
3
6
7
3
0
2
i
4

6

7
6
:
det A = ( 1) 1
= 6
7;
1
0
1
0 5
i
4
:
i
0
1
1
2

AT

A

1 i
1 1 = 7 + 2i;
0 1
2i 4
1 0 = 7 + 2i;
1 1
2i 4
1 0 = 7 2i:
1 1

Wir untersu hen jetzt die Wirkung von beliebigen Spalten{ und Zeilenvertaus hungen in det A.

Satz 4.87 Gegeben sei die Matrix A = (~a1 ;~a2 ; : : : ;~an ) 2 K (n;n) . Dann gilt:

(D1)

det(: : : ;~aj ; : : : ;~ak ; : : :) = det(: : : ;~ak ; : : : ;~aj ; : : :):


Das heit, jede Spaltenvertaus hung verursa ht einen Vorzei henwe hsel.

(D2)

det(: : : ; ~aj ; : : :) =  det(: : : ;~aj ; : : :) 8  2 K :

(D3)

det(: : : ;~aj ; : : : ;~ak ; : : :) = det(: : : ;~aj ; : : : ;~ak + ~aj ; : : :) 8  2 K ; k 6= j:


Das heit, der Wert der Determinante andert si h ni ht, wenn man zu einer Spalte das
Vielfa he einer anderen (davon vers hiedenen) Spalte addiert.

Die Aussagen (D1), (D2), (D3) bleiben au h fur entspre hende Zeilenoperationen in A ri htig.

Begrundungen: (a) Wir nehmen die folgenden bena hbarten Spaltenvertaus hungen vor:

~
A = ( ~a1 ; : : : ;~aj ; : : : ;~ak ; : : :) ! (~ak ;~a1 ; : : : ;~aj ; : : : ;~ak 1 ; : : :) ! (~ak ;~a1 ; : : : ;~aj 1 ; : : : ;~aj ; : : :) =: A:

"

1
Vertaus h

k j

1
Vertaus h

"

1
Vertaus h

"

Insgesamt haben wir (k 1) + (k j 1) + (j 1) = 2k 3 bena hbarte Spaltenvertaus hungen


dur hgefuhrt. Aus Satz (4.84) resultiert deshalb det A = ( 1)2k 3 det A~ = det A~, und somit (D1).
(b) Die Behauptung (D2) folgt sofort aus (4.64). Ebenso ist (D3) eine Folge von (4.64), namli h:
n
X
det(: : : ;~aj ; : : : ;~ak + ~aj ; : : :) = ( 1)l+k (alk +  alj )det Alk
l=1
~
= det A +  det(: : : ;~aj ; : : : ; |{z}
~aj
; : : :) =: det A +  det A:
k{te Stelle
Der letzte Summand det A~ vers hwindet wegen (D1). Denn dur h Vertaus hen der j {ten und der
k{ten Spalte hat si h die Matrix A~ ni ht verandert, wohl aber das Vorzei hen ihrer Determinante.
Deshalb muss det A~ = 0 gelten.
( ) Zeilenoperationen vom Typ (D1){(D3) in der Matrix A bewirken dasselbe wie Spaltenoperationen vom selben Typ (D1){(D3) in der transponierten Matrix AT . Wegen det A = det AT ist
somit alles gezeigt.
2
Bemerkung 4.88 Im Gegensatz zu (D3) gilt

det(: : : ;~aj ; : : : ; ~ak + ~aj ; : : :) =  det(: : : ;~aj ; : : : ;~ak ; : : :) 8  2 K ; k 6= j:


Weitere Re henregeln fur Determinanten listen wir in dem folgenden Satz auf.
Satz 4.89 Es sei stets A = (~a1 ;~a2 ; : : : ;~an ) 2 K (n;n) vorausgesetzt.

(D4)
(D5)

det(~a1 ; : : : ;~aj ; : : : ;~aj ; : : : ;~an) = 0:


Das heit, sind zwei Spalten (oder Zeilen) in A glei h, so gilt stets det A = 0.
det(: : : ; ~0; : : : ; ) = 0:

det( A) = n det A 8  2 K :

(D6)
(D7)

det(~a1; : : : ;~aj + ~b; : : : ;~an) = det A + det(~a1; : : : ; ~b; : : : ;~an) 8 ~b 2 K n :


Aber, det(A + B ) 6= det A + det B fur allgemeine Matrizen B 2 K (n;n) .
2
6

det 664

(D8)

1
O

  
2  
... 

n

7
7
7
5

= det 664

  

6
det 64 00
0

(D9)

B
B

O
C

det 4  

(D10)

 

1

7
 2
7
7 = 1  2    n ; det Idn = 1:
.
.
5
.
 
   n

3
7
7
5

 0 0 0

6
= det 64 

 
5 = det 4 B  
O

3
7
7
5

=   det B:

3
5

= det B  det C:

Begrundungen: Die Aussage (D4) wurde s hon im Beweis von Satz (4.87) gezeigt. Die Eigens haft
(D5) folgt aus (D2) mit  = 0. Die Eigens haft (D6) folgt dur h n{fa he Anwendung von (D2). Die
Aussage (D7) folgt aus dem Lapla e{Entwi klungssatz (4.64). Wir zeigen (D8):
















n

2 
  
 

0 2   (4:62) 0 3  
...
. . .  = 1 ...
... 

1

n









n

  
0

 
(4:62)
= 1  2 .. 4 . . .

.
3

0
=    =  1  2     n :

Verwendet man den Lapla e{Entwi klungssatz (4.66) fur die 1.Zeile, so resultiert ein analoges Ergebnis fur Linksdreie ksmatrizen. S hlieli h ergeben si h (D9) und (D10) aus (D8) und den Entwi klungssatzen von Lapla e.
2
Zusammenfassung: Die Bere hnung groer Determinanten wird vereinfa ht, indem man die Matrix A 2 K (n;n) mit Hilfe der Spaltenumformungen (D1)S (unter
Merken des Vorzei henwe hsels) und (D3)S (und/oder dur h entspre hende Zeilenumformungen (D1)Z , (D3)Z ) auf eine der Formen (D4), (D5), (D8) bringt, zum
Beispiel:
2

det A

Zeilenop: (D1)Z ; (D3)Z

6
det 66
4

1
O

  
2  
... 

n

3
7
7
7
5

= 1  2     n :

BSP. (4.38)

2
3
5
4
2
3
5
4

A$
S4 S1 S2 ! S4
S3 2S1 ! S3

BSP. (4.39)

0
1
A$ 0
2
0
Es gilt nun:

3
2
4
5
3
2
4
5

4
5
3
2
0
1
7
6

5
4
2
3
0
1
7 ! det A = 0 wegen
6

Wir bere hnen det A:



0 2 0 0
B :=
3 7 18 7 Z1 $ Z4
! ( 1)
0 5 0 3
2 8 4 2
0 1 1 8

2
1
0
0
0

2
3
0
0
0

8
7
5
2
1

4
18
0
0
1

S 3 = S4 :

2
7
3
0 =: C:
8





5
0
3

0 3
2
2


det B = 1 3 = 8; det C = 2 0 0 = 2 1 8 = 6;
1 1 8
und somit det A = det B  det C = 48.
BSP. (4.40) In der folgenden Determinante det A nehmen wir zuerst die Zeilenumformungen
Zj aZ5 ! Zj , j = 1; 2; 3; 4; vor:




a b d 1
0 b a2
ab d a 1 ad



a b 1 d
0 b a2
ab 1 a d(1 a)



2
det A = a b 1 d ! 0 b a 1 ab (1 a) d(1 a) :
a 1 b d
0 1 a2 b(1 a) (1 a) d(1 a)




1 a b d
1

a
b

d
Wir entwi keln na h der ersten Spalte und nehmen in der resultierenden Determinante die Zeilenumformungen Zj Z2 ! Zj , j = 3; 4 vor. Dana h wird die Zeilenumformung Z2 Z1 ! Z2
dur hgefuhrt:




b a2 ab d a 1 ad
b a2 ab d a 1 ad



b a2 ab 1 a d(1 a)

0
0 1 d d 1 :

!


0 1 1
0
0 1 1 0


1 b


b 1
0
1 b b 1 0
Wir fuhren in der letzten Determinante die Spaltenumformungen S3 + S4 + S2 ! S3 dur h und
entwi keln die resultierende Determinante na h der 2.Zeile:


b a2 ab (d + )(1 a) + 1 ab 1 ad



0
0
0
d 1


0 1
0
0

1 b
b
b 1
0



= (d 1)

b a2 ab
0 1
1 b b

(d + )(1

a) + 1 ab

= (d 1)(1 )(b 1)[b a2 + (d + )(1 a) + 1


= (a 1)(b 1)( 1)(d 1)(1 + a + b + + d):

ab

Anwendungen von Determinanten; Volumina

De nition 4.90 Es seien n linear unabhangige Vektoren ~a1 ;~a2 ; : : : ;~an 2 R n gegeben. Dann
heie die Menge

PF (~a1 ;~a2; : : : ;~an) := f~x 2 R n : ~x =

n
X
k=1

k~ak mit 0  k  1 8 1  k  ng

das von den Kantenvektoren ~a1 ;~a2 ; : : : ;~an aufgespannte n{Parallel a h (au h Spat oder
n{Parallelotop genannt).

BSP. (4.41)

Ist ~e1; ~e2 ; : : : ; ~en 2 Rn die Standardbasis des Rn , so liegt mit


Wn := PF(~e1 ; ~e2 ; : : : ; ~en )

der n{dimensionale Wurfel vor.


ez

W2

W3

ey

W1

ey

E
0
0

ex

ex
3

Ein{ und zweidimensionaler Wurfel

Dreidimensionaler Wurfel

Es ist klar, dass det( Idn) = det(~e1 ; ~e2; : : : ; ~en) = 1 das Volumen des Wurfels Wn angibt.
Allgemeiner wird man an einen Volumenbegri fur das von den Kantenvektoren ~a1 ;~a2; : : : ;~an
aufgespannte n{Parallel a h folgende Minimalforderungen stellen:
(V1) Additivitat:
vol PF (~a1 ; : : : ; ~aj ; : : : ;~an) = jj vol PF (~a1 ; : : : ;~aj ; : : : ;~an) 8 j = 1; 2; : : : ; n; 8  2 R :
(V2) Invarianz gegenuber S herung:
vol PF (~a1; : : : ;~ak ; : : : ;~an) = vol PF (~a1 ; : : : ;~ak + ~aj ; : : : ;~an) 8 j 6= k; 8  2 R :
(V3) Normierung: vol Wn = 1.

a1
a1
vol PF

vol PF(a1,a2)

a2

a2

a2

a2 + a

Additivitat des Volumens

Invarianz gegenuber S herung

O ensi htli h werden die Eigens haften (V1), (V2), (V3) wegen (D2), (D3), (D8) von

j det(~a1;~a2 ; : : : ;~an)j
erfullt. Dies ma ht die folgende De nition sinnvoll.
De nition 4.91 Es seien n linear unabhangige Vektoren ~a1 ;~a2 ; : : : ;~an 2 R n gegeben. Dann

heie

VPF := det(~a1 ;~a2 ; : : : ;~an )

orientiertes (n{dimensionales) Volumen des von den Kantenvektoren ~a1 ;~a2 ; : : : ;~an aufgespannten n{Parallel a hs. Hingegen heie

jVPF j = j det(~a1 ;~a2; : : : ;~an)j


ni htorientiertes Volumen des n{Parallel a hs.
BSP. (4.42) Fla heninhalt eines Parallelogramms. Gegeben seien die linear unabhangigen
Vektoren ~a1 ;~a2 2 R2 . Dann entnimmt man der folgenden Skizze elementargeometris h den Fla heninhalt jFP j = k~hkk~a1 k mit ~h := ~a2 P~a2, wobei die ?{Projektion P~a2 von ~a2 auf die Ri htung ~a1
ja dur h P~a2 = ~a1 h~a1 ;~a2 i=k~a1 k2 bestimmt ist. Folgli h gilt

jFP j =

a2



~a2

k~a1 k

~a1 h~a1 ;~a2 i


k~a1 k =: kp~k:

a2
h
|FP|
a3

Pa2

a1

Fla heninhalt eines Parallelogramms

a1

3{Parallelotop, Prisma und Tetraeder

Wir zeigen jetzt, dass der oben bestimmte Fla heninhalt jFP j au h dur h die Determinante
j det(~a1 ;~a2 )j ausgedru kt werden kann. Dazu re hnen wir in Komponenten ~a1 := (a; b)T ; ~a2 := ( ; d)T :
FP2 = hp~; p~i = k~a1 k2 k~a2 k2 h~a1 ;~a2 i2 = (a2 + b2 )( 2 + d2 ) (a + bd)2 = (ad b )2 = [det(~a1 ;~a2 )2 :
Fla heninhalt des von
~a1 ;~a2 2 R2 aufgespannten
Parallelogramms
Dreie ks
jFP j = j det(~a1 ;~a2 )j jFD j = 21 j det(~a1 ;~a2 )j
BSP. (4.43)

3{Parallelotop, Prisma, Tetraeder.


Es seien drei linear unabhangige Vektoren ~a1 ;~a2 ;~a3 2 R3
diese Vektoren in R3 ein 3{Parallelotop, ein Prisma und

gegeben. Gema obiger Skizze spannen


einen Tetraeder auf. Die zugeordneten

Volumina sind in der folgenden Tabelle angegeben:


Volumina des von
~a1 ;~a2 ;~a3 2 R3 aufgespannten
3{Parallelotops
Prismas
Tetraeders
jVPF j = j det(~a1 ;~a2 ;~a3)j jVP r j = 21 j det(~a1 ;~a2 ;~a3 )j jVT j = 61 j det(~a1 ;~a2 ;~a3 )j
BSP. (4.44)

Orientierung der Vektorraume Rn .

De nition 4.92 Zwei Basen ~a1 ;~a2 ; : : : ;~an 2


genau dann, wenn gilt

Rn

und ~b1 ; ~b2 ; : : : ; ~bn

Rn

heien glei horientiert

det(~a1 ;~a2 ; : : : ;~an )  det(~b1 ; ~b2 ; : : : ; ~bn ) > 0:

Es gibt genau zwei Klassen glei horientierter Basen. Gehort namli h die Basis
zu der einen Klasse, so gehort jede der Basen ~a1; : : : ; ~aj ; : : : ;~an; j = 1; 2; : : : ; n,
zur anderen Klasse. Jede dieser Klassen heie eine Orientierung O von Rn , und das Paar (Rn ; O)
heie orientierter Vektorraum Rn .
2

Bemerkung 4.93

~a1 ; : : : ;~aj ; : : : ;~an

De nition 4.94 Eine Basis ~a1 ;~a2 ; : : : ;~an 2 Rn des orientierten Vektorraumes (Rn ; O) heie positiv orientiert oder Re htssystem, wenn gilt:

det(~a1 ;~a2 ; : : : ;~an ) > 0:


Andernfalls heie die Basis negativ orientiert oder Linkssystem.
Zum Beispiel ist die Standardbasis ~e1 ; ~e2 ; : : : ; ~en

des Rn ein Re htssystem, denn es gilt ja


det(~e1 ; ~e2 ; : : : ; ~en) = det( Idn ) = 1 > 0:
Man nennt die Orientierung der Standardbasis au h die Standardorientierung des Rn . (In R3 pruft
man mit Hilfe der Re hte{Hand{Regel in einfa her Weise na h, ob ein Re htssystem vorliegt.)

Weitere Eigens haften der Abbildung det : K n  K n    K n ! K listen wir in dem folgenden
Satz auf:

Satz 4.95 Fur eine Matrix A = (~a1 ;~a2 ; : : : ;~an ) 2 K (n;n) gelten folgende Aussagen:

(a) Das Vektorsystem ~a1;~a2 ; : : : ;~an ist LA , det(~a1 ;~a2; : : : ;~an) = 0.


(b) Das Vektorsystem ~a1;~a2 ; : : : ;~an ist LU , det(~a1;~a2; : : : ;~an) 6= 0.
( ) det A 6= 0 , Rang A = n , A 2 Inv (K n ):

Begrundungen: (a) Das Vektorsystem ~a1 ;~a2 ; : : : ;~an


n
mit ~aj = P k ~ak . Aus (D7) folgern wir deshalb:
k=1
k6=j

det(~a1 ;~a2 ; : : : ;~an ) =

n
X
k=1
k6=j

k

sei LA. Dann gibt es einen Index j 2 f1; : : : ; ng

det(~a1 ; : : : ;

~a ; : : : ;~an )
j te Stelle
k
|{z}

(D4)

= 0;

da der Vektor ~ak zweimal als Spaltenvektor auftritt. Also haben wir die Implikation ")" gezeigt.
Zum Beweis der Implikation "(" sei nun det(~a1;~a2 ; : : : ;~an) = 0 angenommen. Wir konnen dur h
die Zeilenumformungen (D1)Z und (D3)Z die Matrix AT := (~a1 ;~a2 ; : : : ;~an)T auf obere Dreie ksform
transformieren:
2

AT

~a1T
~a2T

= 664 ..
.

~anT

7
7 Zeilenop:
7
5

(D1)Z ; (D3)Z 6
6

6
4

1
O

  
2  
... 

n

3
7
7
7
5

=: R:

Es folgt det A = 0 = det AT =  det R = 1  2    n: Das heit, mindestens eine der Zahlen
1 ; 2 ; : : : ; n muss vers hwinden. Die Matrix R liegt in der Sta elform vom Typ (II) vor, und somit
ist das Vektorsystem ~a1;~a2 ; : : : ;~an LA.
(b) Diese Aussage folgt direkt aus (a), und die Aussage ( ) folgt aus (b), da die Spaltenvektoren
~a1 ;~a2 ; : : : ;~an der Matrix A genau dann LU sind, wenn Rang A = n gilt.
2

Lineare Glei hungssysteme: Die

Cramer

s he Regel

Fur eine Koezientenmatrix A = (~a1 ;~a2; : : : ;~an) 2 K (n;n) ist das lineare Glei hungssystem
A~x = ~b genau dann fur jede re hte Seite ~b 2 K n eindeutig losbar, wenn Rang A = n gilt, und
dies ist na h der soeben bewiesenen Aussage genau dann der Fall, wenn det A 6= 0 gilt. Die
Losung ist dann in der Form ~x = A 1~b darstellbar. Setzt man fur einen festen Vektor ~b 2 K n
Aj (~b) := (~a1 ; : : : ;~aj 1 ; ~b;~aj +1 ; : : : ;~an ) 2 K (n;n)

8 j = 1; 2; : : : ; n;

(4.67)

und verwendet man die Darstellung des linearen Glei hungssystems in der Form
n
X
k=1

X
8 j = 1; 2; : : : ; n; aquivalent ~b = xk~ak ;

ajk xk = bj

k=1

so folgt jetzt aus (4.67) die Beziehung


det Aj (~b) = det(~a1; : : : ;~aj 1;
(D7)

(D4)

n
X
k=1

n
X
k=1

xk~ak ;~aj +1 ; : : : ;~an )

xk det(~a1 ; : : : ;~aj 1;~ak ;~aj +1; : : : ;~an )

= xj  det A 8 j = 1; 2; : : : ; n:

Hieraus lat si h der Losungsvektor ~x = (x1 ; x2 ; : : : ; xn )T direkt bere hnen. Das Resultat
wurde bereits 1750 von Gabriel Cramer (1704{1752) gefunden.
Satz 4.96 (Cramers he Regel)

Gegeben sei die Koezientenmatrix A 2 K (n;n) . Genau dann ist das lineare Glei hungssystem
A~x = ~b fur jede re hte Seite ~b 2 K n eindeutig losbar, wenn gilt:

det A 6= 0:
Werden zu festem ~b 2 K n die Matrizen Aj (~b); j = 1; 2; : : : ; n, na h der Vors hrift (4.67)
erklart, so ist der Losungsvektor ~x = (x1 ; x2 ; : : : ; xn )T 2 K n in der folgenden Form darstellbar:

xj = ( det A) 1  det Aj (~b); j = 1; 2; : : : ; n:


Merke: Die Cramers he Regel gilt auss hlieli h fur regulare quadratis he Matrizen A (d.h. fur A 2 K (n;n) mit det A 6= 0). Fur lineare Glei hungssysteme mit n  3
Unbekannten ist sie praktis h nutzlos, da der Re henaufwand unverhaltnismaig
ho h ist. Die Cramers he Regel ist mehr oder minder von theoretis hem Interesse.


2
3
BSP. (4.45) Es seien A := 1 2 2 R(2;2) und ~b := 45 2 R2 gegeben. Zu bere hnen ist
mit Hilfe der Cramers hen Regel die Losung ~x des linearen Glei hungssystems A~x = ~b. Es gilt



2
3

 := det A = 1 2 = 4 3 = 1 6= 0:


Es existiert also eine eindeutig bestimmte Losung ~x. Wir bere hnen ferner:





2 4
4
3
~
~



1 := det A1 (b) = 5 2 = 8 + 15 = 23; 2 := det A2(b) = 1 5 = 10 + 4 = 14:
Wir haben also x1 =  = 23; x2 =  = 14, und somit ~x = (23; 14)T .
1

Abs hlieend wollen wir uns no h mit der Frage auseinandersetzen, wie die Determinanten von
A; B 2 K (n;n) und AB 2 K (n;n) miteinander verknupft sind. Zur Vorbereitung einer Antwort
fuhren wir den Begri der Elementarmatrix ein:
De nition 4.97 Eine Matrix E 2 K (n;n) heie eine Elementarmatrix, wenn sie aus der
Einheitsmatrix Idn = (~e1 ; ~e2 ; : : : ; ~en ) 2 K (n;n) dur h eine der drei folgenden Spaltenumformungen entstanden ist:

(A) Vertaus hung zweier Spalten: Sj $ Sk :


(B) Multiplikation einer Spalte mit einer Zahl  6= 0:  Sj ! Sj :
(C) Zur Spalte Sj wird ein Vielfa hes der Spalte Sk addiert: Sj +  Sk ! Sj ; j 6= k:
Elementarmatrizen E sind stets invertierbar; dies zeigt die folgende Tabelle. Auerdem kann
die Determinante det E sehr einfa h mit Hilfe der Regeln (D1), (D2) und (D3) bere hnet
werden. Dazu ist ledigli h det Idn = 1 zu bea hten. Fur A := (~a1;~a2; : : : ;~an) 2 K (n;n) bewirkt
das Matrizenprodukt AE genau diejenige elementare Spaltenumformung vom Typ (A), (B)
oder (C), dur h die die Elementarmatrix E de niert ist.
Elementarmatrizen

Idn = (~e1 ; : : : ; ~ej ; : : : ; ~ek ; : : : ; ~en )


Sj $ Sk
E := (: : : ; ~ek ; : : : ; ~ej ; : : :)
E 1=E
det E = 1 = det E 1
 Sj ! Sj
E := (: : : ;  ~ej ; : : :)
 6= 0
E 1 = (: : : ; 1 ~ej ; : : :)
det E = ; det E 1 = 1
Sj +  Sk ! Sj E := (: : : ; ~ej +  ~ek ; : : : ; ~ek ; : : :)
j 6= k
E 1 = (: : : ; ~ej  ~ek ; : : : ; ~ek ; : : :)
det E = 1 = det E 1

A = (~a1 ; : : : ;~aj ; : : : ;~ak ; : : : ;~an )


AE = (: : : ;~ak ; : : : ;~aj ; : : :)

det AE = det A = det A det E


AE = (: : : ; ~aj ; : : :)
det AE =  det A = det A det E
AE = (: : : ;~aj + ~ak ; : : : ;~ak ; : : :)
det AE = det A = det A det E

Ganz o ensi htli h gilt nun fur jede Elementarmatrix E 2 K (n;n) und jede Matrix A 2 K (n;n)
die Multiplikationsregel det AE = det A det E . Diese Regel kann induktiv auf endli he Produkte von Elementarmatrizen ubertragen werden:
p
 Y

det A

j =1

Ej = det A

p
Y
j =1

det Ej = det A det

Mit dieser Beziehung beweisen wir den folgenden

p
Y
j =1

Ej :

(4.68)

Satz 4.98 (Determinantenmultiplikationssatz)


Es seien A 2 K (n;n) und ein Vektorsystem ~b1 ; ~b2 ; : : : ; ~bn 2 K n gegeben. Dann gilt:
(a)
det(A~b1 ; A~b2 ; : : : ; A~bn) = det A  det(~b1 ; ~b2 ; : : : ; ~bn):

(b)

det AB = det A  det B 8 B 2 K (n;n) :

Setzt man B := (~b1 ; ~b2 ; : : : ; ~bn) 2 K (n;n) , so ist es klar, dass (a) und (b) dieselbe
Aussage beinhalten. Wir zeigen hier (b) und nehmen dazu Rang B = n an. Andernfalls gilt det B = 0
(wegen Satz 4.95( )), und wegen Rang AB  Rang B folgt au h det AB = 0. Fur Rang B = n ist die
Matrix B invertierbar. Der in Abs hnitt 4.5 dargestellte Algorithmus zur Bere hnung von B 1 bleibt
in glei her Weise gultig, wenn anstelle der elementaren Zeilenumformungen die Spaltenumformungen
vom Typ (A), (B) oder (C) verwendet werden. Das heit, man errei ht mit einer endli hen Anzahl
p von Elementarmatrizen Ej eine Transformation
Begrundungen:

Idn = B

p
Y
j =1

Ej :

Wegen Ej 2 Inv (K n ) gilt B = Ep 1 Ep 11    E1 1 . Da die Inversen Ej 1 wieder Elementarmatrizen


sind, kann folgli h jede Matrix B 2 Inv (K n ) dur h ein Produkt von Elementarmatrizen dargestellt
werden:
p
Y
B = E~j :
j =1

Aus der Relation (4.68) erhalten wir nun den behaupteten Determinantenmultiplikationssatz. 2
Bemerkung 4.99 (a) Wir haben A 2 Inv (K n ) genau dann, wenn det A =
6 0 gilt. Wegen
1 = det( Idn) = det(AA 1) = det A  det A 1 folgt deshalb:
det A 1 = ( det A) 1 8 A 2 Inv (K n ):
(b) Ist A 2 Inv (K n ) gegeben, so folgern wir sofort aus (a):
det(ABA 1 ) = det B 8 B 2 K (n;n) :
( ) Eine unitare Matrix Q 2 K (n;n) (K := R oder K := C ) erfullt ja Q = Q 1. Deshalb folgern
wir aus der Identitat 1 = det( Idn) = det(Q Q) = det Q  det Q = det Q  det Q = j det Qj2:
(

det Q =

1

ei' ; ' 2 R

: Q orthogonal;
: Q unitar.

Anwendung von Determinanten: Kofaktoren

De nition 4.100 Gegeben sei eine Matrix A = (ajk ) 2 K (n;n) . Die jeder Strei hungsmatrix
Ajk von A zugeordnete Zahl
Kjk := ( 1)j +k det Ajk ; j; k = 1; 2; : : : ; n;
heie Kofaktor zum Platz (j; k) (oder zum Element ajk ).

Satz 4.101 (a) Fur jede Matrix A = (ajk ) 2 K (n;n) und jedes Indexpaar j; k = 1; 2; : : : ; n gilt:
Kjk =

a11   
.. . . .
.

a1k   
.. . . .
.

a1n
..
.

.. . . . .. . . . ..
.
.
.
an1    ank    ann

(b) Fur jede Matrix A 2 Inv (K n ) gilt:


A 1 = ( det A) 1

j -te Zeile

2
6
6
6
4

a11    0    a1n
.. . . .
j . . . ...
.
= aj1    1    ajn
.. . . .
j . . . ...
.
an1    0    ann
k{te Spalte

K11 K21    Kn1


K12 K22    Kn2
..
.. . . . ..
.
.
.
K1n K2n    Knn

(4.69)

3
7
7
7:
5

(A htung: Spalten{ und Zeilenindizes sind vertaus ht!)

(a) Ausgehend von den Determinanten in (4.69) erhalt man unter Verwendung des
s hen Entwi klungssatzes fur die j {te Zeile (bzw. fur die k{te Spalte) jeweils den Determinantenwert ( 1)j+k  1  det Ajk , und dies ist genau der Kofaktor Kjk .
(b) Wir bezei hnen die Inverse von A 2 Inv (K n ) mit A 1 = ( jk ) =: ( ~ 1 ; ~ 1 ; : : : ; ~ n ) 2 K (n;n) . Zur
Bere hnung der Spaltenvektoren ~ j losen wir die n linearen Glei hungssyteme

Begrundungen:
Lapla e

AA 1 = (A~ 1 ; A~ 2 ; : : : ; A~ n ) =! (~e1 ; ~e2 ; : : : ; ~en ) = Idn ;

und zwar mit der Cramers hen Regel. Diese liefert namli h gerade bei Beru ksi htigung der Darstellung (4.69) die Losung
jk = ( det A) 1  Kkj 8 j; k = 1; 2; : : : ; n:
2

4
2
5

8
2
1

Wir bere hnen die Inverse der Matrix A := 4


Hilfe der Kofaktoren:
"
#
"
#
"
2
2
3
8
9
det 1 6 det
6 det
1
6
6
6
6
"
#
"
#
"
6
1
6
2
3
4
9
1
A
= 84 66 det 5 6 det 5 6 det
6
6
"
#
"
#
"
6
4
2
2
4
8
det 5 1 det 5 1 det
BSP. (4.46)

= 841 4

9
3
8

39 6 3
69 30 5 :
44 24

93
3 5 ) det A = 84; mit
6
8
2
4
2
4
2

#3

9 7
3 77
#7
9 777
3 77
#7
8 75
2

4.11 Das Vektorprodukt


Im Vektorraum R 3 fuhrt man aus geometris h{physikalis hen Grunden ein weiteres Produkt
00 00 : R 3  R 3 ! R 3 als "auere" binare Verknupfung zweier Vektoren ein, wel he wiederum
einen Vektor liefert.
De nition 4.102 Das Vektorprodukt 00 00 : R 3  R 3 ! R 3 sei diejenige Verknupfung, die

jedem Paar von Vektoren ~a; ~b 2 R 3 einen Vektor ~a  ~b 2 R 3 gema folgender Vors hrift
zuordnet:
h~a  ~b; ~xi = det(~a; ~b; ~x) 8 ~x 2 R 3 :
(4.70)

(Man hmal setzt man au h ~a  ~b


Kreuzprodukt.)

 [~a; ~b

und spri ht dann vom aueren Produkt oder

Satz 4.103 (a) Das Vektorprodukt ~a  ~b 2 R 3 ist fur jedes Vektorpaar ~a; ~b 2 R 3 dur h die
De nitionsvors hrift (4.70) eindeutig festgelegt.
(b) In den Komponenten der Standardbasis ~a = (a1 ; a2; a3)T und ~b = (b1 ; b2 ; b3)T hat das
Vektorprodukt die Komponentendarstellung
2

~a  ~b = 4

a2 b3
a3 b1
a1 b2

a3 b2
a1 b3
a2 b1

8 ~a; ~b 2 R 3 :

Begrundungen: (a) Es sei ~ 2 R3

so gegeben, dass h~ ; ~xi = det(~a; ~b; ~x) 8 ~x 2 R3 gilt. Wir ers hlieen
hieraus:
h~a  ~b ~ ; ~xi = 0 8 ~x 2 R3 ) ~a  ~b ~ 2 (R3 )? = ~0 ) ~a  ~b = ~ :
(b) Wir bere hnen det(~a; ~b; ~x) unter Verwendung der Regel von Sarrus:
det(~a; ~b; ~x) =

b1 x1 j a1 b1
8
& %
& &
% %
(a2 b3 a3b2 ) x1
<
a2 b2 x2 j a2 b2 = + (a3 b1 a1 b3 ) x2
:
% %
& %
& &
+ (a1 b2 a2b1 ) x3
a3 b3 x3 j a3 b3

a1

*2
4

a 2 b3 a 3 b2
a 3 b1 a 1 b3
a 1 b2 a 2 b1

3 2
5;4

x1
x2
x3

3+
5

= h~a  ~b; ~xi 8 ~x 2 R3 :

Merkregel: Ist ~e1 ; ~e2 ; ~e3 die Standardbasis des R 3 , so kann man si h das Vektorprodukt ~a  ~b lei ht dur h folgende formale Determinante merken:
2

~e1 a1 b1
~
4
~a  b = det ~e2 a2 b2
~e3 a3 b3

~e1 a1 b1 <
~e1 (a2 b3
5 = ~e2 a2 b2 =
+ ~e2 (a3b1
~e3 a3 b3 : + ~e3 (a1 b2

a3 b2 )
a1 b3 ) :
a2 b1 )

Man bea hte die zyklis he Indexvertaus hung!

Zum Beispiel gelten:


2

13 233
4 2 54 2 5 =
3
1

~e1
~e2
~e3

2
1 3
43
2 2 = ~e1 (2 6) + ~e2 (9 1) + ~e3 (2 6) = 4 8 5 ;
3 1
4

2
4

13 2 23
2 54 4 5 =
6
3

~e1
~e2
~e3

1
2
3

2
4 = ~e1 (12 12) + ~e2 ( 6 + 6) + ~e3 (4 4) = ~0:
6

Als Motivation fur die Einfuhrung des Vektorproduktes ~a  ~b diente ursprungli h die Su he
na h einem Vektor ~ mit den Eigens haften
(VP1) ~ ? ~a und ~ ? ~b,
(VP2) k~ k ist der Fla heninhalt des von ~a und ~b aufgespannten Parallelogramms,
(VP3) die Vektoren ~a; ~b;~ bilden ein Re htssystem.
Wir zeigen na hfolgend, dass diese Forderungen gerade vom Vektorprodukt erfullt werden.
c=axb
F = ||c||

||c||

c=axb b

FP
a

Volumen des von ~a; ~b;~a  ~b aufgespannten


Parallel a hs

Eigens haften des Vektorprodukts ~a  ~b

Wir diskutieren nun eine Reihe von Eigens haften und Re henregeln fur das Vektorprodukt.
~a ? ~a  ~b ? ~b:

(V1)

Denn es gilt ja wegen (4.70)

h~a  ~b;~ai = det(~a; ~b;~a) = 0 = det(~a; ~b; ~b) = h~a  ~b; ~bi:

(V2)

k~a  ~bk = FP :

Hierin bezei hnet FP den Fla heninhalt des von den Kantenvektoren ~a; ~b aufgespannten Parallelogramms.
In der Tat, mit ~ := ~a  ~b entnehmen wir der obigen Skizze:
k~a  ~bk2 = k~ k2 = h~a  ~b;~ i = j det(~a; ~b;~ )j = jVPF j = FP  k~ k:
Na h Division dur h k~ k erhalt man nun das behauptete Resultat FP = k~a  ~bk.
Bemerkung 4.104 Das Volumen VPF des von den drei Kantenvektoren ~a; ~b;~ 2 R 3 aufgespannten Parallel a hs hatten wir ja bereits dur h VPF = det(~a; ~b;~ ) de niert. In der alteren
Literatur wird ein Parallel a h au h als Spat bezei hnet. Dies liefert eine Re htfertigung fur
die folgende
2
De nition 4.105 Das Produkt
[~a; ~b;~ := h~a  ~b;~ i = det(~a; ~b;~ )
heie Spatprodukt der Vektoren ~a; ~b;~ 2 R 3 .

~a; ~b;~a  ~b bilden 8 ~a; ~b 2 R 3 ein Re htssystem.

(V3)

Denn es gilt ja mit ~ := ~a  ~b, wie wir oben gezeigt haben:


0  k~a  ~bk2 = h~a  ~b;~ i = det(~a; ~b;~ ):

8 ~a; ~b 2 R 3 und ~a  ~a = ~0 8 ~a 2 R 3 .
Das Vektorprodukt ist ni ht kommutativ, denn es gilt:
h~a  ~b; ~xi = det(~a; ~b; ~x) = det(~b;~a; ~x) = h~b  ~a; ~xi 8 ~x 2 R3 :
~a  ~b = (~b  ~a)

(V4)

(V5)

(~a +  ~b)  ~ =  (~a  ~ ) +  (~b  ~ ) 8 ~a; ~b;~ 2 R 3 ; 8 ;  2 R :

Das Vektorprodukt ist linear im ersten Argument, und zusammen mit (V4) erhalt man au h
die Linearitat im zweiten Argument.
Begrundung von (V5):

h(~a +  ~b)  ~ ; ~xi = det(~a +  ~b;~ ; ~x) =  det(~a;~ ; ~x) +  det(~b;~ ; ~x)
=  h~a  ~ ; ~xi +  h~b  ~ ; ~xi 8 ~x 2 R3 :
 (~a  ~b) = (~a)  ~b = ~a  ( ~b)

(V6)

8 ~a; ~b 2 R 3 ; 8  2 R :

Begrundung von (V6):

h (~a  ~b); ~xi =  det(~a; ~b; ~x) = det(~a; ~b; ~x) = det(~a;  ~b; ~x) 8 ~x 2 R3 :
~a  ~b = ~0 , ~a und ~b sind LA.

(V7)
Begrundung von (V7):

0 = h~a  ~b; ~xi = det(~a; ~b; ~x) 8 ~x 2 R3 , ~a; ~b LA:

h~a  ~b;~ i = h~b  ~ ;~ai = h~  ~a; ~bi 8 ~a; ~b;~ 2 R 3 :

(V8)

Dur h zyklis he Vertaus hung andert si h das Spatprodukt ni ht.

Begrundung von (V8):

det(~a; ~b;~ ) = det(~b;~ ;~a) = det(~ ;~a; ~b); d.h. [~a; ~b;~ = [~b;~ ;~a = [~ ;~a; ~b :

Fur die Mehrfa hausfuhrung des Vektorproduktes gibt es spezielle Formeln:


Satz 4.106 (Grassmanns her Entwi klungssatz)
Es gilt

(V9)

~a  (~b  ~ ) = ~b h~a;~ i ~ h~a; ~bi

8 ~a; ~b;~ 2 R 3 :

Merke: ba minus ab, Klammern hinten!

Begrundung: Dur h explizites Ausre hnen unter De nitionsverwendung zeigt man:

~a  (~a  ~b) = ~a h~a; ~bi ~b h~a;~ai:


(4.71)
1. Fall: Gilt ~b  ~ = ~0, so sind die Vektoren ~b;~ LA, und es vers hwinden beide Seiten in (V9).

2. Fall: Gilt ~b  ~ 6= ~0, so sind die Vektoren ~b;~ LU, und die Vektoren ~b;~ ; ~b  ~ bilden eine Basis des
R 3 . Es gilt ~a = 1~b + 2~ + 3 (~b  ~ ), und hiermit resultiert:

~a  (~b  ~ )

= 1 ~b  (~b  ~ ) + 2 ~  (~b  ~ )
(4:71)
= 1 [~b h~b;~ i ~ h~b; ~bi 2 [~ h~ ; ~bi ~b h~ ;~ i
= ~b h1 ~b + 2 ~ + 3 |(~b {z
 ~ });~ i ~ h1 ~b + 2 ~ + 3 (|~b {z
 ~ }); ~bi
=

?~

~b h~a;~ i ~ h~a; ~bi:

?~b

Dies war zu zeigen.

Bemerkung 4.107 Das Vektorprodukt ist ni ht assoziativ. In der Tat, aus dem
Entwi klungssatz erhalt man mit der Beziehung (V4):
(~a  ~b)  ~ = ~  (~a  ~b) = ~b h~a;~ i ~a h~b;~ i 6= ~a  (~b  ~ ):

manns hen

Grass-

Satz 4.108 (Lagrange Identitat)


Es gilt

(V10)

h~a  ~b;~  d~i = h~a;~ i h~b; d~i h~a; d~i h~b;~ i 8 ~a; ~b;~ ; d~ 2 R 3 :

Begrundung: Wir setzen ~y := ~  d~ und verwenden den Grassmanns hen Entwi klungssatz:

h~a  ~b; ~yi = det(~a; ~b; ~y) = det(~b; ~y;~a) = h~b  ~y;~ai = h~b  (~  d~);~ai
(V 9)
= h~ h~b; d~i d~ h~b;~ i;~ai = h~a;~ i h~b; d~i h~a; d~i h~b;~ i:

(V11)

k~a  ~bk = k~akk~bk  j sin <) (~a; ~b)j = 2 FD 8 ~a; ~b 2 R 3 ,

worin FD der Fla heninhalt des von den Kantenvektoren ~a; ~b aufgespannten Dreie ks ist.

Begrundung fur (V11): Wir


h~a; ~bi = k~akk~bk os <) (~a; ~b):

setzen in (V10) ~a = ~ und d~ = ~b. Dann folgt unter Bea htung von
q

k~a  ~bk = k~ak2k~bk2 h~a; ~bi2 = k~akk~bk  j sin <) (~a; ~b)j:

Die folgende Skizze zeigt, dass dieser Ausdru k den zweifa hen Fla heninhalt des von den Kantenvektoren ~a; ~b aufgespannten Dreie ks angibt.
=

(a,b)

FD

Die Hohe des Dreie ks betragt


k~bk  j sin <) (~a; ~b)j

Anwendungen des Vektorprodukts

Wir stellen hier Anwendungen des Vektorproduktes aus dem Berei h der geometris hen Problemstellungen im R 3 vor.
BSP. (4.47) Die Standardaufgabe, zu zwei gegebenen Ri htungen ~a; ~b 2 R3 eine orthogonale
Ri htung ~ ; ~a ? ~ ? ~b, zu bestimmen, wird gema (V1) dur h ~ := ~a  ~b gelost. Sind ~a ? ~b Einheitsvektoren, so folgt aus (V11), dass au h k~ k = 1 gilt. Zum Beispiel stehen die Einheitsvektoren
~ej 2 R3 der Standardbasis in folgender Relation:
~e1 1 0
~e1 0 0
~e1
~e1  ~e2 = ~e2 0 1 = ~e3 ; ~e2  ~e3 = ~e2 1 0 = ~e1 ; ~e3  ~e1 = ~e2
~e3 0 0
~e3 0 1
~e3
Spannen ~a; ~b 2 R3 die Ri htung U := span f~a; ~bg einer Ebene
E := p~ + U = f~x 2 R3 : ~x = p~ + ~a +  ~b; ;  2 Rg

0 1
0 0 = ~e2:
1 0

auf, so wird das Orthogonalkomplement U ? von der Einheitnormalen ~n0 aufgespannt, mit deren
Hilfe man die Hesse{Normalform (HNF) der Ebene E bestimmt:
~n0 =

~a  ~b
k~a  ~bk

) E = f~x 2 R3 : h~n0; ~xi = h~n0 ; p~ig: (HNF)

Das Gegenstu k zur Hesse{Normalform der Ebenenglei hung bildet in R 3 die Plu ker{
Normalform der Geradenglei hung (PNF):
Satz 4.109 Gegeben seien ein Aufhangepunkt ~p 2 R 3 und eine Ri htung ~0 6= ~u 2 R 3 , die eine
Gerade G  R 3 bestimmen:
G = f~x 2 R 3 : ~x = ~p +  ~u;  2 R g:

Dann gestattet G die folgende Darstellung in der Plu kers hen Normalform:

G = f~x 2 R 3 : (~x p~)  ~u = ~0g = f~x 2 R 3 : ~x  ~u = p~  ~u =: d~ = onstg:

(4.72)

Begrundung: Es ist klar, wegen (V7) gilt:


(~x p~)  ~u = ~0 , (~x p~); ~u

sind LA , ~x p~ =  ~u:
Also bes hreibt (4.72) genau die Menge aller Punkte auf der Geraden G : ~x = p~ +  ~u.
2
Bemerkung 4.110 Die Darstellung G : ~x  ~u = p~  ~u =: d~ = onst heit au h Mo-

mentenglei hung einer Geraden G. Dieser Begri ist der Physik entlehnt. Bezei hnet ~v ein
ortsabhangiges Vektorfeld, wel hes im Punkte ~x 2 R 3 angreift, so nennt man m
~ := ~x  ~v das
~v {Moment im Punkte ~x. Spezielle Momente sind das Drehmoment m
~ = ~x  ~v , wel hes ein
Kraftfeld ~v im Punkte ~x ausubt. Ferner der Drehimpuls (Drall) m(~x  ~v ) einer Masse m in
einem Ges hwindigkeitsfeld ~v.
2
BSP. (4.48)

Abstand und Lotvektor des Punktes ~0 auf G. Im folgenden bezei hne stets

d~ := ~p  ~u; d~ ? ~u:

u
G

l
h

u
lw
u
FP = ||pxu|| = h ||u||

FP = ||(w-p) x u||

Abstand und Lotvektor von ~0


auf die Gerade G

Abstand und Lotfupunkt von w~


auf die Gerade G

An der linken Skizze liest man sofort ab:


Abstand vom Ursprung: d(~0; G) =

kp~  ~uk = kd~k :


k~uk
k~uk

(4.73)

Der Lotvektor ~` von ~0 auf G unterliegt o enbar den Bedingungen ~u ? ~` ? d~. Dieser Bedingung wird
der Ansatz
~` :=  (~u  d~) =  ~u  (p~  ~u) (V9)
=  [p~ k~uk2 ~u hp~; ~ui
gere ht. Wegen (4.72) ers hlieen wir p~  ~u = ~`  ~u =  (p~  ~u) k~uk2 , woraus  = 1=k~uk2 folgt.
~u  (p~  ~u) ~u  d~
=
:
Lotvektor von ~0 auf G: ~` =
(4.74)
k~uk2

k~uk2

Wie wir oben gesehen haben, fuhrt die Parameterdarstellung G : ~x = ~p +  ~u


unmittelbar auf die PNF G : ~x  ~u = p~  ~u = d~. Liegt umgekehrt die PNF G : ~x  ~u = d~ einer
Geraden vor, so gewinnt man mit (4.74) sofort die Parameterdarstellung G : ~x = ~` +  ~u.
2

Bemerkung 4.111

BSP. (4.49)

Abstand und Lotfupunkt des Punktes w~ 2

unmittelbar zu entnehmen:

Abstand des Punktes w~ von G:

d(w;
~ G) =

Lotfupunkt von w~ auf G:

R3

Der obigen Skizze ist

auf G.

k(w~ p~)  ~uk = k(w~  ~u) d~k :


k~uk
k~uk

(4.75)

~ ~ui
~`w~ = ~` + ~u hw;
k~uk2 :

(4.76)

BSP. (4.50) Abstand zweier Geraden. Wir orientieren uns an den folgenden Skizzen:
u
p2

G2||G1

G2
u2

h
G1
p1

u
x1

u1
G1

x2
0

Abstand paralleler Geraden

Abstand winds hiefer Geraden

k(p~2 p~1)  ~uk = kd~2 d~1 k :


(4.77)
k~uk
k~uk
Bei winds hiefen Geraden muss die Lotri htung ~v die Bedingung ~u1 ? ~v ? ~u2 erfullen, was auf die
Glei hung ~v = d(G1 ; G2 )(~u1  ~u2)=k~u1  ~u2 k fuhrt. Aus der Parameterdarstellung Gj : ~xj =
Abstand paralleler Geraden:

d(G1 ; G2 ) =

~`j + j ~uj

= ~pj + j ~uj erhalten wir andererseits ~v = ~x2 ~x1 = ~`2 ~`1 + 2 ~u2 1 ~u1 . Wird diese
Glei hung skalar mit ~u1  ~u2 multipliziert, so folgt nun d(G1 ; G2 )k~u1  ~u2k = h~`2 ~`1; ~u1  ~u2 i =
det(~u1; ~u2 ; ~`2 ~`1).
j det(~u1 ; ~u2 ; ~`2 ~`1)j = j det(~u1 ; ~u2 ; p~2 p~1)j : (4.78)
Abstand zweier Geraden: d(G1 ; G2 ) =
k~u1  ~u2 k

k~u1  ~u2 k

Wird die Identitat


det(~u1 ; ~u2 ; p~2 p~1) = det(p~1 ; ~u1 ; ~u2) det(p~2 ; ~u2 ; ~u1) = hp~1  ~u1 ; ~u2 i hp~2  ~u2; ~u1 i
verwendet, so erhalt man glei hwertig mit (4.77):
jhd~ ; ~u i + hd~2 ; ~u1 ij :
Abstand zweier Geraden: d(G1 ; G2 ) = 1 2
(4.79)
k~u1  ~u2k

BSP. (4.51) S hnittmenge zweier Ebenen. Liegen Ebenenglei hungen der Ebenen Ej  R3
in der HNF h~x; ~nj i = j ; j = 1; 2, vor, so ist die S hnittmannigfaltigkeit E1 \ E2 genau dann eine
Gerade G, wenn die Normalenvektoren ~n1; ~n2 LU sind. Die Ri htung ~u von G muss ~n1 ? ~u ? ~n2
erfullen, was dur h ~u := ~n1  ~n2 si hergestellt ist. Es sei G : ~x  ~u = d~ die PNF der S hnittgeraden.
Unter Verwendung von (V9) resultiert nun ~x  (~n1  ~n2) = ~n1 h~x; ~n2 i ~n2 h~x; ~n1 i = ~n1 2 ~n1 1 .
S hnittgerade

E1 \ E2 = G : ~x  (~n1  ~n2 ) = 2 ~n1 1 ~n2 :

(4.80)

BSP. (4.52) S hnittmenge einer Geraden und einer Ebene. Es seien G : ~x  ~u = d~ und
E : h~x; ~ni = die Normalformen von Geraden{ bzw. Ebenenglei hung. Fur jeden Punkt ~x 2 E \ G
muss dann gelten:
(V9)
~n  d~ = ~n  (~x  ~u) = ~x h~n; ~ui ~u h~x; ~ni :
| {z }

Gilt h~n; ~ui 6= 0, so kann diese Glei hung na h ~x aufgelost werden. Andernfalls gilt GkE . Wir erhalten:
S hnittpunkt

G \ E = f~xg : ~x =

(~n  d~) + ~u :
h~n; ~ui

(4.81)

S hnittmenge zweier Geraden in R3 . Aus der PNF konnen keine einfa hen Formeln fur den S hnittpunkt zweier winds hiefer Geraden G1 ; G2  R3 hergeleitet werden. Geht man
von der Parameterdarstellung Gj : ~x = ~pj + j ~uj ; j = 1; 2, aus, so konnen si h G1 und G2 ho hstens

BSP. (4.53)

dann s hneiden, wenn

d(G1 ; G2 ) = 0 = hd~1 ; ~u2 i + hd~2 ; ~u1 i

gilt, vgl. BSP. (4.50). Man bere hnet am s hnellsten den S hnittpunkt ~xS = p~1 + 1 ~u1 = ~p2 + 2 ~u2
dur h Losung des inhomogenen linearen Glei hungssystems
1 ~u1 2 ~u2 = p~2 p~1
na h einem der Parameter 1 oder 2.

Kapitel 5
Eigenwerte und Eigenvektoren von
Matrizen
5.1 Das Eigenwertproblem
Wir betra hten folgendes Eigenwertproblem, das insbesondere im Zusammenhang mit der
Losung von Di erentialglei hungen (siehe 2. Semester) von Bedeutung ist:
Finde  2 C und ~0 6= ~v 2 C n so, dass A~v = ~v.
De nition 5.1 Zu gegebener quadratis her Matrix A 2 K (n;n) ; K = R oder K = C , heie
eine Zahl  2 C Eigenwert (Ew) von A, wenn es ein ~v 2 C n ; ~v 6= ~0, derart gibt, dass
A~v =  ~v

(5.1)

gilt. Der so de nierte Vektor ~v heie Eigenvektor (Ev) zum Eigenwert .


Au h wenn A 2 R (n;n) wird also A als A 2 C (n;n) aufgefasst und Eigenwerte in C gesu ht
(da es sonst evtl. ni ht genug gibt, s.u.). Ist A 2 R (n;n) und  2 R Eigenwert, dann sind mit
~v 2 C (n;n) au h Re(~v ) und Im(~v) (komponentenweise) Eigenvektoren.
BSP. (5.1) Die Diagonalmatrix  := diag (1 ; 2 ; : : : ; n ) erfullt o enbar ~ej = j ~ej 8 j = 1; : : : ; n,
worin ~ej := (0; : : : ; 0; |{z}
1 ; 0; : : : ; 0)T den j {ten Standardbasisvektor des K n bezei hnet. Das heit, ~ej
j {te Stelle

ist Eigenvektor zum Eigenwert j . Ist j =  8 j = 1; : : : ; n, so zeigt dieses Beispiel insbesondere, dass
mogli herweise nur ein einziger Eigenwert  existiert und dazu mehrere Eigenvektoren.

Bemerkung 5.2 A quivalent mit (5.1) ist die Losung des linearen homogenen Glei hungssystems
(A  Id)~v = ~0:
(5.2)

Na h den aus der linearen Algebra bekannten Losbarkeitskriterien (vgl. Satz 4.95) ist das
Glei hungssystem (5.2) genau dann ni httrivial losbar, wenn die Determinante von A  Id
vers hwindet: det(A  Id) = 0. Aus diesem Sa hverhalt resultiert ein Kriterium zur Bestimmung der Eigenwerte.
2
Satz 5.3 Gegeben sei die Matrix A 2 K (n;n) :

235

(a) Genau dann ist  2 C ein Eigenwert von A, wenn gilt:


Pn () := det(A  Id) = 0:

(5.3)

Pn () = det(A  Id) = ( 1)n n + pn 1 n 1 +    + p1  + det A;

(5.4)

(b) Wir haben

das heit, det(A

 Id) ist ein Polynom in  vom Grade genau n.

Begrundung: Fur die Spaltenvektoren ~a1 ;~a2 ; : : : ;~an

der Matrix A gilt ja ~aj = A~ej 8 j = 1; 2; : : : ; n,


so dass aus den Re henregeln uber Determinanten Folgendes resultiert:
9
i
h
>
det(A  Id) = det (A  Id)~e1 ; : : : ; (A  Id)~en
>
>
>
>
>
>
= det(~a1 ~e1 ;~a2 ~e2 ; : : : ;~an ~en) = det(~a1 ;~a2 ; : : : ;~an ) >
>
>
>
+

n
X
j =1

det(~a1 ; : : : ;~aj

+( 1)n

1 n 1

n
X
j =1

>
>
>
>
>
=

1 ; ~ej ;~aj +1 ; : : : ;~an ) +   

det(
~e1 ; : : : ; ~ej
|

+( 1)nn |det{zId} :

>
>
>
>
>
>
>
>
>
>
>
>
>
>
>
>
;

;~aj ; ~ej +1 ; : : : ; ~en )


1{z
}
=ajj

=1

(5.5)

Hieraus folgen s hon die behaupteten Relationen.

2
Bemerkung 5.4 (a) Die Formeln (5.5) liefern explizite Darstellungen fur die Koezienten
pk des Polynoms Pn (). Insbesondere gilt
p0

n
X

= det A; p1 =

pn 1 = (

1)n

n
X
j =1

j =1

det(~a1; : : : ;~aj 1; ~ej ;~aj+1; : : : ;~an);

9
>
>
>
>
=
>
>
>
>
;

ajj :

(5.6)

(b) Der Fundamentalsatz der Algebra weist dem Polynom Pn() genau n Nullstellen in C zu,
und diese sind gema Satz 5.3 genau die Eigenwerte der Matrix A.
2
De nition 5.5 Gegeben sei die Matrix A 2 K (n;n) .
(a) Das Polynom vom Grade genau n :
Pn () := det(A  Id)
heie harakteristis hes Polynom der Matrix A.
(b) Die Zahl

Sp(A) :=

n
X
j =1

ajj

heie Spur von A (man hmal au h "tr(A)" von tra e).

( ) Ist j eine kj {fa he Nullstelle des harakteristis hen Polynoms Pn(), das heit, gilt
Pn() = ( j )kj Q() mit Q(j ) 6= 0;
so heie kj die algebrais he Dimension des Eigenwertes j . Stets gilt

P
j

kj = n.

Bemerkung 5.6 Es seien 1 ; 2 ; : : : ; m ; m  n, die paarweise vers hiedenen Nullstellen des


harakteristis hen Polynoms Pn() mit ihren Vielfa hheiten k1; : : : ; km. Dann gilt o enbar die
Linearfaktorzerlegung
Pn () = (

1)n(

1

)k1 (

2

)k2

   ( m

)km

1)n

=(

m
Y
j =1

( j )kj :

Wegen (5.6) folgt deshalb aus den Vietas hen Wurzelsatzen (vgl. Abs hnitt 3.5):
Pn (0) = p0

Sp(A) = (

(5.7)

m
Y
= det A = kj j ;
j =1
m
X
n
1
1) pn 1 = kj j :
j =1

Satz 5.7 Gegeben sei die Matrix A 2 K (n;n) :


(a) Genau dann existiert die inverse Matrix A 1 2 K (n;n) , wenn alle Eigenwerte von A von

Null vers hieden sind.


(b) Es gelten die Beziehungen

det A =

n
Y
j =1

j und Sp(A) 

n
X
j =1

ajj =

n
X
j =1

j ;

wobei jeder Eigenwert so oft zu zahlen ist, wie seine (algebrais he) Vielfa hheit angibt.


BSP. (5.2) Die Matrix A := 10 31 hat das harakteristis he Polynom P2 () = det(A  Id) =


1
 3 = (1 )2 , und demzufolge einen doppelten Eigenwert  = 1. Wir bestatigen Sp(A) = 2 =

1

0 1 
2
2  1 sowie det A = 1 = 1 .

Hat man die Eigenwerte j von A gefunden, so folgt aus (5.2), dass die jedem j zugeordneten
Eigenvektoren ~v den Kern der Abbildung A j Id : C n ! C n aufspannen. Wegen der
Unterraumeigens haft Kern (A j Id)  C n gilt naturli h
1  (j ) := dim Kern (A j Id)  n:
De nition 5.8 Gegeben sei die Matrix A 2 K (n;n) . Sei j Eigenwert von A. Dann heie der
von den zu j gehorigen Eigenvektoren ~v 2 C n aufgespannte Unterraum

Kern (A j Id)  C n
der Eigenraum von j . Seine Dimension (j ) := dim Kern (A
s he Dimension des Eigenwertes j .

j Id) heie die geometri-

Die Bere hnung des Eigenraumes zum Eigenwert  lauft also auf die Losung des homogenen
linearen Glei hungssystems (A  Id)~v = ~0 hinaus. Die folgenden Beispiele zeigen, dass algebrais he und geometris he Dimension eines Eigenwertes  im allgemeinen vers hieden sind.
2

BSP. (5.3)

Gegeben sei die Matrix A := 4

2
2
1

1
3
1

1
4
2

3
5

mit dem harakteristis hen Polynom


2  1
1
2 3 
4 = ( 3)( 1)( + 1):
P3 () = det(A  Id) =
1
1
2 
Es gibt drei vers hiedene Eigenwerte 1 = 3; 2 = 1; 3 = 1 mit algebrais her dim j = 1. Die zugeordneten
Eigenvektoren ~vj sind die Losungen der homogenen Glei hungssysteme (A j Id)~vj = ~0. Man veri ziert ohne
S hwierigkeiten:
o

Kern (A 1 Id) = span (2; 3; 1)T ; Kern (A 2 Id) = span (1; 1; 0)T ;
o

Kern (A 3 Id) = span (0; 1; 1)T :


Demzufolge gilt hier (j ) = dim Kern (A j Id) = 1 = algebr: dim j .
Bea hte: Die Eigenvektoren ~vj ; j = 1; 2; 3, sind linear unabhangig.
BSP. (5.4) Wir betra hten
2

1
1 4 3
 4
3


4
5
A := 0 1 2 mit P3 () = det(A  Id) = 0 1  2 = ( 1)3 :

0 0 1
0
0 1 
Es gibt nur einen einzigen Eigenwert 1 = 1 mit algebrais her dim 1 = 3. Die Bestimmung des Eigenraumes
Kern (A 1 Id) lauft auf die Losung des homogenen Glei hungssystems (5.2) hinaus, also
2

(A 1 Id)~v = ~0 = (A Id)~v = 4
n

0 4 3
0 0 2
0 0 0

32
54

v1
v2
v3

, v = v = 0; ~v = v  4
2

1
0 5 ; v1 6= 0:
0

Wir erhalten Kern (A 1 Id) = span (1; 0; 0)T , und somit (1 ) = 1 < 3 = algebr: dim 1 . Die Matrix A
hat nur einen einzigen Eigenvektor.

Wir haben allgemein:


Satz 5.9 Seien j Eigenwerte der Matrix A 2 K (n;n) .
(a) Es gilt 1 6= 2 genau, wenn Kern (A 1 Id) \ Kern (A 2 Id) = f~0g.
(b) Eigenvektoren zu vers hiedenen Eigenwerten sind linear unabhangig (LU).
( ) (j ) = geom: dim j  algebr: dim j = kj .
P
(d) Genau dann gilt (j ) = kj 8 j , wenn n = (j ) ist. Dies ist genau dann ri htig, wenn
j

es in C n eine Basis aus Eigenvektoren der Matrix A gibt.


(e) Die Diagonalmatrix  := diag (1; 2; : : : ; n) hat genau die Eigenwerte 1 ; 2; : : : ; n, und
die Vektoren der Standardbasis ~e1 ; ~e2 ; : : : ; ~en sind die zugeordneten Eigenvektoren.
Begrundungen: (a) Ware ~0 6= ~v 2 Kern(A 1 Id) \ Kern(A 2 Id), so ware A~v 1~v = A~v 2~v = ~0,
also (2 1 )~v = ~0, und somit 1 = 2 .

(b) Diese Aussage ist ledigli h eine Interpretation der Aussage (a).
( ) Wir xieren einen Eigenwert  von A mit  = geom: dim  und k = algebr: dim . Gelte Kern(A

 Id)

= spanf~v1 ; ~v2 ; : : : ; ~v g. Na h dem Basiserganzungssatz (Satz 1.36) gibt es n  weitere LU


Vektoren ~vj 2 C n ; j =  + 1; : : : ; n, so dass C n = spanf~v1 ; ~v2 ; : : : ; ~vn g gilt. Fur die Matrix T :=
(~v1 ; ~v2 ; : : : ; ~vn) 2 C (n;n) gilt T 2 Inv (C n ) sowie T~ej = ~vj bzw. ~ej = T 1~vj 8 j = 1; 2; : : : ; n: Wir
folgern
T 1 AT~ej = T 1 A~vj =  T 1~vj =  ~ej 8 j = 1; 2; : : : ; :
Also muss T 1AT die Gestalt


 B
(;)
T 1 AT =  Id
0 C mit Id := diag (1; 1; : : : ; 1) 2 K
haben. Wir ers hlieen

det(T 1AT  Id) = det[T 1 (A  Id)T


>
>
=
1
= (det T )[det(A  Id)(det T ) = det(A  Id) >
(5.8)
>
;
und Pn() = ( )  det(C  Id):
Das heit,  ist mindestens eine {fa he NS von det(A  Id). Also muss k   gelten.
(d) Wegen (j )  kj und n = P kj kann n = P (j ) nur dann gelten, wenn (j ) = kj 8 j erfullt
j
j
ist. Das heit, die Eigenraume Kern(A j Id) von A spannen den Vektorraum C n auf.
(e) folgt aus BSP. (5.1). Da span f~e1 ; ~e2 ; : : : ; ~en g = K n gilt, liegen alle Eigenvektoren vor.
2
Pn () :=

Bemerkung 5.10 (a) Aus der Re hnung (5.8) resultiert folgende Tatsa he: Gegeben seien
A 2 K (n;n) und T 2 Inv (K n ). Dann haben A und B := T 1 AT dasselbe harakteristis he
Polynom Pn(), also au h dieselben Eigenwerte:
Pn () = det(A  Id) = det(T 1 AT

 Id):

(5.9)

(b) Gilt geom: dim j = algebr: dim j 8 j , so bilden die zugeordneten Eigenvektoren ~v1; : : : ; ~vn
gema Satz 5.9 eine Basis des Vektorraumes C n : Die Matrix
T := (~v1 ; ~v2 ; : : : ; ~vn ) 2 C (n;n)

(5.10)

hat Rang T = n, so dass T 2 Inv (C n ) resultiert. T heit Modalmatrix von A. Mit der
Diagonalmatrix  = diag (1; 2; : : : ; n) gilt dann
2
AT = (A~v1 ; A~v2 ; : : : ; A~vn ) = (1~v1 ; 2~v2 ; : : : ; n~vn ) = T :
2

BSP. (5.5)

Die Matrix A := 4

3 0 1
0 3 4
0 0 2

(5.11)

3
5

hat das harakteristis he Polynom


3  0
1
0 3  4 = (3 )2 (2 ):
P3 () = det(A  Id) =
0
0 2 
Es liegen die Eigenwerte n1 = 2 (einfa h)
und 2 = 3 (doppelt) vor. Man erhalt mit lei hter Re hnung
o
Kern (A 1 Id) = span (1; 4; 1)T : Zur Bestimmung des Eigenraumes Kern (A 2 Id) losen wir das
homogene Glei hungssystem
3
2
3 2
0 0 1
v1
~0 = (A 2 Id)~v = (A 3 Id)~v = 4 0 0 4 5 4 v2 5 , v3 = 0; v1 ; v2 beliebig:
0 0 1
v3

Es existieren zwei linear unabhangige Eigenvektoren, namli h ~v2 := v1 (1; 0; 0)T und ~v3 := v2 (0; 1; 0)T . Demzufolge haben wir
3 2
3
(2
1
0 )
Kern (A 2 Id) = span 4 0 5 ; 4 1 5 ;
0
0
d.h. algebr: dim 2 = geom: dim 2 . Es tri t Satz 5.9 (d) zu. Die Eigenvektoren ~v1 := (1; 4; 1)T ; ~v2 :=
(1; 0; 0)T und ~v3 := (0; 1; 0)T bilden eine Basis des Vektorraumes C 3 . Die Modalmatrix von A lautet
2
3
2
3
1 1 0
0 0 1
T = 4 4 0 1 5; T 1 = 4 1 0 1 5:
1 0 0
0 1 4

5.2 Der Satz von Cayley{Hamilton


Zur Motivation greifen wir zuna hst no hmals die Situation auf, in wel her der Raum C n eine Basis
aus Eigenvektoren einer Matrix A 2 K (n;n) besitzt. Es seien j ; j = 1; 2; : : : ; m, die paarweise
vers hiedenen Eigenwerte von A mit Vielfa hheiten kj , und seien ~v1 ; ~v2 ; : : : ; ~vkj die dem Eigenwert
j zugeordneten Eigenvektoren. Dann folgt mit der Linearfaktorzerlegung (5.7) des harakteristis hen
Polynoms fur jeden Index l = 1; 2; : : : ; kj :
9
Pn (A)~vl := ( 1)n (A 1 Id)k (A 2 Id)k    (A m Id)km ~vl
>
>
>
>
=
k
k
n
k
j
m
= ( 1) (A 1 Id)    |{z}
Id    (A m Id) (A j Id) ~vl
(5.12)
{z
}
|
>
>
j
>
m
>
;
= ~0:
Hier haben wir die Kommutator{Eigens haft
(A j Id)(A k Id) = A2 (j + k )A + j k Id = (A k Id)(A j Id) (j 6= k)
eingearbeitet. Da die Gesamtheit der Eigenvektoren den Vektorraum C n aufspannt, resultiert nun
aus (5.12) Pn(A) = O. Das heit, die Matrix A erfullt ihre eigene harakteristis he Glei hung. Die
Eigens haft gilt au h im allgemeinen Fall:
1

{ter Faktor

+ 1{ter Faktor

Satz 5.11 (Cayley{Hamilton)


Gegeben seien A 2 K (n;n) und dazu die paarweise vers hiedenen Eigenwerte 1 ; 2 ; : : : ; m 2 C
mit Vielfa hheiten k1 ; k2 ; : : : ; km . Dann gilt:
Pn(A) = ( 1)n (A 1 Id)k (A 2 Id)k
1

   (A m Id)km = O;

(5.13)

das heit, die Matrix A erfullt ihre eigene harakteristis he Glei hung.

Diesen (ni ht vollstandig) bewiesenen Satz belegen wir dur h das folgende Beispiel.


1 3 die Matrix aus BSP. (5.2), Abs hnitt 5.1. Diese hat den doppelten
0 1
o
n
Eigenwert 1 = 1. Man erre hnet sofort, dass Kern (A 1 Id) = span (1; 0)T gilt. Das heit, wir haben
(1 ) = 1 < 2 = k1 . Es ist aber P2 () = ( 1)2 ( 1)2 = ( 1)2 , und au h

 



0 3 = 0 0 = O:
P2 (A) = (A Id)2 = 00 30
0 0
0 0
BSP. (5.6)

Es sei A :=

Die Beziehung (5.13) besagt insbesondere, dass die Eigenwerte j der Matrix A vermoge Pn
auf die Eigenwerte Pn(j ) = 0 der Matrix Pn(A) = O abgebildet werden. Diese Transformationseigens haft gilt allgemeiner:

Satz 5.12 Gegeben seien ein Eigenwert  der Matrix A 2 K (n;n) und der zugeordnete Eigenvektor ~v .
m
P
(a) Fur ein beliebiges Polynom Qm() := qj j hat die Matrix Qm(A) 2 C (n;n) den Eigenj =0
vektor ~v zum Eigenwert Qm (). Insbesondere besitzen q  A den Eigenwert q   und A +  Id
den Eigenwert  + .
(b) Die transponierte Matrix AT hat den Eigenwert , und die adjungierte Matrix A = A T
den Eigenwert .
Begrundungen: (a) Klar, aus A~v = ~v folgt
m
m
P
P
Qm (A)~v = qj Aj ~v = qj j ~v = Qm ()~v .
j =0

1 ~v

sofort Aj~v = Aj

=    = j~v 8 j 2 N 0 . Also gilt

j =0

(b) Die Determinantenregeln liefern:


det(A  Id) = det[(A
det(A  Id) = det[(A

 Id)T = det(AT

 Id);

 Id) = det[ (A  Id)T

= det(A

 Id):

Hieraus folgen die Behauptungen.

2
Die Relation (5.13) ermogli ht es, die Potenz An der Matrix A dur h die niederen Potenzen
An 1 ; An 2; : : : ; A; Id auszudru ken. Allgemein kann somit jede Potenz von A als Linearkombination des Systems Id; A; A2; : : : ; An 1 dargestellt werden. Auf diese Weise lassen si h zum
Beispiel matrixwertige Funktionen uber Potenzreihen (siehe Teil II) erklaren:
fA (t) :=


1
X
k=0

ak (tA)k ; t 2 D(fA):

BSP. (5.7) Es sei A := 10 31 die Matrix aus BSP. (5.6). Wir hatten gezeigt, dass O = (A
A2 2A + Id gilt, also A2 = 2A Id. Hieraus resultiert:

Id)2 =

A3 = 2A2 A = 3A 2 Id; A4 = 3A2 2A = 4A 3 Id; : : : ; allgemein: Ak = kA (k 1) Id; k 2 N :

Nun ist die folgende Funktion sinnvoll de niert:


etA :=

1 tk
1 ktk
X
Ak = Id + A
k!
k=0 k !
k=1
X

{z

te

tet A + (1

t)et Id =

Id

1 (k

k=2
|

et 3tet
0 et

=(

1)tk
k!

{z

1) t +1

= et

1 3t :
0 1


5.3 Ahnli he
Matrizen
O enbar konnen bei Diagonalmatrizen  = diag (1; 2; : : : ; n) Eigenwerte und Eigenvektoren direkt abgelesen werden. Wir untersu hen deshalb die Aufgabe, eine Matrix A 2 K (n;n)
mit Hilfe geeigneter Transformationen auf Diagonalgestalt zu bringen, und zwar unter Beibehaltung der Eigenwerte. Anlass dazu bietet die Relation (5.9), na h der die Matrizen A und
T 1 AT fur beliebiges T 2 Inv (C n ) dasselbe harakteristis he Polynom haben.

De nition 5.13 Zwei Matrizen A; B 2 K (n;n) heien ahnli h, wenn es eine Transformationsmatrix T 2 Inv (C n ) gibt mit
B = T 1 AT:
(5.14)

Die Beziehung (5.14) heit Ahnli hkeitstransformation.
Eine Matrix A 2 K (n;n) heie diagonalahnli h (kurz: diagonalisierbar), falls A ahnli h mit einer Diagonalmatrix  ist.

Bemerkung 5.14 Die Matrix T in (5.14) ist ni ht eindeutig bestimmt. Gibt es ein sol hes
T , so leistet au h T~ :=   T fur jedes  6= 0 das in (5.14) Verlangte.
2
Der folgende Satz gibt ein Kriterium fur die Diagonalisierbarkeit einer Matrix an.
Satz 5.15 (a) Sind A; B 2 K (n;n) ahnli h, so gilt

det(A  Id) = det(B  Id) 8  2 C ;


das heit, die Matrizen A und B haben dieselbe Determinante und dasselbe harakteristis he
Polynom und somit dieselben Eigenwerte.
(b) Ist B = T 1 AT , und ist ~v ein Eigenvektor von B zum Eigenwert , so ist T~v ein Eigenvektor von A zum selben Eigenwert .
( ) Genau dann ist A diagonalisierbar, wenn die Eigenvektoren von A eine Basis des C n bilden. Bezei hnet ~v1 ; ~v2 ; : : : ; ~vn diese Basis, so gilt mit der Modalmatrix T := (~v1 ; ~v2 ; : : : ; ~vn )
die Beziehung
T 1 AT =  = diag (1 ; 2 ; : : : ; n);
(5.15)
sofern die Zuordnung A~vj = j ~vj
Spektralmatrix von A.

8 j = 1; : : : ; n, angenommen wird. Die Matrix  heit die

Begrundungen: (a) ergibt si h unmittelbar aus (5.9).


(b) Aus ~0 6= ~v und B~v = ~v resultiert AT~v = T B~v = T ~v = T~v.
( ) Ist A diagonalisierbar, so existieren T := (~t1 ; ~t2; : : : ; ~tn) 2 C (n;n) und  := diag (1 ; 2 ; : : : ; n ) 2
a (a) hat A die Eigenwerte 1 ; 2 ; : : : ; n , und gema (b) sind
C (n;n) mit der Beziehung (5.15). Gem
T~e1 = ~t1 ; : : : ; T~en = ~tn die zugeordneten Eigenvektoren. Wegen Rang T = n spannen diese den C n

auf.
Es seien umgekehrt ~v1; ~v2 ; : : : ; ~vn Eigenvektoren von A, die den C n aufspannen. Ist dann T :=
(~v1 ; ~v2 ; : : : ; ~vn) die Modalmatrix und  die Spektralmatrix von A, so gilt (5.11), oder aquivalent
T 1 AT = .
2
Bemerkung 5.16 Sind alle n Eigenwerte der Matrix A 2 K (n;n) voneinander vers hieden, so

folgt aus Satz 5.9 (b), dass die Eigenvektoren eine Basis des C n bilden. Also ist A diagonalisierbar.
2
2

3 0 1
BSP. (5.8) Zur Matrix A := 4 0 3 4 5 hatten wir bereits in Abs hnitt 5.1, BSP. (5.5), die Modalma0 0 2
trix T und ihre Inverse bere hnet. Es folgt
2
3 2
3 2
3
2
3
0 0 1
3 0 1
1 1 0
2 0 0
T 1AT = 4 1 0 1 5 4 0 3 4 5 4 4 0 1 5 = 4 0 3 0 5 = :
0 1 4
0 0 2
1 0 0
0 0 3

Das Problem der Diagonalisierbarkeit kann weiter spezialisiert werden, indem von der Modalmatrix T weitere Eigens haften gefordert werden.

De nition 5.17 (a) Die Matrix Q 2 K (n;n) heie orthogonal (K := R ) bzw. unitar (K :=
C ), wenn gilt
Q = Q 1 :

(b) Die Matrizen A; B 2 K (n;n) heien unitar ahnli h, wenn es eine unitare Transformati-

onsmatrix Q 2 C (n;n) gibt mit

B = Q AQ:

(5.16)

( ) Die Matrix A heie unitar diagonalisierbar oder normal, wenn eine Diagonalmatrix 

und eine unitare Matrix Q existieren mit

 = Q AQ:

(5.17)

Eine Matrix Q = (~q1 ; ~q2; : : : ; ~qn) 2 C (n;n) ist gema Satz 4.55 (d) genau dann unitar, wenn die
Spaltenvektoren ~q1 ; ~q2; : : : ; ~qn eine Orthonormalbasis (ON{Basis) des C n bilden: Bezei hnet
h; i das Standardskalarprodukt des C n , so gilt h~qj ; ~qk i = jk 8 j; k = 1; 2; : : : ; n. Ist also A
normal, so sind die Vektoren ~qj = Q~ej 8 j = 1; 2; : : : ; n, gema Satz 5.15 (b) die Eigenvektoren
von A. Bilden umgekehrt die Eigenvektoren ~v1; ~v2 ; : : :~vn von A eine ON{Basis des C n , so ist
die Modalmatrix Q := (~v1; ~v2 ; : : : ; ~vn) unitar, und es gilt (5.17). Zusammenfassend erhalt man
den ersten Teil des folgenden Satzes:
Satz 5.18 (a) Genau dann ist A 2 K (n;n) normal, wenn die Eigenvektoren ~v1 ; ~v2 ; : : : ; ~vn von
A eine ON{Basis des C n bilden.
(b) Ist A 2 K (n;n) normal, so gestattet die Matrix A die Spektralzerlegung
A=

n
X
k=0

j ~vj
~vj :

Hierin bezei hnet 1 ; 2 ; : : : ; n die Eigenwerte der Matrix A und ~v1 ; ~v2 ; : : : ; ~vn das zugeordnete
ON{System der Eigenvektoren.
Begrundung: (b) Da jeder Vektor ~x 2 C n in der ON{Basis die eindeutige Zerlegung ~x = C1~v1 +
C2~v2 +    + Cn~vn hat, gilt einerseits A~x = C1 1~v1 + C2 2~v2 +    + Cn n~vn . Andererseits gilt au h
n
X
j =1
n

und somit P j
j =1

BSP. (5.9)

j ~vj
~vj ~vk =

n
X
j =1

j h~vk ; ~vj i ~vj = k ~vk ; k = 1; 2; : : : ; n;

~vj
~vj ~x = C1 1~v1 + C2 2~v2 +    + Cn n~vn .
2

Die Matrix A := 4

1 1 0
1 2 1
0 1 1

3
5

hat das harakteristis he Polynom


1  1
0
1 2  1 = (1 )( 3):
P3 () := det(A  Id) =
0
1 1 
Wir haben drei vers hiedene Eigenwerte 1 = 0; 2 = 1; 3 = 3, und dazu gehoren drei normierte Eigenvektoren
2
2
2
3
3
3
1
1
1
1
1
1
~v1 := p 4 1 5 ; ~v2 := p 4 0 5 ; ~v3 := p 4 2 5 ;
3 1
2 1
6 1

die o enbar eine ON{Basis des C 3 bilden. Man erhalt weiterhin mit Q := (~v1 ; ~v2 ; ~v3 ) die behauptete Relation

p p p
1 p2 2 p2
Q AQ = 4 3 0 3
6
2

3 2
5 4

1 1 0
1 2 1
0 1 1

p p
3
2
3
p2 3 1 5 4 0 0 0 5
p2 p0 2 = 00 10 03 = :
2 3 1

3 2
5 4

Wie das Beispiel zeigt, ist es re ht muhsam, Normalitat einer Matrix A uber die Orthonormalitat der Eigenvektoren na hzuprufen. Ein einfa hes Kriterium liefert der
Satz 5.19 Genau dann ist A 2 K (n;n) normal, wenn A A = AA gilt.
Begrundung: Wir zeigen,

dass die Bedingung AA = AA notwendig fur die Normalitat von A ist.
Auf den Na hweis der Hinlangli hkeit soll hier verzi htet werden. Wir verweisen auf die Literatur
(z.B.J. Stoer/R. Bulirs h, Einfuhrung in die Numeris he Mathematik II, dort Satz (6.4.3)). Sei
also A normal. Dann gilt (3.4), und somit au h
QQ = A; Q Q = A ; AA = QQ Q Q = Q Q ; A A = Q Q :
Wegen  =   folgt AA = AA.
2
BSP. (5.10)

Fur die Matrizen


2

A := 4

2i 0 i
0 1 0 5;
i 0 2i

A = 4

2i 0 i
0 1 0
i 0 2i

3
5

hat man ganz o ensi htli h AA = A A, wie folgende Re hnung zeigt:
2

AA = 4

2i 0 i
0 1 0
i 0 2i

32
54

2i 0 i
0 1 0
i 0 2i

=4

5 0 4
0 1 0
4 0 5

=4

2i 0 i
0 1 0
i 0 2i

32
54

2i 0 i
0 1 0
i 0 2i

3
5

= A A:

Gema Satz 5.19 ist A normal. Tatsa hli h hat A die Eigenwerte 1 = 1; 2 = i; 3 = 3 i, und dazu gehoren
die drei normierten Eigenvektoren
2

~v1 := 4

p 1
p
1
0
2
1 5 ; ~v2 := 2 4 0 5 ; ~v3 := 22 4 0 5 :
1
1
0
3

Diese bilden eine ON{Basis des C 3 .

Sonderfall I. Gelte A = A , das heit, A 2 K (n;n) sei symmetris h (K := R ) bzw. hermites h (K := C ).


Satz 5.20 Es sei A = A 2 K (n;n) . Dann gelten die folgenden Aussagen:
(a) A ist normal.
(b) Es gibt eine ON{Basis des C n aus Eigenvektoren von A.
( ) Alle Eigenwerte von A sind reell.
Begrundungen: (a) Wegen A = A gilt trivialerweise AA = A A. Man verwende nun Satz 5.19. Aussage (b) ist eine Folgerung aus Satz 5.18. Zu ( ): Sei  Eigenwert von A, und sei ~0 6= ~v zugeordneter

Eigenvektor. Dann folgt

h~v ; ~vi = hA~v ; ~v i = h~v ; A~vi = h~v; A~v i = h~v ; ~vi;

also  = .

BSP. (5.11)

3 0 1
0 4 0
1 0 3

Gegeben sei die symmetris he Matrix A := 4

Polynom wie folgt lautet:

= A ; deren harakteristis hes

3  0
1
0 4  0 = ( 4)2 ( 2):
P3 () = det(A  Id) =
1
0 3 
Es liegen die Eigenwerte 1 = 2 (einfa h) und 2 = 4 (doppelt) vor. Man erhalt mit einfa her Re hnung
(

Kern (A 1 Id) = span p1 4


2

1
0
1

3)
5

Zur Bestimmung von Kern (A 2 Id) ist das homogene Glei hungssystem
2

1 0 1
0 0 0
1 0 1

~0 = (A 2 Id)~v = (A 4 Id)~v = 4

3 2

v1
v2
v3

5 4

3
5

= ~0

zu losen. O ensi htli h ist v2 beliebig wahlbar, wahrend v1 = v3 gelten muss. Mit v2 = 0 und v1 = 1 erhalt
man den Eigenvektor
2
2
3
3
1
1
1
1
~v2 := p 4 0 5 ? ~v1 := p 4 0 5 :
2 1
2 1
Da wir aus Satz 5.20 wissen, dass ein dritter Eigenvektor senkre ht auf ~v1 und ~v2 stehen muss, setzen wir
2

~v3 = ~v1  ~v2 = 4

0
1
0

3
5

2 Kern (A  Id):
2

Die orthogonale Modalmatrix Q := (~v1 ; ~v2 ; ~v3 ) liefert jetzt die gewuns hte Diagonalisierung
2

1
Q AQ = 4
2

1 0
1 p0
0 2

1
1
0

32
54

3 0 1
0 4 0
1 0 3

32
54

1
0
1

1 p0
0 2
1 0

=4

2 0 0
0 4 0
0 0 4

3
5

= :

Das obige Beispiel zeigt, dass die Eigenraume symmetris her Matrizen paarweise senkre ht
zueinander sind. Dies gilt allgemeiner fur normale Matrizen.
p
Satz 5.21 Gegeben sei die normale Matrix A 2 K (n;n) . Bezei hne k~v k2 := h~v ; ~vi; ~v 2 C n ,

die Euklidis he Norm in C n . Dann gilt:


(a) kA~vk2 = kA~vk2 8 ~v 2 C n und Kern (A  Id) = Kern (A  Id) 8  2 C .
(b) Fur vers hiedene Eigenwerte 1 6= 2 von A gilt Kern (A 1 Id) ? Kern (A
Begrundungen: (a) Fur beliebiges ~v 2 C n

haben wir wegen AA = AA:


kA~vk22 = hA~v; A~vi = h~v; A A~vi = h~v; AA~vi = hA~v; A~vi = kA~vk22 :
Sei nun  2 C , und sei A := A  Id gesetzt. Dann gilt
A (A ) = (A  Id)(A  Id) = AA (A + A) +   Id = (A ) A :
Da also A normal ist, folgt aus dem ersten Teil der Behauptung
k(A  Id)~vk2 = k(A  Id)~vk2 8 ~v 2 C n ;
mithin Kern A = Kern(A) .

2 Id).

(b) Wir wahlen ~v1 2 Kern(A 1 Id) = Kern(A 1 Id) und ~v2 2 Kern(A
h~v2 ; ~v1 i = 0 aus folgender Re hnung:
2 h~v2 ; ~v1 i = hA~v2 ; ~v1 i = h~v2 ; A~v1 i = 1 h~v2 ; ~v1 i:
Sonderfall II. A
0 8 ~0 6= ~x 2 K n .

2 K (n;n) sei positiv

2 Id). Wir erhalten

de nit, das heit, es gelte A = A und hA~x; ~xi >

Satz 5.22 Gegeben sei die Matrix A 2 K (n;n) . Dann gelten die folgenden Aussagen:
(a) A positiv de nit ) A normal.
(b) A positiv de nit genau, wenn A = A gilt und alle Eigenwerte von A positiv sind.
( ) A 2 Inv (K n ) ) AA positiv de nit.
Begrundungen: (a) Wegen A = A

ist jede positiv de nite Matrix trivialerweise normal.


(b) Gema Satz 5.20 (b) gibt es eine ON{Basis des C n aus Eigenvektoren ~v1; ~v2 ; : : : ; ~vn von A. Seien
1 ; 2 ; : : : ; n die zugeordneten Eigenwerte. Fur jeden Vektor ~x 2 C n ; ~x 6= ~0, gilt eine Zerlegung
n
n
P
P
~x = j ~vj mit j j j2 > 0. Wir folgern
j =1

j =1

hA~x; ~xi =

n
DX
j =1

j j ~vj ;

n
X
k=1

k~vk

n
X
j =1

j j j j2 :

Man erkennt, hA~x; ~xi > 0 8 ~0 6= ~x 2 C n gilt genau dann, wenn j > 0 8 j = 1; : : : ; n, erfullt ist.
( ) Wegen A 2 Inv (K n ) gilt A~x 6= ~0 8 ~0 6= ~x 2 K n , und somit hA A~x; ~xi = kA~xk22 > 0.
2
Bemerkung 5.23 Wenn A positiv de nit ist, kann  = 0 kein Eigenwert sein. Das heit, es
gilt Kern A = f~0g, und somit A 2 Inv (K n ).
2
2

2 0 1
0 2 0
1 0 2

Die Matrix A := 4

BSP. (5.12)

3
5

mit dem harakteristis hen Polynom


2  0
1
0 2  0 = (2 )( 1)( 3)
P3 () = det(A  Id) =
1
0 2 
hat die drei positiven Eigenwerte 1 = 1; 2 = 2; 3 = 3. Da A symmetris h ist, muss A au h positiv de nit
sein. Tatsa hli h gilt

hA (x ; x ; x )T ; (x ; x ; x )T i = h(2x + x ; x ; x + 2x )T ; (x ; x ; x )T i
= jx + x j + jx j + jx j + jx j > 0 8 ~0 6= ~x 2 K :
1

Sonderfall III. Es gelte A = A 1 , das heit, A 2 K (n;n) sei orthogonal (K := R ) bzw.


unitar (K := C ).
Satz 5.24 Gegeben sei die Matrix A 2 K (n;n) . Dann gelten die folgenden Aussagen:
(a) A = A 1 impliziert A normal.
(b) Genau dann gilt A = A 1, wenn AA = Id erfullt ist.
( ) A = A 1 impliziert, dass alle Eigenwerte  von A auf der Einheitskreislinie liegen:
jj = 1.

Begrundungen: (a) Klar, es gilt AA = AA 1 = Id = A 1 A = A A. Also ist A normal.


(b) Ist A = A 1 , so gilt trivialerweise AA = Id, siehe (a). Ist andererseits AA = Id; so erhalten
wir 1 = det(AA ) = j det Aj2 . Also gilt det A 6= 0, mithin A 2 Inv (K n ). Wir folgern A 1 = A 1 Id =
A 1 (AA ) = A .
( ) Sei  Eigenwert von A und ~0 6= ~v zugeordneter Eigenvektor. Dann gilt:
k~vk2 = hA A~v; ~vi = hA~v; A~vi = h~v; ~vi = jj2 k~vk2 ;

also jj = 1.

Die Matrix A 2 R(3;3) mit

BSP. (5.13)

A := 4

os
sin
0

sin 0
os 0 5 ;
0
1

A = 4

os sin 0
sin os 0 5 ;
0
0 1

AA = Id;

ist fur 2 R o ensi htli h orthogonal. Wegen


os 
sin
0
sin os  0 = (1 )( ei )( e
P3 () = det (A  Id) =
0
0
1 

i );

liegen die drei Eigenwerte 1 = 1; 2 = ei ; 3 = e i vor, und es gilt jj j = 1. Fur = 0 haben wir
1 = 2 = 3 = 1, fur =  resultiert 1 = 1; 2 = 3 = 1.

Bemerkung 5.25 (a) Das harakteristis he Polynom Pn () = det (A  Id) einer reellen
Matrix A 2 R(n;n) hat o enbar nur reelle Koezienten. Also konnen komplexe Eigenwerte nur
als konjugierte Paare auftreten:
 ist Eigenwert von A 2 R (n;n) und ~v ist zugeordneter Eigenvektor
,  ist Eigenwert von A und (~v) ist zugeordneter Eigenvektor.

Klar, wegen A = A gilt A (~v) = (A~v) = (~v) =  (~v). Speziell hat eine orthogonale Matrix
A 2 R (3;3) entweder einen oder drei Eigenwerte mit den Werten 1.
(b) Ist A 2 K (n;n) diagonalisierbar:  = T 1AT , so ist jede Potenz Ak ; k 2 N , mit derselben
Transformationsmatrix T diagonalisierbar. Es gilt namli h
(T 1AT )k = (T 1A T| )({zT }1 A |{z}
T )(    )(
T 1 AT ) = T 1 Ak T:
| {z }
= Id

Folgli h gilt:

= Id

= Id

k = diag (k1 ; k2 ; : : : ; kn) = T 1Ak T 8 k 2 N :

(5.18)

Ist A 2 Inv (K n ), so bleibt (5.18) sogar fur alle k 2 Z ri htig, also insbesondere au h fur
negative Potenzen.
Allgemein gilt auf Grund von Satz 5.12 sogar fur jedes beliebige Polynom
m
P
Qm () := qj j die Beziehung
2
j =0

Qm () = diag [Qm (1 ); Qm (2 ); : : : ; Qm (n ) = T 1 Qm (A)T:

(5.19)

Index
Abbildung, 69, 72
bijektive, 73, 151
eineindeutige, 72, 151
injektive, 72, 151
lineare bijektive, 174
naturli he, 76
surjektive, 72, 151
triviale, 155
Abbildungen
R {wertige, 23
abbre hender Dezimalbru h, 65
Abel, N.H., 81, 143
abels he Gruppe, 81
Abs hatzverfahren, 93
Abstand, 98
orientierter, 57
Punkt { Ebene, 60
Punkt { Gerade, 232
Punkt { Untermannigfaltigkeit, 55
Ursprung { Gerade, 231
Ursprung { Hyperebene, 57
zweier Ebenen, 55
zweier Geraden, 232
zweier Untermannigfaltigkeiten, 55
abzahlbare
Menge, 153
Addition
von Vektoren, 19
adjungierte
Matrix, 182
adjungierte Matrix, 241
aner
Unterraum, 164
Ahnli hkeitstransformation, 242
Algebra, 74
 {, 4
Fundamentalsatz der, 143
algebrais he Dimension, 237
algebrais he Operation
binare, 73
unare, 74

algebrais he Struktur, 74
algebrais her
Dual, 157
allgemeine
Ebenenglei hung, 58
Ans hauungsraum, 21
antihermites he
Matrizen, 186
antisymmetris he
Matrizen, 186
Approximation, 101
Aquivalenzklasse, 70
Vertreter einer, 70
Aquivalenzrelation, 70
Ar himedes, 101
Satz des, 101
arithmetis hes Mittel, 104
Assoziativgesetz, 3
verallgemeinertes, 91
aueres Produkt, 227
aufgespannter Unterraum, 27
Aufhangepunkt, 39
Ausglei hsproblem
lineares, 192
Austaus hsatz, 32
Automorphismus, 75
Axiom
Vollstandigkeits{, 99
Axiome
der Addition in R , 90
der Multiplikation, 90
Axiomensystem
der reellen Zahlen, 90
eines Korpers, 85
fur die naturli hen Zahlen, 86
Bandmatrix, 207
Basen
glei horientierte, 221
negativ orientierte, 221
positiv orientierte, 221
Basis, 190
248

{erganzungssatz, 35
{matrix, 190
{transformation
zum Basiswe hsel, 179
{vektor, 160
Cartesis he, 33
fur Bild, 160
fur Kern, 160
Standard{, 33
Bernoulli, J., 112
Bernoulli{Unglei hung, 94
bestandige
Losbarkeit, 164
Betrag, 96
eines Vektors, 43
komplexer Zahlen, 123
Beweis
indirekter, 1
bijektiv, 163
Bild, 72, 158
{raum, 159
Bildmenge, 72, 151
Binomialkoezienten, 104
Binomis her Lehrsatz, 106
Binompotenzen, 104
Bogenma, 127
Cantor, G., 1
Cardanis he Formeln, 143
Cardano, G., 143
Cartesis he
Basis, 33
Cartesis hes Produkt, 4, 110
Cau hy{S hwarzs he Unglei hung, 94
Cayley{Hamilton
Satz von, 240
harakteristis hes Polynom, 236
Cholesky
{Zerlegung, 206
Cramers he Regel, 223
Darstellung
explizite, 236
Darstellung des Nullvektors
ni httriviale, 28
triviale, 28
de Morgans he Formeln, 3
Dedekind, R., 99
Dedekinds her S hnitt, 99

De nition
Produkt{, 88
Summen{, 87
De nitionsberei h, 152
maximaler, 152
Determinanten
{multiplikationssatz, 225
Re henregeln, 215
Volumina, 219
Dezimalbru h
abbre hender, 65
ni htperiodis her, 68
periodis her, 65
Diagonal
{elemente, 8
{strategie, 201
diagonalahnli h, 242
diagonaldominant, 195
diagonalisierbar, 242
Di erenzmenge, 2
Dimension
algebrais he, 237
endli he, 33
dimensional
unendli h, 34
Dimensions
{formel, 162
{satz
fur Unterraume, 35
direkte
Zerlegung, 26
Distanz, 45, 98
Distributivgesetz, 3
verallgemeinertes, 91
Division
mit Rest, 138
Division mit Rest, 64
Divisionsalgorithmus
Euklidis her, 80, 139
Divisionsrest, 78
dominantes Element, 3
Drall, 231
Dreh
{impuls, 231
{moment, 231
Drehung, 189
der Standardbasis, 181
Dreie ks
{determinante, 217

{matrizen
Links{, 198
Re hts{, 198
{unglei hung, 97, 98
Dual
algebrais her, 157
Dur hs hnittsmenge, 2
dyadis hes
Produkt, 169
Ebene, 28, 38
Euklidis he, 126
Ebenenglei hung
allgemeine, 58
Eigens haft
Extremal{, 192
Eigens haften
Skalarprodukt, 43
Vektorprodukt, 228
Eigenvektor, 235
Eigenwert, 235
{problem, 235
Einbettung, 73
eindeutige
Losung, 164
Eindeutigkeit, 28
Einheits
{matrix, 168
{normale, 56
{normalenvektor, 56
{vektor, 27, 45
{wurzeln
komplexe, 135
Einheitskreislinie, 127
Eins hrankung, 73
Einselement, 74, 82
Element
dominantes, 3
grotes, 71
inverses, 74
einer Gruppe, 81
inverses der Addition, 122
inverses der Multiplikation, 122
invertierbares, 74
kleinstes, 71
neutrales, 3, 74, 122
der Addition, 90
der Multiplikation, 90
einer Gruppe, 81

elementare
Permutation, 199
Umformungen eines Vektorsystems, 36
Elementarereignis, 108
Elementarmatrix, 224
Elementpaar
geordnetes, 4
Eliminationss hritt, 196
endli he
Menge, 153
Endomorphismus, 75, 155
Entfernung, 45
Entwi klung
na h Zeilen, 215
na h Spalten, 214
Entwi klungssatz
von Grassmann, 229
von Lapla e, 214
Epimorphismus, 75
equilibriert, 202
Ereignis, 108
{algebra, 109
Elementar{, 108
si heres, 108
unmogli hes, 108
Erganzung
quadratis he, 121
Erganzungs
{raum, 37, 162
{vektoren, 32
Ergebnisraum, 108
Erweiterungskorper, 121
Euklid, 80
euklidis he
Lange, 43
Metrik, 45
Euklidis he Ebene, 126
euklidis her
Vektorraum, 46
Euklidis her Divisionsalgorithmus, 80, 139
Euklidis her Teileralgorithmus, 138
Eulers he
Zahl, 132
explizite Darstellung, 236
Exponentialfunktion
komplexe, 131, 132
Funktionalglei hung, 132
Extremaleigens haft, 192

Faktoralgebra, 78
Fakultat
Funktionalglei hung, 89
s hlagt jede Potenz, 108
Fehlerquadrate, 192
Ferro, S. Del, 143
Fla heninhalt
Parallelogramm, 220
Formel
geometris he Summen{, 92
Stirlings he, 89
Formeln
Cardanis he, 143
de Morgans he, 3
von Moivre, 134
Fortsetzung, 73
Fourier
{Koezienten, 51
Freiheitsgrade, 17
Fundamental
{matrix, 190
{satz der Algebra, 143
Funktion, 72
matrixwertige, 241
Funktional
lineares, 157
Funktionalglei hung
der Fakultat, 89
der komplexen Exponentialfunktion, 132
Funktionenraum, 20, 23, 72
ganze Zahlen, 64
Gauss
Zahlenebene, 125
Gauss, C.F., 91, 126, 143
Gauss{
Algorithmus, 11
Normalglei hungen, 192
Gauss{Algorithmus
Diagonalstrategie, 201
mit Spaltenpivotisierung, 201
numeris he Behandlung, 196
ohne Pivotisierung, 197
relative Spaltenmaximumstrategie, 203
Spaltenmaximumstrategie, 202
vollstandige Maximumstrategie, 202
geometris he
Summenformel, 92
geometris hes Mittel, 104

geordnete Probe, 111


geordnetes Elementpaar, 4
Gerade, 28, 38
Gesetz
Assoziativ{, 3
Distributiv{, 3
Idempotenz{, 3
Kommutativ{, 3
Glei hheit
von Spalten, 216
von Zeilen, 216
Glei hungen
quadratis he, 121
Glei hungssystem
eindeutiger Typ TYP(I), 8
homogenes, 7
homogenes lineares, 29
inhomogenes, 7
inhomogenes lineares, 41
lineares, 5
mehrdeutiger Typ TYP(II), 10
Skalierung, 202
unlosbarer Typ TYP(III), 10
Gradma, 127
Grams he
Matrix, 190
Grassmanns her Entwi klungssatz, 229
groter gemeinsamer Teiler, 79
Gruppe, 81
abels he, 81
ni ht{kommutative, 154
Gruppoid, 81
Halbgruppe, 81
symmetris he, 154
Transformations{, 154
Haupt
{wert, 128
hermites he
Matrizen, 185
Projektion, 190
Hesse{Normalform (HNF), 231
einer Hyperebene, 56
Hilbert, D., 90
Hintereinanderausfuhrung, 113, 153
homogenes
Glei hungssystem, 7
Homomorphismus, 75, 155
Horner, W.G., 139

Ja obi{Rotation, 189

{matrix, 157
{verglei h, 141
Binomial{, 104
der Linearkombination, 26
Fourier{, 51
Kofaktor, 225
Kommutativgesetz, 3
Komplement, 3
{menge, 2
komplexe
Exponentialfunktion, 132
Wurzeln, 134
Zahlen, 121
komplexe Exponentialfunktion
Funktionalglei hung, 132
komplexe Zahlen
Argument, 130
Betrag, 123
konjugiert, 123
Polardarstellung, 125, 130
Potenzen, 124
Quadratwurzeln, 125
komplexes Polynom, 136
Komponenten, 33
Kompositum, 113, 153
kongruent modulo, 78
Kongruenzrelation, 75, 128
konjugiert
komplexe Zahl, 123
Matrix, 182
Koordinatentransformation
zum Basiswe hsel, 179
Korper, 81, 85
algebrais h abges hlossener, 146
der komplexen Zahlen, 122
der reellen Zahlen, 90
Erweiterungs{, 121
geordneter, 90
vollstandig geordneter, 92
Korrespondenz, 69, 72, 151
Kreis
{linie, 136
{s heibe, 136
Kreuzprodukt, 59, 227
Krone ker{Symbol, 49

Kantenvektoren, 219
Kern, 158
Koezienten

Lagrange
Identitat, 230
Lange

Horner{S hema, 139


vollstandiges, 142
Hulle
lineare, 27
Hyperebene, 38
Idempotenzgesetz, 3
Identitat, 73
Lagranges he, 230
Identitatssatz fur Polynome, 144
image, 159
imaginare Einheit, 122
Implikation, 1
Index
{vertaus hung
zyklis he, 227
Spalten{, 22
Zeilen{, 22
Indirekter Beweis, 1
Induktion
Verankerung, 86
vollstandige, 86
induzierte
Norm, 150
In mum, 100
inhomogenes
Glei hungssystem, 7
injektiv, 163
inneres
Produkt, 43
Integritatsberei h, 83, 138
Integritatsring, 83
Intervalle, 96
Inverse, 154
Links{, 154
Re hts{, 154
inverses Element, 122
Invertierbarkeit
von Matrizen, 174
Involution, 173
irrationale Zahlen, 68
irreduzibel, 147
isomorph, 76
Isomorphismus, 75, 174

eines Vektors, 43
euklidis he, 43
Lapla e
{Wahrs heinli hkeit, 109
Entwi klungssatz von, 214
Experimente, 108
Linear
{faktor, 141
{faktorzerlegung, 144
-kombination, 26
linear
{es Funktional, 157
abhangig, 28
unabhangig, 28
lineare
Hulle, 27
lineares
Ausglei hsproblem, 192
Glei hungssystem, 5
Links
{dreie ksmatrizen, 198
{inverse, 154
{system, 221
Linkskongruenzrelation, 77
Losbarkeit
bestandige, 164
lineares Glei hungssystem, 164
Losung
eindeutige, 164
triviale, 7
Losungs
{gesamtheit, 164
des inhomogenen Glei hungssystems,
15
{menge
homogenes LGS, 159
Losungsmenge, 151
Lot
{fupunkt, 60, 232
{vektor, 232
Matrix
adjungierte, 182, 241
Band{, 207
Basis{, 190
Elementar{, 224
Fundamental{, 190
Grams he, 190
Invertierbarkeit, 174

konjugierte, 182
Modal{, 239, 242
nilpotente, 168
normale, 243
quadratis he, 163, 164
Rotations{, 189
Spektral{, 242
transponierte, 182, 241
unitar diagonalisierbare, 243
unitare, 243
matrixwertige Funktion, 241
Matrizen
{produkt
Multiplikationsregel, 166
Re henregeln, 167
antihermites he, 186
antisymmetris he, 186
diagonaldominante, 195
hermites he, 185
orthogonale, 187
positiv de nite, 193
symmetris he, 185
unitar ahnli he, 243
unitare, 187
zeilendominante, 195
Matrizenprodukt, 166
Maximum, 71
Menge, 1
{n, glei hma htige, 153
abzahlbare, 153
Di erenz{, 2
Dur hs hnitts{, 2
endli he, 153
geordnete, 70
komplementare, 2
Potenz{, 3
Quotienten{, 71
unendli he, 153
Vereinigungs{, 2
vollstandig geordnete, 70
Mengenalgbra, 74
Mengenalgebra, 2, 4
Mengenoperationen, 2
Metrik, 46, 98
euklidis he, 45
Minimum, 71
Mittel
arithmetis hes, 104
geometris hes, 104

Modalmatrix, 239, 242


Modul, 82
modulo, 78
Moivre
Formeln, 134
Momentenglei hung, 231
Monomorphismus, 75
Multiplikation
mit Skalaren, 19
Multiplikationsregel
Matrizenprodukt, 166
n{Tupel, 110
geordnetes, 110
naturli he Zahlen, 63
Axiomensystem, 86
negativ orientierte
Basen, 221
neutrales Element, 3, 122
ni ht{kommutativ
Gruppe, 154
ni htperiodis her Dezimalbru h, 68
ni httriviale
Darstellung des Nullvektors, 28
nilpotente
Matrix, 168
Norm, 123
induzierte, 150
normal
Matrix, 243
Normalenvektor, 58
Normalform
Hesse{ (HNF), 231
Plu ker{ (PNF), 231
Normalglei hungen
Gauss{, 192
normierter
Vektorraum, 46
Null
{matrix, 168
{polynom, 136
{raum, 159
{stelle, 142
{vektorraum, 23
Nullelement, 82
Nullstelle
Ordnung der, 144
Vielfa hheit der, 144
Nullteiler, 83

nullteilerfrei, 84
Numeris he Behandlung
Gauss{Algorithmus, 196
obere S hranke, 100
Operation
algebrais he, 73
Operationstafel, 77
Ordnungsrelation, 70, 92
Re henregeln, 93
orientierter
Abstand, 57
orientierter Vektorraum, 221
Orthogonal
{basis, 48
{projektion, 170
auf eine Hyperebene, 170
orthogonal, 43, 48
orthogonale
Matrizen, 187
Projektion, 53, 62, 190
Ri htung, 231
Zerlegung, 52
Orthonormalisierungsverfahren, 49
Ortsvektoren, 21
Parallel a h, 219
Parallelogramm
Fla heninhalt, 220
Parallelotop, 219
3{Parallelotop, 220
Parameterdarstellung, 39
einer Ebene, 39
von Geraden, 39
Partition, 70
Pas al, B., 105
Pas als hes Dreie k, 105
Peano, G., 86
periodis her Dezimalbru h, 65
Permutation, 112
elementare, 199
Pfeile, 21
Pivot
{element, 197
{wahl, 201
Plu ker{Normalform (PNF), 231
Polardarstellung, 125, 130
Polya, G., 116
Polynom, 136

n{ten Grades, 136

{Nullstelle, 142
{ring, 137
harakteristis hes, 236
Identitatssatz, 144
irreduzibles, 147
komplexes, 136
Null{, 136
Prim{, 147
reelles, 136
teilbar, 143
positiv de nite
Matrizen, 193
positiv orientierte
Basen, 221
Potenz
{menge, 3
einer Matrix, 168
Fakultat s hlagt jede, 108
mit rationalen Exponenten, 103
Potenzen, 91
Binom{, 104
komplexer Zahlen, 124
Praehilbertraum, 46
Primzahl, 84, 85
Prisma, 220
Probe
geordnete, 111
ungeordnete, 111
Problem
Eigenwert{, 235
Produkt
(MP){, 156
{regel, 111
aueres, 227
Cartesis hes, 4, 110
De nition, 88
dyadis hes, 169
inneres, 43
Kreuz{, 59, 227
Matrix mit einem Vektor, 156
Spat{, 228
Vektor{, 59
Projektion, 189
hermites he, 190
kanonis he, 76
orthogonale, 53, 62, 170, 190
Vektor auf Hyperebene, 62
Prufen auf lineare Unabhangigkeit, 30

Punkt, 38
quadratis h
Matrix, 163, 164
quadratis he
Erganzung, 121
Glei hungen, 121
Quadratwurzeln
komplexer Zahlen, 125
Quantoren, 1
Quotientenmenge, 71
Rang, 160
range, 159
rationale Zahlen, 64
Realteil, 123
Re henregeln
der Ordnungsrelation, 93
fur Determinanten, 215
fur Vektoren, 19
Matrizenprodukt, 167
Tensorprodukt, 170
Re hte{Hand{Regel, 221
Re hts
{dreie ksmatrizen, 198
{inverse, 154
{system, 34, 221, 229
reelle Zahlen, 63
Axiomensystem, 90
Regel
Cramers he Regel, 223
Produkt{, 111
Re hte{Hand{Regel, 221
von Sarrus, 213
Relation, 69
antisymmetris he, 69
Aquivalenz{, 70
Ordnungs{, 70, 92
re exive, 69
symmetris he, 69
transitive, 69
Reprasentanten, 22
Restklasse, 78
Restklassenkorper, 86
Restklassenring, 83
Ri htung
orthogonale, 231
Ri htungsvektoren, 39
Ring, 81, 82

assoziativ{kommutativer, 82
assoziativer, 82
mit Einselement, 82
Integritats{, 83
Polynom{, 137
Rotation
Ja obi{, 189
Rotationsmatrix, 189
Runi, P., 140
Sarrus
Regel von, 213
Satz
Austaus h{, 32
Basiserganzungs{, 35
Binomis her Lehr{, 106
des Ar himedes, 101
Entwi klungssatz von Grassmann, 229
Entwi klungssatz von Lapla e, 214
Fundamentalsatz der Algebra, 143
Identitatssatz fur Polynome, 144
von Cayley{Hamilton, 240
Wurzelsatze von Vieta, 145
S herung, 219
S hmidts hes Orthonormalisierungsverfahren, 49
S hnittgerade zweier Ebenen, 61
S hnittmannigfaltigkeit, 41
S hnittmenge
Gerade und Ebene, 233
zweier Ebenen, 233
zweier Geraden, 233
S hranke
obere, 100
untere, 100
Semifakultat, 89
si heres Ereignis, 108
Signum, 96
Skalaren
{vektor, 18
-vektorraum, 20
skalares
Vielfa hes, 19, 26
Skalierung
eines Glei hungssystems, 202
Spalten
{ausraumen, 11
{index, 22
{maximumstrategie, 202

relative, 203
{pivotisierung, 201
{vektor, 18
{vertaus hung, 215
{zahl, 22
Spann, 27
Spat, 219
Spatprodukt, 228
Spektralmatrix, 242
Spektralzerlegung, 243
Spiegelraum, 173
Spiegelung, 173
an einer Geraden, 172
an einer Hyperebene, 173
Spur, 236
Standard
{basis, 33
{orientierung, 221
{skalarprodukt, 43, 150
Standardbasis
{vektor, 235
Stirlings he Formel, 89
Stufenform, 9
Summationsindex, 87
Summe
De nition, 87
zweier Vektoren, 19
Summen
{formel,
geometris he, 92
Supremum, 100
Supremumsprinzip, 100
surjektiv, 163
symmetris he
Matrizen, 185
Tartaglia, N., 143
Taylor, B., 141
Taylor{Entwi klung, 142
Teileralgorithmus
Euklidis her, 138
teilerfremd, 79, 83
Tensorprodukt, 169
Hintereinanderausfuhrung, 174
Re henregeln, 170
Tertium non datur, 1
Tetraeder, 220
Transformationsmatrix, 178
transponiert

Matrix, 182
transponierte Matrix, 241
transponierter
Vektor, 18
Transposition, 169
triviale
Darstellung des Nullvektors, 28
Losung, 7
Tupel, 110
Umformungsverfahren, 93
Umkehrabbildung, 73, 151
unendli h
{dimensional, 34
unendli he
Menge, 153
ungeordnete Probe, 111
Unglei hung
Bernoulli{, 94
Cau hy{S hwarzs he, 94
Dreie ks{, 97, 98
unitar
ahnli he Matrizen, 243
diagonalisierbare Matrix, 243
unitare
Matrizen, 187
unitare Matrix, 243
unmogli hes Ereignis, 108
unorientierter
Winkel, 48
Unteralgebra, 74
untere S hranke, 100
Untermannigfaltigkeit
lineare, 38
Unterraum
aner, 164
aufgespannter, 27
Urbild, 72
Urbildmenge, 72, 151
Urnenmodell, 116
Vektor
{produkt, 59
Anwendungen, 231
Eigens haften, 228
{raum, 20, 157
euklidis her, 46
komplexer, 20
normierter, 46

orientierter, 221
reeller, 20
{system, 31
Basis{, 160
Betrag, 43
Einheits{, 45
Kanten{, 219
Lange, 43
Lot{, 232
Normalen{, 58
transponierter, 18
Vektoren, 5
Orts{, 21
Re henregeln, 19
Ri htungs{, 39
Vereinigungsmenge, 2
Vererbung, 86
Verknupfung, 73, 153
assoziative, 73
distributive, 75
kommutative, 73
Verkurzung, 31
Verlangerung, 31
Vertaus hung
von Spalten, 215
von Zeilen, 215
Vielfa hes
skalares, 19, 26
Vielfa hheit der Nullstelle, 144
Vieta, F., 145
Vietas he Wurzelsatze, 145
Vollrang, 166
vollstandig
Induktion, 86
vollstandige Maximumstrategie, 202
vollstandiges Horner{S hema, 142
Vollstandigkeitsaxiom, 99
Volumina
Anwendungen von Determinanten, 219
ni ht orientierte, 220
orientierte, 220
Vorzei henparkett, 214
Wahrs heinli hkeitsverteilung, 109
Winkel
{funktion, 128
unorientierter, 48
Winkelmessung, 127
Wurfel

n{dimensionaler, 219
Wurzeln, 103
komplexe, 134
komplexe Einheits{, 135
Zahl
Eulers he, 132
zusammengesetzte, 83, 84
Zahlen
{ebene
Gauss, 125
{gerade, 63
ganze, 64
irrationale, 68
komplexe, 121
konjugiert, 123
Polardarstellung, 125, 130
Potenzen, 124
Quadratwurzeln, 125
naturli he, 63
Axiomensystem, 86
rationale, 64
reelle, 63
Axiomensystem, 90
Zeilen
{index, 22
{vertaus hung, 215
{zahl, 22
zeilendominant, 195
Zerlegung
direkte, 26
orthogonale, 52
Zufallsexperimente, 108
zyklis h
Indexvertaus hung, 227