Sie sind auf Seite 1von 25

Determinanten und Volumina

Proseminar zur Mathematik - Lineare Algebra - SS 2010


bei Prof. Dr. rer. nat Holger Brenner

Denis Meyer

Ausarbeitung zum Vortrag vom 10.06.2010

1
Inhaltsverzeichnis
1 Einleitung 3

2 Die Determinantenfunktion 4
2.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4

3 Beispiel anhand einer 2×2-Matrix 5


3.1 Die Determinante einer 2×2-Matrix . . . . . . . . . . . . . . . 5
3.2 Geometrische Bedeutung der Determinante . . . . . . . . . . 6

4 Beispiel anhand einer 3×3-Matrix 8

5 Transformationen 10
5.1 Homogene Koordinaten . . . . . . . . . . . . . . . . . . . . . 11
5.1.1 Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . 11
5.2 Translation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
5.2.1 Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . 12
5.3 Skalierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
5.3.1 Beispiel 1 . . . . . . . . . . . . . . . . . . . . . . . . . 14
5.3.2 Beispiel 2 . . . . . . . . . . . . . . . . . . . . . . . . . 14
5.3.3 Beispiel 3 . . . . . . . . . . . . . . . . . . . . . . . . . 15
5.3.4 Beispiel 4 . . . . . . . . . . . . . . . . . . . . . . . . . 15
5.4 Rotation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
5.4.1 Beispiel 1 . . . . . . . . . . . . . . . . . . . . . . . . . 17
5.4.2 Beispiel 2 . . . . . . . . . . . . . . . . . . . . . . . . . 17
5.5 Transvektion . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
5.5.1 Beispiel 1 . . . . . . . . . . . . . . . . . . . . . . . . . 19
5.5.2 Beispiel 2 . . . . . . . . . . . . . . . . . . . . . . . . . 19
5.6 Transposition . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
5.6.1 Beispiel 1 . . . . . . . . . . . . . . . . . . . . . . . . . 21
5.6.2 Beispiel 2 . . . . . . . . . . . . . . . . . . . . . . . . . 21

6 Anhang 22
6.1 Berechnung der Determinante . . . . . . . . . . . . . . . . . . 22
6.2 Der Matrixmultiplikationssatz für Determinanten . . . . . . . 23

Abbildungsverzeichnis 24

Literatur 25

2
1 Einleitung

In dieser Arbeit wird der Zusammenhang von Determinantenfunktion und


Volumenmessung näher betrachtet.
Zur Einführung wird die Determinantenfunktion definiert (2.1).
Anschließend wird der Zusammenhang der Determinante und dem Volumen
eines Körpers anhand von zwei Beispielen erläutert:
Erstens am Beispiel einer 2×2-Matrix bzw. am Beispiel eines Parallelo-
gramms(3), dessen Determinante hergeleitet (3.1) und geometrische Bedeu-
tung anschaulich beschrieben (3.2) wird, zweitens am Beispiel einer 3×3-
Matrix bzw. am Beispiel eines Parallelotops (4).
Im finalen Kapitel werden Transformationen (5) betrachtet, welche z.B. häu-
fig in der Computergrafik gebraucht werden. Es werden die typischen Trans-
formationen Translation (5.2), Skalierung (5.3) und Rotation (5.4) und die
aus diesen zusammengesetzten Transformationen Transvektion (5.5) und
Transposition (5.6) beschrieben.
Im Anhang (6) werden ergänzende und/oder weiterführende Informationen
gegeben, die notwenig sind, um einige der Definitionen, Sätze oder Beweise
zu verstehen. Wenn diese in Form von Sätzen angeboten werden, wird auf den
Beweis verzichtet. Diese können und sollten separat nachgeschlagen werden.

3
2 Die Determinantenfunktion

2.1 Definition

Sei stets K ein kommutativer Körper und Km×n eine m×n-Matrix, d.h. eine
Matrix mit m Zeilen und n Spalten.
Definition:
Sei M ∈ Kn×n .
Eine Abbildung det: Kn×n → K heißt eine Determinantenfunktion, falls
sie die folgenden 3 Eigenschaften hat:
1. Die Abbildung ist linear in jeder Zeile.
Das bedeutet, dass ∀ i ∈ {1, ..., n} gilt
• Additivität:

     
z1 z1 z1
 ..   ..   .. 
 .   .   . 
0 zi0 
     
det 
 zi + zi  = det  zi  + det 
  
 
 ..   ..   .. 
 .   .   . 
zn zn zn

• Homogenität:

   
z1 z1
 ..   .. 

 . 

 . 
 
det 
 k · zi 
 = k · det  zi 
 
 ..   .. 
 .   . 
zn zn

2. Wenn Rang(M) < n, so ist det(M) = 0.


3. det(En ) = 1.

4
3 Beispiel anhand einer 2×2-Matrix

3.1 Die Determinante einer 2×2-Matrix


 
a b
Sei M ∈ K2×2 , M= . Dann ist die Abbildung det, definiert durch
c d
det(M ) := ad − bc
eine Determinantenfunktion.
Beweis:
1. Z.z.: Die Abbildung ist linear in jeder Zeile:
• Additivität:
a + a0 b + b0
 
det = (a + a0 )d − (b + b0 )c
c d
a0 b0
   
0 0 a b
= ad − bc + a d − b c = det + det
c d c d
und
a + a0 b
 
det = (a + a0 )d − (c + c0 )b
c + c0 d
a0 b
   
0 0 a b
= ad − bc + a d − bc = det + det
c d c0 d

• Homogenität: ∀k ∈ K gilt
   
k·a k·b a b
det = k · ad − k · bc = k(ad − bc) = k · det
c d c d
und
   
k·a b a b
det = k · ad − k · bc = k · (ad − bc) = k · det
k·c d c d

2. Z.z.: Wenn Rang(M) < 2, so ist det(M) = 0:


Wenn Rang(M) = 0, so ist det(M) = 0 · 0 - 0 · 0 = 0.
Wenn Rang(M) = 1, so ist eine der beiden Zeilen das Vielfache der
anderen und es folgt
   
a b a b
det(M ) = det = k · det = k · (ab − ab) = 0.
k·a k·b a b

3. Z.z.: det(E2 ) = 1:
 
1 0
det(E2 ) = det = 1 · 1 − 0 · 0 = 1.
0 1

5
3.2 Geometrische Bedeutung der Determinante

Zur Verdeutlichung des Zusammenhanges zwischen Betrag der Determinante


und der Fläche eines Körpers ein kurzes Beispiel:

Abbildung 1: Flächeninhaltsbestimmung anhand der Determinante


 
2×2 a b
Sei M ∈ K , M = .
c d
Die
 Fläche
 des gelb
 gefärbten Parallelogramms mit den Spaltenvektoren
a b
und ist der Betrag der Determinante von M:
c d
A(0ACB)
| {z }
Fläche Parallelogramm

= A(0A0 CB0 ) −A(A0 A2 AA1 ) − A(B0 B1 BB2 ) −A(0A1 A) − A(CB1 B) −A(0B2 B) − A(CA2 A)
| {z } | {z }| {z }| {z }
ges. Rechteck - blaue Rechtecke - rote Dreiecke - grüne Dreiecke

⇒ A(P arallelogramm)
= (a + b) · (c + d) − 2 · bc − ac − bd
= ac + ad + bc + bd − 2 · bc − ac − bd
= ad − bc
= det(M ) (siehe 3.1).

6
Die Additivität kann man anhand von folgender Abbildung deutlich machen:

Abbildung 2: Parallelogram-Seiten Verschub

Im Parallelogramm darf man eine Seite unter Beibehaltung der Höhe ver-
schieben. Es wird somit o.B.d.A. angenommen, dass zwei Rechtecke vorliegen
(siehe Transvektion (5.5)).
Auch andere Aktionen haben korrespondierende geometrische Interpretatio-
nen. Wird z.B. eine Spalte verdoppelt, verdoppelt sich auch die Fläche (bzw.
das Volumen im 3-Dimensionalen), weil so eine der Dimensionen des Paralle-
logramms (bzw. Parallelotops im 3-Dimensionalen) verdoppelt wurde (siehe
Skalierung (5.3)).

7
4 Beispiel anhand einer 3×3-Matrix

Man betrachte ein Parallelotop (auch Parallelepiped genannt):

Abbildung 3: Parallelotop (Parallelepiped)

Ein Parallelotop ist ein zusammengesetzter Körper, den jeweils zwei in par-
allelen Ebenen liegende
 kongruente Parallelogramme begrenzen.
a1 a2 a3
Sei M ∈ K3×3 , M =  b1 b2 b3  und
c1 c2 c3
seien die Zeilenvektoren a = (a1 a2 a3 ), b = (b1 b2 b3 ), c = (c1 c2 c3 )
jeweils eine der 3 an einem der Eckpunkte zusammenlaufenden Kanten.

Zuerst einige Rechenregeln:


• Das Kreuzprodukt b × c ist der Normalenvektor auf der durch b und c
aufgespannten Grundfläche base, definiert durch:
     
b1 c1 b2 c3 − b3 c2
b × c =  b2  ×  c2  =  b3 c1 − b1 c3  .
b3 c3 b1 c2 − b2 c1
Der Betrag des Kreuzproduktes ist der Flächeninhalt dieser Fläche:

|b × c| = A(base).

• Die Höhe ist gegeben durch


|h|
h = |a| · = |a| · cos(α).
|a|

• Zur Berechnung der Determinante einer Matrix M ∈ K3×3 siehe z.B.


„Regel von Sarrus“ (im Anhang (6.1)).

8
Dann ist das Volumen des Parallelotops

V (P arallelotop) = Grundf läche · H öhe


= base · h
= |b × c| · |a| · cos(α)

nach der Definition des Skalarproduktes gilt:

= |(b × c) · a|
   
b2 c3 − b3 c2 a1

=  b3 c1 − b1 c3  ·  a2 
b1 c2 − b2 c1 a3
= |a1 · (b2 c3 − b3 c2 ) + a2 · (b3 c1 − b1 c3 ) + a3 · (b1 c2 − b2 c1 )|
= |a1 b2 c3 + a2 b3 c1 + a3 b1 c2 − c1 b2 a3 − c2 b3 a1 − c3 b1 a2 |
= |det(M )|.

9
5 Transformationen

Anhand von Transformationen kann man die Position, Orientierung, Form


und Größe eines Körpers verändern.
Typische Transformationen sind Translation (Verschiebung (5.2)), Skalie-
rung (Veränderung des Maßstabs (5.3)) und Rotation (Drehung (5.4)). Li-
neare Transformationen werden durch lineare Abbildungen beschrieben:
Definition:
Eine lineare Abbildung φ : Rn → Rm weist jedem Punkt P ∈ Rn einen
Bildpunkt P’ ∈ Rm zu und es gilt ∀ Punkte P, Q ∈ Rn , ∀ α, β ∈ R:

φ(α · P + β · Q) = α · φ(P ) + β · φ(Q).

Solche Abbildungen können als Matrixmultiplikation beschrieben werden.


Sei M ∈ Km×n :

P 0 = φ(P ) = M · P.

Lineare Abbildungen, die geraden- und parallelentreu sind und bei denen das
Teilverhältnis von Strecken untereinander erhalten bleibt, werden als affine
Abbildungen bezeichnet. Mit dieser Eigenschaft werden z.B. parallele Gera-
den wieder auf parallele Geraden abgebildet und das Verhältnis des Flächen-
inhalts zweier Körper bleibt erhalten. Damit bieten sich affine Abbildungen
für Transformationen an.
Da man häufig mehrere Transformationen hintereinander auf einen Körper
anwenden möchte, um z.B. eine Transvektion (5.5) oder eine Transposition
(5.6) zu erreichen, werden Transformationen durch Matrizen repräsentiert.
Man kann die jeweiligen Matrizen dann multiplizieren, um Transformationen
zu verknüpfen.
Im Folgenden wird der Zusammenhang zwischen solch einer Änderung der
Matrix und der evtl. daraus resultierenden Änderung der Determinante be-
trachtet.

10
5.1 Homogene Koordinaten

Damit die Darstellung solcher Transformationen durch eine Multiplikation


der Koordinaten mit Matrizen jedoch möglich ist, wurden homogene Koordi-
naten (auch Verhältniskoordinaten genannt) eingeführt. Die einzelne Koor-
dinate hat keine unmittelbare Bedeutung mehr für die Lage eines Punktes.
Die Lage ist aus dem Verhältnis der Koordinaten zueinander bestimmt.
 
x
Sei P = ein Punkt mit kartesischen Koordinaten.
y
 
xh
P hat die homogenen Koordinaten  yh , w 6= 0 mit
w
xh = x · w
yh = y · w,

d.h. P erhält zusätzlich eine 3. Koordinate und repräsentiert somit eine Ur-
sprungsgeradeim R 3.

x 0
Nun sei P 0 = ein Punkt mit kartesischen Koordinaten und λ ∈ R.
y0
Zwei Punkte P und P’ repräsentieren genau dann denselben Punkt, wenn
einer ein Vielfacher des anderen ist, d.h. wenn
   0 
xh xh
 yh  = λ ·  y 0  .
h
w w0

5.1.1 Beispiel
 
x
Sei Punkt P =  y , w 6= 0.
w
   
x x/w
Die Koordinaten  y  und  y/w  beschreiben beide P, da
w 1
   
x x/w
P =  y  = w ·  y/w  .
w 1
 
x/w
sind somit die kartesischen Koordinaten von P.
y/w

11
5.2 Translation
 
x
Die Translation ist eine gradlinige Verschiebung des Punktes P = um
y
 
tx
einen Translationsvektor T = mit
ty

x0
       
x tx x + tx
P0 = =P +T = + = .
y0 y ty y + ty

Eine Translation in homogenen Koordinaten sieht nun folgendermaßen aus:


 0       
x 1 0 tx x x + tx
 y 0  =  0 1 ty  ·  y  =  y + ty 
w0 0 0 1 w w

Wie man sieht, ändert sich durch eine Translation nichts am Volumen des
translatierten Körpers (siehe „Der Matrixmultiplikationssatz für Determi-
nanten“ (6.2)).

5.2.1 Beispiel

Translation eines Rechtecks und eines Kreises:

Abbildung 4: Translation von Rechteck und Kreis

12
5.3 Skalierung

Die Skalierung ist eine Veränderung des Maßstabs, d.h. eine Vergrößerung
bzw. Verkleinerung
  bzgl. eines Fixpunktes. Eine
 Skalierung des Punktes
x sx
Punktes P = um den Vektor S = ist gegeben durch:
y sy

x0
       
0 x sx x · sx
P = =P ·S = · = .
y0 y sy y · sy

Wenn sx = sy , so nennt man die Skalierung uniform, wenn jedoch sx 6= sy ,


so wird verzerrt.
Eine Skalierung in homogenen Koordinaten sieht nun folgendermaßen aus:
 0       
x sx 0 0 x x · sx
 y 0  =  0 sy 0  ·  y  =  y · sy 
w0 0 0 1 w w
 
zx
Bei der Wahl eines Fixpunktes Z = geht man folgendermaßen vor:
zy


−zx
1. Translation um
−zy
 
sx
2. Skalierung mit
sy
 
zx
3. Rücktranslation um
zy
Wie man sieht, ändert sich durch eine Skalierung das Volumen des skalierten
Körpers (siehe „Der Matrixmultiplikationssatz für Determinanten“ (6.2)).

13
5.3.1 Beispiel 1

Skalierung eines Rechtecks mit sx = 4 und sy = 2 bzgl. des Ursprungs:

Abbildung 5: Skalierung eines Rechtecks bzgl. des Ursprungs

5.3.2 Beispiel 2

Skalierung eines
  Rechteckes mit sx = 3 und sy = 2 nach der Wahl eines
1
Fixpunktes :
5

Abbildung 6: Skalierung eines Rechtecks bzgl. eines Fixpunktes

14
5.3.3 Beispiel 3

Skalierung eines Rechtecks mit sx = 2 und sy = 2 bzgl. des Ursprungs mit


Angabe der Matrizen:

Abbildung 7: Skalierung eines Rechtecks bzgl. des Ursprungs

5.3.4 Beispiel 4

Skalierung eines Parallelotops mit sx = 2, sy = 2 und sz = 2 bzgl. des


Ursprungs mit Angabe der Matrizen:

Abbildung 8: Skalierung eines Parallelotops bzgl. des Ursprungs

15
5.4 Rotation
 
x
Die Rotation eines Punktes P = ist die Drehung bzgl. eines Fixpunk-
y
tes um einen Winkel β:
 0       
0 x cos(β) −sin(β) x x · cos(β) − y · sin(β)
P = = · =
y0 sin(β) cos(β) y x · sin(β) + y · cos(β)

Eine Rotation in homogenen Koordinaten sieht nun folgendermaßen aus:


 0       
x cos(β) −sin(β) 0 x x · cos(β) − y · sin(β)
 y 0  =  sin(β) cos(β) 0  ·  y  =  x · sin(β) + y · cos(β) 
w0 0 0 1 w w
 
rx
Bei der Wahl eines Rotationszentrums R = geht man folgenderma-
ry
ßen vor:
 
−rx
1. Translation um
−ry
2. Rotation um den Winkel β bzgl. des Ursprungs
 
rx
3. Rücktranslation um
ry
Wie man sieht, ändert sich durch eine Rotation nichts am Volumen des
rotierten Körpers (siehe „Der Matrixmultiplikationssatz für Determinanten“
(6.2)).

16
5.4.1 Beispiel 1

Rotation eines Rechtecks um den Winkel β bzgl. des Ursprungs:

Abbildung 9: Rotation eines Rechtecks um den Winkel β bzgl. des Ursprungs

5.4.2 Beispiel 2

Rotation eines Rechtecks


 um den Winkel β nach der Wahl des Rotations-
2
zentrums R = :
4

Abbildung 10: Rotation um einen Winkel bzgl. des Rotationszentrums

17
Weitere Transformationsbeispiele sind:

5.5 Transvektion
 
x
Bei der Transvektion (Scherung) eines Punktes P = bleibt entweder
y
der x- oder der y-Wert fix und der jeweils andere wird in Abhängigkeit des
wiederum anderen Wertes parallel der Koordinatenachse entlang verschoben:
 0       
0 x x Schx · y x + Schx · y
P = = + =
y0 y Schy · x y + Schy · x

mit entweder Schx = 0 oder Schy = 0.


Eine Transvektion in homogenen Koordinaten sieht nun folgendermaßen aus:
 0       
x 1 Schx 0 x x + Schx · y
 y 0  =  Schy 1 0  ·  y  =  y + Schy · x  .
w 0 0 0 1 w w

mit entweder Schx = 0 oder Schy = 0.

Das Volumen ändert sich bei der Transvektion nicht, da entweder Schx = 0
oder Schy = 0 ist (siehe „Der Matrixmultiplikationssatz für Determinanten“
(6.2)).

18
5.5.1 Beispiel 1
 
x
Transvektion in x-Richtung mit Schx = 2, Schy = 0 des Punktes P =  y :
1

x0
       
1 2 0 x x+2·y
P 0 =  y0  =  0 1 0  ·  y  =  y .
w0 0 0 1 1 1

Abbildung 11: Transvektion in x-Richtung

5.5.2 Beispiel 2

Transvektion in x-Richtung mit Schx = 0.8, Schy = 0 mit Angabe der Ma-
trizen:

Abbildung 12: Transvektion in x-Richtung

19
5.6 Transposition

Die Spiegelung an der Hauptdiagonalen geschieht über die transponierte Ma-


trix, d.h. über das Vertauschen von Zeilen und Spalten.
Definition:
Sei N ∈ Km×n , N = (nij )1≤i≤m,1≤j≤n .
Dann ist N T die zu N transponierte Matrix, N T = (nji )1≤j≤n,1≤i≤m .
Satz:
Sei M ∈ Kn×n . Dann gilt:
det(M T ) = det(M ),
d.h., das Volumen ändert sich bei einer Transposition nicht.
Beweis:
Per Induktion nach n:
Fall n = 1: ∀ M1 ∈ K1×1 gilt offensichtlich det(M1T ) = det(M1 ).
Fall n > 1: Die Aussage sei richtig für n-1.
Entwickle nun det(M) durch Zeilenentwicklung nach der ersten Zeile:
n
X
det(M ) = (−1)1+j · m1j · det(M1j ).
j=1

Umgekehrt entwickle det(M T ) durch Spaltenentwicklung nach der ersten


Spalte:
n
X n
X
T j+1
det(M ) = (−1) · mTj1 · T
det(Mj1 ) = (−1)j+1 · m1j · det(Mj1
T
).
j=1 j=1

Betrachte nun die Matrizen M1j , Mj1T ∈ K(n−1)×(n−1) .

Mj1 entsteht durch Streichen der j-ten Zeile und der 1-ten Spalte von M T ,
T

M1j entsteht durch Streichen der 1-ten Zeile und der j-ten Spalte von M.
⇒ M1j und Mj1 T sind also transponierte Matrizen.

Nach Induktion folgt somit


T
det(Mj1 ) = det(M1j )
und daraus die Behauptung.

Alternativer Beweis:
Sei M ∈ Kn×n . Forme M auf eine obere Dreiecksmatrix um, so dass M’
entsteht (siehe „Das Gauß’sche Eliminationsverfahren“ (3)).
Man sieht nun leicht, dass
Spur(M 0 ) = Spur(M 0T ),
d.h., dass sich die Determinante nach Transposition nicht geändert hat.

20
Wir betrachten
  nun nur zwei sehr einfache Fälle der Spiegelung eines Punk-
x
tes P = .
y

5.6.1 Beispiel 1

Die Spiegelung an der Hauptdiagonalen:


 0       
x 0 1 0 x y
P 0 =  y0  =  1 0 0  ·  y  =  x  .
w0 0 0 1 w w

Abbildung 13: Spiegelung an der Hauptdiagonalen

5.6.2 Beispiel 2

Die Spiegelung an einer der Koordinatenachsen:


 0       
x a 0 0 x a·x
P 0 =  y 0  =  0 −a 0  ·  y  =  −a · y  .
w0 0 0 1 w w

mit entweder a = 1 (Spiegelung an der y-Achse) oder a = -1 (Spiegelung an


der x-Achse).

21
6 Anhang

6.1 Berechnung der Determinante

Sei M ∈ Kn×n .
1. Für n ≤ 3 : Nach Sarrus:
 
m11 m12 m13
det(M ) = det  m21 m22 m23 
m31 m32 m33
= m11 m22 m33 + m12 m23 m31 + m13 m21 m32
− m31 m22 m13 − m32 m23 m11 − m33 m21 m12

2. Entwicklungssatz von Laplace:


Sei M = (mij ), Mij = die durch Streichen der i-ten Zeile und j-ten
Spalte aus M gewonnene Matrix. Dann gilt ∀ i, j mit 1 ≤ i, j ≤ n:
n
X n
X
k+j
det(M ) = (−1) · mkj · det(Mkj ) = (−1)i+k · mik · det(Mik ) .
k=1 k=1
| {z } | {z }
Entwicklung nach der j-ten Spalte Entwicklung nach der i-ten Zeile

3. Das Gauß’sche Eliminationsverfahren:


Anwendung der elementaren Umformungen (Invarianz der Determi-
nantenfunktion gegenüber elementaren Zeilenumformungen) auf M, so-
dass eine obere Dreiecksmatrix der Form
 0
m11 m012 . . . m01n

 0 m0 . . . m0 
 21 2n 
 .. . . .. 
 . 0 . . 
0 . . . 0 m0nn

entsteht. Nun ist die Determinante von M das Produkt der Diagonal-
einträge:

det(M ) = Spur(M ) = m011 + . . . + m0nn

4. Formel von Leibniz : Sei n ∈ N, M ∈ Kn×n , (mij )1≤i,j≤n ∈ K, M =


(mij )1≤i,j≤n , π Permutation. Dann ist
X
det(M ) = sig(π) · m1,π(1) · . . . · mn,π(n) .
π∈Sn

22
6.2 Der Matrixmultiplikationssatz für Determinanten

Seien M, M’ ∈ Kn×n . Dann gilt:

det(M · M 0 ) = det(M ) · det(M 0 ),

d.h., die Determinante des Produkts zweier Matrizen ist gleich dem Produkt
ihrer Determinanten.

23
Abbildungsverzeichnis
1 Flächeninhaltsbestimmung anhand der Determinante . . . . . 6
2 Parallelogram-Seiten Verschub . . . . . . . . . . . . . . . . . . 7
3 Parallelotop (Parallelepiped) . . . . . . . . . . . . . . . . . . . 8
4 Translation von Rechteck und Kreis . . . . . . . . . . . . . . 12
5 Skalierung eines Rechtecks bzgl. des Ursprungs . . . . . . . . 14
6 Skalierung eines Rechtecks bzgl. eines Fixpunktes . . . . . . . 14
7 Skalierung eines Rechtecks bzgl. des Ursprungs . . . . . . . . 15
8 Skalierung eines Parallelotops bzgl. des Ursprungs . . . . . . . 15
9 Rotation eines Rechtecks um den Winkel β bzgl. des Ursprungs 17
10 Rotation um einen Winkel bzgl. des Rotationszentrums . . . . 17
11 Transvektion in x-Richtung . . . . . . . . . . . . . . . . . . . 19
12 Transvektion in x-Richtung . . . . . . . . . . . . . . . . . . . 19
13 Spiegelung an der Hauptdiagonalen . . . . . . . . . . . . . . . 21
Quellen und Lizenzen
Abbildung 1+2:
Quelle: http://www.mat.univie.ac.at/users/kriegl/public_html/Skripten/Math4Ilak1/node13.html
Im Literaturverzeichnis: [Kri10]
Urheber: Andreas Kriegl
Lizenz: Erlaubnis zur Benutzung der Bilddateien in dieser Arbeit wurde vom
Autor/Urheber schriftlich bestätigt
Stand der letzten Prüfung: 13.10.2010
Abbildung 3:
Quelle: Wikimedia Commons - http://en.wikipedia.org/wiki/File:Parallelepiped.svg
Im Literaturverzeichnis: [WiE10]
Urheber: Jitse Niesen, „Wikimedia-Community“ und Dritte
Lizenz: Frei lizensiert
Stand der letzten Prüfung: 13.10.2010
Abbildung 4+5+6+9+10+11+13:
Quelle: Osnabrücker Schriften zur Mathematik: Computergrafik, SS2010
Im Literaturverzeichnis: [Vor10]
Urheber: Oliver Vornberger
Lizenz: Erlaubnis zur Benutzung der Bilddateien in dieser Arbeit wurde vom
Autor/Urheber schriftlich bestätigt
Abbildung 7+8+12:
Quelle: Selbst erstellt mit Mathematica oder Wolfram Alpha
Im Literaturverzeichnis: [StW10]

24
Literatur

[StW99] Uwe Storch und Hartmut Wiebe Lehrbuch der Mathematik, Band
2: Lineare Algebra, 2. Auflage, 1999, pp 213-267
[Bos06] Siegfried Bosch Lineare Algebra, 3. Auflage, 2006, pp 131-154
[Beu03] Albrecht Beutelspacher Lineare Algebra, Eine Einführung in die
Wissenschaft der Vektoren, Abbildungen und Matrizen, 6. Auflage,
2003, pp 170-199
[Kut09] Gitta Kutyniok Skript Mathematik I, WS 2008/2009
[Zep04] Klaus Zeppenfeld Lehrbuch der Grafikprogrammierung - Grundla-
gen, Programmierung, Anwendung, 2004, pp 49-66
[Vor10] Oliver Vornberger Osnabrücker Schriften zur Mathematik - Compu-
tergrafik, SS 2010, pp 63-69
[Kri10] Andreas Kriegl Homepage von Andreas Kriegl, 2010
[StW10] Stephen Wolfram Wolfram Alpha - Determinants Seen Geometri-
cally, 2010
[WiD10] Wikipedia (deutsch) Wikipedia (deutsch)-Artikel zum Parallelotop
(Parallelepiped), 2010
[WiE10] Wikipedia (englisch) Wikipedia (englisch)-Artikel zum Parallelotop
(Parallelepiped), 2010

25