Sie sind auf Seite 1von 5

1 Matrizen

Definition: i) Eine m × n−Matrix A ist ein rechteckiges Schema aus Zahlen, mit m Zeilen
und n Spalten:
 
a11 a12 · · · a1n
 21 a22 · · · a2n 
 a 
 .. .. .. .. 
 . . . . 
am1 am2 · · · amn

Die Spaltenvektoren dieser Matrix seien mit ~a•1 , . . . ,~a•n bezeichnet. Wir schreiben also

A = (~a•1 , . . . ,~a•n )

oder kürzer:
A = (. . . ,~a•i , . . .)

ii) Zwei Matrizen sind gleich, wenn die Einträge an den gleichen Positionen übereinstim-
men.
 
x1
 x2 
iii) Für einen Vektor ~x =  .  und eine Matrix A ist das Matrix-Vektor-Produkt definiert
 
 .. 
xn
als:
A · ~x := x1~a•1 + . . . + xn~a•n
   
1 0
 0   .. 
 . 
iv) Sind ~e1 =   , . . . , ~en =   so heißt die n × n−Matrix
 
..
 .   0 
0 1

En = (~e1 , . . . , ~en )

die Einheitsmatrix (der Größe n).


 
cos(ψ) − sin(ψ)
Beispiel:1) Wir betrachten die Matrix Dψ := .
sin(ψ) cos(ψ)
Dann gilt:
       
cos(ψ) − sin(ψ) cos( ϕ) cos(ψ) − sin(ψ)
·r = r cos( ϕ) + r sin( ϕ)
sin(ψ) cos(ψ) sin( ϕ) sin(ψ) cos(ψ)

   
cos( ϕ) cos(ψ) − sin( ϕ) sin(ψ) cos( ϕ + ψ)
=r =r
cos( ϕ) sin(ψ) + sin( ϕ) cos(ψ) sin( ϕ + ψ)

Das Ergebnis ist also, daß der Vektor um den Winkel ψ gedreht wird.
2) Es ist     
2 0 x 2x
=
0 5 y 5y

Der Vektor wird also in x −Richtung um den Faktor 2 und in y−Richtung um den Faktor 5
gestreckt.
3) Die Matrix
cos(ψ) − sin(ψ) 0
 
 sin(ψ) cos(ψ) 0 
0 0 1

dreht in der x − y−Ebene und läßt die z−Achse unverändert.


4) Für die Einheitsmatrix En gilt En · ~x = ~x für alle ~x ∈ Rn
Grund:  
x1
 x2 
En~x = x1~e1 + . . . + xn~en = 
 
.. 
 . 
xn

Satz: Für eine m × n−Matrix A und Vektoren ~x, ~y ∈ Rn und λ ∈ R gilt:

A · (~x + ~y) = A · ~x + A · ~y

A · (λ~x ) = λ( A · ~x )

Grund: A(~x + ~y) = ( x1 + y1 )~a•1 + . . . + ( xn + yn )~a•n = x1~a•1 + . . . + xn~a•n + y1~a•1 + . . . +


yn~a•n = A · ~x + A · ~y
und A(λ~x ) = (λx1 )~a•1 + . . . + (λxn )~a•n = λ( x1~a•1 + . . . + xn~a•n ) = λ( A · ~x )
Bemerkung: Führen wir das Matrix-Vektor-Produkt nacheinander mit den Matrizen A und
B durch, so erhalten wir

B · ( A · ~x ) = B( x1~a•1 + . . . + xn~a•n )

Nach obigem Satz ist das gleich

x1 B~a•1 + . . . + xn B~a•n

Ist nun C = ( B~a•1 , . . . , B~a•n ) die Matrix, deren Spalten aus den Vektoren B~a1 , . . . , B~a•n , so ist
obiger Ausdruck gleich C · ~x. Es gilt also für alle ~x ∈ Rn :

B · ( A · ~x ) = C · ~x

Definition: Für eine m × n-Matrix A und eine k × m−Matrix B ist das Matrizenprodukt die
folgende k × n−Matrix:
B · A := ( B ·~a•1 , . . . , B ·~a•n )

Bemerkung: Praktischerweise gilt also:

B · ( A · ~x ) = ( B · A) · ~x

Satz: Das Matrizenprodukt ist assoziativ


Grund: C · ( B · A) = C · ( B · ~a•1 , . . . , B · ~a•n ) = (C · ( B · ~a•1 ), . . . , C · ( B · ~a•n ). Wegen der
obigen Bemerkung ist das gleich ((C · B) ·~a•1 , . . . .(C · B) ·~a•n ),
was nichts anderes ist, als (C · B) · A
Achtung: Das Matrizenprodukt ist nicht kommutativ:
     
1 1 0 1 1 2
· =
0 1 1 1 1 1

und      
0 1 1 1 0 1
· =
1 1 0 1 1 2

Satz: Für eine m × n−Matrix A gilt:

Em · A = A · En = A

Speziell ist also für n × n−Matrizen die Matrix En links- und rechtsneutrales Element der
Matrizenmultiplikation.
Grund: A · En = (. . . , A ·~ei , . . .) = (. . . , 0 ·~a•1 + . . . + 1 ·~a•i + . . . + 0 ·~a•n ) = (. . . ,~a•i , . . .) =
A
und Em · A = (. . . , Em ·~a•i , . . .) = (. . . ,~a•i , . . .) = A
Bemerkung: Auf Matrizen gleicher Größe ist auch eine (komponentenweise) Addition und
Multiplikation mit Skalaren definiert. Diese Operation machen die Matrizen gleicher Grö-
ßen zu einem Vektorraum, d.h. die Rechenregeln der Vektorrechnung treffen auch auf diese
Matrizen zu.
Satz: i) A · ( B + C ) = A · B + A · C
ii) A · (λB) = (λA) · B = λ( A · B) =: λA · B
Grund:i) A · ( B + C ) = A · ((. . . ,~b•i , . . .) + (. . . , ~c•i , . . .))= A · (. . . ,~b•i +~c•i , . . .)
= (. . . , A · (~b•i +~c•i ), . . .) = (. . . , A · ~b•i + A ·~c•i , . . .) = (. . . , A · ~b•i , . . .) + (. . . , A ·~c•i , . . .)=
A·B+A·C
ii) A · (. . . , λ~b•i , . . .) = (. . . , A · (λ~b•i ). . . .) = (. . . , λA · ~b•i . . . .) = (λA) · (. . . ,~b•i , . . .)
= λ(. . . , A · ~b•i , . . .)
Lemma: Für das Matrizenprodukt einer p × m−Matrix A und einer m × n−Matrix
B gilt:
m
( A · B) ji = ∑ A jk Bki
k =1

Grund: A · B = (. . . , A~b•i , . . .) = (. . . , b1i~a•1 + . . . + bmi~a•m , . . .)


In der j−ten Zeile ist das dann:

b1i a j1 + . . . + bmi a jm = a j1 b1i + . . . + a jm bmj

Definition: Die Transponierte einer Matrix ist gegeben durch

At

ij
= A ji

Es werden also Zeilen und Spalten vertauscht.


Beispiel:


 t 1 4
1 2 3
= 2 5
4 5 6
3 6

Satz: Für eine n × m−Matrix A und eine m × p−Matrix B gilt:

( A · B)t = Bt · At

Achtung: Die Reihenfolge vertauscht sich


Grund: Es ist ( A · B)ij = ∑m t m t t t t
k=1 Aik · Bkj , also ( A · B ) ji = ∑k=1 B jk · Aki = ( B · A ) ji

Satz: ( A + B)t = At + Bt und (λA)t = λAt für Matrizen A, B passender Größe.


Grund: klar
Definition: Für eine n × n−Matrix A und k ∈ N definieren wir

An := |A · .{z
. . · A}
k−mal

und
A0 := En

Bemerkung: Ist p( x ) = a0 + a1 x + . . . + an x n ein Polynom, dann ist auch dier Auswertung


von p( x ) von einer n × n−Matrix A sinnvoll:

p( A) = a0 En + a1 A2 + . . . + an An

Definition: Eine n × n−Matrix A heißt invertierbar, wenn es eine n × n−Matrix A−1 gibt,
mit
A · A−1 = A−1 · A = En
Beispiel:2x2−Matrizen
 −1 d
!
− ad−b bc
  
a b ad−bc 1 d −b
= =
c d − ad−c bc a
ad−bc ad − bc −c a

3 × 3−Matrizen
  −1
a11 a12 a13
 a21 a22 a23 
a31 a32 a33

a22 a33 − a23 a32 a13 a32 − a12 a33 a12 a23 − a13 a22
 
 a23 a31 − a21 a33 a11 a33 − a13 a31 a13 a21 − a11 a23 
a21 a32 − a22 a31 a12 a31 − a11 a32 a11 a22 − a12 a21
=
( a11 a22 − a12 a21 ) a33 + ( a13 a21 − a11 a23 ) a32 + ( a12 a23 − a13 a22 ) a31
Satz: Die Inversen von Matrizen sind (wenn sie existieren) eindeutig
Grund: Wir nehmen an es gäbe zwei Inverse, A−1 und A0 . Dann ist

A−1 · A = En = A0 · A
Multiplizieren wir diese Gleichung von rechts mit A−1 , so gilt:

A−1 · |A ·{z
A−}1 = A0 · |A ·{z
A−}1
= En = En

also
A −1 = A 0

Satz:
( A · B ) −1 = B −1 · A −1

Achtung: Die Reihenfolge vertauscht sich


Grund: Es ist ( A · B) · B−1 · A−1 = A · En · A−1 = A · A−1 = En und genauso umgekehrt.
Definition: Eine Diagonalmatrix ist eine n × n−Matrix der Gestalt
 
λ1 0 ··· 0
 .. 
 0 λ2 . 
 =: diag(λ1 , . . . , λn )
..

 ... 
 . 0 
0 ··· 0 λn

Satz: Diagonalmatrizen sind einfach: Ist D = diag(λ1 , . . . , λn ), so gilt:

D m = diag(λ1m , . . . , λm
n ) für alle m ∈ Z

Speziell:
D −1 = diag(1/λ1 , . . . , 1/λn ), falls alle λi 6= 0

und es ist
D ·~ei = λi ·~ei

für ~ei = (0, . . . , 1


|{z} , . . . , 0)t . Diagonalmatrizen stauchen, strecken oder spiegeln also
i −te Stelle
entlang der Standardbasisvektoren, insbesondere wird nichts gedreht.