Sie sind auf Seite 1von 10

Matrizenprodukte

Inhalt
Vergleich und Addition von Matrizen
Matrizenmultiplikation
Rechenregeln für die Matrizenmultiplikation
Blockmatrizen
Boolesche Matrizenmultiplikation
Invertierbare Matrizen
Orthogonale Matrizen

Vergleich und Addition von Matrizen


Ebenso wie bei der Addition oder beim Vergleich von zwei Matrizen muss beim Matrizenprodukt eine
Kompatibilitätsbedingung beachtet werden. Der Begriff der Ordnung einer Matrix wird dabei benutzt.
Eine Matrix hat die Ordnung .

Kompatibilitätsbedingung 1
Nur Matrizen gleicher Ordnung können verglichen oder addiert werden, denn die Voraussetzung
dafür ist, dass sie demselben Vektorraum angehören.
Wenn beide Matrizen , dann existiert die Summenmatrix .
Definition (Gleichheit)
Zwei -Matrizen heißen gleich, wenn ihre Koeffizienten übereinstimmen,

Definition (Kleiner-Relation, Kleiner-Gleich-Relation)


Seien . Gilt für alle , so schreibt man oder

.
Da es eine lineare Ordnung auf den komplexen Zahlen nicht gibt, wird die Kleiner- bzw. Kleiner-
Gleich-Relation nur für reelle Matrizen definiert.

Matrizenmultiplikation

Kompatibilitätsbedingung 2 (für die Matrizenmultiplikation)


Falls , d.h. die Spaltenzahl von stimmt mit der Zeilenzahl von überein,
dann ist das Matrizenprodukt als eine Matrix mit Zeilen und Spalten definiert.
Das Summenprodukt zweier Vektoren wird als Summe der elementweise multiplizierten
Vektorkoeffizienten geschrieben.

Im reellen Fall ist das euklidische Skalarprodukt.


Beispiel: Der summierende Vektor ist ein Spaltenvektor, dessen sämtliche Koeffizienten
Eins sind. Für ein hat man

MatrizenproduktIKG.docx 1
Falk-Schema für die Matrizenmultiplikation
Sei eine -Matrix. Mit (es handelt sich um ein Alpha,
nicht um ein kleines ) werde der -te Zeilenvektor von bezeichnet ( ). Dann lautet das
Produkt von mit einem Vektor

Sei nun , d.h. ist die -te Spalte von . Dann

sind und definiert und das Matrizenprodukt wird definiert durch

Diese Konstruktion wird jetzt operativ als Falk- Falk


Schema notiert:

Beispiel: Die folgenden Matrizen sollen zum Produkt verknüpft werden.


Falk

Nebenrechnungen:

Nun die mathematische Definition.


Definition (Matrizenmultiplikation)
Für zwei Matrizen heißt das
Matrizenprodukt von und , wenn der Koeffizient der Produktmatrix wie folgt berechnet
wird

Die Matrixmultiplikation ist bislang als euklidisches Skalarprodukt von zwei Vektoren beschrieben
worden, wobei der erste Vektor als Zeilenmatrix geschrieben wird. Manchmal wird dies als
Zeilendarstellung der Multiplikation bezeichnet.
Beispiel: Sei eine -Matrix und ein -dimensionaler Vektor. Das Produkt
ist ein -dimensionaler Vektor,

MatrizenproduktIKG.docx 2
[Weil der Platzhalterpunkt so schlecht zu sehen ist, steht hier die Bezeichnung mit für den -ten
Zeilenvektor.]
Die Gleichung unmittelbar zuvor kann auch als eine Linearkombination der Spaltenvektoren der
Matrix angesehen werden (Spaltendarstellung der Matrixmultiplikation),

Die sind die Linearkoeffizienten in der Linearkombination der Vektoren .


Beispiel:

Aufwendiger wird das Schreiben der Zwischenrechnungen in der Spaltendarstellung, wenn der zweite
Faktor im Matrixprodukt kein Spaltenvektor ist:
Beispiel:

Klammern dienen der Gliederung als optische Hilfe für den Leser; sie sind nicht Syntaxteil des
mathematischen Objekts Matrix . Andernfalls wäre eine Matrix in eckigen Klammern (USA)
etwas anderes als eine Matrix in runden Klammern (D),

Multiplikation mit einer Einheitsmatrix


Sei eine -Matrix und die - bzw. -reihigen Einheits-
matrizen. Dann gilt

Von Vorteil wird das Kroneckersymbol benutzt

Damit kann man die Einheitsmatrix schreiben als

Einsen stehen nur auf der Diagonalen, auf der der Zeilenindex und der Spaltenindex
übereinstimmen.

Bemerkungen:
1) allgemein ist die Matrizenmultiplikation nicht kommutativ.

Beispiel: . Es ist
aber

MatrizenproduktIKG.docx 3
Folge: In können die gemischten Terme nicht wie in der
binomischen Formel für reelle oder komplexe Zahlen zu zusammengefasst werden.

und

2) Das Produkt braucht nicht zu existieren, auch wenn das Produkt existiert.
Beispiel: . Das Produkt existiert. Aber
verletzt die Kompatibilitätsbedingung.
3) und existieren gleichzeitig nur dann, wenn und . Es ist dann
und .
Beispiel: . Dann ist und

Rechenregeln für die Matrizenmultiplikation

(i) für
für
(ii) für
(iii) für
(iv) für
(v) für
Beweis:
(ii) Sowohl in als auch in ist die Multiplikation kommutativ. Unter Ausnutzung der Assoziativität
kann ein konstanter Faktor auf eine beliebige Position im Produkt gezogen werden.

Beispiele:

ad (iii) Gegeben sind : Man berechne

mit unterschiedlicher Klammerung.

a)

MatrizenproduktIKG.docx 4
b)

c)

Es gibt noch weitere Ausführungsreihenfolgen, denn jeweils zwei benachbarte Matrizen


sind kompatibel bzgl. der Matrizenmultiplikation.

ad (iv) Gegeben sind die Matrizen

Blockmatrizen
Wenn , dann ist die Blockmatrix , bei der jedes Element
eine Matrix ist, wohldefiniert

Sofern die Matrizenmultiplikation der einzelnen Blöcke zulässig ist, können auch Blockmatrizen wie
die üblichen Matrizen multipliziert werden.
Seien mit
. Dann können die Matrizen addiert und multipliziert werden:

Beispiel:

Die Transposition einer Blockmatrix besteht aus der Transposition der Blöcke, die ihrerseits
transponiert werden.

Eine Anwendung von Blockmatrizen ist die lineare Darstellung von Bewegungen in einem späteren
Kapitel.
Wenn die Ordnung der Matrix ist, werden zur Berechnung der Matrizenmultiplikation auch
numerische Verfahren eingesetzt, die rekursiv Blöcke in absteigender Ordnung
berechnen (Algorithmus nach Strassen).

MatrizenproduktIKG.docx 5
Boolesche Matrizenmultiplikation
Definition (Relationsmatrix)
Sei eine binäre Relation auf in einer endlichen Menge , . Die
Relationsmatrix zu ist definiert durch

Beispiel: Auf wird die folgende Relation mittels einer Tabelle definiert:
1 2 3 4
1,2 3 2,3 2

Auch hier gibt es eine abweichende Definition in der Literatur, indem als dazu transponierte
Matrix definiert wird. Soll die übliche Matrizenmultiplikation für die Darstellung verketteter linearer
Abbildungen benutzt werden,

ist die hier gegebene Definition vorzuziehen.

Relationen und ihre Eigenschaften mittels Relationsmatrizen behandeln


Die Relationsmatrix hat nur Nullen und Einsen als Koeffizienten. Es ist nach den Regeln der
Boolesche Algebra zu rechnen, insbesondere ist die Idempotenz anzuwenden.
Für die Beispiele in der rechten Spalte wird die obige Relation benutzt.

1. Umkehrrelation

2. Relationenprodukt
Matrizenprodukt

Beispiel: wie zuvor, wie folgt


1 2 3 4
1,2 3 2,3 2
1 2 3, 4

1 2 2

In Octave ist logical(x) nur Null, wenn , andernfalls Eins, z.B. logical(50) ergibt die Antwort 1.

liefert das Boolesche Matrixprodukt

MatrizenproduktIKG.docx 6
3. Vereinigung
elementweise addieren

in Octave die Funktion logical benutzen

Beispiel: wie zuvor;

4. Durchschnitt
elementweise multiplizieren

in Octave: elementweise Operation mit einem Punkt vor dem Asterisk schreiben: R .* S
reflexive Hülle
5. reflexiv
irreflexiv

6. symmetrisch symmetrische Hülle

antisymmetrisch

transitive Hülle
7. transitiv
falls reflexiv:
transitiv

Nebenrechnung:

MatrizenproduktIKG.docx 7
Invertierbare Matrizen
Definition (inverse Matrix):
Sei eine n-reihige quadratische Matrix. Falls es eine Matrix gibt, so dass
für die -reihige Einheitsmatrix gilt

so heißt inverse Matrix (oder kurz die Inverse) zu [bzgl. der Matrizenmultiplikation].
Die Matrix heißt regulär oder invertierbar, wenn sie eine Inverse besitzt. Andernfalls heißt sie
singulär.
Beispiel:
. Dann ist , denn

Eigenschaften
1. Wenn invers zu ist, gilt auch

Beweis: besitze die Inverse mit . Dann ist


.
2. Die Inverse zu ist eindeutig bestimmt, falls sie existiert.
Beweis: Angenommen, es existiere mit . Dann ist
.
3. Falls die Inversen zu den Matrizen existieren, gilt

Beweis: .
Also ist invers zu . Da die Inverse eindeutig bestimmt ist, folgt die Behauptung.
4. Falls zu der Matrix existiert, gilt

Beweis: , weil die Inverse eindeutig


bestimmt ist.

Beispiel zu 1.

Beispiel zu 3. Gegeben sind .

, denn

Beispiel zu 4.

, also

Berechnung der inversen Matrix


Die Inverse einer Matrix wird numerisch mit dem Gauß-Jordan-Verfahren bestimmt.
Die erweiterte Koeffizientenmatrix

MatrizenproduktIKG.docx 8
wird mittels des Gauß-Jordan-Verfahrens transformiert zu

Dann ist die Inverse zu .


Dies wird in einem der nächsten Kapitel behandelt.

MatrizenproduktIKG.docx 9
Orthogonale Matrizen
Definition (orthogonale Matrix)
Eine reelle quadratische Matrix heißt orthogonal, falls .
Die Berechnung der Inversen einer orthogonalen Matrix ist also besonders einfach.
Seien die Spalten von . Dann gilt
orthogonal
Die Spalten von sind auf Eins normiert und paarweise orthogonal

für und

Rechenregeln
Es seien . Dann gilt für orthogonale
(1) ist orthogonal
Beweis:
(2) ist orthogonal
Beweis:
(3)
Beweis:
(4)
Beweis:
(5)

Beweis:
(6)

Beweis: . Wenn , dann ist und damit auch , also

(6) für jeden Eigenwert von


Beweis: Sei Eigenwert von . Dann gibt es einen Eigenvektor , so dass Dann
gilt gemäß (5)

Beispiel 1) stellt eine Drehung im dar. Die Inverse von ist


. Denn

Die Determinante ist

Beispiel 2) stellt eine Spiegelung im an einer Achse im Winkel


zur -Achse dar. Die Inverse von ist . Die Determinante ist

In komplexen Vektorräumen spielen die unitären Matrizen die Rolle der orthogonalen Matrizen in
reellen Vektorräumen. Zu heißt die hermitesch Konjugierte. Komplexe
Konjugation und Transposition dürfen vertauscht werden. heißt unitär, wenn
Unitäre Matrizen haben sehr ähnliche Eigenschaften wie die orthogonalen Matrizen. Sie werden hier
nicht behandelt.

MatrizenproduktIKG.docx 10

Das könnte Ihnen auch gefallen