Sie sind auf Seite 1von 17

Ausblenden

WLE Austria Logo (no text).svg


Fotowettbewerb Wiki Loves Earth 2020: Fotografiere in der Natur und unterstütze
Wikipedia.
Matrix (Mathematik)
Zur Navigation springen
Zur Suche springen
Schema für eine allgemeine m × n {\displaystyle m\times n} m\times n-Matrix
Bezeichnungen

In der Mathematik versteht man unter einer Matrix (Plural Matrizen) eine
rechteckige Anordnung (Tabelle) von Elementen (meist mathematischer Objekte, etwa
Zahlen). Mit diesen Objekten lässt sich dann in bestimmter Weise rechnen, indem man
Matrizen addiert oder miteinander multipliziert.

Matrizen sind ein Schlüsselkonzept der linearen Algebra und tauchen in fast allen
Gebieten der Mathematik auf. Sie stellen Zusammenhänge, in denen
Linearkombinationen eine Rolle spielen, übersichtlich dar und erleichtern damit
Rechen- und Gedankenvorgänge. Sie werden insbesondere dazu benutzt, lineare
Abbildungen darzustellen und lineare Gleichungssysteme zu beschreiben und zu lösen.
Die Bezeichnung Matrix wurde 1850 von James Joseph Sylvester eingeführt.

Eine Anordnung, wie in nebenstehender Abbildung, von m ⋅ n {\displaystyle m\cdot n}


m \cdot n Elementen a i j {\displaystyle a_{ij}\,} {\displaystyle a_{ij}\,} erfolgt
in m {\displaystyle m} m Zeilen und n {\displaystyle n} n Spalten. Die
Verallgemeinerung auf mehr als zwei Indizes wird auch Hypermatrix genannt.[1]
Inhaltsverzeichnis

1 Begriffe und erste Eigenschaften


1.1 Notation
1.2 Elemente der Matrix
1.3 Typ
1.4 Formale Darstellung
2 Addition und Multiplikation
2.1 Matrizenaddition
2.2 Skalarmultiplikation
2.3 Matrizenmultiplikation
3 Weitere Rechenoperationen
3.1 Transponierte Matrix
3.2 Inverse Matrix
3.3 Vektor-Vektor-Produkte
4 Vektorräume von Matrizen
5 Anwendungen
5.1 Zusammenhang mit linearen Abbildungen
5.2 Umformen von Matrizengleichungen
6 Spezielle Matrizen
6.1 Eigenschaften von Endomorphismen
6.2 Eigenschaften von Bilinearformen
6.3 Weitere Konstruktionen
7 Unendlichdimensionale Räume
8 Literatur
9 Weblinks
10 Belege

Begriffe und erste Eigenschaften


Notation

Als Notation hat sich die Anordnung der Elemente in Zeilen und Spalten zwischen
zwei großen öffnenden und schließenden Klammern durchgesetzt. In der Regel
verwendet man runde Klammern, es werden aber auch eckige verwendet. Zum Beispiel
bezeichnen

( a 11 a 12 a 13 a 21 a 22 a 23 ) {\displaystyle
{\begin{pmatrix}a_{11}&a_{12}&a_{13}\\a_{21}&a_{22}&a_{23}\end{pmatrix}}}
{\displaystyle
{\begin{pmatrix}a_{11}&a_{12}&a_{13}\\a_{21}&a_{22}&a_{23}\end{pmatrix}}} und [ a
11 a 12 a 13 a 21 a 22 a 23 ] {\displaystyle
{\begin{bmatrix}a_{11}&a_{12}&a_{13}\\a_{21}&a_{22}&a_{23}\end{bmatrix}}}
{\displaystyle
{\begin{bmatrix}a_{11}&a_{12}&a_{13}\\a_{21}&a_{22}&a_{23}\end{bmatrix}}}

Matrizen mit zwei Zeilen und drei Spalten. Matrizen werden üblicherweise mit
Großbuchstaben (manchmal fett gedruckt oder, handschriftlich, einfach oder doppelt
unterstrichen), vorzugsweise A {\displaystyle A} A, bezeichnet. Eine Matrix mit m
{\displaystyle m} m Zeilen und n {\displaystyle n} n Spalten:

A = A = A _ = ( a 11 a 12 ⋯ a 1 n a 21 a 22 ⋯ a 2 n ⋮ ⋮ ⋮ a m 1 a m 2 ⋯ a m n )
= ( a i j ) {\displaystyle A={\boldsymbol {A}}={\underline
{A}}={\begin{pmatrix}a_{11}&a_{12}&\cdots &a_{1n}\\a_{21}&a_{22}&\cdots
&a_{2n}\\\vdots &\vdots &&\vdots \\a_{m1}&a_{m2}&\cdots
&a_{mn}\\\end{pmatrix}}=(a_{ij})} {\displaystyle A={\boldsymbol {A}}={\underline
{A}}={\begin{pmatrix}a_{11}&a_{12}&\cdots &a_{1n}\\a_{21}&a_{22}&\cdots
&a_{2n}\\\vdots &\vdots &&\vdots \\a_{m1}&a_{m2}&\cdots
&a_{mn}\\\end{pmatrix}}=(a_{ij})}.

Elemente der Matrix

Die Elemente der Matrix nennt man auch Einträge oder Komponenten der Matrix. Sie
entstammen einer Menge K , {\displaystyle K,} K, in der Regel einem Körper oder
einem Ring. Man spricht von einer Matrix über K {\displaystyle K} K. Wählt man für
K {\displaystyle K} K die Menge der reellen Zahlen, so spricht man von einer
reellen Matrix, bei komplexen Zahlen von einer komplexen Matrix.

Ein bestimmtes Element beschreibt man durch zwei Indizes, meist ist das Element in
der ersten Zeile und der ersten Spalte durch a 11 {\displaystyle a_{11}} a_{11}
beschrieben. Allgemein bezeichnet a i j {\displaystyle a_{ij}} a_{ij} das Element
in der i {\displaystyle i} i-ten Zeile und der j {\displaystyle j} j-ten Spalte.
Bei der Indizierung wird dabei stets als erstes der Zeilenindex und als zweites der
Spaltenindex des Elements genannt. Merkregel: Zeile zuerst, Spalte später. Wenn
Verwechslungsgefahr besteht, werden die beiden Indizes mit einem Komma abgetrennt.
So wird zum Beispiel das Matrixelement in der ersten Zeile und der elften Spalte
mit a 1 , 11 {\displaystyle a_{1,11}} a_{1,11} bezeichnet.

Einzelne Zeilen und Spalten werden oft als Spalten- oder Zeilenvektoren bezeichnet.
Ein Beispiel:

A = ( a 11 a 12 a 21 a 22 ) , {\displaystyle
A={\begin{pmatrix}a_{11}&a_{12}\\a_{21}&a_{22}\end{pmatrix}},} A = \begin{pmatrix}
a_{11} & a_{12} \\ a_{21} & a_{22} \end{pmatrix}, hier sind ( a 11 a 21 )
{\displaystyle {\begin{pmatrix}a_{11}\\a_{21}\end{pmatrix}}} \begin{pmatrix} a_{11}
\\ a_{21} \end{pmatrix} und ( a 12 a 22 ) {\displaystyle
{\begin{pmatrix}a_{12}\\a_{22}\end{pmatrix}}} \begin{pmatrix} a_{12} \\ a_{22}
\end{pmatrix} die Spalten oder Spaltenvektoren sowie ( a 11 a 12 ) {\displaystyle
{\begin{pmatrix}a_{11}&a_{12}\end{pmatrix}}} \begin{pmatrix} a_{11} & a_{12}
\end{pmatrix} und ( a 21 a 22 ) {\displaystyle
{\begin{pmatrix}a_{21}&a_{22}\end{pmatrix}}} \begin{pmatrix} a_{21} & a_{22}
\end{pmatrix} die Zeilen oder Zeilenvektoren.
Bei einzeln stehenden Zeilen- und Spaltenvektoren einer Matrix wird gelegentlich
der unveränderliche Index weggelassen. Manchmal werden Spaltenvektoren zur
kompakteren Darstellung als transponierte Zeilenvektoren geschrieben, also:

( a 11 a 21 ) {\displaystyle {\begin{pmatrix}a_{11}\\a_{21}\end{pmatrix}}}
\begin{pmatrix} a_{11} \\ a_{21} \end{pmatrix} oder ( a 1 a 2 ) {\displaystyle
{\begin{pmatrix}a_{1}\\a_{2}\end{pmatrix}}} {\displaystyle
{\begin{pmatrix}a_{1}\\a_{2}\end{pmatrix}}} als ( a 11 a 21 ) T {\displaystyle
{\begin{pmatrix}a_{11}&a_{21}\end{pmatrix}}^{T}} {\displaystyle
{\begin{pmatrix}a_{11}&a_{21}\end{pmatrix}}^{T}} oder ( a 1 a 2 ) T {\displaystyle
{\begin{pmatrix}a_{1}&a_{2}\end{pmatrix}}^{T}} {\displaystyle
{\begin{pmatrix}a_{1}&a_{2}\end{pmatrix}}^{T}}

Typ

Der Typ einer Matrix ergibt sich aus der Anzahl ihrer Zeilen und Spalten. Eine
Matrix mit m {\displaystyle m} m Zeilen und n {\displaystyle n} n Spalten nennt man
eine m × n {\displaystyle m\times n} m\times n-Matrix (sprich: m-mal-n- oder m-
Kreuz-n-Matrix). Stimmen Zeilen- und Spaltenanzahl überein, so spricht man von
einer quadratischen Matrix.

Eine Matrix, die aus nur einer Spalte oder nur einer Zeile besteht, wird
üblicherweise als Vektor aufgefasst. Einen Vektor mit n {\displaystyle n} n
Elementen kann man je nach Kontext als einspaltige n × 1 {\displaystyle n\times 1}
n \times 1-Matrix oder einzeilige 1 × n {\displaystyle 1\times n} 1 \times n-Matrix
darstellen. Neben den Begriffen Spaltenvektor und Zeilenvektor sind hierfür auch
die Begriffe Spaltenmatrix und Zeilenmatrix geläufig. Eine 1 × 1 {\displaystyle
1\times 1} 1\times 1-Matrix ist sowohl Spalten- als auch Zeilenmatrix und wird als
Skalar angesehen.
Formale Darstellung

Eine Matrix ist eine doppelt indizierte Familie. Formal ist dies eine Funktion

A : { 1 , … , m } × { 1 , … , n } → K , ( i , j ) ↦ a i j , {\displaystyle
A\colon \{1,\dotsc ,m\}\times \{1,\dotsc ,n\}\to K,\quad (i,j)\mapsto a_{ij},}
{\displaystyle A\colon \{1,\dotsc ,m\}\times \{1,\dotsc ,n\}\to K,\quad
(i,j)\mapsto a_{ij},}

die jedem Indexpaar ( i , j ) {\displaystyle (i,j)} (i,j) als Funktionswert den


Eintrag a i j {\displaystyle a_{ij}} a_{ij} zuordnet. Beispielsweise wird dem
Indexpaar ( 1 , 2 ) {\displaystyle (1,2)} (1,2) als Funktionswert der Eintrag a 12
{\displaystyle a_{12}} a_{12} zugeordnet. Der Funktionswert a i j {\displaystyle
a_{ij}} a_{ij} ist also der Eintrag in der i {\displaystyle i} i-ten Zeile und der
j {\displaystyle j} j-ten Spalte. Die Variablen m {\displaystyle m} m und n
{\displaystyle n} n entsprechen der Anzahl der Zeilen bzw. Spalten. Nicht zu
verwechseln mit dieser formalen Definition einer Matrix als Funktion ist, dass
Matrizen selbst lineare Abbildungen beschreiben.

Die Menge Abb ⁡( { 1 , … , m } × { 1 , … , n } , K ) {\displaystyle \operatorname


{Abb} \left(\{1,\dotsc ,m\}\times \{1,\dotsc ,n\},K\right)} {\displaystyle
\operatorname {Abb} \left(\{1,\dotsc ,m\}\times \{1,\dotsc ,n\},K\right)} aller m ×
n {\displaystyle m\times n} m\times n-Matrizen über der Menge K {\displaystyle K} K
wird in üblicher mathematischer Notation auch K { 1 , … , m } × { 1 , … , n }
{\displaystyle K^{\{1,\dotsc ,m\}\times \{1,\dotsc ,n\}}} {\displaystyle K^{\
{1,\dotsc ,m\}\times \{1,\dotsc ,n\}}} geschrieben; hierfür hat sich die
Kurznotation K m × n {\displaystyle K^{m\times n}} K^{m\times n} eingebürgert.
Manchmal werden auch die Schreibweisen K m , n , {\displaystyle K^{m,n},} K^{m,n},
M ( m × n , K ) {\displaystyle M(m\times n,K)} M(m \times n, K) oder seltener m K n
{\displaystyle {}^{m}K^{n}} {\displaystyle {}^{m}K^{n}} benutzt.
Addition und Multiplikation

Auf dem Raum der Matrizen werden elementare Rechenoperationen definiert.


Matrizenaddition
→ Hauptartikel: Matrizenaddition

Zwei Matrizen können addiert werden, wenn sie vom selben Typ sind, das heißt, wenn
sie dieselbe Anzahl von Zeilen und dieselbe Anzahl von Spalten besitzen. Die Summe
zweier m × n {\displaystyle m\times n} m\times n-Matrizen ist komponentenweise
definiert:

A + B := ( a i j + b i j ) i = 1 , … , m ; j = 1 , … , n {\displaystyle
A+B:=(a_{ij}+b_{ij})_{i=1,\dotsc ,m;\ j=1,\dotsc ,n}} {\displaystyle A+B:=(a_{ij}
+b_{ij})_{i=1,\dotsc ,m;\ j=1,\dotsc ,n}}

Rechenbeispiel:

( 1 − 3 2 1 2 7 ) + ( 0 3 5 2 1 − 1 ) = ( 1 + 0 − 3 + 3 2 + 5 1 + 2 2 + 1 7 + (
− 1 ) ) = ( 1 0 7 3 3 6 ) {\displaystyle {\begin{pmatrix}1&-
3&2\\1&2&7\end{pmatrix}}+{\begin{pmatrix}0&3&5\\2&1&-
1\end{pmatrix}}={\begin{pmatrix}1+0&-3+3&2+5\\1+2&2+1&7+(-
1)\end{pmatrix}}={\begin{pmatrix}1&0&7\\3&3&6\end{pmatrix}}} {\displaystyle
{\begin{pmatrix}1&-3&2\\1&2&7\end{pmatrix}}+{\begin{pmatrix}0&3&5\\2&1&-
1\end{pmatrix}}={\begin{pmatrix}1+0&-3+3&2+5\\1+2&2+1&7+(-
1)\end{pmatrix}}={\begin{pmatrix}1&0&7\\3&3&6\end{pmatrix}}}

In der linearen Algebra sind die Einträge der Matrizen üblicherweise Elemente eines
Körpers, wie z. B. der reellen oder komplexen Zahlen. In diesem Fall ist die
Matrizenaddition assoziativ, kommutativ und besitzt mit der Nullmatrix ein
neutrales Element. Im Allgemeinen besitzt die Matrizenaddition diese Eigenschaften
jedoch nur, wenn die Einträge Elemente einer algebraischen Struktur sind, die diese
Eigenschaften hat.
Skalarmultiplikation
→ Hauptartikel: Skalarmultiplikation

Eine Matrix wird mit einem Skalar multipliziert, indem jeder Eintrag der Matrix mit
dem Skalar multipliziert wird:

λ ⋅ A := ( λ ⋅ a i j ) i = 1 , … , m ; j = 1 , … , n {\displaystyle
\lambda \cdot A:=(\lambda \cdot a_{ij})_{i=1,\dotsc ,m;\ j=1,\dotsc ,n}}
{\displaystyle \lambda \cdot A:=(\lambda \cdot a_{ij})_{i=1,\dotsc ,m;\
j=1,\dotsc ,n}}

Rechenbeispiel:

5 ⋅ ( 1 − 3 2 1 2 7 ) = ( 5 ⋅ 1 5 ⋅ ( − 3 ) 5 ⋅ 2 5 ⋅ 1 5 ⋅ 2 5 ⋅ 7 ) = ( 5 −
15 10 5 10 35 ) {\displaystyle 5\cdot {\begin{pmatrix}1&-
3&2\\1&2&7\end{pmatrix}}={\begin{pmatrix}5\cdot 1&5\cdot (-3)&5\cdot 2\\5\cdot
1&5\cdot 2&5\cdot 7\end{pmatrix}}={\begin{pmatrix}5&-15&10\\5&10&35\end{pmatrix}}}
{\displaystyle 5\cdot {\begin{pmatrix}1&-
3&2\\1&2&7\end{pmatrix}}={\begin{pmatrix}5\cdot 1&5\cdot (-3)&5\cdot 2\\5\cdot
1&5\cdot 2&5\cdot 7\end{pmatrix}}={\begin{pmatrix}5&-15&10\\5&10&35\end{pmatrix}}}

Die Skalarmultiplikation darf nicht mit dem Skalarprodukt verwechselt werden. Um


die Skalarmultiplikation durchführen zu dürfen, müssen der Skalar λ
{\displaystyle \lambda } \lambda (Lambda) und die Einträge der Matrix demselben
Ring ( K , + , ⋅ , 0 ) {\displaystyle (K,+,\cdot ,0)} (K,+,\cdot,0) entstammen. Die
Menge der m × n {\displaystyle m\times n} m\times n-Matrizen ist in diesem Fall ein
(Links-) Modul über K . {\displaystyle K.} K.
Matrizenmultiplikation
→ Hauptartikel: Matrizenmultiplikation

Zwei Matrizen können multipliziert werden, wenn die Spaltenanzahl der linken mit
der Zeilenanzahl der rechten Matrix übereinstimmt. Das Produkt einer l × m
{\displaystyle l\times m} l \times m-Matrix A = ( a i j ) i = 1 , … , l , j = 1 , …
, m {\displaystyle A=(a_{ij})_{i=1,\dotsc ,l,\;j=1,\dotsc ,m}} {\displaystyle
A=(a_{ij})_{i=1,\dotsc ,l,\;j=1,\dotsc ,m}} und einer m × n {\displaystyle m\times
n} m\times n-Matrix B = ( b i j ) i = 1 , … , m , j = 1 , … , n {\displaystyle
B=(b_{ij})_{i=1,\dotsc ,m,\;j=1,\dotsc ,n}} {\displaystyle
B=(b_{ij})_{i=1,\dotsc ,m,\;j=1,\dotsc ,n}} ist eine l × n {\displaystyle l\times
n} l \times n-Matrix C = ( c i j ) i = 1 , … , l , j = 1 , … , n , {\displaystyle
C=(c_{ij})_{i=1,\dotsc ,l,\;j=1,\dotsc ,n},} {\displaystyle
C=(c_{ij})_{i=1,\dotsc ,l,\;j=1,\dotsc ,n},} deren Einträge berechnet werden, indem
die Produktsummenformel, ähnlich dem Skalarprodukt, auf Paare aus einem
Zeilenvektor der ersten und einem Spaltenvektor der zweiten Matrix angewandt wird:

c i j = ∑ k = 1 m a i k ⋅ b k j {\displaystyle c_{ij}=\sum
_{k=1}^{m}a_{ik}\cdot b_{kj}} {\displaystyle c_{ij}=\sum _{k=1}^{m}a_{ik}\cdot
b_{kj}}

Die Matrizenmultiplikation ist nicht kommutativ, d. h., im Allgemeinen gilt B ⋅ A ≠


A ⋅ B {\displaystyle B\cdot A\neq A\cdot B} B \cdot A \neq A \cdot B. Die
Matrizenmultiplikation ist allerdings assoziativ, d. h. es gilt stets:

( A ⋅ B ) ⋅ C = A ⋅ ( B ⋅ C ) {\displaystyle (A\cdot B)\cdot C=A\cdot (B\cdot


C)} (A \cdot B) \cdot C = A \cdot (B \cdot C)

Eine Kette von Matrix-Multiplikationen kann daher unterschiedlich geklammert


werden. Das Problem, eine Klammerung zu finden, die zu einer Berechnung mit der
minimalen Anzahl von elementaren arithmetischen Operationen führt, ist ein
Optimierungsproblem. Die Matrizenaddition und Matrizenmultiplikation genügen zudem
den beiden Distributivgesetzen:

( A + B ) ⋅ C = A ⋅ C + B ⋅ C {\displaystyle (A+B)\cdot C=A\cdot C+B\cdot C} (A


+ B) \cdot C = A \cdot C + B \cdot C

für alle l × m {\displaystyle l\times m} l \times m-Matrizen A , B {\displaystyle


A,B} A,B und m × n {\displaystyle m\times n} m\times n-Matrizen C {\displaystyle C}
C sowie

A ⋅ ( B + C ) = A ⋅ B + A ⋅ C {\displaystyle A\cdot (B+C)=A\cdot B+A\cdot C}


A \cdot (B + C) = A \cdot B + A \cdot C

für alle l × m {\displaystyle l\times m} l \times m-Matrizen A {\displaystyle A} A


und m × n {\displaystyle m\times n} m\times n-Matrizen B , C . {\displaystyle B,C.}
B, C.

Quadratische Matrizen A ∈ K n × n {\displaystyle A\in K^{n\times n}} A\in


K^{n\times n} können mit sich selbst multipliziert werden, analog zur Potenz bei
den reellen Zahlen führt man abkürzend die Matrixpotenz A 2 = A ⋅ A {\displaystyle
A^{2}=A\cdot A} A^2=A\cdot A oder A 3 = A ⋅ A ⋅ A {\displaystyle A^{3}=A\cdot
A\cdot A} A^3=A\cdot A\cdot A etc. ein. Damit ist es auch sinnvoll, quadratische
Matrizen als Elemente in Polynome einzusetzen. Zu weitergehenden Ausführungen
hierzu siehe unter Charakteristisches Polynom. Zur einfacheren Berechnung kann hier
die jordansche Normalform verwendet werden. Quadratische Matrizen über R
{\displaystyle \mathbb {R} } \mathbb {R} oder C {\displaystyle \mathbb {C} }
\mathbb {C} kann man darüber hinaus sogar in Potenzreihen einsetzen, vgl.
Matrixexponential. Eine besondere Rolle bezüglich der Matrizenmultiplikation
spielen die quadratischen Matrizen über einem Ring R {\displaystyle R} R, also R n
× n {\displaystyle R^{n\times n}} R^{n\times n}. Diese bilden selbst mit der
Matrizenaddition und -multiplikation wiederum einen Ring, der Matrizenring genannt
wird.
Weitere Rechenoperationen
Transponierte Matrix
→ Hauptartikel: Transponierte Matrix
Animation zur Transponierung der Matrix A

Die Transponierte einer m × n {\displaystyle m\times n} m\times n-Matrix A = ( a i


j ) {\displaystyle A=\left(a_{ij}\right)} A = \left(a_{ij}\right) ist die n × m
{\displaystyle n\times m} n\times m-Matrix A T = ( a j i ) {\displaystyle
A^{T}=\left(a_{ji}\right)} A^T = \left(a_{ji}\right), das heißt, zu

A = ( a 11 … a 1 n ⋮ ⋮ a m 1 … a m n ) {\displaystyle
A={\begin{pmatrix}a_{11}&\dots &a_{1n}\\\vdots &&\vdots \\a_{m1}&\dots
&a_{mn}\end{pmatrix}}} A={\begin{pmatrix}a_{{11}}&\dots &a_{{1n}}\\\vdots
&&\vdots \\a_{{m1}}&\dots &a_{{mn}}\end{pmatrix}}

ist

A T = ( a 11 … a m 1 ⋮ ⋮ a 1 n … a m n ) {\displaystyle
A^{T}={\begin{pmatrix}a_{11}&\dots &a_{m1}\\\vdots &&\vdots \\a_{1n}&\dots
&a_{mn}\end{pmatrix}}} A^{T}={\begin{pmatrix}a_{{11}}&\dots &a_{{m1}}\\\vdots
&&\vdots \\a_{{1n}}&\dots &a_{{mn}}\end{pmatrix}}

die Transponierte. Man schreibt also die erste Zeile als erste Spalte, die zweite
Zeile als zweite Spalte usw. Die Matrix wird an ihrer Hauptdiagonalen a 11 , a 22 ,
… {\displaystyle a_{11},a_{22},\dotsc } {\displaystyle a_{11},a_{22},\dotsc }
gespiegelt. Es gelten die folgenden Rechenregeln:

( A + B ) T = A T + B T ( c ⋅ A ) T = c ⋅ A T ( A T ) T = A ( A ⋅ B ) T = B T ⋅
A T ( A − 1 ) T = ( A T ) − 1 {\displaystyle {\begin{aligned}(A+B)^{T}&=A^{T}
+B^{T}\\(c\cdot A)^{T}&=c\cdot A^{T}\\\left(A^{T}\right)^{T}&=A\\(A\cdot
B)^{T}&=B^{T}\cdot A^{T}\\\left(A^{-1}\right)^{T}&=\left(A^{T}\right)^{-
1}\end{aligned}}} {\displaystyle {\begin{aligned}(A+B)^{T}&=A^{T}+B^{T}\\(c\cdot
A)^{T}&=c\cdot A^{T}\\\left(A^{T}\right)^{T}&=A\\(A\cdot B)^{T}&=B^{T}\cdot
A^{T}\\\left(A^{-1}\right)^{T}&=\left(A^{T}\right)^{-1}\end{aligned}}}

Bei Matrizen über R {\displaystyle \mathbb {R} } \mathbb {R} ist die adjungierte
Matrix genau die transponierte Matrix.
Inverse Matrix
→ Hauptartikel: Inverse Matrix

Falls die Determinante einer quadratischen n × n {\displaystyle n\times n} n\times


n-Matrix A {\displaystyle A} A über einem Körper K {\displaystyle K} K nicht gleich
null ist, d. h., falls det ( A ) ≠ 0 {\displaystyle \det(A)\neq 0} \det(A) \neq 0,
so existiert die zur Matrix A {\displaystyle A} A inverse Matrix A − 1
{\displaystyle A^{-1}} A^{-1}. Für diese gilt

A A − 1 = A − 1 A = E {\displaystyle AA^{-1}=A^{-1}A=E} {\displaystyle AA^{-


1}=A^{-1}A=E},

wobei E {\displaystyle E} E die n × n {\displaystyle n\times n} n\times n-


Einheitsmatrix ist. Matrizen, die eine inverse Matrix besitzen, bezeichnet man als
invertierbare oder reguläre Matrizen. Diese haben vollen Rang. Umgekehrt werden
nichtinvertierbare Matrizen als singuläre Matrizen bezeichnet. Eine
Verallgemeinerung der Inversen für singuläre Matrizen sind sog. pseudoinverse
Matrizen.
Vektor-Vektor-Produkte

Das Matrixprodukt v ⋅ w {\displaystyle v\cdot w} v \cdot w zweier n × 1


{\displaystyle n\times 1} n \times 1-Vektoren v {\displaystyle v} v und w
{\displaystyle w} w ist nicht definiert, da die Anzahl 1 {\displaystyle 1} 1 der
Spalten von v {\displaystyle v} v im Allgemeinen ungleich der Anzahl n
{\displaystyle n} n der Zeilen von w {\displaystyle w} w ist. Die beiden Produkte v
T ⋅ w {\displaystyle v^{T}\cdot w} v^T \cdot w und v ⋅ w T {\displaystyle v\cdot
w^{T}} v \cdot w^T existieren jedoch.

Das erste Produkt v T ⋅ w {\displaystyle v^{T}\cdot w} v^T \cdot w ist eine 1 × 1


{\displaystyle 1\times 1} 1\times 1-Matrix, die als Zahl interpretiert wird; sie
wird das Standardskalarprodukt von v {\displaystyle v} v und w {\displaystyle w} w
genannt und mit ⟨ v , w ⟩ {\displaystyle \langle v,w\rangle } \langle v, w \rangle
oder v → ⋅ w → {\displaystyle {\vec {v}}\cdot {\vec {w}}} \vec v \cdot \vec w
bezeichnet. Geometrisch entspricht dieses Skalarprodukt in einem kartesischen
Koordinatensystem dem Produkt

v → ⋅ w → = | v → | ⋅ | w → | ⋅ cos ⁡∢ ( v → , w → ) {\displaystyle {\vec


{v}}\cdot {\vec {w}}=|{\vec {v}}|\cdot |{\vec {w}}|\cdot \cos \sphericalangle
({\vec {v}},{\vec {w}})} \vec v \cdot \vec w = |\vec v| \cdot |\vec w| \cdot
\cos \sphericalangle(\vec v, \vec w)

der Beträge der beiden Vektoren und des Kosinus des von den beiden Vektoren
eingeschlossenen Winkels. Beispielsweise gilt

( 1 2 3 ) T ⋅ ( − 2 − 1 1 ) = ( 1 2 3 ) ⋅ ( − 2 − 1 1 ) = 1 ⋅ ( − 2 ) + 2 ⋅ ( −
1 ) + 3 ⋅ 1 = − 1 {\displaystyle {\begin{pmatrix}1\\2\\3\end{pmatrix}}^{T}\cdot
{\begin{pmatrix}-2\\-1\\1\end{pmatrix}}={\begin{pmatrix}1&2&3\end{pmatrix}}\cdot
{\begin{pmatrix}-2\\-1\\1\end{pmatrix}}=1\cdot (-2)+2\cdot (-1)+3\cdot 1=-1}
{\displaystyle {\begin{pmatrix}1\\2\\3\end{pmatrix}}^{T}\cdot {\begin{pmatrix}-2\\-
1\\1\end{pmatrix}}={\begin{pmatrix}1&2&3\end{pmatrix}}\cdot {\begin{pmatrix}-2\\-
1\\1\end{pmatrix}}=1\cdot (-2)+2\cdot (-1)+3\cdot 1=-1}

Das zweite Produkt v ⋅ w T {\displaystyle v\cdot w^{T}} v \cdot w^T ist eine n × n
{\displaystyle n\times n} n\times n-Matrix und heißt dyadisches Produkt oder
Tensorprodukt von v {\displaystyle v} v und w {\displaystyle w} w (geschrieben v ⊗
w {\displaystyle v\otimes w} v \otimes w). Seine Spalten sind skalare Vielfache von
v {\displaystyle v} v, seine Zeilen skalare Vielfache von w T {\displaystyle w^{T}}
w^T. Beispielsweise gilt

( 1 2 3 ) ⋅ ( − 2 − 1 1 ) T = ( 1 2 3 ) ⋅ ( − 2 − 1 1 ) = ( 1 ⋅ ( − 2 ) 1 ⋅ ( −
1 ) 1 ⋅ 1 2 ⋅ ( − 2 ) 2 ⋅ ( − 1 ) 2 ⋅ 1 3 ⋅ ( − 2 ) 3 ⋅ ( − 1 ) 3 ⋅ 1 ) = ( − 2 − 1
1 − 4 − 2 2 − 6 − 3 3 ) {\displaystyle {\begin{pmatrix}1\\2\\3\end{pmatrix}}\cdot
{\begin{pmatrix}-2\\-
1\\1\end{pmatrix}}^{T}={\begin{pmatrix}1\\2\\3\end{pmatrix}}\cdot {\begin{pmatrix}-
2&-1&1\end{pmatrix}}={\begin{pmatrix}1\cdot (-2)&1\cdot (-1)&1\cdot 1\\2\cdot (-
2)&2\cdot (-1)&2\cdot 1\\3\cdot (-2)&3\cdot (-1)&3\cdot
1\end{pmatrix}}={\begin{pmatrix}-2&-1&1\\-4&-2&2\\-6&-3&3\end{pmatrix}}}
{\displaystyle {\begin{pmatrix}1\\2\\3\end{pmatrix}}\cdot {\begin{pmatrix}-2\\-
1\\1\end{pmatrix}}^{T}={\begin{pmatrix}1\\2\\3\end{pmatrix}}\cdot {\begin{pmatrix}-
2&-1&1\end{pmatrix}}={\begin{pmatrix}1\cdot (-2)&1\cdot (-1)&1\cdot 1\\2\cdot (-
2)&2\cdot (-1)&2\cdot 1\\3\cdot (-2)&3\cdot (-1)&3\cdot
1\end{pmatrix}}={\begin{pmatrix}-2&-1&1\\-4&-2&2\\-6&-3&3\end{pmatrix}}}

Vektorräume von Matrizen


→ Hauptartikel: Matrizenraum
Die Menge der m × n {\displaystyle m\times n} m\times n-Matrizen über einem Körper
K {\displaystyle K} K bildet mit der Matrizenaddition und der Skalarmultiplikation
einen K {\displaystyle K} K-Vektorraum. Dieser Vektorraum K m × n {\displaystyle
K^{m\times n}} K^{m\times n} hat die Dimension m ⋅ n {\displaystyle m\cdot n} m
\cdot n. Eine Basis von K m × n {\displaystyle K^{m\times n}} K^{m\times n} ist
gegeben durch die Menge der Standardmatrizen E i j {\displaystyle E_{ij}} E_{{ij}}
mit i ∈ { 1 , … , m } {\displaystyle i\in \{1,\dotsc ,m\}} {\displaystyle i\in \
{1,\dotsc ,m\}}, j ∈ { 1 , … , n } {\displaystyle j\in \{1,\dotsc ,n\}}
{\displaystyle j\in \{1,\dotsc ,n\}}. Diese Basis wird manchmal auch als
Standardbasis von K m × n {\displaystyle K^{m\times n}} K^{m\times n} bezeichnet.

Die Spur des Matrixprodukts A T ⋅ B {\displaystyle A^{T}\cdot B} A^T \cdot B

⟨ A , B ⟩ = spur ⁡( A T B ) = ∑ i = 1 n ∑ j = 1 m a i j b i j {\displaystyle
\left\langle A,B\right\rangle =\operatorname {spur} (A^{T}B)=\sum _{i=1}^{n}\sum
_{j=1}^{m}a_{ij}b_{ij}} \left\langle A,B\right\rangle = \operatorname{spur}(A^TB)
=\sum_{i=1}^n\sum_{j=1}^m a_{ij}b_{ij}

ist dann im Spezialfall K = R {\displaystyle K=\mathbb {R} } K=\mathbb {R} ein


reelles Skalarprodukt. In diesem euklidischen Vektorraum stehen die symmetrischen
Matrizen und die schiefsymmetrischen Matrizen senkrecht aufeinander. Ist A
{\displaystyle A} A eine symmetrische und B {\displaystyle B} B eine
schiefsymmetrische Matrix, so gilt ⟨ A , B ⟩ = 0 {\displaystyle
{\begin{matrix}\left\langle A,B\right\rangle =0\end{matrix}}}
\begin{matrix}\left\langle A,B\right\rangle=0\end{matrix}.

Im Spezialfall K = C {\displaystyle K=\mathbb {C} } K=\mathbb C ist die Spur des


Matrixproduktes A T ¯ ⋅ B {\displaystyle {\overline {A^{T}}}\cdot B} \overline
{A^{T}}\cdot B

⟨ A , B ⟩ = spur ⁡( A T ¯ B ) = ∑ i = 1 n ∑ j = 1 m a i j ¯ b i j
{\displaystyle \left\langle A,B\right\rangle =\operatorname {spur} ({\overline
{A^{T}}}B)=\sum _{i=1}^{n}\sum _{j=1}^{m}{\overline {a_{ij}}}b_{ij}} \left\langle
A,B\right\rangle = \operatorname{spur}(\overline{A^T}B)
=\sum_{i=1}^n\sum_{j=1}^m \overline{a_{ij}}b_{ij}

ein komplexes Skalarprodukt und der Matrizenraum wird zu einem unitären Vektorraum.
Dieses Skalarprodukt wird auch Frobenius-Skalarprodukt genannt. Die von dem
Frobenius-Skalarprodukt induzierte Norm heißt Frobeniusnorm und mit ihr wird der
Matrizenraum zu einem Banachraum.
Anwendungen
Zusammenhang mit linearen Abbildungen

Das Besondere an Matrizen über einem Ring K {\displaystyle K} K ist der


Zusammenhang zu linearen Abbildungen. Zu jeder Matrix A ∈ K m × n {\displaystyle
A\in K^{m\times n}} A \in K^{m\times n} lässt sich eine lineare Abbildung mit
Definitionsbereich K n {\displaystyle K^{n}} K^{n} (Menge der Spaltenvektoren) und
Wertebereich K m {\displaystyle K^{m}} K^m definieren, indem man jeden
Spaltenvektor u ∈ K n {\displaystyle u\in K^{n}} u\in K^n auf A ⋅ u ∈ K m
{\displaystyle A\cdot u\in K^{m}} A\cdot u\in K^m abbildet. Umgekehrt entspricht
jeder linearen Abbildung f : K n → K m {\displaystyle f\colon K^{n}\to K^{m}} f
\colon K^n \to K^m auf diese Weise genau eine m × n {\displaystyle m\times n}
m\times n-Matrix A {\displaystyle A} A; dabei sind die Spalten von A {\displaystyle
A} A die Bilder der Standard-Basisvektoren e 1 , … , e n {\displaystyle
e_{1},\dotsc ,e_{n}} e_{1},\dotsc ,e_{n} von K n {\displaystyle K^{n}} K^{n} unter
f {\displaystyle f} f. Diesen Zusammenhang zwischen linearen Abbildungen und
Matrizen bezeichnet man auch als (kanonischen) Isomorphismus

Hom K ⁡( K n , K m ) ≃ K m × n . {\displaystyle \operatorname {Hom} _{K}


(K^{n},K^{m})\simeq K^{m\times n}.} \operatorname{Hom}_K(K^n,K^m)\simeq K^{m \times
n}.

Er stellt bei vorgegebenem K , {\displaystyle K,} K, m {\displaystyle m} m und n


{\displaystyle n} n eine Bijektion zwischen der Menge der Matrizen und der Menge
der linearen Abbildungen dar. Das Matrixprodukt geht hierbei über in die
Komposition (Hintereinanderausführung) linearer Abbildungen. Weil die Klammerung
bei der Hintereinanderausführung dreier linearer Abbildungen keine Rolle spielt,
gilt dies dann auch für die Matrixmultiplikation, diese ist also assoziativ.

Ist K {\displaystyle K} K sogar ein Körper, kann man statt der Spaltenvektorräume
beliebige endlichdimensionale K {\displaystyle K} K-Vektorräume V {\displaystyle V}
V und W {\displaystyle W} W (der Dimension n {\displaystyle n} n bzw. m
{\displaystyle m} m) betrachten. (Falls K {\displaystyle K} K ein kommutativer Ring
mit 1 ist, dann kann man analog freie K-Moduln betrachten.) Diese sind nach Wahl
von Basen v = ( v 1 , … , v n ) {\displaystyle v=(v_{1},\dotsc ,v_{n})}
{\displaystyle v=(v_{1},\dotsc ,v_{n})} von V {\displaystyle V} V und w = ( w 1 , …
, w m ) {\displaystyle w=(w_{1},\dotsc ,w_{m})} {\displaystyle w=(w_{1},\dotsc
,w_{m})} von W {\displaystyle W} W zu den Koordinatenräumen K n {\displaystyle
K^{n}} K^{n} bzw. K m {\displaystyle K^{m}} K^m isomorph, weil zu einem beliebigen
Vektor u ∈ V {\displaystyle u\in V} u\in V eine eindeutige Zerlegung in
Basisvektoren

u = ∑ j = 1 n α j v j {\displaystyle u=\sum _{j=1}^{n}\alpha _{j}v_{j}} u =


\sum_{j=1}^n \alpha_j v_j

existiert und die darin vorkommenden Körperelemente α j {\displaystyle \alpha _{j}}


\alpha _{j} den Koordinatenvektor

v u = ( α 1 ⋮ α n ) ∈ K n {\displaystyle {}_{v}u={\begin{pmatrix}\alpha
_{1}\\\vdots \\\alpha _{n}\end{pmatrix}}\in K^{n}} {}_vu=\begin{pmatrix}\alpha_1 \\
\vdots \\ \alpha_n\end{pmatrix} \in K^n

bilden. Jedoch hängt der Koordinatenvektor von der verwendeten Basis v


{\displaystyle v} v ab, die daher auch in der Bezeichnung v u {\displaystyle
{}_{v}u} {}_vu vorkommt.

Analog verhält es sich im Vektorraum W . {\displaystyle W.} W. Ist eine lineare


Abbildung f : V → W {\displaystyle f\colon V\to W} f\colon V\to W gegeben, so
lassen sich die Bilder der Basisvektoren von V {\displaystyle V} V eindeutig in die
Basisvektoren von W {\displaystyle W} W zerlegen in der Form

f ( v j ) = ∑ i = 1 m a i j w i {\displaystyle f(v_{j})=\sum
_{i=1}^{m}a_{ij}w_{i}} f(v_j) = \sum_{i=1}^m a_{ij}w_i

mit Koordinatenvektor

w f ( v j ) = ( a 1 j ⋮ a m j ) ∈ K m . {\displaystyle
{}_{w}f(v_{j})={\begin{pmatrix}a_{1j}\\\vdots \\a_{mj}\end{pmatrix}}\in K^{m}.}
{}_wf(v_j)=\begin{pmatrix}a_{1j} \\ \vdots \\ a_{mj}\end{pmatrix} \in K^m.

Die Abbildung ist dann vollständig festgelegt durch die sog. Abbildungsmatrix

w f v = ( a 11 … a 1 n ⋮ ⋮ a m 1 … a m n ) ∈ K m × n , {\displaystyle
{}_{w}f_{v}={\begin{pmatrix}a_{11}&\ldots &a_{1n}\\\vdots &&\vdots \\a_{m1}&\ldots
&a_{mn}\end{pmatrix}}\in K^{m\times n},}
{}_{w}f_{v}={\begin{pmatrix}a_{{11}}&\ldots &a_{{1n}}\\\vdots &&\vdots
\\a_{{m1}}&\ldots &a_{{mn}}\end{pmatrix}}\in K^{{m\times n}},
denn für das Bild des o. g. Vektors u {\displaystyle u} u gilt

f ( u ) = ∑ i = 1 m ∑ j = 1 n a i j α j w i , {\displaystyle f(u)=\sum
_{i=1}^{m}\sum _{j=1}^{n}a_{ij}\alpha _{j}w_{i},} f(u) = \sum_{i=1}^m \sum_{j=1}^n
a_{ij}\alpha_j w_i,

also w f ( u ) = w f v ⋅ v u {\displaystyle {}_{w}f(u)={}_{w}f_{v}\cdot {}_{v}u}


{}_wf(u) = {}_wf_v\cdot {}_vu („Koordinatenvektor = Matrix mal Koordinatenvektor“).
(Die Matrix w f v {\displaystyle {}_{w}f_{v}} {}_wf_v hängt von den verwendeten
Basen v {\displaystyle v} v und w {\displaystyle w} w ab; bei der Multiplikation
wird die Basis v {\displaystyle v} v, die links und rechts vom Malpunkt steht,
„weggekürzt“, und die „außen“ stehende Basis w {\displaystyle w} w bleibt übrig.)

Die Hintereinanderausführung zweier linearer Abbildungen f : V → W {\displaystyle


f\colon V\to W} f\colon V\to W und g : W → X {\displaystyle g\colon W\to X} g\colon
W\to X (mit Basen v {\displaystyle v} v, w {\displaystyle w} w bzw. x
{\displaystyle x} x) entspricht dabei der Matrixmultiplikation, also

x ( g ∘ f ) v = x g w ⋅ w f v {\displaystyle {}_{x}(g\circ
f)_{v}={}_{x}g_{w}\cdot {}_{w}f_{v}} {}_x(g\circ f)_v = {}_xg_w \cdot {}_wf_v

(auch hier wird die Basis w {\displaystyle w} w „weggekürzt“).

Somit ist die Menge der linearen Abbildungen von V {\displaystyle V} V nach W
{\displaystyle W} W wieder isomorph zu K m × n . {\displaystyle K^{m\times n}.}
K^{m\times n}. Der Isomorphismus f ↦ w f v {\displaystyle f\mapsto {}_{w}f_{v}}
f \mapsto {}_wf_v hängt aber von den gewählten Basen v {\displaystyle v} v und w
{\displaystyle w} w ab und ist daher nicht kanonisch: Bei Wahl einer anderen Basis
v ′ {\displaystyle v'} v' für V {\displaystyle V} V bzw. w ′ {\displaystyle w'} w'
für W {\displaystyle W} W wird derselben linearen Abbildung nämlich eine andere
Matrix zugeordnet, die aus der alten durch Multiplikation von rechts bzw. links mit
einer nur von den beteiligten Basen abhängigen invertierbaren m × m {\displaystyle
m\times m} m \times m- bzw. n × n {\displaystyle n\times n} n\times n-Matrix (sog.
Basiswechselmatrix) entsteht. Das folgt durch zweimalige Anwendung der
Multiplikationsregel aus dem vorigen Absatz, nämlich

w ′ f v ′ = w ′ e w W ⋅ w f v ⋅ v e v ′ V {\displaystyle
{}_{w'}f_{v'}={}_{w'}e_{w}^{W}\cdot {}_{w}f_{v}\cdot {}_{v}e_{v'}^{V}}
{}_{w'}f_{v'} = {}_{w'}e^W_w \cdot {}_wf_v \cdot {}_ve^V_{v'}

(„Matrix = Basiswechselmatrix mal Matrix mal Basiswechselmatrix“). Dabei bilden die


Identitätsabbildungen e V {\displaystyle e^{V}} e^V und e W {\displaystyle e^{W}}
e^W jeden Vektor aus V {\displaystyle V} V bzw. W {\displaystyle W} W auf sich
selbst ab.

Bleibt eine Eigenschaft von Matrizen unberührt von solchen Basiswechseln, so ist es
sinnvoll, diese Eigenschaft auch basisunabhängig der entsprechenden linearen
Abbildung zuzusprechen.

Im Zusammenhang mit Matrizen oft auftretende Begriffe sind der Rang und die
Determinante einer Matrix. Der Rang ist (falls K {\displaystyle K} K ein Körper
ist) im angeführten Sinne basisunabhängig, und man kann somit vom Rang auch bei
linearen Abbildungen sprechen. Die Determinante ist nur für quadratische Matrizen
definiert, die dem Fall V = W {\displaystyle V=W} V=W entsprechen; sie bleibt
unverändert, wenn derselbe Basiswechsel im Definitions- und Wertebereich
durchgeführt wird, wobei beide Basiswechselmatrizen zueinander invers sind:

v ′ f v ′ = ( v e v ′ V ) − 1 ⋅ v f v ⋅ v e v ′ V {\displaystyle
{}_{v'}f_{v'}=({}_{v}e_{v'}^{V})^{-1}\cdot {}_{v}f_{v}\cdot {}_{v}e_{v'}^{V}}
{\displaystyle {}_{v'}f_{v'}=({}_{v}e_{v'}^{V})^{-1}\cdot {}_{v}f_{v}\cdot
{}_{v}e_{v'}^{V}}

In diesem Sinne ist also auch die Determinante basisunabhängig.


Umformen von Matrizengleichungen

Speziell in den multivariaten Verfahren werden häufig Beweisführungen, Herleitungen


usw. im Matrizenkalkül durchgeführt.

Gleichungen werden im Prinzip wie algebraische Gleichungen umgeformt, wobei jedoch


die Nichtkommutativität der Matrixmultiplikation sowie die Existenz von Nullteilern
beachtet werden muss.

Beispiel: Lineares Gleichungssystem als einfache Umformung

Gesucht ist der Lösungsvektor x {\displaystyle x} x eines linearen


Gleichungssystems

A ⋅ x = b {\displaystyle A\cdot x=b} A \cdot x=b

mit A {\displaystyle A} A als n × n {\displaystyle n\times n} n\times n-


Koeffizientenmatrix. Wenn die inverse Matrix A − 1 {\displaystyle A^{-1}} A^{-1}
existiert, kann man mit ihr von links multiplizieren:

A − 1 ⋅ A ⋅ x = A − 1 ⋅ b ⇔ E ⋅ x = A − 1 ⋅ b {\displaystyle A^{-1}\cdot A\cdot


x=A^{-1}\cdot b\Leftrightarrow E\cdot x=A^{-1}\cdot b} {\displaystyle A^{-1}\cdot
A\cdot x=A^{-1}\cdot b\Leftrightarrow E\cdot x=A^{-1}\cdot b}

und man erhält als Lösung

x = A − 1 ⋅ b . {\displaystyle x=A^{-1}\cdot b.} x=A^{-1} \cdot b.

Spezielle Matrizen
Eigenschaften von Endomorphismen

Die folgenden Eigenschaften quadratischer Matrizen entsprechen Eigenschaften von


Endomorphismen, die durch sie dargestellt werden.

Orthogonale Matrizen
Eine reelle Matrix A {\displaystyle A} A ist orthogonal, wenn die zugehörige
lineare Abbildung das Standardskalarprodukt erhält, das heißt, wenn

⟨ A v , A w ⟩ = ⟨ v , w ⟩ {\displaystyle \langle Av,Aw\rangle =\langle


v,w\rangle } \langle Av,Aw\rangle = \langle v,w\rangle

gilt. Diese Bedingung ist äquivalent dazu, dass A {\displaystyle A} A die


Gleichung

A − 1 = A T {\displaystyle A^{-1}=A^{T}} A^{-1}=A^{T}

bzw.

A A T = E {\displaystyle A\,A^{T}=E} A\,A^T = E

erfüllt.
Diese Matrizen stellen Spiegelungen, Drehungen und Drehspiegelungen dar.

Unitäre Matrizen
Sie sind das komplexe Gegenstück zu den orthogonalen Matrizen. Eine komplexe
Matrix A {\displaystyle A} A ist unitär, wenn die zugehörige Transformation die
Normierung erhält, das heißt, wenn

⟨ A v , A w ⟩ = ⟨ v , w ⟩ {\displaystyle \langle Av,Aw\rangle =\langle


v,w\rangle } \langle Av,Aw\rangle = \langle v,w\rangle

gilt. Diese Bedingung ist äquivalent dazu, dass A {\displaystyle A} A die


Gleichung

A − 1 = A ∗ {\displaystyle A^{-1}=A^{*}} A^{-1} = A^*

erfüllt; dabei bezeichnet A ∗ {\displaystyle A^{*}} A^* die konjugiert-


transponierte Matrix zu A . {\displaystyle A.} A.
Fasst man den n {\displaystyle n} n-dimensionalen komplexen Vektorraum als 2 n
{\displaystyle 2n} 2n-dimensionalen reellen Vektorraum auf, so entsprechen die
unitären Matrizen genau denjenigen orthogonalen Matrizen, die mit der
Multiplikation mit i {\displaystyle \mathrm {i} } \mathrm {i} vertauschen.

Projektionsmatrizen
Eine Matrix ist eine Projektionsmatrix, falls

A = A 2 {\displaystyle A=A^{2}} A = A^2

gilt, sie also idempotent ist, das heißt, die mehrfache Anwendung einer
Projektionsmatrix auf einen Vektor lässt das Resultat unverändert. Eine idempotente
Matrix hat keinen vollen Rang, es sei denn, sie ist die Einheitsmatrix. Geometrisch
entsprechen Projektionsmatrizen der Parallelprojektion entlang des Nullraumes der
Matrix. Steht der Nullraum senkrecht auf dem Bildraum, so erhält man eine
Orthogonalprojektion.
Beispiel: Es sei X {\displaystyle X} X eine ( m × n ) {\displaystyle (m\times
n)} (m\times n)-Matrix und damit selbst nicht invertierbar. Falls der Rang von X
{\displaystyle X} X gleich n {\displaystyle n} n ist, dann ist ( X T X )
{\displaystyle (X^{T}X)} {\displaystyle (X^{T}X)} invertierbar und die ( m × m )
{\displaystyle (m\times m)} (m\times m)-Matrix

A = X ( X T X ) − 1 X T {\displaystyle A=X\,(X^{T}X)^{-1}X^{T}} A = X \,
(X^TX)^{-1}X^T

idempotent. Diese Matrix wird beispielsweise in der Methode der kleinsten


Quadrate verwendet.

Nilpotente Matrizen
Eine Matrix N {\displaystyle N} N heißt nilpotent, falls eine Potenz N k
{\displaystyle N^{k}} N^k (und damit auch jede höhere Potenz) die Nullmatrix
ergibt.

Eigenschaften von Bilinearformen

Im Folgenden sind Eigenschaften von Matrizen aufgelistet, die Eigenschaften der


zugehörigen Bilinearform

( v , w ) ↦ v T A w {\displaystyle (v,w)\mapsto v^{T}Aw} (v,w)\mapsto v^T A w

entsprechen. Trotzdem können diese Eigenschaften auch für die dargestellten


Endomorphismen eine eigenständige Bedeutung besitzen.

Symmetrische Matrizen
Eine Matrix A {\displaystyle A} A heißt symmetrisch, wenn sie gleich ihrer
transponierten Matrix ist:
A T = A {\displaystyle A^{T}=A} A^T = A

Anschaulich gesprochen sind die Einträge symmetrischer Matrizen symmetrisch zur


Hauptdiagonalen.
Beispiel:

( 1 2 3 2 4 5 3 5 6 ) T = ( 1 2 3 2 4 5 3 5 6 ) {\displaystyle
{\begin{pmatrix}1&2&3\\2&4&5\\3&5&6\end{pmatrix}}^{T}={\begin{pmatrix}1&2&3\\2&4&5\
\3&5&6\end{pmatrix}}} \begin{pmatrix} 1 & 2 & 3 \\ 2 & 4 & 5 \\ 3 & 5 & 6
\end{pmatrix}^T = \begin{pmatrix} 1 & 2 & 3 \\ 2 & 4 & 5 \\ 3 & 5 & 6 \end{pmatrix}

Symmetrische Matrizen entsprechen einerseits symmetrischen Bilinearformen:

v T A w = w T A v , {\displaystyle v^{T}Aw=w^{T}Av,} v^T A w=w^T A v,

andererseits den selbstadjungierten linearen Abbildungen:

⟨ A v , w ⟩ = ⟨ v , A w ⟩ {\displaystyle \langle Av,w\rangle =\langle


v,Aw\rangle } {\displaystyle \langle Av,w\rangle =\langle v,Aw\rangle }

Hermitesche Matrizen
Hermitesche Matrizen sind das komplexe Analogon der symmetrischen Matrizen. Sie
entsprechen den hermiteschen Sesquilinearformen und den selbstadjungierten
Endomorphismen.
Eine Matrix A ∈ C n × n {\displaystyle A\in \mathbb {C} ^{n\times n}}
A\in\mathbb C^{n\times n} ist hermitesch oder selbstadjungiert, wenn gilt:

A = A ∗ {\displaystyle A=A^{*}} {\displaystyle A=A^{*}}

Schiefsymmetrische Matrizen
Eine Matrix A {\displaystyle A} A heißt schiefsymmetrisch oder auch
antisymmetrisch, wenn gilt:

− A T = A {\displaystyle -A^{T}=A} {\displaystyle -A^{T}=A}

Um diese Bedingung zu erfüllen, müssen alle Einträge der Hauptdiagonale den


Wert Null haben; die restlichen Werte werden an der Hauptdiagonale gespiegelt und
mit − 1 {\displaystyle -1} -1 multipliziert.
Beispiel:

( 0 1 2 − 1 0 3 − 2 − 3 0 ) {\displaystyle {\begin{pmatrix}0&1&2\\-1&0&3\\-
2&-3&0\end{pmatrix}}} {\displaystyle {\begin{pmatrix}0&1&2\\-1&0&3\\-2&-
3&0\end{pmatrix}}}

Schiefsymmetrische Matrizen entsprechen antisymmetrischen Bilinearformen:

v T ⋅ A ⋅ w = − w T ⋅ A ⋅ v {\displaystyle v^{T}\cdot A\cdot w=-w^{T}\cdot


A\cdot v} v^T\cdot A\cdot w = -w^T\cdot A\cdot v

und antiselbstadjungierten Endomorphismen:

⟨ A v , w ⟩ = − ⟨ v , A w ⟩ {\displaystyle \langle Av,w\rangle =-\langle


v,Aw\rangle } {\displaystyle \langle Av,w\rangle =-\langle v,Aw\rangle }

Positiv definite Matrizen


Eine reelle Matrix ist positiv definit, wenn die zugehörige Bilinearform
positiv definit ist, das heißt, wenn für alle Vektoren v ≠ 0 {\displaystyle v\neq
0} v\ne0 gilt:

v T ⋅ A ⋅ v > 0 {\displaystyle v^{T}\cdot A\cdot v>0} {\displaystyle


v^{T}\cdot A\cdot v>0}

Positiv definite Matrizen definieren verallgemeinerte Skalarprodukte. Hat die


Bilinearform keine negativen Werte, heißt die Matrix positiv semidefinit. Analog
kann eine Matrix negativ definit beziehungsweise negativ semidefinit heißen, wenn
die obige Bilinearform nur negative beziehungsweise keine positiven Werte hat.
Matrizen, die keine dieser Eigenschaften erfüllen, heißen indefinit.

Weitere Konstruktionen

Konjugierte und adjungierte Matrix

Enthält eine Matrix komplexe Zahlen, erhält man die konjugierte Matrix, indem man
ihre Komponenten durch die konjugiert komplexen Elemente ersetzt. Die adjungierte
Matrix (auch hermitesch konjugierte Matrix) einer Matrix A {\displaystyle A} A wird
mit A ∗ {\displaystyle A^{*}} A^* bezeichnet und entspricht der transponierten
Matrix, bei der zusätzlich alle Elemente komplex konjugiert werden.

Adjunkte oder komplementäre Matrix

Die komplementäre Matrix adj ⁡( A ) {\displaystyle \operatorname {adj} (A)}


\operatorname {adj} (A) einer quadratischen Matrix A {\displaystyle A} A setzt sich
aus deren Unterdeterminanten zusammen, wobei eine Unterdeterminante auch Minor
genannt wird. Für die Ermittlung der Unterdeterminanten det ( A i j )
{\displaystyle \det(A_{ij})} \det(A_{ij}) werden die i {\displaystyle i} i-te Zeile
und j {\displaystyle j} j-te Spalte von A {\displaystyle A} A gestrichen. Aus der
resultierenden ( n − 1 ) × ( n − 1 ) {\displaystyle (n-1)\times (n-1)} (n-1)\times
(n-1)-Matrix wird dann die Determinante det ( A i j ) {\displaystyle
\det(A_{ij})} \det (A_{ij}) berechnet. Die komplementäre Matrix hat dann die
Einträge ( − 1 ) i + j det ( A j i ) . {\displaystyle (-1)^{i+j}\det(A_{ji}).} (-
1)^{i+j}\det (A_{ji}). Diese Matrix wird manchmal auch als Matrix der Kofaktoren
bezeichnet.

Man verwendet die komplementäre Matrix beispielsweise zur Berechnung der


Inversen einer Matrix A {\displaystyle A} A, denn nach dem Laplaceschen
Entwicklungssatz gilt:

adj ⁡( A ) ⋅ A = A ⋅ adj ⁡( A ) = det ( A ) ⋅ E n {\displaystyle


\operatorname {adj} (A)\cdot A=A\cdot \operatorname {adj} (A)=\det(A)\cdot E_{n}}
{\displaystyle \operatorname {adj} (A)\cdot A=A\cdot \operatorname {adj}
(A)=\det(A)\cdot E_{n}}

Damit ist die Inverse A − 1 = 1 det ( A ) ⋅ adj ⁡( A ) , {\displaystyle A^{-


1}={\frac {1}{\det(A)}}\cdot \operatorname {adj} (A),} A^{-1}=\frac{1}
{\det(A)}\cdot \operatorname{adj}(A), wenn det ( A ) ≠ 0. {\displaystyle
\det(A)\neq 0.} \det(A) \neq 0.

Übergangs- oder stochastische Matrizen

Eine Übergangs- oder stochastische Matrix ist eine Matrix, deren Einträge alle
zwischen 0 und 1 liegen und deren Zeilen bzw. Spaltensummen 1 ergeben. Sie dienen
in der Stochastik zur Charakterisierung zeitlich diskreter Markow-Ketten mit
endlichem Zustandsraum. Ein Spezialfall hiervon sind die doppelt-stochastischen
Matrizen.
Unendlichdimensionale Räume
Auch für unendlichdimensionale Vektorräume (sogar über Schiefkörpern) gilt, dass
jede lineare Abbildung f : U → V {\displaystyle f\colon U\to V} f\colon U\to V
eindeutig durch die Bilder f ( u ) {\displaystyle f(u)} f(u) der Elemente u
{\displaystyle u} u einer Basis B U ⊂ U {\displaystyle {\mathcal {B}}_{U}\subset U}
\mathcal{B}_U\subset U bestimmt ist und diese beliebig gewählt werden und zu einer
linearen Abbildung auf ganz U {\displaystyle U} U fortgesetzt werden können. Ist
nun B V {\displaystyle {\mathcal {B}}_{V}} \mathcal{B}_V eine Basis von V
{\displaystyle V} V, so lässt sich f ( u ) {\displaystyle f(u)} f(u) eindeutig als
(endliche) Linearkombination von Basisvektoren schreiben, d. h., es existieren
eindeutige Koeffizienten f ( u ) b ∈ K {\displaystyle f(u)_{b}\in K} f(u)_b\in K
für b ∈ B V {\displaystyle b\in {\mathcal {B}}_{V}} b\in\mathcal{B}_V, von denen
nur endlich viele von null verschieden sind, sodass f ( u ) = ∑ b ∈ B V f ( u ) b b
{\displaystyle f(u)=\sum _{b\in {\mathcal {B}}_{V}}f(u)_{b}b}
f(u)=\sum_{b\in\mathcal{B}_V}f(u)_b b. Dementsprechend lässt sich jede lineare
Abbildung als möglicherweise unendliche Matrix auffassen, wobei jedoch in jeder
Spalte ( B U {\displaystyle {\mathcal {B}}_{U}} \mathcal{B}_U „nummeriere“ die
Spalten und die Spalte zu u {\displaystyle u} u bestehe dann aus den von den
Elementen von B V {\displaystyle {\mathcal {B}}_{V}} \mathcal{B}_V nummerierten
Koordinaten f ( u ) b {\displaystyle f(u)_{b}} f(u)_b) nur endlich viele Einträge
von null verschieden sind, und umgekehrt. Die entsprechend definierte
Matrixmultiplikation entspricht wiederum der Komposition linearer Abbildungen.

In der Funktionalanalysis betrachtet man topologische Vektorräume, d. h.


Vektorräume, auf denen man von Konvergenz sprechen und dementsprechend auch
unendliche Summen bilden kann. Auf solchen können auch Matrizen mit unendlich
vielen von null verschiedenen Einträgen in einer Spalte unter Umständen als lineare
Abbildungen verstanden werden, wobei auch andere Basis-Begriffe zugrunde liegen.

Einen speziellen Fall bilden Hilberträume. Seien also U , V {\displaystyle U,V} U,


V Hilberträume und ( u i ) i ∈ I , ( v i ) i ∈ I {\displaystyle (u_{i})_{i\in I},
(v_{i})_{i\in I}} (u_i)_{i\in I}, (v_i)_{i\in I} Orthonormalbasen von U
{\displaystyle U} U bzw. V {\displaystyle V} V. Dann erhält man eine
Matrixdarstellung eines linearen Operators f : U → V {\displaystyle f\colon U\to V}
f\colon U\to V (für lediglich dicht definierte Operatoren funktioniert es ebenso,
falls der Definitionsbereich eine Orthonormalbasis besitzt, was im
abzählbardimensionalen Fall stets zutrifft), indem man die Matrixelemente f i ,
k := ⟨ u i , f u k ⟩ {\displaystyle f_{i,k}:=\langle u_{i},fu_{k}\rangle }
f_{i,k} :=\langle u_i, f u_k\rangle definiert; dabei ist ⟨ u , v ⟩
{\displaystyle \langle u,v\rangle } \langle u,v\rangle das Skalarprodukt im
betrachteten Hilbertraum (im komplexen Fall semilinear im ersten Argument).

Dieses sogenannte Hilbert-Schmidt-Skalarprodukt lässt sich im


unendlichdimensionalen Fall nur noch für eine bestimmte Teilklasse von linearen
Operatoren, die sogenannten Hilbert-Schmidt-Operatoren, definieren, bei denen die
Reihe, über die dieses Skalarprodukt definiert ist, stets konvergiert.
Literatur

Gerd Fischer: Lineare Algebra. (Eine Einführung für Studienanfänger). 13.,


durchgesehene Auflage. Vieweg, Braunschweig u. a. 2002, ISBN 3-528-97217-3.
Günter Gramlich: Lineare Algebra. Fachbuchverlag Leipzig im Carl Hanser Verlag,
München u. a. 2003, ISBN 3-446-22122-0.
Klaus Jänich: Lineare Algebra. 11. Auflage. Springer, Berlin u. a. 2008, ISBN
978-3-540-75501-2.
Karsten Schmidt, Götz Trenkler: Einführung in die Moderne Matrix-Algebra. Mit
Anwendungen in der Statistik. 2., vollständig überarbeitete Auflage. Springer,
Berlin u. a. 2006, ISBN 3-540-33007-0.
Gilbert Strang: Lineare Algebra. Springer, Berlin u. a. 2003, ISBN 3-540-43949-
8.
Weblinks
WiktionaryWiktionary: Matrix – Bedeutungserklärungen, Wortherkunft, Synonyme,
Übersetzungen
Commons: Matrix – Sammlung von Bildern, Videos und Audiodateien

Matrizen-Rechner – Rechner, der Rechenoperationen für Matrizen mit konkreten


Zahlenwerten, aber auch mit Variablen durchführt.
The Matrix Cookbook – Eine englischsprachige, umfangreiche Matrix-
Formelsammlung (PDF; 522 kB).

Belege

Eric W. Weisstein: Hypermatrix. In: MathWorld (englisch).

Normdaten (Sachbegriff): GND: 4037968-1


Kategorie:

Matrix

Navigationsmenü

Nicht angemeldet
Diskussionsseite
Beiträge
Benutzerkonto erstellen
Anmelden

Artikel
Diskussion

Lesen
Bearbeiten
Quelltext bearbeiten
Versionsgeschichte

Suche

Hauptseite
Themenportale
Zufälliger Artikel

Mitmachen

Artikel verbessern
Neuen Artikel anlegen
Autorenportal
Hilfe
Letzte Änderungen
Kontakt
Spenden

Werkzeuge

Links auf diese Seite


Änderungen an verlinkten Seiten
Spezialseiten
Permanenter Link
Seiteninformationen
Wikidata-Datenobjekt
Artikel zitieren

In anderen Projekten

Commons

Drucken/exportieren

Buch erstellen
Als PDF herunterladen
Druckversion

In anderen Sprachen

Dansk
English
Español
Français
Hrvatski
Italiano
Nederlands
Русский
Türkçe

Links bearbeiten

Diese Seite wurde zuletzt am 9. April 2020 um 20:24 Uhr bearbeitet.


Abrufstatistik · Autoren

Der Text ist unter der Lizenz „Creative Commons Attribution/Share Alike“
verfügbar; Informationen zu den Urhebern und zum Lizenzstatus eingebundener
Mediendateien (etwa Bilder oder Videos) können im Regelfall durch Anklicken dieser
abgerufen werden. Möglicherweise unterliegen die Inhalte jeweils zusätzlichen
Bedingungen. Durch die Nutzung dieser Website erklären Sie sich mit den
Nutzungsbedingungen und der Datenschutzrichtlinie einverstanden.
Wikipedia® ist eine eingetragene Marke der Wikimedia Foundation Inc.

Datenschutz
Über Wikipedia
Impressum
Entwickler
Statistiken
Stellungnahme zu Cookies
Mobile Ansicht

Wikimedia Foundation
Powered by MediaWiki