Sie sind auf Seite 1von 15

Minimax-Prinzip

Daniel Petrovic
15.Dezember 2017

1 Einführung
In dieser Arbeit wird das Minimax-Prinzip kurz vorgestellt und seine An-
wendung am einfachen Beispiel der elastischen Schwingungen demonstriert.
Zuerst werden in den Grundlagen einige wichtige Begriffe eingeführt. Da-
nach werden die Spektralsätze und das Minimax-Prinzip eingeführt. Zum
Schluss wird die Anwendung an Eigenfrequenzen eines Schwingungssystems
vorgestellt.

2 Grundlagen
Hier werden einige Definitionen und Sätze ohne Beweise festgelegt die im
weiteren Text verwendet werden. Die einzelnen Beweise können der Literatur
aus dem Anhang entnommen werden.

Lemma 2.1. Sei A ∈ Mnn (R) eine reelle quadratische Matrix. Dann gilt:

• (AB)T = B T AT

• (A−1 )T = (AT )−1

Definition 2.2. Das Skalarprodukt von zwei Vektoren u, w ∈ V eines Eu-


klidischen oder unitären Vektorraumes (V, h, i) sei definiert als

hv, wi = v T w

Definition 2.3. Sei (V, h, i) ein Euklidischer oder unitärer Vektorraum. Zwei
Vektoren u, v ∈ V heißen orthogonal wenn hu, vi = 0 ist.

Definition 2.4. Eine Matrix A ∈ Mnn (R) heißt symmetrisch, wenn A =


AT ist.

1
Definition 2.5. Eine Matrix A ∈ Mnn (R) heißt orthogonal, wenn A in-
vertierbar ist und wenn A−1 = AT ist.

Definition 2.6. Eine Matrix A ∈ Mnn (R) heißt positiv definit, wenn für
alle x ∈ Rn mit x 6= 0 gilt: xT Ax > 0.

Definition 2.7. Sei A eine reelle symmetrische Matrix und x ∈ Rn \ {0}.


Das Rayleigh-Quotient RA (x) wird definiert als:

hx, Axi
RA (x) = .
hx, xi

RA (x) ist also eine skalare Größe.

Die folgende Lemma wird ohne Beweis aufgeführt. Der Beweis findet sich
z.B. in [1].

Lemma 2.8. Zu einer Matrix A ∈ Mnn (C) gibt es genau dann einen Eigen-
vektor zum Eigenwert λ, wenn λ die Nullstelle des charakteristischen Poly-
noms χA ist.

Lemma 2.9. Sei A ∈ Mnn (C). Dann hat A genau n komplexe Eigenwerte
(mitgezählt Vielfältigkeiten).

Beweis. Sei A ∈ Mnn (C). Ferner sei χA das charakteristische Polynom von
A. Es ist Grad(χA ) = n. Nach dem Fundamentalsatz der Algebra besitzt
χA genau n komplexen Nullstellen (mitgezählt Vielfältigkeiten). Nach (2.8)
entspricht dann jeder dieser Nullstellen einem Eigenwert von A.

Lemma 2.10. Sei A ∈ Mnn (R) eine reelle symmetrische Matrix. Sei ferner
λ ein Eigenwert von A. Dann ist λ reell, also λ ∈ R.

Beweis. Nach (2.9) hat A genau n komplexe Eigenwerte. Da A reell ist gilt
Av = Av. Sei λ ein Eigenwert zum Eigenvektor v von A. Es gilt nach (2.9)
λ ∈ C. Ferner gilt:

λhv, vi = hλv, vi = hAv, vi = hv, Avi = hv, Avi = hv, λvi = λhv, vi.

Also λ = λ, d.h. λ ∈ R, da hv, vi > 0 für v 6= 0.

Der folgende Satz für die Dimensionsformel für Summe und Durschnitt
der Unterräume eines Vektorraumes wird ohne Beweis aufgeführt. Der Beweis
findet sich z.B. in [2]:

2
Satz 2.11. Sei V ein Vektorraum, und seien U und W endlichdimensionale
Unterräume von V. Dann gilt:
dim(U + W ) = dim(U ) + dim(W ) − dim(U ∩ W ).

Der folgende Satz beschreibt die Zerlegung einer positiv definiten Matrix
in Produkt zweier Dreiecksmatrizen. Der Beweis findet sich z.B. in [4].

Satz 2.12. Cholesky-Zerlegung Sei A ∈ Mnn (R) eine reelle symmetrische


positiv definite Matrix. Dann kann A als Produkt von zwei Dreiecksmatrizen
zerlegt werden:
A = LLT
wobei L ∈ Mnn (R) eine untere Dreicksmatrix mit positiven Diagonalele-
menten ist. Die Zerlegung ist eindeutig.

3 Spektralsatz
Spektralsatz beschreibt die Zerlegung einer (in diesem Fall) symmetrischen
reellen Matrix A als Produkt einer orthogonalen Matrix und einer diagonalen
Matrix bestehend aus Eigenwerten von A. Die folgenden zwei Sätze werden
ohne Beweis aufgeführt. Die Beweise finden sich z.B. in [1] oder [4].

3.1 Spektralsatz
Satz 3.1. Ist K ∈ Mnn (R) eine reelle symmetrische n × n Matrix, dann
existiert eine orthogonale Matrix U ∈ Mnn (R), so dass gilt

K = U diag(λ1 , . . . , λn ) U T (1)
 
λ1 ··· 0
= U  ... ... ..  U T (2)

.
0 ··· λn

Satz 3.2. Ist K ∈ Mnn (R) eine reelle symmetrische n × n Matrix, dann
existiert eine orthonormale Basis u1 , · · · , un von Rn , so dass gilt

Kuj = λj uj

3
3.2 Erweiterter Spektralsatz
Satz 3.3. Sind K,M ∈ Mnn (R) reelle symmetrische n × n Matrizen, mit M
positiv definit, dann existiert eine Matrix F ∈ Mnn (R), so dass gilt

F T KF = diag(λ1 , . . . , λn ) (3)
 
λ1 ··· 0
=  ... .. ..  (4)

. .
0 ··· λn

mit F T M F = In .

Beweis. Da die Matrix K symmetrisch ist, gilt nach der Definition (2.4)
K = KT .
Da Matrix M reell symmetrisch und positiv definit ist, gibt es nach dem
Satz (2.12) eine Cholesky-Zerlegung

M = LLT mit L ∈ Mnn (R).

Wir betrachten die Matrix K 0 = L−1 K(LT )−1 . Es gilt dann:


T
(K 0 )T = L−1 K (LT )−1
T T
= (LT )−1 K T L−1
T T
= (L−1 )T K T L−1
= L−1 K(L−1 )T .

Also gilt: K 0 = K 0T , d.h. die Matrix K 0 ist symmetrisch.

Nach dem Satz (3.1) existiert dann für K 0 eine Orthogonale Matrix U ∈
Mnn (R) sodass gilt:

K 0 = L−1 K(LT )−1 = U diag(λ1 , . . . , λn )U T .

Durch die Multiplikation der oberen Gleichung mit U −1 von links und U
von rechts (unter Beachtung, dass U = (U −1 )−1 = (U T )−1 da U orthogonal
ist und deswegen U −1 = U T ) ergibt sich:

U −1 L−1 K(LT )−1 U = diag(λ1 , . . . , λn )

Wir setzen F = (LT )−1 U = (L−1 )T U .

4
Dann gilt F T = U T L−1 = U −1 L−1 , da U orthogonal ist. Die obige Glei-
chung kann also geschrieben werden als:
F T KF = diag(λ1 , . . . , λn )
und es gilt:
F T M F = (U −1 L−1 )(LLT )((L−1 )T U )
= U −1 (L−1 L)(LT (LT )−1 )U
= U −1 U = In .
was zu beweisen war.

4 Minimaxprinzip
4.1 Minimax-Satz
Satz 4.1. Ist K ∈ Mnn (R) eine reelle symmetrische n × n Matrix, λ1 , · · · , λn
die nichtfallend geordnete Eigenwerte von K (die Vielfachheiten mitgezählt)
und Sj die Menge aller j-dimensionalen Teilräume von Rn , (j ≤ n), dann
gilt

xT K x
λj = min max
Sj x ∈ Sj xT x
mit
  
k11 ··· k1n x1
 .. .. ..   .. 
(x1 · · · xn )  . . .  . 
xT K x kn1 ··· knn xn
= .
xT x (x21 + · · · + x2n )
Entsprechend den Definitionen für das Rayleigh-Quotient (2.7) und das
Skalarprodukt (2.2) kann der Satz (4.1) auch geschrieben werden als:
λj = min max RK (x)
Sj x ∈ Sj

Beweis. Seien λ1 ≤ λ2 ≤ · · · λn nach Voraussetzung die nichtfallend ange-


ordneten Eigenwerte von K.
Seien u1 , . . . , un ∈ Rn die entsprechend den Eigenwerten λ1 , . . . , λn ortho-
normalen Eigenvektoren von K. Nach dem Spektralsatz (3.2) gibt es solche
Vektoren.

5
1. Schritt Sei Uj ∈ Sj ein j-dimensionaler Unterraum von Rn . Sei Wjn
der Unterraum von Rn gespannt durch die Eigenvektoren uj , . . . , un von K
entsprechend den Eigenwerten λj ≤ · · · ≤ λn .
Nach Satz (2.11) gilt:

dim(Uj ∩ Wjn ) = dim(Uj ) + dim(Wjn ) − dim(Uj + Wjn )


= j + (n − j + 1) − dim(Uj + Wjn )
≥ j + (n − j + 1) − n = 1
da dim(Uj + Wjn ) ≤ n

D.h. es gibt einen Vektor v ∈ Uj ∩Wjn mit v 6= 0. Dann gibt es aj , . . . , an ∈


R sodass gilt:
v = aj uj + · · · + an un
Dann gilt:
n
!T n
!
X X
v T Kv = ai u i K ai ui
i=j i=j
n
! n
!
X X
T
= (ai ui ) K(ai ui )
i=j i=j
n
! n
!
X X
= ai uTi ai λi ui
i=j i=j
n X
X n
= ai ak λi λk (uTi uk )
i=1 k=1
= λj a2j + · · · + an λ2n ( wegen uTi uk = δik da ui , uk orthonormal )
≥ λj (a2j + · · · + a2n ) = λj (v T v)
v T Kv
Also λj ≤ vT v
bzw. λj ≤ minSj maxx∈Sj RK (x)

2. Schritt Sei nun Uj der durch die Vektoren u1 , . . . , uj gespannte Unter-


raum. Sei v ∈ Uj und v = a1 u1 + · · · + aj uj .

Es gilt ähnlich wie im 1. Schritt :

v T Kv = λ1 a21 + · · · + aj λ2j ≤ λj (a21 + · · · + a2n ) = λj (v T v)


v T Kv
Also λj ≥ vT v
bzw. λj ≥ minSj maxx∈Sj RK (x)

6
Da minSj maxx∈Sj RK (x) ≤ λj ≤ minSj maxx∈Sj RK (x) muss gelten:

λj = min max RK (x)


Sj x ∈ Sj

was zu beweisen war.

4.2 Erweiterter Minimax-Satz


Satz 4.2. Sind K,M ∈ Mnn (R) reelle symmetrische n × n Matrizen mit M
positiv definit, λ1 , · · · , λn die nichtfallend geordnete Eigenwerte von K (die
Vielfachheiten mitgezählt) und Sj die Menge aller j-dimensionalen Teilräume
von Rn , (j ≤ n), dann gilt

xT K x
λj = min max T
Sj x ∈ Sj x M x

mit
  
k11 ··· k1n x1
 .. .. ..   .. 
(x1 · · · xn )  . . .  . 
xT K x kn1 ··· knn xn
=   
xT M x m11 ··· m1n x1
 .. .. ..   .. 
(x1 · · · xn )  . . .  . 
mn1 ··· mnn xn

Beweis. Sei M = LT L die Cholesky-Zerlegung der Matrix M und In die


Einheitsmatrix.
Es gilt:
xT Kx xT In KIn x
=
xT M x xT (LT L)x
xT LT (LT )−1 K (L−1 L) x

=
(xT LT )(Lx)
xT LT (LT )−1 KL−1 (Lx)
 
=
(Lx)T (Lx)
(Lx)T (LT )−1 KL−1 (Lx)

=
(Lx)T (Lx)
yT K 0y
= T
y y
mit y = Lx und K 0 = (LT )−1 KL−1 .

7
Wie im Beweis vom Satz (3.1) gezeigt wurde, ist die Matrix K 0 symme-
trisch. Da die Matrizen K und K 0 die gleichen Eigenwerte haben, gilt nach
Satz (4.1):
yT K 0 y xT K x
λj = min max = min max
Sj y ∈ Sj yT y Sj x ∈ Sj xT M x

was zu beweisen war.

4.3 Monotonieeigenschaften
Definition 4.3. Seien K, K 0 ∈ Mnn (R) reelle symmetrische n × n Matrizen.
Dann wird zwischen K und K 0 eine Ordnungsrelation wie folgt definiert:

K ≤ K 0 ⇐⇒ xT K x ≤ xT K 0 x für alle x ∈ Rn .

Satz 4.4. Sind K, K 0 ∈ Mnn (R) reelle symmetrische n×n Matrizen, λ1 , · · · , λn


und λ01 , · · · , λ0n die nichtfallend geordnete Eigenwerte von K bzw. K 0 , dann
gilt:

K ≤ K 0 =⇒ λj ≤ λ0j , j = 1, . . . , n

Beweis. Sei K ≤ K 0 .
Nach der Definition (4.3) gilt dann für alle x ∈ Rn : xT Kx ≤ xT K 0 x.
Sei Sj ein j-dimensionaler Unterraum von Rn . Dann gilt für alle x ∈ Sj :
T
x Kx T 0
xT x
≤ x xTKx x und damit auch

xT Kx xT Kx
max T ≤ max T (∗)
x∈Sj x x x∈Sj x x

Seien λj und λ0j die j-te Eigenwerte von K bzw. K 0 . Nach dem Satz (4.1)
und mit (*) gilt:

xT Kx xT K 0 x
λj = min max ≤ min max = λ0j .
Sj x∈Sj xT x Sj x∈Sj xT x

Definition 4.5. Seien K, K 0 , M, M 0 ∈ Mnn (R) reelle symmetrische n × n


Matrizen. Dann wird zwischen (K, M ) und (K 0 , M 0 ) eine Ordnungsrelation
wie folgt definiert:

(K, M ) ≤ (K 0 , M 0 ) ⇐⇒ K ≤ K 0 , M 0 ≤ M

8
Satz 4.6. Sind K, K 0 , M, M 0 ∈ Mnn (R) reelle symmetrische positiv definite
n × n Matrizen und λ1 , · · · , λn und λ01 , · · · , λ0n die nichtfallend geordnete
Eigenwerte von K bzw. K 0 , dann gilt:

(K, M ) ≤ (K 0 , M 0 ) =⇒ λj ≤ λ0j , j = 1, . . . , n

Beweis. Sei K ≤ K 0 und M 0 ≤ M .


Nach der Definition (4.3) gilt dann für alle x ∈ Rn :

xT Kx ≤ xT K 0 x und xT M 0 x ≤ xT M x (∗∗)
Sei Sj ein j-dimensionaler Unterraum von Rn . Mit (**) gilt für alle x ∈ Sj
:
xT Kx xT K 0 x xT K 0 x
≤ ≤
xT M x xT M x xT M 0 x
da nach Voraussetzung K, K 0 , M, M 0 positiv definit sind.
Daraus ergibt sich:

xT Kx xT K 0 x
max ≤ max
x∈Sj xT M x x∈Sj xT M 0 x

Mit dem allgemeinen Minimax-Satz (4.2) folgt dann:

xT Kx xT K 0 x
λj = min max ≤ min max = λ0j .
Sj x∈Sj xT M x Sj x∈Sj xT M 0 x

5 Elastische Schwingungen
Das Minimax-Prinzip wird jetzt auf ein Beispiel aus der Theorie der elasti-
schen Schwingungen angewendet.
Ein Teilchen der Masse m kann sich auf einer Feder entlang der senkrech-
ten y-Achse nach unten bewegen.

9
Abbildung 1: Einzelmassenschwinger

Im Gleichgewicht gilt Schwerkraft = Gewichtskraft: ky = mg. Daraus


ergibt sich der Auschlag der Feder in der Gleichgewichtslage:

y = mg/k

P gilt Masse x Beschleunigung = Sum-


Nach dem Newtonschen Gesetz
me aller Kräfte: Fy = may = Fyi . Im unseren Fall ist die Beschleunigung
in y Richtung gegeben durch: ay = y 00 .
Daraus ergibt sich für die Teilchenschwingung in y Richtung um die
Gleichgewichtslage eine gewöhnliche Differentialgleichung 2.ter Ordnung:

Fy = may = my 00 = mg − ky
Der sin/cos Ansatz dieser DGL ergibt als Lösung:

y = y(t) = A cos ωt + B sin ωt + mg/k


mit
p
ω= k/m

10
Nachprüfung:

y 0 (t) = −Aω sin ωt + Bω cos ωt


y 00 (t) = −Aω 2 cos ωt − Bω 2 sin ωt
my 00 (t) = −mAω 2 cos ωt − mBω 2 sin ωt
k k
= −mA cos ωt − mB ωt
m m
= −kA cos ωt − kB sin ωt = mg − ky

ω ist die Frequenz der Schwingung und wird umso größer je kleiner die
Teilchenmasse und je größer die Federsteifigkeit ist.

Als nächstes betrachten wir einen Schwinger bestehend aus n Teilchen.

Abbildung 2: Mehrmassenschwinger

Auf das erste und das letzte Teilchen wirkt nur je eine Federkraft. Auf
alle anderen Teilchen wirken zwei Federkräfte. Die Dehnung der Feder j ist
gleich yj − yj−1 wobei yj die Position des j-ten Teilchens bedeutet.

11
Für diesen n-Teilchenschwinger gilt für j = 1, . . . , n − 1 und mit y0 = 0:

mj yj00 = mj g − kj (yj − yj−1 ) + kj+1 (yj+1 − yj )


= mj g + kj+1 yj+1 + (−kj+1 − kj )yj + kj yj−1

Für die Bewegung vom untersten Teilchen gilt:

mn yn00 = mn g − kj (yn − yn−1 )


Dieses System von n Differentialgleichungen kann in Matrixform geschrie-
ben werden als:

M y 00 + Ky = f (5)
Die einzelnen Matrixelemente ergeben sich aus dem direkten Vergleich
mit obigen Gleichungen zu:
 
m1 ... 0
M = diag(m1 , . . . , mn ) =  ... ...
 
0 
0 ... mn
 
k1 + k2 −k2 0 ... 0
 −k2 k2 + k3 −k3 
 
 .. . . . . . .
K= .

. . . 
 
 0 ... −kn−1 kn−1 + kn −kn 
0 ... −kn kn
 
m1 g
f (t) =  ... 
 
mn g
 
y1 (t)
y = y(t) =  ...  ∈ Rn , t ∈ R
 
yn (t)
Für die Ruhelage ergibt sich eine Konstante Lösung (y 00 = 0):

y(t) = yr = K −1 f

Für die einfachsten Lösungen können wieder sinusoidale Funktionen ein-


gesetzt werden:

y(t) = yr + (A cos ωt + B sin ωt)x ( mit x ∈ Rn ) (6)

12
Einsetzen von (6) in (5) ergibt:

Kx = ω 2 M x (7)
In der Gleichung (7) ist x der Eigenvektor und ω 2 der Eigenwert des
Matrizenpaares (K,M). ω wird auch Eigenfrequenz des Systems benannt und
spielt eine wichtige Rolle für die Stabilität des Systems.
Um den Einfluss der Teilchenmassen und Federsteifigkeit auf die Eigen-
frequenz zu bestätigen, wird zum Schluss noch der folgende Satz bewiesen:

Satz 5.1. Seien K, M, ∈ Mnn (R) die oben definierten n × n Matrizen. Dann
gilt:

1. Die Matrizen K,M sind positiv definit.

2. Efüllen bei zwei Paaren (K, M ) und (K 0 , M 0 ) die entsprechenden Kon-


stanten mj , m0j , kj , kj0 die Ungleichugen m0j ≤ mj und kj ≤ kj0 so gilt
(K, M ) ≤ (K 0 , M 0 ) und somit ωj ≤ ωj0 .

Beweis. 1. Die Matrix


PnM ist eine Diagonalmatrix und es gilt für alle x ∈
n T 2
R 6= 0: x M x = i=1 mi xi > 0, also ist M positiv definit.
Die Matrix K kann geschrieben werden als: K = K1 + K2 + K3 mit
 
k1 0 · · · 0
 0 k2 · · · 0
K1 =  ..
 
.. 
 . ··· . 
0 ··· kn
 
k2 0 ··· 0
 0 k3 · · · 0
 
K2 =  ... · · · ..
 
 . 

 0 · · · kn−1 0
0 ··· 0
 
0 −k2 · · · 0
−k2 0 ··· 0 
 
 .. .
.
K3 =  .

 · · · . 

 0 ··· 0 −kn 
0 · · · −kn 0

13
Dann gilt:
3
X n
X
T T
x Kx = x Ki x = kj (xj − xj−1 )2 > 0, für x 6= 0, ( da kj > 0)
i=1 j=2

also ist K positiv definit.

2. Sei m0j ≤ mj . Es gilt:


n
X n
X
0
T
x Mx= m0j x2j ≤ mj x2j = xT M x
j=1 j=1

also folgt nach Definition (4.3) M 0 ≤ M .


Sei kj ≤ kj0 . Aus dem Teil 1 folgt:

n
X n
X
T
x Kx = kj (xj − xj−1 ) ≤2
kj0 (xj − xj−1 )2 = xT K 0 x
j=2 j=2

also folgt wieder nach Definition (4.3) K ≤ K 0 .


Nach Definition (4.5) folgt dann: (K, M ) ≤ (K 0 , M 0 ) und nach dem
Satz (4.6): ωj ≤ ωj0 .
Also je kleiner die Masse der Teilchen und je größer die Federsteifigkeit,
desto höher sind die Eigenfrequenzen des Schwingungssystems.

14
Literatur
[1] Luise Unger. Lineare Algebra. Fernuniversität in Hagen.

[2] Luise Unger. Mathematische Grundlagen. Fernuniversität in Hagen.

[3] Rajendra Bhatia. Matrix Analysis. Springer, 1997.

[4] David S. Watkins. Fundamentals of Matrix Computations, Second Edi-


tion. WILEY-INTERSCIENCE, 2002.

15