Beruflich Dokumente
Kultur Dokumente
Literaturempfehlungen:
• Karpfinger, Höhere Mathematik in Rezepten, 3. Auflage, Springer 2017
• Arens et al., Mathematik, 4. Auflage, Springer 2018
• Bärwolff, Höhere Mathematik für Naturwissenschaftler und Ingenieure, 3. Auflage, Springer 2017
Die genannten Werke sind bequem via OPAC digital verfügbar. Zu [Karpfinger] und [Arens] ist zudem ein separates
Arbeitsbuch mit ausführlichen Lösungen zu allen Übungsaufgaben verfügbar.
Inhaltsverzeichnis
1 Grundlegendes 1
1.1 Junktoren und Quantoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Mengen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.3 Rechenzeichen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
3 Funktionen 13
3.1 Begriffe und Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
3.1.1 Umkehrabbildungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
3.1.2 Polynome . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
3.2 Stetigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
3.3 Differenzierbarkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.3.1 Rechenregeln für das Differenzieren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3.3.2 Extremwerte und geometrische Eigenschaften . . . . . . . . . . . . . . . . . . . . . . . . 25
3.3.3 Differentiationsregel für die Umkehrfunktion . . . . . . . . . . . . . . . . . . . . . . . . . 27
5 Das Newton-Verfahren 37
6 Vektorräume 41
6.1 Skalarprodukte, Winkel- und Längenmessung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
6.1.1 Geometrische Interpretation des Skalarprodukts . . . . . . . . . . . . . . . . . . . . . . . 47
6.2 Vektorprodukt im R3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
6.3 Linearkombination und Basis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
8 Komplexe Zahlen 77
8.1 Die komplexe Exponentialfunktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
8.1.1 Geometrische Interpretation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
8.2 Der Fundamentalsatz der Algebra . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
Hinweis: In diesem Dokument wird lediglich eine knappe Zusammenfassung der wichtigsten Kozepte gegeben. Es
eignet sich in großen Teilen nicht zum alleinigen Selbststudium. Vielmehr bildet es ein Gerüst, mit dessen Hilfe
die dort definierten Inhalte in der angegebenen Literatur erarbeitet werden können.
KAPITEL 1
Grundlegendes
In diesem Kapitel geht es darum, grundlegende Notationen einzuführen. Konkret sind das:
• Junktoren: Verändern bzw. verknüpfen Aussagen
• Quantoren: Treffen Aussagen über die Anzahl
• Mengen: Ansammlung von beliebigen Objekten
• Rechenzeichen: Summen- und Produktzeichen ermöglichen die knappe und exakte Angabe von (langen)
Summen bzw. Produkten.
Eine ausführlichere Einführung dieser Begriffe finden Sie in [Karpfinger, Kap. 1].
1
1.2. Mengen
1.2 Mengen
Eine Menge ist eine Zusammenfassung bestimmter, wohlunterschiedlicher Objekte, die man Elemente nennt:
A = {a1 , a2 , a3 }
|{z} | {z }
Menge Elemente
A = {n ∈ N| 1 ≤ n ≤ 7}
• a∈
/ A: a ist kein Element von A
• A ⊂ B: A Teilmengen von B: a ∈ A ⇒ a ∈ B
• A = B: A ist gleich B: A ⊂ B ∧ B ⊂ A
A B
A∩B
A B
A∪B
• A\B = {x| x ∈ A ∧ x ∈
/ B}: Mengendifferenz von A und B
A B
A\B
2
1.3. Rechenzeichen
• An = A × A × A × · · · × A = {(a1 , a2 , . . . , an )| ai ∈ A ∀ i = 1, . . . , n}
| {z }
n mal
• |A|: die Mächtigkeit von A, also die Anzahl der Elemente von A falls A endlich ist, ∞ sonst.
• Zwei Mengen A und B mit A ∩ B = ∅ heißen disjunkt.
A B
1.3 Rechenzeichen
P Q
Das Summenzeichen und das Produktzeichen sind Abkürzungen:
k
X
a1 + a2 + a3 + · · · + ak = ai
i=1
k
Y
a1 · a2 · a3 · · · · · ak = ai
i=1
Die Fakultät von n ∈ N ist definiert als das Produkt aller natürlichen Zahlen von 1 bis n:
n
Y
n! := n · (n − 1) · (n − 2) · · · · · 1 = i
i=1
0! := 1
Beispiel 1.1:
Hier ein paar Beispiele für Summen- und/oder Produktzeichen:
P100 i
• 1 2 3
i=1 2 = 2 + 2 + 2 + · · · + 2
100
Q100
• i=1 i12 = 11 · 212 · 312 · · · · · 100
1
2
P10 Q5
• i=1 j=1 i · j = | 1 · 2 ·{z 3 · 4 · 5} + |2 · 1 · 2 · 2 · 2{z
· 3 · 2 · 4 · 2 · 5} + · · · + 10
| · 20 · 30
{z · 40 · 50}
i=1 i=2 i=10
Pn P
n−1
• i=0 ai = a0 + i=1 ai + an
3
1.3. Rechenzeichen
4
KAPITEL 2
In diesem Kapitel werden die grundlegenden Zahlenmengen N, Z, Q und R, sprich die natürlichen, ganzen, ratio-
nalen und reellen Zahlen eingeführt, siehe [Arens, Kap. 2.5], [Karpfinger, Kap. 2]. Bei den natürlichen Zahlen wird
das wichtige Prinzip der vollständigen Induktion eingeführt, welches es erlaubt, die Gültigkeit einer Aussage für
unendlich viele (natürliche) Zahlen zu zeigen.
Ebenso werden Folgen und Grenzwerte thematisiert, siehe [Arens, Kap. 6], [Karpfinger, Kap. 20], auf deren Basis
dann die reellen Zahlen über das Vollständigkeitsaxiom eingeführt werden.
N = {1, 2, 3, . . . }
N0 = {0} ∪ N = {0, 1, 2, 3, . . . }
Aussagen für alle natürlichen Zahlen lassen sich durch vollständige Induktion beweisen:
Der wesentliche Schritt, d.h. der, in dem die Arbeit steckt, ist der Induktionsschluss. Hier zeigt man, dass –
vorausgesetzt die Aussage gilt für n – die Aussage für n + 1 gilt. Zusammen mit dem Induktionsanfang ist damit
gezeigt, dass die Aussage für alle n ≥ n0 gilt. Ein einfaches Analogon ist eine Reihe von nebeneinander aufgestellten
Dominosteinen. Stehen diese so nahe beieinander, dass ein umfallender Stein seinen Nachbarn umstößt, so ist
der Induktionsschluss vorhanden (fällt der n-te Stein, so fällt auch der n + 1-te). Diese Info alleine reicht noch
nicht aus. Zeigt man aber zusätzlich, dass etwa der fünfte Stein umfällt (z.B. indem man ihn umstößt), so folgt
zusammen mit dem Induktionsschluss automatisch, dass alle – möglicherweise unendlich vielen – Dominosteine
ab dem fünften umfallen. Über die Steine eins bis vier wird hier keine Aussage getroffen.
5
2.1. Natürliche, ganze und rationale Zahlen
Beispiel 2.1:
Pn n(n+1)
Wir zeigen dass i=1 i = 2 .
3.
n+1 n
X X n(n + 1) n(n + 1) + 2n + 2 n2 + 3n + 2 (n + 1)(n + 2)
i= i +(n+1) = +n+1 = = =
i=1 i=1
2 2 2 2
|{z}
n(n+1)
= 2
1 a Pythagoras: a 2 = 12 + 12 = 2
1
Wir wollen zeigen, dass a kein Element von Q ist. Dazu nehmen wir an, dass a ∈ Q und führen die Aussage zu
einem Widerspruch.
Beweis: Annahme: a ∈ Q, also a = pq mit p, q ∈ N, komplett gekürzt, d.h. p und q teilerfremd.
p2
⇒ 2 = a2 =
q2
⇒ p2 = 2q 2 also ist p2 gerade und somit p gerade,
also p = 2k für ein k ∈ N
2 2 2 2
⇒ 2q = p = (2k) = 4k
⇒ q 2 = 2k 2 also ist q 2 gerade und somit ist q gerade.
Dies kann nicht sein, da p und q teilerfremd sind.
⇒ a∈
/ Q.
6
2.2. Folgen und Grenzwerte
Eine Folge (an )n∈N heißt konvergent gegen einen Grenzwert a ∈ K, wenn es zu jedem ε > 0 ein N =
N (ε) ∈ N gibt, so dass gilt
|an − a| < ε ∀ n ≥ N (ε)
Konvergent heißt also, dass es zu jeder ε-Umgebung von a einen Index N gibt (dieser darf von ε abhängen, daher
schreibt man N (ε)), ab dem alle Folgenglieder in der Umgebung Uε (a) liegen. Wir schreiben
lim an = a.
n→∞
Beispiel 2.2:
Wir betrachten ein paar Beispiele für Folgen und deren Grenzwert:
1. (an )n∈N = (1, 1, 1, . . . ) ⇒ limn→∞ an = 1 mit N (ε) = 1 für alle ε > 0.
1
2. an = 2 + n Behauptung: limn→∞ an = 2
Beweis: Wann ist an in einer ε-Umgebung von 2?
1 1 n∈N 1
|an − 2| = 2 + − 2 = = <ε
n n n
1
⇔ n>
ε
Wähle also N (ε) = d 1ε e (Gauß-Klammer: Aufrunden).
Dann gilt |an − 2| < ε falls n ≥ N (ε) = d 1ε e.
7
2.2. Folgen und Grenzwerte
Somit gilt
1 1 1 1
|q n − 0| = |q|n = n
≤ ≤ ≤
(r + 1) 1 + nr nr n|r|
l m
1 1
Damit nun n|r| < ε, wählen wir N (ε) = ε|r| . Daraus folgt dann |q|n < ε.
4. Die Folgen (1, −1, 1, −1, 1, −1, . . . ) oder (1, 2, 3, 4, 5, . . . ) konvergieren nicht.
5. (an )n∈N sei definiert durch:
a0 = 1 rekursive Darstellung
n+1 2 3 n+1
1 1 1 1 1
an+1 = an + =1+ + + + ··· +
2 2 2 2 2
3 7 15 31
⇒ (an )n∈N = 1, , , , , . . .
2 4 8 16
Behauptung: n
2n+1 − 1 1 ⇒
an = =2− Beispiel 3 lim an = 2
2n 2 n→∞
n = 0 : a0 = 1
20+1 − 1 2−1 1
= = = 1 = a0
20 1 1
n+1 n+1
1 = 2n+1 − 1 1
n → n + 1 : an+1 = an + IA +
2 2n 2
n+1 n+2
2(2 − 1) + 1 2 −2+1 2n+2 − 1
= n+1
= n+1
= .
2 2 2n+1
Dann gilt
n
X 1 − q n+1
qk =
1−q
k=0
8
2.2. Folgen und Grenzwerte
Beispiel 2.3:
Für q = 21 gilt also
n k n+1 2n+1 −1
X 1 1 − 21 2n+1 2n+1 − 1 1
= 1 = 1 = =2− n
2 1− 2 2
2n 2
k=0
Schreibweise: Da Grenzwerte von Folgen eine sehr wichtige Rolle spiele, verwendet man oft folgende abkürzende
Notationen:
n→∞
• limn→∞ an = a ⇔ an −→ a
Pn P∞
• limn→∞ k=0 ak =: k=0 ak
Beispiel 2.4:
∞ ∞ ∞
X 2k X 2k 1 X 2k
= = =?
5k+1 5 · 5k 5 5k
k=1 k=1 k=1
∞ k 0
1 X 2 2 1 1 1 5 2
Möglichkeit A: ? = − = 2 −1 = −1 =
5 5 5 5 1− 5
5 3 15
k=0 | {z }
1
∞ k+1 ∞ k ∞ k
1 X 2 1 X 2 2 1 2 X 2 2 1 2 5 2
Möglichkeit B: ? = = = · · = · 2 = · =
5 5 5 5 5 5 5 5 25 1 − 5
25 3 15
k=0 k=0 k=0
Definition 2.2 (Divergenz, Beschränktheit): • Eine Folge heißt divergent, falls sie keinen Grenzwert
besitzt.
• Eine Folge heißt beschränkt, wenn es eine Zahl M gibt mit
|an | ≤ M ∀ n ∈ N.
9
2.2. Folgen und Grenzwerte
2n
X 1 1 1 1 1 1 1 1 1 1 1 1
=1+ + + + + + + + ··· +
+ + ··· + + · · · +
k 2 3 4 5 6 7 8 9 16 2n−1 + 1 2n
k=1
1 1 1 1 1 1 1 1 1
≥1+ + + + + + + + ··· + + . . .
2 4 4 8 8 8 8 2n 2n
1 1 1 1 1
= 1 + + + + ··· + (n Summanden )
2 2 2 2 2
n n→∞
=1+ −→ ∞
2
Beispiel 2.6:
Folgen mit gebrochen rationalen Termen:
n→∞
an −→ 3
z }| {
17
3n2 + 17n 3+ 3
cn = = n ⇒
n→∞
cn −→
7n2 − 5 5 7
7− 2
| {zn }
n→∞
bn −→ 7
Verallgemeinerung:
0 falls r < s
ar nr + ar−1 nn−1 + · · · + a1 n + a0 falls r > s und absr > 0
+∞
n→∞
cn = ⇒ cn −→
bs ns + bs−1 ns−1 + . . . b1 n + b0
−∞ falls r > s und absr < 0
ar
bs falls r = s
10
2.3. Das Vollständigkeitsaxiom und die reellen Zahlen
Satz 2.3:
Jede konvergente Folge ist eine Cauchy-Folge.
n→∞ ε
Beweis: Es gilt an −→ a. Es gibt also ein N (ε) ∈ N, so dass |an − a| < 2 für alle n ≥ N (ε). Deshalb gilt
ε ε
|an − am | = |an − a + a − am | ≤ |an − a| + |a − am | < + =ε
|{z} 2 2
Dreiecksungleichung
R erhält man durch Vervollständigung von Q, d.h. man nimmt√ alle Grenzwerte von Cauchy-Folgen hinzu.
Praktisch: Füge alle Dezimalzahlenentwicklungen hinzu: z.B. 3 (1, 1.7, 1.73, 1.732, . . . , 1.7320508, . . . )
Satz 2.4:
Jede monotone Folge (d.h. monoton steigend oder monoton fallend), die beschränkt ist, hat in R einen
Grenzwert.
11
2.3. Das Vollständigkeitsaxiom und die reellen Zahlen
12
KAPITEL 3
Funktionen
In diesem Kapitel werden grundlegende Begriffe, die im Zusammenhang mit Funktionen wichtig sind, eingeführt.
Ebenso werden wichtige elementare Funktionen beispielhaft behandelt; diese Funktionen sollten bereits aus der
Schule bekannt sein. Auch die hier erläuterten Konzepte wurden im Wesentlichen bereits in der Schule behandelt,
allerdings wohl auf eine weniger exakte Art. Insofern ist es wichtig, dass bereits vorhandenes, sehr anschauliches
Wissen mit neuen formalen Konzepten verbunden wird. Die eingeführten formalen Konzepte bilden die Grundlage,
um etwa in Ingenieurmathematik II auch Funktionen mit mehreren Variablen behandeln zu können.
Zu all den im Folgenden genannten Themen finden Sie umfangreiche Erläuterungen sowie Beispiele und Übungs-
aufgaben in den drei genannten Literaturempfehlungen, z.B. [Karpfinger, Kap. 23].
f : x 7→ f (x),
Gf := {(x, y) ∈ D × W | y = f (x)}.
D darf nur Elemente x enthalten, für die f (x) ausgewertet werden kann.
Beispiel 3.1:
Wir betrachten einige Beispiele:
1. p : R → R; x 7→ p(x) = an xn + an−1 xn−1 + · · · + a1 x + a0 ist ein Polynom vom Grad n (falls
an 6= 0)
13
3.1. Begriffe und Beispiele
x+|x|
3. (·)+ : R → R+ ; x 7→ (x)+ = 2 ist der “positive Anteil”
1
4. f : R\{0} → R; x 7→ x
Werden mehrere Funktionen hintereinander ausgeführt (d.h. das Ergebnis einer Funktionsauswertung wird als
Argument für eine weitere Funktion verwendet), so spricht man von Verkettung. Wichtig dabei ist, dass das
Ergebnis der ersten Auswertung im Definitionsbereich der zweiten Funktion liegt.
Beispiel 3.2:
Wir betrachten die beiden Funktionen f und g mit
√
f (x) = |x|, g(z) = z, mit D = R und E = R+
0,
f (D) = E
p
(g ◦ f )(x) = g(f (x)) = g(|x|) = |x|
(g ◦ f ) : R → R
Bisher hatten wir nur gefordert, dass eine Funktion f einem x ∈ D genau ein (also ein eindeutiges) f (x) ∈ W
zuordnet. Ob nun “ganz W erreicht werden kann” bleibt offen. Außerdem ist es möglich, dass ein Element
der Wertemenge “von mehreren Elementen der Definitionsmenge erreicht wird”. Diese Eigenschaften spielen
insbesondere bei der Umkehrbarkeit einer Funktion eine entscheidende Rolle. Wir definieren daher:
14
3.1. Begriffe und Beispiele
Beispiel 3.3:
Injektivität und Surjektivität hängen nicht allein am Funktionsterm, sondern werden wesentlich durch die
gewählten Definitions- und Wertemengen beeinflusst. Wir betrachten die Funktion mit dem Funktionsterm
f (x) = x2 und wählen unterschiedliche Definitions- und Wertemengen:
1. f1 : R → R
• nicht injektiv, denn f (−1) = f (1),
• nicht surjektiv, denn es existiert kein x mit f (x) = −1.
2. f2 : R → R+
0
3. f3 : R+ → R
• injektiv, denn
f (x1 ) = f (x2 )
x21 = x22 ⇔ (x21 − x22 ) = 0
⇔ (x1 − x2 ) (x1 + x2 ) = 0
| {z }
>0
⇔ x1 − x2 = 0
⇔ x1 = x2
15
3.1. Begriffe und Beispiele
Eine weitere wichtige und oft nützliche Eigenschaft von Funktionen ist die Symmetrie.
3.1.1 Umkehrabbildungen
Bijektive Abbildungen sind umkehrbar in folgendem Sinn: Falls f : D → W bijektiv, dann gibt es zu jedem y ∈ W
(Surjektivität) ein x ∈ D mit f (x) = y. Dieses x ist eindeutig bestimmt (Injektivität). Damit definieren wir eine
Abbildung g, die jedem y ∈ W eben dieses x ∈ D zu geordnet:
g:W →D
Man schreibt für dieses g meist f −1 , die sogenannte Umkehrabbildung. Sei f : D → W . Dann gilt
oder gleichbedeutend
Dabei ist f −1 = g. Zusammenfassend lässt sich festhalten: Ist f −1 bijektiv, so ist f die Umkehrabbildung von
f −1 .
Beispiel 3.4: q
1 1
f : R>0 → R> 12 , f (x) = 2 1+ x2
16
3.1. Begriffe und Beispiele
• Bestimme f −1 :
Setze nun
1
f −1 (x) := √
4x2 − 1
f −1 : R> 12 → R>0
3.1.2 Polynome
Eine ausführliche Darstellung zu Polynomen finden Sie z.B. in [Karpfinger, Kap. 5] oder [Arens, Kap. 4.2].
Ein Ausdruck der Form
heißt Polynom (ai ∈ R, i = 1, . . . , n) n-ten Grades falls an 6= 0. Im Zusammenhang mit Polynomen spielen
Nullstellen eine wichtige Rolle.
Der Grund, weshalb Nullstellen eine so wichtige Rolle spielen, ist dass man damit Polynome in gewisser Weise
faktorisieren kann. Dies ist die Aussage des
wobei pn−1 ein Polynom vom Grad n − 1 ist. Hat das Polynom weitere Nullstellen, so kann das Verfahren
iterativ fortgesetzt werden.
Die hier angegebene Version ist eine “Light-Variante” des Satzes, da wir hier eine Nullstelle brauchen, um das
Polynom zu reduzieren. Der Satz trifft keine Aussage darüber, ob ein Polynom eine Nullstelle hat. Spoiler: Es
gibt Polynome, die keine reelle Nullstelle haben, diese haben dann aber eine komplexe Nullstelle (siehe Komplexe
Zahlen → später).
Beispiel 3.5:
x3 − 2x − 1 = (x + 1)p2 (x)
17
3.2. Stetigkeit
(x3 − 2x − 1) : (x + 1) = x2 − x − 1 =: p2 (x)
x3 + x2
− x2 − 2x
−x2 − x
−x−1
−x − 1
− −
Nullstellen von p2 :
!
x2 − x − 1 = 0
√
1 √ 1 5
⇒ x1,2 = (1 ± 1 + 4) = ±
2 2 2
also √ ! √ !
3 1 5 1 5
x − 2x − 1 = (x + 1) x − − x− +
2 2 2 2
3.2 Stetigkeit
Ausführlich dargestellt sind die hier knapp präsentierten Inhalte beispielsweise in [Karpfinger, Kap. 25], [Arens,
Kap. 7], [Bärwolff, Kap. 2].
Beispiel 3.6:
Wir betrachten die Stetigkeit einfacher Funktionen:
18
3.2. Stetigkeit
2. f : R → R mit
1 falls x ≥ 0
f (x) =
0 sonst
ist unstetig in 0. ¡br¿
n→∞
Sei (xn )n∈N mit xn −→ 0 und xn < 0 für alle n.
⇒ |f (xn ) − f (0)| = |0 − 1| = 1
4. Polynome sind stetig (wg. 1. und 3. und da f (x) = c ebenfalls stetig ist.)
5. x 7→ |x| ist stetig, da ||xn | − |a|| ≤ |xn − a|. Dies folgt aus der Dreiecksungleichung: ||x| − |y|| ≤
|x − y|.
Beweis:
|x| = |x − y + y| ≤ |x − y| + |y|
⇒ |x| − |y| ≤ |x − y|
Vertausche x und y:
⇒ |y| − |x| ≤ |y − x|
|x| − |y|
⇒ ||x| − |y|| = ≤ |x − y|
|y| − |x|
19
3.2. Stetigkeit
Beispiel 3.7:
Stetige Ergänzbarkeit spielt insbesondere eine Rolle bei gebrochen rationalen Funktionen:
x2 −1
1. f (x) = x−1 ist für x = 1 nicht definiert, aber:
(x + 1)(x − 1)
lim f (x) = lim = lim x + 1 = 2
x→1 x→1 x−1 x→1
x sin 1 = |x| sin 1 ≤ |x| x→0
−→ 0
x x
| {z }
≤1
Es liegen nun zwei unterschiedliche Definitionen von Stetigkeit vor. Daher ist es wichtig zu zeigen (machen wir
nicht) bzw. festzuhalten, dass diese Definitionen äquivalent sind und somit kein Widerspruch besteht. Je nach
Situation kann die eine oder die andere Definition besser geeignet sein.
Satz 3.3:
Die beiden Definitionen der Stetigkeit über Folgenstetigkeit bzw. das Cauchy-Kriterium sind äquvalent.
Eine anschauliche Eigenschaft stetiger Funktionen ist es, dass sie “nicht springen”. Dies konkretisiert sich in
folgendem Satz:
20
3.2. Stetigkeit
Wenn eine Funktion nun “nicht springen” kann und wir sie nur auf einem beschränkten Intervall betrachten, so
ist es intuitiv naheliegend, dass sie auf diesem Intervall einen größten und kleinsten Wert annehmen muss. Dies
soll nun konkretisiert werden; dafür brauchen wir ein paar Begriffe:
Definition 3.9:
Für eine nichtleere Teilmenge A ⊂ R führen wir folgende Bezeichnungen ein:
Obere Schranke: s ∈ R ist obere Schranke von A, falls für alle a ∈ A gilt: a ≤ s.
Untere Schranke: s ∈ R ist untere Schranke von A, falls für alle a ∈ A gilt: a ≥ s.
sup A ∈ R ist die kleinste obere Schranke von A bzw. ∞ wenn es
Supremum:
keine obere Schranke gibt.
inf A ∈ R ist die größte untere Schranke von A bzw. −∞ wenn es
Infimum:
keine untere Schranke gibt.
Satz 3.5:
Jede Funktion, die auf einem abgeschlossenen Intervall stetig ist, nimmt dort ihr Maximum und Minimum
an. Das heißt, falls f : [a, b] → R stetig ist, so gibt es xmin , xmax ∈ [a, b] mit f (xmin ) ≤ f (x) ≤ f (xmax )
für alle x ∈ [a, b].
Beispiel 3.8:
Wir betrachten die Maxima und Minima ausgewählter Funktionen:
1. f (x) = x nimmt auf [0, 1] sein Minimum an der Stelle 0 und sein Maximum an der Stelle 1 an.
2. f (x) = x2 nimmt auf [−1, 1] nimmt sein Minimum an der Stelle 0 und sein Maximum an der Stelle
±1 an.
3. f (x) = x nimmt auf (0, 1) weder Minimum noch Maximum an, da 1 und 0 nicht als Bilder f (x) für
x ∈ (0, 1) auftreten.
⇒ Abgeschlossenheit ist wichtig!
x+1 für x < 0
4. f (x) =
x−1 für x ≥ 0
nimmt sein Minimum bei x = 0 an, aber nimmt das Maximum nicht an, da f (x) < 1 für alle
x ∈ [−1, 1].
n→∞
Genauer: xn → 0 mit xn < 0 dann gilt f (xn ) −→ 1, aber f (x) 6= 1 für alle x ∈ [−1, 1].
⇒ Stetigkeit ist wichtig!
21
3.3. Differenzierbarkeit
3.3 Differenzierbarkeit
f (x + h) − f (x)
lim
h→0 h
Beispiel 3.9:
Wir bestimmen hier die Ableitungen von grundlegenden Funktionen:
1. f (x) = c ⇒ f 0 (x) = 0.
Denn
f (x + h) − f (x) c−c
lim = lim =0
h→0 h h→0 h
2. f (x) = mx + b ⇒ f 0 (x) = m.
Denn
f (x + h) − f (x) m(x + h) + b − mx − b mh
lim = lim = lim = lim m = m
h→0 h h→0 h h→0 m h→0
22
3.3. Differenzierbarkeit
o(h) f (x + h) − f (x)
= −a
h h
für h → 0 konvergieren und zwar gegen 0. Das gilt genau dann, wenn f diffbar ist und f 0 (x) = a.
Korrolar 3.1:
Falls eine Funktion f : D → R diffbar in x ∈ D, so ist f auch stetig in x ∈ D.
Beweis:
h:=y−x h→0
|f (y) − f (x)| = |f (x + h) − f (x)| = |ah + o(h)| −→ 0
Beispiel 3.10: 1. Wie ändert sich das Volumen einer Kugel, wenn der Radius um 1% vergrößert wird?
4 3 dV
V (r) = r π = 4r2 π
3 dr
V (r + 0.01r) − V (r) (4r2 π) · 0.01r + o(0.01r) o(0.01r)
= 4 3 = 3 · 0.01 + ≈ 3%
V (r) 3r π
V (r)
| {z }
uninteressant, da klein
23
3.3. Differenzierbarkeit
|h|−|0| −h
h<0: limh→0 h = limh→0 h = −1
|h|−|0|
⇒ Es existiert kein endeutiger Grenzwert limh→0 h .
⇒ f ist nicht diffbar in x = 0.
5. Es gibt Funktionen, die überall diffbar sind, aber deren Ableitung nicht stetig ist.
0 x=0
f (x) :=
x2 sin x1 x 6= 0
für x 6= 0 gilt:
0 1 2 −1 1 1 1
f (x) = 2x sin + x 2 cos = 2x sin − cos
x x x x x
⇒ f ist auf R\{0} diffbar. Ist f in x = 0 diffbar?
1
h2 sin
0 f (h) − f (0) h 1
f (0) = lim = lim = lim h sin =0
h→0 h h→0 h h→0 h
24
3.3. Differenzierbarkeit
Beweis: Betrachte nur das Maximum in x. Dann gilt f (x + h) ≤ f (x) für kleine h. Also
f (x + h) − f (x) ≥0 falls h<0
h ≤0 falls h>0
f (x + h) − f (x)
⇒ f 0 (x) = lim ≥0
h→0 h
und zugleich
f (x + h) − f (x)
f 0 (x) = lim ≤0
h→0 h
⇒ f 0 (x) = 0.
25
3.3. Differenzierbarkeit
Beispiel 3.11:
Wir betrachten die Funktion f : [0, 1] → R mit
f (x) = (1 − 2x)2 x = 4x3 − 4x2 + x
1. Bestimme Ableitung: f 0 (x) = 12x2 − 8x + 1
2. Bestimme kritische Stelle(n): f 0 (x) = 0
1 √ 1 1
x1,2 = (8 ± 64 − 48) = ±
24 3 6
1 1
x1 = und x2 =
2 6
3. Entscheide, ob ein Maximum oder Minimum (oder beides nicht!) vorliegt. Hier untersuchen wir die
zweite Ableitung: f 00 (x) = 24x − 8
1
⇒ f 00 (x1 ) = 12 − 8 = 4 > 0 Min in x1 = , f (x1 ) = 0
2
1 2
f 00 (x2 ) = 4 − 8 < 0 Max in x2 = , f (x2 ) =
6 27
4. Somit wissen wir:
• bei x1 liegt ein lokales Minimum vorliegt
• bei x2 liegt ein lokales Maximum vorliegt
5. Ob es sich dabei um globale Extremwerte handelt, ist noch unklar, da wir bisher nur das Innere des
Intervalls betrachtet haben. Wir betrachten nun also noch die Ränder:
1
f (0) = 0 globales Minimum bei x = 0 und x =
2
f (1) = 1 globales Minimum bei x = 1
26
3.3. Differenzierbarkeit
f (b) − f (a)
f 0 (x0 ) = .
b−a
Beispiel 3.12:
Wir veranschaulichen diese Regel anhand zweier einfacher Funktionen:
i) f : R+ → R+ ; x 7→ x2
√
also y = x2 ⇒ x = y = f −1 (y)
0 1 1 1
f −1 (y) = = 0 √ = √
f 0 (x) f ( y) 2 y
27
3.3. Differenzierbarkeit
28
KAPITEL 4
In diesem Kapitel geht es primär darum, die wichtigen trigonometrischen Funktionen Sinus und Cosinus sowie
die Exponentialfunktion einzuführen. Für eine saubere Definition verwenden wir das auch sonst sehr hilfreiche
Konzept der Potenzreihen, welches in Abschnitt 4.2 eingeführt wird. Zuvor behandeln wir jedoch in Abschnitt
4.1 allgemein das Konzept der Reihen. Bei diesen handelt es sich um Folgen, die eine spezielle Form haben.
Ausführlichere Darstellungen finden Sie z.B. in
• Arens, Kap. 8, 9
Wir wollen spezielle Funktionen betrachten, diese lassen sich über sogenannte Potenzreihen darstellen:
∞
x2 x3 x4 X xk
exp(x) = 1 + x + + + + ··· =
2 6 24 k!
k=0
Weiteres Beispiel:
∞
x3 x5 x7 X x2k+1
sin(x) = x − + − ± ··· = (−1)k
3! 5! 7! (2k + 1)!
k=0
4.1 Reihen
Pn
Wir bezeichnen jede Folge (an )n∈N der Form an = k=0 ck als Reihe. Explizit notiert sieht eine solche Folge so
aus: !
X 1 2
X 3
X 4
X
(an )n∈N = ck , ck , ck , ck , . . . .
k=0 k=0 k=0 k=0
Jedes Folgenglied ist also eine sog. Partialsumme. Die Summanden ck bezeichnet man als Glieder der Reihe. Somit
gilt: m
X
n,m→∞
(an )n∈N Cauchy-Folge ⇔ |am − an−1 | = ck −→ 0
k=n
29
4.1. Reihen
Lemma 4.1:
Eine Reihe mit nicht-negativen Gliedern konvergiert genau dann, wenn die Folge der Partialsummen be-
schränkt ist.
Definition 4.1: Pn
Eine Reihe (an )n∈N , an = k=0 ck heißt absolut konvergent,
wenn die Reihe !
X n
|ck |
k=0 n∈N
konvergiert.
Lemma 4.2:
Eine absolut konvergente Reihe ist konvergent.
Beweis:
m m
X X n,m→0
ck ≤ |ck | −→ 0, da absolut konvergent
|{z}
k=n Dreiecksungleichung k=n
n
!
X
⇒ ck ist eine Cauchy-Folge ⇒
|{z} die Reihe konvergiert.
k=0 n∈N Vollständigkeitsaxiom
Satz
Pn 4.1 (Majorantenkriterium):
( k=0 ck )n∈N sei konvergent, es sei N ∈ N0 und es gelte |bk | ≤ ck für alle k ≥ N . Dann ist die Reihe
Pn
( k=0 bk )n∈N absolut konvergent.
Beweis: m
X m m
X X n,m→∞
|bk | ≤ |bk | ≤ ck −→ 0
|{z} |{z}
k=n Dreiecksungl. k=n k=n
≤ck
Beispiel 4.1:
Wir betrachten die geometrische Reihe, die verallgemeinerte geometrische Reihe und die harmonische
Reihe:
Pn 1
1. k=1 k2 konvergiert, denn
n
X 1 1 1 1
an := = 1 + 2 + 2 + ··· + 2
k2 2 3 n
k=1
1 1 1
<1+ + + ··· +
1·2 2·3 (n − 1) · n
1 1 1 1 1
=1+ 1− + − + ··· + −
2 2 3 n−1 n
1
= 2 − < 2 (Teleskopsummen)
n
⇒ an ist beschränkt. Da an außerdem monoton ist, folgt an konvergiert.
30
4.2. Potenzreihen
Pn 1
2. k=1 kα n∈N konvergiert absolut für α > 2, denn:
n
!
1 1 X
bk = α ≤ 2 =: ck und ck konvergiert.
k k
k=0 n∈N
Pn 1
3. k=1 k n∈N konvergiert nicht (harmonische Reihe!)
4.2 Potenzreihen
Definition 4.2:
Eine Reihe der Form
∞
X
ak xk , ak ∈ R, k ∈ N, x ∈ R
k=0
heißt Potenzreihe.
Beispiel 4.2: P∞
Die geometrische Reihe k=0 xk ist für |x| < 1 eine konvergente Potenzreihe mit Koeffizienten ak = 1.
Gemäß Satz 2.1 gilt für |x| < 1
∞
X 1
xk = .
1−x
k=0
Lemma 4.3:
Konvergiert eine Potenzreihe für eine Zahl x0 6= 0, dann konvergiert sie für alle x mit |x| < |x0 | absolut.
Beweis:
k
x x
|ak xk | = |ak xk | ≤ M qk mit q = < 1
| {z 0} x0 x0
n→∞
≤M,da an xn
0 −→ 0
31
4.2. Potenzreihen
xk
P∞
exp(x) := k=0 k!
k x2k+1
P∞
sin(x) := k=0 (−1) (2k+1)! definiert für alle x ∈ R
k x2k
P∞
cos(x) := k=0 (−1) (2k)!
Damit diese Definition Sinn ergibt, muss noch gezeigt werden, dass diese Potenzreihen für alle x ∈ R konvergieren.
Wir führen den Nachweis für die Exponentialreihe mit dem Quotientenkriterium:
n+1
x
(n+1)! x |x|
x n + 1 = n + 1 ≤ q < 1
n =
n!
für n ≥ N := |x|
q − 1. Die Beweise für sin und cos gehen analog (Übung).
Bemerkung: Diese Definition erlaubt es nun prinzipiell die Exponential-, Sinus- und Cosinusfunktion nicht unr für
reelle Zahlen zu definieren, sondern letztendlich für alles, wofür Potenzen (also Produkte) und Summen definiert
werden können – dies wird z.B. auch bei den später eingeführten Matrizen möglich sein.
Mit dieser Definition erhalten wir für das Konvergenzverhalten einer Potenzreihe:
• Eine Potenzreihe mit Konvergenzradius f konvergiert auf (−r, r) absolut. Das ist eine direkte Konsequenz
aus Lemma 4.3
• Für |x| > r konvergiert die Reihe niemals (per Definition).
• Für |x| = ±r konvergiert sie manchmal, eine allgemeine Aussage ist nicht möglich.
d.h. die Potenzreihe wird gliedweise differenziert. Die gliedweise abgeleitete Reihe hat den selben Konver-
genzradius r.
Beispiel 4.3:
Wir bestimmen die Ableitung der Exponentialfunktion und der Sinusfunktion. Außerdem sehen wir ein
Beispiel, wie man “auf Umwegen” den Grenzwert einer Reihe bestimmen kann:
32
4.2. Potenzreihen
1. !0
∞ ∞ n 0 ∞ ∞ ∞
0
X xn X x X nxn−1 X xn−1 X xn
exp (x) = = = = = = exp(x)
n! n=0
n! n=1
n! n=1
(n − 1)! n=0 n!
k=0
2.
∞ 2n+1
0 X ∞ ∞
0
X
n x (2n + 1)x2n X x2n
sin (x) = (−1) = (−1)n = (−1)n = cos(x)
n=0
(2n + 1)! n=0
(2n + 1)! n=0
(2n)!
3.
∞ ∞ ∞ ∞
X X X 1 X
f (q) = qn ⇒ f 0 (q) = nq n−1 = (n + 1)q n ⇒ = (n + 1)q n
n=0 n=1 n=0
(1 − q)2 n=0
g 0 (x) = exp0 (x) · exp(−x) + exp(x) · exp0 (−x) = exp(x) exp(−x) − exp(x) exp(−x) = 0
| {z } | {z }
exp(x) − exp(−x)
⇒ g(x) = K konstant
g(0) = 1 ⇒ g(x) = 1 also exp(x) exp(−x) = 1
−1
⇔ exp(−x) = exp(x)
i) Zu zeigen ist:
a) exp(x) ist die Lösung von (?).
b) Es gibt nur eine Lösung.
zu a)
33
4.2. Potenzreihen
f (x) f (0) 1
Daher ist exp(x) konstant und das Einsetzen von x = 0 liefert exp(0) = 1 = 1. Damit gilt f (x) =
exp(x) für alle x ∈ R.
ii) Wähle y fest und definiere
Mit Hilfe der Exponentialfunktion können wir nun die wichtige sog. Euler’sche Zahl e einführen:
e := exp(1) = 2.71828 . . .
Bisher haben wir die Exponentialfunktion als Potenzreihe definiert und einige ihrer Eigenschaften betrachtet. Diese
(und natürlich der Name) legen folgende Frage nahe: Gilt exp(x) = ex ? Diese wollen wir nun beantworten, indem
wir sie zuerst für natürliche Zahlen x, dann für ganze, rationale und schließlich auch für reelle betrachten:
i) Für x = n ∈ N gilt
ex := exp(x)
34
4.2. Potenzreihen
x→∞
• exp(x) −→ ∞, da exp(x) > 1 + x für x > 0.
x→∞
• exp(−x) = exp(x)−1 −→ 0
Daraus folgt, dass exp : R → R+ , x 7→ exp(x) bijektiv und damit umkehrbar ist. Folglich gibt es eine Umkehr-
funktion, die man (natürlichen) Logarithmus ln nennt:
ln : R+ → R (natürlicher Logarithmus)
mit ln(exp(x)) = x für alle x ∈ R
ln(y) = exp−1 (y) für alle y ∈ R+
Mit Hilfe der Regel für Differentiation der Umkehrfunktion folgern wir:
1 1
ln0 (y) = =
exp(x) |{z} y
x=ln(y)
Folgende Rechenregeln gelten für den Logarithmus. Sie können als Übung nachgerechnet werden.
ln(1) = 0; ln(e) = 1
ln (an ) = n ln(a)
ln a1 = − ln(a)
⇔ ln (bn ) = ln(a)
n ln(b) = ln(a)
1
ln(b) = ln(a)
n
1 1
a n = b = exp(ln(b)) = exp ln(a)
n
ln(ay ) y ln(a)
loga (ay ) = = =y
ln(a) ln(a)
35
4.2. Potenzreihen
Somit ist der allgemeine Logarithmus loga (·) zur Basis a die Umkehrfunktion der allgemeinen Potenz a(·) mit
Basis a. Es gilt:
ax ay = ax+y
y
(ax ) = a(x·y)
ax bx = (ab)x
36
KAPITEL 5
Das Newton-Verfahren
Das Newton-Verfahren ist eine Methode zur Lösung von nicht-linearen Gleichungen. Derartige Verfahren sind wich-
tig, da nicht jede Gleichung analytisch, d.h. duch Umformulieren von Termen gelöst werden kann. Beispielsweise
ist es nicht möglich, die Gleichungen
x = sin(x) + 1
analytisch zu lösen. Das Newton-Verfahren ist ein iteratives Verfahren, d.h. es bestimmt ausgehend von einem
(hoffentlich geschickt) geratenen ersten Lösungsvorschlag x0 (der natürlich noch nicht korrekt ist) einen neuen
Lösungsvorschlag x1 , der (hoffentlich) schon besser ist als x0 . Im zweiten Schritt wird dann aus dem Vorschlag
x1 wiederum ein neuer (hoffentlich wieder besserer) Lösungsvorschlag x2 berechnet usw. Das Newton-Verfahren
generiert also eine Folge von Werten (x0 , x1 , x2 , . . . ), die (hoffentlich) gegen die korrekte Lösung konvergiert.
Wie diese Folge bestimmt wird, betrachten wir nun im Folgenden.
Wir starten mit einer Vorüberlegung, die die Problemstellung vereinheitlicht: Jede Gleichung kann stets (durch
Äquivalenzumformungen) auf die Form f (x∗ ) = 0 gebracht werden. Im obigen Beispiel wäre also f (x) = x −
sin(x) − 1. Somit ist das Ziel des Newton-Verfahrens die Bestimmung einer Nullstelle einer Funktion:
Da die gegebene Funktion f zu kompliziert ist, als dasss wir eine Nullstelle bstimmen könnten, ist die Idee, die
Funktion zu vereinfachen und erst einmal das entstehende einfachere Problem zu lösen: Ansatz: Für festes x0 ist
• Schritt 1
37
• Schritt 2
• Schritt 3
Das Newton-Verfahren
x0 Startwert
f (xn )
xn+1 = xn −
f 0 (xn )
Beispiel 5.1:
Wir führen zwei Schritte des Netwon-Verfahrens zur Bestimmung der Nullstelle von f (x) = x2 − 1 durch.
Hier können wir die Lösung natürlich auch einfach analytisch berechnen, es gilt x∗ = 1 oder x∗ = −1.
Für die Ableitung ergibt sich f 0 (x) = 2x.
x0 = 2
f (2) 3 5
x1 = 2 − =2− =
f 0 (2) 4 4
5 25
5 f( ) 5 −1 41
x2 = − 0 45 = − 16 5 =
4 f (4) 4 2
40
Der Wert x2 = 1.025 ist schon recht nahe an der korrekten Nullstelle.
38
Beispiel 5.2:
39
40
KAPITEL 6
Vektorräume
In diesem Kapitel beginnen wir die Lineare Algebra, deren Ziel es ist, die Eigenschaften linearer Zusammenhänge
und Strukturen, zu lernen und zu nutzen. Das Konzept der Linearität spielt hierbei folglich die wesentliche Rolle.
Linearität ist ein recht einfaches Konzept welches sich vereinfacht (und nicht ganz vollständig) ausdrücken lässt
als
“Doppelter Input =⇒ Doppelter Output.”
Im täglichen Leben legen wir es oft implizit zugrunde:
• Wenn ich 20% mehr Schokolade kaufe, kostet es 20% mehr.
• Wenn ich doppelt so schnell laufe, komme ich doppelt so weit (in der gleichen Zeit).
• etc.
Allerdings sind nicht alle Zusammenhänge linear: Wenn ich doppelt so viel lese, weiß ich doppelt so viel???
2
v = (2, 1) oder auch v=
1
1
w=
1
2 1 3
v+w = + =
1 1 2
−1 · 2 −2
−v = (−1) · v = =
−1 · 1 −1
41
Definition 6.1 (Vektoren, Addition, skalare Multiplikation):
Sei n ∈ N.
• Ein Vektor in Rn ist eine Anordnung von reellen Zahlen x1 , x2 , . . . , xn . In der Notation verwendet
man typischerweise runde Klammern:
(x1 , x2 , x3 , . . . , xn )
• Wir definieren eine Addition für zwei Vektoren im Rn . Dies geschieht durch Addition der einzelnen
Komponenten (welche ja reelle Zahlen sind und die wir somit addieren können). Man nennt dies
“komponentenweise Addition”:
• Ebenso definieren wir die Multiplikation eines Vektors mit einem Skalar α ∈ R, indem jede
Komponente des Vektors (welche ja eine reelle Zahl ist) mit eben diesem Skalar multipliziert wird:
• Die einzelnen Bestandteile xi , i = 1, . . . , n, eines Vektors x nennen wir Komponenten oder Koordinaten.
Aufgrund der obigen Definition der Addition und skalaren Multiplikation, welche direkt die entsprechende Re-
chenoperation der reellen Zahlen nutzen, ergeben sich folgende Regeln. Diese werden sozusagen von den reellen
Zahlen “vererbt”. Für x, y, z ∈ Rn , α, β ∈ R gilt:
(A1) (x + y) + z = x + (y + z)
(A2) x + y = y + x
(S2) 1x = x
(D1) α(x + y) = αx + αy
(D2) (α + β)x = αx + βx
Beispiel 6.1:
Alle Funktionen von R nach R
f : R → R; x 7→ f (x)
Dann können wir die Summe (g + f ) von zwei Funktionen f und g definieren:
(g + f ) : R → R; x 7→ f (x) + g(x)
42
Außerdem definieren wir die Funktion (αf ) für α ∈ R und eine Funktion f :
(αf ) : R → R; x 7→ αf (x)
“Plus”: +:V ×V →V
(x, y) 7→ x + y
und
“Mal”: ·:K×V →V
(α, x) 7→ αx
(A1) (x + y) + z = x + (y + z) ∀ x, y, z ∈ V
(A2) x + y = y + x ∀ x, y ∈ V
(A3) Es gibt ein Element 0 ∈ V mit 0 + x = x ∀ x ∈ V
(A4) Zu jedem x ∈ V gibt es ein Element −x ∈ V mit x + (−x) = 0
(D2) (α + β)x = αx + βx ∀ α, β ∈ K, ∀ x ∈ V
Die Vektorraum Operationen + und · seien wie in R2 definiert. Ist V ein Vektorraum? Dazu seien x, y ∈ V
und α ∈ R. Zuerst müssen wir zeigen, dass die Operatoren “+” und “·” innerhalb des Vektorraums bleiben,
also dass + : V × V → V bzw. · : R × V → V .
(1) x + y ∈ V :
43
x + y = (x1 , x2 ) + (y1 , y2 )
= (x1 + y1 , x2 + y2 )
2(x1 + y1 ) + 3(x2 + y2 ) = 2x1 + 3x2 + 2y1 + 3y2 = 0
| {z } | {z }
=0, da x∈V =0, da y∈V
(2) αx ∈ V :
Die Eigenschaften (A1-A4), (S1, S2), (D1, D2) sind erfüllt, da + und · wir in R2 definiert sind.
Es sind z.B. (3, −2) und (−3, 2) ∈ V , da 2 · 3 + 3 · (−2) = 0 und 2 · (−3) + 3 · 2 = 0. V ist eine Gerade
im R2 , die durch 0 läuft.
Damit haben wir gezigt, dass diese spezielle Gerade V = {x ∈ R2 | 2x1 + 3x2 = 0} in der Tat ein Vektorraum
ist. Es stellt sich die Frage, bo alle Geraden G im R2 Vektorräume sind. Das ist nicht der Fall, wie folgendes
Gegenbeispiel zeigt:
Beispiel 6.3:
Wir betrachten eine Gerade G wie im Bild und stellen fest, dass offenbar die Plusoperation nicht “auf der
Geraden landet”:
44
x, y ∈ G
aber x + y ∈
/G
⇒ G kein Vektorraum
G := x + U = {x + y| y ∈ U }
Beispiel 6.4:
Allgemeine Geraden G ⊂ R2 sind affine Unterräume.
Lemma 6.1:
Jede Gerade im R2 kann in der Form
{y ∈ R2 | n1 y1 + n2 y2 = d}
r1 x1
Beweis: Es sei G = {x + tr| t ∈ R}, r = ,x= . Für ein beliebiges y ∈ G gilt:
r2 x2
y1 = x1 + tr1 ⇒ r2 y1 = r2 x1 + tr1 r2
y2 = x2 + tr2 ⇒ −r1 y2 = −r1 x2 − tr1 r2
⇒ r2 y1 − r1 y2 = r2 x1 − r1 x2
p
teile durch r12 + r22 .
r −r1 r2 x1 − r1 x2
p 2 y1 + p 2 y2 = p 2
2
r +r 2 r +r 2 r1 + r22
| 1{z 2} | 1{z 2} | {z }
=:n1 =:n2 =:d
45
6.1. Skalarprodukte, Winkel- und Längenmessung
Beispiel 6.5:
1 −3
G= +t | t ∈ R = {y ∈ R2 | 2y1 + 3y2 = 2}
0 2
2 3 2
= y ∈ R2 | √ y1 + √ y2 = √
13 13 13
Ebenen im R3
Lemma 6.2:
Eine Ebene im R3 kann geschrieben werden in der Form
{y ∈ R3 | n1 y1 + n2 y2 + n3 y3 = d}
Im Spezialfall von nur zwei Vektoren x und y gilt: x und y sind linear abhängig genau dann, Wenn
• x = 0 oder
• y = 0 oder
• x = γy (mit γ = β
α ), d.h. x und y sind Vielfache voneinander.
46
6.1. Skalarprodukte, Winkel- und Längenmessung
x · y := g(x, y) oder
hx, yi := g(x, y)
für x, y ∈ Rn . x, y ∈ Rn heißen orthogonal, wenn x · y = 0. Die euklidische Norm ist gegeben durch
n
! 21
p X
||x|| := hx, xi = x2i
i=1
• Positive Definitheit:
hx, xi ≥ 0 und hx, xi = 0 ⇔ x = 0
• Symmetrie:
hx, yi = hy, xi
• Linearität:
hx + y, zi = hx, zi + hy, zi
hαx, yi = αhx, yi
Eigentlich geht man hier andersrum vor und definiert: Eine Funktion g : V × V → R, die die obigen Eigen-
schaften (positive Definitheit, Symmetrie und Linearität) besitzt, heißt Skalarprodukt. Dann zeigt man in einem
zweiten Schritt, dass das euklidische Skalarprodukt eben diese Eigenschaften erfüllt. Die folgende geometrische
Interpretation des Skalarprodukts beruht ausschließlich auf diesen drei Eigenschaften. Somit ist eine entsprechende
Vorstellung für alle Skalarprodukte (und es gibt in der Tat mehrere davon) gültig, sinnvoll und hilfreich.
2
||y − x|| = (y − x) · (y − x) = y · y − 2y · x + x · x
2 2
= ||y|| − 2y · x + ||x||
1 2 2 2
⇒ x·y = ||x|| + ||y|| − ||y − x||
2
Wir betrachten nun ein Dreieck, das wie dargestellt von den Vektoren x, y ∈ R2 aufgespannt wird.
47
6.1. Skalarprodukte, Winkel- und Längenmessung
Mit den Bezeichnungen wie in der Skizze erhalten wir durch den Satz des Pythagoras:
||x|| = a + b
2
||y|| = a2 + h2
2
||y − x|| = b2 + h2
Nun betrachten wie den Term, für den wir uns eigentlich interessieren, das Skalarprodukt x · y:
1 2 2 2
⇒ x·y = ||x|| + ||y|| − ||y − x||
2
1
(a + b)2 + a2 + h2 − b2 − h2
=
2
1 2
a + 2ab + b2 + a2 + h2 − b2 − h2
=
2
1 2
a + 2ab + a2
=
2
1
= a(2a + 2b) = a(a + b) = a ||x||
2
Folglich erhalten wir x · y = a ||x||. Dies können wir anhand der obigen Skizze interpretieren als: Das Skalarprodukt
von zwei Vektoren x und y gibt die Länge des Anteil von y in Richtung x an.
Diese Beziehung ist Offensichtlich symmetrisch (denn das Skalarprodukt ist es ja per Definition). Somit gilt also:
x · y = a ||x|| = c ||y||
48
6.2. Vektorprodukt im R3
Durch Überlegungen in dem entstehenden rechtwinkligen Dreieck erhalten wir auch einen Zusammenhang des
Skalarprodukts zum Winkel zwischen den beiden Vektoren, denn es gilt:
a x·y
cos(α) = =
||y|| ||x|| ||y||
Somit gilt insbesondere: Zwei Vektoren schließen einen rechten Winkel ein genau dann, wenn ihr Skalarprodukt
Null ist.
π
|α| = ⇐⇒ x·y =0
2
Es ergibt sich auch unmittelbar die sogenannte Cauchy-Schwartz-Ungleichung
Beispiel 6.6:
Abstand eines Punktes von einer Gerade im R2 .
G := {x + tr| t ∈ R}, x, r ∈ R2
2
f (t) := ||y − (x + tr)|| soll minimiert werden
d d
(y1 − (x1 + tr1 ))2 + (y2 − (x2 + tr2 ))2
f (t) =
dt dt
= −2(y1 − (x1 − tr1 ))r1 − 2(y2 − (x2 + tr2 ))r2
!
=0
r
⇔ t = (y − x) · 2 (nachrechnen!)
||r||
6.2 Vektorprodukt im R3
49
6.3. Linearkombination und Basis
x1 y1
Seien x = x2 und y = y2 Vektoren im R3 . Dann definieren wir
x3 y3
x1 y1 x2 y3 − x3 y2
x × y := x2 × y2 = −(x1 y3 − x3 y1 )
x3 y3 x1 y2 − x2 y1
x × y = −y × x und x × x = 0
• x, y sind orthogonal zu x × y:
hx × y, xi = 0
hx × y, yi = 0
Diese Eigenschaft kann als Übung nachgerechnet werden. Sie ist besonders hilfreich, das sie eine einfache
Möglichkeit bietet, einen Vektor zu bestimmen, der orthogonal zu zwei gegebenen Vektoren ist.
3 1 0
x= =3 +2
2 0 1
5 −1 1 −1
=− −
2 −1 2 1
50
6.3. Linearkombination und Basis
Definition 6.7:
Sei V ein K-VR, dann heißen k Elemente aus V
v1 , v2 , . . . , vk ∈ V
α1 v1 + α2 v2 + · · · + αk vk = 0
Das heißt, ein Vektor ist als Linearkombination der anderen darstellbar:
1
vm = − (α1 v1 + α2 v2 + · · · + αm−1 vm−1 + αm+1 vm+1 + · · · + αk vk )
αm
Andernfalls heißen die Vektoren linear unabhängig. Eine solche Summe von Vektoren mit skalaren Koef-
fizienten heißt Linearkombination.
Beispiel 6.7:
Wir verwenden diese Definition, um lineare Unabhängigkeit zu prüfen:
1 2
• v1 = −1 und v2 = −2 sind linear abhängig, denn 2v1 − v2 = 0.
2 4
v0 :=(t 7→ 1) v1 := (t 7→ t)
v2 :=(t 7→ t2 ) vk := (t 7→ tk )
linear unabhängig.
α0 v0 + α1 v1 + · · · + αk vk = 0
⇔ p(t) = α0 + α1 t + · · · + αk tk = 0 für alle t
⇔ α0 = 0, α1 = 0, . . . , αk = 0
denn:
!
p(0) = α0 = 0
!
p0 (0) = α1 = 0
!
p00 (0) = α2 = 0
..
.
!
p(k) (0) = αk = 0
Definition 6.8:
Ist A ⊂ V eine Teilmenge eines K-Vektorraums V , dann heißt die Menge der Linearkombinationen
( k )
X
span(A) := αi vi | αi ∈ K, vi ∈ A
i=1
lineare Hülle von A oder der von A aufgespannte Raum oder der Span von A.
51
6.3. Linearkombination und Basis
Lemma 6.3:
Für jede Menge A ⊂ V ist span(A) ein Untervektorraum von V .
Die Koeffizienten αi heißen Koordinanten von x bzgl. der Basis {vi }i=1,...,n .
Beweis:
• Darstellung existiert, da span{v1 , . . . , vn } = V .
• Eindeutigkeit: Wir geben zwei Darstellungen von x an und zeigen, dass diese übereinstimmen:
n
X n
X
x= αi vi = βi vi
i=1 i=1
Xn Xn n
X
⇔ 0= αi vi − βi vi = (αi − βi )vi
i=1 i=1 i=1
⇒ (da v1 , . . . , vn linear unabhängig) αi − βi = 0 ⇔ αi = βi
0
..
.
0
n
n
Beispiel 6.8: 1. {e1 , e2 , . . . , en } ist eine Basis des R , wobei ei =
1 ← i-te Komponente ∈ R
0
..
.
0
2. V = Raum der Polynome vom Grad ≤ 2k mit p(x) = p(−x):
t 7→ 1, t 7→ t2 , t 7→ t4 , . . . , t 7→ t2k
ist Basis von V.
−1 −1
3. , ist Basis von R2 . Wir zeigen zuerst die lineare Unabhängigkeit:
−1 1
−1 −1
α1 + α2 =0
−1 1
−α1 − α2 = 0
⇒
−α1 + α2 = 0
⇒ α1 = α2
⇒ −α2 − α2 = 0,
also − 2α2 = 0 ⇒ α2 = 0, ⇒ α1 = 0
52
6.3. Linearkombination und Basis
−1 −1
Nun muss noch gezeigt werden, dass span , = R2 :
−1 1
x1
Sei x ∈ R2 beliebig, x =
x2
x1 −1 −1
= α1 + α2
x2 −1 1
x1 = −α1 − α2
x2 = −α1 + α2
⇒ α2 = x2 + α1
⇒ x1 = −2α1 − x2
−x1 − x2 −x1 + x2
⇒ α1 = und α2 =
2 2
−1 −1
Also ist , eine Basis von R2
−1 1
Satz 6.2:
Die Anzahl von Basisvektoren eines Vektorraums V ist eine feste Zahl.
Satz 6.3:
Seien v1 , . . . , vk linear unabhängig aber u, v1 , . . . , vk linear abhängig. Dann ist u darstellbar als
k
X
u= αi vi
i=1
αu + α1 v1 + · · · + αk vk = 0
und mindestens ein αi 6= 0. Es gilt α 6= 0, denn falls α = 0 folgt αi = 0 für ein i = 1, . . . , k. Dies ist aber ein
Widerspruch zur linearen unabhängikeit von v1 , . . . , vk .
Also folgt
1
u = − (α1 v1 + α2 v2 + · · · + αk vk )
α
Satz 6.4:
Sei V ein n-dimensionaler Vektorraum und v1 , . . . , vn linear unabhängig. Dann ist v1 , . . . , vn eine Basis.
53
6.3. Linearkombination und Basis
54
KAPITEL 7
In diesem Kapitel betrachten wir die wesentlichsten Objekte der linearen Algebra: die linearen Abbildungen. Diese
kann man sich sehr gut vorstellen, denn es sind sehr einfache Abbildungen. Konkret ist es aus meiner Sicht
am besten, sich eine lineare Abbildung in einem euklidischen Raum niedriger Dimension, also etwa dem R2
oder dem R3 vorzustellen: Ein zweidimensionaler (oder auch dreidimensionaler) Punkt wird auf einen anderen
zweidimensionalen (oder eben dreidimensionalen) Punkt abgebildet.
Um Ihnen bereits vorab eine geeignete Vorstellung zu ermöglichen, greife ich deutlich vor und behaupte: Lineare
Abbildungen sind (grob gesprochen) entweder
• Streckungen
• Drehungen
• Spiegelungen
• oder “nicht allzu komplizierte Verzerrungen“.
Ein wesentlicher Punkt wird sein, ein Konzept einzuführen, wie man diese wichtigen Abbildungen exakt angeben
oder schriftlich festhalten kann. Genau das ist die Aufgabe der Matrizen.
Definition 7.1:
Eine Abbildung f : V → W zwischen zwei K-VR V und W heißt linear, falls
f (αv) = αf (v) ∀ v ∈ V, ∀ α ∈ K
f (u + v) = f (u) + f (v) ∀ v, u ∈ V
Beispiel 7.1: • V, W = R, f : R → R mit f (x) = λx, λ ∈ R ist linear (jede linear Funktion von R
nach R sieht so aus.)
• V = R2 , W = R, f (x) = λx1 + µx2 , λ, µ ∈ R
1 1
• V, W = R , f (x) = x1
2
+ x2 .
−1 1
y1
Interpretation: Wenn f (x) = , dann sind y1 , y2 die Koordinaten des Bildvektors f (x) bzgl. der
y2
55
7.1. Lineare Abbildungen zwischen Vektorräumen und ihre Darstellung
1 1
Standardbasis; x1 , x2 sind die Koordinaten des Bildvektors f (x) bzgl. der Basis , .
−1 1
Satz 7.1:
Seien V und W Vektorräume und {v1 , . . . , vn } Basis von V . Außerdem seien w1 , . . . , wn ∈ W beliebig.
Dann gibt es genau eine lineare Abbildung f : V → W mit f (vi ) = wi ∀ i = 1, . . . , n.
Es ist naheliegend, diese Eindeutigkeit zu nutzen, um damit eine lineare Abbildung anzugeben: Seien V, W Vek-
torräume mit dimV = n, dimW = m, {v1 , . . . , vn } Basis von V und {w1 , . . . , wm } Basis von W . Eine lineare
Funktion f : V → W ist eindeutig bestimmt durch die Bilder (f (vj ))j=1,...,n der Basisvektoren von V . Diese
darstellbar (eindeutig) in der Basis von W :
m
X
f (vj ) = aij wi für j = 1, . . . , n
i=1
Folgerungen:
1. Die Matrix Af charakterisiert eindeutig die lineare Abbildung f : V → W bzgl. gegebener Basen von V
und W .
2. In den Spalten von Af stehen die Koeffizienten der Bilder f (vj ) der Basisvektoren von V bzgl. der Basis
{w1 , . . . , wm } von W .
Pn
3. Sei x ∈ V mit der Basisdarstellung x = j=1 xj vj , dann folgt:
!
n
X Xn m
X Xm Xn
f (x) = f (vj )xj = aij wi xj = aij xj wi
j=1 j=1 i=1 i=1 j=1
| {z }
x1
x2
=ai · .
..
xn
56
7.1. Lineare Abbildungen zwischen Vektorräumen und ihre Darstellung
wobei ai die i-te Zeile von Af ist. Ist also (x1 , . . . , xn ) Basisdarstellung von x, dann ist der Vektor (ai ·
(x1 , . . . , xn ))i=1,...,m bestehend aus dem euklidischen Skalarprodukt der i-ten Zeile von Af mit (x1 , . . . , xn )
der Koeffizentenvektor von f (x) bzgl. der Basis von W .
Merkregel: Matrix und die Koeffizienten von x ergeben die Koeffizienten von f (x) mit dem Matrix-Vektor-
Produkt:
−a1 − x1 a1 · (x1 , . . . , xn )
−a2 − x2 a2 · (x1 , . . . , xn )
Ax = . . =
..
.. ..
.
−am − xn am · (x1 , . . . , xn )
4. Der einfache Fall: V = Rn , W = Rm , {e1 , . . . , en } als Basis von V , {e1 , . . . , em } als Basis von W . Dann
stimmen Vektor x und seine Koeffizienten bzgl. der Basis überein.
a1 · ej a1j
a2 · ej a2j
f (ej ) = . = .
.. ..
a m · ej amj
| {z }
=aj
die j-te Splate von Af . Die Bilder der Einheitsvektoren stehen also in den Spalten von Af .
f (x) = x − (x · n)n
| | 1 1
1 − n21
−n2 n1
⇒ Af = e1 − n1 n e2 − n 2 n = = 2
1
2
1
1 − n22
−n1 n2
| | 2 2
57
7.1. Lineare Abbildungen zwischen Vektorräumen und ihre Darstellung
2. Drehung
58
7.1. Lineare Abbildungen zwischen Vektorräumen und ihre Darstellung
3. Streckung im R3
x1 αx1
f : R 3 → R3 x = x2 7→ f (x) = βx2
x3 γx3
59
7.2. Verkettung von linearen Abbildungen und das Matrizenprodukt
4. Identische Abbildung
f : V → V, x 7→ x
1 0 0 ... 0
0 1 0 . . . 0
..
Af = 0 0 1
. =: E = En
.. .. . .
. . ..
. .
0 0 0 1
| {z }
n Zeilen, nSpalten
Sei V ein Vektorraum mit Basis B = {v1 , v2 , . . . , vn }. Dann kann x ∈ V als Linearkombination bzgl. B geschrieben
werden mit den Koordinaten xB = (xB i )i=1,...,n .
Für den Rn mit Standardbasis E = {e1 , e2 , . . . , en } gilt x = xE also Vektor = Koordinatenvektor.
Für f : Rn → Rn mit Standardbasen gilt also
f (x) = Af x
Satz 7.2:
Seien U, V, W Vektorräume und g : U → W und f : W → V linear. Dann ist f ◦ g : U → V linear.
Beweis:
Beispiel 7.3: √
2 2 1 3 √1
Sei r : R → R mit Darstellungsmatrix R = 2 und s : R2 → R2 mit Darstellungsmatrix
−1 3
2 0
S=
0 − 21
60
7.2. Verkettung von linearen Abbildungen und das Matrizenprodukt
Hintereinanderausführung:
√
2 2 3
(r ◦ s)(e1 ) = r(s(e1 )) = r(S(e1 )) = r =R =
0 0 −1
1
−√4
0 0
(r ◦ s)(e2 ) = r(s(e2 )) = r(S(e2 )) = r = R =
− 21 − 21 − 43
√ !
3 −√14
⇒ Darstellungsmatrix C= − 3
−1 4
Seien f : W → V und g : U → W linear mit Darstellungsmatrizen A bzw. B. Was ist die Darstellungsmatrix von
f ◦ g?
g f
U −→ W −→ V
Basen F E D
Dimension k m n
Vektor x z y
Pm
Die Matrix C ∈ Rn×k mit Cil := j=1 Aij Bjl ist also die Darstellungsmatrix von f ◦ g bzgl. der Basen F und
D. Wir schreiben C = AB (Matrixprodukt) und können die Koordinaten y = (f ◦ g)(x) berechnen:
Merkregel: Sei A ∈ Rn×m und B ∈ Rm×k . Dann ist das Matrizenprodukt AB ∈ Rn×k definiert als
61
7.2. Verkettung von linearen Abbildungen und das Matrizenprodukt
| | |
b1 b2 ... bk
| | |
a1 · b1 a1 · b2 a1 · bk
− a1 − ...
Xm − a2 − a2 · b1
...
AB = Aij Bjl =
.. ..
j=1
. .
i=1,...,n,l=1,...,k
− an − an · b1 ... an · bk
Beispiel 7.4:
Sei V = R2 , W = R3 , U = R2 , und B ∈ R3×2 , A ∈ R2×3 .
1 0
1 2 0
B= 0 1
A=
2 1 1
1 1
A(Bx) = (AB)x
1 0
1 2 0 1 2
AB = · 0 1 =
2 1 1 3 2
1 1
Bemerkungen:
1. Wenn die Matrix B nur eine Spalte hat, so entspricht das Matrizenprodukt dem Matrix-Vektor-Produkt.
A · |{z}
|{z} B = |{z}
C
m×n n×k m×k
Beispiel 7.5:
Spiegelung U = V = W = R2 , f (x) = x − 2(x · n)n
62
7.2. Verkettung von linearen Abbildungen und das Matrizenprodukt
Matrixdarstellung:
A
z }| {
f (x) = (E − 2nnT ) x denn:
|
n = n Spaltenvektor ⇒ nT = (−n−) ∈ R1×2 Zeilenvektor
|
nT x = x − 2n(n · x)
Ex −2n |{z}
f (x) = |{z}
x n·x
= E − 4nnT + 4nnT
=E
Bei einer linearen Abbildung f mit Definitionsbereich V und Wertebereich W , als f : V → W spielt noch eine
weitere Menge eine wichtige Rolle: die Menge all derjenigen Elemente in V , die auf die Null (in W ) abgebildet
werden. Diese Menge nennt man den Kern der Abbildung:
Bei gegebenen Basen von V und W und einer Darstellungmatrix A von f schreiben wir auch kern A bzw.
Bild A.
Eine lineare Abbildung f : V → W “macht aus den Elementen in V Elemente in W ”. Allerdings muss das nicht
immer in eineindeutiger Weise (d.h. bijektiv) passieren, sondern es kann vorkommen, dass “viele” Elemente aus V
in “der Null (in W ) verschwinden”. Diese Elemente aus V , die sozusagen verloren gehen und alle zusammen in der
Null verschwinden, bilden den Kern von f . Dieser ist so wichtig, da alle anderen Elemente in gewisser Weise schon
eineindeutig abgebildet werden. Genauer: Wenn w ∈ W ein beliebiges Element aus dem Bild ist, dann gibt es ein
v ∈ V aus dem Urbild, welches auf w abgebildet wird, also f (v) = w. Betrachten wir nun noch ein v0 ∈ kern(f ),
also ein Element aus dem Kern (d.h. f (v0 ) = 0). Dann wird dieses in die Null abgebildet (klar!), darüber hinaus
verhält es sich aber auch “neutral”, nämlich gilt f (v + v0 ) = w. D.h. wenn man v um v0 verändert, dann ändert
das nichts am Ergebnis.
f (p) = p0
⇒ kern f = P 0
Bild f = P k−1
63
7.2. Verkettung von linearen Abbildungen und das Matrizenprodukt
1 2 1
2. Lineare Abbildung mit Darstellungsmatrix A = 1 0 1.
0 2 0
kern A = {x ∈ R3 | Ax = 0}
x1 +2x2 +x3 = 0
⇔ x1 +x3 = 0
2x2 =0
x1 +x3 = 0
⇔
x2 = 0
x1 = −x3
⇔
x2 = 0
1
⇔ kern A = t 0 | t ∈ R
−1
⇔ Bild A = b ∈ R3 | b1 − b2 − b3 = 0
1 b1
−1 · b2 = 0
−1 b3
Das ist eine Ebene im R3 .
Allgemein gilt: Falls {v1 , . . . , vn } Basis von V :
Im Beispiel:
1 2
Bild A = span 1 , 0
0 2
64
7.2. Verkettung von linearen Abbildungen und das Matrizenprodukt
Satz 7.3:
kern f ist ein Untervektorraum von V , Bild f ist ein Untervektorraum von W (nachrechnen!).
Der Kern einer Matrix spielt eine entscheidende Rolle für die Eindeutigkeit der Lösung linearer Gleichungssysteme.
• kern A ist die Lösungsmenge der homogenen Gleichung
Ax = 0 : kern A = {x ∈ V | Ax = 0}
es gelte aii 6= 0.
X n
kern A = x ∈ Rn | aij xj = 0 für alle i = 1, . . . , k
j=i
n
X a ij
= x ∈ Rn | x i = − xj für all i = 1, . . . k
j=i+1
aii
Es sind also die Komponenten xk+1 , . . . , xn frei wählbar. Anschließend kann xk berechnet werden:
n
X akj
xk = − xj
akk
j=k+1
Beobachtungen:
65
7.3. Lineare Gleichungssysteme und der Gauß-Algorithmus
Wie wir im vorherigen Abschnitt gesehen haben, haben Matrizen viel mit linearen Gleichungssystemen zu tun.
Diesen Zusammenhang werden wir in diesem Kapitel genauer untersuchen. Wir werden die (geometrischen) Vor-
stellungen zu Matrizen (bzw. den zugehörigen linearen Abbildungen) nutzen, um ein tieferes Verständnis für lineare
Gleichungssysteme zu entwickeln, insbesondere, was deren Lösbarkeit betrifft.
Aufgrund der Definition des Matrix-Vektor-Produkts, können wir ein lineares Gleichungssystem mit m Gleichungen
und n Unbekannten äquivalent auf zwei Arten schreiben:
Explizit, d.h. als m skalare Gleichungen mit In Matrix-Vektor-Form, d.h. als eine vektori-
jeweils n Variablen elle Gleichung in n Dimensionen, wobei der
Vektor auf der linken Seite als Produkt Ax
dargestellt wird
a11 x1 + a12 x2 + · · · + a1n xn = b1
a21 x1 + a22 x2 + · · · + a2n xn = b2
.. ⇔ A · |{z}
x = |{z}
b
. |{z}
∈Rn ∈Rm
∈Rm×n
am1 x1 + am2 x2 + · · · + amn xn = bm
Beispiel 7.7:
Wir betrachten das Gleichungssystem
x1 + x2 + 2x3 = 1
2x1 + x3 = 2
x1 + x3 = 3
x1
Dieses lässt sich in “Matrixschreibweise” darstellen als Ax = b. Dabei enthält der Vektor x = x2 die
x3
unbekannten Variablen x1 , x2 , x3 als Komponenten; die Matrix A und der Vektor b sind gegeben wie
folgt:
1 1 2 1
A = A(1) = 2 0 1 b = b(1) = 2
1 0 1 3
1 1 2 1 I
A(2) = 0 −2 −3 b(2) = 0 II − 2I
0 −1 −1 2 III − I
1 1 2 1 I
A(3) = 0 −2 3 b(3) = 0 II
1
0 0 2 2 III − 12 II
66
7.3. Lineare Gleichungssysteme und der Gauß-Algorithmus
Man kann die Zeilenoperationen auch darstellen also Matrixmultiplikation. Dazu definieren wir
1 0 0 1 0 0
L(1) = −2 1 0 und L(2) = 0 1 0
−1 0 1 0 − 21 1
7.3.1 Gauß-Algorithmus
Der Gauß-Algorithmus dient dem Lösen eines linearen Gleichungssystems. Konkret formt er ein Gleichungssystem
derart um, dass
• die Lösung invariant ist, d.h. die Lösung des umgeformten Gleichungssystems ist die selbe, wie die des
Ausgangsgleichungssystems, und
• das umgeformte Gleichungssystem einfach zu lösen ist, da die beteiligte Matrix Dreiecksgestalt hat.
A(2) x = b(2) .
Die Matrix A(2) ist dabei entstanden, indem eine Zeile der Matrix A(1) mit einer Zahl multipliziert wurde und zu
einer anderen Zeile von A(1) addiert wurde. So etwas nennt man “Zeilenoperationen”. Zeilenoperationen kann man
auf einfache (oder zumindest strukturierte) Weise angeben, indem man die Matrix, in der die Zeilenoperationen
durchgeführt werden sollen, von links mit einer anderen Matrix multipliziert. Im konkreten Fall können wir A(2)
67
7.3. Lineare Gleichungssysteme und der Gauß-Algorithmus
schreiben als A(2) = L(1) A(1) und b(2) = L(1) b(1) mit L(1) ∈ Rm×m und A(1) := A, b(1) := b.
(2) (2)
a11 ... a1n
(2) (2)
0 a22 . . . a2n
(2)
A = . .. .. ..
.. .
. .
(2) (2)
0 am2 ... amn
1 0 ... 0
1 0 ... 0 (1)
−l21 1 0 . . . 0
− aa21 1 0 (1)
.. ..
11
L(1) = . . −l31
.. = 0 1 . .
.. 0 .. . . .. .. ..
..
− aam1 0 ... 1 . . . 0
11 (1)
−lm1 0 ... 0 1
(1)
mit li1 := aa11
i1
. Das sollte man einmal nachrechnen und sich dabei klar machen, dass die Multiplikation von links
tatsächlich Zeilenoperationen durchführt.
Da wir diese Zeilenoperationen in gleicher Art und Weise auch für den Vektor b durchgeführt haben (dieser hat
sehr kurze Zeilen – enthalten jeweils nur ein Element) ändert sich an der Lösungsmenge des Gleichungssystems
nichts, d.h. Ax = b ⇔ A(2) x = b(2) . Dies ist die erste oben genannte Eigenschaft des Gauß-Algorithmus. 2.
(2)
Schritt: (Für den Fall a22 6= 0)
(2)
ai2
Multipliziere die zweite Zeile mit − (2) , addiere dazu die i-te Zeile und lege das Ergebnis in der i-ten Zeile ab.
a22
Es ergibt sich das neue Gleichungssystem A(3) x = b(3) mit
wobei
1 0
1
(2)
..
(2)
. (2) ai2
L(2)
= −l32 mit li2 = (2)
.. a22
..
. .
(2)
−lm2 1
(k)
k. Schritt (Für den Fall akk 6= 0)
(k)
Was macht man, wenn akk = 0?
68
7.3. Lineare Gleichungssysteme und der Gauß-Algorithmus
Wenn beides nicht geht, dann sind bereits alle Zeilen ab der k-ten Zeile nur mit Nullen gefüllt.
a11 b1
0 (2) b2 (2)
a22
..
. ..
. . .
.
(k) (k−1)
A = (k)
b(k) = bk−1
ak−1,k−1 ...
(k)
0 ... 0 ... 0 bk
.
.. ..
.
. . .
(k)
0 ... 0 ... 0 bm
dim(kern A(k) ) = n − (k − 1)
(k)
2. Fall bi 6= 0 für ein i ∈ {k, . . . , m} ⇔ Das Gleichungssystem ist nicht lösbar.
Wenn das Verfahren bis zum Ende durchgeführt werden kann, erhalten wir eine Gleichung der Form
r11 r12 . . . r1n
b1
r22 b2
..
b3
Rx = b mit R = r33 . b =
.
..
0 . .
.
rnn bn
Das kann man von unten nach oben durch Einsetzen lösen.
• Rang: Der Spaltenrang, definiert als die Dimension des von den Matrixspalten aufgespannten Raums, ist
gleich dem Zeilenrang, definiert als die Dimension des von den Matrixzeilen aufgespannten Raums.
Zeilenrang = Spaltenrang
Beispiel 7.8:
Wir betrachten lineare Gleichungssysteme in den drei Fällen
• mehr Unbekannte als Gleichungen;
69
7.4. Inverse Matrizen
x1 + 2x2 + 3x3 = 4
2x1 + 4x2 + 6x3 = 10
1 2 3 4
2 4 6 10 !
0x1 + 0x2 + 0x3 = 2 keine Lösung!
1 2 3 4 I
0 0 0 2 II − 2I
2 4 2
3 6 3
5 10 5
2 4 2 I 2x1 + 4x2 = 2
0 0 0 II − 32 I x1 und x2 beliebig
0 0 0 II − 52 I x1 und x2 beliebig
x1
⇒ Lösungsmenge = ∈ R2 | 2x1 + 4x2 = 2 =: L
x2
⇔ x1 + 2x2 = 1
1 0
Einsetzen: x1 = 0 : x2 = also 1 ∈ L
2
2
1
x2 = 0 : x1 = 1 also ∈L
0
1 −1
⇒ L= x ∈ R2 | x = +α 1
0 2
1 1 2 2
2 2 −1 1
3 4 2 2
1 1 2 2 I
0 0 −5 −3 II − 2I
0 1 −4 −4 III − 3I
1 1 2 2 I x1 − 58 + 2 · 53 = 2 ⇒ x1 = 2 + 58 − 65 = 12
5
3
0 1 −4 −4 III x2 − 4 · 5 = −4 ⇒ x2 = 125 − 4 = −5
8
0 0 −5 −3 II −5x3 = −3 ⇒ x3 = 53
12
5
⇒ Lösungsmenge = − 85
3
5
70
7.4. Inverse Matrizen
Matrix darstellbar. Wir interessieren uns nun für diese Darstellungsmatrix. Dazu müssen wir bestimmen, “was die
Umkehrabbildung aus den Basisvektoren {e1 , . . . , en } macht”:
3. Es gilt X = Y , denn:
X = XE = X(AY ) = (XA)Y = EY = Y
Beispiel 7.9:
Wir betrachten zwei Beispiele, bei denen wir aus der Anschauung bereits die Umkehrabbildungen kennen,
nämlich Drehungen und Spiegelungen.
1. Drehung um den Winkel ϕ im mathematisch positiven Sinn, d.h. gegen den Uhrzeigersinn. Die
Umkehrung davon ist anschaulich eine Drehung im entgegengesetzten Sinn oder anders gesagt
(machen wir, da wir wissen, wie die Drehmatrix einer Drehung entgegen des Uhrzeigersinns aussieht)
eine Drehung um den Winkel −ϕ gegen den Uhrzeigersinn. Wir rechnen nun nach, dass das wirklich
71
7.4. Inverse Matrizen
stimmt:
cos ϕ − sin ϕ cos(−ϕ) − sin(−ϕ)
A= ⇒ A−1 =
sin ϕ cos ϕ sin(−ϕ) cos(−ϕ)
cos ϕ sin ϕ
=
− sin ϕ cos ϕ
cos2 ϕ + sin2 ϕ
−1 0 1 0
AA = = =E
0 sin2 ϕ + cos2 ϕ 0 1
2. Spiegelung an einer Geraden mit der Normalen n: Die Umkehrung einer Spiegelung ist anschaulich
eben diese Spiegelung.
A = E − 2nnT A−1 = A
3. Irgendeine Matrix:
−1
1 1 1 −1
=
0 1 0 1
Der Raum der m × n-Matrizen ist mit dieser Addition und skalaren Multiplikation ein Vektorraum mit Dimension
m · n.
Beispiel 7.10:
Basis des R2×2 :
1 0 0 1 0 0 0 0
, , ,
0 0 0 0 1 0 0 1
Damit haben wir für Matrizen die wichtigen Rechenoperationen + und · definiert. Wir betrachten nun die Re-
chengesetze, die wir schon bei den reellen Zahlen hatten: Für die Matrizenmultiplikation gilt für A, B, C ∈ Rn×n :
72
7.5. Determinanten
AB = 0 6⇒ A = 0 oder B = 0
Ax = b
−1 −1
⇔ | {z A} x = A b
A
E
⇔ x = A−1 b
7.5 Determinanten
Wir suchen eine Abbildung det: Rn×n → R mit folgenden Eigenschaften:
(D3)
det E = 1
Beispiel 7.11:
2 × 2-Matrizen:
a b
det := ad − cb
c d
Diese Abbildung erfüllt (D1) - (D3):
(D1) nachrechnen
(D2)
a b
Rang <2 ⇔ Zeilen sind linear abhängig
c d
d.h. c = µa und d = µb, also
a b
det = µab − µab = 0
µa µb
(D3)
1 0
det =1·1−0·0=1
0 1
73
7.5. Determinanten
Nun wissen wir, dass es eine deratige Abbildung für beliebige Dimensionen gibt, allerdings ist völlig unklar, wie
diese aussieht. Es stellt sich die Frage: Wie berechnet man die Determinante einer Matrix, die nicht die Form
2×2 hat? Eine Möglichkeit hierfür bietet der Laplace’sche Entwicklungssatz, der es ermöglicht, eine Determinante
rekursiv entlang einer Spalte zu bestimmen.
Dabei ist Aij die (n − 1) × (n − 1)−Matrix, die aus A durch Streichen der i-ten Zeile und der j-ten Spalte
entsteht. Für n = 1 gilt:
det a = a
Die Formel gilt für jedes j mit 1 ≤ j ≤ n, man kann also die “Entwicklungsspalte” frei wählen (typischerweise
wählt man diejenige, die die meisten Nullen enthält). Allerdings erfordert die Berechnung der Determinante von A
die Berechnung der Determinante einer kleineren Matrix, welche ihrerseits die Berechnung der Determinante einer
noch kleineren Matrix erfordert, usw. Eine derartige Formel, die aus sich selbst referenziert, nennt man rekursiv.
Beispiel 7.12:
1 1 2
A = 2 3 1
1 1 1
(j=1) 2 3 1 3 1 2 4 1 2
det A = (−1) · 1 · det +(−1) · 2 · det +(−1) · 1 · det = −1
1 1 1 1 3 1
| {z } | {z } | {z }
2 −1 −5
(j=2) 2 1 1 2 1 2
det A = (−1) · det +3 · det +(−1) · det = −1
1 1 1 1 2 1
| {z } | {z } | {z }
1 −1 −3
74
7.5. Determinanten
Wichtig: Diese Formel gilt nur für n = 3. Sie entspricht genau der Formel des Laplace’schen Entwicklungssatzes,
es ist lediglich eine Merkhilfe.
1 1 2
det 2 3 1 = 1 · 3 · 1 + 1 · 1 · 1 + 2 · 2 · 1 − 1 · 3 · 2 − 1 · 1 · 1 − 1 · 2 · 1
1 1 1
= −1
Rechenregeln
Es gilt für A, B ∈ Rn×n .
1. det(AT ) = det(A)
⇒ Die Determinante kann also auch nach einer beliebigen Zeile entwickelt werden.
2. det(AB) = det(A)det(B)
3. det(A−1 ) = det(A)
1
det(Ã) = −det(A)
det(Ã) = λdet(A)
det(Ã) = det(A)
75
7.5. Determinanten
76
KAPITEL 8
Komplexe Zahlen
Bevor wir mit der Linearen Algebra weiter fortschreiten können, müssen wir erst dafür sorgen, dass wir für jedes
Polynom n-ten Grades auch n Nullstellen (in ihrer jeweiligen Vielfachheit gezählt) angeben können. Dies wird von
zentraler Bedeutung für das Konzept der Eigenwerte und Eigenvektoren sein. Die komplexen Zahlen, die wir
zur Lösung dieses Problems einführen werden, spielen auch eine große Rolle in Anwendungen, wie z.B. der Elektro-
technik, in der sie viele Rechnungen wesentlich vereinfachen und damit transpartente Konzepte ermöglichen. Auch
bei der Lösung gewöhnlicher Differentialgleichungen, wie wir sie nächstes Semester kennenlernen werden, sind
komplexe Zahlen von zentraler Bedeutung.
Wie bereits in Kapitel 2.1 stoßen wir auch hier wieder auf das Problem, dass eine Gleichung keine Lösung in der
verwendeten Zahlenmenge hat. Konkret hat
x2 = −1
keine Lösung in R.
⇒ Ausweg: Definiere i (imaginäre Einheit) so dass i2 = −1
Als neue Zahlenmenge betrachten wir
a + ib mit a, b ∈ R
Wir gehen mit i um als wäre es ein reeller Parameter und benutzen nur die Eigenschaft i2 = −1.
Summe:
(a1 + ib1 ) + (a2 + ib2 ) = (a1 + a2 ) + i(b1 + b2 )
Produkt:
= (a1 a2 − b1 b2 ) + i(a1 b2 + a2 b1 )
Beispiel 8.1:
Produkte komplexer Zahlen lassen sich einfach bilden:
(3 + i)(2 − i) = 6 + 1 + 2i − 3i = 7 − i
Um den Quotienten zweier komplexer Zahlen zu berechnen, muss man typischerweise folgenden Trick
(”Erweiteren mit dem konjugiert Komplexen“) anwenden:
77
Definition 8.1 (Komplexe Zahlen):
Unter der Menge der komplexen Zahlen C versteht man den R2 mit den folgenden Rechenregeln + und ·.
Satz 8.1:
(C, +, ·) bildet einen Körper.
Beweis:
Addition:
Multiplikation:
Falls b 6= 0:
a
x=− y
b
1 1 a a2 1
⇒ y = (ax − 1) = (a(− y) − 1) = − 2 y −
b b b b b
b a
⇒y=− 2 und x = 2
a + b2 a + b2
i2 = (0 · 0 − 1 · 1, 0 · 1 + 1 · 0) = (−1, 0)
78
Die reellen Zahlen können wir nun durch Zuordnung
R 3 a 7→ (a, 0) ∈ C
in die komplexen Zahlen einbetten. Dann können wir für z = (a, b) ∈ C auch schreiben
z = |{z}
a + |{z}
ib
(a,0) (0,b)
um z in der Basis {(1, 0), (0, 1)} darzustellen. Nun können wir wieder so rechnen wie oben und wir schreiben
z = a + ib. Für z1 · z2 schreiben wir z1 z2 , für z −1 = z1 .
• |z̄| = |z|
• z1 + z2 = z¯1 + z¯2
• z1 z2 = z¯1 z¯2
• |Re(z)| ≤ |z|
• |Im(z)| ≤ |z|
79
Allgemeine Beobachtung:
Re(z) 2 Re(z)
|z| =
, Norm im R , wobei ∈ R2
Im(z) Im(z)
⇒ Für den komplexen Betrag gelten die gleichen Eigenschaften wir für die Norm in R2 :
|z| ∈ R; |z| ≥ 0 und |z| = 0 genau dann wenn Re(z) = Im(z) = 0 ⇔ z=0
zn → z falls |zn − z| → 0
⇔ ||zn − z||R2 → 0
⇔ Re(zn − z) → 0 und Im(zn − z) → 0
⇔ Re(zn ) → Re(z) und Im(zn ) → Im(z)
Beispiel 8.2:
Wir betrachten nun ein paar Rechenbeispiele zu Potenzen und Produkten komplexer Zahlen. Hierbei werden
wir einen wichtigen Zusammenhang feststellen: “Bei der Multiplikation komplexer Zahlen multipliziert sich
deren Betrag und die Winkel der Faktoren werden addiert”.
1. Potenzen von i
i=i
2
i = −1
i3 = i2 · i = −1 · i = −i
i4 = i · i3 = i · (−i) = −i2 = −(−1) = 1
i5 = i · i4 = i · 1 = i
i6 = i · i5 = −1
..
.=
√ √
2 2
2. Potenzen von z = 2 + 2 i
80
u √ !2 √ !2
v
u 2 2
|z| = t + =1
2 2
√ √ ! √ √ !
2 2 2 2
z2 = + i + i
2 2 2 2
√ √
1 1 2 2
= − +2 i=i
2 2 2 2
z3 = z2 · z
√ √ !
2 2
=i + i
2 2
√ √
2 2
=− + i
2 2
z 4 = z 2 · z 2 = i · i = −1
(2 + i)(1 + 2i) = 2 − 2 + i + 4i = 5i
√
|2 + i| = 5
√
|1 + 2i| = 5
√ √
|5i| = 5 = 5· 5
81
8.1. Die komplexe Exponentialfunktion
Um den in vorherigem Beipsiel vermuteten Zusammenhang zwischen der Multiplikation komplexer Zahlen und
deren Betrag bzw. Winkel klar formulieren und beweisen zu können, benötigen wir die komlexe Exponential-
funktion. Dazu erinnern wir uns an die reelle Exponentialfunktion sowie an die Sinus- und Cosinusfunktion: Die
reellen Funktionen ex , sin(x) und cos(x) sind definiert über Potenzreihen. Das können wir direkt auf die komplexen
Zahlen ausdehnen:
82
8.1. Die komplexe Exponentialfunktion
Beweis: Hier ein nicht ganz exakter, dafür aber verständlicher Beweis:
i2 ϕ2 i3 ϕ3 i4 ϕ4 i5 ϕ5 i6 ϕ6
exp(iϕ) = 1 + iϕ + + + + + + ...
2! 3! 4! 5! 6!
ϕ2 ϕ3 ϕ4 ϕ5 ϕ6
= 1 + iϕ − −i + +i − + ...
2! 3! 4! 5! 6!
ϕ2 ϕ4 ϕ6
=1− + − ± ... cos(ϕ)
2! 4! 6!
ϕ3 ϕ5
+ i(ϕ − + ± ...) i sin(ϕ)
3! 5!
exp(z) =
|{z} exp(x − iy) = exp(x) · exp(−iy)
z = x + iy
z = x − iy
=
|{z} exp(x) (cos(−y) + i sin(−y))
Euler-Formel
Wir können eine komplexe Zahl bequem dadurch angeben, dass wir ihre Richtung auf dem Einheitskreis festlegen
und diese dann mit dem Betrag der Zahl skalieren: z = |z| (cos(ϕ) + i sin(ϕ)), wobei
r = |z|
Re(z)
cos(ϕ) =
|z|
Im(z)
sin(ϕ) =
|z|
⇒ z = reiϕ
83
8.1. Die komplexe Exponentialfunktion
Für die Multiplikation von z1 = r1 eiϕ1 und z2 = r2 eiϕ2 , ergibt sich dann direkt
Somit haben wir begründet, was wir im Beispiel bereits vermutet hatten: Die Multiplikation komplexer Zahlen
entspricht einer
π π π
i = ei 2 ⇒ iz = ei 2 · reiϕ = rei(ϕ+ 2 )
84
8.2. Der Fundamentalsatz der Algebra
Nun wollen wir uns direkt dem Problem zuwenden, dass wir in der Einleitung als zu lösen genannt hatten: Die
Lösung von Gleichungen, die keine reelle Lösung haben. Wir betrachten zunächst quadratische Gleichungen, für
welche die Berechnung von Wurzeln nötig ist. Um die Wurzel einer komplexen Zahl zu bestimmen, schreiben wir
diese in Polarform und verwenden die Tatsache, dass bei der Multiplikation zweier komplexer Zahlen die Beträge
multipliziert und die Winkel addiert werden. Somit gilt
√ √ √ ϕ
z= reiϕ = rei 2 .
Angewendet auf die einfachste Gleichung z 2 = −1 ergibt sich einerseits (per Definition von i)
z 2 = −1 ⇔ z=i oder z = −i
85
8.2. Der Fundamentalsatz der Algebra
Beispiel 8.3:
1.
z 2 + 2z + 10 = 0
1 √ 1√
z1,2 = −2 ± 4 − 40 = −1 ± −36
2 2
1 √
= 1 − ± · 6 · −1 = −1 ± 3i
2
2.
z 2 − (3i + 2)z − 1 + 3i = 0
1 p
z1,2 = 3i + 2 ± (3i + 1)2 − 4 · (−1 + 3i)
2
1 s
= 3i + 2 ± |−9 + 12i +{z4 + 4 − 12i}
2
−1
3 1 1 + 2i
= i+1± i=
2 2 1+i
Folgerung: Jedes Polynom p(z) der obigen Form mit an 6= 0 hat genau n Nullstellen auf C.
Beweisidee: Linearfaktoren abdividieren: p(z) = an (z − z1 )(z − z2 ) . . . (z − zn ) mit gegebenenfalls mehrfachen
Nullstellen z1 , . . . , zn ∈ C.
Beispiel 8.4:
1.
!
p(z) = z 4 + 1 = 0 ⇔ z 4 = −1
π
−1 = eiπ z1 = ei 4
3π
−1 = ei3π z2 = ei 4
5π
−1 = ei5π z3 = ei 4
7π
−1 = ei7π z4 = ei 4
86
8.2. Der Fundamentalsatz der Algebra
2.
!
p(z) = z 3 + 1 = 0 ⇔ z 3 = −1
−1 = ei(2n+1)π , n = 0, 1, 2, . . .
i(2n+1) π
zn = e 3
87
8.2. Der Fundamentalsatz der Algebra
88
KAPITEL 9
Ax = λx
Beispiel 9.1:
1. Wir beginnen mit einer Diagonalmatrix. Bei dieser ist anschaulich klar, dass jede Richtung er-
halten bleibtund der jeweils zugehörige Streckungsfaktor auf der Diagonalen abzulesen ist: A =
2 0 0
0 −1 0 hat die Eigenwerte 2, −1, 3 mit den zugehörigen Eigenvektoren e1 , e2 , e3 , denn
0 0 3
Ae1 = 2e1 X
Ae2 = −1 · e2 X
Ae3 = 3e3 X
2. Als nächstes betrachten wir eine Spiegelung Q ∈ Rn×n mit Q = E − 2wwT mit w ∈ Rn , ||w|| = 1,
89
9.1. Eigenwerte und Eigenvektoren
also
1 − 2w1 w1 −2w1 w2 ... −2w1 wn
−2w1 w2 1 − 2w2 w2 −2w2 wn
Q=
.. .. ..
. . .
−2w1 wn −2w2 wn ... 1 − 2wn wn
Wir wissen, dass Q die Spiegelung an der Ebene mit dem Normalenvektor w beschreibt.
Q hat den
Qw = (E − 2wwT )w = w − 2w |w{z
T
w} = w − 2w = −w
=||w||2 =1
Qv = (E − 2wwT )v = v − 2w w T
|{z}v =v
w·v=0
3. Nun betrachten wir eine allgemeine Matrix, also eine, die wir nicht einfach in Worten als Drehung,
Spiegelung etc. beschreiben können:
−2 6
A=
6 7
Es soll gelten Ax = λx mit x 6= 0. Somit darf diese Gleichung nicht eindeutig lösbar sein, denn
x = 0 ist ja stets eine Lösung der Gleichung, an der wir aber nicht interessiert sind. Wir formen die
Gleichung um:
⇔ Ax − λEx = 0
⇔ (A − λE)x = 0
Damit diese Gleichung nicht eindeutig lösbar ist, muss gelten rang(A − λE) < 2. Das bedeutet aber
auch det(A − λE) = 0. Da λ unbekannt ist (und als Teil der Problemstellung bestimmt werden
muss), kann bzw. muss dieses gerade so gewählt werden, dass det(A − λE) = 0. Durch diese
Gleichung können die Eigenwerte bestimmt werden:
Bestimmung der Eigenwerte
−2 − λ 6
det(A − λE) = det
6 7−λ
= (−2 − λ)(7 − λ) − 36 = λ2 + 7λ + 2λ − 14 − 36
!
= λ2 − 5λ − 50 = 0
1 √ 5 15
⇔ λ1,2 = 5 ± 25 + 200 = ±
2 2 2
λ1 = 10
das sind die Eigenwerte von A
λ2 = −5
Bestimmung der Eigenvektoren zu λ1 = 10: Da nun ein Eigenwert festgelegt ist, können wir die
90
9.1. Eigenwerte und Eigenvektoren
(A − λ1 E)x = 0
−2 − 10 6
⇔ x=0
6 7 − 10
−12 6
⇔ x=0
6 −3
−12x1 + 6x2 = 0
⇔ ⇒ x2 = 2x1
6x1 − 3x2 = 0
1
⇔ x=
2
1
⇔ x ∈ span
2
(A − λ2 E)x = 0
3 6
⇔ x=0
6 12
2
⇔ x=
−1
2
⇔ x ∈ span
−1
Beobachtung:
1 2
⊥
2 −1
cos(ϕ) − sin(ϕ)
4. Es sei A = die Drehung um ϕ nach links. Anschaulich ist klar, dass bei einer
sin(ϕ) cos(ϕ)
Drehung keine Richtung erhalten bleibt, außer für die Spezialfälle ϕ = 0 bzw. ϕ = π. Wie äußert
sich das in den Gleichungen?
!
det(A − λE) = 0
cos(ϕ) − λ − sin(ϕ)
det = (cos(ϕ) − λ)2 + sin(ϕ)2
sin(ϕ) cos(ϕ) − λ
= λ2 − 2λ cos(ϕ) + cos(ϕ)2 + sin(ϕ)2
| {z }
=1
= λ2 − 2λ cos(ϕ) + 1
!
=0
1 p
⇔ λ1,2 = 2 cos(ϕ) ± 4 cos(ϕ)2 − 4
2
1p
= cos(ϕ) ± 4(cos(ϕ)2 − 1)
2
s
= cos(ϕ) ± cos(ϕ)2 − 1
| {z }
=− sin(ϕ)2
= cos(ϕ) ± i sin(ϕ)
a) Wir erhalten nur dann reelle Eigenwerte wenn sin(ϕ) = 0 ⇔ ϕ = kπ, k ∈ N. In diesem
Fall gilt:
λ1,2 = cos(kπ) = (−1)k k ∈ N
91
9.1. Eigenwerte und Eigenvektoren
(A − λE)x = 0
cos(kπ) − cos(kπ) − sin(kπ)
⇔ x=0
sin(kπ) cos(kπ) − cos(kπ)
0 0
⇔ x=0
0 0
⇔ x ∈ span {e1 , e2 }
b) Falls sin(ϕ) 6= 0 gilt λ1,2 = cos(ϕ) ± i sin(ϕ) ∈ C. Wir bestimmen die Eigenvektoren zu
λ1 = cos(ϕ) + i sin(ϕ):
(A − λ1 E)x = 0
cos(ϕ) − (cos(ϕ) + i sin(ϕ)) − sin(ϕ)
⇔ x=0
sin(ϕ) cos(ϕ) − (cos(ϕ) + i sin(ϕ))
−i sin(ϕ) − sin(ϕ)
⇔ x=0
sin(ϕ) −i sin(ϕ)
−i −1
⇔ sin(ϕ) x=0
1 −i
1
⇒ x=
−i
denn
−i −1 −i i 0
−i = + 2 =
1 −i 1 i 0
Das heißt
1
x ∈ span (nachrechnen)
−i
Satz 9.1:
Die Menge aller Eigenvektoren zu einem Eigenwert λ ist der Kern von A − λE und damit ein Untervek-
torraum. Wir nennen diesen Untervektorraum Eigenraum.
Nach dem Fundamentalsatz der Algebra hat P genau n Nullstellen (inklusive mehrfacher Nullstellen).
Achtung: Die Vielfachheit der Nullstellen sagt im Allgemeinen nichts über die Dimension des Eigenraumes aus! Es
gilt jedoch ein etwas subtilerer Zusammenhang, für den algebraische und geometrische Eigenschaften auseinander
halten müssen.
alg(λ) := r
Die Dimension des zugehörigen Eigenraums bezeichnet man als geometrische Vielfachheit
92
9.2. Symmetrische Matrizen
von λ.
Satz 9.2:
Es gilt geo(λ) ≤ alg(λ).
Beispiel 9.2:
1 1
Wir bestimmen Eigenwerte und Eigenvektoren von A = .
0 1
Eigenwerte
1−λ 1 !
det = (1 − λ)2 = 0 ⇒ λ1,2 = 1
0 1−λ
Eigenvektoren
0 1 1
(A − 1E)x = 0 ⇔ x=0 x=
0 0 0
Satz 9.3:
Ist A ∈ Rn×n , so gilt:
λ Eigenwert mit Eigenvektor v ⇒ λ Eigenwert mit Eigenvektor v.
Beispiel 9.3:
1 2 4 1 2 4
A = 2 3 −2 AT = 2 3 −2
4 −2 −1 4 −2 −1
Lemma 9.1:
Sei A ∈ Rn×n symmetrisch, λ1 , λ2 ∈ R zwei verschiedene Eigenwerte. Dann sind die zugehörigen Eigen-
vektoren v1 , v2 zueinander orthogonal.
⇒ λ1 v1 · v2 = Av1 · v2
=
|{z} v 1 · AT v 2 =
|{z} v1 · Av2
Rechenregel siehe ÜB A symmetrisch
= v1 · λ2 v2 = λ2 v1 · v2
⇔ λ1 v1 · v2 − λv1 · v2 = 0
⇔ (λ1 − λ2 ) v1 · v2 = 0
| {z }
6=0
⇔ v1 · v2 = 0
93
9.2. Symmetrische Matrizen
Satz 9.4:
Eine symmetrische n × n Matrix hat n Eigenwerte reelle λ1 ≤ λ2 ≤ · · · ≤ λn mit zugehörigen orthonor-
mierten Eigenvektoren u1 , u2 , . . . , un .
Die orthonormierten Vektoren u1 , . . . , un sind linear unabhängig, bilden also eine Basis des Rn . Jeder Vektor
x ∈ Rn lässt sich darstellen als
x = α1 u1 + α2 u2 + · · · + αn un
mit αi = x · ui für i = 1, . . . , n
Es folgt
Ax = A(α1 u1 + · · · + αn un )
= α1 Au1 + · · · + αn Aun
= α1 λ1 u1 + · · · + αn λn un .
oder kurz:
AU = U D
T
Da u1 , . . . , un orthonormal sind, gilt U U = E.
Satz 9.5:
Für jede symmetrische Matrix A ∈ Rn×n gibt es eine orthogonale Matrix U und eine Diagonalmatrix D
mit
A = U DU T
λ1
λ 2
| | |
Dabei ist D = mit Eigenwerten λ1 , . . . , λn und U = u1 u2 . . . un mit den
..
. | | |
λn
zugehörigen Eigenvektoren u1 , . . . , un .
Beispiel 9.4:
Im vorherigen Beispiel ergibt sich:
−2 6
A=
6 7
94
9.3. Diagonalisierbare Matrizen
1 1 1
λ1 = 10 x1 = u1 = √
2 5 2
2 1 2
λ2 = −5 x2 = u2 = √
−1 5 −1
1 1 2 10 0 1 2
⇒ A=
5 2 −1 0 −5 2 −1
Wir wissen: Jede symmetrische Matrix A ist diagonalisierbar, d.h. es gibt eine invertierbare Matrix U und eine
Diagonalmatrix D mit
A = U DU −1
A = BDB −1
oder AB = BD.
Bemerkung:
A = BDB −1 ⇔ B −1 AB = D
Die λ1 , . . . , λn sind dann die Eigenwerte von A und die Spalten von B die zugehörigen Eigenvektoren:
| | |
B = b1 b2 ... bn
| | |
AB = BD ⇔ Abi = λi bi
Satz 9.6:
Eine n × n Matrix ist genau dann diagonalisierbar, wenn sie n linear unabhängige Eigenvektoren besitzt.
Beispiel 9.5:
1 1
A=
0 1
Eigenwerte:
!
det(A − λE) = (1 − λ)2 = 0 ⇔ λ1,2 = 1
95
9.3. Diagonalisierbare Matrizen
Eigenvektoren:
! 0 1 ! 1
(A − λE)x = 0 ⇔ ⇔ x=
x=0
0 0 0
1
bzw. genauer x ∈ span
0
Satz 9.7:
Sind b1 , . . . , bk Eigenvektoren zu paarweise verschiedenen Eigenwerte λ1 , . . . , λk , dann sind die b1 , . . . , bk
linear unabhängig. Insbesondere ist eine Matrix A ∈ Kn×n mit n verschiedenen Eigenwerten diagonalisier-
bar.
Beispiel 9.6:
1 −3 3
Bestimme Diagonalisierung von A = 3 −5 3
6 −6 4
also
96
9.4. Orthogonale Abbildungen und Matrizen
Eigenvektoren zu λ1 = 4.
−3 −3 3 0 1
3 −9 3 x1 = 0 x = 1
6 −6 0 0 2
zu λ2 = λ3 = −2.
3 −3 3 0 1 0
3 −3 3 x = 0 x2 = 1 x3 = 1
6 −6 6 0 0 1
Orthogonale Abbildungen spielen eine wichtige Rolle, da sie Längen (und damit auch Winkel) erhalten. Diese
Eigenschaften machen sie auch intuitiv gut verstehbar.
Definition 9.7:
Sei V ein Vektorraum über R mit dem Skalarprodukt · und der zugehörigen Norm ||·||. Dann heißt eine
lineare Abbildung f : V → V orthogonal, falls
für alle x ∈ V .
1
||x + y||2 − ||x − y||2
x·y =
4
denn
||x + y||2 − ||x − y||2 = ||x||2 + 2x · y + ||y||2 − ||x||2 − 2x · y + ||y||2 = 4x · y
97
9.4. Orthogonale Abbildungen und Matrizen
= x·y
|{z}
PI
Wir haben damit nun zwei Definitionen für orthogonale Matrizen (Definition 9.5 und Definition 9.8 von gerade
eben). Folgender Satz zeigt, dass diese konsistent sind, siehe auch Bemerkung im Anschluss an folgenden Satz.
Beweis:
i) klar aus Definition und Satz über Winkeltreue
i)
ii) v ⊥ w ⇔ v · w = 0 ⇒ Av · Aw = 0 ⇔ Av ⊥ Aw.
iii)
i)
kern(A) = {x ∈ V | Ax = 0} = {x ∈ V | ||Ax|| = 0} = {x ∈ V | ||x|| = 0} = {0} ⇒ A invertierbar
A orth.
||A−1 x|| = ||AA−1 x|| = ||x|| ⇒ A−1 orthogonal
iv)
)
A−1 orth.
Ax · y = A−1 Ax · A−1 y = x · A−1 y ⇒ A−1 = AT
andererseits: Ax · y = x · AT y
98
9.4. Orthogonale Abbildungen und Matrizen
v)
| | |
A = a1 a2 ... an
| | |
A orth. 0 i 6= j
ai = Aei , ai · aj = Aei · Aej = ei · ej =
1 i=j
iv)
vi) A orthogonal ⇒ AT = A−1 orthogonal ⇒ Spalten von AT bilden in Orthonormalsystem ⇒ Zeilen von A
bilden ein Orthonormalsystem.
vii) Sei λ ein Eigenwert mit zugehörigem Eigenvektor x ∈ Cn \{0}. Dann gilt Ax = λx.
||x||6=0
||x|| = ||Ax|| = ||λx|| = |λ|||x|| ⇒ 1 = |λ|
Bemerkung: Die Definition einer orthogonalen Matrix durch U T = U −1 ist äquivalent zur ”neuen Definition”:
iv)
⇒ Es gelte Ax · Ay = x · y ∀ x, y ∈ V ⇒ A−1 = AT
⇐ Es gelte A−1 = AT ⇒ Ax · Ay = x · AT Ay = x · A−1 Ay = x · y
Beispiel 9.7:
Drehungen und Spiegelungen sind anschaulich offensichtlich orthogonal (in dem Sinne, dass Längen er-
halten bleiben).
1. Drehung im R2 .
cos α − sin α
A=
sin α cos α
−1 1 cos α sin α
A = = AT
1 − sin α cos α
⇒ A orthogonal
Q = E − 2vv T
v T x = x − 2(v · x)v
Qx = x − 2v |{z}
=v·x
QT = (E − 2vv T )T = E T − 2(vv T )T = E − 2vv T = Q Symmetrie
2 T T T T
v v vT
Q = (E − 2vv )(E − 2vv ) = E − 2vv − 2vv + 4v |{z} T
=v·v=1
= E − 4vv T + 4vv T = E
Wir betrachten nun die Hintereinanderausführung von orthogonalen Abbildungen. Über die anschauliche Definition
(“Längen bleiben erhalten”) ist klar, dass diese wiederum orthogonal sind:
99
9.4. Orthogonale Abbildungen und Matrizen
Beweis:
i)
(AB)(AB)T = A |BB T T T
{z } A = AA = E
=E
ii)
Bemerkung:
1. A, B ∈ O(n) ⇒ AB ∈ O(n)
2. E ∈ O(n)
3. A ∈ O(n) ⇒ A−1 ∈ O(n)
Eine Menge mit diesen drei Eigenschaften nennt man Gruppe. O(n) nenne man orthogonale Gruppe.
cos α − sin α
Wir zeigen: Jedes A ∈ SO(2) hat die Gestalt A = .
sin α cos α
a2 + c2 ab + cd
a c a b
A= ⇒ AT = ⇒ AAT =
b d c d ab + cd b2 + d2
d.h.
100
9.4. Orthogonale Abbildungen und Matrizen
oder
⇒ α + α0 ∈ {0, 2π}
α = α0 = 0 ⇒ α = π − α0 oder α = 3π − α0
oder ⇒ sin α = sin α0 und cos α = − cos α0
sin α0 = − sin α
0 ⇒
α = 2π−α
cos α0 = cos α
cos α sin α
⇒ A= ⇒ det(A) = −1
sin α − cos α
cos α sin α O(2)\SO(2)
A= ⇒ det(A) = 1
− sin α cos α
SO(2)
cos α − sin α
Ist A ∈ SO(2) ⇒ A= Drehung um α ∈ R
sin α cos α
cos α sin α
Ist A ∈ O(2)\SO(2) ⇒ A= Spiegelung, α ∈ R
sin α − cos α
π
A=
cos α cos 2 −α =
cos α sin α
π
sin α − sin 2 −α
sin α − cos α
1.0 e2
0.5
α
2 e1
1.5 1.0 0.5 0.5 1.0 1.5 2.0
π −α
2
0.5 Ae2
101
9.4. Orthogonale Abbildungen und Matrizen
102
KAPITEL 10
Eindimensionale Integration
Fragestellung: f : [a, b] → R
Was ist die Fläche zwischen dem Graphen von f und der x-Achse. Anteile oberhalb der x-Achse zählen positiv,
Anteile unterhalb der x-Achse zählen negativ.
ξ1 ξ2 ξ3 ξ4
x0 x1 x2 x3 x4
a b
In jedem Teilintervall [xk−1 , xk ] wählen wir eine Zwischenstelle ξk , dann ist der Flächeninhalt des Streifens
gegeben durch
|xk − xk−1 | · |f (ξk )|
103
10.1. Definition über Riemann-Summen
ξ2 ξ3
x0 ξ1 x1 x2 x3 ξ4x4
a b
n
X
Sn = f (ξk )(xk − xk−1 )
k=1
Beispiel 10.1:
Wir betrachten die Integrale der einfachsten Funktionen, nämlich der konstanten Funktion und der Iden-
tität:
1. f (x) = c ist keine konstante Funktion
Wir schreiben: Z b
c dx = c(b − a)
a
104
10.1. Definition über Riemann-Summen
n
X
Sh = f (ξk )(xk − xk−1 )
k=1
n n
X b−a X b−a b−a
= ξk · = a+k
n n n
k=1 k=1
n 2
X b−a b−a
= a +k
n n
k=1
2 X n
b−a b−a
=n·a + k
n n
k=1
| {z }
n(n+1)
= 2
(b − a)2 n(n + 1)
= a(b − a) +
n2 · 2
(b − a)2 (n + 1)
= ab − a2 +
2n
2
b − 2ab + a2 (b2 − 2ab + a2 )n
= ab − a2 + +
2n 2n
2 b2 a2 b2 − 2ab + a2
= ab − a + − ab + +
2 2 2n
n→∞ 1 2 1 2
−→ b − a
2 2
Wir schreiben: Z b
1 2 1
x dx = (b − a2 ) = (b − a)(b + a)
a 2 2
Definition 10.1:
Eine Funktion f heißt integrierbar, falls es eine Folge von Zerlegungen gibt, so dass unabhängig von der
Wahl von ξk die Folge Sh für h → 0 (gegen den selben Grenzwert) konvergiert. Dieser Grenzwert wird
bezeichnet als Z b
f (x) dx
a
105
10.1. Definition über Riemann-Summen
Satz 10.1:
Sei f : [a, b] → R stetig, dann ist f integrierbar auf [a, b].
Definition 10.2:
Sei f integrierbar auf [a, b], dann definieren wir:
Z a Z b
f (x) dx := − f (x) dx
Zb a a
f (x) dx := 0
a
i) Linearität (Addition):
Z b Z b Z b
f (x) + g(x) dx = f (x) dx + g(x) dx
a a a
iii) Additivität
Z c Z b Z b
f (x) dx + f (x) dx = f (x) dx für a ≤ c ≤ b
a c a
iv) Monotonie
Z b Z b
f (x) ≤ g(x) ∀ x ∈ [a, b] ⇒ f (x) dx ≤ g(x) dx
a a
106
10.2. Zusammenhang Integration – Differentiation
Definition 10.3:
Sei f : [a, b] → R integrierbar, dann heißt
Z b
1
f¯ := f (x) dx
b−a a
Satz 10.3:
Die Funktion F ist differenzierbar und es gilt F 0 (x) = f (x).
Beweis:
!
x+h x x+h
F (x + h) − F (x)
Z Z Z
1 1
= f (t)dt − f (t)dt = f (t)dt = f (ξ)
h h x0 x0 h x
Satz 10.4:
Sind F und G Stammfunktionen von f auf [a, b], d.h. F 0 = G0 = f , dann gibt es ein C ∈ R mit
F (x) = G(x) + C für alle x ∈ [a, b].
Beweis:
107
10.3. Integrationsregeln
Bemerkung:
Rx
F (x) = a
f (t)dt Z b
Beweis: Z x
Fa (x) = f (t)dt
a
10.3 Integrationsregeln
Im Folgenden geben wir die Integrale bzw. Stammfunktionen grundlegender Funktionen an. Unter Verwendung
der in diesem Kapitel eingeführten Integrationsregeln können dann vielfältige Funktionen integriert werden (“Bau-
kastenprinzip”). Z
1
xα dx = xα+1 α ∈ R\{−1}
α+1
Z
ex dx = ex
Z
cos(x)dx = sin(x)
Z
sin(x)dx = − cos(x)
Z Z
1
x−1 dx = dx = ln(|x|)
x
Begündung der Stammfunktion von x1 : Was ist die Ableitung von ln(|x|)? Dazu gehen wir über die Ableitung
0
der Umkehrfunktion (Reminder: f −1 (x) = f 0 (f −1
1
(x)) ). Die Umkehrfunktion des natürlichen Logarithmus ist
−1
die e-Funktion: ln = exp . Da der Betrag |x| involviert ist, benötigen wir eine Fallunterscheidung x ≥ 0 bzw.
x < 0.
Für x > 0:
1 1
ln0 (x) = y = mit y = ln(x)
e x
Für x < 0:
1 1
ln0 (−x) = − = mit Kettenregel.
−x x
108
10.3. Integrationsregeln
d
⇒ F (ϕ(t)) = f (ϕ(t))ϕ0 (t)
dt
⇒
Z ϕ(b) Z b
Hauptsatz f (s)ds = F (ϕ(b)) − F (ϕ(a)) = f (ϕ(t))ϕ0 (t)dt
ϕ(a) a
Beispiel 10.2:
Wir benutzen die Substitutionsregel zur Integration mehrerer Funktionen und halten uns dabei an die oben
eingeführte Nomenklatur:
1.
Z b
2t ds
dt ϕ(t) = s = t2 + 1, ϕ0 (t) = = 2t, ds = 2tdt
a t2 + 1 dt
Z b2 +1
2t 1 1 1
= · ds f (s) = , f (ϕ(t)) =
a2 +1 s 2t s t2 +1
Z b2 +1
1 2
= ds = ln(|s|)|ba2+1
+1
a2 +1 s
b2 + 1
2 2
= ln(b + 1) − ln(a + 1) = ln
a2 + 1
Z
2t
⇒ dt = ln(t2 + 1)
t2 + 1
2.
b
−x
Z
dy 1
√ dx y = 1 − x2 , = −2x, dx = − dy
a 1 − x2 dx 2x
1−b2
−x
Z
1
= − √dy
1−a2 2x y
Z 1−b2 2
1 1−b − 1
Z
1
= √ dy = y 2 dy
1−a2 2 y 2 1−a2
1 1 1 2
p p
= · 1 y 2 |1−b
1−a 2 = 1 − b2 − 1 − a2
2 2
−x
Z p
√ dx = 1 − x2
1−x 2
109
10.3. Integrationsregeln
3.
Z b
ds
sin(t) cos(t)dt s := cos(t), = − sin(t)
a dt
cos(b)
−1
Z
= sin(t) · s · ds
cos(a) sin(t)
1 cos(b) 1
= − s2 |cos(a) = − cos2 (b) − cos2 (a)
2 2
Z
1
⇒ sin(t) cos(t)dt = − cos2 (t)
2
4.
Z p
dx
1 − x2 dx x = sin(y), = cos(y)
dy
Z q
= 1 − sin2 (y) cos(y)dy denn sin2 (y) + cos2 (y) = 1 ⇔ 1 − sin2 (y) = cos2 (y)
√
| {z }
= cos2 (y)
Z
1
= cos2 (y)dy mit Additionstheorem cos2 (y) = (cos(2y) + 1)
2
Z
1
= (cos(2y) + 1) dy
2
Z Z
1 1
= cos(2y)dy + 1dy
2 2
| {z }
=y
1 1 1 1 1
= y+ · sin(2y) = arcsin(x) + cos(y) sin(y)
2 2 2 2 2
√ √
| {z } | {z } | {z }
=2 cos(y) sin(y) = 2
cos (y)= 1−sin2 (y) =x
1 1 p
= arcsin(x) + x 1 − x2
2 2
Anwendung: Fläche des Halbkreises:
p
x2 + y 2 = 1 ⇒ y= 1 − x2
Z 1 p 1 p 1
1 − x2 dx = arcsin(x) + x 1 − x2
−1 2 −1
1 1 π π π
= (arcsin(1) + 1 · 0 − arcsin(−1) − 0) = + =
2 2 2 2 2
110
10.4. Integration rationaler Funktionen
Beispiel 10.3: 1.
Z b Z b
xex dx = xex |ba − 1 · ex dx = (xex − ex ) |ba = ex (x − 1)|ba
a a
Z
⇒ xex dx = ex (x − 1)
2.
Z
I= sin(t) cos(t) dt vgl. Beispiel 3 oben
| {z } | {z }
=f 0 =g
Z
= − cos(t) cos(t) − (− cos(t)) · (− sin(t))dt
Z
= − cos2 (t) − sin(t) cos(t)dt = − cos2 (t) − I
also
I = − cos2 (t) − I
1
⇔ I = − cos2 (t)
2
3.
Z b Z b Z b
1 b
ln(x)dx = 1 · ln(x) dx = x ln(x)|ba − x· dx = [x ln(x) − x]a
a a
|{z} | {z } a x
=f 0 =g
Betrachte
p(x) = a0 + a1 x + a2 x2 + · · · + an xn
q(x) = b0 + b1 x + b2 x2 + · · · + bm xm
111
10.4. Integration rationaler Funktionen
Gesucht: Z
p(x)
dx
q(x)
1. m = 0: Z
a1 2 a2 3 an n+1
p(x)dx = a0 x + x + x + ··· + x
2 3 n+1
2. n ≥ m: Hier verwenden wir Polynomdivision:
p(x) r(x)
= p̃(x) +
q(x) |{z} q(x)
m=0 | {z }
n<m
Daher braucht nur noch der Fall n < m betrachtet werden. Für diesen Fall betrachten wir nun die wesentlichen
Stammfunktionen, die wir dann später wieder verwenden werden.
Z
1
dx = ln(|a + x|)
a+x
Z
1
dx = − ln(|b − x|)
b−x
Z Z Z 1 1
1 1 2 2 1 1
dx = dx = + dx = ln(|1 + x|) − ln(|1 − x|)
1 − x2 (1 + x)(1 − x) 1+x 1−x 2 2
Z
x 1
dx = ln(1 + x2 )
1 + x2 2
Z
x 1
2
dx = − ln(|1 − x2 |)
1−x 2
Z
1
dx = arctan(x)
1 + x2
Mit diesen Hilfsmitteln stellen wir das Vorgehen zur Integration rationaler Funktionen anhand von Beispielen dar:
Beispiel 10.4:
Wir betrachten nur rationale Funktionen mit Grad zwei im Nenner. Dabei sind folgende Fälle möglich:
√
2x + 1 √
Z Z Z
2x + 1 2( 3t + 2) + 1
2
dx = 3dt = √ dt
x − 4x + 7 3(t2 + 1) 3(t2 + 1)
Z √ Z Z
2 3t + 5 2t 5
= √ dt = dt + √ dt
3(t2 + 1) t2 + 1 3(t2 + 1)
Z Z
t 5 1
=2 dt + √ dt
t2 + 1 3 t2 + 1
5
= ln(t2 + 1) + √ arctan(t)
3
(x − 2)2
5 x−2
= ln + 1 + √ arctan √
3 3 3
112
10.4. Integration rationaler Funktionen
Bestimmung von A, B:
2x + 5 A B
= + (?)
(x − 2)(x − 3) x−2 x−3
2x+5 B(x−2)
(a) Durchmultiplizieren mit x − 2: x−3 =A+ x−3
Wähle x = 2: −9 = A + B · 0.
2x+5 A(x−3)
(b) Durchmultiplizieren mit x − 3: x−2 = x−2 +B
Wähle x = 3: 11 = A · 0 + B
Das funktioniert immer, denn:
(?) ⇔ 2x + 5 = A (x − 3) +B (x − 2)
| {z } | {z } | {z }
∈P1 ∈P1 ∈P1
Eine Zerlegung wir in (?) funktioniert nicht mehr, da (x − N S) keine Basis von P1 mehr erzeugt.
Verwende daher (x − N S) und (x − N S)2 .
3x + 2 3x + 2 A B
= = + (??)
x2 − 2x + 1 (x − 1) 2 (x − 1) 2 x−1
⇔ 1 +B (x − 1)
3x + 2 = A · |{z}
| {z } | {z }
∈P1 ∈P1 ∈P1
1 und x − 1 bilden eine Basis von P1 , also existiert genau ein A, B so dass (??) gilt.
Analog wie oben folgt A = 5, B = 3.
Z Z Z
3x + 2 5 3
2
dx = 2
dx + dx
x − 2x + 1 (x − 1) x−1
1
= −5 + 3 ln(|x − 1|)
x−1
113
10.4. Integration rationaler Funktionen
114
KAPITEL 11
In diesem Kapitel sollen Methoden zur numerischen Berechnung von bestimmten Integralen erarbeitet werden. Es
geht also darum, den Zahlenwert eines Integrals zu approximieren. Dazu machen wir uns folgenden Umstand zu
Nutze:
1. Differenzierbare Funktionen können durch Polynome approximiert werden.
2. Polynome können leicht integriert werden.
Somit gehen wir zweistufig vor. Eine zu integrierende Funktion f wird zuerst durch ein Polynom approxi-
miert. Anstatt die ursprüngliche Funktion f zu integrieren, bestimmen wir das Inegral des approximierenden
Polynoms.
11.1 Taylorentwicklung
Erinnerung: f : R → R ist differenzierbar ⇐⇒ f (x) = f (x0 ) + f 0 (x0 )(x − x0 ) +o(x − x0 )
| {z }
affine Approximation von f nahe x0
1.4
1.2
1.0 f
0.8
0.6
0.4
0.2
1 x
Z
mit Rn+1 (x) = (x − t)n f (n+1) (t)dt Restglied
n! x0
115
11.1. Taylorentwicklung
Es gilt:
f (n+1) (ξ)
Rn+1 (x) = (x − x0 )n+1 für ein ξ ∈ (x0 , x)
(n + 1)!
Der Fehler Rn+1 (x) wird also insbesondere klein, wenn |x − x0 | klein.
2. Für n = 1 ist die Aussage bekannt aus der Definition der Differenzierbarkeit: f (x) = f (x0 ) + f 0 (x0 )(x −
2 (x) x→x0
x0 ) + R2 (x) bekannt aus Differenzierbarkeit und es gilt R
x−x0 −→ 0.
3. Ist die betrachtete Funktion selbst schon ein Polynom k-ten Grades, also p ∈ Pk , so stimmt sie mit ihrem
(k)
Taylorpolynom überein: p(x) = p(x0 ) + p0 (x0 )(x − x0 ) + · · · + p k!(x0 ) (x − x0 )k + 0,
d.h. das Restglied verschwindet, da p(k+1) (x) = 0.
4. Für die Exponentialfunktion, die ja durch eine Potenzreihe definiert ist, ist das Taylorpolynom k-ten Grades
die entsprechende k-te Partialsumme der Potenzreihe: Dazu wählen wir also f (x) = ex , x0 = 0, dann gilt
Satz 11.2:
Es gelte für eine Funktion f : R → R, dass
116
11.2. Interpolation
Beispiel 11.1:
Wir betrachten Taylorpolynome der natürlichen Logarithmusfunktion:
1 2 6
Tn,f,1 (x) = 0 + 1 · (x − 1) − (x − 1)2 + (x − 1)3 − (x − 1)4 +
2! 3! 4!
4! (n − 1)!
+ (x − 1)5 − · · · + (−1)n+1 (x − 1)n
5! n!
1 1 1 1
= x − 1 − (x − 1)2 + (x − 1)3 − (x − 1)4 ± · · · + (−1)n+1 (x − 1)n
2 3 4 n
Somit ergibt sich z.B. ln(1, 1) = f (1, 1) ≈ T5,f,1 (1, 1) = 0.0953103.
11.2 Interpolation
Bei der Interpolation geht es um folgende Problemstellung, welche sowohl auftritt, wenn diskrete Punkte durch
eine Kurve “verbunden” werden sollen, als auch für die numerische Integration nützlich ist: Gegeben sei eine
beliebige Funktion, die ggf. schwer auszuwerten ist. Eine Interpolationsaufgabe ist dann gegeben durch
117
11.2. Interpolation
Die Lagrange-Polynome sind nach Satz 11.3 eindeutig bestimmt, da jedes Lagrange-Polynom Li eine Interpola-
tionsproblem lösen soll. Wir geben nun eine explizite Form der Lagrange-Polynome na:
Satz 11.4:
Die Lagrange-Polynome lassen sich schreiben als
n
Y x − xj
Li (x) =
xi − xj
j=0,j6=i
Pn
und p(x) = i=0 f (xi )Li (x) löst die Interpolationsaufgabe (P) zur Funktion f .
Beweis:
• Es gilt
n
Y xk − xj 1 k=i
Li (xk ) = =
xi − xj 0 k 6= i da ein Faktor 0
j=0,j6=i
Beispiel 11.2:
Wir betrachten nun mehrere konkrete Beispiele für Lagrange-Polynome.
1. n = 3 Kubische Lagrange-Polynome: Wir wählen x0 = 1, x1 = 2, x2 = 3, x3 = 4
n
Y x − xj
Li (x) =
xi − xj
j=0,j6=i
3
Y x − xj x − x1 x − x2 x − x3
L0 (x) = = · ·
x0 − xj x0 − x1 x0 − x2 x0 − x3
j=0,j6=0
x−2 x−3 x−4 1
= · · = − (x − 2)(x − 3)(x − 4)
1−2 1−3 1−4 6
3
Y x − xj x − x0 x − x2 x − x3
L1 (x) = = · ·
x1 − xj x1 − x0 x1 − x2 x1 − x3
j=0,j6=1
x−1 x−3 x−4 1
= · · = (x − 1)(x − 3)(x − 4)
2−1 2−3 2−4 2
118
11.2. Interpolation
1.0 L0 L1 L2 L3
0.8
0.6
0.4
0.2
0.0
1.0 1.5 2.0 2.5 3.0 3.5 4.0
0.2
L2
1.5
L1
1.0
0.5
L0
0.5 0.5 1.0 1.5 2.0 2.5
0.5
1.0
Wie groß ist der Fehler, der bei der Interpolation von f durch p entsteht?
Satz 11.5:
f : [a, b] → R sei n + 1 mal stetig differezierbar, p ∈ Pn sei die Lösung der Interpolationsaufgabe (P) zu
den Knoten x0 , x1 , . . . , xn . Dann gilt für alle x ∈ [a, b]:
1
|f (x) − p(x)| ≤ max f (n+1) (s) · (b − a)n+1
(n + 1)! s∈[a,b]
119
11.3. Numerische Integration
In Worten heißt das insbesondere: “Der Fehler ist klein, falls die Intervallbreite h := b − a klein ist.”
Typischerweise ist das Intervall, für das man sich interessiert, allerdings fest vorgegeben und kann damit nicht
direkt beeinflusst werden. Es stellt sich somit folgende
Frage: Wie erreicht man, dass die Intervallbreite und damit auch der Fehler klein wird?
Mögliche Lösung:
1. Zerlege [a, b] in N Teilintervalle.
2. Interpoliere f auf den Teilintervallen durch Polynome pi ∈ Pn .
Durch ein derartiges Vorgehen erreicht man dass der Interpolationsfehler auf jedem Teilintervall klein ist klein.
Somit ist der Fehler auch insgesamt klein, genauer: ≤ Chn+1 . Allerings ist hier Vorsicht geboten
3.0
2.5
2.0
1.5
1.0
0.5
0.0
1.0 1.5 2.0 2.5 3.0
a x0 x1 t1 x2 x3 b
Die gesamte Interpolierende g setzt sich zusammen aus den einzelnen Teilen
und ist damit nicht unbedingt stetig! Stetigkeit kann erzeugt werden, indem der linke und rechte Rand der
einzelnen Teilintervalle als Knoten gewählt werden.
3.0
2.5
2.0
1.5
1.0
0.5
0.0
1.0 1.5 2.0 2.5 3.0 3.5 4.0
a t1 b
Idee: Ersetze f durch Interpolierende p und integriere diese. Verwende zur Interpolation Polynome, da diese sich
leicht integrieren lassen.
Beispiel 11.3:
Wir betrachten, wie die Integration funktioniert, falls als Interpolierende eine Konstante bzw. ein Polynom
ersten Grades verwendet wird.
120
11.3. Numerische Integration
a+b
1. n = 0, also p0 = P0 , d.h. p ist eine Konstante. Wähle x0 = 2
Z b Z b
a+b a+b
f (x) dx ≈ f dx = (b − a)f
a |{z} a 2 2
≈p(x)=f ( a+b
2 )
1.0
f(a +2 b )
0.8
0.6
0.4
0.2
0.0
1.0 1.5 2.0 2.5 3.0
a a+b b
2
2. n = 1, also p ∈ P1 . Wähle x0 := a, x1 := b
Z b Z b
f (a) + f (b)
f (x) dx ≈ p(x)dx = (b − a)
a |{z} a 2
≈p(x)
(“Trapezregel”)
1.0
0.8
0.6
0.4
0.2
0.0
1.0 1.5 2.0 2.5 3.0
a b
3. Verwendet man als Interpolierende ein allgemeines Polynome vom Grade n, so ergibt sich unter
Verwendung der Lagrange-Polynome:
n
X
p(x) = f (xj )Lj (x) ∈ Pn
j=0
Z b Z b
⇒ f (x) dx ≈ p(x)dx
a |{z} a
≈p(x)
Z n
bX n
X Z b
= f (xj )Lj (x)dx = f (xj ) Lj (x)dx
a j=0 j=0 a
n Z b
X 1
= (b − a) Lj (x)dx f (xj )
b
j=0 |
− a a
{z }
ωj
121
11.3. Numerische Integration
Satz 11.6: Rb
1
Für gegebene Knoten x0 , . . . , xn ∈ [a, b] erhalten wir mit der Wahl ωi := b−a a
Li (x)dx eine numerische
Integrationsformel, die exatk ist für Polynome mit grad ≤ n.
mit Intervallbreite h := b − a.
Beispiel 11.4:
Wir betrachten nun die entstehenden Fehler für n = 0, 1 2:
n = 0 Gemäß Satz 11.7 gilt:
Z
b
a + b Satz
f (x)dx − (b − a)f ≤ Ch0+2 = Ch2
2
a
Z
b
a + b
a+b
a + b
⇒ f (x)dx − (b − a)f = (b − a)f + O((b − a)3 ) − (b − a)f
2 2 2
a
∼ Ch3
n=2
a = 0, b=1
a+b 1
Knoten wählen wir bei x0 = a = 0, x1 = 2 = 2 und x2 = b = 1.
122
11.3. Numerische Integration
x − 12 x − 1
1
L0 (x) = = 2 x − (x − 1)
0 − 12 0 − 1 2
1
= 2 x2 − 12x − x + = 2x2 − 3x + 1
2
Z b Z 1
1
ω0 = (b − a) L0 (x)dx = 2x2 − 3x + 1dx =
a 0 6
2 2
L1 (x) = · · · = −4x + 4x ω1 =
3
1
L2 (x) = · · · = 2x2 − x ω2 =
6
L1
1.0 L0 L2
0.8
0.6
0.4
0.2
Z b
1 2 a+b 1
⇒ f (x)dx ≈ (b − a) f (a) + f + f (b)
a 6 3 2 6
Das ist die sog. “Kepler’sche Faßregel”. Gemäß Satz 11.7 gilt für den Integrationsfehler ≤ Ch2+2 .
Durch Ausnutzen der Symmetrie erhält man auch hier ein noch besseres Ergebnis: ≤ Ch5
123