Sie sind auf Seite 1von 3

1 Vektorräume Teil II

Definition: i) Zwei Vektoren ~a,~b ∈ Rn \{~0} sind parallel, wenn es ein λ ∈ R gibt, mit

~a = λ~b
ii) Der Nullvektor ~0 ist zu jedem Vektor ~a parallel (und steht auch senkrecht darauf, wegen ~a · ~0 = 0)
Bemerkung: Dies Definition ist subtiler, als es auf den ersten Blick scheint. Zumindest riecht sie nach
einer Reihe von Fallunterscheidungen.
Einfacher zu handhaben ist die folgende Definition:
Definition: Zwei Vektoren ~a,~b ∈ Kn heißen linear abhängig, falls gilt: Es gibt λ, µ ∈ K, nicht beide 0,
mit
λ~a + µ~b = ~0
Bemerkung:
Formal bedeutet dies:
∃λ, µ ∈ K : (λ 6= 0 ∨ µ 6= 0) ∧ (λ~a + µ~b = 0~)
oder äquivalent dazu:
∃λ, µ ∈ K : (λ~a + µ~b = ~0) ∧ ¬(λ = 0 ∧ µ = 0)
Das ist die Negation von
∀λ, µ ∈ K : λ~a + µ~b = ~0 ⇒ λ = 0 ∧ µ = 0
Zwei Vektoren ~a,~b sind also linear unabhängig, falls jede Linearkombination der ~0 nur die triviale sein
kann.
Definition (Verallgemeinerung): Die Vektoren ~v1 , . . . , ~vk ∈ Rn heißen linear unabhängig, falls für alle
λ1 , . . . , λk ∈ K gilt:
λ1~v1 + . . . + λk~vk = ~0 ⇒ λ1 = . . . = λk = 0
Ansonsten heißen ~v1 , . . . , ~vk linear abhängig.
Bemerkung: In der Physik wendet man manchmal den folgenden Trick an, um auchden R2 mit einem
x
Kreuzprodukt zu “versorgen”: Wir identifizieren den R mit den den Vektoren
2  y  ∈ R3 . Wir
0
wenden diesen Trick in der folgenden Begründung auf K und K n n + 1 an.
Satz: n + 1 Vektoren im K sind linear abhängig.
n
 
~a
Grund: Zu einem Vektor ~a ∈ Kn betrachten wir den Vektor ~aˆ ∈ Kn+1 , ~aˆ = den Vektor ~a um eine
0
Komponente erweitert.
Dann gilt offenbar
λ1~a1 + . . . + λk~ak = ~0 ⇔ λ1~aˆ 1 + . . . + λk~aˆ = ~0
Offenbar sind also die Vektoren ~ai genau dann linear abhängig/unabhängig, wenn es die Vektoren ~aˆ i
sind.
n = 1: Zwei “Vektoren” im R1 : Sind a, b ∈ K mit a = 0, so gilt 1 · a + 0 · b = 0 (analog für b = 0). Gilt
also a, b 6= 0, so ist a−1 a − b−1 b = 0. In allen Fällen haben wir also eine nichttriviale Linearkombination
der 0.
n → n + 1: Wir betrachten die n + 2 Vektoren ~a0 , . . . ,~an+1 ∈ Kn+1 .
ˆ
1. Fall: Sind alle letzten Komponenten der ~ai gleich 0, so gilt ~ai = ~bi für n = 0 . . . n + 1, ~bi ∈ Kn . Nun
sind die ~bi nach Induktionsvorraussetzung linear abhängig, also auch die ~ai .
2. Falls ist die n + 1−te Komponente eines Vektors, sagen wir ~an+1 6= 0 ist, können wir durch geeignete
Operationen
~a0 − α0~an+1 , . . . ,~an − αn~an+1
erreichen, daß diese Vektoren als letzte Komponente den Eintrag 0 haben. Das sind aber effektiv n + 1
Vektoren im Kn und somit linear abhängig.
Also gibt es λ0 , . . . , λn ∈ K (nicht alle λi = 0), mit

λ0 (~a0 − α0~an+1 ) + . . . + λn (~an − αn~an+1 ) = ~0,

also
λ0~a0 + . . . + λn~an − (λ0 α0 + . . . + λn αn )~an+1 = ~0

also eine nichttriviale Linearkombination der ~0.


Definition: n linear unabhängige Vektoren bilden eine Basis des Kn .
     
1 0 0
Beispiel: i) Die Vektoren  0 , 1 , 0  bilden eine Basis des K3
   
0 0 1
     
1 1 1
ii) Die Vektoren  0 , 1 , 1  bilden eine Basis des K3 .
   
0 0 1
       
1 1 1 0
Grund: λ1  0  + λ2  1  + λ3  1  =  0  bedeutet: λ3 = 0 ∧ λ2 + λ3 = 0 ∧ λ1 + λ2 + λ3 =
0 0 1 0
0, also λ1 = λ2 = λ3 = 0
Satz: Sei ~b1 , . . . ,~bn eine Basis von Kn . Dann gibt es zu jedem ~x ∈ Kn eindeutig bestimmte x1 , . . . , xn ∈
K, mit
~x = x1~b1 + . . . + xn~bn
Die xi heißen dann die Koeffizienten von ~x bzgl. der Basis ~bi .
Grund: Eindeutigkeit: Ist ~x = x1~b1 + . . . + xn~bn = y1~b1 + . . . + yn~bn so ist

~0 = ( x1 − y1 )~b1 + . . . + ( xn − yn )~bn

und daher, wegen der linearen Unabhängigkeit der ~bi : xi = yi für alle i = 1 . . . n.
Existenz: Nach obigem Satz, sind die n + 1 Vektoren ~b1 , . . . ,~bn , ~x ∈ Kn linear abhängig, also gibt es
λ1 , . . . , λn , λn−1 ∈ K (nicht alle 0), mit

λ1~b1 + . . . + λn~b0 + λn+1~x = ~0

Wäre λn+1 = 0 so hätten wir eine nichttriviale Linearkombination der ~bi , was wegen deren linearer
Unabhängigkeit nicht sein kann. Also ist λn+1 6= 0 und wir haben

1  
~x = − λ1~b1 + . . . + λn~bn
λ n +1

Beispiel: Sind ~u, ~v ∈ R3 linear unabhängig, so bilden ~u, ~v, ~u × ~v eine Basis des R3 .
Grund: Da ~u und ~v nicht auf einer Geraden liegen, spannen Sie ein echtes Parallelogramm auf. Daher
ist |~u × ~v| 6= 0.
Sei
λ1~u + λ2~v + λ3~u × ~v = ~0
Skalarprodukt bilden mit ~u × ~v liefert λ3 |~u × ~v|2 = 0, λ3 = 0 und

λ1~u + λ2~v = ~0

und hieraus, wegen der linearen Unabhängigkeit von ~u und ~v: λ1 = λ2 = 0.


Erinnerung: Ist ~a, ~v ∈ Kn , ~v 6= ~0 , so ist die Menge

G~a := {~a + λ~v|λ ∈ K}

eine Gerade durch ~a in Richtung ~v.


~ ∈ Rn linear unabhängig, so ist die Menge
Definition: Sind ~v, w

~ = { a~+ λ~
E~a,~v,w ~ |λ, µ ∈ K}
v + µw

eine Ebene im Rn .
Lemma: Sind ~u, ~v ∈ R3 linear unabhängig, so sind und gilt für w ~ ∈ R3 : w~ ⊥ ~u ×~v, so ist w
~ = λ1~v + λ2 w
~
Grund: Da ~u, ~v, ~u × ~v eine Basis sind, gibt es xi ∈ R, mit w
~ = x1~u + x2~v + x3~u × ~v. Das Skalarprodukt
bilden mit ~u × ~v liefert x3 = 0 , also die Behauptung.
Folgerung: Sind ~u, ~v ∈ K3 linear unabhängig, so gilt:

w ∈ K3 |~
{~ w ⊥ (~u × ~v)} = E~0,~u,~v

Anwendung: Eine Ebene durch ~0 im R3 ist also beschrieben als die Menge aller Lösungen von

~n · ~x = 0
 
a
~
für einen Normalenvektor b =  b .
c
Oder anders gesagt, die Lösungsmenge von

ax + by + cz = 0

Ist die Ebene nicht vertikal (also c 6= 0) können wir diese Gleichung auflösen:
a b
z = − x− y
c c
also von der Gestalt:
z = αx + βy
Die Streichlinie ist dann definiert als die Lösungsmenge im R2 von

αx + βy = 0

was offensichtlich eine Gerade im R2 definiert. Offensichtlich findet entlang dieser Geraden keinerlei
Steigung statt.
Definition: Seien α, β ∈ R. Die Funktion f : R2 → R sei definiert durch

f ( x, y) = αx + βy
 
e1
Sei ~e = ∈ R2 ein Einheitsvektor. Dann ist die Steigung von f in Richtung ~e die Differenz
e2

f (~e) − f (~0) = f (~e) = αe1 + βe2


 
α
Lemma: Ist ~a = und f wie oben, so ist die Steigung am stärksten in Richtung von ~a und das
β
Gefälle in Richtung von −~a
Grund: Die Steigung ist
~a ·~e = cos (∠(~a, ~e)) |~a|
Da der Kosinus zwischen 1 und −1 liegt (bei 0 und π), folgt die Behauptung.