Sie sind auf Seite 1von 10

Mathematische Methoden der theoretischen Physik

1.Test-Theorie

Endlich-dimensionale Vektorräume
Wozu dient das Gram-Schmidt Verfahren? Erfinden Sie ein beliebiges (nichttriviales)
Beispiel in zwei oder mehr Dimensionen, und rechnen Sie es durch.
Finden einer orthogonalen Basis ausgehend von nichtorthogonalen Basen:
Das Gram-Schmidt Verfahren ist eine systematische Methode für die Orthonormalisierung
eines Sets von Vektoren in einem Raum, auf dem ein Skalarprodukt definiert ist.
Man nimmt eine endliche, linear unabhängige Menge von Basisvektoren und generiert
daraus eine orthonormale Basis, die denselben Raum aufspannt, wie die ursprüngliche Basis.

{x1,x2,...,xn} ursprüngliche Basis


{y1,y2,...,yn} orthonormale Basis

Danach noch durch die Norm dividieren um auf Einheitsvektoren zu kommen und eine
orthonormale Basis zu erhalten.

Bsp. siehe Linalg Skriptum s.95/96

Was ist der Dualraum eines Vektorraums?


Jeder Vektorraum B hat einen zugehhörigen dualen Vektorraum, der aus allen linearen
Funktionalen von B besteht.
Ein lineares Funktional definiert auf einem Vektorraum B ist eine skalare lineare Funktion y,
die für jeden Vektor xϵB definiert ist, mit der linearen Eigenschaft

Für ein Funktional verwenden wir [ , ]

Ein dualer Raum ist identisch mit einem linearen Vektorraum (arithmetische Operationen
mit Addition und Multiplikation und das Nullargument („Nullfunktional“) sind definiert), nur
dass die „Vektoren“ mit Funktionalen identifiziert sind.

Was ist eine duale Basis, und wie berechnet man diese im Falle (i) einer orthonormalen
Basis; (ii) einer orthogonalen Basis; und (iii) einer nichtorthogonalen Basis?
Jeder Vektorraum hat einen zugehhörigen dualen Vektorraum, der aus allen linearen
Funktionalen dieses Vektorraumes besteht.
Jetzt wird eine duale Basis oder reziproke Basis definiert.
Wenn B ein n-dimensionaler Vektorraum ist mit B={f1,f2,...,fn}, dann ist die eindeutige duale
Basis dazu B*={f1*,….fn*} mit der Eigenschaft:
[fi,fj*]=δij

Wobei δ für die Kronecker Delta Funktion steht.

Allgemeiner:
g(fi,fj*)=δij = < fi,fj*>
wobei g für den metrischen Tensor steht.
fj* wird meistens als fj geschrieben.

(i) Die duale Basis einer orthonormalen Basis:


fj*= fiT
(ii) Die duale Basis einer orthogonalen Basis ist auch orthogonal und beinhaltet
Vektoren mit derselben Richtung und reziproker Länge.
(iii) Nichtorthogonal:

Oder Zeilen und Spalten jeweils umgekehrt.

Wie kann man Elemente der dualen Basis aus den Basisvektoren ermitteln? Welche
Konsequenzen hat es für die duale Basis, wenn die zugrundeliegende Basis (i) orthogonal
(ii) orthonormal ist?
Siehe Frage davor.

Was sind „gegenseitig unvoreingenommene Basen“ (Synonym „Gegenseitig


ergebnisoffene Basen“, Englisch: Mutually unbiased bases)? Geben Sie im
zweidimensionalen euklidischen Raum ein Beispiel.
Zwei orthonormale Basen B={e1,e2,...,en} und B´={f1,f2,...,fn} werden gegenseitig
unvoreingenommen genannt, wenn ihr inneres Produkt:

Für alle 1 ≤i, j≤n

Beispiel: zu der euklidischen Basis {(0,1),(1,0)} erhalten wir als eine dazu
unvoreingenommene Basis:

(i)Was ist eine unitäre Transformation?

Was gleichbedeutend ist mit:

(ii) Geben Sie eine nichttriviale (≠E) unitäre Matrix an.

(iii)Was ist eine hermitische Transformation?


Selbstadjungierte Transformation:
A*=A

In reellen Prähilberträumen heißen selbstadjungierte Operatoren „symmetrisch“, da sie im


Sinne der Transposition symmetrisch sind.
A*=AT =A

In komplexen Prähilberträumen heißen selbstadjungierte Operatoren „hermitisch“, da sie im


Sinne der hermitischen Konjugation identisch sind.

A*=AϮ =A

(iv) Geben Sie eine nichttriviale (≠E) hermitische Matrix an.


oder auch die Pauli Matrizen, siehe Übung.

(i) Was ist eine normale Transformation?


Eine Transformation A wir „normal“ genannt wenn sie mit ihrer adjungierten kommutiert.
[A,A*]=A A*- A*A=0

Hermtische und unitäre Transformationen sind normal.

(ii) Was ist das Eigensystem eines normalen Operators?


Ein Skalar λ ist ein Eigenwert und ein Vektor x, der nicht Null ist, ein Eigenvektor einer
linearen Transformation, wenn
Ax= λx

Das Eigensystem zu A wird aus den Eigenwerten und Eigenvektoren {{λ1,λ2,...,λk},{x1,x2,...,xn}}


gebildet.

Gefunden werden die Eigenwerte indem man folgende Gleichung löst:


det(A- λ*I)=0

Beschreiben Sie den Spektralsatz für normale Operatoren.


Sei V ein n-dimensionaler Hilbertraum.
Jeder normale Operator hat eine Zerlegung, sodass es ein Spektrum λ1,λ2,...,λk ϵ R aus
Eigenwerten, sowie dazugehörige orthogonalee Projektoren E1,E2,...,Ek, wobei 0<k≤n, sodass
(i) Die λi sind paarweise verschieden
(ii) Die Ei sind paarweise orthogonal und verschieden von 0

Tensoren
Was ist ein Tensor?
Tensoren sind definiert als Multilinearformen auf Vektorräumen. Ein Tensor ist also eine
Multilinearform von Vektoren, die in einem Raum definiert ist. Ein Tensor ist definiert durch
seine Koordinaten auf ein Basissystem bezogen. Jedes Argument einer Multilinearform

genügt der folgenden Beziehung:

Tensorfelder hingegen definieren Tensoren in jedem Punkt von ℝn separat. In Bezug auf eine
Basis hängen die Komponenten eines Tensors von seinen Koordinaten ab.

Welche Funktion hat der metrische Tensor, und wie ist er definiert?
Metrische Tensoren sind in metrischen Vektorräumen definiert. Ein metrischer Vektorraum
(Vektorraum mit Metrik/Geometrie) ist ein Vektorraum mit innerem oder Skalarprodukt.
Eine Metrik g ist ein Funktional mit den folgenden Eigenschaften:
g ist symmetrisch:
g ist bilinear:
g ist nicht degeneriert; d.h. für jedes existiert ein sodass
Der metrische Tensor wird dazu benutzt Indizes nach oben oder unten zu
schieben also kovariant in kontravariant und umgekehrt zu ändern.
In euklidischen Räumen mit Skalarprodukt repräsentiert der metrische Tensor das
Skalarprodukt zwischen Vektoren.
Er charakterisiert außerdem die Länge eines Vektors.

Was bedeutet „Forminvarianz“ von Tensoren in Bezug auf eine gewisse Transformation?
Gibt es einen nichttrivialen Tensor, welcher forminvariant in Bezug auf alle linearen
Transformationen ist?
Ein Tensor(feld) ist forminvariant in Bezug auf eine gewisse Transformation, wenn sich seine
analytische Form nicht mit dem Bezugssystem-/Basiswechsel ändert. Funktionen bleiben
also gleich, aber haben die neuen Parameter Komponenten als Argumente.
Total symmetrische (antisymmetrische) Tensoren bleiben total symmetrisch
(antisymmetrisch) in allen Fällen.
Kronecker-Delta ist forminvariant in Bezug auf alle linearen Transformationen:

(i) Was ist ein symmetrischer Tensor?


Für einen symmetrischen Tensor gilt: Sabc…=Sbac…

(ii) Geben Sie ein Beispiel für einen symmetrischen Tensor.


Kronecker-Delta-Funktion

(iii) Was ist ein antisymmetrischer Tensor?


Für einen antisymmetrischen Tensor gilt: Sabc…= - Sbac…

(iv)Geben Sie ein Beispiel für einen antisymmetrischen Tensor.


Levi-Civita Symbol

Distributionen als verallgemeinerte Funktionen


(i) Motivieren Sie die Einführung der Distributionen.
In der Physik treten Diskontinuitäten auf, beispielsweise in der Form eines unendlich langen
elektromagnetischen Pulses. Dieser kann durch die Heaviside Funktion beschrieben werden.
Objekte wie |x|, H(t) oder δ(t) mögen vielleicht intuitiv als „Funktionen“ verstanden werden,
aber ihre n-te Derivierte können nicht geradewegs definiert werden.
Um also mit einer formal präzisen Definition und Ableitung von (unendlichen) Puls
Funktionen umgehen zu können und diese zu erreichen, wurde die Theorie der
Distributionen entwickelt.
(ii) Welche Formen der Testfunktionen im Distributionskontext kennen Sie?
Klasse I:

Klasse II:

mit und :
Wenn eine gute Testfunktion ist, dann ist auch mit einem beliebigen
Polynom , und insbesondere eine gute Testfunktion.

Klasse III:
Diese besondere Klasse hat die Eigenschaft, dass sie für große Argumente „ausreichend
schnell“ verschwindet, aber ungleich Null für beliebige endliche Argumente sind. Sie sind in
der Lage Fouriertransformationen von verallgemeinerten Funktionen auszuführen (tempered
distributions).
Ein Beispiel hierfür wäre die Gauß-Funktion:

Klasse IV:
Wenn die verallgemeinerten Funktionen „ausreichend konzentriert“ sind, sodass sie also
selbst gewährleisten, dass die Terme sowie verwischen, dann
müssen wir als einzige Anforderung an die Testfunktion stellen, dass sie unendlich oft
differenzierbar, also in C∞ liegt. Ein Beispiel hierfür wäre die Deltafunktion.

Wann ist eine Testfunktion im Distributionskontext „gut“, das heißt welche Eigenschaften
sollte eine Testfunktion haben?
2 Hauptanforderungen an „gute“ Testfunktionen:
 sie müssen im Unendlichen „ausreichend“ verschwinden, z.B dadurch, dass sie einen
kompakten Träger besitzt
sie müssen beliebig oft stetig differenzierbar sein;

Was ist eine Deltafolge, und wie beweist man, dass eine Folge eine Deltafolge ist?
Die Deltafolge ist eine Folge von „spitzgepeakten“ Funktionen, für die in gewissen Grenzen
die Folgen zur Delta Funktion werden.
Das heißt für die im funktionalen Sinn gilt: fn(x)= δ(x)

Das Deltafunktional wertet die Testfunktion an der Stelle 0 aus:

Oder:

bzw.

Der Beweis erfolgt durch Anwenden auf eine Testfunktion und Anwenden von bzw. .

Geben Sie eine beliebige (nichttriviale) Deltafolge an, und beweisen Sie diese Eigenschaft.
Siehe Übung Bsp. 6.2.a

Vielleicht wichtiges:
Lineare Transformation
A(αx+βy)=αA(x)+βA(y)
für alle Vektoren x,y und Skalare α,β

Transformationen werden oft durch Transformationsmatrizen, welche in Bezug auf eine


bestimmte Basis definiert sind, dargestellt.

Projektor
Eine lineare Transformation ist ein Projektor, wenn gilt:
EE=E≠0 ….Idempotenz

Konstruieren kann man einen Projektor aus einem Einheitsvektor indem man das
Tensorprodukt des Vektors und des transponierten Vektors bildet.

Adjungiert
B ist ein Vektorraum und y ein Element seines Dualraums B*.
Für jede Transformation A betrachten wir das bilineare Funktional y´(x)=[x,y´]=[Ax,y]
Die adjungierte Transformation AϮ ist definiert durch
In Matrixnotation ist die adjungierte Transformation die Transponierte von der Komplex-
konjugierten der orginalen Matrix.

Positive Transformation
Eine lineare Transformation A in einem Prähilbertraum B ist positiv, A≥0, wenn sie
selbstadjungiert ist und <Axǀ x> ≥ 0 für alle x ϵ B.

Wenn <Axǀ x> = 0 voraussetzt, dass x=0, dann ist A strikt positiv.

Orthonormale Transformation
Eine orthonormale Transformation R ist eine lineare Transformation, deren quadrierte
Matrix R reelle Elemente und gegenseitig orthogonal, normierte Reihen Vektoren hat.
Als Konsequenz gilt:
RRT=RTR=E oder R-1=RT

Wenn det R =1, stellt R eine Drehung dar, wenn det R=-1, eine Drehung und Reflexion.

Sie sind reelle Fälle von den allgemeineren unitären Transformationen.

Permutation (-smatrix)
Permutationen (Permutationsmatrizen) sind das klassische Gegenstück zur unitären
Transformation(smatrix).
Sie sind dadurch definiert, dass sie nur einen einzigen Eintrag „1“ pro Zeile und Spalte haben
und alle anderen Koeffizienten 0 sind.
Beispiel: Die Einheitsmatrix oder die erste Pauli Matrix.

Komposition der Spektralform


Wenn das Spektrum eines hermitischen (allgemeiner normalen) Operators A nicht
degeneriert ist (k=n), dann kann der i-te Projektor als dyadisches oder Tensorprodukt des i-
ten Eigenvektors ausgedrückt werden. (siehe Projektor)
In diesem Fall ist die Menge der normierten Eigenvektoren eine orthonormale Basis des
Vektorraums B.
Wenn das Spektrum von A degeniert ist, dann kann der Projektor orthogonal zur Summe der
zu den Eigenvektoren gehörenden Projektoren gewählt werden.

Außerdem existiert zu jedem hermitischen (normalen) Operator A, wenn 1≤i≤k, ein Polynom
mit reellen Koeffizienten.
Tensorprodukt
Das Tensorprodukt hat 3 gleichwertige Darstellungsarten:

(i) Als die skalaren Koordinaten xiyj bezogen auf eine Basis, in welcher x und y
definiert und dargestellt sind.
(ii) Als quasi-Matrix, auch dyadisches Produkt genannt, zij=xiyj, dessen Komponenten
bezogen auf eine Basis definiert sind, in welcher x und y definiert und dargestellt
sind.

(iii) Als quasi-Vektor oder „flache Matrix“ definiert durch das Kronecker Produkt.

Wieder sind die skalaren Koordinaten xiyj bezogen auf eine Basis, in welcher x und
y definiert und dargestellt sind. (allgemeine Form des Tensorproduktes)

Ableitung von Distributionen


Mit Hilfe der partiellen Integration und einer „guten“ Testfunktion gelangen wir zu
folgenden Formeln
F´[ϕ]=-F[ϕ´]

F(n)[ϕ]=(-1)(n)F[ϕ(n)]

Fourier Transformation von Distributionen

Cauchy Hauptwert
(laut Wiki: Wert, den man einem divergenten Integral zuordnen kann, wenn sich divergente
Teile verschiedenen Vorzeichens gegenseitig aufheben.)

Wenn c eine Singularität von f(x) ist:


+ siehe Skriptum:
verschiedene Fälle von Distributionen und Funktionen wie z.B.: H(X) (ab S. 163)
Genauso wie nützliche Formel mit δ(x) oder H(x) etc.
oder Formeln zur Transformation von ko- und kontravarianten Vektoren oder Tensoren.

Das könnte Ihnen auch gefallen