Sie sind auf Seite 1von 27

Kurzzusammenfassung der numerischen Methoden II und Anwendungsbeispiele fur¨ Matlab und C++

Tobias Holzmann

Tobias.HolzmannHolzmann-cfd.de

13. August 2016

Inhaltsverzeichnis

1 Numerische Methoden II

 

2

1.1 Finite-Differenzen Methoden

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

2

1.2 Finite Elemente .

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

8

1.3 Einteilung der Probleme

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

12

1.4 Behandelte Probleme .

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

13

1.5 Rechensterne fur¨

1D Probleme

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

13

2 Diffusionsgleichung in Matlab

 

17

3 Gray-Scott-Modell

19

4 Anwendung der Numerischen Methoden II auf das AFC Projekt

 

22

1

1 Numerische Methoden II

Wie, was, warum? Fur¨ was sind numerische Methoden gut? In vielen naturwissenschaftlichen Bereichen sind physikalische Gesetze und Zusammenh¨ange durch partielle Differenzialgleichungen gegeben. Vereinzelt k¨onnen analytische L¨osungen ge- funden werden, sofern Vereinfachungen und Annahmen getroffen werden. Allgemein sind diese Gleichungen jedoch nur numerische l¨osbar, weshalb numerische Methoden verwendet werden mussen.¨ Beispiele fur¨ die Anwendung numerischer Methoden:

Maxwell-Gleichungen; siehe Vorlesung Magnetohydrodynamik bei Dr. Abdellah Kharicha am Lehrstuhl SMMP

Navier-Stokes-Gleichungen; siehe Vorlesung Grundlagen der numerischen Str¨omungsimulation bei Prof. Dr. Andreas Ludwig am Lehrstuhl SMMP

Flamelet-Gleichungen, Verbrennungslehre

Chemische Reaktionsgleichungen (Katalyse)

Alle in dieser Vorlesung besprochenen Problemstellungen

usw.

Betrachtet man diverse partielle Gleichungen und Problemstellungen kann festgehalten wer- den, dass alle Gleichungen einen ¨ahnlichen Charakter haben. Allgemein werden die Probleme in drei Kategorien eingeteilt:

Parabolische Probleme

Hyperbolische Probleme

Eliptische Problem

Je nachdem was fur¨ Probleme gel¨ost werden, mussen¨ bestimmte Kriterien beachtet werden. Beispielsweise mussen¨ fur¨ parabolische Probleme die lokalen Fourier Zahlen und fur¨ hyperbo- lische Probleme die lokalen Courant-Friedrichs-Lewis Zahlen (oder einfach Courant Zahl) in bestimmten Wertenbereichen liegen; die Wertebereiche sind auch abh¨angig von der r¨aumlichen Betrachtung (1D, 2D oder 3D).

1.1 Finite-Differenzen Methoden

Herleitungen von Finiten-Differenzen Methoden k¨onnen anhand mehrerer Schematas durch- gefuhrt¨ werden. Im Klartext werden die partiellen Differenzialgleichungen mithilfe von Diffe- renzengleichungen approximiert. Es gibt verschiedene Approximationen wie beispielsweise die Vorw¨arts-, Ruckw¨ ¨arts- oder Zentraldifferenz. Ein Beispiel einer Diskretisierung fur¨ eine Funk- tion φ(x) ist nachfolgend gegeben. Zwei Hinweise:

2

Partielle Differenzengleichungen haben eine Gultigkeit¨ im ganzen Kontinuum; Differen- zengleichungen jedoch nur an diskreten Punkten

Mithilfe eines Kontrollvolumens dV k¨onnen anhand Differenzengleichungen partielle Diffe- renzialgleichungen hergeleitet werden; Herleitungen aller relevanten Str¨omungsgleichungen mit dieser Methode k¨onnen in [Holzmann] eingesehen werden.

Grafische Herleitung

Abbildung 1.1 zeigt die Diskretisierung der Funktion φ(x). Bei der Diskretisierung gibt es zwei Varianten a) ¨aquidistante Gittermaschenweite (wie hier gezeigt); b) nicht-¨aquidistante Gitter- maschenweite. Letzteres wird oft dann verwendet, wenn die Funktion lokal große Gradienten aufweist, um eine eine genauere Aufl¨osung der Gradienten zu erzielen. [Ferziger] beschreibt zudem die Reduzierung numerischer Fehler durch Verwendung nicht ¨aquidistante Gitterma- schenweite.

y φ i−1 φ i φ(x) φ i−1 φ i+2 φ i−2 x i −
y
φ i−1
φ i
φ(x)
φ
i−1
φ i+2
φ i−2
x
i − 2
i − 1
i i + 1
i + 2

Abbildung 1.1: R¨aumlich Diskretisierung

Muss nun der Funktionswert der ersten oder zweiten Ableitung im diskreten Punkt i berechnet werden, hat man verschiedene M¨oglichkeiten.

∂φ i ∂x

2 φ ∂x 2

i

Die erste Ableitung ist lediglich die Steigung der Funktion φ(x). Betrachten wir die lokale Diskretisierung im Punkt i, so stellt die erste Ableitung die Tangente in diesem Punkt i zur Funktion φ(x) dar. Die zweite Ableitung stellt geometrisch die Neigung der Tangente zur Kurve, die die erste Ableitung darstellt, dar. In Abbildung 1.1 sind drei verschiedene Approximationen um den Punkt i dargestellt:

Grun:¨

Ruckw¨

¨artsdifferenz

Gestrichelt: Vorw¨artsdifferenz

Rot: Zentraldifferenz

3

Wie erkennbar ist, stellt hier die Zentraldifferenz die genaueste Approximation der Steigung der Tangente im Punkt i dar. Zudem ist offensichtlich, dass durch Gittermaschenweitenreduzierung die Approximationen genauer werden. Ausgehend von der geometrischen Betrachtung k¨onnen folgende Approximationen hergeleitet werden.

Ruckw¨

¨artsdifferenz:

Vorw¨artsdifferenz:

Zentraldifferenz:

∂φ

∂x

∂φ

∂x

i

i

φ i φ i1 x i x i1

φ i+1 φ i x i+1 x i

∂φ

∂x

i

φ i+1 φ i1 x i+1 x i1

(1.1)

(1.2)

(1.3)

Die zweite Ableitung direkt zu diskretisieren ist nicht m¨oglich [Ferziger]. Dies kann nur durch die

zur Hilfenahme der ersten Ableitungen durchgefuhrt¨ werden. Hierbei k¨onnen wieder verschie- dene Approximationen hergeleitet und verwendet werden. Allgemein kann die zweite Ableitung wie folgt hergeleitet werden:

2 φ ∂x 2

i

∂φ i ∂φ

∂x

∂x

i1

x i x i1

(1.4)

Je nach dem wie i und i 1 definiert werden, wird die Vorw¨arts-, Ruckw¨

ferenz der zweiten Ableitung erhalten. Da wir die Diskretisierung der zweite Ableitung durch zur Hilfenahme der erste Ableitung durchfuhren,¨ nennt man die Diskretisierung der zweiten Ableitung, ¨außere Diskretisierung, und die Diskretisierung der ersten Ableitung, innere Dis- kretisierung. Die Unterscheidung ist wichtig, da fur¨ die innere und ¨außere Diskretisierungen verschiedene Diskretisierungsmethoden verwendet werden k¨onnen. Ein beispiel w¨are wie folgt:

¨arts- und Zentraldif-

Approximation der zweiten Ableitung via Zentraldifferenzen

Approximation der ersten Ableitung via Vorw¨arts- und Ruckw¨

¨artsdierenz

Dies wurde¨

wie folgt aussehen:

∂φ

∂x

i+1 ∂φ i1

∂x

2 φ ∂x 2

∂φ

i

i1

∂x

x i+1 x i1

φ i φ i1 x i x i1

∂φ

∂x

i+1

φ i+1 φ i x i+1 x i

(1.5)

(1.6)

(1.7)

Hier ist die erste Ableitung im Punkt i 1 durch eine Vorw¨artsdifferenz und im Punkt i + 1 durch eine Ruckw¨ ¨artsdierenz approximiert. Die zweite Ableitung im Punkt i wird durch eine Zentraldifferenz approximiert. Naturlich¨ ist es auch m¨oglich die ersten Ableitungen durch eine Zentraldifferenz darzustellen. Dies wurde¨ allerdings bedeuten das wir weitere Punkte miteinbe- ziehen, da eine Zentraldifferenz im Punkt i 1 die Punkte i und i 2 beinhaltet. Eine bessere Alternative ist es, die ersten Ableitungen in den Punkten i1 2 und i+ 2 zu berechnen [Ferziger]. Diese Methode wird sp¨ater zur Herleitung der Zentraldifferenz Approximation fur¨ die zweite Ableitung fur¨ nicht-¨aquidistante Gittermaschenweite verwendet.

1

4

Taylor-Reihen Entwicklung

Anstelle der grafischen Herleitung ist es systematischer die Herleitung der Differenzen Appro- ximationen mittels der Taylor-Reihe durchzufuhren.¨ Entwickelt man die Taylor-Reihe in der N¨ahe vom Punkt x i folgt:

φ(x) = φ(x i ) + (x 1! x i ) 1

∂φ

∂x

i

+ (x x i ) 2

2!

+ (x x i ) 3

3!

2 φ

∂x 2

3 φ ∂x 3

i

i

+

(x x i ) n n!

n φ ∂x n

i

Terme hoeherer Ordnung O

(1.8)

Bricht man nun nach der ersten Ableitung ab (Abbruchfehler), erh¨alt man:

φ(x) = φ(x i ) + (x 1! x i ) 1

∂φ

∂x

i

+ O

(1.9)

wobei O der Abbruchfehler darstellt. Stellt man nun nach der ersten Ableitung um

∂φ

∂x

i

= φ(x) φ(x i ) x x i

+

x x i

O

(1.10)

und vernachl¨assigt die Terme h¨oherer Ordnung O, erh¨alt man folgenden Ausdruck:

∂φ

∂x

i

φ(x) φ(x i ) x x i

(1.11)

Je nach dem welche Beziehung man fur¨ x und x i einsetzt erh¨alt man die oben genannten drei Approximationen. Der große Vorteil ist, die Ausnutzung h¨oherer Terme. Beispielsweise kann die erste Ableitung genauer betrachtet werden, wenn Terme h¨oherer Ordnung miteinbezogen werden. Ein Beispiel w¨are:

∂φ

∂x

i

φ(x i ) φ(x i1 )

x i x i1

x i x i1

2

2 φ

∂x 2

i

(x i x i1 ) 2

3 φ

∂x 3

6

i

(1.12)

Allerdings ist hier die Notwendigkeit gegeben, dass die Terme h¨oherer Ordnung approximiert werden mussen.¨ Ein weiterer Vorteil der Taylor-Reihen-Entwicklung ist die Betrachtung des Abbruchfehlers, auf den sp¨ater n¨aher eingegangen wird. Hier wird zudem offensichtlich, wieso die erste Ableitung fur¨ die Diskretisierung der zweiten Ableitung notwendig wird.

Polynomansatz

Eine weitere M¨oglichkeit die Approximation der Ableitung darzustellen, ist die Anpassung ei- ner Interpolationsfunktion. Hierbei muss die Interpolationsfunktion an die Variablenwerte in einigen Gitterpunkten angepasst und anschließend differenziert werden (je nach Betrachtung der Ableitungsordnung). Wird eine lineare Interpolationsfunktion verwendet, erh¨alt man die Vorw¨arts-, Ruckw¨ ¨arts- oder Zentraldifferenz-Approximation. Einige weitere Ans¨atze sind in [Ferziger] gegeben. Wird beispielsweise eine Parabel durch die Werte i 1, i und i + 1 gelegt, erh¨alt man nach l¨angerer Herleitung die Approximation der ersten Ableitung als:

∂φ

∂x

i

=

φ i+1 (∆x i ) 2 φ i1 (∆x i+1 ) 2 + φ (∆x i+1 ) 2 (∆x i ) 2 x i+1 x i (∆x i + ∆x i+1 )

5

(1.13)

Naturlich¨

Approximation.

reduziert sich diese Gleichung bei ¨aquidistanter Maschenweite zur Zentraldifferenz-

Abbruchfehler und Diskretisierungsfehler

Mithilfe der Taylor-Reihen Entwicklung kann eine Absch¨atzung des Abbruchfehlers (Abschei- defehler, truncation error) get¨atigt werden. Wie der Name schon sagt, ruhrt¨ er daher, dass Terme vernachl¨assigt werden (Diskretisierungsfehler). Approximiert man die erste Ableitung der Funktion φ(x) = sin(x) durch eine Aufwind-Differenz, folgt darauß:

∂φ

∂x

i

φ(x i ) φ(x i1 )

x i x i1

x i x i1

2

2 φ

∂x 2

i

(x i x i1 ) 2

3 φ

∂x 3

i

6

+ O

Abbruch Terme

(1.14)

Da bei h¨oheren Termen die Gittermaschenweite zur h¨oheren Potenz steht, werden diese Ver- nachl¨assigbar klein, sodass im Allgemeinen der erste fehlende Term die Fehlerdominanz be- stimmt. Hier also die zweite Ableitung. Es folgt:

x i x i1

2

2 φ

∂x 2

i

= x i x i1

2

sin(x i )

(1.15)

Die zweite Ableitung von φ(x) = sin(x) φ(x) = sin(x). Im Vorlesungsbeispiel wurde sin(x) an der Stelle x = 1 evaluiert. Der Abbruchfehler der hier abgesch¨atz wird ist:

x i x i1

2

sin(x i ) = x i x i1 sin(x i ) = 0.1 sin(1) = 0.042073

2

2

Es ist offensichtlich das der Fehlerbeitrag der dritte Ableitung eine Zehnerpotenz kleiner ist, als die der Zweiten. Damit ist begrundet,¨ wieso Terme h¨oherer Ordnung keine große Rolle in der Fehleranalyse darstellen. Als weiteres Beispiel wird die Funktion φ(x) = e x verwendet. Wird eine Vorw¨arts- oder Ruckw¨ ¨artsdierenz fur¨ die Approximation der ersten Ableitung verwendet, fuhrt¨ dies wieder zum Sachverhalt, dass der Abbruchfehler proportional der zweiten Ableitung ist. Evaluiert man den Funktionswert bei φ(1) folgt:

φ(x) = e x φ(x) = e x

Bei einem Gitterabstand von 0.1 folgt ein Abbruchfehler von:

φ(1) = 0.1 exp(1) = 0.13591

2

Verwendet man ein Zentraldifferenzenverfahren, so verschwindet die zweite Ableitung (Vorw¨arts- und Ruckw¨ ¨artsdierenzen haben unterschiedliche Vorzeichen alle ungeraden Potenzen in der Taylor-Reihe verschwinden; ¨aquidistante Gittermaschenweite). Demnach ist der erste Abbruch- term in der Zentraldifferenz Approximation proportional zur dritten Ableitung.

φ(1) = 0.1

3

12 exp(1) = 0.0002265

Wie zu sehen ist, erh¨alt man bei Verwendung der Zentraldifferenz Approximation wesentlich klei- nere Abbruchfehler und damit ist das Ergebnis genauer. In anderen Worten, bei gleicher Gitter- maschenweite ist die Approximation um drei Zehnerpotenzen genauer verglichen zur Vorw¨arts- oder Ruckw¨ ¨artsdifferenz. Hinweis: Es ist nicht immer die Regel, dass h¨ohere Approximationsordnungen genauere Er- gebnisse liefern. Daher wurde zu beginn der Vorlesung darauf hingewiesen, dass der theoretische Unterbau der Finiten-Differenzen, verglichen mit denen der Finiten-Elementen, sehr lau ist.

6

L¨osen des algebraischen Gleichungssystems (der Differenzengleichungen)

Fur¨ jeden diskreten Punkt erhalten wir ein Gleichungssystem mit den approximierten Diffe- renzialgleichungen. Wir erhalten also ein Satz Gleichungen die genau der Anzahl der diskreten Punkte entspricht. In einer Gleichung sind Informationen vom diskreten Punkt i und dessen Nachbaren enthalten. Das zu l¨osende System wird oft wie folgt dargestellt:

Ax = b

(1.16)

Hier stellt b ein Quellterm, x den L¨osungsvektor und A die zu l¨osende Matrix dar. Die L¨osung des Matrixproblems k¨onnte direkt mit der Inversen gefunden werden. Diese zu fin- den ist jedoch oft schwer, mit hohem Aufwand verbunden oder kann uberhaupt¨ nicht gefunden werden. Anstelle die Inverse zu finden, k¨onnen andere Methoden zum L¨osen des Matrixproblems verwendet werden. Allgemein teilt man diese Methoden in direkte oder iterative (numerische) Methoden ein. Hier ist die Vorlesung Matrix Algebra bei Prof. Dr. Arnold R. Kr¨auter zu emp- fehlen.

Numerische Fehler

Da beim L¨osen des Matrixproblems Zahlenwerte berechnet werden, die oft sehr viele Nach- kommastellen aufweisen und diese aufgrund der Genauigkeit der Rechners abgeschnitten und

aufgerundet werden, werden diese Fehler als numerische Fehler bezeichnet. Schlusselw¨ ¨orter:

C++, float, double,

Genauigkeit, Mantisse etc.

Konsistenz

Konsistenz bedeutet, dass fur¨

zengleichungen gegen die exakte partielle Differenzialgleichung l¨auft. Der Fehler zwischen beiden wird (wie schon beschrieben) als Abbruchfehler bezeichnet.

gegen Null strebende Gitterabst¨ande die diskretisierten Differen-

Stabilit¨at

Eine numerische L¨osungsmethode wird als Stabil bezeichnet, wenn die Fehler die w¨ahrend des L¨osungsprozesses des Gleichungssystems auftreten nicht angefacht werden. Fur¨ zeitabh¨angige Probleme garantiert die Stabilit¨at, dass die verwendete Methode immer eine beschr¨ankte L¨osung liefert solang die exakte L¨osung auch beschr¨ankt ist [Ferziger]. Fur¨ iterative Methoden (vor allem fur¨ station¨are Probleme), bedeutet Stabilit¨at, dass die L¨osung nicht divergiert. Die Stabilit¨at ist eng mit den Eigenwerten der zu l¨osenden Matrix A verbunden. Sind einige Eigenwerte > 1, folgt, dass sich der Fehler aufschaukelt. Sind die Eigenwerte hingegen < 1, wird abklingen. Das eigentliche Problem bei der Stabilit¨atsuntersuchung ist die Findung der Eigenwerte der Matrix A. Alternativ ist es m¨oglich die Eigenwerte durch die komplexe Exponentialform:

(1.17)

auszudrucken¨ (von Neumann Methode). α repr¨asentiert die Wellenzahl, σ wurde in der Vor- lesung mit ξ bezeichnet und stellt den Eigenwert dar. Fur¨ die Stabilit¨atsuntersuchung gibt es folgende L¨osungen a) die L¨osungsmethodik kann bedingungslos instabil sein, sodass diese nutzlos ist (der Fehler wird stets angefacht) oder b) die L¨osungsmethodik ist bedingt stabil.

φ

n

j

=

σ n e iαj

7

Fur¨

Diffusions-Konvektions Problemen sollte die lokale Peclet-Zahl kleiner 2 sein:

Pe i = ux

Γ

< 2

(1.18)

Dominiert der Konvektionsterm (hyperbolische Probleme), so ergibt sich der Zusammenhang, dass die Courant Zahl kleiner 1 sein sollte:

Co i = tu x

< 1

(1.19)

Bei dominierenden Diffusions-Problemen (parabolische Probleme), sollte die Fourier Zahl be- stimmte Grenzen nicht uberschreiben.¨ W¨ahrend der Vorlesung konnte folgender Zusammenhang festgehalten werden:

(1.20)

Fo i = tΓ

x 2

Fo i < 1 2

1

1

8

(1D)

F o i <

(2D)

F o i <

(3D)

4

Es sei angemerkt, dass die Bedingung des Fourierkriteriums strenger ist als das Courant- Kriterium.

Konvergenz

Unter Konvergenz versteht man das fur¨

L¨osungsverfahren gegen die exakte L¨osung l¨auft. Nicht zu verwechseln mit Konsistenz.

gegen Null tendierende Gitterabst¨ande das numerische

Minimierungsproblem

Eine weitere Methodik zur L¨osung partieller Differenzialgleichungen, k¨onnen durch sogenannte Minimierungsprobleme ausgedruckt¨ werden. Man sucht ein Funktional das die partielle Diffe- renzialgleichung minimiert. D.h. die erste Ableitung des Funktionals muss Null ergeben. Die

Herausforderung ist hier diejenige, dass das Funktional nicht nur an einem Wert evaluiert wer- den muss sondern fur¨ alle diskreten Punkte.

Diese Methodik liefert letztlich den Basisgedanken fur¨

die Finiten-Elemente.

1.2 Finite Elemente

[Ferziger] bezeichnet den Unterschied zwischen der Finiten-Elemente Methode und der Finiten- Volumen Methode (hier nicht erw¨ahnt) durch die Multiplikation der konservativen Gleichungen mit einer Interpolationsfunktion, welche nur lokal definiert ist. Die Finiten-Elementen Theo- rie hat einen wesentlich besseren Unterbau der Grundlagen und erlaubt dadurch detailiertere Schemata fur¨ die Herleitung verschiedener Approximationen bereit zu stellen und kann dadurch wesentlich akribischer untersucht und beschrieben werden. Die Finite Elemente Methode kann mit Hilfe von Minimierungsproblemen hergeleitet werden.

Herleitung am Beispiel des W¨armeleitungsproblems

In [Goering] ist ein Beispiel gegeben, dass die Herleitung der FE-Technik anhand eines W¨armelei- tungsproblems (Diffusionsproblem) an einem 3D K¨orper mit dem Volumen V und der Ober- fl¨ache S veranschaulicht. Nachfolgend wird dieses Beispiel herangezogen, jedoch so ver¨andert, dass es nachvollziehbarer wird.

8

Die partielle Differenzialgleichung zum L¨osen des station¨aren W¨armeproblems lautet (wichtig 3D, wir sehen sp¨ater warum):

∇ • (λT ) = Q

Hier ist Q ein Quellterm, T die Temperatur und λ die W¨armeleitf¨ahigkeit des Festk¨orpers. Diese Gleichung wird auch als strong formulation of the problem bezeichnet. Die Grundidee der Finite Elemente Methode ist nun, die oben genannte partielle Differenzi- algleichung in eine andere Gestalt zu uberf¨ uhren.¨ Diese neue Form (die es herzuleiten gilt) wird als weak formulation of the problem genannt. Im nachfolgenden wird die oben genannte Gleichung durch mathematische (¨aquivalente) Ope- rationen in die weak forumlation uberf¨ uhrt.¨ Unter Annahme einer konstanten W¨armeleitf¨ahigkeit ist es m¨ogich diese aus dem Divergenzoperator herauszuziehen:

(1.21)

λ∇ • ∇T = Q

Nun teilen wir die ganze Gleichung durch λ und fuhren¨

∇ • (T ) = q

q = Q ein:

λ

(1.22)

(1.23)

Anschließend multiplizieren wird die linke und rechte Seite mit φ, dessen Bedeutung derzeit noch keine Rolle spielt, und integrieren uber¨ das Volumen V . Es folgt:

V φ∇ • (T) dV = V φq dV

(1.24)

Die erhaltene Gleichung kann mit den vorliegenden Termen nicht weiter modifiziert werden. Daher behelfen wir uns mit der Produktregel; Informationen bezuglich¨ den hier verwendeten Operatoren und Produktregeln sind in [Holzmann] zu finden:

∇ • (φT ) = T • ∇φ + φ∇ • (T )

(1.25)

Wir bringen nun den ersten Term von der rechten Seite auf die Linke und setzen in Gleichung (1.24) ein:

V [∇ • (φT) − ∇T • ∇φ] dV = V φq dV

(1.26)

V ∇ • (φT) dV V T • ∇φ dV = V φq dV

(1.27)

Nachfolgend k¨onnen wir mit dem Gausschen Integralsatz (hier wichtig, 3D) den ersten Term

in Gleichung (1.29) in ein Oberfl¨achenintegral uberf¨

uhren.¨

Der Gaussche Integralsatz lautet:

V ∇ • (φT) dV = S φT n dS

Es folgt:

S φT n dS V T • ∇φ dV = V φq dV

(1.28)

(1.29)

In den letzten zwei Gleichungen stellt n den Vektor normal zur Oberfl¨ache dar und ist stets nach außen gerichtet. Damit stellt der erste Term auf der linken Seite den nach außen ge- richtete Gradienten normal zur Oberfl¨ache dar. Die Oberfl¨ache des betrachteten K¨orpers wird

9

normalerweise mit Randbedingungen belegt. Daher teilen wir das Ober߬achenintegral in die zwei Randbedingungen (Dirichlet und Neumann) auf [Sayas]. Es folgt:

S D φT n dS D + S N φT n dS N V T • ∇φ dV = V φq dV

(1.30)

Da wir den Gradienten außerhalb unseres Rechengebiets fur¨

Dirichlet Randbedingungen

nicht wissen, nehmen wir an, dass φ auf der Oberfl¨ache S D Null ist.

φ = 0

auf

S D

Mit dieser Annahme entf¨allt der erste Term auf der linken Seite und wir erhalten die transfor- mierte Gleichung:

(1.31)

V T • ∇φ dV = S N φT n dS N V φq dV

Gleichung (1.31) wird nun als weak-formulation bezeichnet. Wir erkennen das auf der linken Seite T und φ linear vorkommen. Daher wird dieser Term auch als Biliniearform bezeichnet. Auf der rechten Seite haben wir eine Randbedingung und ein Quellterm. Bezugnehmend auf [Goering] wird die Temperatur auf der Oberfl¨ache S zu Null gesetzt (Dirichlet). Damit entf¨allt der erste Term auf der rechten Seite und wir erhalten dieselbe Gleichung wie in [Goering]: V T • ∇φ dV = V φq dV (1.32)

V ∂T ∂φ + ∂T ∂φ + ∂T ∂φ

∂z ∂z

∂x ∂x

∂y ∂y

dV = V φqdV

(1.33)

Nun ein paar weitere Informationen, die ein paar Eigenschaften n¨aher erl¨autern:

Wie wir gesehen haben, entf¨allt die Neumann-Bedingung aufgrund unserer Annahme. Daher wird diese Randbedingung auch als naturliche¨ Randbedinung bezeichnet

Die Dirichlet Randbedingung ist notwendig und wird als essentielle Randbedingung bezeichnet

Was ist φ? φ wird als Testfunktion im Zusammenhang mit der weak-formulation be- zeichnet und pruft¨ die Gleichung die durch T beschrieben wird. Die Idee dabei ist letztlich folgende: Anstelle Gleichung (1.21) so zu behandeln, als wurde¨ man diese in jedem diskre- ten Raum exakt Punkt fur¨ Punkt evaluieren, ist die Methode der Finite Elemente eine Art Mittelung. Damit ist klar was φ fur¨ eine Bedeutung hat; φ stellt eine Mittelungsfunktion dar, mit der Gleichung (1.21) gewichtet wird. Die Funktion φ stellt keine Unbekannte dar aber wird mit ein paar wichtigen Eigenschaften belegt. Die ersten haben wir bereits kennengelernt; φ = 0 auf S D . Zudem muss die Gewichtungsfunktion eine differenzierbare Funktion sein, die eine Gultigkeit¨ im gesamten Raum/Volumen V besitzt. Ausgedruckt¨ wird dies durch φ V

Wie bereits erw¨ahnt wurde das Beispiel fur¨ ein 3D K¨orper durchgefuhrt.¨ Wenn jedoch die Domain nun eine Fl¨ache (2D) ist, so ist es nicht mehr m¨oglich uber¨ den Gausschen In- tegralsatz das Volumenintegral in ein Oberfl¨achenintegral uberzuf¨ uhren.¨ Glucklicherweise¨ kann man bei einem 2D Problem, dass auf ein Fl¨achenintegral hinausl¨auft, das Greens Theorem verwenden. Das Greens Theorem wandelt ein Oberfl¨achenintegral in ein Li- nienintegral, oder ein Volumenintegral in ein Oberfl¨achenintegral (Sonderform Gausscher

10

Integralsatz) um. Das heißt, im Spezialfall fur¨

Greens Theorem identisch, daher ist es besser die Transformation durch die Verwendung des Greens Theorems zu kennzeichnen.

ein 3D K¨orper sind Gauss Theorem und

Bezuglich¨

liebige Funktionen ψ ein und druckt¨

punkte und den Funktionen aus: Dabei gilt, dass ψ i nur lokal definiert ist. D.h. ψ j = 1 wenn

eine Summe aller Knoten-

man weiterhin noch be-

der Vernetzung des Volumenk¨orpers oder Oberfl¨ache, fuhrt¨

die interessierende Gr¨oße uber¨

j = i und ist Null fur¨

alle anderen Indizes ψ j = 0

j

= i.

T = ψ 1 T 1 + ψ 2 T 2 + ψ 3 T 3 +

+

ψ n T n

(1.34)

Interpolationsfunktion

Die beliebigen Funktionen ψ werden auch als Interpolationsfunktionen bezeichnet. Diese Funk- tionen haben eine ganz spezielle Eigenschaft. Sie besitzen den Wert 1 genau, und nur genau, an einem diskreten Punkt (Element) i und fallen zum Nachbarpunkt auf Null ab. Beispiel: Im diskreten Punkt i ist die Interpolationsfunktion ψ = 1, in den benachbarten Wer- ten ist ψ = 0. ψ ist somit nur lokal definiert. Der Vorteil der durch die Interpolationsfunktion ψ entsteht ist folgender: Werte zwischen den Punkten k¨onnen relativ einfach berechnet werden. Im 1D Fall ist dies relativ einfach darzustellen und verst¨andlich sofern die Interpolationsfunktionen linear sind und somit Dreiecke darstellen; siehe nachstehende Abbildung.

φ

1

Dreiecke darstellen; siehe nachstehende Abbildung. φ 1 φ i − 2 T i − 2 φ

φ i2 T i2

φ i1 T i1

φ i T i

φ i1 T i+1

φ i+2 T i+2

i − 1 φ i T i φ i − 1 T i +1 φ i
i − 1 φ i T i φ i − 1 T i +1 φ i
i − 1 φ i T i φ i − 1 T i +1 φ i
i − 1 φ i T i φ i − 1 T i +1 φ i
i − 1 φ i T i φ i − 1 T i +1 φ i
i − 1 φ i T i φ i − 1 T i +1 φ i

i 3

i 2

i 1

i

i + 1

i + 2

i + 3

x

Abbildung 1.2: Interpolationsfunktionen und deren Gultigkeit¨

Die Interpolationsfunktionen werden auch als Hat-Functions bezeichnet. Sind Interpolations- und Gewichtungsfunktion identisch, so nennt man die FEM Diskretisierung Galerkin Diskreti- sierung; φ = ψ.

Steifigkeitsmatrix

Die Steifigkeitsmatrix der Elemente enth¨alt die Informationen der einzelnen diskreten Elemen- te und wird oft mit K gekennzeichnet. Eine kurze Herleitung der Steifigkeitsmatrix ist hier 0gegeben: http://www.fem-praxis.de/grundlagen/theorie/element-steifigkeitsmatrix/

Real- und Referenzraum

In der FE-Methode werden die Realr¨aume, d.h. die korrekten Elemente die nach der Diskreti- sierung erhalten werden, in ein Referenzraum uberf¨ uhrt.¨ Beispielsweise wird ein unregelm¨aßiges Dreieck (Triangle im 2D Fall), in ein gleichm¨aßiges, bspw. gleichschenkliges Dreieck uberf¨ uhrt.¨ Daher mussen¨ Tranformationsregeln eingefuhrt¨ und angewendet werden. Durch diese Transfor- mation wird die Steifigkeitsmatrix wesentlich vereinfacht. Im Allgemeinen wird das komplexe Problem im Realraum auf ein sehr einfaches Problem im Referenzraum umgemunzt.¨

11

1.3 Einteilung der Probleme

Wie zu Beginn schon erw¨ahnt wurde, k¨onnen die Problemstellungen anhand den Gleichungen in drei Kategorien eingeteilt werden. Mit anderen Worten bedeutet das, dass quasilinieare partielle Differenzialgleichungen 2. Ordnung mit zwei unabh¨angigen Variablen mittels charakteristischen Linien unterteilt werden. Diese Charakteristiken-Linien beschreiben die Informationsausbrei- tung im Raum-Kontinuum. Die quasiliniearen partiellen Differenzialgleichungen 2. Ordnung weisen zwei S¨atze von Charakteristiken-Linien auf [Ferziger].

Hyperbolische Probleme

In hyperpolischen Problemen sind die Charakteristiken reel und unterschiedlich. Das heißt, dass sich die Information mit endlicher Geschwindigkeit in S¨atzen von Richtungen ausbreitet. Im 1D Fall, bezogen auf einen diskreten Punkt im L¨osungsfeld i, bedeutet das, dass Informationen uber¨ die zu l¨osende Variable von der linken und rechten Seite eintreffen. Beispiel hier w¨are eine instation¨are, nichtviskose kompressible Str¨omung, da sich Schallwellen und St¨oße im ganzen L¨osungsgebiet ausbreiten.

Parabolische Probleme

Bei parabolischen Problemen degenerieren die Charakteristiken zu einem einzigen reelen Satz. D.h. die Informationsausbreitung ist gerichtet und theoretisch unendlich schnell. Ein Beispiel fur¨ die unendliche Ausbreitungsgeschwindigkeit kann an einem Biegebalken erl¨autert werden.

Ist die linke Seite fest eingespannt und wirkt auf der rechten Seite eine Kraft ein, so erf¨ahrt

¨

unweigerlich nach der Kraftaufnahme (egal wie groß) die linke Seite eine Anderung (Momente, Kr¨afte). Ein Beispiel der gerichteten Informationsausbreitung ist leicht zu erkl¨aren; W¨arme fließt immer von warm nach kalt; Konzentrationen gleichen sich immer von hohen zu niedrigen aus. Probleme die solch eine gerichtete Informationsausbreitung haben und diffusive sind, werden

parabolische Probleme genannt.

Elliptische Probleme

Im elliptischen Fall sind die Charakateristiken-Linien imagin¨ar oder komplex. D.h. es gibt keine bevorzugte Ausbreitungsrichtung. [Ferziger] beschreibt zudem, dass in solchen Problemen, der Informationsaustausch in alle Raumrichtungen gleich gut erfolgt. Zudem wird betont, dass insta- tion¨are Probleme nie rein elliptischer Natur sind. [Ferziger] erw¨ahnt hierbei eine Str¨omungsform mit Rezirkulationsgebiet. Die Informationen sind somit Stromauf- und Abw¨arts zu finden. Ein Beispiel w¨are hier auch der Biegebalken.

Zusammenfassend

Aufgrund der unterschiedlichen Problemstellungen und der damit verbundenen Natur des Pro- blems, spiegelt sich auch die zu verwendende L¨osungsmethodik wieder. Nicht jede Diskritisie- rungsmethode ist fur¨ alle Problemstellungen gleich gut geeignet. Zudem besitzen viele Gleichun- gen ein Mischmasch aus den oben genannten Einteilungen und es ist oftmals nicht eindeutig, welches Problem zu Grunde liegt. Die Klassifizierung der Probleme ist oft hilfreich um diverse Einhaltungskriterium zu garantieren (Fo, Co, Pe) und helfen bei der Auswahl der numerischen Methoden.

12

1.4

Behandelte Probleme

¨

W¨ahrend der Vorlesung und

oder mittels vorgefertigten Programmen untersucht:

Ubung wurden folgende Probleme besprochen, selber hergeleitet

station¨are W¨armeleitungsproblem via FD-Methode (elliptisches Problem, Diffusion; Tem- peratur - von heiß nach kalt; Species - von hoher Konzentration zu geringer Konzentration)

station¨are Poisson Gleichung FE-Methode (Elliptisches Problem)

Helmholtz-Gleichung FE-Methode (stehende Welle, Eigenwertproblem)

Konvektions-Diffusionsgleichung via FD-Methode; instation¨ar; hyperbolisch-parabolisches Problem; der parabolische Charakter kommt aus der Zeitdiskretisierung; die L¨osung l¨auft in eine Richtung von einem Zeitpunkt zum anderen [Ferziger].

Wellengleichung via FD-Methode (Hyperbolisches Problem)

Burgers-Gleichung mittels FD-Methode (Einfuhrung¨

welle; zwei L¨osungen fur¨ Abflachung)

in Charakteristiken-Linien; Schock-

einen Wert nicht erlaubt, abschneiden und unten anfugen¨

Traffic Jam via FD-Methoden (Charakteristiken-Linien in verschiedene Richtungen, Hy- perbolisches Problem)

Gray-Scott Model

¨

W¨ahrend der Ubung wurden verschiedene numerische Methoden (Differenzen-Approximationen) auf verschiedene Gleichungen angewendet und damit gespielt. Des Weiteren wurden Rechenster- ne eingefuhrt,¨ Fehleranalysen, Stabilit¨atsanalysen mittels der Methodik von Neumann, Konsi- stenzuberpr¨ ufung¨ und spezielle Methoden wie die Methoden von Godonov besprochen.

1.5 Rechensterne fur¨ 1D Probleme

Instation¨are Diffusions Probleme

1 Fo 1 − 2Fo Fo
1
Fo
1 − 2Fo
Fo

Abbildung 1.3: Rechenstern, FTCS (Forward in Time Centered in Space); EXPLIZIT

13

−Fo 1 + 2Fo −Fo 1
−Fo
1 + 2Fo
−Fo
1

Abbildung 1.4: Rechenstern, FTCS (Forward in Time Centered in Space); IMPLIZIT

− Fo − Fo 1 + Fo 2 2
− Fo
− Fo
1 + Fo
2
2
Fo Fo 1 − Fo 2 2
Fo
Fo
1 − Fo
2
2

Abbildung 1.5: Rechenstern, genannten)

Crank-Nicholsen-Verfahren

Instation¨are Konvektions Probleme

(Mittelung

von

1 Co − Co 1 2 2
1
Co
− Co
1
2
2

beiden

oben

Abbildung 1.6: Rechenstern, FTCS (Forward in Time Centered in Space); EXPLIZIT

1 2 1 + Co 2 1 − Co 0 2 2
1
2 1 + Co
2 1 − Co
0
2
2

Abbildung 1.7: Rechenstern, Lax-Friedrichs-Verfahren (Mittelwert im zentralen Punkt) EX- PLIZIT

1 Co 1 − Co not used
1
Co
1 − Co
not used

Abbildung 1.8: Rechenstern, Ruckw¨

¨arts-Dierenz (Upwind-Verfahren) EXPLIZIT

14

Co + Co 2 2 2
Co
+ Co 2
2
2
1 1 − Co 2
1
1 − Co 2
− Co + Co 2 2 2
− Co
+ Co 2
2
2

Abbildung 1.9: Rechenstern, Lax-Wendroff-Verfahren (nimmt nicht das ganze arithmetrische Mittel wie das Lax-Friedrichs Verfahren); EXPLIZIT

¨

Folgendes Verfahren wurde nach einer Ubung selber implementiert, lief jedoch nicht stabil.

1
1
1 − 3 Co 2
1 − 3 Co
2
1 − 2 Co 2Co
1
− 2 Co
2Co
not used
not used

Abbildung 1.10: Rechenstern, Two-Point-Upwind (Ruckw¨

¨arts-Dierenz); EXPLIZIT

Station¨are Probleme

Die Rechensterne sehen fur¨ die station¨aren Problem ¨ahnlich aus, wobei hier nicht in der Zeit vorangeschritten wird. D.h. die Zeitableitung in den Gleichungen f¨allt heraus, das jedoch ein Problem mit sich bringt. Der Zeitschritt kann als eine Art Limitierung der neu berechneten Gr¨oße angesehen werden; das Anwachsen oder Absinken. Mit anderen Worten, der Zeitschritt

l¨asst nur eine gewisse

Problemen nicht gegeben ist, ist eine sogenannte Unterrelaxation notwendig. Dies limitiert den

neuen Wert φ n+1 wie folgt: φ n+1

(1.35)

zu. Da dieser Umstand bei station¨aren

¨

Anderung des neuen Wertes φ n

i

i

i

= φ n + (φ n+1 φ n )α

i

i

i

Hier stellt α den Unterrelaxationsfaktor dar uns muss zwischen 0 < α < 1 liegen. Die Grenzwerte fur¨ α k¨onnen direkt gesehen werden und interpretiert werden. Erlaubt man dem L¨osungsverfahren die generische Variable φ im vollen Umfang mit dem neu berechneten Wert zu ersetzen, kann dies zu Instabilit¨aten fuhren¨ (sehr h¨aufig der Fall).

Kopplung von instation¨aren Problemen mit station¨aren Ans¨atzen (in Anlehnung an die NS-Gleichungen

Da fur¨ instation¨are Probleme der Zeitschritt ein limitierender Faktor ist, kann man die Ans¨atze von station¨aren Problemen (Unterrelaxation) mit den transienten verknupfen.¨ Dies erlaubt es wesentlich gr¨oßere Zeitschrittweiten zu w¨ahlen. Allgemein wird wie folgt vorgegangen. In jedem Zeitschritt wird die L¨osung wie ein station¨ares Problem behandelt. Die Berechnung der L¨osung im Zeitschritt wird mit Unterrelaxationsfaktoren durchgefuhrt,¨ damit die durch den gr¨oßeren Zeitschritt verursachte m¨ogliche Instabilit¨at nicht auftritt, und vereinigt somit Methoden fur¨ in- station¨are und station¨are Probleme. Fur¨ die Navier-Stokes Gleichungen werden diese Methoden wie folgt bezeichnet:

PISO := Pressure Implicit with Splitting of Operators

SIMPLE := Semi-Implicit Method of Pressure Linked Equations

15

PIMPLE := Merged PI(SO) + (SI)MPLE

Hier ist der PISO Algorithmus fur¨ transiente, der SIMPLE fur¨ station¨are und der PIMPLE die Kombination beider. Die L¨osung der Navier-Stokes-Gleichungen erforder zudem eine besondere Aufmerksamkeit des Druckes; daher wurden die hier vorgeschlagenen Methoden erw¨ahnt. Fur¨ die Probleme, die in der Vorlesung behandelt worden sind, sind diese Methoden nicht notwendig.

16

2 Diffusionsgleichung in Matlab

In Matlab wurde folgende Diffusionsgleichung mittels dem expliziten und impliziten Verfahren umgesetzt:

∂φ

∂t

=

D 2 φ + φ s

∂x 2

Im folgenden Abschnitt wird die Herleitung der expliziten Methode sowie die Entwicklung der Matrix A, welche fur¨ die implizite Berechnung ben¨otigt wird, aufgezeigt. In der oben genannten Gleichung stellt φ eine beliebige Gr¨oße dar, D ist der Diffusionskoeffizient und φ s stellt einen expliziten Quellterm dar. Die Gleichung wird mittels der Euler (Zeit) und einer Zentraldifferenz- Approximation diskretisiert.

Explizit

Die explizite Gleichung ist relativ einfach herzuleiten.

φ

n+1

i

φ n

i

t

=

D φ n

i1 2φ n

i

+ φ n

i+1

x 2

+ φ s

Diese Gleichung kann direkt berechnet werden, nachdem wird nach der Unbekannten au߬osen:

φ

n+1 = D∆t i ∆x 2
n+1 = D∆t
i
∆x 2

Fo

(φ n

i1 2φ n

i

n + φ i+1

) + ∆s + φ n

i

φ

n+1

i

= Fo(φ n

i1 2φ n

i

n + φ i+1

) + ∆s + φ n

i

Wird die Klammer aufgel¨ost, erh¨alt man die Analogie zum ersten Rechenstern auf Seite 13.

φ

n+1

i

n

= F oφ i1

2F oφ n + F oφ i+1

i

n

+ ∆s + φ n

i

Das parabolische Problem hat die Restriktion das fur¨

gleich 0.5 sein muss. Anderenfalls ist dieses Verfahren instabil.

1D Berechnung die Fourier-Zahl kleiner

Implizit

Die L¨osung der Gleichung mittels der impliziten Methodik erlaubt gr¨oßere Fourier-Zahlen und

dadurch gr¨oßere Zeitschritte. Hierfur¨

muss die Matrix A erstellt werden.

φ

n+1

i

φ n

i

t

=

D φ n+1

i1

2φ n+1

i

+ φ n+1

i+1

x 2

+ φ s

Nun bringen wir die Unbekannten auf die linke Seite:

φ

φ

n+1

i

n+1

i

= Dt

x 2

Dt

x 2

(φ

n+1

i1

(φ n+1

i1

2φ n+1

i

2φ n+1

i

17

+ + ∆s + φ n

φ

i+1

i

n+1

)

+ = ∆s + φ n

φ

i+1

i

n+1

)

φ n+1 i F oφ n+1 + 2F oφ n+1 F oφ n+1 = ∆s + φ n

i1

i

i+1

i

F oφ n+1 + (2F o + 1)φ n+1 F oφ n+1 = ∆s + φ n

i1

i

i+1

i

Man erkennt deutlich den Rechenstern fur¨ die implizite Methode von Seite 13. Der Wert φ n+1 ist abh¨angig von den linken und rechten Nachbarpunkten. Entsprechend erhalten wir eine Tridia- gonalmatrix. Die Eintr¨age in der Matrix sind die Koeffizienten von den benachbarten Punkten und dem Wert am Punkt i selbst. Dadurch sieht die Matrix A wie folgt aus (hier ein Beispiel mit 7 diskreten Punkten):

i

  Fo

  0

  0

  0

2Fo + 1 Fo

0

0

0

0

0

Fo 2Fo + 1

0

0

0

0

0

0

Fo

0

0

0

0

2Fo + 1

Fo

0

0

0

Fo

2Fo + 1

Fo

0

0

0

Fo

2Fo + 1

Fo

0

0

0

Fo

2Fo + 1

Fo

0

0

0

Fo

2Fo + 1

Nun ist es m¨oglich das Gleichungssystem das aus den einzelnen algebraischen Gleichungen besteht zu l¨osen. Das zu l¨osende System ist Ax = b. b ist in dem oben genannten Fall wie folgt:

b =

φ n + ∆s φ n + ∆s φ n + ∆s φ n + ∆s φ n + ∆s φ n + ∆s φ n + ∆s

1

2

3

4

5

6

7

Allerdings mussen¨

gefugt¨

den ersten und letzten Wert noch zus¨atzlich die Randbedingungen hinzu-

werden, sodass diese Eintr¨age letztlich wie folgt definiert sind (Dirichlet-Randbedingung):

fur¨

φ n + ∆s + RB left

1

φ n + ∆s + RB right

x stellt den Vektor der Unbekannten dar. Dieses Gleichungssystem kann nun durch Direkte- oder Iterative L¨osungsmethoden berechnet werden. Die explizite und implizite Variante wurde in Matlab umgesetzt.

7

18

3 Gray-Scott-Modell

W¨ahrend der Vorlesung wurde versucht das Gray-Scott-Modell umzusetzen, jedoch wurden die zu erwarteten Muster nicht erhalten. Daher wurden die Gleichungen nochmals intensiver analysiert und danach zuerst in OpenFOAM und dann in Matlab implementiert. Das Gray- Scott-Modell ist eine Diffusions-Reaktionsgleichung von zwei Spezies A und B:

∂A

∂t

∂B

= D a ∇ • (A) AB 2

+ f (1 A)

(3.1)

(3.2)

∂t In dieser Gleichung ist anzumerken, dass diese gekoppelt sind und die zweite Gleichung im zweiten Term auf der rechten Seite einen nicht linearen Term enth¨alt. Mit dieser recht simplen Gleichung erh¨alt man sehr komplexe und interessante Konzentrationsmuster. Diese Gleichung kann fur¨ weitere Analysen numerischer Methoden herangezogen werden. Nachfolgend wird die explizite und implizite Methode hergeleitet und zudem die Matrix her- geleitet. Verwendet wurde eine Zentraldifferenzen Approximation fur¨ den Diffusionsgleichung.

= D b ∇ • (B) + AB 2 (k + f )B

Explizit

Das l¨osen beider Gleichungen ist mittels dem expliziten Verfahren sehr einfach durchzufuhren.¨

Fur¨

die Spezies A erh¨alt man folgende Gleichung:

A

n+1

i

A n t

i

=

x D a 2 (A n

i1 2A n

i

+ A n

i+1 ) A n

i

(B

n

i

) 2 + f (1 A n )

i

(3.3)

(3.4)

Analog erh¨alt man die Gleichung fur¨

(3.5)

Diese Gleichungen sind in Matlab umgesetzt und erzielen interessante Reaktionsmuster. Wichtig ist den Zeitschritt klein zu halten, da keine direkte Kopplung beider Gleichungen implementiert ist. Beide werden sequenziell gel¨oste und dann der n¨achste Zeitschritt eingeleitet. Ggf. ist die fehlende Kopplung das Problem, dass die explizite und implizite Berechnungsvariante andere L¨osungen erzielen. Zudem wurde versucht eine Matrix-L¨osung fur¨ die explizite Methode zu implementieren (ohne Erfolg). Es soll jedoch die Matrix Herleitung gezeigt werden.

(3.6)

(3.7)

(3.8)

A

A

n+1

i

B

n+1

i

= F oA n i1 2F oA n + F oA n

i

=

n

F oB i1 2F oB

n

i

i+1 A n

i

B

i

i n ) 2 t + f (1 A n )∆t + A n

i

i

t (k + f)B

n

i

t + B

n

i

(B

die zweite Spezies B:

+ F oB

n

i+1 + A n

i

n

B

n

i

A

A

A

n+1

i

n+1

i

n+1

i

n

i

) 2 t + f (1 A n )∆t + A n

i

i

n

i

) 2 t + f t f tA n + A n

i

i

=

=

=

F oA n i1 2F oA n + F oA n

i

i+1 A n

i

i+1 A n

i

+ (B

(B

(B

F oA n i1 2F oA n + F oA n

i

A n i1 2F oA n + F oA n

i

i+1

i n ) 2 t ft + 1 A n + f t

i

schwach besetzte TDM

Beitrag zur Hauptdiagonalen

A n+1 = MA n + f t

(3.9)

19

Die Matrix fur¨

Gleichung B ist:

B

B

B

n+1

i

n+1

i

n+1

i

B n+1 = MB n

=

=

=

F oB i1 2F oB

n

F oB i1 2F oB

F oB i1 2F oB

n

n

n

i

n

i

n

i

+ F oB

+ F oB

+ F oB

n

i+1 + A n

n

i+1 + A n

n

i+1

+

i

B

B

n

i

n

i

B

B

n

i

n

i

t (k + f)B

t kB

n

i

t + B

n

i

i

i

n

i

t fB

n

i

t + B

[A n B

n

i

t kt f t + 1] B

n

i

schwach besetzte TDM

Beitrag zur Hauptdiagonalen

n

i

(3.10)

(3.11)

(3.12)

(3.13)

Implizit

Die implizite Berechnung ben¨otigt die Kenntnis der Matrix M fur¨ beide Gleichungssysteme. Die Herleitung wird kurz gegeben. Diese Methode wurde als dritte M¨oglichkeit in Matlab im- plementiert. Es soll jedoch darauf hingewiesen werden, dass die L¨osung des Matrizenproblems mit iterativen L¨osern get¨atigt werden sollte.

A

n+1

i

A n t

i

=

x D a 2 (A

n+1

i1

2A n+1

i

+ A n+1

i+1

) A n+1 (B

i

i n ) 2 + f (1 A n+1 )

i

A

n+1

i

F oA

n+1

i1

2F oA n+1 + F oA n+1

i

i+1

i+1 + A n+1

i

A n+1

i

+ A n+1

i

(B

n

i

) 2 t + ft fA n+1 t + A n

i

i

(B

n

i

) 2 t + fA n+1 t = ft + A n

A

i

n+1

i

= ft + A n

i

i

) 2 t + ft

=

F oA n+1 + 2F oA n+1 F oA n+1

i1

i

F oA n+1 + 2F oA n+1 F oA n+1 + 1 + (B

i