Entdecken Sie eBooks
Kategorien
Entdecken Sie Hörbücher
Kategorien
Entdecken Sie Zeitschriften
Kategorien
Entdecken Sie Dokumente
Kategorien
Privat
tion, Kommunikation, Simulation, komplexe Grafik –
all das leisten moderne Rechner, und wir haben uns
daran gewöhnt. Aber auch aus der Forschung sind
Computer nicht mehr wegzudenken. Dieser Thema-
tik ist ein großer Teil der vorliegenden Ausgabe des
Forschungsmagazins unserer Universität gewidmet.
Neben den klassischen Bereichen Theorie und Expe-
riment entwickeln sich die Computersimulationen zu
einem dritten Standbein naturwissenschaftlicher For-
schung. Da die Komplexität der Zusammenhänge, zum
Beispiel in der Meteorologie, in der Genomforschung
oder bei der Wechselwirkung einzelner Moleküle,
nicht immer mit einem Versuchsaufbau abgebildet
werden kann, greift moderne naturwissenschaftli-
che Forschung vermehrt auf Simulationstechniken Univ.-Prof. Dr. Ulrich Förstermann
der Informatik und Mathematik zurück. Rechnerge- Vizepräsident für Forschung
stützte Forschung findet sich in den verschiedensten
Bereichen: Physik, Chemie, Materialwissenschaften,
Geowissenschaften und Biologie; keine Natur- oder
Ingenieurswissenschaft kommt heute mehr ohne Politologen Samuel Huntington diskutiert, „nach
Computer aus. Ende des Kalten Krieges würden Konflikte nun zwi-
schen den Kulturen ausgetragen und Religionen
Der Wunsch nach immer realistischerer Computergra- seien ein prägendes Merkmal eben dieser verschie-
fik hat zur rasanten Entwicklung immer leistungsfähi- denen Kulturen.“ Aus dem Fachbereich Recht und
gerer Grafikkarten geführt. Deren schnelle Prozesso- Wirtschaftswissenschaften lesen Sie die Beschreibung
ren lassen sich für die Forschung „zweckentfremden“, des gemeinsam mit der Universität Trier verfolgten
in leistungsfähigen Großrechnern „poolen“ und für Schwerpunktprojektes „Armut und Überschuldung
Materialforschung oder auch Simulation von Kern- privater Haushalte.“ – ein sehr aktuelles Thema. Die
kräften innerhalb eines Atomkerns einsetzen. Auch Universitätsmedizin liefert einen interessanten Arti-
andere komplexe Systeme der statistischen Physik kel über die Versorgung Gehörloser in Deutschland
lassen sich durch Simulation auf Computersystemen – immerhin eine Zahl von etwa 270.000 Mitbürgern.
im Detail studieren. Die Quantenchemie setzt Com- Schließlich zeigen uns die Sprachwissenschaften den
puter ein, um Eigenschaften von Molekülen zu be- Unterschied zwischen Silben- und Wortsprachen auf
rechnen und vorherzusagen. Auch die Meteorologie und es gibt einen Beitrag zum britischen Film, der als
und Klimaforschung benötigt Rechnerkapazitäten, integraler Teil des dortigen nationalen Kulturgutes
um etwa die Ausbreitung von Staub oder Radioak- gilt. Aus dem Bereich Geschichte kommt ein Bericht
tivitätswolken in der Atmosphäre zu prognostizieren. über ein DFG-Forschungsprojekt zum Wertewandel
Schließlich liefert die moderne Biologie ungeheure vom Ende des 19. Jahrhunderts bis heute. Die Geo-
Datenmengen, die ohne Rechner schlechthin nicht wissenschaften legen eindrucksvoll dar, welche In-
zu bewältigen sind. Erforderte die Sequenzierung formationen zu Umwelt und Klima in verschiedenen
des menschlichen Genoms noch vor wenigen Jahren Epochen der Erdgeschichte man aus Muschelfunden
einen mehrere Milliarden Euro teuren Multicenter- entnehmen kann. Und schließlich wird im Beitrag aus
ansatz und über fünf Jahre Arbeit, so lässt sich die der Biologie die Evolution erläutert – am Beispiel der
gleiche Arbeit heute für zirka 10.000 Euro auf einer Salbeipflanze.
einzigen Maschine in ungefähr zwei Wochen erledi-
gen. Es versteht sich von selbst, dass die so produ- So zeigt auch das neueste Forschungsmagazin wie-
zierten riesigen Datenmengen ohne massiven Einsatz der die große wissenschaftliche Breite und Vielfalt
von Informatik nicht zu bewältigen sind. unserer Universität. Ich habe beim Lesen viel über
neue Entwicklungen in der Arbeit unserer Wissen-
Auch im nicht themenzentrierten Teil unseres For- schaftlerinnen und Wissenschaftler gelernt. Als neuer
schungsmagazins finden sich sehr lesenswerte Vizepräsident für Forschung darf ich Ihnen die Lektü-
Beiträge Mainzer Wissenschaftlerinnen und Wis- re dieses interessanten Spiegels unserer Hochschule
senschaftler. So berichtet die Hochschule für Musik wärmstens „ans Herz legen“.
über eine Auftragskomposition des US-amerikani-
schen Komponisten Thomas Wells zur Einweihung Ihr
ihres (sehr attraktiven) Neubaus. Aus der Theologie
findet sich ein Artikel zum Thema „Religion und
Frieden.“ Hier wird die These des US-amerikanischen
FORSCHUNGSMAGAZIN 2/2009 3
I N H A LT
Rechnergestützte Forschungsmethoden
in den Naturwissenschaften
6 EIN FÜ H RU N G
Rechnergestützte Forschungsmethoden in den Naturwissenschaften
Von Martin Hanke-Bourgeois
Gestaltung
26 RECH N ERG ESTÜ TZTE FORSCH U N G – ÖK ON O MI SCHE PHYSI K
Thomas Design, Freiburg
Vertrieb
Packen wie die Weltmeister
Kommunikation & Presse
Von Johannes Josef Schneider und Elmar Schömer
Druck
Werbedruck GmbH Horst Schreckhase
Postfach 1233
34283 Spangenberg 29 RECH N ERG ESTÜ TZTE FORSCH U N G – QU A N T ENCHEMI E
Tel. +49 (0) 56 63-94 94
Fax +49 (0) 56 63-93 988-0
Moleküle im Computer-Labor
Email: kontakt@schreckhase.de
www.schreckhase.de
Von Gregor Diezemann, Andreas Köhn und Jürgen Gauss
4
I N H A LT
38 TH E OL OG IE
Religion und Frieden
Von Christiane Tietz
45 M E D IZ IN
Gesundheitsversorgung von Gehörlosen in Deutschland
Von Eva Münster, Johannes Höcker und Luis Carlos Escobar Pinzón
49 S P R A C H W IS S E N S C H A F T
Silbensprachen versus Wortsprachen
Von Renata Szczepaniak
53 K U LT U R W IS S E N S C H A F T
Britischer Film im Kontext von Kultur- und Medientransfer
Von Klaus Peter Müller
57 GE S C H IC H T E
Gesellschaftliche Wertveränderungen in Moderne und Postmoderne
Von Andreas Rödder und Christopher Neumaier
60 I N F OR MAT IK
Informationstechnologie in Mainz konstituiert sich neu
Von Herbert Göttler, Jürgen Perl und Elmar Schömer
64 GE OW IS S E N S C H A F T E N
Muscheln – Archive der Erdgeschichte
Von Bernd R. Schöne
68 B I OL OG IE
Anpassung – Isolation – Artbildung: Evolution beim Salbei
Von Regine Claßen-Bockhoff
72 M U S IK
Auftragskomposition für den Neubau der Hochschule für Musik
Von Carolin Lauer und Kristina Pfarr
FORSCHUNGSMAGAZIN 2/2009 5
EINFÜHRUNG
Rechnergestützte Forschungsmethoden
in den Naturwissenschaften
Von Martin Hanke-Bourgeois
Neben der klassischen Einteilung naturwissenschaft- der schnellsten Supercomputer der Welt. Auch sei in
licher Forschung in theoretische und experimentelle diesem Zusammenhang auf eine neue Initiative des
Arbeiten hat sich seit einigen Jahren ein weiterer Landes Rheinland-Pfalz verwiesen: Auf Anregung
Bereich etabliert: die numerische, das heißt die com- der Johannes Gutenberg-Universität, unter maß-
puterbasierte Simulation. Die Gründe dafür sind geblicher Beteiligung ihres Zentrums für Datenver-
offensichtlich: Durch den schnell fortschreitenden arbeitung, werden gegenwärtig drei Millionen Euro
Erkenntnisgewinn und die immer komplexeren Fra- bereitgestellt, um das Land im Bereich des Höchst-
gestellungen in den Naturwissenschaften werden leistungsrechnens für eine künftige Beteiligung
dezidierte experimentelle Untersuchungen immer an der Gauß-Allianz zu rüsten, einem Verbund der
komplizierter und aufwendiger, während theoreti- Supercomputerzentren Deutschlands.
sche Ansätze zu Darstellungen führen, die nur unter
groben Vereinfachungen oder allenfalls ansatzweise Diese Fakten deuten bereits darauf hin, dass numeri-
analytisch auswertbar sind. sche Simulationen in den Naturwissenschaften selten
auf individuellen Einzelleistungen basieren, sondern
An der Johannes Gutenberg-Universität sowie den in der Regel im Team realisiert werden und vielfältige
beiden auf ihrem Campus angesiedelten Max-Planck- Kompetenzen erfordern. Zu dem Know-how in der
Instituten für Chemie und Polymerforschung arbeiten spezifischen Fachdisziplin kommen Anforderungen an
eine ganze Reihe exzellenter Wissenschaftlerinnen den Umgang mit der entsprechenden Hardware, die
und Wissenschaftler, die in diesem neuen Arbeitsbe- trickreiche Implementierung effizienter Algorithmen
reich hervorragend ausgewiesen sind. In vielen Fällen aus der Informatik und der numerischen Mathematik
werden dabei hochparallele Computer für die Simula- sowie eine geschickte Verwaltung der unterschiedli-
tionen eingesetzt; erst unlängst wurde beispielsweise chen Softwareversionen und der zum Teil riesigen Da-
am Institut für Kernphysik ein neuer Parallelrechner, tenmengen hinzu. Dabei ähneln sich nicht selten die
„Wilson“ genannt, mit 2.240 Einzelprozessoren für Arbeitspakete aus unterschiedlichen Disziplinen, etwa
Simulationen in der Gittereichtheorie eingeweiht; er im Bereich der Datenverwaltung. Als Beispiele seien
landete auf Anhieb auf Platz 123 der Top-500-Liste genannt: Daten aus kernphysikalischen Großexperi-
menten, wie sie mit dem neuen LHC-Beschleuniger
(Large Hadron Collider) am CERN (Conseil Européen
pour la Recherche Nucléaire) erzeugt werden, mete-
M. Brauburger / Institut für Informatik / JGU Mainz
6
EINFÜHRUNG
trums für Computersimulationen“ an der Johannes Neben den genannten finanziellen Maßnahmen wird
Gutenberg-Universität diskutiert. In der anschließen- auch ein neuer interdisziplinärer Masterstudiengang
den Exzellenzinitiative des Landes Rheinland-Pfalz „Informatik in den Naturwissenschaften“ (Arbeits-
wurde dieser Plan dann in einen Antrag für ein stär- titel) geplant, der dann in einen weiterführenden
ker physikalisch fokussiertes Landesexzellenzcluster Graduiertenstudiengang im Bereich der numerischen
integriert. Nachdem dieser Antrag zunächst zurück- Simulationen in den Naturwissenschaften münden
gestellt und bei dem anschließenden Bundesexzel- soll. Dies würde wiederum hervorragend durch das
lenzwettbewerb nicht wieder aufgewärmt wurde, im März 2008 neu gegründete „Max-Planck Gradu-
ergab sich 2007 eine neue Gelegenheit, als die Hoch- ate Center mit der Johannes Gutenberg-Universität“
schulleitung die Fachbereiche zu Vorschlägen für eine flankiert.
wissenschaftliche Schwerpunktbildung an der Uni-
versität aufrief. Das vorliegende Heft von „Natur & Geist“ soll einen
Einblick in die ersten Aktivitäten unter dem neuen
Der neu gegründete Fachbereich 08, in dem nun Dach des Forschungsschwerpunkts bieten. Ich danke
Physik, Mathematik und Informatik vereint sind, er- allen Autorinnen und Autoren für die Bereitschaft, ihre
griff daraufhin die Gelegenheit und legte ein neues stark in den jeweiligen Fächern verankerten Projekte
Konzept vor. Damit sollte auch die Informatik an der für ein breiteres Publikum aufzubereiten; so wird die
Johannes Gutenberg-Universität gestärkt und als Zielsetzung des Forschungsschwerpunkts „Rechner-
zentrales, verbindendes Element in die Mitte der Na- gestützte Forschungsmethoden in den Naturwissen-
turwissenschaften gerückt werden. Dieses Konzept schaften“ transparent gemacht. Der Universitätslei-
wurde von allen Naturwissenschaften (Biologie, Che- tung sowie dem Land Rheinland-Pfalz danken wir für
mie, Geowissenschaften, Meteorologie und Physik) das Vertrauen in unsere Arbeit, die erfahrene Unter-
sowie von Mathematik und Informatik unterstützt; stützung sowie die finanzielle Förderung.
auch die beiden Max-Planck-Institute beteiligten
sich an diesem Vorschlag. Der Antrag wurde noch im
selben Jahr von einer ausgewiesenen Expertenkom-
mission hervorragend evaluiert, so dass das Land
den Forschungsschwerpunkt Mitte 2008 für zunächst
rund vier Jahre einrichtete.
FORSCHUNGSMAGAZIN 2/2009 7
R E C H N E R G E S T Ü T Z T E F O R S C H U N G – M AT E R I A L S I M U L AT I O N E N
Nachwuchswissenschaftler des Instituts für Phy- mengesetzt sind, wie es zum Beispiel bei Polymeren,
sik erschließen die Rechenleistung von Grafik- Membranen oder kolloidalen Objekten der Fall ist.
karten, wie sie bei Computerspielen zum Einsatz Die Verknüpfung dieser verschiedenen Ebenen führt
kommen, für materialwissenschaftliche For- zu Multiskalen-Modellen, wie sie in der Theoriegrup-
schungen. Aufwendige numerische Rechnungen pe des Max-Planck-Instituts für Polymerforschung
und Simulationen lassen sich auf diese Weise bis zum Einsatz kommen (vgl. den Beitrag von Christine
zu hundertfach beschleunigen. Peter und Kurt Kremer).
Die Erforschung von Materialeigenschaften ist zuneh- Traditionell werden umfangreiche Molekulardyna-
mend von einem massiven Computereinsatz geprägt. mik-Simulationen, die auf den Newtonschen Bewe-
Mittlerweile werden immer leistungsfähigere Rech- gungsgleichungen basieren, auf Parallelrechnern
ner eingesetzt, um das Verständnis makroskopischer mit Hunderten von Prozessor-Kernen durchgeführt.
Materialeigenschaften aus dem Zusammenspiel der Die Notwendigkeit zur Parallelisierung der Simula-
mikroskopischen Bausteine, der Moleküle, zu erhö- tionsmethoden ist auch dadurch bedingt, dass die
hen. Das detaillierte Studium der Eigenschaften und Erhöhung der Rechenleistung der Computer im letz-
Wechselwirkungen von Molekülen kann zwar prin- ten Jahrzehnt eher durch die Entwicklung paralleler
zipiell auch mittels quantenchemischer Methoden Architekturen auf den Prozessoren (CPUs) erreicht
präzise durchgeführt werden (vgl. den Beitrag von wurde als durch die Erhöhung der Leistungsfähig-
Gregor Diezemann und Kollegen). Die Beschreibung keit eines einzelnen CPU-Kernes. Darüber hinaus
eines Ensembles von Molekülen mit diesen Metho- ist die Erhöhung der Rechenleistung über massive
den und heute zugänglichen Computern bleibt je- Parallelisierung im letzten Jahrzehnt auch an einem
doch in der Regel auf Phänomene beschränkt, die anderen Baustein moderner Computer konsequent
auf sehr kleinen Zeit- und Längenskalen ablaufen. vorangetrieben worden: an den Grafikkarten (GPUs
Skalen, die die Wechselwirkungen zwischen den – graphical processing units), wie sie etwa zur Be-
Molekülen in einem Material bestimmen, sind hin- schleunigung von Videospielen zum Einsatz kommen.
gegen fast immer deutlich von den entsprechenden Der expandierende Markt für Computerspiele führte
quantenmechanischen Skalen getrennt. Hieraus ent- dabei zur Entwicklung immer leistungsfähigerer Gra-
steht ein „vergröbertes” Bild des Materials, welches fikkarten, die eine immer realistischere Darstellung
Atome oder gar Moleküle als klassische Newtonsche in hohen Auflösungen gewährleisten. Grafikkarten
Teilchen beschreibt, die durch Kraftfelder miteinander müssen dabei immer wiederkehrende, relativ ein-
in Wechselwirkung treten. Die Idee der Vergröberung fache Fließkommarechnungen (gemessen in Flop/s
kann aber auch zu noch langsameren Zeitskalen und – Rechenoperationen pro Sekunde) in hoher Ge-
größeren Längenskalen fortgesetzt werden, wenn schwindigkeit durchführen. Dafür wurde eine paralle-
die eigentlich wichtigen mikroskopischen Bausteine le Architektur entwickelt, die – zum Beispiel bei einer
eines Materials bereits aus vielen Molekülen zusam- modernen Grafikkarte der Firma NVIDIA – aus 30
Abb. 1: Grafikkarte der aktuellen Multiprozessoren mit jeweils acht einfachen Rechen-
Generation (NVIDIA GTX 295). kernen, in der Summe also aus 240 Kernen, besteht
(i(im Vergleich zu vier Kernen auf modernen QuadCore-
© Cornelia Kirch / Institut für Physik / JGU Mainz
8
R E C H N E R G E S T Ü T Z T E F O R S C H U N G – M AT E R I A L S I M U L AT I O N E N
Quelle: 3
höheren Programmiersprache anzusprechen, was aus HOOMD (Highly Optimized Object-
H
oriented Molecular Dynamics);
o
Gründen der Portabilität und Programmierfreund-
Endkonfiguration eines nukleierten
E
lichkeit natürlich wünschenswert ist. Seit 2003 gibt Tröpfchens. In dieser Darstellung
Tr
es nun Bestrebungen, Programmierumgebungen für sind nahe beieinanderliegende
si
Grafikkarten zu entwickeln, die der weitverbreiteten Teilchen durch zylinderförmige
T
Programmiersprache C angepasst sind. Hervorzuhe- Brücken verbunden.
B
ben ist hier CUDA (Compute Unified Device Architec-
ture) von NVIDIA, welches 2006 eingeführt wurde
und sich seitdem steigender Beliebtheit auch für wis-
senschaftliche Anwendungszwecke erfreut.
in der Informatik (vgl. den Beitrag von Johannes J. erreichbaren Rechenleistung von
e
Schneider und Elmar Schömer) oder für Berechnun- GPU und CPU in GFlop/s (engl.:
G
Giga-floating-point-operations per
G
GigaFlop / Sekunde
FORSCHUNGSMAGAZIN 2/2009 9
R E C H N E R G E S T Ü T Z T E F O R S C H U N G – M AT E R I A L S I M U L AT I O N E N
■ Kontakt
Dr. Martin Oettel
Johannes Gutenberg-Universität Mainz
Institut für Physik
D-55099 Mainz
Tel. +49 (0) 6131-39 23 645
Fax +49 (0) 6131-39 25 441
Email: oettelm@uni-mainz.de
www.cond-mat.physik.uni-mainz.de/~oettel
10
R E C H N E R G E S T Ü T Z T E F O R S C H U N G – C O M P U T E R S I M U L AT I O N E N
Seltene Ereignisse
FORSCHUNGSMAGAZIN 2/2009 11
R E C H N E R G E S T Ü T Z T E F O R S C H U N G – C O M P U T E R S I M U L AT I O N E N
gangszuständen. Solche Methoden werden auch in zwar bezüglich ihrer Richtung, jedoch nicht hinsicht-
unserer Arbeitsgruppe in Mainz aktiv weiterentwi- lich ihrer Position geordnet. Der Übergang von der
ckelt. Eine klassische Monte-Carlo-Simulation er- isotropen in die nematische Phase ist von erster Ord-
zeugt Konfigurationen des Systems entsprechend der nung, so dass Effekte von Metastabilität und Koexis-
Häufigkeit, mit der sie auch experimentell beobach- tenz (vgl. Abb. 3) zu beobachten sind.
tet würden. Angesichts von Wahrscheinlichkeitsver-
teilungen wie der in Abbildung 1 gezeigten, sind die Während die entsprechenden Übergangszustände
gesuchten Ereignisse aber so selten, dass für größere mit konventionellen Simulationsmethoden nicht mit
Systeme in der zur Verfügung stehenden Rechenzeit vertretbarem Aufwand untersucht werden können,
kein einziges zu beobachten sein wird. Wenn sich das erlauben verallgemeinerte Methoden vom Typ der
System, wie im linken Teil von Abbildung 2 angedeu- multikanonischen Simulationen eine genaue Be-
tet, in einem metastabilen Zustand befindet, wird stimmung der Landschaft der (freien) Energie. Das
es also aufgrund der Energiebarriere sehr lange Zeit Ergebnis einer solchen Simulation ist in Abbildung 4
brauchen, bis es in die thermodynamisch stabile Pha- veranschaulicht, wo die freie Energie als Funktion der
se niedrigerer (freier) Energie übergeht. Wenn man Anzahl der Stäbchen (bei konstantem Volumen) und
am Studium der Übergangszustände interessiert ist, der Ausprägung nematischer Ordnung dargestellt ist.
befindet sich das System also fast die gesamte Zeit Dies entspricht einer logarithmischen Darstellung der
im „uninteressanten“ Teil des Phasenraums. Mithilfe Wahrscheinlichkeiten. Man erkennt also, dass die
sogenannter multikanonischer Simulationen und ver- Übergangszustände auf dem Sattel zwischen den Hü-
wandter Techniken lassen sich die seltenen Ereignisse geln hochgradig unterdrückt sind.
dennoch beobachten und hochpräzise vermessen:
Die Wahrscheinlichkeit ihres Auftretens wird künst-
lich angehoben und zwar unter Umständen um viele
Größenordnungen, wobei auf die ursprüngliche Ver-
teilung jederzeit ohne systematische Fehler zurückge-
rechnet werden kann. In Abbildung 1 würde also das
„Tal“ zwischen den reinen Phasen in der Verteilungs-
funktion mit diesem Ansatz überbrückt.
Komplexe Systeme
12
R E C H N E R G E S T Ü T Z T E F O R S C H U N G – C O M P U T E R S I M U L AT I O N E N
Privat
Martin Weigel, Jahrgang
1972, studierte Physik,
Philosophie und Betriebs-
w
wirtschaftslehre an der
JJohannes Gutenberg-Uni-
vversität, wo er 1998 mit
eeiner Diplomarbeit zu kon-
fformen Skalenrelationen
b hl
abschloss. EEr wurde
d 2002 bei Prof. Wolfhard Janke
in Leipzig über Zufallsgeometrien in der statistischen
Physik und Quantengravitation promoviert. Er wech-
selte dann als Postdoc an die University of Waterloo
und 2005 mit einem Marie Curie-Stipendium der EU
Abb. 5: In einem Spinglas sind die magnetischen Mo-
mente bei tiefen Temperaturen in zufälligen relativen
nach Edinburgh. Seit 2008 leitet Martin Weigel eine
Orientierungen eingefroren. Nachwuchsgruppe im Emmy Noether-Programm, die
sich mit der statistischen Physik ungeordneter und
Dabei führt die Existenz vieler solcher metastabiler frustrierter Systeme befasst. Derzeit vertritt er einen
Konfigurationen mit ähnlichen Energien zu interes- Lehrstuhl für theoretische Physik an der Universität
santen dynamischen Phänomenen, wie etwa Ge- des Saarlandes.
dächtnis- und Verjüngungseffekten. Für die Untersu-
chung solcher Systeme mit Computersimulationen ist
der Einsatz moderner Simulationstechniken, wie der PD Dr. Tanja Schilling
Privat
FORSCHUNGSMAGAZIN 2/2009 13
R E C H N E R G E S T Ü T Z T E F O R S C H U N G – P O LY M E R S I M U L AT I O N E N
Aus der großen Komplexität vieler Materialien und optische Eigenschaften durch die Kettenmolekü-
ergibt sich oft die Notwendigkeit, Fragestellun- le (Polymere) bestimmt werden, aus denen das Mate-
gen sowohl in sehr kleinem, mikroskopischem rial aufgebaut ist.
Maßstab als auch auf deutlich größeren Län-
genskalen praktisch gleichzeitig zu beantwor- Leider ist diese Materialforschung mittels Computer-
ten. Daher werden am Max-Planck-Institut für simulation in der Praxis nicht ganz so einfach, da die
Polymerforschung Multiskalensimulationen ent- Rechenzeit, die man zur Lösung eines chemischen
wickelt und eingesetzt, bei denen mehrere Si- oder physikalischen Problems benötigt, zumindest
mulationsmethoden systematisch miteinander proportional zur Anzahl der einzelnen Teilchen ist,
verknüpft werden. die in der Simulation berücksichtigt werden. Je mehr
Teilchen, Experten sprechen hier von Freiheitsgraden,
Neben Experiment und Theorie bilden Computersi- man simulieren möchte, umso größer ist der Re-
mulationen mittlerweile in vielen naturwissenschaft- chenaufwand. Das setzt den Systemgrößen, die man
lichen Disziplinen, wie Physik, Chemie und Biologie, einfach so simulieren kann, natürliche Grenzen. Eine
ein drittes Standbein, das aus der aktuellen For- einfache Rechnung kann dieses Dilemma ein wenig
schung nicht mehr wegzudenken ist. Oft stellen sie illustrieren. Nehmen wir einmal an, wir würden alle
ein Bindeglied zwischen experimentellen Ergebnissen wichtigen molekularen Eigenschaften von Wasser
und theoretischen Vorhersagen und Deutungen dar: genau kennen, was bis heute noch nicht der Fall ist.
Zum einen kann man mit Computersimulationen zur Eine Probe von einem Milliliter Wasser enthält grö-
Interpretation von experimentellen Beobachtungen ßenordnungsmäßig 1022 Wassermoleküle. Wollte
beitragen, da sie die Möglichkeit bieten, die Prozesse, man nun lediglich die Positionen jedes einzelnen
die zu einem bestimmten Ergebnis führen könnten, Moleküls aufschreiben, so erhielte man eine Datei
auf dem Rechner „nachzustellen“. Zum anderen von mehr als einer Milliarde Terabyte, also mehr als
kann man in der Computersimulation theoretische 1.000.000.000.000.000.000.000 Byte. Allein für die
Vorhersagen unter kontrollierten Rahmenbedin- Datenspeicherung, also noch ohne jegliche Rechnung,
gungen testen und Parameter systematisch variie- wären mehr als eine Milliarde moderner Festplatten
ren, weshalb Computersimulationen auch gerne als nötig. Daraus folgt, dass man für solche makroskopi-
in-silico Experimente bezeichnet werden. schen Systeme nicht jedes einzelne Atom oder Mo-
lekül genau betrachten kann, man kann sozusagen
In Physik, Chemie und Materialforschung, aber auch nicht mit atomarer Auflösung arbeiten. Die Simulati-
in der Biologie, werden Computersimulationen viel- on atomar aufgelöster Systeme ist üblicherweise auf
fach eingesetzt, um den Zusammenhang zwischen eine bis wenige Millionen Einzelteilchen beschränkt.
physikalischen Eigenschaften (u. a. Steifigkeit, Reiß-
festigkeit, Magnetisierung als Funktion der Tempera- Nun gibt es aber speziell in der Materialforschung
tur oder Mischbarkeit von Legierungen) bestimmter Probleme oder Eigenschaften, die man nur bei ent-
Abb. 1: Die Eigenschaften einer CD
(links) ergeben sich aus dem Ver- Substanzen/Materialien und ihrer mikroskopischen sprechend großen Systemen überhaupt beobachten
knäueln und Verhaken langer Ket- (atomaren) Struktur zu untersuchen. Abbildung 1 oder erklären kann, zum Beispiel die mechanische
tenmoleküle aus vielen identischen illustriert dies anhand einer CD, deren mechanische Stabilität, aber auch das Fließverhalten von Polyme-
Einheiten und der Struktur in der
Nähe der Oberfläche (Mitte, rechts).
Alle Abb.: © Christine Peter, Kurt Kremer
14
RECHNERGESTÜTZTE FORSCHUNG – P O LY M E R F O R S C H U N G
Auf den ersten Blick erscheint es also unmöglich, nen Wassermoleküle zueinander anordnen. Hier ist
komplexe Fragen der Materialforschung mittels Com- es jedoch nicht unbedingt nötig, „riesige“ Proben zu
putersimulationen anzugehen, selbst wenn man an betrachten.
die neuesten Rechnergenerationen denkt. Es gibt je-
doch Methoden, dieses Dilemma zu umgehen, indem Man kann also in Abhängigkeit vom zu lösenden
man Beschreibungen der Systeme auf Ebenen unter- Problem verschiedene Simulationsmethoden ver-
schiedlicher Detailliertheit systematisch miteinander wenden. Dies ist in Abbildung 2 illustriert, wobei wir
verbindet. Solche Multiskalensimulationsmethoden auch hier das Beispiel Wasser gewählt haben. Die
werden in der Theoriegruppe am Max-Planck-Institut Abbildung zeigt einerseits, welche Eigenschaften von
für Polymerforschung (MPI-P) seit Jahren entwickelt. wässrigen Systemen man mithilfe von Methoden mit
Im Folgenden werden wir zur Illustration allerdings hoher Auflösung analysieren kann; sie ermöglichen
keine Beispiele aus dem Umfeld komplexer Materi- beispielsweise das Betrachten aller Atome, eventu-
alien verwenden, sondern zur Vereinfachung Wasser ell sogar der Elektronen, wenn man quantenmecha-
und wässrige Systeme. Das ist auch für unsere Arbeit nische Methoden anwendet (linke untere Ecke der
von Bedeutung, da viele (insbesondere biologische) Grafik). Andererseits zeigt Abbildung 2, für welche
Polymere wasserlöslich sind. Fragestellungen man größere Systeme – dann aber
mit geringerer Auflösung – simulieren muss (rechte
Die Grundidee bei Computersimulationen mit ver- obere Ecke der Grafik).
schiedenen Auflösungen (Skalen) ist, dass man je
nach Problem oder Fragestellung mit unterschiedli- Bisher haben wir erklärt, dass man verschiedene
cher Genauigkeit „hinschauen“ muss. Man benötigt Simulationsmethoden mit unterschiedlicher Auflö-
zum Beispiel nicht in allen Fällen Kenntnis über die sung für verschiedene Problemstellungen verwendet.
exakte Position aller Moleküle in einer Probe. Um Allerdings geht man bei Multiskalensimulationen
zum Beispiel zu verstehen, wie Wasser fließt, benö- über dieses Neben- oder Nacheinander hinaus: Hier
tigt man keine detaillierten Informationen über jedes versucht man komplexere Probleme zu erfassen, bei
einzelne Wassermolekül, sondern nur über gemittelte denen es gleichzeitig sowohl auf das Verständnis lo-
Größen, das heißt über die Durchschnittswerte von kaler, mikroskopischer Eigenschaften (sie benötigen
vielen Molekülen. Zudem benötigt man Kenntnis Methoden mit hoher Auflösung) als auch auf das Er-
über Strömungen und Verwirbelungen, die jedoch fassen makroskopischer Prozesse (sie benötigen gro-
Phänomene auf großen Längenskalen darstellen. Die ße Systeme und lange Simulationszeiten) ankommt.
dazu notwendigen gemittelten Größen, etwa die Oft sind dies Probleme, bei denen die Kenntnis der
Viskosität, kann man oft aus weniger aufwendigen lokalen Eigenschaften für das Verständnis des Ver-
FORSCHUNGSMAGAZIN 2/2009 15
R E C H N E R G E S T Ü T Z T E F O R S C H U N G – P O LY M E R S I M U L AT I O N E N
16
RECHNERGESTÜTZTE FORSCHUNG – P O LY M E R F O R S C H U N G
C. Costard/MPI-P
C
Christine Peter, Jahrgang Kurt Kremer, Jahrgang
1974, hat Chemie und Ma- 1956, studierte Physik an
tthematik an der Universi- dder Universität zu Köln.
ttät Freiburg studiert und 1983 schloss er seine Pro-
ddas Studium im Jahr 1999 motion in Theoretischer
mit dem Chemie-Diplom Physik in Köln und dem
und einer Diplomarbeit im Forschungszentrum Jülich
Bereich Festkörper-NMR- aab. Nach einem weiteren
SSpektroskopie
k k i abgeschlossen.
b hl Nach ihrer Promotion JJahr
h als
l wissenschaftlicher
i h f li h Mitarbeiter in Jülich und
in Informatikgestützter Chemie an der ETH Zürich einem Forschungsaufenthalt bei der Exxon Research
war sie mit einem DAAD-Stipendium als Post-Doc an and Engineering Corporation, Annandale, New Jer-
den National Institutes of Health in Bethesda (USA) sey, USA, kam er 1985 an die Universität Mainz in die
tätig. 2005 wechselte sie an das Max–Planck-Institut Gruppe von Prof. Kurt Binder, wo er 1988 habilitierte.
für Polymerforschung in die Gruppe von Prof. Kurt Anschließend kehrte er an das FZ Jülich zurück. Er
Kremer. Seit 2008 ist sie dort Leiterin einer Nach- verbrachte mehrere ausgedehnte Forschungsaufent-
wuchsgruppe im Emmy Noether-Programm zum halte bei Exxon Research, der UC Santa Barbara, der
Thema „Entwicklung vergröberter Simulationsmo- University of Minnesota und der Bayer AG. 1995 trat
delle zum Studium von Strukturbildung und Selbst- er der Max-Planck-Gesellschaft als sechster Direktor
aggregation in Peptidsystemen”. des Max-Planck-Instituts für Polymerforschung bei.
■ Kontakt
Prof. Dr. Kurt Kremer
Theorie der Polymere
Max-Planck-Institut für Polymerforschung
Ackermannweg 10
D-55128 Mainz
Tel. +49 (0) 6131-37 9141
Email: kremer@mpip-mainz.mpg.de
Literatur
1. Krekeler K & Delle Site L. Lone pair versus bonding pair electrons: The mechanism of electronic polarization of water in the
presence of positive ions. J Chem Phys 2008; 128: 134515.
2. Villa A, van der Vegt NFA, Peter C. Self-assembling dipeptides: including solvent degrees of freedom in a coarse-grained model.
Phys Chem Chem Phys 2009; 11: 2068.
3. Reynwar B, Illya G, Harmandaris VA, Mueller M, Kremer K, Deserno M. Aggregation and vesiculation of membrane proteins by
curvature-mediated interactions. Nature 2007; 447: 461.
4. Dünweg B, Schiller UD, Ladd AJC. Statistical mechanics of the fluctuating lattice Boltzmann equation. Phys Rev E 2007; 76:
036704.
FORSCHUNGSMAGAZIN 2/2009 17
RECHNERGESTÜTZTE FORSCHUNG – COMPUTERTECHNIK
Die kommerzielle Bedeutung von Computerani- seit den 1970er Jahren eine Theorie, die sogenannte
mation und Videospielen ist in den vergange- Quantenchromodynamik (QCD). Die Frage, ob sich
nen Jahren enorm gewachsen. Im Zuge dessen die experimentell bestimmten Eigenschaften der Pro-
stieg auch der Bedarf an immer realistischeren tonen und Neutronen aus der QCD herleiten lassen,
Visualisierungen, was zur Entwicklung spezieller ist allerdings nach wie vor eine wissenschaftliche
Grafikprozessoren geführt hat, deren Rechenge- Herausforderung, denn die komplexe mathematische
schwindigkeit um ein Vielfaches größer ist als Struktur der QCD hat sich bisher allen Lösungsverfah-
die von herkömmlichen Prozessoren. Mainzer ren mit Bleistift und Papier widersetzt.
Physiker versuchen nun, die enorme Rechen-
leistung solcher Grafikprozessoren für wissen- Der spätere Nobelpreisträger Ken Wilson hat be-
schaftliche Anwendungen zu nutzen. reits 1974 die Grundlagen für eine numerische Be-
handlung der QCD auf Großrechnern geschaffen.1 Er
Computergrafik ist aus vielen Bereichen des öffent- schlug damals vor, die QCD auf einer diskretisierten
lichen und wissenschaftlichen Lebens nicht mehr Raumzeit zu formulieren, ähnlich einem Kristallgit-
wegzudenken: Moderne CAD-Verfahren („Computer ter. Die einzelnen Gitterplätze werden dabei mit den
Aided Design“) haben das traditionelle Reißbrett ab- Quarkfeldern besetzt, während die Gluonen auf den
gelöst. Die computergestützte Visualisierung physika- Verbindungslinien (Kanten) zwischen einzelnen Git-
lischer Vorgänge dient nicht allein nur dem detaillier- terplätzen sitzen. Die Berechnung physikalischer Grö-
ten Sichtbarmachen eines Prozesses, sondern ergänzt ßen, wie beispielsweise der Masse des Protons, kann
die abstrakte Beschreibung durch die Mathematik. in dieser Formulierung durch eine sogenannte Mon-
Auch in der Unterhaltungsindustrie hat sich die Com- te- Carlo-Simulation erfolgen, ein Verfahren, das häu-
putergrafik fest etabliert: Computeranimationsfilme, fig auch in der Festkörperphysik angewendet wird.
virtuelle Welten („Second Life“) und Spielekonsolen
(Nintendo, Playstation, Xbox etc.) findet man heute Es fällt nicht schwer zu verstehen, dass eine präzise
in fast jedem Kinderzimmer. Realistische Visualisie- Berechnung physikalischer Größen nur dann gelin-
rungen erfordern allerdings einen riesigen Rechen- gen kann, wenn das Gitter möglichst feinmaschig ist,
aufwand, der mit den üblichen Mikroprozessoren, denn schließlich ist die reale Raumzeit keine diskrete
wie sie in Arbeitsplatzrechnern und Laptops einge- Punktmenge. Will man ein Proton in ein genügend
baut sind, nicht erreicht werden kann. Daher wurden großes Volumen einsperren und gleichzeitig den Git-
entsprechend optimierte Grafikprozessoren (GPUs) terabstand möglichst klein halten, braucht man eine
entwickelt. Der rasante technologische Fortschritt in große Zahl von Gitterplätzen, was natürlich mit einem
der computergestützten Bildgenerierung der vergan- hohen Rechenaufwand einhergeht. Mit der derzeit
genen Jahre ist dabei nicht zuletzt durch die enormen verfügbaren Rechner-Hardware lassen sich Systeme
Umsätze befeuert worden, die mit Animationsfilmen mit zehn Millionen Gitterpunkten behandeln, wobei
und Spielekonsolen erzielt werden konnten. der Gitterabstand etwa 1/20 der Ausdehnung eines
Protons beträgt.
Wo so viel Rechenleistung zur Verfügung steht, stellt
sich die Frage, ob sich solche Grafikprozessoren auch Derartige Systeme sind zu groß, als dass sie von ein-
für wissenschaftliche Rechnungen einsetzen lassen. zelnen Prozessoren bewältigt werden könnten. Da-
Hierbei steht also nicht die Nutzung der GPUs für die her muss man Parallelrechner einsetzen: Hierbei wird
Bildgenerierung, sondern das Anzapfen ihrer schieren das Gesamtsystem in viele verschiedene Untergitter
Prozessorleistung für besonders rechenzeitintensive aufgeteilt, die jeweils in den Hauptspeicher eines
wissenschaftliche Anwendungen im Vordergrund. einzelnen Prozessors passen. Allerdings sind diese
Eine solche Anwendung ist die numerische Untersu- Untergitter nicht unabhängig voneinander, so dass
chung und Simulation der Kernkräfte. Die sichtbare gelegentlich die Information eines Untersystems mit
Materie des Universums besteht neben den Elektro- der des Nachbarprozessors über ein schnelles Kom-
nen der Atomhülle im Wesentlichen aus den Protonen munikationsnetzwerk ausgetauscht werden muss.
und Neutronen des Atomkerns. Die kleinsten bekann- Wie effizient ein solches Verfahren ist, hängt ganz
ten Bausteine der Materie sind jedoch die Quarks, die wesentlich davon ab, wie gut Netzwerkgeschwindig-
durch den Austausch von Gluonen zusammengehal- keit und Prozessorleistung aufeinander abgestimmt
ten werden (engl. „glue“ = Leim). Zur Beschreibung sind. Eine Maschine, bei der die Balance zwischen
der Kräfte zwischen Quarks und Gluonen kennt man verschiedenen Hardware-Komponenten realisiert ist,
18
RECHNERGESTÜTZTE FORSCHUNG – COMPUTERTECHNIK
Klaus Weindel
A
Abb. 1: Das Cluster „Wilson“
am Institut für Kernphysik.
a
ist das kürzlich eingeweihte Cluster „Wilson“ am In- Als Standard-„Benchmark“ dient hierfür eine Matrix-
stitut für Kernphysik (Abb. 1). Dieses Cluster besteht Vektor-Multiplikation. Im Rahmen der Gitter-QCD be-
aus insgesamt 2.240 Prozessorkernen, die über ein schreibt die Matrix die physikalische Wechselwirkung
Infiniband-Netzwerk miteinander gekoppelt sind.2 zwischen den Quark- und Gluonfeldern. Die Dimensi-
Die Rechengeschwindigkeit eines einzelnen Prozes- on der Matrix ist riesig: Die Zahl der Spalten ist gleich
sors für Anwendungen, wie sie in der Gitter-QCD der Zahl aller Gitterpunkte multipliziert mit weite-
typisch sind, beträgt dabei 1,65 GFlop/s (engl.: Giga- ren Quantenzahlen, die den Zustand eines Quarks
floating-point-operations per second = Milliarden Re- charakterisieren. Benutzt man das oben genannte
chenoperationen pro Sekunde). Damit erreicht unser Beispiel von zehn Millionen Gitterpunkten, so hat
Anwendungscode zirka 20 Prozent der theoretisch die Matrix 1,44 mal 1016 Elemente. Allerdings sind
möglichen Rechenleistung eines Prozessorkerns. Das die meisten davon Null, denn die Kräfte zwischen
gesamte Cluster hat eine Leistung von 3.700 GFlop/s. den Quarks wirken entweder am gleichen Ort oder
Berücksichtigt man die Anschaffungskosten von nur zwischen benachbarten Gitterpunkten. In der
1,1 Millionen Euro, so muss man rund 300 Euro pro Fachsprache der Mathematik nennt man ein solches
GFlop/s bezahlen. Damit liegt „Wilson“ in der Spit- Objekt eine dünn besetzte Matrix. Es gibt verschie-
zengruppe, was Kosteneffizienz betrifft. dene Möglichkeiten, eine konkrete Wahl dieser Ma-
trix der Quark-Gluon-Wechselwirkung anzugeben.
Das „Wilson“-Cluster und auch die anderen Hoch- In unserem Projekt benutzen wir die ursprüngliche
und Höchstleistungsrechner an Universitäten und Formulierung von Ken Wilson, die unter dem Namen
nationalen Rechenzentren basieren auf Prozessoren „Wilson-Dirac-Operator“ bekannt ist. Im Laufe einer
(CPUs), die sich nur wenig von denen unterscheiden, typischen numerischen Simulation der Gitter-QCD be-
die man in handelsüblichen Arbeitsplatzrechnern fin- nötigen die Anwendungen des „Wilson-Dirac-Opera-
det. Da der Rechenzeitbedarf je nach wissenschaft- tors“ mehr als 70 Prozent der gesamten Rechenzeit.
licher Fragestellung und erforderlicher Genauigkeit Folglich konzentrieren sich alle Versuche, numerische
die derzeitigen Kapazitäten um mehrere Größenord- Simulationen der Gitter-QCD zu beschleunigen, auf
nungen übersteigen kann, liegt es nahe, die hohen die Optimierung des Wilson-Dirac-Operators.
Rechenleistungen von Grafikprozessoren für die
Gitter-QCD nutzbar zu machen. In einem gemeinsa- Ein wesentliches Architekturmerkmal von Grafikpro-
men Projekt mit der Arbeitsgruppe von Prof. Elmar zessoren ist die große Anzahl von Prozessorkernen,
Schömer vom Institut für Informatik untersucht der die auf den derzeit gängigen Plattformen zwischen
Arbeitskreis „Gitter-QCD“ am Institut für Kernphysik 128 und 240 variieren kann. Zwar gibt es auch bei
derzeit, inwieweit sich Grafikprozessoren für typische herkömmlichen CPUs einen deutlichen Trend zu
QCD-Anwendungen eignen. Mehrkernprozessoren, doch nehmen sich die han-
FORSCHUNGSMAGAZIN 2/2009 19
RECHNERGESTÜTZTE FORSCHUNG – COMPUTERTECHNIK
20
RECHNERGESTÜTZTE FORSCHUNG – COMPUTERTECHNIK
lässt sich dadurch verstehen, dass bei kleinen Gittern Univ.-Prof. Dr.
Peter Pulkowski
die Rechenleistung durch den Speicherzugriff domi- Hartmut Wittig
niert wird, der auf den GPUs relativ ineffizient ist.
Hartmut Wittig, geboren
Grafikprozessoren können also tatsächlich für extrem 1963, studierte von 1982
rechenzeitintensive wissenschaftliche Anwendungen bbis 1985 Chemie in Mainz
eingesetzt werden. Allerdings ist nicht zu erwarten, und von 1985 bis 1989 Phy-
dass Universitätsrechenzentren künftig vorwiegend ssik in Mainz und Oxford. Die
mit Systemen aus GPUs bestückt werden, denn trotz Promotion erfolgte 1992 an
der beeindruckenden Rechengeschwindigkeit ist der dder Universität Hamburg,
Programmieraufwand teilweise erheblich. Die Gitter- wo er 1998 auch habilitiert wurde. Er absolvierte For-
QCD mit ihren einfach strukturierten mathematischen schungsaufenthalte in Southampton und am Deut-
Objekten ist vermutlich einer Programmierung auf schen Elektronen-Synchrotron (DESY) in Zeuthen,
GPUs besonders zugänglich. Für Anwendungen in der bevor er von 1996 bis 2000 als „Advanced Fellow“
Klima- und Materialforschung mag das anders sein. an der Universität Oxford tätig war. Bis zu seiner Be-
rufung nach Mainz im Jahr 2005 auf eine Professur
Obwohl man vom Rechenbedarf der Unterhaltungs- für theoretische Kernphysik war er permanenter wis-
industrie profitiert, wird die Gitter-QCD durch den senschaftlicher Mitarbeiter bei DESY in Hamburg.
Einsatz von hochgezüchteten Grafikprozessoren
nicht unbedingt zum Kinderspiel. Denn die hier ge-
zeigten Ergebnisse sind alle auf einem einzelnen
System ohne Parallelisierung realisiert worden. Das ■ Kontakt
heißt, dass ein Datentransfer über Prozessorgrenzen Univ.-Prof. Dr. Hartmut Wittig
hinweg, wie er auf dem „Wilson“-Cluster stattfindet, Institut für Kernphysik
nicht berücksichtigt wurde. Kommerzielle Netzwerke Johannes Gutenberg-Universität Mainz
sind aber noch zu langsam, um mit der hohen Re- D-55099 Mainz
chengeschwindigkeit von GPUs mithalten zu können. Tel. +49 (0) 6131-39 26 808
Nachteilig ist auch, dass viele GPUs bislang nur mit Email: wittig@kph.uni-mainz.de
32-Bit-Genauigkeit rechnen können, was zwar für
die meisten Grafikanwendungen völlig genügt (es
reicht, wenn man den Gegner im Ballerspiel nur sche-
menhaft erkennt), für wissenschaftliche Zwecke aber
nicht ausreicht. Ein vielversprechender Ansatz für Literatur
die Zukunft ist daher die Entwicklung eines Systems
aus einer Kombination von Grafik- und herkömmli- 1. Wilson KG. Confinement of Quarks. Phys Rev 1974; D10:
2445
chen Prozessoren, das die jeweiligen Vorteile der
Hardware-Komponenten vereint. Solche integrierten 2. http://wwwkph.kph.uni-mainz.de/T/644.php
Systeme werden bereits von einigen Herstellern an-
geboten.
■ Summary
Computer animation and video games are a hugely
lucrative market worldwide. The ever increasing
demand for more sophisticated visualization has
driven the development of specialized graphics
hardware which achieves processing speeds far
exceeding those of “ordinary” processors found
in workstations and servers. The article describes
how the enormous computing power of graphics
processors can be exploited for scientific applications.
Here we focus on numerical simulations of the strong
nuclear force via a technique known as lattice QCD.
FORSCHUNGSMAGAZIN 2/2009 21
RECHNERGESTÜTZTE FORSCHUNG – METEOROLOGIE
Von Sebastian Limbach, Marcus Marto, Patrick Jöckel, Elmar Schömer und Heini Wernli
Die Atmosphäre unserer Erde ist ständig in Be- im Vordergrund – der numerischen Effizienz wurde
wegung, und mit den sich in Bewegung befin- vergleichsweise wenig Beachtung geschenkt.
denden Luftmassen werden auch andere Gase
und Partikel durch die Atmosphäre transpor- Trajektorienrechnungen in den Atmosphären-
tiert. Die Verfolgung solcher Luftpakete mithilfe wissenschaften
effizienter Software ist für unterschiedliche Fra-
gestellungen der Atmosphärenwissenschaften Eine klassische Anwendung von Trajektorien ist die
von Interesse, beispielsweise für die Vorhersage Ausbreitungsrechnung im Falle von bodennahen
der Ausbreitung radioaktiver Substanzen nach Emissionen, zum Beispiel aufgrund eines chemischen
einem Störfall. oder nuklearen Unfalls. Dabei steht die Frage im
Vordergrund, welche Regionen von einer Emission
Bei der sogenannten Lagrangeschen Betrachtungs- an einem bestimmten Unfallort zu einem zukünfti-
weise von atmosphärischen Strömungen wird die gen Zeitpunkt betroffen sind. Heute werden für die-
Atmosphäre in „Luftpakete“ unterteilt und deren se Fragestellung jedoch meist komplexere Modelle
Bewegung in Form von Trajektorien berechnet, ana- eingesetzt, bei denen die Mischungsprozesse in der
lysiert und visualisiert. Dabei wird angenommen, turbulenten Grenzschicht explizit berücksichtigt wer-
dass zwischen den Luftpaketen in einem Zeitraum den können. Eine damit verwandte interessante An-
von einigen Tagen kein oder ein vernachlässigbar wendung von LAGRANTO war die Untersuchung der
schwacher Austausch stattfindet. Eine Trajektorie ist Luftmassenherkunft, nachdem in der Nähe von Zü-
festgelegt durch eine Startposition und eine Start- rich erhöhte Werte von radioaktivem Jod gemessen
zeit; sie besteht aus einer Reihe von Daten, die die worden waren. Die Trajektorienrechnungen zeigten,
Positionen zu diskreten zukünftigen oder vorherigen dass das Jod mit großer Wahrscheinlichkeit von den
Zeitpunkten angeben, und somit die zeitliche Bewe- Wiederaufbereitungsanlagen in La Hague und Sella-
gung des Luftpaketes beschreiben. Diese Positionsda- field stammte. In den nächsten Abschnitten wird eine
ten werden anhand von Windfeldern berechnet, die Auswahl aktueller Projekte am Max-Planck-Institut
von einem numerischen Modell oder von sogenann- für Chemie und am Institut für Physik der Atmosphä-
ten meteorologischen „Analysen“ stammen. In den re in Mainz kurz vorgestellt. Trajektorienrechnungen
letzten 20 Jahren wurden unabhängig voneinander spielen dabei stets eine zentrale Rolle.
verschiedene Softwarepakete zur Berechnung von
Trajektorien entwickelt und in einer sehr großen Zahl Ein erstes Projekt befasst sich mit der Interpretation
von Studien zu den unterschiedlichsten Fragestellun- von flugzeuggetragenen chemischen Messungen.
gen eingesetzt, so dass sich das Lagrangesche Kon- Die Region um die Tropopause ist aus der Sicht der
zept als ein essentielles Werkzeug zur Untersuchung Atmosphärenchemie interessant, da hier stratosphä-
von atmosphärischen Strömungen etabliert hat. rische und troposphärische Luftmassen mit zum
Beispiele sind HYSPLIT1, FLEXTRA2 und das auch in Beispiel sehr unterschiedlichen Ozonkonzentratio-
Mainz intensiv verwendete und aktuell von uns wei- nen aneinander grenzen. Im Rahmen des Projektes
terentwickelte Lagrangian Analysis Tool LAGRANTO3. CARIBIC4 (Civil Aircraft for the Regular Investigation
Beim Design dieser Programme standen bisher die of the atmosphere Based on an Instrument Container)
flexible Einsatzfähigkeit und die Nutzerfreundlichkeit werden an Bord eines Lufthansa Passagierflugzeuges
Abb. 1: Die Abbildung zeigt ein re
regelmäßig Messungen der Luftzusammensetzung
Entnommen aus 5
22
RECHNERGESTÜTZTE FORSCHUNG – METEOROLOGIE
© Verfasser
chemischer Umwandlung auf die Zusammensetzung
der Luft am Messpunkt und gibt Aufschlüsse über die
Quellenregion der Bestandteile.5
FORSCHUNGSMAGAZIN 2/2009 23
RECHNERGESTÜTZTE FORSCHUNG – METEOROLOGIE
sechs Stunden Gruppen von Trajektorien bei verschie- Trajektorienberechnungen von mehreren Stunden auf
denen Messstationen gestartet (vgl. Abb. 2), insge- wenige Minuten zu reduzieren. Der Anteil von Datei-
samt in dieser Studie zirka 10.000 Trajektorien. Die zugriffen an der Gesamtlaufzeit des neuen Systems
Bewegungen der Luftteilchen wurden für jede Grup- liegt bei etwa 98 Prozent. Da jede Datei nur genau
pe separat zehn Tage lang verfolgt. Diese bisherige ein Mal eingelesen wird, haben wir unser erstes Opti-
Vorgehensweise erforderte das mehrmalige Laden mierungsziel erreicht. Offen bleibt, ob sich durch eine
derselben Daten von der langsamen Festplatte. Realisierung des zweiten Optimierungsansatzes eine
weitere Steigerung der Performance erzielen lässt.
Daher bieten sich zur Verbesserung der Gesamt-
laufzeit zwei Möglichkeiten an: Als erstes kann man
die Anzahl der Ladevorgänge auf ein Minimum be- ■ Summary
schränken. Jede Datei sollte möglichst nur ein einzi- In atmospheric sciences, trajectories are a common
ges Mal in den Speicher geladen werden. Zweitens tool for tracing the movement of “air parcels”. Up
kann man die zu ladenden Daten auf die nähere to now, existing software tools often require days or
Umgebung der aktuellen Trajektorienpositionen be- even months for the calculation of the typically large
schränken. Diese Umgebung muss jedoch für jeden number of trajectories. Interdisciplinary collaboration
Zeitschritt neu berechnet werden. Sie kann im Laufe enabled us to optimize the existing methods and to
einer Trajektorienrechnung sehr stark zunehmen und considerably improve their performance. In this article
sich eventuell auf den gesamten Datenbereich erstre- we present research projects where the calculation of
cken. Zunächst wurde der erste Optimierungsansatz trajectories is essential, and then we describe in detail
verfolgt, wodurch es gelungen ist, bei der Untersu- possible optimizations of the calculation process and
chung der bodennahen Ozonwerte die Laufzeit der software.
© Verfasser
lisierung von dreidimensionalen Isoflächen, so
nennt man die Bereiche eines Datenvolumens,
die den gleichen Wert besitzen, entsteht der-
zeit ein neuartiges 3D-Visualisierungswerk-
zeug (Abb. 3). Die Software ist auf Flexibilität
und Benutzerfreundlichkeit ausgelegt und soll
in enger Zusammenarbeit mit den Anwen-
dern weiterentwickelt werden. Sie ist als Er-
gänzung zu bestehenden Visualisierungstools
(beispielsweise HIPHOP und Vis5d) gedacht
und soll eine Plattform für neuartige Darstel-
lungstechniken bieten. Bereits geplant sind
Erweiterungen zur Erprobung alternativer
Eingabegeräte sowie die Unterstützung von
stereoskopischen Darstellungen. Abb. 3: Visualisierung von 3D-Isoflächen mit unterschiedlicher Färbung
und Transparenz durch das INSIGHT-Programm.
Literatur
1. Draxler RR & Hess GD. Description of the Hysplit_4 modeling system. Report No. NOAA Tech Memo ERL ARL-224, December 1997. Prepared by Air Resources Laboratory,
NOAA, Silver Spring, MD.
2. Stohl A & Seibert P. Accuracy of trajectories as determined from the conservation of meteorological tracers. Quart J Roy Meteor Soc 1998; 124: 1465-1484.
3. Wernli H & Davies HC. A Lagrangian-based analysis of extratropical cyclones. I: The method and some applications. Quart J Roy Meteor Soc 1997; 123: 467-489.
4. www.caribic-atmospheric.com
5. Riede H, Jöckel P, Sander R. Quantifying atmospheric transport, chemistry, and mixing using a new trajectory-box model and a global atmospheric-chemistry GCM,
Geosci Model Dev Discuss 2009; 2: 455-484. http://www.geosci-model-dev-discuss.net/2/455/2009/
24
RECHNERGESTÜTZTE FORSCHUNG – METEOROLOGIE
Astrid Kerkweg
Vlnr: Univ.-Prof. Dr. Elmar Schömer, Sebastian Limbach, M.Sc., Dr. Patrick Jöckel, Marcus Marto, Univ.-Prof. Dr. Heini Wernli.
Patrick Jöckel studierte Physik an der Technischen Sebastian Limbach studierte Informatik an der Jo-
Universität Darmstadt. Im Jahr 2000 promovierte er hannes Gutenberg-Universität Mainz und an der Uni-
an der Universität Heidelberg und am Max-Planck- versität des Saarlandes in Saarbrücken. Er arbeitet
Institut für Chemie in Mainz bei Prof. Dr. Ulrich Platt seit 2009 im Rahmen des Schwerpunktes für Rech-
und Prof. Dr. Paul Crutzen über Radiokohlenstoff- nergestützte Forschungsmethoden in den Naturwis-
monoxid (14CO) in der Atmosphäre. Seit 2008 ist er senschaften als Doktorand und wissenschaftlicher
Gruppenleiter der Gruppe „Erdsystemmodellierung“ Mitarbeiter am INSIGHT-Projekt und an weiteren
am Max-Planck-Institut für Chemie. Die Forschungs- Projekten mit Bezug zu den Atmosphärenwissen-
schwerpunkte der Gruppe beinhalten die Entwicklung schaften.
und Anwendung eines umfassenden skalenüber-
greifenden Erdsystemmodells zur Untersuchung der
Atmosphärenchemie und globaler Stoffkreisläufe Marcus Marto
sowie von Lagrangeschen Methoden in der Model-
lierung atmosphärischer Transportprozesse. Marcus Marto studiert Physik und Informatik an
der Johannes Gutenberg-Universität in Mainz. Im
Rahmen seiner Informatik-Bachelorarbeit hat er am
Univ.-Prof. Dr. Heini Wernli INSIGHT-Projekt mitgearbeitet und ist weiterhin als
wissenschaftlicher Mitarbeiter für das Projekt tätig.
Heini Wernli studierte Physik an der Eidgenössi-
schen Technischen Hochschule (ETH) in Zürich. In der
Gruppe von Prof. Dr. Huw Davies an der ETH Zürich Univ.-Prof. Dr. Elmar Schömer
promovierte und habilitierte er mit Untersuchun- ■ Kontakt
gen zur Dynamik und Struktur von außertropischen Elmar Schömer, Jahrgang 1963, studierte Informatik Sebstian Limbach, M.Sc.
Tiefdruckgebieten. Seit Herbst 2003 ist er Professor an der Universität des Saarlandes. Nach seiner Pro- Institut für Informatik
für Theoretische Meteorologie am Institut für Phy- motion (1994) und seiner Habilitation (1999) war Johannes Gutenberg-Universität Mainz
sik der Atmosphäre der Universität Mainz. Die For- er als Senior Researcher im Bereich Computational Staudingerweg 9
schungsschwerpunkte in seiner Arbeitsgruppe sind: Geometry am Max-Planck-Institut für Informatik tä- D-55128 Mainz
Dynamik und Vorhersagbarkeit von Wettersystemen tig. Seit Oktober 2002 ist er Professor für Praktische Tel. +49 (0) 6131-39 22 454
in den mittleren Breiten (Tiefdruckgebiete, Konvek- Informatik an der Johannes Gutenberg-Universität Email: limbach@uni-mainz.de
tion), globale Transportprozesse (Wasserkreislauf, Mainz. Seine Forschungsschwerpunkte sind die Com-
Spurengase) sowie Anwendungen im Bereich der putergrafik sowie effiziente geometrische Algorith-
numerischen Wettervorhersage. men und Optimierungsmethoden.
FORSCHUNGSMAGAZIN 2/2009 25
RECHNERGESTÜTZTE FORSCHUNG – ÖKONOMISCHE PHYSIK
Jeder kennt das Problem: Die Einkäufe vom Dabei geht man zumeist so vor, dass man zunächst
Wochenende sind auf dem Parkplatz des Super- vereinfachte Probleme studiert, für diese Probleme
marktes im Kofferraum eines Autos zu verstau- dann einen möglichst guten Algorithmus entwickelt
en. Aber wie packt man nun die verschiedenen und diesen dann schließlich für komplexere Prob-
Sachen, die man gekauft hat, so hinein, dass lemstellungen aus der Realität anpasst. Um die Güte
alles reinpasst und dass auch nichts beschädigt verschiedener Algorithmen besser vergleichen zu
wird? Genauso ergeht es einem, wenn ein Kof- können, werden von verschiedenen Forschergrup-
fer vor einer Flugreise zu packen ist oder wenn pen einfache Beispielprobleme publiziert, die dann
man mit dem Auto in Urlaub fährt und möglichst andere Gruppen zum Vergleich heranziehen können.
viel in den Kofferraum packen will. Manchmal werden sogar regelrechte Wettbewerbe
ausgeschrieben, bei denen neben dem Ruhm hin und
Ähnliche Packprobleme treten auch in der Wirtschaft wieder sogar kleine Geldpreise oder Trophäen für die
auf, zum Beispiel bei Transportunternehmen, wie besten Teilnehmer winken.
etwa Paketdiensten, die möglichst viele Pakete in
© J. J. Schneider
eeinem kleinen Lastwagen unterzubringen haben und Ein derartiger Programmierwettbewerb wurde kürz-
ddabei auch die Auslieferungsreihenfolge beachten lich von Al Zimmermann veranstaltet. Dabei sollten
m
müssen. Schließlich soll ja der Lieferant nicht den hal- Kreisscheiben mit unterschiedlich großen ganzzahli-
bben Lastwagen ausräumen müssen, um an das ge- gen Radien (die kleinste Kreisscheibe sollte den Ra-
w
wünschte Paket zu gelangen. Weitere Packprobleme dius 1 haben, die zweitkleinste den Radius 2 usw.) so
eergeben sich in der Textilindustrie: Aus Stoffbahnen in einen umschließenden Kreis gepackt werden, dass
m
müssen nach vorgegebenen Schnittmustern Teile der Radius dieses Umkreises minimal wird. Insgesamt
aausgeschnitten werden, die dann später zu Kleidung wurden 46 Problemstellungen mit 5 bis 50 Kreisschei-
vvernäht werden. Dabei soll die Menge des Verschnitts ben betrachtet, wobei eben bei dem Problem mit nur
m
minimiert werden. Analoge Probleme gibt es in der 5 Kreisscheiben diese die Radien 1, 2, 3, 4 und 5 hat-
H
Holz und in der Metall verarbeitenden Industrie. ten und bei dem Problem mit 50 Kreisscheiben alle
ganzen Zahlen zwischen 1 und 50 als Werte für die
W
Wie bei vielen anderen Problemstellungen auch lohnt Radien dienten. Die Grafiken in Abbildung 1 zeigen
ees sich im industriellen Bereich fast immer, derartige die von uns gefundenen neuen Weltrekordlösungen
O
Optimierungsprobleme nicht selbst von Hand anzu- für die Probleme mit 30, 40 und 50 Kreisscheiben.
ggehen, sondern sie vom Computer bestmöglich lösen Die Zahlen in den größeren Kreisscheiben geben ihre
zzu lassen; so kann möglichst billig produziert oder Radien an.
aausgeliefert werden. Dazu benötigt man natürlich ei-
nnen ausgefeilten Optimierungsalgorithmus, der eine Ähnliche Problemstellungen, beispielsweise mit gleich
m
möglichst gute Lösung für das vorgegebene Optimie- großen Kreisscheiben, werden schon seit Jahrzehnten
ru
rungsproblem liefert. Aber leider sind Packprobleme studiert. Bei der Aufgabenstellung dieses Wettbe-
zzumeist sehr komplex, so dass die Entwicklung eines werbs bestand die Neuerung somit hauptsächlich da-
dderartigen Algorithmus eine große Herausforderung rin, dass die Größe der verschiedenen Kreisscheiben
ddarstellt. stark variiert. Aufgrund dieser Neuerung auf der einen
Seite und der Verwandtschaft mit bereits bekannten
In der Physik und Mathematik beschäftigt man sich Problemen auf der anderen Seite war das Interesse
eebenfalls mit verschiedensten Packproblemen, die von zahlreichen Wissenschaftlern an dieser Aufga-
w
wissenschaftlich relevant sind. Derzeit untersucht benstellung geweckt worden. Insgesamt nahmen 155
bbeispielsweise Diplomandin Sebiha Sahin, wie Gruppen aus 32 Ländern an diesem Wettbewerb teil
m
man gleich große Kugeln möglichst dicht packen und reichten ihre Ergebnisse ein. Schließlich wurde
kkann oder wie viele Kugeln maximal um eine Kugel die von Addis, Locatelli und Schön gebildete Teilneh-
pplatziert werden können, so dass sie diese berühren; mergruppe, die die meisten Weltrekorde aufgestellt
Abb. 1: Weltrekordlösungen für LLetzteres ist als Kissing Number Problem bekannt. hatte, zum Sieger erklärt und die von den verschie-
Kreispackungsprobleme mit 30, 40 Derartige Probleme betrachtet man nicht nur in zwei denen Gruppen erreichten Ergebnisse veröffentlicht.
und 50 Kreisscheiben.
bzw. in drei Dimensionen, man geht auch zu höheren Wie bei sportlichen Wettkämpfen auch, zeigte sich,
Dimensionen über, da diese Packprobleme Anwen- dass die besten Gruppen zumeist gar nicht so weit
dungen zum Beispiel im Bereich der Digitalkommu- auseinander lagen.
nikation haben.
26
RECHNERGESTÜTZTE FORSCHUNG – ÖKONOMISCHE PHYSIK
Seit Kurzem arbeiten wir innerhalb des Schwerpunkts Um noch verbleibende kleine Lücken zu entfernen,
„Rechnergestützte Forschungsmethoden in den wird dann noch ein lokales Optimierungsverfahren
Naturwissenschaften“ in einem interdisziplinären zum Einsatz gebracht. Dabei schiebt man die äußers-
Projekt der Institute für Physik und für Informatik te Kreisscheibe zunächst etwas nach innen, wodurch
an der Entwicklung eines Computer-Algorithmus sich einerseits, wie gewünscht, der Radius des zu
zur Lösung von allgemeinen Packproblemen. Dabei minimierenden Umkreises verringert; andererseits
sollen Methoden und Erkenntnisse aus diesen bei- ergeben sich bedauerlicherweise aber oft auch Über-
den Fachrichtungen einfließen, um einen möglichst schneidungen, die man dann wieder auflösen muss,
guten Algorithmus zu entwickeln. Dieser baut zum indem man sich überschneidende Kreisscheiben so
einen auf einem in der Physik entwickelten stochas- weit auseinander schiebt, bis sie sich nur noch berüh-
tischen Optimierungsalgorithmus auf, der das Prob- ren. Dieses Reinklopfen der äußersten Kreisscheibe
lem ganzheitlich betrachtet, die Kreisscheiben kräftig mit anschließendem Auflösen der Überschneidungen
durchrüttelt und somit global nach der besten Lösung wiederholt man solange, bis sich keine Verbesserung
sucht. Zum anderen basiert er auf einer numerischen mehr erzielen lässt.
Methode aus der Informatik, die lokal nach Verbesse-
rungen sucht und somit das Gesamtsystem noch ein Die in dem Wettbewerb gestellte Aufgabe erwies sich
wenig zusammenpresst. nun als ideale Möglichkeit, die Güte unseres Algorith-
mus zu testen und diesen immer weiter zu verbes-
Der globale Algorithmus baut auf der inzwischen sern. Dabei entsprang sogar zwischen Elmar Schömer
schon klassischen physikalischen Optimierungsme- von der Informatik, Johannes J. Schneider von der
thode Simulated Annealing auf. Dabei setzt man an- Physik und dem gemeinsamen Diplomanden André
fangs die Kreisscheiben rein zufällig in die Landschaft. Müller ein freundschaftlicher interner Wettbewerb
Danach wird die Anordnung der Kreisscheiben Schritt um die besten Lösungen. Während es André Müller
für Schritt verändert, indem man beispielsweise eine als Erstem gelang, einige der Weltrekorde aus dem
Kreisscheibe leicht verschiebt oder ihr einen ganz Wettbewerb zu brechen, und Elmar Schömer zwi-
neuen Ort in der Packung zuweist. Eine weitere Mög- schendurch einen neuen Weltrekord für das Problem
lichkeit der Änderung einer Anordnung besteht darin, mit 49 Kreisscheiben aufstellte, ist nun Johannes J.
zwei unterschiedlich große Kreisscheiben schlicht Schneider alleiniger Weltrekordhalter: Bei den klei-
auszutauschen. Eine derartige Veränderung kann nun neren Problemstellungen mit bis zu 23 Kreisscheiben
dazu führen, dass sich der Radius des Umkreises ver- sowie beim Problem mit 25 Kreisscheiben hat er alle
ändert, wenn man zum Beispiel die äußerste Kreis- Weltrekorde eingestellt. Bei den größeren Problem-
scheibe etwas nach innen schiebt. Auf der anderen stellungen mit 24 Kreisscheiben bzw. mit 26 bis 50
Seite kann es auch passieren, dass zwei Kreisscheiben Kreisscheiben hat er sämtliche neuen Weltrekorde
plötzlich teilweise übereinander liegen. Ein derartiger aufgestellt, die die vorherigen zum Teil sogar deutlich
Überlapp ist eigentlich verboten. Aber ähnlich wie im unterbieten.
realen Leben, wo man manchmal zu schnell fährt und
somit ein Bußgeld riskiert, geht man hier so vor, dass Diese Ergebnisse riefen ein großes Medienecho
ein derartiger Überlapp nicht generell verboten sein hervor. So berichteten unter anderem das ZDF
soll, sondern man darauf stets ein virtuelles Bußgeld am 9. April 2009 in den Sendungen Drehschei-
zu entrichten hat. Die Strafe fällt umso höher aus, je be Deutschland und heute Nacht, die ARD am
größer der Überlapp ist. Die einzelnen Bußgelder für 2. Juli 2009 in der Sendung Nachtmagazin, New
die verschiedenen Überlapps werden dann zum Ra- Scientist Online am 6. März
dius des Umkreises hinzugezählt, wodurch sich eine 2009, Spiegel Online am
© J. J. Schneider
Gesamtsumme bildet, die man wirtschaftlich als Kos- 23. März 2009, die Frankfur-
ten oder physikalisch als Energie interpretieren kann. ter Rundschau am 24. März
Ist nun die zum Vorschlag stehende Konfiguration 2009 und die Frankfurter
besser als die vorhergehende, so geht man zur neuen Allgemeine Zeitung am
Anordnung über. Jedoch erlaubt man mit einer gewis- 31. März 2009. Außerdem
sen Wahrscheinlichkeit auch den Übergang zu einer erschienen Artikel in zahlrei-
schlechteren Anordnung. In diese Wahrscheinlichkeit chen Lokalzeitungen.
geht das Ausmaß der Verschlechterung ein, so dass
die Wahrscheinlichkeit, geringe Verschlechterungen Jedoch interessieren wir uns
anzunehmen, größer ist als die Wahrscheinlichkeit nicht nur für die Weltrekord-
von großen Verschlechterungen. Aber generell wird werte und für die Art und
Abb. 2: Hier wird angezeigt, wie
die Wahrscheinlichkeit, eine Verschlechterung anzu- Weise, wie unsere Algorithmen auff einer dderartigen groß die relative Wahrscheinlichkeit
nehmen, während des Optimierungslaufs schrittweise Problemstellung arbeiten und wie wir sie tunen müs- dafür ist, dass zwei unterschiedlich
verringert, bis zum Schluss nur noch Verbesserungen sen. Es geht uns auch um ganz konkrete Fragestel- große Kreisscheiben mit den Radien
akzeptiert werden. Auf diese Art und Weise wird die lungen aus der Praxis: Ist es zum Beispiel sinnvoll, i und j direkt nebeneinander liegen.
Packung schrittweise immer besser, bis die Kreisschei- die größeren Teile nebeneinander zu packen, oder
ben schließlich ziemlich nahe aneinander liegen. sollten größere Teile generell von mittelgroßen Teilen
FORSCHUNGSMAGAZIN 2/2009 27
RECHNERGESTÜTZTE FORSCHUNG – ÖKONOMISCHE PHYSIK
umgeben sein? Dazu vergleichen wir beispielsweise Physik, das Ising-Modell, und erzielte im Vergleich zu
für das Problem mit 50 Kreisscheiben die besten Lö- einer modernen CPU, der herkömmlichen zentralen
sungen miteinander, die wir dafür erhielten. Für die in Recheneinheit eines Computers, auf einer Geforce
Abbildung 2 gezeigte Grafik haben wir etwa 10.000 GTX280-Grafikkarte von Nvidia einen Beschleuni-
Lösungen miteinander verglichen, die wir bei unse- gungsfaktor von 60. Ebenso untersuchte er auf dieser
ren Versuchen erhielten und die fast so gut wie die Architektur Finanzmarktdaten und implementierte
Weltrekordlösung sind. Die Zahlen auf der x- und der komplexere numerische Methoden aus dem Bereich
y-Achse geben die Radien „i“ und „j“ zweier Kreis- der Zeitreihenanalyse. Aufbauend auf den dabei ge-
scheiben an, nach oben ist aufgetragen, wie häufig wonnenen Erkenntnissen gelang es André Müller, den
die beiden jeweiligen Kreisscheiben nebeneinander Optimierungsalgorithmus ebenfalls auf eine Grafik-
liegen. Ein Wert von 1 für ein Paar von Kreisschei- karte zu übertragen und ähnliche Beschleunigungs-
ben würde bedeuten, dass diese in allen Lösungen faktoren zu erreichen.
zueinander benachbart sind. Dabei ergibt sich kein
eindeutiges Bild. Es ist also beispielsweise nicht so, ■ Summary
dass die Kreisscheibe mit Radius 37 stets neben der Packing like a champion. We work in an interdiscipli-
Kreisscheibe mit Radius 49 liegen muss, um eine nary research project spanning physics and computer
möglichst gute Lösung zu erhalten. Dennoch erkennt science on the development of a high performance
man gewisse Tendenzen: So ist es offensichtlich vor- optimization algorithm for packing problems. We
teilhaft, die großen Kreisscheiben nebeneinander were able to prove the superiority of our algorithm
zu platzieren. Zudem zeigt sich, dass Kreisscheiben for a problem in which disks of various sizes have to
mit den Radien 14-16 sehr gerne direkt neben den be packed in a circumcircle with minimum radius. All
größten Kreisscheiben liegen. Hier stellt sich nun die world records, which were established in competition
Frage, warum dem so ist. Wenn man sich nochmals between 155 groups from 32 countries in an inter-
die obigen Weltrekordlösungen ansieht und diese ge- national contest, were either matched or beaten by
nauer analysiert, so beantwortet sich diese Frage von our algorithm.
selbst: Liegen zwei der größten Kreisscheiben beim
Problem mit 50 Kreisscheiben direkt nebeneinander
P Dr. Johannes Josef
PD
Fotostudio Stern, Straubing
wie sein Bart im Wind flattert, wobei jedes einzelne Univ.-Prof. Dr.
Barthaar zu erkennen sein soll. Die dafür zur Verfü- Elmar Schömer
gung stehende Rechenpower kann auch in sinnvolle-
re Bahnen gelenkt werden, um wissenschaftliche Be- Das Curriculum Vitae von
rechnungen direkt auf Grafikkarten durchzuführen. Elmar Schömer finden Sie
Erste Erfahrungen wurden dabei von Tobias Preis, aauf Seite 25.
Doktorand von Johannes Josef Schneider und Junior-
mitglied der Gutenberg-Akademie, gesammelt. Er
implementierte das Standardmodell der statistischen
28
RECHNERGESTÜTZTE FORSCHUNG – QUANTENCHEMIE
Moleküle im Computer-Labor
Mit der Entwicklung paralleler und schneller In vielen Fällen werden spektroskopisch ermittelte
Computerprogramme erweitert sich auch das An- Größen durch die Geometrie der untersuchten Mo-
wendungsfeld der Quantenchemie. Bereits heute leküle bestimmt. Im Arbeitskreis Theoretische Chemie
können die Eigenschaften kleiner Moleküle sehr werden unter anderem solche Größen mit hoher Ge-
genau berechnet werden, zum Beispiel Energien nauigkeit berechnet. Dazu wird die Grundgleichung
mit einer Genauigkeit von besser als ein Kilo- der Quantenmechanik, die Schrödinger-Gleichung,
Joule pro Mol. Die weniger genauen, aber doch näherungsweise gelöst. Eine exakte, analytische
recht zuverlässigen Ansätze, die für die Unter- Lösung dieser Gleichung ist nur für sehr einfache
suchung großer Moleküle zur Verfügung stehen, Probleme, wie ein Zweikörperproblem, möglich. Da
erlauben darüber hinaus die erfolgreiche Anwen- schon kleine Moleküle, wie beispielsweise ein Was-
dung quantenchemischer Methoden auch in den sermolekül (H2O), ein komplexes Mehrteilchensystem
Material- oder Biowissenschaften. darstellen (Wasser besteht aus drei Atomkernen und
zehn Elektronen), ist die Entwicklung sinnvoller und
Die Quantenchemie befasst sich mit der Vorhersage möglichst guter Näherungsverfahren ein wesentli-
von Moleküleigenschaften, die das chemische und cher Bestandteil der Forschung in der theoretischen
physikalische Verhalten der untersuchten Molekü- Chemie.
le bestimmen. Solches Wissen ist notwendig, wenn
man gezielte Voraussagen über die Resultate expe- Das grundsätzliche Vorgehen bei der Entwicklung
rimenteller Untersuchungen machen möchte. Dazu solcher Näherungen basiert auf folgenden Ideen.
gehören beispielsweise die Energie des Moleküls, die Zunächst ist es möglich, die Dynamik von Atomker-
elektronische Struktur und die Geometrie, das heißt nen und Elektronen getrennt zu betrachten, da sich
die relative Anordnung der Atomkerne zueinander. letztere aufgrund ihrer sehr viel kleineren Masse (ein
Für die chemische Forschung sind alle diese Größen Elektron wiegt etwa 1/2000 eines Wasserstoffatom-
von entscheidender Bedeutung. So bestimmt die kerns) sehr viel schneller bewegen. Somit kann man
Energiebilanz einer chemischen Reaktion, ob diese für die Bestimmung der elektronischen Struktur von
freiwillig abläuft oder ob Energie zugeführt werden Molekülen einerseits davon ausgehen, dass sich die
muss, indem man zum Beispiel heizt. Die Geometrie Atomkerne in erster Näherung gar nicht bewegen
und die auf die Atomkerne wirkenden Kräfte bestim- (sogenannte clamped nuclei) und andererseits die
men die Frequenzen, mit denen ein Molekül Schwin- Atomkerne lediglich ein mittleres elektrostatisches
gungen ausführt und somit auch, inwieweit Energie Feld sehen, das über die schnelle Elektronenbewe-
absorbiert werden kann. Solche Schwingungen kön- gung gemittelt ist (Born-Oppenheimer Näherung).
nen mittels spektroskopischer Methoden (Infrarot, Die molekulare Geometrie lässt sich durch die Lö-
Raman) experimentell untersucht werden. sung beider Probleme bestimmen, indem man die
elektronische Struktur bei vorgegebener Anordnung
Ein Gegenstand der quantenchemischen Forschung der Atomkerne ermittelt und dann die Energie des
ist daher auch die Entwicklung und Anwendung von Moleküls und insbesondere die auf die Atomkerne
Rechenmethoden, die genaue Informationen über die wirkenden Kräfte berechnet. Danach ändert man die
physikalischen und chemischen Eigenschaften von Kernkonfiguration (Anordnung) und wiederholt die
Molekülen liefern. Dabei ermöglicht die Entwicklung Energiebestimmung. Diesen Zyklus durchläuft man in
immer leistungsfähigerer Computer einerseits eine einer geschickt gewählten Abfolge von Konfiguratio-
stetig steigende Genauigkeit der Ergebnisse und nen, bis man das energetische Minimum erreicht hat,
andererseits die Behandlung immer komplexerer in dem keine Kräfte mehr auf die Atomkerne wirken.
Moleküle. Beide Aspekte erweitern das Anwendungs- Die entsprechende Kernkonfiguration entspricht dann
spektrum quantenchemischer Untersuchungen in der der Gleichgewichtsgeometrie des Moleküls.
chemischen Forschung kontinuierlich. Die geschickte
Kombination von theoretischen Berechnungen spekt- Ein großes Problem bei dieser Vorgehensweise ist die
roskopisch relevanter Größen und ihre experimentelle Tatsache, dass auch bei festgehaltenen Kernen das
Bestimmung erlauben die detaillierte Untersuchung Problem der Elektronenbewegung nicht exakt gelöst
der Eigenschaften von bekannten, aber auch von werden kann und somit auch das effektive Feld, das
neuen Molekülen. Die Anwendungen dieser Konzep- die Kernkonfiguration festlegt, nicht exakt ermittelt
te können erfolgreich in unterschiedlichen Bereichen werden kann. Die einfachste Näherung, die auch his-
der chemischen und physikalischen Forschung einge- torisch zu würdigen ist, besteht in einem Ansatz, der
setzt werden. die Bewegung eines Elektrons im gemittelten Feld
FORSCHUNGSMAGAZIN 2/2009 29
RECHNERGESTÜTZTE FORSCHUNG – QUANTENCHEMIE
© Verfasser
relevanten mittleren elektrostatischen Feldes und
somit der Gleichgewichtsgeometrie. Diese liefert
die Grundlagen für die theoretische Bestimmung
spektroskopisch relevanter Parameter, die zur Inter-
pretation experimenteller Daten herangezogen wer-
den können. Es gibt eine Vielzahl quantenchemischer
Näherungsverfahren, welche die angesprochenen
„Ausweichmanöver” der Elektronen, die sogenannte
Elektronenkorrelation, beschreiben.
30
RECHNERGESTÜTZTE FORSCHUNG – QUANTENCHEMIE
FORSCHUNGSMAGAZIN 2/2009 31
RECHNERGESTÜTZTE FORSCHUNG – QUANTENCHEMIE
P
Prof. Dr. Gregor
P. Sigl
Diezemann
D
G
Gregor Diezemann, Jahrgang
11961, studierte Chemie an
dder Universität Mainz, wo
eer 1992 in Physikalischer
C
Chemie promovierte. Nach
FForschungsaufenthalten an
dder Technischen Universität
h ((1995)) undd am Massachusetts Institute
München
of Technology in Cambridge (USA, 1998) habilitierte
er im Fach Physikalische Chemie und kam 2002 als
wissenschaftlicher Mitarbeiter in die Arbeitsgruppe
Theoretische Chemie. Seit 2007 ist er außerplanmä-
ßiger Professor am Institut für Physikalische Chemie.
Seine Forschungsgebiete umfassen Themen aus der
Statistischen Physik, wie die theoretische Beschrei-
bung kraftspektroskopischer Untersuchungen und
die Dynamik in komplexen Systemen sowie die Un-
tersuchung von Energietransfer-Prozessen in Modell-
systemen.
A
Andreas Köhn, Jahrgang
11974, studierte Chemie
aan der Universität Karls-
rruhe (Diplom 1999) und
ppromovierte dort 2003 in
TTheoretischer Chemie. Nach
PPostdoc-Aufenthalten am
FForschungszentrum Karlsru-
h (2003) undd an der
he d U i
Universität Aarhus (Dänemark,
2004-2005) kam er an die Universität Mainz, wo er
seitdem eine Nachwuchsgruppe in Theoretischer
Chemie leitet. Aktuelle Forschungsschwerpunkte sind
optische Eigenschaften von Molekülen, Energietrans-
fer-Prozesse und symbolische Algebra zur Entwick-
lung neuer quantenchemischer Verfahren.
U
Univ.-Prof. Dr.
Th. Hartmann
JJürgen Gauß
J
Jürgen Gauß, Jahrgang
11960, studierte Chemie an
dder Universität zu Köln, wo
eer 1988 in Theoretischer
C
Chemie promovierte. Nach
zzwei Jahren als Postdoc in
dden USA (University of Wa- ■ Kontakt
hi
shington, SSeattle
l undd U
University of Florida, Gaines- Univ.-Prof. Dr. Jürgen Gauß
ville) kam er 1991 nach Karlsruhe, wo er 1994 habi- Institut für Physikalische Chemie
litierte. 1995 wurde er C3-Professor für Theoretische Johannes Gutenberg-Universität Mainz
Chemie an der Universität Mainz und seit 2001 ist er D-55128 Mainz
C4-Professor. Im Jahr 2005 erhielt er für seine For- Tel. +49 (0) 6131-39 22 709
schungsarbeiten auf dem Gebiet der Quantenchemie Email: gauss@uni-mainz.de
den Gottfried Wilhelm Leibniz-Preis der Deutschen
Forschungsgemeinschaft.
32
R E C H N E R G E S T Ü T Z T E F O R S C H U N G – B I O I N F O R M AT I K
FORSCHUNGSMAGAZIN 2/2009 33
R E C H N E R G E S T Ü T Z T E F O R S C H U N G – B I O I N F O R M AT I K
gezielt diejenigen Bereiche des Genoms erfasst wer- werden (Abb.1A, B). Nacheinander werden die vier
den, die funktionell wichtig sind und Aussagen über DNA-Bausteine Adenin (A), Guanin (G), Cytosin (C)
die Regulation der Genaktivität in verschiedenen und Thymin (T) hinzugefügt (Sequenzierzyklus 1).
Entwicklungsstadien und Geweben eines Organis- Zwischen den einzelnen Nukleotidzugaben erfolgen
mus liefern. Waschschritte, die das System „zurücksetzen“. Wenn
der Matrizenstrang zum Beispiel ein Adenin enthält,
Bye bye Sanger: die neue Generation von leuchtet das Well ausschließlich bei der Zugabe von
Sequenzierungsverfahren Thymin auf. Danach erfolgt der nächste Sequenzierzy-
klus, wieder mit den vier Zugabeschritten. Wenn hier
Das Wesen von NGS besteht in dem Verzicht auf lang- zum Beispiel der Lichtblitz bei G-Zugabe entsteht
same und kostspielige Abläufe. Abgeschafft wurden und dreimal so stark ist wie der Blitz in Zyklus 1, so
die klassische Klonierung von DNA, durch die man lautet die Sequenz bis hierhin „TGGG“. Die Darstel-
homogenes Erbmaterial für die Sequenzierung er- lungsform solcher Sequenzdaten („Flowgram“) ist in
hielt, und der unpraktische Sequenz-Leseschritt durch Abbildung 1C gezeigt. Durchschnittlich etwa 400
Gelelektrophorese. Die Durchführung der Sequenzie- Nukleotide (geplant sind bis 1.000) können so derzeit
rungsreaktion im Mikro- oder zukünftig gar Nano- pro Well gelesen werden. Diese Leselänge kommt dem
maßstab senkt den Reagenzienverbrauch drastisch. Sangerverfahren nahe und ermöglicht eine passable
Drei NGS-Verfahren konkurrieren derzeit auf dem Aufstellung (Assemblierung) von Teilsequenzen eines
Markt, basieren aber auf unterschiedlichen Prinzipien Genoms. Die 454-Technologie gilt daher als Methode
und werden zum Teil unterschiedliche Anwendungs- der Wahl für die de novo-Sequenzierung unbekann-
gebiete in der Genomforschung haben. ter DNA. Aber auch die Re-Sequenzierung bekannter
Genome (Mensch, Bakterienstämme etc.) und die Se-
Das meist verbreitete Verfahren von 454 Life quenzierung von Transkriptomen lassen sich mit der
Sciences/Roche ist eine Weiterentwicklung der be- vielseitigen 454-Technik durchführen. Die Datenmen-
reits Anfang der 1990er Jahre erdachten Pyrosequen- gen sind mit bis zu 500 Mega-Basenpaaren (MBp)
zierung (Abb. 1A). Zunächst wird die zu sequenzie- Sequenzinformation pro zehn Stunden Gerätelauf
rende DNA (etwa ein komplettes Genom oder Kopien bereits erheblich (Sanger-Kapillarsequencer: ein MBp
der Gentranskripte = cDNA) physikalisch zerlegt. Die pro Tag), liegen jedoch unterhalb der beiden anderen
Bruchstücke werden einzeln an 20μm-Mikrokügelchen Systeme, die daher für rein quantitative Applikatio-
(Beads) gekoppelt und daran heftend durch eine Po- nen (Auszählen von DNA-Schnipseln, wie etwa zur
lymerasekettenreaktion (PCR) klonal vermehrt; das Messung der Genexpression) besser geeignet sind.
heißt, eine Kugel trägt viele identische Kopien eines Schwächen hat die 454-Technologie prinzipbedingt
bestimmten DNA-Moleküls. Die Beads werden nun beim Lesen langer Homopolymer-Abschnitte, die
einzeln in Löcher einer sogenannten Picotiter-Platte jedoch in den wichtigen kodierenden Genbereichen
gefüllt. Bei einer Million Mikro-Reaktionslöchern nicht so häufig sind: Es ist schwierig, die Lichtinten-
(Wells) pro Platte können ebenso viele verschiede- sität nach Einbau von zum Beispiel 20 C-Nukleotiden
ne Moleküle gleichzeitig sequenziert werden. Bei gegenüber nur 19 Bausteinen zu diskriminieren.
der eigentlichen Sequenzreaktion wird wie bei San- Dennoch liegt insbesondere bei ausreichend hoher
ger ein Einzelstrang des zu sequenzierenden DNA- Redundanz (das heißt mehrfachem Sequenzieren
Moleküls als Vorlage genommen und mithilfe eines derselben DNA-Region) die Lesegenauigkeit bei etwa
Primers und einer Polymerase zum Doppelstrang 99 Prozent.
ergänzt („sequencing-by-synthesis“). Immer wenn
ein Nukleotid richtig, das heißt komplementär zum Die zwei weiteren Verfahren der Firmen Illumina
Vorlagenstrang, eingebaut wird, kann das dabei frei- („Genome Analyzer II“) und ABI („SOLiD“) sind tech-
gesetzte Pyrophosphat (PPi) mithilfe eines in den nisch ebenfalls ausgesprochen elegant. Beide produ-
Wells befindlichen Enzymsystems zunächst in den zieren erheblich größere Datenmengen, aber mit 35
Energielieferanten Adenosintriphosphat (ATP) und bis 100 Basenpaaren (Bp) viel kürzere Leseweiten pro
dann in einen zu messenden Lichtblitz umgewandelt Teil-Sequenzierung (Read). Für eine detaillierte Erklä-
rung dieser Verfahren und der bereits angekündigten
© T. Hankeln
34
R E C H N E R G E S T Ü T Z T E F O R S C H U N G – B I O I N F O R M AT I K
über das Genom daraus zu generieren. In der Zeit- 70 Bp-short Reads mehr als 1.800 Contigs produ-
© T. Hankeln
Rohdaten in bisher nicht gekanntem Umfang. Das
im Shotgun-Verfahren.
SOLiD-System erfordert 15 Terabyte (TB) an Speicher
für die reine Arbeitsumgebung sowie 30-40 TB für Herstellung der Teil-Sequen-
mittelfristige Datenarchivierung. Dabei ist eine Lang- zierungen (Reads)
zeitlagerung der wertvollen Rohdaten ratsam. Cha-
rakteristisch für die 454-Pyrosequenzierung sind zum
Beispiel falsche Abschätzungen der Nukleotidzahl
in Homopolymer-Nukleotidabschnitten, artifizielle
Baseninsertionen und Fehler durch unterschiedliche
Matrizen-Moleküle an einem Bead. Die sogenann-
ten Base-Calling-Algorithmen werden jedoch stetig
verbessert und eine Re-Analyse alter Läufe ist daher
sinnvoll. Parallel zum Problem der Archivierung sto- Abb. 2B. Assemblierung der
ßen die althergebrachten Laborprotokollbücher an Gesamtsequenz in drei Schritten
(„overlap-layout-consensus“-
ihre Grenzen und müssen durch professionelle Labor-
Ansatz).
Managementsysteme ersetzt werden.
FORSCHUNGSMAGAZIN 2/2009 35
R E C H N E R G E S T Ü T Z T E F O R S C H U N G – B I O I N F O R M AT I K
36
R E C H N E R G E S T Ü T Z T E F O R S C H U N G – B I O I N F O R M AT I K
mit eine detaillierte Rekonstruktion prähistorischer enormous biomedical impact. The huge amounts of
demographischer Dynamik möglich wird. sequence data produced by NGS, however, create ■ Kontakt
big challenges for bioinformatics methods to keep
■ Die AGs Lieb (Zoologie) und Hankeln (Molekular- pace. The University of Mainz “Competence Center Univ.-Prof. Dr. Thomas Hankeln
genetik) arbeiten im Rahmen des DFG-Schwerpunkt- for Nucleic Acid Analysis“ and the research focus Institut für Molekulargenetik, gentechnische
programms 1174 „Deep Metazoan Phylogeny“ mit “Computational Sciences Mainz“ are joining forces Sicherheitsforschung und Beratung
großen Sequenzdatensätzen (sogenannte Phylogeno- to centrally establish NGS technology. Johannes Gutenberg-Universität Mainz
mik) an der Aufklärung der stammesgeschichtlichen Johann-Joachim-Becher-Weg 30a
Stellung und des Genrepertoires exotischer Tiergrup- D-55128 Mainz
Tel. +49 (0) 6131-39 23 277
pen, für die es bislang keine Gen(om)information
Fax +49 (0) 6131-39 24 585
gibt. Hierzu zählen extrem seltene Molluskenarten
Email: hankeln@uni-mainz.de
aus der Tiefsee sowie Rädertierchen mit ungewöhnli-
chen Fähigkeiten zur Trockenheitstoleranz und Strah-
lungsresistenz.
■ In Kooperation mit der Uni Frankfurt bearbeitet die Univ.-Prof. Dr. Thomas Hankeln
U
Privat
FORSCHUNGSMAGAZIN 2/2009 37
THEOLOGIE
Das Thema „Religion und Gewalt“ hat Kon- sitionen, die die Autonomie der anderen respektiert,
junktur. Unzählig sind die wissenschaftlichen zu verzichten. Legitim erscheint ihnen umgekehrt die
wie populären Analysen des Gewaltpotentials (notfalls gewaltsame) „politische… Durchsetzung
von Religion. In der Öffentlichkeit besonders von eigenen Überzeugungen … auch dann ..., wenn
wahrgenommen wurde die holzschnittartige diese alles andere als allgemein akzeptabel sind“
These des amerikanischen Politologen Samuel (Jürgen Habermas).
Huntington, nach dem Ende des Kalten Krieges
würden Konflikte nun durch die Gegensätze Angesichts dieser reichlich ernüchternden Bestands-
zwischen den Kulturen (engl. civilizations) be- aufnahme zur Konfliktverschärfung durch Religion
dingt. Laut Huntington kommt den Religionen drängt sich vor allem eine Frage auf: Müsste man
bei der Prägung jener Kulturen und damit auch nicht im Namen des Pazifismus die Forderung er-
bei den erzeugten Konflikten die wichtigste heben, auf Religion gänzlich zu verzichten? Doch
Bedeutung zu. hier gilt wohl die Mahnung des Philosophen Odo
Marquard: „Wer angesichts von … Knollenblätterpil-
Wie schematisch und undifferenziert Huntingtons zen die Forderung erhebt, man solle das Essen gänz-
Untersuchung zum „Clash of Civilizations“ daher- lich bleibenlassen, der geht … einfach zu weit“. Eher
kommt, ist oft bemerkt worden und braucht hier nicht wird es darauf ankommen – um im Bilde Marquards
wiederholt zu werden. Vor allem ist die grundsätzli- zu bleiben – zwischen solchen Elementen von Reli-
che Behauptung Huntingtons nicht haltbar, die Ver- gion, die dem Frieden „bekömmlich“ sind, und sol-
schiedenheit der Religionen sei die zentrale Quelle chen, die dies nicht sind, zu unterscheiden und die
vvon Gewalt und Krieg. Untersuchungen der letzten derart differenzierte Religion in die Bemühungen um
Quelle: http://religionen-und-gewalt.uni-hd.de/
Ja
Jahre haben gezeigt, dass Religion nur selten selber den Frieden in der Welt einzubeziehen. Denn Religion
K
Konflikte auslöst. Wohl aber kann sie ökonomische wird so schnell nicht aus dieser Welt verschwinden,
uund machtpolitische Zwietracht verschärfen. Und eher scheint ihre Bedeutung zuzunehmen. Man mag
w
wenn sie dies tut, dann immer erheblich. Wodurch? dies bedauern, man mag dies begrüßen. Auf jeden
EEinige grundsätzliche Überlegungen dazu sind im Fall erweist es sich als dringlich, zusammen mit den
FFolgenden dargestellt. Religionen, und nicht gegen sie, auf eine friedlichere
Welt hinzuarbeiten.
K
Konflikte im Bereich von Ökonomie und Politik ma-
cchen Mitmenschen zu Gegnern. Religion verschärft Aus diesem Grund ist es unerlässlich, auch Frieden
ddiese Gegnerschaft, wenn sie den Gegner nicht nur fördernde Aspekte von Religion wissenschaftlich zu
aals meinen Feind, sondern als Feind des Göttlichen analysieren.1 Religiöses Gewaltpotential lässt sich
Gehört Gewalt zum Wesen vversteht. Jean-Jacques Rousseau schätzt die Konse- nicht nur durch Kritik von Religion, sondern eben
von Religion?
quenzen realistisch ein: „Selbst Engel würden mit auch durch die Erinnerung an religiöses Friedens-
den Menschen nicht in Frieden leben, wenn sie die- potential eindämmen.
selben als Feinde Gottes betrachteten.“
Eine solche Erinnerung ist in Bezug auf alle Religio-
Ähnlich zuspitzend wirkt es, wenn Religion zu Kom- nen möglich. Denn in allen Religionen, so hat die re-
promissen unfähig macht. Das kann etwa dadurch ligionswissenschaftliche Forschung der letzten Jahre
passieren, dass eine Streitpartei eine Absolutheit gezeigt, sind sowohl Möglichkeiten zu Krieg als auch
göttlicher Vorschriften behauptet und diese somit zu Frieden enthalten. Jede Religion hat ihre gewalt-
weder relativiert noch zur Disposition gestellt werden samen und ihre friedlichen Potentiale realisiert – und
dürfen. Handlungen, die den göttlichen Anweisungen realisiert sie noch. Keine Religion kann die Gewaltta-
entsprechen, erscheinen als unbegrenzt legitim, alle ten anderer Religionen aufzählen und dann über de-
Mittel zur Durchsetzung der Vorschriften als heilig. ren Schlachtfeldern quasi engelsgleich oder wie eine
Schließlich wirkt auch eine in fundamentalistischen Friedenstaube aufsteigen.
Kreisen zu findende geschichtsphilosophische Inter-
pretation der Moderne in die gleiche Richtung, wenn Nachfolgend soll das Friedenspotential von Religion
sie lautet: „Die neuzeitliche Autonomie und der exemplarisch am Christentum vorgeführt werden.
selbständige Vernunftgebrauch sind der große Abfall Dies ist freilich nur im selbstkritischen Bewusstsein
von Gott.“ Fundamentalisten fühlen sich dann dazu dessen möglich, dass das Christentum sein eigenes
legitimiert, auf eine rationale Begründung ihrer Po- Friedenspotential nur allzu oft nicht fruchtbar ge-
38
THEOLOGIE
macht hat, und im Wissen darum, dass solches Frie- ten dadurch ausgelöst, dass der oder die andere als
denspotential auch bei anderen Religionen zu finden Bedrohung der eigenen Existenz wahrgenommen
ist. Entsprechend kann das Sprechen vom Friedenspo- wird. Feindschaft versteht sich dann als Reaktion auf
tential des Christentums nur ein Beitrag zum Frieden Feindschaft. Die Antwort auf die Frage, wer mit der
in der Welt sein. Doch ein Beitrag zum Frieden in der Feindschaft „angefangen“ hat, wird in dieser Logik
Welt, dies ist, so scheint mir, nicht nichts. zur Voraussetzung von Frieden. Die christliche Got-
tesvorstellung hält uns eine andere Logik vor Augen:
„Friede macht Reichtum, Reichtum macht Übermut, Frieden beginnt mit einem einseitigen, zuvorkom-
Übermut bringt Krieg, Krieg bringt Armut, Armut menden Unterfangen, welches die Feindschaft des
macht Demut, Demut macht wieder Frieden.“ Frieden anderen quasi ins Leere laufen lässt.
aber macht Reichtum … – diese bei Julius Zinkgref
überlieferte Weisheit erzählt den Wechsel von Frieden Auch im Selbstverhältnis des Menschen gibt es so
und Krieg als immerwährenden Kreislauf, aus dem es etwas wie Feindschaft. Angesichts dessen, was er in
kein Entkommen gibt. Solch ein Zyklus gehört zum der Vergangenheit getan hat, kann sich der Mensch
Menschsein dazu. Frieden ist dann die Pause zwi- selbst Feind sein, also sich hassen wegen seiner Taten.
schen zwei Kriegen. Kriege aber sind menschlich – Und er kann sich Feind sein angesichts dessen, was er
FORSCHUNGSMAGAZIN 2/2009 39
THEOLOGIE
Regina Shin
aauf die Schwäche des anderen verändern: Sie ver- Christiane Tietz
bbietet ein Ausnutzen dieser Schwäche und stellt den
aanderen in seiner unveräußerlichen, weil in Gottes Christiane Tietz, geboren
ZZuwendung begründet gedachten Menschenwürde 1967, studierte Mathe-
vvor Augen. matik und Evangelische
Jede Religion enthält auch friedens- Theologie in Frankfurt am
förderliche Elemente. FFrieden, so hieß es bereits, ist nach biblischem Ver- Main und Tübingen; es
ständnis mehr als die Abwesenheit von Feindschaft folgten im Jahr 1999 die
und Krieg. Frieden ist für die biblischen Texte ein Promotion und 2004 die
umfassend lebensförderlicher Zustand, Schalom. H bili i iin Tübi
Habilitation Tübingen; Gastdozentin unter ande-
Damit wird daran erinnert: Frieden mit einem ande- rem an den Universitäten Cambridge und Heidelberg
ren haben heißt sein Leben fördern. Nur durch einen sowie am Union Theological Seminary in New York
solchen Frieden, der das Leben des anderen fördert, City; 2006-2008 Heisenberg-Stipendiatin der DFG; WS
lässt sich Krieg tatsächlich vermeiden. Daraus folgt: 2007/08 Member in Residence am Center of Theolo-
Wo Frieden zwar Abwesenheit von Krieg bedeutet, gical Inquiry in Princeton; seit dem Sommersemester
aber nicht lebensförderlich ist, dort ist der christli- 2008 Lehrstuhlinhaberin für Systematische Theologie
che Friedensgedanke noch nicht realisiert. Dort ist und Sozialethik an der Universität Mainz; Mitglied im
im Gegenteil ein Streit gefordert, der Konstellationen Trägerkreis des DFG-geförderten Graduiertenkollegs
benennt und Spannungen bearbeitet, die dem Leben „Die christlichen Kirchen vor der Herausforderung
nicht förderlich sind. ‚Europa’ (1870 bis zur Gegenwart)“; Vorsitzende der
Internationalen Bonhoeffer-Gesellschaft, Sektion BRD.
Im Kontext religiös verschärfter Gewalt heißt das Ihre Forschungsschwerpunkte sind Religion und Poli-
konkret: Das Ende des gegenseitigen Sich-Umbrin- tik, Interreligiöser Dialog sowie Dietrich Bonhoeffer.
gens ist zweifellos das vorrangige Ziel eines Frie-
dens zwischen den Religionen. Frieden zwischen den
Religionen muss aber noch mehr implizieren, näm-
lich auch das kritische Gespräch über Elemente der ■ Kontakt
fremden (und eigenen) Religion, die nicht lebensför- Univ.-Prof. Dr. Christiane Tietz
derlich sind. Zum Frieden zwischen den Religionen Evangelisch-theologische Fakultät
gehört deshalb unbedingt die Auseinandersetzung Johannes Gutenberg-Universität Mainz
um Menschenrechte und Gerechtigkeit. Für Frieden Saarstraße 21
zwischen den Religionen wird aber auch der Aufbau D-55128 Mainz
Tel. +49 (0) 6131-39 25 576
von Vertrauen durch ausdauernden Dialog zwischen
Email: christiane.tietz@uni-mainz.de
Anhängern unterschiedlicher Religionen grundlegend
http://www.ev.theologie.uni-mainz.de/1457.php
sein. Ein solches interreligiöses Gespräch hat bereits
selber Frieden fördernden Wert. Denn, so könnte man
in Abwandlung eines Satzes von Gottfried Benn for-
mulieren: „Kommt, reden wir zusammen. Wer redet, Literatur
schlägt nicht tot!“
1. Vgl.: Das Friedenspotenzial von Religion. Hrsg. Irene Dingel