Sie sind auf Seite 1von 74

NATUR & GEIST

Das FORSCHUNGSMAGAZIN der Johannes Gutenberg-Universität Mainz

2/2009 25. Jahrgang


ISBN 0178-4757 Preis 4 Euro
EDITORIAL

Computer bestimmen unser tägliches Leben; Informa-

Privat
tion, Kommunikation, Simulation, komplexe Grafik –
all das leisten moderne Rechner, und wir haben uns
daran gewöhnt. Aber auch aus der Forschung sind
Computer nicht mehr wegzudenken. Dieser Thema-
tik ist ein großer Teil der vorliegenden Ausgabe des
Forschungsmagazins unserer Universität gewidmet.
Neben den klassischen Bereichen Theorie und Expe-
riment entwickeln sich die Computersimulationen zu
einem dritten Standbein naturwissenschaftlicher For-
schung. Da die Komplexität der Zusammenhänge, zum
Beispiel in der Meteorologie, in der Genomforschung
oder bei der Wechselwirkung einzelner Moleküle,
nicht immer mit einem Versuchsaufbau abgebildet
werden kann, greift moderne naturwissenschaftli-
che Forschung vermehrt auf Simulationstechniken Univ.-Prof. Dr. Ulrich Förstermann
der Informatik und Mathematik zurück. Rechnerge- Vizepräsident für Forschung
stützte Forschung findet sich in den verschiedensten
Bereichen: Physik, Chemie, Materialwissenschaften,
Geowissenschaften und Biologie; keine Natur- oder
Ingenieurswissenschaft kommt heute mehr ohne Politologen Samuel Huntington diskutiert, „nach
Computer aus. Ende des Kalten Krieges würden Konflikte nun zwi-
schen den Kulturen ausgetragen und Religionen
Der Wunsch nach immer realistischerer Computergra- seien ein prägendes Merkmal eben dieser verschie-
fik hat zur rasanten Entwicklung immer leistungsfähi- denen Kulturen.“ Aus dem Fachbereich Recht und
gerer Grafikkarten geführt. Deren schnelle Prozesso- Wirtschaftswissenschaften lesen Sie die Beschreibung
ren lassen sich für die Forschung „zweckentfremden“, des gemeinsam mit der Universität Trier verfolgten
in leistungsfähigen Großrechnern „poolen“ und für Schwerpunktprojektes „Armut und Überschuldung
Materialforschung oder auch Simulation von Kern- privater Haushalte.“ – ein sehr aktuelles Thema. Die
kräften innerhalb eines Atomkerns einsetzen. Auch Universitätsmedizin liefert einen interessanten Arti-
andere komplexe Systeme der statistischen Physik kel über die Versorgung Gehörloser in Deutschland
lassen sich durch Simulation auf Computersystemen – immerhin eine Zahl von etwa 270.000 Mitbürgern.
im Detail studieren. Die Quantenchemie setzt Com- Schließlich zeigen uns die Sprachwissenschaften den
puter ein, um Eigenschaften von Molekülen zu be- Unterschied zwischen Silben- und Wortsprachen auf
rechnen und vorherzusagen. Auch die Meteorologie und es gibt einen Beitrag zum britischen Film, der als
und Klimaforschung benötigt Rechnerkapazitäten, integraler Teil des dortigen nationalen Kulturgutes
um etwa die Ausbreitung von Staub oder Radioak- gilt. Aus dem Bereich Geschichte kommt ein Bericht
tivitätswolken in der Atmosphäre zu prognostizieren. über ein DFG-Forschungsprojekt zum Wertewandel
Schließlich liefert die moderne Biologie ungeheure vom Ende des 19. Jahrhunderts bis heute. Die Geo-
Datenmengen, die ohne Rechner schlechthin nicht wissenschaften legen eindrucksvoll dar, welche In-
zu bewältigen sind. Erforderte die Sequenzierung formationen zu Umwelt und Klima in verschiedenen
des menschlichen Genoms noch vor wenigen Jahren Epochen der Erdgeschichte man aus Muschelfunden
einen mehrere Milliarden Euro teuren Multicenter- entnehmen kann. Und schließlich wird im Beitrag aus
ansatz und über fünf Jahre Arbeit, so lässt sich die der Biologie die Evolution erläutert – am Beispiel der
gleiche Arbeit heute für zirka 10.000 Euro auf einer Salbeipflanze.
einzigen Maschine in ungefähr zwei Wochen erledi-
gen. Es versteht sich von selbst, dass die so produ- So zeigt auch das neueste Forschungsmagazin wie-
zierten riesigen Datenmengen ohne massiven Einsatz der die große wissenschaftliche Breite und Vielfalt
von Informatik nicht zu bewältigen sind. unserer Universität. Ich habe beim Lesen viel über
neue Entwicklungen in der Arbeit unserer Wissen-
Auch im nicht themenzentrierten Teil unseres For- schaftlerinnen und Wissenschaftler gelernt. Als neuer
schungsmagazins finden sich sehr lesenswerte Vizepräsident für Forschung darf ich Ihnen die Lektü-
Beiträge Mainzer Wissenschaftlerinnen und Wis- re dieses interessanten Spiegels unserer Hochschule
senschaftler. So berichtet die Hochschule für Musik wärmstens „ans Herz legen“.
über eine Auftragskomposition des US-amerikani-
schen Komponisten Thomas Wells zur Einweihung Ihr
ihres (sehr attraktiven) Neubaus. Aus der Theologie
findet sich ein Artikel zum Thema „Religion und
Frieden.“ Hier wird die These des US-amerikanischen

FORSCHUNGSMAGAZIN 2/2009 3
I N H A LT

Rechnergestützte Forschungsmethoden
in den Naturwissenschaften

6 EIN FÜ H RU N G
Rechnergestützte Forschungsmethoden in den Naturwissenschaften
Von Martin Hanke-Bourgeois

8 RECH N ERG ESTÜ TZTE FORSCH U N G – M ATERI ALSI MULATI O NEN


Simulationen auf Grafikkarten: vom Videospiel zur Materialforschung
Von Martin Oettel und Peter Virnau

11 RECH N ERG ESTÜ TZTE FORSCH U N G – COM PUTERSI MULATI O NEN


Der Komplexität auf den Grund gehen
Von Martin Weigel und Tanja Schilling

14 RECH N ERG ESTÜ TZTE FORSCH U N G – POLY MERSI MULATI O NEN


Multiskalensimulationen in der Materialwissenschaft
IMPRESSUM
Von Christine Peter und Kurt Kremer
Herausgeber
Der Präsident der Johannes Gutenberg-Universität Mainz,
Univ.-Prof. Dr. Georg Krausch 18 RECH N ERG ESTÜ TZTE FORSCH U N G – COM PUTERTECHNI K
Leitung Kommunikation & Presse
Kernkräfte als Videospiel
Petra Giegerich

Redaktion Von Hartmut Wittig


Dr. Frank Erdnüß,
Annette Spohn-Hofmann (V.i.S.d.P.)

Kontakt 22 RECH N ERG ESTÜ TZTE FORSCH U N G – M ETEORO LO GI E


Tel. +49 (0) 611-40 90 200
Email: frank@erdnuess.de Die Analyse atmosphärischer Strömungen
Auflage Von Sebastian Limbach, Marcus Marto, Patrick Jöckel, Elmar Schömer und Heini Wernli
4.000 Exemplare, die Zeitschrift
erscheint zweimal im Jahr

Gestaltung
26 RECH N ERG ESTÜ TZTE FORSCH U N G – ÖK ON O MI SCHE PHYSI K
Thomas Design, Freiburg

Vertrieb
Packen wie die Weltmeister
Kommunikation & Presse
Von Johannes Josef Schneider und Elmar Schömer
Druck
Werbedruck GmbH Horst Schreckhase
Postfach 1233
34283 Spangenberg 29 RECH N ERG ESTÜ TZTE FORSCH U N G – QU A N T ENCHEMI E
Tel. +49 (0) 56 63-94 94
Fax +49 (0) 56 63-93 988-0
Moleküle im Computer-Labor
Email: kontakt@schreckhase.de
www.schreckhase.de
Von Gregor Diezemann, Andreas Köhn und Jürgen Gauss

Namentlich gekennzeichnete Aufsätze geben nicht


unbedingt die Meinung des Herausgebers wieder.
33 RECH N ERG ESTÜ TZTE FORSCH U N G – BIOIN F O RMATI K
Nachdruck nur mit Genehmigung der Redaktion gestattet.
Technologierevolution in der Genomforschung
Von Thomas Hankeln, Hans Zischler und Erwin R. Schmidt

4
I N H A LT

Aus den Fachbereichen

38 TH E OL OG IE
Religion und Frieden
Von Christiane Tietz

41 R E C H T S - U N D W IRT S C H A F T SWISSEN SCH A FTEN


Armut und Überschuldung privater Haushalte
Von Michael Bock, Klaus Breuer, Curt Wolfgang Hergenröder, Stephan Letzel,
Eva Münster und Cornelia Schweppe

45 M E D IZ IN
Gesundheitsversorgung von Gehörlosen in Deutschland
Von Eva Münster, Johannes Höcker und Luis Carlos Escobar Pinzón

49 S P R A C H W IS S E N S C H A F T
Silbensprachen versus Wortsprachen
Von Renata Szczepaniak

53 K U LT U R W IS S E N S C H A F T
Britischer Film im Kontext von Kultur- und Medientransfer
Von Klaus Peter Müller

57 GE S C H IC H T E
Gesellschaftliche Wertveränderungen in Moderne und Postmoderne
Von Andreas Rödder und Christopher Neumaier

60 I N F OR MAT IK
Informationstechnologie in Mainz konstituiert sich neu
Von Herbert Göttler, Jürgen Perl und Elmar Schömer

64 GE OW IS S E N S C H A F T E N
Muscheln – Archive der Erdgeschichte
Von Bernd R. Schöne

68 B I OL OG IE
Anpassung – Isolation – Artbildung: Evolution beim Salbei
Von Regine Claßen-Bockhoff

72 M U S IK
Auftragskomposition für den Neubau der Hochschule für Musik
Von Carolin Lauer und Kristina Pfarr

FORSCHUNGSMAGAZIN 2/2009 5
EINFÜHRUNG

Rechnergestützte Forschungsmethoden
in den Naturwissenschaften
Von Martin Hanke-Bourgeois

Neben der klassischen Einteilung naturwissenschaft- der schnellsten Supercomputer der Welt. Auch sei in
licher Forschung in theoretische und experimentelle diesem Zusammenhang auf eine neue Initiative des
Arbeiten hat sich seit einigen Jahren ein weiterer Landes Rheinland-Pfalz verwiesen: Auf Anregung
Bereich etabliert: die numerische, das heißt die com- der Johannes Gutenberg-Universität, unter maß-
puterbasierte Simulation. Die Gründe dafür sind geblicher Beteiligung ihres Zentrums für Datenver-
offensichtlich: Durch den schnell fortschreitenden arbeitung, werden gegenwärtig drei Millionen Euro
Erkenntnisgewinn und die immer komplexeren Fra- bereitgestellt, um das Land im Bereich des Höchst-
gestellungen in den Naturwissenschaften werden leistungsrechnens für eine künftige Beteiligung
dezidierte experimentelle Untersuchungen immer an der Gauß-Allianz zu rüsten, einem Verbund der
komplizierter und aufwendiger, während theoreti- Supercomputerzentren Deutschlands.
sche Ansätze zu Darstellungen führen, die nur unter
groben Vereinfachungen oder allenfalls ansatzweise Diese Fakten deuten bereits darauf hin, dass numeri-
analytisch auswertbar sind. sche Simulationen in den Naturwissenschaften selten
auf individuellen Einzelleistungen basieren, sondern
An der Johannes Gutenberg-Universität sowie den in der Regel im Team realisiert werden und vielfältige
beiden auf ihrem Campus angesiedelten Max-Planck- Kompetenzen erfordern. Zu dem Know-how in der
Instituten für Chemie und Polymerforschung arbeiten spezifischen Fachdisziplin kommen Anforderungen an
eine ganze Reihe exzellenter Wissenschaftlerinnen den Umgang mit der entsprechenden Hardware, die
und Wissenschaftler, die in diesem neuen Arbeitsbe- trickreiche Implementierung effizienter Algorithmen
reich hervorragend ausgewiesen sind. In vielen Fällen aus der Informatik und der numerischen Mathematik
werden dabei hochparallele Computer für die Simula- sowie eine geschickte Verwaltung der unterschiedli-
tionen eingesetzt; erst unlängst wurde beispielsweise chen Softwareversionen und der zum Teil riesigen Da-
am Institut für Kernphysik ein neuer Parallelrechner, tenmengen hinzu. Dabei ähneln sich nicht selten die
„Wilson“ genannt, mit 2.240 Einzelprozessoren für Arbeitspakete aus unterschiedlichen Disziplinen, etwa
Simulationen in der Gittereichtheorie eingeweiht; er im Bereich der Datenverwaltung. Als Beispiele seien
landete auf Anhieb auf Platz 123 der Top-500-Liste genannt: Daten aus kernphysikalischen Großexperi-
menten, wie sie mit dem neuen LHC-Beschleuniger
(Large Hadron Collider) am CERN (Conseil Européen
pour la Recherche Nucléaire) erzeugt werden, mete-
M. Brauburger / Institut für Informatik / JGU Mainz

orologische Zeitreihen der unzähligen Klimastatio-


nen rund um den Erdball, Gensequenzierungsdaten
aus dem Bereich der Biologie oder auch die häufig
unstrukturierten Daten aus geowissenschaftlichen
Feldexkursionen. Ein anderes Beispiel ist die numeri-
sche Simulation von Strömungen, die in den verschie-
denen Naturwissenschaften auf unterschiedlichsten
Längen- und Zeitskalen relevant sind. Sie reichen
von extrem großen Skalen in den Geowissenschaf-
ten und der Klimaforschung bis hin zu Nanoskalen
im Bereich der Polymerforschung und der Biophysik,
beruhen aber doch grundsätzlich auf denselben oder
verwandten physikalischen Prinzipien, so dass sie oft
mit ähnlichen Algorithmen simuliert werden können.

Dementsprechend wird in der Mainzer Forschungs-


landschaft seit vielen Jahren über eine bessere Ver-
netzung der entsprechenden Wissenschaftlerinnen
und Wissenschaftler nachgedacht, und zwar über
die bereits zahlreich bestehenden kollaborativen
Forschungsinitiativen (Forschergruppen, Sonderfor-
schungsbereiche etc.) der einzelnen Bereiche hinaus.
Als eine erste größere Initiative in diese Richtung
wurde bereits im Jahr 2004 die Gründung eines „Zen-

6
EINFÜHRUNG

trums für Computersimulationen“ an der Johannes Neben den genannten finanziellen Maßnahmen wird
Gutenberg-Universität diskutiert. In der anschließen- auch ein neuer interdisziplinärer Masterstudiengang
den Exzellenzinitiative des Landes Rheinland-Pfalz „Informatik in den Naturwissenschaften“ (Arbeits-
wurde dieser Plan dann in einen Antrag für ein stär- titel) geplant, der dann in einen weiterführenden
ker physikalisch fokussiertes Landesexzellenzcluster Graduiertenstudiengang im Bereich der numerischen
integriert. Nachdem dieser Antrag zunächst zurück- Simulationen in den Naturwissenschaften münden
gestellt und bei dem anschließenden Bundesexzel- soll. Dies würde wiederum hervorragend durch das
lenzwettbewerb nicht wieder aufgewärmt wurde, im März 2008 neu gegründete „Max-Planck Gradu-
ergab sich 2007 eine neue Gelegenheit, als die Hoch- ate Center mit der Johannes Gutenberg-Universität“
schulleitung die Fachbereiche zu Vorschlägen für eine flankiert.
wissenschaftliche Schwerpunktbildung an der Uni-
versität aufrief. Das vorliegende Heft von „Natur & Geist“ soll einen
Einblick in die ersten Aktivitäten unter dem neuen
Der neu gegründete Fachbereich 08, in dem nun Dach des Forschungsschwerpunkts bieten. Ich danke
Physik, Mathematik und Informatik vereint sind, er- allen Autorinnen und Autoren für die Bereitschaft, ihre
griff daraufhin die Gelegenheit und legte ein neues stark in den jeweiligen Fächern verankerten Projekte
Konzept vor. Damit sollte auch die Informatik an der für ein breiteres Publikum aufzubereiten; so wird die
Johannes Gutenberg-Universität gestärkt und als Zielsetzung des Forschungsschwerpunkts „Rechner-
zentrales, verbindendes Element in die Mitte der Na- gestützte Forschungsmethoden in den Naturwissen-
turwissenschaften gerückt werden. Dieses Konzept schaften“ transparent gemacht. Der Universitätslei-
wurde von allen Naturwissenschaften (Biologie, Che- tung sowie dem Land Rheinland-Pfalz danken wir für
mie, Geowissenschaften, Meteorologie und Physik) das Vertrauen in unsere Arbeit, die erfahrene Unter-
sowie von Mathematik und Informatik unterstützt; stützung sowie die finanzielle Förderung.
auch die beiden Max-Planck-Institute beteiligten
sich an diesem Vorschlag. Der Antrag wurde noch im
selben Jahr von einer ausgewiesenen Expertenkom-
mission hervorragend evaluiert, so dass das Land
den Forschungsschwerpunkt Mitte 2008 für zunächst
rund vier Jahre einrichtete.

Im vergangenen Herbst hat nun der Forschungs- Univ.-Prof. Dr. Martin


Cornelia Kirch

schwerpunkt seine Arbeit aufgenommen und gleich Hanke-Bourgeois ■ Kontakt


eine ganze Reihe neuer Projekte initiiert. Dabei wer-
den finanzielle und personelle Mittel vorrangig zur Martin Hanke-Bourgeois, Univ.-Prof. Dr. Martin Hanke-Bourgeois
Förderung innovativer Projekte eingesetzt, die fach- Professor für Angewandte Institut für Mathematik
übergreifend angelegt sind und auf diese Weise die Mathematik am Fachbe- Johannes Gutenberg-Universität Mainz
angestrebte Vernetzung verbessern sowie gleichzeitig reich 08 der Johannes Gu- D-55099 Mainz
die methodische Basis verbreitern. Daneben werden ttenberg-Universität, wurde Tel. +49 (0) 6131-39 22 528
die Mittel aber auch zur Einrichtung von zwei neuen 1961 in Frankfurt am Main Email: hanke@math.uni-mainz.de
Arbeitsgruppen in der Kernphysik/Gittereichtheorie ggeboren. Nach Studium
und in der Theoretischen Chemie genutzt, um einer- undd PPromotion
i an dder Universität Karlsruhe folg-
seits den wissenschaftlichen Nachwuchs zu fördern ten Forschungsaufenthalte an der Johannes Kepler-
und andererseits eine Brücke zwischen benachbar- Universität Linz (Österreich) und an verschiedenen
ten Disziplinen zu errichten. Mit einer weiteren, vom Universitäten in den USA. Nach der Habilitation 1994
Forschungszentrum „Erdsystemwissenschaften“ fi- vertrat er zunächst von 1995 bis 1997 den Lehrstuhl
nanzierten Nachwuchsgruppe im Bereich der Erdsys- Technomathematik an der Universität Kaiserslautern.
temmodellierung erfolgt parallel eine stärkere Anbin- 1998 folgte er dem Ruf an die Johannes Gutenberg-
dung der Geowissenschaften, nachdem gemeinsame Universität; einen weiteren Ruf nach Tübingen hat er
Kooperationen zuletzt unter Wegberufungen gelitten 2005 abgelehnt. Seit 2008 ist er Sprecher des neuen
hatten. Forschungsschwerpunkts „Rechnergestützte For-
schungsmethoden in den Naturwissenschaften“ an
der Johannes Gutenberg-Universität.

FORSCHUNGSMAGAZIN 2/2009 7
R E C H N E R G E S T Ü T Z T E F O R S C H U N G – M AT E R I A L S I M U L AT I O N E N

Simulationen auf Grafikkarten:


vom Videospiel zur Materialforschung
Von Martin Oettel und Peter Virnau

Nachwuchswissenschaftler des Instituts für Phy- mengesetzt sind, wie es zum Beispiel bei Polymeren,
sik erschließen die Rechenleistung von Grafik- Membranen oder kolloidalen Objekten der Fall ist.
karten, wie sie bei Computerspielen zum Einsatz Die Verknüpfung dieser verschiedenen Ebenen führt
kommen, für materialwissenschaftliche For- zu Multiskalen-Modellen, wie sie in der Theoriegrup-
schungen. Aufwendige numerische Rechnungen pe des Max-Planck-Instituts für Polymerforschung
und Simulationen lassen sich auf diese Weise bis zum Einsatz kommen (vgl. den Beitrag von Christine
zu hundertfach beschleunigen. Peter und Kurt Kremer).

Die Erforschung von Materialeigenschaften ist zuneh- Traditionell werden umfangreiche Molekulardyna-
mend von einem massiven Computereinsatz geprägt. mik-Simulationen, die auf den Newtonschen Bewe-
Mittlerweile werden immer leistungsfähigere Rech- gungsgleichungen basieren, auf Parallelrechnern
ner eingesetzt, um das Verständnis makroskopischer mit Hunderten von Prozessor-Kernen durchgeführt.
Materialeigenschaften aus dem Zusammenspiel der Die Notwendigkeit zur Parallelisierung der Simula-
mikroskopischen Bausteine, der Moleküle, zu erhö- tionsmethoden ist auch dadurch bedingt, dass die
hen. Das detaillierte Studium der Eigenschaften und Erhöhung der Rechenleistung der Computer im letz-
Wechselwirkungen von Molekülen kann zwar prin- ten Jahrzehnt eher durch die Entwicklung paralleler
zipiell auch mittels quantenchemischer Methoden Architekturen auf den Prozessoren (CPUs) erreicht
präzise durchgeführt werden (vgl. den Beitrag von wurde als durch die Erhöhung der Leistungsfähig-
Gregor Diezemann und Kollegen). Die Beschreibung keit eines einzelnen CPU-Kernes. Darüber hinaus
eines Ensembles von Molekülen mit diesen Metho- ist die Erhöhung der Rechenleistung über massive
den und heute zugänglichen Computern bleibt je- Parallelisierung im letzten Jahrzehnt auch an einem
doch in der Regel auf Phänomene beschränkt, die anderen Baustein moderner Computer konsequent
auf sehr kleinen Zeit- und Längenskalen ablaufen. vorangetrieben worden: an den Grafikkarten (GPUs
Skalen, die die Wechselwirkungen zwischen den – graphical processing units), wie sie etwa zur Be-
Molekülen in einem Material bestimmen, sind hin- schleunigung von Videospielen zum Einsatz kommen.
gegen fast immer deutlich von den entsprechenden Der expandierende Markt für Computerspiele führte
quantenmechanischen Skalen getrennt. Hieraus ent- dabei zur Entwicklung immer leistungsfähigerer Gra-
steht ein „vergröbertes” Bild des Materials, welches fikkarten, die eine immer realistischere Darstellung
Atome oder gar Moleküle als klassische Newtonsche in hohen Auflösungen gewährleisten. Grafikkarten
Teilchen beschreibt, die durch Kraftfelder miteinander müssen dabei immer wiederkehrende, relativ ein-
in Wechselwirkung treten. Die Idee der Vergröberung fache Fließkommarechnungen (gemessen in Flop/s
kann aber auch zu noch langsameren Zeitskalen und – Rechenoperationen pro Sekunde) in hoher Ge-
größeren Längenskalen fortgesetzt werden, wenn schwindigkeit durchführen. Dafür wurde eine paralle-
die eigentlich wichtigen mikroskopischen Bausteine le Architektur entwickelt, die – zum Beispiel bei einer
eines Materials bereits aus vielen Molekülen zusam- modernen Grafikkarte der Firma NVIDIA – aus 30
Abb. 1: Grafikkarte der aktuellen Multiprozessoren mit jeweils acht einfachen Rechen-
Generation (NVIDIA GTX 295). kernen, in der Summe also aus 240 Kernen, besteht
(i(im Vergleich zu vier Kernen auf modernen QuadCore-
© Cornelia Kirch / Institut für Physik / JGU Mainz

PProzessoren). Abbildung 1 zeigt eine solche Karte, die


zzwei der oben beschriebenen GPU-Einheiten umfasst.
WWerden diese GPU-Kerne gleichmäßig ausgelastet, so
ssind erheblich mehr Rechenoperationen möglich als
aauf herkömmlichen CPUs. Verdeutlicht man sich diese
LLeistungsunterschiede von GPU und CPU, so scheint
ees naheliegend, sich diese Kapazitäten auch im wis-
ssenschaftlichen Rechnen zunutze zu machen. Dabei
is
ist zu berücksichtigen, dass sich nicht jedes Problem
aauf dieser „Architektur” effizient darstellen lässt.
LLediglich Fragestellungen, bei denen immer gleiche
(v
(voneinander unabhängige) Rechenoperationen auf
uunterschiedliche Daten angewendet werden, eignen
ssich für eine solche Plattform. Bis vor wenigen Jah-

8
R E C H N E R G E S T Ü T Z T E F O R S C H U N G – M AT E R I A L S I M U L AT I O N E N

ren war es auch nicht möglich, Grafikkarten in einer A


Abb. 2: Keimbildungssimulation mit

Quelle: 3
höheren Programmiersprache anzusprechen, was aus HOOMD (Highly Optimized Object-
H
oriented Molecular Dynamics);
o
Gründen der Portabilität und Programmierfreund-
Endkonfiguration eines nukleierten
E
lichkeit natürlich wünschenswert ist. Seit 2003 gibt Tröpfchens. In dieser Darstellung
Tr
es nun Bestrebungen, Programmierumgebungen für sind nahe beieinanderliegende
si
Grafikkarten zu entwickeln, die der weitverbreiteten Teilchen durch zylinderförmige
T
Programmiersprache C angepasst sind. Hervorzuhe- Brücken verbunden.
B
ben ist hier CUDA (Compute Unified Device Architec-
ture) von NVIDIA, welches 2006 eingeführt wurde
und sich seitdem steigender Beliebtheit auch für wis-
senschaftliche Anwendungszwecke erfreut.

Im Rahmen des Schwerpunkts für „Rechnergestützte


Forschungsmethoden in den Naturwissenschaften”
(SRFN) werden zurzeit in mehreren Mainzer Arbeits-
gruppen fächerübergreifend Anwendungsmöglichkei-
ten von Grafikkarten für wissenschaftliche Fragestel-
lungen getestet, beispielsweise bei Packproblemen Abb. 3: Vergleich der theoretisch
A
Quelle: www.nvidia.com

in der Informatik (vgl. den Beitrag von Johannes J. erreichbaren Rechenleistung von
e
Schneider und Elmar Schömer) oder für Berechnun- GPU und CPU in GFlop/s (engl.:
G
Giga-floating-point-operations per
G
GigaFlop / Sekunde

gen in der Hochenergiephysik. Unsere Arbeitsgrup-


second = Milliarden Rechenopera-
se
pen beschäftigen sich hingegen schwerpunktmäßig tionen pro Sekunde).
ti
mit materialwissenschaftlichen Fragestellungen.
Erste Erfahrungen mit dieser neuen Plattform wurden
jedoch auch auf anderen Gebieten gesammelt. So
wurden von Tobias Preis, einem Junior-Mitglied der
Gutenberg-Akademie und Doktoranden unseres Ins-
titutes, Zeitreihenanalysen von Börsendaten auf der
Grafikkarte implementiert.1 Die enorme Rechenleis-
tung ermöglicht hierbei, eingehende Informationen
auf Millisekundenbasis ohne Einsatz eines Supercom-
puters in Echtzeit zu analysieren. Einer späteren In- lichen makroskopischen Eigenschaften solcher Ma-
tegration in ein Real-Time-Risikomanagementsystem terialien führt. Beispiele für solche ungewöhnlichen
ist ebenfalls möglich. Darüber hinaus wurde die Be- Eigenschaften sind Phasentrennungsphänomene,
rechnungszeit für ein klassisches Modell des Magne- nicht-monotones Verhalten unter Scherung sowie
tismus, das sogenannte Ising-Modell, im Vergleich Übergänge zu gel- und glasartigen Zuständen mit
zu einem einzelnen CPU-Kern um bis auf das Sech- extrem verlangsamter Dynamik, deren charakteristi-
zigfache herabgesetzt.2 Hierbei kam der sogenannte sche Zeitskala um viele Größenordnungen über der
Schachbrett-Algorithmus zum Einsatz, der bereits seit Zeitskala der molekularen Dynamik liegt. Kolloidale
Jahrzehnten bei der Parallelisierung auf gewöhnlichen Flüssigkeiten, die aus mikroskopischen Bausteinen
Supercomputern angewendet wird. Man darf jedoch verschiedener Größe bestehen, sind typische wei-
nicht vergessen, dass die Übertragung bekannter und che Materialien, die ein derart komplexes Verhalten
bewährter Algorithmen auf die Grafikkarte nicht frei zeigen. Die Modellierung solcher Systeme mit ein-
von Problemen ist. Denn es ist dafür zu sorgen, dass fachen, „generischen” Wechselwirkungspotentialen
alle GPU-Kerne möglichst gleichmäßig „beschäftigt” erlaubt sowohl eine Behandlung mit den üblichen
werden, was gelegentlich sehr spezifische Detailar- molekulardynamischen Simulationsmethoden als
beit an einem Programmcode erfordert. auch mit Methoden der klassischen Dichtefunktio-
naltheorie. Konkret geht es in einem ersten Schritt
Seit Ende 2008 wird auch vom SRFN ein Dissertati- darum, an einem einfachen Modell für eine kolloidale
onsprojekt mit einer Anschubfinanzierung gefördert, Flüssigkeit (Kugeln in einer Suspension) die mikros-
in dem ein Beitrag zu aktuellen Fragen der Material- kopische Dynamik eines Testteilchens zu studieren.
forschung geleistet werden soll. Im Nichtgleichgewicht enthalten diese dynamischen
Korrelationen – als Funktion einer äußeren treiben-
Für weiche oder biologische Materialien ist eine prä- den Kraft und der Zeit – Informationen über die Fließ-
zise Behandlung mit Multiskalen-Modellen in der eigenschaften der Flüssigkeit und können auch das
Simulation, wie sie anfangs skizziert wurden, nicht Auftreten von Übergängen zu glas- oder gelartigen
unbedingt einfach. Zudem ist ein generisches Ver- Zuständen signalisieren. Dies ist ein Beispiel für den
ständnis dieser Materialien oft noch sehr rudimentär. bereits erwähnten Zusammenhang zwischen mikros-
Das heißt, es ist letztlich unklar, welche Art von mi- kopischen Korrelationen und makroskopischen Eigen-
kroskopischen Korrelationen zu den oft ungewöhn- schaften des Materials.

FORSCHUNGSMAGAZIN 2/2009 9
R E C H N E R G E S T Ü T Z T E F O R S C H U N G – M AT E R I A L S I M U L AT I O N E N

Erste Testrechnungen mittels klassischer Dichtefunk- Dr. Martin Oettel

Cornelia Kirch / Institut für Physik / JGU Mainz


tionaltheorie auf Grafikkarten signalisieren auch hier
Geschwindigkeitszuwächse, wie sie schon in den vor- Martin Oettel, Jahrgang
hergehenden Studien erzielt worden sind. Darüber 1973, studierte Physik an
hinaus haben wir auch erste Testsimulationen zur dder TU Clausthal, der Sta-
Phasenseparationskinetik und Keimbildung (Abb. 2) tte University of New York
mit bereits bestehenden Molekulardynamikpaketen in Stony Brook und der
auf Grafikkarten unternommen.3 Eberhard-Karls-Universität
TTübingen. Promoviert hat
Die hier beschriebenen Ansätze stellen lediglich einen eer im Jahr 2000 in Tübingen
ersten Schritt zu einer weiterführenden Nutzung die- h
mit einem Thema aus dder Elementarteilchentheorie.
ser neuen Technologie im wissenschaftlichen Rechnen Nach einem durch die Alexander von Humboldt-Stif-
dar. Das enorme Potential der Grafikkarten lässt sich tung unterstützten Postdoc-Aufenthalt in Adelaide
nicht zuletzt an der Entwicklung der Rechenleistung (Australien) wechselte er 2002 an das Max-Planck-
im Vergleich zu herkömmlichen CPUs in den letzten Institut für Metallforschung in Stuttgart. Seither ist
Jahren veranschaulichen (Abb. 3). Diese Entwicklung sein Forschungsschwerpunkt in der Theorie der Flüs-
eröffnet für die Zukunft die Perspektive, neuartige, an sigkeiten und kolloidalen Systeme angesiedelt. Seit
große Systeme und lange Simulationszeiten geknüpf- 2006 leitet er eine unabhängige Nachwuchsgruppe
te Fragestellungen anzugehen. in Mainz innerhalb des Sonderforschungsbereiches
TR6 („Kolloide in externen Feldern”), die sich schwer-
punktmäßig mit Ordnungsphänomenen von Kolloiden
■ Summary an Grenzflächen beschäftigt.
Young scientists from the department of physics
utilize the computing power of modern graphic cards, Dr. Peter Virnau
Cornelia Kirch / Institut für Physik / JGU Mainz
which are primarily used to accelerate video games,
for research in Materials Science. Acceleration factors Peter Virnau, Jahrgang
of up to 100 are achieved for complex numerical 1976, studierte Physik an
calculations and simulations. In the near future a new dder Ruprecht-Karls-Uni-
class of problems can be tackled which require large vversität Heidelberg und
systems and long simulation times. aan der Louisiana State
University in Baton Rouge
(USA). Nach seinem Ma-
Literatur sster-Abschluss promovierte
er iin der
d Arbeitsgruppe
Ab i von Prof. Kurt Binder an der
Johannes Gutenberg-Universität Mainz über Monte-
1. Preis T, Virnau P, Paul W, Schneider JJ. Accelerated fluctuation
analysis by graphic cards and complex pattern formation in
Carlo-Simulationen von Polymeren. Nach einem drei-
econophysics. Eingereicht 2009. jährigen Forschungsaufenthalt am Massachusetts
Institute of Technology in Cambridge (USA) kehrte er
2. Preis T, Virnau P, Paul W, Schneider JJ. GPU accelerated zur Habilitation nach Mainz zurück. Neben den oben
Monte Carlo simulations of the 2D and 3D Ising models. erwähnten Grafikkarten gehören auch Monte-Carlo-
J Comp Phys 2009; 228: 4468. Simulationen von Kolloiden und Polymeren sowie
Keimbildung und topologische Eigenschaften von
3. Anderson JA, Lorenz CD, Travesset A. General purpose Proteinen zu seinen Forschungsschwerpunkten. Für
molecular dynamics simulations fully implemented on seine biophysikalischen Arbeiten wurde ihm 2007 der
graphics processing units. J Comp Phys 2008; 227: 5342.
Kalkhof-Rose-Gedächtnispreis der Mainzer Akademie
der Wissenschaften und der Literatur verliehen.

■ Kontakt
Dr. Martin Oettel
Johannes Gutenberg-Universität Mainz
Institut für Physik
D-55099 Mainz
Tel. +49 (0) 6131-39 23 645
Fax +49 (0) 6131-39 25 441
Email: oettelm@uni-mainz.de
www.cond-mat.physik.uni-mainz.de/~oettel

10
R E C H N E R G E S T Ü T Z T E F O R S C H U N G – C O M P U T E R S I M U L AT I O N E N

Der Komplexität auf den Grund gehen

Alle Abb.: © T. Schilling & M. Weigel


Von Martin Weigel und Tanja Schilling

Die dynamische Entwicklung verfügbarer Re-


chenleistungen, vor allem jedoch die Konzep-
tion und Weiterentwicklung neuer Simulations-
methoden, versetzt uns erstmals in die Lage,
eine Vielzahl von faszinierenden Systemen mit
komplexen Energielandschaften untersuchen zu
können. Ein besseres Verständnis der Entstehung
von Komplexität in Systemen aus einfachen
Elementen rückt dann in greifbare Nähe.
Abb. 1: Magnetisches Sy
System aus
Phasenübergänge, wie die Verdunstung von Wasser makroskopisch magnetische Eigenschaften, wie wir nach oben (schwarz) oder nach
oder der Verlust der ferromagnetischen Eigenschaften sie aus dem Alltag kennen (vgl. Abb. 1). Es gibt dann unten (weiß) gerichteten magneti-
schen Momenten. Um von der einen
eines Kühlschrankmagneten oberhalb einer bestimm- zwei äquivalente Gleichgewichtslagen des Systems,
in die andere Phase zu gelangen,
ten Übergangstemperatur, sind Phänomene, die in in der die Mehrzahl der Momente entweder gemein-
muss ein seltenes Ereignis eintreten
der Alltagswelt ebenso wie in technischen Systemen sam nach oben oder gemeinsam nach unten zeigen. – hier die Bildung eines Tropfens
oder in kosmischen Dimensionen häufig auftreten. Das entspricht den schwarzen und weißen Bereichen von umgekehrten Momenten.
Entsprechend sind sie von überragender Bedeutung in Abbildung 1. Zeigen die Momente nach oben und
auch für die Wissenschaft. Für den Fall einfacher man legt ein nach unten gerichtetes magnetisches
Substanzen, wie für das Schmelzen und Verdunsten Feld an, so findet ein Phasenübergang erster Ordnung
einfacher Flüssigkeiten oder für den Magnetismus in die Phase mit nach unten gerichteten Momenten
(anti-)ferromagnetischer Materialien, sind die zu- statt. Es muss daher Übergangszustände mit einem
grunde liegenden Prinzipien der statistischen Physik Tropfen von Momenten der umgekehrten Orientie-
inzwischen gut verstanden. Die Gleichgewichtseigen- rung geben, wie in der mittleren Konfiguration von
schaften solcher Systeme lassen sich daher sowohl Abbildung 1 dargestellt. Solche Zustände sind jedoch
mithilfe analytischer Rechnungen als auch durch Si- gegenüber den Gleichgewichtslagen hochgradig un-
mulation auf Computersystemen im Detail studieren. terdrückt, da ihre (freie) Energie höher ist als die der
Schwieriger wird es, wenn man den genauen Ablauf reinen Phasen. Wie die Wahrscheinlichkeitsverteilung
des Übergangs verstehen will, insbesondere für einen in Abbildung 1 zeigt, kann diese Unterdrückung viele
sogenannten Phasenübergang erster Ordnung, wie er Größenordnungen betragen (man beachte die loga- Abb. 2: (Freie) Energielandschaften
etwa bei der Kondensation von Wasser auftritt. Der rithmische Skala der Ordinate). Es handelt sich daher für ein System mit einem einfachen
Phasenübergang erster Ordnung
Übergang findet dann erst deutlich unterhalb der ei- um seltene Ereignisse, die sowohl in der Natur als
(links) und ein komplexes System
gentlichen Übergangstemperatur spontan statt. Da- auch in einer Computersimulation schwer zu beob-
mit einer Vielzahl von Minima und
vor ist das System metastabil, da es zur Realisierung achten sind. Barrieren (rechts).
des Übergangs eine kinetische Barriere überwinden
muss. Noch dramatischere Effekte ergeben sich bei
Systemen mit Unordnung, wo die Dynamik durch eine
Vielzahl metastabiler Zustände verlangsamt wird. Die
Untersuchung solcher Übergangsphänomene stellt
daher weiterhin eine große Herausforderung für die
Modellierung am Computer – wie im Übrigen auch
für analytische Rechnungen – dar.

Seltene Ereignisse

Man betrachte etwa einen Ferromagneten, verein-


facht dargestellt durch eine regelmäßige Anordnung
von magnetischen Momenten, die jeweils eine von Computersimulationen
nur zwei Einstellmöglichkeiten realisieren, also „nach
oben“ oder „nach unten“ zeigen (Ising-Modell). Un- Während sich die Dynamik solcher Systeme im Ex-
terhalb der ferromagnetischen Übergangstemperatur periment nur bedingt beeinflussen lässt, erlauben
sind bis auf wenige Ausnahmen alle Momente paral- neue Methoden der Computersimulation die präzise
lel zueinander ausgerichtet. Das Material zeigt daher Bestimmung der Eigenschaften von seltenen Über-

FORSCHUNGSMAGAZIN 2/2009 11
R E C H N E R G E S T Ü T Z T E F O R S C H U N G – C O M P U T E R S I M U L AT I O N E N

gangszuständen. Solche Methoden werden auch in zwar bezüglich ihrer Richtung, jedoch nicht hinsicht-
unserer Arbeitsgruppe in Mainz aktiv weiterentwi- lich ihrer Position geordnet. Der Übergang von der
ckelt. Eine klassische Monte-Carlo-Simulation er- isotropen in die nematische Phase ist von erster Ord-
zeugt Konfigurationen des Systems entsprechend der nung, so dass Effekte von Metastabilität und Koexis-
Häufigkeit, mit der sie auch experimentell beobach- tenz (vgl. Abb. 3) zu beobachten sind.
tet würden. Angesichts von Wahrscheinlichkeitsver-
teilungen wie der in Abbildung 1 gezeigten, sind die Während die entsprechenden Übergangszustände
gesuchten Ereignisse aber so selten, dass für größere mit konventionellen Simulationsmethoden nicht mit
Systeme in der zur Verfügung stehenden Rechenzeit vertretbarem Aufwand untersucht werden können,
kein einziges zu beobachten sein wird. Wenn sich das erlauben verallgemeinerte Methoden vom Typ der
System, wie im linken Teil von Abbildung 2 angedeu- multikanonischen Simulationen eine genaue Be-
tet, in einem metastabilen Zustand befindet, wird stimmung der Landschaft der (freien) Energie. Das
es also aufgrund der Energiebarriere sehr lange Zeit Ergebnis einer solchen Simulation ist in Abbildung 4
brauchen, bis es in die thermodynamisch stabile Pha- veranschaulicht, wo die freie Energie als Funktion der
se niedrigerer (freier) Energie übergeht. Wenn man Anzahl der Stäbchen (bei konstantem Volumen) und
am Studium der Übergangszustände interessiert ist, der Ausprägung nematischer Ordnung dargestellt ist.
befindet sich das System also fast die gesamte Zeit Dies entspricht einer logarithmischen Darstellung der
im „uninteressanten“ Teil des Phasenraums. Mithilfe Wahrscheinlichkeiten. Man erkennt also, dass die
sogenannter multikanonischer Simulationen und ver- Übergangszustände auf dem Sattel zwischen den Hü-
wandter Techniken lassen sich die seltenen Ereignisse geln hochgradig unterdrückt sind.
dennoch beobachten und hochpräzise vermessen:
Die Wahrscheinlichkeit ihres Auftretens wird künst-
lich angehoben und zwar unter Umständen um viele
Größenordnungen, wobei auf die ursprüngliche Ver-
teilung jederzeit ohne systematische Fehler zurückge-
rechnet werden kann. In Abbildung 1 würde also das
„Tal“ zwischen den reinen Phasen in der Verteilungs-
funktion mit diesem Ansatz überbrückt.

Komplexe Systeme

Problemstellungen von der beschriebenen Art treten


in vielen aktuellen Forschungsgebieten auf. So unter-
suchen wir etwa kolloidale Systeme, also mesoskopi-
Abb. 4: (Inverse) Freie Energie einer Suspension von
sche Teilchen von einigen Nanometern bis zu einem
Stäbchen als Funktion der Zahl der Stäbchen (Ncyl )
Mikrometer Größe, die sich in einem Lösungsmittel
und des nematischen Ordnungsparameters (S).
aus mikroskopischen Teilchen (Größe von einigen Der vordere Gipfel entspricht dabei der isotropen und
Ångström) bewegen. Solche Systeme sind als Mo- der hintere der nematischen Phase des Systems.
delle für eine Vielzahl von physikalischen Situationen
in Computersimulationen und Experimenten sehr Noch schwieriger ist die numerische Untersuchung
nützlich. Betrachtet man etwa eine Suspension aus von Systemen mit frustrierender Unordnung, wie sie
stäbchenförmigen Kolloiden, so verhalten sich diese etwa bei magnetischen Systemen mit einer zufälligen
unter bestimmten Umständen wie Flüssigkristalle, Mischung ferromagnetischer und antiferromagne-
das heißt, es gibt neben dem ungeordneten (isotro- tischer Kopplungen auftritt. Diese Situation ist für
pen) und dem kristallinen Zustand auch teilgeordnete viele magnetische Materialien kennzeichnend, etwa
Phasen, wie etwa die im linken Teil von Abbildung 3 auch für eine Reihe von Kandidaten für Hochtempe-
zu sehende nematische Phase. Dort sind die Stäbchen ratursupraleiter. Solche Spinglassysteme zeigen nicht
nnur einen oder wenige metastabile Zustände wie bei
PPhasenübergängen erster Ordnung, sondern weisen
eeine hochkomplexe Landschaft der freien Energie mit
eeiner Vielzahl von Tälern und dazwischen liegenden
EEnergiebarrieren auf; man vergleiche dazu den rech-
te
ten Graphen in Abbildung 2. Die Anwesenheit wider-
st
streitender Wechselwirkungen im System führt dabei
zzu Frustrationseffekten, die schließlich in der Viel-
zzahl metastabiler Zustände münden. Bei niedrigen
Abb. 3: Koexistenzkonfiguration der
TTemperaturen zeigt ein solches System keine lang-
nematischen und isotropen Phase in re
reichweitige Ordnung, wie der Ferromagnet in Abbil-
einer Suspension aus stäbchenförmi- ddung 1, sondern ein Einfrieren der Momente in zufäl-
gen Kolloiden. liligen relativen Orientierungen (vgl. Abb. 5).

12
R E C H N E R G E S T Ü T Z T E F O R S C H U N G – C O M P U T E R S I M U L AT I O N E N

Dr. Martin Weigel

Privat
Martin Weigel, Jahrgang
1972, studierte Physik,
Philosophie und Betriebs-
w
wirtschaftslehre an der
JJohannes Gutenberg-Uni-
vversität, wo er 1998 mit
eeiner Diplomarbeit zu kon-
fformen Skalenrelationen
b hl
abschloss. EEr wurde
d 2002 bei Prof. Wolfhard Janke
in Leipzig über Zufallsgeometrien in der statistischen
Physik und Quantengravitation promoviert. Er wech-
selte dann als Postdoc an die University of Waterloo
und 2005 mit einem Marie Curie-Stipendium der EU
Abb. 5: In einem Spinglas sind die magnetischen Mo-
mente bei tiefen Temperaturen in zufälligen relativen
nach Edinburgh. Seit 2008 leitet Martin Weigel eine
Orientierungen eingefroren. Nachwuchsgruppe im Emmy Noether-Programm, die
sich mit der statistischen Physik ungeordneter und
Dabei führt die Existenz vieler solcher metastabiler frustrierter Systeme befasst. Derzeit vertritt er einen
Konfigurationen mit ähnlichen Energien zu interes- Lehrstuhl für theoretische Physik an der Universität
santen dynamischen Phänomenen, wie etwa Ge- des Saarlandes.
dächtnis- und Verjüngungseffekten. Für die Untersu-
chung solcher Systeme mit Computersimulationen ist
der Einsatz moderner Simulationstechniken, wie der PD Dr. Tanja Schilling
Privat

multikanonischen Verfahren, schon zur Untersuchung


der reinen Phasen erforderlich. Denn diese entspre- T
Tanja Schilling, Jahrgang
chen, gemäß der Skizze in Abbildung 1, der Überlage- 1974, studierte Physik in
rung einer Vielzahl von metastabilen Zuständen. Frankfurt am Main. Sie er-
hielt 1997 ihr Diplom für
Ausblick eeine Arbeit über theoreti-
ssche Kernstrukturphysik.
Ein komplexes und reichhaltiges Spektrum von Effek- 22001 wurde sie in Köln
ten ist für Systeme aus einfachen Bausteinen in der ppromoviert. In ihrer Dok-
Physik der kondensierten Materie eher die Regel als b i bbeschäftigte
torarbeit häf i i sich mit den Benetzungs-
sie
die Ausnahme. Computersimulationen erlauben die eigenschaften von Flüssigkeitsgemischen. Danach
Forschung an vereinfachten Systemen ebenso wie an verbrachte sie drei Jahre als Postdoc mit einem Marie
realistischen Modellen und machen viele Aspekte ih- Curie-Stipendium der EU in Amsterdam. Seit 2004 lei-
res Verhaltens erst der Untersuchung zugänglich. Ein tet Tanja Schilling eine Nachwuchsgruppe im Emmy
ergiebiger Begriff zum Verständnis solcher Systeme Noether-Programm an der Universität Mainz, in der
ist das Konzept der Energielandschaft, das von Situa- Materialeigenschaften weicher kondensierter Mate-
tionen mit zwei oder wenigen Tälern bis zu hochkom- rie mittels Computersimulation untersucht werden.
plexen Strukturen in Anwesenheit von frustrierenden Im Jahr 2007 wurde Tanja Schilling habilitiert.
Wechselwirkungen reicht. In Mainz begegnen wir der
Herausforderung solch komplexer Energielandschaf-
ten durch die Weiterentwicklung neuartiger Simulati-
onsmethoden. Mit ihnen lassen sich seltene Ereignis- ■ Kontakt
se häufig machen und damit im Detail studieren. Dr. Martin Weigel
Johannes Gutenberg-Universität Mainz
Institut für Physik
■ Summary Staudinger Weg 7
A large number of condensed matter systems, ranging D-55128 Mainz
from spin glasses over biopolymers to colloids, Tel. +49 (0) 6131-39 22 581
show complex behavior resulting from competing Fax +49(0) 6131-39 27 230
interactions and effects of geometric competition. Email: weigel@uni-mainz.de
Statistical physics explains these observations in http://www.cond-mat.physik.uni-mainz.de/~weigel/
terms of studying the arrangement of favorable and
unfavorable configurations of such systems which is
known as the “energy landscape“. New algorithms
allow for a much more efficient investigation of such
problems using computer simulations.

FORSCHUNGSMAGAZIN 2/2009 13
R E C H N E R G E S T Ü T Z T E F O R S C H U N G – P O LY M E R S I M U L AT I O N E N

Multiskalensimulationen in der Materialwissenschaft

Von Christine Peter und Kurt Kremer

Aus der großen Komplexität vieler Materialien und optische Eigenschaften durch die Kettenmolekü-
ergibt sich oft die Notwendigkeit, Fragestellun- le (Polymere) bestimmt werden, aus denen das Mate-
gen sowohl in sehr kleinem, mikroskopischem rial aufgebaut ist.
Maßstab als auch auf deutlich größeren Län-
genskalen praktisch gleichzeitig zu beantwor- Leider ist diese Materialforschung mittels Computer-
ten. Daher werden am Max-Planck-Institut für simulation in der Praxis nicht ganz so einfach, da die
Polymerforschung Multiskalensimulationen ent- Rechenzeit, die man zur Lösung eines chemischen
wickelt und eingesetzt, bei denen mehrere Si- oder physikalischen Problems benötigt, zumindest
mulationsmethoden systematisch miteinander proportional zur Anzahl der einzelnen Teilchen ist,
verknüpft werden. die in der Simulation berücksichtigt werden. Je mehr
Teilchen, Experten sprechen hier von Freiheitsgraden,
Neben Experiment und Theorie bilden Computersi- man simulieren möchte, umso größer ist der Re-
mulationen mittlerweile in vielen naturwissenschaft- chenaufwand. Das setzt den Systemgrößen, die man
lichen Disziplinen, wie Physik, Chemie und Biologie, einfach so simulieren kann, natürliche Grenzen. Eine
ein drittes Standbein, das aus der aktuellen For- einfache Rechnung kann dieses Dilemma ein wenig
schung nicht mehr wegzudenken ist. Oft stellen sie illustrieren. Nehmen wir einmal an, wir würden alle
ein Bindeglied zwischen experimentellen Ergebnissen wichtigen molekularen Eigenschaften von Wasser
und theoretischen Vorhersagen und Deutungen dar: genau kennen, was bis heute noch nicht der Fall ist.
Zum einen kann man mit Computersimulationen zur Eine Probe von einem Milliliter Wasser enthält grö-
Interpretation von experimentellen Beobachtungen ßenordnungsmäßig 1022 Wassermoleküle. Wollte
beitragen, da sie die Möglichkeit bieten, die Prozesse, man nun lediglich die Positionen jedes einzelnen
die zu einem bestimmten Ergebnis führen könnten, Moleküls aufschreiben, so erhielte man eine Datei
auf dem Rechner „nachzustellen“. Zum anderen von mehr als einer Milliarde Terabyte, also mehr als
kann man in der Computersimulation theoretische 1.000.000.000.000.000.000.000 Byte. Allein für die
Vorhersagen unter kontrollierten Rahmenbedin- Datenspeicherung, also noch ohne jegliche Rechnung,
gungen testen und Parameter systematisch variie- wären mehr als eine Milliarde moderner Festplatten
ren, weshalb Computersimulationen auch gerne als nötig. Daraus folgt, dass man für solche makroskopi-
in-silico Experimente bezeichnet werden. schen Systeme nicht jedes einzelne Atom oder Mo-
lekül genau betrachten kann, man kann sozusagen
In Physik, Chemie und Materialforschung, aber auch nicht mit atomarer Auflösung arbeiten. Die Simulati-
in der Biologie, werden Computersimulationen viel- on atomar aufgelöster Systeme ist üblicherweise auf
fach eingesetzt, um den Zusammenhang zwischen eine bis wenige Millionen Einzelteilchen beschränkt.
physikalischen Eigenschaften (u. a. Steifigkeit, Reiß-
festigkeit, Magnetisierung als Funktion der Tempera- Nun gibt es aber speziell in der Materialforschung
tur oder Mischbarkeit von Legierungen) bestimmter Probleme oder Eigenschaften, die man nur bei ent-
Abb. 1: Die Eigenschaften einer CD
(links) ergeben sich aus dem Ver- Substanzen/Materialien und ihrer mikroskopischen sprechend großen Systemen überhaupt beobachten
knäueln und Verhaken langer Ket- (atomaren) Struktur zu untersuchen. Abbildung 1 oder erklären kann, zum Beispiel die mechanische
tenmoleküle aus vielen identischen illustriert dies anhand einer CD, deren mechanische Stabilität, aber auch das Fließverhalten von Polyme-
Einheiten und der Struktur in der
Nähe der Oberfläche (Mitte, rechts).
Alle Abb.: © Christine Peter, Kurt Kremer

14
RECHNERGESTÜTZTE FORSCHUNG – P O LY M E R F O R S C H U N G

ren. Polymere ist die generelle Bezeichnung für sehr


große Kettenmoleküle. Verschiedenste Polymere sind
die Bausteine synthetischer Kunststoffe, aber auch
natürlicher Materialien wie beispielsweise Holz,
Baumwolle oder auch der DNA, die die Erbinforma-
tion trägt.

Ähnliches wie bei der Systemgröße ergibt sich auch


bei der Zeit, auch hier benötigen viele Prozesse in
der Realität deutlich längere Zeiten, als man mit-
tels Computersimulationen so ohne Weiteres erfas-
sen kann. Bei einer atomar aufgelösten Simulation
werden die Newtonschen Bewegungsgleichungen
mithilfe des Computers integriert. Um das machen
zu können, muss man die Berechnung in kleine Zeit-
schritte diskretisieren, die wesentlich kleiner sind,
als die typischen Zeiten für die Schwingungen der
Atome gegeneinander. Das bedeutet, dass der typi-
sche Zeitschritt in der Größenordnung von 10-15 Se-
kunden liegt. Nur eine Sekunde zu simulieren, würde
rund 1.000.000.000.000.000 Zeitschritte erfordern.
Zusammengefasst bedeutet das, dass solche „Brute
Abb. 2: Verschiedene Simulations-
Force“ Simulationen auch in Zukunft nicht oder nur in methoden (Skalen) liefern Informa-
ganz wenigen Ausnahmefällen möglich sein werden. Berechnungen oder auch aus Experimenten ableiten. tionen bei unterschiedlich hoher
Andererseits stellt sich natürlich die Frage, ob solche Weiterhin ist eine genaue Kenntnis der Wasserstruk- Auflösung, hier illustriert anhand
Simulationen überhaupt sinnvoll sind, oder ob es in- tur notwendig, wenn man verstehen will, warum verschiedener wässriger Systeme.
telligente Alternativen gibt. Wasser sich beim Gefrieren ausdehnt; in diesem Fall Beispiele aus dem Arbeitskreis
muss man genau verstehen, wie sich die verschiede- Kremer.1,2,3,4

Auf den ersten Blick erscheint es also unmöglich, nen Wassermoleküle zueinander anordnen. Hier ist
komplexe Fragen der Materialforschung mittels Com- es jedoch nicht unbedingt nötig, „riesige“ Proben zu
putersimulationen anzugehen, selbst wenn man an betrachten.
die neuesten Rechnergenerationen denkt. Es gibt je-
doch Methoden, dieses Dilemma zu umgehen, indem Man kann also in Abhängigkeit vom zu lösenden
man Beschreibungen der Systeme auf Ebenen unter- Problem verschiedene Simulationsmethoden ver-
schiedlicher Detailliertheit systematisch miteinander wenden. Dies ist in Abbildung 2 illustriert, wobei wir
verbindet. Solche Multiskalensimulationsmethoden auch hier das Beispiel Wasser gewählt haben. Die
werden in der Theoriegruppe am Max-Planck-Institut Abbildung zeigt einerseits, welche Eigenschaften von
für Polymerforschung (MPI-P) seit Jahren entwickelt. wässrigen Systemen man mithilfe von Methoden mit
Im Folgenden werden wir zur Illustration allerdings hoher Auflösung analysieren kann; sie ermöglichen
keine Beispiele aus dem Umfeld komplexer Materi- beispielsweise das Betrachten aller Atome, eventu-
alien verwenden, sondern zur Vereinfachung Wasser ell sogar der Elektronen, wenn man quantenmecha-
und wässrige Systeme. Das ist auch für unsere Arbeit nische Methoden anwendet (linke untere Ecke der
von Bedeutung, da viele (insbesondere biologische) Grafik). Andererseits zeigt Abbildung 2, für welche
Polymere wasserlöslich sind. Fragestellungen man größere Systeme – dann aber
mit geringerer Auflösung – simulieren muss (rechte
Die Grundidee bei Computersimulationen mit ver- obere Ecke der Grafik).
schiedenen Auflösungen (Skalen) ist, dass man je
nach Problem oder Fragestellung mit unterschiedli- Bisher haben wir erklärt, dass man verschiedene
cher Genauigkeit „hinschauen“ muss. Man benötigt Simulationsmethoden mit unterschiedlicher Auflö-
zum Beispiel nicht in allen Fällen Kenntnis über die sung für verschiedene Problemstellungen verwendet.
exakte Position aller Moleküle in einer Probe. Um Allerdings geht man bei Multiskalensimulationen
zum Beispiel zu verstehen, wie Wasser fließt, benö- über dieses Neben- oder Nacheinander hinaus: Hier
tigt man keine detaillierten Informationen über jedes versucht man komplexere Probleme zu erfassen, bei
einzelne Wassermolekül, sondern nur über gemittelte denen es gleichzeitig sowohl auf das Verständnis lo-
Größen, das heißt über die Durchschnittswerte von kaler, mikroskopischer Eigenschaften (sie benötigen
vielen Molekülen. Zudem benötigt man Kenntnis Methoden mit hoher Auflösung) als auch auf das Er-
über Strömungen und Verwirbelungen, die jedoch fassen makroskopischer Prozesse (sie benötigen gro-
Phänomene auf großen Längenskalen darstellen. Die ße Systeme und lange Simulationszeiten) ankommt.
dazu notwendigen gemittelten Größen, etwa die Oft sind dies Probleme, bei denen die Kenntnis der
Viskosität, kann man oft aus weniger aufwendigen lokalen Eigenschaften für das Verständnis des Ver-

FORSCHUNGSMAGAZIN 2/2009 15
R E C H N E R G E S T Ü T Z T E F O R S C H U N G – P O LY M E R S I M U L AT I O N E N

mmenlagert. Dies tritt zum Beispiel in Peptidsystemen


aauf. Peptide sind kleine Kettenmoleküle aus Amino-

säuren, den Bausteinen, aus denen auch alle Eiweiß-
st
stoffe aufgebaut sind. Die Aggregation von Protein-
ooder Peptidketten spielt eine große Rolle bei sehr
uunterschiedlichen Phänomenen, zum Beispiel bei
dder Strukturbildung in Materialien wie Holz, Wolle,
SSeide oder Knochen, aber auch bei Krankheiten wie
AAlzheimer oder BSE (Bovine spongiforme Enzephalo-
ppathie).

GGerade bei diesen Peptiden sind Multiskalensimu-


la
lationen sehr wichtig, da man einerseits für das
VVerständnis der lokalen Strukturen die Wechselwir-
kkungen zwischen einzelnen Molekülen genau ken-
nnen muss, man also eine hohe (atomare) Auflösung
bbraucht. Andererseits laufen solche Aggregations-
pprozesse auf sehr großen Längen- und Zeitskalen ab,
kkönnen also mit atomaren Methoden alleine nicht si-
mmuliert werden. Man benötigt gleichzeitig Simulatio-
nnen mit verschiedenen Auflösungen (vgl. Abb. 3). Hier
mmuss man nun dafür sorgen, dass diese Simulationen
bbei verschiedenen Auflösungen „zusammenpassen“.
Abb. 3: Aggregierte Peptide, darge- SSonst kann es passieren, dass die Strukturen, die
stellt in atomarer und vergröberter haltens auf der großen Längen-/Zeitskala wichtig ist. man mit einer Auflösung erhalten hat (zum Beispiel
(große Kugeln) Auflösung; kleines Ein ganz typisches Beispiel dafür ist das Verhalten die großen Peptidaggregate mit vergröberten Simu-
Bild: lokale Wasserstruktur um des Polymers Polykarbonat an einer Metallgrenz- lationsmethoden), nicht mehr stabil sind, nachdem
eines der Peptide.
fläche, wie es bei der Verarbeitung in Gussformen man sie an die andere Auflösung „weitergereicht“
vorkommt. Polykarbonat ist ein wichtiger Kunststoff hat. Anschließend könnte es passieren, dass die Pep-
für sehr viele optische Anwendungen, von CDs über tidaggregate „auseinanderfallen“, wenn man sie mit
Brillengläser bis hin zu Scheinwerfergehäusen (vgl. atomaren Simulationen weiter untersucht, um die
Abb. 1). Die Kettenmoleküle liegen in einem solchen lokalen Eigenschaften aufzuklären.
Material typischerweise wie völlig ungeordnete,
verknäuelte Wollfäden vor. Bei der Polymerisation, Diese Verknüpfungen zwischen verschiedenen
also dem Herstellungsprozess, ergeben sich je nach Simulationsmethoden bei verschiedenen Auflösun-
Verfahren unterschiedliche Kettenenden. Je nach Ket- gen (Multiskalensimulationen) werden in der Theo-
tenende bekommt man die gewünschte dichte Woll- riegruppe am MPI-P untersucht und entwickelt: von
knäuelstruktur oder, wenn die Enden zu stark an der der Quantenmechanischen Ebene über Simulationen
Form kleben, eine sogenannte Polymerbürste, die im mit atomistischer Auflösung und vergröberte Model-
vorliegenden Fall zu sehr schlechten, das heißt kaum le bis hin zu Methoden, bei denen keine Atome oder
verwendbaren CDs führen würde (Abb. 1, Mitte). Um andere Teilchen mehr verwendet werden.
so etwas herauszufinden, muss man nahe der Ober-
fläche alle chemischen Details kennen, während wei-
ter weg durchaus einfachere Modelle zur Beschrei- ■ Summary
bung ausreichen. Computer simulations are a powerful modern tool
which can be used in addition to an experimental
In solchen Fällen benötigt man Computersimulatio- and theoretical approach in order to explore the
nen, bei denen man verschiedene Simulationsmetho- physical and chemical properties of both synthetic
den mit unterschiedlicher Auflösung miteinander ver- and biological materials. Due to the enormous
knüpft. Diese Verknüpfung kann jedoch nicht beliebig complexity of many materials, questions often
erfolgen. Vielmehr muss man sehr sorgfältig darauf have to be addressed simultaneously on multiple
achten, dass hierbei nicht die Gesetze der Physik ver- length scales, from the microscopic level of atomic
letzt und infolgedessen unphysikalische Effekte „pro- interactions to the macroscopic scale. To this end we
duziert“ werden. develop multiscale simulation methods at the Max
Planck Institute for Polymer Research where we
Dies soll anhand eines letzten Beispiels erläutert systematically link simulation methods on several
werden. In vielen biologischen Materialien spielen levels of resolutions.
Aggregationsphänomene eine große Rolle. Das be-
deutet, dass sich eine große Anzahl identischer oder
ähnlicher Moleküle zu größeren Strukturen zusam-

16
RECHNERGESTÜTZTE FORSCHUNG – P O LY M E R F O R S C H U N G

Dr. Christine Peter Prof. Dr. Kurt Kremer


Privat

C. Costard/MPI-P
C
Christine Peter, Jahrgang Kurt Kremer, Jahrgang
1974, hat Chemie und Ma- 1956, studierte Physik an
tthematik an der Universi- dder Universität zu Köln.
ttät Freiburg studiert und 1983 schloss er seine Pro-
ddas Studium im Jahr 1999 motion in Theoretischer
mit dem Chemie-Diplom Physik in Köln und dem
und einer Diplomarbeit im Forschungszentrum Jülich
Bereich Festkörper-NMR- aab. Nach einem weiteren
SSpektroskopie
k k i abgeschlossen.
b hl Nach ihrer Promotion JJahr
h als
l wissenschaftlicher
i h f li h Mitarbeiter in Jülich und
in Informatikgestützter Chemie an der ETH Zürich einem Forschungsaufenthalt bei der Exxon Research
war sie mit einem DAAD-Stipendium als Post-Doc an and Engineering Corporation, Annandale, New Jer-
den National Institutes of Health in Bethesda (USA) sey, USA, kam er 1985 an die Universität Mainz in die
tätig. 2005 wechselte sie an das Max–Planck-Institut Gruppe von Prof. Kurt Binder, wo er 1988 habilitierte.
für Polymerforschung in die Gruppe von Prof. Kurt Anschließend kehrte er an das FZ Jülich zurück. Er
Kremer. Seit 2008 ist sie dort Leiterin einer Nach- verbrachte mehrere ausgedehnte Forschungsaufent-
wuchsgruppe im Emmy Noether-Programm zum halte bei Exxon Research, der UC Santa Barbara, der
Thema „Entwicklung vergröberter Simulationsmo- University of Minnesota und der Bayer AG. 1995 trat
delle zum Studium von Strukturbildung und Selbst- er der Max-Planck-Gesellschaft als sechster Direktor
aggregation in Peptidsystemen”. des Max-Planck-Instituts für Polymerforschung bei.

■ Kontakt
Prof. Dr. Kurt Kremer
Theorie der Polymere
Max-Planck-Institut für Polymerforschung
Ackermannweg 10
D-55128 Mainz
Tel. +49 (0) 6131-37 9141
Email: kremer@mpip-mainz.mpg.de

Literatur

1. Krekeler K & Delle Site L. Lone pair versus bonding pair electrons: The mechanism of electronic polarization of water in the
presence of positive ions. J Chem Phys 2008; 128: 134515.

2. Villa A, van der Vegt NFA, Peter C. Self-assembling dipeptides: including solvent degrees of freedom in a coarse-grained model.
Phys Chem Chem Phys 2009; 11: 2068.

3. Reynwar B, Illya G, Harmandaris VA, Mueller M, Kremer K, Deserno M. Aggregation and vesiculation of membrane proteins by
curvature-mediated interactions. Nature 2007; 447: 461.

4. Dünweg B, Schiller UD, Ladd AJC. Statistical mechanics of the fluctuating lattice Boltzmann equation. Phys Rev E 2007; 76:
036704.

FORSCHUNGSMAGAZIN 2/2009 17
RECHNERGESTÜTZTE FORSCHUNG – COMPUTERTECHNIK

Kernkräfte als Videospiel

Von Hartmut Wittig

Die kommerzielle Bedeutung von Computerani- seit den 1970er Jahren eine Theorie, die sogenannte
mation und Videospielen ist in den vergange- Quantenchromodynamik (QCD). Die Frage, ob sich
nen Jahren enorm gewachsen. Im Zuge dessen die experimentell bestimmten Eigenschaften der Pro-
stieg auch der Bedarf an immer realistischeren tonen und Neutronen aus der QCD herleiten lassen,
Visualisierungen, was zur Entwicklung spezieller ist allerdings nach wie vor eine wissenschaftliche
Grafikprozessoren geführt hat, deren Rechenge- Herausforderung, denn die komplexe mathematische
schwindigkeit um ein Vielfaches größer ist als Struktur der QCD hat sich bisher allen Lösungsverfah-
die von herkömmlichen Prozessoren. Mainzer ren mit Bleistift und Papier widersetzt.
Physiker versuchen nun, die enorme Rechen-
leistung solcher Grafikprozessoren für wissen- Der spätere Nobelpreisträger Ken Wilson hat be-
schaftliche Anwendungen zu nutzen. reits 1974 die Grundlagen für eine numerische Be-
handlung der QCD auf Großrechnern geschaffen.1 Er
Computergrafik ist aus vielen Bereichen des öffent- schlug damals vor, die QCD auf einer diskretisierten
lichen und wissenschaftlichen Lebens nicht mehr Raumzeit zu formulieren, ähnlich einem Kristallgit-
wegzudenken: Moderne CAD-Verfahren („Computer ter. Die einzelnen Gitterplätze werden dabei mit den
Aided Design“) haben das traditionelle Reißbrett ab- Quarkfeldern besetzt, während die Gluonen auf den
gelöst. Die computergestützte Visualisierung physika- Verbindungslinien (Kanten) zwischen einzelnen Git-
lischer Vorgänge dient nicht allein nur dem detaillier- terplätzen sitzen. Die Berechnung physikalischer Grö-
ten Sichtbarmachen eines Prozesses, sondern ergänzt ßen, wie beispielsweise der Masse des Protons, kann
die abstrakte Beschreibung durch die Mathematik. in dieser Formulierung durch eine sogenannte Mon-
Auch in der Unterhaltungsindustrie hat sich die Com- te- Carlo-Simulation erfolgen, ein Verfahren, das häu-
putergrafik fest etabliert: Computeranimationsfilme, fig auch in der Festkörperphysik angewendet wird.
virtuelle Welten („Second Life“) und Spielekonsolen
(Nintendo, Playstation, Xbox etc.) findet man heute Es fällt nicht schwer zu verstehen, dass eine präzise
in fast jedem Kinderzimmer. Realistische Visualisie- Berechnung physikalischer Größen nur dann gelin-
rungen erfordern allerdings einen riesigen Rechen- gen kann, wenn das Gitter möglichst feinmaschig ist,
aufwand, der mit den üblichen Mikroprozessoren, denn schließlich ist die reale Raumzeit keine diskrete
wie sie in Arbeitsplatzrechnern und Laptops einge- Punktmenge. Will man ein Proton in ein genügend
baut sind, nicht erreicht werden kann. Daher wurden großes Volumen einsperren und gleichzeitig den Git-
entsprechend optimierte Grafikprozessoren (GPUs) terabstand möglichst klein halten, braucht man eine
entwickelt. Der rasante technologische Fortschritt in große Zahl von Gitterplätzen, was natürlich mit einem
der computergestützten Bildgenerierung der vergan- hohen Rechenaufwand einhergeht. Mit der derzeit
genen Jahre ist dabei nicht zuletzt durch die enormen verfügbaren Rechner-Hardware lassen sich Systeme
Umsätze befeuert worden, die mit Animationsfilmen mit zehn Millionen Gitterpunkten behandeln, wobei
und Spielekonsolen erzielt werden konnten. der Gitterabstand etwa 1/20 der Ausdehnung eines
Protons beträgt.
Wo so viel Rechenleistung zur Verfügung steht, stellt
sich die Frage, ob sich solche Grafikprozessoren auch Derartige Systeme sind zu groß, als dass sie von ein-
für wissenschaftliche Rechnungen einsetzen lassen. zelnen Prozessoren bewältigt werden könnten. Da-
Hierbei steht also nicht die Nutzung der GPUs für die her muss man Parallelrechner einsetzen: Hierbei wird
Bildgenerierung, sondern das Anzapfen ihrer schieren das Gesamtsystem in viele verschiedene Untergitter
Prozessorleistung für besonders rechenzeitintensive aufgeteilt, die jeweils in den Hauptspeicher eines
wissenschaftliche Anwendungen im Vordergrund. einzelnen Prozessors passen. Allerdings sind diese
Eine solche Anwendung ist die numerische Untersu- Untergitter nicht unabhängig voneinander, so dass
chung und Simulation der Kernkräfte. Die sichtbare gelegentlich die Information eines Untersystems mit
Materie des Universums besteht neben den Elektro- der des Nachbarprozessors über ein schnelles Kom-
nen der Atomhülle im Wesentlichen aus den Protonen munikationsnetzwerk ausgetauscht werden muss.
und Neutronen des Atomkerns. Die kleinsten bekann- Wie effizient ein solches Verfahren ist, hängt ganz
ten Bausteine der Materie sind jedoch die Quarks, die wesentlich davon ab, wie gut Netzwerkgeschwindig-
durch den Austausch von Gluonen zusammengehal- keit und Prozessorleistung aufeinander abgestimmt
ten werden (engl. „glue“ = Leim). Zur Beschreibung sind. Eine Maschine, bei der die Balance zwischen
der Kräfte zwischen Quarks und Gluonen kennt man verschiedenen Hardware-Komponenten realisiert ist,

18
RECHNERGESTÜTZTE FORSCHUNG – COMPUTERTECHNIK

Klaus Weindel
A
Abb. 1: Das Cluster „Wilson“
am Institut für Kernphysik.
a

ist das kürzlich eingeweihte Cluster „Wilson“ am In- Als Standard-„Benchmark“ dient hierfür eine Matrix-
stitut für Kernphysik (Abb. 1). Dieses Cluster besteht Vektor-Multiplikation. Im Rahmen der Gitter-QCD be-
aus insgesamt 2.240 Prozessorkernen, die über ein schreibt die Matrix die physikalische Wechselwirkung
Infiniband-Netzwerk miteinander gekoppelt sind.2 zwischen den Quark- und Gluonfeldern. Die Dimensi-
Die Rechengeschwindigkeit eines einzelnen Prozes- on der Matrix ist riesig: Die Zahl der Spalten ist gleich
sors für Anwendungen, wie sie in der Gitter-QCD der Zahl aller Gitterpunkte multipliziert mit weite-
typisch sind, beträgt dabei 1,65 GFlop/s (engl.: Giga- ren Quantenzahlen, die den Zustand eines Quarks
floating-point-operations per second = Milliarden Re- charakterisieren. Benutzt man das oben genannte
chenoperationen pro Sekunde). Damit erreicht unser Beispiel von zehn Millionen Gitterpunkten, so hat
Anwendungscode zirka 20 Prozent der theoretisch die Matrix 1,44 mal 1016 Elemente. Allerdings sind
möglichen Rechenleistung eines Prozessorkerns. Das die meisten davon Null, denn die Kräfte zwischen
gesamte Cluster hat eine Leistung von 3.700 GFlop/s. den Quarks wirken entweder am gleichen Ort oder
Berücksichtigt man die Anschaffungskosten von nur zwischen benachbarten Gitterpunkten. In der
1,1 Millionen Euro, so muss man rund 300 Euro pro Fachsprache der Mathematik nennt man ein solches
GFlop/s bezahlen. Damit liegt „Wilson“ in der Spit- Objekt eine dünn besetzte Matrix. Es gibt verschie-
zengruppe, was Kosteneffizienz betrifft. dene Möglichkeiten, eine konkrete Wahl dieser Ma-
trix der Quark-Gluon-Wechselwirkung anzugeben.
Das „Wilson“-Cluster und auch die anderen Hoch- In unserem Projekt benutzen wir die ursprüngliche
und Höchstleistungsrechner an Universitäten und Formulierung von Ken Wilson, die unter dem Namen
nationalen Rechenzentren basieren auf Prozessoren „Wilson-Dirac-Operator“ bekannt ist. Im Laufe einer
(CPUs), die sich nur wenig von denen unterscheiden, typischen numerischen Simulation der Gitter-QCD be-
die man in handelsüblichen Arbeitsplatzrechnern fin- nötigen die Anwendungen des „Wilson-Dirac-Opera-
det. Da der Rechenzeitbedarf je nach wissenschaft- tors“ mehr als 70 Prozent der gesamten Rechenzeit.
licher Fragestellung und erforderlicher Genauigkeit Folglich konzentrieren sich alle Versuche, numerische
die derzeitigen Kapazitäten um mehrere Größenord- Simulationen der Gitter-QCD zu beschleunigen, auf
nungen übersteigen kann, liegt es nahe, die hohen die Optimierung des Wilson-Dirac-Operators.
Rechenleistungen von Grafikprozessoren für die
Gitter-QCD nutzbar zu machen. In einem gemeinsa- Ein wesentliches Architekturmerkmal von Grafikpro-
men Projekt mit der Arbeitsgruppe von Prof. Elmar zessoren ist die große Anzahl von Prozessorkernen,
Schömer vom Institut für Informatik untersucht der die auf den derzeit gängigen Plattformen zwischen
Arbeitskreis „Gitter-QCD“ am Institut für Kernphysik 128 und 240 variieren kann. Zwar gibt es auch bei
derzeit, inwieweit sich Grafikprozessoren für typische herkömmlichen CPUs einen deutlichen Trend zu
QCD-Anwendungen eignen. Mehrkernprozessoren, doch nehmen sich die han-

FORSCHUNGSMAGAZIN 2/2009 19
RECHNERGESTÜTZTE FORSCHUNG – COMPUTERTECHNIK

d Programmierarbeit im Rahmen unseres Projekts


der
© Björn Walk

bbestand daher in der Übertragung der Datenzugrif-


fe für die Quark- und Gluon-Felder der QCD auf den
Te
Textur-Speicher.

EEin konkretes Beispiel, das den Unterschied zwischen


dder Optimierung von CUDA-Code im Vergleich zu
SSimulationsprogrammen in C illustriert, ist der Spei-
ccherzugriff auf das Gluon-Feld. Gluon-Felder werden
ddurch unitäre 3x3 Matrizen dargestellt. Eine solche
M
Matrix besteht aus neun komplexen Zahlen, was
in
insgesamt 18 reellen Zahlen entspricht. Da die Ma-
tr
trix unitär ist, sind die Vektoren, die den drei Zeilen
eentsprechen, nicht linear unabhängig. Auf einer her-
kkömmlichen CPU holt das Programm alle 18 Zahlen
aaus dem Hauptspeicher, was aufgrund der relativ
la
langsamen Rechengeschwindigkeit im Vergleich zum
SSpeicherzugriff zu keiner Verzögerung führt. Auf ei-
nner Grafikkarte sind die Gewichte gerade andershe-
ru
rum verteilt. Wenn möglich, sollte daher der Zugriff
Abb. 2: Erzielte Rechengeschwindig-
aauf den Hauptspeicher vermieden oder zumindest
keit bei der Multiplikation mit dem d l übli h IIntel-
delsüblichen t l oder
d AMD
AMD-Chips
Chi mit it ttypischer-
i h ddie Datenmenge reduziert werden. Dafür kann man
„Wilson-Dirac-Operator“ für ver- weise vier Kernen recht bescheiden neben den GPUs leicht in Kauf nehmen, dass die komplette Informati-
schiedene Gittergrößen. Verglichen aus. Obwohl sich GPUs auch durch eine sehr hohe on erst mit den aus dem Speicher geholten Daten neu
werden herkömmliche Prozessoren Speicherbandbreite auszeichnen, die um mehr als berechnet werden muss. Für unser Projekt hat es sich
(rot) und verschiedene Grafikkar- eine Größenordnung höher als bei normalen Pro- als vorteilhaft erwiesen, nur die ersten beiden Zei-
ten (orange und gelb). GFlop/s =
zessoren sein kann, erweist sich der Zugriff auf den len der unitären 3x3 Matrix des Gluonfelds aus dem
Milliarden Rechenoperationen
pro Sekunde.
Hauptspeicher als eines der größten Hindernisse für Speicher zu holen und danach die dritte Zeile aus
eine effiziente Programmierung. den beiden ersten zu rekonstruieren. Die Reduktion
der Datenmenge, die aus dem Hauptspeicher geholt
Wer sich mit der Programmierung von Grafikpro- werden muss (12 statt 18 reelle Zahlen) führt dabei
zessoren befasst, stellt sehr schnell fest, dass der zu einem erheblichen Netto-Gewinn an Rechenge-
damit verbundene Aufwand erheblich größer ist als schwindigkeit für den Wilson-Dirac-Operator.
für herkömmliche Prozessoren. Der Grund liegt dar-
in, dass Standard-Programmiersprachen wie C oder Die hohe nominelle Rechenleistung von Grafikkarten
C++ (von Fortran ganz zu schweigen) nicht zur Ver- wird ganz wesentlich dadurch erreicht, dass einzelne
fügung stehen. Bis vor Kurzem erforderten daher Programmteile (sogenannte „threads“), die unabhän-
selbst einfachste Operationen, wie die Addition oder gig voneinander ablaufen können, auf verschiedene
Multiplikation zweier Zahlen, viele Zeilen Programm- Prozessorkerne verteilt und parallel abgearbeitet
code. Glücklicherweise haben einige Hersteller damit werden. Bei der Programmierung des Wilson-Dirac-
begonnen, Programmierumgebungen für ihre Grafik- Operators haben wir versucht, jedem Gitterpunkt
Hardware anzubieten, die denen einer Standardspra- einen solchen Thread zuzuordnen und die Zahl der
che gleichen. Beispielsweise hat die Firma Nvidia die Instruktionen, die unabhängig vom benachbarten
Programmierplattform CUDA („Compute Unified De- Gitterpunkt ablaufen können, zu maximieren.
vice Architecture“) entwickelt, die auch die Basis für
unser Projekt bildet. Die Syntax von CUDA ist ähnlich Das Ergebnis unserer Bemühungen lässt sich in Ab-
der Programmiersprache C, erlaubt jedoch, einzelne bildung 2 ablesen. Hier wird die Rechengeschwin-
Hardware-Komponenten des Grafik-Prozessors direkt digkeit für den Wilson-Dirac-Operator auf einer her-
anzusteuern. Trotz dieser Vereinfachung braucht es kömmlichen CPU (Intel Core2Duo, 2,13 GHz) mit zwei
einige Übung, bis es gelingt, einen effizienten Code verschiedenen Grafikkarten verglichen, der Nvidia
für GPUs zu schreiben. Grafikprozessoren verfügen 8800GT und der Nvidia GTX280. Dabei wird auch un-
über besondere Mechanismen zum effizienten Zu- tersucht, wie sich die Gittergröße auf die Rechenge-
griff auf zusammenhängende Speicherbereiche. In schwindigkeit auswirkt. Während die Intel-CPU eine
der Computergrafik ergibt sich die Notwendigkeit Rechenleistung zwischen 3 und 4 GFlop/s erreicht,
hierfür aus der Verwendung von sogenannten Textu- schaffen Grafikprozessoren die beeindruckende Spit-
ren (Pixelbildern), durch die der Detailgrad von drei- zenleistung von mehr als 60 GFlop/s. Interessant ist
dimensionalen Bildern erhöht wird. Die Verwendung dabei auch, dass GPUs ihre enorme Leistung vorwie-
von Texturen stellt sicher, dass der relativ langsame gend auf größeren Gittern ausspielen, denn für die
Zugriff auf den Hauptspeicher die Rechenleistung kleinste betrachtete Systemgröße von 44 liegt das
nicht drastisch vermindern kann. Ein wesentlicher Teil Feld wesentlich dichter beisammen. Dieses Verhalten

20
RECHNERGESTÜTZTE FORSCHUNG – COMPUTERTECHNIK

lässt sich dadurch verstehen, dass bei kleinen Gittern Univ.-Prof. Dr.

Peter Pulkowski
die Rechenleistung durch den Speicherzugriff domi- Hartmut Wittig
niert wird, der auf den GPUs relativ ineffizient ist.
Hartmut Wittig, geboren
Grafikprozessoren können also tatsächlich für extrem 1963, studierte von 1982
rechenzeitintensive wissenschaftliche Anwendungen bbis 1985 Chemie in Mainz
eingesetzt werden. Allerdings ist nicht zu erwarten, und von 1985 bis 1989 Phy-
dass Universitätsrechenzentren künftig vorwiegend ssik in Mainz und Oxford. Die
mit Systemen aus GPUs bestückt werden, denn trotz Promotion erfolgte 1992 an
der beeindruckenden Rechengeschwindigkeit ist der dder Universität Hamburg,
Programmieraufwand teilweise erheblich. Die Gitter- wo er 1998 auch habilitiert wurde. Er absolvierte For-
QCD mit ihren einfach strukturierten mathematischen schungsaufenthalte in Southampton und am Deut-
Objekten ist vermutlich einer Programmierung auf schen Elektronen-Synchrotron (DESY) in Zeuthen,
GPUs besonders zugänglich. Für Anwendungen in der bevor er von 1996 bis 2000 als „Advanced Fellow“
Klima- und Materialforschung mag das anders sein. an der Universität Oxford tätig war. Bis zu seiner Be-
rufung nach Mainz im Jahr 2005 auf eine Professur
Obwohl man vom Rechenbedarf der Unterhaltungs- für theoretische Kernphysik war er permanenter wis-
industrie profitiert, wird die Gitter-QCD durch den senschaftlicher Mitarbeiter bei DESY in Hamburg.
Einsatz von hochgezüchteten Grafikprozessoren
nicht unbedingt zum Kinderspiel. Denn die hier ge-
zeigten Ergebnisse sind alle auf einem einzelnen
System ohne Parallelisierung realisiert worden. Das ■ Kontakt
heißt, dass ein Datentransfer über Prozessorgrenzen Univ.-Prof. Dr. Hartmut Wittig
hinweg, wie er auf dem „Wilson“-Cluster stattfindet, Institut für Kernphysik
nicht berücksichtigt wurde. Kommerzielle Netzwerke Johannes Gutenberg-Universität Mainz
sind aber noch zu langsam, um mit der hohen Re- D-55099 Mainz
chengeschwindigkeit von GPUs mithalten zu können. Tel. +49 (0) 6131-39 26 808
Nachteilig ist auch, dass viele GPUs bislang nur mit Email: wittig@kph.uni-mainz.de
32-Bit-Genauigkeit rechnen können, was zwar für
die meisten Grafikanwendungen völlig genügt (es
reicht, wenn man den Gegner im Ballerspiel nur sche-
menhaft erkennt), für wissenschaftliche Zwecke aber
nicht ausreicht. Ein vielversprechender Ansatz für Literatur
die Zukunft ist daher die Entwicklung eines Systems
aus einer Kombination von Grafik- und herkömmli- 1. Wilson KG. Confinement of Quarks. Phys Rev 1974; D10:
2445
chen Prozessoren, das die jeweiligen Vorteile der
Hardware-Komponenten vereint. Solche integrierten 2. http://wwwkph.kph.uni-mainz.de/T/644.php
Systeme werden bereits von einigen Herstellern an-
geboten.

■ Summary
Computer animation and video games are a hugely
lucrative market worldwide. The ever increasing
demand for more sophisticated visualization has
driven the development of specialized graphics
hardware which achieves processing speeds far
exceeding those of “ordinary” processors found
in workstations and servers. The article describes
how the enormous computing power of graphics
processors can be exploited for scientific applications.
Here we focus on numerical simulations of the strong
nuclear force via a technique known as lattice QCD.

FORSCHUNGSMAGAZIN 2/2009 21
RECHNERGESTÜTZTE FORSCHUNG – METEOROLOGIE

Die Analyse atmosphärischer Strömungen

Von Sebastian Limbach, Marcus Marto, Patrick Jöckel, Elmar Schömer und Heini Wernli

Die Atmosphäre unserer Erde ist ständig in Be- im Vordergrund – der numerischen Effizienz wurde
wegung, und mit den sich in Bewegung befin- vergleichsweise wenig Beachtung geschenkt.
denden Luftmassen werden auch andere Gase
und Partikel durch die Atmosphäre transpor- Trajektorienrechnungen in den Atmosphären-
tiert. Die Verfolgung solcher Luftpakete mithilfe wissenschaften
effizienter Software ist für unterschiedliche Fra-
gestellungen der Atmosphärenwissenschaften Eine klassische Anwendung von Trajektorien ist die
von Interesse, beispielsweise für die Vorhersage Ausbreitungsrechnung im Falle von bodennahen
der Ausbreitung radioaktiver Substanzen nach Emissionen, zum Beispiel aufgrund eines chemischen
einem Störfall. oder nuklearen Unfalls. Dabei steht die Frage im
Vordergrund, welche Regionen von einer Emission
Bei der sogenannten Lagrangeschen Betrachtungs- an einem bestimmten Unfallort zu einem zukünfti-
weise von atmosphärischen Strömungen wird die gen Zeitpunkt betroffen sind. Heute werden für die-
Atmosphäre in „Luftpakete“ unterteilt und deren se Fragestellung jedoch meist komplexere Modelle
Bewegung in Form von Trajektorien berechnet, ana- eingesetzt, bei denen die Mischungsprozesse in der
lysiert und visualisiert. Dabei wird angenommen, turbulenten Grenzschicht explizit berücksichtigt wer-
dass zwischen den Luftpaketen in einem Zeitraum den können. Eine damit verwandte interessante An-
von einigen Tagen kein oder ein vernachlässigbar wendung von LAGRANTO war die Untersuchung der
schwacher Austausch stattfindet. Eine Trajektorie ist Luftmassenherkunft, nachdem in der Nähe von Zü-
festgelegt durch eine Startposition und eine Start- rich erhöhte Werte von radioaktivem Jod gemessen
zeit; sie besteht aus einer Reihe von Daten, die die worden waren. Die Trajektorienrechnungen zeigten,
Positionen zu diskreten zukünftigen oder vorherigen dass das Jod mit großer Wahrscheinlichkeit von den
Zeitpunkten angeben, und somit die zeitliche Bewe- Wiederaufbereitungsanlagen in La Hague und Sella-
gung des Luftpaketes beschreiben. Diese Positionsda- field stammte. In den nächsten Abschnitten wird eine
ten werden anhand von Windfeldern berechnet, die Auswahl aktueller Projekte am Max-Planck-Institut
von einem numerischen Modell oder von sogenann- für Chemie und am Institut für Physik der Atmosphä-
ten meteorologischen „Analysen“ stammen. In den re in Mainz kurz vorgestellt. Trajektorienrechnungen
letzten 20 Jahren wurden unabhängig voneinander spielen dabei stets eine zentrale Rolle.
verschiedene Softwarepakete zur Berechnung von
Trajektorien entwickelt und in einer sehr großen Zahl Ein erstes Projekt befasst sich mit der Interpretation
von Studien zu den unterschiedlichsten Fragestellun- von flugzeuggetragenen chemischen Messungen.
gen eingesetzt, so dass sich das Lagrangesche Kon- Die Region um die Tropopause ist aus der Sicht der
zept als ein essentielles Werkzeug zur Untersuchung Atmosphärenchemie interessant, da hier stratosphä-
von atmosphärischen Strömungen etabliert hat. rische und troposphärische Luftmassen mit zum
Beispiele sind HYSPLIT1, FLEXTRA2 und das auch in Beispiel sehr unterschiedlichen Ozonkonzentratio-
Mainz intensiv verwendete und aktuell von uns wei- nen aneinander grenzen. Im Rahmen des Projektes
terentwickelte Lagrangian Analysis Tool LAGRANTO3. CARIBIC4 (Civil Aircraft for the Regular Investigation
Beim Design dieser Programme standen bisher die of the atmosphere Based on an Instrument Container)
flexible Einsatzfähigkeit und die Nutzerfreundlichkeit werden an Bord eines Lufthansa Passagierflugzeuges
Abb. 1: Die Abbildung zeigt ein re
regelmäßig Messungen der Luftzusammensetzung
Entnommen aus 5

Trajektorienbündel (im Januar in dieser Region durchgeführt. Zur Interpretation der


2000) aus der Sub-Sahelzone, D
Daten werden ausgehend vom Flugweg, also dem
welches über dem Persischen P
Punkt der Messung, zunächst Rückwärtstrajektorien
Golf, dem Punkt der Flugzeug- b
berechnet (Abb. 1). Entlang dieser Trajektorien kann
messung, konvergiert (die Farbe
d
dann die chemische Evolution der Luftmassen mit-
der Trajektorie zeigt die Druck-
höhe in Hektopascal).
h
hilfe eines fotochemischen Modells vom Startpunkt
d Trajektorie bis hin zum Messpunkt rekonstruiert
der
w
werden. Dabei werden die Anfangsbedingungen, also
d ursprüngliche chemische Zusammensetzung der
die
L am Ausgangspunkt der Trajektorie, mit einem
Luft
g
globalen Atmosphärenchemie- und Klimamodell
a
abgeschätzt. Die Methode erlaubt eine quantitative

22
RECHNERGESTÜTZTE FORSCHUNG – METEOROLOGIE

Trennung der Beiträge von Transport, Mischung und

© Verfasser
chemischer Umwandlung auf die Zusammensetzung
der Luft am Messpunkt und gibt Aufschlüsse über die
Quellenregion der Bestandteile.5

In einem zweiten Projekt werden sogenannte „Warm


Conveyor Belts” (WCBs) untersucht. Diese stellen
kohärente Bündel von Trajektorien dar, die typischer-
weise innerhalb von ein bis zwei Tagen aus der sub-
tropischen Grenzschicht (das heißt aus einer Höhe
von ungefähr 500 Metern und einer geographischen
Breite von etwa 35ºN) entlang von Kaltfronten in die
obere Troposphäre (das heißt auf eine Höhe von un-
gefähr acht bis zehn Kilometern bei 50 bis 65ºN) auf-
steigen. Diese Luftmassen sind sehr feucht, so dass
entlang (fast) des ganzen Weges Wasserdampf kon-
densiert und sich Wolken und Niederschlag bilden.
WCBs sind die für den Niederschlag in den mittleren Abb. 2: 3D-Visualisierung von Trajek-
Breiten wichtigsten atmosphärischen Strömungen. lichkeiten bieten, müsste man auf einzelne Ergebnis- torien, gestartet vom Yellowstone
National Park, durch das INSIGHT-
Für die Chemie der Atmosphäre sind sie von Bedeu- se statt mehrerer Stunden, Tage oder sogar Monate
Programm (die Farbe kennzeichnet
tung, da sie beispielsweise Abgase bis in die obere nur Minuten warten. die potenzielle Vortizität (PV)).
Troposphäre oder sogar bis in die untere Stratosphä-
re transportieren können. Aktuell wird die Frage un- Die Effizienz von Software kann dabei durch verschie-
tersucht, welche Rolle WCBs bei der Anregung von dene Faktoren beeinflusst werden. Bei der Berech-
sogenannten Rossby-Wellen in der Atmosphäre spie- nung von Trajektorien ist der beschränkende Faktor
len. Diese bestimmen das Wettergeschehen in den weniger die Komplexität der Verfahren als vielmehr
mittleren Breiten auf einer Zeitskala von ein bis zehn die große Menge der benötigten Daten. Diese liegen
Tagen. Die korrekte Modellierung ihrer Anregung und in der Regel auf einem Massenspeicher vor, typischer-
Verstärkung ist entscheidend für die Qualität der weise auf einer Festplatte. Bevor ein Programm mit
Wettervorhersagen auf diesen Zeitskalen. diesen Daten effizient arbeiten kann, müssen sie in
den wesentlich schnelleren, aber auch kleineren
Ein drittes Projekt beschäftigt sich mit der Unter- Arbeitsspeicher des Computers geladen werden. Die
suchung erhöhter bodennaher Ozonkonzentratio- Zugriffszeiten liegen bei Festplatten üblicherweise im
nen. Während die Ozonschicht in der Stratosphäre Bereich von einigen Millisekunden, beim Arbeitsspei-
das Leben auf der Erde vor zu starker UV-Strahlung cher hingegen im Nanosekundenbereich.
schützt, sind hohe Ozonwerte in Bodennähe gesund-
heitsschädlich. Fotochemische Reaktionen in der Während der Berechnung von Trajektorien benötigt
Atmosphäre können jedoch besonders an warmen das Programm Informationen über die Windfelder
Sommertagen dazu führen, dass in industrialisier- und über alle Messgrößen, die zusätzlich entlang je-
ten Regionen hohe Ozonwerte auftreten können. der Trajektorie betrachtet werden sollen. Die Gesamt-
Aber auch in wenig belasteten Gebieten kann die menge dieser Daten wird bestimmt durch die Größe
bodennahe Ozonkonzentration während einiger des Untersuchungsgebiets sowie durch die räumliche
Stunden oder Tage auf kritische Werte ansteigen. Ein und zeitliche Auflösung der Messdaten. Im Fall der
dafür möglicherweise verantwortlicher Prozess sind bodennahen Ozonkonzentrationen in Nordamerika
stratosphärische Intrusionen, in denen ozonreiche beschränkt sich das Gebiet auf die nördliche Hemi-
stratosphärische Luft innerhalb von wenigen Tagen sphäre. Die Daten liegen alle sechs Stunden mit ei-
zum Boden absinkt. In einer Kooperation mit Wissen- ner horizontalen Auflösung von einem halben Grad
schaftlern aus den USA sind wir dabei, die Bedeutung geographischer Länge beziehungsweise Breite auf
dieses Prozesses in entlegenen Regionen Nordameri- 90 Höhenschichten vor. An jedem Gitterpunkt wer-
kas zu quantifizieren. den jeweils ein aus drei Komponenten bestehender
Windvektor, der Bodendruck sowie drei zusätzliche
Trajektorienrechnungen aus Sicht Messwerte gespeichert. Insgesamt ergibt sich eine
der Informatik Datenmenge von über 300 Megabyte pro erfasstem
Zeitpunkt. Bei einem Beobachtungszeitraum von
Ein wichtiges Qualitätskriterium von Software ist die mehreren Monaten werden schnell Datenmengen
Effizienz. Für die flexible Benutzung eines Programms erreicht, die nicht mehr vollständig im Arbeitsspei-
ist die Zeit, die die Berechnung der Ergebnisse in An- cher gehalten werden können. Die Art und Weise des
spruch nimmt, oft von entscheidender Bedeutung. Nachladens der Daten bestimmt somit die Gesamt-
Auch bei der Trajektorienberechnung würden sich laufzeit des Programms zur Trajektorienberechnung.
wesentlich flexiblere und dynamischere Einsatzmög- Für die Untersuchung der Ozonwerte werden alle

FORSCHUNGSMAGAZIN 2/2009 23
RECHNERGESTÜTZTE FORSCHUNG – METEOROLOGIE

sechs Stunden Gruppen von Trajektorien bei verschie- Trajektorienberechnungen von mehreren Stunden auf
denen Messstationen gestartet (vgl. Abb. 2), insge- wenige Minuten zu reduzieren. Der Anteil von Datei-
samt in dieser Studie zirka 10.000 Trajektorien. Die zugriffen an der Gesamtlaufzeit des neuen Systems
Bewegungen der Luftteilchen wurden für jede Grup- liegt bei etwa 98 Prozent. Da jede Datei nur genau
pe separat zehn Tage lang verfolgt. Diese bisherige ein Mal eingelesen wird, haben wir unser erstes Opti-
Vorgehensweise erforderte das mehrmalige Laden mierungsziel erreicht. Offen bleibt, ob sich durch eine
derselben Daten von der langsamen Festplatte. Realisierung des zweiten Optimierungsansatzes eine
weitere Steigerung der Performance erzielen lässt.
Daher bieten sich zur Verbesserung der Gesamt-
laufzeit zwei Möglichkeiten an: Als erstes kann man
die Anzahl der Ladevorgänge auf ein Minimum be- ■ Summary
schränken. Jede Datei sollte möglichst nur ein einzi- In atmospheric sciences, trajectories are a common
ges Mal in den Speicher geladen werden. Zweitens tool for tracing the movement of “air parcels”. Up
kann man die zu ladenden Daten auf die nähere to now, existing software tools often require days or
Umgebung der aktuellen Trajektorienpositionen be- even months for the calculation of the typically large
schränken. Diese Umgebung muss jedoch für jeden number of trajectories. Interdisciplinary collaboration
Zeitschritt neu berechnet werden. Sie kann im Laufe enabled us to optimize the existing methods and to
einer Trajektorienrechnung sehr stark zunehmen und considerably improve their performance. In this article
sich eventuell auf den gesamten Datenbereich erstre- we present research projects where the calculation of
cken. Zunächst wurde der erste Optimierungsansatz trajectories is essential, and then we describe in detail
verfolgt, wodurch es gelungen ist, bei der Untersu- possible optimizations of the calculation process and
chung der bodennahen Ozonwerte die Laufzeit der software.

INSIGHT – Ein neuartiges Werkzeug zur Visualisierung von Wetterdaten


Auf Grundlage einer Bachelorarbeit zur Visua-

© Verfasser
lisierung von dreidimensionalen Isoflächen, so
nennt man die Bereiche eines Datenvolumens,
die den gleichen Wert besitzen, entsteht der-
zeit ein neuartiges 3D-Visualisierungswerk-
zeug (Abb. 3). Die Software ist auf Flexibilität
und Benutzerfreundlichkeit ausgelegt und soll
in enger Zusammenarbeit mit den Anwen-
dern weiterentwickelt werden. Sie ist als Er-
gänzung zu bestehenden Visualisierungstools
(beispielsweise HIPHOP und Vis5d) gedacht
und soll eine Plattform für neuartige Darstel-
lungstechniken bieten. Bereits geplant sind
Erweiterungen zur Erprobung alternativer
Eingabegeräte sowie die Unterstützung von
stereoskopischen Darstellungen. Abb. 3: Visualisierung von 3D-Isoflächen mit unterschiedlicher Färbung
und Transparenz durch das INSIGHT-Programm.

Literatur

1. Draxler RR & Hess GD. Description of the Hysplit_4 modeling system. Report No. NOAA Tech Memo ERL ARL-224, December 1997. Prepared by Air Resources Laboratory,
NOAA, Silver Spring, MD.

2. Stohl A & Seibert P. Accuracy of trajectories as determined from the conservation of meteorological tracers. Quart J Roy Meteor Soc 1998; 124: 1465-1484.

3. Wernli H & Davies HC. A Lagrangian-based analysis of extratropical cyclones. I: The method and some applications. Quart J Roy Meteor Soc 1997; 123: 467-489.

4. www.caribic-atmospheric.com

5. Riede H, Jöckel P, Sander R. Quantifying atmospheric transport, chemistry, and mixing using a new trajectory-box model and a global atmospheric-chemistry GCM,
Geosci Model Dev Discuss 2009; 2: 455-484. http://www.geosci-model-dev-discuss.net/2/455/2009/

24
RECHNERGESTÜTZTE FORSCHUNG – METEOROLOGIE

Astrid Kerkweg
Vlnr: Univ.-Prof. Dr. Elmar Schömer, Sebastian Limbach, M.Sc., Dr. Patrick Jöckel, Marcus Marto, Univ.-Prof. Dr. Heini Wernli.

Dr. Patrick Jöckel Sebastian Limbach, M.Sc.

Patrick Jöckel studierte Physik an der Technischen Sebastian Limbach studierte Informatik an der Jo-
Universität Darmstadt. Im Jahr 2000 promovierte er hannes Gutenberg-Universität Mainz und an der Uni-
an der Universität Heidelberg und am Max-Planck- versität des Saarlandes in Saarbrücken. Er arbeitet
Institut für Chemie in Mainz bei Prof. Dr. Ulrich Platt seit 2009 im Rahmen des Schwerpunktes für Rech-
und Prof. Dr. Paul Crutzen über Radiokohlenstoff- nergestützte Forschungsmethoden in den Naturwis-
monoxid (14CO) in der Atmosphäre. Seit 2008 ist er senschaften als Doktorand und wissenschaftlicher
Gruppenleiter der Gruppe „Erdsystemmodellierung“ Mitarbeiter am INSIGHT-Projekt und an weiteren
am Max-Planck-Institut für Chemie. Die Forschungs- Projekten mit Bezug zu den Atmosphärenwissen-
schwerpunkte der Gruppe beinhalten die Entwicklung schaften.
und Anwendung eines umfassenden skalenüber-
greifenden Erdsystemmodells zur Untersuchung der
Atmosphärenchemie und globaler Stoffkreisläufe Marcus Marto
sowie von Lagrangeschen Methoden in der Model-
lierung atmosphärischer Transportprozesse. Marcus Marto studiert Physik und Informatik an
der Johannes Gutenberg-Universität in Mainz. Im
Rahmen seiner Informatik-Bachelorarbeit hat er am
Univ.-Prof. Dr. Heini Wernli INSIGHT-Projekt mitgearbeitet und ist weiterhin als
wissenschaftlicher Mitarbeiter für das Projekt tätig.
Heini Wernli studierte Physik an der Eidgenössi-
schen Technischen Hochschule (ETH) in Zürich. In der
Gruppe von Prof. Dr. Huw Davies an der ETH Zürich Univ.-Prof. Dr. Elmar Schömer
promovierte und habilitierte er mit Untersuchun- ■ Kontakt
gen zur Dynamik und Struktur von außertropischen Elmar Schömer, Jahrgang 1963, studierte Informatik Sebstian Limbach, M.Sc.
Tiefdruckgebieten. Seit Herbst 2003 ist er Professor an der Universität des Saarlandes. Nach seiner Pro- Institut für Informatik
für Theoretische Meteorologie am Institut für Phy- motion (1994) und seiner Habilitation (1999) war Johannes Gutenberg-Universität Mainz
sik der Atmosphäre der Universität Mainz. Die For- er als Senior Researcher im Bereich Computational Staudingerweg 9
schungsschwerpunkte in seiner Arbeitsgruppe sind: Geometry am Max-Planck-Institut für Informatik tä- D-55128 Mainz
Dynamik und Vorhersagbarkeit von Wettersystemen tig. Seit Oktober 2002 ist er Professor für Praktische Tel. +49 (0) 6131-39 22 454
in den mittleren Breiten (Tiefdruckgebiete, Konvek- Informatik an der Johannes Gutenberg-Universität Email: limbach@uni-mainz.de
tion), globale Transportprozesse (Wasserkreislauf, Mainz. Seine Forschungsschwerpunkte sind die Com-
Spurengase) sowie Anwendungen im Bereich der putergrafik sowie effiziente geometrische Algorith-
numerischen Wettervorhersage. men und Optimierungsmethoden.

FORSCHUNGSMAGAZIN 2/2009 25
RECHNERGESTÜTZTE FORSCHUNG – ÖKONOMISCHE PHYSIK

Packen wie die Weltmeister

Von Johannes Josef Schneider und Elmar Schömer

Jeder kennt das Problem: Die Einkäufe vom Dabei geht man zumeist so vor, dass man zunächst
Wochenende sind auf dem Parkplatz des Super- vereinfachte Probleme studiert, für diese Probleme
marktes im Kofferraum eines Autos zu verstau- dann einen möglichst guten Algorithmus entwickelt
en. Aber wie packt man nun die verschiedenen und diesen dann schließlich für komplexere Prob-
Sachen, die man gekauft hat, so hinein, dass lemstellungen aus der Realität anpasst. Um die Güte
alles reinpasst und dass auch nichts beschädigt verschiedener Algorithmen besser vergleichen zu
wird? Genauso ergeht es einem, wenn ein Kof- können, werden von verschiedenen Forschergrup-
fer vor einer Flugreise zu packen ist oder wenn pen einfache Beispielprobleme publiziert, die dann
man mit dem Auto in Urlaub fährt und möglichst andere Gruppen zum Vergleich heranziehen können.
viel in den Kofferraum packen will. Manchmal werden sogar regelrechte Wettbewerbe
ausgeschrieben, bei denen neben dem Ruhm hin und
Ähnliche Packprobleme treten auch in der Wirtschaft wieder sogar kleine Geldpreise oder Trophäen für die
auf, zum Beispiel bei Transportunternehmen, wie besten Teilnehmer winken.
etwa Paketdiensten, die möglichst viele Pakete in
© J. J. Schneider

eeinem kleinen Lastwagen unterzubringen haben und Ein derartiger Programmierwettbewerb wurde kürz-
ddabei auch die Auslieferungsreihenfolge beachten lich von Al Zimmermann veranstaltet. Dabei sollten
m
müssen. Schließlich soll ja der Lieferant nicht den hal- Kreisscheiben mit unterschiedlich großen ganzzahli-
bben Lastwagen ausräumen müssen, um an das ge- gen Radien (die kleinste Kreisscheibe sollte den Ra-
w
wünschte Paket zu gelangen. Weitere Packprobleme dius 1 haben, die zweitkleinste den Radius 2 usw.) so
eergeben sich in der Textilindustrie: Aus Stoffbahnen in einen umschließenden Kreis gepackt werden, dass
m
müssen nach vorgegebenen Schnittmustern Teile der Radius dieses Umkreises minimal wird. Insgesamt
aausgeschnitten werden, die dann später zu Kleidung wurden 46 Problemstellungen mit 5 bis 50 Kreisschei-
vvernäht werden. Dabei soll die Menge des Verschnitts ben betrachtet, wobei eben bei dem Problem mit nur
m
minimiert werden. Analoge Probleme gibt es in der 5 Kreisscheiben diese die Radien 1, 2, 3, 4 und 5 hat-
H
Holz und in der Metall verarbeitenden Industrie. ten und bei dem Problem mit 50 Kreisscheiben alle
ganzen Zahlen zwischen 1 und 50 als Werte für die
W
Wie bei vielen anderen Problemstellungen auch lohnt Radien dienten. Die Grafiken in Abbildung 1 zeigen
ees sich im industriellen Bereich fast immer, derartige die von uns gefundenen neuen Weltrekordlösungen
O
Optimierungsprobleme nicht selbst von Hand anzu- für die Probleme mit 30, 40 und 50 Kreisscheiben.
ggehen, sondern sie vom Computer bestmöglich lösen Die Zahlen in den größeren Kreisscheiben geben ihre
zzu lassen; so kann möglichst billig produziert oder Radien an.
aausgeliefert werden. Dazu benötigt man natürlich ei-
nnen ausgefeilten Optimierungsalgorithmus, der eine Ähnliche Problemstellungen, beispielsweise mit gleich
m
möglichst gute Lösung für das vorgegebene Optimie- großen Kreisscheiben, werden schon seit Jahrzehnten
ru
rungsproblem liefert. Aber leider sind Packprobleme studiert. Bei der Aufgabenstellung dieses Wettbe-
zzumeist sehr komplex, so dass die Entwicklung eines werbs bestand die Neuerung somit hauptsächlich da-
dderartigen Algorithmus eine große Herausforderung rin, dass die Größe der verschiedenen Kreisscheiben
ddarstellt. stark variiert. Aufgrund dieser Neuerung auf der einen
Seite und der Verwandtschaft mit bereits bekannten
In der Physik und Mathematik beschäftigt man sich Problemen auf der anderen Seite war das Interesse
eebenfalls mit verschiedensten Packproblemen, die von zahlreichen Wissenschaftlern an dieser Aufga-
w
wissenschaftlich relevant sind. Derzeit untersucht benstellung geweckt worden. Insgesamt nahmen 155
bbeispielsweise Diplomandin Sebiha Sahin, wie Gruppen aus 32 Ländern an diesem Wettbewerb teil
m
man gleich große Kugeln möglichst dicht packen und reichten ihre Ergebnisse ein. Schließlich wurde
kkann oder wie viele Kugeln maximal um eine Kugel die von Addis, Locatelli und Schön gebildete Teilneh-
pplatziert werden können, so dass sie diese berühren; mergruppe, die die meisten Weltrekorde aufgestellt
Abb. 1: Weltrekordlösungen für LLetzteres ist als Kissing Number Problem bekannt. hatte, zum Sieger erklärt und die von den verschie-
Kreispackungsprobleme mit 30, 40 Derartige Probleme betrachtet man nicht nur in zwei denen Gruppen erreichten Ergebnisse veröffentlicht.
und 50 Kreisscheiben.
bzw. in drei Dimensionen, man geht auch zu höheren Wie bei sportlichen Wettkämpfen auch, zeigte sich,
Dimensionen über, da diese Packprobleme Anwen- dass die besten Gruppen zumeist gar nicht so weit
dungen zum Beispiel im Bereich der Digitalkommu- auseinander lagen.
nikation haben.

26
RECHNERGESTÜTZTE FORSCHUNG – ÖKONOMISCHE PHYSIK

Seit Kurzem arbeiten wir innerhalb des Schwerpunkts Um noch verbleibende kleine Lücken zu entfernen,
„Rechnergestützte Forschungsmethoden in den wird dann noch ein lokales Optimierungsverfahren
Naturwissenschaften“ in einem interdisziplinären zum Einsatz gebracht. Dabei schiebt man die äußers-
Projekt der Institute für Physik und für Informatik te Kreisscheibe zunächst etwas nach innen, wodurch
an der Entwicklung eines Computer-Algorithmus sich einerseits, wie gewünscht, der Radius des zu
zur Lösung von allgemeinen Packproblemen. Dabei minimierenden Umkreises verringert; andererseits
sollen Methoden und Erkenntnisse aus diesen bei- ergeben sich bedauerlicherweise aber oft auch Über-
den Fachrichtungen einfließen, um einen möglichst schneidungen, die man dann wieder auflösen muss,
guten Algorithmus zu entwickeln. Dieser baut zum indem man sich überschneidende Kreisscheiben so
einen auf einem in der Physik entwickelten stochas- weit auseinander schiebt, bis sie sich nur noch berüh-
tischen Optimierungsalgorithmus auf, der das Prob- ren. Dieses Reinklopfen der äußersten Kreisscheibe
lem ganzheitlich betrachtet, die Kreisscheiben kräftig mit anschließendem Auflösen der Überschneidungen
durchrüttelt und somit global nach der besten Lösung wiederholt man solange, bis sich keine Verbesserung
sucht. Zum anderen basiert er auf einer numerischen mehr erzielen lässt.
Methode aus der Informatik, die lokal nach Verbesse-
rungen sucht und somit das Gesamtsystem noch ein Die in dem Wettbewerb gestellte Aufgabe erwies sich
wenig zusammenpresst. nun als ideale Möglichkeit, die Güte unseres Algorith-
mus zu testen und diesen immer weiter zu verbes-
Der globale Algorithmus baut auf der inzwischen sern. Dabei entsprang sogar zwischen Elmar Schömer
schon klassischen physikalischen Optimierungsme- von der Informatik, Johannes J. Schneider von der
thode Simulated Annealing auf. Dabei setzt man an- Physik und dem gemeinsamen Diplomanden André
fangs die Kreisscheiben rein zufällig in die Landschaft. Müller ein freundschaftlicher interner Wettbewerb
Danach wird die Anordnung der Kreisscheiben Schritt um die besten Lösungen. Während es André Müller
für Schritt verändert, indem man beispielsweise eine als Erstem gelang, einige der Weltrekorde aus dem
Kreisscheibe leicht verschiebt oder ihr einen ganz Wettbewerb zu brechen, und Elmar Schömer zwi-
neuen Ort in der Packung zuweist. Eine weitere Mög- schendurch einen neuen Weltrekord für das Problem
lichkeit der Änderung einer Anordnung besteht darin, mit 49 Kreisscheiben aufstellte, ist nun Johannes J.
zwei unterschiedlich große Kreisscheiben schlicht Schneider alleiniger Weltrekordhalter: Bei den klei-
auszutauschen. Eine derartige Veränderung kann nun neren Problemstellungen mit bis zu 23 Kreisscheiben
dazu führen, dass sich der Radius des Umkreises ver- sowie beim Problem mit 25 Kreisscheiben hat er alle
ändert, wenn man zum Beispiel die äußerste Kreis- Weltrekorde eingestellt. Bei den größeren Problem-
scheibe etwas nach innen schiebt. Auf der anderen stellungen mit 24 Kreisscheiben bzw. mit 26 bis 50
Seite kann es auch passieren, dass zwei Kreisscheiben Kreisscheiben hat er sämtliche neuen Weltrekorde
plötzlich teilweise übereinander liegen. Ein derartiger aufgestellt, die die vorherigen zum Teil sogar deutlich
Überlapp ist eigentlich verboten. Aber ähnlich wie im unterbieten.
realen Leben, wo man manchmal zu schnell fährt und
somit ein Bußgeld riskiert, geht man hier so vor, dass Diese Ergebnisse riefen ein großes Medienecho
ein derartiger Überlapp nicht generell verboten sein hervor. So berichteten unter anderem das ZDF
soll, sondern man darauf stets ein virtuelles Bußgeld am 9. April 2009 in den Sendungen Drehschei-
zu entrichten hat. Die Strafe fällt umso höher aus, je be Deutschland und heute Nacht, die ARD am
größer der Überlapp ist. Die einzelnen Bußgelder für 2. Juli 2009 in der Sendung Nachtmagazin, New
die verschiedenen Überlapps werden dann zum Ra- Scientist Online am 6. März
dius des Umkreises hinzugezählt, wodurch sich eine 2009, Spiegel Online am
© J. J. Schneider

Gesamtsumme bildet, die man wirtschaftlich als Kos- 23. März 2009, die Frankfur-
ten oder physikalisch als Energie interpretieren kann. ter Rundschau am 24. März
Ist nun die zum Vorschlag stehende Konfiguration 2009 und die Frankfurter
besser als die vorhergehende, so geht man zur neuen Allgemeine Zeitung am
Anordnung über. Jedoch erlaubt man mit einer gewis- 31. März 2009. Außerdem
sen Wahrscheinlichkeit auch den Übergang zu einer erschienen Artikel in zahlrei-
schlechteren Anordnung. In diese Wahrscheinlichkeit chen Lokalzeitungen.
geht das Ausmaß der Verschlechterung ein, so dass
die Wahrscheinlichkeit, geringe Verschlechterungen Jedoch interessieren wir uns
anzunehmen, größer ist als die Wahrscheinlichkeit nicht nur für die Weltrekord-
von großen Verschlechterungen. Aber generell wird werte und für die Art und
Abb. 2: Hier wird angezeigt, wie
die Wahrscheinlichkeit, eine Verschlechterung anzu- Weise, wie unsere Algorithmen auff einer dderartigen groß die relative Wahrscheinlichkeit
nehmen, während des Optimierungslaufs schrittweise Problemstellung arbeiten und wie wir sie tunen müs- dafür ist, dass zwei unterschiedlich
verringert, bis zum Schluss nur noch Verbesserungen sen. Es geht uns auch um ganz konkrete Fragestel- große Kreisscheiben mit den Radien
akzeptiert werden. Auf diese Art und Weise wird die lungen aus der Praxis: Ist es zum Beispiel sinnvoll, i und j direkt nebeneinander liegen.
Packung schrittweise immer besser, bis die Kreisschei- die größeren Teile nebeneinander zu packen, oder
ben schließlich ziemlich nahe aneinander liegen. sollten größere Teile generell von mittelgroßen Teilen

FORSCHUNGSMAGAZIN 2/2009 27
RECHNERGESTÜTZTE FORSCHUNG – ÖKONOMISCHE PHYSIK

umgeben sein? Dazu vergleichen wir beispielsweise Physik, das Ising-Modell, und erzielte im Vergleich zu
für das Problem mit 50 Kreisscheiben die besten Lö- einer modernen CPU, der herkömmlichen zentralen
sungen miteinander, die wir dafür erhielten. Für die in Recheneinheit eines Computers, auf einer Geforce
Abbildung 2 gezeigte Grafik haben wir etwa 10.000 GTX280-Grafikkarte von Nvidia einen Beschleuni-
Lösungen miteinander verglichen, die wir bei unse- gungsfaktor von 60. Ebenso untersuchte er auf dieser
ren Versuchen erhielten und die fast so gut wie die Architektur Finanzmarktdaten und implementierte
Weltrekordlösung sind. Die Zahlen auf der x- und der komplexere numerische Methoden aus dem Bereich
y-Achse geben die Radien „i“ und „j“ zweier Kreis- der Zeitreihenanalyse. Aufbauend auf den dabei ge-
scheiben an, nach oben ist aufgetragen, wie häufig wonnenen Erkenntnissen gelang es André Müller, den
die beiden jeweiligen Kreisscheiben nebeneinander Optimierungsalgorithmus ebenfalls auf eine Grafik-
liegen. Ein Wert von 1 für ein Paar von Kreisschei- karte zu übertragen und ähnliche Beschleunigungs-
ben würde bedeuten, dass diese in allen Lösungen faktoren zu erreichen.
zueinander benachbart sind. Dabei ergibt sich kein
eindeutiges Bild. Es ist also beispielsweise nicht so, ■ Summary
dass die Kreisscheibe mit Radius 37 stets neben der Packing like a champion. We work in an interdiscipli-
Kreisscheibe mit Radius 49 liegen muss, um eine nary research project spanning physics and computer
möglichst gute Lösung zu erhalten. Dennoch erkennt science on the development of a high performance
man gewisse Tendenzen: So ist es offensichtlich vor- optimization algorithm for packing problems. We
teilhaft, die großen Kreisscheiben nebeneinander were able to prove the superiority of our algorithm
zu platzieren. Zudem zeigt sich, dass Kreisscheiben for a problem in which disks of various sizes have to
mit den Radien 14-16 sehr gerne direkt neben den be packed in a circumcircle with minimum radius. All
größten Kreisscheiben liegen. Hier stellt sich nun die world records, which were established in competition
Frage, warum dem so ist. Wenn man sich nochmals between 155 groups from 32 countries in an inter-
die obigen Weltrekordlösungen ansieht und diese ge- national contest, were either matched or beaten by
nauer analysiert, so beantwortet sich diese Frage von our algorithm.
selbst: Liegen zwei der größten Kreisscheiben beim
Problem mit 50 Kreisscheiben direkt nebeneinander
P Dr. Johannes Josef
PD
Fotostudio Stern, Straubing

am Rand, so ist in dem Loch zwischen ihnen und dem


Umkreis gerade so viel Platz, dass noch eine Kreis- SSchneider
scheibe mit einem Radius von etwa 15 hineinpasst.
Es ist somit optimal, eine derartige Kreisscheibe in Jo
Johannes Josef Schneider,
dieses Loch zu stecken, da sie zum einen dieses so- ggeb. 1971, studierte Physik
wieso dort vorhandene Loch gut ausfüllt und zum in Regensburg (1990-1995),
anderen woanders keinen Platz wegnimmt. w
wo er 1999 auch promovier-
te
te; von 1995 -1997 mehr-
Für diese 10.000 Lösungen, die in unserer statisti- m
monatige Aufenthalte am
schen Auswertung miteinander verglichen wurden, W
Wissenschaftlichen Zentrum
benötigten wir natürlich auch eine große Menge an von IBM in Heidelberg; von 2000-2001 Assistent an
■ Kontakt Rechenzeit. Insofern wurden diese Rechnungen zum der Universität Zürich; 2001-2002 Postdoktorand an
Teil auf einem großen Parallelrechner mit Hunderten The Hebrew University of Jerusalem; seit Oktober
PD Dr. Johannes Josef Schneider von Prozessoren im Forschungszentrum Jülich sowie 2002 an der Johannes Gutenberg-Universität Mainz;
Johannes Gutenberg-Universität Mainz im Rechenzentrum der Johannes Gutenberg-Univer- im Mai 2009 Habilitation (Buch: J. J. Schneider und
Staudinger Weg 7 sität Mainz durchgeführt, wo ein großer Rechen- S. Kirkpatrick, Stochastic Optimization, Springer, 2006,
D-55099 Mainz cluster zur Verfügung steht. Zudem haben wir vor ISBN 3540345590); seit 2008 stellvertretender Leiter
Tel. +49 (0) 6131-39 23 646 Kurzem damit begonnen, auch moderne Grafikkarten des Fachverbandes Physik sozio-ökonomischer Syste-
Fax +49 (0) 6131-39 25441 für unsere Optimierungsläufe heranzuziehen. Dank me der Deutschen Physikalischen Gesellschaft. For-
Email: schneidj@uni-mainz.de der Computerspiele-Industrie ist die Entwicklung schungsschwerpunkte: Entwicklung und Anwendung
www.staff.uni-mainz.de/schneidj von immer leistungsfähigeren Grafikkarten rasant von Optimierungsalgorithmen; paralleles Höchstleis-
fortgeschritten: Während es zum Beispiel bei einem tungsrechnen; Verkehrs-, Sozio- und Ökonophysik.
Adventure-Game vor zehn Jahren noch genügte, ei-
nen Magier statisch zu zeigen, will man heute sehen,
E. Schömer

wie sein Bart im Wind flattert, wobei jedes einzelne Univ.-Prof. Dr.
Barthaar zu erkennen sein soll. Die dafür zur Verfü- Elmar Schömer
gung stehende Rechenpower kann auch in sinnvolle-
re Bahnen gelenkt werden, um wissenschaftliche Be- Das Curriculum Vitae von
rechnungen direkt auf Grafikkarten durchzuführen. Elmar Schömer finden Sie
Erste Erfahrungen wurden dabei von Tobias Preis, aauf Seite 25.
Doktorand von Johannes Josef Schneider und Junior-
mitglied der Gutenberg-Akademie, gesammelt. Er
implementierte das Standardmodell der statistischen

28
RECHNERGESTÜTZTE FORSCHUNG – QUANTENCHEMIE

Moleküle im Computer-Labor

Von Gregor Diezemann, Andreas Köhn und Jürgen Gauss

Mit der Entwicklung paralleler und schneller In vielen Fällen werden spektroskopisch ermittelte
Computerprogramme erweitert sich auch das An- Größen durch die Geometrie der untersuchten Mo-
wendungsfeld der Quantenchemie. Bereits heute leküle bestimmt. Im Arbeitskreis Theoretische Chemie
können die Eigenschaften kleiner Moleküle sehr werden unter anderem solche Größen mit hoher Ge-
genau berechnet werden, zum Beispiel Energien nauigkeit berechnet. Dazu wird die Grundgleichung
mit einer Genauigkeit von besser als ein Kilo- der Quantenmechanik, die Schrödinger-Gleichung,
Joule pro Mol. Die weniger genauen, aber doch näherungsweise gelöst. Eine exakte, analytische
recht zuverlässigen Ansätze, die für die Unter- Lösung dieser Gleichung ist nur für sehr einfache
suchung großer Moleküle zur Verfügung stehen, Probleme, wie ein Zweikörperproblem, möglich. Da
erlauben darüber hinaus die erfolgreiche Anwen- schon kleine Moleküle, wie beispielsweise ein Was-
dung quantenchemischer Methoden auch in den sermolekül (H2O), ein komplexes Mehrteilchensystem
Material- oder Biowissenschaften. darstellen (Wasser besteht aus drei Atomkernen und
zehn Elektronen), ist die Entwicklung sinnvoller und
Die Quantenchemie befasst sich mit der Vorhersage möglichst guter Näherungsverfahren ein wesentli-
von Moleküleigenschaften, die das chemische und cher Bestandteil der Forschung in der theoretischen
physikalische Verhalten der untersuchten Molekü- Chemie.
le bestimmen. Solches Wissen ist notwendig, wenn
man gezielte Voraussagen über die Resultate expe- Das grundsätzliche Vorgehen bei der Entwicklung
rimenteller Untersuchungen machen möchte. Dazu solcher Näherungen basiert auf folgenden Ideen.
gehören beispielsweise die Energie des Moleküls, die Zunächst ist es möglich, die Dynamik von Atomker-
elektronische Struktur und die Geometrie, das heißt nen und Elektronen getrennt zu betrachten, da sich
die relative Anordnung der Atomkerne zueinander. letztere aufgrund ihrer sehr viel kleineren Masse (ein
Für die chemische Forschung sind alle diese Größen Elektron wiegt etwa 1/2000 eines Wasserstoffatom-
von entscheidender Bedeutung. So bestimmt die kerns) sehr viel schneller bewegen. Somit kann man
Energiebilanz einer chemischen Reaktion, ob diese für die Bestimmung der elektronischen Struktur von
freiwillig abläuft oder ob Energie zugeführt werden Molekülen einerseits davon ausgehen, dass sich die
muss, indem man zum Beispiel heizt. Die Geometrie Atomkerne in erster Näherung gar nicht bewegen
und die auf die Atomkerne wirkenden Kräfte bestim- (sogenannte clamped nuclei) und andererseits die
men die Frequenzen, mit denen ein Molekül Schwin- Atomkerne lediglich ein mittleres elektrostatisches
gungen ausführt und somit auch, inwieweit Energie Feld sehen, das über die schnelle Elektronenbewe-
absorbiert werden kann. Solche Schwingungen kön- gung gemittelt ist (Born-Oppenheimer Näherung).
nen mittels spektroskopischer Methoden (Infrarot, Die molekulare Geometrie lässt sich durch die Lö-
Raman) experimentell untersucht werden. sung beider Probleme bestimmen, indem man die
elektronische Struktur bei vorgegebener Anordnung
Ein Gegenstand der quantenchemischen Forschung der Atomkerne ermittelt und dann die Energie des
ist daher auch die Entwicklung und Anwendung von Moleküls und insbesondere die auf die Atomkerne
Rechenmethoden, die genaue Informationen über die wirkenden Kräfte berechnet. Danach ändert man die
physikalischen und chemischen Eigenschaften von Kernkonfiguration (Anordnung) und wiederholt die
Molekülen liefern. Dabei ermöglicht die Entwicklung Energiebestimmung. Diesen Zyklus durchläuft man in
immer leistungsfähigerer Computer einerseits eine einer geschickt gewählten Abfolge von Konfiguratio-
stetig steigende Genauigkeit der Ergebnisse und nen, bis man das energetische Minimum erreicht hat,
andererseits die Behandlung immer komplexerer in dem keine Kräfte mehr auf die Atomkerne wirken.
Moleküle. Beide Aspekte erweitern das Anwendungs- Die entsprechende Kernkonfiguration entspricht dann
spektrum quantenchemischer Untersuchungen in der der Gleichgewichtsgeometrie des Moleküls.
chemischen Forschung kontinuierlich. Die geschickte
Kombination von theoretischen Berechnungen spekt- Ein großes Problem bei dieser Vorgehensweise ist die
roskopisch relevanter Größen und ihre experimentelle Tatsache, dass auch bei festgehaltenen Kernen das
Bestimmung erlauben die detaillierte Untersuchung Problem der Elektronenbewegung nicht exakt gelöst
der Eigenschaften von bekannten, aber auch von werden kann und somit auch das effektive Feld, das
neuen Molekülen. Die Anwendungen dieser Konzep- die Kernkonfiguration festlegt, nicht exakt ermittelt
te können erfolgreich in unterschiedlichen Bereichen werden kann. Die einfachste Näherung, die auch his-
der chemischen und physikalischen Forschung einge- torisch zu würdigen ist, besteht in einem Ansatz, der
setzt werden. die Bewegung eines Elektrons im gemittelten Feld

FORSCHUNGSMAGAZIN 2/2009 29
RECHNERGESTÜTZTE FORSCHUNG – QUANTENCHEMIE

aller anderen Elektronen betrachtet (Hartree-Fock- einigen Hunderttausend Zeilen an Programmcode.


Theorie). Allerdings bleibt dabei ein ganz wesentli- Das Schema der Vorgehensweise bei einer quanten-
cher Aspekt des Vielteilchencharakters der Coulomb- chemischen Rechnung wird in Abbildung 1 gezeigt.
Wechselwirkung zwischen geladenen Teilchen unbe-
rücksichtigt: Teilchen mit gleicher Ladung (Elektronen Es gilt bei der Umsetzung der Computerprogram-
tragen eine negative Elementarladung) stoßen sich me für unterschiedliche Näherungsverfahren zur
ab und gehen sich somit aus dem Weg. Diese „Aus- Beschreibung der Elektronenkorrelation (der „Aus-
weichmanöver” werden in der Theorie des gemittel- weichmanöver”) recht allgemein, dass Methoden,
ten Feldes nicht berücksichtigt. Gerade die möglichst die bessere Ergebnisse liefern, numerisch aufwendig
genaue Beschreibung der Coulomb-Wechselwirkung sind und sie deshalb nur für relativ kleine Moleküle
der Elektronen in einem Molekül stellt die große angewendet werden können. In Abbildung 2 ist eine
Herausforderung in der modernen Quantenchemie qualitative Darstellung des Zusammenhangs zwi-
dar. Nur die sehr genaue Berechnung der elektro- schen der Genauigkeit und der Anwendbarkeit quan-
nischen Struktur eines Moleküls erlaubt eine rea- tenchemischer Methoden gezeigt.
listische Beschreibung des für die Kernbewegung

© Verfasser
relevanten mittleren elektrostatischen Feldes und
somit der Gleichgewichtsgeometrie. Diese liefert
die Grundlagen für die theoretische Bestimmung
spektroskopisch relevanter Parameter, die zur Inter-
pretation experimenteller Daten herangezogen wer-
den können. Es gibt eine Vielzahl quantenchemischer
Näherungsverfahren, welche die angesprochenen
„Ausweichmanöver” der Elektronen, die sogenannte
Elektronenkorrelation, beschreiben.

Um eine quantenchemische Rechnung durchzufüh- Abb. 2: Qualitativer Zusammenhang zwischen der


ren, ist es notwendig, die entsprechenden mathema- Genauigkeit und der Anwendbarkeit, das heißt der
tischen Gleichungen des verwendeten Näherungs- Größe von in realistischer Zeit berechenbarer Molekü-
verfahrens in ein effizientes Computerprogramm zu le. Abkürzungen: HF: Hartree-Fock-Theorie, das ist die
übersetzen. Bei den hochgenauen Coupled-Cluster im Text angesprochene Theorie eines mittleren Feldes;
DFT: Dichtefunktionaltheorie; MP2: Møller-Plesset-
Methoden, die heute zum Einsatz kommen, müssen
Störungsrechnung, wobei für die Berechnung der
zur Berechnung von Energien oder auch Kräften Elektronenkorrelation angenommen wird, dass es sich
auf Atomkerne nicht-lineare Gleichungssysteme mit dabei um einen kleinen Effekt handelt; CCSD, CCSD(T):
mehr als einer Million Unbekannten gelöst werden. Coupled-Cluster Methoden unterschiedlicher Genauig-
Abb. 1: Schematische Darstellung
Moderne Programmpakete, mit denen quantenche- keit. Hierbei handelt es sich um die derzeit genauesten
der Abläufe in der Quantenchemie:
Zunächst wird die mathematische For-
mische Rechnungen durchgeführt werden, wie das und aufwendigsten Verfahren zur Behandlung der
Programmpaket CFOUR (http://www.cfour.de/), das Elektronenkorrelation.
mulierung der Theorie in ein Compu-
terprogramm übersetzt. Dieses läuft vom Arbeitskreis Theoretische Chemie zusammen mit
auf modernen Hochleistungsrechnern Gruppen der Universitäten in Austin (Texas) und in Neben der steigenden Computerleistung spielt für
(Linux-PC-Cluster) und liefert in der Budapest entwickelt und gepflegt wird, bestehen aus die Effizienz quantenchemischer Programmpakete
Ausgabe das gesuchte Ergebnis. auch die konkrete Implementierung eine entschei-
ddende Rolle. So nutzt man heute die Möglichkeit, ein-
© Verfasser

zzelne Rechenoperationen auf mehrere Computer zu


vverteilen (Parallelisierung), um die Geschwindigkeit
wweiter zu erhöhen. Ohne diese zusätzlichen program-
mmiertechnischen Weiterentwicklungen könnte das
vvolle Potential von Computerclustern mit mehreren
RRecheneinheiten – sogenannten Knoten – nicht aus-
ggeschöpft werden.

AAls konkretes Beispiel für die Dauer einer „State of


th
the Art” quantenchemischen Rechnung soll hier die
BBerechnung der Geometrie und der Parameter für
ddie kernmagnetische Resonanz (NMR) am Beispiel
ddes Adamantyl-Kations, das in Abbildung 3 zu sehen
is
ist, angeführt werden. Dieses Kation besteht aus 10
KKohlenstoffatomen und 15 Wasserstoffatomen. Für
ddieses Molekül dauert die Bestimmung der Gleichge-
wwichtsgeometrie einige Minuten, wenn man die The-
oorie des mittleren Feldes, die Hartree-Fock-Theorie,

30
RECHNERGESTÜTZTE FORSCHUNG – QUANTENCHEMIE

benutzt. Führt man die Geometrieoptimierung hin-

© T. Basché & Verfasser


gegen auf dem Niveau der Coupled-Cluster Metho-
de CCSD(T) durch, so dauert diese Berechnung etwa
15-20 Tage, wenn man neun Knoten auf einem gän-
gigen PC-Cluster dafür benutzt. Die Berechnung der
NMR-Parameter dauert anschliessend auf 24 Knoten
nochmals 13 Tage. In diesem Beispiel ist der genann-
te Rechenaufwand erforderlich, um quantitative
Übereinstimmung mit experimentellen Ergebnissen
zu erhalten und somit eine eindeutige Zuordnung der
Linien im Spektrum zu ermöglichen.
© Verfasser

Abb. 4: Emissionsspektrum von


Perylenmonoimid, aufgenommen in
M
Moleküls, die höherfrequenten Schwingungen (links einer amorphen Matrix aus Plexiglas
in Abb. 4) sind hauptsächlich Gerüstschwingungen. bei tiefen Temperaturen.
D
Die Interpretation eines solchen Spektrums und die
ZZuordnung der einzelnen Linien zu den entsprechen- Oben: experimentell bestimmtes
dden Molekülschwingungen stellt eine schwierige Auf- Spektrum, aufgenommen im Arbeits-
kreis von Prof. T. Basché (Institut für
ggabe dar. Erst die quantenchemische Berechnung des
Physikalische Chemie, JGU Mainz).
SSpektrums erlaubt eine eindeutige Interpretation der
LLinien. Unten: quantenchemisch berechne-
Abb. 3: Graphische Darstellung des Adamantyl- tes Spektrum. Über dem Spektrum
Kations zusammen mit dem berechneten Spektrum Auf diese Weise kann das gesamte Spektrum eindeu- sind für die mit Pfeilen markierten
der kernmagnetischen Resonanz; grau: Kohlenstoff- Bereiche die verantwortlichen Mo-
tig analysiert werden. Abweichungen zwischen den
atome, weiß: Wasserstoffatome. lekülschwingungen des Perylenmo-
experimentellen und den theoretischen Ergebnissen
noimid-Moleküls gezeigt. Die Atome
lassen sich aufgrund der Qualität beider Resultate des Moleküls sind folgendermaßen
Neben der Entwicklung und Implementierung neuer auf zusätzliche, in der theoretischen Behandlung dargestellt: grau: Kohlenstoff, rot:
und besserer quantenchemischer Verfahren werden nicht berücksichtigte Effekte zurückführen. Dabei Sauerstoff, blau: Stickstoff und weiß:
im Arbeitskreis Theoretische Chemie auch spektros- handelt es sich in erster Linie um Wechselwirkungen Wasserstoff. Die kleinen Pfeile deu-
kopisch relevante Parameter berechnet und – auch zwischen dem Farbstoffmolekül und der amorphen ten für die jeweilige Molekülschwin-
gung die Auslenkungen der Atome
in Zusammenarbeit mit experimentell arbeitenden Polymer-Umgebung.
aus ihrer Gleichgewichtslage an.
Gruppen – zur Analyse komplexer spektroskopischer
Probleme herangezogen. Diese Forschungsrichtung Dieses Beispiel entstammt einer Kooperation im
soll anhand eines konkreten Beispiels erläutert wer- Rahmen des Sonderforschungsbereiches 625 und
den. demonstriert die erfolgreiche Kombination aus quan-
tenchemischen Berechnungen spektroskopischer
In jüngerer Zeit hat sich die Einzelmolekülspektrosko- Parameter und experimentellen Untersuchungen.
pie als eine hervorragende Methode zur Charakteri- Die Kombination erlaubt eine detaillierte Analyse
sierung dynamischer Prozesse etabliert. Insbesondere komplexer Spektren und somit die Strukturbestim-
die optische Einzelmolekülspektroskopie erlaubt es, mung von einzelnen Molekülen, Molekülverbänden
auch in Festkörpern das Verhalten einzelner heraus- oder auch Festkörpern, was in einer Vielzahl weiterer
gegriffener Moleküle zu untersuchen. Dazu wird ein Beispiele aus unterschiedlichen Forschungsprojekten
Molekül mithilfe eines Lasers elektronisch angeregt, ausgenutzt wird. Theoretische Untersuchungen in der
das heißt, es wird ein Elektron in einen energetisch hier beschriebenen Art stellen neben der Entwicklung
höher liegenden Zustand versetzt. Im Anschluss kann neuer quantenchemischer Methoden eine Säule der
man beobachten, wie das Molekül unter der Emis- Forschung im Arbeitskreis Theoretische Chemie dar.
sion von Photonen wieder in den Ursprungszustand
übergeht. Dabei können die auftretenden Linien im
Idealfall einzelnen Molekülschwingungen zugeord- ■ Summary
net werden. Diese Zuordnung erlaubt eine detaillierte Modern quantum chemistry deals with the calculation
Analyse der beteiligten Prozesse und insbesondere der of the properties of molecules on varying levels of
Art und Weise, wie die zugeführte Energie umverteilt accuracy. For small molecules (up to 30 atoms) very
wird. In Abbildung 4 ist ein Emissionsspektrum bzw. high precision can be reached in the calculation
das Molekülgerüst eines gut untersuchten Farbstoffs, of energies and structural properties due to very
des Perylenmonoimid, gezeigt. Dabei verdeutlichen efficient computer codes. For large molecules one has
die Pfeile die Auslenkungen der einzelnen Atome bei to rely on methods that are not that accurate. Current
der jeweils angedeuteten Linie im Spektrum. Bei den research focuses on both aspects: the implementation
niederfrequenten Schwingungen (rechts in Abb. 4) of highly efficient codes and the computation of
handelt es sich um sogenannte „Atmungsmodi” des relevant properties of larger molecules.

FORSCHUNGSMAGAZIN 2/2009 31
RECHNERGESTÜTZTE FORSCHUNG – QUANTENCHEMIE

P
Prof. Dr. Gregor

P. Sigl
Diezemann
D

G
Gregor Diezemann, Jahrgang
11961, studierte Chemie an
dder Universität Mainz, wo
eer 1992 in Physikalischer
C
Chemie promovierte. Nach
FForschungsaufenthalten an
dder Technischen Universität
h ((1995)) undd am Massachusetts Institute
München
of Technology in Cambridge (USA, 1998) habilitierte
er im Fach Physikalische Chemie und kam 2002 als
wissenschaftlicher Mitarbeiter in die Arbeitsgruppe
Theoretische Chemie. Seit 2007 ist er außerplanmä-
ßiger Professor am Institut für Physikalische Chemie.
Seine Forschungsgebiete umfassen Themen aus der
Statistischen Physik, wie die theoretische Beschrei-
bung kraftspektroskopischer Untersuchungen und
die Dynamik in komplexen Systemen sowie die Un-
tersuchung von Energietransfer-Prozessen in Modell-
systemen.

Dr. Andreas Köhn


D
M. Köhn

A
Andreas Köhn, Jahrgang
11974, studierte Chemie
aan der Universität Karls-
rruhe (Diplom 1999) und
ppromovierte dort 2003 in
TTheoretischer Chemie. Nach
PPostdoc-Aufenthalten am
FForschungszentrum Karlsru-
h (2003) undd an der
he d U i
Universität Aarhus (Dänemark,
2004-2005) kam er an die Universität Mainz, wo er
seitdem eine Nachwuchsgruppe in Theoretischer
Chemie leitet. Aktuelle Forschungsschwerpunkte sind
optische Eigenschaften von Molekülen, Energietrans-
fer-Prozesse und symbolische Algebra zur Entwick-
lung neuer quantenchemischer Verfahren.

U
Univ.-Prof. Dr.
Th. Hartmann

JJürgen Gauß

J
Jürgen Gauß, Jahrgang
11960, studierte Chemie an
dder Universität zu Köln, wo
eer 1988 in Theoretischer
C
Chemie promovierte. Nach
zzwei Jahren als Postdoc in
dden USA (University of Wa- ■ Kontakt
hi
shington, SSeattle
l undd U
University of Florida, Gaines- Univ.-Prof. Dr. Jürgen Gauß
ville) kam er 1991 nach Karlsruhe, wo er 1994 habi- Institut für Physikalische Chemie
litierte. 1995 wurde er C3-Professor für Theoretische Johannes Gutenberg-Universität Mainz
Chemie an der Universität Mainz und seit 2001 ist er D-55128 Mainz
C4-Professor. Im Jahr 2005 erhielt er für seine For- Tel. +49 (0) 6131-39 22 709
schungsarbeiten auf dem Gebiet der Quantenchemie Email: gauss@uni-mainz.de
den Gottfried Wilhelm Leibniz-Preis der Deutschen
Forschungsgemeinschaft.

32
R E C H N E R G E S T Ü T Z T E F O R S C H U N G – B I O I N F O R M AT I K

Technologierevolution in der Genomforschung

Von Thomas Hankeln, Hans Zischler und Erwin R. Schmidt

Neue revolutionäre Sequenzierungstechnologi- und Nebenwirkungen auszuschließen. Auch wird der


en versprechen für Medizin und Biologie einzig- Katalog der Genvarianten die Identifizierung solcher
artige Einsichten in das Erbmaterial von Lebe- Gene beschleunigen, die für komplexe genetische
wesen. In wenigen Jahren werden wir alle die Erkrankungen (Diabetes, Bluthochdruck, Krebs etc.)
DNA-Sequenz unseres eigenen individuellen Ge- verantwortlich sind. So konnte kürzlich ein komplet-
noms bei moderaten Kosten entschlüsseln kön- tes Genom von Blutkrebszellen sequenziert werden:
nen. Die riesigen Datenmengen schaffen aber Der Vergleich mit dem Genom aus gesunden Zellen
auch Probleme für die bioinformatische Verar- des Patienten zeigte acht tumorspezifische Mutatio-
beitung und Interpretation. Das Nukleinsäure- nen in Genen, die zuvor nie als krebsrelevant aufge-
analytik-Zentrum der Universität Mainz plant fallen waren.
im Verbund mit dem Forschungsschwerpunkt
„Rechnergestützte Forschungsmethoden in den Auch die anderen Lebenswissenschaften sind elekt-
Naturwissenschaften“ die zentrale Etablierung risiert ob der neuen Möglichkeiten: Molekulare Sys-
der neuen Verfahren. tematiker sequenzieren Genome, um aufgrund von
Sequenzen Stammbäume von Tieren, Pflanzen und
Manche Revolutionen dauern etwas länger. Immer- Bakterien zu erstellen. Dabei entdecken sie, dass klas-
hin 32 Jahre ist es her, dass Fred Sanger und Alan sische Gruppierungen aufgrund der molekularen Da-
Coulson ein praktikables Verfahren zur Sequenzie- ten völlig neu sortiert und Lehrbücher umgeschrieben
rung von DNA vorstellten. Bis heute hat die Sanger- werden müssen. Dies hat erheblichen Einfluss darauf,
Methodik, eine im Reagenzglas nachgeahmte DNA- wie wir die Evolution unseres eigenen Genoms be-
Replikation, überlebt: Mit ihr wurden noch unter trachten. Schon werfen Evolutionsbiologen einen
einem Milliarden-Dollar-Einsatz zwischen 1998 und direkten Blick in die Vergangenheit unserer Spezies:
2003 die ersten Versionen des drei Milliarden Nu- Forscher haben per NGS eine erste Version des Ge-
kleotide umfassenden Humangenoms erstellt. Zwar noms des Neandertalers rekonstruiert. Die Auswer-
wird die Sanger-Methode für kleine Projekte nicht tung läuft noch: Wird es sich bestätigen, dass sich der
aussterben, doch sehr viel schnellere und extrem Neandertaler vor etwa 600.000 Jahren von unserer
kostengünstigere Sequenzierungsmethoden („Next- eigenen Evolutionslinie abgetrennt hat und bis zu
Generation-Sequencing“, NGS) revolutionieren der- seinem Aussterben vor 25.000 Jahren als „Parallel-
zeit die Genomforschung. gesellschaft“ ohne Genaustausch mit Homo sapiens
existiert hat?
NGS: Entdecke die Möglichkeiten!
Auch Ökologen haben Spannendes vor: NGS ermög-
Mit dem beabsichtigten Publicity-Effekt konnte per licht es, bislang eher exotische und auf Genomebene
NGS das Genom des DNA-Helix-Entdeckers und No- kaum bekannte Spezies aus wichtigen Ökosystemen
belpreisträgers James D. Watson für etwa 350.000 zu analysieren. So wurde soeben ein Genkatalog von
Dollar entschlüsselt werden. Die ebay-Auktion einer Riff-bildenden Korallen erstellt, um daraus Gene zu
Humangenom-Sequenzierung im Mai 2009 zum Ein- extrahieren, die für eine Klima-Anpassung von Koral-
stiegspreis von 68.000 US-Dollar war noch ein Wer- len wichtig sind. Auch in der Mikrobiologie ist NGS
begag der „Personal Genomics“-Firma KNOME, zeigt ein Durchbruch: Die relativ kleinen Genome von Bak-
aber die Richtung an. Ziel der Humangenetik ist es, terien (nur zirka ein Tausendstel des Humangenoms)
die vielen kleinen und großräumigen Unterschiede werden zu Hunderten sequenziert und verglichen.
unseres Erbmaterials zu identifizieren. Es sind diese Dabei zeigt sich zum Beispiel, dass Bakterien durch
kleinen Unterschiede (mit einer Frequenz von etwa den „horizontalen Gentransfer“ natürlicherweise
einem aus tausend Bausteinen), die uns als Lebewe- DNA aus der Umwelt aufnehmen, in ihrem Genom
sen individuell machen. Seit Januar 2008 läuft das etablieren und daraus neue Eigenschaften entwickeln
„1000 genomes project“. Hierbei werden durch Se- können. Weitere Anwendungen findet NGS beispiels-
quenzierung der Genome von Asiaten, Afrikanern und weise in der qualitativen und quantitativen Analyse
Europäern alle weltweit biomedizinisch relevanten von Genprodukten wie RNA-Molekülen (Transkrip-
Genunterschiede aufgespürt. Dies wird die Grundla- tom). Durch „deep sequencing“ ist es möglich, nur
ge für eine individualisierte Medizin darstellen, bei in sehr geringer Kopienzahl (statistisch weniger als
der Medikamente auf den Genotyp abgestimmt ver- ein Molekül pro Zelle) vorliegende Transkripte nach-
abreicht werden, um ihre Wirksamkeit zu verbessern zuweisen. Mit der NGS-Transkriptomanalyse können

FORSCHUNGSMAGAZIN 2/2009 33
R E C H N E R G E S T Ü T Z T E F O R S C H U N G – B I O I N F O R M AT I K

gezielt diejenigen Bereiche des Genoms erfasst wer- werden (Abb.1A, B). Nacheinander werden die vier
den, die funktionell wichtig sind und Aussagen über DNA-Bausteine Adenin (A), Guanin (G), Cytosin (C)
die Regulation der Genaktivität in verschiedenen und Thymin (T) hinzugefügt (Sequenzierzyklus 1).
Entwicklungsstadien und Geweben eines Organis- Zwischen den einzelnen Nukleotidzugaben erfolgen
mus liefern. Waschschritte, die das System „zurücksetzen“. Wenn
der Matrizenstrang zum Beispiel ein Adenin enthält,
Bye bye Sanger: die neue Generation von leuchtet das Well ausschließlich bei der Zugabe von
Sequenzierungsverfahren Thymin auf. Danach erfolgt der nächste Sequenzierzy-
klus, wieder mit den vier Zugabeschritten. Wenn hier
Das Wesen von NGS besteht in dem Verzicht auf lang- zum Beispiel der Lichtblitz bei G-Zugabe entsteht
same und kostspielige Abläufe. Abgeschafft wurden und dreimal so stark ist wie der Blitz in Zyklus 1, so
die klassische Klonierung von DNA, durch die man lautet die Sequenz bis hierhin „TGGG“. Die Darstel-
homogenes Erbmaterial für die Sequenzierung er- lungsform solcher Sequenzdaten („Flowgram“) ist in
hielt, und der unpraktische Sequenz-Leseschritt durch Abbildung 1C gezeigt. Durchschnittlich etwa 400
Gelelektrophorese. Die Durchführung der Sequenzie- Nukleotide (geplant sind bis 1.000) können so derzeit
rungsreaktion im Mikro- oder zukünftig gar Nano- pro Well gelesen werden. Diese Leselänge kommt dem
maßstab senkt den Reagenzienverbrauch drastisch. Sangerverfahren nahe und ermöglicht eine passable
Drei NGS-Verfahren konkurrieren derzeit auf dem Aufstellung (Assemblierung) von Teilsequenzen eines
Markt, basieren aber auf unterschiedlichen Prinzipien Genoms. Die 454-Technologie gilt daher als Methode
und werden zum Teil unterschiedliche Anwendungs- der Wahl für die de novo-Sequenzierung unbekann-
gebiete in der Genomforschung haben. ter DNA. Aber auch die Re-Sequenzierung bekannter
Genome (Mensch, Bakterienstämme etc.) und die Se-
Das meist verbreitete Verfahren von 454 Life quenzierung von Transkriptomen lassen sich mit der
Sciences/Roche ist eine Weiterentwicklung der be- vielseitigen 454-Technik durchführen. Die Datenmen-
reits Anfang der 1990er Jahre erdachten Pyrosequen- gen sind mit bis zu 500 Mega-Basenpaaren (MBp)
zierung (Abb. 1A). Zunächst wird die zu sequenzie- Sequenzinformation pro zehn Stunden Gerätelauf
rende DNA (etwa ein komplettes Genom oder Kopien bereits erheblich (Sanger-Kapillarsequencer: ein MBp
der Gentranskripte = cDNA) physikalisch zerlegt. Die pro Tag), liegen jedoch unterhalb der beiden anderen
Bruchstücke werden einzeln an 20μm-Mikrokügelchen Systeme, die daher für rein quantitative Applikatio-
(Beads) gekoppelt und daran heftend durch eine Po- nen (Auszählen von DNA-Schnipseln, wie etwa zur
lymerasekettenreaktion (PCR) klonal vermehrt; das Messung der Genexpression) besser geeignet sind.
heißt, eine Kugel trägt viele identische Kopien eines Schwächen hat die 454-Technologie prinzipbedingt
bestimmten DNA-Moleküls. Die Beads werden nun beim Lesen langer Homopolymer-Abschnitte, die
einzeln in Löcher einer sogenannten Picotiter-Platte jedoch in den wichtigen kodierenden Genbereichen
gefüllt. Bei einer Million Mikro-Reaktionslöchern nicht so häufig sind: Es ist schwierig, die Lichtinten-
(Wells) pro Platte können ebenso viele verschiede- sität nach Einbau von zum Beispiel 20 C-Nukleotiden
ne Moleküle gleichzeitig sequenziert werden. Bei gegenüber nur 19 Bausteinen zu diskriminieren.
der eigentlichen Sequenzreaktion wird wie bei San- Dennoch liegt insbesondere bei ausreichend hoher
ger ein Einzelstrang des zu sequenzierenden DNA- Redundanz (das heißt mehrfachem Sequenzieren
Moleküls als Vorlage genommen und mithilfe eines derselben DNA-Region) die Lesegenauigkeit bei etwa
Primers und einer Polymerase zum Doppelstrang 99 Prozent.
ergänzt („sequencing-by-synthesis“). Immer wenn
ein Nukleotid richtig, das heißt komplementär zum Die zwei weiteren Verfahren der Firmen Illumina
Vorlagenstrang, eingebaut wird, kann das dabei frei- („Genome Analyzer II“) und ABI („SOLiD“) sind tech-
gesetzte Pyrophosphat (PPi) mithilfe eines in den nisch ebenfalls ausgesprochen elegant. Beide produ-
Wells befindlichen Enzymsystems zunächst in den zieren erheblich größere Datenmengen, aber mit 35
Energielieferanten Adenosintriphosphat (ATP) und bis 100 Basenpaaren (Bp) viel kürzere Leseweiten pro
dann in einen zu messenden Lichtblitz umgewandelt Teil-Sequenzierung (Read). Für eine detaillierte Erklä-
rung dieser Verfahren und der bereits angekündigten
© T. Hankeln

Abb. 1: Die 454-Pyro- Te


Technologien der dritten Generation verweisen wir
sequenzierung.
a redaktionstechnischen Gründen auf eine erwei-
aus
A. Prinzip der Sequenzreaktion te Version dieses Manuskripts (als PDF-File herun-
terte
durch DNA-Synthese. te
terzuladen auf http://molgen.biologie.uni-mainz.de).

B. Detektion der Lichtsignale auf


Bioinformatische Herausforderungen
B
Picotiterplatten-Ausschnitt.

C. Darstellung des Sequenzierungs- S effizient die neuen Hochdurchsatz-Sequenzie-


So
ergebnisses als „Flowgram“. ru
rungsverfahren auch sind, so groß ist die Herausfor-
dderung für die Bioinformatik, diese Datenmengen zu
sp
speichern, sie auszuwerten und sinnvolles Wissen

34
R E C H N E R G E S T Ü T Z T E F O R S C H U N G – B I O I N F O R M AT I K

über das Genom daraus zu generieren. In der Zeit- 70 Bp-short Reads mehr als 1.800 Contigs produ-

© T. Basché & Verfasser


schrift „Nature Biotechnology“ wurde dies kürzlich zieren. Hier tut also Algorithmenentwicklung Not,
mit dem Versuch verglichen, seinen Wasserdurst aus die auf die Verarbeitung von Millionen kurzer Reads
einem Feuerwehrschlauch heraus zu stillen. Aufgrund speziell abgestimmt ist.
der seriellen Fluoreszenzmessung in jedem Sequen-
zierungsschritt produzieren alle NGS-Techniken Bild-
Abb. 2A: Genomsequenzierung

© T. Hankeln
Rohdaten in bisher nicht gekanntem Umfang. Das
im Shotgun-Verfahren.
SOLiD-System erfordert 15 Terabyte (TB) an Speicher
für die reine Arbeitsumgebung sowie 30-40 TB für Herstellung der Teil-Sequen-
mittelfristige Datenarchivierung. Dabei ist eine Lang- zierungen (Reads)
zeitlagerung der wertvollen Rohdaten ratsam. Cha-
rakteristisch für die 454-Pyrosequenzierung sind zum
Beispiel falsche Abschätzungen der Nukleotidzahl
in Homopolymer-Nukleotidabschnitten, artifizielle
Baseninsertionen und Fehler durch unterschiedliche
Matrizen-Moleküle an einem Bead. Die sogenann-
ten Base-Calling-Algorithmen werden jedoch stetig
verbessert und eine Re-Analyse alter Läufe ist daher
sinnvoll. Parallel zum Problem der Archivierung sto- Abb. 2B. Assemblierung der
ßen die althergebrachten Laborprotokollbücher an Gesamtsequenz in drei Schritten
(„overlap-layout-consensus“-
ihre Grenzen und müssen durch professionelle Labor-
Ansatz).
Managementsysteme ersetzt werden.

Entscheidend ist jedoch, dass leider eine Gemein-


samkeit von Sangertechnik und NGS weiter besteht:
Alle derzeitigen Verfahren sind methodisch bedingt
auf eine Leselänge beschränkt, die zwischen 35 Nu-
kleotiden bei SOLiD und etwa 1.000 Nukleotiden
bei Sanger liegt. Daher müssen die DNA-Moleküle
komplexer Genome zunächst physikalisch zerstückelt
und dann in Form von Millionen relativ kleinen Stü- Abb. 3A: Rekonstruktion der
cken sequenziert werden („Shotgun“-Verfahren, Abb. Gesamtsequenz durch Graphen-
2A). Erst der Computer kann aus diesen Schnipseln theoretische Verfahren.
durch Erkennen von Überlappungen der Nukleotid-
Hamilton-Graphen (H). Die Reads
abfolge zwischen den Teilabschnitten wieder die
(S) bestehen in diesem einfachen
gewünschte Sequenz in originaler Moleküllänge re- Beispiel aus Trinukleotiden. Das
konstruieren. Gemeinhin wird dies mit einem Puzzle Beispiel unten ist nicht eindeutig
aus Millionen von Teilen verglichen, ohne dass man lösbar, da zwei Pfad-Möglichkeiten
allerdings das fertige Bild vor Augen hat (Abb. 2B). für die Assemblierung bestehen.
Diese de novo-Assemblierung zusammenhängender
DNA aus Sequenzschnipseln zu sogenannten Con-
tigs (contiguous sequence) ist als NP-schweres in-
formatisches Problem ohne exakte Lösung bekannt.
Mathematisch haben wir es hier mit einem „shortest
common superstring“-Problem bzw. Hamilton-Graph Das größte Problem bei der Assemblierung ist, dass
zu tun (Abb. 3A). Die Teilsequenzen sind dabei als komplexe Genome von eukaryotischen, vielzelligen
Knoten dargestellt, eine Sequenzüberlappung zwi- Organismen oft viele Millionen von ganz ähnlichen,
schen ihnen als Kante. Ziel der Assemblierung ist es, sich nahezu perfekt wiederholenden „repetitiven“
den kürzesten Weg zu rekonstruieren, bei dem alle Sequenzen besitzen, deren mögliche Funktionen im
Knoten nur einmal angesteuert werden. Abbildung Genom noch unklar sind. Etwas voreilig werden sie
3A zeigt, dass schon bei Auftreten geringfügiger oft als Genom-Müll bezeichnet. Das Humangenom
Sequenz-Doppelungen zwischen Reads mehrere Re- besteht zu fast 50 Prozent aus repetitiver DNA, da-
konstruktionspfade möglich sind. Die von NGS er- runter allein mehr als eine Million Repeats vom Typ
zeugten mittellangen bis kurzen Reads verschärfen „Alu“ mit 300 Nukleotiden Länge. Ist die Leselän-
dieses Problem: Je kürzer und zahlreicher die Schnip- ge der Sequenzierungsmethode „N“ kleiner als die
sel sind, desto problematischer gestaltet sich der As- Repeatlänge „n“, so kann kein Standard-Assem-
semblierungsvorgang. So wurde gezeigt, dass 750 Bp blierungsalgorithmus Ordnung schaffen, da er nicht
lange Sanger-Reads das Neisseria-Bakteriengenom erkennen kann, an welche Stelle des Genoms genau
immerhin in 59 Contigs von meist mehr als 1.000 eine bestimmte repetitive Kopie gehört (Abb. 3B).
Nukleotiden Länge assemblieren können, während Im Hamilton-Graph verweist jeder Repeat-Knoten

FORSCHUNGSMAGAZIN 2/2009 35
R E C H N E R G E S T Ü T Z T E F O R S C H U N G – B I O I N F O R M AT I K

Abb. 3B. Hamilton-Pfade sind pro- re


ren Assemblierungsprojekten rechnertechnisch an
blematisch, wenn eine Sequenz mit GGrenzen. Hier wird es Aufgabe sein, die universitären
Repeats durchsetzt ist (verändert
RRechenzentren und NGS-Lieferanten zur Anpassung
nach www.bioalgorithms.info).
dder Firmensoftware auf die hauseigenen Systeme zu
bbewegen.

DDie Erstellung von Contigs für Genomsequenzen oder


mmRNA-Transkripte stellt zudem nur den Anfang der
bbioinformatischen Analyse dar. Erst danach erfolgt
ddie Suche nach dem Informationsgehalt der Sequen-
ze
zen. Diese downstream-Analyse erfordert erneut die
in
intensive Zusammenarbeit von Molekularbiologen
uund Bioinformatikern. Hier wird ein entscheidendes
auf viele andere ebensolche Knoten. Jedes Repeat Erfolgskriterium der neuen Sequenzierungstechniken
ist dann ein Bruchpunkt für die Assemblierung. Das liegen.
Resultat sind extrem stark fragmentierte Assemblies:
So zeigen Simulationen, dass das Genom des Faden- Genomforschung und NGS in Mainz
wurms Caenorhabditis elegans (110 Millionen Nukle-
otide lang) mit 50 Bp-Reads nur zur Hälfte und nur zu Die Genomforschung hat Tradition in Mainz. Schon
Contigs von maximal 10.000 Nukleotiden zusammen- Ende der 1970er Jahre wurden in der AG Schmidt klei-
gesetzt werden kann, ein natürlich unbefriedigendes ne Genomabschnitte sequenziert. Nach Einführung
Ergebnis. Sanger-Reads mit 1.000 Bp Leseweite ha- der fluoreszenzbasierten Sanger-Sequenzierung 1990
ben hingegen im Humangenom die meisten Repeat- konnten wir uns an internationalen Genomprojekten
Hürden erfolgreich genommen und Contigs in nahezu beteiligen, so zum Beispiel 1996 an der Entschlüsse-
vollständiger Chromosomenlänge ermöglicht. lung des Hefe-Genoms. Eine deutlich anspruchsvolle-
re Größenordnung war das Humangenomprojekt. Wir
Als Lösungsansatz für NGS-Verfahren bietet es sich haben den damals innovativen Ansatz der „kompa-
an, sogenannte „paired end“-Information zu benut- rativen Genomik“ verfolgt, indem wir parallel einen
zen. Dabei werden die DNA-Moleküle eines Genoms humangenetisch interessanten Chromosomenab-
vor der Sequenzierung so getrimmt, dass sich deren schnitt des Menschen (eine Million Nukleotide auf
zu sequenzierende Enden in einem vom Experimen- Chromosom 11p15.3) und die entsprechende Region
tator bestimmten festen Nukleotidabstand befinden. des Mausgenoms (Chromosom 7) sequenziert haben.
Diese Abstandsinformation wird bei der Assemblie- Durch Vergleich der homologen Sequenzabschnitte
rung genutzt, um repetitive Bereiche zu überbrücken. konnten wir in den zunächst anonymen Sequenzen
Doch auch neue algorithmische Möglichkeiten tun die konservierten Genstrukturen exakt definieren. Mit
sich auf. Pevzner und Kollegen haben beispielsweise Einführung der NGS-Technologie wird die Diversität
für die Assemblierung anstatt des NP-schweren Ha- und Zahl der Genomik-Projekte nun erheblich an-
milton-Pfads die Variante eines Euler-Pfad-Ansatzes wachsen:
(„de Bruijn-Graph“) vorgeschlagen, der effiziente
Lösungen in linearer Zeit verspricht. Hierbei werden ■ In der AG Zischler (Anthropologie) wird eine völlig
anstatt der Knoten (Sequenzen) alle Kanten (Nukleo- neue Genklasse, piRNA genannt, untersucht. piRNA-
tidüberlappungen) nur einmal begangen. Genen kommt eine wichtig Funktion in der Abwehr
„springender“ Nukleinsäuren (Transposons) zu, die
Ungeachtet der aktiven bioinformatischen Forschung über evolutionäre Zeiträume in der Lage sind, Geno-
zeigen unsere Vergleiche implementierter Assem- me regelrecht zu parasitieren. Durch Katalogisierung
blierungswerkzeuge deutliche Unterschiede in ihrer der vermutlich mehr als 50.000 piRNA-Genloci im
Performance: So variierte kürzlich die Anzahl von Menschen und in nicht-humanen Primaten soll er-
erstellten Contigs eines 45.000 Reads umfassenden forscht werden, wie piRNA-Pools die Besiedlung von
cDNA-Sequenzierungsprojekts zwischen 400 und Genomen mit springender DNA kontrollieren. Nur
7.000. Natürlich ist so ein Ergebnis durch Assemblie- NGS-Methoden können mit angemessenem Aufwand
rungsparameter bedingt, wie etwa die Länge und die erforderlichen Daten produzieren.
Match-Qualität der erforderlichen Überlappung zwei-
er Sequenzen. Oftmals verhalten sich gerade die von ■ Die prähistorische Populationsgenetik steht im
NGS-Unternehmen mitgelieferten „Komplettlösun- Mittelpunkt des Interesses der AG Burger (Anthro-
gen“ wie eine „Schwarze Box“ mit intern definier- pologie, Palaeogenetik). Im Spurenlabor untersuchen
ten Einstellungen. Auch geeignete Benchmarking- die Anthropologen alte DNA aus archäologischen
Datensätze sind rar, so dass es schwer fällt, das derzeit Skeletten des Menschen und seiner Haustiere. Ziel ist
bestfunktionierende Tool zu identifizieren. Darüber die Rekonstruktion der Besiedlungsgeschichte Euro-
hinaus stoßen kleine Arbeitsgruppen, selbst solche pas und Zentralasiens. Durch NGS kann die bisherige
mit kleinen Cluster-Architekturen, bei umfangreiche- Datenmenge etwa zwanzigfach erhöht werden, wo-

36
R E C H N E R G E S T Ü T Z T E F O R S C H U N G – B I O I N F O R M AT I K

mit eine detaillierte Rekonstruktion prähistorischer enormous biomedical impact. The huge amounts of
demographischer Dynamik möglich wird. sequence data produced by NGS, however, create ■ Kontakt
big challenges for bioinformatics methods to keep
■ Die AGs Lieb (Zoologie) und Hankeln (Molekular- pace. The University of Mainz “Competence Center Univ.-Prof. Dr. Thomas Hankeln
genetik) arbeiten im Rahmen des DFG-Schwerpunkt- for Nucleic Acid Analysis“ and the research focus Institut für Molekulargenetik, gentechnische
programms 1174 „Deep Metazoan Phylogeny“ mit “Computational Sciences Mainz“ are joining forces Sicherheitsforschung und Beratung
großen Sequenzdatensätzen (sogenannte Phylogeno- to centrally establish NGS technology. Johannes Gutenberg-Universität Mainz
mik) an der Aufklärung der stammesgeschichtlichen Johann-Joachim-Becher-Weg 30a
Stellung und des Genrepertoires exotischer Tiergrup- D-55128 Mainz
Tel. +49 (0) 6131-39 23 277
pen, für die es bislang keine Gen(om)information
Fax +49 (0) 6131-39 24 585
gibt. Hierzu zählen extrem seltene Molluskenarten
Email: hankeln@uni-mainz.de
aus der Tiefsee sowie Rädertierchen mit ungewöhnli-
chen Fähigkeiten zur Trockenheitstoleranz und Strah-
lungsresistenz.

■ In Kooperation mit der Uni Frankfurt bearbeitet die Univ.-Prof. Dr. Thomas Hankeln
U
Privat

AG Hankeln auch ökologische und evolutionsbiologi-


sche Fragestellungen bei Zuckmücken, deren Larven in T
Thomas Hankeln, Jahrgang 1959, hat Biologie und Geographie an der
Gewässer-Ökosystemen einen Großteil der Biomasse R
Ruhr-Universität Bochum studiert und dort 1990 promoviert. Nach
ausmachen. Obgleich Chironomiden etablierte Mo- sseinem Wechsel nach Mainz hat er Themen der Genomforschung
dellorganismen der Ökotoxikologie darstellen, ist ihr bbearbeitet und sich 1998 mit Arbeiten zur Molekularen Evolution
Genom quasi unerforscht. Durch NGS-Transkriptom- vvon Genfamilien im Fach Genetik habilitiert. Seit 2001 ist Thomas
analyse sollen Gene identifiziert werden, die eine kli- H
Hankeln C3-Professor am Institut für Molekulargenetik der Johannes
matische Anpassung von Chironomiden steuern und G
Gutenberg-Universität. Gegenwärtige Forschungsgebiete umfassen
eine Grundlage für Artbildungsprozesse darstellen. ddie Identifizierung von Genen durch vergleichende Genomanalyse,
die Funktionsaufklärung solcher Gene in Tiermodellen sowie die Verwendung von Genomda-
■ Als Mitglied im EU-Konsortium „EUROGrow“ ten zur phylogenetischen Systematik. Thomas Hankeln ist Mitgründer des seit 1998 bestehen-
identifiziert die AG Schmidt (Molekulargenetik) durch den Biotechnologieunternehmens GENterprise GmbH, das im Bereich der Genomforschung
NGS-Transkriptomanalyse Gene, die beim Aufbau von Service-Dienstleistungen anbietet sowie Forschungs- und Entwicklungsprojekte durchführt.
Knochen und Knorpel eine Rolle spielen. Ziel ist die
Aufklärung der Genexpressionsmuster bei der Diffe-
renzierung mesenchymaler Stammzellen. Die in vitro- Univ.-Prof. Dr. Hans Zischler
U
Privat

Differenzierung dieser Zellen zu Chondroblasten und


Chondrozyten ist in der regenerativen Medizin von H
Hans Zischler, Jahrgang 1957, studierte Biologie an den Universitä-
großem Interesse. te
ten Hohenheim und Tübingen. Er hat seine Doktorarbeit am Max-
PPlanck-Institut (MPI) für Psychiatrie in München angefertigt und
Das neue Zentrum für Genomsequenzierung soll an w
wurde 1991 promoviert. Nach Postdoc-Zeiten am MPI für Psychiatrie
die vorhandenen Nukleinsäureanalytik-Einrichtun- uund an der Ludwig-Maximilians-Universität München übernahm er
gen angegliedert werden. Wir planen zunächst die 11997 die Leitung der Arbeitsgruppe Primatengenetik am Deutschen
Etablierung der 454-Technologie, die insbesondere PPrimatenzentrum in Göttingen. 2002 wurde er auf den Lehrstuhl
eine de novo-Sequenzierung erlaubt. In einer zweiten fü
für Anthropologie der Universität Mainz berufen. Seine Forschungs-
Ausbaustufe soll für komplementäre Anwendungen h k liliegen iin dder Analyse von evolutionären Mustern und Prozessen innerhalb der
schwerpunkte
eine Short-Read-Plattform etabliert werden. Eine Divergenz nicht-humaner Primaten und des Menschen.
adäquate Verarbeitung und Auswertung der Daten
erfordert entsprechend leistungsfähige Rechneranla-
Univ.-Prof. Dr. Erwin R. Schmidt
U
Privat

gen und bioinformatische Kompetenz. Ein Kernstück


des neuen NGS-Zentrums ist daher der Forschungs-
schwerpunkt „Rechnergestützte Forschungsmetho- E
Erwin R. Schmidt, Jahrgang 1949, studierte von 1967 bis 1973 Bio-
den in den Naturwissenschaften“, der einen klaren lo
logie und Chemie an der Justus Liebig-Universität in Gießen und
Standortvorteil für die Universität darstellen wird. hhat 1975 dort in Genetik promoviert. Von 1975 bis1978 war er DFG
PPostdoc an der Ruhr-Universität Bochum im Fachbereich Biologie,
aab 1978 wissenschaftlicher Assistent im Institut für Genetik im FB
■ Summary M
Medizin. Er habilitierte 1985 in Genetik. 1989 folgte er einem Ruf
Life science research is currently being revolutionized aauf eine Professur für Molekulargenetik nach Mainz. 1992 erhielt
by novel ultrahigh-throughput methods for eer den Ruf auf eine Professur für Genetik in Stuttgart-Hohenheim,
deciphering genomic information of organisms. kehrte aber nach einem Jahr Stuttgart als Professor für Molekulargenetik zurück nach Mainz.
Within a few years, these new DNA sequencing 1994 wurde er Leiter des unter seiner Mitwirkung neu gegründeten Instituts für Molekular-
technologies (termed “Next-Generation Sequencing“, genetik, gentechnologische Sicherheitsforschung & Beratung. 1998 gründete er zusammen
NGS) will most probably allow us to know our mit Kollegen die Biotechnologiefirma GENterprise. Seit April 2008 dient er dem Fachbereich
own personal genome at reasonable costs, with Biologie als Dekan.

FORSCHUNGSMAGAZIN 2/2009 37
THEOLOGIE

Religion und Frieden

Von Christiane Tietz

Das Thema „Religion und Gewalt“ hat Kon- sitionen, die die Autonomie der anderen respektiert,
junktur. Unzählig sind die wissenschaftlichen zu verzichten. Legitim erscheint ihnen umgekehrt die
wie populären Analysen des Gewaltpotentials (notfalls gewaltsame) „politische… Durchsetzung
von Religion. In der Öffentlichkeit besonders von eigenen Überzeugungen … auch dann ..., wenn
wahrgenommen wurde die holzschnittartige diese alles andere als allgemein akzeptabel sind“
These des amerikanischen Politologen Samuel (Jürgen Habermas).
Huntington, nach dem Ende des Kalten Krieges
würden Konflikte nun durch die Gegensätze Angesichts dieser reichlich ernüchternden Bestands-
zwischen den Kulturen (engl. civilizations) be- aufnahme zur Konfliktverschärfung durch Religion
dingt. Laut Huntington kommt den Religionen drängt sich vor allem eine Frage auf: Müsste man
bei der Prägung jener Kulturen und damit auch nicht im Namen des Pazifismus die Forderung er-
bei den erzeugten Konflikten die wichtigste heben, auf Religion gänzlich zu verzichten? Doch
Bedeutung zu. hier gilt wohl die Mahnung des Philosophen Odo
Marquard: „Wer angesichts von … Knollenblätterpil-
Wie schematisch und undifferenziert Huntingtons zen die Forderung erhebt, man solle das Essen gänz-
Untersuchung zum „Clash of Civilizations“ daher- lich bleibenlassen, der geht … einfach zu weit“. Eher
kommt, ist oft bemerkt worden und braucht hier nicht wird es darauf ankommen – um im Bilde Marquards
wiederholt zu werden. Vor allem ist die grundsätzli- zu bleiben – zwischen solchen Elementen von Reli-
che Behauptung Huntingtons nicht haltbar, die Ver- gion, die dem Frieden „bekömmlich“ sind, und sol-
schiedenheit der Religionen sei die zentrale Quelle chen, die dies nicht sind, zu unterscheiden und die
vvon Gewalt und Krieg. Untersuchungen der letzten derart differenzierte Religion in die Bemühungen um
Quelle: http://religionen-und-gewalt.uni-hd.de/

Ja
Jahre haben gezeigt, dass Religion nur selten selber den Frieden in der Welt einzubeziehen. Denn Religion
K
Konflikte auslöst. Wohl aber kann sie ökonomische wird so schnell nicht aus dieser Welt verschwinden,
uund machtpolitische Zwietracht verschärfen. Und eher scheint ihre Bedeutung zuzunehmen. Man mag
w
wenn sie dies tut, dann immer erheblich. Wodurch? dies bedauern, man mag dies begrüßen. Auf jeden
EEinige grundsätzliche Überlegungen dazu sind im Fall erweist es sich als dringlich, zusammen mit den
FFolgenden dargestellt. Religionen, und nicht gegen sie, auf eine friedlichere
Welt hinzuarbeiten.
K
Konflikte im Bereich von Ökonomie und Politik ma-
cchen Mitmenschen zu Gegnern. Religion verschärft Aus diesem Grund ist es unerlässlich, auch Frieden
ddiese Gegnerschaft, wenn sie den Gegner nicht nur fördernde Aspekte von Religion wissenschaftlich zu
aals meinen Feind, sondern als Feind des Göttlichen analysieren.1 Religiöses Gewaltpotential lässt sich
Gehört Gewalt zum Wesen vversteht. Jean-Jacques Rousseau schätzt die Konse- nicht nur durch Kritik von Religion, sondern eben
von Religion?
quenzen realistisch ein: „Selbst Engel würden mit auch durch die Erinnerung an religiöses Friedens-
den Menschen nicht in Frieden leben, wenn sie die- potential eindämmen.
selben als Feinde Gottes betrachteten.“
Eine solche Erinnerung ist in Bezug auf alle Religio-
Ähnlich zuspitzend wirkt es, wenn Religion zu Kom- nen möglich. Denn in allen Religionen, so hat die re-
promissen unfähig macht. Das kann etwa dadurch ligionswissenschaftliche Forschung der letzten Jahre
passieren, dass eine Streitpartei eine Absolutheit gezeigt, sind sowohl Möglichkeiten zu Krieg als auch
göttlicher Vorschriften behauptet und diese somit zu Frieden enthalten. Jede Religion hat ihre gewalt-
weder relativiert noch zur Disposition gestellt werden samen und ihre friedlichen Potentiale realisiert – und
dürfen. Handlungen, die den göttlichen Anweisungen realisiert sie noch. Keine Religion kann die Gewaltta-
entsprechen, erscheinen als unbegrenzt legitim, alle ten anderer Religionen aufzählen und dann über de-
Mittel zur Durchsetzung der Vorschriften als heilig. ren Schlachtfeldern quasi engelsgleich oder wie eine
Schließlich wirkt auch eine in fundamentalistischen Friedenstaube aufsteigen.
Kreisen zu findende geschichtsphilosophische Inter-
pretation der Moderne in die gleiche Richtung, wenn Nachfolgend soll das Friedenspotential von Religion
sie lautet: „Die neuzeitliche Autonomie und der exemplarisch am Christentum vorgeführt werden.
selbständige Vernunftgebrauch sind der große Abfall Dies ist freilich nur im selbstkritischen Bewusstsein
von Gott.“ Fundamentalisten fühlen sich dann dazu dessen möglich, dass das Christentum sein eigenes
legitimiert, auf eine rationale Begründung ihrer Po- Friedenspotential nur allzu oft nicht fruchtbar ge-

38
THEOLOGIE

macht hat, und im Wissen darum, dass solches Frie- ten dadurch ausgelöst, dass der oder die andere als
denspotential auch bei anderen Religionen zu finden Bedrohung der eigenen Existenz wahrgenommen
ist. Entsprechend kann das Sprechen vom Friedenspo- wird. Feindschaft versteht sich dann als Reaktion auf
tential des Christentums nur ein Beitrag zum Frieden Feindschaft. Die Antwort auf die Frage, wer mit der
in der Welt sein. Doch ein Beitrag zum Frieden in der Feindschaft „angefangen“ hat, wird in dieser Logik
Welt, dies ist, so scheint mir, nicht nichts. zur Voraussetzung von Frieden. Die christliche Got-
tesvorstellung hält uns eine andere Logik vor Augen:
„Friede macht Reichtum, Reichtum macht Übermut, Frieden beginnt mit einem einseitigen, zuvorkom-
Übermut bringt Krieg, Krieg bringt Armut, Armut menden Unterfangen, welches die Feindschaft des
macht Demut, Demut macht wieder Frieden.“ Frieden anderen quasi ins Leere laufen lässt.
aber macht Reichtum … – diese bei Julius Zinkgref
überlieferte Weisheit erzählt den Wechsel von Frieden Auch im Selbstverhältnis des Menschen gibt es so
und Krieg als immerwährenden Kreislauf, aus dem es etwas wie Feindschaft. Angesichts dessen, was er in
kein Entkommen gibt. Solch ein Zyklus gehört zum der Vergangenheit getan hat, kann sich der Mensch
Menschsein dazu. Frieden ist dann die Pause zwi- selbst Feind sein, also sich hassen wegen seiner Taten.
schen zwei Kriegen. Kriege aber sind menschlich – Und er kann sich Feind sein angesichts dessen, was er

Luca Galuzz / Wikimedia Commons


wie auch die Sehnsucht nach Frieden. Freilich ist es hat erleiden müssen. Der Mensch kann sich schließ-
der Frieden selbst, der das Potential zum Krieg, eben lich Feind sein wegen seines eigenen Versagens, we-
Reichtum und dann Übermut, aus sich entlässt. Er gen der Dinge, die er nicht oder nur unzureichend
selbst scheint problematisch zu sein. getan hat. Wenn der Mensch dieses Versagen nicht in
sein Selbstbild integriert, sind Selbstfeindschaft und
Anders die Bewertung des Friedens in den Texten der Selbsthass unvermeidlich; die Narzissmusforschung
Bibel. Hier ist Frieden etwas vorbehaltlos Positives. hat diesen Zusammenhang zwischen Enttäuschung
Denn Frieden ist nach dem Urteil der biblischen Texte über das eigene Ungenügen und Selbstverachtung
nicht schon gegeben durch den Zustand des ruhigen, eindrücklich herausgearbeitet.
Reichtum ermöglichenden Gütererwerbs. Frieden be-
deutet, insbesondere in seinem alttestamentlichen Nach christlicher Auffassung vermag Friede mit Gott
Verständnis als Schalom, dass alle Lebensbereiche in auch für einen Frieden mit sich selbst dienlich zu
einem sich gegenseitig befördernden Zustand stehen. sein. Wenn die christliche Tradition Gott als jeman-
Ein solcher Friede schließt auch gelungene Beziehun- den beschreibt, der jedem Menschen bedingungslos Das Friedenspotential des
gen ein. Deshalb ist die Gefahr des Krieges in einem zugewandt ist, dann behauptet sie, dass der Mensch Buddhismus scheint
solchen Frieden nicht mehr gegeben. Frieden kann so nicht durch seine Taten, Untaten oder Unterlassungen unstrittig zu sein.
echtes Ziel sein, nicht nur Durchgangsstation in ei- definiert wird. Denn für sein Gottesverhältnis sind sie
nem in ewiger Wiederkehr des Gleichen durchlaufe- nicht konstitutiv. Diese Unterscheidung des Menschen
nen Kreis. Dass es dennoch immer wieder zu Gewalt von seinen Taten, von seinem Leiden und seinem Ver-
und Krieg kommt, ist nach biblischem Urteil nicht sagen ermöglicht ihm eine Distanz zu dem, was er
dem Frieden anzulasten, sondern dem Menschen. an sich hasst und so die Chance, sich damit ausein-
Das legt wiederum nahe, dass Konzepte für einen anderzusetzen. Gleichzeitig lautet die christliche Vor-
Frieden, der mehr ist als die Unterbrechung von Krieg, stellung: Der Mensch steht als ganze Person, also mit
beim Menschen ansetzen müssen. Sie sollten fragen, seinen Taten, seinem Versagen und seinem Leiden,
was im Menschen anders werden muss, damit es zum in diesem Gottesverhältnis. Anders formuliert: Gott
Frieden kommt. hält es mit dem aus, was der Mensch an sich hasst.
Deshalb kann es auch der Mensch „bei sich selbst
Inwiefern kann dafür des Menschen persönliche reli- aushalten“ – wie Friedrich Nietzsche formulierte.2
giöse Überzeugung bedeutsam sein? Um dies genau-
er zu beschreiben, vermag eine friedenstheoretische Dieser „Frieden mit sich selbst“ klingt beschaulich,
Betrachtung der christlichen Vorstellung zum Verhält- kann aber ungeheure politische Konsequenzen haben:
nis, das zwischen Mensch und Gott besteht, hilfreich Verführbarkeit zum Krieg ist nämlich dann besonders
zu sein. Die Theologen des antiken Christentums ha- groß, wenn der Mensch seine inneren Konflikte nicht
ben den Zustand des Menschen durch das Bild der löst. Dann ist er, wie psychoanalytische Forschungen
Feindschaft des Menschen gegen Gott beschrieben. gezeigt haben, so von Ängsten und Aggressionen
Und sie haben umgekehrt im Anschluss an biblische bestimmt, dass das Kriegführen als Erleichterung
Begrifflichkeiten Frieden mit Gott als das Ende der verschaffender Ausweg erscheint. Solches gilt insbe-
Feindschaft des Menschen gegen Gott geschildert. sondere im religiösen Kontext: Der innere Hass gegen
Gott selbst wird dabei gezeichnet als derjenige, der sich selbst, der beispielsweise in dem Gefühl gründen
auf des Menschen Feindschaft nicht mit Feindschaft, kann, Ansprüchen nicht zu genügen, wird im religi-
sondern mit Liebe reagiert, als der, der – biblisch ge- ösen Kontext leicht externalisiert auf Ungläubige, die
sprochen – auf des Menschen Sünde mit Vergebung den Ansprüchen Gottes nicht genügen. Frieden mit
antwortet. Nun werden Konflikte zwischen Menschen, sich selbst im beschriebenen Sinne unterbricht diese
auch solche, die religiös verschärft werden, nicht sel- Abläufe an der Wurzel.

FORSCHUNGSMAGAZIN 2/2009 39
THEOLOGIE

Noch eine weitere Auswirkung der christlichen Got- ■ Summary


tesvorstellung auf den Umgang mit den anderen Recently, intensive discussions have been conducted
Menschen sei in den Blick gehoben. Krieg und Kampf on religion and its potential for violence. Religious
gegen einen anderen beginnt man insbesondere differences seldom cause conflicts, yet can intensify
dann, wenn man ihn für schwach und sich selbst für them enormously. Research on religions’ peace
so stark hält, dass eine gewaltsame Auseinanderset- potential can be instrumental in fostering peace. The
Joe Gough / Okea © www.fotolie.de zzung aussichtsreich erscheint. Dies wird religiös auf- article exemplifies this peace potential in regard to
ggeladen, wo man die eigene (militärische oder wirt- the Christian religion. But of course it does not claim
sc
schaftliche) Stärke als Wirkung der Gnade und Gunst that only Christianity has a potential for peace or that
eeines Gottes versteht. Die im christlichen Glauben Christianity has no potential for violence. All religions
ggeltend gemachte Einsicht, dass der Wert eines Men- have a capacity for both.
sc
schen nicht an dessen Stärke oder Schwäche hängt,
so
sondern an der ungeschuldeten, von Gott selbst ge-
sc
schenkten Gottesbeziehung, sollte die Perspektive Univ.-Prof. Dr.

Regina Shin
aauf die Schwäche des anderen verändern: Sie ver- Christiane Tietz
bbietet ein Ausnutzen dieser Schwäche und stellt den
aanderen in seiner unveräußerlichen, weil in Gottes Christiane Tietz, geboren
ZZuwendung begründet gedachten Menschenwürde 1967, studierte Mathe-
vvor Augen. matik und Evangelische
Jede Religion enthält auch friedens- Theologie in Frankfurt am
förderliche Elemente. FFrieden, so hieß es bereits, ist nach biblischem Ver- Main und Tübingen; es
ständnis mehr als die Abwesenheit von Feindschaft folgten im Jahr 1999 die
und Krieg. Frieden ist für die biblischen Texte ein Promotion und 2004 die
umfassend lebensförderlicher Zustand, Schalom. H bili i iin Tübi
Habilitation Tübingen; Gastdozentin unter ande-
Damit wird daran erinnert: Frieden mit einem ande- rem an den Universitäten Cambridge und Heidelberg
ren haben heißt sein Leben fördern. Nur durch einen sowie am Union Theological Seminary in New York
solchen Frieden, der das Leben des anderen fördert, City; 2006-2008 Heisenberg-Stipendiatin der DFG; WS
lässt sich Krieg tatsächlich vermeiden. Daraus folgt: 2007/08 Member in Residence am Center of Theolo-
Wo Frieden zwar Abwesenheit von Krieg bedeutet, gical Inquiry in Princeton; seit dem Sommersemester
aber nicht lebensförderlich ist, dort ist der christli- 2008 Lehrstuhlinhaberin für Systematische Theologie
che Friedensgedanke noch nicht realisiert. Dort ist und Sozialethik an der Universität Mainz; Mitglied im
im Gegenteil ein Streit gefordert, der Konstellationen Trägerkreis des DFG-geförderten Graduiertenkollegs
benennt und Spannungen bearbeitet, die dem Leben „Die christlichen Kirchen vor der Herausforderung
nicht förderlich sind. ‚Europa’ (1870 bis zur Gegenwart)“; Vorsitzende der
Internationalen Bonhoeffer-Gesellschaft, Sektion BRD.
Im Kontext religiös verschärfter Gewalt heißt das Ihre Forschungsschwerpunkte sind Religion und Poli-
konkret: Das Ende des gegenseitigen Sich-Umbrin- tik, Interreligiöser Dialog sowie Dietrich Bonhoeffer.
gens ist zweifellos das vorrangige Ziel eines Frie-
dens zwischen den Religionen. Frieden zwischen den
Religionen muss aber noch mehr implizieren, näm-
lich auch das kritische Gespräch über Elemente der ■ Kontakt
fremden (und eigenen) Religion, die nicht lebensför- Univ.-Prof. Dr. Christiane Tietz
derlich sind. Zum Frieden zwischen den Religionen Evangelisch-theologische Fakultät
gehört deshalb unbedingt die Auseinandersetzung Johannes Gutenberg-Universität Mainz
um Menschenrechte und Gerechtigkeit. Für Frieden Saarstraße 21
zwischen den Religionen wird aber auch der Aufbau D-55128 Mainz
Tel. +49 (0) 6131-39 25 576
von Vertrauen durch ausdauernden Dialog zwischen
Email: christiane.tietz@uni-mainz.de
Anhängern unterschiedlicher Religionen grundlegend
http://www.ev.theologie.uni-mainz.de/1457.php
sein. Ein solches interreligiöses Gespräch hat bereits
selber Frieden fördernden Wert. Denn, so könnte man
in Abwandlung eines Satzes von Gottfried Benn for-
mulieren: „Kommt, reden wir zusammen. Wer redet, Literatur
schlägt nicht tot!“
1. Vgl.: Das Friedenspotenzial von Religion. Hrsg. Irene Dingel
und Christiane Tietz, Göttingen 2009.

2. Vgl.: Christiane Tietz, Freiheit zu sich selbst.


Entfaltung eines christlichen Begriffs von Selbstannahme,
Göttingen 2005.

40
RECHTS- UND WIRTSCHAFTSWISSENSCHAFTEN

Armut und Überschuldung privater Haushalte

Von Michael Bock, Klaus Breuer, Curt Wolfgang Hergenröder, Stephan Letzel, Eva Münster und Cornelia Schweppe

Armut und Überschuldung privater Haushalte Armut und Migration


sind zu einem gesellschaftspolitischen Problem
ersten Ranges geworden. Den komplexen Ursa- Die Lebenslagen von Menschen mit Migrationshin-
chen und den vielfältigen Folgen widmet sich tergrund sind in Deutschland überproportional durch
das interdisziplinäre Exzellenzcluster „Gesell- knappe finanzielle Ressourcen gekennzeichnet. Wie
schaftliche Abhängigkeiten und soziale Netz- allerdings diese Personengruppe armutsbedingte
werke“ des Landes Rheinland-Pfalz, das an den Problemlagen bewältigt und welche Wege und Stra-
Universitäten Trier und Mainz angesiedelt ist. tegien sie zu deren Linderung entwickelt, ist kaum
bekannt. Als zentrales Ergebnis des erziehungswis-
Der 3. Armuts- und Reichtumsbericht der Bundesre- senschaftlichen Projekts lässt sich festhalten, dass es
gierung weist erneut auf gravierende Armutsproble- nicht (nur) die mangelnden finanziellen Mittel sind,
me sowie auf die Verschuldungsproblematik privater die im Zentrum der Belastungen armer Migrantinnen
Haushalte hin. Für die nächsten Jahre wird angesichts und Migranten stehen. Vielmehr zeigt sich, dass die
der wirtschaftlichen und sozialen Entwicklung ein zentralen Belastungen aus Ausgrenzungsprozessen
weiterer Anstieg armutsbedingter Problemlagen und und mangelnder Anerkennung resultieren, die arme
von Privatinsolvenzen prognostiziert. Die Ursachen- Menschen mit Migrationshintergrund erfahren, und
zusammenhänge sind komplex; ihre Folgen wurden die dementsprechend im Mittelpunkt des Bewälti-
bislang nur ansatzweise untersucht. Neben ökono- gungshandelns stehen. Die Bewältigung von Schul-
mischen und juristischen Problemen der Betroffenen den und Armut unter den Bedingungen der Migration
können gesundheitliche und soziale Beeinträchti- zielt dementsprechend nicht nur auf die Linderung
gungen wirksam werden und eine Reduzierung der der finanziellen Problemlagen ab, sondern geht ins-
Teilhabechance in unserem Gesellschaftssystem zur besondere mit dem Streben nach gesellschaftlicher
Folge haben. Maßnahmen der Unterstützung für die Anerkennung und Partizipation einher. Die Studie
besonders anfällige Gruppe von armen und zahlungs- zeigt auch, dass die Lebenssituation armer und ver-
unfähigen Personen sowie Präventionsstrategien zur schuldeter Migrantinnen und Migranten durch viel-
Vermeidung von Armut und Überschuldung werden fältige grenzüberschreitende Verflechtungen mit
dringend notwendig. Auch die wechselseitigen Zu- ihrem Herkunftsland geprägt ist. Viele von ihnen
sammenhänge zwischen Kriminalität und Schulden unterstützen ihre noch ärmeren Familienmitglieder
verdienen Beachtung. im Herkunftsland oder in anderen Ländern. Zum Teil
führt dies zu einer Verschlechterung ihrer eigenen
Transdisziplinarität als Programm Situation in Deutschland. Arme Migrantinnen und
Migranten greifen aber auch auf transnationale Ver-
Die Untersuchung dieser Zusammenhänge erfordert bindungen zur Bewältigung ihrer eigenen (finanziell)
ein transdisziplinäres Vorgehen, das die multidimen- prekären Situation zurück. Damit werden transnati-
sionale Problemlage der Betroffenen berücksichtigt. onale Perspektiven für die Untersuchung von Armut
Das hier vorgestellte Exzellenzcluster des Landes und Schulden eröffnet.
Rheinland-Pfalz widmet sich dieser Thematik aus
den verschiedenen Blickwinkeln. Ziel der Mainzer Exklusion und Inklusion bei Strafgefangenen
Forschergruppe, deren Mitglieder aus der Erziehungs- mit Migrationshintergrund
wissenschaft, der Kriminologie, den Rechtswissen-
schaften, der Sozialmedizin sowie der Wirtschaftspä- Vielfach müssen sich junge Migrantinnen und Mig-
dagogik kommen, ist die nähere Erforschung der ranten mit starken wirtschaftlichen, sozialen und kul-
Ursachenzusammenhänge zwischen der Entstehung turellen Abhängigkeiten auseinandersetzen. Eine Re-
von Armut und Schulden, den Auswirkungen dieser aktionsform darauf ist die Begehung von Straftaten.
Problemlagen auf die wirtschaftliche, rechtliche, Gesellschaftlich fordert diese Reaktionsform beson-
soziale und gesundheitliche Lebenssituation sowie ders heraus und mahnt, die damit verbundenen Fra-
dem Bewältigungshandeln der daraus resultierenden gen nicht nur zu stellen, sondern auch nach Lösungen
Probleme. Die transdisziplinäre Zusammenarbeit und zu suchen. Anhand der Biographien von jungen Men-
der permanente Austausch innerhalb des Forschungs- schen mit Migrationshintergrund wird untersucht, ob
verbundes ermöglichen es, die Problematik der Über- und wie sich Kontakte teils integrierend, teils aber
schuldung in ihrem ganzen Facettenreichtum zu er- auch eskalierend auswirken können. Über Netzwerke
fassen und Lösungsstrategien zu entwickeln. können etwa Arbeits- oder Ausbildungsplätze, aber

FORSCHUNGSMAGAZIN 2/2009 41
RECHTS- UND WIRTSCHAFTSWISSENSCHAFTEN

W
Wissen gesteuert wird. Diese

© Peter Reinäcker / PIXELIO


An
Annahme steht in der Traditi-
on des klassischen Informati-
on
onsverarbeitungsansatzes der
Co
Cognitive Science. Dabei wird
an
angenommen, dass intelligen-
te
tem Handeln ein bewusstes
Ab
Abwägen von Wissen voraus-
ge
geht. Diese unmittelbare Kau-
sa
salität von Wissen und Han-
de
deln wird in vielen Bezügen
ni
nicht kritikfrei angenommen.
Pr
Praktische Fertigkeiten kön-
ne
nen zwar ursächlich wissens-
m
mäßig angeleitet sein, mit zu-
ne
nehmender Erfahrung jedoch
w
werden diese Kenntnisse nicht
m
mehr notwendigerweise be-
w
wusst kontrolliert. Daher soll
di
die Frage analysiert werden,
Einzelhaft. ob finanzielles Handeln, neben
auchh SSchwarzarbeit
h b it vermittelt
itt lt werden.
d M Manche
h KKon- ddem Wi
Wissen, ddurchh weitere
it Indikatoren determiniert
takte bergen Rückzugsmöglichkeiten, andere stellen wird und ob die bisherigen Präventionsansätze vor
Hilfe bei Behördenkontakten oder den Zugang zu dem Hintergrund dieser Hypothese überdacht werden
Drogen bereit. Dieser Ambivalenz sozialer Netzwerke müssen. Wissen wird dabei als die für das Entschei-
gebührt das besondere Forschungsinteresse. Insge- dungsverhalten originäre Determinante interpretiert,
samt werden im Projekt 42 Probanden untersucht. Je die von weiteren Dimensionen des Geldverhaltens,
14 von ihnen haben einen türkischen bzw. kurdischen wie sozioökonomischen oder psychologischen Fakto-
oder einen nordafrikanischen Migrationshintergrund, ren, flankiert wird.
die übrigen 14 sind Aussiedler. Die Teilnehmer der
Studie werden einzeln besucht und interviewt. Ge- Überschuldung und Gesundheit
meinsam ist allen 42 Probanden, dass sie infolge von
Straftaten eine (Erst-)Inhaftierung erfahren haben. Um nachhaltige Bewältigungsstrategien und Präven-
Während die eine Hälfte nach der Entlassung inner- tionsprogramme für überschuldete Privatpersonen in
halb von drei Jahren keine weiteren Straftaten mehr Deutschland entwickeln zu können, müssen evidente
beging, ist die andere Hälfte erneut mit Straftaten in Daten zur Gesundheits- und Lebenssituation generiert
Erscheinung getreten. Den Ursachen dieser unter- werden. Erstmalig wurde daher eine quantitative so-
schiedlichen Verläufe wird im Rahmen der Forschung zialmedizinische Befragungsstudie an überschuldeten
intensiv nachgespürt. Mithilfe des Vergleichs sollen Privatpersonen durchgeführt. Insgesamt haben 666
so Rückschlüsse für erfolgversprechende Integra- Personen (51,1 Prozent Frauen) im Alter zwischen 18
tionsstrategien gezogen und als Vorschläge an die und 79 Jahren (Median 41 Jahre) bei einer Teilnahme-
relevanten Akteure weitergegeben werden. rate von 35,5 Prozent an dieser ASG-Studie (Armut,
Schulden und Gesundheit) teilgenommen. Insgesamt
M
Mentale Modelle zu Kreditbeziehungen 79,1 Prozent der Probanden gaben an, derzeit an
© E. Münster

in Netzwerken mindestens einer Erkrankung zu leiden, wobei psy-


chische Erkrankungen gefolgt von Gelenk- und Wir-
N
Neben den Folgen psychosozialer Destabilisierung belsäulenerkrankung (jeweils etwa 40 Prozent der

führt Überschuldung nicht selten in den Zustand so- Probanden) am häufigsten genannt wurden. Sowohl
zi
zialer Deprivation bzw. Isolation. Im Zusammenhang beim Individuum selbst als auch im Gesundheits- und
m
mit Risikofaktoren für eine Überschuldung wird häu- Versorgungssystem muss agiert werden, um der pre-
fig der Mangel an finanzwirtschaftlichen Kenntnissen kären Gesundheitslage der überschuldeten Privatper-
ggenannt. Daher wird nicht selten die Vermittlung sonen und deren Angehörigen entgegenwirken zu
finanzieller Allgemeinbildung als Schlüssel zur Über- können und ihnen die Teilhabechance am Gesund-
Der Teufelskreis von Schulden w
windung von Armut gefordert. Dabei bleibt offen, heitssystem zu gewähren. Im besonderen Fokus der
und Krankheit. w
welchen inhaltlichen Prämissen diese Forderung fol- Forschung steht die Gesundheit der Kinder in über-
gen soll und auf welche Ressourcen die individuellen schuldeten Familien. Bereits jetzt ist deutlich, dass es
Bewältigungsstrategien im Rahmen finanzieller Prob- nicht alleine Aufgabe der Schuldnerberatungsstellen
leme zugreifen. Allgemein wird davon ausgegangen, sein kann, den Betroffenen zu helfen. Sozialmedizini-
dass die Überwindung monetärer Schwierigkeiten sche und psychosoziale Betreuung müsste ebenfalls
durch die Aktivierung von finanzwirtschaftlichem seitens des Öffentlichen Gesundheitsdienstes und

42
RECHTS- UND WIRTSCHAFTSWISSENSCHAFTEN

der Krankenkassen implementiert werden, um das

Quelle: Creditreform
verfassungsmäßig verbürgte Sozialstaatsprinzip in
Artikel 20 I unseres Grundgesetzes umzusetzen. Auch Niederlande
die Gesundheitsbehörden des Landes und der Kom- Schweden
munen müssen sich der Überschuldungsproblematik
der Bevölkerung bewusst werden, ihre Verantwor- Schweiz
tung erkennen und entsprechend agieren. Österreich
Deutschland
Schuldenbekämpfung im europäischen
Großbritannien
Rechtsvergleich
Finnland
Zahlungsunfähigkeit macht nicht vor den deutschen
Durchschnitt
Grenzen halt. Viele Staaten sind hiervon betroffen. Die Pri
Privatinsolvenzen in
Gründe, die in ganz Europa zu Überschuldung und in Insolvenzen je 10.000 Privatpersonen den westeuropäischen
de
der weiteren Konsequenz zu einer Privatinsolvenz füh- Ländern.

ren, stellen sich in den einzelnen Ländern ähnlich dar.
Äußerst unterschiedlich ist allerdings die Art und Wei- schen Rechtsvergleich“ ist es, Gemeinsamkeiten und
se, wie die betreffenden Rechts- und Gesellschafts- Unterschiede des Umgangs mit Schulden in den euro-
ordnungen mit ihren zahlungsunfähigen Schuldnern päischen Staaten zu untersuchen. Gleichzeitig lassen
umgehen. Während Verbraucher in Deutschland im sich vor diesem Hintergrund Aussagen zur Bedeutung
Anschluss an ihr Verbraucherinsolvenzverfahren eine sozialer Netzwerke tätigen. Dabei wird der traditio-
sechsjährige Wohlverhaltensphase durchlaufen und nelle Netzwerkansatz für den Bereich der juristischen
dann Restschuldbefreiung erlangen können, stellt Arbeit fortentwickelt und somit auch für diese Wis-
sich die Situation für Schuldner in Großbritannien senschaftsdisziplin gangbar gemacht. Innerhalb des
oder auch in Teilen Frankreichs viel günstiger dar. Teilprojekts sollen die Bedingungen und Wechselwir-
Hier kann Entschuldung binnen eines Jahres erlangt kungen der einzelnen Akteure im Rahmen der Ver-
werden. Umgekehrt sehen andere Staaten wie Italien braucherinsolvenz mittels einer Netzwerkanalyse so-
oder Ungarn überhaupt keine Möglichkeit einer ent- wie anhand einer rechtsvergleichenden Darstellung
sprechenden Schuldbefreiung vor. Ziel des Projektes konkretisiert und deren Abhängigkeiten voneinander
„Netzwerke der Schuldenbekämpfung im europäi- systematisiert werden.

■ Summary
Poverty and financial difficulties in private households
have become a major socio-political problem.
In Germany, about 10 % of the population over
18 years are said to be over-indebted. Due to the
current economic and social development, a further
rise of poverty-induced problems and personal
bankruptcy are predicted for the coming years. U
Univ.-Prof. Dr. Dr.
Privat

Measures to support poor and insolvent persons Michael Bock


M
as well as strategies to prevent poverty and over- (K
(Kriminologie)
indebtedness will therefore be absolutely essential.
The research group “Societal dependencies and S
Studium der Evangelischen
social networks“, located at the universities of Mainz T
Theologie und Soziologie
and Trier and funded by the “Excellence Initiative“ of in Tübingen und Frankfurt,
the state of Rhineland-Palatinate, has set itself the P
Promotionen in Soziologie
task of exploring the different facets of indebtedness u
und Rechtswissenschaft,
in an interdisciplinary cooperation. Its main goal H
Habilitation für Soziologie
is to understand both the causal relations in the i Tübingen,
in übi i 1985 Professor für Kriminologie,
seit
development of poverty and debts and the complex Jugendstrafrecht, Strafvollzug und Strafrecht an der
effects of insolvency on economic, legal, social and Johannes Gutenberg-Universität. Mehrfach Gastpro-
health-related aspects of life. fessor an der Universität Graz (Allg. Soziologie, Sozio-
logische Theorie, Sozialphilosophie und Geschichte
Literatur der Soziologie) und in Kolumbien (Jugendkriminalität
und Jugendstrafrecht). Dort im März 2000 Ernennung
Schulden, Armut, Netzwerke: historische Zusammenhänge – zum Honorarprofessor der Universidad de los Andes
gegenwärtige Herausforderungen, Zeitschrift für Verbraucher- in Bogota. Forschungen und Publikationen zur Me-
und Privatinsolvenzrecht, Sonderheft 2009. thodologie und Geschichte der Sozialwissenschaften
sowie zur Angewandten Kriminologie.

FORSCHUNGSMAGAZIN 2/2009 43
RECHTS- UND WIRTSCHAFTSWISSENSCHAFTEN

U
Univ.-Prof. Dr. U
Univ.-Prof. Dr. Curt

Privat

P. Pulkowski
SStephan Letzel Wolfgang Hergenröder
W
(A
(Arbeits- und sozialmedizi- (R
(Rechtswissenschaftliches
n
nisches Projekt) PProjekt)

S
Studium des Allgemeinen SStudium der Rechtswissen-
M
Maschinenbaus und der sschaften sowie juristischer
M
Medizin an der TU Mün- V
Vorbereitungsdienst in Kon-
c
chen und der Universität sstanz und Paris. 1986 Pro-
E
Erlangen-Nürnberg. 1988 m
motion an der Freien Univer-
Promotion und Approbation als Arzt. 1994 Habilita- sität Berlin, 1994 ebendort Habilitation für die Fächer
tion in den Fächern der Arbeits- und Sozialmedizin. Bürgerliches Recht, Arbeitsrecht, Internationales Pri-
Seit 2001 Leiter des Instituts für Arbeits-, Sozial- und vatrecht und Zivilverfahrensrecht. Lehrtätigkeit an der
Umweltmedizin der Universitätsmedizin Mainz. Der- Ernst-Moritz-Arndt-Universität Greifswald sowie der
zeit unter anderem Präsident der Deutschen Gesell- Europa-Universität Viadrina in Frankfurt/Oder. 1994
schaft für Arbeitsmedizin und Umweltmedizin e. V. Ruf an die Bayerische Julius-Maximilians-Universität
sowie Vorsitzender des Ausschusses für Arbeitsme- Würzburg. Seit 2000 Inhaber des Lehrstuhls für Bür-
dizin beim Bundesministerium für Arbeit und Sozia- gerliches Recht, Arbeitsrecht, Handelsrecht und Zivil-
les (BMAS). Forschungsschwerpunkte: Toxizität von prozessrecht im Fachbereich Rechts- und Wirtschafts-
Arbeitsstoffen; Belastung und Beanspruchung durch wissenschaften der Johannes Gutenberg-Universität.
die Einführung neuer Technologien (z. B. Aluminium- Wissenschaftlicher Leiter der Forschungsstelle für Ver-
schweißen); berufsbedingte Malignome; Arbeitsmedi- braucherinsolvenz und Schuldnerberatung (Schuld-
zinische Bewertung von Altlasten; berufliche Einfluss- nerfachberatungszentrum) Rheinland-Pfalz.
faktoren auf die Verkehrssicherheit; psychomentale
Belastungen und Beanspruchung am Arbeitsplatz;
Prof. Dr. Eva Münster
P
Privat
sozialrechtliche Fragestellungen; klinische Umwelt-
medizin; klinische Sozialmedizin. Autor der Expertise (A
(Arbeits- und sozial-
„Überschuldung, Gesundheit, soziale Netzwerke“ für m
medizinisches Projekt)
den 3. Armuts- und Reichtumsbericht der deutschen
Bundesregierung. D
Das Curriculum Vitae von
EEva Münster finden Sie im
B
Beitrag aus der Medizin,
U
Univ.- Prof. Dr. SSeite 48.
Privat

Klaus Breuer
K
(W
(Wirtschaftspädagogisches
PProjekt)
U
Univ.-Prof. Dr. Cornelia
Privat

SStudium der Fächer Bau- SSchweppe


te
technik, Germanistik und Er- (S
(Sozialpädagogisches
zziehungswissenschaft an der PProjekt)
R
RWTH Aachen 1968-1972;
PPromotion in Erziehungswis- SStudium der Erziehungswis-
senschaft in Aachen 1979; Referendariat in Aachen ssenschaft und Sozialpäda-
1979-1980; Hochschulassistent an der Universität Pa- ggogik in Deutschland, den
derborn 1981-1986 und 1988-1991; Referent in der U
USA und Frankreich; 1990
■ Kontakt Bertelsmann Stiftung Gütersloh 1986-1988; Partner in PPromotion an der TU Berlin;
der Unternehmensberatung disce GmbH 1991-1994; bili i an dder Universität Marburg; 1983-
1998 Habilitation
Univ.-Prof. Dr. Curt Wolfgang Hergenröder Vertretung der Professur für Wirtschaftspädagogik an 1990 Tätigkeit in der Entwicklungszusammenarbeit
FB Rechts- und Wirtschaftswissenschaften der Universität Mainz 1994-1995; seit Februar 1995 in Lateinamerika; 1990-1997 wissenschaftliche As-
Johannes Gutenberg-Universität Mainz Professor für Wirtschaftspädagogik an der Johannes sistentin an der Universität Marburg; 1998-2002 Pro-
Jakob-Welder-Weg 9 Gutenberg-Universität. Forschungsschwerpunkte: Be- fessorin für Sozialpädagogik an der FH Darmstadt;
D-55099 Mainz rufsbezogene pädagogische Diagnostik; Lehr-Lernfor- seit 2002 Professorin für Sozialpädagogik am Institut
Tel. +49 (0) 6131-39 22 210 schung in der beruflichen Bildung; selbstgesteuertes für Erziehungswissenschaft der Johannes Gutenberg-
Fax +49 (0) 6131-39 23 376 computergestütztes Lehren und Lernen. Universität. Forschungsschwerpunkte: Internatio-
Email: cwh@uni-mainz.de nalität und Transnationalität in der Sozialen Arbeit,
Professionalisierung der Sozialen Arbeit, Armutsfor-
schung, Alten- und Altenhilfeforschung.

44
MEDIZIN

Gesundheitsversorgung von Gehörlosen in Deutschland

Von Eva Münster, Johannes Höcker und Luis Carlos Escobar Pinzón

Gehörlose verständigen sich bevorzugt mithilfe methode mit möglichst umfassender Barrierefreiheit
der Deutschen Gebärdensprache. Sie ist visuell- für Gehörlose entwickelt werden und schließlich die
motorisch aufgebaut und verfügt über eine Erfassung und Auswertung stattfinden. Die Datener-
eigenständige Grammatik. Mit ihr kann eine hebung konnte Ende März 2009 abgeschlossen wer-
verständliche und in allen Belangen vollstän- den, die Auswertung findet derzeit statt.
dige Kommunikation geführt werden, solange
der Gesprächspartner die Gebärdensprache Klärung des Forschungsbedarfs
beherrscht. Doch was passiert in der Gesund-
heitsversorgung, die vorrangig von Hörenden Das Gesamtprojekt wurde mit qualitativen Experten-
gestaltet wird? Wie findet die Arzt-Patienten- befragungen eingeleitet, die mithilfe eines halbstan-
Kommunikation statt, wenn in der Regel ein ge- dardisierten Interviewleitfadens durchgeführt wurden.
hörloser Patient auf einen hörenden Arzt trifft, Die Experten wurden per Internetrecherche ermit-
der die Gebärdensprache nicht beherrscht? telt; als Einschlusskriterien galten Gebärdensprach-
kompetenz, Berufserfahrung als Dolmetscher oder
Etwa 266.000 Personen gelten in Deutschland als ge- Berater und eine Arbeitsstelle im Großraum Mainz.
hörlos oder schwerhörig im Sinne des Neunten Sozi- Erfreulicherweise war unter den in Frage kommenden
algesetzbuches mit einem Grad der Behinderung von Interviewpartnern auch eine gehörlose Person, die als
mindestens 50 Prozent.1 Schätzungsweise 80.000 Experte in eigener Sache über die Situation der Ge-
Menschen sind von Geburt an gehörlos oder früh hörlosen berichten konnte. Insgesamt konnten fünf
ertaubt.2 Diese Gehörlosengemeinschaft verwendet Interviews mit Mitarbeitern von vier Beratungsstellen
die Deutsche Gebärdensprache, die seit 2002 per Ge- vereinbart werden. Die Auswertung der Interviews
setzgebung als selbständige Sprache in Deutschland ergab, dass es in der Praxis große Problemgebiete
amtlich anerkannt ist. Festgehalten ist dies im Behin- bei der Gesundheitsversorgung gehörloser Bürgerin-
dertengleichstellungsgesetz.3 nen und Bürger gibt. Vor allem die Verbreitung von
Informationen über die gesundheitsbezogenen Leis-
Um Kommunikationsbarrieren in der medizinischen tungen für Gehörlose sowie die Kommunikation mit
Versorgung abzumildern, hat der Gesetzgeber vorge- den in Heilberufen Tätigen wurden von den Experten
sehen, dass ein von der Krankenversicherung bezahl- wiederholt als defizitär beurteilt. Die Kommunikati-
ter Dolmetscher bestellt werden kann. Aber wie gut onsprobleme lägen dabei in so alltäglichen Bereichen
sind die Versorgung und die Zusammenarbeit mit den wie der Terminvergabe, aber auch bedeutende inhalt-
Dolmetschern? Und sind die vom Gesetzgeber vorge- liche Schwierigkeiten im Gespräch, die im schlimms-
sehenen Hilfsmaßnahmen zur Ermöglichung gleicher ten Fall zu Fehldiagnosen führen könnten, träten auf.
Chancen im Gesundheitswesen allen Betroffenen Weiterhin bedürfe die besondere Gesprächssituation,
bekannt? Welche Barrieren und Berührungsängste wenn neben Arzt und Patient noch eine dritte Person
liegen in der ärztlichen Versorgung von Gehörlosen wie ein Dolmetscher oder ein Familienmitglied anwe-
in Deutschland vor? Und wie ist die gesundheitliche send ist, der näheren Analyse. Überdies wurde auf
Situation der Gehörlosen in Deutschland? Viele Fra- fehlende psychotherapeutische Hilfen für Gehörlose
gen ergeben sich, wenn man das Thema Gehörlosig- hingewiesen.
keit aus sozialmedizinischer Sichtweise betrachtet,
Antworten darauf sind jedoch rar. Entwicklung einer quantitativen
Erhebungsmethode
Daher hat das Institut für Arbeits-, Sozial- und Um-
weltmedizin der Universitätsmedizin Mainz in 2009 Literaturrecherche und Interviewauswertung haben
erstmalig eine sozialmedizinische Studie mit Gehör- ergeben, dass herkömmliche epidemiologische Stu-
losen in Deutschland durchgeführt. Diese aktuelle dienmethoden – wie zum Beispiel schriftliche Befra-
Untersuchung und besonders deren Methode sollen gungen – auf gehörlose Personen nur sehr begrenzt
nachfolgend dargestellt werden, als Beispiel dafür, bis gar nicht angewendet werden können. Dies liegt
wie quantitative Forschung mit gehörlosen Personen vor allem in der Kommunikationsbarriere begründet:
gestaltet werden kann. Die Studiendurchführung wur- Viele gehörlose Personen haben Schwierigkeiten beim
de in drei Hauptarbeitsschritte unterteilt: Zunächst Lesen und Schreiben, denn Gebärdensprache lässt
musste der Forschungsbedarf geklärt und spezifiziert sich nur schwerlich aufschreiben und die deutsche
werden, anschließend eine quantitative Erhebungs- Laut- und Schriftsprache hat für Gehörlose eher den

FORSCHUNGSMAGAZIN 2/2009 45
MEDIZIN

Charakter einer mitunter mühsam zu erlernenden Eine deutschlandweite Befragung mithilfe von gebär-
Fremdsprache. Verständlich wird dies am Beispiel des densprachkompetenten Interviewern wäre bezüglich
seit Geburt Gehörlosen: Der Erwerb der Lautsprache der Organisation und der hohen Kosten nicht mög-
auf die eher passive Art und Weise der Hörenden durch lich gewesen. Daher musste ein Verfahren entwickelt
bloßes zuhören ist ihm nicht möglich. Glücklicher- werden, das eine quantitative Befragung an gehör-
weise ermöglicht ihm die Gebärdensprache dennoch losen Bürgerinnen und Bürgern in Deutschland ohne
eine gesunde psychosoziale Entwicklung, die jedoch Sprachbarriere ermöglicht und gleichzeitig kosten-
bezüglich ihrer Struktur deutlich von der Lautsprache günstig ist. Als Lösung boten sich Gebärdensprach-
abweicht – schon allein deshalb, weil unterschiedli- videos an. Kombiniert mit dem Internet ließen sich
che Sinne angesprochen werden. Die Gebärdenspra- die Videos entsprechend weit verbreiten und die
che erlernt der Gehörlose als seine „Muttersprache“ Teilnehmer konnten ein Feedback geben, das auto-
sehr schnell, die Lautsprache hingegen aufwendiger matisch in einer Datenbank gespeichert wurde. Aus
und nicht selten mit gravierenden Rückständen. Diese der Überlegung, dass gerade Gehörlose mit Schwä-
Situation kann bedingen, dass Gehörlose nicht gerne chen in der Schriftsprache auch diejenigen sind, die
lesen und komplexe Texte nicht gut auflösen können. die größten Probleme bei der Inanspruchnahme von
Der Rücklauf bei rein schriftlichen Fragebögen ist da- ärztlichen und gesundheitsbezogenen Leistungen ha-
her in der Regel unbefriedigend und sehr gering. ben, entstand der Anspruch, die quantitative Umfra-
ge vollständig barrierefrei in Bezug auf die Kommuni-
kation zu gestalten. Das heißt: Eine Teilnahme sollte
Abb. 1: Der Aufbau einer Fragebo- aauch dann möglich sein, wenn nur äußerst geringe

© Autoren
genseite aus der internetbasierten KKenntnisse der Laut- und Schriftsprache vorlagen. Um
Umfrage für Gehörlose am Beispiel aalle Inhalte adäquat abfragen zu können, mussten
einer Ja/Nein-Frage.
sspezielle, sehr visuelle Frage- und Antworttypen für
ddie anvisierte Internetbefragung entwickelt werden,
ddie in einer Voruntersuchung vorab getestet wurden.

AAlle Fragen haben gemeinsam, dass im oberen Teil


ddes Bildschirms das Gebärdensprachenvideo plat-
zziert wurde und im unteren Teil die dazugehörigen
AAntwortmöglichkeiten. Weil viele Betroffene im
RRahmen der Voruntersuchung gebeten hatten, zur
VVermeidung von Missverständnissen die Fragen auch
in Schriftsprache aufzunehmen, war zwischen Video
Abb. 2: Die dreistufige Antwort- uund Antwortmöglichkeiten die entsprechende Frage
skala erlaubt den Teilnehmern, nnoch einmal in ausgeschriebener Form eingeblendet
Meinungen und Einstellungen (A
(Abb. 1, 2 und 3). Man beachte hierbei eine sprach-
anzugeben. liliche Besonderheit: Die Teilnehmer wurden während
dder Umfrage konsequent geduzt. Das „Du“ ist dabei
in der Voruntersuchung durch Gehörlose vorgeschla-
ggen worden, denn das Siezen in der dritten Person
PPlural – unter Hörenden die gängige Höflichkeitsform
– wird unter Gehörlosen leicht wörtlich genommen
uund kann so zu Missverständen führen. Es kann dann
dder Eindruck entstehen, dass nicht die direkt ange-
ssprochene Person Auskunft geben soll, sondern dass
dder Teilnehmer über andere Personen befragt wird.

Fragen mit der dichotomen Antwortkategorie „Ja


Abb. 3: Die Gebärden-Buchstaben
ooder Nein“ bildeten den einfachsten Fragetyp . Die
ermöglichen eine rasche Orientie-
rung bei Antwortlisten (hier mit
AAntwortmöglichkeiten wurden gleichberechtigt ne-
zwei Einträgen). bbeneinander angeordnet. Zur visuellen Unterstützung
wwurde jeweils ein Bild der Gebärde für „Ja“ oder
„„Nein“ mit aufgenommen (siehe Abb. 1). Zusätzlich
wwurden Fragen eingesetzt, die mithilfe einer Ska-
la beantwortet werden sollten, um die bewertende
HHaltung der Teilnehmer zu einem Thema zu erfragen.
ZZur grafischen Umsetzung boten sich hier stilisierte
GGesichter (Smileys) an, die zudem noch farblich ge-
st
staltet wurden (Abb. 2). Die Gesichter standen da-
bbei für Aussagen über Zustimmung, Zufriedenheit

46
MEDIZIN

oder – je nach Kontext – auch für die Angaben „sehr vollständig durchlaufen. Die Analysen werden derzeit
gut“, „mittel“ und „sehr schlecht“. Statt der häufig vom Institut für Arbeits-, Sozial- und Umweltmedizin
in epidemiologischen Untersuchungen eingesetzten der Universitätsmedizin durchgeführt. Erwartet wer-
fünfstufigen Antwortskala wurde die Skala auf drei den neue Erkenntnisse, die zur Optimierung der Ge-
Ausprägungsgrade reduziert. Denn die Voruntersu- sundheitsversorgung von Gehörlosen in Deutschland
chung ergab, dass die sprachlichen Schattierungen beitragen können. Um die Methodik der Umfrage
der fünfstufigen Skala von Gehörlosen eher nicht be- bewerten zu können, wurden die Teilnehmer auch zu
nutzt und auch nicht verstanden werden. Qualität und Methodik der Studie befragt. Die Ant-
worten (Antworttyp „Skala“) unterstützen die po-
Die dritte Möglichkeit der Fragen-/Antwortmodalität sitive Meinung der vorab befragten Wissenschaftler
war die der „Listen-Antwort“: Mehrere Antwortal- zu dieser internetbasierten Befragungsstudie mittels
ternativen waren möglich, aus denen der Teilnehmer Gebärdensprachvideos (Abb. 4).
wählen konnte. Damit dieser Antworttyp ohne Schrift-

© Autoren
sprache auskam, wurden die verschiedenen Antwor-
ten im Video vollständig übersetzt und gebärdet. Da-
bei wurde jede Antwortmöglichkeit jeweils mit einem
Buchstaben des „Fingeralphabets“ (Gebärdenalpha-
bet) versehen. Je nach Anzahl der Antwortalternativen
kamen dabei die Buchstaben von A bis H zum Einsatz.
Kleine Bilder des jeweiligen Gebärden-Buchstabens
kennzeichneten dann den entsprechenden Eintrag
in der Antwortenliste, so dass der Eintrag direkt aus-
gewählt werden konnte, falls die zusätzlich angebo-
tenen Antworten in Schriftsprache nicht verstanden
wurden (Abb. 3). Eine Sonderform der Listen-Antwort
bestand dann, wenn mehrere Antworten gleichzeitig
ausgewählt werden konnten. Fazit Abb. 4: Subjektive Bewer-
tung der Gehörlosenstudie
und ihrer Methodik durch
Da nicht jede Frage mit einer standardisierten Ant- Auch für das wissenschaftliche Vorgehen gilt, Kom-
die Teilnehmer.
wortvorgabe aufgebaut werden konnte, wurden in munikationsbarrieren abzubauen. So werden Defizite
der Umfrage auch sogenannte Textfeld-Fragen einge- aufgedeckt und es kann ein Beitrag zur Chancen-
setzt. Sie wurden dann benutzt, wenn die Antwort in gleichheit bei der Teilhabe am gesellschaftlichen Le-
Form einer Zahl gegeben werden musste (beispiels- ben, insbesondere des Gesundheitsversorgungssys-
weise Alter, Größe oder Gewicht). Die Teilnehmer tems, geleistet werden. Der Weg der internetbasierten
wurden gebeten, die entsprechende Zahl im Textfeld Befragung mit Sprachvideos konnte erfolgreich bei
einzutragen. Insgesamt wurden 86 Fragen erstellt, gehörlosen Bürgerinnen und Bürgern in Deutschland
wobei die tatsächliche Anzahl gestellter Fragen von eingesetzt werden. Für weitere Bevölkerungsgruppen
den individuellen Antworten der Teilnehmer abhing mit möglichen Kommunikationsbarrieren, wie zum
und zwischen 60 und 85 Fragen lag. Diese Methode Beispiel nicht deutsch sprechenden Bürgerinnen und
sowie die Inhalte der Befragung wurden durch den Bürgern, könnte diese Erhebungsmethode ebenfalls
Landesdatenschutzbeauftragten von Rheinland-Pfalz von Vorteil sein, zumal die Anonymität gewährleistet
begutachtet und konnten in die Feldphase überführt werden kann. Neben der Erhebung von einmaligen
werden. quantitativen Daten wurde mithilfe der Studie auch
die Untersuchungstechnik der Online-Fragebögen
Erfassung und Auswertung mit Gebärdensprachvideos im sozialmedizinischen
Bereich etabliert. Weiterhin hat die Untersuchung
Die entwickelte Umfrage befand sich vom 1. 2. 2009 geholfen, in einen Dialog mit den Betroffenen zu tre-
bis zum 31. 3. 2009 online. Beworben wurde sie über ten und Kontakte mit Gehörlosen- und Dolmetscher-
die gängigen Internetplattformen für Gehörlose, über vereinen sowie mit deutschen und internationalen
einen Institutsbrief an diverse Selbsthilfeorganisatio- Expertengruppen zu knüpfen. Ein funktionierendes
nen und Gehörlosenverbände sowie über eine Presse- Netzwerk zwischen Forschung und Praxis wird es
mitteilung. Der Rücklauf entwickelte sich sehr positiv hoffentlich ermöglichen, die Situation für gehörlose
und lag über den angenommenen Erwartungen. Be- Bürgerinnen und Bürger auf Basis der Studienergeb-
reits nach einer Woche verzeichnete die eingerichtete nisse zu verbessern.
Homepage über 2.500 Besucher. Auch gab es viele
aufschlussreiche Email-Rückmeldungen von Gehörlo- An dieser Stelle sei allen Teilnehmerinnen und Teil-
sen bezüglich der Befragung sowie Kommentare zu nehmern für die Beantwortung des Fragebogens
individuellen Erfahrungen bei der Gesundheitsversor- recht herzlich gedankt. Ein besonderer Dank gilt
gung. Insgesamt haben 1.396 Personen den Fragebo- Liona Paulus, die die Fragen für die Videoaufnahmen
gen der dargestellten sozialmedizinischen Umfrage übersetzt und gebärdet hat.

FORSCHUNGSMAGAZIN 2/2009 47
MEDIZIN

■ Summary Prof. Dr. Eva Münster

Privat
The Institute of Occupational, Social and Environ-
mental Medicine of the University Medical Center in Eva Münster erwarb Hoch-
Mainz performed a first-time Germany-wide survey sschulabschlüsse in Ökotro-
regarding public health issues in deaf people. To pphologie (Universität Bonn)
properly approach the deaf community an internet und Public Health (LMU
based questionnaire containing sign-language videos München). 2004 Promotion
was developed. Questions were about deaf-specific (TU München). Seit 2005
problems, e.g. interpreter services. The positive JJuniorprofessorin für So-
response as well as the good ratings from the zzialmedizin/Public Health
participants showed that this is a promising way to i fü
am Institut b i
für Arbeits-, Sozial- und Umweltmedizin
reach deaf people. The results are currently analyzed der Universitätsmedizin Mainz. Der Forschungsfokus
and will be published in the near future. liegt auf besonders belasteten und teilweise tabui-
sierten Bevölkerungsgruppen, deren Gesundheitszu-
stand und deren medizinischer Versorgungssituation.
Sie leitet den Interdisziplinären Arbeitskreis „Armut
und Schulden“ der Universität Mainz und ist Autorin
der Expertise „Überschuldung, Gesundheit, soziale
Netzwerke“ für den 3. Armuts- und Reichtumsbericht
der Bundesregierung.

D rer. soc. Luis Carlos


Dr.

Privat
EEscobar Pinzón

L Carlos Escobar Pinzón,


Luis
ggeboren 1967 in Maniza-
le
les (Kolumbien), studier-
te Psychologie in Bogotá
Literatur (K
(Kolumbien). 1994 kam er
aals Koordinator des EURO-
V
VIHTA-Projekts an das Psy-
1. Statistisches Bundesamt, Statistik der schwerbehinderten
h l i h IInstitut
chologische tit t dder Universität Mainz. Er pro-
Menschen 2007, 1. Januar 2009.
movierte 2000 an der Eberhard-Karls-Universität in
2. Deutscher Gehörlosen Bund, URL: http://www.gehoerlosen- Tübingen. Von 2002 bis 2005 hatte er die Leitung der
bund.de/faq/faq.htm, zuletzt aktualisiert am 08.05.2009. Arbeitsgruppe Psychophysiologie des Instituts für Ar-
beits-, Sozial- und Umweltmedizin an der Universität
3. Behindertengleichstellungsgesetz vom 27. April 2002 Mainz inne. In den Jahren 2006 bis 2008 war er als
(BGBl. I S. 1467, 1468), zuletzt geändert durch Artikel 12 Bundesgeschäftsführer der Deutschen AIDS-Hilfe e.V.
des Gesetzes vom 19. Dezember 2007 (BGBl. I S. 3024). in Berlin tätig. Seit April 2009 ist er zurück am Institut
für Arbeits-, Sozial- und Umweltmedizin der Universi-
tätsmedizin Mainz und leitet die Arbeitsgruppe Sozi-
almedizin/Public Health.

■ Kontakt
c
cand. med. Johannes
Privat

Prof. Dr. Eva Münster Höcker


Juniorprofessorin für Sozialmedizin / Public Health
Institut für Arbeits-, Sozial- und Umweltmedizin J
Johannes Höcker, geboren
Universitätsmedizin der Johannes 1985 in Clausthal-Zeller-
Gutenberg-Universität Mainz ffeld, studiert Medizin an
Obere Zahlbacher Str. 67 dder Johannes Gutenberg-
D-55131 Mainz Universität in Mainz. Nach
Tel. +49 (0) 6131-39 30 278 ddem ersten Abschnitt der
Fax +49 (0) 6131-39 36 680 äärztlichen Prüfung im Win-
Email: eva.muenster@uni-mainz.de ttersemester
t 2006 iistt er seit November 2007 als Dok-
http://www.uni-mainz.de/FB/Medizin/asu/ torand in der Arbeitsgruppe von Prof. Eva Münster
tätig. Sein Forschungsschwerpunkt ist die Gesund-
heitsversorgung von gehörlosen Menschen.

48
SPRACHWISSENSCHAFT

Silbensprachen versus Wortsprachen

Von Renata Szczepaniak

Silbensprachen wie etwa das Spanische oder Sprecherfreundliche Silbensprache versus


das Schweizerdeutsche sind leicht aussprechbar, hörerfreundliche Wortsprache
aber Wortsprachen wie das Standarddeutsche
sind in der Regel besser zu verstehen. Erstaun- Silben- und Wortsprachen repräsentieren die beiden
licherweise war auch das Deutsche einst eine typologischen Pole auf einer langen Skala. Beide
Silbensprache. Am Deutschen Institut wird das Typen kumulieren jeweils spezifische phonologi-
Potential dieser noch relativ jungen phonologi- sche Eigenschaften, die sich von den konkurrieren-
schen Sprachtypologie erforscht. Die zentrale den Sprecher- und Hörerinteressen ableiten. In einer
Frage ist, wie und warum sich Sprachen wan- sprecherfreundlichen Silbensprache, wie etwa dem
deln. Spanischen, werden leicht aussprechbare und gleich
geformte Silben bevorzugt, zum Beispiel: a las ocho
Auf typologische Unterschiede stoßen wir schon in [a.la.so.t¥So] „um acht Uhr“. Die Wörter und Wortfol-
unserem täglichen Umgang mit dem Deutschen. So gen bestehen meist aus dem Wechsel von Konsonant
beachten wir in der Standardaussprache von Wörtern (K) und Vokal (V) wie in a.la.so.cho VKVKVKV. Dies
wie Verein oder überall die morphologische Struktur garantiert zwar eine leichte Aussprache, erschwert
(Ver+ein, über+all). Hier fallen die Silben- mit den aber die Erkennung der Wort- und Morphemgrenzen.
Morphemgrenzen zusammen: Ver.ein und ü.ber.all. Darauf basieren im Spanischen viele Wortspiele, etwa
Punkte markieren dabei die Silbengrenzen. Doch vie- [so.lo.´U8e.Be] sol o llueve „Sonne oder es regnet“
le von uns kennen auch die regionalen, süddeutschen oder solo llueve „es regnet nur“.
Varianten Ve.rein und ü.be.rall. Hierbei werden die
© Renata Szczepaniak

Wörter ungeachtet der Morphemgrenzen in Silben Abb. 1: Vokale des Deutschen


(mit Berücksichtigung der
zerteilt. Diese beiden Aussprachemöglichkeiten sind
Zungenlage und -höhe).
Ausdruck unterschiedlicher typologischer Ausprägun-
gen. Wird – wie in der Standardsprache – die Mor-
phemstruktur exponiert, spricht man von Wortspra-
chen. Wird die Lautkette jedoch „blindlings“ in Silben
zergliedert – wie in der süddeutschen Aussprache –,
dann haben wir es mit einer Silbensprache zu tun.

An unserem Institut wird diese noch relativ junge


Silben- / Wortsprachen - Typologie weiterentwickelt.1
Bislang konnten wir zeigen, dass sich mit diesem Ei
Eine hö f dli h W
hörerfreundliche t
Wortspracheh profi fililiertt hi
hinge-
typologischen Ansatz Prinzipien aufdecken lassen, gen das Wort und fördert so die Dekodierung der
die den Sprachwandel steuern. Dieser Typologie liegt morphologischen Strukturen, das heißt der Informa-
das Bedürfnis des Sprechers nach leichter Aussprech- tionseinheiten. Im Deutschen werden Worteinheiten
barkeit und des Hörers nach leichter Dekodierbarkeit wie lachte oder Kinder unter anderem durch die
zugrunde.2 Am Beispiel des Deutschen haben wir wortbezogene Verteilung der Vokale hervorgehoben.
nachgewiesen, dass die typologische Umorientierung So enthalten nur betonte Silben einen Vollvokal wie
morphologische Konsequenzen nach sich ziehen a oder i. In unbetonten Folgesilben, oft Trägern gram-
kann, zum Beispiel die derzeitige Durchsetzung der matischer Informationen, kommen hingegen Reduk-
jüngeren, kurzen Genitivendung -s gegenüber der tionsvokale vor, die einem schwachen Murmellaut
älteren, langen Endung -es (vgl. des Werkes/Werks). ähneln (Abb. 1). Dies sind [ ], zum Beispiel in der Prä-
Auch die zunehmende Verwendung sogenannter teritalendung (lach-t[ ]), und [Œ], zum Beispiel in der
Fugenelemente wie -s in Veranstaltung-s-kalender Pluralendung (Kin.d[Œ]). Eine solche wortbezogene
gehört in diesen Zusammenhang. Unsere kontrasti- Vokaldistribution signalisiert dem Hörer also nicht
ven Arbeiten decken tiefgreifende typologische Un- nur die Worteinheit als solche, sondern auch die mor-
terschiede zwischen eng verwandten Sprachen und phologische (Informations-)Struktur. Ein Nachteil ist,
Dialekten auf. dass Wortsprachen komplexe, schwer aussprechbare
Silben, wie dt. Strumpf oder (des) Herbsts, fordern.

FORSCHUNGSMAGAZIN 2/2009 49
SPRACHWISSENSCHAFT

Typologische Parameter 2. Die Distribution der Vokale und


Konsonanten:
Konkret sind es die folgenden drei Parameter, die zur
Analyse des synchronen Sprachzustands oder von In Wortsprachen dient sie dazu, das Wort zu profi-
diachronen Veränderungen herangezogen werden:3 lieren. Im Deutschen markieren Vollvokale die soge-
nannte Stammsilbe, wie lach in lachte, die die lexi-
1. Die Silbenstruktur: kalische Information enthält, und heben diese von
Reduktionssilben wie te ab, die meist grammatische
Sie ist in Silbensprachen einfach und weist immer Informationen transportieren. In Silbensprachen tre-
einen monotonen Sonoritätsverlauf auf (Abb. 2). Im ten die gleichen Vokale sowohl in betonten als auch
Spanischen überwiegt die (universell optimale) KV- in unbetonten Silben auf, zum Beispiel ocho „acht“,
Silbe (zirka 60 Prozent aller möglichen Silbentypen), leche „Milch“ oder ala „Flügel“. Dies garantiert eine
20 Prozent machen KVK-Silben aus, zum Beispiel pan gleichmäßige Energieverteilung bei der Sprachpro-
„Brot“. Silbentypen mit zwei schließenden Konsonan- duktion. Wortsprachen hingegen kumulieren die
ten KVKK sind mit weniger als einem Prozent äußerst artikulatorische Energie auf der betonten Silbe, ver-
selten. Dadurch bestehen häufig ganze Sätze aus gleiche dazu span. sopa mit dt. Suppe. In Wortspra-
gleich geformten Silben: KVKV, zum Beispiel dí.me.lo chen unterliegen auch Konsonanten wortbezogenen
rá.pi.do „sag es mir schnell“. In Wortsprachen dage- Distributionsbeschränkungen. Im Deutschen treten
gen ist die Silbenstruktur sehr variabel; oft ist sogar beispielsweise behauchte Konsonanten nur am Wort-
der Sonoritätsverlauf verzerrt wie in gibst (Abb. 3). Im anfang auf, etwa [th] in [than.t ] „Tante“. Ähnlich ist
e
Deutschen wird durch die Komplexität des Silbenend- der Laut [h] nur am Wortanfang erlaubt, vergleiche
rands das Wortende hervorgehoben – auf Kosten der [h]aus oder [h]ase (Wortanfang) im Gegensatz zu
Aussprechbarkeit, beispielsweise in gibst, Strumpf, sehen [ze: n] (Wortmitte) und sah [za:] (Wortende). In
e
Herbsts. Das Wortende kann bis zu fünf Konsonanten Silbensprachen sind die Konsonanten nicht wortbe-
enthalten: He[Rpst¥s]. zogen distribuiert. Beschränkungen gibt es lediglich
hinsichtlich der Position innerhalb der Silbe. So wird
Abb. 2: im Spanischen eine konsonantisch geschlossene Silbe
© Renata Szczepaniak

Der Sonoritätsverlauf v
vermieden. Dies führt auch zur Tilgung von Plosiven,
innerhalb der Silbe. e
etwa in sep.tiem.bre > se.tiem.bre „September“.

3. Die Domäne phonologischer


3
Abb. 3:
(und phonetischer) Prozesse:
Die extrasilbischen
Konsonanten st in gibst [gıpst]. PPhonologische Prozesse verbessern in Silbenspra-
cchen die Silbenstruktur, während sie in Wortspra-
© Renata Szczepaniak

cchen das Wort hervorheben. Im Spanischen ist die


ssilbensprachliche Tendenz dafür verantwortlich, dass
ddie Silbenstruktur auch über Wortgrenzen hinweg
ooptimiert wird (sogenannte Resilbifizierung), zum
BBeispiel bei cenamos a las ocho „wir essen um acht
U
Uhr“ [Te.na.mo.sa.la.so.t¥So]. Die Resilbifizierung
findet auf Kosten der Erkennbarkeit von Wort- und
Morphemgrenzen statt. Im Deutschen werden Wort-
grenzen dagegen sehr stabil gehalten, das heißt
Resilbifizierungen kommen nicht vor. Zusätzlich wird
der Anfang einer vokalisch anlautenden Silbe wie in
acht oder Uhr mit dem sogenannten Glottisverschluss
[/] gestärkt: wir.[/]es.sen.[/]um.[/]acht.[/]Uhr.

50
SPRACHWISSENSCHAFT

In Silbensprachen treten Aussprache erleichtern-

© Renata Szczepaniak
de Assimilationen sowohl im Wortinneren (soge-
nannter Wortsandhi) als auch an Wortgrenzen auf
(sogenannter Satzsandhi): Im Spanischen wird n
vor g durchgehend velarisiert, zum Beispiel ven.ga
[beN.ga] (Wortsandhi) und con ganas [koN.ga.nas]
(Satzsandhi). Im Deutschen ist eine ähnliche Assi-
milation im Wortinneren zu finden, etwa bei Anker
[aN.kŒ].An Wortgrenzen wird sie blockiert, wodurch
diese gut erkennbar bleiben, zum Beispiel bei Kopf an
Kopf [kOp¥f./an.kOf].

Typologischer Wandel des Deutschen von einer


Silben- zu einer Wortsprache
Abb. 4: Fragment des althochdeut-
Das Deutsche hat in seiner 1.500-jährigen Geschichte Schweizerdeutsche hat den schon im Althochdeut- schen „Wessobrunner Gebets“
eine typologische Drift vom silben- zum wortsprach- schen bekannten Satzsandhi (das sogenannte Not- (fr. 9. Jh.) in diplomatischer Tran-
skription von Braune/Ebbinghaus5
lichen Pol vollzogen.4 Die Analyse der diachronen kersche Anlautgesetz) sogar ausgebaut. Eine seiner
(S. 85f.) mit neuhochdeutscher
Prozesse zeigt den allmählichen Abbau silbensprach- auffälligsten Eigenschaften besteht in wortübergrei- Übersetzung von Schlosser 6
licher Charakteristika, die noch im Althochdeutschen fenden Konsonantenassimilationen wie in nit furt > (S. 48f.).
(zirka 500 bis 1050 n.Chr.) zu finden waren. Beispiele ni.pfurt „nicht fort“, zahmfleisch „Zahnfleisch“ und
dafür sind unter anderem einfache Silbenstrukturen, ärpebe „Erdbeben“. Das Walserdeutsche hat wieder-
Vollvokale in betonten und unbetonten Silben so- um die schon im Althochdeutschen vorkommende
wie Aussprache erleichternde Vokaleinschübe: ahd. (silbensprachliche) Vokalharmonie weiter ausgebaut.
perg > pereg „Berg“ oder wurm > wurum „Wurm“ So passt sich der Mittelvokal e qualitativ an den Fol-
(Abb. 4). Im Mittelhochdeutschen (zirka 1050 bis gevokal an, daher schuulera > schuulara „Schüler“
1350) begann der typologische Umbruch. In dieser (Nominativ Plural) und schuuleru > schuuluru (Genitiv
Zeit wurden die unbetonten Vollvokale reduziert, zum Plural). Es ist zu vermuten, dass die Silbensprachlich-
Beispiel ahd. sunna > mhd. sunne „Sonne“. Anschlie- keit des Schweizer- einschließlich des Walserdeut-
ßend fanden Vokaltilgungen statt, durch die mehr- schen durch den intensiven Sprachkontakt mit den
silbige Wörter zu Zweisilbern reduziert wurden, wie (silbensprachlichen) romanischen Nachbarsprachen
etwa bei mhd. epfele > nhd. Äpfel. Der Trochäus hat gefördert wurde. So weist auch das an der Grenze zur
sich zum prototypischen Akzentmuster entwickelt. Romania gelegene Luxemburgische wortsprachliche
Im Frühneuhochdeutschen entstanden massenweise Parallelen zum Deutschen auf, darunter Reduktions-
sogenannte extrasilbische Konsonanten, beispiels- vokale in unbetonten Silben, zum Beispiel spuer[ ]n
e
weise st in gibst (Abb. 3). Sie trugen zur Vermehrung „sparen“, kultiviert aber gleichzeitig (wie das Franzö-
von komplexen, schwer aussprechbaren Konsonan- sische) phrasenbezogene Prozesse, darunter Resilbifi-
tenclustern bei, die das Wortende markieren. Der zierungen wie in en Auto „ein Auto“ [.nAU8.to].
rechte Wortrand wurde zusätzlich durch Konsonan-
teneinschübe gestärkt: mhd. mâne > (f)nhd. Mond Wechselwirkungen zwischen Phonologie
(vgl. engl. moon). Das Neuhochdeutsche baut die und Morphologie
Wortsprachlichkeit weiter aus, unter anderem durch
Vokaltilgung, zum Beispiel o.ben > o.b[m`]. Auf diese Die zunehmende Relevanz des phonologischen
Weise entstehen sogenannte silbische Konsonanten Wortes im Deutschen hat sich auf die Morphologie
wie [m`] in o.b[m`]. Silbische Konsonanten sind im ausgewirkt.8,9 Im Frühneuhochdeutschen, das eine
Deutschen auf unbetonte Silben beschränkt und ha- intensive Stärkung der Wortsprachlichkeit erfuhr,
ben dort die Funktion des Silbengipfels inne; diese entstanden sogenannte Fugenelemente wie in
Funktion wird im Optimalfall von Vokalen ausgeübt. Alter-s-gruppe, Bär-en-dienst. Dies sind umfunktiona-
Auch bei Fremdwörtern machen sich wortsprachliche lisierte Flexionsreste in univerbierten Genitivphrasen:
Entwicklungen bemerkbar, darunter die Schwächung des Teufels Sohn > der Teufel-s-sohn. Dass sie nicht ab-
der unbetonten Vokale wie in Asp[ ]rin. gebaut, sondern ganz im Gegenteil produktiv gewor-
e
den sind, ist auf ihre prosodische Funktion zurück-
Germanische Sprachen – typologisch zuführen. Die silbischen Fugenelemente garantieren
eine optimale (trochäische) Wortform (wie in Bär-en-);
Abweichend vom Standarddeutschen haben sich das produktive Fugen-s vergrößert den wortfinalen
das Schweizerdeutsche sowie insbesondere das am Konsonantencluster, verstärkt so den rechten Wort-
Südrand der Germania gelegene Walserdeutsche rand des ersten Kompositionsglieds und verdeutlicht
entwickelt.7 Unsere diachrone Analyse zeigt, dass die morphologische Komplexität des gesamten Wor-
beide Varietäten die alte Silbensprachlichkeit stär- tes, beispielsweise Alter-s-gruppe. Dies erleichtert die
ker konserviert haben als das Standarddeutsche. Das Dekodierung von Komposita.

FORSCHUNGSMAGAZIN 2/2009 51
SPRACHWISSENSCHAFT

Di typologischen Umwälzungen sind letztlich auch


Die Prof. Dr. Renata
Entnommen aus 9

Peter Pulkowski
fü den bis heute nicht abgeschlossenen Abbau der
für Szczepaniak
la
langen Genitivendung -es verantwortlich (vgl. des
W
Werkes/Werks). Der kurze s-Genitiv setzt sich zu- Renata Szczepaniak stu-
ne
nehmend auf Kosten des langen es-Genitivs durch. dierte Germanistik und Sla-
Ge
Gesteuert wird diese Entwicklung durch die in Wort- vistik in Poznan´ und Mainz.
sp
sprachen stark reglementierte Wortgröße. Unsere Die Promotion zum pho-
gr angelegte Analyse schriftlicher Korpora (Cosmas
groß nologisch-typologischen
II) die das Mannheimer Institut für Deutsche Sprache
II), Wandel des Deutschen
(ID bereitstellt (www.ids-mannheim.de), hat ge-
(IDS) schloss sie 2005 in Mainz
ze dass umfangreiche Wörter, darunter Komposita
zeigt, miti „summa cum llaude“d “ ab. Im Jahr 2006 war sie
Abb. 5: Relative Frequenz des
kurzen s-Genitivs und die wi Kunstwerk, Triebwerk usw., stärker zum kurzen
wie als Wissenschaftliche Angestellte im Projekt „Gram-
Wortgröße. s-Genitiv tendieren als Einsilber wie Werk (Abb. 5). matik des Deutschen im europäischen Vergleich“ am
Institut für Deutsche Sprache (IDS) in Mannheim tä-
Um diese noch sehr junge Typologie weiterzuentwi- tig. Im Herbst 2006 übernahm sie die Juniorprofessur
ckeln, richte ich im März 2010 in Zusammenarbeit mit für Historische Sprachwissenschaft des Deutschen in
Prof. Dr. Peter Auer an der Albert-Ludwigs-Universität Mainz. 2007 erhielt sie den Promotionspreis der Jo-
Freiburg den internationalen Workshop „Phonologi- hannes Gutenberg-Universität. Sie ist Mitautorin des
cal typology of syllable and word languages in theory 2006 im Narr-Verlag erschienenen Lehrwerks „Histo-
and practice“ aus. Die Finanzierung dieses Work- rische Sprachwissenschaft des Deutschen. Eine Ein-
shops übernimmt dankenswerterweise die Albert- führung in die Prinzipien des Sprachwandels“. Ihre
Ludwigs-Universität Freiburg. Dort sollen erstmals Publikationen und Vorträge behandeln verschiedene
die neuesten Erkenntnisse und Ergebnisse der stark Aspekte der diachronen Entwicklung des Deutschen,
international ausgerichteten Forschung zusammen- darunter Phonologie und Grammatikalisierung.
geführt werden.

■ Summary
The recently developed phonological typology of ■ Kontakt
syllable and word languages reflects the opposing
interests of the two communication participants – Prof. Dr. Renata Szczepaniak
listener and speaker. In a syllable language, the ease Juniorprofessorin für Historische Sprachwissenschaft
of articulation is of high importance, while in a word Deutsches Institut
language the facilitation of decoding is of highest Jakob-Welder-Weg 18
priority. In our Department of Historical Linguistics, D-55128 Mainz
we carry out contrastive and diachronic research in Tel. +49 (0) 6131-39 25 513
order to refine the typology, applying it on related and Fax +49 (0) 6131-39 23 366
unrelated languages, and to identify the phonology- Email: rszczepa@uni-mainz.de
morphology interaction. This typology can be used in
foreign language education.

Literatur

1. Auer P. Is a Rhythm-Based Typology Possible? A Study of the Role of Prosody in Phonological Typology. Univ. Konstanz. 1993.

2. Szczepaniak R. Wortsprachliches Deutsch und silbensprachliches Spanisch. Ein phonologisch-typologischer Vergleich. In: Estudios filológicos alemanes. Im Druck.

3. Auer P. Silben- und akzentzählende Sprachen. In: Haspelmath M et al. (Hrg.). Sprachtypologie und sprachliche Universalien. Ein internationales Handbuch. Bd. 2.2.
Handbücher zur Sprach- und Kommunikationswissenschaft 2001; 20: 1391-1399. Berlin, New York, de Gruyter.

4. Szczepaniak R. Der phonologisch-typologische Wandel des Deutschen von einer Silben- zu einer Wortsprache. Studia Linguistica Germanica 2007; 85. Berlin, New York,
de Gruyter.

5. Braune W & Ebbinghaus EA. Althochdeutsches Lesebuch. Tübingen, Niemeyer. 1994.

6. Schlosser HD (Hrg.). Althochdeutsche Literatur. Mit altniederdeutschen Textbeispielen. Auswahl mit Übertragungen und Kommentar. Berlin, Erich Schmidt. 2004.

7. Nübling D & Schrambke R. Silben- vs. akzentzählende Züge in germanischen Sprachen und im Alemannischen. In: Glaser E et al. (Hrg.). Alemannisch im Sprachvergleich.
Zeitschrift für Dialektologie und Linguistik 2004; Beiheft 129: 281-320. Stuttgart, Franz Steiner.

8. Nübling D & Szczepaniak R. On the Way from Morphology to Phonology. German Linking Elements and the Role of the Phonological Word. In: Morphology 2008; 18: 1-25.

9. Szczepaniak R. Während des Flug(e)s/des Ausflug(e)s: The Short and Long Genitive Endings in German between Norm and Variation. In: Lenz A & Plewnia A (Hrg.).
Grammar between Norm and Variation. Studies in Linguistic Variation. Im Druck. Amsterdam, John Benjamins.

52
K U LT U R W I S S E N S C H A F T

Britischer Film im Kontext von Kultur- und Medientransfer

Von Klaus Peter Müller

Der britische Film gilt als Teil des nationalen zeigen, wie neuere kognitionswissenschaftliche Er-
Kulturguts. Er wird in Institutionen wie dem Bri- kenntnisse bei der Filmanalyse und -rezeption ge-
tish Film Institute (BFI) gepflegt, das 2007 sei- winnbringend eingesetzt werden können.
ne ‚Strategy for UK Screen Heritage‘ vorgelegt
hat.1 Durch diese vom Staat mit 25 Millionen Anhand von vier Teilnehmer/innen lässt sich zeigen,
Pfund geförderte Kampagne soll der britische wie laufende Diskussionen aufgegriffen und weiter-
Film in allen Medien archiviert und präsentiert geführt werden: Andrew Higson, Greg-Dyke-Professor
werden. Aber kann der britische Film überhaupt für Film- und Fernsehwissenschaft an der Universität
als Einheit betrachtet werden? Eine interdiszi- York, lehnt den Begriff ‚britischer Film‘ ab, während
plinär besetzte Tagung in Germersheim widmet John Hill, Professor für Medienwissenschaft am Royal
sich der Thematik im Detail. Holloway College der Universität London, ihn behal-
ten will und für nützlich erklärt. Beide werden über
Die in den 1980er Jahren von der konservativen die Weiterentwicklung ihrer Gedanken zu diesem The-
Regierung Thatcher forcierte Pflege des nationalen ma und zum britischen Film im ersten Jahrzehnt des
Kulturerbes hat ihren parteipolitischen Charakter ver- 21. Jahrhunderts sprechen. John Caughie, Professor
loren, aber die nationale Komponente bewahrt. Ent- für Film- und Fernsehwissenschaft an der Universität
sprechend betont das BFI: „We want the Strategy to Glasgow, wird sich demgegenüber zum schottischen
be truly national.“ Die Strategie ist damit untrennbar Film äußern, während Charlotte Brunsdon, Professo-
mit der Frage nach der kulturellen Identität Großbri- rin für Film- und Fernsehwissenschaft der Universität
tanniens verbunden, die seit zwei Jahrzehnten ver- Warwick, die nationale Kategorie durch eine regio-
stärkt diskutiert wird. Stichworte sind hier unter an- nale bzw. städtische ersetzt. Sie untersucht, wie Film
derem ‚Verlust des Empire‘, ‚devolution‘, ‚Ethnien in die Raumvorstellungen, speziell der Weltstadt Lon-
GB‘ und ‚EU‘. Großbritannien ist ja gar keine Nation, don, präsentiert und verändert. So werden traditio-
sondern ein Staat, bestehend aus den Nationen Eng- nelle Kategorien aufgegriffen und transformiert, es
land, Schottland und Wales. Ist also das Insistieren zeigt sich das Verhältnis des Mediums Film zur Kultur
auf einem nationalen britischen Film ein politisches bzw. zur gelebten Realität der Zu-

© Filmemacher
Rückzugsgefecht? Welches kulturelle Selbstverständ- schauer/innen und zu der im Film
nis zeigen denn britische Filme heute? Ein globales, dargestellten Welt, und es wird
europäisches, britisches, nationales, regionales, eth- erkennbar, wie in und mit Medien
nisches, gruppenspezifisches oder ein individuelles? Grenzen vielfältigster Art, spezi-
Inwiefern werden kulturelle Aspekte überhaupt im ell die der Kulturen und Medien
Film reflektiert und wie eignet er sich für deren Dar- selbst, überschritten, erweitert
stellung? Gibt es besondere Probleme beim Transfer oder überflüssig gemacht wer-
in eine andere Sprache und Kultur? Wie verändern den. Dadurch ändern sich auch
sich Kulturspezifika sowie deren Darstellung und Beschreibungs- und Wahrneh-
Wahrnehmung, wenn sie in verschiedenen Medien, mungskategorien für die Medien
etwa in Romanen und Filmen, aber auch in Überset- und eventuell sogar für die erleb-
zungen, präsentiert werden, und wie beeinflusst die ten Realitäten.2
aktuelle Medienkonvergenz das Verstehen kultureller This Is England
Differenzierungen? ‚This Is England‘ (2007) erhebt schonh imi Titel
Tit l den
d (Shane Meadows 2007).
Anspruch, ein Bild von England zu zeigen. Allerdings
Diesen Fragen widmet sich eine internationale ist es eine Darstellung des Jahres 1983 aus der Sicht
Tagung, die im Februar 2010 am Fachbereich 06 von des 21. Jahrhunderts mit autobiographischen Elemen-
der Anglistik durchgeführt wird und zu der Personen ten aus dem Leben des Regisseurs Shane Meadows
aus der Film-, Fernseh-, Medien-, Sozial-, Kommuni- (geb. 1972). Ebenso wie die Hauptfigur, der zwölfjäh-
kations-, Politik-, Literatur-, Kultur- und Translations- rige Shaun, wuchs Meadows in Mittelengland unter
wissenschaft, Anthropologie, Soziologie, Geographie, Skinheads auf. Der Film präsentiert die soziale und
Kunstgeschichte sowie von Medienkunst und Design politische Situation Jugendlicher nach dem Falkland-
eingeladen wurden. Durch die Konferenz soll die für krieg und stellt Phänomene der Zeit heraus (Zerfall
eine Beschreibung des Mediums Film notwendige der Innenstädte, Rechtsradikalismus, Immigration),
interdisziplinäre Zusammenarbeit gestärkt werden. die geschickt mit dem persönlichen Erleben Shauns
Außerdem werden Untersuchungen vorgestellt, die verbunden werden. Dies ist eine Moment- und

FORSCHUNGSMAGAZIN 2/2009 53
K U LT U R W I S S E N S C H A F T

Zeitaufnahme Englands – weshalb der Titel notwen- meinsamen Kulturgutes zu belegen. Dieses Ziel wur-
digerweise hyperbolisch bleibt – die aber so zutref- de laut Zuschauerreaktionen erreicht. Die Bedeutung
fend und relevant ist, dass der Film beim Londoner des Fernsehens für die Förderung des britischen Films
Filmtreffen 2007 als ‚Best Independent Film‘ ausge- hat seit 1982 enorm zugenommen und wird im Rah-
zeichnet wurde. men dieses Projekts für die BBC und für Film 4 näher
untersucht.
Gleichzeitig sind die Jugendkultur, die sich mit ihr
verbindende Musik und die sozialen wie politischen ‚Hallam Foe‘ (2007) wurde von Film 4, Ingenious
Probleme alles andere als regional- oder nationalspe- Film Partners sowie Scottish Screen und Glasgow
zifisch. Hier werden am Beispiel von England im Jahr Film Finance Ltd. produziert und wird auch wegen
1983 europäische Probleme gezeigt, die im Jahr der der Regie des Schotten David Mackenzie (geb. 1966)
Filmpremiere immer noch relevant waren. Reduziert als Beispiel für den gegenwärtigen schottischen Film
sich also das Britische auf Lokalität und Sprache? gesehen. Erzählt wird die Geschichte des 17-jährigen
Die deutsche Synchronisation wird heftig getadelt. Hallam, seine Suche nach Wahrheit über den Tod der
Was ist schief gelaufen, wenn geklagt wird, dass die Mutter und seine Identität. Der Film spielt im schotti-
Dialoge im Deutschen flach, an den Haaren herbeige- schen Hochland und in Edinburgh. Historisch geschul-
zogen und sinnlos wirken, im Original dagegen au- te Betrachter werden durch die Lokalitäten, Figuren
thentisch und überzeugend?3 Solche Fragen werden sowie durch die Thematik des Erwachsenwerdens
im Fachbereich 06 aus der translationswissenschaft- und des Ablegens einer einseitigen Weltsicht an die
lichen Perspektive behandelt und auf der Tagung bei Walter Scott am eindringlichsten dargestellte
sowohl wissenschaftlich als auch praktisch beurteilt. Entwicklung Schottlands von einer Clan-Gesellschaft
Ein bis zwei Leiter/innen von Synchronstudios wer- zu einer modernen Nation erinnert. Die im 18. Jahr-
den zusammen mit Verena Blümner, die eine mehr als hundert entstandene schottische Aufklärungshistorie
20-jährige Berufserfahrung als Übersetzerin und mit beschrieb den gesellschaftlichen Verlauf vom Na-
Filmsynchronisationen besitzt, derartige Probleme turzustand des Menschen zu dessen Organisation
kultureller Grenzüberschreitungen thematisieren. in fortschrittlichen Ländern und stützte die 1707
beschlossene, aber ständig umstrittene Verbindung
d schottischen Parlaments mit dem englischen und
des
Quelle: http://www.bbc.co.uk/britishfilm/summer/

w
walisischen in Westminster. Scotts Romane ab 1814

förderten diese Bindung an England und sahen eine
A
Abkehr von der patriarchalisch organisierten Gesell-
s
schaft der schottischen Hochländer zu einer rationa-
li
listisch und auf parlamentarisch geprägter Legalität
b
beruhenden Form als notwendig an, um Schottland
e
erfolgreich weiterzuentwickeln. ‚Hallam Foe‘ könnte
d
daher ähnlich gedeutet werden, nämlich als Dar-
st
stellung der sich seit zwei Jahrzehnten stark in der
E
Entwicklung befindlichen Befreiung und Verselbstän-
Summer of British Film 2007
d
digung Schottlands aus der Bindung an Großbritanni-
(Fernsehserie der BBC).
Der königliche Auftrag an die BBC, die Bevölkerung en. Allerdings passt das wenig zu den Marktgesetzen,
zu informieren, zu bilden und zu unterhalten, wurde die Film generell dominieren und die der deutsche
2005 erneut formuliert und mit Zielen verbunden, die Titel sofort zum Ausdruck bringt: ‚Hallam Foe –
die Darstellung Großbritanniens, neueste Kommuni- Anständig durchgeknallt‘ wird für Personen im Al-
kationstechnologien, Bildung von Staatsbürgerschaft ter des Protagonisten präsentiert. Alle schottischen
und Zivilgesellschaft, Lernen sowie die Förderung Bezüge sind sekundär zugunsten des Hauptthemas
von Kreativität und kultureller Exzellenz betreffen.4 „Jugendliche“, verbunden mit Problemen des Heran-
Die Fernsehreihe von 2007 über den britischen Film wachsens, Entdeckens von Sexualität und der Suche
steht zu all diesen Zielen in Bezug, besonders aber zu nach persönlicher Identität.
der rational wie emotional angestrebten Konstrukti-
© Filmemacher

on, Pflege und Weiterentwicklung des nationalen


Selbstverständnisses.5 Die Informationssendungen
über die Genres Krimi, Liebesgeschichte, Sozialer
Realismus, Historienfilm, Horror & Fantasie, Kriegs-
film und Komödie wurden durch das Ausstrahlen
von britischen Beispielen begleitet, die historisch mit
‚A Cottage at Dartmoor‘ (1929) anfingen und mit
‚The Plague‘ (2006) endeten. Die bekanntesten der bei
der BBC verfügbaren Filme wurden in den Program-
men von BBC 1 bis 4 gezeigt, um das hohe Niveau,
das Ausmaß und die weltweite Bekanntheit des ge- Hallam Foe (David Mackenzie 2007).

54
K U LT U R W I S S E N S C H A F T

Dass erheblich mehr in diesem Film steckt und des-

© Filmemacher
halb auch die nationale Perspektive präsent ist, macht
eine Besprechung deutlich, die auf „zahllose Bezüge
zu anderen filmischen oder literarischen Werken“
hinweist: „Von Hamlet bis Hitchcock wimmelt es vor
Zitaten. Und so scheint es, als seien die geistigen Vä-
ter unserer Kulturgeschichte in diesem Film ebenso
allgegenwärtig und bestimmend wie die verlorene
Mutter in Hallams Welt. Bilder unseres kollektiven
medialen Gedächtnisses finden sich hier inszeniert
und revitalisiert, die eine Atmosphäre des Erinnerns
und Nicht-Loslassen-Könnens anstimmen. Der innere
Tumult der Hauptfigur und deren Unvermögen, mit
Vergangenem abzuschließen, werden somit quasi auf
die filmstilistische Ebene projiziert.“6 Genau hier fin-
det sich auch die nationale Perspektive, die deutlich St Trinian‘s (Oliver Parker &
hörbar präsent ist, gleichzeitig aber auch in Frage ge- und ethnischer Identität, Freiheit und Verantwortung Barnaby Thompson 2008).
stellt wird durch den Britrock-Soundtrack von Franz zeigen, welches aufschlussreiche Gemeinsamkeiten
Ferdinand und anderen. Die Filmmusik wurde auf der mit der von Ulrich Beck beschriebenen „Weltrisiko-
Berlinale 2007 mit dem Silbernen Bären prämiert. gesellschaft“ (2008) aufweist.
Auch hier ist Musik bisher nur als Mittel zum An-
locken jugendlicher Zuschauer in Erwägung gezogen ‚St Trinian's‘ (2008) ist eine typische Ealing-Komödie,
worden und noch nicht ausreichend eingebettet im an der sich die Geschichte dieser Filmgattung und ihre
Kontext von Kultur- und Medientransfer. Charakteristika, sowohl die sich mit der Zeit verän-
dernden als auch die konstanten, sowie Elemente der
aktuellen Medienkonvergenz gut aufzeigen lassen.
© Filmemacher

Obwohl es auch um internationale Phänomene, wie


Erziehungs- und Generationenprobleme, speziell um
Girl-Power geht, haben Zuschauer immer wieder den
Eindruck, dass eine typisch britische Form von Humor
präsentiert wird: „Die britischste, schwarzhumorigste
Antwort auf den ganzen Ami-Teenie-Einheitsmüll, die
man sich vorstellen kann!“7 Was wirklich britisch ist,
was in andere kulturelle Kontexte gehört und wie
sich Kulturen vermischen (z. B. ist auch von der Ver-
bindung der Addams Family mit den Spice Girls die
Bride and Prejudice (Gurindher Chadha 2004) Rede), muss jetzt genauer untersucht werden. Eben-
so ist die Frage zu klären, ob die Beteiligung unter-
Das Bild aus ‚Bride and Prejudice‘ (2004) ver- schiedlicher Medien am Film, an seiner Vermarktung
deutlicht den hohen Grad an Intertextualität und und Rezeption, nur eine forcierte Variante bekannter
-medialität dieses Films von Gurindher Chadha. Die Formen des Medientransfers ist oder ob sie eine neue
Inderin wurde 1960 in Kenia geboren und lebt seit Qualität erreicht hat, nämlich die der Medienkonver-
1961 in London. Inder werden in den kulturellen genz. Lässt sich wirklich schon dezidiert sagen, dass
Kontexten Indiens, Großbritanniens und der USA mit Medienkonvergenz ein Paradigmenwechsel ein-
gezeigt. Chadha nutzt Jane Austens Klassiker ‚Pride hergeht, so dass sich nicht nur Medienprodukte in
and Prejudice‘ (1813), um dessen Hauptthemen in ihrer Herstellung und Vermarktung fundamental än-
die Gegenwart zu übertragen. Die Geschlechter- und dern, sondern ebenso ihre Rezeption und sogar die
Generationenprobleme sind weitgehend erhalten immer durch Medien bedingte Wahrnehmung von
und einer Komödie entsprechend behandelt, die Klas- Wirklichkeit? Dies ist die Zielperspektive des Projekts,
senspezifik dagegen wird bewusst in ein ethnisches das zuerst eine Beschreibung der Qualitäten des
Problem verwandelt. Aufschlussreiche Medien- und britischen Films für den Kultur- und Medientransfer
Kulturtransfers finden statt, die im Bild plakativ prä- liefern will. Anschließend soll geprüft werden, ob die
sent sind: Kholi ist ein Inder, der in Los Angeles lebt Bezeichnung ‚Konvergenzkultur‘, die Henry Jenkins
und die amerikanische Lebensweise in parodistischer 2006 schon etwas voreilig für unsere Zeit verwende-
Übersteigerung repräsentiert. Der Film selbst mischt te, wirklich passend ist und, wenn ja, welche Charak-
Hollywood- und Bollywoodfilme mit britischen teristika sie aufweist.
‚comedies of manners‘, also Sittenkomödien, die ge-
sellschafts- und sozialkritische Perspektiven enthal-
ten. Er gehört in eine Reihe aktueller britischer Filme,
die ein neues Verständnis von individueller, nationaler

FORSCHUNGSMAGAZIN 2/2009 55
K U LT U R W I S S E N S C H A F T

■ Summary Univ.-Prof. Dr.

Privat
This project investigates film as a means of expressing, Klaus Peter Müller
understanding and transferring cultures. Film is an
international business, so where does British film Klaus Peter Müller, Jahrgang
come in, and what about English and Scottish film? 1950, ist seit 2002 Profes-
Is film particularly suited and currently used for the ssor für British Studies und
representation of national characteristics? Film rather Übersetzungswissenschaft
questions such ideas as well as traditional concepts in der Anglistik des Fach-
of space, identity, and politics, and an international bbereichs 06 der Johannes
conference will show how this is done, whether new G
Gutenberg-Universität. Be-
concepts are created, and how media convergence is fliiche
rufl h EEntwicklung
t i kl undd Lehre an den Universitäten
changing people’s awareness of media and reality. Bonn (Promotion), Düsseldorf (Habilitation), Hum-
boldt-Universität Berlin, Dresden, Leipzig und Stutt-
gart. Forschungsschwerpunkte und Publikationen
zu Kultur-, Translations- und Literaturwissenschaft,
Medien(transfer), Kultur im Kontext von Epistemo-
Literatur logie, Konstruktivismus und Hermeneutik sowie zu
Konzepten der Moderne.
1. http://www.bfi.org.uk/about/policy/pdf/screen_
heritage_07_screen.pdf

2. http://www.fask.uni-mainz.de/inst/iaa/tagung/ ■ Kontakt

3. http://www.amazon.de/This-England-Special-Thomas- Univ.-Prof. Dr. Klaus Peter Müller


Turgoose/dp/B000X8NP3S/ref=sr_1_1?ie=UTF8&s= Abteilung für Anglistik, Amerikanistik und Anglophonie
dvd&qid=1243013588&sr=1-1) Johannes Gutenberg-Universität Mainz
4. http://www.bbc.co.uk/info/purpose/public_purposes/ FB 06 Angewandte Sprach- und Kulturwissenschaft
index.shtml An der Hochschule 2
D-76711 Germersheim
5. http://www.bbc.co.uk/britishfilm/summer/
Tel. +49 (0) 7274-50 83 52 40 (-547 Sekretariat)
6. http://www.critic.de/filme/detail/film/hallam-foe-965.html Fax +49 (0) 7274-50 83 55 40
7. www.new-video.de/film-die-girls-von-st-trinians/ Email: kmueller@uni-mainz.de

56
GESCHICHTE

Gesellschaftliche Wertveränderungen
in Moderne und Postmoderne
Von Andreas Rödder und Christopher Neumaier

© Der Spiegel
Ein von der Deutschen Forschungsgemeinschaft dungsstreben, Gemeinwohlorientierung, Religiosität
gefördertes Projekt untersucht erstmals den und Familie auch vom ausklingenden 19. Jahrhun-
Wertewandel in historischer Perspektive, das dert bis zum „Wertewandelsschub“ der 1960er und
heißt vom Ende des 19. Jahrhunderts an bis 1970er Jahre, das heißt in historischer Perspektive
heute. Wann, wie, wodurch und warum haben veränderten und wenn ja, wie? Beschreibt ein moder-
sich gesellschaftliche Wertsysteme verändert? nisierungstheoretisches Modell die gesellschaftlichen
Welche Bedeutung haben Werte für den gesell- Veränderungen hinreichend? Die Ergebnisse der so-
schaftlich-kulturellen Wandel? zialwissenschaftlichen Wertewandelsforschung sind
fragmentarisch geblieben, da die von ihr gewählte
„Die Ego-Gesellschaft. Jeder für sich und gegen alle“ Methode der Umfrageforschung einer dreifachen
titelte der Spiegel 1994. Die Bundesbürger hatten Beschränkung unterliegt. Erstens sind die von ihr
sich Anfang der 1990er Jahre scheinbar der eigenen generierten Umfragen methodisch auf die Messung
Bedürfnisbefriedigung hingegeben, während sie Ge- von Aussagen beschränkt. Zweitens sind damit the-
meinschaftswerte nicht mehr als handlungsleitende matische Grenzen gesetzt, da lediglich nach Gegen-
Maxime ansahen. Im öffentlichen Diskurs wurde die- ständen gefragt werden kann, die durch Umfragen
Titelblatt „Der Spiegel“,
se Veränderung mit dem Schlagwort „Werteverfall“ zu erfassen sind. Komplexe gesellschaftliche Verän- Ausgabe 22/1994.
beschrieben. Bereits Mitte der 1970er Jahre hatte die derungen werden dagegen nicht erschlossen. Drit-
Leiterin des Allensbacher Instituts für Demoskopie, tens sind Survey-Forschungen zeitlich eingegrenzt,
Elisabeth Noelle-Neumann, einen Verfall klassischer da sie ihre Daten erst erheben müssen. Aussagen
Werte wie Leistungsbereitschaft beklagt. Beinahe zu Wertveränderungen vor Beginn der sozialwissen-
zeitgleich beschäftigte sich der US-amerikanische Po- schaftlichen Wertewandelsforschung sind damit nicht
litologe Ronald F. Inglehart mit Wertveränderungen, möglich.
die er als Ablösung materialistischer durch postma-
terialistische Wertvorstellungen interpretierte. Binnen Soziologen selbst reflektieren diese Begrenzung ihrer
weniger Jahre habe sich dieser Wandel in den west- eigenen Forschung und fragen nach dem Stellenwert
lichen Gesellschaften – so sein aufsehenerregender des von ihnen bestimmten Wertewandels im Hinblick
Buchtitel aus dem Jahr 1977 – als „stille Revolution“ auf langfristige gesellschaftliche Wandlungsprozes-
vollzogen. se. An dieser Stelle setzt das DFG-geförderte Pro-
jekt „Wertewandel in Moderne und Postmoderne“
In Deutschland prägte der Speyerer Soziologe Helmut am Historischen Seminar der Johannes Gutenberg-
Klages die sozialwissenschaftliche Wertewandelsfor- Universität an. Es historisiert die Ergebnisse der so-
schung. Seiner Auffassung nach wurden zwischen zir- zialwissenschaftlichen Wertewandelsforschung und
ka 1965 und 1975 Pflicht- und Akzeptanzwerte wie fragt: Wann, wie, wodurch und warum haben sich
Disziplin und Leistung durch Selbstentfaltungswerte gesellschaftliche Wertsysteme verändert? Welche
wie Emanzipation und Selbstverwirklichung abgelöst. Bedeutung haben Werte für den gesellschaftlich-
Klages betonte dabei stets, dass Pflicht- und Akzep- kulturellen Wandel?
tanzwerte, die sich weithin mit bürgerlichen Tugenden
decken, nicht völlig verschwanden, sondern neben „Mainzer Wertewandelsdreieck“
den Selbstentfaltungswerten weiter existierten. Da-
mit unterscheidet er sich von Inglehart, der noch von Durch eine zeitliche, methodische und thematische
einer Ablösung der „alten“ durch „neue“ Wertvor- Erweiterung der sozialwissenschaftlichen Werte-
stellungen gesprochen hatte. Gemeinsam sind diesen wandelsforschung können die bisher erfassten
unterschiedlichen Ansätzen indessen die Periodisie- Wertveränderungen im späten 20. Jahrhundert his-
rung und die Stoßrichtung des Wertewandels. Sie da- torisch verortet sowie qualitative Unterschiede und
tieren den Zeitpunkt des Wandels durchweg auf den Gemeinsamkeiten zu früheren Wertewandelsprozes-
Zeitraum von etwa 1965 bis 1975 und beschreiben sen bestimmt werden. Werte werden als allgemeine
ihn als linear-teleologischen Modernisierungsprozess und grundlegende Orientierungsstandards definiert,
von traditionalen bürgerlichen Werten hin zu postma- die für das Denken, Reden und Handeln auf indivi-
terialistischen Selbstentfaltungswerten. dueller und kollektiver Ebene Vorgaben machen und
dabei explizit artikuliert oder implizit angenommen
Unklar ist allerdings bis heute, ob sich die klassischen werden. Das Mainzer Projekt baut auf das sozial-
„bürgerlichen Werte“ wie Leistungsbereitschaft, Bil- philosophische Werteverständnis von Hans Joas auf,

FORSCHUNGSMAGAZIN 2/2009 57
GESCHICHTE

der die Bedeutung von Werten in einem wechsel- für Themen, die sich zugleich in interkultureller Per-

© Andreas Rödder, Christopher Neumaier, Jörg Neuheiser


Werte seitigen Wirkungsverhältnis mit sozialen Praktiken spektive und in internationaler Kooperation erfor-
und Institutionen (wie rechtlichen Regelungen oder schen lassen, um von Mainz aus eine systematische
materiellen Strukturen) verortet, ohne dass einer der und umfassende historische Wertewandelsforschung
Faktoren eindeutig vorgeordnet wäre. Daran knüpft zu etablieren.
das „Mainzer Wertewandelsdreieck“ an, das in his-
torisch-diachroner Perspektive nach dem Verhältnis Wertewandel in der Arbeitswelt
dieser Faktoren fragt und die Entwicklung dieses Ge-
füges empirisch untersucht. Das Teilprojekt „Wertewandel in der Arbeitswelt“
untersucht die Entwicklung und die Bedeutung des
Erstens sollen die Diskurse über Werte anhand der bürgerlichen Arbeitsethos in der Arbeitswelt im
Institu- Soziale Institutionen untersucht werden, die sich selbst als Deutschland des 20. Jahrhunderts. Gab es eine dau-
tionen Praktiken wertsetzend begreifen oder aber Werteentwicklun- erhafte Erosion des bürgerlichen Arbeitsideals oder
gen reflektieren: Regierung, Parteien, Gewerkschaf- eher einen Gestaltwandel? In welcher Beziehung
Mainzer Wertewandelsdreieck. ten und Kirchen; Massenmedien wie Tageszeitungen stand das bürgerliche Arbeitsethos zu alternativen
und Zeitschriften greifen diese Diskurse auf, führen Wertvorstellungen? Oder handelte es sich bei solchen
sie ihrerseits und kommunizieren somit die unter- Alternativen um gegensätzliche Interpretationen des
schiedlichen Standpunkte bzw. die machtbehafteten Ideals durch unterschiedliche soziale Gruppen? Wel-
Auseinandersetzungen über Wertvorstellungen in che Kommunikations- und Vermittlungsmechanismen
einer breiteren Öffentlichkeit. In einem zweiten Ar- von Werten lassen sich im Bereich der Arbeitswelt
beitsschritt werden die institutionellen Rahmenbe- beobachten? Die Schwerpunkte bei der empiri-
dingungen und die soziale Praxis ermittelt. Drittens schen Umsetzung liegen auf Aushandlungsdiskursen
werden – dies ist der letztlich entscheidende Schritt und sozialen Praktiken, die sich über das gesamte
des Projekts – die Korrelation zwischen Werten, In- 20. Jahrhundert erstrecken und damit eine historische
stitutionen und sozialer Praxis sowie die kausalen Längsschnittuntersuchung erlauben. Zu den mögli-
Wechselbeziehungen der drei Faktoren des Mainzer chen Themenkomplexen zählen Debatten um Arbeits-
Dreieckmodells bestimmt. Das Projekt soll Aufschluss zeit und Arbeitslosigkeit, um Konflikte im Verhältnis
geben, ob und wann Wertewandel eine Folge verän- von Arbeitgebern zu Arbeitnehmern oder um die
derter sozialer Praxis wie auch institutioneller Arran- Rolle der Frauenarbeit, allgemeiner um den Gegen-
gements war – und ob bzw. wie Veränderungen auf satz von Arbeit und Freizeit sowie die Bestimmung
der Ebene der Wertediskurse zu Änderungen von Ver- dessen, was Arbeit und Nicht-Arbeit heißt.
halten und von Institutionen führten.
Familiäre und familiale Werte im Wandel
Historische Wertewandelsforschung
Das zweite Projekt thematisiert die Rolle der Werte
Historische Wertewandelsforschung ist ein neues für den Wandel der Familienstruktur im Zeitraum vom
Forschungsfeld der Geschichtswissenschaften. An- Deutschen Kaiserreich bzw. vom Beginn der Hoch-
dreas Rödder hat die Projektidee mit nach Mainz moderne bis zur Wiedervereinigung des geteilten
gebracht, als er 2005 den Lehrstuhl für Neueste Deutschlands inmitten der Postmoderne. Familie fun-
Geschichte übernahm. Nachdem die DFG 2007 eine giert über diesen Zeitraum als exemplarischer Quer-
erste Projektstelle bewilligte, wurden gemeinsam mit schnitt der gesellschaftlichen Veränderungen, und sie
den beiden wissenschaftlichen Mitarbeitern Christo- ist für die Biographie fast jedes Menschen der zen-
pher Neumaier und Jörg Neuheiser der methodisch- trale Ort der Sozialisation. Unter Familie wird dabei
theoretische Rahmen des Forschungsvorhabens so- keineswegs ausschließlich die bürgerliche Kernfami-
wie die Einzelprojekte entwickelt. Dazu trug nicht lie verstanden, sondern es werden sämtliche Formen
zuletzt ein interdisziplinärer Kick-Off-Workshop mit intergenerationeller Lebensgemeinschaften berück-
auswärtigen Historikern und dem Team des Mainzer sichtigt. Ganz bewusst wurde ein möglichst hohes
Familiensoziologen Norbert F. Schneider bei. Vorträge Abstraktionsniveau gewählt, um in der Perspektive
an den Universitäten Frankfurt und Bielefeld stellten nicht eingeschränkt zu sein.
die Konzeption zur Diskussion und belegten zugleich
ihre Tragfähigkeit. Unter dem Dach des Gesamtpro- Der Wandel familialer und familiärer Werte wird im
jekts „Werte und Wertewandel in Moderne und Post- Detail anhand von vier Untersuchungsgegenstän-
moderne“ werden zurzeit die beiden empirischen den behandelt. Erstens wird nach dem Wandel der
Teilstudien „Wandel familialer und familiärer Werte gesellschaftlich gehandelten Familienbegriffe bzw.
in Deutschland, 1880 -1990“ sowie „Arbeitsethos, Familienleitbilder sowie nach den Veränderungen
Leistungsbereitschaft und Einstellungen zur Arbeit der Morphologie und der Binnenstruktur der Familie
in Deutschland im 20. Jahrhundert“ erarbeitet. Von gefragt. Zweitens wird die Funktion der Familie für
diesem Kern aus ist das Projekt auf vielfältige Er- die Gesellschaft bestimmt. Welche Funktion wurde
weiterungen angelegt; militärische und zivile Werte, der Familie in den Augen der gesellschaftlichen Eliten
Gemeinwohl oder Heimat sind nur wenige Beispiele zugedacht? Wurden die Aufgaben der Familie für die

58
GESCHICHTE

Gesellschaft in erster Linie moralisch, demografisch changing of values from the late 19th century up to
oder wirtschaftlich begründet? Drittens werden die the 1960s. When, how and why did values change
Wertvorstellungen innerhalb der Familie analysiert. in the 20th century? The research project “Value
Wie kommunizierten Eltern Erziehungswerte und wie Change in Modernity and Post-Modernity” addresses
gaben sie dabei die den Familienmitgliedern zuge- these questions. It aims to locate the value change
dachten Rollen an ihre Kinder weiter? Welche Wech- identified by social scientists within the processes of
selbeziehungen bestanden zwischen vorgelebter Re- cultural change in the 20th century.
alität und erzieherischer Vermittlung? Abschließend
werden „abweichendes Verhalten“ wie voreheliche
Sexualität und gesellschaftliche Sanktionierung be-
trachtet. Wurden Abweichungen von den postulier- Univ.-Prof. Dr. Andreas Rödder

Christoph Mukherjee
ten Werten sanktioniert, wurden sie geduldet, aber
diskursiv verurteilt, oder wurden sie akzeptiert? Oder A
Andreas Rödder, geboren 1967 in Wissen (Sieg), studierte Geschich-
verloren die Werte ihre Verbindlichkeit und wurden tte und Germanistik in Bonn und Tübingen und wurde 1995 mit einer
gar durch andere Wertvorstellungen ersetzt? Dissertation über „Stresemanns Erbe. Julius Curtius und die deut-
ssche Außenpolitik 1929-1931“ in Bonn promoviert. Von 1994 bis
Ausblick 22005 lehrte er als Wissenschaftlicher Assistent, seit 2001 als Hoch-
sschuldozent an der Universität Stuttgart, wo er sich 2001 mit einer
Die Komplexität des Wechselverhältnisses zwischen SStudie über „Die politische Kultur der englischen Konservativen zwi-
Werten, Institutionen und sozialer Praxis lässt darauf sschen ländlicher Tradition und industrieller Moderne 1846-1868“
schließen, dass die von den Sozialwissenschaften als h bili i
habilitierte. 2001/02 war er Stipendiat am Historischen Kolleg in München, 2004 Gastpro-
Referenz herangezogenen „bürgerlichen Werte“ vor fessor an der Brandeis University, Boston (Ma.). Seit dem Sommersemester 2005 ist Andreas
1965 keinesfalls unumstritten und allgemein akzep- Rödder W3-Professor für Neueste Geschichte an der Johannes Gutenberg-Universität mit
tiert waren. Die gesellschaftlichen Werteinstellungen dem Schwerpunkt Internationale Geschichte des 19. und 20. Jahrhunderts. Seine bisherigen
zur Arbeit im 20. Jahrhundert etwa waren in sich Forschungsschwerpunkte liegen auf dem viktorianischen England und der Geschichte des
heterogen und unterlagen einem permanenten Wan- Konservatismus, der Weimarer Republik und der internationalen Politik der Zwischenkriegs-
del, weshalb bei den Arbeitswerten nicht von einem zeit sowie der Geschichte der Bundesrepublik Deutschland insbesondere in den 70er und den
klaren Bruch der Wertvorstellungen im Zeitraum von 80er Jahren. Unter dem Titel „Deutschland einig Vaterland“ erschien 2009 im Münchener
1965 bis 1975 gesprochen werden kann. Vorläufige Beck-Verlag seine vielbeachtete „Geschichte der deutschen Wiedervereinigung“.
empirische Befunde zu den familialen und familiären
Werten deuten darauf hin, dass bereits in den 1920er
Jahren öffentliche Debatten über eine „Krise der Christopher Neumaier, M.Phil.
C
Andreas Linsenmann

Familie“ geführt wurden und dieser Topos nicht erst


mit dem sozialwissenschaftlich gemessenen Wer- C
Christopher Neumaier, geboren 1978, studierte Neuere und Neue-
tewandel aufkam. Allerdings wurde zwischen 1965 sste Geschichte, Sozial- und Wirtschaftsgeschichte sowie Soziologie
und 1975 erstmals die Familie selbst in Frage gestellt, aan der Ludwig-Maximilians-Universität München und European
und damit trat ein qualitativer Unterschied zur Verän- SStudies an der University of Cambridge. Seine im Jahr 2008 an der
derung von Familienwerten in der ersten Hälfte des TTechnischen Universität München eingereichte Promotion analy-
20. Jahrhunderts zu Tage. Von einem Wertewandel ssiert die diametral entgegengesetzte Verbreitung von Dieselautos
kann also durchaus gesprochen werden, auch wenn in Deutschland und in den USA. Seit April 2008 ist er als wissen-
es nicht zu einem so radikalen Bruch mit traditiona- sschaftlicher Mitarbeiter im DFG-geförderten Projekt „Historische
len Werten und einer bedingungslosen Hinwendung W d lf h “ am Historischen Seminar der Johannes Gutenberg-Universität tä-
Wertewandelsforschung“
zu individualistischen Selbstentfaltungswerten kam, tig. Seine Forschungsschwerpunkte liegen im Bereich der Kultur- und Technikgeschichte.
wie die synchrone Wertewandelsforschung bislang
angenommen hat. Die Tragweite dieses Umbruchs ist
damit freilich noch nicht hinreichend bestimmt. Erst
die empirischen Ergebnisse der Einzelstudien wer-
den Aufschluss über seine Bedeutung für langfristige ■ Kontakt
gesellschaftliche Wertewandelsprozesse im 20. Jahr-
hundert geben – und zugleich den Wertekosmos des Christopher Neumaier, M.Phil.
frühen 21. Jahrhunderts in der langfristigen histori- Johannes Gutenberg-Universität Mainz
schen Perspektive neu beleuchten. Historisches Seminar, Abteilung IV
Jakob-Welder-Weg 18
D-55128 Mainz
■ Summary Tel. +49 (0) 6131-39 271 92
According to socio-scientific research, individualistic Fax +49 (0) 6131-39 27 115
values of self-actualization superseded traditional Email: neumaier@uni-mainz.de
values in the period from around 1965 until 1975. http://www.uni-mainz.de/FB/Geschichte/hist4/472.php
This research on value change, however, is limited
to the last third of the 20th century and excludes the

FORSCHUNGSMAGAZIN 2/2009 59
I N F O R M AT I K

Informationstechnologie in Mainz konstituiert sich neu

Von Herbert Göttler, Jürgen Perl und Elmar Schömer

Neben Forschung, Lehre und wissenschaftli- sogenannten Coils, in einem Warmwalzwerk. Das
cher Weiterbildung hat eine Universität weitere aufgewickelte dünne Blech kann bis zu 3.000 Meter
gesellschaftspolitische Aufgaben, insbesonde- lang sein. Aus ihm werden zum Beispiel bei einem
re die Kooperation mit Unternehmen aus der Autobauer Kotflügel gepresst. Bei der Coil-Produkti-
Region. Das Institut für Informatik sieht diese on werden die verschiedensten Werte gemessen. Der
Aufgaben als sehr wichtig an und hat daher die wichtigste dabei ist die Dicke. Alle gemessenen Pa-
Einladung des Wirtschaftsdezernats der Lan- rameter werden in einer riesigen Produktionsdaten-
deshauptstadt Mainz gerne angenommen, sich bank gespeichert.
an der Gründung und Gestaltung des IT-Forums
Mainz aktiv zu beteiligen. Tritt nun beispielsweise an einem Kotflügel ein Rost-
schaden auf, will man den ganzen Produktionsprozess
Das Institut für Informatik arbeitet bereits seit vie- dahingehend analysieren, welche Prozessstörung der
len Jahren mit Unternehmen zusammen, indem es Grund für den Qualitätsmangel ist. Ist das Dicken-
Arbeitskreise organisiert, Forschungsprojekte durch- profil des Blechs, aus dem der Kotflügel gepresst
führt sowie Praktikantinnen und Praktikanten be- wurde, vor der Pressung vermessen worden, wäre es
ziehungsweise Absolventinnen und Absolventen jetzt sehr nützlich, wenn man diesen Profilabschnitt
vermittelt. Das IT-Forum bietet den Betrieben der In- innerhalb des in der Produktionsdatenbank gespei-
formations- und Kommunikationstechnologie, die sich cherten Profils des Mutter-Coils lokalisieren könnte.
mittlerweile zu einem bedeutenden Wirtschaftszweig Das Problem dabei ist, dass die Dickenvermessung
in der Region Mainz entwickelt hat, die Möglichkeit, des Kotflügelblechstücks nie an den gleichen Stellen
sich über aktuelle Themen und Kooperationen zu in- geschieht, wie es beim Mutter-Coil der Fall war. So
formieren. Die Landeshauptstadt wird dadurch in der ergeben sich bestenfalls ähnliche aber nie identische
Außenbetrachtung deutlicher als IT-Standort wahrge- Profile/Zeitreihen. Ebenso wie ein Fingerabdruck die
nommen und kann sich im Standortwettbewerb noch Identität einer Person widerspiegelt, erlauben Di-
besser positionieren. Beschäftigung und Wachstum ckenprofile also die Identifizierung von Coils. Deshalb
in der Region werden auf diese Weise gefördert. Die wurde das Projekt „Stahlband-Fingerprints” getauft.
folgenden Beispiele sollen einen Einblick in die Viel- Dabei genügen für die Eindeutigkeit – ebenso wie bei
fältigkeit der Forschung am Institut für Informatik Fingerabdrücken – auch nur Teilabschnitte des Coils.
geben.

© H. Göttler.
Praktische Informatik – Stahlband-Fingerprints

Fieberkurven und Aktienkurse sind bekannte Beispie-


le für Darstellungen, wie sich ein numerischer Wert im
Laufe der Zeit verändert. Der übergeordnete Begriff
für solche zeitabhängigen Folgen von Datenpunkten
ist die „Zeitreihe”. Für die Qualitätssicherung in der
Produktion von Stahlblechen und deren Weiterverar-
beitung hat die Arbeitsgruppe Praktische Informatik Abb. 2: Zwei Zeitreihen im Dataskop.
in Kooperation mit den Firmen iba-AG in Fürth und
voestalpine in Linz Verfahren zur Zeitreihenanalyse Um sich überhaupt zu überzeugen, dass die Idee
entwickelt. Einige davon sind so erfolgreich, dass funktioniert, wurde ein Programm namens „Da-
sie zur Grundlage eines Patentes geworden sind taskop” entwickelt, mit dem man Messkurven per
Abb. 1: Warmwalzstraße zur und in einem Produkt der iba-AG, dem sogenannten Hand gegeneinander ausrichten („alignen”) kann
Produktion von Stahlbändern. ibaAnalyzer, vermarktet werden. (vgl. Abb. 2), also sie zum Beispiel streckt, staucht,
verschiebt oder ähnliches. Aber selbst das für uns
W ist der technische
Was Menschen recht einfache Problem, zwei Zeitreihen
© voestalpine Stahl GmbH

u betriebswirtschaftli-
und durch „Hinschauen” miteinander auf Ähnlichkeit zu
c
che Hintergrund? Ab- vergleichen, macht beim Einsatz von Computern gro-
b
bildung 1 zeigt den ße Schwierigkeiten. Sie können nicht so „sehen” wie
P
Produktionsprozess von Menschen. Also mussten erst geeignete Verfahren für
l
langen Stahlbändern, ein automatisiertes Alignment entwickelt werden.

60
I N F O R M AT I K

Eines dieser Verfahren soll hier kurz erläutert werden. in Sportspielen wie Handball und Fußball, wird DyCoN

© J. Perl
Stellen Sie sich vor, Sie müssen als Rennfahrer bei zwei derzeit zur Erkennung statischer Datenmuster und
ziemlich langen Rennstrecken bestimmen, ob die kür- dynamischer Entwicklungen in der Finanzwirtschaft
zere gleich einem Teilabschnitt der längeren ist. Die (Risikoerkennung) eingesetzt. Abbildung 3 zeigt als
Vogelperspektive dürfen Sie dabei nicht einnehmen! Beispiel die Erkennung von Versicherungsbetrug.
Wie können Sie den Sachverhalt entscheiden? Nun,
eine Möglichkeit ist die, dass Sie die kürzere Renn- Das Netz wird zunächst mit Datenmustern von Ver-
strecke zunächst abfahren und sich die Reihenfolge sicherungsfällen trainiert. Anschließend werden die
der Lenkeinschläge notieren. Dann tun Sie dies auch Neuronen mit bereits zugeordneten Falldaten se-
für die längere, wobei Sie, von der Startlinie ausge- mantisch geprägt und entsprechend eingefärbt. Im
hend, immer weiter in Richtung Ziel schrittweise für Einsatz kann das Netz dann für einen vorgelegten
jeden Abschnitt die Reihenfolge der Lenkeinschläge Datensatz aufgrund des korrespondierenden Neu- Abb. 3: Semantisch eingefärbte Neu-
bestimmen. Wenn die „Gleichförmigkeit” für einen rons entscheiden, ob es sich um einen Betrugsfall ronen auf einem trainierten Netz.
Abschnitt oberhalb einer gewissen Schwelle liegt, (violettes Neuron), einen unverdächtigen Fall (grünes
können Sie behaupten, dass die kleinere Rennstrecke Neuron) oder um einen unklaren Fall (gelbes Neuron)
(fast) gleich dem Abschnitt in der größeren ist, an- handelt. Das Netz kann mit der Zeit weiter trainiert
dernfalls verneinen. Die Analogie ist klar: Eine Zeitrei- werden und so auch dynamische Änderungen in der
he entspricht einer Rennstrecke. Betrugslandschaft erkennen.

Angewandte Informatik – Ein weiterer Einsatzbereich von DyCoN liegt in der


netzgestützte Musteranalyse prognostischen Überwachung von Rehabilitations-

© J. Perl
prozessen (postoperative klinische Versorgung). Ab-
Die technischen Möglichkeiten, aus komplexen Pro- bildung 4 zeigt als Beispiel die zeitliche Entwicklung
zessen Daten automatisch zu extrahieren und weiter von Genesungsprozessen.
zu verarbeiten, sind in den letzten Jahren deutlich
verbessert worden und haben damit entsprechend Das Netz wird mit Zustandsmustern von Patienten
stark an Bedeutung gewonnen. Das Spektrum reicht trainiert und mit den Zustandsbewertungen seman-
dabei von Kommunikationsprozessen, etwa im Inter- tisch geprägt bzw. gefärbt. Die Folge der erfassten
net, und technischen Prozessen, wie zum Beispiel in Patientenzustände zeigt als Trajektorie auf den Neu-
der Produktion, über Bewegungsprozesse in der Lo- ronen des Netzes (rote Linie) die Entwicklung des Zu- Abb. 4: Prozess-Trajektorie auf dem
gistik bis hin zu Rehabilitationsprozessen sowie mo- standes über die Zeit – hier vom negativen Bereich Netz und als Phasendiagramm.
torischen Prozessen in der Prothetik oder im Sport. (violette Neuronen) in den positiven Bereich (blaue
Mit steigenden Datenmengen wird es allerdings auch Neuronen). Mithilfe des eingeblendeten Phasendia-
zunehmend schwieriger, aus den Daten die wesentli- gramms wird der Verlauf vereinfacht repräsentiert.
che Information zu extrahieren.
DyCoN kann ebenfalls für die Kontrolle von Bewe-
Die dafür im Bereich Data Mining entwickelten, gungsmustern in Sicherheitsbereichen, wie etwa der

© J. Perl
regelbasierten Suchverfahren können außerordentlich Passagier- und Frachtströme an Flughäfen und auf
effizient sein – wenn das Ziel der Suche bekannt ist. Bahnhöfen, verwendet werden. Sollen auffällige Be-
Ist diese Zielinformation dagegen unbekannt, dann wegungsmuster erkannt werden, wird das Netz zu-
gleicht das einer Suche nach der Nadel im Heuhau- nächst mit Datenmustern von Bewegungen trainiert
fen und derartige konventionelle Ansätze versagen in und dann zum Beispiel mit ausgewählten Positionen
der Regel. Das ist beispielsweise der Fall, wenn un- oder Arealen semantisch geprägt.
bekannte Ähnlichkeits- oder Clusterstrukturen, neue
Muster und unauffällige Abweichungen oder seltene Bewegungen werden dann auf dem Netz durch
aber relevante Ereignisse in komplexen Datenmen- Bewegungs-Trajektorien dargestellt. Transformiert
gen entdeckt werden sollen. in Phasen-Diagramme geben sie Auskunft über die
zeitliche Dynamik der Bewegung, wie etwa Verweil-
In solchen Situationen sind häufig selbstorganisieren- zeiten oder Geschwindigkeiten. Unterschiedliche Be-
de künstliche Neuronale Netze (SOM) besser geeig- wegungsflüsse (orange und blau in Abb. 5) stehen so
net. Sie organisieren das Datenmaterial selbständig, zur vergleichenden Analyse und zur Erkennung von Abb. 5: Trajektorien zur vergleichen-
fassen es in Gruppen oder Cluster ähnlicher Daten zu- Auffälligkeiten zur Verfügung. den Auffälligkeits-Analyse.
sammen und erkennen dadurch sowohl die inhärente
Struktur der Daten als auch die Verteilung der Daten Computergrafik – geometrische Algorithmen
über dieser Struktur. Diese Fähigkeiten der SOMs sind
in unserer Arbeitsgruppe um die Fähigkeiten der zeit- Computergenerierte Bilder oder Bildsequenzen sind
dynamischen Anpassung und der Erkennung seltener, in unseren Medien allgegenwärtig. Oft ist nur schwer
aber relevanter Information zum Konzept DyCoN erkennbar, dass es sich um synthetische Bilder han-
(Dynamically Controlled Network) ergänzt worden. delt, denn der Detailreichtum der zugrunde liegenden
Außer bei der Analyse taktisch-strategischer Muster geometrischen Modelle ist hoch, Licht und Schatten

FORSCHUNGSMAGAZIN 2/2009 61
I N F O R M AT I K

wirken realistisch und selbst komplizierte Bewe- dem gesuchten Optimum annähern. Mit derartigen
gungsabläufe werden wirklichkeitsgetreu dargestellt. Methoden der stochastischen Optimierung konnten
In 3D-Kinos ist durch stereoskopische Projektion sogar wir vor kurzem alle bis dahin geltenden Rekorde für
eine räumliche Wahrnehmung einer Szene möglich. dieses Kreispackungsproblem einstellen bzw. unter-
Während die Bildsequenzen für computeranimierte bieten.
Filme mit hohem zeitlichen Aufwand vorberechnet

© E. Schömer
werden können, stellt sich in interaktiven Spielen die
Herausforderung, die virtuelle Realität einer Spielsze-
ne in Echtzeit zu erzeugen. Das bedeutet, dass alle
Berechnungen, die die Geometrie, die Bewegungen,
die Beleuchtung und sonstige Spezialeffekte betref-
fen, mit einer Geschwindigkeit von 25 Bildern pro
Sekunde ausgeführt werden müssen.

Dies ist nur dank der immer leistungsfähigeren Gra-


fikprozessoren möglich, die aus hunderten von Re-
cheneinheiten aufgebaut sind. Inzwischen können
Grafikprozessoren neben der reinen Visualisierung
auch numerische Simulationsaufgaben übernehmen
und sind darin aufgrund ihrer parallelen Architektur Abb. 6: Normgerechte Packung eines Mercedes-
dem Hauptprozessor deutlich überlegen. Bei der Soft- Kofferraumes.
ware gibt es jedoch erheblichen Nachholbedarf, effi-
ziente parallele Algorithmen und Datenstrukturen für Praktische Anwendungen finden Packalgorithmen
die Verarbeitung geometrischer Daten zu entwickeln. beispielsweise bei der Minimierung des Verschnitts,
Unsere diesbezüglichen Forschungsthemen liegen wenn Schnittmuster auf Stoffbahnen platziert wer-
aber weniger im Bereich der Unterhaltungsmedien, den. Im Auftrag der Daimler AG haben wir darüber
sondern konzentrieren sich auf ingenieur- und natur- hinaus Algorithmen zur normgerechten Vermessung
wissenschaftliche Anwendungen. Einsatzmöglichkei- des Volumens eines Pkw-Kofferraumes (DIN 70020-1,
ten finden sich etwa im Bereich des computerunter- ISO 3832) entwickelt (Abb. 6). Das in den Verkaufs-
stützten geometrischen Entwurfs, der konfliktfreien prospekten angegebene Volumen entspricht näm-
Planung von Montageprozessen sowie der Visuali- lich nicht der Flüssigkeitsmenge, die ein Kofferraum
sierung und Verarbeitung von Mess- und Simulati- aufnehmen kann, sondern der Zahl von einem Liter
onsdaten, wie sie zum Beispiel in der Meteorologie, großen Quadern, die dort untergebracht werden kön-
der Kristallografie oder der Computertomografie nen. Auf diese Art und Weise kann die Sperrigkeit des
anfallen. In diesen Bereichen können Methoden der Kofferraumes besser charakterisiert werden.
Computergrafik und der geometrischen Datenverar-
beitung hervorragend eingesetzt werden. Ein intensiv
von uns erforschtes Themengebiet sind beispielswei- ■ Summary
se geometrische Packalgorithmen. Research is often perceived as producing pretty
pictures but no viable results. Computer Science, as
Schon Johannes Kepler hat sich mit Packungsproble- practiced at the Computer Science Institute at the
men beschäftigt. Erst vier Jahrhunderte später gelang University of Mainz, is not esoteric in this way but
es Thomas Hales mithilfe von Computerprogrammen, produces both pretty pictures and useful results,
die Keplersche Vermutung zu den dichtesten Kugel- products, and contacts. Numerous projects have
packungen zu verifizieren. In seinem internationalen been inspired and implemented in a wide variety
Programmierwettbewerb hat Al Zimmermann fol- of applications ranging from geometric packing
gende abgewandelte Form eines Kreispackungspro- algorithms, optimizing industrial manufacturing
blems formuliert: Wie ordnet man unterschiedlich processes to pattern recognition in health care in
große Kreise mit den Radien von „1“ bis „n“ so an, collaboration with industrial partners. The recently
dass der umschließende Kreis den kleinstmöglichen established IT-Forum is expected to help both partners
Radius hat? Lesen Sie dazu mehr in dem Beitrag to bridge the gap between theory and practice even
von Johannes J. Schneider und Elmar Schömer auf more successfully.
Seite 26.

Die besondere Schwierigkeit dieses Optimierungspro-


blems besteht darin, dass es eine ungeheuer große
Anzahl von verschiedenen Anordnungen gibt, die
man unmöglich alle inspizieren kann. Durch zufällige,
lokale Umordnungen kann man jedoch schrittwei-
se eine gegebene Anordnung verbessern und sich

62
I N F O R M AT I K
Autoren

Univ.-Prof. Dr. Elmar Schömer, Univ.-Prof. Dr. Herbert Göttler und Univ.-Prof. Dr. Jürgen Perl (vlnr).

Univ.-Prof. Dr. Herbert Göttler Univ.-Univ.-Prof. Dr. Elmar Schömer

Herbert Göttler, geboren 1946, studierte von 1966 bis Elmar Schömer, Jahrgang 1963, studierte Informatik
1972 Mathematik und Physik; die Promotion erfolgte an der Universität des Saarlandes. Nach seiner Pro-
1977; danach bis 1980 Hauptgruppenleiter „Mathe- motion (1994) und seiner Habilitation (1999) war
matische Methoden” im Bereich Reaktorsicherheits- er als Senior Researcher im Bereich Computational
analyse bei der Firma Kraftwerk-Union; Habilitation Geometry am Max-Planck-Institut für Informatik tä-
im Jahr 1987; bis 1989 Akademischer Rat/Oberrat an tig. Seit Oktober 2002 ist er Professor für Praktische
der Universität Erlangen-Nürnberg; bis 1990 Lehr- Informatik an der Johannes Gutenberg-Universität
stuhlvertretung Universität Stuttgart; seit 1990 Pro- Mainz. Seine Forschungsschwerpunkte sind die Com-
fessor für Praktische Informatik in Mainz. Seine Ar- putergrafik sowie effiziente geometrische Algorith-
beitsschwerpunkte sind Programmiersprachen und men und Optimierungsmethoden, wie im letzten Teil
Compiler sowie Internet-Technologie. Einblick in sei- des Beitrags dargestellt.
ne praktische Arbeit gibt der erste Teil des Beitrags zu
den Stahlband-Fingerprints.

■ Kontakt
Univ.-Prof. Dr. Jürgen Perl
Univ.-Prof. Dr. Jürgen Perl
Jürgen Perl, geboren 1944; promovierte 1971 in Ber- Johannes Gutenberg-Universität Mainz
lin, wo er 1974 auch habilitiert wurde. Im Jahre 1974 Institut für Informatik, FB 08
erfolgte der Ruf auf eine Professur für Angewandte Staudingerweg 9
Mathematik und Informatik an die Universität Osna- D-55128 Mainz
brück. Seit 1984 leitet er den Lehrstuhl für Informatik Tel. +49 (0) 6131-39 22 838
an der Universität Mainz. Aufbau der Sportinformatik Email: perl@informatik.uni-mainz.de
seit 1989, internationale Aktivitäten seit 1997. Von goettler@informatik.uni-mainz.de
2003 bis 2007 war er Präsident der International schoemer@informatik.uni-mainz.de
Association of Computer Science in Sport; seit 2007
ist er Ehrenpräsident der IACSS. Seine Arbeitsschwer-
punkte sind Modellbildung und Simulation, Sportin-
formatik sowie Medizininformatik. Im Mittelteil des
Beitrags stellt er als Beispiel die netzgestützte Mus-
teranalyse vor.

FORSCHUNGSMAGAZIN 2/2008 63
GEOWISSENSCHAFTEN

Muscheln – Archive der Erdgeschichte

Von Bernd R. Schöne

Muscheln bergen das wohl umfangreichste, Muschel-Methusalems


zeitlich und räumlich am höchsten aufgelöste
Umwelt-, Wetter- und Klimaarchiv der Erdge- Demgegenüber leben Muscheln in den verschie-
schichte. Ihre Schalen sind nicht nur in Sediment- densten Habitaten: in Polnähe und am Äquator, im
gesteinen der vergangenen zirka 500 Millionen Flachmeer und in der Tiefsee, im Meer, in Flüssen
Jahre fossil überliefert, sondern auch Bestand- und Seen. Sie gehören zum Stamm der Weichtiere
teil von Küchenabfallhaufen vieler archäologi- (Mollusca) und sind bereits in mehr als 500 Millionen
scher Stätten. In Mainz werden die Grundlagen Jahre alten Gesteinen nachweisbar. Ihre beeindru-
erarbeitet, um dieses Archiv zu lesen und zu ver- ckende Artenvielfalt erklärt sich auch durch die Viel-
stehen. Mit solchen Daten lassen sich Modelle zahl unterschiedlicher Lebens- und Ernährungswei-
zur Klimageschichte optimieren oder Gewässer- sen. Einige Arten existieren beispielsweise zeitlebens
qualitäten prüfen. mehr als einen Meter tief im Sediment vergraben,
während andere frei auf der Sedimentoberfläche lie-
Eine genaue Kenntnis des Klimas der Erdgeschichte gen. Einige Arten können bei Gefahr sogar Strecken
einschließlich seiner Zyklen, Schwankungsbreiten und von bis zu zehn Metern „schwimmend“ überwinden.
Extreme bildet die Grundlage verlässlicher Prognosen Besonders beeindruckend sind allerdings die Schalen
zur künftigen Klimaentwicklung. Computermodel- der Tiere. Sie schützen den Weichkörper und fungie-
le zur Klimavorhersage werden nämlich an solchen ren als Ansatzstelle für Muskeln, welche die Klappen
Paläoklimadaten „geeicht“ und optimiert. Nur wenn schließen können. Darüber hinaus sind die Schalen
die berechneten Daten mit Paläoklimadaten gut über- ein exzellentes Archiv für Wetter, Klima und Umwelt.
einstimmen, lassen sich diese Rechenmodelle für die Damit beschäftigt sich der Forschungszweig der
Simulation des Klimas der Zukunft anwenden. Sclerochronologie.

M
Meteorologische Beobachtungen Muschelschalen können als Biokeramiken charakteri-
© Bernd Schöne

re
reichen selten mehr als 150 Jahre siert werden. Es handelt sich um einen Verbundstoff
zu
zurück. Paläoklimadaten vor 1850 aus einem Mineral (Kalziumkarbonat, CaCO3) und or-
m
müssen deshalb aus anderen Ar- ganischen Substanzen (Proteine, Zuckermoleküle; vgl.
ch
chiven rekonstruiert werden, tra- Abb. 1). Die Schalen wachsen während des gesamten
di
ditionell aus Bäumen, Korallen, Lebens der Tiere, allerdings mit sehr unterschiedli-
Ei
Eiskernen und Sedimentgesteinen. cher Geschwindigkeit. Viele Muschelarten drosseln
Ja
Jahrringbreite und Jahrringdichte die Kalziumkarbonatproduktion in der kalten, andere
vo Bäumen liefern wertvolle In-
von in der warmen Jahreszeit deutlich. Derartige Wachs-
fo
formationen zu Schwankungen im tumsreduktionen manifestieren sich wie bei Bäumen
Ni
Niederschlag. Geschichtete Sedi- als „Jahrringe“. Sie sind am deutlichsten im Schalen-
m
mente geben Aufschluss über Was- querschnitt erkennbar, ansatzweise auch auf der Scha-
se
sertemperaturen, Bioproduktivität lenoberfläche. Anhand der Jahrringe lässt sich das
od Starkregenereignisse. Eiskerne
oder Lebensalter der Tiere ermitteln und das kann außer-
in
informieren über Lufttemperaturen ordentlich hoch sein, wie Studien von uns gezeigt ha-
od die Gaszusammensetzung der
oder ben. Tatsächlich können einige Arten fast 400 Jahre alt
eh
ehemaligen Atmosphäre, zum Bei- werden! Muscheln sind damit die langlebigsten, ske-
sp den Kohlendioxidgehalt. Der-
spiel letttragenden, solitären (einzeln lebenden) Tiere unse-
ze verfügbare Paläoklima-Archive
zeit res Planeten. Zum Vergleich: Wale erreichen ein Alter
sin jedoch in ihrer räumlichen An-
sind von bis zu 250 Jahren, Schildkröten bis zu 180 Jahren,
w
wendbarkeit und zeitlichen Auflö- Fische bis zu 205 Jahren. Der älteste Mensch, Jean-
Abb. 1: Verbundstoff Muschelschale. su stark begrenzt. Beispielsweise
sung na Calment, starb am 4. August 1997 im Alter von
Im angeätzten Schalenquerschnitt ist die zeitliche Auflösung von Sedimenten, Eiskernen, 122 Jahren.
sind organische Lamellen sicht-
Korallen und Bäumen bestenfalls jährlich; saisonale
bar, die Kalziumkarbonatkristalle
umhüllen.
Ereignisse können keinem Kalenderdatum zuge- Langzeitliche Klimaarchive
ordnet werden. Bäume liefern außerdem nur dann
Klimadaten, wenn sie an Extremstandorten wie der Wie das Klimaarchiv Muschelschale funktioniert,
Baumgrenze im Hochgebirge wachsen. Die meisten wird im Folgenden mit Beispielen erläutert. Die
Korallen wachsen ausschließlich in den Tropen. Wachstumsrate der Schalen weist deutliche Jahr-zu-

64
GEOWISSENSCHAFTEN

Jahr-Variationen auf. Diese Schwankungen gehen mit

© Bernd Schöne
Änderungen im Nahrungsangebot oder der Wasser-
temperatur einher. Je mehr Nahrung verfügbar oder
je höher die Temperatur ist, desto schneller wachsen
die Schalen. Die Breite der Jahresinkremente fungiert
also als Indikator für die Nahrungsverfügbarkeit und/
oder die Wassertemperatur, und das an jedem belie-
bigen Standort (Abb. 2).

Unsere Untersuchungen an Schalen der Islandmu-


schel, Arctica islandica, haben beispielsweise gezeigt,
dass die Nahrungsverfügbarkeit in der Nordsee peri-
odisch schwankt. Alle acht Jahre bilden die Muscheln
besonders breite Inkremente aus, wachsen also be-
sonders rasch. Dieser Acht-Jahres-Zyklus ist mit der
Nordatlantischen Oszillation korreliert, dem Klima-
motor der Nordhemisphäre (Abb. 3). Er ist definiert
über die Luftdruckdifferenz zwischen dem Islandtief Abb. 2: „Jahrringe“ (rot) im Querschnitt der chemisch
und dem Azorenhoch. Je größer die Druckdifferenz, behandelten Schale einer Flussperlmuschel.
desto stärker sind die atmosphärischen und ozeani-
© Bernd Schöne

schen Strömungen ausgeprägt und desto höher ist Abb. 3: Nordatlanti-


sche Oszillation, instru-
die Menge organischer Nahrungspartikel in der Was-
mentelle Messdaten
sersäule, also der Nahrung der Muscheln. Die Island- und Rekonstruktion
muschel enthält somit ein Archiv für Schwankungen aus den Zuwachsvaria-
der Nordatlantischen Oszillation in der Zeit vor Auf- tionen von Muschel-
nahme meteorologischer Messungen. Jede einzelne schalen.
fossile Muschelschale öffnet uns also ein Fenster in
die klimatische Vergangenheit.

Der Zeitraum, über den Muscheln solche Klimain-


formationen liefern, ist jedoch keineswegs auf die
Lebensspanne eines einzelnen Individuums begrenzt.
Vielmehr lassen sich die „Jahrring“-Zeitreihen von
© Bernd Schöne

einzelnen Individuen mit überlappenden Lebens-


spannen miteinander zu sehr viel längeren Zeitreihen
verknüpfen. Diese so genannten Masterchronologien
(Abb. 4) können sich über viele Muschelgenerationen
erstrecken. Ausgehend von lebend aufgesammelten
Muscheln, also Individuen mit bekanntem Sterbe-
datum, lassen sich solche Masterchronologien Schritt
für Schritt durch fossile Muscheln weiter in die Zeit
zurück ausdehnen. Wie in der Dendrochronologie
werden dabei die Zuwachsmuster von fossilen Indivi-
duen, deren Sterbedatum nicht bekannt ist, mit dem
Zuwachsmuster einer bereits etablierten Masterchro-
nologie verglichen und an geeigneter Stelle einge- Abb. 4: Wenn der Schalenzuwachs
fügt. Unsere Forschung steht noch ganz am Beginn, geschlossen. Während dieser Zeit wird ein „Tages- durch Umwelteinflüsse gesteuert
hat aber die prinzipielle Machbarkeit dieser Methode ring“ gebildet. In den verbleibenden 16 Stunden wird, verlaufen die Zuwachskurven
von zeitgleich lebenden Muscheln
in verschiedenen Arbeiten dokumentiert. jedes Tages wachsen die Schalen dagegen rasch,
ähnlich. Rot = Masterchronologie;
ein Inkrement bildet sich. Tageszuwachsmuster sind
positive Werte = stärkeres Wachs-
Muschelschalen mit eingebautem Kalender ein exzellenter Kalender, mit dem jeder Schalen- tum, negative Werte = schwächeres
abschnitt auf den Tag genau datiert werden kann, Wachstum, jeweils im Vergleich zum
Muschel-Sclerochronologie ist nicht auf die Jahres- sofern bekannt ist, wann die Muschel gestorben ist Mittelwert.
inkremente begrenzt. Bei mikroskopischer Betrach- (vgl. Abb. 5).
tung lassen sich innerhalb eines Jahresinkrements
sogar tägliche Zuwachsmuster erkennen. Besitzen Insbesondere für die Anthropologie ist dieser hoch
Muscheln tägliche (circadiane) biologische Uhren? präzise Schalenkalender von herausragender Be-
Tatsächlich wird das durch unsere Versuche mit deutung. Bei vielen indigenen Völkern standen Mu-
lebenden Muscheln untermauert. Teichmuscheln scheln auf dem Speiseplan. Davon zeugen unzählige
halten Ihre Klappen für zirka acht Stunden pro Tag Küchenabfallhaufen (dänisch: Køkkenmøddinger;

FORSCHUNGSMAGAZIN 2/2009 65
GEOWISSENSCHAFTEN

Abb. 5: Täglicher Schalenzuwachs

© Nadine Hallmann
(rot = ein Tag) im Querschnitt der
Buttermuschel.

Welt die gewöhnlich


englisch: shell midden) in aller Welt, (18O
O, 16O) im Schalenmaterial messbar
messbar. Bei höheren
aus Myriaden von Muschelschalen bestehen. Anhand Temperaturen wird relativ mehr 16O in die Schale ein-
des Sterbedatums der Schalen kann ermittelt wer- gelagert, bei tieferen Temperaturen relativ mehr 18O.
den, zu welcher Jahreszeit oder sogar an welchem Mithilfe der Sauerstoffisotope konnten wir unter an-
Tag innerhalb des Jahres die Tiere gesammelt wur- derem zeigen, dass sich das Bodenwasser der Nord-
den. Diese Information liefert wichtige Hinweise auf see – es befindet sich in mehr als 50 Metern Was-
Ernährungsstrategien und saisonale Nutzung von sertiefe und lässt sich mit instrumentellen Methoden
Siedlungsplätzen. Gemeinsame Untersuchungen mit nur schwierig über längere Zeiträume hinweg analy-
kanadischen Kollegen haben gezeigt, dass prähisto- sieren – im Verlauf der letzten 120 Jahre um zirka ein
rische Bevölkerungsgruppen in der Provinz Britisch- Grad Celsius erwärmt hat. Die Sommertemperaturen
Kolumbien Muscheln ausschließlich im Frühjahr und stiegen dabei deutlich stärker an als die Wintertem-
Herbst sammelten und aßen, jedoch nicht im Som- peraturen. Der Erwärmungstrend beschleunigte sich
mer. Tatsächlich ist es wenig ratsam, in der warmen darüber hinaus ab zirka 1960 massiv.
Jahreszeit (auf der Nordhemisphäre in den Monaten
ohne „r“) Muscheln zu verspeisen. Dann nämlich Muschelschalen als Monitor des
vermehren sich Algen oft massenhaft. Diese Algen Treibhausgases Kohlendioxid
enthalten ein für den Menschen tödliches Nervengift
namens Saxitoxin, welches während des Sommers im Ein weiteres Isotopenarchiv informiert über den An-
Gewebe der Muscheln angereichert ist. stieg des Treibhausgases Kohlendioxid (CO2) in der
Atmosphäre und liefert darüber hinaus ganz neben-
Muschelschalen als Präzisions- bei Belege dafür, dass dieser Zuwachs an CO2 tatsäch-
thermometer der Erde lich auf die Nutzung fossiler Brennstoffe durch den
Menschen zurückzuführen ist. Kohlenstoff, Bestand-
Schließlich speichern Muscheln die chemischen und teil des CO2-Moleküls, kommt in der Natur in Form
physikalischen Bedingungen ihres Lebensraumes von drei Isotopen vor: dem radioaktiven Isotop 14C
auch in Form von Isotopenverhältnissen und Spuren- (in Spuren) und den beiden stabilen Isotopen 12C
elementen. Diese geochemischen Indikatoren erlau- (98,9 %) und 13C (1,1 %). Pflanzen und Phytoplankton
ben eine sehr präzise Ermittlung zum Beispiel von neigen dazu, das leichte Isotop (12C) beim Aufbau von
Wassertemperaturen oder Schadstoffen im Wasser. Biomasse zu bevorzugen; Pflanzen verwenden dabei
Es wird schnell klar, welches ungeheure Potential sich den Kohlenstoff des atmosphärischen CO2, das Phy-
in Verbindung mit den täglichen Zuwachsmustern er- toplankton dagegen im Wasser gelöstes CO2. Nach
gibt: Umweltänderungen können bis auf den Tag ge- dem Tod zersetzen sich Pflanzen und Phytoplankton
nau datiert und Änderungen von Umweltparametern normalerweise vollständig und der Kohlenstoff wird
extrem hoch aufgelöst rekonstruiert werden; erstmals wieder dem natürlichen Stoffkreislauf zugeführt.
werden Paläowetter-Studien möglich. Kohle und Erdöl bildeten sich jedoch aus ehemali-
gen Pflanzen und Algen, welche diesem Schicksal
Sauerstoffisotope gehören zu den am häufigsten entgangen sind. Wenn wir fossile Energieträger ver-
genutzten geochemischen Archiven. Mit ihnen las- brennen, wird CO2 mit der Signatur der ehemaligen
sen sich Temperaturen rekonstruieren. In der Natur Pflanzen freigesetzt, also CO2, welches gegenüber
kommen drei Isotope des Sauerstoffs vor: 16O, 17O und dem vorhandenen CO2 der Atmosphäre etwas mehr
18
O. Sie unterscheiden sich in der Zahl von Neutronen 12
C enthält. Die Luft wird damit kohlenstoffisotopisch
im Kern und damit im Gewicht. Das leichteste Isotop betrachtet leichter. Außerdem findet ein kontinuierli-
(16O) kommt mit gut 99,76 Prozent am weitaus häu- cher Austausch des CO2 der Atmosphäre mit dem des
figsten vor; 17O und 18O sind nur mit 0,04 Prozent und Oberflächenwassers statt.
0,2 Prozent vertreten. Bei der Schalenbildung kommt
es nun in Abhängigkeit von der Wassertemperatur zu Daher hat die mit der industriellen Revolution gegen
einer winzigen Verschiebung der relativen Häufigkei- Ende des 18. Jahrhunderts einsetzende Nutzung fos-
ten dieser Isotope. Mit modernen Massenspektro- siler Brennstoffe nicht bloß in der Atmosphäre deutli-
metern sind immerhin die beiden häufigsten Isotope che Spuren hinterlassen, sondern auch im Ozean. Da

66
GEOWISSENSCHAFTEN

manche Muscheln immer genau die Kohlenstoffiso- Univ.-Prof. Dr. Bernd

Stephen Houk
topen-Signatur des umgebenden Wassers aufzeich- Reinhard Schöne
nen, konnten wir mit unseren Untersuchungen an
Muschelschalen belegen, dass heute nicht nur in der Bernd R. Schöne, Jahrgang
Atmosphäre sondern auch im Ozean deutlich mehr 1969, studierte ab 1990
12
C vorhanden ist als vor 1790. Diese Tatsache wird G
Geologie/Paläontologie an
als Suess-Effekt bezeichnet, benannt nach dem öster- dder Georg-August-Univer-
reichischen Physiker Hans E. Suess (1909-1993), der ssität in Göttingen, wo er
diesen Einfluss der Industrialisierung auf die Atmo- 1997 auch promovierte. Er
sphäre zuerst beschrieb. Zweifelsohne sind daher der w
war anschließend als Post-
Anstieg des Kohlendioxids in Atmosphäre und Ozean d kt
doktorandd des
d DAAD,
DAAD der
d Humboldt-Stiftung und
sowie der dadurch verursachte globale Temperatur- der Japan Society for the Promotion of Science in
anstieg menschgemacht. der Schweiz, den USA und Japan tätig, bevor er ab
2002 eine Emmy-Noether-Forschungsgruppe an der
Unsere Analyse von Muscheln des nördlichen Nord- Goethe-Universität in Frankfurt leitete (Habilitation:
atlantik gibt jetzt allerdings Anlass zur Besorgnis. Der 2004). Seit September 2006 leitet er die Abteilung für
Nordatlantik gilt weltweit als größte CO2-„Falle“. Angewandte und Analytische Paläontologie (Institut
Seit den 1920er Jahren nimmt er große Mengen an für Geowissenschaften) an der Johannes Gutenberg-
CO2 auf und verhindert damit bislang ein deutlich Universität Mainz. Derzeitige Forschungsschwer-
stärkeres Ansteigen dieses Treibhausgases in der punkte: Paläoklima- und Paläowetterforschung sowie
Atmosphäre. Derzeit schrumpft die CO2-Aufnahme- retrospektives Umweltmonitoring mittels Sclerochro-
kapazität des Nordatlantiks jedoch, was wahrschein- nologie, Katastrophen der Erdgeschichte.
lich mit der oben erwähnten Erwärmung ursächlich
zusammenhängt. Denn Gase lösen sich im kalten
Wasser bekanntlich erheblich besser als im warmen. ■ Kontakt
Das kann jeder leicht selber überprüfen, indem er
eine Flasche mit kohlensäurehaltigem Mineralwas- Univ.-Prof. Dr. Bernd Reinhard Schöne
ser erwärmt. Mit steigender Erderwärmung wird es Johannes Gutenberg-Universität Mainz
unweigerlich zu einem positiven Rückkopplungsef- Angewandte und Analytische Paläontologie,
fekt kommen, bei dem die Ozeane, insbesondere der Institut für Geowissenschaften, Forschungszentrum
Nordatlantik, CO2 in die Atmosphäre abgeben, genau Erdsystemwissenschaften – Geocycles
so wie die erwärmte Mineralwasserflasche. Das facht Johann-Joachim-Becher-Weg 21
die globale Erwärmung weiter an. D-55128 Mainz
Tel. +49 (0) 6131-39 24 757
Muschelschalen als Schadstoffmesser Fax +49 (0) 6131-39 24 768
Email: schoeneb@uni-mainz.de
Unsere aktuellen Untersuchungen widmen sich www.increments.de
Spurenelementen, die sich als Monitore der Wasser- www.paleontology.uni-mainz.de
qualität verwenden lassen. Sind beispielsweise Blei,
Quecksilber oder Cadmium im Wasser vorhanden,
werden diese Metalle während des Wachstums der
Muscheln in die Schalen eingebaut. Dank des Mu-
schelkalenders, also der Tages- und Jahrringe, kann
der Zeitpunkt des Schadstoffeintrags ermittelt wer-
den. Wir arbeiten derzeit an Verfahren, die ehemali-
gen Schadstoffkonzentrationen im Wasser anhand
der Schalen zu rekonstruieren.

■ Summary
Bivalve mollusks provide ultra high-resolution
environmental, paleoweather, and paleoclimate
archives. Bivalve shells occur in sedimentary rocks as
old as 500 million years as well as in archaeological
shell middens (kitchen waste deposits). Our team
at the University of Mainz conducts basic research
to better understand these archives. Such data are
necessary to test and verify climate models and
enable water quality studies.

FORSCHUNGSMAGAZIN 2/2008 67
BIOLOGIE

Anpassung – Isolation – Artbildung: Evolution beim Salbei

Von Regine Claßen-Bockhoff

Aktuelle Schätzungen gehen davon aus, dass es


s
weltweit etwa 300.000 Arten von Landpflan-
zen gibt. Dass sie sich im Laufe der Evolution sl a
in ständiger Auseinandersetzung mit ihrer abio- sc

tischen und biotischen Umwelt entwickelt ha-


n
ben, ist unbestritten, aber wie Artentstehung
funktioniert, ist noch immer unklar. Adaptive
Radiationen, das heißt Sippenbildung durch He-
rausbildung spezifischer Anpassungen, könnten
dabei eine besondere Rolle gespielt haben. Das
bekannteste Beispiel – daran sei im Darwinjahr
2009 erinnert – liefern die nach dem bedeuten-
den Evolutionsbiologen benannten Finken der
Galapagosinseln. Abb. 1: Die Gattung Salvia als Modellsystem.

Die grundsätzliche Frage nach den Bedingungen des A: Blütenstand des heimischen Wiesensalbeis
Lebens, das heißt nach dem Entstehen und Ausster- (Salvia pratensis).
ben von Arten, richtet sich gleichermaßen an die B: Längsschnitt durch eine Blüte des Wiesensalbeis;
Biodiversitätsforschung und die Evolutionsbiologie. man beachte die hebelförmig umgestalteten Staub-
Mit einer Vielzahl unterschiedlicher Methoden, die blätter (sl), deren Pollensäcke (a) vor dem Griffel (s)
molekulare Stammbaum- und Populationsanalysen unter der Oberlippe der Blüte liegen und deren sterile
ebenso umfassen wie funktionsmorphologische Ex- Enden (sc) den Zugang zum Nektar (n) versperren.
perimente und ökologische Geländearbeiten, werden
C: Die Ackerhummel, Bombus pascuarum, bei der
derzeit konkurrierende Artbildungshypothesen getes- Bestäubung von Salvia macrosiphon. Foto: A. Groß.
tet. Ziel ist es, die Prozesse der Evolution zu verstehen
und mit dem Wissen über die Entstehung von Bio- und den aus dem Mittelmeerraum stammenden Arz-
diversität auch zu deren Schutz beizutragen. neisalbei und Muskatellersalbei weltweit etwa 1.000
Arten an. Die meisten Arten zeichnen sich durch ei-
Ein besonders interessanter Artbildungsvorgang ist nen speziellen Bestäubungsmechanismus aus, der
die „adaptive Radiation“, bei der in einem geolo- allgemein als Schlagbaummechanismus oder Hebel-
gisch kurzen Zeitraum zahlreiche neue Arten aus mechanismus bekannt ist. Die monosymmetrische
einer Stammart hervorgehen (radiieren). Der Prozess Blüte verbirgt unter ihrer Oberlippe die Pollensäcke
wird durch neu erworbene Eigenschaften beschleu- und Narben, während die Unterlippe den bestäu-
nigt, die eine Anpassung (Adaptation) an bislang benden Bienen als Landeplatz dient (Abb. 1B). Die
nicht genutzte ökologische Nischen ermöglichen und beiden Staubblätter der Blüte sind zu hebelförmigen
damit die Überlebensfähigkeit des Individuums und Strukturen umgebildet, deren obere Enden je zwei
seiner Nachkommen erhöhen. Welche genetischen Pollensäcke tragen, während die unteren Enden den
und ökologischen Bedingungen ermöglichen eine ad- Weg zum Nektar versperren. Ein Blüten besuchendes
aptive Radiation, welche Alternativhypothesen gibt Insekt muss nun unter Kraftaufwendung die Barri-
es und wie lässt sich Artbildung durch Anpassung ex- ere zurückschieben, wodurch sich die Pollensäcke
perimentell testen? Um diese Fragen zu beantworten, auf den Kopf oder Rücken des Bestäubers absenken
benötigt man ein artenreiches Modellsystem, dessen (Abb. 1C). Beim Besuch einer weiteren Blüte, kann
Verwandtschaftsverhältnisse bekannt sind und das der Pollen an deren Narbe abgestreift werden und
über eine Struktur oder Eigenschaft mit adaptivem zur Befruchtung führen.
Wert verfügt.
Der Hebelmechanismus und die mit ihm verbunde-
Der Hebelmechanismus der Salbeiblüte – ne Veränderungen der Staubblattkonstruktion galten
eine Schlüsselstruktur zur Artbildung? bis vor kurzem als morphologische Indizien für die
natürliche Verwandtschaft aller Salbeiarten. Erst mo-
Ein solches Modell liefert die Gattung Salvia (Salbei) lekulare Daten wiesen darauf hin, dass die Gattung
aus der Familie der Lippenblütler (Lamiaceae). Ihr ge- Salvia wahrscheinlich nicht monophyletisch ist, also
hören neben dem heimischen Wiesensalbei (Abb. 1A) auf nur eine einzige Ursprungsart zurückgeführt wer-

68
BIOLOGIE

den kann, sondern drei unterschiedliche Ursprünge Abb. 2: Kraftmessungen am Staub-


haben könnte (polyphyletisch).1 So erstaunlich die blatthebel von Salbeiblüten.
mehrfache Bildung des Hebelmechanismus auch A: Mittels eines Messfühlers wird
sein mag, so zeigt doch die konvergente Entwicklung die Auslösung des Hebelmechanis-
eines ähnlichen Bestäubungsmechanismus in einer mus beim klebrigen Salbei (Salvia
weit entfernten, australischen Verwandten des Sal- glutinosa) simuliert.
beis,2 dass hebelförmige Staubblätter nicht exklusiv
B: Der Messfühler ist mit dem eigens
für Salvia sind. Vielmehr diente mehrfach unabhängig
für diese Messungen konstruier-
voneinander eine durch die Lippenblütenkonstrukti- ten Kraftmessgerät verbunden.
on bedingte Staubblattveränderung als Ausgangs- Die Kraft, mit der der Messfühler
punkt für die Bildung der Hebelkonstruktion. Die die unteren Hebelarme bewegt,
parallele Entstehung des Hebelmechanismus unter- wird auf einen hoch empfindli-
streicht die offensichtlich adaptive Bedeutung des chen Biegebalken übertragen und
unter Verwendung eines speziellen
Bestäubungsmechanismus. Da auch bei einem poly-
Computerprogramms als Kraft-Weg-
phyletischen Ursprung von Salvia die drei vermute-
Kurve dargestellt.
ten Abstammungslinien jeweils erheblich mehr Arten
umfassen als die jeweils nächst verwandte Gruppe C: Kraft-Weg-Kurve einer zwanzig-
(Schwestergruppe), liegt der Gedanke nahe, dass der mal hintereinander ausgelösten Blü-
Schlagbaummechanismus eine Schlüsselstruktur für te des Wiesensalbeis. Der Pfeil zeigt
den Beginn der Hebelbewegung an,
die erhöhte Artbildungsrate sein könnte.
die Spitze der Kurve den Moment
Die Nutzung vieler Insekten als potentielle Bestäuber der Auslösung, an dem keine weite-
Die adaptive Bedeutung des Hebelmecha- ist von Vorteil, um an gestörten Standorten zu überle- re Kraft mehr aufgewandt werden
nismus bei bienenblütigen Arten ben oder sich an neuen Standorten zu etablieren. Sie muss (der zweite Gipfel entsteht bei
birgt aber auch die Gefahr der Fehlbestäubung, da die fortgesetzter Messung durch das
Artbildung kann nur erfolgen, wenn der Genfluss lokal auftretenden Bienenarten mehrere Salbeiarten Anstoßen des Messfühlers an die
zwischen den Individuen einer Ausgangspopulation nacheinander besuchen und deren Pollen gleichzeitig Blütenwand).
unterbrochen wird. Am Beispiel der bienenbestäub- an ihrem Körper tragen können. Nun kommt erneut
ten Salbeiarten wollen wir zunächst die Hypothese der Hebelmechanismus ins Spiel. Bedingt durch die
testen, inwiefern es tatsächlich die hebelförmigen artspezifisch verschiedene Länge der Hebelarme wird
Staubblätter sein könnten, die zur reproduktiven der Pollen jeder Salbeiart an einem spezifischen Ort
Isolation beitragen. Da zur Auslösung des Hebelme- auf dem Bienenkörper abgelegt. Eine Hummel kann
chanismus von den Bienen physische Kraft verlangt somit mehrere gleichzeitig blühende Salbeiarten
wird, könnte die Leicht- oder Schwergängigkeit der bestäuben (Abb. 3), ohne dass es zu einer Pollenver-
Hebelbewegung einen Einfluss auf das Bestäuber- mischung kommt – es liegt „mechanische Isolation“
spektrum nehmen. So stellt sich beispielsweise die vor. Der Hebelmechanismus kann damit, sofern seine
Frage, ob zu schwache Bienen vom Nektargenuss Maße konstant und die Blüten der jeweiligen Arten-
und damit vom Bestäubungsgeschehen ausgeschlos- gemeinschaft unterschiedlich proportioniert sind,
sen werden. Mithilfe eines speziellen Messgerätes, Hybridisierung verhindern und zur Arterhaltung bei-
das in Kooperation mit der mechanischen Werkstatt tragen. Ebenso kann er aber auch bei ähnlicher Län-
der Universität Freiburg konstruiert wurde,3 konnten ge der Hebelarme zur Hybridbildung zwischen nah
Kraftmessungen am Staubblatthebel verschiede- verwandten Arten beitragen, einem Prozess, der zwar
ner Salbeiarten durchgeführt werden (Abb. 2A-C). meist nachteilig ist, unter bestimmten Bedingungen
Die Ergebnisse waren überraschend, da die durch- aber auch zu stabilen neuen Arten führt. Schließlich
schnittlich verlangten Kräfte der Blüten mit maximal ist denkbar, dass sich aus einer Population mit variab-
20 Millinewton deutlich unter den Kräften liegen, ler Hebellänge Teilgruppen von Nachkommen bilden,
die Bienen und Hummeln aufbringen können, und die sich in ihrer Hebellänge deutlich voneinander un-
damit offensichtlich kein nennenswertes Hindernis terscheiden. Wird der Pollen dann weit entfernt von-
für unterschiedlich große Bienen darstellen. Der He- einander auf dem gemeinsamen Bestäuber abgelegt,
belmechanismus ist also kein Instrument zur Spezia- führt die mechanische Isolation zur Unterbrechung
lisierung auf bestimmte Bestäuber; dennoch ist ein des Genflusses und zur Artbildung.
erheblicher Vorteil für die Pflanze mit dessen Leicht-
gängigkeit verbunden. Der Hebelmechanismus lässt
nicht nur alle angelockten Insekten als Bestäuber
zu, sondern kompensiert sogar noch unterschiedli- Abb. 3: Differentielle Pollenüber-
che Körpergrößen durch das differentielle Absenken tragung von sechs Salbeiarten auf
des Hebels. Begleitende Untersuchungen im Gelände dem Körper einer Hummelarbei-
bestätigten, dass allein der Wiesensalbei an natürli- terin. Rosa, Salvia verticillata;
chen Standorten von 14 verschiedenen Bienenarten lila, S. nemorosa; blau, S. pratensis;
orange, S. aethiops; dunkelgelb,
bestäubt wird, darunter überwiegend Hummeln und
S. glutinosa; hellgelb, S. austriaca.
Honigbienen, aber auch kleine Solitärbienen.

FORSCHUNGSMAGAZIN 2/2009 69
BIOLOGIE

Obgleich das Vorliegen von mechanischer Isolation


zwischen gemeinsam blühenden Salbeiarten ver-
schiedentlich gezeigt worden ist, fehlt derzeit noch
der experimentelle Nachweis der Artbildung durch
den Hebelmechanismus. Die genannten Arbeitshy-
pothesen müssen mittels Freilanduntersuchungen
und unter Einbeziehung standortökologischer Daten
sowie phylogenetischer Verwandtschaftsanalysen ge-
testet und statistisch untermauert werden.

Neben den bereits genannten adaptiven Vorteilen


trägt der Hebelmechanismus auch zur allgemeinen
Verbesserung des Fortpflanzungssystems bei. Expe-
rimente haben gezeigt, dass die etwa 1.500 Pollen-
körner einer Blüte in acht bis zwölf Portionen abge-
geben werden. Durch die wiederholte Auslösung des
Hebelmechanismus (Abb. 2C) wird der Pollen auf
Abb. 4: Blütenkonstruktionen bei vogelblütigen
verschiedene Bestäubertiere verteilt, die ihn dann Salbeiarten.
zu verschiedenen Empfängerblüten transportieren.
Dadurch wird die genetische Diversität der Nachkom- A, C: Lippenblume mit funktionierendem Hebelme-
menschaft erhöht und der Zeitraum der Pollenüber- chanismus: Nectarinia chalybea an Salvia lanceolata
(Südafrika). Foto: R. Groneberg.
tragung verlängert.
B, D: Röhrenblüte mit herausragenden Reprodukti-
Die Pollenportionierung und die mit ihr verbundene onsorganen: Sappho sparganura an Salvia haenkei
Platzierung des Pollens auf dem Rücken der Bienen (Bolivien). Foto: P. Wester.
hat aber noch eine andere Konsequenz. Die von Bie-
nen bestäubten Salbeiarten unterliegen einem Kon- Reduktion des Hebelmechanismus
flikt, der als „Pollen Dilemma“ bekannt ist. Bienen bei vogelblütigen Arten
nutzen Pollen als Futter für ihre Brut und sind daher
äußerst emsige und blütenstete Bestäuber. Das ist von Eine noch bessere Lösung, Pollenverlust zu vermei-
Vorteil für die Pflanze, deren Pollen mit hoher Wahr- den, ist der Wechsel von der Bienen- zur Vogelblütig-
scheinlichkeit auf eine Blüte der gleichen Art übertra- keit. Im Gegensatz zu Bienen sammeln Vögel keinen
gen wird. Andererseits sammeln die Bienen mithilfe Pollen, sind das ganze Jahr über verfügbar und über-
spezieller Sammelapparate so effizient Pollen, dass brücken weite Distanzen. Innerhalb von Salvia ist der
die Reproduktion der Pflanze in Gefahr ist.4 Im Pollen- Übergang von der Bienen- zur Vogelblütigkeit min-
korn befinden sich die männlichen Spermakerne, die destens zehnmal parallel erfolgt, was sowohl durch
zur sexuellen Reproduktion der Pflanze auf die Narbe die molekularen Daten der Stammbaumanalyse als
einer Empfängerblüte übertragen werden müssen. Je- auch durch ganz unterschiedliche morphologische
der für die Bienenbrut verwendete Pollen ist somit für Anpassungen an die Vögel belegt ist. Letztere betref-
die pflanzliche Reproduktion verloren. Das Dilemma fen die Blütenfarbe, die Größe und Form der Blüten
wird dadurch vergrößert, dass der Pollen proteinreich und interessanterweise auch die Hebelkonstruktion
und damit für die Pflanze teuer ist. Er kann auch nicht, und den damit verbundenen Bestäubungsmechanis-
wie etwa Nektar, nachproduziert werden. So ist ver- mus.5 Von den 185 vogelbestäubten Salbeiarten ha-
ständlich, dass sich innerhalb der Bienenblumen ne- ben knapp 100 Arten die Lippenblütenkonstruktion
ben Einrichtungen zur Anlockung von Bienen auch und den funktionierenden Hebelmechanismus ihrer
Anpassungen gegen das unmäßige Pollensammeln bienenblütigen Vorfahren beibehalten (Abb. 4A). Sie
der Bienen entwickelt haben. Eine erste Möglichkeit schließen die Bienen vor allem durch ihre langen
besteht darin, die Bienen mit Nektar vom Pollensam- Blütenröhren aus, die die Länge der Mundwerkzeu-
meln abzulenken, eine zweite, den Pollen vor dem ge übertrifft und damit den Bienen die Möglichkeit
Zugriff der Bienen zu verstecken. Beide Lösungswege nimmt, an den Nektar zu gelangen. Die übrigen Ar-
sind beim Salbei realisiert: durch die Konstruktion der ten weisen enge Röhrenblüten mit herausragenden
Lippenblüte wird die Biene in eine bestimmte Positi- Pollensäcken und Griffeln auf (Abb. 4B). Diese Umge-
on gezwungen, die ihr den Zugang zum Nektar er- staltung geht mit einem Verlust des Hebelmechanis-
möglicht; dabei löst sie den Hebelmechanismus aus, mus einher, der offensichtlich nicht mehr nötig ist. Die
wodurch sie auf ihrer Rückenseite mit Pollen einge- enge Röhre zwingt den Kolibri, seinen Schnabel gera-
stäubt wird, an einer Stelle also, die sie beim Putzen de in die Blüte einzuführen, wobei er auf dem Schna-
nur schlecht erreicht. Der Hebelmechanismus ist also bel oder Kopf eingestäubt wird. Je länger die oberen
auch eine Möglichkeit, Pollen zu sparen, und die Hebelarme sind, umso eher wird das Federkleid des
Konstruktion der Salbeiblüte ein offensichtlich gelun- Vogels erreicht, das einen besseren Pollentransport
generKompromiss einer Bienenblume, das „Pollen Di- gewährleistet als der glatte Schnabel. Hier vermuten
lemma“ zu reduzieren.

70
BIOLOGIE

wir also einen Selektionsdruck, der zur Verlängerung U


Univ.-Prof. Dr. Regine

Privat
des oberen Hebelarms führt. Wie bei den Bienenblu- Claßen-Bockhoff
C
men kann es dabei auch zur mechanischen Isolation
und Artbildung kommen. Die Hebelkonstruktion der R
Regine Claßen-Bockhoff,
Staubblätter bleibt bei dem Blütentyp mit herausra- Ja
Jahrgang 1954, studierte
genden Pollensäcken und Narben zwar teilweise er- B
Biologie an der Rheinisch-
halten, wird aber unwirksam, weil in der engen Blüte W
Westfälischen Technischen
kein Platz mehr für die Hebelauslösung vorhanden H
Hochschule Aachen und pro-
ist. Andere Arten haben sie durch Versteifung des m
movierte dort 1984 bei Prof.
Hebelgelenks oder durch Reduktion des unteren He- D
Dr. H. A. Froebe (Stipendium
belastes gänzlich verloren. d Friedrich
der Fi di hN Naumann St Stiftung). 1985 führte sie ein
sechsmonatiges Forschungsprojekt in Südost-Asien
Der kurze Streifzug durch die Biologie der Salbeiblü- und Australien durch (DFG-Stipendium); von 1985
ten führt zu dem vorläufigen Ergebnis, dass dem He- bis 1990 war sie als wissenschaftliche Angestellte am
belmechanismus ein hoher adaptiver Wert zukommt. Botanischen Institut der RWTH Aachen tätig. Nach
Inwiefern er direkte artbildende Wirkung hat, muss der Geburt ihrer Tochter (1990) arbeitete sie als freie
noch überprüft werden. Sicher ist jedoch, dass er an Wissenschaftlerin und habilitierte sich 1994 extern
einer allgemeinen Verbesserung des Fortpflanzungs- an der RWTH Aachen (DFG-Habilitationsstipendium).
systems beteiligt ist. Weiterhin ist seine Bedeutung 1998 folgte sie dem Ruf auf eine C3-Professur am
für die Bienenblumen deutlich höher als für die Vo- Institut für Spezielle Botanik der Universität Mainz.
gelblumen, die ihn mehrfach reduziert haben. Der He- Ihre Forschungsschwerpunkte sind evolutionsbiolo-
belmechanismus zeigt damit, dass auch hoch abge- gisch ausgerichtet und liegen im Bereich der Entwick-
leitete, adaptive Strukturen der Selektion unterliegen lungs- und Funktionsmorphologie der Pflanzen sowie
und wieder reduziert werden können, wenn sich die der experimentellen Blütenökologie mit Projekten im
Umwelt ändert. In- und Ausland.

■ Summary ■ Kontakt
Adaptive radiations are actually in the focus of
evolutionary biologists to understand the genetic and Univ.-Prof. Dr. Regine Claßen-Bockhoff
ecological constraints forcing speciation. Salvia is a Johannes Gutenberg-Universität Mainz
suitable model as it is rich in species and characterised Institut für Spezielle Botanik
by the well-known lever mechanism mediating pollen Anselm-Franz-von-Bentzel-Weg 2
transfer. The first data of our project at the Institut für D-55128 Mainz
Spezielle Botanik indicates that the lever mechanism Tel. +49 (0) 6131-39 24 103
might well be a key innovation for speciation but that Fax +49 (0) 6131-39 23 524
it also contributes to pollen saving and optimising Email: classenb@uni-mainz.de
the plants’ mating system. http://www.spezbot.fb10.uni-mainz.de/
home_d/pages/agleiter_classenb.htm

Literatur

1. Walker JB, Sytsma KJ, Treutlein J, Wink M. Salvia (Lamiaceae) is not monophyletic: implications for the systematics, radiation,
and ecological specializations of Salvia and tribe Mentheae. American Journal of Botany 2004; 91: 1115-1125.

2. Guerin G. Floral biology of Hemigenia and Microcorys (Lamiaceae). Australian Journal of Botany 2005; 53: 147-162.

3. Speck T, Rowe N, Civeyrel L, Claßen-Bockhoff R, Neinhuis C, Spatz HC. The potential of plant biomechanics in functional biology
and systematics. In: Stuessy TF, Mayer V, Hörandl E (eds.). Deep Morphology. Toward a Renaissance of Morphology in Plant
Systematics. Koeltz Scientific Books 2003. Königstein, Germany: pp. 241–271.

4. Westerkamp C, Claßen-Bockhoff R. Bilabiate blossoms – the ultimate response to bees? Annals of Botany 2007; 100: 361-374.

5. Wester P, Claßen-Bockhoff R. Floral diversity and pollen transfer in bird-pollinated Salvia species. Annals of Botany 2007; 100:
401-421.

FORSCHUNGSMAGAZIN 2/2008 71
MUSIK

Auftragskomposition für den Neubau der Hochschule für Musik

Von Carolin Lauer und Kristina Pfarr

Am 24. November 2008 wurde der Neubau der und Aufführung eines neuen Werkes kompromisslos
Hochschule für Musik auf dem Campus der Jo- jede Veränderung abzulehnen.“
hannes Gutenberg-Universität mit der Urauf-
führung des Werkes „Sechs Trakl Gesänge für Durch diese enge Zusammenarbeit, die auf Initiative
Tenor, Chor und Orchester“ von Thomas Wells von Univ.-Prof. Dejan Gavric zustande kam, ergab sich
eingeweiht. Unter dem Dirigat von Univ.-Prof. die im Kunstbetrieb seltene Gelegenheit, vom Kompo-
Wolfram Koloseus musizierten der Solist Univ.- nisten selbst Einblicke in das Werk und in dessen Ent-
Prof. Thomas Dewald (Tenor), das Orchester der stehungsprozess zu erhalten. Damit wurden wichtige
Hochschule für Musik und das chorische En- Impulse zur Interpretation und zum Verständnis des
semble Camerata vocale Mainz (Einstudierung: Werkes gewonnen; gleichzeitig blieb die notwendige
Danilo Tepša). ästhetische Offenheit vollständig gewahrt.

Im Jahr 2006 war der U.S.-amerikanische Komponist Es wurde deutlich, dass der Anlass – die Einweihung
Thomas Wells beauftragt worden, ein zirka 30-minü- des lang ersehnten Neubaus – für den Komponisten
tiges Werk für Gesang und Orchester zur Einweihung bei der musikalischen Konzeption eine zentrale Rolle
des Neubaus zu komponieren. Als Meilenstein eines spielte: „Mein Werk ist für die Einweihung und die
komplexen Entwicklungsprozesses der Bläserabtei- Eröffnung des Neubaus der Hochschule für Musik
lung sollte die Komposition in besonderer Weise den komponiert. Und so stehen die Sechs Trakl Gesänge
Einsatz von Blech- und Holzblasinstrumenten vorse- wie der Neubau selbst im Zeichen der Hoffnung und
hen. Den Auftrag vergab die Hochschule für Musik im des Glaubens in unsere Zukunft.“
Ra
Rahmen eines künstlerischen Entwicklungsprojekts,
da
das durch den Forschungsfonds der Johannes Gu- Hinsichtlich der Faktur der Komposition verweist
ten
tenberg-Universität und die „Freunde der Universität Wells auf seine in den letzten Jahren entwickelte
Ma
Mainz e.V.“ unterstützt wurde. musikalische Sprache, die eine durchaus traditionel-
le Stimmführung mit Elementen der Spektralmusik
Tho
Thomas Wells ist Professor für Komposition und und harmonischen Interpolationen kombiniert; letz-
Dir
Direktor der Sound Synthesis Studios an der Ohio tere arbeitet er mittels OpenMusic-Software aus. Der
Sta
State University in Columbus, Ohio. Er studierte un- hier erwähnte gelegentliche Einbezug von Oberton-
ter anderem bei Kent Hennan, Hunter Johnson und basierten Effekten (Spektralmusik) darf sicherlich als
Ka
Karlheinz Stockhausen. Seine Werke werden welt- diskreter Hinweis auf eine Traditionslinie verstanden
we
weit aufgeführt, in den letzten Jahren beispielsweise werden, die den Klang zu einem der wichtigsten
in China, Japan, Australien, Kuba, Brasilien, Südko- Parameter im musikalischen Geschehen erklärt. Die
rea
rea, Portugal, den Niederlanden und Serbien. Sein Auswahl von sechs Gedichten von Georg Trakl (1887-
Œu
Œuvre ist weit gespannt und reicht von Konzerten, 1914) – „Sommersonate“, „Beim jungen Wein“, „So
Ou
Ouvertüren und Kammermusik bis zu Elektroakusti- leise läuten“, „Farbiger Herbst“, „Wintergang in a-
sch
scher Musik. Zugleich ist Thomas Wells Präsident der Moll“ und „Frühling der Seele“ – als Textgrundlage
Autograph: Thomas Wells, Auszug
Soc
Society of Composers Inc., der größten Vereinigung mag zunächst wie ein unlösbarer Widerspruch zu der
aus: Sechs Trakl Gesänge für Tenor,
Chor und Orchester (Uraufführung
von Komponistinnen und Komponisten in den USA. intendierten positiv-optimistischen Grundstimmung
2008). Der Uraufführung der „Sechs Trakl Gesänge“ ging ein des Werkes erscheinen, gilt doch die frühexpressio-
mehrwöchiger Gastaufenthalt des Komponisten an nistische, dunkle Bilderwelt des österreichischen Ly-
der Hochschule für Musik voraus. In diesem Rahmen rikers als hermetisch. Das hat auch der Komponist,
begleitete Thomas Wells die Register- und Endproben vertraut mit den Trakl-Vertonungen Anton Weberns,
und nahm in Absprache mit dem musikalischen Leiter so gesehen: „Zunächst habe ich einen Gegensatz
des Projekts, Univ.-Prof. Wolfram Koloseus, und den zwischen dem besonderen Ton Trakls – insbesondere
Instrumentallehrern abschließende Anpassungen vor, dem Ausdruck von Hoffnungslosigkeit und Einsam-
insbesondere im Hinblick auf den Chorpart, wie der keit der menschlichen Existenz – und meiner eigenen
Komponist selbst erläutert: „Bei der Komposition des musikalischen Sprache empfunden.“ Die Verbindung
Werkes ging ich von einem größeren Chor aus als zwischen der intendierten Grundstimmung der Mu-
er dann in der Hochschule für Musik zur Verfügung sik und den Gedichten Trakls findet der Komponist
stand. Für die Realisation der Aufführung musste ich im unverwechselbaren Ton des Dichters, der von der
daher Änderungen vornehmen [...] Es erscheint für symbolistischen und impressionistischen Sprache bis
einen Komponisten undenkbar, bei der Einstudierung zur expressionistischen Ausdruckskraft reicht. Melan-

72
MUSIK
© Peter Thomas

N
Neubau der Hochschule für Musik
auf dem Campus der Johannes
a
Gutenberg-Universität Mainz.
G

h li A
cholie, flehnung
Aufl h undd hö h LLyrizität
höchste i i ä sind
i d dden aus- W k hi
Werkes hinein
i geltend
l d macht.h AAuftragskompositionen
f k ii
gewählten Gedichten eigen: „Aus den Texten spricht scheint ein gewisser Haut Goût anzuhaften. Wenn
für mich eine Vielzahl von Stimmen und Stimmungen dieser berechtigt wäre, müsste die Musikgeschichte
in kraftvollen und dramatischen Kontrasten, die eine wohl neu geschrieben werden. Schlüsselwerke wie
Vertonung nahelegen. Schließlich fand ich sechs Ge- Monteverdis „L’Orfeo“ (1607), Haydns „Sieben Wor-
dichte, die meiner Vorstellung vom Ausdruck meines te unseres Erlösers am Kreuze“ (1785 bzw. 1796),
Werkes entsprachen und die in einer inneren Verbin- Mozarts „Zauberflöte“ (1791) sind Auftragskompo-
dung zueinander und zu meinem Kompositionsvorha- sitionen. Und dies waren keine Ausnahmen: Höfische,
ben standen: Zwei Gedichte haben musikalische Titel, kirchliche oder privatwirtschaftliche Werkaufträge
vier Gedichte thematisieren den Lauf der Jahreszeiten waren bis Anfang des 19. Jahrhunderts die Regel. Erst
und ein Gedicht erinnert mich an die Stimmung im mit der Romantik – sieht man von frühen „Popstars“
Rheingau.“ des Musikgeschäfts wie Georg Friedrich Händel ein-
mal ab – tritt der künstlerisch und kommerziell auf
In der Musikwelt halten sich manche Klischees sehr eigene Rechnung handelnde Komponist auf den Plan
hartnäckig: Eines davon ist sicher das Ausspielen eines und bestimmt fortan unser Bild des Komponisten.
romantisierenden Künstlertypus gegen den kommer- Dabei gab es weiterhin Kompositionsaufträge, de-
zialisierten Auftragskomponisten. Während der eine, ren Intentionen sehr unterschiedlich waren und sich
ohne äußere Zwänge und nur seinem „künstlerischen vielfach ergänzten. Hier sind zuerst anlassbezogene
Drang“ verpflichtet, im Schaffensrausch komponiert, Produktionen wie beispielsweise Giuseppe Verdis
begibt sich der Auftragskomponist in eine finanzielle „Aida“ zur Eröffnung des Suezkanals 1871, Benjamin
Abhängigkeit von einem Auftrageber, der im Einzel- Brittens „War Requiem“ zur Wiedereröffnung der im Thomas Wells (Mitte) dankt den Interpre-
fall seinen Einfluss bis in wichtige Strukturfragen des Zweiten Weltkrieg zerstörten St. Michael’s Cathedral ten; links der Dirigent Wolfram Koloseus,
rechts der Solist Thomas Dewald.
© Dejan Gavric

FORSCHUNGSMAGAZIN 2/2009 73
MUSIK

von Coventry (1962) oder „Quid es Deus“ für Chor Die Autorinnen danken Nora Gundlach für Recher-
und Orchester von Wolfgang Rihm zum 550-jährigen chearbeiten.
Jubiläum der Universität Freiburg 2007 zu nennen.
In den letzten Jahrzehnten treten außerdem Aufträ-
ge anlässlich von Festivals oder im Zusammenhang ■ Summary
mit Rundfunkproduktionen in den Vordergrund, die In November 2008 the new building of the School
gleichermaßen auf die Förderung von Musikern und of Music on the campus of Johannes Gutenberg
Komponisten zielen und damit eine gleichsam kultur- University Mainz was inaugurated with the premiere
pädagogische Funktion erfüllen. of “Sechs Trakl-Gesaenge“ by the U.S.-American
composer Thomas Wells. This composition was
Festanlässe hat auch die Stadt Mainz mit der Vergabe commissioned by the School of Music within an artistic
von Kompositionsaufträgen verbunden: Zur Einwei- development project which aims at the promotion of
hung des Gutenberg-Denkmals hatte Carl Loewe musicians and at the same time fulfills the task of
ddas Oratorium „Gutenberg“ geschrieben, das am culture mediation. The project is sponsored by the
© Dejan Gavric

114. August 1837 im Mainzer Theater uraufgeführt research fund of Mainz University and the Friends of
w
wurde. Zur Feier des Gutenberg-Jahres 2000 wur- Mainz University Society.
dden gleich mehrere Kompositionsaufträge vergeben:
D
Die Oper „G“ von Gavin Bryars entstand im Auftrag
ddes Staatstheaters Mainz, Kompositionsaufträge der
SStadt Mainz erhielten unter anderen Peter Eötvös, Dr. Carolin Lauer
D

Privat
PPeter Knodt und Georg Birner.
C
Carolin Lauer, geb. 1972, stu-
A
Auch die Hochschule für Musik hat bereits mehrere ddierte Evangelische Theolo-
K
Kompositionen initiiert. Im Mittelpunkt der zweiten ggie und Deutsche Philologie.
In
Internationalen Sommerschule im Jahr 2005 stand SSie ist Geschäftsführerin der
Komponist und Solist nach der Ur- ddie Erarbeitung der Oper „Idilia“, die Mark Moebius H
Hochschule für Musik und
aufführung am 24. November 2008. komponiert hatte. Die Vergabe des Kompositionsauf- ggemeinsam mit Dr. Kristina
trags und die Uraufführung des Werkes in der Fes- PPfarr Geschäftsführerin der
tung Ehrenbreitstein fanden in Kooperation mit dem In
Internationalen Sommer-
UNESCO Welterbe „Oberes Mittelrheintal“ statt. Ein schule Singing Summer.
Jahr später stand die Uraufführung von „Kein Ort.
Nirgends“ von Anno Schreier (nach der Erzählung von
Christa Wolf) auf dem Programm der Internationalen
Sommerschule Singing Summer. Ziel dieser Produkti- Dr. Kristina Pfarr
D
Privat

onen war die Integration von Alter und Zeitgenössi-


scher Musik in das Programm der Sommerschule, zu- K
Kristina Pfarr, geb. 1959,
gleich sollten junge Komponisten gefördert werden. sstudierte Publizistik, Musik-
Singing Summer bot allen Beteiligten – Komponisten, w
wissenschaft und Buchwe-
Kursteilnehmerinnen und -teilnehmern sowie Mento- ssen. Sie ist Leiterin der Pres-
rinnen und Mentoren – die Möglichkeit der gemein- sse- und Öffentlichkeitsarbeit,
samen künstlerischen Arbeit. sstellvertretende Geschäfts-

führerin der Hochschule für
Mit den „Sechs Trakl Gesängen“ von Thomas Wells M
Musik und gemeinsam mit
beging die Hochschule für Musik einerseits das singu- l Lauer Geschäftsführerin
Dr. Carolin h f der Internationa-
läre Ereignis der Einweihung ihres Neubaus; anderer- len Sommerschule Singing Summer.
seits steht der Auftrag im Kontext hochschulinterner
Weiterentwicklung von Studium und Lehre und stellt
darüber hinaus einen Beitrag zur Entwicklung der
Zeitgenössischen Musik dar. So resümiert der Kompo- ■ Kontakt
nist selbst: „Für meine Sechs Trakl Gesänge war die
Wahl der Textgrundlage sehr wichtig, bestimmen die Dr. Kristina Pfarr
Gedichte doch den Ton des Werkes. Ich wollte eine Johannes Gutenberg-Universität Mainz
Dichtung auswählen, die mich inspirierte und eine Hochschule für Musik
Verbindung zu Mainz schafft. Zugleich wollte ich Jakob-Welder-Weg 28
auch etwas über meine Erfahrungen in dieser Stadt D-55128 Mainz
ausdrücken. Da das Werk zur Eröffnung des Neubaus Tel. +49 (0) 6131-39 28 008
der Hochschule für Musik komponiert wurde, sollte Fax +49 (0) 6131-39 28 012
es auch den Optimismus und die Zukunftsfreude aller Email: pfarr@uni-mainz.de
Musikerinnen und Musiker ausstrahlen, die die neue http://www.musik.uni-mainz.de
Hochschule betreten.“

74
Blutspenden rettet Leben.

Vielleicht auch Ihres.


Wo?
Klinikum der
Johannes Gutenberg-Universität Mainz,
Transfusionszentrale, Termine
Hochhaus Augustusplatz Mo, Mi 8.00 bis 16.00
Brent Walker © www.fotolia.de

Di, Do 8.00 bis 18.00


Information Fr 8.00 bis 15.00
Telefon 0 61 31/17-32 16 / 32 17 Sa 8.00 bis 11.00

Das könnte Ihnen auch gefallen