Sie sind auf Seite 1von 160

2.

Dresdner Probabilistik-Symposium
Sicherheit und Risiko im Bauwesen
Fakultät
Bauingenieurwesen

Dresden, 12. November 2004


2. Dresdner Probabilistik-
Symposium
– Sicherheit und Risiko im
Bauwesen –

Dresden, den 12. November 2004


Die Deutsche Bibliothek CIP Einheitsaufnahme
Ein Titeldatensatz für diese Publikation ist bei der Deutschen Bibliothek erhältlich.
ISBN-10: 3-00-019235-2
ISBN-13: 978-3-00-019235-7

© Dirk Proske Verlag


Dresden 2006
Herausgeber: Dirk Proske
2. Auflage
Alle Rechte vorbehalten

Dieses Werk ist urheberrechtlich geschützt. Die dadurch begründeten Rechte, insbesondere die der Übersetzung,
des Nachdrucks, des Vortrags, der Funksendung, der Mikroverfilmung oder der Vervielfältigung auf anderen
Wegen und der Speicherung in Datenverarbeitungsanlagen, bleiben, auch nur bei auszugsweiser Verwertung,
vorbehalten.

Die Wiedergabe von Warenbezeichnungen, Handelsnamen oder sonstigen Kennzeichnungen in diesem Buch
berechtigt nicht zu der Annahme, daß diese von jedermann frei benutzt werden dürfen. Vielmehr kann es sich
auch dann um eingetragene Warenzeichen oder sonstige gesetzlich geschützte Kennzeichen handeln, wenn sie
als solche nicht eigens markiert sind.
Vorwort

Das Dresdner Probabilistik-Symposium findet erfreulicherweise zum zweiten Mal statt. Viel-
leicht gelingt es den Besuchern, Vortragenden und Veranstaltern, damit eine Tradition auf-
zubauen. Zweifelsohne ist das Thema der Tagung ein sehr spezielles. Welcher Bauingenieur
hat schon bei seiner alltäglichen Arbeit Zeit, über die Sicherheit seiner Konstruktionen nach-
zudenken? In der Regel hält sich der Bauingenieur an die Regeln der Technik und kann davon
ausgehen, daß die Konstruktion dann die erforderliche Sicherheit erbringt. Gerade aber bei
anspruchsvollen Aufgaben, Fällen, in denen der Bauingenieur gezwungen ist, eigene Modelle
zu entwickeln, muß er die Sicherheit prüfen. In zunehmendem Maße versuchen Bauin-
genieure sich durch die Bewältigung solcher Aufgaben vom Markt abzugrenzen. Deshalb
sehen wir als Veranstalter langfristig auch einen steigenden Bedarf für die Vermittlung von
Grundlagen der Sicherheitstheorien im Bauwesen. Und vielleicht steigt mit den Jahren die
Anzahl der Besucher. Einen wichtigen Schritt werden wir nächstes Jahr gehen, wenn die Ver-
anstaltung in Zusammenarbeit mit Herrn Prof. Dr. Bergmeister von der Universität für Boden-
kultur in Wien stattfinden wird. Wir würden uns freuen, Sie alle im nächsten Jahr in Wien
zum 3. Probabilistik-Symposium begrüßen zu dürfen. Doch zunächst hoffen wir auf interes-
sante Vorträge und anregende Diskussionen zur diesjährigen Veranstaltung.

Die Veranstalter bedanken sich herzlich bei den Besuchern für Ihr Kommen, bei den Vortra-
genden für die anregenden Beiträge und bei allen Mitarbeiterinnen und Mitarbeitern, die zum
Gelingen des 2. Dresdner Probabilistik-Symposium beigetragen haben.

Prof. Dr.-Ing. Manfred Curbach Dr.-Ing. Dirk Proske


Inhaltsverzeichnis

Zur Wahrnehmung des Risikos von Bauwerken


M. Curbach & D. Proske . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1

Verallgemeinerte Konzepte zur Erfassung unscharfer Daten und Modelle im


Ingenieurbau
B. Möller, W. Graf, M. Beer, J.-U. Sickert. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5

Zuverlässigkeitsbemessung von Stahlbetontragwerken mit SARA


V. Cervenka, R. Pukl, K. Bergmeister, A. Strauss, U. Santa. . . . . . . . . . . . . . . . . . . . . . . . 17

Simulationsverfahren in der stochastischen Strukturmechanik


C. Bucher. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27

Risikostudie am Beispiel Erdbeben


R. J. Scherer & G. Faschingbauer. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39

Probablistische Methoden zur Bemessung von Deichen und Küstenschutzbauten


in den Niederlanden
H. Vrijling & P. van Gelder. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .57

Vergleich der Nachrechnungsklassen von Straßenbrücken nach DIN 1072 und


DIN-Fachbericht
S. Loos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73

Statistische Beschreibung von Eisenbahnlasten


P. Lieberwirth . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87

Zur Ermittlung von Teilsicherheitsfaktoren für Natursteinmaterial


M. Curbach & D. Proske . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99

Probabilistische Beschreibung der Dauerhaftigkeit von Beton


M. Curbach & D. Proske . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
Wahrnehmung und Risiko

Zur Wahrnehmung des Risikos von Bauwerken

Manfred Curbach, Dirk Proske


Institut für Massivbau, Technische Universität Dresden

Zusammenfassung: Die Wahrnehmung von Risiken durch Menschen ist ge-


prägt durch die Geschichte und Tradition jedes Einzelnen. Trotzdem stimmen
viele Menschen bei der Wahrnehmung der Risiken ausgewählter Fachgebiete
überein. So ist die Sicherheit von Kraftfahrzeugen ein wesentliches Verkaufs-
argument, während die Sicherheit von Bauwerken grundsätzlich als ausrei-
chend angesehen wird. Die Diskussion der Sicherheit von Bauwerken verläuft
unbeobachtet von der Öffentlichkeit, während in anderen Bereichen Sicher-
heitsprobleme von der Öffentlichkeit wahrgenommen und intensiv diskutiert
werden.

1 Einleitung
Sicherheit ist ein grundlegendes Bedürfnis jedes einzelnen Menschen. Die Interpretation
und Bedeutung des Begriffes Risiko unterscheidet sich jedoch für jeden Menschen gemäß
seiner Erfahrung und Tradition. Ein Mensch, der in seiner Kindheit von einem Hund gebis-
sen wurde, kann unter Umständen sein Leben lang ein besonders hohes Sicherheitsbedürf-
nis gegenüber Hunden besitzen. Dieses hohe Sicherheitsbedürfnis kann durch einen großen
räumlichen Abstand gegenüber Hunden zum Ausdruck kommen, aber auch in scharfen
Reaktionen gegenüber Mitmenschen, die diesen Tieren große Freiheiten einräumen. Je-
doch nicht alle Sicherheitsbedürfnisse entstehen durch eigene Erfahrungen. Wir sind heute
von einer Vielzahl von Informationsquellen abhängig. Eine dieser Informationsquellen ist
die Werbung.
Verschiedene Bereiche der Wirtschaft nutzen das Thema Sicherheit als ein Verkaufs-
argument. Häufig wird bei Werbebotschaften von Personenkraftfahrzeugen auf neue oder
erweiterte sicherheitserhöhende Maßnahmen hingewiesen. Beispielhaft sei das sogenannte
Pre-Safe-Paket von Mercedes zu nennen oder die deutliche Zunahme von Airbags in mo-
dernen Fahrzeugen. Während es vor wenigen Jahren den Airbag für den Beifahrer noch als
Sonderausrüstung gab, werden heute in vielen Fahrzeugen der Oberklasse eine nahezu
zweistellige Anzahl von Airbags eingebaut.
Auch bei anderen technischen Erzeugnissen wird besonderes Augenmerk auf die Sicher-
heit gelegt. So werden in Flugzeugen den Passagieren vor jedem Start Sicherheitsinforma-
tionen gegeben. Oder betrachten wir den Bereich der Nahrungsmittel. Dort wird oft auf die

1
Wahrnehmung und Risiko

Qualität und Sicherheit des Anbaus verwiesen. Ein letzter Bereich, der mit dem Begriff der
Sicherheit wirbt, ist der Bereich der Politik. Häufig verwenden Politiker die Begriffe der
inneren und äußeren Sicherheit bei Wahlveranstaltungen.
Wie sieht es aber mit der Sicherheit von Bauwerken aus? Es gibt allein über 120.000 Brük-
ken in Deutschland, über die jeden Tag zusammen mehrere Millionen von Kraftfahrzeugen
verkehren. Wieso ist bei Kraftfahrzeugen Sicherheit ein Thema und bei den Bauwerken
nicht?

2 Sicherheit von Bauwerken


Bauwerke müssen sicher sein. Diese Anforderung gilt für alle technischen Produkte. Auch
Kraftfahrzeuge, Flugzeuge oder Bügeleisen müssen sicher sein. Bauwerke unterscheiden
sich jedoch in einem wichtigen Punkt von den anderen genannten technischen Erzeugnis-
sen: Die Freiheit der unzulässigen Nutzung des Produktes ist deutlich eingeschränkt. Man
kann Möbel oder Buchregale in ein Wohnhaus stellen, aber es kostet schon sehr viel Mühe,
die Decke eines ordnungsgemäß errichteten Gebäudes so zu überlasten, daß sie einstürzt.
Bei einem Personenkraftwagen sieht das anders aus: Jeder Nutzer kann auf einfachste Wei-
se ein Fahrzeug unsachgemäß nutzen und eine unangepaßte Geschwindigkeit fahren. Al-
lein die Anzahl der Verkehrskontrollen belegt die Notwendigkeit der aktiven Kontrolle der
Fahrer.
Die persönliche Verantwortung für die Sicherheit versucht der Nutzer eines Fahrzeuges
durch sicherheitserhöhende Maßnahmen im Kraftfahrzeug abzugeben. Deshalb ist Sicher-
heit ein Verkaufsargument in der Automobilindustrie. Würde man also den Nutzer von
Bauwerken für die Sicherheit mit haftbar machen, so würde durchaus eine stärkere öffent-
liche Wahrnehmung der Sicherheit von Bauwerken die Folge sein. Und in der Tat, bei
Bauwerken, die den Tod vieler Menschen verursachen könnten, wird über die Sicherheit
der Bauwerke in der Öffentlichkeit diskutiert. Man denke dabei nur an Staumauern (Abb. 1).

Abb. 1: Katse-Staumauer in Lesotho während der Errichtung.

2
Wahrnehmung und Risiko

Neben der genannten Begründung für die geringe Wahrnehmung der Sicherheit von Bau-
werken dürfte noch ein zweiter Grund vorhanden sein: Bauwerke weisen unter normalen
Umständen eine sehr hohe Sicherheit auf. Der Einsturz von Bauwerken während der Nut-
zung in den entwickelten Industrieländern liegt im einstelligen Bereich pro Jahr. Während
durch Verkehrsunfälle pro Jahr allein in Deutschland mehrere tausend Menschen sterben,
sind durch Einstürze von Bauwerken nur sehr wenige Menschen betroffen. Oft treten an
Bauwerken Schäden bereits lange vor dem Einsturz auf, die zu Sanierungs- oder Verstär-
kungsmaßnahmen führen. Im Prinzip handelt es sich bei Bauwerken um sehr gutmütige
technische Produkte. Diese hohe Sicherheit, z.B. dargestellt in Form von Sterbewahr-
scheinlichkeiten, ist auch in anderen technischen Bereichen zu finden. Betrachten wir die
Eisenbahn. Während in Bussen oder Flugzeugen Sicherheitsgurte verwendet werden müs-
sen, darf sich in Eisenbahnen jeder frei bewegen. Die geringe Anzahl von Unfällen auf
Grund der Spurführung des Fahrzeuges hat dazu geführt, daß sich die Menschen in diesem
Transportmittel sehr sicher fühlen.
Wie aber bereits erwähnt wurde, ist das Sicherheitsempfinden subjektiv. Die gerade ge-
nannte objektive Begründung für die unterschiedlichen Sicherheitsbedürfnisse ist deshalb
nur teilweise gültig. Fragt man Menschen, warum sie bei diesem oder jenem Produkt ein
höheres Sicherheitsbedürfnis entwickeln, fällt vielen Menschen die Erklärung schwer. Das
gleiche gilt für die Erläuterung von Risiken. Wie kann man Risiken bildhaft darstellen?
Einen Versuch zeigt Abb. 2. Vielleicht verschwindet das Problem der Risikovermittlung
aber wieder, wenn man sich vergegenwärtigt, daß Ausbildung, Schule und Erziehung letzt-
endlich nichts anderes als eine Risikokommunikation sind. Wir bringen Kindern das
Schwimmen bei, damit sie nicht ertrinken können. Wir bringen Kindern das Lesen bei, so
daß Sie Warnschilder erfassen können. Diese Form der Risikokommunikation ist Ursache
und Lösung der subjektiven Risikowahrnehmung bzw. der unterschiedlichen Schutzbe-
dürfnisse zugleich.
Folgendes Beispiel soll die unterschiedlichen Kenntnisse über Risiken und die damit ver-
bundenen Schwierigkeiten der Begründung der Sicherheitsbedürfnisse zeigen. Seit Jahr-
zehnten werden Pflanzensamen mit Röntgenstrahlungen beschossen, um Mutationen zu
verursachen, die höhere Erträge der Nutzpflanzen erlauben sollen. Es handelt sich hierbei
um eine grobe Form der Genmanipulation. Diese Form der Genmanipulation wird von der
Bevölkerung nicht wahrgenommen und damit passiv akzeptiert. Neuere Formen der Gen-
manipulation mit gezielter Veränderung der Genstruktur der Pflanzen werden aber von
großen Teilen der Bevölkerung abgelehnt. Eine Diskussion der beiden verschiedenen Ver-
fahren hinsichtlich der Risiken hat auch niemals in der Bevölkerung stattgefunden, aber bei
dem letztern Verfahren existiert auf Grund der der Bevölkerung zugänglichen Informatio-
nen ein höheres Sicherheitsbedürfnis. Viele Menschen wirken verwundert, wenn man ih-
nen davon berichtet, daß sie seit Jahrzehnten genetisch modifizierte Lebensmittel ver-
wenden. [1]
Die Lieferung von Informationen an die Bevölkerung und damit die Befähigung zur Si-
cherheitsbeurteilung ist eine der wichtigsten Aufgaben von Wissenschaftlern und in gewis-
ser Weise auch von Journalisten. Und auch wenn die hohe, aber von der Bevölkerung nicht
wahrgenommene Sicherheit von Bauwerken als ein Kompliment an die Bauingenieure
verstanden werden kann, so ist die Diskussion der Sicherheit und des Risikos von Bau-
werken nicht nur eine Aufgabe für die Bauingenieure untereinander, wie es im Rahmen

3
Wahrnehmung und Risiko

dieser Veranstaltung durchgeführt wird, sondern auch die Aufgabe des Ingenieurs, dieses
Wissen in die Öffentlichkeit zu tragen.

Abb. 2: Poster einer Ausstellung, die das Thema bildliche Darstellung von Risiken bein-
haltete [2]

3 Literatur
[1] Proske, D.: Katalog der Risiken – Risiken und ihre Darstellung. Eigenverlag, Dresden
2004
[2] http://perso.ensad.fr/~fabienne/traverse-risque/, 2004

4
Das Datenmodell Fuzzy-Zufälligkeit und seine Anwendung im Ingenieurbau

Das Datenmodell Fuzzy-Zufälligkeit und


seine Anwendungsmöglichkeiten im Ingenieurbau*

Bernd Möller, Wolfgang Graf, Michael Beer, Jan-Uwe Sickert


Institut für Statik und Dynamik der Tragwerke, Technische Universität Dresden

Zusammenfassung: Im Beitrag wird ein neues Konzept zur Unschärfe-


modellierung vorgestellt, daß auf der Theorie der Fuzzy-Zufallsgrößen basiert.
Dieses übergeordnete Unschärfemodell enthält Zufallsgrößen und Fuzzy-Größen
als Sonderfälle.

Die Fuzzy-Zufallsgrößen werden als Eingangsgrößen bei der fuzzy-


probabilistischen Tragwerksanalyse und der fuzzy-probabilistischen Sicherheits-
beurteilung von Tragwerken berücksichtigt. An einem Beispiel wird die fuzzy-
probabilistische Tragwerksanalyse erläutert.

1 Einleitung

Die Anwendung von Fuzzy-Zufallsgrößen bietet die Möglichkeit, Unschärfe mit der
Charakteristik Fuzzy-Zufälligkeit mathematisch zu beschreiben. Fuzzy-Zufälligkeit tritt auf,
wenn Zufallsgrößen nicht exakt beobachtet werden können, z.B. infolge schwankender
Randbedingungen. Fuzzy-Zufallsgrößen können auch als fuzzifizierte Zufallsgrößen
interpretiert werden, da das zufällige Ereignis nur unscharf beobachtet werden kann.

Fuzzy-Zufallsgrößen sind beispielsweise unscharfe Tragwerksparameter, die teilweise zufällige


Eigenschaften zeigen, jedoch nicht zweifelsfrei als reelle Zufallsgröße modelliert werden
können. Mit Hilfe von Fuzzy-Wahrscheinlichkeitsverteilungsfunktionen werden Fuzzy-
Zufallsgrößen beschrieben. Zur Generierung dieser Fuzzy-Wahrscheinlichkeitsverteilungs-
funktionen werden die bekannten Methoden der schließenden Statistik so erweitert, daß auch
die Fuzziness der vorliegenden Daten erfaßt wird.

Für die Analyse eines Tragwerkes mit Hilfe eines scharfen (oder unscharfen) Algorithmus und

* Erstveröffentlichung in:
Festschrift zum 60. Geburtstag von Prof. Hartmann, Ruhr-Universität Bochum

5
Das Datenmodell Fuzzy-Zufälligkeit und seine Anwendung im Ingenieurbau

mit Fuzzy-Zufallsgrößen (oder Zufallsgrößen) als Eingangsgrößen sowie Fuzzy-Größen als


Modellgrößen wird die fuzzy-probabilistische Tragwerksanalyse eingeführt. Die Kombination
einer Monte-Carlo-Simulation mit der Fuzzy-Tragwerksanalyse ermöglicht die simultane
Berücksichtigung der unterschiedlichen Unschärfe als: Zufälligkeit, Fuzzy-Zufälligkeit und
Fuzziness.

Viele Material-, Geometrie- und Lastparameter zeigen fuzzy-zufällige Variationen in Zeit und
Raum. Zur mathematischen Beschreibung dieser Parameter werden Fuzzy-Zufallsfunktionen
eingeführt, die bei der Tragwerksanalyse mit Hilfe der Fuzzy Stochastic Finite Element
Method (FSFEM) berücksichtigt werden.

Das Konzept der Fuzzy-Zufallsgrößen wird auch für die Sicherheitsbeurteilung von
Tragwerken angewendet, z.B. in Form der Fuzzy First Order Reliability Method (FFORM),
s. Abschn. 7.

2 Bemerkungen zur Unschärfe

Das mechanische Verhalten von Tragwerken kann nur dann realistisch beurteilt werden, wenn
alle Eingangsdaten zutreffend beschrieben werden und ein wirklichkeitsnahes Berech-
nungsmodell eingesetzt wird. Eingangs- und Modellparameter liegen oft nur unscharf vor.

Häufig existieren für unscharfe Parameter nur Stichproben mit begrenzter Anzahl von
Stichprobenelementen, aus denen eine formale mathematische Beschreibung der Unschärfe zu
entwickeln ist. Die Testtheorie der klassischen Statistik erlaubt die Testung einer Stichprobe
auf Zufälligkeit. Falls die Stichprobe nicht die Eigenschaft Zufälligkeit besitzt, sind andere
Unschärfemodelle wie das für Fuzzy-Zufälligkeit heranzuziehen.

Die in Abb. 1 dargestellte konkrete Stichprobe soll bezüglich der zuzuordnenden Unschärfe
beurteilt werden. Die Stichprobenelemente beschreiben die Zugfestigkeit von Glasfilament-
garn. Die Stichprobe wird mit der Schätz- und Testtheorie ausgewertet. Zur Prüfung der
zufälligen Eigenschaften der Stichprobe in Abb. 1 werden parameterfreie Tests durchgeführt.
Die Nullhypothese H0 – "die Stichprobenelemente sind zufällig" – wird mit einem
Signifikanzniveau von 0,987 abgelehnt. Der Test auf Homogenität ergibt, daß die
Nullhypothese H0 – "die abgeteilten Stichproben mit den Elemente 1-55 und 56-110 stammen
aus derselben Verteilung" – mit 1,0 abgelehnt wird. Mit Hilfe von Anpassungstests wird der
Typ der Wahrscheinlichkeitsverteilung der Stichprobe gesucht. Der KOLMOGOROV-
SMIRNOV-Anpassungstest liefert sowohl für die Normalverteilung als auch für die
logarithmische Normalverteilung eine Ablehnsicherheit von 0,0. Die eindeutige Zuordnung
eines Verteilungstyps ist folglich nicht möglich. Das i.i.d.-Paradigma (i.i.d. = identical
independent distributed) der Statistik ist nicht erfüllt.

6
Das Datenmodell Fuzzy-Zufälligkeit und seine Anwendung im Ingenieurbau

Abb. 1: Zugfestigkeit von Glasfilamentgarn NEG-ARG 620-01

Wie die folgende numerische Studie zur Festlegung des Verteilungstyps einer Grundgesamt-
heit zeigt, kann informelle Unschärfe nicht allein durch Zufälligkeit beschrieben werden.
Gegeben sei eine Grundgesamtheit mit theoretisch exakter Normalverteilung, dem Er-
wartungswert E(X) = 3 und der Varianz VAR(X) = 1. Es werden 40 000 Stichproben vom
Umfang n = 100 gezogen. Obwohl der Verteilungstyp der Grundgesamtheit bekannt ist,
werden für die gezogenen Stichproben alternativ Normalverteilung und logarithmische
Normalverteilung angenommen. Für jede Stichprobe werden die Parameter der
angenommenen Normalverteilung und der logarithmischen Normalverteilung mit der
Maximum-Likelihood-Methode geschätzt. Die Erwartungswerte und die Varianzen der 40.000
geschätzten Verteilungen werden berechnet, sie sind in Abb. 2 als Häufigkeitsverteilung
zusammengefaßt. Obwohl die Ziehung der Stichproben unter gleichbleibenden Bedingungen
erfolgte, ist erkennbar, daß eine erhebliche informelle Unschärfe besteht, wenn der
Verteilungstyp einer Grundgesamtheit nicht zutreffend bestimmt werden kann.

Insbesondere im Bauingenieurwesen kann nicht vorausgesetzt werden, daß Messungen zur


Bestimmung von Parametern (Ziehung von Stichproben) unter gleichbleibenden Bedingungen
erfolgen. Eine Vielzahl nichtkonstanter Einflüsse wirken sich auf Material-, Geometrie- und
Lastparameter aus. Das grundlegende i.i.d.-Paradigma wird dann verletzt. Auch bei
Anwendung der BAYES-Statistik als einer Möglichkeit zur Einbringung zusätzlicher
Informationen über eine Grundgesamtheit ist die Erfüllung des i.i.d.-Paradigmas bei
Stichprobenvariablen mehrerer Stichproben strittig. Denn es wird vorausgesetzt, daß die Ver-
teilung der Grundgesamtheit, aus der nacheinander verschiedene Stichproben gezogen werden,
unverändert bleibt. Die angenommene A-priori-Verteilung kann sich signifikant auf die
Ergebnisse auswirken und zu nicht vernachlässigbaren Fehlern führen.

7
Das Datenmodell Fuzzy-Zufälligkeit und seine Anwendung im Ingenieurbau

Abb. 2: Häufigkeitsverteilungen des Erwartungswertes E(X) und der Varianz VAR(X) bei
unterschiedlichen Annahmen zum Typ der Verteilungsfunktion

Bei nichtkonstanten Reproduktionsbedingungen, geringem Stichprobenumfang, unscharfen


oder nichtnumerischen Daten bzw. der Verletzung des i.i.d.-Paradigmas besteht erhebliche
Unschärfe, die mit erweiterten Unschärfemodellen beschrieben werden sollte. Die
Modellierung von Unschärfe als Fuzzy-Zufälligkeit führt auf ein verallgemeinertes
Unschärfemodell, das die Sonderfälle Fuzziness und Zufälligkeit enthält. Die mathematische
Beschreibung der Fuzzy-Zufälligkeit basiert auf der Theorie der Fuzzy-Zufallsgrößen.

3 Fuzzy-Zufallsgrößen
Grundlegende Begriffe und Definitionen zur Theorie der Fuzzy-Zufallsgrößen wurden in [1],
[2], [3] und [4] eingeführt. Fuzzy-Zufallsgrößen sind durch Erweiterung des axiomatischen
Wahrscheinlichkeitsbegriffes nach KOLMOGOROV definiert. Der Wahrscheinlichkeitsraum
S
[X; ; P] wird dabei um die Dimension Fuzziness erweitert; das unscharfe Maß
Wahrscheinlichkeit bleibt über dem n-dimensionalen EUKLIDischen Raum Rn erklärt.

- ist das Fuzzy-Ergebnis der unscharfen Abbildung


Eine Fuzzy-Zufallsgröße X

Ω6
~
F(Rn) (1)
mit F(Rn) als Menge aller Fuzzy-Größen im Rn. Jede gewöhnliche Zufallsgröße X (ohne
- enthalten ist, wird als Original von X
Fuzziness) auf X, die vollständig in X - bezeichnet. Die
Fuzzy-Zufallsgröße X - ist die Fuzzy-Menge aller möglichen Originale X, die in X - enthalten
sind. Die Fuzzy-Zufallsgröße X - kann mit einer Fuzzy-Wahrscheinlichkeitsverteilungsfunktion
-F(x) mathematisch beschrieben werden.

Die Fuzzy-Wahrscheinlichkeitsverteilungsfunktion - -
F(x) von X ist die Menge der Wahr-
- mit den Zugehörigkeitswerten
scheinlichkeitsverteilungsfunktionen aller Originale X von X
µ(F(x)), s. Abb. 3. Die Quantifizierung der Fuzziness durch Fuzzy-Parameter führt auf die
Beschreibung der Fuzzy-Wahrscheinlichkeitsverteilungsfunktion - - als Funktion der
F(x) von X
Fuzzy-Scharparameter -s .

8
Das Datenmodell Fuzzy-Zufälligkeit und seine Anwendung im Ingenieurbau

-( x )
F ' F(-s , x) (2)

Abb. 3:
-
Fuzzy-Wahrscheinlichkeitsdichtefunktion f (x) und Fuzzy-Wahrscheinlichkeits-
verteilungsfunktion -
F(x) einer eindimensionalen kontinuierlichen Fuzzy-
Zufallsgröße

Für die numerische Auswertung wird vorteilhaft die α-Diskretisierung angewendet


-, x) ' {F (x); µ(F (x)) | F (x) ' [F (x); F (x)], µ(F (x)) ' α,
F(s œα 0 (0, 1]}(3)
α α α min,α max,α α

mit Fmin,α(x) = inf{F(s, x) | s 0 sα}


Fmax,α(x) = sup{F(s, x) | s 0 sα}

4 Fuzzy-Zufallsfunktionen
Unscharfe Parameter (z.B. Materialparameter, Belastungen oder Randbedingungen), deren
Ausprägung von der Zeit τ oder von den Raumkoordinaten Θ = {Θ1, Θ2, Θ3} abhängig ist und
denen die Unschärfecharakteristik Fuzzy-Zufälligkeit zugeordnet werden kann, können mit
Fuzzy-Zufallsfunktionen quantifiziert werden. Die Zeit- und Raumkoordinaten werden im
Vektor t = {τ, Θ} zusammengefaßt. Eine Fuzzy-Zufallsfunktion ist dann eine Menge von
Fuzzy-Zufallsgrößen X - (t) = { X - (t, ω ), t 0 T} über einem gemeinsamen Fuzzy-
- - - -
S
Wahrscheinlichkeitsraum [X; ; P ]. Eine Fuzzy-Zufallsfunktion X (t) ={ X (t, ω), t 0 T} ent-
steht durch die unscharfen Abbildungen von T × Ω auf F(Rn). Ein Exemplar der Fuzzy-
Zufallsfunktion ohne Zufälligkeit ist eine Fuzzy-Funktion [5]. Ein Exemplar der Fuzzy-
Zufallsfunktion ohne Fuzziness ist eine gewöhnliche Zufallsfunktion, die Originalfunktion der
- (t, ω) eine Fuzzy-Zufallsgröße
Fuzzy-Zufallsfunktion genannt wird. Für jedes t 0 T 0 Rn ist X
-
im Fuzzy-Wahrscheinlichkeitsraum [X; ; - S
P ].

Mit Hilfe der α-Diskretisierung kann eine Fuzzy-Zufallsfunktion als Menge von α-
Niveaumengen gewöhnlicher Zufallsfunktionen formuliert werden
- ( t ) ' {X ( t ); µ(X ( t )) | X ( t ) ' [X ( t ); X ( t )], µ(X ( t )) ' α,
X œα 0 (0, 1(4)
α α α min,α max,α α

Für eine Fuzzy-Zufallsfunktion, die allein von den Raumkoordinaten abhängig ist, wird der
Begriff Fuzzy-Zufallsfeld verwendet, bei Abhängigkeit von der Zeit der Begriff Fuzzy-

9
Das Datenmodell Fuzzy-Zufälligkeit und seine Anwendung im Ingenieurbau

Zufallsprozeß. Die Definition der Fuzzy-Zufallsfunktionen stützt sich auf [6].

Für die Fuzzy-Zufallsfunktion kann eine Fuzzy-Wahrscheinlichkeitsfunktion als Fuzzy-Menge


der Wahrscheinlichkeitsfunktionen der Originalfunktionen aufgestellt werden. Analog zu Gl.
(3) ist dann eine Darstellung in Abhängigkeit von Fuzzy-Scharparametern möglich. Zur
Beschreibung der partiellen Eigenschaft Zufälligkeit von Fuzzy-Zufallsfunktionen kann die
Theorie der Zufallsfunktionen herangezogen werden. Die Fuzzy-Zufallsfunktion ist z.B. streng
stationär, wenn die Momente aller Ordnungen der Fuzzy-Wahrscheinlichkeitsverteilungs-
funktion gegenüber einer Verschiebung im Vektor t invariant sind.

5 Unscharfe Datenanalyse

Aus dem umfangreichen Gebiet der unscharfen Datenanalyse wird hier im Zusammenhang mit
der Modellierung von Fuzzy-Zufälligkeit das Aufstellen der Fuzzy-Wahrscheinlichkeits-
verteilungsfunktionen betrachtet. Diese Funktionen werden nach Gl. (2) in Abhängigkeit von
Fuzzy-Scharparametern formuliert. Fuzzy-Scharparameter können alle Funktionsparameter
und/oder Parameter zur Beschreibung des Funktionstyps sein.

Die hier entwickelten Methoden der unscharfen Datenanalyse zur Fuzzy-Bewertung der stati-
stischen Inferenz gehen sowohl von der klassischen als auch von der modernen Statistik aus,
Bootstrap-Verfahren werden einbezogen [7]. Für Punkt- und Intervallschätzungen der
Verteilungsparameter werden Momentenschätzer und Maximum-Likelihood-Schätzer
eingesetzt. Angenommene Verteilungstypen werden mit Hilfe von Anpassungstests bewertet.
Verteilungsfreie Schätzverfahren zur Beurteilung von Stichproben (Test auf Zufälligkeit, Test
auf Homogenität) werden ebenfalls verwendet. Zur Berücksichtigung der informellen
Unschärfe wurden zwei Konzepte entwickelt.

Fuzzy-Parameterschätzung
Bei Annahme eines Funktionstyps für die Fuzzy-Wahrscheinlichkeitsverteilungsfunktion
reduziert sich das Schätzproblem auf die Ermittlung der Verteilungsparameter. Diese werden
als Fuzzy-Zahlen modelliert. Hier wird vorgeschlagen, den Gipfelpunkt der Fuzzy-Parameter
durch Punktschätzung und die α-Niveaumengen durch Intervallschätzung bei vorgegebenem
Konfidenzniveau festzulegen. Abb. 4 zeigt das Vorgehen am Beispiel einer Fuzzy-Dreieckzahl.

θ̂ ' Θ (x1, ..., xn)

Pθ [T u (X1, ..., Xn) < θ < T o (X1, ..., Xn)] ' γ

Abb. 4: Bestimmung von Verteilungsparametern

10
Das Datenmodell Fuzzy-Zufälligkeit und seine Anwendung im Ingenieurbau

Verteilungsfreie Schätzung der Fuzzy-Wahrscheinlichkeitsverteilung


Dieser Ansatz ermöglicht es, die i.d.R. informell unscharfe Annahme eines Verteilungstyps zu
umgehen, indem die empirische Verteilungsfunktion unmittelbar fuzzifiziert und die Fuzzy-
Wahrscheinlichkeitsverteilungsfunktion direkt gebildet wird. Das Vorgehen basiert auf der
Gesetzmäßigkeit, daß die empirische Verteilungsfunktion aus binomialverteilten Zufallsgrößen
zusammengesetzt ist. Mit dem Vorgehen nach CLOPPER und PEARSON werden Konfidenz-
intervalle für binomialverteilte Zufallsgrößen ermittelt [7]. Diese werden zur Fuzzifizierung der
Funktionswerte der Fuzzy-Wahrscheinlichkeitsverteilungsfunktion genutzt.

6 Fuzzy-probabilistische Tragwerksanalyse
Ziel der fuzzy-probabilistischen Tragwerksanalyse ist es, die fuzzy-zufälligen Eingangsgrößen
- und die Fuzzy-Modellgrößen mit Hilfe eines scharfen (oder unscharfen) Analyse-
X j
algorithmus M ( M - ) auf Ergebnisgrößen abzubilden. Die Ergebnisse -Z 0 -Z der fuzzy-
i
probabilistischen Tragwerksanalyse sind Fuzzy-Zufallsgrößen.
-Z ' Z- , ..., -Z , ..., Z- ' M
- (X
-) (5)
1 i m

Bei Separation der Fuzziness im Scharparametervektor -


s ergibt sich
-Z ' Z- , ..., -Z , ..., Z- ' M(s-, X) (6)
1 i m

Nachfolgend wird für den deterministischen Kern des Abbildungsoperators M(-s , X) ein physi-
kalisch nichtlinearer Analysealgorithmus für allgemeine Stahlbeton-Faltwerke nach [8]
verwendet. Dieser Algorithmus repräsentiert die deterministische Grundlösung. Er gestattet
die realitätsnahe Simulation komplexer Lastprozesse unter Berücksichtigung aller wesent-
lichen Stahlbeton-Nichtlinearitäten.

Die fuzzy-probabilistische Tragwerksanalyse wird mit Hilfe eines dreistufigen Algorithmus


gelöst. Dabei werden im Raum der Fuzzy-Scharparameter -s mit der α-Level-Optimierung [9]
diejenigen Elemente (Realisierungen) der Fuzzy-Menge -s in Gl. (6) bestimmt, die auf jedem
-
α-Niveau den größten und kleinsten Wert der α-Niveaumenge der Ergebnisse Z i festlegen.
Mit jedem Element der Fuzzy-Menge -s wird ein Original Xj der Fuzzy-Zufallsgröße X -
j
ausgewählt. Die fuzzy-probabilistische Abbildung nach Gl. (6) ist damit auf eine gewöhnliche
probabilistische Abbildung zurückgeführt, d.h., für die Zufallsgrößen (Originale) Xj sind über
den Abbildungsoperator die Zufallsgrößen (Originale) Zi zu bestimmen. Diese Aufgabe wird
auch als probabilistische Grundlösung bezeichnet. Die Menge der so bestimmten Originale Zi
dient zur Formulierung der Fuzzy-Zufallsgrößen - Z i . Innerhalb der probabilistischen
Grundlösung ist die deterministische Grundlösung mehrfach abzuarbeiten.

Für die probabilistische Grundlösung wird die Monte-Carlo-Simulation [10] eingesetzt - zur
Verminderung des numerischen Aufwandes in der Form einer Quasi-Monte-Carlo-Methode.

Beim Einsatz einer auf FE-Algorithmen basierenden deterministischen Grundlösung können


Fuzzy-Zufallsfunktionen erfaßt werden; dies führt zur Fuzzy Stochastic Finite Element
Method (FSFEM). Die Fuzzy-Zufallsfunktionen werden dabei in korrelierte Fuzzy-

11
Das Datenmodell Fuzzy-Zufälligkeit und seine Anwendung im Ingenieurbau

Zufallsgrößen diskretisiert. Die meist ohne experimentelle Verifikation festgelegte Korrelation


zwischen den diskretisierten Fuzzy-Zufallsgrößen kann als Fuzzy-Größe modelliert werden.

Die FSFEM sei an einem Beispiel demonstriert. Das Stahlbeton-Faltwerk in Abb. 5 wird unter
Berücksichtigung der maßgebenden Nichtlinearitäten des Stahlbetons und der Fuzzy-
Zufälligkeit von Beton-Druckfestigkeit und Flächenlast berechnet.

Für jede Faltwerkebene ist die Ausdehnung des Tragwerkes in R2 scharf. Das System wird mit
48 finiten Elementen vernetzt. Jedes Element mit einer Gesamtdicke von 10 cm ist zuvor mit
sieben äquidistanten Betonschichten und jeweils zwei kreuzweise angeordneten verschmierten
Bewehrungsschichten an der Ober- und Unterseite modelliert worden (s. Abb. 5).

5 p

1,5 m
1 4
x3 x2

2 x1
Auflagerbedingungen:
Rand 2 - 4 - 6
v~1 = φ2~ = φ3~ = 0
4
Rand 5 - 6 3
v~2 = φ1~ = φ3~ = 0 9 2
1
8 5
Punkt 1 10 6
7
v3~ = 0 11

Beton C 20/25: Bewehrungsstahl S 500:


Schicht 1-7 Schicht 8 7,85 cm²/m
Schicht 9 2,52 cm²/m
Schicht 10 2,52 cm²/m
Schicht 11 7,85 cm²/m

Abb. 5: Geometrie, FE-Modell

Es werden das Beton-Stoffgesetz nach KUPFER/LINK und ein bilineares Stoffgesetz für den
Bewehrungsstahl verwendet. Die Erfassung von Beton-Zugrissen im Element erfolgt
schichtenweise nach dem Konzept der verschmierten Risse. Die unscharfe Flächenlast wird
inkrementell bis zum vorgegebenen Gebrauchslastniveau gesteigert. In dieser Laststufe werden
ausgewählte Ergebnisgrößen bereitgestellt. Bei Berücksichtigung der Fuzzy-Zufälligkeit der
unscharfen Eingangsgrößen sind auch die Ergebnisgrößen Fuzzy-Zufallsgrößen.

Die Fuzzy-Zufälligkeit der Beton-Druckfestigkeit wird mit einem homogenen isotropen

12
Das Datenmodell Fuzzy-Zufälligkeit und seine Anwendung im Ingenieurbau

Fuzzy-Zufallsfeld in R2 der Faltwerkebenen modelliert. Das Fuzzy-Zufallsfeld wird in den


-
Schwerpunkten der finiten Elemente diskretisiert. Zwischen der Beton-Zugfestigkeit βt und
-
der Beton-Druckfestigkeit βc wird die Abhängigkeit
-β ' 0,092 · β- (7)
t c

genutzt. Im Elementschwerpunkt (Diskretisierungspunkt) wird das Hauptspannungskriterium


(Rißkriterium) ausgewertet. Es wird volle Korrelation sowohl zwischen der Druckfestigkeit
und der Zugfestigkeit als auch zwischen den Festigkeiten der Schichten eines finiten Elementes
angenommen. Die Korrelation der diskretisierten Variablen einer Faltwerkebene wird durch
Vorgabe der Fuzzy-Korrelationslänge nach Abb. 6 berücksichtigt. Die diskretisierten Fuzzy-
Zufallsgrößen unterschiedlicher Faltwerkebenen sind nicht korreliert. Der Fuzzy-Mittelwert
und die scharfe Standardabweichung sind für alle diskreten Fuzzy-Zufallsgrößen gleich.

wenn L 0 [0, -
L
1& - Lz]
-k (L) ' Lz
z
0 sonst

Abb. 6: - und X
Bestimmung des Korrelationsfaktors zweier diskreter Fuzzy-Zufallsgrößen X -
i j
in Abhängigkeit vom räumlichen Abstand der Diskretisierungspunkte lij

Die Flächenlast p wird als Original eines voll korrelierten Fuzzy-Zufallsfeldes, d.h. als
gewöhnliche Zufallsgröße, modelliert. Die Parameter sind in Tab. 1 zusammengefaßt.

Für die α-Level-Optimierung wurden die α-Niveaus α = 0 und α = 1 ausgewählt. Berechnet


wird der Fuzzy-Erwartungswert der Verschiebung am Knoten 63 in x-3 -Richtung. Die Grundlösung
wird jeweils durch eine direkte Monte-Carlo-Simulation mit 100 Stichprobenelementen erhalten, aus
denen der Erwartungswert durch Schätzung bestimmt wird. Die approximierte Zugehörigkeitsfunktion
des Fuzzy-Erwartungswertes der Verschiebung ist in Abb. 7 dargestellt.

Tab. 1: Parameter der Fuzzy-Zufallsfunktionen

13
Das Datenmodell Fuzzy-Zufälligkeit und seine Anwendung im Ingenieurbau

Beton-Druckfestigkeit Flächenlast
βc [N/mm2] p [kN/m²]

Unschärfemodell Fuzzy-Zufallsfunktion Zufallsfunktion


Typ der Verteilung Normalverteilung Normalverteilung
Erwartungswert < 24,5 ; 25,5 ; 26,5 > 6,0
Standardabweichung 1,5 0,3
Korrelationslänge < 2,0 ; 4,5 ; 20,0 > 4

Für die α-Level-Optimierung wurden die α-Niveaus α = 0 und α = 1 ausgewählt. Berechnet


wird der Fuzzy-Erwartungswert der Verschiebung am Knoten 63 in x-3 -Richtung. Die
Grundlösung wird jeweils durch eine direkte Monte-Carlo-Simulation mit 100 Stichproben-
elementen erhalten, aus denen der Erwartungswert durch Schätzung bestimmt wird. Die
approximierte Zugehörigkeitsfunktion des Fuzzy-Erwartungswertes der Verschiebung ist in
Abb. 7 dargestellt.

Abb. 7: Fuzzy-Erwartungswert der fuzzy-zufälligen Verschiebung v-3 des FE-Knotens 63

7 Fuzzy-probabilistisches Sicherheitskonzept

Ziel des fuzzy-probabilistischen Sicherheitskonzeptes ist die Ermittlung und Bewertung des
Sicherheitsniveaus von Tragwerken unter Berücksichtigung von Fuzzy-Zufallsgrößen.
Ergebnis ist entweder die Fuzzy-Versagenswahrscheinlichkeit oder der Fuzzy-
Sicherheitsindex. Die Fuzziness des berechneten Sicherheitsniveaus charakterisiert die neue
Qualität der Sicherheitsbeurteilung im Vergleich zu üblichen probabilistischen Methoden.

Das unscharfe Sicherheitsniveau wird durch die Fuzzy-Versagenswahrscheinlichkeit -


Pf
ausgedrückt.
-P ' P ( R
- & -S # 0 ) (8)
f

Mit -P wird die Wahrscheinlichkeit bewertet, daß die unscharfe Beanspruchung (Einwirkung
-S ) desf Tragwerkes größer als die unscharfe Beanspruchbarkeit (Widerstand R - ) ist. Die

14
Das Datenmodell Fuzzy-Zufälligkeit und seine Anwendung im Ingenieurbau

Beanspruchung und die Beanspruchbarkeit werden durch Fuzzy-Zufallsgrößen, Zufallsgrößen


und Fuzzy-Größen beschrieben. Die Fuzzy-Zufallsgrößen bilden zusammen mit gewöhnlichen
Zufallsgrößen den Raum der Basisvariablen X- . Fuzzy-Größen werden als Modellparameter
i
des unscharfen Tragwerksmodells aufgefaßt. Im Raum der Basisvariablen trennt die
Grenzzustandsfunktion den Überlebensbereich vom Versagensbereich. Entsprechend dem ge-
wählten Versagenskriterium können unterschiedliche Grenzzustände definiert werden (Grenz-
zustand der Gebrauchstauglichkeit, Grenzzustand der Tragfähigkeit). Unscharfe Berechnungs-
modelle mit Fuzzy-Modellparametern führen auf eine Fuzzy-Grenzzustandsfunktion.

Die Fuzzy-Versagenswahrscheinlichkeit ergibt sich durch Integration der Fuzzy-


Wahrscheinlichkeitsverbunddichtefunktion über den Fuzzy-Versagensbereich
- -
Pf ' ... f (x , x , ..., xn) dx1 dx2 ... dxn (9)
m- m X 1 2
x*g (x)<0

Mit Hilfe der α-Diskretisierung wird das Integral originalweise ausgewertet. Der Raum der
Scharparameter der Fuzzy-Wahrscheinlichkeitsverteilungsfunktionen wird um die Fuzzy-
Modellparameter erweitert. Realisierungen der Scharparameter liefern die Verbunddichte-
funktion fX(x) und den scharfen Grenzzustand g(x) = 0.

Die originalweise Auswertung des Integrals (Gl. (9)) gelingt mit analytischen Verfahren,
numerischer Integration, Simulationsverfahren und probabilistischen Näherungsverfahren. Die
probabilistischen Näherungsverfahren wurden so weiterentwickelt, daß sowohl Basisvariable
in Form von Fuzzy-Zufallsgrößen als auch Modellparameter in Form von Fuzzy-Größen
berücksichtigt werden können. Die Zuverlässigkeitstheorie 1.Ordnung (FORM) wird zur
Fuzzy-Zuverlässigkeitstheorie 1.Ordnung (FFORM) [11] erweitert.

Analog zum Vorgehen der fuzzy-probabilistischen Tragwerksanalyse wird im erweiterten


Raum der Fuzzy-Scharparameter die α-Level-Optimierung durchgeführt. Optimierungsziele
sind die kleinste und die größte Versagenswahrscheinlichkeit auf jedem α-Niveau. Für diskrete
Punkte des s-Raumes sind die Originale der Verbunddichte- und der Grenzzustandsfunktion
bekannt. Mit FORM wird der zugehörige Sicherheitsindex ermittelt. Ergebnis der α-Level-
β , der in die Fuzzy-Versagenswahrscheinlichkeit -
Optimierung ist der Fuzzy-Sicherheitsindex - Pf
umgerechnet werden kann.

Danksagung
Die Autoren danken der Deutschen Forschungsgemeinschaft (DFG) für die finanzielle
Unterstützung der vorgestellten Forschungsarbeiten im Rahmen des Sonderforschungs-
bereiches (SFB) 528.

15
Das Datenmodell Fuzzy-Zufälligkeit und seine Anwendung im Ingenieurbau

Literatur
[1] Kwakernaak, H.: Fuzzy random variables - I. Definitions and Theorems. Information
Sciences 15, (1978) 1-29

[2] Kwakernaak, H.: Fuzzy random variables - II. Algorithms and Examples for the
Discrete Case. Information Sciences 17 (1979) 253-278

[3] Puri, M.L.; Ralescu, D.: Fuzzy random variables. J. Math. Anal. Appl. 114(1986) 409-
422

[4] Liu, Y.; Qiao, Z.; Wang, G.: Fuzzy random reliability of structures based on fuzzy
random variables. Fuzzy Sets and Systems 86 (1997) 345-355

[5] Nguyen, S.H.: Modellierung unscharfer zeitabhängiger Einflüsse als Fuzzy-Prozess -


Anwendung auf die Schädigung von Tragwerken und auf die Simulation von
Erdbeben. Diss., TU Dresden, Veröffentlichungen des Lehrstuhls für Statik, 2003,
Heft 6

[6] Wang, G.; Zhang, Y.: The theory of fuzzy stochastic processes. Fuzzy Sets and
Systems 51 (1992) 161-178

[7] Schlittgen, R.: Statistische Inferenz. München; Wien: Oldenbourg, 1996

[8] Graf, W., Möller, B., Hoffmann, A., Steinigen, F.: Numerical simulation of RC
structures with textile reinforcement. In: Fifth World Congress on Computational
Mechanics, Vienna, 2002, http://wccm.tuwien.ac.at

[9] Möller, B.; Graf, W.; Beer, M.: Fuzzy structural analysis using α-level optimization.
Computational Mechanics 26(6) (2000) 547-565

[10] Schuëller, G.I.: On computational procedures for processing uncertainties in structural


mechanics. In: Second European Conference on Computational Mechanics ECCM 2,
Crakow, 2001, CD-ROM

[11] Möller, B.; Beer, M.; Graf, W.: Safety assessment of structures in view of fuzzy
randomness. Computers and Structures 81 (2003) 1567-1582

[12] Möller, B.; Beer, M.: Fuzzy-Randomness - Uncertainty in Cicil Engineering and
Computational Mechanics. Springer-Verl., 2004

[13] Sickert, J.-U.; Beer, M.; Graf, W.; Möller, B.: Fuzzy Probabilistic Structural Analysis
considering Fuzzy Random Functions. In: Der Kiureghian, A.; Madanat, S.; Pestana,
J.M. (Eds.): 9th Int. Conference on Applications of Statistics and Probability in Civil
Engineering, San Francisco, 2003, pp. 379-386

16
Zuverlässigkeitsbemessung von Stahlbetontragwerken mit SARA

Zuverlässigkeitsbemessung von
Stahlbetontragwerken mit SARA

Vladimir Cervenka, Radomir Pukl, Cervenka Consulting, Prag


Konrad Bergmeister, Alfred Strauss, Ulrich Santa, Universität für Bodenkultur, Wien

Zusammenfassung: Abstract: Im Ingenieurwesen ist es üblich, bei der Dimen-


sionierung von Strukturen mit präzisen Eingabedaten, wie Materialkennwerten
und Lastgrößen, zu arbeiten. Die Ergebnisse scheinen einen genauen determi-
nistischen Wert zu liefern. Solange präzise Eingabewerte, wie zum Beispiel in
Normenwerken für neue Strukturen, verfügbar sind, scheint diese Vorgehens-
weise nicht in Frage zu stehen. Steht man jedoch vor der Aufgabe, bestehende
Strukturen zu bewerten, so wird man nach kurzer Zeit aufgrund der Unsicher-
heiten oder auch des Informationsmangels über die Eingabedaten an die Gren-
zen des vorherigen Konzepts stoßen. In diesem Beitrag wird ein Verfahren –
Programm SARA – vorgestellt, das dem Ingenieur die Einbeziehung von
Unsicherheiten in den Bewertungsprozeß von Strukturen erlaubt.

Allgemein
SARA ist ein Werkzeug zur Analyse und Zuverlässigkeitsbewertung von Strukturen. Das
Programm ist speziell für Ingenieurtragwerke, aber auch für allgemeine Problemstellungen
konzipiert. In SARA sind ein nichtlineares Finite-Elemente-Programm ATENA und das
Statistik Programm FREET integriert, siehe Bild 1.
Das Finite-Elemente-Programm ATENA dient zur realistischen Simulation von Beton- und
Stahlbetonstrukturen. Das Statistik Programm FREET ist eine Software, welche die
Berücksichtigung von streuenden Eingangsgrößen bei der Formulierung von analytischen
Grenzzustandsfunktionen als auch Antwortfunktionen ermöglicht. Die Kombination beider
Programme ermöglicht die Berücksichtigung der in ATENA verwendeten Parameter als
streuende Größen und die Anwendung der probabilistischen Methodik in FREET –
Zuverlässigkeitsanalyse, Sensitivitätsanalyse – auf eine Finite-Elemente-Struktur. Das
System SARA bietet sowohl eine anwendungsfreundliche, interaktive, graphische Ober-
fläche als auch eine umfassende Datenbank für stochastische Modelle, siehe Bild 1 und
Bild 2.
Das vorrangige Ziel der probabilistischen, nichtlinearen Analyse ist die Erlangung einer
statistischen Antwort der Struktur (z.B. Versagenslast, Durchbiegung, Risse, Spannungen
etc.), welche in der Folge für die Sensitivitätsanalyse, die Zuverlässigkeitsanalyse als auch
zur Überprüfung von Computermodellen verwendet wird. Weitere Werkzeuge, welche in
das System SARA inkludiert werden, sind Formulierungen zur Beschreibung von Degra-

17
Zuverlässigkeitsbemessung von Stahlbetontragwerken mit SARA

dationsprozessen (Bild 1), wie Chlorideindring-, Karbonatisierungs- oder Rostfortschritts-


prozesse. Diese Möglichkeit der Simulation von Degradationsprozessen in Kombination
mit Überwachungsarbeiten an Objekten ermöglichen eine rationelle Lebenszeit- und Maß-
nahmenplanung, wie in Bild 6 gezeigt.

Zuverlässigkeitsbewertung von Ingenieurtragwerken


SARA
Safety Analysis and Reliability Assessment

SARA Studio

Nichtlineares Finite Elemente Programm Feasible Reliability Engineering Efficient Tool


für Betonstrukturen FREET
ATENA 2D / 3D

Nichtlineare Druck-Zuggesetze Probabilistische Berechnungen Datenbank für


Umschnürungs Effekte Zuverlässigkeitsbetrachtungen Stochastische Modelle
Konstitutive Modelle Grenzzustandsfunktionen
Bruchenergie Antwortfunktionen

Rissemodell Zufallsvariablen Simulated Annealing Latin Hypercube Sampling


Rißbandtheorie Basisvariablen Simulationsanzahl 10 < n < 100
Size Effekte

Mittelwert
Standardabweichung Berücksichtigung der gewünschten
Variationskoeffizienten Korrelationsbeziehungen
Verteilungstyp

Degradationsprozesse

Bild 1: Struktur des Software Systems SARA

1.1 Eigenschaften der Programme


1.1.1 ATENA

Die Betonmodelle in ATENA beschreiben den kompletten Bereich des ebenen Spannungs-
zustandes unter Druck und Zug. Die biaxialen Spannungszustände werden mit Hilfe von
biaxialen Versagensfunktionen erfaßt. Das Zugverhalten (Risse) wird zu einem Teil über
die Risßband-Methode modelliert. Das gesamte Softeningverhalten – auch für den Druck-
bereich – basiert auf einem netzunabhängigen Ansatz. Der dreidimensionale Spannungs-
zustand wird anhand der Plastizitätstheorie mit einem nicht assoziierten Fließgesetz
beschrieben, wobei auch der „Einschnürungs“-Effekt nach Menètrey und Willam [1]
berücksichtigt wird. In ATENA besteht aber auch die Möglichkeit, das Microplane-Modell
nach Bažant et al. [2] zu verwenden. Eine Vielzahl von anderen Modellen ist ebenfalls in
ATENA implementiert, um eine erfolgreiche Simulation zu unterstützen (z.B. Beweh-
rungsstahl, Stahl, Verbundverhalten von Bewehrungsstahl, Interfaces, Grundbaumodelle
etc.). Eine detailliertere Beschreibung ist in Strauss [3] zu finden.

1.1.2 FREET

FREET (Feasible Reliability Engineering Efficient Tool) ist eine vielseitige probabilisti-
sche Software für die statistische, Sensitivitäts- und Zuverlässigkeitsanalyse von Inge-

18
Zuverlässigkeitsbemessung von Stahlbetontragwerken mit SARA

nieurproblemen. Die Software ist für die relativ einfache statistische Auswertung jedes
beliebig formulierten Berechnungsproblems entworfen und eignet sich für berechnungs-
intensive Problemstellungen, bei denen die Durchführung tausender Berechnungen, wie
bei der Monte-Carlo-Methode benötigt, nicht möglich ist. Mit einem speziellen Typ der
numerischen probabilistischen Simulation, Latin Hypercube Sampling (LHS), ist es mög-
lich, mit einer wesentlich kleineren Anzahl an Simulationen als es bei der Monte-Carlo-
Methode für die Berechnung von Versagenswahrscheinlichkeiten notwendig ist, das Aus-
langen zu finden. „Simulated Annealing“, eine stochastische Optimierungsmethode, wird
verwendet, um für die Zufallsgrößen die gewünschten Korrelationen zu erreichen. Als
Resultat der Simulationen erhält man die statistische Antwortfunktion einer bestimmten
Problemstellung, z.B. Durchbiegung oder Tragsicherheit. Diese Antwortfunktion dient zur
Formulierung des Zuverlässigkeitsproblems als auch für die Sensitivitätsanalyse. Die
Sensitivitätsanalyse erlaubt eine Unterscheidung zwischen den dominanten und den weni-
ger dominanten am Resultat beteiligten Zufallsgrößen und erleichtert somit die Erkennung
von Unzulänglichkeiten in der Struktur. Eine detailliertere Beschreibung dieser Software
ist in Nòvak [4] zu finden.

1.1.3 DATENBASIS

Als drittes Element innerhalb des SARA-Systems wurde eine Datenbank für stochastische
Modelle aufgebaut, siehe Bild 2. Die Datenbank bietet dem Anwender die Möglichkeit,
innerhalb von FREET aus stochastischen Modellen für Widerstände, Geometrien und Ein-
wirkungen zu wählen. Die stochastischen Modelle sind generell durch die beiden ersten
statistischen Momente und durch den Verteilungstyp beschrieben. Die Quellen dieser
stochastischen Modelle sind Literaturangaben, Produktionsdaten und Experimente. Nähere
Details sind in Strauss [3] beschrieben.

Datenbank
Mittelwert, Std, CoV
Verteilungstyp

Stochastische Modelle Stochastische Modelle Stochastische Modelle


Widerstand Geometrien Einwirkungen

Stützen Wände Eigengewichte Veränderl. Lasten


Beton Bewehrungsstahl
Platten etc. Wind Schnee
Spannstahl Profilstahl

Bild 2: Datenbank für stochastische Modelle

1.2 Lösungsverfahren
Das Lösungsverfahren für die Zuverlässigkeitsbewertung und Sensitivitätsanalyse einer
Struktur kann in folgende Punkte gegliedert werden, siehe auch Bild 3.

19
Zuverlässigkeitsbemessung von Stahlbetontragwerken mit SARA

Vorbereitung des deterministischen Modells einer Struktur in ATENA

1.1

Wahl der Beobachtungspunkte / Monitoringpunkte


an diesen Punkten sind die Grenzzustandsbetrachtungen möglich

1.2

Übergabe der deterministischen Größen an das SARA Studio


Übergabewerte sind Mittelwerte

1.3

Zuordnung der Stochastischen Modelle zu selektierten Übergabewerte innerhalb des SARA-Studios


Zufallsgrößen
Material, Vorspannung, Geometrieangaben
2.1

Zuordnung von Korrelationsbeziehungen zu den selektierten Zufallsgrößen

2.2

Randomisierung mittels Latin Hypercube Sampling "LHS"


Schaffung von Problemstellungen für das nichtlineare Finite Elemente Packet "ATENA"

3.1

Simualted Annealing
Umordnung der Parameter der geschaffenen Problemstellungen zur Erzielung der gewünschten Korrelationen

3.2

Übergabe der n-Problemstellungen an ATENA

4.1

Lösung der n-fachen Problemstellungen innerhalb ATENA


und Speicherung der Ergebnisse

4.2 bzw. 5

Rückgabe der statistischen Anwortgrößen der Beobachtungspunkte an das SARA-Studio

4.3 bzw. 5

Zuverlässigkeitsanalyse Sensitivitätsanalyse

6.1 6.2

Bild 3: Lösungsverfahren für die Zuverlässigkeitsbewertung und Sensitivitätsanalyse

1. Das deterministische Modell der Struktur wird in ATENA vorbereitet und über-
prüft.
2. Unsicherheiten und Zufälligkeiten der Eingangsgrößen werden als Zufallsgrößen
modelliert und mit Hilfe der Verteilungsdichtefunktionen (PDF) beschrieben. Aus
dieser Beschreibung resultieren die Sätze der Eingangsgrößen für die späteren mul-
tiplen Berechnungsmodelle in ATENA. Die Zufallsgrößen werden mittels Mittel-
wert, Varianz oder anderen statistischen Parametern beschrieben (generell mittels
PDF).

20
Zuverlässigkeitsbemessung von Stahlbetontragwerken mit SARA

3. Die zufälligen Eingangsgrößen-Stichproben werden entsprechend ihrer Dichtefunk-


tionen unter Zuhilfenahme der LHS-Technik generiert. Die statistische Korrelation
unter den Parametern wird mit Hilfe des Simulated-Annealing-Vorganges einge-
richtet.
4. Die generierten Stichproben aus den Zufallsgrößen werden als Eingangsgrößen für
Berechnungsmodelle in ATENA verwendet. Die komplexe nichtlineare Berech-
nung wird durchgeführt und ausgewählte Resultate (Strukturantwort) werden
gespeichert.
5. Diese zwei zuletzt beschriebenen Schritte werden für alle Stichproben wiederholt.
6. Die resultierenden Sätze der Strukturantwort aus dem gesamten Simulationsprozeß
werden nun statistisch ausgewertet. Es resultieren: Histogramme, Mittelwerte,
Varianzen, Koeffizienten der Schräge, empirische Summenhäufigkeitsfunktionen
der Strukturantwort, Sensitivitätsanalysen und die Bewertung der Zuverlässigkeit.

Bei der Zuverlässigkeitsanalyse wird den erhaltenen statistischen Antwortgrößen, z.B.


Tragwiderstand, Durchbiegungen oder Spannungen etc. in den Beobachtungspunkten, eine
Vergleichsgröße gegenübergestellt. Aus dem Überschneidungsbereich der Antwortgröße
und Vergleichsgröße kann ein Sicherheitsraum ermittelt werden, siehe Bild 4. Dieser
Sicherheitsraum dient zur Ableitung des Cornell’schen β-Index, der eine Größe für die
Beschreibung der Versagenswahrscheinlichkeit pf – Fläche der Verteilung des Sicherheits-
raumes unterhalb des Nullpunktes – ist, siehe Bild 4.

R
M
S
σR σM
pf
σs
µM m
µS µR r, s β ∗ σΜ
β∗
σΜ

Bild 4: R, S und M und der Sicherheitsindex β

Anwendungsbeispiel
Die zuvor beschriebene Software SARA wurde verwendet, um für ein Objekt der Brenner-
autobahn eine Zuverlässigkeitsanalyse und in der Folge eine Abschätzung der Lebensdauer
durchzuführen. Es handelt sich um einen ca. 1 km langen Brückenzug, von dem die Hohl-
kastenbrücken über dem Tal näher untersucht wurden. Die Hohlkästen mit 211 Spann-
kabeln wurden im Freivorbau gefertigt, im Endzustand lag eine statisch bestimmte
Lagerung vor. Als streuende Größen – Zufallsgrößen – wurden die Betoneigenschaften
Druckfestigkeit, Zugfestigkeit, Bruchenergie, Elastizitätsmodul und Poisson-Zahl, die
Stahleigenschaften Elastizitätsmodul und Fließgrenze und die Spannstahleigenschaften
Elastizitätsmodul und Fließgrenze eingeführt. Zwischen den einzelnen Parametern erfolgt

21
Zuverlässigkeitsbemessung von Stahlbetontragwerken mit SARA

auch die Einrichtung der Korrelationsbeziehungen, siehe Strauss [5]. Die detaillierten
Angaben über diese Berechnung sind in Strauss [3] zu finden.
167 m
45 m

17.5 m 91 m 59 m 59 m 91 m 17.5 m

167 m
45 m

59 m 91 m 1 7 .5 m

Bild 5: Zuverlässigkeitsanalyse an einem Objekt der Brennerautobahn

Die erste Zuverlässigkeitsanalyse der Tragsicherheit des Objektes – es erfolgte eine Last-
steigerung bis zum Versagen – unter der Annahme, daß sämtliche Materialien ihre Aus-
gangseigenschaften nach wie vor besitzen, ergab einen Sicherheitsindex β von 11.96, siehe
Bild 6. Eine nochmalige Simulation unter der Annahme, daß 30 % der Spannglieder
beschädigt sind, zeigte einen Abfall dieses Index auf β = 6.0. Diese Annahme erfolgte auf-
grund von Informationen aus Bauwerksüberwachungen. Beide Indizes sind von dem in den
Normvorschriften geforderten Niveau von 4.7 relativ weit entfernt und dürften daher im
ersten Augenblick nicht beunruhigen. Ein β-Index von 4.7 entspricht etwa dem Versagen
von einem aus einer Million gleichwertig ausgeführten Bauwerken. Betrachtet man jedoch
das nach Frangopol aufgestellte Modell zur Abschätzung der Lebensdauer der Objekte,
siehe Bild 6, so sieht man, daß spätestens in 10 Jahren dieses Niveau von β = 4.7 erreicht
sein wird. Es stellt sich die Frage, ob bis zu diesem Zeitpunkt gewartet oder sofort eine
Maßnahme gesetzt werden soll. Hilfestellungen für diese Entscheidungen bieten Kosten-
modelle, wie in Rackwitz [6] oder Frangopol [7] vorgeschlagen werden. Der Verlauf der
Abgangsfunktionen innerhalb des Bildes 6 kann mit Hilfe der Weibull-Formulierun-
gen φ(t) = α∗β∗tβ-1*e(-α*tβ) beschrieben werden. Die Parameter α und β werden aus mehr-
fachen Zuverlässigkeitsbeurteilungen in Kombination mit Bauwerksüberwachungen,
verteilt über mehrere Zeitpunkte, bestimmt.

22
Zuverlässigkeitsbemessung von Stahlbetontragwerken mit SARA

30 Jahre; β = 11.96
35 Jahre; β = ....
Ideal 40 Jahre β = ...

β = 11.96
Ausführungs, Gesundheitsindex

Vorbeugende Maßnahme

Wesentliche Maßnahme
β = ~ 6.0

ca.30 % Spanngliedausfall

Sicherheitsindex β

Zeit [Jahre]

Bild 6: Lebenszeit und Maßnahmenplanung, siehe auch Frangopol [7]

Diese Simulationstechnik, unterstützt durch SARA, bietet zusammen mit einem kontinu-
ierlichen Monitoringsystem ein geeignetes Mittel für die Abschätzung der Lebensdauer, da
zeitliche Änderungen unmittelbar vom Monitoring abgelesen werden und diese für die
Zukunftsprognose im Simulationsprozeß einfließen können. Vor dem Start eines solchen
Systems ist es wichtig, die verwendeten stochastischen Modelle auf ihre Genauigkeit zu
prüfen und eventuell zu kalibrieren. Dies kann durch die Maximierung des Überschnei-
dungsbereiches zwischen Meßergebnissen und den Simulationsergebnissen der statisti-
schen Antwortgrößen an einem Beobachtungspunkt erfolgen. Durch unterschiedliche
Laststellungen ist es möglich, die Bedeutung der Zufallsgrößen am Ergebnis zu steuern
und somit ist auch deren Kalibrierung relativ einfach.

Diskussion des Sicherheitsniveaus


Tabelle 1 zeigt einen Vorschlag für einen auf die Tragwerksart, das Überwachungssystem
und auf die Belastungsart bezogenen Sicherheitsindex β. Der Sicherheitsindex β kann je
nach der Überwachungsart, der Duktilität der kritischen Elemente, dem Systemtragver-
halten und der Einwirkungsart gegenüber dem in der Norm geforderten Wert von 4.7
(bezogen auf ein Jahr) abgemindert werden, siehe Tabelle 1. Der Sicherheitsindex β darf
jedoch den Wert 3.5, außer für Sondertransporte und seltene gleichzeitig wirkende Ein-
wirkungen, nicht unterschreiten. Wird für die Tragsicherheit ein Wert von β = 3.5 erreicht,
muß unmittelbar eine Inspektion der kritischen Tragelemente der Konstruktion erfolgen,
siehe Bild 7. Dieses System der Sicherheitsindexgestaltung ermöglicht gemeinsam mit
dem Inspektionsmodell, wie in Bild 7 gezeigt, eine Berücksichtigung der Inspektionsinten-
sität und der Struktureigenschaften. Insbesondere wird auch auf die zeitliche Veränderung
der Strukturen Rücksicht genommen. Das Inspektionsmodell umfaßt folgende wesentliche
Schritte:

23
Zuverlässigkeitsbemessung von Stahlbetontragwerken mit SARA

1. Berechnung des Zuverlässigkeitsindex (z.B. mittels SARA).


2. Annahme einer Abgangsfunktion (z.B. auf der Basis einer Weibull-Formulierung
o.ä.)
3. Kalibrierung der Weibull-Parameter aus den Daten der Bauwerksüberwachung und
SARA).
4. Aufgrund der festgestellten Schäden aus der Überwachung Errechnung einer
Degradationsfunktion (z.B. chloridinduzierter Korrosion, etc).
5. Vorschreibung des Zeitraumes für die nächste Inspektion.

β 2 W eibull Form ulierung


3
Φ ( t ) = α ⋅ β ⋅ t β −1 ⋅ e (
− α ⋅t ⋅ β ) Degradation = f (Struktur, etc)

3.5
∆t

t1 tn

Bild 7: Inspektionsmodell für die Tragsicherheit einer Struktur auf der Basis des
zeitabhängigen Sicherheitsindex

24
Zuverlässigkeitsbemessung von Stahlbetontragwerken mit SARA

β = 4.7 – (∆M + ∆D + ∆S + ∆L ) ≥ 3.5 (ULS) Tragfähigkeit


β = 3.0 – 0.8*(∆M + ∆D + ∆S + ∆L ) ≥ 1.8 (SLS) Gebrauchstauglichkeit
Monitoring ∆M
kontinuierliche Kontrolle der kritischen Elemente 0.5
jährliche Kontrolle der kritischen Elemente, bei denen eine sichtbare
0.25
Vorwarnung erfolgt
jährliche Kontrolle der kritischen Elemente, bei denen keine sichtbare
0.1
Vorwarnung erfolgt
Kontrolle alle zwei Jahre 0
Duktilität ∆D
hohe Duktilität 0.5
geringe Duktilität 0
Systemtragverhalten – Robustheit ∆S
hohe Robustheit, Elementversagen führt zu Systemwechsel – System zeigt
0.5
ein redundantes Verhalten
mittlere Robustheit, mehrere Elemente müssen versagen, damit der Kollaps
0.25
eintritt
geringe Robustheit, Versagen des Elements führt sofort zum Kollaps 0
Einwirkungen ∆L
Normbelastung 0
Sondertransporte – seltenes Ereignis (z.B. 1 mal pro Jahr); maximal 20 %
0.1
über Normbelastung
seltene und gleichzeitig wirkende Einwirkungen (Sondertransporte + z.B.
0.2
Wind bzw. Schnee)
Tabelle 1: Vorschlag der Zielzuverlässigkeiten für die Tragfähigkeit und
Gebrauchstauglichkeit – Bezugszeitraum 1 Jahr

Schlußfolgerung
Diese Möglichkeit der probabilistischen Berechnung von herkömmlichen Ingenieur-
konstruktionen ermöglicht die relativ einfache Bestimmung des Sicherheitsniveaus von
existierenden Strukturen. Die Kombination dieses Verfahrens mit Degradationsmodellen
erlaubt eine effiziente Erhaltungsplanung unter eventueller Einbeziehung von Kosten-
modellen. Die streuenden Daten für die Eingabe können, soweit keine näheren Angaben
über das Objekt vorhanden sind, aus der entwickelten Datenbank oder aus Stichproben-
entnahmen und Monitoring-Daten extrahiert werden. Ein intelligentes Inspektionssystem
für Ingenieurstrukturen – Informationsgewinnung – spielt bei der Lebensdauerplanung von
Strukturen eine wesentliche Rolle. Die daraus gewonnenen Informationen können in das
„Time-dependent safety-index-concept“ einfließen. Sie erlauben, die Abgangsfunktionen
des Sicherheitsniveaus zu kalibrieren.

Danksagung

Die vorgestellte Forschung wurde teilweise durch das Czech Grant Agency Grant
Nr.103/02/1030, 103/04/2003 unterstützt.

25
Zuverlässigkeitsbemessung von Stahlbetontragwerken mit SARA

Literatur
[1] Menétrey, P.; Willam, K.J.: Triaxial failure criterion for concrete and its generali-
zation. ACI Structural Journal 92 (3), 1995, Seite 311-318.
[2] Bažant, Z.P.; Caner, F.C.; Carol, I.; Adley, M.D.; Akers, S.A.: Micoplane model M4
for concrete: I. Formulation with work-conjugate deviatoric stress. J. of Engrg.
Mechanics ASCE 126 (9), 2000, Seite 944-953.
[3] Strauss, A.: Stochastische Modellierung und Zuverlässigkeitsanalyse von Beton-
konstruktionen. Dissertation am Institut für Konstruktiven Ingenieurbau, Universität
für Bodenkultur Wien, 2003
[4] Novák, D: FREET – Feasible Reliability Engineering Efficient Tool – Program docu-
mentation. Brno University of Technology, faculty of Civil Engineering, Institute of
Structural Mechanics / Červenka Consulting, Prague, Czech Republic, 2002
[5] Strauss, A.; Bergmeister, K.; Hostnik R.: Der Einfluß des Wechsels der Zementgüte
PZ 375 zu PZ 275 auf die statistischen Kennwerte der Druckfestigkeit der Betongüte
C25/30, Serie 7. Institut für Konstruktiven Ingenieurbau, Universität für Bodenkultur
Wien, 2002
[6] Rackwitz, R.: Optimizing systematically renewed structures. Reliability Engineering
and System Safety, 73, 2001, Seite 269-279.
[7] Frangopol, D.M., J.s. Kong and E.S. Gharaubeh: Reliability-based life cycle manage-
ment of highway bridges. Journal of Computing in Civil Engineering, ASCE, Vol.15,
No. 1, 2001, Seite 27-34.

26
Simulationsverfahren in der stochastischen Strukturmechanik

Simulationsverfahren in der
stochastischen Strukturmechanik

Christian Bucher
Institut für Strukturmechanik, Bauhaus-Universität Weimar

Zusammenfassung: Moderne Verfahren der Strukturmechanik gehen zunehmend


mehr auf die Notwendigkeit ein, Unsicherheiten von Einwirkungen und Widerstand zu
berücksichtigen. In den meisten Fällen beruhen diese Verfahren auf der Wahrschein-
lichkeitstheorie. Bedingt durch die enge Verflechtung von strukturmechanischen
und statistischen bzw. stochastischen Daten wurden ganz spezifische Konzepte für
stochastische Finite Elemente entwickelt.
In diesem Beitrag werden die grundlegenden Beziehungen für die Beschreibung von
Zufallsgrößen angegeben. Ihre Darstellung im Kontext von Finiten Elementen wird
erläutert. Besonders hervorgehoben werden Methoden zur Berechnung von Versagens-
wahrscheinlichkeiten unter statischen und dynamischen Lasten. Diese Verfahren
beruhen auf der Monte-Carlo-Methode, beziehen aber zusätzliche Informationen, z. B.
aus (halb)analytischen Näherungsverfahren, mit ein.
Numerische Beispiele demonstrieren die Anwendbarkeit dieser Methoden. Ein Beispiel
bezieht sich auf die statistische Analyse von Eigenfrequenzen bei stochastisch räumlich
korrelierten Elastizitätseigenschaften, das zweite Beispiel behandelt die Berechnung der
Erstüberschreitenswahrscheinlichkeit der dynamischen Reaktion einer Struktur auf eine
erdbebenähnliche Anregung.

1 Introduction
Numerical methods for structural analysis have been developed quite substantially over the last
decades. In particular, finite element methods and closely related approximations became the state
of the art. The modeling capabilities and the solution possibilities lead to an increasing refinement
allowing for more and more details to be captured in the analysis.
On the other hand, however, the need for more precise input data became urgent in order to avoid
or reduce possible modeling errors. Such errors could eventually render the entire analysis procedure
useless. Typically, not all uncertainties encountered in structural analysis can be reduced by careful
modeling since their source lies in the intrinsic randomness of natural phenomena. It is therefore
appropriate to utilize methods based on probability theory to assess such uncertainties and to quantify
their effect on the outcome of structural analysis.
The paper presents an overview of probability-based methods to describe structural uncertainties
and to calculate structural reliability. The theoretical concepts are supplemented by two complex nu-
merical examples in which the implementation of the methods is demonstrated.

27
Simulationsverfahren in der stochastischen Strukturmechanik

2 Random Variables
2.1 Basic Definitions
Probability in the mathematical sense is defined as a positive measure (between 0 and 1) associated
with an event A in probability space. For most physical phenomena this event is suitably defined by
the occurrence of a real-valued random value X which is smaller than a prescribed, deterministic
value x. The probability P [A] associated with this event obviously depends on the magnitude of the
prescribed value x, i.e. P [A] = F (x) For real valued X and x, this function is called probability
distribution function (or equivalently, cumulative distribution function, cdf):

FX (x) = P [X < x] (1)

Differentiation of FX (x) with respect to x yields the so-called probability density function (pdf):
d
fX (x) = FX (x) (2)
dx
A qualitative representation of these functions is given in Fig. 1.
0.4 1

Probability Density Function

Probability Distribution Function


Probability Density Function

Probability Distribution Function 0.8


0.3

0.6

0.2

0.4

0.1
0.2

0 0
-3 -2 -1 0 1 2 3 4 5
Value of Random Variable

Figure 1: Schematic sketch of probability distribution and probability density functions.

In many cases it is more convenient to characterize random variables in terms of expected values
rather than probability density functions. Special cases of expected values are the mean value X̄:
Z ∞
X̄ = E[X] = xfX (x)dx (3)
−∞

and the variance 2


σX of a random variable:
Z ∞
2 2
σX = E[(X − X̄) ] = (x − X̄)2 fX (x)dx (4)
−∞

The positive square root of the variance σX is called standard deviation. A description of random
variables in terms of mean value and standard deviation is sometimes called “second moment repre-
sentation”.

2.2 Random Vectors


In many applications a large number of random variables occurs simulataneously. It is conceptu-
ally helpful to assemble all these random variables Xk ; k = 1 . . . n into a random vector X:

X = [X1 , X2 , . . . Xn ]T (5)

For this vector, expected values can be defined in terms of expected values for all of its components:

28
Simulationsverfahren in der stochastischen Strukturmechanik

Mean value vector


X̄ = E[(X] = [X̄1 , X̄2 , . . . X¯n ]T (6)

Covariance matrix
E[(X − X̄)(X − X̄)T ] = CXX (7)
The dimensionless quantity
E[(Xi − X̄i )(Xk − X̄k )]
ρik = (8)
σXi σXk
is called coefficient of correlation. Its value is bounded in the interval [−1, 1]. The covariance matrix
CXX is symmetric and positive definite. Therefore it can be factored into (Cholesky-decomposition):

CXX = LLT (9)

in which L is a non-singular lower triangular matrix. The Cholesky factor L can be utilized for a
representation of the random variables Xi in terms of zero-mean uncorrelated random variables Yi :

Y = L−1 (X − X̄); X = LY + X̄ (10)

2.3 Joint probability density function models


The pdf of jointly normally (Gaussian) distributed random variables (components of a random
vector X is given by
 
1 1 T −1
fX (x) = n√ exp − (x − X̄) CXX (x − X̄) ; x ∈ Rn (11)
(2π) 2 det CXX 2

The so-called Nataf -model ([5]) describes the joint probability density function of random vari-
ables Xi based on their individual (marginal) distributions and the covariances. The concept is to
transform the original variables Xi to Gaussian variables Yi whose joint density is assumed to be
Gaussian. This model can be realized in three steps:

1. Map all random variables Xi individually to normally distributed random variables Vi with zero
mean and unit standard deviation:

{Xi ; fXi (xi )} ↔ {Vi ; ϕ(vi )}

which is accomplished by means of

Vi = Φ−1 [FXi (Xi )] (12)

2. Assume a jointly normal distribution for all random variables Vi

E[Vi ] = 0; E[Vi2 ] = 1; E[Vi Vj ] = ρVi Vj 6= ρXi Xj (13)

Note that at this point, the correlation coefficient ρVi Vj is not yet known. The joint pdf for the
components of the random vector V is then
1 1
fV (v) = n√ exp(− vT R−1
VV v) (14)
(2π)2 det RVV 2

From this relation, it follows that


n n
Y dxi Y ϕ[vi (xi )]
fX (x) = fV [v(x)] | | = fV [v(x)] (15)
dvi fXi (xi )
i=1 i=1

29
Simulationsverfahren in der stochastischen Strukturmechanik

3. Adapt the correlation coefficients ρVi Vj by solving


Z ∞
σxi σxj ρXi Xj = (xi − X̄i )(xj − X̄j )fXi Xj (xi , xj , ρVi Vj )dxi dxj (16)
−∞

This is usually achieved by iteration. A known problem of the Nataf-model is that this iteration
may lead to a non-positive-definite matrix of correlation coefficients. In this case, this model is
not applicable.

3 Structural Reliability
3.1 Definitions
Generally, failure (i.e. an undesired or unsafe state of the structure) is defined in terms of a limit
state function g(.), i.e. by the set F = {X : g(X) ≤ 0}. As seen in Fig. 2, the definition of the limit
state function is not unique

Mpl
Me

L
FL
F = {(F, L, Mpl ) : F L ≥ Mpl } = {(F, L, Mpl ) : 1 − Mpl ≤ 0}

Figure 2: Structural system and failure condition

The failure probability is defined as the probability of the occurrence of F:


P (F) = P [{X : g(X) ≤ 0}] (17)
This quantity is unique, i.e. not depending on the particular choice of the limit state function.

3.2 FORM - First Order Reliability Method


The FORM-Concept is based on a description of the reliability problem in standard Gaussian
space. Hence transformations from correlated non-Gaussian variables X to uncorrelated Gaussian
variables U with zero mean and unit variance are required (Rosenblatt-Transformation). Then a
linearization utilizing a first-order Taylor expansion is performed in u-space. The expansion point
u∗ is chosen such as to maximize the pdf within the failure domain. Geometrically, this coincides
with the point in the failure domain having the minimum distance β from the origin. From a safety
engineering point of view, the point x∗ corresponding to u∗ is called design point.
This concept is especially useful in conjunction with the Nataf-model for the joint pdf of X. In
this case the transformation consists of the following steps:

1. Transform from correlated non-Gaussian variables Xi to correlated Gaussian variables Yi :

Yi = Φ−1 [FXi (Xi )]; i = 1...n (18)

These transformations can be carried out independently. The covariance matrix CYY is calcu-
lated from CXX according to the rules of the Nataf-model.

30
Simulationsverfahren in der stochastischen Strukturmechanik

2. Transform from correlated Gaussian space to standard Gaussian space by means of

U = L−1 Y (19)

in which L is calculated from the Cholesky-decomposition of CYY :

CYY = LLT (20)

In total, this leads to a representation of the limit state function g(.) in terms of the standardized
Gaussian variables Ui :

g(X) = g(X1 , X2 , . . . Xn ) = g[X1 (U1 , . . . Un ) . . . Xn (U1 , . . . Un )] (21)


with
n
X
Xi = FX−1i [Φ( Lik Uk )] (22)
k=1

From the geometrical interpretation of the expansion point u∗ in standard Gaussian space it be-
comes quite clear that the calculation of the design point can be reduced to an optimization problem:

u∗ : uT u → Min.; subject to: g[x(u)] = 0 (23)

In the next step, the exact limit state function g(u) is replaced by a linear approximation ḡ(u) as
shown in Fig. 3.

u2

u∗ ḡ(u) = 0
s2
β
u1
s1
g(u) = 0

Figure 3: Linearization required for first order reliability method

From this, the probability of failure is easily determined to be

P (F) = Φ(−β) (24)

This result is exact, if g(u) is actually linear.

4 Monte-Carlo-Simulation
4.1 Definitions and Basics
Generally the failure probability is defined as the probability that the limit state function attains
non-positive values (cf. Eq. 17) This can be written as an expected value:
Z ∞Z ∞ Z ∞
P (F) = ... Ig (x)fX1 ...Xn dx1 . . . dxn (25)
−∞ −∞ −∞

in which Ig (x1 . . . xn ) = 1 if g(x1 . . . xn ) ≤ 0 and Ig (.) = 0 else.

31
Simulationsverfahren in der stochastischen Strukturmechanik

In order to determine P (F) in principle all available statistical methods for estimation of expected
values are applicable. If m independent samples x(k) of the random vector X are available then the
estimator
Xm
P̄ (F) = Ig (x(k) ) (26)
k=1

yields a consistent and unbiased estimate for pf .


Problem: For small values of P (F) and small values of m the confidence of the estimate is very
low. The number m of simulations required for sufficiently high confidence is independent of the
dimension n of the problem!

4.2 Importance Sampling (Weighted Simulation)


4.2.1 General Concept

In order to reduce the standard deviation σP̄ (F ) of the estimator to the order of magnitude of
1
the probability of failure itself m must be in the range of m = P (F ) . For values of P (F) in the
−6
range of 10 this cannot be achieved. Alternatively, strategies are employed which increase the “hit-
rate” by artificially producing more samples in the failure domain than should occur according to the
distribution functions. One way to approach this solution is the introduction of a positive weighting
function hY (x) which can be interpreted as density function of a random vector Y. Samples are
taken according to hY (x).
The probability of failure is then estimated from
m
1 X fX (x) fX (x)
P̄ (F) = Ig (x) = E[ Ig (x)] (27)
m hY (x) hY (x)
k=1

A useful choice of hY (x) can be based on minimizing σP̄2 (F ) . Ideally, such a weighting function
should reduce the sampling error to zero which cannot be achieved in reality, since such a function
should have the property:
 1
hY (x) = P (F ) fX (x) g(x) ≤ 0 (28)
0 g(x) > 0
This property requires the knowledge of P (F) which, of course, is unknown. Special updating pro-
cedures such as adaptive sampling can help to alleviate this problem.

4.2.2 Importance Sampling at the Design Point

Based on a previous FORM analysis it may be attempted to obtain a general importance sampling
concept. This can be accomplished in two steps:

1. Determine the design point x∗ as shown in the context of the FORM-procedure.

2. Choose a weighting function (sampling density) hY (x) with the statistical moments E[Y] =
x∗ and CYY = CXX in the following form (multi-dimensional Gaussian distribution)
 
1 1 ∗ T −1 ∗
hY (x) = n√ exp − (x − x ) CXX (x − x ) (29)
(2π) 2 det CXX 2

3. Perform random sampling and statistical estimation according to Eq. 27.

32
Simulationsverfahren in der stochastischen Strukturmechanik

x2

pdf
hY (x)

x∗
fX (x)
X̄ g(x) = 0

x1

Figure 4: Original and importance sampling probability density functions

The efficiency of this concept depends on the geometrical shape of the limit state function. In
particular, limit state functions with high curvatures or almost circular shapes cannot be covered very
well.

4.2.3 Adaptive Sampling

As mentioned earlier, the “optimal” sampling density should satisfy the requirement
hY (x) = fX (x|x ∈ Df ) (30)
Here the failure domain Df is the set in which the limit state function is negative:
Df = {x|g(x) ≤ 0} (31)
This ideal condition cannot be met strictly. However, it is possible to meet it in a second moment
sense, i.e. hY (x) can be chosen such that ([2]):
E[Y] = E[X|X ∈ Df ] (32)
E[YYT ] = E[XXT |X ∈ Df ] (33)
In terms of these statistical moments, a multi-dimensional Gaussian distribution is uniquely deter-
mined.

4.3 Directional Sampling


The basic idea is to simulate directions instead of points, and to solve analytically for the proba-
bility of failure conditional on a certain direction. The formulation is based on a representation of the
limit state function in standard normal space (denoted by the random vector U). Each point u in this
space is written in the form of:
u = ra
in which r is the distance from the origin, and a is a unit vector indicating the direction. This implies
transformation to n-dimensional spherical coordinates.
The failure probability pf |a conditional on a realization of the direction a can be determined ana-
lytically:
Z ∞ Z ∞
pf |a = fR|A (r|a)dr =
R∗ (a) R∗ (a
(34)
r2
 
1
= Sn r n−1
n exp − dr = 1 − χ2n [R∗ (a)2 ]
π2 2

33
Simulationsverfahren in der stochastischen Strukturmechanik

Figure 5: Directional Sampling

This is the cumulative Chi-Square-Distribution with n degrees of freedom.

The directional sampling procedure can be summarized as follows:

1. Generate a sample uk according to an n-dimensional standard normal distribution


uk
2. Calculate the direction vector ak = ||uk ||

3. Calculate critical distance R∗ (ak ) by solving g[R∗ (ak )a] = 0

4. Determine conditional failure probability pf |a = 1 − χ2n [R∗ (ak )2 ]

5. Repeat above steps with k → k + 1

5 Numerical Examples
5.1 Natural Frequencies of a Structure with Randomly Distributed
Elastic Modulus
In the following, a spherical shell structure (cf. Fig. 6) in free vibration is considered. The shell is
modeled by 288 triangular shell elements. The shell is assumed to be fully clamped along the edge.
The material of the shell is assumed to be elastic (in plain stress) and the elastic modulus E(x) is
modeled as a log-normally distributed, homogeneous, and isotropic random field. Its auto-covariance
function CEE (x, y) is assumed to be of the form

2 ||x − y||
CEE (x, y) = σEE exp(− ) (35)
Lc
In the above equations, the 3D vectors x and y are the coordinates of points within the shell
structure. The basis diameter of the shell is 20 m, and the correlation length Lc is assumed to be 10
m. The coefficient of variation of the random field is assumed to be 0.2.
The question to be answered is what magnitude of randomness may be expected in the calculated
natural frequencies. Quite clearly, this is very important for structural elements designed to carry e.g.
rotating machinery which produces almost harmonic excitation, and possibly resonance. Hence the
probability of obtaining high deviations from the mean natural frequency needs to be calculated. This
example shows quite typically the close connection required between the stochastic analysis and the
finite element analysis. Within the finite element model, the random field E(x) is represented by its

34
Simulationsverfahren in der stochastischen Strukturmechanik

z
y
x

Figure 6: Spherical Shell Structure

values in the integration points of the elements ([1]). The shell elements as utilized here have two
layers of each 13 integration points, so there is a total of 26x288 = 7488 integration points. In order to
reduce this rather high number of random variables the following strategy is applied. First, the elastic
modulus is represented by one value per element (given the correlation length of 10 m this is not a
severe simplification). Second, the remaining random field is represented in terms of independent
random variables and corresponding space dependent shape functions. These independent variables
are obtained by applying the Nataf joint density model along with an eigenvalue decomposition of
the covariance matrix of the random field, i.e. by a spectral representation ([4, 7, 8]).
Fig. 7 shows selected space dependent shape functions. They are ordered according to decreasing
magnitude of the corresponding eigenvalues. A Monte Carlo simulation is then carried out to gen-

φ1 φ2

φ5 φ7

Figure 7: Selected mode shapes of the covariance function

erate sample functions of the random field. For each sample, the lowest 10 natural frequencies are
computed. The simulation results obtained from 1000 samples in terms of histograms are given in
Figs. 8 and 9.
Probability density

0.25

0.2

0.15

0.1

0.05

0
36 38 40 42 44 46
Natural frequency

Figure 8: Histogram of the fundamental natural frequency

35
Simulationsverfahren in der stochastischen Strukturmechanik

0.12

Probability density
0.09

0.06

0.03

0
36 40 44 48 52 56 60
Natural frequency

Figure 9: Histogram of lowest 10 natural Frequencies

The results indicate a relatively high scatter of the fundamental frequency (the deterministic system
has two equal lowest natural frequencies at 42 Hz). The coefficient of variation is approximately 15%.
Considering the lowest 10 natural frequencies (Fig. 9) it is seen that a large frequency band between
36 Hz and 60 Hz is filled with possible resonance locations.

5.2 First Passage Probability of a Frame Structure


Here a three-dimensional steel frame structure (cf. Fig. 10) subjected to a random non-stationary
non-white earthquake-type excitation a(t) as described by [3] is analyzed. The horizontal ground

12 m
u2

16.7◦ 6m
z a(t)

Figure 10: Steel Frame structure under earthquake type excitation a(t)

acceleration a(t) is an amplitude-modulated random process described by multiplying a deterministic


envelope function e(t) with a stationary random process s(t):

a(t) = e(t)s(t); e(t) = 6.75[exp(−0.5t) − exp(−0.75t)] (36)

The auto-covariance function of the stationary process s(t) is given by

|t1 − t2 |
Rss (t1 , t2 ) = σs2 exp(− ); σs2 = 0.2m2 /s4 ; τc = 0.4s (37)
τc

In a time-discrete representation, the random process a(t) is expressed in terms of 200 correlated
random variables ai = a(ti ). It is the goal of the analysis to compute the probability pE with which
the displacement response u2 as indicated in Fig. 10 exceeds a given threshold level ξ. The method
utilized is importance sampling at the design points, with the addition that here multiple design points
need to be taken into account ([6]).

36
Simulationsverfahren in der stochastischen Strukturmechanik

Modulating function
0.8

0.6

0.4

0.2

0
0 2 4 6 8 10
Time

Figure 11: Modulating function e(t)

0.001
First passage probability

First passage probability


Standard deviation of estimate
1e-06

1e-09

1e-12

1e-15

0.05 0.1 0.15 0.2


Threshold level

Figure 12: First passage probability vs. threshold level ξ

Structural Data

• Material: Ideal plasticity with kinematic hardening, post-yield stiffness of 5% of initial, Elastic
modulus 2.1 · 1011 N/m2 , yield stress of 2.40 · 108 N/m2 .

• Geometry: Cross sections have symmetric I-shapes for both beams and columns. Beam and
column sections have a height and width of 400 mm and a web/flange thickness of 6 mm.
Concrete slabs with dimensions 12 × 6 × 0.2 m, an elastic modulus of 3 · 1010 N/m2 and a
density of 2500 kg/m3 .

• FE-model: Model has 28 beam and 8 plate elements. Fully clamped supports are assumed.
Total of 120 dynamic degrees of freedom, i.e. 240 state variables. Lowest natural frequency of
the structure in its initial (linear) state is 0.61 Hz.

Solution Procedure

• Perform transient dynamic analysis considering material and geometrical nonlinearities.

• Utilize explicit time integration scheme with a time step of ∆t = 0.1s

• Determine design point excitations These excitations are the most likely excitations leading to a
first passage at time T . They are utilized to construct an importance sampling density function
as outlined in the preceding section 4.2.2.

• Apply importance sampling using 1000 samples to calculate probability PE of exceeding a


given top story displacement u2 in x-direction (threshold level ξ from -0.05 to -0.30 m)

It can be seen from Fig. 12 that by applying the importance sampling concept it is possible that
extremely small failure probabilities can be calculated from a very moderate sample size of 1000 with

37
Simulationsverfahren in der stochastischen Strukturmechanik

Level ξ [m] 0.05 0.10 0.15 0.20


pE 1.2 · 10−1 2.8 · 10−5 2.0 · 10−10 5.5 · 10−16
σpE 8.6 · 10−3 4.2 · 10−6 4.2 · 10−11 1.0 · 10−16

Table 1: First passage probability pE and statistical error σpe vs. threshold level ξ

reasonably small statistical errors of about 20%.

Concluding Remarks
The methods available for the analysis of structural reliability allow for a treatment of rather com-
plex random phenomena such as random vectors, random fields and random processes in conjunction
with structural analysis based on the finite element method.
It is quite clear that the application of such methods requires substantial computational resources
and should be carefully chosen so that the required results can be obtained in the least expensive
way. In particular, approximations based on e.g. the first order reliability method or the perturbation
approach may be quite appropriate for intermediate stages of the reliability analysis such as during
an optimization procedure. Final results may require higher levels of accuracy and confidence, for
which cases Monte-Carlo-based simulation methods such as importance sampling procedures should
be applied.

References
[1] C. E. Brenner and C. Bucher. A contribution to the SFE-based reliability assessment of nonlinear
structures under dynamic loading. Probabilistic Engineering Mechanics, 10:265–273, 1995.

[2] C. Bucher. Adaptive sampling - An iterative fast Monte Carlo procedure. Structural Safety,
5:119–126, 1988.

[3] C. Bucher. An importance sampling technique for randomly excited systems discretized by finite
elements. In J. M. Ko and Y. L. Xu, editors, Advances in Structural Dynamics, pages 1135–1142.
Elsevier, Amsterdam, 2000.

[4] R. Ghanem and P. D. Spanos. Stochastic Finite Elements - A Spectral Approach. Springer, New
York Berlin Heidelberg, 1991.

[5] P.-L. Liu and A. DerKiureghian. Multivariate distribution models with prescribed marginals and
covariances. Probabilistic Engineering Mechanics, 1(2):105–112, 1986.

[6] M. Macke and C. Bucher. Importance sampling for randomly excited dynamical systems. Journal
of Sound and Vibration, (268):269–290, 2003.

[7] H. G. Matthies, C. E. Brenner, C. G. Bucher, and C. G. Soares. Uncertainties in probabilistic


numerical analysis of structures and solids—Stochastic finite elements. Struct. Safety, 19:283–
336, 1997.

[8] H. G. Matthies and C. Bucher. Finite elements for stochastic media problems. Comput. Methods
Appl. Mech. Engrg., 168:3–17, 1999.

38
Risikostudie am Beispiel Erdbeben

Risikostudie am Beispiel Erdbeben

Raimar J. Scherer & Gerald Faschingbauer

Im vorliegenden Beitrag soll am Beispiel Erdbeben die Durchführung von Ri-


sikostudien demonstriert werden. Es werden die Grundlagen zur Ermittlung des
seismischen Risikos erläutert und ein kurzer Einblick in die Risikoakzeptanz-
kriterien zur Abwägung von Kosten und Nutzen risikoreduzierender Maßnah-
men gegeben. Hierzu muss die Wahrscheinlichkeit mit der ein Erdbeben
bestimmter Größenordnung auftritt mit den daraus resultierenden Schäden
bzw. wirtschaftlichen Verlusten verknüpft werden. Der Beitrag ist eine Zu-
sammenstellung der wesentlichen Entwicklungen im Bereich der Risikoermitt-
lung und der Risikoakzeptanzkriterien und soll als Leitfaden für die Erstellung
von Risikostudien in der Ingenieurpraxis dienen.

1 Einleitung
Als Risikostudien werden Sicherheitsnachweise durch wahrscheinlichkeitsorientierte Me-
thoden bezeichnet. Sie dienen der Ermittlung des Risikos, das mit einem bestimmten Vor-
haben, einer bestimmten Aktion, verbunden ist. Das Risiko wird als Produkt aus
Versagenswahrscheinlichkeit Pf und Versagenskosten Cf definiert. Bei der Planung neuer
baulicher Anlagen sowie bei der Rehabilitation alter Bauwerke kann durch die Anwendung
von Risikostudien das Investitionsvolumen beim Einsatz von Sicherheitsmaßnahmen opti-
miert werden. Sehr häufig hat sich in der Vergangenheit gezeigt, dass durch die Investition
in risikomindernde Maßnahmen größere Schäden und der Verlust von Menschenleben
vermeidbar gewesen wären. Häufig beschränken sich der Bauherr und der Ingenieur auf
die Anwendung der gültigen Normen, obwohl im Einzelfall durch zusätzliche Maßnahmen
mit geringem Kostenaufwand eine starke Reduzierung des potentiellen Risikos erreicht
werden könnte. Das Maß der Akzeptanz, mit dem wir ein Risiko bewerten hängt maßgeb-
lich davon ab, welcher Nutzen sich aus der mit dem Risiko behafteten Aktivität ergibt und
mit welchem Grad der Freiwilligkeit die Aktivität unternommen wird. Es wird ferner un-
terschieden zwischen dem Risiko, dem sich eine einzelne Person aussetzt und dem Risiko
für die Allgemeinheit, bei dem grundlegend zu entscheiden ist, ob das Risiko für die Ge-
samtbevölkerung akzeptabel ist. Es ist stets abzuwägen, wo die Grenze zwischen akzepta-
blem und nicht akzeptablem Risiko zu ziehen ist. Ein generell gültiges, mathematisch
fassbares Kriterium gibt es hierfür nicht. Es ist letztendlich immer eine Einzellfallentschei-
dung. Es besteht allgemein Einigkeit darüber, dass das Risiko so gering wie möglich gehal-
ten werden muss. Bei der Entscheidungsfindung über das zulässige Risiko sind objektive
Kriterien zugrunde zu legen. Deshalb werden bei Risikostudien im Wirtschafts- und Inge-

39
Risikostudie am Beispiel Erdbeben

nieurbereich auf Basis von Kosten-Nutzen-Analysen erstellt. Diese liefern eindeutigere


diskutierbare Ergebnisse. Nachfolgend soll ein Ansatz eines vierstufigen Konzepts einer
Risikostudie (Abb. 1) gezeigt werden, mit dem die Wirtschaftlichkeit von risikoreduzie-
renden Maßnahmen bewertet werden kann.

Abb. 1: Das vierstufige Konzept einer Risikostudie

2 Stochastische und physikalische Modellansätze


2.1.1 Versagenswahrscheinlichkeit von Tragwerken

Um das mit einem Bauwerk verbundene seismische Risiko zu ermitteln, muß die Wahr-
scheinlichkeit ermittelt werden, mit der das Tragwerk durch Erdbebeneinwirkung versagt.
Ein Tragwerk versagt, wenn die Beanspruchbarkeit R (resistance) kleiner ist als die Bean-
spruchung S (stress), also wenn der Sicherheitsabstand Z kleiner Null ist.
Z = R −S< 0 (1)

D.h. das Tragwerk versagt dann, wenn R und S Realisierungen r und s annehmen, für die
z<0 ist. Sowohl R als auch S lassen sich durch ihre Wahrscheinlichkeitsdichtefunktionen fr
und fs beschreiben. Durch die Gleichung Z = R – S = 0 kann die Grenzzustandsfunktion
angegeben werden, die den Versagensbereich vom Überlebensbereich trennt. Die
Versagenswahrscheinlichkeit Pf entspricht dem Integral der Verbundwahrscheinlichkeits-
dichtefunktion fr,s über den Versagensbereich.

40
Risikostudie am Beispiel Erdbeben

Die Beanspruchungen des Tragwerks können vereinfacht als Massenbeschleunigungskräfte


über das Antwortspektrenverfahren ermittelt werden. Die als Eingangsgrößen für das Ant-
wortspektrum zur Ermittlung der Massenbeschleunigungskräfte notwendigen Bodenbe-
schleunigungswerte ergeben sich durch Kombination der Auftretenswahrscheinlichkeit und
Stärke des Erdbebens, vereinfacht ausgedrückt durch die Magnituden-Häufigkeits-
Gleichung, einer empirischen, von lokalen Gegebenheiten abhängigen Funktion, erstmals
vorgeschlagen von Gutenberg & Richter und einem entfernungsabhängigen Abnahmege-
setz für die Spitzenbodenbeschleunigung, ebenfalls eine empirische, stark von lokalen Ge-
gebenheiten abhängigen Funktion.

2.2 Auftretenswahrscheinlichkeit von Erdbebenbeschleunigungen am


Bauwerksstandort
Ziel ist es, die statistische Verteilung der Spitzenbodenbeschleunigung (PGA) am Bau-
werksstandort zu ermitteln. Sie wird in 2 Stufen ermittelt. Zuerst wird die Auftretenswahr-
scheinlichkeit von Erdbeben mit einer gewissen Erdbebenstärke in der Umgebung des
Bauwerks ermittelt. In ihr gegen vor allem seismotektonische Überlegungen ein. Im zwei-
ten Schritt wird die Erdbebenstärke am Erdbebenherd über das empirische Abnahmegesetz
in eine Spitzenbodenbeschleunigung am Bauwerksstandort transformiert. Hier gehen vor
allem seismische und geologische Überlegungen ein. Insbesondere die lokale Topographie
und die lokale oberflächennahe Geologie (weiche Schichten) sind von herausragender Be-
deutung, da sie zu Bodenresonanzüberhöhungen von mehreren Faktoren führen können.
2.2.1 Wahrscheinlichkeitsverteilung der Magnitude

Der gewöhnliche Ausdruck zur Beschreibung der Verteilungsfunktion der Magnitude ist
die „Magnituden-Häufigkeits-Gleichung“ erstmals vorgeschlagen von Gutenberg und
Richter (Gutenberg et al. (1944)). Sie ist, statistische Unabhängigkeit des Auftretens ange-
nommen, eine Exponentialverteilung. Wird nur der Bereich von ingenieurmäßigem Inter-
esse berücksichtigt, ML ≤ M ≤ MU, folgt daraus, dass die Magnitude M in einer Region
einer gestutzten Exponentialverteilung folgt. Die zugehörige Summenhäufigkeitsverteilung
(Abb. 2) ist:
1 − e − β ( M −M L )
F(M ) = (2)
1 − e −β(M U −M L )

hierbei ist F(M) die Wahrscheinlichkeit, dass die Magnitude M nicht überschritten wird,
ML ist die kleinste Magnitude von ingenieurmäßigem Interesse (i.a. ML=4.0), MU ist die
größte für das jeweilige Gebiet zu erwartende Magnitude, β ist eine ortsspezifische Kon-
stante, die trotz einer fortschreitenden Harmonisierung der empirischen Auswertung der
historischen Erdbeben an manchen Landesgrenzen noch Sprünge aufweisen kann.

41
Risikostudie am Beispiel Erdbeben

Abb. 2: Magnituden-Häufigkeits-Gleichung

2.2.2 Auftretens-Wahrscheinlichkeiten für die Spitzenbodenbeschleunigung

Um die Bodenbewegung am Beobachtungsort zu erhalten, ist eine Beziehung zwischen


seismischen Informationen (Magnitude) und Spitzenboden-beschleunigung (PGA), in Ab-
hängigkeit von der Hypozentral- oder Epizentraldistanz einzuführen. Diese Beziehung
wird als Abnahmegesetz bezeichnet. Das Abnahmegesetz (Abb. 3) gilt unter der Annahme
eines homogenen Ausbreitungsmediums. Tatsächlich können standortspezifische Eigen-
schaften die Wellenausbreitung stark verstärken oder auch dämpfen. Meist sind jedoch in
einem Gebiet nicht genügend Messstationen vorhanden, um flächendeckende, detaillierte
Informationen über singuläre Einflüsse auf die Wellenausbreitung zu erhalten. In diesen
Fällen bietet das Abnahmegesetz pragmatische Modellannahmen für die Einschätzung der
Bodenbeschleunigung. Es ist ferner zu berücksichtigen, dass das Abnahmegesetz in unmit-
telbarer Umgebung des Herdes nicht gilt. Erst ab einer Herddistanz von etwa 10 km ist die
Modellierung mit einem Abnahmegesetz empfehlenswert.
Die allgemeine Formulierung des Abnahmegesetzes lautet:
A = b1 ⋅ e b2 ⋅M ⋅ (∆ + k )
− b3
⋅ εA (3)

Hierin ist A die horizontale Spitzenbodenbeschleunigung als Anteil der Erdbeschleunigung


g. ∆ ist die Hypozentraldistanz, k ist ein empirischer Faktor zur Modifikation der Distanz,
die bi sind Abminderungskoeffizienten und εA ist ein lognormaler Fehlerterm, der pauschal
die Modellunsicherheiten des Abnahmegesetzes berücksichtigt. In den meisten Fällen fehlt
in der Literatur die Information über den Fehlerterm. Im hier behandelten Konzept für Ri-
sikostudien wird der Fehlerterm vernachlässigt, da das Abnahmegesetz lediglich zur Trans-
formation der Magnitude in einen Beschleunigungswert benutzt wird.

Abb. 3: Abnahmegesetz für konstante Magnitude (M=5) links und konstante Entfernung (∆=80km) rechts

42
Risikostudie am Beispiel Erdbeben

Verknüpft mit der Wahrscheinlichkeitsverteilung der Magnitude (Gl. ( 2 )) ergibt sich die
Wahrscheinlichkeit, dass bei einem Erdbeben die Spitzenbodenbeschleunigung a an einem
Standort, mit der Entfernung ∆=δ vom Hypozentrum überschritten wird (Abb. 4) zu:

[
P ' [A ≥ a | ∆ = δ ] = P b1 ⋅ e b2 ⋅M ⋅ (∆ + k )
− b3
⋅ε A ]
 1  A ⋅ (∆ + k ) 3  (4)
b

= 1 − F M = ln   ∀A ∈ {A | M U ≤ M ≤ M L }
 b2  b1 ⋅ ε A 
 

Abb. 4: Überschreitenswahrscheinlichkeitsverteilung P’[A≥a|∆=δ] der PGA

Erdbeben ereignen sich in guter Näherung als Poisson-Prozess mit einer mittleren Ereig-
nisrate ν, d.h. die Ereignisse sind stochastisch unabhängig. Neuere Erkenntnisse zeigen
zwar, dass eine physikalisch bedingte stochastische Abhängigkeit vorliegt (Reißverschluß-
effekt, Gruppeneffekt bei Nachbeben). Ihre Gesetzmäßigkeit ist aber noch so wenig er-
forscht und vor allem fehlen die empirischen Werte, so dass sie für praktische Belange
noch nicht berücksichtigt werden können. Die Überschreitenswahrscheinlichkeit P[A≥a]
(Abb. 5) einer Beschleunigung a in einer Referenzzeit T ergibt sich zu:
( )
P[A ≥ a | ∆ = δ] = 1 − e − ν⋅T ⋅ P' [A ≥ a | ∆ = δ] (5)

Abb. 5: Überschreitenswahrscheinlichkeit P[A≥a|∆=δ]

43
Risikostudie am Beispiel Erdbeben

2.2.3 Herdentfernung

Der Erdbebenherd wird im Allgemeinen als Punktquelle beschrieben die sich im Zentrum
der Bruchzone befindet. Von dort aus propagieren sich die Erschütterungen in alle Rich-
tungen. Zur Handhabung von Ausbreitungsgesetzen werden die nachfolgenden Entfe-
rungsbegriffe definiert und deren stochastische Verteilungsfunktionen angegeben:

Hypozentraldistanz
Die Hypozentraldistanz ∆ ist eine Funktion der Epizentraldistanz R und der Herdtiefe H
(Abb. 6)

∆ = R 2 + H2 (6)
Epizentrum Beobachtungsort
R

H

Hypozentrum

Abb. 6: Herdentfernung

Epizentraldistanz
Die Epizentraldistanz R hängt von der Herdgeometrie ab. Bei klar ausgeprägten Verwer-
fungslinien (Abb. 7) kann angenommen werden, dass der Herd nur an den Verwerfungsli-
nien und an jedem Punkt der Verwerfungslinie mit gleicher Wahrscheinlichkeit auftritt. Es
ergibt sich demnach die folgende Verteilungsfunktion (Abb. 8) der Epizentraldistanz:
 2 c2 − a 2  (R − c ) 2 c 2 − a 2
F[R ] = 1 −  + für c≤R≤b
 l  b−c l
 
2 c2 − a 2 R − a
F[R ] = für R <c (7)
l c−a

l
e
lt-lin
f au
R
b
a

site
Abb. 7: Modellierung von Verwerfungslinien

44
Risikostudie am Beispiel Erdbeben

Abb. 8: Verteilung des Epizentraldistanz bei klar definierten Verwerfungslinien

In Gebieten ohne ausgeprägte Verwerfungslinien oder zu wenig Information über die Lage
potentieller Herde kann die Epizentraldistanz unter der Annahme berechnet werden, dass
die Herdkoordinaten im gesamten seismischen Gebiet gleichverteilt sind. Die Modellie-
rung der seismischen Gebiete mit homogener Seismizität (Seismotektonische Provinzen)
erfolgt in diesem Falle mit Ringsegmenten (Abb. 9).
R − R min
F[R ] = (8)
R max − R min

R max
R min
seismotectonic
province
site

Abb. 9: Modellierung seismotektonischer Provinzen

Herdtiefe
Die Herdtiefe wird wenn keine weiteren Informationen vorliegen als lognormal verteilt
angenommen (vgl. Abb. 10), da physikalische begründet eine kontinuierliche Abnahme der
Erdbeben mit der Tiefe vorherrscht, während eine Häufung im erdoberflächennahen Be-
reich vorliegt.

 ln (H − H 0 − µ U ) 
F(H ) = Φ  (9)
 σ U 

  σ  
2

σ U = ln 1 +  H
 ( 10 )
  µ H − H 0  
 

σ 2U
µ U = ln (µ H − H 0 ) − ( 11 )
2

Φ[•] ist die standardisierte Normalverteilungsfunktion, H0 ist die Mindestherdtiefe, µΗ ist


der Erwartungswert und σH ist die Standardabweichung der Herdtiefe.

45
Risikostudie am Beispiel Erdbeben

Abb. 10: Dichtefunktion der Herdtiefe

Die stochastische Beschreibung der Hypozentraldistanz gestaltet sich als aufwendiges Un-
terfangen. Es empfiehlt sich daher für vereinfachte Risikostudien Abnahmegesetze zu ver-
wenden, die als Parameter nur die Epizentraldistanz enthalten. Somit entfällt die
aufwendige Ermittlung der Wahrscheinlichkeitsdichtefunktion der Hypozentraldistanz
(Abb. 11) und in den nachfolgenden Beziehungen kann ∆ durch R ersetzt werden.

Abb. 11: Verteilungsfunktion der Hypozentraldistanz (numerisch ermittelt)

Die Wahrscheinlichkeit, dass eine bestimmte Spitzenbodenbeschleunigung PGA über-


schritten wird (Abb. 12), kann nun durch Integration über das gesamte seismische Gebiet
bestimmt werden:
P[A ≥ a ] = ∫ P[A ≥ a | ∆ ] ⋅ f (∆ )d∆ ( 12 )

Abb. 12: Überschreitenswahrscheinlichkeit der PGA

46
Risikostudie am Beispiel Erdbeben

2.2.4 Berücksichtigung mehrerer seismotektonischer Gebiete

Der zu untersuchende Standort wird meist durch mehrere potenzielle Erdbebenherde be-
droht. Das gesamte seismische Gebiet wird in mehrere seismisch homogene Gebiete und
Gebiete, die durch Verwerfungslinien repräsentiert werden unterteilt. Die Gebiete sind
statistisch Unabhängig, so dass für das gleichzeitige Nichtauftreten eines Erdbebens in
allen Gebieten das Produktgesetz gilt. Die Überschreitenswahrscheinlichkeit der Spitzen-
bodenbeschleunigung ergibt sich dann zu
m
P[A ≥ a ] = 1 − ∏ (1 − Pi [A ≥ a ]) ( 13 )
i =1

Die Wahrscheinlichkeitsdichtefunktion der Spitzenbodenbeschleunigung PGA (Abb. 13)


am Bauwerksstandort ergibt sich durch Differenziation zu:
d
f a (a ) = (1 − P[A ≥ a ]) ( 14 )
da

Abb.13: Wahrscheinlichkeitsdichte der Spitzenbodenbeschleunigung

2.3 Bestimmung der dynamischen Bauwerksbeanspruchung


Die Ermittlung der Bauwerksbeanspruchung durch Erdbebenbelastung erfordert eine dy-
namische Analyse. Als vereinfachte Schwingungsberechnung wurde für impulsartige Bela-
stungen das Antwortspektrenverfahren entwickelt, das in allen gängigen Erdbebennormen
als Standardverfahren ausgewiesen ist. Das Antwortspektrum ist die maximale Antwort
(Reaktion) eines Einmassenschwingers auf eine ganz bestimmte Eingangserregung. Diese
maximale Antwort (Ordinate des ASP) wird über der Eigenperiode des Einmassenschwin-
gers (Abszisse des ASP) aufgetragen. Somit repräsentiert das Antwortspektrum die max.
Reaktion aller möglichen Einmassenschwinger, charakterisiert durch ihre Eigenschwing-
dauer Ti auf eine ganz bestimmte Erregung. Nachdem Erdbeben keiner ganz bestimmten
Erregung folgen, sondern deutlich unterschiedliche Erregungen aufweisen, ist ein Erdbe-
benantwortspektrum ein erheblich gemittelter Funktionsverlauf, der durch einen entspre-
chend konservativ zu wählenden Sicherheitsabstand abzusichern ist. Dies ist in den
Erdbebennormen in das Antwortspektrum im Sinne einer Standardbemessung – jedoch
nicht für eine Sonderbemessung – eingearbeitet. Diesem Verfahren liegen zwei wesentli-
che Modelvereinfachungen zugrunde. Zum einen ist es die impulsartige Belastung, die auf
dem ersten Blick für ein Erdbeben zutrifft. Bei einer genaueren Betrachtung und unter-
47
Risikostudie am Beispiel Erdbeben

mauert durch die Erkenntnisse der letzten 20 Jahre weiß man, dass eine Erdbebenbelastung
nicht durch eine impulsförmige Belastung hinreichend genau, höchstens durch eine Sum-
me von impulsförmigen Belastungen repräsentiert werden kann, da der Versagensmecha-
nismus bei allen Baustoffen außer Mauerwerk duktil ist. Die zweite Modelvereinfachung
ist die Annahme von linear-elastischem Material- und Systemverhalten. Nichtlineares Ver-
halten, das bei Versagensuntersuchungen immer vorliegt ist durch entsprechend modifi-
zierte lineare Ansätze zu modellieren. Auch ist es üblich, das Antwortspektrum für
spezielles nicht-lineares Systemverhalten zu berechnen. Eine einfache Möglichkeit bietet
das Antwortspektrenverfahren mit Anwendung der Modalanalyse. Damit kann aus der
Wahrscheinlichkeitsdichtefunktion für die PGA die Wahrscheinlichkeitsdichtefunktion für
die Spektralbeschleunigung und schließlich die Wahrscheinlichkeitsdichtefunktion für die
Massenbeschleunigungskräfte ermittelt werden. Dadurch ist die stochastische Beschrei-
bung der Beanspruchung gegeben.
Es ist zunächst folgendes Schwingungssystem zu lösen:
.. . ..
M u + D u + Ku = −Mb u b ( 15 )

Hierin ist M die Massenmatrix, D die Dämpfungsmatrix, K die Steifigkeitsmatrix , b die-


Beteiligungsspalte, die angibt welche Freiheitsgrade des Verschiebungsvektors Anteile in
..
Bebenrichtung aufweisen und u b ist die Bodenbeschleunigung. Mit Hilfe der Modalmatrix
X=[x1...xn] können die entkoppelten Steifigkeits- und Massenmatrizen diag{ki} und di-
ag{mi} bestimmt werden. Damit können für jede Eigenform die Eigenfrequenzen ωi sowie
die dazu jeweils korrespondierende Periodendauer Ti ermittelt werden. Die Anwendung
eines Antwortspektrums Sa liefert nun die maximalen modalen Antwortbeschleunigungen
si,max:
x iT Mb
s i ,max = Sa (Ti ) ⋅ a ⋅ ( 16 )
mi

Die maximalen physikalischen Beschleunigungswerte üi,max bezüglich der Eigenform i


ergeben sich durch Rücktransformation der modalen Antwortbeschleunigungen:
..
u i ,max = x i ⋅ s i ,max ( 17 )

Die maximalen Beschleunigungskräfte für jede Eigenform ergeben sich damit zu


..
p i = M u i ,max ( 18 )

Da die Maximalwerte der Eigenformen nicht synchron auftreten, wird die resultierende
Schnittgröße q näherungsweise als gewogenes Mittel angegeben:

∑ [q (p )]
2
q max = i i ( 19 )
i

Damit lassen sich die auftretenden Maximalspannungen im Tragwerk berechnen


σ max = σ max (q max ) ( 20 )

48
Risikostudie am Beispiel Erdbeben

Die Maximalspannung σmax ist somit eine Funktion h der Spitzenbodenbeschleunigung a


σ max = h (a ) ( 21 )

Ist die Funktion h eine ein-eindeutige, differenzierbare, streng monoton steigende Funktion
und existiert eine stetige, von Null verschiedene Umkehrfunktion h-1, so kann die Wahr-
scheinlichkeitsdichtefunktion fσ(σ) nach folgender Gleichung berechnet werden:
d 
( )
f σ (σ ) = f a h −1 (σ )  h −1 (σ ) ( 22 )
 dσ 

Abb. 14: Wahrscheinlichkeitsdichte der Maximalspannung

Sind die Bedingungen für den Einsatz der Gleichung ( 22 ) oder dem Antwortspektrenver-
fahren als auch die oben erwähnten Modellvereinfachungen für das Antwortspektrenver-
fahren nicht erfüllt, kann die Dichtefunktion fσ(σ) nur mit numerischen Methoden
(Abb. 14) oder dem extrem zeitaufwendigen Monte-Carlo Simulationsverfahren bestimmt
werden.

2.4 Versagenswahrscheinlichkeit
Die Beanspruchung ist durch die Wahrscheinlichkeitsdichtefunktion der auftretenden
Spannungen gegeben. Zusammen mit der Wahrscheinlichkeitsdichtefunktion der
Beanspruchbarkeit (Bruchspannung) ergibt sich die gemeinsame Wahrscheinlichkeitsdich-
tefunktion von Beanspruchung und Beanspruchbarkeit sowie die Grenzzustandsfunktion.
Durch Integration dieser zweidimensionalen Wahrscheinlichkeitsdichtefunktion über den
Versagensbereich kann die Versagenswahrscheinlichkeit berechnet werden.
Die gemeinsame Wahrscheinlichkeitsdichtefunktion der auftretenden Spannung σ und der
Versagensspannung σV wird unter der Annahme stochastischer Unabhängigkeit durch
Multiplikation der Randverteilungsdichten berechnet
f σ σV (σ, σ V ) = f σ (σ ) ⋅ f σV (σ V ) ( 23 )

Die Grenzzustandsfunktion g ist durch folgende Gleichung definiert:


Z = R −S = 0 ( 24 )

d.h.
g(σ, σ V ) = 0 ( 25 )
49
Risikostudie am Beispiel Erdbeben

Die Versagenswahrscheinlichkeit wird durch Integration der gemeinsamen Wahrschein-


lichkeitsdichtefunktion von σ und σV über den Versagensbereich g(σ,σV)<0 ermittelt
(vgl. Abb. 15)

Pf = ∫ f (σ, σ )dσdσ
σ σV
(σ ,σ V )| g (σ ,σ V )<0
V V ( 26 )

Abb. 15: Versagenswahrscheinlichkeit als Integral über den Versagensbereich


(g(σ,σv)=0 vereinfachend als linear angenommen)

3 Kosten-Nutzen-Analyse
Zur Ermittlung des Risikos reicht es nicht aus, die Auftretenswahrscheinlichkeit eines
Schadensereignisses zu kennen. Auch das Schadenspotential bzw. die zu erwartenden
Schäden müssen rechnerisch erfasst werden. Hierbei ist es unter dem Aspekt der Wirt-
schaftlichkeit angezeigt, zur Optimierung von Kosten und Nutzen risikoreduzierender
Maßnahmen die Schäden in monetären Einheiten anzugeben. Dies fällt bei Sachschäden
nicht schwer. Durch die Ermittlung von Baukosten, geschätzten Wiederaufbau-
/Rehabilitationskosten kann ein näherungsweise zuverlässiger Wert angegeben werden.
Wie aber wird bei Abwägung von Kosten und Nutzen der mögliche Verlust von Men-
schenleben berücksichtigt? Auch wenn ein Menschenleben nicht mit einem Geldwert be-
ziffert werden kann, ist die einzige Möglichkeit, Maßnahmen zum Schutz von Leib und
Leben in einer Kosten-Nutzen-Analyse angemessen zu berücksichtigen, einem Menschen-
leben einen monetären Wert zuzuordnen. Eine Möglichkeit hierzu ist die Verwendung des
ICAF - Wertes (Implied Cost of Averting a Fatality). Das ist der Wert, den eine Volkswirt-
schaft bereit sein sollte zu investieren um ein Menschenleben zu retten. Der Wert wird auf
der Basis eines sozialen Indikators, des sogenannten Lebensqualitätsindex LQI ermittelt,
der vom Bruttosozialprodukt pro Person und Jahr, von der durchschnittlichen Lebenser-
wartung bei der Geburt und von der anteiligen Lebensarbeitszeit, die in einer Erwerbstä-
tigkeit verbracht wird, abhängig ist. Es unterliegt selbstverständlich jeder Gesellschaft,
vertreten durch Ihre Entscheidungsträger in Einvernehmlichkeit den angemessenen ICAF-
Wert zu definieren und ihn wertmäßig festzulegen. Er ist keine gesellschaftliche Konstan-
te.

50
Risikostudie am Beispiel Erdbeben

3.1 Lebensqualitätsindex und ICAF


Im Folgenden wird lediglich eine kurze Einführung zur Ermittlung von LQI und ICAF
wiedergegeben. Zur detaillierten Beschäftigung mit dem Thema wird auf die Literatur
(z.B. Rackwitz et. al., 2002, Nathwani et. al., 1997) verwiesen.
Der Lebensqualitätsindex LQI ist ein zusammengesetzter Sozial-Indikator, der als monoton
steigende Funktion zweier Sozial-Indikatoren definiert ist: dem Bruttosozialprodukt pro
Einwohner und Jahr, g, und der Lebenserwartung bei der Geburt, e.
L = g w e1−w ( 27 )

Der Exponent w ist der Anteil des Lebens, der mit Erwerbstätigkeit verbracht wird. In wirt-
schaftlich entwickelten Ländern kann w ≈ 1/8 angenommen werden.
Das Kriterium des Lebensqualitätsindex definiert alle Maßnahmen als akzeptabel, für die
sich der LQI positiv verändert. Die Erhöhung der Sicherheit durch eine risikoreduzierende
Maßnahme wird durch die Erhöhung ∆e der Lebenserwartung e repräsentiert. Die Kosten
der Maßnahme werden durch die Reduzierung ∆g des Bruttosozialprodukts g ausgedrückt.
Damit ist die geplante risikoreduzierende Maßnahme unter folgender Bedingung sinnvoll:
∆e ∆g w
≥− ( 28 )
e g 1− w

Unter der Annahme, dass die verbleibende Lebenserwartung einer durchschnittlichen Per-
son die Hälfte der Lebenserwartung bei der Geburt beträgt, ist die durch die Vermeidung
eines Todesfalles gesicherte Anzahl von Lebensjahren ∆e=e/2. Damit und mit ( 28 ) ergibt
sich der akzeptable Grenzwert für die Reduktion des Bruttosozialproduktes zu:
g 1− w g 1− w
∆g max = ∆e = ( 29 )
e w 2 w

|∆g|max entspricht damit dem Wert für die durchschnittlichen Kosten, die für die Rettung
eines Lebensjahres gemäß den LQI-Kriterien akzeptabel sind.
Die optimalen, akzeptablen Kosten ICAF (optimum acceptable implied costs of averting a
fatality) für die Rettung eines Menschenlebens (vgl. Abb. 16) ergeben sich schließlich als
Produkt der geretteten Lebensjahre und der akzeptable Kosten pro Jahr:
ge 1 − w
ICAF = ∆g max ⋅ ∆e = ( 30 )
4 w

51
Risikostudie am Beispiel Erdbeben

Abb. 16: ICAF Werte in US$, basierend auf Daten aus 2002

3.2 Investition in Risikoreduzierende Maßnahmen


3.2.1 Präventivmaßnahmen

Präventivmaßnahmen sind alle Maßnahmen, die ein bestimmtes Ausmaß einer möglichen
Katastrophe verhindern sollen. Beispiele für Präventivmaßnahmen sind:
Seismische Bemessung
Konstruktive Ausbildung
Flächennutzungsplanung
Bei der Planung der Präventivmaßnahmen darf der wirtschaftliche Aspekt nicht vernach-
lässigt werden. Technische Anlagen sollen wirtschaftlich optimal gestaltet werden. Dies ist
durch eine Bemessungsparameter-Optimierung im Rahmen einer Kosten-Nutzen-Analyse
möglich. Das Ziel ist die Minimierung der Gesamtkosten Ct (Abb. 17) durch Anwendung
eines entsprechenden Bemessungsparameters zur Seismischen Bemessung oder Investitio-
nen in andere Sicherheitsmaßnahmen. Die Gesamtkosten Ct können unter der Annahme,
dass das Objekt nach einmaligem Versagen wieder errichtet wird und danach innerhalb der
geplanten Nutzungsdauer nicht mehr versagt, wie folgt ermittelt werden:
T
C t = C i + ∑ R (t ) ( 31 )
t =1

wobei Ci die Gesamt-Investitionskosten (Baukosten CB und Kosten für Präventivmaßnah-


men Cs,p) und R(t) das jährliche Risiko bezeichnet. Das Risiko wird als Produkt aus Pf(t)
(Versagenswahrscheinlichkeit im Jahr t) und Cf(t) (Versagenskosten im Jahr t durch Sach-
schäden, Personenschäden und Wiederherstellungskosten) ermittelt. T entspricht der Nut-
zungsdauer des Bauwerkes.

52
Risikostudie am Beispiel Erdbeben

Abb. 17: Optimierung der Gesamtkosten

Das Objekt, das mit einer bestimmten Wahrscheinlichkeit nach einiger Zeit versagen wird
ist jedoch im Entscheidungszeitpunkt (z.B. t=0) zu optimieren. D.h. für alle zukünftig ent-
stehenden Kosten muss der aktuelle Barwert ermittelt werden. In der Praxis ist der folgen-
de dekursive (nachschüssige) Abzinsungsfaktor (Diskontierungsfaktor) anwendbar:
1
δ( t ) = ( 32 )
(1 + γ r )t
Hierin ist γr der reale Zinssatz und t die Diskontierungszeit. Der reale Zinssatz wird aus
dem nominellen Zinssatz γn und der Inflation i mit der Beziehung
1+ γn
1− γr = ( 33 )
1+ i

ermittelt.
Mit Gleichung ( 32 ) lässt sich Gleichung ( 31 ) auf den aktuellen Barwert erweitern zu:
T
C t = Ci + ∑ Pf (t ) ⋅ Cf (t ) ⋅ δ(t ) ( 34 )
t =1

Werden Risiko R und die Kosten für Präventivmaßnahmen Cs,p in Abhängigkeit von einem
Parameter ad formuliert(z.B. Bemessungsparameter), so ergeben sich durch Optimierung
von ad die minimalen Gesamtkosten Ct.
3.2.2 Ausmaßmindernde Maßnahmen

Ausmaßmindernde (kurative) Maßnahmen sind Maßnahmen, die nach dem Eintreten des
Ereignisses kurativ wirken und dadurch das Katastrophen-Ausmaß begrenzen. Einige kura-
tive Maßnahmen sind z.B.:
Katastrophenplanung
Katastrophensimulation
Notfall-Management
Training für Rettungsmannschaften
Schulung der Bevölkerung, Information
medizinische Einsatzbereitschaft
Im Gegensatz zu den meisten Präventivmaßnahmen entstehen bei ausmaßmindernden
Maßnahmen die Kosten mehr oder weniger kontinuierlich über die Nutzungsdauer des

53
Risikostudie am Beispiel Erdbeben

Objektes verteilt. Die konstanten jährlichen Zahlungen (=Renten) Ca sind durch einen Ren-
tenbarwertfaktor ϕ auf den Anfangszeitpunkt abzuzinsen.

ϕ=
(1 + γ r )t − 1 ( 35 )
(1 + γ r )t ⋅ γ r
Damit ergibt sich der Rentenbarwert Cs,k der kontinuierlichen Investitionen im Entschei-
dungszeitpunkt t=0 zu:

C s ,k = C a ⋅ ϕ = C a ⋅
(1 + γ r )t − 1 (13)
(1 + γ r )t ⋅ γ r
Damit die geplante Sicherheitsmaßnahme wirtschaftlich sinnvoll ist, muss dieser Wert Cs,k
kleiner sein, als die Risikoreduzierung ∆R, die sich aus der Implementierung der Maßnah-
me ergibt. Selbstverständlich ist auch ∆R in den Entscheidungszeitpunkt zu diskontieren.
Es ergibt sich somit die Forderung:
T
Cs , k ≤ ∑ ∆R (t ) ⋅ δ( t ) ( 36 )
t =1

3.2.3 Kombination von präventiven und ausmaßmindernden Maßnahmen

Werden sowohl präventive als auch ausmaßmindernde Maßnahmen eingesetzt, ergibt sich
folgende Forderung:
T
Cs , p + Cs , k ≤ ∑ ∆R (t ) ⋅ δ(t ) ( 37 )
t =1

4 Zusammenfassung
In den vorhergehenden Kapiteln wurden die Methoden dargelegt, mit denen es möglich ist,
die Wahrscheinlichkeit für das seismische Versagen einer bestimmten Komponente zu
berechnen, d.h. das Versagen eines Querschnitts. Durch Erfahrungswerte ist es möglich,
dem Versagen eines bestimmten Querschnitts entsprechende Versagenskosten zuzuordnen,
also die Kosten, die durch Restabbrucharbeiten und Rehabilitation des Bauwerkes entste-
hen. Die beim Tragwerksversagen entstehenden humanitären Verluste (Todesfälle) können
ebenfalls über Erfahrungswerte abgeschätzt und mittels der LQI – Kriterien in monetäre
Einheiten umgewandelt werden. Damit ist es möglich, die Einzelrisiken für das Versagen
verschiedener Komponenten näherungsweise zu ermitteln. Durch Identifikation der Kom-
binationen, die zu einem Systemversagen führen und durch Aufsummieren der Einzel-
versagenswahrscheinlichkeiten des Systems unter Berücksichtigung ihrer gegenseitigen
statistischen Abhängigkeit kann auch die Versagenswahrscheinlichkeit des Gesamtsystems
ermittelt werden. Auch diesem Versagenstypus können entsprechende Versagenskosten Cf
zugeordnet werden. Durch Multiplikation der Versagenswahrscheinlichkeit mit den
Versagenskosten ist das Risiko zu ermitteln. Durch Investition in Sicherheitsmaßnahmen
kann dieses Risiko reduziert werden. Die dafür entstehenden Kosten werden mit der Redu-
zierung des Risikos verglichen. Dies ist ein Kriterium für die Rentabilität der Sicherheits-
maßnahme. Sind die Investitionskosten für die Sicherheitsmaßnahme geringer, als die
54
Risikostudie am Beispiel Erdbeben

damit erreichte Risikoverminderung, so ist die Maßnahme als sinnvoll einzustufen. Durch
Vergleich mehrerer verschiedener Sicherheitsmaßnahmen kann eine Optimierung der Ge-
samtkosten des Bauwerkes erreicht werden.

5 Referenzen
[1] Faschingbauer G.; Diamantidis D.; Scherer R.J.: Optimization of Safety Measures
against Earthquakes Based on Risk Acceptance Criteria, Proceedings of 13th World
Conference on Earthquake Engineering, Paper No. 2806, Vancouver, British Colum-
bia, Canada 2004
[2] Meskouris, K.: Baudynamik. Verlag Ernst & Sohn, Berlin, 1999
[3] Nathwani, J.S.; Lind, N.C.; Pandey, M.D.: Affordable Safety by Choice: The Life
Quality Method. Institute for Risk Research, University of Waterloo, Waterloo, Can-
ada, 1997
[4] Petersen, C.: Dynamik der Baukonstruktionen. Vieweg Verlag, Braunschweig-
Wiesbaden, 1996
[5] Rackwitz, R.: Structural Optimization and Risk Acceptability based on the Life Qual-
ity Index. Technische Universität München, 2001
[6] Rackwitz, R.; Streicher, H.: Optimization and Target Reliabilities. JCSS Workshop on
Reliability Based Code Calibration, http://www.jcss.ethz.ch/Events/WS_2002-
03/Paper_PPT_WS02/zuerich-march-2002-rackwitz-streicher.pdf , Zürich, 2002
[7] Scherer, R.J.; Krutzik, N.J.; Schuëller, G.I.; Freystätter, S.: PRA of NPP Structures
under Earthquake Conditions – Seismic Risk Analysis. 8th International Conference on
Structural Mechanics in Reactor Technology, Brussels, 1985
[8] Schneider, J.: Sicherheit und Zuverlässigkeit im Bauwesen. Teubner Verlag, Stuttgart,
1996
[9] Schuëller, G.I.: Einführung in die Sicherheit und Zuverlässigkeit von Tragwerken,
Verlag Ernst & Sohn, Berlin 1981

55
Risikostudie am Beispiel Erdbeben

56
Probabilistische Methoden zur Bemessung von Deichen

Probabilistische Methoden zur Bemessung von Deichen


und Küstenschutzbauten in den Niederlanden

Prof. Han Vrijling und Dr. Pieter van Gelder1

Zusammenfassung: Nach der Hochwasserkatastrophe in 1953 wurden statisti-


sche Methoden für die Bemessung von Sturmflutwasserständen eingeführt und
ein extrapolierter Sturmflutwasserstand bildet nun die Grundlage für Deichbe-
messungen. Entwicklungen in der Zuverlässigkeitstheorie in den letzten Jahren
ermöglichten eine Bewertung der Überschwemmungsrisiken mit Inachtnahme
von mehrfachen Versagens- und Bruchmechanismen an Deichabschnitten und
des Längeneffektes. Seit den 50er Jahren ist in den geschützten Gebieten ein
Wirtschaftswachstum zu beobachten, zudem sind private und öffentliche Inve-
stitionen im Infrastruktursektor geplant. Überdies steht die Sicherheit einer
wachsenden Bevölkerung auf dem Spiel. Diese Erwägungen rechtfertigen eine
gründliche Neuabschätzung der Akzeptanz von Überschwemmungsrisiken.

Abstract: After the disaster in 1953 a statistical approach to the storm surge
levels was chosen and an extrapolated storm surge level would be the basis for
dike design. In recent decades, the development of reliability theory made it
possible to assess the flooding risks taking into account the multiple failure
mechanisms of a dike section and the length effect. It is pointed out that eco-
nomic activity in the protected areas has grown considerably since the 1950s
and that even more ambitious private and public investments, particularly in in-
frastructure, are planned. Moreover the safety of a growing population is at
stake. These considerations justify a fundamental reassessment of the accept-
ability of the flood risks.

Key words: Probabilistic Design, Water Defense Systems, Flood Risk, Main-
tenance, Safety

1 Delft University of Technology and Delft Cluster, Faculty of Civil Engineering and Geosciences, Hydraulic Engineering Section (Room 3.73-1), Ste-
vinweg 1, 2628 CN Delft, the Netherlands, E-mail: j.k.vrijling@ct.tudelft.nl, p.vangelder@ct.tudelft.nl
Übersetzung aus dem Englischen durch Charlotte Saltner

57
Probabilistische Methoden zur Bemessung von Deichen

1 Einleitung
Ungefähr die Hälfte der Niederlanden liegt unter dem Meeresspiegel und ist durch Haupt-
deiche und andere Hochwasserschutzeinrichtungen gegen Überschwemmung geschützt.
Umfassende Schutzeinrichtungen, wie Entwässerungskanäle und Hochwasserentlastungs-
polder, in Verbindung mit anderen Einrichtungen und ausreichenden Pumpkapazitäten ga-
rantieren eine künstliche Verwaltung von Oberflächen- und Grundwasserständen. Im
Mittelalter wurden Deiche nach dem höchsten bekannten Hochwasserstand bemessen, zu
dem ein Meter zusätzliches Freibord hinzugezählt wurde. Diese Methode mußte bei der
Bemessung des Abschlußdeiches (Afsluitdijk) verworfen werden, da keine Wahrneh-
mungsdaten vorhanden waren. Der berühmte Professor Lorentz machte Vorhersagen be-
züglich der Zunahme des Tidehubes und addierte den Einfluß von Windstauwahrnehmun-
gen an der friesischen Küste. Nach der Hochwasserkatastrophe von 1953 wurden
statistische Methoden für die Bemessung von Sturmflutwasserständen eingeführt und ein
extrapolierter Sturmflutwasserstand bildet nun die Grundlage für Deichbemessungen. In
diesem Manuskript wird beschrieben, wie die Deltakommission die Sicherheitswasser-
stände, ausgedrückt mit Hilfe der Wiederkehrzeit von Hochwasserständen, optimiert hat,
die von den Hauptdeichen gehalten werden müssen.
Überschwemmung ist ein kennzeichnendes große-Folge-niedrige-Wahrscheinlichkeit-Er-
eignis und kann verglichen werden mit anderen technischen Fragstücken der Gesellschaft.
Das Institut für Chemieingenieurwesen [6] hat z.B. 1985 eine Studie über Gefahren und
Risikobewertung in der Prozeßindustrie veröffentlicht, HMSO’s Abteilung für Umwelt-
schutz [3] untersuchte Risiken in der Schiffahrt, das niederländische Laboratorium für
Raumfahrt analysierte die Sicherheit rund um den Flughafen Schiphol [8] und das nieder-
ländische Ministerium für Wohnungswesen, Raumplanung und Umwelt [7] und das briti-
sche HSE [5] produzierten Richtlinien für Raumplanung in Verbindung mit Risiken.
VRIJLING et al. [20] haben ein Modell für die Bewertung von Risiken im allgemeinen her-
geleitet.
Seit 1980 ermöglicht die Entwicklung und Anwendung der Zuverlässigkeitstheorie die
Abschätzung von Überschwemmungsrisiken unter Berücksichtigung von mehrfachen Ver-
sagens- und Bruchmechanismen von Schutzeinrichtungen. Niederländische Wasserbauer
waren unter den ersten Ingenieuren, die diese Theorie für die praktische Bemessung von
Schutzeinrichtungen angewendet haben. Zuverlässigkeitsmodelle wurden zum ersten Mal
in 1976 für die Bemessung und Ausführung des Sturmflutwehres in der östlichen Schelde
(Oosterschelde) angewandt sowie danach bei der Bemessung des Sturmflutwehres in dem
Nieuwe Waterweg bei Rotterdam.
Um 1979 wurde ein Projekt gestartet, um die probabilistische Bemessungsmethode für die
Bemessung von Deichen im allgemeinen anzuwenden. Die Entwicklung einer kompletten
Methode für Hochwasserschutzeinrichtungen nahm viel Zeit in Anspruch. In der letzten
Zeit wurde eine solche Abschätzung an vier Poldern oder Deichringen getestet. Die Wahr-
scheinlichkeit für Überschwemmung von diesen Poldern wurde berechnet, wodurch
schwache Stellen im Deich erkannt werden konnten. Es wird angenommen, daß die Er-
gebnisse dieser Berechnungen politische Debatten stimulieren können, falls der gegenwär-
tige Sicherheitswasserstand der Hochwasserschutzanlagen noch immer ausreichend ist.

58
Probabilistische Methoden zur Bemessung von Deichen

Diese Frage muß man stellen, da wirtschaftliche Aktivitäten in den geschützten Gebieten
seit 1960 erheblich zugenommen haben. Überdies sind ehrgeizige private und öffentliche
Investitionen, besonders im Infrastrukturbereich geplant. Die nationale Wirtschaft ist und
bleibt verwundbar für Überschwemmung. Zudem steht die Sicherheit einer wachsenden
Bevölkerung auf dem Spiel. Infolge von Überschwemmung werden in Zukunft Umwelt-
schäden und das Schadenpotential an Natur und Kulturerbe in Abschätzung des erforderten
Umfangs des Hochwasserschutzes eine immer größere Rolle spielen. Das Bild der Nieder-
landen als ein sicheres Land für Wohnraum, Arbeit und Investitionen ist ein wichtiger Fak-
tor, der in Betracht gezogen werden sollte. Dies kann eine gründliche Neubewertung der
Akzeptanz von Überschwemmungsrisiken und die Entwicklung eines Plans zur Effektivität
einer Hochwasserschutzanlage im Laufe der kommenden Jahrzehnten rechtfertigen.

2 Die Methode für Deichbemessungen seit der Deltakom-


mission
Die gegenwärtige Methode für eine sichere Deichbemessung beruht auf den Erkenntnissen
der Deltakommission, die 1960 veröffentlich wurden (VAN DANTZIG UND KRIENS, [13]). In
1953 wurden große Teile des südwestlichen Deltas der Niederlanden bei einer Ex-
tremsturmflut überschwemmt. Außer beträchtlichem wirtschaftlichen Schaden haben 1800
Menschen ihr Leben verloren. Die Hauptursache für das Deichversagen während des
Sturms vom 1. Februar 1953 war der Wellenüberlauf, gefolgt von einer Erosion und dem
Abreißen der Innenböschung der Deiche. Neben der Entwicklung des Deltaplans, der eine
Kürzung der Küstenlinie durch Schließung der Ästuaria vorsah, widmete sich die Delta-
kommission der Bemessung der Deiche. Zwei Hauptverbesserungsvorschläge wurden ein-
gereicht: 1. Erhöhen des Bemessungswasserstandes und in Folge dessen der Deichkrone.
2. Abflachen der Innenböschung der Deiche auf ein Verhältnis von 1:3. Der neue Bemes-
sungswasserstand wurde in zwei Schritten festgelegt. Zuerst wurden die Wahrnehmungen
der Wasserstände der letzten hundert Jahre statistisch analysiert und extrapoliert zu Was-
serständen, die bisher noch nie überschritten worden sind. Danach wurde eine wirtschaftli-
che Optimierung der Bemessungswasserstände durchgeführt. Auf der einen Seite wurde
der Schaden durch Überschwemmung von ganz Mittelholland ermittelt (s. S in Abb. 1) und
auf der anderen Seite die Kosten der Deicherhöhung (s. I in Abb. 1). Da ein höherer und
teurerer Deich zu einer Reduzierung der Überschwemmungswahrscheinlichkeit Pf führt
und dadurch ebenfalls zu einer Reduzierung von Schadensereignissen, konnte ein optima-
ler Bemessungswasserstand ermittelt werden (Pfopt). Pfopt ist der Wert, bei dem die Kurve
Q (welche die Summe der Kosten der Investition I und des PV (Present Value) des Risikos
PfS darstellt) ein Minimum besitzt (s. Abb. 1).
Der Bemessungswasserstand für Zentralholland wurde auf 5 m + NAP (Amsterdam Ord-
nance Datum) mit einer Wiederkehrzeit von 10.000 Jahren (Ergebnis statistischer Analysen
historischer Wasserständen bei Hoek von Holland) festgelegt. Da der Schaden infolge von
Überschwemmungen in ländlichen Gebieten außerhalb Zentralhollands als geringfügiger
eingeschätzt wird, sind für diese Polder kürzere Wiederkehrzeiten von 4.000 und 3.000
Jahren vorgesehen. Gegenwärtig ist die Niederlande in 53 Polder aufgeteilt, wobei jedem
Polder eine eigene spezifische Bemessungswiederkehrzeit oder -frequenz zugeordnet wur-
de. Die Deltakommission erkannte, daß außer den Versagensmechanismen Wellenüberlauf
59
Probabilistische Methoden zur Bemessung von Deichen

und Abreißen auch andere Mechanismen eine Gefahr darstellen könnten und formulierte
zusätzliche Bemessungsanforderungen im klassischen Sinn. Eine ähnliche Methode wurde
auch für Bemessungen von Wellenbrechern angewendet (z.B. VAN DE KREEKE UND PAAPE,
[15]).

Abb. 1: Die wirtschaftlich optimale Wahrscheinlichkeit für das Versagen einer Küsten-
schutzeinrichtung

3 Die probabilistische Methode für Überschwemmung


Seit den 80er Jahren wuchs die Erkenntnis, daß die Wahrscheinlichkeit für Überschreiten
des Bemessungswasserstandes, die Bemessungsfrequenz oder die Reziproke der Wieder-
kehrzeit keine geeignete Bewertung für die Wahrscheinlichkeit für Überschwemmung bie-
tet. Normalerweise liegt die Höhe der Deichkrone um ein bestimmtes Maß höher als der
Bemessungswasserstand, daher ist die Wahrscheinlichkeit eines Wellenüberlaufs kleiner
als die Bemessungsfrequenz. Einige Deichabschnitte jedoch können bereits kritisch bela-
stet sein, bevor der Bemessungswasserstand erreicht wird. Wasserlogging kann zu Abriß-
flächen innerhalb des Deicheskörpers führen, Piping kann den Gewichtskörper des Deiches
unterwandern, was ein plötzliches Deichversagen zur Folge hätte. Eine zusätzliche Gefahr
sind Schleusen und Tore, die nicht rechtzeitig vor Hochwasser geschlossen werden kön-
nen. Kurz gesagt, es gibt neben dem Wellenüberlauf weitere Versagensmechanismen, die
zu einer Überschwemmung von Poldern führen können (s. Abb. 2). Auch die Länge des
Deichrings hat einen großen Einfluß auf das Deichversagen. Eine Kette ist nur so stark wie
ihr schwächstes Glied. Eine einzige schwache Stelle in einem bestimmten Deichabschnitt
bestimmt die tatsächliche Sicherheit des ganzen Deichrings.
Die probabilistische Herangehensweise tracht die Wahrscheinlichkeit für eine Über-
schwemmung eines Polders zu bestimmen und die Akzeptanz dieser in Zusammenhang mit
den Folgen zu beurteilen. Zu Beginn werden die gesamten Hochwasserschutzeinrichtungen
eines Polders untersucht. Charakteristisch für solche Einrichtungen sind Seedeiche, Dünen,
Flußdeiche, Schleusen, Pumpstationen, Hügel etc (s. Abb. 3):

60
Probabilistische Methoden zur Bemessung von Deichen

Abb. 2: Versagens- und Bruchmechanismen bei Deichen

Inundation

or

failure failure failure failure


dike 1 dune dike 2 sluice

or

failure failure failure failure failure


section i-1 section i section i+1 section i+2 section i+3

Abb. 3: Hochwasserschutzanlage und dessen Elemente dargestellt in einem Fehlerbaum

61
Probabilistische Methoden zur Bemessung von Deichen

Im Prinzip führt das Versagen oder der Bruch eines einzigen Elements der Schutzanlage zu
einer Überschwemmung des Polders. Die Wahrscheinlichkeit einer Überschwemmung
resultiert also aus den Wahrscheinlichkeiten für ein Versagen aller einzelner Elemente.
Innerhalb eines längeren Elementes, z.B. eines 2 km langen Deiches, können mehrere un-
abhängige Abschnitte unterschieden werden. Jeder Abschnitt kann aufgrund von mehreren
möglichen Versagensmechanismen, wie Wellenüberlauf, Abriß, Piping, Erosion der ge-
schützten Außenböschung, Schiffskollision, Aufreißen einer Pipeline, etc. versagen. Die
Beziehung zwischen den Versagensmechanismen in einem Deichabschnitt und dem uner-
wünschten Folgeereignis Überschwemmung kann in einem Fehlerbaum wiedergegeben
werden, dargestellt in Abb. 4, wobei Ri die Stärke (Resistance) von Abschnitt i, S die Bela-
stung (Solicitation), h die Höhe des Deiches, B die Breite des Deiches, wl der Wasserstand
vor dem Deich, Hs die Wellenhöhe vor dem Deich und D der Blockdurchmesser ist.

failure of
section i

or

overtopping wave overtopping slide plane piping

Ri<S Ri<S Ri<S Ri<S

wl wl
h,B ∆D
Hs Hs

Abb. 4: Ein Deichabschnitt als ein Seriensystem von Versagensweisen

Die Versagenswahrscheinlichkeiten für die einzelnen Mechanismen werden mit den Me-
thoden der modernen Zuverlässigkeit, wie z.B. Niveau III Monte Carlo, Bayesisches Upda-
ting, Niveau II fortgeschrittene Berechnungen erster Ordnung zweiten Momentes (s. z.B.
VAN GELDER [16] für eine ausführliche Übersicht) berechnet. Die probabilistische Metho-
de ermöglicht eine Kombination von menschlichem Versagen, z.B. das Schließen eines
Schleusentores, in Zusammenhang mit strukturellem Versagen. Dies wird von daher auch
als besonderer Vorteil dieser Methode angesehen (s. Abb. 5). NOWAK UND COLLINS [9]
haben sich diesem Thema gewidmet.
Korrelationen zwischen Versagensmechanismen und Korrelationen zwischen verschiede-
nen Deichabschnitten müssen berücksichtigt werden. HOHENBICHLER UND RACKWITZ [4]
beschreiben einige geeignete Techniken. In Zuverlässigkeitsberechungen sollen alle Unsi-
cherheiten behandelt werden. Drei Klassen werden hierfür unterschieden. Die intrisink Un-
sicherheit ist charakteristisch für natürliche Ereignisse. Sturmflutwasserstände und extreme
Flußabflüsse sind intrisink unsicher. Auch die Unsicherheit bezüglich der Eigenschaften
von Boden- und Baumaterial fällt in diese Klasse. Modellunsicherheiten beschreiben die
Imperfektion von Ingenieursmodellen in der Vorhersage von Verhaltensweisen von Fluß-
läufen, Deichen und Schutzbauten. Der Vergleich von Vorhersagen und Observationen
liefert eine Einschätzung dieser Unsicherheit. Wenn Wahrnehmungsdaten fehlen, ist das
Ingenieursurteil der einzig erdenkliche Ersatz. Statistische Unsicherheit wird durch fehlen-
62
Probabilistische Methoden zur Bemessung von Deichen

des Datenmaterial erzeugt. Wahrnehmungsdatenmaterial ist notwendig, um die Parameter


der Wahrscheinlichkeitsverteilung abzuschätzen, welche die intrisinke Unsicherheit aus-
macht. Durch Mangel an Daten sind die geschätzten Parameterwerte statistisch unsicher.
Da die Berechnungen der Versagenswahrscheinlichkeiten sowohl auf der physikalischen
Realität basieren, als auch auf der menschlichen Kenntnis des Systems, beinhalten diese
eine Reihe von Unsicherheiten (BLOCKLEY [1], und STEWART UND MELCHERS [11]).

sluice fails

or

failure
failure
piping construction
of foundation door open
material
R<S R<S R<S
or

door not door fails


closed
R<S

or

and

warning HW human
fails warning failure

Abb. 5: Die Schleuse als ein Seriensystem von Versagensmechanismen

Folglich kann die Sicherheit der Deichanlage, beschrieben durch die berechnete Wahr-
scheinlichkeit für Überschwemmung, durch Verstärkung des schwächsten Deichabschnitts
aber auch durch Erweiterung unseres Wissens verbessert werden. Das Ergebnis der be-
rechneten Wahrscheinlichkeit für Überschwemmung des Polders ist dargestellt in Tabelle 1.

Tab. 1: Berechnungstabelle für die totale Wahrscheinlichkeit für Überschwemmung

Abschnitt Wellenüberlauf Piping etc. Total


Deichabschnitt 1.1 p1.1(Wellenüberl.) p1.1(Piping) p1.1(etc.) p1.1(Total)
Deichabschnitt 1.2 p1.2(Wellenüberl.) p1.2(Piping) p1.2(etc.) p1.2(Total)
etc. .. .. .. ..
Düne pDüne(Wellenüberl.) pDüne(Piping) pDüne(etc.) pDüne(Total)
Schleuse PSleuse(Wellenüberl.) pSleuse(Piping) pSleuse(etc.) pSleuse(Total)
Total PTotal(Wellenüberl.) PTotal(Piping) pTotal(etc.) pTotal(Total)

Die letzte Spalte der Tabelle gibt an, welches Element oder welcher Abschnitt die Wahr-
scheinlichkeit für Überschwemmung des Polders am meisten beeinflußt. Die Kontrolle der
zugehörigen Reihe enthüllt, welcher Mechanismus wahrscheinlich die Ursache ist. Auf
diese Weise können Maßnahmen definiert werden, die anfänglich die Wahrscheinlichkeit
für Überschwemmung reduzieren, aber letztendlich auf abnehmende Grenzerträge stoßen.
Wie bereits angesprochen wurde, ist diese Methode an vier Poldern getestet worden, von
denen der wichtigste in diesem Manuskript als Beispiel genannt wird. In Zentralholland
wurden hierfür die 48 schwächsten Deichabschnitte, 4 Dünenabschnitte und 6 weitere
63
Probabilistische Methoden zur Bemessung von Deichen

Schutzbauten ausgewählt. Die Analyse zeigt, daß die Wahrscheinlichkeit für menschliches
Versagen, beim Schließen eines Schleusentores bei Katwijk, mit einem Wert von 1/600
Jahr ausschlaggebend für die gesamte Hochwasserschutzanlage ist. Wenn man davon aus-
geht, daß dieses Problem gelöst wird, verringert sich die Wahrscheinlichkeit einer Über-
schwemmung auf 1/2.000 pro Jahr. Dies entspricht der Wahrscheinlichkeit für Piping unter
der Deichsohle in unmittelbarer Nähe des Dorfes Moordrecht. Sollte für dieses Pipingpro-
blem eine Lösung gefunden werden, verringert sich die Wahrscheinlichkeit für eine Über-
schwemmung auf 1/30.000 pro Jahr. In diesem Fall ist die Dünenreihe entlang der
Nordseeküste bei Moordrecht die schwächste Stelle im System. Dünenverstärkung kann
die Wahrscheinlichkeit einer Überschwemmung auf 1/75.000 pro Jahr reduzieren. Obwohl
die Herangehensweise und Resultate der probabilistischen Methode in diesem Beispiel
deutlich hervorgehoben werden, wird das letzte Ergebnis nur unter Vorbehalt genannt, da
es von 48 + 4 + 6 Startelementen abhängig ist. Schwächere Glieder in dieser Kette werden
gerade auf diesem Systemniveau entdeckt.
Außer der probabilistischen Methode für Überschwemmungsrisiken werden in der letzten
Zeit auch probabilistische Methoden bei Instandhaltungsplänen von Küstenschutzbauten
angewendet. Instandhaltungsplanungen beruhen auf Zuverlässigkeits- und Risikoabwägun-
gen, die Verschlechterungen, Ergebnisse von Inspektionen und Reparaturen, sowie die
hiermit verbundenen Kosten umfassen. GUEDES SOARES [2] hat eine ausführliche Über-
sicht erstellt, die durch VRIJLING [18] überprüft wurde.

4 Die Folgen bei Überschwemmung


Aufgabe der menschlichen Bevölkerung ist es, einen bestmöglichen Schutz eines jeden
einzelnen Mitglieds und Gruppen der Gesellschaft vor natürlichen und durch den Men-
schen verursachten Gefahren zu gewährleisten. Das Maß an Schutz wurde in der Vergan-
genheit gewöhnlich durch die Folgen einer eingetretenen Gefahr bestimmt. Die moderne
probabilistische Methode versucht Schutz zu bieten, wenn Risiken als hoch eingestuft wer-
den. Risiko wird definiert als Wahrscheinlichkeit für das Eintreten einer Katastrophe, wie
z.B. eine Überschwemmung, in bezug auf deren Folgen. Solange diese moderne Methode
nicht fest in der Gesellschaft verankert ist, kann die Auffassung eines akzeptablen Risikos,
wie sich schon an früheren Zeiten gezeigt hat, recht unvermittelt durch ein einziges spekta-
kuläres Unglück oder Vorkommnis, wie z.B. die unverheerende Drohung der niederländi-
schen Flußüberschwemmungen in 1993 und 1995, beeinflußt werden.
Die Abschätzung der Folgen einer Überschwemmung formt ein zentrales Element inner-
halb der modernen Methode. Die Gesellschaft betrachtet wahrscheinlich den gesamten
Schaden, der durch die Überschwemmung verursacht wurde. Der Schaden besteht aus ei-
ner Reihe von Opfern, materiellem und wirtschaftlichem Schaden sowie dem Verlust oder
der Beschädigung von nichtmateriellen Werten, wie Kunstwerken und Annehmlichkeiten.
Auch der Vertrauensverlust in die Hochwasserschutzanlage ist ein ernstes aber schwer zu
erfassendes Problem. Aus praktischen Gründen wird die Einstellung zum Risiko im gesell-
schaftlichen Kontext oft zu einer Gesamtzahl an Opfern reduziert, wobei folgende Defini-
tion benutzt wird: „Die Beziehung zwischen der Frequenz und der Anzahl an Menschen,
die ein bestimmtes Maß an Leid innerhalb einer gegebenen Bevölkerung vor dem Hinter-

64
Probabilistische Methoden zur Bemessung von Deichen

grund näher beschriebener Gefahren erleiden“. Falls das näher beschriebene Schadensni-
veau auf den Verlust von Leben begrenzt ist, kann das gesellschaftliche Risiko modelliert
werden mit Hilfe der Überschreitungsfrequenzkurve oder der Anzahl Toten, auch F-N-
Kurve genannt. Die Folge von Risiko kann auch begrenzt werden durch den Materialscha-
den, ausgedrückt durch finanzielle Termini, wie es die Deltakommission getan hat. Es muß
beachtet werden, daß die Reduzierung der Folgen eines Unfalls auf die Anzahl der Toten
oder auf den wirtschaftlichen Schaden die öffentliche Auffassung des Schadenpotentials
nicht adäquat wiedergibt. Diese Vereinfachung verdeutlicht die Argumentation auf Kosten
der Genauigkeit.
Die Folgen im Falle einer Überschwemmung von Poldern werden von zwei Gesichtspunk-
ten aus abgeschätzt. Als erstes wird die Wahrscheinlichkeit für den Todesfall eines einzi-
gen Individuums, das irgendwo in dem Polder zurückbleibt, bestimmt. Eine geeignete
Darstellungsform ist ein Konturenplot der Risiken als Funktion der Stelle im Polder. Zwei-
tens wird die totale Anzahl der Menschen, die bei einer Überschwemmung ertrinken wür-
den, bestimmt. Da ein Polder infolge von Deichbruch an mehreren Stellen und auch
gleichzeitig infolge verschiedener Szenarien überschwemmt werden kann, ist eine F-N-
Kurve eine geeignete Methode, um ein solches Risiko darzustellen. Drittens muß der ge-
samte materielle Schaden infolge einer Überschwemmung bestimmt werden. Aus den be-
reits genannten Gründen ist die F-N-Kurve ebenfalls in diesem Fall eine geeignete
Methode, um diesen Risikotyp darzustellen. Es muß beachtet werden, daß sich die Delta-
kommission auf den akzeptierten Wert des materiellen Schadens beschränkt. Der Verlust
von Menschenleben und der materielle Schaden werden mit Hilfe der Grund-Effekt-
Funktionen abgeschätzt, basierend auf den Erfahrungen der Katastrophe von 1953. Dies
könnte kritisiert werden, da weitreichende technische Fortschritte gemacht wurden, die den
Menschen zu besseren Mitteln verholfen, aber die Gesellschaft auch verwundbarer ge-
macht haben. Sowohl zugenommene als auch reduzierte Effekte können abgeleitet werden,
wodurch die Grund-Effekt-Funktion in den letzten Jahren unverändert geblieben ist. Als
Beispiel für eine F-N-Kurve wurde der Brielse Polder ausgewählt (s. Abb. 6).
0
10

-2
10
Freq. of more than N fatalities [/year]

-4
10

b e ta = 1
-6
10

b e ta = 0 .1
-8
10

-10
10

-12
10

-14
10
1 2 3 4
10 10 10 10

. N um b e r o f fa ta litie s N

Abb. 6: FN-Kurve für Überschwemmung des Brielsen Polders

65
Probabilistische Methoden zur Bemessung von Deichen

5 Das Entscheidungsproblem oder die Idee des akzeptablen


Risikos
VLEK UND STALLEN [17] haben die Bewertung von Risiken für Einzelpersonen, gesell-
schaftliche und industrielle Aktivitäten untersucht. Wenn Wahrscheinlichkeiten für Über-
schwemmung von Poldern in den Niederlanden berechnet werden, ist die Frage: Sind diese
genau genug? Die Antwort auf diese Frage (infolge Studien durch die Technical Advisory
Committee on Water Retaining Structures) sollte auf einem breiten Urteil bezüglich der
Kosten einer Verstärkung der Schutzbauten gegenüber einer Reduzierung der Wahrschein-
lichkeit einer Überschwemmung in bezug zur Schadensmasse beruhen. Dieses Urteil ist
politisch wichtig, da sowohl Kosten als auch Nutzen viele Aspekte enthalten, die durch
verschiedene Parteien unterschiedlich bewertet werden können. Deichverstärkungen kosten
Geld und gehen auf Kosten von kulturellem Erbe und städtischen Anziehungspunkten. Das
Bewertungsproblem der Folgen wurde bereits diskutiert. Das Gesamtbild ist jedoch deut-
lich. Da Deichverstärkungen sehr kostspielig sind, wird eine höhere Wahrscheinlichkeit für
eine Überschwemmung akzeptiert. Werden die Folgen einer Überschwemmung unakzep-
tabel groß, strebt man zu einem kleineren Wert für die Wahrscheinlichkeit. Wie bereits am
Beispiel im vorigen Abschnitt gezeigt wurde, führt ein zunehmender materieller Aufwand
zu einer Verbesserung der Sicherheit des Deiches, der letztendlich schwächer wird. Sowohl
Kenntniserweiterung als auch strukturelle Deichverstärkungen können effektiv sein. In-
spektionen der bestehenden Deichanlage führen zu einem verbesserten Kenntnisstand be-
züglich des Zustandes des Deiches und reduziert Unsicherheiten. Die Überprüfung des
Zustandes struktureller Elemente, wie Schleusen, Pumpstationen etc., sind besonders ef-
fektiv. Weitere Studien können die Modellunsicherheit reduzieren, die mit bestimmten
Versagensmechanismen und einigen weniger bekannten Parametern zusammenhängt. Als
dritte Möglichkeit kann die klassische Deichverstärkung infolge einer höheren Deichkrone
oder breiteren Deichsohle genannt werden. Hier sind jedoch wesentlich größere Geldsum-
men im Spiel. Nach einem äußerst effektiven Sanierungsbeginn an der schwächsten Stelle
im Deich wird man schnell auf abnehmenden Nutzen stoßen. Weiterführung der Arbeiten
bei wachsenden Kosten bedeutet letztendlich eine Verbesserung des Sicherheitsstandards
des Deichringes. Die Reduzierung der Belastung durch Wasserstände oder Wellenhöhen ist
manchmal eine vierte Möglichkeit. Ausweitung der Überschwemmungsflächen eines Flus-
ses, um den Wasserstand zu reduzieren ist eine moderne Maßnahme. Die Reduzierung von
Zukunftsfolgen von Überschwemmungen durch adäquate Raumplanung oder Katastro-
phenmanagement ist der hier zuletzt genannte und ein vollständig neuer Weg, ermöglicht
mit Hilfe der neuen Methode. Um eine Entscheidung zu fällen, müssen die bereits darge-
stellten Kosten gegenüber der Wahrscheinlichkeit einer Überschwemmung und der dazu-
gehörigen Folgen abgewogen werden. Es sollte beachtet werden, daß die wirtschaftlichen
Aktivitäten in den geschützten Gebieten seit den 60er Jahren, als die Deltakommission ihre
Empfehlungen zu Papier gebracht hat, stark gestiegen sind. Weitere ehrgeizigere private
und öffentliche Investitionen, insbesondere im Infrastrukturbereich, sind geplant. Die na-
tionale Wirtschaft hat dadurch weitaus größeres und weiterhin wachsendes Wertgut an
Überschwemmung bloßgestellt. Außerdem steht die Sicherheit einer wachsenden Bevölke-
rung auf dem Spiel. Im Gegensatz zu früheren Zeiten wohnen viele Menschen in Außenbe-
zirken, den am niedrigsten gelegen Gebieten innerhalb der Polder. In Zukunft werden

66
Probabilistische Methoden zur Bemessung von Deichen

Umweltschäden infolge von Überschwemmungen sowie das Schadenpotential an Natur


und Kulturerbe in den Abschätzungen des erforderten Umfangs des Hochwasserschutzes
eine immer größere Rolle spielen. Das Bild der Niederlanden als ein sicheres Land für
Wohnraum, Arbeit und Investitionen ist ein wichtiger Faktor, der in Betracht gezogen wer-
den sollte. Dies rechtfertigt eine gründliche Neubewertung der Akzeptanz von Über-
schwemmungsrisiken und die Entwicklung eines Plans für die Effektivität einer Hoch-
wasserschutzanlage im Laufe der kommenden Jahrzehnten.
Der kleinste Bestandteil der gesellschaftlichen Akzeptanz von Risiko ist die Bewertung
durch einen jeden Einzelnen. Modellierungsansätze sind nicht immer durchführbar, daher
wird beabsichtigt, Tendenzen, wiedergegeben in Unglücksstatistiken, zu Rate zu ziehen.
Die Tatsache, daß das eigentliche persönliche Risikoniveau verschiedener Aktivitäten über
die Jahre hinweg statistisch stabil ist und in den westlichen Ländern ungefähr gleich groß
angeordnet wird, bringt ein gradliniges Tendenzmuster zum Ausdruck. Die Wahrschein-
lichkeit für den Verlust eines Menschenlebens bei täglichen Aktivitäten, wie z.B. Autofah-
ren oder Fabrikarbeit, erscheint ein oder zwei Größenordnungen kleiner als die Wahr-
scheinlichkeit für Sterben. Nur eine ausschließlich freiwillige Aktivität, wie Bergsport,
bringt ein höheres Risiko mit sich (Abbildung 7).

Abb. 7: Persönliches Risiko in den westlichen Ländern, abgeleitet aus den Statistiken für
Todesursachen und der Anzahl Teilnehmer pro Aktivität

Mit Ausnahme eines leichten Abwärtstrends der dargestellten Todesrisiken infolge des
technischen Fortschritts erscheint es zulässig, diese als Entscheidungsgrundlage bezüglich
der persönlich akzeptierten Wahrscheinlichkeit für Versagen zu definieren. Formal ergibt
sich hierfür:
β i ⋅ 10 -4
P fi = (1)
P d| fi

mit Pd|fi als Ausdruck der Wahrscheinlichkeit für Tod infolge eines Unglücks. In dieser
Darstellung variiert der Politikfaktor $i mit dem Freiheitsgrad mit dem die Aktivität I aus-
geübt wird, und mit dem erzielten Nutzen. Dieser liegt zwischen 100 im Fall von völliger
Willensfreiheit, wie im Bergsport-Beispiel, und 0,01 im Fall von auferlegtem Risiko ohne
67
Probabilistische Methoden zur Bemessung von Deichen

erzielten direkten Nutzen (eine dermaßen große Wertspanne wurde bereits in 1969 durch
STARR [10] beschrieben). Dieser letzte Fall beinhaltet das individuelle Risikokriterium,
welches für den Bau von gefährlichen Anlagen in der Nähe von Wohngebieten ohne ir-
gendeinen direkten Nutzen für die Bewohner benutzt wird. Untenstehende Tabelle enthält
mögliche Werte für den Politikfaktor $I, als Funktion von Freiwilligkeit und Nutzen:

Tabelle 2: Der Wert des Politikfaktor βi als Funktion von Freiwilligkeit und Nutzen

βi Freiwilligkeit direkter Nutzen Beispiel


100 freiwillig direkter Nutzen Bergsport
10 freiwillig direkter Nutzen Motorradfahren
1.0 neutral direkter Nutzen Autofahren
0.1 unfreiwillig wenig Nutzen Fabrik
0.01 unfreiwillig kein Nutzen LPG-Station

Für die Sicherheit eines Deiches wird ein βi-Wert zwischen 1.0 und 0.1 gewählt. Die Auf-
fassung des gesellschaftlichen Risikos infolge einer bestimmten Aktivität sollte auf natio-
nalem Niveau geschehen. Risiko auf nationalem Niveau ist definiert als die Summe aller
Risiken aus lokalen Institutionen oder Aktivitäten. Beginnend mit einem Risikokriterium
auf nationalem Niveau sollte man das akzeptable lokale Risiko in einem iterativen Prozeß
mit einer Zeitdauer von ca. 50 Jahren im Hinblick auf die tatsächliche Anzahl von Anla-
gen, die Kosten-Nutzen-Aspekte der Aktivitäten und den allgemeinen Sicherheitsfortschritt
bewerten.
Aus dem Beschluß des gesellschaftlich akzeptablen Risikoniveaus folgt, daß die Unglücks-
statistiken das Ergebnis des gesellschaftlichen Verlaufs der Risikoabschätzung wiederge-
ben, und daß aus ihnen eine Norm abgeleitet werden kann. Die Formel soll die
Risikoaversionen in der Gesellschaft veranschaulichen. Relativ häufige kleine Unglücke
werden einfacher akzeptiert als ein einziges außergewöhnliches Unglück mit großen Fol-
gen wie Überschwemmung, obwohl die vermutete Anzahl der Opfer in beiden Fällen
gleich hoch ist. Die Standardabweichung der Anzahl Opfer drückt diesen Unterschied aus.
VRIJLING et al. [21] hat gezeigt, daß Risikoaversion ausgedrückt werden kann, in dem man
das gewünschte Vielfache k der Standardabweichung zu dem mathematischen Ausdruck
für die totale Anzahl Toten, E(Ndi) addiert, bevor die Situation an der Norm von βi·100
Opfern für die Niederlande getestet wird:
E( N di ) + k ⋅ σ ( N di ) < β i ⋅ 100 (2)

mit: k = 3 Risikoaversionsindex.

Um die mathematische Erwartung und die Standardabweichung der totalen Anzahl der
Opfer, die jährlich infolge einer Aktivität i fallen, zu bestimmen, muß die Anzahl der un-
abhängigen Orte NAi, wo die Aktivität ausgeführt wird, berücksichtigt werden.
Die Übertragung des national akzeptierten Risikoniveaus auf ein Risikokriterium für eine
einzige Anlage oder Polder, wo eine Aktivität stattfindet, hängt von der Verteilung der
Anzahl Unglücksopfer infolge der ausgeführten Aktivität ab. Die bevorzugte Anwendung,
um das neue lokale Risikokriterium mit der F-N-Kurve zu verbinden, ist wie folgt:

68
Probabilistische Methoden zur Bemessung von Deichen

Ci
1 − FNdij ( x) < für alle x ≥ 10 . (3)
x2

Falls der erwartete Wert der Anzahl der Opfer viel kleiner ist als seine Standardabwei-
chung, was oft zutrifft für die hier untersuchten seltenen Schadensereignissen, dann redu-
ziert sich der Wert von Ci auf:
2
 β ⋅ 100 
Ci =   .
i
(4)
 k ⋅ N Ai 

Das Problem des akzeptablen Risikoniveaus kann, wie bereits angedeutet, auch als wirt-
schaftliches Entscheidungsproblem formuliert werden. Die Ausgaben I für ein sichereres
System wird dem Gewinn, der gemacht wird durch den abnehmenden Present Value für
Risiko (s. Abb. 1) gleichgestellt. Das optimale Sicherheitsniveau, dargestellt durch Pf,
stimmt mit dem Punkt, der die minimalen Kosten darstellt, überein.
min(Q) = min(I( P f ) + PV( P f ⋅ S)) (5)

mit: Q = Gesamtkosten
PV = Present Value Operator
S = Gesamtschaden im Fall von Versagen
Falls ungeachtet ethischer Einwände der Wert menschlichen Lebens mit s bemessen wird,
nimmt die Schadensmenge zu mit:
P d| fi ⋅ N pi ⋅ s + S (6)

mit: Npi = Einwohnerzahl in Polder i.

Dieses Maß beschreibt die optimale Wahrscheinlichkeit des Versagens in einer abnehmen-
den Funktion der erwarteten Anzahl der Opfer. Die Bewertung des menschlichen Lebens
wurde gewählt als Present Value des Nettosozialproduktes pro Einwohner. Der Vorteil bei
der Berücksichtigung vom möglichen Verlust menschlichen Lebens in wirtschaftlichen
Ausdrücken ist, daß die Sicherheitsmaßnahmen bezahlbar sind im Vergleich mit dem Brut-
toinlandsprodukt (siehe auch VRIJLING UND VAN GELDER [19]).
Bei der Bewertung der erforderlichen Sicherheit einer Deichanlage sollten alle drei Metho-
den, die in diesem Manuskript erwähnt wurden, angewendet und präsentiert werden. Das
strengste der drei Kriterien formt die Grundlage für die technische Empfehlung, die dem
politischem Entscheidungsprozeß zugrunde liegen sollte. Alle Informationen bezüglich der
Risikobewertung sollten jedoch in dem politischen Prozeß verfügbar sein.

6 Ergebnisse
Die neue probabilistische Methode bietet große Vorteile gegenüber der gegenwärtigen Me-
thode. Mittelpunkt der Analyse ist das unerwünschte Hauptereignis (Überschwemmung),
welches durch den Hochwasserschutzbau verhindert werden soll. Der Beitrag aller Ele-
mente der gesamten Anlage und aller Versagensmechanismen eines jeden Elementes zu

69
Probabilistische Methoden zur Bemessung von Deichen

der Wahrscheinlichkeit für ein Überschwemmung wird berechnet und deutlich dargestellt.
Die Möglichkeit, die Wahrscheinlichkeit für menschliches Versagen beim Verwalten der
Hochwasserschutzanlage mit einzubeziehen, ist besonders attraktiv und hilfreich. Der Län-
geneffekt, d.h. daß eine längere Kette ein wahrscheinlich schwächeres Glied besitzt, kann
auf adäquate Weise wiedergegeben werden.
Die Ergebnisse dieser Anwendung auf Zentralholland führen tatsächlich zu einer Rangliste
von schwächeren Schutzbauelementen. Aufgrund dieser Analyse kann ein Plan erstellt
werden, in dem die Investition einer stets wachsenden Summe Geld durch schrittweise
Verstärkung der Elementen definiert wird. Zur Zeit verschmelzen optimale Inspektion und
Instandhaltung der Deichbauten zu einem weitsichtigen Plan für die Verbesserung der Si-
cherheit des gesamten Systems. Außerdem sorgt die neue Methode für eine breitere Palette
an Maßnahmen als zuvor gehandhabt wurde.
Investitionen in Inspektion, Forschung und angepaßter Raumplanung sind mögliche Alter-
nativen, die vergleichbar sind mit den klassischen Maßnahmen der Deichverstärkung.
Zum Schluß wird eine Methode beschrieben, die das Niveau des akzeptablen Risikos defi-
niert. Die Entscheidung aufgrund des Niveaus des akzeptablen Risikos ist ein Kosten-
Nutzen-Urteil, welches sowohl aus dem individuellen als aus dem sozialen Gesichtspunkt
gefällt werden muß. Ein System, bestehend aus drei Kriterien, wurde entwickelt, um die
Beurteilung der Sicherheit der Deiche zu unterstützen. Das strengste der drei Kriterien soll-
te als Basis für den „technischen” Rat für den politischen Entscheidungsprozeß verwendet
werden. Alle Informationen der Risikobeurteilung sollten für den politischen Prozeß ver-
fügbar sein. Eine politische Entscheidung muß demokratisch getroffen werden, da eine
Reihe verschiedener Werte gegeneinander abgewogen werden müssen. Die wirtschaftliche
Optimierung kann jedoch zeigen, daß die wirtschaftlichen Aktivitäten in geschützten Ge-
bieten seit 1953 dermaßen gewachsen sind, so daß eine gründliche Neubewertung der Ak-
zeptanz von Überschwemmungsrisiken gerechtfertigt ist.

7 Literaturverzeichnis
[1] BLOCKLEY, D.: Engineering safety. London, McGraw-Hill, ISBN 0-07-707593-5,
1992
[2] GUEDES SOARES, C.: Dealing with strength degradation in structural reliability. In
Risk-Based Design of Civil Structures. pp.31-49, Eds. Pieter van Gelder, Alex Roos,
Han Vrijling, Communications on hydraulic and geotechnical engineering. ISSN
0169-6548, Report No. 01-1, 2001
[3] HMSO: Safer ships, cleaner seas;. report of Lord Donaldson's inquiry into the preven-
tion of pollution from merchant shipping; presented to parliament by the Secretary of
State for Transport by command of Her Majesty, May 1994, Publisher London :
HMSO Her Majesty's Stationery Office, 1994, 522 pages. Department of the Environ-
ment and Department of Transport, 1994
[4] Hohenbichler, M. und Rackwitz, R.: First-order concepts in system reliability. Struc-
tural Safety, Vol. 1, pages 177, 1983

70
Probabilistische Methoden zur Bemessung von Deichen

[5] HSE: Risk criteria for land-use planning in the vicinity of major industrial hazards.
Publisher London: Her Majesty's Stationery Office, ISBN 0-11-885491-7, 32 pages,
Corporate author Health and Safety Executive, 1989
[6] INSTITUTE OF CHEMICAL ENGINEERING: Nomenclature for hazard and risk
assessment in the process industries. ISBN 85 295184 1, 1985
[7] MINISTRY OF HOUSING, LAND USE PLANNING AND ENVIRONMENT: Relat-
ing to risks (in Dutch). The Hague, 1992
[8] NATIONAL AEROSPACE LABORATORY NLR: Analyse van de externe veiligheid
rond Schiphol. CR 93485 L,Amsterdam, 1993
[9] NOWAK, A.S., COLLINS, K.R.: Reliability of structures. McGraw-Hill, ISBN 0-07-
048163-6, 2000
[10] STARR, C.: Social benefit vs. Technological risk. Science, Vol.165, p.1232-1283,
1969
[11] STEWART, MARK G. und MELCHERS, ROBERT E.: Probabilistic risk assessment
of engineering systems. London: Chapman and Hall, ISBN 0-412-80570-7, 1997
[12] TECHNICAL ADVISORY COMMITTEE ON WATER RETAINING
STRUCTURES: Some considerations on acceptable risk in the Netherlands. Dienst
Weg- en Waterbouwkunde, Delft, 1984
[13] VAN DANTZIG, D. und KRIENS, J.: The economic decision problem of safeguard-
ing the Netherlands against floods. Report of Delta Committee, Part 3, Section II.2 (in
Dutch), The Hague, 1960
[14] VAN DANTZIG, D,: Economic Decision Problems for Flood Prevention. Economet-
rica 24, pp 276-287, New Haven, 1956
[15] VAN DE KREEKE, J. und PAAPE, A.: On the optimum breakwater design. Proc. 9-th
IC Coastal Eng.
[16] VAN GELDER, P.H.A.J.M.,: Statistical methods for the risk-based design of civil
structures/by Petrus Hermanus Antonius Johannes Maria van Gelder, Publisher
S.l.:S.n., 1999, ISBN 90-9013452-2, 249 pages, 1999
[17] VLEK, C.A.J. und STALLEN, P.J.M.: Personal judgment of risks; on the risks, bene-
fits, and acceptabilities of individual, societal and industrial activities (in Dutch: Per-
soonlijke beoordeling van risico's; over risico's, voordeligheid en aanvaardbaarheid
van individuele, maatschappelijke en industriele activiteiten). Publisher Groningen:
Rijksuniversiteit Groningen, 187 pages, 1979
[18] VRIJLING, J.K.: Review of dealing with strength degradation in structural reliability.
In Risk-Based Design of Civil Structures. pp.51-53, Eds. Pieter van Gelder, Alex
Roos, Han Vrijling, Communications on hydraulic and geotechnical engineering,
ISSN 0169-6548, Report No. 01-1, 2001
[19] VRIJLING, J.K. und VAN GELDER, P.H.A.J.M.: An Analysis of the Valuation of a
Human Life. ESREL 2000 AND SRA - EUROPE ANNUAL CONFERENCE,

71
Probabilistische Methoden zur Bemessung von Deichen

"FORESIGHT AND PRECAUTION", Volume 1, pp.197-200, Eds. M.P. Cottam,


D.W. Harvey, R.P. Pape, & J.Tait, May 14-17 2000 Edinburgh, Scotland, UK., 2000
[20] VRIJLING J.K., VAN HENGEL W. und HOUBEN R.J.: A framework for risk-
evaluation, J OF HAZARD MATER 43: (3) 245-261 OCT 1995, 1995
[21] VRIJLING J.K., VAN HENGEL W. und HOUBEN R.J.: Acceptable risk as a basis
for design. RELIAB ENG SYST SAFE 59: (1) 141-150 JAN 1998 and Response to
comments by J. Ramsberg on the paper "Acceptable risk as a basis for design",
RELIAB ENG SYST SAFE 67: (2) 211-212 FEB 2000, 1998

72
Vergleich der Nachrechnungsklassen von Straßenbrücken

Vergleich der Nachrechnungsklassen von


Straßenbrücken nach DIN 1072 und DIN-Fachbericht 101

Stephan Loos
Diplomand am Institut für Massivbau, Technische Universität Dresden

Zusammenfassung: Mit der Einführung des DIN-Fachberichtes 101 [3]


wurden die geltenden Brückenklassen auf eine reduziert. In der Praxis hat
sich jedoch gezeigt, daß es sinnvoll ist, weitere Nachrechnungsklassen einzu-
führen. Laut ENV 1991-3 [4] ist die Einführung von Brückenklassen, welche
unter der des DIN-Fachberichtes 101 [3] liegen, nur möglich, wenn die Brük-
ken dieser Klasse gewichtsbeschränkend beschildert sind. Ist dies der Fall,
dürfen Abminderungsfaktoren eingeführt werden, die kleiner als die nach [3]
sind. Da die Verkehrslastmodelle nach [3] und [4] einen probabilistischen
Hintergrund haben, müssen auch die abgeminderten Lastmodelle probabili-
stisch ermittelt oder zumindest überprüft werden. In dem folgenden Artikel
werden die Messungen am Blauen Wunder in Dresden ausgewertet. Mittels
dieser Daten werden Abminderungsfaktoren berechnet. Der dabei beschritte-
ne Weg entspricht dem von MERZENICH in [6] beschriebenen Berechnungen,
welche zum Nachweis des in ENV 1991-3 [4] angegebenen Lastmodells 1
genommen wurden.

1 Rahmenbedingungen
1.1 Einführung in die Problematik der Nachrechnungsklassen
Im November 1996 beschloß der Koordinierungsausschuß 07.1 „Brücken“ des Normungs-
ausschusses Bauwesen im Deutschen Institut für Bauwesen, die nationalen Regelungen im
Brückenbau auf europäisches Niveau umzustellen. Das bedeutete, daß die bestehenden
Normen durch Nationale Anwendungsdokumente (NAD), die sich auf die ENV´s bezie-
hen, auszutauschen waren. Im Brückenbau sind diese NAD die DIN-Fachberichte 101-104,
welche am 1. Mai 2003 verbindlich eingeführt wurden. Diese Umstellung hatte das Ziel,
die zum großen Teil veralteten nationalen Normen zu ersetzen.
Auf den folgenden Seiten soll nun eine Ergänzung des DIN-Fachberichtes 101 [3] erörtert
werden. Diese Erweiterung wird nötig, da in [3] keinerlei abgeminderte Straßenverkehrs-
lastmodelle enthalten sind. Damit gibt es für den Tragfähigkeitsnachweis lediglich ein
Lastmodell, welches in etwa mit der Brückenklasse 60/30 vergleichbar ist. Auf Lastmodel-
le für Brücken, welche von weniger starkem Verkehr frequentiert werden, wie sie zum
73
Vergleich der Nachrechnungsklassen von Straßenbrücken

Beispiel in der DIN 1072 [2] mit dem Lastmodell der Brückenklasse 30/30 berücksichtigt
wurden, wird komplett verzichtet. Außerdem wurde auf die Einführung so genannter
Nachrechnungsklassen verzichtet, also auf die Brückenklassen, mit denen bestehende
Brücken nachgerechnet und eingeordnet werden können. Es hat sich in der Praxis gezeigt,
daß die Brückenklassen 16/16, 12/12, 9/9, 6/6 und 3/3 der alten Norm durchaus ihre Da-
seinsberechtigung haben. Denn es gibt sehr viele Brücken, welche den Anforderungen ei-
nes Lastmodell 1 nicht genügen. Werden solche Brücken nicht oder nur in geringem
Umfang vom Schwerlastverkehr benutzt, kann grundsätzlich eine Herabstufung des zuläs-
sigen Gewichts der Fahrzeuge, die diesen Verkehrsweg benutzen dürfen, vorgenommen
werden. Dieses wäre über Durchfahrtsverbote zu regeln, was wiederum auch gang und
gäbe ist. Derartige Durchfahrtsverbote werden mit Schildern, wie sie in Abb. 1:
Vorschriftszeichen exemplarisch dargestellt sind, vorgeschrieben. Somit könnte man nicht
nur Sanierungskosten sparen, sondern auch den Erhalt vieler schöner alter Brücken ermög-
lichen.

Abb. 1: Vorschriftszeichen

Der Normungsausschuß Bauwesen hat sich nun allerdings dazu entschlossen, nur eine
Brückenklasse als nationalen Regelfall zu definieren. Die Begründung hierfür, daß
Schwerlastverkehr auf allen Straßen verkehren kann und daß Verbote nicht hundertprozen-
tig kontrollierbar sind, erscheint auch sinnvoll. Außerdem sind die ermittelten Kräfte aus
dem Verkehrslastmodell deutlich geringer als die, die sich aus dem Eigengewicht der
Brücken ergeben. Dies gilt im besonderen für Betonbrücken, um welche es sich ja im Re-
gelfall im Straßenverkehr handelt. Daraus ergibt sich, daß die Einsparungen für den Neu-
bau einer Brücke niederer Brückenklasse nicht so erheblich sind und somit nicht den
Verlust an Sicherheit und Gebrauchswert der Brücke rechtfertigen.
Es wird allerdings die Möglichkeit offen gelassen, geringere nationale Anpassungsfaktoren
αQi und αqi zu verwenden und somit in einer Art niedrigerer Brückenklasse zu rechnen.
Allerdings sind hierfür Sonderuntersuchungen notwendig.
Auf den folgenden Seiten wird versucht, eine Möglichkeit vorzustellen, wie solche natio-
nalen Anpassungsfaktoren ermittelt werden könnten. Diese Berechnungen werden in An-
lehnung an die Berechnungen geführt, welche für den Nachweis der Richtigkeit des
Lastmodell 1 aus dem Eurocode 1 benutzt wurden.

1.2 Normen
1.2.1 DIN 1072

Die Nachrechnungsklassen bestehen genau wie die Regelklassen aus einem fiktiven SV-
Fahrzeug von 6 m Länge und 3 m Breite und einer Streckenlast, welche überall auf dem

74
Vergleich der Nachrechnungsklassen von Straßenbrücken

Brückenbauwerk, außer unter dem SV, anzusetzen ist. Das SV-Fahrzeug hat einen Achsab-
stand von 2 m und eine Spurbreite von 2 m.

Tab. 1: Achs- bzw. Gesamtlasten der Nachrechnungsklassen nach DIN 1072 [2]

Brückenklasse 16/16 12/12 9/9 6/6 3/3


Gesamtlast
160 120 90 60 30
[kN]
Vorderräder
30 20 15 10 5
Radlast [kN]
Hinterräder
50 40 30 20 10
Radlast [kN]
Einzelachse
110 110 90 60 30
Last [kN]
p1 [kN/m²] 5 4 4 4 3
p2 [kN/m²] 3 3 3 2 2

Abb. 2: LKW für Nachrechnungsklassen nach DIN 1072 [2]

1.2.2 DIN-Fachbericht 101

Die Lastmodelle des DIN-Fachberichtes 1 [3] sind direkt aus den Lastmodellen der ENV
1991-3 [4] abgeleitet. Das heißt, daß für den Zustand der Tragfähigkeit das Lastmodell 1 in
abgeminderter Form übernommen wird. Im weiteren werden Lastmodell 2 (in abgeminder-
ter Form) und LM 4 sowie Lastmodelle für Ermüdungsnachweise aus der ENV übernom-
men.
Beim Lastmodell 1 wird mit Hilfe nationaler Anpassungsfaktoren das Gewicht der Dop-
pelachse verringert (bzw. auf Fahrstreifen 3 komplett heraus genommen). Die Streckenla-
sten werden unverändert übernommen. Das bedeutet, die Abminderungswerte sind:
αQ1=0.8, αQ2=0.8, αQ3=0 und αqi=1.
Des weiteren heißt es in der ENV 1991-3 [4] unter 4.3.2 (7): „Die Zahlenwerte der Fakto-
ren αQi, αqi und αqr (Anpassungsfaktoren) können für verschiedene Straßenklassen oder für
verschiedene erwartete Verkehre unterschiedlich sein. Falls dazu nichts festgelegt ist, soll-
ten sie zu 1 gewählt werden. Für alle Klassen, bei denen keine Lastbegrenzung durch Ver-
kehrszeichen vorgenommen wird, “ gelten folgende Formeln:
α Qi ≥ 0,8 (1)

75
Vergleich der Nachrechnungsklassen von Straßenbrücken

für i ≥ 2 , α qi ≥ 1 (2)

Da diese vorgegebenen Grenzen im DIN-Fb [3] für das Lastmodell 1 bereits nahezu ausge-
reizt sind, ist es nicht zulässig, Brückenklassen zu definieren, welche ohne eine Tonnage-
begrenzung des Verkehrs auskommen. Das bedeutet, eine Art Brückenklasse 30/30 für
Straßen von geringerer Bedeutung ohne gewichtsbeschränkende Beschilderung, wie es
nach DIN 1072 [2] üblich war, ist nach [4] nicht mehr sinnvoll.

2 Einflußgrößen
2.1 Allgemeines
Über Straßen und somit auch über Brücken rollt Verkehr von zufälliger Größe und zufälli-
ger Verteilung. Eine Brücke gilt als zuverlässig, wenn sie über die gesamte Nutzungsdauer
diesen Beanspruchungen mit ausreichender Wahrscheinlichkeit widerstehen kann.
Es gibt nach SPAETHE [10] zwei Möglichkeiten, die Beanspruchungen zu ermitteln
• Messungen der Beanspruchungen an Brücken unter Verkehr
• Messung der statistischen Parameter und Berechnung der Beanspruchungen
Die Möglichkeit, über Messungen statistische Parameter zu bestimmen, ist effektiver, da
die Ergebnisse Rückschlüsse für ganze Brückenklassen gestatten. Dadurch kann der meß-
technische Aufwand erheblich verringert werden. Die gewonnenen Ergebnisse sollten al-
lerdings mittels Messungen an Brücken überprüft werden.

2.2 Verkehr
2.2.1 Einteilung

Der Straßenverkehr kann durch eine große Anzahl variabler Größen beschrieben werden.
Diese Größen lassen sich nach SCHÜTZ [9] in die vier in Abb. 3 dargestellten Hauptgrup-
pen aufteilen.
2.2.2 Verkehrsstärke

Die Verkehrsstärke ist das Verhältnis der Fahrzeuganzahl eines Streckenquerschnitts pro
Zeiteinheit. Dabei wird nach unterschiedlichen Fahrzeugkategorien unterschieden. Interes-
sant für die Bestimmung eines Lastmodells ist der Schwerlastverkehr (SV), da nur er zu
maximalen Beanspruchungen führt.
In der Bundesrepublik werden seit vielen Jahren Verkehrszählungen mittels automatischer
Langzeitzählstellen durchgeführt. Dem Eurocode 1 liegen die bei Auxerre (Frankreich)
gemessenen Werte zugrunde. Der Anteil des SV am DTV beträgt an dieser Meßstelle 32%
auf Fahrspur 1 und 10 % auf Fahrspur 2. Vergleicht man diese Werte mit anderen Mess-
stellen, so sieht man, daß der Wert von 1,5 % am Blauen Wunder bis zu 45 % in Epone
stark streut. Eine Auswertung der Automatischen Straßenverkehrszählungen in Sachsen hat
ergeben, dass der DTSV auf Staatstraßen nicht über 10% des DTV ansteigt. Ebenfalls hat

76
Vergleich der Nachrechnungsklassen von Straßenbrücken

die Auswertung ergeben, daß der Schwerlastverkehr auf diesen Straßen in den letzten 6
Jahren nicht zugenommen hat.

Straßenverkehr

Verkehrsstärke Verkehrsfluß Fahrzeugkollektiv

- DTV Fahrzeugabstand Zusammensetzung


- DTSV Spuraufteilung des SV

- MSV Geschwindigkeit

Einzelfahrzeug

Achsanzahl
DTV = durchschnittliche tägliche Verkehrsstärke
Achslasten
DTSV = durchschnittliche tägliche Schwerverkehrsstärke
Achsabstände
MSV = maximale stündliche Verkehrsstärke
Auslastung
Schwingverhalten

Abb. 4: systematische Aufteilung des Straßenverkehrs

2.2.3 Verkehrsfluß

Der Verkehrsfluß wird durch Fahrzeugabstand, die Geschwindigkeit und die Spurauftei-
lung bestimmt. Da hier gewichtsbeschränkt beschilderte Straßen betrachtet werden sollen,
können Autobahnen und Bundesstraßen unberücksichtigt bleiben. Auf Landstraßen kann
man nach GEIßLER [5] den Abstand zwischen den Fahrzeugen als logarithmisch normalver-
teilt (3-parametrig, µ=1500m s=1000m) annehmen. Spuraufteilung spielt bei den hier be-
trachteten Straßen mit nur einem Fahrstreifen pro Richtung keine Rolle.
2.2.4 Fahrzeugkollektiv

Der Schwerlastverkehr (SV) wird im allgemeinen in 4 bzw. 5 verschiedene LKW-Typen


aufgeteilt. Das sind die zweiachsigen und die dreiachsigen LKW, die LKW mit Anhänger
und Sattelschlepper.
Die Aufteilung der einzelnen LKW-Typen ist abhängig von der Verkehrsart und somit
auch von der Straßenkategorie.

77
Vergleich der Nachrechnungsklassen von Straßenbrücken

Tab. 2: Mögliches Lastmodell für den Betriebsfestigkeitsnachweis von Straßenbrücken


nach [4]

LKW-Typ Verkehrsart
Langstrecke Mittelstrecke Kurzstrecke
Typ-Nr. LKW-Silhouette [m] Fahrzeug-Anteil [%]

1 20 50 80

2 5 5 5

3 40 20 5

4 25 15 5

5 10 10 5

2.2.5 Einzelfahrzeug

Die einzelnen Fahrzeuge variieren auch innerhalb der Fahrzeugtypen relativ stark. So sind
z. B. die Achsabstände variabel. Die statistischen Angaben des Gesamtgewichts, der Ver-
teilung des Gesamtgewichts auf die einzelnen Achsen sowie der Achsabstand sind von
MERZENICH in [6] angegeben. Dort sind ebenfalls die Verteilungsparameter der Feder- und
Dämpfungskennwerte der LKW enthalten. Die Angaben, die Merzenich macht, stammen
alle aus der Auswertung der Auxerre-Meßwerte.
In [6] wird jeder LKW-Typ durch zwei Normalverteilungen beschrieben, wobei eine der
Funktionen ein leeres Fahrzeug (LLKW) und die andere ein beladenes Fahrzeug (SLKW)
darstellen soll. Einen etwas anderen Weg geht POHL [7], welcher eine Verteilung für den
leeren LKW-Typ und eine für die Beladung angibt. POHL gibt Wahrscheinlichkeits-
funktionen für Kurz-, Mittel- und Langstreckenverkehr äquivalent zu den Angaben aus
Tab. 2 an.

2.3 Fahrbahnoberfläche
Das sich auf der Brücke befindende Fahrzeug bildet mit der Brücke ein gekoppeltes
Schwingungssystem. Das bedeutet, daß man im Brückebau nicht mit statischen Lasten
rechnen kann, sondern daß man die Erhöhung der Schnittkräfte durch dynamische Prozesse
berücksichtigen muß.
78
Vergleich der Nachrechnungsklassen von Straßenbrücken

Abb. 5: Gekoppeltes Schwingungssystem Brücke – Fahrzeug – Tilger aus [9]

In [6] werden drei Formen der Fahrbahnunebenheiten angegeben.


1. lokale Unebenheiten, z. B. Fahrbahnübergänge oder Schlaglöcher
2. regelmäßige Unebenheiten sind regelmäßige lokale Unebenheiten, z. B. durch Ver-
schleißerscheinungen oder Welligkeit der Brücke selbst
3. regellose (stochastische) Unebenheiten, diese sind von der Bauart, Güte und dem
Zustand der Straße abhängig
Da ein Fahrzeug auf einer Straße mit schlechter Fahrbahnqualität deutlich stärker zum
Schwingen angeregt wird, steigt auch das Verhältnis der dynamischen/statischen Kräfte an.
In Deutschland kann die Belagsqualität auf Autobahnen mit sehr gut, auf Bundesstraßen
mit gut bis sehr gut, auf Landstraßen mit gut und auf Kreisstraßen mit mittel angegeben
werden. Da Gewichtsbeschränkungen wohl höchstens auf Landstraßen vorgenommen wer-
den, muß von guter und mittlerer Belagsqualität ausgegangen werden.
Die folgenden Simulationen werden mittels statischer Berechnung durchgeführt. Die stati-
schen Ergebnisse werden mit den Schwingbeiwerten aus [6] multipliziert, um zu den dy-
namischen Schnittkräften zu kommen.

2.4 Statisches System


Die Berechnungen, welche sich an die Simulation anschließen, wurden in diesem Fall alle
am Einfeldträger durchgeführt.

79
Vergleich der Nachrechnungsklassen von Straßenbrücken

3 Berechnung von abgeminderten Lastmodellen für den


DIN-Fachbericht 101
3.1 Berechnung von Abminderungsfaktoren für BK16
Das Problem beim Entwurf von Brückenklassen für gewichtsbeschränkt beschilderte
Brücken sind fehlende Messwerte. Da die Lastmodelle der ENV 1991 auf stochastischen
Werten und somit nicht auf einem klaren Grenzwert basieren, muß für die neuen Nach-
rechnungsklassen dieselbe Voraussetzung gelten. Daß soll heißen, daß man nicht davon
ausgehen kann, daß ein 20-Tonner nicht über eine Brücke fährt, nur weil auf dieser maxi-
mal 16 Tonnen zugelassen sind. In [5] und in [8] geht man davon aus, daß 30 % bis
40 % Überschreitungen des maximal zulässigen Fahrzeuggewichts nicht selten sind. Diese
Angaben werden durch die Meßergebnisse eines Gewichtsblitzers am Blauen Wunder be-
stätigt. Das Blaue Wunder wurde in die Brückenklasse 16/16 eingeordnet und ist mit einem
Verbotsschild für Fahrzeuge über 15 t beschildert. Allerdings sind von diesem Verbot die
Busse der DVB ausgenommen. So zeigt Abb. 6 die Häufigkeitsverteilung der Gewichte der
LKW, LKW mit Anhänger und der Sattelschlepper.

18%

16%

14%

12%
Häufigkeit

10%

8%

6%

4%

2%

0%
1

11

13

15

17

19

21

23

25

Gew icht [t]

Abb. 6: Meßergebnisse SV, Gewichtsmessungen am Blauen Wunder, Oktober 2001

Die Busse wurden nicht berücksichtigt, da sie ja über die Brücke fahren dürfen und für die
Modulierung eines Lastmodells die Überschreitung der zulässigen Werte besonders inter-
essant ist.
Aus den Meßergebnissen für die jeweiligen SV-Typen müssen nun stochastische Kenngrö-
ßen gewonnen werden. Dies zeigt Abb. 7 exemplarisch für den Typ LKW. Jeder der drei
relevanten SV-Typen wird in eine bimodale Verteilung überführt. Tab. 3 zeigt die Kenn-
größen dieser Verteilungen.

80
Vergleich der Nachrechnungsklassen von Straßenbrücken

18%
16%
14%
12% Häufigkeitsverteilung LKW

Häufigkeit
WhFkt
10%
8%
6%
4%
2%
0%
1

11

13

15

17

19

21

23

25
Gewicht [t]

Abb. 7: Verteilung der Gewichte SV-Typ 1

Tab. 3: Kenngrößen der Wahrscheinlichkeitsfunktionen der SV-Typen am Blauen Wunder

LKW LKW m Anh Sat


Fkt. 1 Fkt. 2 Fkt. 1 Fkt. 2 Fkt.1 Fkt. 2
Mittelwert [t] 7 3 5,5 16 5,5 16,5
Standardabweichung [t] 3,5 0,5 3,5 3 4 2,5
Wichtung 80 % 20 % 70 % 30 % 30 % 70 %
Wichtung global 73,78 % 18,44 % 2,75 % 1,18 % 1,15 % 2,69 %

Mittels dieser Daten können dann die Auftretenswahrscheinlichkeit und die Gewichte der
einzelnen SV-Typen simuliert werden. Mit den daraus gewonnenen Ergebnissen wird das
maximale Feldmoment eines Einfeldträgers berechnet. Die Abmessungen und Lastvertei-
lungen der einzelnen Fahrzeugtypen werden nach den auf Auxerre-Meßdaten beruhenden
Angaben aus [6] berechnet.
Wiederholt man diese Berechnungen oft genug, kommt man zu einer Verteilung der Auf-
tretenswahrscheinlichkeit der maximalen Feldmomente eines Einfeldträgers mit einer be-
stimmten Stützweite. Dieses wurde in diesem Fall für die Stützweiten 5 m, 8 m, 10 m,
15 m, 20 m, 25 m, 30 m, 40 m, 50 m und 60 m gemacht. Aus diesen Simulationsergebnis-
sen wurde der 1000-Jahre-Fraktilwert extrapoliert. Dieser Wert ist der charakteristische
Wert, der dem Tragfähigkeitsnachweis zugrunde gelegt wird. Er steht für die Belastung,
die in einer angesetzten Lebensdauer von 100 Jahren mit 10 %iger Wahrscheinlichkeit
überschritten wird.

81
Vergleich der Nachrechnungsklassen von Straßenbrücken

8000

7000
abgem. LM1 Streifen
6000 Nr1

Feldmoment [kNm]
extrapol. Werte aus
5000 Simulat

4000

3000

2000

1000

0
5 8 10 15 20 25 30 40 50 60
Spannweite [m]

Abb. 8: Vergleich abgemindertes LM 1 mit Simulation (Belag: gut)

Diese extrapolierten Werte werden dann dem abgeminderten LM 1 gegenüber gestellt.


Abb. 7 zeigt einen Vergleich zwischen den extrapolierten Werten, multipliziert mit den
Schwingbeiwerten für Straßenbelag von guter Qualität und einem mit Anpassungsfaktoren
abgeminderten Lastmodell 1. Die Anpassungsfaktoren sind in diesem Fall:
αQ1= 0,35
αq1=0,3
Zusätzlich muß der Staufall simuliert werden. Bei diesem treten kaum Erhöhungen der
Lasten durch dynamische Effekte auf. Allerdings befinden sich deutlich mehr Fahrzeuge
auf der Brücke, da der Abstand zwischen den Fahrzeugen erheblich geringer ist. Das führt
dazu, daß der Lastfall Stau bei Brücken mit einer Spannweite ab 30 m maßgebend wird.

8000
7000 abgem. LM1 Streifen Nr1
Feldmoment[kNm]

6000
5000 Stausimulation (SV 45%)
4000
3000
2000
1000
0
15 20 25 30 40 50 60
Brückenlänge [m]

Abb. 9: Vergleich Stausimulation mit abgeminderten LM 1

82
Vergleich der Nachrechnungsklassen von Straßenbrücken

3.2 Berechnung von Abminderungsfaktoren weiterer Brückenklassen


Im folgenden wird noch ergänzend auf die Berechnungen eingegangen, die durchgeführt
wurden, um Abminderungsfaktoren für weitere Brückenklassen zu erhalten. Dabei handelt
es sich um Brückenklassen, die vergleichbar mit der BK 30 und der BK 12 der DIN 1072
[2] sind. Diese beiden Nachrechnungsklassen sind noch von relativ großem praktischen
Interesse, da sie die Lasten fast aller Rettungsfahrzeuge aufnehmen können. In DIN 1055-3
6.4.4 (2) 0 heißt es: „Hofkellerdecken, die nur im Brandfall von Feuerwehrfahrzeugen be-
fahren werden, sind für die Brückenklasse 16/16 nach DIN 1072: 1985-12, Tabelle 2 zu
berechnen. Dabei ist jedoch nur ein Einzelfahrzeug in ungünstigster Stellung anzusetzen;
auf den umliegenden Flächen ist die gleichmäßig verteilte Last der Hauptspur als Ver-
kehrslast in Rechnung zu stellen.“
Das Problem bei der Berechnung dieser Abminderungsfaktoren liegt allerdings darin, daß
keine Messergebnisse für derart gewichtsbegrenzend beschilderte Brücken vorliegen. So
wurde für die BK 12 eine Verteilung äquivalent zu den Meßergebnissen am Blauen Wun-
der angenommen. Für die BK 30 wurde zusätzlich der Anteil der schwereren SV-Typen,
also LKW mit Anhänger und Sattelschlepper, angehoben. Die Simulation und Berechnung
erfolgt dann genauso wie bei der Brückenklasse 16.

10000
9000 BK16
8000 BK12
extapol. Feldmoment [kNm]

7000 BK30
6000
5000
4000
3000
2000
1000
0
0 5 8 10 15 20 25 30 40 50
Spannwe ite [m]

Abb. 10: Vergleich der extrapolierten Feldmomente

In Tab. 4 sind Abminderungsfaktoren, wie sie sich nach den durchgeführten Simulationen
ergeben haben, angegeben. Die Abminderungsfaktoren sind für das LM 1 auf dem Fahr-
streifen Nummer 1 und für gute und mittlere Straßenbelagsqualität angegeben. Die Be-
rechnung wurde ergänzend mit den Auxerre-Daten durchgeführt, um die Ergebnisse auf
Plausibilität zu prüfen. Da das LM 1 nach [4] den in Auxerre gemessenen Verkehr darstel-
len soll, stellen die ermittelten Anpassungsfaktoren von ca. 1 eine gute Nährung dar. Als
Bezeichnungsart der Brückenklassen wurden die der DIN 1072 [2] gewählt. Allerdings
handelt es sich in diesem Fall, wie schon in 1.2.2 erläutert, auch bei der BK 30/30 um eine
Nachrechnungsklasse. Die hier angegebene BK 60/30 wurde nicht berechnet. Für sie wur-
den die Faktoren des LM 1 nach DIN Fachbericht 101 [3] angesetzt. Alle Anpassungsfak-
toren beziehen sich auf das Lastmodell 1 der ENV 1991-3 [4].

83
Vergleich der Nachrechnungsklassen von Straßenbrücken

Tab. 4: Abminderungsfaktoren für Fahrstreifen Nr. 1

BK nach DIN 1072 bzw.


αQ1 αq1
Meßwerte
Belag: gut Belag: mittel Belag: gut Belag: mittel
Auxerre 1 1 0,9 1
60/30 0,8 0,8 1 1
30/30 0,55 0,6 0,55 0,7
16/16 0,35 0,35 0,3 0,4
12/12 0,3 0,3 0,18 0,3

Da die hier vorgeschlagenen Anpassungsfaktoren höher als erwartet ausfallen, wurde noch
eine Vergleichsrechnung durchgeführt. Diese vergleicht die maximalen Feldmomente, die
sich nach DIN 1072 am Einfeldträger für die Hauptspur (HS) ergeben, mit denen, die sich
nach den abgeminderten Lastmodellen ergeben. Die Hauptspur der DIN 1072 entspricht
dem Fahrstreifen 1 nach DIN Fachbericht.

Tab. 5: Verhältnisse der maximalen Feldmomente am EFT für Straßenbelagqualität: mittel

Brückenlänge BK 60 BK 30 BK 16 BK 12
[m] HSDIN-FB/HSDIN1072 HSDIN-FB/HSDIN1072 HSDIN-FB/HSDIN1072 HSDIN-FB/HSDIN1072
5 88 % 131 % 142 % 150 %
8 85 % 125 % 133 % 146 %
10 86 % 124 % 127 % 141 %
15 90 % 123 % 116 % 129 %
20 95 % 124 % 109 % 121 %
25 100 % 126 % 104 % 115 %
30 106 % 128 % 101 % 112 %
40 118 % 134 % 99 % 108 %
50 132 % 142 % 100 % 109 %
60 147 % 141 % 94 % 103 %

In Tab. 5 ist zu erkennen, daß die neuen Lastmodelle für kurze Brücken sehr auf der siche-
ren Seite liegen, sich aber für größere Spannweiten den Werten nach DIN 1072 [2] annäh-
ren und diese sogar unterschreiten. Das ist dadurch zu erklären, daß die Simulationen
relativ hohe Extremwerte bei den Achslasten ergeben haben. Dieses wirkt sich besonders
auf die kurzen Brücken aus.

3.3 Abminderungsfaktoren nach Verkehrsart


Ergänzend wurden noch Simulationen mit den Verkehrslastmodellen von POHL [7] durch-
geführt. Pohl hat für das LKW-Lastmodell Tab. 2 noch Wahrscheinlichkeitskennwerte für
die Ladung und das LKW-Gewicht angegeben. In diesem Verkehrslastmodell wird nach
Kurz-, Mittel- und Langstreckenverkehr unterschieden. Dabei zeichnet sich der Kurzstrek-
kenverkehr durch geringere Gewichte, schlechtere Auslastung und einen geringeren Anteil
an Sattelschleppern und Lastzügen aus. Die Berechnung der Schnittkräfte wurde in diesem
Fall mit den im Lastmodell angegebenen Abmessungen der Fahrzeuge durchgeführt. Also
nicht mit stochastischen Größen wie bei den Berechnungen in [6].

84
Vergleich der Nachrechnungsklassen von Straßenbrücken

Tab. 6: Abminderungsfaktoren für Fahrstreifen Nr. 1 für Verkehrslastmodelle nach Pohl

Verkehrsart αQ1 αq1


Belagsqualität: mittel Belagsqualität: mittel
Kurzstrecke 0,75 0,35
Mittelstrecke 0,80 0,50
Langstrecke 0,80 0,80
In Tab. 6 ist zu erkennen, daß die Ergebnisse dieser Simulation nur eine geringfügige Ab-
minderung der Achslasten zulassen. Die Streckenlast läßt sich hingegen deutlich stärker
abmindern. Das ist dadurch zu erklären, daß sich die maximalen Achslasten der Verkehrs-
arten kaum unterscheiden. Die Verteilungen der maximalen Fahrzeuggewichte und somit
die Verteilung der maximalen Feldmomente weisen hingegen erhebliche Unterschiede auf.

4 Literatur
[1] DIN 1055-3: Einwirkungen auf Tragwerke, Teil 3: Eigen- und Nutzlasten für Hoch-
bauten. Berlin: Beuth Verlag, Oktober 2002
[2] DIN 1072: Straßen und Wegbrücken, Lastannahmen. Berlin: Beuth Verlag, Dezember
1985
[3] DIN Fachbericht 101: Einwirkungen auf Brücken. Berlin: Beuth Verlag, 2001
[4] ENV 1991-3 Eurocode 1: Grundlagen der Tragwerksplanung und Einwirkungen auf
Tragwerke, Teil 3: Verkehrslasten auf Brücken. Berlin: Beuth Verlag, 1995
[5] Geißler, K.: Beitrag zur probabilistischen Berechnung der Restnutzungsdauer stähler-
ner Brücken. Diss., TU Dresden 1995, erschienen als Heft 2, Schriftenreihe des Insti-
tuts für Tragwerke und Baustoffe
[6] Merzenich, G.; Sedlacek, G.: Hintergrundbericht zum Eurocode 1 Teil 3.2: “Ver-
kehrslasten auf Straßenbrücken“, Forschung Straßenbau und Straßenverkehrstechnik
Heft 711. Bonn-Bad Godesberg: Bundesministerium für Verkehr, Abt. Straßenbau
[7] Pohl, S.: Definition von charakteristischen Werten für Straßenverkehrsmodelle auf der
Basis der Fahrzeuge sowie Fraktilwerte der Lasten des Eurocode 1-Modells; interner
Forschungsbericht Bundesanstalt für Straßenwesen, 1993
[8] Ruppert,W.-R; Leutzbach, W.; Adolph, U.-M.; Agnew M.; Rüter G.; Zänker, K.:
Achslasten und Gesamtgewichte schwerer LKW. Köln: Verlag TÜV Rheinland GmbH,
1981
[9] Schütz, K.G.: Verkehrslasten für die Bemessung von Straßenbrücken, Bauingenieur
66 (1991), S. 363-373
[10] Spaethe, G.: Beanspruchungskollektive von Straßenbrücken, Die Straße 17 (1977) 4,
S. 241-246

85
Vergleich der Nachrechnungsklassen von Straßenbrücken

86
Aspekte zur statistischen Beschreibung von Bahnverkehrslasten

Ausgewählte Aspekte zur statistischen Beschreibung von


Bahnverkehrslasten

Dipl.-Ing. Peter Lieberwirth


Lehrstuhl für Stahlbau, Technische Universität Dresden

Zusammenfassung: Reale Einwirkungen aus dem Schienenverkehr können


aus bahnbetrieblichen Gründen nur bedingt durch zufällige Lastprozesse be-
schrieben werden. Das aktuell gültige quasideterministische Lastbild UIC 71
ist nicht als Fraktilwert einer statistischen Verteilungsfunktion der Verkehrslast
aufzufassen. Dieser Beitrag behandelt Möglichkeiten und Grenzen bei statisti-
scher Herangehensweise für die Modellbildung am Beispiel vertikaler Ver-
kehrslasten aus Streckenbetrieb.

1 Problemstellung
Das in den Normen verankerte Lastbild UIC 71 wurde auf deterministischer Grundlage
entwickelt [6] und im Jahre 1971 eingeführt. Es berücksichtigte den damaligen Schienen-
verkehr einschließlich eines begrenzten prognostischen Zuwachses. Der Schienenschwer-
verkehr war zu diesem Zeitpunkt noch nicht ausreichend abgedeckt, hierfür folgten
nachträglich die Schwerlastbilder SW/0 und SW/2. Nach langjähriger erfolgreicher Be-
währung in der Praxis im Rahmen globaler Sicherheitskonzepte ist das Lastbild unverän-
dert auch in die neue Normengeneration der Eurocodes bzw. auf nationaler Ebene der
DIN-Fachberichte für Brückenneubauten verbindlich aufgenommen worden. Entsprechend
der semiprobabilistischen Definition für die Einwirkungen aus Verkehrsbelastung ent-
spricht UIC 71 nunmehr einem charakteristischen Lastbild, das mit einem Teilsicherheits-
beiwert (DIN-FB 101: γQ = 1,45) multipliziert den Bemessungswert der Einwirkungsgröße
aus vertikalen Bahnverkehrslasten repräsentiert. Weiterhin wird UIC 71 auch im Rahmen
der Nachrechnung bestehender Tragwerke (DB-Richtlinie 805) eingesetzt. In der näheren
Vergangenheit erfolgten umfangreiche Untersuchungen des EUROPEAN RAIL RESEARCH
INSTITUTE (ERRI), ob das Lastbild auch bei heutigem Expositionszeitpunkt in allen praxis-
relevanten Fällen für einen angestrebten Nutzungszeitraum von 100 Jahren für Brücken-
neubauten eine genügend große Sicherheit für den Eisenbahnverkehr auf hochbelasteten
Strecken gewährleistet. Andererseits ist es eine Frage der Wirtschaftlichkeit, auf gering
belasteten Strecken für einen Brückeneubau abgeminderte Verkehrslasten ansetzen zu dür-
fen. Bestrebungen zum Ersatz des UIC 71 durch ein neues, angepasstes Lastmodell LM
2000 [5] im Zuge der Einführung der neuen Normen sind gescheitert. Dafür wurde ein
streckenabhängig festzulegender Klassifizierungsfaktor 0,75 ≤ α ≤ 1,33 eingeführt.

87
Aspekte zur statistischen Beschreibung von Bahnverkehrslasten

Fortgeschrittene Berechnungsverfahren ermöglichen es heute, Tragsicherheits- und Ge-


brauchsfähigkeitsnachweise direkt nach probabilistischen Konzepten zu führen. Innerhalb
dieses Anwendungsrahmens bedarf das Lastbild UIC 71 mit dem genannten Entstehungs-
hintergrund besonders intensiver Betrachtung. Bekanntermaßen kommt der wirklichkeits-
nahen Modellierung der Einwirkungsgrößen bei Zuverlässigkeitsproblemen große
Bedeutung zu – insbesondere dann, wenn deren Streuung einen erheblichen Einfluss auf
die Sicherheitsnachweise besitzt. Der folgende Beitrag beschäftigt sich mit einigen ausge-
wählten Aspekten, die hierbei für Belastungen aus Schienenverkehr wesentlich sind.

2 Einleitende Bemerkungen zum realen Schienenverkehr


Mit der sprunghaften Entwicklung des landesweiten Schienenverkehrsnetzes der Bahn
(beginnend etwa ab 1840) wurden zahlreiche Brückenbauwerke errichtet, wobei sich die
Entwurfslastbilder zunächst vor allem an der schrittweisen Entwicklung der Dampfloko-
motiven orientierten. Dabei zeigen sich für ingenieurtechnische Bemessungsaufgaben recht
nahe an der Belastungsgeometrie der vertikalen Bahnbetriebslasten orientierte Modelle für
die Anordnung der maßgebenden Radsatzlasten. Als charakteristisches Beispiel (Abb. 1)
sei hier der Lastenzug N (um 1927) genannt, der schwere Dampflokomotiven mit Kohle-
tender erfasst (Aneinanderreihung der Radsatzlasten für 1. und 2. Lok). Die Betriebslasten
der einzelnen Wagen lagen damals nicht über denen des Triebfahrzeuges. Die Streuung der
maximalen Radsatzlasten der Lok war allerdings – bedingt durch die mitgeführten Kohle-
und Wassermengen nicht unerheblich.

Dampflok BR 01:
Gesamtgewicht 1710 kN;
max. Achslast 202 kN
Nennleistung: 1670 kW;
LüP: 23,94 m
Bemessungslastenzug: N

7 x 250 kN (p’ = 137 kN/m)


2. Lok
1. Lok
80 kN/m

1,6 m 6 x 1,6 m 1,6 m

Abb. 1 : Belastungskennwerte für Dampflokomotive der Baureihe 01 und Bemessungsla-


stenzug N für Brückenbauwerke in der Vergangenheit

Mit dem stetigem Wandel des Personen- und Güterverkehrs verbunden waren grundlegen-
de Veränderungen der Belastungsverhältnisse vor allem im Güterschwerverkehr. Die Lei-
stungen der Lokomotiven liegen heute weit über denen des Dampflokbetriebes, was sich
u.a. in gestiegenen Anfahrzugkräften und damit auch höheren normativen Anfahrlasten
88
Aspekte zur statistischen Beschreibung von Bahnverkehrslasten

bezogen auf die zugehörige vertikale Auflast äußert. Die Radsatzlasten der maßgebenden
schweren Triebfahrzeuge haben dagegen kaum zugenommen (vgl. Abb. 1 und Abb. 2),
deren statistische Unsicherheit ist bei modernen Loks im Elektro- und Dieselbetrieb gering,
Abweichungen von den Nennlasten liegen normalerweise unter 5%.

BR 241:
Gesamtgewicht 1200 kN;
6 Achsen; max. Achslast 200 kN;
Anfahrzugkraft: 450 kN;
Nennleistung: 2940 kW;
LüP: 20,82 m

Bemessungslastenzug: UIC 71

3 x 225 kN 3 x 225 kN

1,7 m 1,7 m 2,80 m 1,7 m 1,7 m

4 x 250 kN (p’ = 156 kN/m)


80 kN/m 80 kN/m

0,8 m 3 x 1,6 m 0,8 m

Abb. 2 Belastungskennwerte für die derzeit leistungsstärkste Diesellok von RAILION der
Baureihe 241 sowie einen moderner Drehgestellflachwagen Typ Sa(l)mmnps 706

Dagegen übersteigen die maximalen Radsatzlasten schwerer Güterwagen heute deutlich


diejenigen der Loks und sind betriebsbedingt (durch planmäßige und zufällige Überla-
dungsanteile, wie Feuchtegehalt der Ladung etc.) deutlich größeren Schwankungen unter-
worfen. Bei einigen europäischen Bahnen, wie PKP (bis 257 kN), sind Züge unter
normalen Nutzungsbedingungen mit höheren Achslasten als in Deutschland üblich, zuge-
lassen (z.B. polnische Kohlezüge). Besondere Schwerlasttransporte sind außergewöhnliche
Ereignisse und nicht Gegenstand von Untersuchungen in Zusammenhang mit dem Norm-
lastbild.
Als Nebeneffekt der im Vergleich zu den vertikalen Auflasten real gestiegenen Brems- und
Anfahrlasten treten bei der statischen Nachrechnung besonderer Tragwerke älterer Bauart,
wie z.B. der Eisenbahnhochbrücke Rendsburg (Abb. 3) mit relativ niedrigem Konstrukti-
onseigengewicht und ungünstigen Hebelverhältnissen Schwierigkeiten beim Nachweis der
Horizontalkraftableitung in Brückenlängsrichtung für Betriebslastenzüge auf. Im Einzelfall
werden hier auch aufwändige experimentelle Untersuchungen, wie der dargestellte Brems-

89
Aspekte zur statistischen Beschreibung von Bahnverkehrslasten

versuch zur realitätsnahen Erfassung der Längskraftverteilung im Tragwerk durchgeführt,


um günstigere Tragwerkbeanspruchungen als nach normativer Berechnung nachweisen zu
können.

a) b)
Abb. 3 : a) Geleichterter Güterzug mit eingefügten Leerwagen bei Überfahrt über die Ram-
penbrücken der Eisenbahnhochbrücke Rendsburg und b) Aneinanderreihung von
Lokomotiven zur Durchführung eines Bremsversuches

Zusammenfassend kann festgestellt werden, dass sich eine Änderung der Belastungen aus
dem Streckenverkehr auf unterschiedliche Weise in den Tragwerksreaktionen niederschla-
gen und Betrachtungen zu vertikalen Verkehrslastkomponenten nur einen Teil der Ent-
wicklung darstellen.

3 Erläuterungen zur Modellierung des Schienenverkehrs


Die Charakteristik der Einzelstrecke gibt die Zugmassen und –längen, Wagenmodelle, die
Fahrgeschwindigkeit sowie die in Frage kommenden Loktypen vor. Zur Einstufung der
realen Verkehrsbelastung auf einer Strecke ist der Anteil des Güterverkehrs am Gesamt-
verkehr eine wichtige Hilfsgröße (Abb. 4). Die Wagenfolge innerhalb von Güterzügen ist
zwar näherungsweise zufällig, jedoch besteht eine starke Streckenabhängigkeit bezüglich
deren Grundgesamtheit. Besonders hohe Anteile des Güterschwerverkehrs (Roheisens-
transporte, Kohlezüge etc.) und zugehörige Zugkategorien bleiben auf Verbindungen von
Industriestandorten und internationale Strecken beschränkt.
Bedingt durch Fahrpläne und sich wiederholende Zugfolgen besitzt der Streckenverkehr
deutliche Regelmäßigkeiten. Eine Modellierung von Radsatzlasten als Folge unabhängiger
Zufallsgrößen ist nicht gerechtfertigt. Um die Einwirkungen aus realem Schienenverkehr
über einen größeren Zeitraum an Tragwerken zu ermitteln, sind Vorgehensweisen sinnvoll
wie die nachstehend genannten:
• Langzeitmessungen zur Aufzeichnung realer Beanspruchungskollektive direkt am
Tragwerk , wobei nur Aussagen zur betreffenden Strecke möglich sind;
• Systematisierung des Schienenverkehrs in definierten Typen von Betriebslastenzü-
gen (die bereits ungünstige Wagenfolgen berücksichtigen) und deren Zusammen-
fassung in einem streckenabhängigen Verkehrslastmodell. Durch die Simulation
zufälliger Überfahrten dieser Züge über ein Tragwerksmodell können realitätsnahe
Beanspruchungskollektive für die Strecke berechnet werden.

90
Aspekte zur statistischen Beschreibung von Bahnverkehrslasten

Abb. 4 Mittlerer Anteil des Güterverkehrs am Gesamtverkehr von 40% auf den internatio-
nalen Strecken und 2σ-Streubänder nach [1]

In [4] wurde der zweite Weg auf Basis eines vereinheitlichten europäischen Verkehrslast-
modells verfolgt, wobei insgesamt 124 Betriebslastenzüge mit den entsprechenden Antei-
len am Gesamtverkehr berücksichtigt wurden. Hierbei ist zu beachten:
• Die Wagenreihung innerhalb eines Betriebslastenzuges erfolgt deterministisch
(Abb. 5). Die Berücksichtigung realer Lastkennwerte von Lok und Wagen ist in
diesen Modellen möglich. Die einzelnen Radsatzlasten innerhalb des Zuges können
auch als zufällige Größen eingeführt werden.
• Die Auftretenswahrscheinlichkeit eines Betriebslastenzuges innerhalb der Grundge-
samtheit ist definiert, die zeitliche Folge der Lastenzüge ist unabhängig und zufäl-
lig. Jedem Betriebslastenzug ist bei Überfahrt eine bestimmte Geschwindigkeit
zugeordnet.
6 x 225 kN 2 x 70 kN 4 x 225 kN 4 x 225 kN

M O P Q

2 2,1 2,1 4,4 2,1 2,1 2 1,9 6,5 1,9 1,8 1,8 12,8 1,8 1,8 1,6 1,8 8,0 1,8 1,6

Zugzusammenstellung: M-O-O-P-O-Q-Q-O-P-P-P-O-O-Q-Q-O-P-Q-O-O-Q-Q-P

Abb. 5 Typenzug E06 (Lokgezogener Güterzug) mit einer Auftretenshäufigkeit von


17,9% im Modell für die Zugtypen bei Ermüdung nach [1], Anhang F.3

Bei der Einbeziehung von Prognosen zur Entwicklung des Schienenschwerverkehrs wur-
den in bisherigen Modellrechnungen u.a. Achslasterhöhungen berücksichtigt, wobei die
Anfang der 1990er Jahre aufgestellten Zukunftsmodelle keine bedeutenden Erhöhungen

91
Aspekte zur statistischen Beschreibung von Bahnverkehrslasten

der Radsatzlasten gegenüber dem aktuellen Verkehr mehr zulassen – d.h. der gesetzte
„Prognosepuffer“ ist nahezu ausgeschöpft.
Geschlossen lassen sich lediglich die Zuggesamtlasten aller Betriebslastenzüge in Form
einer multimodalen Verteilung gemäß Glg. (1) abbilden.
n n +∞
F (x ) = ∑
i =1
p i ⋅ Fi (x ) ; f ( x ) = ∑ pi ⋅ f i (x )
i =1
Bedingung: ∫ f (x )dx =1 (1)
−∞

Die n unabhängigen Untermengen mit den Einzel-Wahrscheinlichkeitsverteilungen Fi(x)


haben die Auftretenswahrscheinlichkeiten p1...pn innerhalb der Grundgesamtheit. Dabei
können auch Gruppen von Betriebslastenzügen (Zugtypen) zusammenfaßt werden, z.B.
Personenverkehr, normaler Güterverkehr und Güterschwerverkehr u.a.. Die Zuggesamtlast
ist jedoch für die Brückenbemessung nur eine repräsentative Größe in Bezug auf die Trag-
werksbeanspruchungen.

4 Tragwerks- und Streckenabhängige Modellbildung


Die fiktiven Überfahrten der in Abschnitt 3 genannten Betriebslastenzüge können entweder
über ein Strukturmodell des Tragwerkes, bei linear elastischem Verhalten auch über Ein-
flusslinien ausgewertet werden. Die Simulation der Grundgesamtheit des Verkehrslastmo-
dells liefert Kollektive der Tragwerksreaktionsgrößen Si (Querkräfte, Momente, Auflager-
kräfte, Verschiebungswerte). Durch Definition eines auf Si,UIC (= deterministischer
Einzelwert infolge Überfahrt von UIC 71, d. h. charakteristischer Wert der Tragwerksreak-
tion) bezogenen Kollektivwertes λi der Größe Si (Momente, Querkräfte, Stützkräfte etc.)
gemäß Glg. (2) gelingt der Bezug zum Normlastenzug.
Si (1 + ϕ )S i
λi = bzw. mit Schwingbeiwert λi = (2)
SUIC SUIC

Zufällige Folge von Kollektiv der


Betriebslastenzügen Schnittgröße Si
Trag- Bezogenes
struktur Kollektiv λi
„Überfahrt“ Normla- Bezugswert der
stenzug UIC 71 Schnittgröße SUIC

Abb. 6 Schematischer Ablauf der Simulationsrechnung zur Gewinnung bezogener Bean-


spruchungskollektive

Über den Schwingbeiwert ϕ können näherungsweise dynamische Effekte bei der Zugüber-
fahrt berücksichtigt werden. ϕ wird als normalverteilte Größe mit dem Mittelwert
µ = 0,95⋅(1+ϕ) und dem Variationskoeffizienten v = 0,05 angesetzt. Zuggeschwindigkeit
und Gleislage lassen sich nach Glg. (3) berücksichtigen, wobei man normalerweise im heu-
tigen Netz eine mittlere Gleisqualität mit a = 0,5 ansetzt. Somit ergibt sich für jeden Be-
triebslastenzug ein entsprechender Schwingbeiwert in Abhängigkeit von der Tragstruktur.

92
Aspekte zur statistischen Beschreibung von Bahnverkehrslasten

K
Φ= 1+ ϕ ; ϕ= ϕ' + a⋅ϕ'' ; ϕ' = ; K= v / (2⋅n0⋅L )
1− K + K 4

v : Zuggeschwindigkeit [m/s]

n0: Eigenfrequenz des unbelasteten Bauwerks


(3)
n0= 80 / L : für 4m ≤ L ≤ 20m

n0= 23,58 ⋅ L - 0,592 für 20m < L ≤ 100m

L : Stützweite ; ϕ ' ' = 0,65 ⋅ e (− L ² / 100 )

a: Gleislagefaktor (1,0: schlechter, 0: sehr guter Gleiszustand)

Die in [4] vorgenommenen umfangreichen Berechnungen beschränkten sich auf drei typi-
sche Tragwerksformen (EFT, Zweifeldträger, Stabbogen) in einem Stützweitenbereich von
1 … 200 m. Es wurden ein- und mehrgleisige Überbauten berücksichtigt. Weiterhin erfolg-
te die Simulation ausschließlich für das genannte europäische Verkehrslastmodell mit und
ohne Prognoseverkehr. Entsprechend der dortigen Zielstellung wurde eine sehr hoch bela-
stete Strecke untersucht, um den Normenbezug herstellen zu können. Im Umkehrschluss
gilt:
• Für andere Tragwerksformen, wie Rahmenbauwerke, Steinbogen oder Netzwerk-
bogen sind die Ergebnisse nur mittelbar zu übertragen. Es dürfen nur Kollektive
ohne tragwerksspezifischen Schwingbeiwert ϕ unter Betriebslastenzügen zu Ver-
gleichszwecken herangezogen werden.
• Weicht die Streckencharakteristik erheblich von der v. g. ab (z.B. Strecken ohne
nennenswerten Güterverkehr), unterscheiden sich die Kollektive signifikant.
Bezüglich der Auswertung der λi-Kollektive unterscheidet man:
• Rainflow-Kollektive für Ermüdungsprobleme, d.h. jeder Lastwechsel (Minima und
Maxima aus der Auswertung der Einflussfunktionen) wird mitgezählt. Je nach Be-
triebslastenzug sind damit zahlreiche Einzelwerte je Überfahrt erfasst. Diese Me-
thode ist für die Untersuchung von Extremwerten der Tragwerksreaktion bezogen
auf lange Zeiträume ungeeignet.
• Spitzenwert-Kollektive für die Extremwerte von λi, d.h. es wird nur ein Größt-
bzw. Kleinstwert je Überfahrt aufgezeichnet. Die Methode ist vor allem bei großen
Stützweiten geeignet, die bei Zugüberfahrt nur einen extremen Beanspruchungs-
wert aufweisen.
• Modifizierte Spitzenwert-Kollektive nach dem Vorschlag in [4] vor allem bei klei-
nen Stützweiten mit mehreren extremen Werten innerhalb einer Zugüberfahrt
(Lastwechsel).
Einige Ergebnisse der statistischen Bewertung vorstehender Kollektive werden im letzten
Abschnitt vorgestellt.

93
Aspekte zur statistischen Beschreibung von Bahnverkehrslasten

5 Ausgewählte Ergebnisse
Mit dem bezogenen Kollektivwert λ sind statistische Auswertungen realitätsnaher Trag-
werksbeanspruchungen bei definierter Streckencharakteristik und Rückschlüsse zu Über-
schreitungswahrscheinlichkeiten berechneter UIC 71 - Beanspruchungen möglich. Die
Kollektive zeigen unabhängig von der Auswertemethodik einen ausgeprägt multimodalen
Charakter, obwohl explizit für die Grundgesamtheit des Streckenverkehrs (Schwierigkeiten
bei der Berücksichtigung von Zugfolgen, Achslasten, veränderlicher Schwingbeiwert) kei-
ne geschlossene Lösung analog Glg. (1) gefunden wurde.
Die ausgeprägte Systemabhängigkeit der Ergebnisse macht Abb. 7 deutlich. Weiterhin sind
innerhalb eines Tragwerkes bedingt durch die maßgebenden Einflusslinien statistische Un-
terschiede zwischen den einzelnen Tragwerksreaktionen feststellbar, d.h. die Klassenhäu-
figkeiten der Kollektive sind schnittkraftbezogene Größen.
25

Spitzenwertklassierung λi = Mi / MUIC 71
- ohne dynamischen Beiwert
- mit Prognoseverkehr
20

15
Häufigkeit [%]

EFT Stützweite l = 3 m

EFT Stützweite l = 10 m

10

0
0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1 1,1 1,2 1,3 1,4 1,5
λ i = M i / M UIC 71

Abb. 7 Spitzenwertkollektive für Einfeldträger von 3 m und 10 m Stützweite ohne Be-


rücksichtigung des Schwingbeiwertes, mit Prognoseverkehr für die Zukunft

Als Approximation der Spitzenwertkollektive wurde in [4] aufgrund der nicht besetzten
unteren Klassen (unterer Grenzwert ist definiert durch Leerüberfahrten unter Eigengewicht
von Wagen) die WEIBULL-Verteilung gemäß Glg. (4) gewählt (Parameterbezeichnungen
entsprechen den Angaben des ERRI).
δ
 λ −λ 
− i 0 i 
(4)
F (λi ) = 1 − e  η 
; λi > λ 0 i ; η, δ, λ0i: freie Parameter

Die modifizierte Spitzenwertmethode (alle Extremwerte einer Überfahrt erfassend) unter-


scheidet sich vor allem bei kleinen Stützweiten von den einfachen Spitzenwertkollektive,
entsprechend differiert hier die approximierte Verteilungsfunktion F(λi) verfahrensabhän-
gig. Mit f(λi) und der deterministische Schnittgröße SUIC lässt sich die Verteilungsdichte

94
Aspekte zur statistischen Beschreibung von Bahnverkehrslasten

von Si in Abhängigkeit vom Beanspruchungskollektiv angeben. Die Lineartransformation


der Zufallsgröße λi ermöglicht die Ableitung von Extremwerten der Größe Si bei vorgege-
bener Über- bzw. Unterschreitungswahrscheinlichkeit durch Quantilen von λi. Die Defini-
tion des Bezugszeitraumes wurde seitens der ERRI aus bahnspezifischen Gründen so
vorgenommen, dass die Auswertungen einer Extremwertbetrachtung von Tageswerten der
Einzelkollektive am nächsten kommen. Hieraus muss das fiktive Beanspruchungsquantil
nach Glg. (5) berechnet werden:

q =1 −1 / n [⋅ 100 %] ; (5)

Seitens der Bahn wurden zwei Wiederkehrperioden festgelegt:

Der theoretische 50-Jahreswert (n = 365*50) entspricht nach Glg. (5) einem 99,999%-
Quantil der Grundgesamtheit und wird als ideeller Bemessungswert λQd bezeichnet. Der
Jahreswert (n = 365) entspricht dem 99,7%-Quantil und wird als ideeller charakteristischer
Wert λQk festgelegt.

3 f (λUIC) Modellparameter GUMBEL: {0,60 ; 0,15}


Gumbel
2.5

2 Trimodal
1.5
Modellparameter Trimodal:

1 F1 Æ Ex_max_I {0,35 ; 0,07} p1 = 0,45


0.5 λUIC F2 Æ Ex_max_I {0,60 ; 0,10} p2 = 0,50
0.2 0.4 0.6 0.8 1 1.2
F3 Æ Ex_max_I {0,95 ; 0,15} p3 = 0,05

Quantil Abschätzung Modell Modell Mit Φ = 1,31 folgt daraus:


ERRI D 192/RP 3 Gumbel Trimodal
0,99 1,07 1,07 1,07 λQk = 1,32 / 1,31 ≈ 1,0
0,999 1,48 1,34 1,35
0,9999 1,54 1,61 1,60
0,99999 1,86 1,88 1,87 λQd (Φ) = 1,87
Oberer Endwert 1,90 --- ---

Abb. 8 Approximation der Spitzenwertklassierung (mit Schwingbeiwert, Prognoseverkehr


und Schwerlasttransporten) für λUIC (max MFeld) durch eine GUMBEL- und alterna-
tiv eine trimodale Verteilung und Vergleich theoretischer Fraktile mit dem
WEIBULL-Modell (ERRI D 192/RP 3)

Bei systematischer Betrachtung der Schnittgrößenkollektive und deren Approximation


durch die bahnseitig gewählte WEIBULL-Verteilung ist folgendes festzustellen:
• Das eingipflige statistische Verteilungsmodell ist darauf ausgerichtet, die berechne-
ten Klassenwahrscheinlichkeiten im Bereich der Größtwerte abzubilden. Nach Un-
tersuchungsergebnissen des Verfassers kann dies bei den vorliegenden Spitzenwert-
kollektiven jedoch besser mit einer Gumbel- oder einer Reversed-Weibull-
Verteilung erreicht werden. Da sich die mittleren und unteren Klassen mit mono-
modalen Ansätzen nicht zutreffend fassen lassen, wird einem Mischverteilungsan-

95
Aspekte zur statistischen Beschreibung von Bahnverkehrslasten

satz analog Glg. (1) der Vorzug gegeben. Abb. 8 zeigt ein Beispiel für Einfeldträger
mit 10 m Stützweite bei Betrachtung des maßgebenden Feldmomentes für Si.
• Die Lastwechselzahl pro Jahr sinkt mit steigender Stützweite bei der modifizierten
Spitzenwertmethode stark ab, gleichzeitig erhöht sich der Variationskoeffizient
v (λi). Damit steigt die Irrtumswahrscheinlichkeit in den oberen Fraktilen bei gro-
ßen Stützweiten gegenüber kurzen Brücken an.
• Der Schwingbeiwert hat außerordentlichen Einfluss auf die Schnittkraftkollektive.
Während für kleine Stützweiten die normativen Φ-Werte als konservativ gelten,
können sich großen Stützweiten durchaus etwas höhere Schwingbeiwerte als 1,0
ergeben. Der Schwingbeiwert für Betriebslastenzüge ist stets separat festzulegen,
z.B. nach Anhang E zu DIN-FB 101 [1].
Wertet man die Zahlen für das Beispiel in einer Strecke mit normalem Verkehr (α = 1,0)
aus, ergibt sich bei normativer Bemessung des Einfeldträgers:
λQk (1,0 x UIC 71) = 1,0
λQd (1,45 x UIC 71) = 1,45
λQd (Φ = 1,31; 1,45 x UIC 71) = 1,90
Vergleicht man dies mit der statistischen Auswertung in Abb. 8 folgt, dass am gewählten
Träger das gewünschte normative Verhältnis von charakteristischem Wert, Schwingbei-
wert und Bemessungswert realistisch ist. Mit veränderlicher Stützweite verhalten sich die
statistischen Kenngrößen wie folgt, wenn man für Si weiterhin das Moment in Feldmitte
wählt:
• Der tatsächlich ermittelte untere Endwert λ0i verringert sich mit steigender Stütz-
weite.
• Der charakteristische Wert λQk (ohne ϕ) besitzt bei ca. 10 m Stützweite ein lokales
Minimum von λQk = 1,0 und steigt sowohl zu den sehr kleinen als auch den großen
Stützweiten bis auf λQk = 1,25 an.
• Der ideelle Bemessungswert λQd (mit ϕ) ist im Stützweitenbereich unterhalb 10 m
maximal und fällt dann langsam bis auf λQk = 1,50 ab.
Für große Stützweiten wird demzufolge bei statistischer Betrachtungsweise ein charakteri-
stischer Wert λQk der Tragwerksreaktion erhalten, der deutlich über dem charakteristischen
Normwert UIC 71 liegt. Das heißt, in einer hoch belasteten Strecke mit entsprechendem
Güterschwerverkehr liegt die mittlere Auftretenswahrscheinlichkeit der UIC-Schnittgröße
über 1x pro Jahr. In Verbindung mit dem realen Schienenverkehr ist dies so zu interpretie-
ren, dass eine ungünstige Folge schwerer Güterwagen der Gegenwart und Zukunft (z.B.
Kohlezüge mit Überladungsanteilen) relativ häufig auftritt und damit höhere Belastungen
verursacht, als dies durch das charakteristische Lastbild UIC 71 Berücksichtigung findet.
In einem solchen Fall ist die Strecke mit einem Klassifizierungsfaktor α > 1,0 einzustu-
fen. Für das klassifizierte Lastmodell α⋅UIC 71 könnte bei statistischer Betrachtungsweise
der Teilsicherheitsbeiwert γQ für den Grenzzustand der Tragfähigkeit entsprechend abge-
mindert werden.

96
Aspekte zur statistischen Beschreibung von Bahnverkehrslasten

Für probabilistische Berechnungsansätze von Tragwerken unter Bahnverkehrslasten ver-


bleibt die Schlussfolgerung, dass tragwerksspezifische Ansätze unter Berücksichtigung der
Tragwerksart und der untersuchten Beanspruchungsgröße zu wählen sind. Die Streuung
des Schwingbeiwertes ist im Modell zu berücksichtigen.
Es ist durchaus zu erwarten, dass die Transportunternehmen des Schienengüterverkehrs im
Konkurrenzkampf mit den Straßentransporten hinsichtlich wagentechnischer Ausstattung
auch weitere Steigerungen der Radsatzlasten bis in den Bereich von 300 kN insbesondere
auf den betreffenden Transitstrecken anstreben werden. Bezieht man die in Abschnitt 2
angesprochenen Aspekte des Schienenschwerverkehrs im internationalen Vergleich ein, ist
eine solche Entwicklung sehr wahrscheinlich. Da sich ein korrigiertes charakteristisches
Lastmodell LM 2000 in den aktuellen Normen nicht durchsetzen konnte, werden auf den
entsprechenden Strecken durch das Eisenbahn-Infrastrukturunternehmen Klassifizierungs-
faktoren definiert. Mit dem erläuterten statistischen Hintergrund ist es aber auch gerecht-
fertigt, auf Bahnstrecken ohne nennenswerten Güterverkehr Abminderungen der
charakteristischen Lastwerte vorzunehmen, wie sie in DIN-FB 101 geregelt sind.

6 Literatur
[1] DIN-Fachbericht 101, 2. Auflage 2003
[2] ERRI – Bericht D 192/RP 1: Theoretische Grundlagen zur Überprüfung des bestehen-
den Lastbildes UIC 71, Utrecht, 1993
[3] ERRI – Bericht D 192/RP 2: Vergleich der Einwirkungen des derzeitigen und künfti-
gen Schienenverkehrs auf den internationalen Strecken mit denen aus Lastbild UIC 71
auf deterministischer Grundlage, Utrecht, 1994
[4] ERRI – Bericht D 192/RP 3: Lastbild für die Berechnung der Tragwerke der interna-
tionalen Strecken, 1994
[5] ERRI – Bericht D 221/RP 1: Vertikale Eisenbahnverkehrslasten: Kombinationsbei-
werte - Hintergrundinformationen zum Thema „Eisenbahnverkehrslasten“, 1998
[6] UIC-Merkblatt 702: Lastbild für die Berechnung der Tragwerke der internationalen
Strecken, Internationaler Eisenbahnverband UIC, 1974

97
Aspekte zur statistischen Beschreibung von Bahnverkehrslasten

98
Teilsicherheitsfaktoren für Natursteinmaterial

Zur Ermittlung von Teilsicherheitsfaktoren


für Natursteinmaterial

Manfred Curbach, Dirk Proske


Institut für Massivbau, Technische Universität Dresden

Zusammenfassung: Im Rahmen der Umstellung des Sicherheitskonzeptes im


Bauwesen wird auch die Erstellung von Teilsicherheitsfaktoren für Naturstein-
material und Natursteinmauerwerk notwendig. Der Artikel erläutert Verfahren
dafür und zeigt beispielhaft die Anwendung für Roten Mainsandstein und
Sächsischen Sandstein.

1 Einleitung
Es ist zu vermuten, daß sich bereits die ersten Baumeister Gedanken über die Sicherheit
der von ihnen errichteten Bauwerke machten. Angeblich stammt die erste Formulierung
eines Sicherheitsfaktors aus dem 3. Jahrhundert vor Christus von Philo von Byzantium
[38]. Er formulierte den Sicherheitsfaktor wie folgt:
Tragfähigkeit
γ= > 1, 0 . (1)
Belastung

Für die verschiedenen Baustoffe wurden im Laufe der Zeit verschiedene solcher globalen
Sicherheitsfaktoren entwickelt. Mit zunehmendem Wissen verringerte sich der Betrag der
Sicherheitsfaktoren. So wurde beim Ziegelmauerwerk 1880 noch eine zehnfache Sicherheit
gefordert (BUSCH und ZUMPE [3]). 1887 hielt man eine sieben- bis achtfache Sicherheit für
ausreichend [3]. Später wurde eine fünffache Sicherheit für genügend erachtet [3], vor ca.
50 Jahren wurde noch eine vierfache Sicherheit für Mauerwerk gefordert [36] und heute
geht man bei der Nachrechnung historischer Bauwerke etwa von einem globalen Sicher-
heitsfaktor von 3,0 aus [46], [25].
Zu Beginn des 20. Jahrhunderts wurde der Versuch unternommen, baustoffunabhängige
globale Sicherheitsfaktoren zu entwickeln, die in Abhängigkeit von den Streuungen der
Einwirkungen und Widerstände gewählt wurden. In Tab. 1 sind solche Werte von VISODIC
[44] und in Tab. 2 die Empfehlungen von NORTON [29] angegeben. Eine weiterer Vor-
schlag stammt von PUGSLEY [33].

99
Teilsicherheitsfaktoren für Natursteinmaterial

Tab. 1: Globaler Sicherheitsfaktor nach VISODIC [44]


Sicherheits- Kenntnisse der Einwirkung Kenntnisse des Materials Umgebungsbedingungen
faktor
1,2-1,5 Ausgezeichnet Ausgezeichnet Kontrollierbar
1,5-2,0 Gut Gut Konstant
2,0-2,5 Gut Gut Normal
2,5-3,0 Durchschnitt Durchschnitt Normal
3,0-4,0 Durchschnitt Durchschnitt Normal
3,0-4,0 Gering Gering Unbekannt

Tab. 2: Globaler Sicherheitsfaktor nach NORTON [29]


Sicherheits- Kenntnisse der Einwirkung Kenntnisse des Materiales Umgebungsbedingungen
faktor
1,3 Bekannt durch Besonders gut bekannt Wie bei Versuchen
Untersuchungen
2 Gute Näherung Gute Näherung Kontrollierbar,
Raumbedingungen
3 Normale Näherung Normale Näherung Gemäßigt
5 Grobe Schätzung Grobe Schätzung Extrem

Das Normenwerk im Bauwesen erlebt zur Zeit jedoch eine Umstellung der Sicherheitskon-
zepte, die den Abschied vom globalen Sicherheitsfaktor bedeuten. Das neue semi-pro-
babilistische Sicherheitskonzept zeichnet sich durch eine Vielzahl von Sicherheitsfaktoren
aus. Die Sicherheitsfaktoren werden deshalb als Teilsicherheitsfaktoren bezeichnet. Da-
durch soll es möglich werden, die den jeweiligen Eingangsgrößen inhärenten Unsicherhei-
ten unmittelbar an der Eingangsgröße zu erfassen. Die Entwicklung von Teilsicherheits-
faktoren wurde in der Literatur, zum Teil auch an Beispielen, intensiv diskutiert (AHNER &
SOUKHOV [1], BYFIELD & NETHERCOT [5], [27], SORENSEN [39]).
Die Umstellung auf das moderne Sicherheitskonzept erfolgte jedoch nicht schlagartig für
alle Baustoffe einheitlich, sondern schrittweise. So wurde zunächst in Deutschland die DIN
1055-100 eingeführt, die die Grundlage für das neue Sicherheitskonzept bildet. Anschlie-
ßend wurden einige Normen zur Beschreibung von Einwirkungen, wie z.B. die DIN 1055-
1 eingeführt. Seit dem Jahre 2001 gibt es eine neue Norm für den Beton- und Stahlbeton-
bau (DIN 1045-1). Im Stahlbau erfolgte die Umstellung bereits vor mehreren Jahren mit
der Einführung der neuen DIN 18 800. Bei anderen Baustoffen steht die Einführung natio-
naler Normen mit dem neuen Sicherheitskonzept aber noch aus, so z.B. beim Mauerwerks-
bau mit der DIN 1053-100 oder beim Holzbau. Die entsprechenden Entwürfe und die sehr
weit fortgeschrittenen europäischen Normen erlauben aber einen Blick in die Zukunft.
Die neuen Normen sind aber im wesentlichen auf neue Bauwerke ausgerichtet (VAL &
STEWART [43]). Zusätzlich erfassen sie nur eine begrenzte Anzahl von Baustoffen. Die in
einigen Regionen nur lokal eingesetzten Baustoffe oder neuartigen Baustoffe werden in
den Normen nicht behandelt. Es kann deshalb für den Ingenieur notwendig werden, den
Teilsicherheitsfaktor für die Festigkeit eines bestimmten Materiales selbst zu ermitteln.
Das soll im folgenden am Beispiel von Natursteinmaterial demonstriert werden. Doch zu-
nächst wird noch einmal auf das neue Sicherheitskonzept eingegangen (Abb. 1).

100
Teilsicherheitsfaktoren für Natursteinmaterial

Holzbau Holzbau
BV SK BV
Sicherheits-
Stahlbau Stahlbau konzept
BV SK BV

Stahlbeton Einwirkungen Stahlbeton Einwirkungen


Eigenlasten Eigenlasten
BV SK Windlasten BV Windlasten
Schneelasten Schneelasten
Außergewöhnliche L. Außergewöhnliche L.
Plastbau Temperaturlasten Plastbau Temperaturlasten
Baulasten Baulasten
BV SK BV

Aluminium Aluminium
BV SK BV

Textilbeton BV: Berechnungsverfahren Textilbeton


BV SK SK: Sicherheitskonzept BV

Abb. 1: Umbau des Sicherheitskonzeptes im Bauwesen

1.1 Nachweiskonzept
Die Nachweise der Gebrauchstauglichkeit und der Tragfähigkeit werden in den neuen
Normen durch den Vergleich von Bemessungswerten der Einwirkungs- und Widerstands-
seite erbracht:
Ed ≤ Rd . (2)
Die Berechnung der Einwirkungsseite richtet sich nach der jeweils zu verwendenden Ein-
wirkungskombination. Als Beispiel für die Ermittlung des Bemessungswertes der Einwir-
kungskombination ist hier die Formel für die ständige und vorübergehende Einwirkungs-
kombination im Grenzzustand der Tragfähigkeit dargestellt:
 
Ed = E ∑ γ G , j ⋅ Gk , j + γ P ⋅ Pk + γ Q ,1 ⋅ Qk ,1 + ∑ γ Q ,i ⋅ψ 0,i ⋅ Qk ,i  . (3)
 j ≥1 i >1 
In der Formel wird die Zuordnung der Teilsicherheitsfaktoren deutlich. Die Formulierung
der Widerstandsseite hängt z.B. im Stahlbetonbau von der Art und Weise der Schnittkraft-
ermittlung ab. Im Falle der linearelastischen Schnittgrößenermittlung gilt:
 f f yk f tk ,cal f p 0,1k f pk 
Rd = R  α ⋅ ck ; ; ; ; , (4)
 γc γs γs γs γs 
während für den nichtlinearen Fall die folgende Formel zu verwenden ist:
1
Rd = R( f cR ; f yR ; f tR ; f p 0,1R ; f pR ) . (5)
γR
Die Veränderung des Aufbaus der Formeln deutet bereits an, daß auch das Teilsicherheits-
faktorenkonzept mit Problemen verbunden ist. Diese Probleme sind jedoch nicht Bestand-
teil dieser Arbeit, sondern die Festlegung von Teilsicherheitsfaktoren. Zwar liegen Teil-

101
Teilsicherheitsfaktoren für Natursteinmaterial

sicherheitsfaktoren bereits in großem Umfang vor, aber, wie bereits erwähnt, nicht für alle
Baustoffe. Tab. 3 listet bereits ermittelte Teilsicherheitsfaktoren für die verschiedenen
Baustoffe auf.
Wie kann man aber nun für andere Materialien Teilsicherheitsfaktoren ermitteln? Zunächst
ist festzustellen, daß die Teilsicherheitsbeiwerte nicht unabhängig von den jeweiligen cha-
rakteristischen Werten festgelegt werden können. Vielmehr dienen beide – die Teilsicher-
heitsfaktoren und die charakteristischen Werte von Baustoffen – dazu, die erforderliche
Sicherheit zu gewährleisten.

Tab. 3: Teilsicherheitsfaktoren für Widerstandsgrößen im Bauwesen

ständige u. vor- Außerge- Ermüdung


Material Norm übergehende wöhnli- Gebrauchs-
Einwirkung. che Einw. tauglichkeit
Normalbeton bis C 50/60 DIN1045-1 1,50 1,30 1,50
1,30
1,50
f
Normalbeton ab C 50/60 DIN1045-1 f 1,1 − ck -
1,1 − ck 500
500
Unbewehrter Beton DIN1045-1 1,80 1,55 -
Unbewehrter Beton FU-B [10] 1,25
Fertigteilwerk DIN1045-1 1,35 -
Nachweis schlanker Träger
DIN1045-1 2,00 - -
gegen seitliches Ausweichen
Betonstahl DIN1045-1 1,15 1,00 1,15
Spannstahl DIN1045-1 1,15 1,00 1,15
Stahl-Fließgrenze EC 4 1,10 1,00
Stahl-Zugfestigkeit EC 4 1,25 1,00
Stahl-Zugfestigkeit EC 4 1,00 1,00
Holz EC 5 1,30
Mauerwerk (Kategorie A) EC 6, [24] 1,7 (I)/2,0 (II) 1,20
Mauerwerk (Kategorie B) EC 6 2,2 (I)/2,5 (II) 1,50
Mauerwerk (Kategorie C) EC 6 2,7 (I)/3,0 (II) 1,80
Mauerwerk Verbund-Stahl EC 6 1,50/2,20
Wandbänder (K. A-C) EC 6, [24] 2,50 1,20
Floatglas & Gussglass [4] 1,80 1,40 1,40
ESG/TVG [4] 1,50 1,30 1,30
Silikonglas [4] 5,00 2,50 2,50
Kohlenfaserverstärkter Kunststoff DIN 1045,
1,20
(geschlitzt) [30]
Kohlenfaserverstärkter Kunststoff BS 8110, [30] 1,54-1,96
Fassadenplatten (materialunhängig) DIN 18 516 2,00
Aluminium (Streckgrenze) EC 9 1,10
Aluminium (Zugfestigkeit) EC 9 1,25

102
Teilsicherheitsfaktoren für Natursteinmaterial

2 Verfahren
2.1 Charakteristische Werte
In den Normen wird festgelegt, daß der charakteristische Festigkeitswert fk von Baustoffen
einem 5 %-Fraktilwert der Grundgesamtheit der statistischen Verteilung dieses Wertes
entspricht. Diese Festlegung findet sich z.B. in der baustoffunabhängigen DIN 1055-100,
Abschnitt 6.4, Absatz (2) [12] oder im Eurocode 1. Die Wahl des 5 %-Fraktilwertes findet
sich aber auch in zahlreichen baustoffbezogenen Normen, wie z.B.:
• Betonstahl DIN 488 (90 %-Vertrauensbereich),
• Betondruckfestigkeitsprüfung DIN 1045, DIN 1048,
• Mauerwerk nach Eignungsprüfung DIN 1053
(Schubert [37] 75 %-Vertrauensbereich),
• Außenwandbekleidungen DIN 18516-1, 3, 5 (75 %-Vertrauensbereich),
• Mauerwerk DIN 18152 04.87:Vollsteine und Vollblöcke
(90 %-Vertrauensbereich),
• Betonstahl ENV 100080 (90 %-Vertrauensbereich),
• Holzbau DIN V ENV 1995 (84,1 %-Vertrauensbereich, Variationskoeffizient grö-
ßer gleich 0,1; mindestens 30 Stichproben),
• Mauerwerk Gasbeton (95 %-Vertrauensbereich),
• Empfehlung künstliche Steine (Schubert [37]),
• Natursteine 90 %-Aussagesicherheit (Schubert [37]).
Um einen 5 %-Fraktilwert zu berechnen, benötigt man zunächst statistische Angaben der
jeweiligen Größe. Daraus kann eine Wahrscheinlichkeitsfunktion erstellt werden, die die
Streuung der Größe erfaßt. Auf Grund der Vielzahl von Wahrscheinlichkeitsverteilungs-
funktionen (Tab. 4) wird eine Vorauswahl getroffen. In der Regel werden drei verschie-
dene Wahrscheinlichkeitsfunktionen für Baustoffeigenschaften verwendet: die Normalver-
teilung, die Lognormalverteilung und die Weibullverteilung (FISCHER [16], Eurocode 1
[14], GruSiBau [28]). Die Normalverteilung läßt sich sehr elegant mit dem Zentralen
Grenzwertsatz begründen, der besagt, daß die Summe beliebig verteilter Zufallsgrößen
einer Normalverteilung folgt. Und in der Tat wird die Festigkeit vieler Baustoffe von zahl-
reichen zufälligen Größen beeinflußt. Natürlich gibt es für den Zentralen Grenzwertsatz
auch Randbedingungen, die eingehalten werden müssen. So darf eine einzelne streuende
Größe in dieser Summe nicht dominant sein. Außerdem können bei der Normalverteilung
negative Werte auftreten, die sich physikalisch nicht interpretieren lassen, wie z.B. eine
negative Druck- oder Zugfestigkeit. In solchen Fällen kann man eine Lognormalverteilung
verwenden. Auch diese kann auf den Zentralen Grenzwertsatz zurückgeführt werden, in
dem man keine Addition der einzelnen Größen, sondern eine Multiplikation fordert. Die
Weibullverteilung wird in der Regel bei Materialeigenschaften angewendet, die sich mit
dem Modell der „Kette“ beschreiben lassen. Eine „Kette“ versagt an ihrem schwächsten
Glied, Umlagerungen sind also nicht möglich. Das Verhalten von keramischen Baustoffen
oder Glas läßt sich sehr gut mit diesem Modell beschreiben. Unter der Annahme, daß die
Wahrscheinlichkeitsverteilungen bekannt sind, soll im folgenden die Ermittlung eines 5 %-
Fraktilwertes gezeigt werden.

103
Teilsicherheitsfaktoren für Natursteinmaterial

Tab. 4: Beispiele für Wahrscheinlichkeitsverteilungsfunktionen. Dopplungen sind auf


Grund verschiedener Bezeichnungen von Verteilungen möglich.

Name der Verteilung Name der Verteilung


1 χ-Verteilung 29 LAPLACE-Verteilung
2 Allgemeine PARETO-Verteilung 30 Logarithmische PEARSON-Typ-3 Verteilung
3 Arcsin-Verteilung 31 Logarithmisch-logistische Verteilung
4 Betaverteilung 32 Logistische Verteilung
5 Binomialverteilung 33 Lognormalverteilung
6 BIRNBAUM-SAUNDERS-Verteilung 34 LORENZ-Verteilung
7 BREIT-WIGNER Verteilung 35 MAXWELL-Verteilung
8 CAUCHY-Verteilung 36 NEVILLE-Verteilung
9 ERLANG-Verteilung 37 PARETO-Verteilung
10 Exponential-Verteilung 38 PEARSON, Typ III, Gammaverteilung
11 Extremwertverteilung Typ I max 39 PEARSON-Typ-3-Verteilung
12 Extremwertverteilung Typ I min 40 POISSON-Verteilung
13 Extremwertverteilung Typ II max 41 Polyaverteilung
14 Extremwertverteilung Typ II min 42 Potentialverteilung
15 Extremwertverteilung Typ III max 43 Potenznormal-Verteilung
16 Extremwertverteilung Typ III min 44 RAYLEIGH-Verteilung
17 FISHER-Verteilung 45 Rechteck oder Gleichverteilung
18 FRÉCHET-Verteilung 46 Reverse WEIBULL-Verteilung
19 F-Verteilung 47 ROSSI-Verteilung
20 Gammaverteilung (Γ-Verteilung) 48 SIMPSON- oder Dreieckverteilung
21 GAUSS- oder Normalverteilung 49 Sinus-Verteilung
22 Generalisierte Extremwertverteilung 50 SNEDECOR-Verteilung
23 Generalisierte PARETO-Verteilung 51 STUDENT-t-Verteilung
24 Geometrische oder räumliche Verteilung 52 TUKEY’sche Lambdaverteilung
25 GUMBEL-Verteilung 53 WAKEBY-Verteilung
26 Hypergeometrische Verteilung 54 WEIBULL-Verteilung
27 KRICKIJ-MENKEL-Verteilung 55 WISHART’s-Verteilung
28 LANDAU-Verteilung 56 Z-Verteilung

2.1.1 Normalverteilung

Der 5 %-Fraktilwert fk der Festigkeit läßt sich bei einer Normalverteilung wie folgt berech-
nen:
fk = fm − k ⋅σ , (6)

wobei fm der Mittelwert und σ die Standardabweichung sei. Ist der Mittelwert und die
Standardabweichung bekannt, so beträgt der k-Faktor für einen 5 %-Fraktilwert 1,645. In
der Regel aber ist weder der Mittelwert noch die Standardabweichung bekannt. Zwar kon-
vergiert der Mittelwert sehr schnell mit der Anzahl der Stichproben, aber diese Konver-
genz ist bereits bei der Ermittlung der Standardabweichung deutlich ungünstiger. Diese
Unsicherheit der Verteilungsparameter wird bei der Wahl des k-Faktors berücksichtigt, so
daß der k-Faktor von der Versuchsanzahl abhängt. Wenn man eine Normalverteilung und
einen 95 %-Vertrauensbereich unterstellt, ergibt sich z.B. für 15 Versuche k = 1,76 aus der
Student-t-Verteilung (Tab. 5). Bei sehr großen Stichproben erhält man wieder k = 1,645.
Mit diesen beiden genannten k-Werten und dem empirischen Mittelwert und der empiri-
schen Standardabweichung s erhält man:
104
Teilsicherheitsfaktoren für Natursteinmaterial

f k = f m − 1, 76 ⋅ s bzw. f k = f m − 1, 645 ⋅ s . (7)

Der Eurocode 1 [15], [13] legt etwas andere k-Werte fest. So ist dort der k-Faktors bei
15 Versuchen 1,84. Damit würde sich ergeben:
f k = f m − 1,84 ⋅ s . (8)

Tab. 6 listet verschiedene Regelungen gemäß verschiedener Normen für die Bestimmung
eines 5 %-Fraktilwertes im Betonbau auf.

Tab. 5: Faktoren gemäß Student-Verteilung (Freiheitsgrad = Stichprobenanzahl – 1)

Freiheitsgrad Fraktilwerte Freiheitsgrad Fraktilwerte


5% 2,5% 5% 2,5%
1 6,314 12,706 20 1,725 2,086
2 2,920 4,303 21 1,721 2,080
3 2,353 3,182 22 1,717 2,074
4 2,132 2,776 23 1,714 2,069
5 2,015 2,571 24 1,711 2,064
6 1,943 2,447 25 1,708 2,060
7 1,895 2,365 26 1,706 2,056
8 1,860 2,306 27 1,703 2,052
9 1,833 2,262 28 1,701 2,048
10 1,812 2,228 29 1,699 2,045
11 1,796 2,201 30 1,697 2,042
12 1,782 2,179 40 1,684 2,021
13 1,771 2,160 60 1,671 2,000
14 1,761 2,145 80 1,664 1,990
15 1,753 2,131 100 1,660 1,984
16 1,746 2,120 200 1,653 1,972
17 1,740 2,110 500 1,648 1,965
18 1,734 2,101 1000 1,646 1,962

105
Teilsicherheitsfaktoren für Natursteinmaterial

Tab. 6: Ermittlung charakteristischer Werte für die Betondruckfestigkeit

Vorschrift Forderung Bemerkungen


DIN 1045 fi ≥ f ck 7.4.3.5.2 Festigkeitsanforderungen
n=3 oder n=6 (2) Bei Beton gleicher Zusammensetzung
f m ≥ f ck + 5 und Herstellung darf jedoch jeweils einer
von 9 aufeinanderfolgenden die Nennfestig-
keit um höchstens 20 % unterschreiten;
dabei muß jeder Serien-Mittelwert von
3 aufeinanderfolgenden Würfeln die Werte
der Serienfestigkeit mindestens erreichen.
DIN 1084 f m ≥ f ck + 1, 64 ⋅ s Statistische Auswertung mit der Stich-
probenstandardabweichung s, mindestens
f m ≥ f ck + 1, 64 ⋅ σ jedoch s=3 N/mm2 bzw. mit der Standard-
abweichung der Grundgesamtheit σ, be-
stimmt aus 35 Festigkeitswerten oder
σ=7 N/mm2.
ENV 206: Kriterium 1 (mindestens 6 aufeinanderfol-
1990 gende Druckfestigkeitsprüfungen):
fi ≥ f ck − k
bzw. für n=15
f m ≥ f ck + λ ⋅ s
fi ≥ f ck − 4
f m ≥ f ck + 1, 48 ⋅ s
Kriterium 2 (n=3 aufeinanderfolgende
Druckfestigkeitsprüfungen)
fi ≥ f ck − 1
f m ≥ f ck + 5
prEN 206: Kriterium 1 Nachweis mit σ, wenn aus den letzten 15
1997 Ergebnissen eine Standardabweichung s1
f m ≥ f ck + 1 für n=2 bis 4 berechnet wird, die die folgende Vorausset-
f m ≥ f ck + 2 für n=5 bis 6 zung erfüllt:
0,63 ⋅ σ ≤ s1 ≤ 1,37 ⋅ σ
f m ≥ f ck + 1, 48 ⋅ σ für n ≥ 15
Kriterium 2
f i ≥ f ck − 4 für n=2 bis 6
f i ≥ f ck − 4 für n ≥ 15

E DIN 1045-3  2,58 


f i ≥ f ck +  1,645 +  ⋅σ für n > 6
 n 

f m ist der Mittelwert, f ck ist der charakteristische Wert und f i ist ein Einzelwert. Die er-
forderlichen Faktoren für die ENV 206: 1990 können in Abhängigkeit von der vorliegen-
den Stichprobenanzahl dieser Tabelle entnommen werden.
n 31) 41) 51) 6 7 8 9 10 11 12 13 14 15
λ 2,11 2,02 1,93 1,87 1,77 1,72 1,67 1,62 1,58 1,55 1,52 1,5 1,48
k 1 3 3 3 3 4 4 4 4 4 4
1)
Diese Werte finden sich nicht in der Vorschrift. Die Werte wurden von den Verfassern
extrapoliert.

106
Teilsicherheitsfaktoren für Natursteinmaterial

Die Berechnung eines 5 %-Fraktilwertes wird im folgenden an einem Beispiel dargestellt:


„ Beispiel:
Es sind 500 Druckfestigkeitswerte von Postaer Sandstein gegeben. Der Mittelwert der
Druckfestigkeit beträgt 58,05 MPa und die Standardabweichung 10,32 MPa. Es wird eine
Normalverteilung vorausgesetzt. Bei 500 Versuchen gilt k = 1,648. Für den charakteristi-
schen Wert der Druckfestigkeit gilt dann:
f st , k = 58, 05 MPa − 1, 648 ⋅10,32 MPa = 41, 04 MPa .
Zum Vergleich wird der charakteristische Wert von Postaer Sandstein basierend auf ver-
schiedenen Veröffentlichung abgeschätzt. Da hierbei der Stichprobenumfang nicht bekannt
ist, wird vereinfacht mit k = 1,645 gerechnet:
GRUNERT [19]: f st , k = f m − 1, 645 ⋅ σ = 45, 6 − 1, 645 ⋅11, 6 = 26,52 MPa
GRUNERT, GRUNERT & GRIEGER [18]: f st , k = f m − 1, 645 ⋅ σ = 31, 6 − 1, 645 ⋅ 6,8 = 20, 41 MPa
PESCHEL [31]: f st , k = f m − 1, 645 ⋅ σ = 41, 6 − 1, 645 ⋅11, 6 = 22,52 MPa .

2.1.2 Lognormalverteilung

Die Vorgehensweise für die Berechnung des 5 %-Fraktilwertes bei Annahme einer Log-
normalverteilung gestaltet sich analog zur Normalverteilung. Allerdings müssen die ein-
zelnen Stichprobenwerte zunächst logarithmiert werden.
L ' = y − k ⋅ s* = ln( L) (9)
n
yi
y =∑ mit yi = ln( xi ) (10)
i =1 n

∑( y − y )
2
i
(11)
s* = i =1

n −1
„ Beispiel:
Es liegen vier Druckfestigkeitsversuche von Natursteinmauerwerk aus Postaer Sandstein
aus historischem Baubestand vor. Für die Versuche ist die charakteristische Mauerwerks-
druckfestigkeit zu bestimmten.
Einzelwert in MPa Logarithmierte Einzelwerte
1 6,70 1,90
2 6,20 1,82
3 5,70 1,74
4 6,60 1,89
Mittelwert 6,30 1,84
Standardabweichung 0,39 0,06

Der charakteristische Wert der Mauerwerksdruckfestigkeit bei Annahme einer Normalver-


teilung ergibt sich zu: f mw, k = 6,30 MPa − 2,353 ⋅ 0,39 MPa = 5,37 MPa . Bei Annahme
einer Lognormalverteilung ergibt sich: f mw, k = exp(1,84 − 2,353 ⋅ 0, 06) = 5, 47 MPa .

107
Teilsicherheitsfaktoren für Natursteinmaterial

2.1.3 Weibullverteilung

Bei Annahme einer Weibullverteilung ergibt sich der 5 %-Fraktilwert:


1
 1 k (12)
f k =  − ln(1 − q )  .
 λ 
Bei den Faktoren λ und k handelt es sich um Verteilungsfaktoren der Weibullverteilung.
q ist die Wahrscheinlichkeit, in diesem Fall also 0,05. Die Werte berechnen sich wie folgt
aus dem Mittelwert
 1
f m = f 0 + λ −1/ k ⋅ Γ 1 +  (13)
 k
und der Standardabweichung
2
 2  1
σ =λ −1/ k
Γ 1 +  − Γ 1 +  (14)
 k  k .

„ Beispiel:
Für das Beispiel der vier Druckfestigkeitsversuche an Natursteinmauerwerk aus Postaer
Sandstein ergibt sich bei einem Mittelwert von 6,3 MPa und einer Standardabweichung von
0,39 MPa für k = 20,01 und für λ = 5,84×10-17. Damit erhält man für den 5 %-Fraktilwert:
1
 1  20,01
fk =  − −17
ln(0,95)  = 5,58 MPa .
 5,84 ⋅10 
2.1.4 LEICESTER-Methode

Ein weiteres Verfahren zur Schätzung von Fraktilwerten, aber ohne Wahl einer Wahr-
scheinlichkeitsfunktion, ist die LEICESTER-Methode. Dabei ergibt sich der 5 %-Fraktilwert
aus:
 2, 7 ⋅ v 
f m = A ⋅ 1 −  (15)
 n 

mit
n Anzahl der Versuche, möglichst größer als 30
v Variationskoeffizient, möglichst kleiner als 0,5
A 5 %-Fraktil, durch lineare Interpolation aus den Versuchsdaten ermittelt.
„ Beispiel:
Für die 500 Steindruckfestigkeitsversuche ergab sich aus den Versuchsdaten ein empiri-
scher 5 %-Fraktilwert zu 42,3 MPa. Die Ermittlung dieses Wertes läßt sich z.B. sehr ein-
fach mit dem Programm EXCEL und der Funktion Rang und Quantil im Menüpunkt
Analysefunktionen im Menü Extras durchführen. Ergibt sich kein exakter 5 %-Fraktilwert,
so wird zwischen den Werten darunter und darüber linear interpoliert. Der Variations-
koeffizient beträgt 0,177. Damit ergibt sich:
108
Teilsicherheitsfaktoren für Natursteinmaterial

 2, 7 ⋅ 0,177 
f m = 42,3 MPa ⋅ 1 −  = 42, 26 MPa .
 500 
2.1.5 ÖFVERBECK Power Limit

Als weiteres Verfahren sei das ÖFVERBECK Power Limit genannt. Mit Hilfe einer Konstan-
te ε kann aus einer vorgeschriebenen Anzahl von Versuchswerten q der 5 %-Fraktilwert
gemäß Gleichung (16) berechnet werden. Die Konstante ist in Abhängigkeit von der Ver-
suchsanzahl in Tab. 7 angegeben.
q −1
fk = x 1−ε
q ∏ xε
i =1
i
/( q −1)
. (16)

Tab. 7: Öferbecks Konstante in Abhängigkeit von der Versuchsanzahl

Anzahl der verwendeten,


Versuchs- Öfverbeck-Konstante
sortierten Versuchswerte
anzahl n ε
q
5 2 5,93
6 2 5,35
7 2 4,85
8 2 4,42
9 2 4,03
10 3 3,31
11 3 3,12
12 3 2,96
13 3 2,80
14 3 2,66
15 3 2,53
20 4 2,22
30 5 1,80
40 6 1,58
50 7 1,44

„ Beispiel:
Es wird wieder auf das Beispiel der Mauerwerksdruckversuche mit Postaer Sandstein zu-
rückgegriffen. Allerdings liegen nur vier Versuche vor. In Anlehnung an Tab. 7 wird die An-
zahl der verwendeten sortierten Versuchwerte q = 2 und die Öfverbeck-Konstante ε = 6,00
gewählt. Die sortierten Versuchsdaten lauten: 5,7, 6,2, 6,6 und 6,7 MPa, Damit ergibt sich:
q −1 2 −1
5, 7 6
f k = x1q−ε ∏ xiε /( q −1) = x12−6,00 ∏ xi = 6, 21−6 ⋅ 5, 7 6 /(2−1) = = 3, 74 MPa .
i =1 i =1 6, 25

2.1.6 Verfahren von JAEGER und BAKHT [22]

JAEGER und BAKHT [22] stellen ein Verfahren zur Schätzung von Fraktilwerten vor, wel-
ches eine Kombination mehrerer Wahrscheinlichkeitsfunktionen verwendet. Sie bezeich-
nen diese künstliche Verteilung als „log arc sinh normal polynomial-Verteilung“. Bei
Ansatz eines quadratischen Polynoms in der Verteilung und der Berücksichtigung des

109
Teilsicherheitsfaktoren für Natursteinmaterial

kleinsten, mittelsten und größten Versuchswertes kann man die folgenden Schritte abarbei-
ten, um einen Frakilwert abzuschätzen:
1. Schritt: Sortierung der Daten,
2. Schritt: Berechnung des Mittelwertes.
Dabei wird festgelegt: Bei einer ungeraden Anzahl von Versuchergebnissen (Stichproben)
ist der Mittelwert der mittlere Wert (also eigentlich der Median). Bei einer geraden Anzahl
von Versuchsergebnissen (Stichproben n = 2 k) sei der Mittelwert:
( f k + f k +1 )
fm = . (17)
2

3. Schritt: Für jedes Versuchsergebnis x wird ein y ermittelt:


f i 2 − f m2
yi = . (18)
2 ⋅ fi ⋅ f m

4. Schritt: Wähle einen charakteristischen Wert, z.B. ein 5 %-Fraktil. Wähle den entspre-
chenden k-Wert einer Normalverteilung, also für ein 5 %-Fraktil k = z* = -1,645.
5. Schritt: Wähle aus der folgenden Tabelle ein z1 entsprechend der Versuchsanzahl n.

Tab. 8: z1-Werte

Versuchsan- z1
zahl n
10 -1,34
11 -1,38
12 -1,43 Als Näherung kann empfohlen werden:
13 -1,47 z1 = −0,8004 − 0,0649 ⋅ n + 0,0011 ⋅ n 2
14 -1,50
15 -1,53
16 -1,56
17 -1,59
18 -1,62
19 -1,65
20 -1,67

6. Schritt: Ermittle den charakteristischen y-Wert.


2
 y − y  z   y + y  z 
* *
*
y =  1 n   +  1 n   . (19)
 2   z1   2   z1 

7. Schritt:

f k = f m ( y* + 1 + ( y* ) 2 . (20)

Das vorgestellte Verfahren wird von JAEGER und BAKHT als das numerisch stabilste be-
zeichnet. Es gibt aber auch Variationen des Verfahrens. Sie umfassen neben der Erhöhung
110
Teilsicherheitsfaktoren für Natursteinmaterial

des Polynomgrades auch die Wahl anderer Punkte. Entscheidet man sich z.B. nicht für den
kleinsten, mittelsten und größten Versuchswert, sondern für den kleinsten, mittelsten und
zweitkleinsten Wert, erhält man eine geringfügig andere Näherung für den Fraktilwert.

„ Beispiel:
Bei der Prüfung von 15 Granitkörpern wurde die Biegezugfestigkeit ermittelt. Die einzel-
nen auf eine Höhe bezogenen Biegezugfestigkeiten finden sich in der folgenden sortierten
Tabelle:
Lfd. Nr. Biegezugfestigkeit in MPa Prozent yi
1 14,710 100,00% 0,35106
2 12,802 92,80% 0,20674
3 12,700 85,70% 0,19858
4 12,506 78,50% 0,18291
5 11,150 71,40% 0,06719
6 10,829 64,20% 0,03793
7 10,822 57,10% 0,03729
8 10,426 50,00% 0,00000
9 10,208 42,80% -0,02113
10 10,002 35,70% -0,04153
11 9,919 28,50% -0,04987
12 9,664 21,40% -0,07597
13 9,412 14,20% -0,10250
14 6,281 7,10% -0,52875
15 4,233 ,00% -1,02851

Gemäß Schritt 2 ergibt sich: f m = 10, 426 MPa . Die einzelnen Werte für y finden sich in
der Tabelle (Schritt 3). Es soll ein 5 %-Fraktilwert der Biegezugfestigkeit ermittelt werden,
so daß z* = -1,645 und z1= 1,53 gilt. Damit erhält man
2
*  −1, 0286 − 0,351   −1, 645   −1, 0286 + 0,351   −1, 645 
y =  +   = −1,133
 2   −1,53   2   −1,53 

( )
f k = 10, 426 MPa ⋅ −1,133 + 1 + (−1,133) 2 = 3,94 MPa .

2.2 Teilsicherheitsfaktor
2.2.1 Allgemeines

Wie bereits erwähnt, wirkt der charakteristische Wert der Festigkeit und der Teilsicher-
heitsfaktor zusammen, um die erforderliche Sicherheit zu realisieren. Deshalb ist nach der
Abschätzung des charakteristischen Wertes auch die Bestimmung des Teilsicherheits-
faktors notwendig und möglich. Laut Eurocode 1 [14] gibt es zwei Möglichkeiten, den
Teilsicherheitsfaktor festzulegen:

111
Teilsicherheitsfaktoren für Natursteinmaterial

„a) Die erste ... erfolgt auf der Grundlage einer Ausrichtung an langer und erfolgreicher
Geschichte der Bautradition. Für die meisten vorgeschlagenen Beiwerte in den vorliegen-
den Eurocodes ist dies das leitende Prinzip.
b) Ein zweiter Weg ruht auf der Grundlage statistischer Auswertung von Versuchsdaten
und Baustellenbeobachtungen. Dieser Weg sollte im Rahmen einer probabilistischen Wahr-
scheinlichkeitstheorie beschritten werden.“
Es ist jedoch nicht immer notwendig, eine vollprobabilistische Berechnung durchzuführen.
Vielmehr existieren vereinfachte Verfahren in Anlehnung an probabilistische Berechnun-
gen. Solch ein vereinfachtes Verfahren zur Ermittlung des Teilsicherheitsfaktors wird z.B.
in der GruSiBau vorgestellt.
2.2.2 Teilsicherheitsfaktor gemäß GruSiBau [28]

Laut GruSiBau, Abschnitt 6.1 [28], dürfen die Streuungen der Einwirkungs- und Wider-
standseite entkoppelt betrachtet werden. Für die Ermittlung des Bemessungswertes gilt:
f d = f m − α Ri ⋅ α R ⋅ β ⋅ σ R mit α R = 0,8 , α R1 = 1, 0 , α Ri = 0, 4 für i>1 und β = 3,8 ± 0,5 . Der
Teilsicherheitsfaktor ergibt sich dann zu:
fk
γ= .
fd
„ Beispiel:
Der charakteristische Wert der Steindruckfestigkeit für Postaer Sandstein wurde mit
f st , k = 58, 05 MPa − 1, 648 ⋅10,32 MPa = 41, 04 MPa

ermittelt. Für den Bemessungswert ergibt sich nach GruSiBau:


f d = f m − α ⋅ β ⋅ σ = 58, 05 − 0,8 ⋅ 3,8 ⋅10,32 = 26, 657 MPa .

Für den Teilsicherheitsfaktor erhält man dann:


f k 41, 04 MPa
γ= = = 1,54 .
f d 26, 66 MPa

2.2.3 Eurocode 1 [13],[14], [15]

Der Eurocode 1 [14] verwendet das gleiche Verfahren wie die GruSiBau. Allerdings wird
die Entkopplung der Einwirkungs- und Widerstandsseite geprüft. Dazu muß die folgende
Bedingung der Standardabweichungen von Einwirkung und Widerstand eingehalten wer-
den:
σS
0,16 < < 7, 6 .
σR
Weiterhin werden für die Ermittlung des Bemessungswertes seit der Ausgabe vom August
1994 (Deutsche Fassung Oktober 1994) [14] in Anhang A Abschnitt A 3 sowohl für die
Normal- als auch für Lognormalverteilung die Formeln angegeben:

 σ
f d = f m − α ⋅ β ⋅ σ und f d = f m ⋅ exp  −α ⋅ β ⋅  mit α = 0,8 .
 f 

112
Teilsicherheitsfaktoren für Natursteinmaterial

Im Eurocode 1 findet sich seit der Fassung Februar 2000 bzw. Januar 2001 ein zusätzlicher
Faktor η, der Versuchsbedingungen oder besondere Eigenschaften des Baustoffe, wie z.B.
die Dauerstandsfestigkeit, bei der Berechnung des Teilsicherheitsfaktors berücksichtigen
soll:

fk
γ =η ⋅ .
fd
2.2.4 Australian Standard Procedure for Statistical Proof Loading (ASL) [35]

Der Bemessungswert einer Widerstandsgröße ermittelt sich nach dieser australischen Vor-
schrift zu:
f min,n
fd = (21)
φ

mit fd als Bemessungswert, fmin,n als Minimalwert der Widerstandsgröße, der bei n Versu-
chen nicht unterschritten wurde und φ als Korrekturfunktion. Die Korrekturfunktion ist an
einen Faktor k gekoppelt, der den Einfluß des Vertrauensbereiches, der Versuchsanzahl
und des gewählten Fraktilwerts berücksichtigt:
VR
 ln(1 − c) 
k ( p , c, n ) =   (22)
 n ⋅ ln(1 − p) 

mit c als Vertrauensbereich (üblicherweise 50 % oder 90 %), n Anzahl der Versuche und p
gewählter Fraktilwert (üblicherweise 5 %-Fraktil für Widerstandsgrößen). Damit kann der
charakteristische Wert der Widerstandsgröße wie folgt ermittelt werden:
f min, n
fk = (23)
k ( p , c, n ) .

Der Wert für φ muß der Vorschrift entnommen werden. Als Beispiel sei ϕ für eine weibull-
verteilte Widerstandsgröße mit einem Variationskoeffizient von 0,2, einer lognormal-
verteilten Belastung mit einem Variationskoeffizient von 0,3 und einem Zielsicherheits-
index von 3 angegeben.

Tab. 9: φ -Werte

Anzahl der
Versuche c= 90% c= 50%
1 3,92 3,00
2 3,36 2,57
3 3,07 2,34
4 2,88 2,20
5 2,73 2,09
6 2,63 2,01
7 2,54 1,94
8 2,46 1,88
9 2,40 1,83
10 2,34 1,79

113
Teilsicherheitsfaktoren für Natursteinmaterial

Bei einer höheren Versuchsanzahl kann φ für c=90 % mittels φ = 3,9232 ⋅ n −0,2239 geschätzt
werden. Der Teilsicherheitsfaktor ist dann der Quotient aus der charakteristischen Festig-
keit und dem Bemessungswert:
fk
γ= . (24)
fd
„ Beispiel:
Die Spaltzugfestigkeitsprüfung von 59 Prüfkörpern aus Rotem Mainsandstein mit einem
Mittelwert von 4,72 MPa, einem Kleinstwert von 1,55 MPa und einem Variationskoeffizient
von 0,278 ergibt:
0,278
 ln(1 − 0,9) 
k ( p , c, n ) =   = 0,927
 59 ⋅ ln(1 − 0, 05) 
f min,n 1,55
fk = = = 1, 672 MPa
k ( p , c, n ) 0,927

ϕ = 3,9232 ⋅ n −0,2239 = 3,9232 ⋅ 59−0,2239 = 1,57


f min,n 1,55
fd = = = 0,98 MPa
ϕ 1,57
f k 1,57 MPa
γ= = = 1, 6 .
f d 0,98 MPa
Für den Teilsicherheitsfaktor erhält man 1,6 und der Bemessungswert liegt bei 0,98 MPa.

2.2.5 Australian Standard Procedure for Probabilistic Load Testing (APL) [35]

In dieser Vorschrift wird der Bemessungswert der Widerstandsgröße als Produkt aus einer
Korrekturfunktion und dem Verhältnis von Labor- zu Baustellenwerten ermittelt.
fm
Bemessungswert für die Widerstandsgröße f d = φT (25)
msf

 vr2 
Korrekturfaktor φT = 2,115 ⋅ exp  − − 3 ⋅ vr2 + 0,32  (26)
 2 
Variationskoeffizient der Widerstandsgröße vr2 = Cn ⋅ vl2 + vs2 (27)
n −1
Varianz der Tests Cn = 1 + . (28)
n(n − 3)

Dabei sind φt Korrekturfaktor, fm Mittelwert des Widerstandes bei den Versuchen, msf Kor-
rekturfaktor zur Beschreibung der Unterschiede zwischen Labor und Baustelle, n Anzahl der
Versuche, vl Variationskoeffizient der Versuche, vs Faktor, der die Entnahme der Proben be-
wertet: für konzentrierte Entnahme vs = 0,1 und für breit gefächerte Entnahme vs = 0. Grund-
lage für das Verfahren ist die Annahme lognormalverteilter Widerstands- und Belastungs-
größen. Für die Belastungsgröße gilt ein Variationskoeffizient von 0,3, der Zielsicherheitsin-
dex liegt bei 3,0.

114
Teilsicherheitsfaktoren für Natursteinmaterial

„ Beispiel:
Auch hier soll wieder die Spaltzugfestigkeit des Roten Mainsandstein geprüft werden:
n −1 59 − 1
Cn = 1 + = 1+ = 1, 017
n(n − 3) 59 ⋅ (59 − 3)

vr2 = 1, 017 ⋅ 0, 278l2 + 0,12 = 0, 089

 0, 089 
φT = 2,115 ⋅ exp  − − 3 ⋅ 0, 089 + 0,32  = 0,569
 2 
fm 4, 72
f d = φT = 0,569 ⋅ = 2, 687 MPa .
msf 1

Der Bemessungswert liegt deutlich über dem Wert des ASL-Verfahrens.

2.2.6 Standard für Probabilistische Tragfähigkeitsversuche (AISI) [35]

Die AISI-Vorschrift benutzt ebenfalls einen Produktansatz für den Entwurfswert mit
fd = φ ⋅ fm (29)
mit der Korrekturfunktion φ = 1,5 ⋅ M m ⋅ Fm ⋅ exp(− β ⋅ v0 ) , (30)

Variationskoeffizient v0 = vm2 + v 2f + Cv 2p + vq2 (31)

n −1
und dem Test-Varianz-Korrektur-Faktor C = . (32)
(n − 3)

Dabei sind fm Mittelwert der bei den Versuchen ermittelten Widerstandsgröße, Mm, Fm Mit-
telwerte eines Materialfaktors und eines Produktionsfaktors, β Zielsicherheitsindex, vm Va-
riationskoeffizient des Materialfaktors, vf Variationskoeffizient des Produktionsfaktors, vp
Variationskoeffizient der Versuche, vq Variationskoeffizient der Last sowie C Korrekturfak-
tor für die Varianz während der Versuche. Alle Zufallsgrößen wurden als lognormalverteilt
angenommen. Der Korrekturfaktor C wurde mit einer Student-t-Verteilung geschätzt.
„ Beispiel:
Auch hier soll wieder die Spaltzugfestigkeit des Roten Mainsandstein geprüft werden:
n −1 59 − 1
C= = = 1, 035
(n − 3) (59 − 3)

v0 = vm2 + v 2f + Cv 2p + vq2 = 0, 012 + 0,12 + 1, 035 ⋅ 0, 2782 + 0, 012 = 0,3

φ = 1,5 ⋅ M m ⋅ Fm ⋅ exp(− β ⋅ v0 ) = 1,5 ⋅1, 0 ⋅1, 0 ⋅ exp(−4, 2 ⋅ 0,3) = 0, 425


f d = φ ⋅ f m = 0, 425 ⋅ 4, 72 MPa = 2, 01 MPa

Der Bemessungswert liegt deutlich über dem Wert des ASL-Verfahrens und unterhalb des
APL-Verfahrens.

115
Teilsicherheitsfaktoren für Natursteinmaterial

2.2.7 Verfahren nach REID [35]

Reid hat für weibullverteilte Widerstandsgrößen eine verbesserte Formel für φ entwickelt.
Die Formel liegt den Autoren nicht in geschlossener Form, sondern nur in Form einer
Tabelle vor. Die Werte wurden für einen Variationskoeffizient der Widerstandsgröße von
0,2 und einen Zielsicherheitsindex von 3 ermittelt. Ansonsten gelten alle Angaben nach
dem APL-Verfahren. Aus [35] können die exakten Werte für φ durch lineare Interpolation
geschätzt werden.

Tab. 10: Verbesserte φ -Werte nach REID

vr 0,001 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1
φ 0,6200 0,5800 0,4100 0,2300 0,1200 0,0500 0,0200 0,0150 0,0100 0,0050 0,0001

„ Beispiel:
Das Beispiel gilt wieder für die Spaltzugfestigkeit des Roten Mainsandsteins:
vr2 = 1, 017 ⋅ 0, 278l2 + 0,12 = 0, 089

vr = 0, 089 = 0, 298

φT = 0, 23
fm 4, 72
f d = φT = 0, 23 ⋅ = 1, 08 MPa .
msf 1

2.2.8 MURZEWSKI - CEB

In MURZEWSKI [26] finden sich Angaben zur Wahl von Teilsicherheitsfaktoren in Abhän-
gigkeit vom Variationskoeffizient. Weiterhin unterscheidet sich der Teilsicherheitsfaktor
auch noch nach der Bedeutung des Bauwerkes. Diese sogenannten Bauwerksklassen fin-
den sich teilweise in der Literatur auch für die Sicherheitsanforderungen von Bauwerken.
Bei Bauwerken, in denen eine große Anzahl von Menschen ist, wird in der Regel eine sehr
hohe Sicherheit gefordert. Die vorgeschlagenen Teilsicherheitsfaktoren sind in Tab. 11 und
Tab. 12 zusammengestellt.

Tab. 11: Optimale Werte der Teilsicherheitsfaktoren für lognomalverteilte Größen

Bauwerksklasse Variationskoeffizient
0,05 0,10 0,15 0,20
Staumauern 1,26 1,58 1,95 2,43
Eisenbahn- und Straßenbrücken, 1,23 1,49 1,82 2,16
Kulturhäuser, Theater
Wohnhäuser, Industriebauten 1,20 1,40 1,65 1,91
Lager, Bunker, Gerüste 1,15 1,31 1,46 1,62
Zweitrangige Bauelemente 1,10 1,17 1,22 1,25

116
Teilsicherheitsfaktoren für Natursteinmaterial

Tab. 12: Optimale Werte der Teilsicherheitsfaktoren für nomalverteilte Größen

Bauwerksklasse Variationskoeffizient
0,05 0,10 0,15 0,20
Staumauern 1,24-1,30 1,46-1,85
Eisenbahn- und Straßenbrücken, 1,21-1,26 1,41-1,67 1,60-2,47
Kulturhäuser, Theater
Wohnhäuser, Industriebauten 1,18-1,22 1,35-1,53 1,50-2,00 1,65-2,86
Lager, Bunker, Gerüste 1,15-1,16 1,27-1,37 1,38-1,61 1,49-1,92
Zweitrangige Bauelemente 1,10-1,11 1,17-1,19 1,21-1,25 1,23-1,28
„ Beispiel:
Die Spaltzugfestigkeitswerte des Roten Mainsandsteins besaßen einen Variationskoeffi-
zient von 0,278. Auf Grund der hohen Standardabweichung von 1,31 MPa und des gerin-
gen Mittelwertes von ca. 4,7 MPa wird eine Lognormalverteilung gewählt, um negative
Werte auszuschließen. Damit ergibt sich ein Teilsicherheitsfaktor bei Brücken von 2,69.
Der Wert wurde linear extrapoliert.

2.3 Vollprobabilistische Rechnung


Gemäß Normenwerk (Eurocode 1, GruSiBau oder DIN 1055-100) darf man die Sicher-
heitselemente auch über eine vollprobabilistische Rechnung ermitteln. Der Teilsicherheits-
faktor wird dann aus dem in der probabilistischen Berechnung ermittelten Bemessungswert
und dem charakteristischen Wert berechnet. Auf die Durchführung einer probabilistischen
Berechnung wird an dieser Stelle nicht weiter eingegangen, siehe hierzu SPAETHE [40].
Beispielhaft werden die Ergebnisse einer solchen Berechnung hier aber gezeigt
„ Beispiel:
Eine vollprobabilistische Berechnung für die Biegetragfähigkeit eines Graniteinfeldträgers
mit fünf streuenden Eingangsgrößen erbrachte folgende Ergebnisse:
FORM NACH RACKWITZ-FIEßLER
BETA= 3.412650346755980 (Sicherheitsindex)
PF = 3.217227955159460D-004 (operative Versagenswahrscheinlichkeit)
SORM NACH BREITUNG
BETA= 3.286201930389830
PF = 0.000508164862933
SORM NACH KOEYLUEOGLU / NIELSEN 1 GLIED
BETA= 3.334328976328580
PF = 4.278674262343520D-004
SORM NACH KOEYLUEOGLU / NIELSEN 3 GLIEDER
BETA= 3.294599440799100
PF = 0.000493218468959
SORM NACH CIA / ELISHAKOFF
BETA= 3.293368183562280
PF = 0.000495384168923

Neben dem Sicherheitsindex und der Versagenswahrscheinlichkeit ergab die Berechnung


für die Biegezugfestigkeit:
X = 3.692605375906770 (Bemessungswert)
XM = 10.400000000000000 (Mittelwert)
SIGM= 2.560000000000000 (Standardabweichung)
ALPHA= -0.971570410864827 (Wichtungsfaktor)

Aus dem Bemessungswert und einer vorher ermittelten charakteristischen Biegezugfestig-


keit ergibt sich der Teilsicherheitsfaktor zu:

117
Teilsicherheitsfaktoren für Natursteinmaterial

f k 5,32 MPa
γ= = = 1, 44 .
f d 3, 69 MPa

3 Anwendung für Natursteinmaterial


3.1 Allgemeines
Nach der Erläuterung der Verfahren und der Beispiele werden im folgenden Berechnungs-
ergebnisse von charakteristischen Festigkeitswerten und Teilsicherheitsfaktoren sowohl
von Natursteinmaterial als auch von Natursteinmauerwerk vorgestellt. Dazu werden zu-
nächst die statistischen Eigenschaften der Festigkeiten genannt.

3.2 Druck- und Spaltzugfestigkeit von Sächsischem Sandstein


Zunächst handelt es sich um Angaben zur Festigkeit von Sächsischem Sandstein (Postaer
Sandstein). Grundlage der Arbeit waren Materialproben aus dem Steinbruch Lohmen. Die
Proben betrafen die Steindruckfestigkeit und die Steinspaltzugfestigkeit. Es konnten je-
weils 500 Stichproben verwendet werden. Durch die große Stichprobenanzahl können die
Festigkeitseigenschaften relativ gut statistisch abgesichert werden. Das beinhaltet z.B. auch
eine Wertung der Korrelation zwischen Steindruckfestigkeit und Steinspaltzugfestigkeit
oder die Prüfung auf Mischverteilungen. In Tab. 13 sind die statistischen Parameter der
Druckfestigkeit und in Tab. 14 die Werte der Steinspaltzugfestigkeit zusammengefaßt.
Abb. 2 zeigt ein Histogramm der Stichproben der Steindruckfestigkeit und Abb. 3 zeigt ein
Histrogramm der Stichproben der Steinspaltzugfestigkeit. Es sei an dieser Stelle aber noch
einmal erwähnt, daß die visuelle Darstellung in Histogrammen von der Wahl der Klassen
abhängt. Angaben zur Wahl der optimalen Klassen finden sich z.B. in [32].

Tab. 13: Statistische Eigenschaften der Stichproben der Steindruckfestigkeit

Mittelwert 58,051 Standardfehler 0,459 Kurtosis 1,232


Median 57,400 Standardabweichung 10,319 Variationskoeffizient 0,177
Modalwert - Varianz 106,472 Schiefe 0,518
Minimum 30,200 Summe 29316,00 bez. Schiefe 0,109
Maximum 99,700 Spannweite 69,50 Anzahl 505,000

Tab. 14: Statistische Eigenschaften der Stichproben der Steinspaltzugfestigkeit

Mittelwert 4,803 Standardfehler 0,034 Kurtosis 1,029


Median 4,830 Standardabweichung 0,764 Variationskoeffizient 0,159
Modalwert - Varianz 0,583 Schiefe -,376
Minimum 2,040 Summe 2425,630 bez. Schiefe 0,109
Maximum 7,300 Spannweite 5,260 Anzahl 505,000

In der Literatur findet man für die mittlere Druckfestigkeit von Postaer Sandstein auch
deutlich kleinere Werte. So sei auf GRUNERT [19] (45,6 MPa), auf GRUNERT, GRUNERT
und GRIEGER [18] (31,6 MPa), auf PESCHEL [31] (41,6 MPa) und auf JÄGER und WENZEL
[21] (43,1 MPa) verwiesen. Dagegen findet sich bei PURTAK [34] ein vergleichbarer Wert
(56 MPa).

118
Teilsicherheitsfaktoren für Natursteinmaterial

Abb. 2: Histogramm der Steindruckfestigkeit

Abb. 3: Histogramm der Steinspaltzugfestigkeit

119
Teilsicherheitsfaktoren für Natursteinmaterial

3.3 Druck- und Spaltzugfestigkeit von Rotem Mainsandstein


Die nächste Untersuchung beinhaltet die Ermittlung des Teilsicherheitsfaktors für Roten
Mainsandstein. Dazu wurden an einem historischen Bauwerk Bohrungen durchgeführt.
Aus den Bohrkernen wurden Druckfestigkeits- und Spaltzugfestigkeitsprobekörper aus
Rotem Mainsandstein gewonnen. Auf Grund von Problemen bei der Prüfkörpergewinnung
ergeben sich unterschiedliche Stichprobenanzahlen für die beiden Eigenschaften. Die stati-
stischen Eigenschaften sind in Tab. 15 und in Tab. 16 zusammengefaßt. Eine graphische
Darstellung der Stichprobenwerte zeigen die Histogramme in Abb. 4 und Abb. 5.

Tab. 15: Statistische Eigenschaften der Stichproben der Steindruckfestigkeit

Mittelwert 75,42 Standardfehler 1,730 Kurtosis -0,447


Median 76,00 Standardabweichung 21,325 Variationskoeffizient 0,282
Modalwert Varianz 454,749 Schiefe 0,173
Minimum 23,00 Summe 11464,000 bez. Schiefe 0,199
Maximum 131,0 Spannweite 108,000 Anzahl 152,00

Tab. 16: Statistische Eigenschaften der Stichproben der Steinspaltzugfestigkeit

Mittelwert 4,716 Standardfehler 0,171 Kurtosis 0,946


Median 4,630 Standardabweichung 1,314 Variationskoeffizient 0,278
Modalwert Varianz 1,727 Schiefe 0,473
Minimum 1,550 Summe 278,230 bez. Schiefe 0,319
Maximum 9,020 Spannweite 7,470 Anzahl 59,000

An den Stichprobenwerten wurden zusätzlich Untersuchungen zur Bestimmung der Wahr-


scheinlichkeitsfunktion, der Untersuchung auf Multimodalität und eine Untersuchung auf
Ausreißer durchgeführt. Ausreißer sind Stichproben, die als nicht zur Grundgesamtheit
gehörend erkannt werden. Diese Werte werden entfernt. Solche Ausreißer können z.B.
Steine aus einem anderen Steinbruch oder bereits beschädigte Steine sein. In solchen Fäl-
len kann jedoch auch eine sogenannte Zensierung der Daten aufgetreten sein. Eine Zensie-
rung von Daten führt dazu, daß die Stichproben gefiltert werden. Im vorliegenden Fall
können z.B. nur Steine geprüft werden, die nicht bereits beim Bohren zerstört worden sind.
Eine Zensierung von Daten behindert den Zugriff auf die Grundgesamtheit. Es gibt jedoch
Methoden, um aus zensierten Daten wieder die statistischen Eigenschaften der Grund-
gesamtheit abzuschätzen (siehe z.B. PROSKE [32]).

120
Teilsicherheitsfaktoren für Natursteinmaterial

Abb. 4: Histogramm der Steindruckfestigkeit

Abb. 5: Histogramm der Steinspaltzugfestigkeit

121
Teilsicherheitsfaktoren für Natursteinmaterial

3.4 Biegezugfestigkeit Granitsteindecker


Im Rahmen einer Untersuchung der Tragfähigkeit von sogenannten Granitsteindeckern in
der Lausitz wurde die Biegetragfähigkeit untersucht. Dazu wurden über 20 Versuche an
Steindeckern in Originalgröße mit bis zu 2,0 m langen Probekörpern durchgeführt. Eine
genauere Erläuterung der Versuchsdurchführung und der Ermittlung der Teilsicherheits-
faktoren findet sich in CURBACH, GÜNTHER und PROSKE [6].

3.5 Teilsicherheitsfaktor für das BERNDTsche Modell


Für die Bestimmung eines Teilsicherheitsfaktors von Natursteinmauerwerk aus Postaer
Sandstein wurden die von BERNDT vorgestellten Versuche verwendet [2]. Auf Grund der
geringen Stichprobenanzahl und der hohen Unsicherheiten bei der Beschreibung von
Natursteinmauerwerk [45] werden zusätzlich statistische Parameter aus der Literatur ver-
wendet. Dazu wurden Angaben von GRUNERT [19], GRUNERT, GRUNERT und GRIEGER
[18], PESCHEL [31] und PURTAK [34] herangezogen. Zum Vergleich wurde weiterhin die
Arbeit von STIGLAT [41] verwendet, auch wenn in dieser nicht die Druckfestigkeit von
Sandsteinmauerwerk mit Postaer Sandstein untersucht wurde. Es sei zusätzlich auf die ho-
he Modellunsicherheit der Berechnungsansätze für die Abschätzung der Mauerwerks-
druckfestigkeit von Natursteinmauerwerk hingewiesen. Den Autoren sind über 30 Ansätze
zur Berechnung der Mauerwerksdruckfestigkeit bekannt. Tab. 17 zeigt die erheblichen
Unterschiede zwischen einer experimentell bestimmten Mauerwerksdruckfestigkeit und
den Rechenprognosen. Für die Verteilung der Mauerwerksdruckfestigkeit wird eine Nor-
malverteilung angenommen (PROSKE und CURBACH [9], KIRTSCHIG [23], FRANKE,
DECKELMANN & GORETZKY [17]).

Tab. 17: Vergleich zwischen experimenteller und berechneter Mauerwerksdruckfestigkeit


nach WARNECKE, ROSTASY & BUDELMANN [45]

Regelmäßiger Schichtenverband be- Regelloser Verband


hauener Velpker Sandstein bruchrauher Elmkalkstein
Mörtel M I Mörtel M III Mörtel M I
fD,Mö=7,5 MPa fD,Mö=29,0 MPa fD,Mö=7,5 MPa
h/d=5 h/d=10 h/d=5 h/d=10 h/d=5 h/d=10
Experimentelle Druckfestigkeit 10 13,1 25,2 21,2 5,1 4,5
Berechnet nach HILSDORF 45 67,5 12,5
Berechnet nach BERNDT 20,3 20,3 5,1
Berechnet nach SABHA 22 40 12,5
Berechnet nach SABHA mit ü 18,7 34 7,5
Berechnet nach MANN 60,8 226,5 16,5
Berechnet nach 6 93,9 1,6
MANN+DIN Mörtel

4 Zusammenfassung
Nach der Vorstellung der Verfahren zur Ermittlung der charakteristischen Festigkeiten, der
Teilsicherheitsfaktoren und der Erläuterung der statistischen Kenngrößen der Festigkeiten
werden im folgenden die ermittelten Werte aufgeführt.

122
Teilsicherheitsfaktoren für Natursteinmaterial

Tab. 18: Druckfestigkeit von Postaer Sandstein (Steinbruch Lohmen)


Norm Charakteristische Druckfestigkeit in MPa Teilsicherheitsfaktor
Normalverteilung 41,04
Lognormalverteilung 42,60
Leicester 42,26
GruSiBau (23,49 Bemessungswert) 1,80
Reid (18,84 Bemessungswert) 2,50
ASL (18,27 Bemessungswert) 2,50
APL (42,53 Bemessungswert) 1,00
AISI (36,98 Bemessungswert) 1,10
Murzewski 1,90

Tab. 19: Spaltzugfestigkeit von Postaer Sandstein (Steinbruch Lohmen)


Norm Charakteristische Druckfestigkeit in MPa Teilsicherheitsfaktor
Normalverteilung 3,5
Lognormalverteilung 3,6
Weibullverteilung 3,3
Reid 1,67 (0,452 Bemessungswert) 3,70
ASL 3,0 2,30
APL 3,5 1,00
AISI 3,5 (3,134 Bemessungswert) 1,12
Murzewski 1,90

Tab. 20: Druckfestigkeit von Rotem Mainsandstein (Lohr)


Norm Charakteristische Druckfestigkeit in MPa Teilsicherheitsfaktor
Normalverteilung 41,04
Lognormalverteilung 47,47
GruSiBau 4,40 (Bemessungswert) 9,23
Reid 32,44 (8,759 Bemessungswert) 3,74
AISI 42,26 (9,89 Bemessungswert) 2,30
APL 42,68 Bemessungswert 1,00
ASP 32,44 (14,68 Bemessungswert) 2,21
Murzewski 2,30

Tab. 21: Spaltzugfestigkeit von Rotem Mainsandstein (Lohr)


Norm Charakteristische Druckfestigkeit in MPa Teilsicherheitsfaktor
Normalverteilung 2,57
Lognormalverteilung 2,78
Weibullverteilung 2,49
GruSiBau 3,20
Reid 1,67 (1,08 Bemessungswert) 1,54
ASL (0,984 Bemessungswert) 1,70
APL (2,687 Bemessungswert) 1,00
AISI (2,00 Bemessungswert) 1,30
Murzewski 2,50

123
Teilsicherheitsfaktoren für Natursteinmaterial

Tab. 22: Biegezugfestigkeit Granitsteindecker (Curbach, Günther und Proske [6])


Norm Charakteristische Biegezugfestigkeit in MPa Teilsicherheitsfaktor
Normalverteilung 5,89-6,19
Lognormalverteilung 5,95-6,16
Weibullverteilung 5,98
Eurocode 1 5,68
Leicester Methode 5,32
Öfverbeck Methode 2,05
Verfahren Jaeger 3,94
GruSiBau 5,32-7,27 (2,62-4,75 Bemessungswert) 2,03-1,53
Reid 2,93-3,21 (1,69-1,86 Bemessungswert) 1,73-1,72
AISI 5,32-7,27 (4,48-5,89 Bemessungswert) 1,19-1,23
APL 5,32-7,27 (6,18-7,31 Bemessungswert) <1,00
ASL 3,23-5,07 (1,92-2,73 Bemessungswert) 1,68-1,86
Prob. Rechnung c 5,32-7,27 (4,85-4,99 Bemessungswert) 1,10-1,46

Tab. 23: Sandsteinmauerwerk nach Berndt [2]


Norm Charakteristische Druckfestigkeit in MPa Teilsicherheitsfaktor
Normalverteilung 3,26-6,43
Lognormalverteilung 4,10-7,69
Weibullverteilung 5,58
Eurocode 1 5,69-8,45
Leicester Methode 8,80-11,40
Öfverbeck Methode 2,44-4,25
GruSiBau 1,57
Reid 2,47
ASL 1,89
Murzewski 1,23-3,00
Zum Vergleich Daten von STIGLAT [41]
Normalverteilung 9,51
Lognormalverteilung 9,54
Die Materialunabhängigkeit der Verfahren zeigt die folgende Tabelle. Hier wurde der Teil-
sicherheitsfaktor für hochfesten Beton unter zweiaxialer Belastung ermittelt (CURBACH,
HAMPEL, SPECK, SCHEERER, PROSKE [7])

Tab. 24: Hochfester Beton unter zweiaxialer Beanspruchung

Norm Charakteristische Druckfestigkeit in MPa Teilsicherheitsfaktor


Normalverteilung 112,93-119,70
Lognormalverteilung 113,75-119,90
Weibullverteilung
Eurocode 1
Leicester Methode 120,65
Öfverbeck Methode 116,85
Jaeger 119,26
AISI 119,76 1,30
Reid 114,6 1,67
APL 120,29 1,16
Murzewski 1,50

124
Teilsicherheitsfaktoren für Natursteinmaterial

Die Teilsicherheitsfaktoren für das Natursteinmaterial zeigen nicht nur große Unterschiede,
sondern im Vergleich zu den üblichen Baustoffen sehr hohe Werte. Diese hohen Werte
basieren auf den großen vorgefundenen Streuungen der Natursteinfestigkeiten. Eine Über-
tragung der Steinteilsicherheitsfaktoren auf das Mauerwerk scheint aber nicht notwendig
zu sein, da Mauerwerk in der Regel ein hohes Umlagerungsvermögen aufweist. Insofern
erscheint der deutlich geringe Teilsicherheitsfaktor des Natursteinmauerwerks berechtigt
und findet sich auch in der Literatur.
So empfiehlt der UIC-Kodex [42] für die Nachrechnung von historischen Eisenbahnbrük-
ken einen Teilsicherheitsfaktor für Natursteinmauerwerk von 2,0. Wenn man berücksich-
tigt, daß der UIC-Kodex eine große Spannweite der Qualität von Natursteinmauerwerk
erfaßt und auf der anderen Seite Quadermauerwerk aus Sächsischem Sandstein in der Re-
gel ein sehr hochwertiges Mauerwerk ist, so erscheint der Teilsicherheitsfaktor von 1,7-2,0
durchaus plausibel. Der Teilsicherheitsfaktor sollte jedoch nicht ohne weitere Untersu-
chungen auf andere Arten von Natursteinmauerwerk übertragen werden.

5 Literatur
[1] Ahner, C.; Soukhov, D.: Safety Concept in Codified Design of Piled Raft Founda-
tion. Lacer No. 4, 1999, Seite 403-412
[2] Berndt, E.: Zur Druck- und Schubfestigkeit von Mauerwerk - experimentell nachge-
wiesen an Strukturen aus Elbsandstein. Bautechnik 73 (1996), Heft 4, S. 222-234
[3] Busch, P.; Zumpe, G.: Tragfähigkeit, Tragsicherheit und Tragreserven von Bogen-
brücken. 5. Dresdner Brückenbausymposium, 16.3.1995, Fakultät Bauingenieur-
wesen, Technische Universität Dresden, Seite 153-169
[4] BÜV - Empfehlung für die Bemessung und Konstruktion von Glas im Bauwesen.
Der Prüfingenieur, 18 April 2001, Seite 55-69
[5] Byfield, M.; Nethercot, D.: Safety variations in steel designed using Eurocode 3.
JCSS Workshop on Reliability Based Code Calibration. 21.-22.3.2002, ETH Zürich
[6] Curbach, M.; Günther, L.; Proske, D.: Sicherheitskonzept für Brücken aus Granit-
steindeckern. Mauerwerksbau, Heft 4, 2004, Seite 138-141
[7] Curbach, M.; Hampel, T.; Speck, K.; Scheerer, S.; Proske, D.: Determination for
Design Values of High Performance Concrete under Bi- and Triaxial Loading. In:
Hrsg. Corotis, R. B.; Schuëller, G. I.; Shinozuka, M.: Proceedings of the 8th Interna-
tional Conference on Structural Safety and Reliability ICOSSAR '01, Newport
Beach, California, USA, 17.-22. June 2001. Lisse, Abington, Exton (pa), Tokyo: A.
A. Balkema 2001
[8] Curbach, M.; Jesse, F.; Proske, D.: Partial Safety Factor for Textile Reinforcement.
In: Hrsg. Corotis, R. B.; Schuëller, G. I.; Shinozuka, M.: Proceedings of the 8th In-
ternational Conference on Structural Safety and Reliability (ICOSSAR '01), New-
port Beach, California, USA, 17.-22. June 2001. Lisse, Abington, Exton (pa),
Tokyo: A. A. Balkema 2001

125
Teilsicherheitsfaktoren für Natursteinmaterial

[9] Curbach, M.; Proske, D.: Abschätzung des Verteilungstyps der Mauerwerksdruck-
festigkeit bei Sandsteinmauerwerk. Jahresmitteilungen 1998, Schriftenreihe des In-
stitutes für Tragwerke und Baustoffe, Heft 7, TU Dresden
[10] Deutscher Ausschuß für Stahlbeton 1996: Richtlinie für Betonbau beim Umgang mit
wassergefährdenden Stoffen, September 1996, Beuth-Verlag: Berlin
[11] DIN 53 804, Teil 1: Statistische Auswertungen – Meßbare (kontinuierliche) Merk-
male. September 1981
[12] E DIN 1055-100: Einwirkungen auf Tragwerke, Teil 100: Grundlagen der Trag-
werksplanung, Sicherheitskonzept und Bemessungsregeln, Juli 1999
[13] Entwurf prEN 1990 – Eurocode: Grundlagen der Tragwerksplanung. Deutsche Fas-
sung, 10. Januar 2001
[14] ENV 1991 –1 Eurocode 1: Basis of Design and Action on Structures, Part 1: Basis
of Design. CEN/CS, August 1994
[15] ENV 1991-2-7: Eurocode 1: Grundlage der Tragwerksplanung und Einwirkungen
auf Tragwerke – Teil 2-7: Einwirkungen auf Tragwerke – Außergewöhnliche Ein-
wirkungen. Deutsche Fassung, August 1998
[16] Fischer, L.: Sicherheitskonzept für neue Normen – ENV und DIN-neu, Grundlagen
und Hintergrundinformationen. Teil 3: Statistische Auswertung von Stichproben im
eindimensionalen Fall. Bautechnik 76 (1999), Heft 2, Seite 167-179, Heft 3, Seite
236-251, Heft 4, Seite 328-338
[17] Franke, I.; Deckelmann, G.; Goretzky, W.: Einfluß der Streubreite der Material-
eigenschaften auf die Tragfähigkeit von Mauerwerk – Theoretische und Experimen-
telle Untersuchungen. In: Proceedings of the International Brick/Block Masonry
Conference, 13-16 October 1991, Vol. 1, Berlin, Germany, S. 180- S. 187
[18] Grunert, B.; Grunert, S.; Grieger, Chr.: Die historischen Baustoffe der Marienbrücke
zu Dresden. Wissenschaftliche Zeitschrift der Technischen Universität Dresden, 47
(1998), Heft 5/6, S. 11-20
[19] Grunert, S.: Der Sandstein der Sächsischen Schweiz als Naturressource, seine Ei-
genschaften, seine Gewinnung und Verwendung in Vergangenheit und Gegenwart.
Dissertation, Technische Universität Dresden, 1982
[20] Hunt, R.D.; Bryant, A.H.: Statistical implications of methods of finding characteris-
tic strengths. Journal of Structural Engineering, February 1996, Seite 202-209
[21] Ingenieurgemeinschaft Frauenkirche Dresden, Prof. Jäger und Prof. Wenzel: Mau-
erwerksrichtlinie 12/96: Kenndaten Sächsischer Sandstein – Postaer Varietät
[22] Jaeger, L.G.; Bakht, B.: Lower Fractiles of Material Strength from limited test data.
Structural Safety 7 (1990), Seite 67-75
[23] Kirtschig, K: Zur Beschreibung der Mauerwerksdruckfestigkeit über die mittlere
oder charakteristische Steindruckfestigkeit. In: Proceedings of the International
Brick/Block Masonry Conference, 13-16 October 1991, Vol. 1, Berlin, Germany,
Seite 196-201

126
Teilsicherheitsfaktoren für Natursteinmaterial

[24] Mann, W.: Mauerwerk in Europa. Der Prüfingenieur. 14. April 1999, VPI, Seite 53-
59
[25] Mann, W.: Überlegungen zur Sicherheit im Mauerwerksbau. Mauerwerks-Kalender
1987, Berlin: Verlag Ernst & Sohn, Seite 1-5
[26] Murzewski, J.: Sicherheit der Baukonstruktionen. VEB Verlag für Bauwesen, Ber-
lin, DDR, 1974
[27] National Renewable Energy Laboratory: Wind Turbine Design Strength Analysis:
Guideline DG02. 2004
[28] Normenausschuß Bauwesen im DIN: Grundlagen zur Festlegung von Sicherheitsan-
forderungen für bauliche Anlagen. Ausgabe 1981, Beuth Verlag 1981
[29] Norton, R.L.: Machine Design – An Integrated Approach. Prentice-Hall, New York,
1996
[30] Onken, P.; vom Berg, W.; Neubauer, U.: Verstärkung der West Gate Bridge, Mel-
bourne, Beton- und Stahlbetonbau, Heft 2, 97. Jahrgang, Februar 2002, Seite 94-104
[31] Peschel, A.: Natursteine der DDR – Kompendium petrographischer, petrochemi-
scher, petrophysikalischer und gesteinstechnischer Eigenschaften. Beilage zur Dis-
sertation (B) an der Bergakademie Freiberg, Januar 1984
[32] Proske, D.: Ein Beitrag zur Risikobeurteilung alter Brücken unter Schiffsanprall.
Dissertation. Technische Universität Dresden, Lehrstuhl für Massivbau, 2003-2004
[33] Pugsley, A.G.: The Safety of Structures. Arnold, New York 1966
[34] Purtak, F.: Tragfähigkeit von schlankem Mauerwerk. Dissertation. Technische Uni-
versität Dresden, Fakultät Architektur, 2001
[35] Reid, S.G.: Load–testing for design of structures with Weibull–distributed strengths.
Application of Statistics and Probability (ICASP 8), Sydney, 1999, Band 2, Seite
705-712
[36] Schleicher, F. (Hrsg.): Taschenbuch für Bauingenieure. Springer-Verlag, 1949
[37] Schubert, P.: Beurteilung der Druckfestigkeit von ausgeführtem Mauerwerk aus
künstlichen Steinen und Naturstein. Mauerwerkskalender 1995, Seite 687-701
[38] Shigley, J.E.; Mischke, C.R.: Mechanical Engineering Design. 6th ed. McGraw Hill.
Inc., New York, 2001
[39] Sorensen, J.D.: Calibration of Partial Safety Factors and Target Reliability Level in
Danish Structural Codes. JCSS Workshop on Reliability Based Code Calibration.
21.-22.3.2002, ETH Zürich
[40] Spaethe, G.: Die Sicherheit tragender Baukonstruktionen, 2. Neubearbeitete Aufla-
ge, Wien, Springer Verlag, 1992
[41] Stiglat, K.: Zur Tragfähigkeit von Mauerwerk aus Sandstein. Bautechnik 2/1984,
Seite 54-59 und Bautechnik 3/1984, Seite 94-100

127
Teilsicherheitsfaktoren für Natursteinmaterial

[42] UIC-Kodex: Empfehlungen für die Bewertung des Tragvermögens bestehender Ge-
wölbebrücken aus Mauerwerk und Beton. Internationaler Eisenbahnverband.
1. Ausgabe 1.7.1995
[43] Val, D.V.; Stewart, M.G.: Safety Factors for Assessment of Existing Structures.
Journal of Structural Engineering, Vol. 128, No. 2, February 2002, Seite 258-265
[44] Visodic, J.P.: Design Stress Factors. Vol. 55, May 1948, ASME International, New
York
[45] Warnecke, P.; Rostasy, F.S.; Budelmann, H.: Tragverhalten und Konsolidierung von
Wänden und Stützen aus historischem Natursteinmauerwerk. Mauerwerkskalender
1995, Ernst & Sohn, Berlin, Seite 623-685
[46] Wenzel, F. (Hrsg.): Mauerwerk – Untersuchen und Instandsetzen durch Injizieren,
Vernadeln und Vorspannen. Erhalten historisch bedeutsamer Bauwerke. Empfehlun-
gen für die Praxis. Sonderforschungsbereich 315, Universität Karlsruhe, 1997

128
Dauerhaftigkeit von Beton

Probabilistische Beschreibung
der Dauerhaftigkeit von Beton

Manfred Curbach, Dirk Proske


Institut für Massivbau, Technische Universität Dresden

Zusammenfassung: Der Baustoff Stahlbeton besitzt wie alle Baustoffe nur ei-
ne begrenzte Dauerhaftigkeit. Der Nachweis der Dauerhaftigkeit des Stahlbe-
tons wurde in der neuen Norm DIN 1045-1 im Vergleich zu den vorangegange-
nen Normen gestärkt. Die Norm verwendet das sogenannte deskriptive Nach-
weiskonzept, welches aber nur für neue Bauwerke gilt. Es wird darum das so-
genannte Performance Konzept vorgestellt, welches den rechnerischen Nach-
weis der Dauerhaftigkeit sowohl im Sinne des semi-probabilistischen als auch
des probabilistischen Sicherheitskonzeptes erlaubt.

1 Einleitung
Der Baustoff Beton war der erfolgreichste Baustoff des letzten Jahrhunderts und dürfte
diese Stellung auch in diesem Jahrhundert verteidigen. Von Seiten der Öffentlichkeit wird
allerdings regelmäßig Kritik an einer unzureichenden Lebensdauer des Baustoffes vorge-
bracht. In der Tat existieren zahlreiche Beispiele von Stahlbetonkonstruktionen, die bereits
nach wenigen Jahren besorgniserregende Schäden aufweisen (Abb. 1). Diese Schäden stel-
len die Dauerhaftigkeit des Bauwerkes in Frage. Unter einem dauerhaften Tragwerk ver-
steht man gemäß DIN 1045-1 ein Tragwerk, welches „während der vorgesehenen Nut-
zungsdauer seine Funktion hinsichtlich der Tragfähigkeit und Gebrauchstauglichkeit ohne
wesentlichen Verlust der Nutzungseigenschaften bei einem angemessenen Instandhal-
tungsaufwand erfüllt“. Die geplante Nutzungsdauer von Hochbauten aus Stahlbeton liegt
etwa im Bereich von 50 bis 100 Jahren (Tab. 1). Daß diese lange Nutzungsdauer durchaus
realistisch ist, zeigen Beispiele von Stahlbetonkonstruktionen, die eine Nutzungsdauer von
100 Jahren erreichen (Abb. 2).
Auf Grund der in den letzten Jahrzehnten gehäuft beobachteten Schäden an den Bauwer-
ken hat man in der neuen Stahlbetonnorm die Bedeutung der Dauerhaftigkeit gestärkt,
denn langfristig ist der Baustoff nur wettbewerbsfähig, wenn die versprochene Nutzungs-
dauer in der Praxis auch umgesetzt werden kann. Aus diesem Grund wurde der Nachweis
der Dauerhaftigkeit den Nachweisen der Tragfähigkeit und Gebrauchstauglichkeit gleich-
gestellt.

129
Dauerhaftigkeit von Beton

2 Nachweiskonzepte
2.1 Deskriptives Konzept
In der neuen DIN 1045-1 wurde das sogenannte deskriptive Konzept des Nachweises der
Dauerhaftigkeit von Stahlbeton umgesetzt. Dieses Konzept verspricht bei überschaubarem
Aufwand für den planenden Ingenieur und Umsetzung der in dem Konzept erhobenen kon-
struktiven Forderungen eine Stahlbetonkonstruktion mit der geplanten Nutzungsdauer von
50 Jahren. Abb. 3 zeigt schematisch den Aufbau des Nachweiskonzeptes. Sowohl die ob-
jektiven dauerhaftigkeitsbeschränkenden Einwirkungen als auch die subjektiven Wünsche
des Eigentümers werden berücksichtigt, wobei letzteres als Zielgröße der Nutzungsdauer
verstanden werden kann. Tab. 2 listet die dauerhaftigkeitsbegrenzenden Einwirkungen auf.
Interessant ist hierbei, daß die physikalischen Einwirkung Last auch eine dauerhaftigkeits-
beschränkende Einwirkung ist. Die in Tab. 2 aufgelisteten dauerhaftigkeitsbeschränkenden
Einwirkungen finden sich auch in Abb. 3 wieder. Die Einwirkungen werden jedoch in der
DIN 1045-1 mit Ausnahme der Last nicht in Zahlen erfaßt, sondern pauschal aus Klassen
gewählt. Neben der Klasse wird dabei auch die Intensität der Einwirkung bestimmt. Tab. 3
nennt einige dieser Expositionsklassen. Anhand der Expositionsklassen werden erforderli-
che Widerstandsgrößen bestimmt. Diese Widerstandsgrößen sind z.B. die Betondeckung
(Tab. 4), die zulässigen Rißbreiten oder die Spannungszustände im Bauteil (Dekompres-
sion) (Tab. 5). Allerdings darf in die beiden letztgenannten Widerstandsgrößen der Bauherr
durch die Wahl einer Anforderungsklasse eingreifen (Tab. 6).
Tab. 1: Entwurfs-Lebensdauern nach Eurocode 1
Entwurfslebensdauer (Jahre) Beispiele
1 – 10 Tragwerke mit befristeter Standzeit
10 – 25 Austauschbare Teile wie Kranbahnträger und Lager
15 – 30 Landwirtschaftlich genutzte Tragwerke
50 Hochbauten und andere gebräuchliche Tragwerke
100 Monumentale Hochbauten, Brücken und andere Ingenieurbauwerke

Abb. 1: Beispiele von Stahlbetonbauteilen mit Rißschäden im Alter von wenigen Jahren
(links) oder wenigen Wochen (rechts)

130
Dauerhaftigkeit von Beton

Abb. 2: Beyer-Bau errichtet 1913


Einwirkung

E
Bewehrungs-
stahl
R
Beton

Umwelteinflüsse Bauherr

Expositionsklasse
Anforderungs-
Betonangriff: Bewehrungskorrosion: Bewehrungsart klasse
 Stahlbeton
XF: Frost mit X0 : keine Korrosion

E
 Vorspannung
und ohne XC: Karbonatisierung
- ohne Verbund
Taumittel XD: Chloride,
- nachträglicher
XA: chemischer außer Meerwasser A bis F
Verbund
Angriff XS: Chloride
- sofortiger
XM: Verschleiß aus Meerwasser
Verbund

R
Zusammen- Beton- Beton- Ober- Wöhler- Riß-
Beton- Dekom-
setzung und druck- druck- flächen- linie breiten-
dek- pres-
Eigenschaften festig- span- beweh- des begren-
kung sion
des Betons keit nungen rung Stahls zung

Abb. 3: Nachweiskonzept der DIN 1045-1 für die Dauerhaftigkeit

131
Dauerhaftigkeit von Beton

Tab. 2: Dauerhaftigkeitsbegrenzende Einwirkungen

Chemische Einwirkung Korrosion des Bewehrungsstahls im Karbonatisierung


Beton Chloridangriff
Zerstörung der Betonmatrix Säureangriff
Sulfatangriff
Alkalireaktion
Physikalische Einwir- Frost- und Frost-Tausalz-
kung Angriff
Abrieb
Last
Anprall

Tab. 3: Expositionsklassen

Mindestbeton-
Klasse Umgebung Beispiele für die Zuordnung von Expositionsklassen
festigkeitsklasse
1 Kein Korrosions- oder Angriffsrisiko
Bauteile ohne Bewehrung in nicht betonangreifender Umge- C 12/15
X0 Kein Angriffsrisiko bung, z. B. Fundamente ohne Bewehrung ohne Frost, Innen-
bauteile ohne Bewehrung LC 12/13

2 Bewehrungskorrosion, ausgelöst durch Karbonatisierung


Bauteile in Innenräumen mit normaler Luftfeuchte (ein-
Trocken oder ständig C 16/20
XC 1 schließlich Küche, Bad und Waschküche in Wohngebäuden);
naß LC 16/18
Bauteile, die sich ständig unter Wasser befinden
Naß oder selten trok- C 16/20
XC 2 Teile von Wasserbehältern, Gründungsbauteile
ken LC 16/18
Bauteile, zu denen die Außenluft häufig oder ständig Zugang
hat, z. B. offene Hallen; Innenräume mit hoher Luftfeuchte, C 20/25
XC 3 Mäßige Feuchte
z. B. in gewerblichen Küchen, Bädern, Wäschereien, in LC 20/22
Feuchträumen von Hallenbädern und in Viehställen
Wechselnd naß und Außenbauteile mit direkter Beregnung; Bauteile in Wasser- C 25/30
XC 4
trocken wechselzonen LC 25/28
3 Bewehrungskorrosion, ausgelöst durch Chloride, ausgenommen Meerwasser
Bauteile im Sprühnebelbereich von Verkehrsflächen; Ein- C 30/37
XD 1 Mäßige Feuchte
zelgaragen LC 30/33
Naß oder selten trok- Schwimmbecken und Solebäder; Beiteile, die chloridhaltigen C 35/45
XD 2
ken Industriewässern ausgesetzt sind LC 35/38
Wechselnd naß und Bauteile im Spritzwasserbereich von taumittelbehandelten C 35/45
XD 3
trocken Straßen; direkt befahrene Parkdecks LC 35/38
4 Bewehrungskorrosion, ausgelöst durch Chloride aus Meerwasser
Salzhaltig Luft, kein
C 30/37
XS 1 unmittelbarer Kontakt Außenbauteile in Küstennähe
LC 30/33
mit Meerwasser
C 35/45
XS 2 Unter Wasser Bauteile in Hafenanlagen, die ständig unter Wasser liegen
LC 35/38
Tidebereich, Spritz-
C 35/45
XS 3 wasser- und Sprüh- Kaimauern in Hafenanlagen
LC 35/38
nebelbereich
5 Betonangriff durch Frost mit und ohne Taumittel
Mäßige Wassersätti- C 25/30
XF 1 Außenbauteile
gung ohne Taumittel LC 25/28

132
Dauerhaftigkeit von Beton

Mäßige Wassersätti- Bauteile im Sprühnebel- oder Spritzwasserbereich von tau-


C 25/30
XF 2 gung mit Taumittel mittelbehandelten Verkehrsflächen, soweit nicht XF 4; Bau-
LC 25/28
oder Meerwasser teile im Sprühnebelbereich von Meerwasser
Hohe Wassersätti- Offene Wasserbehälter; Bauteile in der Wasserwechselzone C 25/30
XF 3
gung ohne Taumittel von Süßwasser LC 25/28
Bauteile, die mit Taumitteln behandelt werden; Bauteile im
Hohe Wassersätti- Spritzwasserbereich von taumittelbehandelten Verkehrsflä-
C 30/37
XF 4 gung mit Taumittel chen mit überwiegend horizontalen Flächen; direkt befahrene
LC 30/33
oder Meerwasser Parkdecks; Bauteile in der Wasserwechselzone, Räumer-
laufbahnen in Kläranlagen
6 Betonangriff durch chemischen Angriff der Umgebung
Chemisch schwach
C 25/30
XA 1 angreifende Umge- Behälter von Kläranlagen; Güllebehälter
LC 25/28
bung
Chemisch mäßig an-
Bauteile, die mit Meerwasser in Berührung kommen; Bau- C 35/45
XA 2 greifende Umgebung
teile in betonangreifenden Böden LC 35/38
und Meeresbauwerke
Industrieabwasseranlagen mit chemisch angreifenden Ab-
Chemisch stark an- C 35/45
XA 3 wässern; Gärfuttersilos und Futtertische der Landwirtschaft;
greifende Umgebung LC 35/38
Kühltürme mit Rauchgasableitung
7 Betonangriff durch Verschleißbeanspruchung
Mäßige Verschleiß- Bauteile von Industrieanlagen mit Beanspruchung durch C 30/37
XM 1
beanspruchung luftbereifte Fahrzeuge LC 30/33
Schwere Verschleiß- Bauteile von Industrieanlagen mit Beanspruchung durch luft- C 30/37
XM 2
beanspruchung oder vollgummibereifte Gabelstapler LC 30/33
Bauteile von Industrieanlagen mit Beanspruchung durch
elastomer- oder stahlrollenbereifte Gabelstapler; Wasser-
Extreme Verschleiß- C 35/45
XM 3 bauwerke in geschiebebelasteten Gewässern, z. B. Tosbek-
beanspruchung LC 35/38
ken; Bauteile, die häufig mit Kettenfahrzeugen befahren
werden

Tab. 4: Mindestbetondeckung cmin und Vorhaltemaß ∆c, Auszug aus DIN 1045-1

Chloridinduzierte
Karbonatisierungsinduzierte Chloridinduzierte
Anforderungen an die Korrosion aus Meer-
Korrosion Korrosion
Betondeckung in cm wasser
XC 1 XC 2 XC 3 XC 4 XD 1 XD 2 XD 3 XS 1 XS 2 XS 3
Betonstahl allgemein cmin ≥ ds bzw. dsV
cmin 1) 2) 10 20 25 40
∆c (Vorhaltemaß) 10 15
1)
Zusätzlich für Leichtbeton: cmin ≥ dg + 5 mm (außer XC 1)
2)
Bei Verschleißangriff: XM 1: cmin + 5 mm; XM 2: cmin + 10 mm; XM 3: cmin + 15 mm

Tab. 5: Anforderungen bezüglich Dekompressions- und Rißbreitennachweis

Anforderungs- Dekom- Rißbreiten- Rechenwert der Riß-


klasse pression begrenzung breite wk in mm
A selten -
B häufig selten
0,2
C quasi-ständig
häufig
D
E - 0,3
quasi-ständig
F 0,4

133
Dauerhaftigkeit von Beton

Tab. 6: Mindestanforderungsklassen in Abhängigkeit von der Expositionsklasse

1 2 3 4
Vorspannung mit Vorspannung
Vorspannung
Expositionsklasse nachträglichem mit sofortigem Stahlbeton
ohne Verbund
Verbund Verbund
1 XC1 D D F F
2 XC2, XC3, XC4 Ca C E E
XD1, XD2, XD3b
3 Ca B E E
XS1, XS2, XS3
a
Mit Korrosionsschutz, ansonsten Anforderungsklasse D
b
Zusätzliche Maßnahmen können erforderlich werden.

Auf Grund der beschriebenen pauschalen Behandlung der dauerhaftigkeitsbegrenzenden


Einwirkungen erscheint die Begriffswahl „deskriptives Nachweiskonzept“ berechtigt. Das
Konzept gilt aber im eigentlichen Sinne nur für neue Bauwerke, bei denen die Wider-
standsgrößen durch die Planung kontrolliert werden können. Wie kann man aber die Dau-
erhaftigkeit bei einem Bauwerk nachweisen, welches bereits seit 50 Jahren existiert? Für
derartige Fälle ist das deskriptive Konzept ungeeignet, es sei denn man ist bereit, die ge-
forderten Regelungen für die Ausbildung der Widerstandsseite umzusetzen. Das kann die
Verstärkung der Bewehrung am vorhandenen Bauwerk oder die Erhöhung der Beton-
deckung sein. Beide Maßnahmen dürften aber nur mit einem hohen Aufwand umsetzbar
sein. Es bietet sich daher an, auf ein anderes Nachweiskonzept für die Dauerhaftigkeit zu-
rückzugreifen, welches rechnerisch den Nachweis der Dauerhaftigkeit für ein solches Bau-
werk erbringen kann.

2.2 Performance Konzept


Dieses Nachweiskonzept wird als sogenanntes Performance Konzept bezeichnet. Es er-
laubt den rechnerischen Nachweis der Lebensdauer für verschiedene lebensdauerbegren-
zende Einwirkungen. Diese Nachweis können sowohl im Sinne des semi-probabilistischen
Sicherheitskonzeptes mit Teilsicherheitsfaktoren als auch im probabilistischen Sicherheits-
konzept erfolgen. Tab. 7 zeigt die Definition von charakteristischen Größen und Bemes-
sungsgrößen beim Dauerhaftigkeitsnachweis bei chloridinduzierter Bewehrungskorrosion
und Tab. 8 nennt die Teilsicherheitsfaktoren dafür. Die notwendigen Nachweisgleichungen
liegen für verschiedene dauerhaftigkeitsbegrenzende Einwirkungen vor, wie Tab. 9 zeigt.

Tab. 7: Bemessungswerte für den Nachweis bei Chloridangriff

Eingangsgröße Formel
Betondeckung xd = xk − ∆x
Kritischer Chloridgehalt C
Ccr , d = cr , k
γ Ccr
Diffusionskoeffizienten Dcr , d = Dcr , k ⋅ γ D
Vorhandener Chloridgehalt an der Oberfläche Cs , d = Cs , k ⋅ γ Cs .

Kopfindex k gibt an, daß es sich um den charakteristischen Wert handelt (i.a. 5 % oder 95 % Fraktil) und
Kopfzeiger d gibt an, daß es sich um den Bemessungswert handelt. Referenzzeitraum 50 Jahre.

134
Dauerhaftigkeit von Beton

Tab. 8: Teilsicherheitsfaktoren für den Nachweis bei Chloridangriff

Kosten einer Reparatur proportional zu den Hohe Kosten Normale Kosten Geringe Kosten
Kosten der Herstellung der Konstruktion (β* = 4,3) (β = 2,3) (β = 0,8)
∆x [mm] 18,0 11,0 4,5
γCcr 1,10 1,05 1,02
γD 3,30 1,85 1,20
γCs 4,10 2,10 1,25
*β = Zielsicherheitsindex

Tab. 9: Prinzipielle Darstellung der Formelapparate für die rechnerische Durchführung


von Dauerhaftigkeitsnachweisen

Einwirkung Nachweisgleichung
Sulfatangriff c ≥ x(t ) = k ⋅ t α
Alkali-Silica-Reaktion c ≥ x(t ) = t0 + k ⋅ tlα
Frost- und Frost-Tausalz- N t ≥ N = t0 + k 0 ⋅ R
Angriff
Karbonatisierung t 
w

c ≥ xc (t ) = 2 ⋅ ke ⋅ kc ⋅ (kt ⋅ R −1
ACC ,0 + ε t ) ⋅ ∆CS ⋅ t ⋅  0 
t 
Chloridangriff 1
 x  C 
2
1  1− n
ta ≥ ti =  erf −1 1 − cr   n

 2
  Cs   D0 ⋅ ke ,cl ⋅ kc ,ct ⋅ t0 

Insbesondere für die Formulierung der probabilistischen Eingangsgrößen liegen umfang-


reiche wissenschaftliche Arbeiten vor, die vereinfacht werden können. In der Regel sollte
man jedoch auch auf Messungen am Bauwerk zurückgreifen. Beispiele für die probabilisti-
sche Darstellung des Chloriddiffusionswiderstandes und des kritischen Chloridgehaltes
finden sich in Tab. 10 und Tab. 11. Nach der kurzen Vorstellung des Performance Nach-
weiskonzeptes soll der Nachweis nun an einem Beispiel durchgeführt werden.

Tab. 10: Statistische Angaben zum Chloriddiffusionskoeffizient

D (m2/s)
Lit. Verteilungstyp Mittelwert Variationskoeffizient
[13] Lognormal 1,399·10-11 1,84
[18] Gleich 0,548·10-12 0,57
[24] Normal 2,138·10-12 0,75
[16] Lognormal 1,00·10-12 0,04
[5] Normal 1,00·10-12 0,10
[5] Normal 2,00·10-12 0,10
[5] Normal 4,00·10-12 0,10
[6] Lognormal 4,10·10-12 0,10
[10] Normal 4,75·10-12 0,15

135
Dauerhaftigkeit von Beton

Tab. 11: Statistische Angaben zum kritischen Chloridgehalt

Ccr in M.-% vom Zement


Lit. Verteilungstyp Mittelwert Variationskoeffizient
[13] Normal 1,100 0,20
[18] Uniform 0,120 0,25
[24] Normal 0,131 0,19
[14] Lognormal 0,974 0,59
[5] Normal 0,800 0,12
[5] Normal 0,900 0,17
[6] Lognormal 0,270 0,10
[20] Lognormal 0,400 -
[10] Normal 0,700 0,10

Tab. 12: Angaben zum Chloridgehalt an der Betonoberfläche von Straßenbrücken

Cs in M.-% v. Z.
Lit. Verteilungstyp Mittelwert Variationskoeffizient
[13] Lognormal 1,70 0,70
[18] Uniform 0,30 0,19
[24] Normal 0,51 0,50
[16] 0,04 0,49
[16] 0,65 0,65
[14] 6,14 0,067
[5] Lognormal 1,28 0,61
[6] Lognormal 0,3 0,10
[10] Normal 4,0 0,12

Tab. 13: Statistische Angaben zum Initialchloridgehalt im Beton nach Speck [23]

Baustoff Norm, Richtlinie, Zulässiger Chloridgehalt in M-% bezogen auf


Empfehlung den jeweiligen Baustoff die Zementmasse
Zement DIN 1164 Teil 1 0,10 0,1
Zuschlag für DIN 4226 Teil 1
Stahlbeton 0,04 0,27)
Spannbeton 0,02 0,13
Gesteinsmehl DIN 4226 Teil 1 0,02 -
Traß DIN 51043 0,10 -
Betonzusatzmittel DIN 1045 0,00 0,00
für Stahlbeton Prüfzeichenrichtlinie 0,20 0,01
für Spannbeton 0,1-0,2 0,002
Betonzusatzstoffe Prüfzeichenrichtlinie 0,1 0,03
Anmachwasser für
Stahlbeton Empfehlung vom 0,20 0,13
Spannbeton DBV 0,06 0,04
DIN 4227 Teil 1

136
Dauerhaftigkeit von Beton

Tab. 14: Statistische Angaben zur Betondeckung

x (mm)
Lit. Verteilungstyp Mittelwert Variationskoeffizient A B
[13] Normal 50 0,19
[18] Lognormal 50-60-70 0,20
[24] Normal 58 0,23
[16] 50 0,072
[16] 56 0,2
[5] Lognormal 40 0,25
[5] Lognormal 45 0,22
[5] Lognormal 50 0,20
[17] Normal 51,6 0,22
[1] Normal 50** 0,12*
[10] Betaverteilung 50 0,10 0 225

3 Beispiel
3.1 Vorstellung Bauwerk
Dazu wurde eine Betonbrücke aus dem Jahre 1938 als Beispielbauwerk gewählt. Die
Brücke besteht aus vier Längsträgern. Diese Längsträger werden an der Unterseite von
einem Bogen und an der Oberseite von der Fahrbahnplatte abgeschlossen. Im Bereich des
Scheitels verschmelzen Bogen und Fahrbahnplatte zu einem kompakten Betonkörper. In
den anderen Bereichen besitzt die Fahrbahnplatte Querunterzüge. Alle Längsträger werden
über das Lager hinausgeführt, so daß die Längsträger als rahmenartige Struktur wirken
können (Abb. 4).
Die Brücke wird in einem Bogen von der Straße gequert. Die Kragarme der Brücke folgen
der Spur der Straße. Deshalb ist der äußere Kragarm in Bogenform ausgebildet, der innere
Kragarm zeigt die Bogenform ansatzweise. Zusätzlich ist die Widerlagerbank nicht recht-
winklig zur Brückenlängsachse angeordnet. Auf Grund dieser schwierigen geometrischen
Verhältnisse wurde die Brücke mit einem FE-Modell untersucht (Abb. 5). Neben der rech-
nerischen Untersuchung des Tragverhaltens erfolgte auch eine baustofftechnische Untersu-
chung, wie z.B. die Ermittlung der Betondruckfestigkeit an Bohrkernen. Dabei erfolgte
auch die Ermittlung der Karbonatisierungstiefe und des Chloridgehalts (Tab. 12).

137
Dauerhaftigkeit von Beton

Längstäger Querträger
Fahrbahnplatte 1000
200 300
200
150
350
600 150 150
625
500 2975 3000 2975 500
450 450
10350
Bogen bzw. Bodenplatte

Abb. 4: Ansicht und Querschnitt der Brücke

Abb. 5: FE-Modell der Brücke (links Modell und rechts Verschiebungen bei Belastung)

Tab. 15: Angaben zur Karbonatisierungstiefe und dem Chloridgehalt

Bohrung Nr. Betondeckung in mm Karbonatisierungstiefe in mm Chloridgehalt


in M-% v. Z.
Bodenplatte 20-25 (außen) 20-25 (außen) 0,56-0,64
60 (innen 10-15 (innen)
Querunterzug 1 20-25 (innen) 3
Fahrbahnplatte innen 15 2
Kragarm oben 75-80 1 0,75-0,85
Kragarm unten 15-20 10-15
Querunterzug 2 30-65 1 0,26-0,30
Innensteg Hohlkasten 60 (innen) 2
Außensteg Hohlkasten 35-40 (innen) 3-4 0,15-0,18

3.2 Deterministische Lebensdauerbestimmung


3.2.1 Anforderungen nach DIN-Fachbericht

Erste Vergleiche zwischen der vorgefundenen Betonsorte und den gemessenen Betondek-
kungen zeigen, daß die Dauerhaftigkeitsanforderungen gemäß DIN 1045-1 bzw. DIN-
Fachbericht nicht eingehalten sind. So liegt die am Bauwerk ermittelte Betonsorte über-

138
Dauerhaftigkeit von Beton

wiegend etwa bei einem C 25/30. Die erforderliche Betondeckung von cmin = 40 mm ist
ebenfalls in großen Bereichen des Tragwerkes nicht eingehalten, wie Tab. 12 zeigt.
Im Gegensatz zu diesen nicht erfüllten Nachweisen war das Bauwerk aber über 60 Jahr in
der Lage, die Funktion zu erfüllen. Es stellt sich nun die Frage, ob mit den ermittelten
Meßergebnissen am Bauwerk ein Dauerhaftigkeitsnachweis für eine bestimmte Zeitspanne
erbracht werden kann. Dazu wird zunächst das Performance Konzept in seiner semi-proba-
bilistischen Form angewandt.

3.2.2 Performance Konzept

Für die Brücke werden nicht alle dauerhaftigkeitsbeschränkenden Einwirkungen unter-


sucht, sondern nur die dauerhaftigkeitsbeschränkenden Einwirkungen für den Beweh-
rungsstahl. Es handelt sich hierbei um den chloridinduzierten und den karbonatisierungsin-
duzierten Korrosionsangriff.
Zunächst einmal gilt es festzustellen, daß verschiedene Nachweisgleichungen für den chlo-
ridinduzierten Korrosionsangriff vorliegen. Diese Ansätze basieren aber in der Regel auf
dem Diffusionsansatz, d.h. es handelt sich um einen Konzentrationsausgleich. Die Varia-
tionen der Nachweisgleichungen erklären sich durch die unterschiedliche Berücksichtigung
von Korrekturfaktoren. Im vorliegenden Fall wurde der DURACRETE bzw. Ansatz von
Gehlen gewählt. Die Nachweisgleichung wurde allerdings umgeformt. Damit wird der
Nachweis über die Berechnung einer Zeit geführt. Die hier ermittelte Zeit beschreibt dieje-
nige Zeitdauer, bis zu der ein kritischer Chloridgehalt am Stahl entsteht. Neuere Untersu-
chungen haben aber gezeigt, daß für die Entstehung der Schäden durch Bewehrungs-
korrosion selbst noch einmal eine gewisse Zeitdauer notwendig wird. Damit unterschätzt
das hier verwendete Konzept die Lebensdauer. Mit den gemessenen und einigen gewählten
Eingangsgrößen ergibt sich:
1
 x  C − Cs 
2
1  1− n
ti =  erf −1  1 − cr    .
 2  Ci − Cs  D0 ⋅ ke,cl ⋅ kc ,ct ⋅ t0n 
 
Die einzelnen Variablen bedeuten:
ti Zeitdauer, bis ein kritischer Chloridgehalt am Bewehrungsstahl erreicht wird, in Jahren
x Betondeckung in cm,
Ccr kritischer Chloridgehalt in Masseprozent Bindemittel,
Cs Chloridgehalt an der Oberfläche in Masseprozent Bindemittel,
Ci Chloridgehalt im frischen Beton in Masseprozent Bindemittel,
D0 Diffusionskoeffizient in cm2/Jahr,
ke Parameter zur Berücksichtigung der Umweltbedingungen,
kct Parameter zur Berücksichtigung der Nachbehandlung des Betons,
t0 Zeitpunkt zur Messung des Diffusionskoeffizienten in Jahren.
Für einige Eingangsgrößen liegen keine Werte vor. Deshalb werden fehlende Größen in
Anlehnung an die Arbeit von Engelund und Faber [5] gewählt. Damit ergibt sich für die
Brücke:

139
Dauerhaftigkeit von Beton

1
 2
 1−0,37
 3,5 cm  0, 6 − 0,18 % Z.   1 
ti =   erf −1 1 −   2 
 2  0,896 − 0,18 % Z.   0,315 cm ⋅ 0,92 ⋅ 0, 79 ⋅ 0, 0787 0,37 
 Jahr 
ti = 43 Jahre

Es handelt sich hierbei um einen Mittelwert. Berücksichtig man die bereits genannten Teil-
sicherheitsfaktoren für den Fall, daß geringe Schadenskosten auftreten, so ergibt sich:
1
  Ccr ,k 
2
 1− n
  − Ci  
  x −1
 γ Ccr  1 
ti =  erf 1 −
2  Cs , k ⋅ γ Cs − Ci  D0,k ⋅ γ D ⋅ ke,cl ⋅ kc ,ct ⋅ t0n 
   
   
1
  0, 6 
2
 1−0,37
  − 0,18 % Z. ⋅ 1,25  
2 1, 02 1
ti =   erf −1 1 −   .
 3,5 cm − 0,5 cm  0,896 − 0,18 % Z. ⋅1,25   0,315 cm ⋅ 0,92 ⋅ 0, 79 ⋅ 280,37 
2

   
    1, 20 Jahr 
ti = 8,5 Jahre

Bei einer Größenordnung von ca. 10 Jahren erscheint es günstig, die Zeitdauer vom Errei-
chen der kritischen Chloridkonzentration am Stahl bis zum Auftreten eines Schadens mit
zu berücksichtigen. Als Schaden definieren ENGELUND und FABER [5] einen Riß durch
Bewehrungskorrosion größer 1 mm. Dann vergrößert sich die Lebensdauer um den Betrag tp
−1
 w − w0  x   m  
t p =  cr +  74, 4 + 7,3 ⋅ − 17, 4 ⋅ f sp ,c   ⋅   0 ⋅ α ⋅ Fcl  ⋅ wt 
 β  d   ρ  
nres
t   1 
ρ = ρ0   ⋅ kc ,res ⋅   ⋅ k RH , res ⋅ kcl ,res .
 t0   1 + 0, 025(T − 20) 
Die Werte bedeuten:
tp Zeitdauer vom Erreichen des kritischen Chloridgehaltes bis zur Entstehung einer kriti-
schen Rißgröße in Jahren,
wcr kritische Rißgröße (1 mm),
w0 Startrißgröße (0,25 mm),
x Betondeckung in mm,
d Stahldurchmesser in mm,
fsp,c Spaltzugfestigkeit des Betons in MPa,
m0 Konstante (882 µm·Ωm/Jahr),
Fcl Korrosionsrate bei chloridinduzierter Korrosion (2,63),
wt Relativer Feuchtezeitraum in Jahren,
t Alter des Betons, aber nicht mehr als 1 Jahr,
t0 Alter des Betons zum Zeitpunkt der Messung des elektrischen Widerstandes in Jahren,
kc,res Faktor zur Berücksichtigung der Nachbehandlung,

140
Dauerhaftigkeit von Beton

T mittlere Temperatur (10 ° Celsius gewählt),


kRH,res Faktor zur Berücksichtigung der Luftfeuchtigkeit,
kcl,res Faktor zur Berücksichtigung der Chloridbeaufschlagung,
ρ0 Elektrischer Widerstand (77 Ωm),
α Lochfraßfaktor (9,28),
nres Konstante (0,23),
K Konstante (0,025 °C-1).
Auch hier müssen wieder Werte gewählt werden, da keine Messungen vorliegen. Damit
ergibt sich:
0,23
 1   1 
ρ = 77 ⋅   ⋅1, 0 ⋅   ⋅1, 0 ⋅1, 0 = 185,32
 0, 0767   1 + 0, 025(10 − 20) 
−1
 1 − 0, 25  3,5     882  
tp =  +  74, 4 + 7,3 ⋅ − 17, 4 ⋅ 2,5   ⋅   ⋅ 9, 28 ⋅ 2, 63  ⋅ 0,50  = 2,1 Jahre .
 0, 0086  8     185,32  
Damit ergibt sich insgesamt eine Lebensdauer von ca. 10 Jahren.
Die zweite dauerhaftigkeitsbeschränkende Einwirkung, die untersucht werden soll, ist der
karbonatisierungsinduzierte Korrosionsangriff. Die Tiefe der Karbonatisierungsfront, die
zu einer ph-Wertveränderung im Beton führt, kann mit dem Wurzel-t-Gesetz beschrieben
werden. Damit erhält man für die Lebensdauer [15]:
x2
x=k⋅ t ⇒t =
k2 .
Mit einer gemessenen Karbonatisierungstiefe von 15 mm nach 60 Jahren ergibt sich für k =
1,94. Die Lebensdauer beträgt dann:
x2 352
t= − 60 Jahre = − 60 Jahre = 266 Jahre
k2 1,942 .
Ein deutlich umfangreicheres Modell beschreibt der CEB und Gehlen [8], [10], [9]. Hier-
bei wird der Faktor k aufgesplittert.
w
t 
c ≥ x(t ) = 2 ⋅ ke ⋅ kc ⋅ (kt ⋅ R −1
ACC ,0 + ε t ) ⋅ ∆CS ⋅ t ⋅  0 
t 
d 2,5
mit ToW = .
365

141
Dauerhaftigkeit von Beton

Lebensdauer in Jahren
0 10 20 30 40 50 60 70 80 90
20

18

16
Meßpunkt
14

12
Tiefe in mm

10

Abb. 6: Darstellung der Karbonatisierungstiefe über die Zeit mit eingetragendem Meß-
punkt bei Gültigkeit des Wurzel-t-Gesetzes

Die einzelnen Variablen bedeuten:


t Zeitdauer, bis die Karbonatisierungsfront den Bewehrungsstahl erreicht, in Jahren,
x Betondeckung in m,
ke Berücksichtigung der Feuchteabhängigkeit des Karbonatisierungswiderstandes,
kc Berücksichtigung der Nachbehandlung auf den Karbonatisierungswiderstand,
kt Karbonatisierungswiderstand unter Laborbedingungen zu realen Bedingungen,
∆Cs CO2-Konzentrationsgradient,
εt Fehlerterm,
−1
RACC ,0 Inverser Karbonatisierungswiderstand von trockenem Beton unter definierten Prüf-

bedingungen nach der Schnellkarbonatisierungsmethode.


Vernachlässigt man in dieser Formel den Anteil aus Regen, so kann man die Formel sehr
einfach wieder nach der Zeit umformen:
xc2
t= .
,0 + ε t ) ⋅ ∆CS
−1
2 ⋅ ke ⋅ kc ⋅ (kt ⋅ RACC

Die einzelnen Faktoren ergeben sich zu:

142
Dauerhaftigkeit von Beton

  RH ist 
fe

1−   
100
ke =     und k = a ⋅ t bc . Damit ergibt sich
  RH ist 
fe
 c c c

 1 −   
  100  
xc2
t= .
  RH ist 
fe

 1−   
100
2⋅    ⋅ a ⋅ t bc ⋅ (k ⋅ R −1 + ε ) ⋅ ∆C
  RH ist 
fe
 c c t ACC ,0 t S

 1−   
  100  
Für die vorliegende Brücke liegen nicht genügend Daten für die einzelnen Eingangsgrößen
vor. Deshalb werden zahlreiche Werte, basierend auf verschiedenen Veröffentlichung, ge-
schätzt. Dabei erhält man für die Lebensdauer
0, 0352
t= 2,5
= 234 Jahre .
  80 5 
 1−   
  100  
2⋅ ⋅ 2 ⋅ (1, 25 ⋅ 7 ⋅10−11 + 1 ⋅10−11 ) ⋅ 8, 2 ⋅10−11
  65   5

 1−   
  100  
Vergleicht man die ermittelten Lebensdauern für die karbonatisierungsinduzierte und die
chloridinduzierte Korrosion, so liegt die durch die chloridinduzierte Korrosion begrenzte
Lebensdauer für die Konstruktion eine Zehnerpotenz unter der Lebensdauer begrenzt durch
karbonatisierungsinduzierte Korrosion. Es erscheint deshalb sinnvoll, die Nachweise der
chloridinduzierten Korrosion mit einem anderen Sicherheitskonzept durchzuführen, um
mögliche rechnerische Reserven zu erschließen. Das zeigten bereits die ermittelten Le-
bensdauern mit und ohne Sicherheitsfaktoren. Dieses veränderte Sicherheitskonzept soll
das probabilistische Sicherheitskonzept sein. Damit wird der Nachweis vom Vergleich von
Jahren zum Vergleich von Wahrscheinlichkeiten bzw. Sicherheitsindizes verschoben.

3.3 Probabilistische Lebensdauerbestimmung

Die probabilistische Berechnung soll im folgenden mit dem Programm EXCEL durchge-
führt werden. In das Programm ist standardmäßig ein Funktionsextremwertsucher einge-
baut, der im folgenden zur Ermittlung des Sicherheitsindex verwendet werden soll. Der
Extremwertsucher findet sich im Menü Extras unter Solver. Sollte in dem Menü kein
Punkt Solver vorhanden sein, so muß im Menüpunkt Extras im Untermenüpunkt
Add-Ins der Solver aktiviert werden.
Abb. 7 zeigt den Bildschirmaufbau. Der Zelleninhalt von B5 lautet:
=C12-C13+C16*(1-GAUSSFEHLER(C14/(2*C15*C17*C18*0,0787^0,37*40)))
Der Zelleninhalt von B7 lautet:
=WURZEL(MMULT(MTRANS(F12:F18);MMULT(MINV(B21:H27);(F12:F18))))

143
Dauerhaftigkeit von Beton

Wenn dieser Zelleninhalt für eine Problemanpassung verändert werden muß, so ist die Be-
arbeitung in der Zelle nicht mit ENTER zu beenden, sondern mit STRG-UMSCHALT-
ENTER. Ansonsten erhält man die Fehlermeldung #Wert im Feld B7.
Der Zelleninhalt von B9 lautet:
=NORMVERT(B7;0;1;FALSCH).
Der Zelleninhalt von F12 lautet:
=(C12-D12)/E12.
Die Datei wird auf Anfrage durch die Autoren zur Verfügung gestellt.

Abb. 7: Bildschirm für die Berechnung des Sicherheitsindex mit dem Programm EXCEL

Die Ergebnisse der sehr einfachen probabilistischen Berechnung sind in Tab. 12. darge-
stellt. Da für die Brücke keine Werte vorliegen, wurden die entsprechenden Eingangsgrö-
ßen aus verschiedenen Veröffentlichung gewählt. Außerdem wurden vereinfachend keine
Korrelationen und ausschließlich Normalverteilungen verwendet. Berücksichtigt man wei-
terhin die geringe Anzahl der Materialversuche und die hohe ermittelte operative
Versagenswahrscheinlichkeit von ca. 0,2 für die nächsten 20 Jahre, so muß man davon
ausgehen, daß in etwa in zehn Jahren in einigen lokalen Bereich chloridinduzierte Korrosi-
on auftreten wird.

144
Dauerhaftigkeit von Beton

Tab. 12: Sicherheitsindex für die Brücke


Lebensdauer in Jahren Sicherheitsindex Operative Versagenswahrscheinlichkeit
10 1,31 0,167
20 1,17 0,199
30 1,02 0,236
40 0,93 0,262

Aus Sicht der Verfasser erscheint es daher sinnvoll, dauerhaftigkeitsverbessernde Maß-


nahmen an der Brücke durchzuführen. Gleichzeitig sollte dem Leser aber auch ein Ein-
druck über den zu erwartenden rechnerischen Aufwand bei der Durchführung solcher
Nachweise gegeben werden. Zusätzlich müßten diese Berechnungen noch von zahlreichen
weiteren Versuchen begleitet werden.

4 Ausblick
4.1 Migrationsverhalten im ungerissenen Beton
Trotz der zahlreichen und inzwischen auch in der Praxis verwendeten Modelle zur Be-
schreibung von numerischen Dauerhaftigkeitsnachweisen bestehen nach wie vor zahlreiche
Fragen. Die vorgestellten Nachweise für das Eindringen von Chlorid in Beton und die
Wanderung der Karbonatisierungsfront basieren im wesentlichen auf Diffusionsansätzen.
Neuere Untersuchungen, wie z.B. die Arbeiten von SETZER, zeigen aber, daß die Diffusion
nur ein Migrationsantrieb darstellt. Die Leistung des Migrationsantrieb Mikro-Eislinsen-
Pumpe wird in den bisherigen Gleichungen nicht berücksichtigt. Auf Grund des Bewußt-
seins mangelnder Kenntnisse über das Wanderungsverhalten im Beton hat die Deutsche
Forschungsgemeinschaft verschiedene Forschungsprojekte dazu gestartet. Hier seien ge-
nannt:
• SPP 1122: Vorhersage des zeitlichen Verlaufs von physikalisch-technischen Schädi-
gungsprozessen an mineralischen Werkstoffen

• SFB 477: Sicherstellung der Nutzungsfähigkeit von Bauwerken mit Hilfe innovativer
Bauwerksüberwachung

• SFB 524: Werkstoffe und Konstruktionen für die Revitalisierung von Bauwerken

• SFB 398: Lebensdauerorientierte Entwurfskonzepte unter Schädigungs- und Deteriora-


tionsaspekten.

Auf Grund der erheblichen Investitionen in die Schädigungsforschung von Baustoffen ist
zu erwarten, daß in den nächsten Jahren verbesserte Methoden vorgestellt werden, die die
Nachweise der Dauerhaftigkeit entweder vereinfachen oder die Prognosequalität erheblich
verbessern.

145
Dauerhaftigkeit von Beton

Beton Beton

Water
Kapillare

Kapillare
Wasser
Mikropore Wasser

Eis
Beton Beton
a) b)

Beton Beton

Kapillare
Water

Water
Kapillare
Eis Wasser
Eis

Eis
Beton Beton

c) d)

Abb. 8: Mikroeislinsenpumpe nach SETZER [22]

4.2 Migrationsverhalten im gerissenen Beton


Dies betrifft auch das Migrationverhalten in Rissen. Die im Rahmen dieses Artikels prä-
sentierten Ansätze gelten für ungerissenen Beton. Gerade aber in gerissenem Beton kann
eine erhöhte Migrationgeschwindigkeit beobachtet werden [28], die durch die Wahl zuläs-
siger Rißbreiten begrenzt wird. Es sei an dieser Stelle erwähnt, daß die Betondeckung ei-
nen mehr als doppelt so hohen Einfluß auf die Migrationgeschwindigkeit besitzt wie die
Rißbreite [21].

4.3 Einbau von neuen Materialen


Um die Problematik der Dauerhaftigkeitsbeschränkung zu umgehen, kann es sinnvoll sein,
Materialien zu verwenden, die keinen oder anderen dauerhaftigkeitsbeschränkenden Ein-
wirkungen unterliegen. Dadurch kann es unter Umständen möglich sein, die Dauerhaftig-
keitsprobleme zu verschieben. Ein solcher Ansatz wird im Rahmen an der Technischen
Universität Dresden im Rahmen der Entwicklung von textilbewehrten Beton vorangetrie-
ben (Abb. 9).

146
Dauerhaftigkeit von Beton

Abb. 9: Textilbewehrung links und textilbewehrte Betonschicht auf einer verstärkten Plat-
te nach einem Biegeversuch (rechts)

4.4 Dauerhaftigkeitsverbessernde Maßnahmen


Eine weitere Möglichkeit zur Verlängerung der Lebensdauer ist die Durchführung dauer-
haftigkeitsverbessernder Maßnahmen. So ist heute der Chloridgehalt innerhalb des Betons
reversibel geworden [25]. Durch geeignete technische Vorrichtungen kann der Chlorid
quasi wieder aus dem Beton herausgesaugt werden. Insbesondere für Parkhäuser wurden in
den letzten Jahrzehnten zahlreiche hochwertige Beschichtungssystem entwickelt, die eben-
falls das Eindringen dauerhaftigkeitsbeschränkender Einwirkungen verhindern und damit
eine dauerhaftigkeitsverbessernde Wirkung erzielen.

5 Zusammenfassung
Auf Grund des gewaltigen Baubestandes in den Industrieländern und der in zunehmendem
Maße zu beobachtenden Einschränkung der Neubauaktivitäten richtet sich der Blick des
Bausektors auf die Modifikation und Erhaltung von Bauwerken. Hierbei müssen die Bau-
werke nicht nur eine gewisse Funktionsflexibilität aufzeigen, sondern auch eine entspre-
chende Lebensdauer besitzen. Die Nachweise der Lebensdauer werden in Zukunft weiter
an Bedeutung gewinnen. Die hier vorgestellten Verfahren stellen eine Möglichkeit der ge-
naueren Erfassung der Lebensdauer dar. Nach der Ermittlung der Restlebensdauer wird es
notwendig sein, aus einem Pool von Maßnahmen die geeignete zu wählen. Auch die Wahl
der Maßnahmen darf im Augenblick als ein sehr dynamisches Feld angesehen werden.
Abschließend kann festgestellt werden, daß die probabilistische Erfassung der Lebensdauer
von Bauwerken ein Hilfsmittel in dem wachsenden Markt der Beurteilung und Behandlung
der Lebensdauer von Bauwerken ist.

6 Literatur
[1] Bach; T.: Tragfähigkeitsnachweis von Stahlbetonquerschnitten bei Biegebeanspru-
chung mit und ohne Längskraft auf der Grundlage der Zuverlässigkeitstheorie der
Stufe II. Dissertation. Technische Universität Dresden, 1991

147
Dauerhaftigkeit von Beton

[2] Bunte, D.: Die Prognose der Lebensdauer von Stahlbetonaußenbauteilen. Tech-
nologie und Anwendung der Baustoffe, Zum 60. Geburtstag von Ferdinand S. Rosta-
sy, Hrsg. H. Budelmann, Ernst & Sohn Verlag, Berlin, 1992, Seite 153-158
[3] Bunte, D.: Zum karbonatisierungsbedingten Verlust der Dauerhaftigkeit von Außen-
bauteilen aus Stahlbeton. Deutscher Ausschuß für Stahlbeton, Heft 436. Beuth Ver-
lag, Berlin 1993
[4] Edvarsen, C.K.: Wasserdurchlässigkeit und Selbstheilung von Trennrissen in Beton.
Deutschen Ausschuß für Stahlbeton, Heft 455, Beuth-Verlag, Berlin 1996
[5] Engelund, S.; Faber, M.H.: Development of a Code for Durability Design of Con-
crete Structures. Application of Statistics and Probability (ICASP 8), Sydney, 1999,
Band 2, Seite 965-972
[6] Enright, M.P.; Frangopol, D.M. & Gharaibeh, E.S.: Reliability of Bridges under Ag-
gressive Conditions. Application of Statistics and Probability (ICASP 8), Sydney,
1999, Band 1, Seite 323-330
[7] Faber, M. H.; Gehlen, Ch.: Probabilistischer Ansatz zur Beurteilung der Dauer-
haftigkeit von bestehenden Stahlbetonbauten. Beton- und Stahlbetonbau 97, 2002,
Heft 8, Seite 421-429
[8] Gehlen, Ch.: Lebensdauerbemessung – Zuverlässigkeitsberechnungen zur wirksamen
Vermeidung von verschiedenartig induzierter Bewehrungskorrosion. Beton- und
Stahlbetonbau 96, 2001, 7, Seite 478-487
[9] Gehlen, Ch.: Probabilistischer Ansatz zur Beurteilung der Dauerhaftigkeit von be-
stehenden Stahlbetonbauten. Deutschen Ausschuß für Stahlbeton, Heft 510, Beuth
Verlag, Berlin 2000
[10] Gehlen, Ch.; Schießl, P.: Probability-based durability design for the Western Scheldt
Tunnel. Structural Concrete. Journal of the fib, Volume 1, Nr. 2, June 1999, Seite 1-7
[11] Gehlen, Ch.; Schießl, P.; Pabsch, G.: Probabilistic Service Life Design: Application
of the DURACRETE-Approach to Existing Structures. fib-Symposium: Concrete &
Environment, Berlin 3-5. Oktober 2001.
[12] Hergenröder, M.: Zur statistischen Instandhaltungsplanung für bestehende Beton-
bauwerke bei Karbonatisierung des Betons und bei möglicher Korrosion der Beweh-
rung. Berichte aus dem Konstruktiven Ingenieurbau 4/92, Technische Universität
München, 1992
[13] Karimi, A.R. & Ramachandran, K.: Probabilistic Estimation of Corrosion in Bridges
due to Chlorination. Application of Statistics and Probability (ICASP 8), Sydney,
1999, Band 2, Seite 681-688
[14] Leira, B.J. & Lindgard, J.: Statistical Analysis of Laboratory Test Data for Service
Life Prediction of Concrete subjected to Chloride Ingress. Application of Statistics
and Probability (ICASP 8), Sydney, 1999, Band 1, Seite 291-296
[15] M. Holický, H. Mihashi: Stochastic Optimisation of Concrete Cover exposed to Car-
bonation. Application of Statistics and Probability (ICASP 8), Sydney, 1999, Band 1,
Seite 279-284

148
Dauerhaftigkeit von Beton

[16] McGee, R.W.: Modelling of Durability Performance of Tasmanian Bridge. Applica-


tion of Statistics and Probability (ICASP 8), Sydney, 1999, Band 1, Seite 297-306
[17] Morgan, P.R., Ng, T.E., Smith, Nh.H.M. & Base, G.D.: Statistical Description of
Strength of Concrete. Journal of the Structural Division. ASCE, 105 (St 6), 1979,
Seite 1021-1037
[18] Rackwitz, R. & Balaji Rao, K.: Numerical Computation of Mean Failure Times for
locally non-stationary Failure Modes. Application of Statistics and Probability
(ICASP 8), Sydney, 1999, Band 1, Seite 159-165
[19] Schießl, P.; Gehlen, Ch.: Carbonatisierung des Betons – Von der Modellierung zur
Dauerhaftigkeitsbemessung. Massivbau 2002, Forschung, Entwicklungen und An-
wendungen. Sonderpublikation Bauingenieur, Hrsg. Konrad Zilch, Seite 138-158
[20] Schießl, P.; Gehlen, Ch.: Modellierung von Schadensvorgängen als Grundlage für
eine Dauerhaftigkeitsbemessung. Betonbau in Forschung und Praxis. Festschrift
zum 60. Geburtstag von György Iványi, Verlag Bau + Technik GmbH, Düsseldorf,
1999, Seite 317-321
[21] Schießl, P.; Gehlen, Ch.; Sodeikat, Ch.: Dauerhafter Konstruktionsbeton für Ver-
kehrsbauten. Betonkalender 2004, Seite 156-220
[22] Setzer, M.J.: Mikroeislinsenbildung und Frostschaden. Werkstoffe im Bauwesen –
Theorie und Praxis – Hans-Wolf Reinhardt, Hrsg. R. Eligehausen, ibidem-Verlag,
Stuttgart 1999, Seite 397-413
[23] Speck, K.: Verwendung von Abprodukten der chemischen Industrie als Betonzusatz/
Zuschlag. Diplomarbeit. Lehrstuhl für Massivbau. Technische Universität Dresden,
1998
[24] Stewart, M.G. & Kim Anh T.Vu: Structural Reliability Model for Deterioration of
Concrete Bridges. Application of Statistics and Probability (ICASP 8), Sydney,
1999, Band 1, Seite 315-322
[25] Wietek, B.: Langzeitverhalten von Stahlbeton bei kathodischem Korrosionsschutz.
Beton- und Stahlbetonbau 98, 2003, Heft 9, Seite
[26] Friedmann, H.; Amiri, O.; Aït-Mokhtar, A.; Dumargue, P.: A direct method for de-
termining chloride diffusion coefficient by using migration test. Cement and Con-
crete Research, Volume 34, Issue 11 , November 2004, Seite 1967-1973
[27] Poupard, O.; Aït-Mokhtar, A.; Dumargue, P.: Corrosion by chlorides in reinforced
concrete: Determination of chloride concentration threshold by impedance spectros-
copy. Cement and Concrete Research, Volume 34, Issue 6, June 2004, Seite 991-
1000
[28] Ismail, M.; Toumi, A.; François, R.; Gagné, R.: Effect of crack opening on the local
diffusion of chloride in inert materials. Cement and Concrete Research, Volume 34,
Issue 4, April 2004, Seite 711-716

149
Dauerhaftigkeit von Beton

150

Das könnte Ihnen auch gefallen