Beruflich Dokumente
Kultur Dokumente
Dresdner Probabilistik-Symposium
Sicherheit und Risiko im Bauwesen
Fakultät
Bauingenieurwesen
Dieses Werk ist urheberrechtlich geschützt. Die dadurch begründeten Rechte, insbesondere die der Übersetzung,
des Nachdrucks, des Vortrags, der Funksendung, der Mikroverfilmung oder der Vervielfältigung auf anderen
Wegen und der Speicherung in Datenverarbeitungsanlagen, bleiben, auch nur bei auszugsweiser Verwertung,
vorbehalten.
Die Wiedergabe von Warenbezeichnungen, Handelsnamen oder sonstigen Kennzeichnungen in diesem Buch
berechtigt nicht zu der Annahme, daß diese von jedermann frei benutzt werden dürfen. Vielmehr kann es sich
auch dann um eingetragene Warenzeichen oder sonstige gesetzlich geschützte Kennzeichen handeln, wenn sie
als solche nicht eigens markiert sind.
Vorwort
Das Dresdner Probabilistik-Symposium findet erfreulicherweise zum zweiten Mal statt. Viel-
leicht gelingt es den Besuchern, Vortragenden und Veranstaltern, damit eine Tradition auf-
zubauen. Zweifelsohne ist das Thema der Tagung ein sehr spezielles. Welcher Bauingenieur
hat schon bei seiner alltäglichen Arbeit Zeit, über die Sicherheit seiner Konstruktionen nach-
zudenken? In der Regel hält sich der Bauingenieur an die Regeln der Technik und kann davon
ausgehen, daß die Konstruktion dann die erforderliche Sicherheit erbringt. Gerade aber bei
anspruchsvollen Aufgaben, Fällen, in denen der Bauingenieur gezwungen ist, eigene Modelle
zu entwickeln, muß er die Sicherheit prüfen. In zunehmendem Maße versuchen Bauin-
genieure sich durch die Bewältigung solcher Aufgaben vom Markt abzugrenzen. Deshalb
sehen wir als Veranstalter langfristig auch einen steigenden Bedarf für die Vermittlung von
Grundlagen der Sicherheitstheorien im Bauwesen. Und vielleicht steigt mit den Jahren die
Anzahl der Besucher. Einen wichtigen Schritt werden wir nächstes Jahr gehen, wenn die Ver-
anstaltung in Zusammenarbeit mit Herrn Prof. Dr. Bergmeister von der Universität für Boden-
kultur in Wien stattfinden wird. Wir würden uns freuen, Sie alle im nächsten Jahr in Wien
zum 3. Probabilistik-Symposium begrüßen zu dürfen. Doch zunächst hoffen wir auf interes-
sante Vorträge und anregende Diskussionen zur diesjährigen Veranstaltung.
Die Veranstalter bedanken sich herzlich bei den Besuchern für Ihr Kommen, bei den Vortra-
genden für die anregenden Beiträge und bei allen Mitarbeiterinnen und Mitarbeitern, die zum
Gelingen des 2. Dresdner Probabilistik-Symposium beigetragen haben.
1 Einleitung
Sicherheit ist ein grundlegendes Bedürfnis jedes einzelnen Menschen. Die Interpretation
und Bedeutung des Begriffes Risiko unterscheidet sich jedoch für jeden Menschen gemäß
seiner Erfahrung und Tradition. Ein Mensch, der in seiner Kindheit von einem Hund gebis-
sen wurde, kann unter Umständen sein Leben lang ein besonders hohes Sicherheitsbedürf-
nis gegenüber Hunden besitzen. Dieses hohe Sicherheitsbedürfnis kann durch einen großen
räumlichen Abstand gegenüber Hunden zum Ausdruck kommen, aber auch in scharfen
Reaktionen gegenüber Mitmenschen, die diesen Tieren große Freiheiten einräumen. Je-
doch nicht alle Sicherheitsbedürfnisse entstehen durch eigene Erfahrungen. Wir sind heute
von einer Vielzahl von Informationsquellen abhängig. Eine dieser Informationsquellen ist
die Werbung.
Verschiedene Bereiche der Wirtschaft nutzen das Thema Sicherheit als ein Verkaufs-
argument. Häufig wird bei Werbebotschaften von Personenkraftfahrzeugen auf neue oder
erweiterte sicherheitserhöhende Maßnahmen hingewiesen. Beispielhaft sei das sogenannte
Pre-Safe-Paket von Mercedes zu nennen oder die deutliche Zunahme von Airbags in mo-
dernen Fahrzeugen. Während es vor wenigen Jahren den Airbag für den Beifahrer noch als
Sonderausrüstung gab, werden heute in vielen Fahrzeugen der Oberklasse eine nahezu
zweistellige Anzahl von Airbags eingebaut.
Auch bei anderen technischen Erzeugnissen wird besonderes Augenmerk auf die Sicher-
heit gelegt. So werden in Flugzeugen den Passagieren vor jedem Start Sicherheitsinforma-
tionen gegeben. Oder betrachten wir den Bereich der Nahrungsmittel. Dort wird oft auf die
1
Wahrnehmung und Risiko
Qualität und Sicherheit des Anbaus verwiesen. Ein letzter Bereich, der mit dem Begriff der
Sicherheit wirbt, ist der Bereich der Politik. Häufig verwenden Politiker die Begriffe der
inneren und äußeren Sicherheit bei Wahlveranstaltungen.
Wie sieht es aber mit der Sicherheit von Bauwerken aus? Es gibt allein über 120.000 Brük-
ken in Deutschland, über die jeden Tag zusammen mehrere Millionen von Kraftfahrzeugen
verkehren. Wieso ist bei Kraftfahrzeugen Sicherheit ein Thema und bei den Bauwerken
nicht?
2
Wahrnehmung und Risiko
Neben der genannten Begründung für die geringe Wahrnehmung der Sicherheit von Bau-
werken dürfte noch ein zweiter Grund vorhanden sein: Bauwerke weisen unter normalen
Umständen eine sehr hohe Sicherheit auf. Der Einsturz von Bauwerken während der Nut-
zung in den entwickelten Industrieländern liegt im einstelligen Bereich pro Jahr. Während
durch Verkehrsunfälle pro Jahr allein in Deutschland mehrere tausend Menschen sterben,
sind durch Einstürze von Bauwerken nur sehr wenige Menschen betroffen. Oft treten an
Bauwerken Schäden bereits lange vor dem Einsturz auf, die zu Sanierungs- oder Verstär-
kungsmaßnahmen führen. Im Prinzip handelt es sich bei Bauwerken um sehr gutmütige
technische Produkte. Diese hohe Sicherheit, z.B. dargestellt in Form von Sterbewahr-
scheinlichkeiten, ist auch in anderen technischen Bereichen zu finden. Betrachten wir die
Eisenbahn. Während in Bussen oder Flugzeugen Sicherheitsgurte verwendet werden müs-
sen, darf sich in Eisenbahnen jeder frei bewegen. Die geringe Anzahl von Unfällen auf
Grund der Spurführung des Fahrzeuges hat dazu geführt, daß sich die Menschen in diesem
Transportmittel sehr sicher fühlen.
Wie aber bereits erwähnt wurde, ist das Sicherheitsempfinden subjektiv. Die gerade ge-
nannte objektive Begründung für die unterschiedlichen Sicherheitsbedürfnisse ist deshalb
nur teilweise gültig. Fragt man Menschen, warum sie bei diesem oder jenem Produkt ein
höheres Sicherheitsbedürfnis entwickeln, fällt vielen Menschen die Erklärung schwer. Das
gleiche gilt für die Erläuterung von Risiken. Wie kann man Risiken bildhaft darstellen?
Einen Versuch zeigt Abb. 2. Vielleicht verschwindet das Problem der Risikovermittlung
aber wieder, wenn man sich vergegenwärtigt, daß Ausbildung, Schule und Erziehung letzt-
endlich nichts anderes als eine Risikokommunikation sind. Wir bringen Kindern das
Schwimmen bei, damit sie nicht ertrinken können. Wir bringen Kindern das Lesen bei, so
daß Sie Warnschilder erfassen können. Diese Form der Risikokommunikation ist Ursache
und Lösung der subjektiven Risikowahrnehmung bzw. der unterschiedlichen Schutzbe-
dürfnisse zugleich.
Folgendes Beispiel soll die unterschiedlichen Kenntnisse über Risiken und die damit ver-
bundenen Schwierigkeiten der Begründung der Sicherheitsbedürfnisse zeigen. Seit Jahr-
zehnten werden Pflanzensamen mit Röntgenstrahlungen beschossen, um Mutationen zu
verursachen, die höhere Erträge der Nutzpflanzen erlauben sollen. Es handelt sich hierbei
um eine grobe Form der Genmanipulation. Diese Form der Genmanipulation wird von der
Bevölkerung nicht wahrgenommen und damit passiv akzeptiert. Neuere Formen der Gen-
manipulation mit gezielter Veränderung der Genstruktur der Pflanzen werden aber von
großen Teilen der Bevölkerung abgelehnt. Eine Diskussion der beiden verschiedenen Ver-
fahren hinsichtlich der Risiken hat auch niemals in der Bevölkerung stattgefunden, aber bei
dem letztern Verfahren existiert auf Grund der der Bevölkerung zugänglichen Informatio-
nen ein höheres Sicherheitsbedürfnis. Viele Menschen wirken verwundert, wenn man ih-
nen davon berichtet, daß sie seit Jahrzehnten genetisch modifizierte Lebensmittel ver-
wenden. [1]
Die Lieferung von Informationen an die Bevölkerung und damit die Befähigung zur Si-
cherheitsbeurteilung ist eine der wichtigsten Aufgaben von Wissenschaftlern und in gewis-
ser Weise auch von Journalisten. Und auch wenn die hohe, aber von der Bevölkerung nicht
wahrgenommene Sicherheit von Bauwerken als ein Kompliment an die Bauingenieure
verstanden werden kann, so ist die Diskussion der Sicherheit und des Risikos von Bau-
werken nicht nur eine Aufgabe für die Bauingenieure untereinander, wie es im Rahmen
3
Wahrnehmung und Risiko
dieser Veranstaltung durchgeführt wird, sondern auch die Aufgabe des Ingenieurs, dieses
Wissen in die Öffentlichkeit zu tragen.
Abb. 2: Poster einer Ausstellung, die das Thema bildliche Darstellung von Risiken bein-
haltete [2]
3 Literatur
[1] Proske, D.: Katalog der Risiken – Risiken und ihre Darstellung. Eigenverlag, Dresden
2004
[2] http://perso.ensad.fr/~fabienne/traverse-risque/, 2004
4
Das Datenmodell Fuzzy-Zufälligkeit und seine Anwendung im Ingenieurbau
1 Einleitung
Die Anwendung von Fuzzy-Zufallsgrößen bietet die Möglichkeit, Unschärfe mit der
Charakteristik Fuzzy-Zufälligkeit mathematisch zu beschreiben. Fuzzy-Zufälligkeit tritt auf,
wenn Zufallsgrößen nicht exakt beobachtet werden können, z.B. infolge schwankender
Randbedingungen. Fuzzy-Zufallsgrößen können auch als fuzzifizierte Zufallsgrößen
interpretiert werden, da das zufällige Ereignis nur unscharf beobachtet werden kann.
Für die Analyse eines Tragwerkes mit Hilfe eines scharfen (oder unscharfen) Algorithmus und
* Erstveröffentlichung in:
Festschrift zum 60. Geburtstag von Prof. Hartmann, Ruhr-Universität Bochum
5
Das Datenmodell Fuzzy-Zufälligkeit und seine Anwendung im Ingenieurbau
Viele Material-, Geometrie- und Lastparameter zeigen fuzzy-zufällige Variationen in Zeit und
Raum. Zur mathematischen Beschreibung dieser Parameter werden Fuzzy-Zufallsfunktionen
eingeführt, die bei der Tragwerksanalyse mit Hilfe der Fuzzy Stochastic Finite Element
Method (FSFEM) berücksichtigt werden.
Das Konzept der Fuzzy-Zufallsgrößen wird auch für die Sicherheitsbeurteilung von
Tragwerken angewendet, z.B. in Form der Fuzzy First Order Reliability Method (FFORM),
s. Abschn. 7.
Das mechanische Verhalten von Tragwerken kann nur dann realistisch beurteilt werden, wenn
alle Eingangsdaten zutreffend beschrieben werden und ein wirklichkeitsnahes Berech-
nungsmodell eingesetzt wird. Eingangs- und Modellparameter liegen oft nur unscharf vor.
Häufig existieren für unscharfe Parameter nur Stichproben mit begrenzter Anzahl von
Stichprobenelementen, aus denen eine formale mathematische Beschreibung der Unschärfe zu
entwickeln ist. Die Testtheorie der klassischen Statistik erlaubt die Testung einer Stichprobe
auf Zufälligkeit. Falls die Stichprobe nicht die Eigenschaft Zufälligkeit besitzt, sind andere
Unschärfemodelle wie das für Fuzzy-Zufälligkeit heranzuziehen.
Die in Abb. 1 dargestellte konkrete Stichprobe soll bezüglich der zuzuordnenden Unschärfe
beurteilt werden. Die Stichprobenelemente beschreiben die Zugfestigkeit von Glasfilament-
garn. Die Stichprobe wird mit der Schätz- und Testtheorie ausgewertet. Zur Prüfung der
zufälligen Eigenschaften der Stichprobe in Abb. 1 werden parameterfreie Tests durchgeführt.
Die Nullhypothese H0 – "die Stichprobenelemente sind zufällig" – wird mit einem
Signifikanzniveau von 0,987 abgelehnt. Der Test auf Homogenität ergibt, daß die
Nullhypothese H0 – "die abgeteilten Stichproben mit den Elemente 1-55 und 56-110 stammen
aus derselben Verteilung" – mit 1,0 abgelehnt wird. Mit Hilfe von Anpassungstests wird der
Typ der Wahrscheinlichkeitsverteilung der Stichprobe gesucht. Der KOLMOGOROV-
SMIRNOV-Anpassungstest liefert sowohl für die Normalverteilung als auch für die
logarithmische Normalverteilung eine Ablehnsicherheit von 0,0. Die eindeutige Zuordnung
eines Verteilungstyps ist folglich nicht möglich. Das i.i.d.-Paradigma (i.i.d. = identical
independent distributed) der Statistik ist nicht erfüllt.
6
Das Datenmodell Fuzzy-Zufälligkeit und seine Anwendung im Ingenieurbau
Wie die folgende numerische Studie zur Festlegung des Verteilungstyps einer Grundgesamt-
heit zeigt, kann informelle Unschärfe nicht allein durch Zufälligkeit beschrieben werden.
Gegeben sei eine Grundgesamtheit mit theoretisch exakter Normalverteilung, dem Er-
wartungswert E(X) = 3 und der Varianz VAR(X) = 1. Es werden 40 000 Stichproben vom
Umfang n = 100 gezogen. Obwohl der Verteilungstyp der Grundgesamtheit bekannt ist,
werden für die gezogenen Stichproben alternativ Normalverteilung und logarithmische
Normalverteilung angenommen. Für jede Stichprobe werden die Parameter der
angenommenen Normalverteilung und der logarithmischen Normalverteilung mit der
Maximum-Likelihood-Methode geschätzt. Die Erwartungswerte und die Varianzen der 40.000
geschätzten Verteilungen werden berechnet, sie sind in Abb. 2 als Häufigkeitsverteilung
zusammengefaßt. Obwohl die Ziehung der Stichproben unter gleichbleibenden Bedingungen
erfolgte, ist erkennbar, daß eine erhebliche informelle Unschärfe besteht, wenn der
Verteilungstyp einer Grundgesamtheit nicht zutreffend bestimmt werden kann.
7
Das Datenmodell Fuzzy-Zufälligkeit und seine Anwendung im Ingenieurbau
Abb. 2: Häufigkeitsverteilungen des Erwartungswertes E(X) und der Varianz VAR(X) bei
unterschiedlichen Annahmen zum Typ der Verteilungsfunktion
3 Fuzzy-Zufallsgrößen
Grundlegende Begriffe und Definitionen zur Theorie der Fuzzy-Zufallsgrößen wurden in [1],
[2], [3] und [4] eingeführt. Fuzzy-Zufallsgrößen sind durch Erweiterung des axiomatischen
Wahrscheinlichkeitsbegriffes nach KOLMOGOROV definiert. Der Wahrscheinlichkeitsraum
S
[X; ; P] wird dabei um die Dimension Fuzziness erweitert; das unscharfe Maß
Wahrscheinlichkeit bleibt über dem n-dimensionalen EUKLIDischen Raum Rn erklärt.
Ω6
~
F(Rn) (1)
mit F(Rn) als Menge aller Fuzzy-Größen im Rn. Jede gewöhnliche Zufallsgröße X (ohne
- enthalten ist, wird als Original von X
Fuzziness) auf X, die vollständig in X - bezeichnet. Die
Fuzzy-Zufallsgröße X - ist die Fuzzy-Menge aller möglichen Originale X, die in X - enthalten
sind. Die Fuzzy-Zufallsgröße X - kann mit einer Fuzzy-Wahrscheinlichkeitsverteilungsfunktion
-F(x) mathematisch beschrieben werden.
Die Fuzzy-Wahrscheinlichkeitsverteilungsfunktion - -
F(x) von X ist die Menge der Wahr-
- mit den Zugehörigkeitswerten
scheinlichkeitsverteilungsfunktionen aller Originale X von X
µ(F(x)), s. Abb. 3. Die Quantifizierung der Fuzziness durch Fuzzy-Parameter führt auf die
Beschreibung der Fuzzy-Wahrscheinlichkeitsverteilungsfunktion - - als Funktion der
F(x) von X
Fuzzy-Scharparameter -s .
8
Das Datenmodell Fuzzy-Zufälligkeit und seine Anwendung im Ingenieurbau
-( x )
F ' F(-s , x) (2)
Abb. 3:
-
Fuzzy-Wahrscheinlichkeitsdichtefunktion f (x) und Fuzzy-Wahrscheinlichkeits-
verteilungsfunktion -
F(x) einer eindimensionalen kontinuierlichen Fuzzy-
Zufallsgröße
4 Fuzzy-Zufallsfunktionen
Unscharfe Parameter (z.B. Materialparameter, Belastungen oder Randbedingungen), deren
Ausprägung von der Zeit τ oder von den Raumkoordinaten Θ = {Θ1, Θ2, Θ3} abhängig ist und
denen die Unschärfecharakteristik Fuzzy-Zufälligkeit zugeordnet werden kann, können mit
Fuzzy-Zufallsfunktionen quantifiziert werden. Die Zeit- und Raumkoordinaten werden im
Vektor t = {τ, Θ} zusammengefaßt. Eine Fuzzy-Zufallsfunktion ist dann eine Menge von
Fuzzy-Zufallsgrößen X - (t) = { X - (t, ω ), t 0 T} über einem gemeinsamen Fuzzy-
- - - -
S
Wahrscheinlichkeitsraum [X; ; P ]. Eine Fuzzy-Zufallsfunktion X (t) ={ X (t, ω), t 0 T} ent-
steht durch die unscharfen Abbildungen von T × Ω auf F(Rn). Ein Exemplar der Fuzzy-
Zufallsfunktion ohne Zufälligkeit ist eine Fuzzy-Funktion [5]. Ein Exemplar der Fuzzy-
Zufallsfunktion ohne Fuzziness ist eine gewöhnliche Zufallsfunktion, die Originalfunktion der
- (t, ω) eine Fuzzy-Zufallsgröße
Fuzzy-Zufallsfunktion genannt wird. Für jedes t 0 T 0 Rn ist X
-
im Fuzzy-Wahrscheinlichkeitsraum [X; ; - S
P ].
Mit Hilfe der α-Diskretisierung kann eine Fuzzy-Zufallsfunktion als Menge von α-
Niveaumengen gewöhnlicher Zufallsfunktionen formuliert werden
- ( t ) ' {X ( t ); µ(X ( t )) | X ( t ) ' [X ( t ); X ( t )], µ(X ( t )) ' α,
X œα 0 (0, 1(4)
α α α min,α max,α α
Für eine Fuzzy-Zufallsfunktion, die allein von den Raumkoordinaten abhängig ist, wird der
Begriff Fuzzy-Zufallsfeld verwendet, bei Abhängigkeit von der Zeit der Begriff Fuzzy-
9
Das Datenmodell Fuzzy-Zufälligkeit und seine Anwendung im Ingenieurbau
5 Unscharfe Datenanalyse
Aus dem umfangreichen Gebiet der unscharfen Datenanalyse wird hier im Zusammenhang mit
der Modellierung von Fuzzy-Zufälligkeit das Aufstellen der Fuzzy-Wahrscheinlichkeits-
verteilungsfunktionen betrachtet. Diese Funktionen werden nach Gl. (2) in Abhängigkeit von
Fuzzy-Scharparametern formuliert. Fuzzy-Scharparameter können alle Funktionsparameter
und/oder Parameter zur Beschreibung des Funktionstyps sein.
Die hier entwickelten Methoden der unscharfen Datenanalyse zur Fuzzy-Bewertung der stati-
stischen Inferenz gehen sowohl von der klassischen als auch von der modernen Statistik aus,
Bootstrap-Verfahren werden einbezogen [7]. Für Punkt- und Intervallschätzungen der
Verteilungsparameter werden Momentenschätzer und Maximum-Likelihood-Schätzer
eingesetzt. Angenommene Verteilungstypen werden mit Hilfe von Anpassungstests bewertet.
Verteilungsfreie Schätzverfahren zur Beurteilung von Stichproben (Test auf Zufälligkeit, Test
auf Homogenität) werden ebenfalls verwendet. Zur Berücksichtigung der informellen
Unschärfe wurden zwei Konzepte entwickelt.
Fuzzy-Parameterschätzung
Bei Annahme eines Funktionstyps für die Fuzzy-Wahrscheinlichkeitsverteilungsfunktion
reduziert sich das Schätzproblem auf die Ermittlung der Verteilungsparameter. Diese werden
als Fuzzy-Zahlen modelliert. Hier wird vorgeschlagen, den Gipfelpunkt der Fuzzy-Parameter
durch Punktschätzung und die α-Niveaumengen durch Intervallschätzung bei vorgegebenem
Konfidenzniveau festzulegen. Abb. 4 zeigt das Vorgehen am Beispiel einer Fuzzy-Dreieckzahl.
10
Das Datenmodell Fuzzy-Zufälligkeit und seine Anwendung im Ingenieurbau
6 Fuzzy-probabilistische Tragwerksanalyse
Ziel der fuzzy-probabilistischen Tragwerksanalyse ist es, die fuzzy-zufälligen Eingangsgrößen
- und die Fuzzy-Modellgrößen mit Hilfe eines scharfen (oder unscharfen) Analyse-
X j
algorithmus M ( M - ) auf Ergebnisgrößen abzubilden. Die Ergebnisse -Z 0 -Z der fuzzy-
i
probabilistischen Tragwerksanalyse sind Fuzzy-Zufallsgrößen.
-Z ' Z- , ..., -Z , ..., Z- ' M
- (X
-) (5)
1 i m
Nachfolgend wird für den deterministischen Kern des Abbildungsoperators M(-s , X) ein physi-
kalisch nichtlinearer Analysealgorithmus für allgemeine Stahlbeton-Faltwerke nach [8]
verwendet. Dieser Algorithmus repräsentiert die deterministische Grundlösung. Er gestattet
die realitätsnahe Simulation komplexer Lastprozesse unter Berücksichtigung aller wesent-
lichen Stahlbeton-Nichtlinearitäten.
Für die probabilistische Grundlösung wird die Monte-Carlo-Simulation [10] eingesetzt - zur
Verminderung des numerischen Aufwandes in der Form einer Quasi-Monte-Carlo-Methode.
11
Das Datenmodell Fuzzy-Zufälligkeit und seine Anwendung im Ingenieurbau
Die FSFEM sei an einem Beispiel demonstriert. Das Stahlbeton-Faltwerk in Abb. 5 wird unter
Berücksichtigung der maßgebenden Nichtlinearitäten des Stahlbetons und der Fuzzy-
Zufälligkeit von Beton-Druckfestigkeit und Flächenlast berechnet.
Für jede Faltwerkebene ist die Ausdehnung des Tragwerkes in R2 scharf. Das System wird mit
48 finiten Elementen vernetzt. Jedes Element mit einer Gesamtdicke von 10 cm ist zuvor mit
sieben äquidistanten Betonschichten und jeweils zwei kreuzweise angeordneten verschmierten
Bewehrungsschichten an der Ober- und Unterseite modelliert worden (s. Abb. 5).
5 p
1,5 m
1 4
x3 x2
2 x1
Auflagerbedingungen:
Rand 2 - 4 - 6
v~1 = φ2~ = φ3~ = 0
4
Rand 5 - 6 3
v~2 = φ1~ = φ3~ = 0 9 2
1
8 5
Punkt 1 10 6
7
v3~ = 0 11
Es werden das Beton-Stoffgesetz nach KUPFER/LINK und ein bilineares Stoffgesetz für den
Bewehrungsstahl verwendet. Die Erfassung von Beton-Zugrissen im Element erfolgt
schichtenweise nach dem Konzept der verschmierten Risse. Die unscharfe Flächenlast wird
inkrementell bis zum vorgegebenen Gebrauchslastniveau gesteigert. In dieser Laststufe werden
ausgewählte Ergebnisgrößen bereitgestellt. Bei Berücksichtigung der Fuzzy-Zufälligkeit der
unscharfen Eingangsgrößen sind auch die Ergebnisgrößen Fuzzy-Zufallsgrößen.
12
Das Datenmodell Fuzzy-Zufälligkeit und seine Anwendung im Ingenieurbau
wenn L 0 [0, -
L
1& - Lz]
-k (L) ' Lz
z
0 sonst
Abb. 6: - und X
Bestimmung des Korrelationsfaktors zweier diskreter Fuzzy-Zufallsgrößen X -
i j
in Abhängigkeit vom räumlichen Abstand der Diskretisierungspunkte lij
Die Flächenlast p wird als Original eines voll korrelierten Fuzzy-Zufallsfeldes, d.h. als
gewöhnliche Zufallsgröße, modelliert. Die Parameter sind in Tab. 1 zusammengefaßt.
13
Das Datenmodell Fuzzy-Zufälligkeit und seine Anwendung im Ingenieurbau
Beton-Druckfestigkeit Flächenlast
βc [N/mm2] p [kN/m²]
7 Fuzzy-probabilistisches Sicherheitskonzept
Ziel des fuzzy-probabilistischen Sicherheitskonzeptes ist die Ermittlung und Bewertung des
Sicherheitsniveaus von Tragwerken unter Berücksichtigung von Fuzzy-Zufallsgrößen.
Ergebnis ist entweder die Fuzzy-Versagenswahrscheinlichkeit oder der Fuzzy-
Sicherheitsindex. Die Fuzziness des berechneten Sicherheitsniveaus charakterisiert die neue
Qualität der Sicherheitsbeurteilung im Vergleich zu üblichen probabilistischen Methoden.
Mit -P wird die Wahrscheinlichkeit bewertet, daß die unscharfe Beanspruchung (Einwirkung
-S ) desf Tragwerkes größer als die unscharfe Beanspruchbarkeit (Widerstand R - ) ist. Die
14
Das Datenmodell Fuzzy-Zufälligkeit und seine Anwendung im Ingenieurbau
Mit Hilfe der α-Diskretisierung wird das Integral originalweise ausgewertet. Der Raum der
Scharparameter der Fuzzy-Wahrscheinlichkeitsverteilungsfunktionen wird um die Fuzzy-
Modellparameter erweitert. Realisierungen der Scharparameter liefern die Verbunddichte-
funktion fX(x) und den scharfen Grenzzustand g(x) = 0.
Die originalweise Auswertung des Integrals (Gl. (9)) gelingt mit analytischen Verfahren,
numerischer Integration, Simulationsverfahren und probabilistischen Näherungsverfahren. Die
probabilistischen Näherungsverfahren wurden so weiterentwickelt, daß sowohl Basisvariable
in Form von Fuzzy-Zufallsgrößen als auch Modellparameter in Form von Fuzzy-Größen
berücksichtigt werden können. Die Zuverlässigkeitstheorie 1.Ordnung (FORM) wird zur
Fuzzy-Zuverlässigkeitstheorie 1.Ordnung (FFORM) [11] erweitert.
Danksagung
Die Autoren danken der Deutschen Forschungsgemeinschaft (DFG) für die finanzielle
Unterstützung der vorgestellten Forschungsarbeiten im Rahmen des Sonderforschungs-
bereiches (SFB) 528.
15
Das Datenmodell Fuzzy-Zufälligkeit und seine Anwendung im Ingenieurbau
Literatur
[1] Kwakernaak, H.: Fuzzy random variables - I. Definitions and Theorems. Information
Sciences 15, (1978) 1-29
[2] Kwakernaak, H.: Fuzzy random variables - II. Algorithms and Examples for the
Discrete Case. Information Sciences 17 (1979) 253-278
[3] Puri, M.L.; Ralescu, D.: Fuzzy random variables. J. Math. Anal. Appl. 114(1986) 409-
422
[4] Liu, Y.; Qiao, Z.; Wang, G.: Fuzzy random reliability of structures based on fuzzy
random variables. Fuzzy Sets and Systems 86 (1997) 345-355
[6] Wang, G.; Zhang, Y.: The theory of fuzzy stochastic processes. Fuzzy Sets and
Systems 51 (1992) 161-178
[8] Graf, W., Möller, B., Hoffmann, A., Steinigen, F.: Numerical simulation of RC
structures with textile reinforcement. In: Fifth World Congress on Computational
Mechanics, Vienna, 2002, http://wccm.tuwien.ac.at
[9] Möller, B.; Graf, W.; Beer, M.: Fuzzy structural analysis using α-level optimization.
Computational Mechanics 26(6) (2000) 547-565
[11] Möller, B.; Beer, M.; Graf, W.: Safety assessment of structures in view of fuzzy
randomness. Computers and Structures 81 (2003) 1567-1582
[12] Möller, B.; Beer, M.: Fuzzy-Randomness - Uncertainty in Cicil Engineering and
Computational Mechanics. Springer-Verl., 2004
[13] Sickert, J.-U.; Beer, M.; Graf, W.; Möller, B.: Fuzzy Probabilistic Structural Analysis
considering Fuzzy Random Functions. In: Der Kiureghian, A.; Madanat, S.; Pestana,
J.M. (Eds.): 9th Int. Conference on Applications of Statistics and Probability in Civil
Engineering, San Francisco, 2003, pp. 379-386
16
Zuverlässigkeitsbemessung von Stahlbetontragwerken mit SARA
Zuverlässigkeitsbemessung von
Stahlbetontragwerken mit SARA
Allgemein
SARA ist ein Werkzeug zur Analyse und Zuverlässigkeitsbewertung von Strukturen. Das
Programm ist speziell für Ingenieurtragwerke, aber auch für allgemeine Problemstellungen
konzipiert. In SARA sind ein nichtlineares Finite-Elemente-Programm ATENA und das
Statistik Programm FREET integriert, siehe Bild 1.
Das Finite-Elemente-Programm ATENA dient zur realistischen Simulation von Beton- und
Stahlbetonstrukturen. Das Statistik Programm FREET ist eine Software, welche die
Berücksichtigung von streuenden Eingangsgrößen bei der Formulierung von analytischen
Grenzzustandsfunktionen als auch Antwortfunktionen ermöglicht. Die Kombination beider
Programme ermöglicht die Berücksichtigung der in ATENA verwendeten Parameter als
streuende Größen und die Anwendung der probabilistischen Methodik in FREET –
Zuverlässigkeitsanalyse, Sensitivitätsanalyse – auf eine Finite-Elemente-Struktur. Das
System SARA bietet sowohl eine anwendungsfreundliche, interaktive, graphische Ober-
fläche als auch eine umfassende Datenbank für stochastische Modelle, siehe Bild 1 und
Bild 2.
Das vorrangige Ziel der probabilistischen, nichtlinearen Analyse ist die Erlangung einer
statistischen Antwort der Struktur (z.B. Versagenslast, Durchbiegung, Risse, Spannungen
etc.), welche in der Folge für die Sensitivitätsanalyse, die Zuverlässigkeitsanalyse als auch
zur Überprüfung von Computermodellen verwendet wird. Weitere Werkzeuge, welche in
das System SARA inkludiert werden, sind Formulierungen zur Beschreibung von Degra-
17
Zuverlässigkeitsbemessung von Stahlbetontragwerken mit SARA
SARA Studio
Mittelwert
Standardabweichung Berücksichtigung der gewünschten
Variationskoeffizienten Korrelationsbeziehungen
Verteilungstyp
Degradationsprozesse
Die Betonmodelle in ATENA beschreiben den kompletten Bereich des ebenen Spannungs-
zustandes unter Druck und Zug. Die biaxialen Spannungszustände werden mit Hilfe von
biaxialen Versagensfunktionen erfaßt. Das Zugverhalten (Risse) wird zu einem Teil über
die Risßband-Methode modelliert. Das gesamte Softeningverhalten – auch für den Druck-
bereich – basiert auf einem netzunabhängigen Ansatz. Der dreidimensionale Spannungs-
zustand wird anhand der Plastizitätstheorie mit einem nicht assoziierten Fließgesetz
beschrieben, wobei auch der „Einschnürungs“-Effekt nach Menètrey und Willam [1]
berücksichtigt wird. In ATENA besteht aber auch die Möglichkeit, das Microplane-Modell
nach Bažant et al. [2] zu verwenden. Eine Vielzahl von anderen Modellen ist ebenfalls in
ATENA implementiert, um eine erfolgreiche Simulation zu unterstützen (z.B. Beweh-
rungsstahl, Stahl, Verbundverhalten von Bewehrungsstahl, Interfaces, Grundbaumodelle
etc.). Eine detailliertere Beschreibung ist in Strauss [3] zu finden.
1.1.2 FREET
FREET (Feasible Reliability Engineering Efficient Tool) ist eine vielseitige probabilisti-
sche Software für die statistische, Sensitivitäts- und Zuverlässigkeitsanalyse von Inge-
18
Zuverlässigkeitsbemessung von Stahlbetontragwerken mit SARA
nieurproblemen. Die Software ist für die relativ einfache statistische Auswertung jedes
beliebig formulierten Berechnungsproblems entworfen und eignet sich für berechnungs-
intensive Problemstellungen, bei denen die Durchführung tausender Berechnungen, wie
bei der Monte-Carlo-Methode benötigt, nicht möglich ist. Mit einem speziellen Typ der
numerischen probabilistischen Simulation, Latin Hypercube Sampling (LHS), ist es mög-
lich, mit einer wesentlich kleineren Anzahl an Simulationen als es bei der Monte-Carlo-
Methode für die Berechnung von Versagenswahrscheinlichkeiten notwendig ist, das Aus-
langen zu finden. „Simulated Annealing“, eine stochastische Optimierungsmethode, wird
verwendet, um für die Zufallsgrößen die gewünschten Korrelationen zu erreichen. Als
Resultat der Simulationen erhält man die statistische Antwortfunktion einer bestimmten
Problemstellung, z.B. Durchbiegung oder Tragsicherheit. Diese Antwortfunktion dient zur
Formulierung des Zuverlässigkeitsproblems als auch für die Sensitivitätsanalyse. Die
Sensitivitätsanalyse erlaubt eine Unterscheidung zwischen den dominanten und den weni-
ger dominanten am Resultat beteiligten Zufallsgrößen und erleichtert somit die Erkennung
von Unzulänglichkeiten in der Struktur. Eine detailliertere Beschreibung dieser Software
ist in Nòvak [4] zu finden.
1.1.3 DATENBASIS
Als drittes Element innerhalb des SARA-Systems wurde eine Datenbank für stochastische
Modelle aufgebaut, siehe Bild 2. Die Datenbank bietet dem Anwender die Möglichkeit,
innerhalb von FREET aus stochastischen Modellen für Widerstände, Geometrien und Ein-
wirkungen zu wählen. Die stochastischen Modelle sind generell durch die beiden ersten
statistischen Momente und durch den Verteilungstyp beschrieben. Die Quellen dieser
stochastischen Modelle sind Literaturangaben, Produktionsdaten und Experimente. Nähere
Details sind in Strauss [3] beschrieben.
Datenbank
Mittelwert, Std, CoV
Verteilungstyp
1.2 Lösungsverfahren
Das Lösungsverfahren für die Zuverlässigkeitsbewertung und Sensitivitätsanalyse einer
Struktur kann in folgende Punkte gegliedert werden, siehe auch Bild 3.
19
Zuverlässigkeitsbemessung von Stahlbetontragwerken mit SARA
1.1
1.2
1.3
2.2
3.1
Simualted Annealing
Umordnung der Parameter der geschaffenen Problemstellungen zur Erzielung der gewünschten Korrelationen
3.2
4.1
4.2 bzw. 5
4.3 bzw. 5
Zuverlässigkeitsanalyse Sensitivitätsanalyse
6.1 6.2
1. Das deterministische Modell der Struktur wird in ATENA vorbereitet und über-
prüft.
2. Unsicherheiten und Zufälligkeiten der Eingangsgrößen werden als Zufallsgrößen
modelliert und mit Hilfe der Verteilungsdichtefunktionen (PDF) beschrieben. Aus
dieser Beschreibung resultieren die Sätze der Eingangsgrößen für die späteren mul-
tiplen Berechnungsmodelle in ATENA. Die Zufallsgrößen werden mittels Mittel-
wert, Varianz oder anderen statistischen Parametern beschrieben (generell mittels
PDF).
20
Zuverlässigkeitsbemessung von Stahlbetontragwerken mit SARA
R
M
S
σR σM
pf
σs
µM m
µS µR r, s β ∗ σΜ
β∗
σΜ
Anwendungsbeispiel
Die zuvor beschriebene Software SARA wurde verwendet, um für ein Objekt der Brenner-
autobahn eine Zuverlässigkeitsanalyse und in der Folge eine Abschätzung der Lebensdauer
durchzuführen. Es handelt sich um einen ca. 1 km langen Brückenzug, von dem die Hohl-
kastenbrücken über dem Tal näher untersucht wurden. Die Hohlkästen mit 211 Spann-
kabeln wurden im Freivorbau gefertigt, im Endzustand lag eine statisch bestimmte
Lagerung vor. Als streuende Größen – Zufallsgrößen – wurden die Betoneigenschaften
Druckfestigkeit, Zugfestigkeit, Bruchenergie, Elastizitätsmodul und Poisson-Zahl, die
Stahleigenschaften Elastizitätsmodul und Fließgrenze und die Spannstahleigenschaften
Elastizitätsmodul und Fließgrenze eingeführt. Zwischen den einzelnen Parametern erfolgt
21
Zuverlässigkeitsbemessung von Stahlbetontragwerken mit SARA
auch die Einrichtung der Korrelationsbeziehungen, siehe Strauss [5]. Die detaillierten
Angaben über diese Berechnung sind in Strauss [3] zu finden.
167 m
45 m
17.5 m 91 m 59 m 59 m 91 m 17.5 m
167 m
45 m
59 m 91 m 1 7 .5 m
Die erste Zuverlässigkeitsanalyse der Tragsicherheit des Objektes – es erfolgte eine Last-
steigerung bis zum Versagen – unter der Annahme, daß sämtliche Materialien ihre Aus-
gangseigenschaften nach wie vor besitzen, ergab einen Sicherheitsindex β von 11.96, siehe
Bild 6. Eine nochmalige Simulation unter der Annahme, daß 30 % der Spannglieder
beschädigt sind, zeigte einen Abfall dieses Index auf β = 6.0. Diese Annahme erfolgte auf-
grund von Informationen aus Bauwerksüberwachungen. Beide Indizes sind von dem in den
Normvorschriften geforderten Niveau von 4.7 relativ weit entfernt und dürften daher im
ersten Augenblick nicht beunruhigen. Ein β-Index von 4.7 entspricht etwa dem Versagen
von einem aus einer Million gleichwertig ausgeführten Bauwerken. Betrachtet man jedoch
das nach Frangopol aufgestellte Modell zur Abschätzung der Lebensdauer der Objekte,
siehe Bild 6, so sieht man, daß spätestens in 10 Jahren dieses Niveau von β = 4.7 erreicht
sein wird. Es stellt sich die Frage, ob bis zu diesem Zeitpunkt gewartet oder sofort eine
Maßnahme gesetzt werden soll. Hilfestellungen für diese Entscheidungen bieten Kosten-
modelle, wie in Rackwitz [6] oder Frangopol [7] vorgeschlagen werden. Der Verlauf der
Abgangsfunktionen innerhalb des Bildes 6 kann mit Hilfe der Weibull-Formulierun-
gen φ(t) = α∗β∗tβ-1*e(-α*tβ) beschrieben werden. Die Parameter α und β werden aus mehr-
fachen Zuverlässigkeitsbeurteilungen in Kombination mit Bauwerksüberwachungen,
verteilt über mehrere Zeitpunkte, bestimmt.
22
Zuverlässigkeitsbemessung von Stahlbetontragwerken mit SARA
30 Jahre; β = 11.96
35 Jahre; β = ....
Ideal 40 Jahre β = ...
β = 11.96
Ausführungs, Gesundheitsindex
Vorbeugende Maßnahme
Wesentliche Maßnahme
β = ~ 6.0
ca.30 % Spanngliedausfall
Sicherheitsindex β
Zeit [Jahre]
Diese Simulationstechnik, unterstützt durch SARA, bietet zusammen mit einem kontinu-
ierlichen Monitoringsystem ein geeignetes Mittel für die Abschätzung der Lebensdauer, da
zeitliche Änderungen unmittelbar vom Monitoring abgelesen werden und diese für die
Zukunftsprognose im Simulationsprozeß einfließen können. Vor dem Start eines solchen
Systems ist es wichtig, die verwendeten stochastischen Modelle auf ihre Genauigkeit zu
prüfen und eventuell zu kalibrieren. Dies kann durch die Maximierung des Überschnei-
dungsbereiches zwischen Meßergebnissen und den Simulationsergebnissen der statisti-
schen Antwortgrößen an einem Beobachtungspunkt erfolgen. Durch unterschiedliche
Laststellungen ist es möglich, die Bedeutung der Zufallsgrößen am Ergebnis zu steuern
und somit ist auch deren Kalibrierung relativ einfach.
23
Zuverlässigkeitsbemessung von Stahlbetontragwerken mit SARA
3.5
∆t
t1 tn
Bild 7: Inspektionsmodell für die Tragsicherheit einer Struktur auf der Basis des
zeitabhängigen Sicherheitsindex
24
Zuverlässigkeitsbemessung von Stahlbetontragwerken mit SARA
Schlußfolgerung
Diese Möglichkeit der probabilistischen Berechnung von herkömmlichen Ingenieur-
konstruktionen ermöglicht die relativ einfache Bestimmung des Sicherheitsniveaus von
existierenden Strukturen. Die Kombination dieses Verfahrens mit Degradationsmodellen
erlaubt eine effiziente Erhaltungsplanung unter eventueller Einbeziehung von Kosten-
modellen. Die streuenden Daten für die Eingabe können, soweit keine näheren Angaben
über das Objekt vorhanden sind, aus der entwickelten Datenbank oder aus Stichproben-
entnahmen und Monitoring-Daten extrahiert werden. Ein intelligentes Inspektionssystem
für Ingenieurstrukturen – Informationsgewinnung – spielt bei der Lebensdauerplanung von
Strukturen eine wesentliche Rolle. Die daraus gewonnenen Informationen können in das
„Time-dependent safety-index-concept“ einfließen. Sie erlauben, die Abgangsfunktionen
des Sicherheitsniveaus zu kalibrieren.
Danksagung
Die vorgestellte Forschung wurde teilweise durch das Czech Grant Agency Grant
Nr.103/02/1030, 103/04/2003 unterstützt.
25
Zuverlässigkeitsbemessung von Stahlbetontragwerken mit SARA
Literatur
[1] Menétrey, P.; Willam, K.J.: Triaxial failure criterion for concrete and its generali-
zation. ACI Structural Journal 92 (3), 1995, Seite 311-318.
[2] Bažant, Z.P.; Caner, F.C.; Carol, I.; Adley, M.D.; Akers, S.A.: Micoplane model M4
for concrete: I. Formulation with work-conjugate deviatoric stress. J. of Engrg.
Mechanics ASCE 126 (9), 2000, Seite 944-953.
[3] Strauss, A.: Stochastische Modellierung und Zuverlässigkeitsanalyse von Beton-
konstruktionen. Dissertation am Institut für Konstruktiven Ingenieurbau, Universität
für Bodenkultur Wien, 2003
[4] Novák, D: FREET – Feasible Reliability Engineering Efficient Tool – Program docu-
mentation. Brno University of Technology, faculty of Civil Engineering, Institute of
Structural Mechanics / Červenka Consulting, Prague, Czech Republic, 2002
[5] Strauss, A.; Bergmeister, K.; Hostnik R.: Der Einfluß des Wechsels der Zementgüte
PZ 375 zu PZ 275 auf die statistischen Kennwerte der Druckfestigkeit der Betongüte
C25/30, Serie 7. Institut für Konstruktiven Ingenieurbau, Universität für Bodenkultur
Wien, 2002
[6] Rackwitz, R.: Optimizing systematically renewed structures. Reliability Engineering
and System Safety, 73, 2001, Seite 269-279.
[7] Frangopol, D.M., J.s. Kong and E.S. Gharaubeh: Reliability-based life cycle manage-
ment of highway bridges. Journal of Computing in Civil Engineering, ASCE, Vol.15,
No. 1, 2001, Seite 27-34.
26
Simulationsverfahren in der stochastischen Strukturmechanik
Simulationsverfahren in der
stochastischen Strukturmechanik
Christian Bucher
Institut für Strukturmechanik, Bauhaus-Universität Weimar
1 Introduction
Numerical methods for structural analysis have been developed quite substantially over the last
decades. In particular, finite element methods and closely related approximations became the state
of the art. The modeling capabilities and the solution possibilities lead to an increasing refinement
allowing for more and more details to be captured in the analysis.
On the other hand, however, the need for more precise input data became urgent in order to avoid
or reduce possible modeling errors. Such errors could eventually render the entire analysis procedure
useless. Typically, not all uncertainties encountered in structural analysis can be reduced by careful
modeling since their source lies in the intrinsic randomness of natural phenomena. It is therefore
appropriate to utilize methods based on probability theory to assess such uncertainties and to quantify
their effect on the outcome of structural analysis.
The paper presents an overview of probability-based methods to describe structural uncertainties
and to calculate structural reliability. The theoretical concepts are supplemented by two complex nu-
merical examples in which the implementation of the methods is demonstrated.
27
Simulationsverfahren in der stochastischen Strukturmechanik
2 Random Variables
2.1 Basic Definitions
Probability in the mathematical sense is defined as a positive measure (between 0 and 1) associated
with an event A in probability space. For most physical phenomena this event is suitably defined by
the occurrence of a real-valued random value X which is smaller than a prescribed, deterministic
value x. The probability P [A] associated with this event obviously depends on the magnitude of the
prescribed value x, i.e. P [A] = F (x) For real valued X and x, this function is called probability
distribution function (or equivalently, cumulative distribution function, cdf):
Differentiation of FX (x) with respect to x yields the so-called probability density function (pdf):
d
fX (x) = FX (x) (2)
dx
A qualitative representation of these functions is given in Fig. 1.
0.4 1
0.6
0.2
0.4
0.1
0.2
0 0
-3 -2 -1 0 1 2 3 4 5
Value of Random Variable
In many cases it is more convenient to characterize random variables in terms of expected values
rather than probability density functions. Special cases of expected values are the mean value X̄:
Z ∞
X̄ = E[X] = xfX (x)dx (3)
−∞
The positive square root of the variance σX is called standard deviation. A description of random
variables in terms of mean value and standard deviation is sometimes called “second moment repre-
sentation”.
X = [X1 , X2 , . . . Xn ]T (5)
For this vector, expected values can be defined in terms of expected values for all of its components:
28
Simulationsverfahren in der stochastischen Strukturmechanik
Covariance matrix
E[(X − X̄)(X − X̄)T ] = CXX (7)
The dimensionless quantity
E[(Xi − X̄i )(Xk − X̄k )]
ρik = (8)
σXi σXk
is called coefficient of correlation. Its value is bounded in the interval [−1, 1]. The covariance matrix
CXX is symmetric and positive definite. Therefore it can be factored into (Cholesky-decomposition):
in which L is a non-singular lower triangular matrix. The Cholesky factor L can be utilized for a
representation of the random variables Xi in terms of zero-mean uncorrelated random variables Yi :
The so-called Nataf -model ([5]) describes the joint probability density function of random vari-
ables Xi based on their individual (marginal) distributions and the covariances. The concept is to
transform the original variables Xi to Gaussian variables Yi whose joint density is assumed to be
Gaussian. This model can be realized in three steps:
1. Map all random variables Xi individually to normally distributed random variables Vi with zero
mean and unit standard deviation:
Note that at this point, the correlation coefficient ρVi Vj is not yet known. The joint pdf for the
components of the random vector V is then
1 1
fV (v) = n√ exp(− vT R−1
VV v) (14)
(2π)2 det RVV 2
29
Simulationsverfahren in der stochastischen Strukturmechanik
This is usually achieved by iteration. A known problem of the Nataf-model is that this iteration
may lead to a non-positive-definite matrix of correlation coefficients. In this case, this model is
not applicable.
3 Structural Reliability
3.1 Definitions
Generally, failure (i.e. an undesired or unsafe state of the structure) is defined in terms of a limit
state function g(.), i.e. by the set F = {X : g(X) ≤ 0}. As seen in Fig. 2, the definition of the limit
state function is not unique
Mpl
Me
L
FL
F = {(F, L, Mpl ) : F L ≥ Mpl } = {(F, L, Mpl ) : 1 − Mpl ≤ 0}
These transformations can be carried out independently. The covariance matrix CYY is calcu-
lated from CXX according to the rules of the Nataf-model.
30
Simulationsverfahren in der stochastischen Strukturmechanik
U = L−1 Y (19)
In total, this leads to a representation of the limit state function g(.) in terms of the standardized
Gaussian variables Ui :
From the geometrical interpretation of the expansion point u∗ in standard Gaussian space it be-
comes quite clear that the calculation of the design point can be reduced to an optimization problem:
In the next step, the exact limit state function g(u) is replaced by a linear approximation ḡ(u) as
shown in Fig. 3.
u2
u∗ ḡ(u) = 0
s2
β
u1
s1
g(u) = 0
4 Monte-Carlo-Simulation
4.1 Definitions and Basics
Generally the failure probability is defined as the probability that the limit state function attains
non-positive values (cf. Eq. 17) This can be written as an expected value:
Z ∞Z ∞ Z ∞
P (F) = ... Ig (x)fX1 ...Xn dx1 . . . dxn (25)
−∞ −∞ −∞
31
Simulationsverfahren in der stochastischen Strukturmechanik
In order to determine P (F) in principle all available statistical methods for estimation of expected
values are applicable. If m independent samples x(k) of the random vector X are available then the
estimator
Xm
P̄ (F) = Ig (x(k) ) (26)
k=1
In order to reduce the standard deviation σP̄ (F ) of the estimator to the order of magnitude of
1
the probability of failure itself m must be in the range of m = P (F ) . For values of P (F) in the
−6
range of 10 this cannot be achieved. Alternatively, strategies are employed which increase the “hit-
rate” by artificially producing more samples in the failure domain than should occur according to the
distribution functions. One way to approach this solution is the introduction of a positive weighting
function hY (x) which can be interpreted as density function of a random vector Y. Samples are
taken according to hY (x).
The probability of failure is then estimated from
m
1 X fX (x) fX (x)
P̄ (F) = Ig (x) = E[ Ig (x)] (27)
m hY (x) hY (x)
k=1
A useful choice of hY (x) can be based on minimizing σP̄2 (F ) . Ideally, such a weighting function
should reduce the sampling error to zero which cannot be achieved in reality, since such a function
should have the property:
1
hY (x) = P (F ) fX (x) g(x) ≤ 0 (28)
0 g(x) > 0
This property requires the knowledge of P (F) which, of course, is unknown. Special updating pro-
cedures such as adaptive sampling can help to alleviate this problem.
Based on a previous FORM analysis it may be attempted to obtain a general importance sampling
concept. This can be accomplished in two steps:
2. Choose a weighting function (sampling density) hY (x) with the statistical moments E[Y] =
x∗ and CYY = CXX in the following form (multi-dimensional Gaussian distribution)
1 1 ∗ T −1 ∗
hY (x) = n√ exp − (x − x ) CXX (x − x ) (29)
(2π) 2 det CXX 2
32
Simulationsverfahren in der stochastischen Strukturmechanik
x2
pdf
hY (x)
x∗
fX (x)
X̄ g(x) = 0
x1
The efficiency of this concept depends on the geometrical shape of the limit state function. In
particular, limit state functions with high curvatures or almost circular shapes cannot be covered very
well.
As mentioned earlier, the “optimal” sampling density should satisfy the requirement
hY (x) = fX (x|x ∈ Df ) (30)
Here the failure domain Df is the set in which the limit state function is negative:
Df = {x|g(x) ≤ 0} (31)
This ideal condition cannot be met strictly. However, it is possible to meet it in a second moment
sense, i.e. hY (x) can be chosen such that ([2]):
E[Y] = E[X|X ∈ Df ] (32)
E[YYT ] = E[XXT |X ∈ Df ] (33)
In terms of these statistical moments, a multi-dimensional Gaussian distribution is uniquely deter-
mined.
33
Simulationsverfahren in der stochastischen Strukturmechanik
5 Numerical Examples
5.1 Natural Frequencies of a Structure with Randomly Distributed
Elastic Modulus
In the following, a spherical shell structure (cf. Fig. 6) in free vibration is considered. The shell is
modeled by 288 triangular shell elements. The shell is assumed to be fully clamped along the edge.
The material of the shell is assumed to be elastic (in plain stress) and the elastic modulus E(x) is
modeled as a log-normally distributed, homogeneous, and isotropic random field. Its auto-covariance
function CEE (x, y) is assumed to be of the form
2 ||x − y||
CEE (x, y) = σEE exp(− ) (35)
Lc
In the above equations, the 3D vectors x and y are the coordinates of points within the shell
structure. The basis diameter of the shell is 20 m, and the correlation length Lc is assumed to be 10
m. The coefficient of variation of the random field is assumed to be 0.2.
The question to be answered is what magnitude of randomness may be expected in the calculated
natural frequencies. Quite clearly, this is very important for structural elements designed to carry e.g.
rotating machinery which produces almost harmonic excitation, and possibly resonance. Hence the
probability of obtaining high deviations from the mean natural frequency needs to be calculated. This
example shows quite typically the close connection required between the stochastic analysis and the
finite element analysis. Within the finite element model, the random field E(x) is represented by its
34
Simulationsverfahren in der stochastischen Strukturmechanik
z
y
x
values in the integration points of the elements ([1]). The shell elements as utilized here have two
layers of each 13 integration points, so there is a total of 26x288 = 7488 integration points. In order to
reduce this rather high number of random variables the following strategy is applied. First, the elastic
modulus is represented by one value per element (given the correlation length of 10 m this is not a
severe simplification). Second, the remaining random field is represented in terms of independent
random variables and corresponding space dependent shape functions. These independent variables
are obtained by applying the Nataf joint density model along with an eigenvalue decomposition of
the covariance matrix of the random field, i.e. by a spectral representation ([4, 7, 8]).
Fig. 7 shows selected space dependent shape functions. They are ordered according to decreasing
magnitude of the corresponding eigenvalues. A Monte Carlo simulation is then carried out to gen-
φ1 φ2
φ5 φ7
erate sample functions of the random field. For each sample, the lowest 10 natural frequencies are
computed. The simulation results obtained from 1000 samples in terms of histograms are given in
Figs. 8 and 9.
Probability density
0.25
0.2
0.15
0.1
0.05
0
36 38 40 42 44 46
Natural frequency
35
Simulationsverfahren in der stochastischen Strukturmechanik
0.12
Probability density
0.09
0.06
0.03
0
36 40 44 48 52 56 60
Natural frequency
The results indicate a relatively high scatter of the fundamental frequency (the deterministic system
has two equal lowest natural frequencies at 42 Hz). The coefficient of variation is approximately 15%.
Considering the lowest 10 natural frequencies (Fig. 9) it is seen that a large frequency band between
36 Hz and 60 Hz is filled with possible resonance locations.
12 m
u2
16.7◦ 6m
z a(t)
Figure 10: Steel Frame structure under earthquake type excitation a(t)
|t1 − t2 |
Rss (t1 , t2 ) = σs2 exp(− ); σs2 = 0.2m2 /s4 ; τc = 0.4s (37)
τc
In a time-discrete representation, the random process a(t) is expressed in terms of 200 correlated
random variables ai = a(ti ). It is the goal of the analysis to compute the probability pE with which
the displacement response u2 as indicated in Fig. 10 exceeds a given threshold level ξ. The method
utilized is importance sampling at the design points, with the addition that here multiple design points
need to be taken into account ([6]).
36
Simulationsverfahren in der stochastischen Strukturmechanik
Modulating function
0.8
0.6
0.4
0.2
0
0 2 4 6 8 10
Time
0.001
First passage probability
1e-09
1e-12
1e-15
Structural Data
• Material: Ideal plasticity with kinematic hardening, post-yield stiffness of 5% of initial, Elastic
modulus 2.1 · 1011 N/m2 , yield stress of 2.40 · 108 N/m2 .
• Geometry: Cross sections have symmetric I-shapes for both beams and columns. Beam and
column sections have a height and width of 400 mm and a web/flange thickness of 6 mm.
Concrete slabs with dimensions 12 × 6 × 0.2 m, an elastic modulus of 3 · 1010 N/m2 and a
density of 2500 kg/m3 .
• FE-model: Model has 28 beam and 8 plate elements. Fully clamped supports are assumed.
Total of 120 dynamic degrees of freedom, i.e. 240 state variables. Lowest natural frequency of
the structure in its initial (linear) state is 0.61 Hz.
Solution Procedure
• Determine design point excitations These excitations are the most likely excitations leading to a
first passage at time T . They are utilized to construct an importance sampling density function
as outlined in the preceding section 4.2.2.
It can be seen from Fig. 12 that by applying the importance sampling concept it is possible that
extremely small failure probabilities can be calculated from a very moderate sample size of 1000 with
37
Simulationsverfahren in der stochastischen Strukturmechanik
Table 1: First passage probability pE and statistical error σpe vs. threshold level ξ
Concluding Remarks
The methods available for the analysis of structural reliability allow for a treatment of rather com-
plex random phenomena such as random vectors, random fields and random processes in conjunction
with structural analysis based on the finite element method.
It is quite clear that the application of such methods requires substantial computational resources
and should be carefully chosen so that the required results can be obtained in the least expensive
way. In particular, approximations based on e.g. the first order reliability method or the perturbation
approach may be quite appropriate for intermediate stages of the reliability analysis such as during
an optimization procedure. Final results may require higher levels of accuracy and confidence, for
which cases Monte-Carlo-based simulation methods such as importance sampling procedures should
be applied.
References
[1] C. E. Brenner and C. Bucher. A contribution to the SFE-based reliability assessment of nonlinear
structures under dynamic loading. Probabilistic Engineering Mechanics, 10:265–273, 1995.
[2] C. Bucher. Adaptive sampling - An iterative fast Monte Carlo procedure. Structural Safety,
5:119–126, 1988.
[3] C. Bucher. An importance sampling technique for randomly excited systems discretized by finite
elements. In J. M. Ko and Y. L. Xu, editors, Advances in Structural Dynamics, pages 1135–1142.
Elsevier, Amsterdam, 2000.
[4] R. Ghanem and P. D. Spanos. Stochastic Finite Elements - A Spectral Approach. Springer, New
York Berlin Heidelberg, 1991.
[5] P.-L. Liu and A. DerKiureghian. Multivariate distribution models with prescribed marginals and
covariances. Probabilistic Engineering Mechanics, 1(2):105–112, 1986.
[6] M. Macke and C. Bucher. Importance sampling for randomly excited dynamical systems. Journal
of Sound and Vibration, (268):269–290, 2003.
[8] H. G. Matthies and C. Bucher. Finite elements for stochastic media problems. Comput. Methods
Appl. Mech. Engrg., 168:3–17, 1999.
38
Risikostudie am Beispiel Erdbeben
1 Einleitung
Als Risikostudien werden Sicherheitsnachweise durch wahrscheinlichkeitsorientierte Me-
thoden bezeichnet. Sie dienen der Ermittlung des Risikos, das mit einem bestimmten Vor-
haben, einer bestimmten Aktion, verbunden ist. Das Risiko wird als Produkt aus
Versagenswahrscheinlichkeit Pf und Versagenskosten Cf definiert. Bei der Planung neuer
baulicher Anlagen sowie bei der Rehabilitation alter Bauwerke kann durch die Anwendung
von Risikostudien das Investitionsvolumen beim Einsatz von Sicherheitsmaßnahmen opti-
miert werden. Sehr häufig hat sich in der Vergangenheit gezeigt, dass durch die Investition
in risikomindernde Maßnahmen größere Schäden und der Verlust von Menschenleben
vermeidbar gewesen wären. Häufig beschränken sich der Bauherr und der Ingenieur auf
die Anwendung der gültigen Normen, obwohl im Einzelfall durch zusätzliche Maßnahmen
mit geringem Kostenaufwand eine starke Reduzierung des potentiellen Risikos erreicht
werden könnte. Das Maß der Akzeptanz, mit dem wir ein Risiko bewerten hängt maßgeb-
lich davon ab, welcher Nutzen sich aus der mit dem Risiko behafteten Aktivität ergibt und
mit welchem Grad der Freiwilligkeit die Aktivität unternommen wird. Es wird ferner un-
terschieden zwischen dem Risiko, dem sich eine einzelne Person aussetzt und dem Risiko
für die Allgemeinheit, bei dem grundlegend zu entscheiden ist, ob das Risiko für die Ge-
samtbevölkerung akzeptabel ist. Es ist stets abzuwägen, wo die Grenze zwischen akzepta-
blem und nicht akzeptablem Risiko zu ziehen ist. Ein generell gültiges, mathematisch
fassbares Kriterium gibt es hierfür nicht. Es ist letztendlich immer eine Einzellfallentschei-
dung. Es besteht allgemein Einigkeit darüber, dass das Risiko so gering wie möglich gehal-
ten werden muss. Bei der Entscheidungsfindung über das zulässige Risiko sind objektive
Kriterien zugrunde zu legen. Deshalb werden bei Risikostudien im Wirtschafts- und Inge-
39
Risikostudie am Beispiel Erdbeben
Um das mit einem Bauwerk verbundene seismische Risiko zu ermitteln, muß die Wahr-
scheinlichkeit ermittelt werden, mit der das Tragwerk durch Erdbebeneinwirkung versagt.
Ein Tragwerk versagt, wenn die Beanspruchbarkeit R (resistance) kleiner ist als die Bean-
spruchung S (stress), also wenn der Sicherheitsabstand Z kleiner Null ist.
Z = R −S< 0 (1)
D.h. das Tragwerk versagt dann, wenn R und S Realisierungen r und s annehmen, für die
z<0 ist. Sowohl R als auch S lassen sich durch ihre Wahrscheinlichkeitsdichtefunktionen fr
und fs beschreiben. Durch die Gleichung Z = R – S = 0 kann die Grenzzustandsfunktion
angegeben werden, die den Versagensbereich vom Überlebensbereich trennt. Die
Versagenswahrscheinlichkeit Pf entspricht dem Integral der Verbundwahrscheinlichkeits-
dichtefunktion fr,s über den Versagensbereich.
40
Risikostudie am Beispiel Erdbeben
Der gewöhnliche Ausdruck zur Beschreibung der Verteilungsfunktion der Magnitude ist
die „Magnituden-Häufigkeits-Gleichung“ erstmals vorgeschlagen von Gutenberg und
Richter (Gutenberg et al. (1944)). Sie ist, statistische Unabhängigkeit des Auftretens ange-
nommen, eine Exponentialverteilung. Wird nur der Bereich von ingenieurmäßigem Inter-
esse berücksichtigt, ML ≤ M ≤ MU, folgt daraus, dass die Magnitude M in einer Region
einer gestutzten Exponentialverteilung folgt. Die zugehörige Summenhäufigkeitsverteilung
(Abb. 2) ist:
1 − e − β ( M −M L )
F(M ) = (2)
1 − e −β(M U −M L )
hierbei ist F(M) die Wahrscheinlichkeit, dass die Magnitude M nicht überschritten wird,
ML ist die kleinste Magnitude von ingenieurmäßigem Interesse (i.a. ML=4.0), MU ist die
größte für das jeweilige Gebiet zu erwartende Magnitude, β ist eine ortsspezifische Kon-
stante, die trotz einer fortschreitenden Harmonisierung der empirischen Auswertung der
historischen Erdbeben an manchen Landesgrenzen noch Sprünge aufweisen kann.
41
Risikostudie am Beispiel Erdbeben
Abb. 2: Magnituden-Häufigkeits-Gleichung
Abb. 3: Abnahmegesetz für konstante Magnitude (M=5) links und konstante Entfernung (∆=80km) rechts
42
Risikostudie am Beispiel Erdbeben
Verknüpft mit der Wahrscheinlichkeitsverteilung der Magnitude (Gl. ( 2 )) ergibt sich die
Wahrscheinlichkeit, dass bei einem Erdbeben die Spitzenbodenbeschleunigung a an einem
Standort, mit der Entfernung ∆=δ vom Hypozentrum überschritten wird (Abb. 4) zu:
[
P ' [A ≥ a | ∆ = δ ] = P b1 ⋅ e b2 ⋅M ⋅ (∆ + k )
− b3
⋅ε A ]
1 A ⋅ (∆ + k ) 3 (4)
b
= 1 − F M = ln ∀A ∈ {A | M U ≤ M ≤ M L }
b2 b1 ⋅ ε A
Erdbeben ereignen sich in guter Näherung als Poisson-Prozess mit einer mittleren Ereig-
nisrate ν, d.h. die Ereignisse sind stochastisch unabhängig. Neuere Erkenntnisse zeigen
zwar, dass eine physikalisch bedingte stochastische Abhängigkeit vorliegt (Reißverschluß-
effekt, Gruppeneffekt bei Nachbeben). Ihre Gesetzmäßigkeit ist aber noch so wenig er-
forscht und vor allem fehlen die empirischen Werte, so dass sie für praktische Belange
noch nicht berücksichtigt werden können. Die Überschreitenswahrscheinlichkeit P[A≥a]
(Abb. 5) einer Beschleunigung a in einer Referenzzeit T ergibt sich zu:
( )
P[A ≥ a | ∆ = δ] = 1 − e − ν⋅T ⋅ P' [A ≥ a | ∆ = δ] (5)
43
Risikostudie am Beispiel Erdbeben
2.2.3 Herdentfernung
Der Erdbebenherd wird im Allgemeinen als Punktquelle beschrieben die sich im Zentrum
der Bruchzone befindet. Von dort aus propagieren sich die Erschütterungen in alle Rich-
tungen. Zur Handhabung von Ausbreitungsgesetzen werden die nachfolgenden Entfe-
rungsbegriffe definiert und deren stochastische Verteilungsfunktionen angegeben:
Hypozentraldistanz
Die Hypozentraldistanz ∆ ist eine Funktion der Epizentraldistanz R und der Herdtiefe H
(Abb. 6)
∆ = R 2 + H2 (6)
Epizentrum Beobachtungsort
R
H
∆
Hypozentrum
Abb. 6: Herdentfernung
Epizentraldistanz
Die Epizentraldistanz R hängt von der Herdgeometrie ab. Bei klar ausgeprägten Verwer-
fungslinien (Abb. 7) kann angenommen werden, dass der Herd nur an den Verwerfungsli-
nien und an jedem Punkt der Verwerfungslinie mit gleicher Wahrscheinlichkeit auftritt. Es
ergibt sich demnach die folgende Verteilungsfunktion (Abb. 8) der Epizentraldistanz:
2 c2 − a 2 (R − c ) 2 c 2 − a 2
F[R ] = 1 − + für c≤R≤b
l b−c l
2 c2 − a 2 R − a
F[R ] = für R <c (7)
l c−a
l
e
lt-lin
f au
R
b
a
site
Abb. 7: Modellierung von Verwerfungslinien
44
Risikostudie am Beispiel Erdbeben
In Gebieten ohne ausgeprägte Verwerfungslinien oder zu wenig Information über die Lage
potentieller Herde kann die Epizentraldistanz unter der Annahme berechnet werden, dass
die Herdkoordinaten im gesamten seismischen Gebiet gleichverteilt sind. Die Modellie-
rung der seismischen Gebiete mit homogener Seismizität (Seismotektonische Provinzen)
erfolgt in diesem Falle mit Ringsegmenten (Abb. 9).
R − R min
F[R ] = (8)
R max − R min
R max
R min
seismotectonic
province
site
Herdtiefe
Die Herdtiefe wird wenn keine weiteren Informationen vorliegen als lognormal verteilt
angenommen (vgl. Abb. 10), da physikalische begründet eine kontinuierliche Abnahme der
Erdbeben mit der Tiefe vorherrscht, während eine Häufung im erdoberflächennahen Be-
reich vorliegt.
ln (H − H 0 − µ U )
F(H ) = Φ (9)
σ U
σ
2
σ U = ln 1 + H
( 10 )
µ H − H 0
σ 2U
µ U = ln (µ H − H 0 ) − ( 11 )
2
45
Risikostudie am Beispiel Erdbeben
Die stochastische Beschreibung der Hypozentraldistanz gestaltet sich als aufwendiges Un-
terfangen. Es empfiehlt sich daher für vereinfachte Risikostudien Abnahmegesetze zu ver-
wenden, die als Parameter nur die Epizentraldistanz enthalten. Somit entfällt die
aufwendige Ermittlung der Wahrscheinlichkeitsdichtefunktion der Hypozentraldistanz
(Abb. 11) und in den nachfolgenden Beziehungen kann ∆ durch R ersetzt werden.
46
Risikostudie am Beispiel Erdbeben
Der zu untersuchende Standort wird meist durch mehrere potenzielle Erdbebenherde be-
droht. Das gesamte seismische Gebiet wird in mehrere seismisch homogene Gebiete und
Gebiete, die durch Verwerfungslinien repräsentiert werden unterteilt. Die Gebiete sind
statistisch Unabhängig, so dass für das gleichzeitige Nichtauftreten eines Erdbebens in
allen Gebieten das Produktgesetz gilt. Die Überschreitenswahrscheinlichkeit der Spitzen-
bodenbeschleunigung ergibt sich dann zu
m
P[A ≥ a ] = 1 − ∏ (1 − Pi [A ≥ a ]) ( 13 )
i =1
mauert durch die Erkenntnisse der letzten 20 Jahre weiß man, dass eine Erdbebenbelastung
nicht durch eine impulsförmige Belastung hinreichend genau, höchstens durch eine Sum-
me von impulsförmigen Belastungen repräsentiert werden kann, da der Versagensmecha-
nismus bei allen Baustoffen außer Mauerwerk duktil ist. Die zweite Modelvereinfachung
ist die Annahme von linear-elastischem Material- und Systemverhalten. Nichtlineares Ver-
halten, das bei Versagensuntersuchungen immer vorliegt ist durch entsprechend modifi-
zierte lineare Ansätze zu modellieren. Auch ist es üblich, das Antwortspektrum für
spezielles nicht-lineares Systemverhalten zu berechnen. Eine einfache Möglichkeit bietet
das Antwortspektrenverfahren mit Anwendung der Modalanalyse. Damit kann aus der
Wahrscheinlichkeitsdichtefunktion für die PGA die Wahrscheinlichkeitsdichtefunktion für
die Spektralbeschleunigung und schließlich die Wahrscheinlichkeitsdichtefunktion für die
Massenbeschleunigungskräfte ermittelt werden. Dadurch ist die stochastische Beschrei-
bung der Beanspruchung gegeben.
Es ist zunächst folgendes Schwingungssystem zu lösen:
.. . ..
M u + D u + Ku = −Mb u b ( 15 )
Da die Maximalwerte der Eigenformen nicht synchron auftreten, wird die resultierende
Schnittgröße q näherungsweise als gewogenes Mittel angegeben:
∑ [q (p )]
2
q max = i i ( 19 )
i
48
Risikostudie am Beispiel Erdbeben
Ist die Funktion h eine ein-eindeutige, differenzierbare, streng monoton steigende Funktion
und existiert eine stetige, von Null verschiedene Umkehrfunktion h-1, so kann die Wahr-
scheinlichkeitsdichtefunktion fσ(σ) nach folgender Gleichung berechnet werden:
d
( )
f σ (σ ) = f a h −1 (σ ) h −1 (σ ) ( 22 )
dσ
Sind die Bedingungen für den Einsatz der Gleichung ( 22 ) oder dem Antwortspektrenver-
fahren als auch die oben erwähnten Modellvereinfachungen für das Antwortspektrenver-
fahren nicht erfüllt, kann die Dichtefunktion fσ(σ) nur mit numerischen Methoden
(Abb. 14) oder dem extrem zeitaufwendigen Monte-Carlo Simulationsverfahren bestimmt
werden.
2.4 Versagenswahrscheinlichkeit
Die Beanspruchung ist durch die Wahrscheinlichkeitsdichtefunktion der auftretenden
Spannungen gegeben. Zusammen mit der Wahrscheinlichkeitsdichtefunktion der
Beanspruchbarkeit (Bruchspannung) ergibt sich die gemeinsame Wahrscheinlichkeitsdich-
tefunktion von Beanspruchung und Beanspruchbarkeit sowie die Grenzzustandsfunktion.
Durch Integration dieser zweidimensionalen Wahrscheinlichkeitsdichtefunktion über den
Versagensbereich kann die Versagenswahrscheinlichkeit berechnet werden.
Die gemeinsame Wahrscheinlichkeitsdichtefunktion der auftretenden Spannung σ und der
Versagensspannung σV wird unter der Annahme stochastischer Unabhängigkeit durch
Multiplikation der Randverteilungsdichten berechnet
f σ σV (σ, σ V ) = f σ (σ ) ⋅ f σV (σ V ) ( 23 )
d.h.
g(σ, σ V ) = 0 ( 25 )
49
Risikostudie am Beispiel Erdbeben
Pf = ∫ f (σ, σ )dσdσ
σ σV
(σ ,σ V )| g (σ ,σ V )<0
V V ( 26 )
3 Kosten-Nutzen-Analyse
Zur Ermittlung des Risikos reicht es nicht aus, die Auftretenswahrscheinlichkeit eines
Schadensereignisses zu kennen. Auch das Schadenspotential bzw. die zu erwartenden
Schäden müssen rechnerisch erfasst werden. Hierbei ist es unter dem Aspekt der Wirt-
schaftlichkeit angezeigt, zur Optimierung von Kosten und Nutzen risikoreduzierender
Maßnahmen die Schäden in monetären Einheiten anzugeben. Dies fällt bei Sachschäden
nicht schwer. Durch die Ermittlung von Baukosten, geschätzten Wiederaufbau-
/Rehabilitationskosten kann ein näherungsweise zuverlässiger Wert angegeben werden.
Wie aber wird bei Abwägung von Kosten und Nutzen der mögliche Verlust von Men-
schenleben berücksichtigt? Auch wenn ein Menschenleben nicht mit einem Geldwert be-
ziffert werden kann, ist die einzige Möglichkeit, Maßnahmen zum Schutz von Leib und
Leben in einer Kosten-Nutzen-Analyse angemessen zu berücksichtigen, einem Menschen-
leben einen monetären Wert zuzuordnen. Eine Möglichkeit hierzu ist die Verwendung des
ICAF - Wertes (Implied Cost of Averting a Fatality). Das ist der Wert, den eine Volkswirt-
schaft bereit sein sollte zu investieren um ein Menschenleben zu retten. Der Wert wird auf
der Basis eines sozialen Indikators, des sogenannten Lebensqualitätsindex LQI ermittelt,
der vom Bruttosozialprodukt pro Person und Jahr, von der durchschnittlichen Lebenser-
wartung bei der Geburt und von der anteiligen Lebensarbeitszeit, die in einer Erwerbstä-
tigkeit verbracht wird, abhängig ist. Es unterliegt selbstverständlich jeder Gesellschaft,
vertreten durch Ihre Entscheidungsträger in Einvernehmlichkeit den angemessenen ICAF-
Wert zu definieren und ihn wertmäßig festzulegen. Er ist keine gesellschaftliche Konstan-
te.
50
Risikostudie am Beispiel Erdbeben
Der Exponent w ist der Anteil des Lebens, der mit Erwerbstätigkeit verbracht wird. In wirt-
schaftlich entwickelten Ländern kann w ≈ 1/8 angenommen werden.
Das Kriterium des Lebensqualitätsindex definiert alle Maßnahmen als akzeptabel, für die
sich der LQI positiv verändert. Die Erhöhung der Sicherheit durch eine risikoreduzierende
Maßnahme wird durch die Erhöhung ∆e der Lebenserwartung e repräsentiert. Die Kosten
der Maßnahme werden durch die Reduzierung ∆g des Bruttosozialprodukts g ausgedrückt.
Damit ist die geplante risikoreduzierende Maßnahme unter folgender Bedingung sinnvoll:
∆e ∆g w
≥− ( 28 )
e g 1− w
Unter der Annahme, dass die verbleibende Lebenserwartung einer durchschnittlichen Per-
son die Hälfte der Lebenserwartung bei der Geburt beträgt, ist die durch die Vermeidung
eines Todesfalles gesicherte Anzahl von Lebensjahren ∆e=e/2. Damit und mit ( 28 ) ergibt
sich der akzeptable Grenzwert für die Reduktion des Bruttosozialproduktes zu:
g 1− w g 1− w
∆g max = ∆e = ( 29 )
e w 2 w
|∆g|max entspricht damit dem Wert für die durchschnittlichen Kosten, die für die Rettung
eines Lebensjahres gemäß den LQI-Kriterien akzeptabel sind.
Die optimalen, akzeptablen Kosten ICAF (optimum acceptable implied costs of averting a
fatality) für die Rettung eines Menschenlebens (vgl. Abb. 16) ergeben sich schließlich als
Produkt der geretteten Lebensjahre und der akzeptable Kosten pro Jahr:
ge 1 − w
ICAF = ∆g max ⋅ ∆e = ( 30 )
4 w
51
Risikostudie am Beispiel Erdbeben
Abb. 16: ICAF Werte in US$, basierend auf Daten aus 2002
Präventivmaßnahmen sind alle Maßnahmen, die ein bestimmtes Ausmaß einer möglichen
Katastrophe verhindern sollen. Beispiele für Präventivmaßnahmen sind:
Seismische Bemessung
Konstruktive Ausbildung
Flächennutzungsplanung
Bei der Planung der Präventivmaßnahmen darf der wirtschaftliche Aspekt nicht vernach-
lässigt werden. Technische Anlagen sollen wirtschaftlich optimal gestaltet werden. Dies ist
durch eine Bemessungsparameter-Optimierung im Rahmen einer Kosten-Nutzen-Analyse
möglich. Das Ziel ist die Minimierung der Gesamtkosten Ct (Abb. 17) durch Anwendung
eines entsprechenden Bemessungsparameters zur Seismischen Bemessung oder Investitio-
nen in andere Sicherheitsmaßnahmen. Die Gesamtkosten Ct können unter der Annahme,
dass das Objekt nach einmaligem Versagen wieder errichtet wird und danach innerhalb der
geplanten Nutzungsdauer nicht mehr versagt, wie folgt ermittelt werden:
T
C t = C i + ∑ R (t ) ( 31 )
t =1
52
Risikostudie am Beispiel Erdbeben
Das Objekt, das mit einer bestimmten Wahrscheinlichkeit nach einiger Zeit versagen wird
ist jedoch im Entscheidungszeitpunkt (z.B. t=0) zu optimieren. D.h. für alle zukünftig ent-
stehenden Kosten muss der aktuelle Barwert ermittelt werden. In der Praxis ist der folgen-
de dekursive (nachschüssige) Abzinsungsfaktor (Diskontierungsfaktor) anwendbar:
1
δ( t ) = ( 32 )
(1 + γ r )t
Hierin ist γr der reale Zinssatz und t die Diskontierungszeit. Der reale Zinssatz wird aus
dem nominellen Zinssatz γn und der Inflation i mit der Beziehung
1+ γn
1− γr = ( 33 )
1+ i
ermittelt.
Mit Gleichung ( 32 ) lässt sich Gleichung ( 31 ) auf den aktuellen Barwert erweitern zu:
T
C t = Ci + ∑ Pf (t ) ⋅ Cf (t ) ⋅ δ(t ) ( 34 )
t =1
Werden Risiko R und die Kosten für Präventivmaßnahmen Cs,p in Abhängigkeit von einem
Parameter ad formuliert(z.B. Bemessungsparameter), so ergeben sich durch Optimierung
von ad die minimalen Gesamtkosten Ct.
3.2.2 Ausmaßmindernde Maßnahmen
Ausmaßmindernde (kurative) Maßnahmen sind Maßnahmen, die nach dem Eintreten des
Ereignisses kurativ wirken und dadurch das Katastrophen-Ausmaß begrenzen. Einige kura-
tive Maßnahmen sind z.B.:
Katastrophenplanung
Katastrophensimulation
Notfall-Management
Training für Rettungsmannschaften
Schulung der Bevölkerung, Information
medizinische Einsatzbereitschaft
Im Gegensatz zu den meisten Präventivmaßnahmen entstehen bei ausmaßmindernden
Maßnahmen die Kosten mehr oder weniger kontinuierlich über die Nutzungsdauer des
53
Risikostudie am Beispiel Erdbeben
Objektes verteilt. Die konstanten jährlichen Zahlungen (=Renten) Ca sind durch einen Ren-
tenbarwertfaktor ϕ auf den Anfangszeitpunkt abzuzinsen.
ϕ=
(1 + γ r )t − 1 ( 35 )
(1 + γ r )t ⋅ γ r
Damit ergibt sich der Rentenbarwert Cs,k der kontinuierlichen Investitionen im Entschei-
dungszeitpunkt t=0 zu:
C s ,k = C a ⋅ ϕ = C a ⋅
(1 + γ r )t − 1 (13)
(1 + γ r )t ⋅ γ r
Damit die geplante Sicherheitsmaßnahme wirtschaftlich sinnvoll ist, muss dieser Wert Cs,k
kleiner sein, als die Risikoreduzierung ∆R, die sich aus der Implementierung der Maßnah-
me ergibt. Selbstverständlich ist auch ∆R in den Entscheidungszeitpunkt zu diskontieren.
Es ergibt sich somit die Forderung:
T
Cs , k ≤ ∑ ∆R (t ) ⋅ δ( t ) ( 36 )
t =1
Werden sowohl präventive als auch ausmaßmindernde Maßnahmen eingesetzt, ergibt sich
folgende Forderung:
T
Cs , p + Cs , k ≤ ∑ ∆R (t ) ⋅ δ(t ) ( 37 )
t =1
4 Zusammenfassung
In den vorhergehenden Kapiteln wurden die Methoden dargelegt, mit denen es möglich ist,
die Wahrscheinlichkeit für das seismische Versagen einer bestimmten Komponente zu
berechnen, d.h. das Versagen eines Querschnitts. Durch Erfahrungswerte ist es möglich,
dem Versagen eines bestimmten Querschnitts entsprechende Versagenskosten zuzuordnen,
also die Kosten, die durch Restabbrucharbeiten und Rehabilitation des Bauwerkes entste-
hen. Die beim Tragwerksversagen entstehenden humanitären Verluste (Todesfälle) können
ebenfalls über Erfahrungswerte abgeschätzt und mittels der LQI – Kriterien in monetäre
Einheiten umgewandelt werden. Damit ist es möglich, die Einzelrisiken für das Versagen
verschiedener Komponenten näherungsweise zu ermitteln. Durch Identifikation der Kom-
binationen, die zu einem Systemversagen führen und durch Aufsummieren der Einzel-
versagenswahrscheinlichkeiten des Systems unter Berücksichtigung ihrer gegenseitigen
statistischen Abhängigkeit kann auch die Versagenswahrscheinlichkeit des Gesamtsystems
ermittelt werden. Auch diesem Versagenstypus können entsprechende Versagenskosten Cf
zugeordnet werden. Durch Multiplikation der Versagenswahrscheinlichkeit mit den
Versagenskosten ist das Risiko zu ermitteln. Durch Investition in Sicherheitsmaßnahmen
kann dieses Risiko reduziert werden. Die dafür entstehenden Kosten werden mit der Redu-
zierung des Risikos verglichen. Dies ist ein Kriterium für die Rentabilität der Sicherheits-
maßnahme. Sind die Investitionskosten für die Sicherheitsmaßnahme geringer, als die
54
Risikostudie am Beispiel Erdbeben
damit erreichte Risikoverminderung, so ist die Maßnahme als sinnvoll einzustufen. Durch
Vergleich mehrerer verschiedener Sicherheitsmaßnahmen kann eine Optimierung der Ge-
samtkosten des Bauwerkes erreicht werden.
5 Referenzen
[1] Faschingbauer G.; Diamantidis D.; Scherer R.J.: Optimization of Safety Measures
against Earthquakes Based on Risk Acceptance Criteria, Proceedings of 13th World
Conference on Earthquake Engineering, Paper No. 2806, Vancouver, British Colum-
bia, Canada 2004
[2] Meskouris, K.: Baudynamik. Verlag Ernst & Sohn, Berlin, 1999
[3] Nathwani, J.S.; Lind, N.C.; Pandey, M.D.: Affordable Safety by Choice: The Life
Quality Method. Institute for Risk Research, University of Waterloo, Waterloo, Can-
ada, 1997
[4] Petersen, C.: Dynamik der Baukonstruktionen. Vieweg Verlag, Braunschweig-
Wiesbaden, 1996
[5] Rackwitz, R.: Structural Optimization and Risk Acceptability based on the Life Qual-
ity Index. Technische Universität München, 2001
[6] Rackwitz, R.; Streicher, H.: Optimization and Target Reliabilities. JCSS Workshop on
Reliability Based Code Calibration, http://www.jcss.ethz.ch/Events/WS_2002-
03/Paper_PPT_WS02/zuerich-march-2002-rackwitz-streicher.pdf , Zürich, 2002
[7] Scherer, R.J.; Krutzik, N.J.; Schuëller, G.I.; Freystätter, S.: PRA of NPP Structures
under Earthquake Conditions – Seismic Risk Analysis. 8th International Conference on
Structural Mechanics in Reactor Technology, Brussels, 1985
[8] Schneider, J.: Sicherheit und Zuverlässigkeit im Bauwesen. Teubner Verlag, Stuttgart,
1996
[9] Schuëller, G.I.: Einführung in die Sicherheit und Zuverlässigkeit von Tragwerken,
Verlag Ernst & Sohn, Berlin 1981
55
Risikostudie am Beispiel Erdbeben
56
Probabilistische Methoden zur Bemessung von Deichen
Abstract: After the disaster in 1953 a statistical approach to the storm surge
levels was chosen and an extrapolated storm surge level would be the basis for
dike design. In recent decades, the development of reliability theory made it
possible to assess the flooding risks taking into account the multiple failure
mechanisms of a dike section and the length effect. It is pointed out that eco-
nomic activity in the protected areas has grown considerably since the 1950s
and that even more ambitious private and public investments, particularly in in-
frastructure, are planned. Moreover the safety of a growing population is at
stake. These considerations justify a fundamental reassessment of the accept-
ability of the flood risks.
Key words: Probabilistic Design, Water Defense Systems, Flood Risk, Main-
tenance, Safety
1 Delft University of Technology and Delft Cluster, Faculty of Civil Engineering and Geosciences, Hydraulic Engineering Section (Room 3.73-1), Ste-
vinweg 1, 2628 CN Delft, the Netherlands, E-mail: j.k.vrijling@ct.tudelft.nl, p.vangelder@ct.tudelft.nl
Übersetzung aus dem Englischen durch Charlotte Saltner
57
Probabilistische Methoden zur Bemessung von Deichen
1 Einleitung
Ungefähr die Hälfte der Niederlanden liegt unter dem Meeresspiegel und ist durch Haupt-
deiche und andere Hochwasserschutzeinrichtungen gegen Überschwemmung geschützt.
Umfassende Schutzeinrichtungen, wie Entwässerungskanäle und Hochwasserentlastungs-
polder, in Verbindung mit anderen Einrichtungen und ausreichenden Pumpkapazitäten ga-
rantieren eine künstliche Verwaltung von Oberflächen- und Grundwasserständen. Im
Mittelalter wurden Deiche nach dem höchsten bekannten Hochwasserstand bemessen, zu
dem ein Meter zusätzliches Freibord hinzugezählt wurde. Diese Methode mußte bei der
Bemessung des Abschlußdeiches (Afsluitdijk) verworfen werden, da keine Wahrneh-
mungsdaten vorhanden waren. Der berühmte Professor Lorentz machte Vorhersagen be-
züglich der Zunahme des Tidehubes und addierte den Einfluß von Windstauwahrnehmun-
gen an der friesischen Küste. Nach der Hochwasserkatastrophe von 1953 wurden
statistische Methoden für die Bemessung von Sturmflutwasserständen eingeführt und ein
extrapolierter Sturmflutwasserstand bildet nun die Grundlage für Deichbemessungen. In
diesem Manuskript wird beschrieben, wie die Deltakommission die Sicherheitswasser-
stände, ausgedrückt mit Hilfe der Wiederkehrzeit von Hochwasserständen, optimiert hat,
die von den Hauptdeichen gehalten werden müssen.
Überschwemmung ist ein kennzeichnendes große-Folge-niedrige-Wahrscheinlichkeit-Er-
eignis und kann verglichen werden mit anderen technischen Fragstücken der Gesellschaft.
Das Institut für Chemieingenieurwesen [6] hat z.B. 1985 eine Studie über Gefahren und
Risikobewertung in der Prozeßindustrie veröffentlicht, HMSO’s Abteilung für Umwelt-
schutz [3] untersuchte Risiken in der Schiffahrt, das niederländische Laboratorium für
Raumfahrt analysierte die Sicherheit rund um den Flughafen Schiphol [8] und das nieder-
ländische Ministerium für Wohnungswesen, Raumplanung und Umwelt [7] und das briti-
sche HSE [5] produzierten Richtlinien für Raumplanung in Verbindung mit Risiken.
VRIJLING et al. [20] haben ein Modell für die Bewertung von Risiken im allgemeinen her-
geleitet.
Seit 1980 ermöglicht die Entwicklung und Anwendung der Zuverlässigkeitstheorie die
Abschätzung von Überschwemmungsrisiken unter Berücksichtigung von mehrfachen Ver-
sagens- und Bruchmechanismen von Schutzeinrichtungen. Niederländische Wasserbauer
waren unter den ersten Ingenieuren, die diese Theorie für die praktische Bemessung von
Schutzeinrichtungen angewendet haben. Zuverlässigkeitsmodelle wurden zum ersten Mal
in 1976 für die Bemessung und Ausführung des Sturmflutwehres in der östlichen Schelde
(Oosterschelde) angewandt sowie danach bei der Bemessung des Sturmflutwehres in dem
Nieuwe Waterweg bei Rotterdam.
Um 1979 wurde ein Projekt gestartet, um die probabilistische Bemessungsmethode für die
Bemessung von Deichen im allgemeinen anzuwenden. Die Entwicklung einer kompletten
Methode für Hochwasserschutzeinrichtungen nahm viel Zeit in Anspruch. In der letzten
Zeit wurde eine solche Abschätzung an vier Poldern oder Deichringen getestet. Die Wahr-
scheinlichkeit für Überschwemmung von diesen Poldern wurde berechnet, wodurch
schwache Stellen im Deich erkannt werden konnten. Es wird angenommen, daß die Er-
gebnisse dieser Berechnungen politische Debatten stimulieren können, falls der gegenwär-
tige Sicherheitswasserstand der Hochwasserschutzanlagen noch immer ausreichend ist.
58
Probabilistische Methoden zur Bemessung von Deichen
Diese Frage muß man stellen, da wirtschaftliche Aktivitäten in den geschützten Gebieten
seit 1960 erheblich zugenommen haben. Überdies sind ehrgeizige private und öffentliche
Investitionen, besonders im Infrastrukturbereich geplant. Die nationale Wirtschaft ist und
bleibt verwundbar für Überschwemmung. Zudem steht die Sicherheit einer wachsenden
Bevölkerung auf dem Spiel. Infolge von Überschwemmung werden in Zukunft Umwelt-
schäden und das Schadenpotential an Natur und Kulturerbe in Abschätzung des erforderten
Umfangs des Hochwasserschutzes eine immer größere Rolle spielen. Das Bild der Nieder-
landen als ein sicheres Land für Wohnraum, Arbeit und Investitionen ist ein wichtiger Fak-
tor, der in Betracht gezogen werden sollte. Dies kann eine gründliche Neubewertung der
Akzeptanz von Überschwemmungsrisiken und die Entwicklung eines Plans zur Effektivität
einer Hochwasserschutzanlage im Laufe der kommenden Jahrzehnten rechtfertigen.
und Abreißen auch andere Mechanismen eine Gefahr darstellen könnten und formulierte
zusätzliche Bemessungsanforderungen im klassischen Sinn. Eine ähnliche Methode wurde
auch für Bemessungen von Wellenbrechern angewendet (z.B. VAN DE KREEKE UND PAAPE,
[15]).
Abb. 1: Die wirtschaftlich optimale Wahrscheinlichkeit für das Versagen einer Küsten-
schutzeinrichtung
60
Probabilistische Methoden zur Bemessung von Deichen
Inundation
or
or
61
Probabilistische Methoden zur Bemessung von Deichen
Im Prinzip führt das Versagen oder der Bruch eines einzigen Elements der Schutzanlage zu
einer Überschwemmung des Polders. Die Wahrscheinlichkeit einer Überschwemmung
resultiert also aus den Wahrscheinlichkeiten für ein Versagen aller einzelner Elemente.
Innerhalb eines längeren Elementes, z.B. eines 2 km langen Deiches, können mehrere un-
abhängige Abschnitte unterschieden werden. Jeder Abschnitt kann aufgrund von mehreren
möglichen Versagensmechanismen, wie Wellenüberlauf, Abriß, Piping, Erosion der ge-
schützten Außenböschung, Schiffskollision, Aufreißen einer Pipeline, etc. versagen. Die
Beziehung zwischen den Versagensmechanismen in einem Deichabschnitt und dem uner-
wünschten Folgeereignis Überschwemmung kann in einem Fehlerbaum wiedergegeben
werden, dargestellt in Abb. 4, wobei Ri die Stärke (Resistance) von Abschnitt i, S die Bela-
stung (Solicitation), h die Höhe des Deiches, B die Breite des Deiches, wl der Wasserstand
vor dem Deich, Hs die Wellenhöhe vor dem Deich und D der Blockdurchmesser ist.
failure of
section i
or
wl wl
h,B ∆D
Hs Hs
Die Versagenswahrscheinlichkeiten für die einzelnen Mechanismen werden mit den Me-
thoden der modernen Zuverlässigkeit, wie z.B. Niveau III Monte Carlo, Bayesisches Upda-
ting, Niveau II fortgeschrittene Berechnungen erster Ordnung zweiten Momentes (s. z.B.
VAN GELDER [16] für eine ausführliche Übersicht) berechnet. Die probabilistische Metho-
de ermöglicht eine Kombination von menschlichem Versagen, z.B. das Schließen eines
Schleusentores, in Zusammenhang mit strukturellem Versagen. Dies wird von daher auch
als besonderer Vorteil dieser Methode angesehen (s. Abb. 5). NOWAK UND COLLINS [9]
haben sich diesem Thema gewidmet.
Korrelationen zwischen Versagensmechanismen und Korrelationen zwischen verschiede-
nen Deichabschnitten müssen berücksichtigt werden. HOHENBICHLER UND RACKWITZ [4]
beschreiben einige geeignete Techniken. In Zuverlässigkeitsberechungen sollen alle Unsi-
cherheiten behandelt werden. Drei Klassen werden hierfür unterschieden. Die intrisink Un-
sicherheit ist charakteristisch für natürliche Ereignisse. Sturmflutwasserstände und extreme
Flußabflüsse sind intrisink unsicher. Auch die Unsicherheit bezüglich der Eigenschaften
von Boden- und Baumaterial fällt in diese Klasse. Modellunsicherheiten beschreiben die
Imperfektion von Ingenieursmodellen in der Vorhersage von Verhaltensweisen von Fluß-
läufen, Deichen und Schutzbauten. Der Vergleich von Vorhersagen und Observationen
liefert eine Einschätzung dieser Unsicherheit. Wenn Wahrnehmungsdaten fehlen, ist das
Ingenieursurteil der einzig erdenkliche Ersatz. Statistische Unsicherheit wird durch fehlen-
62
Probabilistische Methoden zur Bemessung von Deichen
sluice fails
or
failure
failure
piping construction
of foundation door open
material
R<S R<S R<S
or
or
and
warning HW human
fails warning failure
Folglich kann die Sicherheit der Deichanlage, beschrieben durch die berechnete Wahr-
scheinlichkeit für Überschwemmung, durch Verstärkung des schwächsten Deichabschnitts
aber auch durch Erweiterung unseres Wissens verbessert werden. Das Ergebnis der be-
rechneten Wahrscheinlichkeit für Überschwemmung des Polders ist dargestellt in Tabelle 1.
Die letzte Spalte der Tabelle gibt an, welches Element oder welcher Abschnitt die Wahr-
scheinlichkeit für Überschwemmung des Polders am meisten beeinflußt. Die Kontrolle der
zugehörigen Reihe enthüllt, welcher Mechanismus wahrscheinlich die Ursache ist. Auf
diese Weise können Maßnahmen definiert werden, die anfänglich die Wahrscheinlichkeit
für Überschwemmung reduzieren, aber letztendlich auf abnehmende Grenzerträge stoßen.
Wie bereits angesprochen wurde, ist diese Methode an vier Poldern getestet worden, von
denen der wichtigste in diesem Manuskript als Beispiel genannt wird. In Zentralholland
wurden hierfür die 48 schwächsten Deichabschnitte, 4 Dünenabschnitte und 6 weitere
63
Probabilistische Methoden zur Bemessung von Deichen
Schutzbauten ausgewählt. Die Analyse zeigt, daß die Wahrscheinlichkeit für menschliches
Versagen, beim Schließen eines Schleusentores bei Katwijk, mit einem Wert von 1/600
Jahr ausschlaggebend für die gesamte Hochwasserschutzanlage ist. Wenn man davon aus-
geht, daß dieses Problem gelöst wird, verringert sich die Wahrscheinlichkeit einer Über-
schwemmung auf 1/2.000 pro Jahr. Dies entspricht der Wahrscheinlichkeit für Piping unter
der Deichsohle in unmittelbarer Nähe des Dorfes Moordrecht. Sollte für dieses Pipingpro-
blem eine Lösung gefunden werden, verringert sich die Wahrscheinlichkeit für eine Über-
schwemmung auf 1/30.000 pro Jahr. In diesem Fall ist die Dünenreihe entlang der
Nordseeküste bei Moordrecht die schwächste Stelle im System. Dünenverstärkung kann
die Wahrscheinlichkeit einer Überschwemmung auf 1/75.000 pro Jahr reduzieren. Obwohl
die Herangehensweise und Resultate der probabilistischen Methode in diesem Beispiel
deutlich hervorgehoben werden, wird das letzte Ergebnis nur unter Vorbehalt genannt, da
es von 48 + 4 + 6 Startelementen abhängig ist. Schwächere Glieder in dieser Kette werden
gerade auf diesem Systemniveau entdeckt.
Außer der probabilistischen Methode für Überschwemmungsrisiken werden in der letzten
Zeit auch probabilistische Methoden bei Instandhaltungsplänen von Küstenschutzbauten
angewendet. Instandhaltungsplanungen beruhen auf Zuverlässigkeits- und Risikoabwägun-
gen, die Verschlechterungen, Ergebnisse von Inspektionen und Reparaturen, sowie die
hiermit verbundenen Kosten umfassen. GUEDES SOARES [2] hat eine ausführliche Über-
sicht erstellt, die durch VRIJLING [18] überprüft wurde.
64
Probabilistische Methoden zur Bemessung von Deichen
grund näher beschriebener Gefahren erleiden“. Falls das näher beschriebene Schadensni-
veau auf den Verlust von Leben begrenzt ist, kann das gesellschaftliche Risiko modelliert
werden mit Hilfe der Überschreitungsfrequenzkurve oder der Anzahl Toten, auch F-N-
Kurve genannt. Die Folge von Risiko kann auch begrenzt werden durch den Materialscha-
den, ausgedrückt durch finanzielle Termini, wie es die Deltakommission getan hat. Es muß
beachtet werden, daß die Reduzierung der Folgen eines Unfalls auf die Anzahl der Toten
oder auf den wirtschaftlichen Schaden die öffentliche Auffassung des Schadenpotentials
nicht adäquat wiedergibt. Diese Vereinfachung verdeutlicht die Argumentation auf Kosten
der Genauigkeit.
Die Folgen im Falle einer Überschwemmung von Poldern werden von zwei Gesichtspunk-
ten aus abgeschätzt. Als erstes wird die Wahrscheinlichkeit für den Todesfall eines einzi-
gen Individuums, das irgendwo in dem Polder zurückbleibt, bestimmt. Eine geeignete
Darstellungsform ist ein Konturenplot der Risiken als Funktion der Stelle im Polder. Zwei-
tens wird die totale Anzahl der Menschen, die bei einer Überschwemmung ertrinken wür-
den, bestimmt. Da ein Polder infolge von Deichbruch an mehreren Stellen und auch
gleichzeitig infolge verschiedener Szenarien überschwemmt werden kann, ist eine F-N-
Kurve eine geeignete Methode, um ein solches Risiko darzustellen. Drittens muß der ge-
samte materielle Schaden infolge einer Überschwemmung bestimmt werden. Aus den be-
reits genannten Gründen ist die F-N-Kurve ebenfalls in diesem Fall eine geeignete
Methode, um diesen Risikotyp darzustellen. Es muß beachtet werden, daß sich die Delta-
kommission auf den akzeptierten Wert des materiellen Schadens beschränkt. Der Verlust
von Menschenleben und der materielle Schaden werden mit Hilfe der Grund-Effekt-
Funktionen abgeschätzt, basierend auf den Erfahrungen der Katastrophe von 1953. Dies
könnte kritisiert werden, da weitreichende technische Fortschritte gemacht wurden, die den
Menschen zu besseren Mitteln verholfen, aber die Gesellschaft auch verwundbarer ge-
macht haben. Sowohl zugenommene als auch reduzierte Effekte können abgeleitet werden,
wodurch die Grund-Effekt-Funktion in den letzten Jahren unverändert geblieben ist. Als
Beispiel für eine F-N-Kurve wurde der Brielse Polder ausgewählt (s. Abb. 6).
0
10
-2
10
Freq. of more than N fatalities [/year]
-4
10
b e ta = 1
-6
10
b e ta = 0 .1
-8
10
-10
10
-12
10
-14
10
1 2 3 4
10 10 10 10
. N um b e r o f fa ta litie s N
65
Probabilistische Methoden zur Bemessung von Deichen
66
Probabilistische Methoden zur Bemessung von Deichen
Abb. 7: Persönliches Risiko in den westlichen Ländern, abgeleitet aus den Statistiken für
Todesursachen und der Anzahl Teilnehmer pro Aktivität
Mit Ausnahme eines leichten Abwärtstrends der dargestellten Todesrisiken infolge des
technischen Fortschritts erscheint es zulässig, diese als Entscheidungsgrundlage bezüglich
der persönlich akzeptierten Wahrscheinlichkeit für Versagen zu definieren. Formal ergibt
sich hierfür:
β i ⋅ 10 -4
P fi = (1)
P d| fi
mit Pd|fi als Ausdruck der Wahrscheinlichkeit für Tod infolge eines Unglücks. In dieser
Darstellung variiert der Politikfaktor $i mit dem Freiheitsgrad mit dem die Aktivität I aus-
geübt wird, und mit dem erzielten Nutzen. Dieser liegt zwischen 100 im Fall von völliger
Willensfreiheit, wie im Bergsport-Beispiel, und 0,01 im Fall von auferlegtem Risiko ohne
67
Probabilistische Methoden zur Bemessung von Deichen
erzielten direkten Nutzen (eine dermaßen große Wertspanne wurde bereits in 1969 durch
STARR [10] beschrieben). Dieser letzte Fall beinhaltet das individuelle Risikokriterium,
welches für den Bau von gefährlichen Anlagen in der Nähe von Wohngebieten ohne ir-
gendeinen direkten Nutzen für die Bewohner benutzt wird. Untenstehende Tabelle enthält
mögliche Werte für den Politikfaktor $I, als Funktion von Freiwilligkeit und Nutzen:
Tabelle 2: Der Wert des Politikfaktor βi als Funktion von Freiwilligkeit und Nutzen
Für die Sicherheit eines Deiches wird ein βi-Wert zwischen 1.0 und 0.1 gewählt. Die Auf-
fassung des gesellschaftlichen Risikos infolge einer bestimmten Aktivität sollte auf natio-
nalem Niveau geschehen. Risiko auf nationalem Niveau ist definiert als die Summe aller
Risiken aus lokalen Institutionen oder Aktivitäten. Beginnend mit einem Risikokriterium
auf nationalem Niveau sollte man das akzeptable lokale Risiko in einem iterativen Prozeß
mit einer Zeitdauer von ca. 50 Jahren im Hinblick auf die tatsächliche Anzahl von Anla-
gen, die Kosten-Nutzen-Aspekte der Aktivitäten und den allgemeinen Sicherheitsfortschritt
bewerten.
Aus dem Beschluß des gesellschaftlich akzeptablen Risikoniveaus folgt, daß die Unglücks-
statistiken das Ergebnis des gesellschaftlichen Verlaufs der Risikoabschätzung wiederge-
ben, und daß aus ihnen eine Norm abgeleitet werden kann. Die Formel soll die
Risikoaversionen in der Gesellschaft veranschaulichen. Relativ häufige kleine Unglücke
werden einfacher akzeptiert als ein einziges außergewöhnliches Unglück mit großen Fol-
gen wie Überschwemmung, obwohl die vermutete Anzahl der Opfer in beiden Fällen
gleich hoch ist. Die Standardabweichung der Anzahl Opfer drückt diesen Unterschied aus.
VRIJLING et al. [21] hat gezeigt, daß Risikoaversion ausgedrückt werden kann, in dem man
das gewünschte Vielfache k der Standardabweichung zu dem mathematischen Ausdruck
für die totale Anzahl Toten, E(Ndi) addiert, bevor die Situation an der Norm von βi·100
Opfern für die Niederlande getestet wird:
E( N di ) + k ⋅ σ ( N di ) < β i ⋅ 100 (2)
mit: k = 3 Risikoaversionsindex.
Um die mathematische Erwartung und die Standardabweichung der totalen Anzahl der
Opfer, die jährlich infolge einer Aktivität i fallen, zu bestimmen, muß die Anzahl der un-
abhängigen Orte NAi, wo die Aktivität ausgeführt wird, berücksichtigt werden.
Die Übertragung des national akzeptierten Risikoniveaus auf ein Risikokriterium für eine
einzige Anlage oder Polder, wo eine Aktivität stattfindet, hängt von der Verteilung der
Anzahl Unglücksopfer infolge der ausgeführten Aktivität ab. Die bevorzugte Anwendung,
um das neue lokale Risikokriterium mit der F-N-Kurve zu verbinden, ist wie folgt:
68
Probabilistische Methoden zur Bemessung von Deichen
Ci
1 − FNdij ( x) < für alle x ≥ 10 . (3)
x2
Falls der erwartete Wert der Anzahl der Opfer viel kleiner ist als seine Standardabwei-
chung, was oft zutrifft für die hier untersuchten seltenen Schadensereignissen, dann redu-
ziert sich der Wert von Ci auf:
2
β ⋅ 100
Ci = .
i
(4)
k ⋅ N Ai
Das Problem des akzeptablen Risikoniveaus kann, wie bereits angedeutet, auch als wirt-
schaftliches Entscheidungsproblem formuliert werden. Die Ausgaben I für ein sichereres
System wird dem Gewinn, der gemacht wird durch den abnehmenden Present Value für
Risiko (s. Abb. 1) gleichgestellt. Das optimale Sicherheitsniveau, dargestellt durch Pf,
stimmt mit dem Punkt, der die minimalen Kosten darstellt, überein.
min(Q) = min(I( P f ) + PV( P f ⋅ S)) (5)
mit: Q = Gesamtkosten
PV = Present Value Operator
S = Gesamtschaden im Fall von Versagen
Falls ungeachtet ethischer Einwände der Wert menschlichen Lebens mit s bemessen wird,
nimmt die Schadensmenge zu mit:
P d| fi ⋅ N pi ⋅ s + S (6)
Dieses Maß beschreibt die optimale Wahrscheinlichkeit des Versagens in einer abnehmen-
den Funktion der erwarteten Anzahl der Opfer. Die Bewertung des menschlichen Lebens
wurde gewählt als Present Value des Nettosozialproduktes pro Einwohner. Der Vorteil bei
der Berücksichtigung vom möglichen Verlust menschlichen Lebens in wirtschaftlichen
Ausdrücken ist, daß die Sicherheitsmaßnahmen bezahlbar sind im Vergleich mit dem Brut-
toinlandsprodukt (siehe auch VRIJLING UND VAN GELDER [19]).
Bei der Bewertung der erforderlichen Sicherheit einer Deichanlage sollten alle drei Metho-
den, die in diesem Manuskript erwähnt wurden, angewendet und präsentiert werden. Das
strengste der drei Kriterien formt die Grundlage für die technische Empfehlung, die dem
politischem Entscheidungsprozeß zugrunde liegen sollte. Alle Informationen bezüglich der
Risikobewertung sollten jedoch in dem politischen Prozeß verfügbar sein.
6 Ergebnisse
Die neue probabilistische Methode bietet große Vorteile gegenüber der gegenwärtigen Me-
thode. Mittelpunkt der Analyse ist das unerwünschte Hauptereignis (Überschwemmung),
welches durch den Hochwasserschutzbau verhindert werden soll. Der Beitrag aller Ele-
mente der gesamten Anlage und aller Versagensmechanismen eines jeden Elementes zu
69
Probabilistische Methoden zur Bemessung von Deichen
der Wahrscheinlichkeit für ein Überschwemmung wird berechnet und deutlich dargestellt.
Die Möglichkeit, die Wahrscheinlichkeit für menschliches Versagen beim Verwalten der
Hochwasserschutzanlage mit einzubeziehen, ist besonders attraktiv und hilfreich. Der Län-
geneffekt, d.h. daß eine längere Kette ein wahrscheinlich schwächeres Glied besitzt, kann
auf adäquate Weise wiedergegeben werden.
Die Ergebnisse dieser Anwendung auf Zentralholland führen tatsächlich zu einer Rangliste
von schwächeren Schutzbauelementen. Aufgrund dieser Analyse kann ein Plan erstellt
werden, in dem die Investition einer stets wachsenden Summe Geld durch schrittweise
Verstärkung der Elementen definiert wird. Zur Zeit verschmelzen optimale Inspektion und
Instandhaltung der Deichbauten zu einem weitsichtigen Plan für die Verbesserung der Si-
cherheit des gesamten Systems. Außerdem sorgt die neue Methode für eine breitere Palette
an Maßnahmen als zuvor gehandhabt wurde.
Investitionen in Inspektion, Forschung und angepaßter Raumplanung sind mögliche Alter-
nativen, die vergleichbar sind mit den klassischen Maßnahmen der Deichverstärkung.
Zum Schluß wird eine Methode beschrieben, die das Niveau des akzeptablen Risikos defi-
niert. Die Entscheidung aufgrund des Niveaus des akzeptablen Risikos ist ein Kosten-
Nutzen-Urteil, welches sowohl aus dem individuellen als aus dem sozialen Gesichtspunkt
gefällt werden muß. Ein System, bestehend aus drei Kriterien, wurde entwickelt, um die
Beurteilung der Sicherheit der Deiche zu unterstützen. Das strengste der drei Kriterien soll-
te als Basis für den „technischen” Rat für den politischen Entscheidungsprozeß verwendet
werden. Alle Informationen der Risikobeurteilung sollten für den politischen Prozeß ver-
fügbar sein. Eine politische Entscheidung muß demokratisch getroffen werden, da eine
Reihe verschiedener Werte gegeneinander abgewogen werden müssen. Die wirtschaftliche
Optimierung kann jedoch zeigen, daß die wirtschaftlichen Aktivitäten in geschützten Ge-
bieten seit 1953 dermaßen gewachsen sind, so daß eine gründliche Neubewertung der Ak-
zeptanz von Überschwemmungsrisiken gerechtfertigt ist.
7 Literaturverzeichnis
[1] BLOCKLEY, D.: Engineering safety. London, McGraw-Hill, ISBN 0-07-707593-5,
1992
[2] GUEDES SOARES, C.: Dealing with strength degradation in structural reliability. In
Risk-Based Design of Civil Structures. pp.31-49, Eds. Pieter van Gelder, Alex Roos,
Han Vrijling, Communications on hydraulic and geotechnical engineering. ISSN
0169-6548, Report No. 01-1, 2001
[3] HMSO: Safer ships, cleaner seas;. report of Lord Donaldson's inquiry into the preven-
tion of pollution from merchant shipping; presented to parliament by the Secretary of
State for Transport by command of Her Majesty, May 1994, Publisher London :
HMSO Her Majesty's Stationery Office, 1994, 522 pages. Department of the Environ-
ment and Department of Transport, 1994
[4] Hohenbichler, M. und Rackwitz, R.: First-order concepts in system reliability. Struc-
tural Safety, Vol. 1, pages 177, 1983
70
Probabilistische Methoden zur Bemessung von Deichen
[5] HSE: Risk criteria for land-use planning in the vicinity of major industrial hazards.
Publisher London: Her Majesty's Stationery Office, ISBN 0-11-885491-7, 32 pages,
Corporate author Health and Safety Executive, 1989
[6] INSTITUTE OF CHEMICAL ENGINEERING: Nomenclature for hazard and risk
assessment in the process industries. ISBN 85 295184 1, 1985
[7] MINISTRY OF HOUSING, LAND USE PLANNING AND ENVIRONMENT: Relat-
ing to risks (in Dutch). The Hague, 1992
[8] NATIONAL AEROSPACE LABORATORY NLR: Analyse van de externe veiligheid
rond Schiphol. CR 93485 L,Amsterdam, 1993
[9] NOWAK, A.S., COLLINS, K.R.: Reliability of structures. McGraw-Hill, ISBN 0-07-
048163-6, 2000
[10] STARR, C.: Social benefit vs. Technological risk. Science, Vol.165, p.1232-1283,
1969
[11] STEWART, MARK G. und MELCHERS, ROBERT E.: Probabilistic risk assessment
of engineering systems. London: Chapman and Hall, ISBN 0-412-80570-7, 1997
[12] TECHNICAL ADVISORY COMMITTEE ON WATER RETAINING
STRUCTURES: Some considerations on acceptable risk in the Netherlands. Dienst
Weg- en Waterbouwkunde, Delft, 1984
[13] VAN DANTZIG, D. und KRIENS, J.: The economic decision problem of safeguard-
ing the Netherlands against floods. Report of Delta Committee, Part 3, Section II.2 (in
Dutch), The Hague, 1960
[14] VAN DANTZIG, D,: Economic Decision Problems for Flood Prevention. Economet-
rica 24, pp 276-287, New Haven, 1956
[15] VAN DE KREEKE, J. und PAAPE, A.: On the optimum breakwater design. Proc. 9-th
IC Coastal Eng.
[16] VAN GELDER, P.H.A.J.M.,: Statistical methods for the risk-based design of civil
structures/by Petrus Hermanus Antonius Johannes Maria van Gelder, Publisher
S.l.:S.n., 1999, ISBN 90-9013452-2, 249 pages, 1999
[17] VLEK, C.A.J. und STALLEN, P.J.M.: Personal judgment of risks; on the risks, bene-
fits, and acceptabilities of individual, societal and industrial activities (in Dutch: Per-
soonlijke beoordeling van risico's; over risico's, voordeligheid en aanvaardbaarheid
van individuele, maatschappelijke en industriele activiteiten). Publisher Groningen:
Rijksuniversiteit Groningen, 187 pages, 1979
[18] VRIJLING, J.K.: Review of dealing with strength degradation in structural reliability.
In Risk-Based Design of Civil Structures. pp.51-53, Eds. Pieter van Gelder, Alex
Roos, Han Vrijling, Communications on hydraulic and geotechnical engineering,
ISSN 0169-6548, Report No. 01-1, 2001
[19] VRIJLING, J.K. und VAN GELDER, P.H.A.J.M.: An Analysis of the Valuation of a
Human Life. ESREL 2000 AND SRA - EUROPE ANNUAL CONFERENCE,
71
Probabilistische Methoden zur Bemessung von Deichen
72
Vergleich der Nachrechnungsklassen von Straßenbrücken
Stephan Loos
Diplomand am Institut für Massivbau, Technische Universität Dresden
1 Rahmenbedingungen
1.1 Einführung in die Problematik der Nachrechnungsklassen
Im November 1996 beschloß der Koordinierungsausschuß 07.1 „Brücken“ des Normungs-
ausschusses Bauwesen im Deutschen Institut für Bauwesen, die nationalen Regelungen im
Brückenbau auf europäisches Niveau umzustellen. Das bedeutete, daß die bestehenden
Normen durch Nationale Anwendungsdokumente (NAD), die sich auf die ENV´s bezie-
hen, auszutauschen waren. Im Brückenbau sind diese NAD die DIN-Fachberichte 101-104,
welche am 1. Mai 2003 verbindlich eingeführt wurden. Diese Umstellung hatte das Ziel,
die zum großen Teil veralteten nationalen Normen zu ersetzen.
Auf den folgenden Seiten soll nun eine Ergänzung des DIN-Fachberichtes 101 [3] erörtert
werden. Diese Erweiterung wird nötig, da in [3] keinerlei abgeminderte Straßenverkehrs-
lastmodelle enthalten sind. Damit gibt es für den Tragfähigkeitsnachweis lediglich ein
Lastmodell, welches in etwa mit der Brückenklasse 60/30 vergleichbar ist. Auf Lastmodel-
le für Brücken, welche von weniger starkem Verkehr frequentiert werden, wie sie zum
73
Vergleich der Nachrechnungsklassen von Straßenbrücken
Beispiel in der DIN 1072 [2] mit dem Lastmodell der Brückenklasse 30/30 berücksichtigt
wurden, wird komplett verzichtet. Außerdem wurde auf die Einführung so genannter
Nachrechnungsklassen verzichtet, also auf die Brückenklassen, mit denen bestehende
Brücken nachgerechnet und eingeordnet werden können. Es hat sich in der Praxis gezeigt,
daß die Brückenklassen 16/16, 12/12, 9/9, 6/6 und 3/3 der alten Norm durchaus ihre Da-
seinsberechtigung haben. Denn es gibt sehr viele Brücken, welche den Anforderungen ei-
nes Lastmodell 1 nicht genügen. Werden solche Brücken nicht oder nur in geringem
Umfang vom Schwerlastverkehr benutzt, kann grundsätzlich eine Herabstufung des zuläs-
sigen Gewichts der Fahrzeuge, die diesen Verkehrsweg benutzen dürfen, vorgenommen
werden. Dieses wäre über Durchfahrtsverbote zu regeln, was wiederum auch gang und
gäbe ist. Derartige Durchfahrtsverbote werden mit Schildern, wie sie in Abb. 1:
Vorschriftszeichen exemplarisch dargestellt sind, vorgeschrieben. Somit könnte man nicht
nur Sanierungskosten sparen, sondern auch den Erhalt vieler schöner alter Brücken ermög-
lichen.
Abb. 1: Vorschriftszeichen
Der Normungsausschuß Bauwesen hat sich nun allerdings dazu entschlossen, nur eine
Brückenklasse als nationalen Regelfall zu definieren. Die Begründung hierfür, daß
Schwerlastverkehr auf allen Straßen verkehren kann und daß Verbote nicht hundertprozen-
tig kontrollierbar sind, erscheint auch sinnvoll. Außerdem sind die ermittelten Kräfte aus
dem Verkehrslastmodell deutlich geringer als die, die sich aus dem Eigengewicht der
Brücken ergeben. Dies gilt im besonderen für Betonbrücken, um welche es sich ja im Re-
gelfall im Straßenverkehr handelt. Daraus ergibt sich, daß die Einsparungen für den Neu-
bau einer Brücke niederer Brückenklasse nicht so erheblich sind und somit nicht den
Verlust an Sicherheit und Gebrauchswert der Brücke rechtfertigen.
Es wird allerdings die Möglichkeit offen gelassen, geringere nationale Anpassungsfaktoren
αQi und αqi zu verwenden und somit in einer Art niedrigerer Brückenklasse zu rechnen.
Allerdings sind hierfür Sonderuntersuchungen notwendig.
Auf den folgenden Seiten wird versucht, eine Möglichkeit vorzustellen, wie solche natio-
nalen Anpassungsfaktoren ermittelt werden könnten. Diese Berechnungen werden in An-
lehnung an die Berechnungen geführt, welche für den Nachweis der Richtigkeit des
Lastmodell 1 aus dem Eurocode 1 benutzt wurden.
1.2 Normen
1.2.1 DIN 1072
Die Nachrechnungsklassen bestehen genau wie die Regelklassen aus einem fiktiven SV-
Fahrzeug von 6 m Länge und 3 m Breite und einer Streckenlast, welche überall auf dem
74
Vergleich der Nachrechnungsklassen von Straßenbrücken
Brückenbauwerk, außer unter dem SV, anzusetzen ist. Das SV-Fahrzeug hat einen Achsab-
stand von 2 m und eine Spurbreite von 2 m.
Tab. 1: Achs- bzw. Gesamtlasten der Nachrechnungsklassen nach DIN 1072 [2]
Die Lastmodelle des DIN-Fachberichtes 1 [3] sind direkt aus den Lastmodellen der ENV
1991-3 [4] abgeleitet. Das heißt, daß für den Zustand der Tragfähigkeit das Lastmodell 1 in
abgeminderter Form übernommen wird. Im weiteren werden Lastmodell 2 (in abgeminder-
ter Form) und LM 4 sowie Lastmodelle für Ermüdungsnachweise aus der ENV übernom-
men.
Beim Lastmodell 1 wird mit Hilfe nationaler Anpassungsfaktoren das Gewicht der Dop-
pelachse verringert (bzw. auf Fahrstreifen 3 komplett heraus genommen). Die Streckenla-
sten werden unverändert übernommen. Das bedeutet, die Abminderungswerte sind:
αQ1=0.8, αQ2=0.8, αQ3=0 und αqi=1.
Des weiteren heißt es in der ENV 1991-3 [4] unter 4.3.2 (7): „Die Zahlenwerte der Fakto-
ren αQi, αqi und αqr (Anpassungsfaktoren) können für verschiedene Straßenklassen oder für
verschiedene erwartete Verkehre unterschiedlich sein. Falls dazu nichts festgelegt ist, soll-
ten sie zu 1 gewählt werden. Für alle Klassen, bei denen keine Lastbegrenzung durch Ver-
kehrszeichen vorgenommen wird, “ gelten folgende Formeln:
α Qi ≥ 0,8 (1)
75
Vergleich der Nachrechnungsklassen von Straßenbrücken
für i ≥ 2 , α qi ≥ 1 (2)
Da diese vorgegebenen Grenzen im DIN-Fb [3] für das Lastmodell 1 bereits nahezu ausge-
reizt sind, ist es nicht zulässig, Brückenklassen zu definieren, welche ohne eine Tonnage-
begrenzung des Verkehrs auskommen. Das bedeutet, eine Art Brückenklasse 30/30 für
Straßen von geringerer Bedeutung ohne gewichtsbeschränkende Beschilderung, wie es
nach DIN 1072 [2] üblich war, ist nach [4] nicht mehr sinnvoll.
2 Einflußgrößen
2.1 Allgemeines
Über Straßen und somit auch über Brücken rollt Verkehr von zufälliger Größe und zufälli-
ger Verteilung. Eine Brücke gilt als zuverlässig, wenn sie über die gesamte Nutzungsdauer
diesen Beanspruchungen mit ausreichender Wahrscheinlichkeit widerstehen kann.
Es gibt nach SPAETHE [10] zwei Möglichkeiten, die Beanspruchungen zu ermitteln
• Messungen der Beanspruchungen an Brücken unter Verkehr
• Messung der statistischen Parameter und Berechnung der Beanspruchungen
Die Möglichkeit, über Messungen statistische Parameter zu bestimmen, ist effektiver, da
die Ergebnisse Rückschlüsse für ganze Brückenklassen gestatten. Dadurch kann der meß-
technische Aufwand erheblich verringert werden. Die gewonnenen Ergebnisse sollten al-
lerdings mittels Messungen an Brücken überprüft werden.
2.2 Verkehr
2.2.1 Einteilung
Der Straßenverkehr kann durch eine große Anzahl variabler Größen beschrieben werden.
Diese Größen lassen sich nach SCHÜTZ [9] in die vier in Abb. 3 dargestellten Hauptgrup-
pen aufteilen.
2.2.2 Verkehrsstärke
Die Verkehrsstärke ist das Verhältnis der Fahrzeuganzahl eines Streckenquerschnitts pro
Zeiteinheit. Dabei wird nach unterschiedlichen Fahrzeugkategorien unterschieden. Interes-
sant für die Bestimmung eines Lastmodells ist der Schwerlastverkehr (SV), da nur er zu
maximalen Beanspruchungen führt.
In der Bundesrepublik werden seit vielen Jahren Verkehrszählungen mittels automatischer
Langzeitzählstellen durchgeführt. Dem Eurocode 1 liegen die bei Auxerre (Frankreich)
gemessenen Werte zugrunde. Der Anteil des SV am DTV beträgt an dieser Meßstelle 32%
auf Fahrspur 1 und 10 % auf Fahrspur 2. Vergleicht man diese Werte mit anderen Mess-
stellen, so sieht man, daß der Wert von 1,5 % am Blauen Wunder bis zu 45 % in Epone
stark streut. Eine Auswertung der Automatischen Straßenverkehrszählungen in Sachsen hat
ergeben, dass der DTSV auf Staatstraßen nicht über 10% des DTV ansteigt. Ebenfalls hat
76
Vergleich der Nachrechnungsklassen von Straßenbrücken
die Auswertung ergeben, daß der Schwerlastverkehr auf diesen Straßen in den letzten 6
Jahren nicht zugenommen hat.
Straßenverkehr
- MSV Geschwindigkeit
Einzelfahrzeug
Achsanzahl
DTV = durchschnittliche tägliche Verkehrsstärke
Achslasten
DTSV = durchschnittliche tägliche Schwerverkehrsstärke
Achsabstände
MSV = maximale stündliche Verkehrsstärke
Auslastung
Schwingverhalten
2.2.3 Verkehrsfluß
Der Verkehrsfluß wird durch Fahrzeugabstand, die Geschwindigkeit und die Spurauftei-
lung bestimmt. Da hier gewichtsbeschränkt beschilderte Straßen betrachtet werden sollen,
können Autobahnen und Bundesstraßen unberücksichtigt bleiben. Auf Landstraßen kann
man nach GEIßLER [5] den Abstand zwischen den Fahrzeugen als logarithmisch normalver-
teilt (3-parametrig, µ=1500m s=1000m) annehmen. Spuraufteilung spielt bei den hier be-
trachteten Straßen mit nur einem Fahrstreifen pro Richtung keine Rolle.
2.2.4 Fahrzeugkollektiv
77
Vergleich der Nachrechnungsklassen von Straßenbrücken
LKW-Typ Verkehrsart
Langstrecke Mittelstrecke Kurzstrecke
Typ-Nr. LKW-Silhouette [m] Fahrzeug-Anteil [%]
1 20 50 80
2 5 5 5
3 40 20 5
4 25 15 5
5 10 10 5
2.2.5 Einzelfahrzeug
Die einzelnen Fahrzeuge variieren auch innerhalb der Fahrzeugtypen relativ stark. So sind
z. B. die Achsabstände variabel. Die statistischen Angaben des Gesamtgewichts, der Ver-
teilung des Gesamtgewichts auf die einzelnen Achsen sowie der Achsabstand sind von
MERZENICH in [6] angegeben. Dort sind ebenfalls die Verteilungsparameter der Feder- und
Dämpfungskennwerte der LKW enthalten. Die Angaben, die Merzenich macht, stammen
alle aus der Auswertung der Auxerre-Meßwerte.
In [6] wird jeder LKW-Typ durch zwei Normalverteilungen beschrieben, wobei eine der
Funktionen ein leeres Fahrzeug (LLKW) und die andere ein beladenes Fahrzeug (SLKW)
darstellen soll. Einen etwas anderen Weg geht POHL [7], welcher eine Verteilung für den
leeren LKW-Typ und eine für die Beladung angibt. POHL gibt Wahrscheinlichkeits-
funktionen für Kurz-, Mittel- und Langstreckenverkehr äquivalent zu den Angaben aus
Tab. 2 an.
2.3 Fahrbahnoberfläche
Das sich auf der Brücke befindende Fahrzeug bildet mit der Brücke ein gekoppeltes
Schwingungssystem. Das bedeutet, daß man im Brückebau nicht mit statischen Lasten
rechnen kann, sondern daß man die Erhöhung der Schnittkräfte durch dynamische Prozesse
berücksichtigen muß.
78
Vergleich der Nachrechnungsklassen von Straßenbrücken
79
Vergleich der Nachrechnungsklassen von Straßenbrücken
18%
16%
14%
12%
Häufigkeit
10%
8%
6%
4%
2%
0%
1
11
13
15
17
19
21
23
25
Die Busse wurden nicht berücksichtigt, da sie ja über die Brücke fahren dürfen und für die
Modulierung eines Lastmodells die Überschreitung der zulässigen Werte besonders inter-
essant ist.
Aus den Meßergebnissen für die jeweiligen SV-Typen müssen nun stochastische Kenngrö-
ßen gewonnen werden. Dies zeigt Abb. 7 exemplarisch für den Typ LKW. Jeder der drei
relevanten SV-Typen wird in eine bimodale Verteilung überführt. Tab. 3 zeigt die Kenn-
größen dieser Verteilungen.
80
Vergleich der Nachrechnungsklassen von Straßenbrücken
18%
16%
14%
12% Häufigkeitsverteilung LKW
Häufigkeit
WhFkt
10%
8%
6%
4%
2%
0%
1
11
13
15
17
19
21
23
25
Gewicht [t]
Mittels dieser Daten können dann die Auftretenswahrscheinlichkeit und die Gewichte der
einzelnen SV-Typen simuliert werden. Mit den daraus gewonnenen Ergebnissen wird das
maximale Feldmoment eines Einfeldträgers berechnet. Die Abmessungen und Lastvertei-
lungen der einzelnen Fahrzeugtypen werden nach den auf Auxerre-Meßdaten beruhenden
Angaben aus [6] berechnet.
Wiederholt man diese Berechnungen oft genug, kommt man zu einer Verteilung der Auf-
tretenswahrscheinlichkeit der maximalen Feldmomente eines Einfeldträgers mit einer be-
stimmten Stützweite. Dieses wurde in diesem Fall für die Stützweiten 5 m, 8 m, 10 m,
15 m, 20 m, 25 m, 30 m, 40 m, 50 m und 60 m gemacht. Aus diesen Simulationsergebnis-
sen wurde der 1000-Jahre-Fraktilwert extrapoliert. Dieser Wert ist der charakteristische
Wert, der dem Tragfähigkeitsnachweis zugrunde gelegt wird. Er steht für die Belastung,
die in einer angesetzten Lebensdauer von 100 Jahren mit 10 %iger Wahrscheinlichkeit
überschritten wird.
81
Vergleich der Nachrechnungsklassen von Straßenbrücken
8000
7000
abgem. LM1 Streifen
6000 Nr1
Feldmoment [kNm]
extrapol. Werte aus
5000 Simulat
4000
3000
2000
1000
0
5 8 10 15 20 25 30 40 50 60
Spannweite [m]
8000
7000 abgem. LM1 Streifen Nr1
Feldmoment[kNm]
6000
5000 Stausimulation (SV 45%)
4000
3000
2000
1000
0
15 20 25 30 40 50 60
Brückenlänge [m]
82
Vergleich der Nachrechnungsklassen von Straßenbrücken
10000
9000 BK16
8000 BK12
extapol. Feldmoment [kNm]
7000 BK30
6000
5000
4000
3000
2000
1000
0
0 5 8 10 15 20 25 30 40 50
Spannwe ite [m]
In Tab. 4 sind Abminderungsfaktoren, wie sie sich nach den durchgeführten Simulationen
ergeben haben, angegeben. Die Abminderungsfaktoren sind für das LM 1 auf dem Fahr-
streifen Nummer 1 und für gute und mittlere Straßenbelagsqualität angegeben. Die Be-
rechnung wurde ergänzend mit den Auxerre-Daten durchgeführt, um die Ergebnisse auf
Plausibilität zu prüfen. Da das LM 1 nach [4] den in Auxerre gemessenen Verkehr darstel-
len soll, stellen die ermittelten Anpassungsfaktoren von ca. 1 eine gute Nährung dar. Als
Bezeichnungsart der Brückenklassen wurden die der DIN 1072 [2] gewählt. Allerdings
handelt es sich in diesem Fall, wie schon in 1.2.2 erläutert, auch bei der BK 30/30 um eine
Nachrechnungsklasse. Die hier angegebene BK 60/30 wurde nicht berechnet. Für sie wur-
den die Faktoren des LM 1 nach DIN Fachbericht 101 [3] angesetzt. Alle Anpassungsfak-
toren beziehen sich auf das Lastmodell 1 der ENV 1991-3 [4].
83
Vergleich der Nachrechnungsklassen von Straßenbrücken
Da die hier vorgeschlagenen Anpassungsfaktoren höher als erwartet ausfallen, wurde noch
eine Vergleichsrechnung durchgeführt. Diese vergleicht die maximalen Feldmomente, die
sich nach DIN 1072 am Einfeldträger für die Hauptspur (HS) ergeben, mit denen, die sich
nach den abgeminderten Lastmodellen ergeben. Die Hauptspur der DIN 1072 entspricht
dem Fahrstreifen 1 nach DIN Fachbericht.
Brückenlänge BK 60 BK 30 BK 16 BK 12
[m] HSDIN-FB/HSDIN1072 HSDIN-FB/HSDIN1072 HSDIN-FB/HSDIN1072 HSDIN-FB/HSDIN1072
5 88 % 131 % 142 % 150 %
8 85 % 125 % 133 % 146 %
10 86 % 124 % 127 % 141 %
15 90 % 123 % 116 % 129 %
20 95 % 124 % 109 % 121 %
25 100 % 126 % 104 % 115 %
30 106 % 128 % 101 % 112 %
40 118 % 134 % 99 % 108 %
50 132 % 142 % 100 % 109 %
60 147 % 141 % 94 % 103 %
In Tab. 5 ist zu erkennen, daß die neuen Lastmodelle für kurze Brücken sehr auf der siche-
ren Seite liegen, sich aber für größere Spannweiten den Werten nach DIN 1072 [2] annäh-
ren und diese sogar unterschreiten. Das ist dadurch zu erklären, daß die Simulationen
relativ hohe Extremwerte bei den Achslasten ergeben haben. Dieses wirkt sich besonders
auf die kurzen Brücken aus.
84
Vergleich der Nachrechnungsklassen von Straßenbrücken
4 Literatur
[1] DIN 1055-3: Einwirkungen auf Tragwerke, Teil 3: Eigen- und Nutzlasten für Hoch-
bauten. Berlin: Beuth Verlag, Oktober 2002
[2] DIN 1072: Straßen und Wegbrücken, Lastannahmen. Berlin: Beuth Verlag, Dezember
1985
[3] DIN Fachbericht 101: Einwirkungen auf Brücken. Berlin: Beuth Verlag, 2001
[4] ENV 1991-3 Eurocode 1: Grundlagen der Tragwerksplanung und Einwirkungen auf
Tragwerke, Teil 3: Verkehrslasten auf Brücken. Berlin: Beuth Verlag, 1995
[5] Geißler, K.: Beitrag zur probabilistischen Berechnung der Restnutzungsdauer stähler-
ner Brücken. Diss., TU Dresden 1995, erschienen als Heft 2, Schriftenreihe des Insti-
tuts für Tragwerke und Baustoffe
[6] Merzenich, G.; Sedlacek, G.: Hintergrundbericht zum Eurocode 1 Teil 3.2: “Ver-
kehrslasten auf Straßenbrücken“, Forschung Straßenbau und Straßenverkehrstechnik
Heft 711. Bonn-Bad Godesberg: Bundesministerium für Verkehr, Abt. Straßenbau
[7] Pohl, S.: Definition von charakteristischen Werten für Straßenverkehrsmodelle auf der
Basis der Fahrzeuge sowie Fraktilwerte der Lasten des Eurocode 1-Modells; interner
Forschungsbericht Bundesanstalt für Straßenwesen, 1993
[8] Ruppert,W.-R; Leutzbach, W.; Adolph, U.-M.; Agnew M.; Rüter G.; Zänker, K.:
Achslasten und Gesamtgewichte schwerer LKW. Köln: Verlag TÜV Rheinland GmbH,
1981
[9] Schütz, K.G.: Verkehrslasten für die Bemessung von Straßenbrücken, Bauingenieur
66 (1991), S. 363-373
[10] Spaethe, G.: Beanspruchungskollektive von Straßenbrücken, Die Straße 17 (1977) 4,
S. 241-246
85
Vergleich der Nachrechnungsklassen von Straßenbrücken
86
Aspekte zur statistischen Beschreibung von Bahnverkehrslasten
1 Problemstellung
Das in den Normen verankerte Lastbild UIC 71 wurde auf deterministischer Grundlage
entwickelt [6] und im Jahre 1971 eingeführt. Es berücksichtigte den damaligen Schienen-
verkehr einschließlich eines begrenzten prognostischen Zuwachses. Der Schienenschwer-
verkehr war zu diesem Zeitpunkt noch nicht ausreichend abgedeckt, hierfür folgten
nachträglich die Schwerlastbilder SW/0 und SW/2. Nach langjähriger erfolgreicher Be-
währung in der Praxis im Rahmen globaler Sicherheitskonzepte ist das Lastbild unverän-
dert auch in die neue Normengeneration der Eurocodes bzw. auf nationaler Ebene der
DIN-Fachberichte für Brückenneubauten verbindlich aufgenommen worden. Entsprechend
der semiprobabilistischen Definition für die Einwirkungen aus Verkehrsbelastung ent-
spricht UIC 71 nunmehr einem charakteristischen Lastbild, das mit einem Teilsicherheits-
beiwert (DIN-FB 101: γQ = 1,45) multipliziert den Bemessungswert der Einwirkungsgröße
aus vertikalen Bahnverkehrslasten repräsentiert. Weiterhin wird UIC 71 auch im Rahmen
der Nachrechnung bestehender Tragwerke (DB-Richtlinie 805) eingesetzt. In der näheren
Vergangenheit erfolgten umfangreiche Untersuchungen des EUROPEAN RAIL RESEARCH
INSTITUTE (ERRI), ob das Lastbild auch bei heutigem Expositionszeitpunkt in allen praxis-
relevanten Fällen für einen angestrebten Nutzungszeitraum von 100 Jahren für Brücken-
neubauten eine genügend große Sicherheit für den Eisenbahnverkehr auf hochbelasteten
Strecken gewährleistet. Andererseits ist es eine Frage der Wirtschaftlichkeit, auf gering
belasteten Strecken für einen Brückeneubau abgeminderte Verkehrslasten ansetzen zu dür-
fen. Bestrebungen zum Ersatz des UIC 71 durch ein neues, angepasstes Lastmodell LM
2000 [5] im Zuge der Einführung der neuen Normen sind gescheitert. Dafür wurde ein
streckenabhängig festzulegender Klassifizierungsfaktor 0,75 ≤ α ≤ 1,33 eingeführt.
87
Aspekte zur statistischen Beschreibung von Bahnverkehrslasten
Dampflok BR 01:
Gesamtgewicht 1710 kN;
max. Achslast 202 kN
Nennleistung: 1670 kW;
LüP: 23,94 m
Bemessungslastenzug: N
Mit dem stetigem Wandel des Personen- und Güterverkehrs verbunden waren grundlegen-
de Veränderungen der Belastungsverhältnisse vor allem im Güterschwerverkehr. Die Lei-
stungen der Lokomotiven liegen heute weit über denen des Dampflokbetriebes, was sich
u.a. in gestiegenen Anfahrzugkräften und damit auch höheren normativen Anfahrlasten
88
Aspekte zur statistischen Beschreibung von Bahnverkehrslasten
bezogen auf die zugehörige vertikale Auflast äußert. Die Radsatzlasten der maßgebenden
schweren Triebfahrzeuge haben dagegen kaum zugenommen (vgl. Abb. 1 und Abb. 2),
deren statistische Unsicherheit ist bei modernen Loks im Elektro- und Dieselbetrieb gering,
Abweichungen von den Nennlasten liegen normalerweise unter 5%.
BR 241:
Gesamtgewicht 1200 kN;
6 Achsen; max. Achslast 200 kN;
Anfahrzugkraft: 450 kN;
Nennleistung: 2940 kW;
LüP: 20,82 m
Bemessungslastenzug: UIC 71
3 x 225 kN 3 x 225 kN
Abb. 2 Belastungskennwerte für die derzeit leistungsstärkste Diesellok von RAILION der
Baureihe 241 sowie einen moderner Drehgestellflachwagen Typ Sa(l)mmnps 706
89
Aspekte zur statistischen Beschreibung von Bahnverkehrslasten
a) b)
Abb. 3 : a) Geleichterter Güterzug mit eingefügten Leerwagen bei Überfahrt über die Ram-
penbrücken der Eisenbahnhochbrücke Rendsburg und b) Aneinanderreihung von
Lokomotiven zur Durchführung eines Bremsversuches
Zusammenfassend kann festgestellt werden, dass sich eine Änderung der Belastungen aus
dem Streckenverkehr auf unterschiedliche Weise in den Tragwerksreaktionen niederschla-
gen und Betrachtungen zu vertikalen Verkehrslastkomponenten nur einen Teil der Ent-
wicklung darstellen.
90
Aspekte zur statistischen Beschreibung von Bahnverkehrslasten
Abb. 4 Mittlerer Anteil des Güterverkehrs am Gesamtverkehr von 40% auf den internatio-
nalen Strecken und 2σ-Streubänder nach [1]
In [4] wurde der zweite Weg auf Basis eines vereinheitlichten europäischen Verkehrslast-
modells verfolgt, wobei insgesamt 124 Betriebslastenzüge mit den entsprechenden Antei-
len am Gesamtverkehr berücksichtigt wurden. Hierbei ist zu beachten:
• Die Wagenreihung innerhalb eines Betriebslastenzuges erfolgt deterministisch
(Abb. 5). Die Berücksichtigung realer Lastkennwerte von Lok und Wagen ist in
diesen Modellen möglich. Die einzelnen Radsatzlasten innerhalb des Zuges können
auch als zufällige Größen eingeführt werden.
• Die Auftretenswahrscheinlichkeit eines Betriebslastenzuges innerhalb der Grundge-
samtheit ist definiert, die zeitliche Folge der Lastenzüge ist unabhängig und zufäl-
lig. Jedem Betriebslastenzug ist bei Überfahrt eine bestimmte Geschwindigkeit
zugeordnet.
6 x 225 kN 2 x 70 kN 4 x 225 kN 4 x 225 kN
M O P Q
2 2,1 2,1 4,4 2,1 2,1 2 1,9 6,5 1,9 1,8 1,8 12,8 1,8 1,8 1,6 1,8 8,0 1,8 1,6
Zugzusammenstellung: M-O-O-P-O-Q-Q-O-P-P-P-O-O-Q-Q-O-P-Q-O-O-Q-Q-P
Bei der Einbeziehung von Prognosen zur Entwicklung des Schienenschwerverkehrs wur-
den in bisherigen Modellrechnungen u.a. Achslasterhöhungen berücksichtigt, wobei die
Anfang der 1990er Jahre aufgestellten Zukunftsmodelle keine bedeutenden Erhöhungen
91
Aspekte zur statistischen Beschreibung von Bahnverkehrslasten
der Radsatzlasten gegenüber dem aktuellen Verkehr mehr zulassen – d.h. der gesetzte
„Prognosepuffer“ ist nahezu ausgeschöpft.
Geschlossen lassen sich lediglich die Zuggesamtlasten aller Betriebslastenzüge in Form
einer multimodalen Verteilung gemäß Glg. (1) abbilden.
n n +∞
F (x ) = ∑
i =1
p i ⋅ Fi (x ) ; f ( x ) = ∑ pi ⋅ f i (x )
i =1
Bedingung: ∫ f (x )dx =1 (1)
−∞
Über den Schwingbeiwert ϕ können näherungsweise dynamische Effekte bei der Zugüber-
fahrt berücksichtigt werden. ϕ wird als normalverteilte Größe mit dem Mittelwert
µ = 0,95⋅(1+ϕ) und dem Variationskoeffizienten v = 0,05 angesetzt. Zuggeschwindigkeit
und Gleislage lassen sich nach Glg. (3) berücksichtigen, wobei man normalerweise im heu-
tigen Netz eine mittlere Gleisqualität mit a = 0,5 ansetzt. Somit ergibt sich für jeden Be-
triebslastenzug ein entsprechender Schwingbeiwert in Abhängigkeit von der Tragstruktur.
92
Aspekte zur statistischen Beschreibung von Bahnverkehrslasten
K
Φ= 1+ ϕ ; ϕ= ϕ' + a⋅ϕ'' ; ϕ' = ; K= v / (2⋅n0⋅L )
1− K + K 4
v : Zuggeschwindigkeit [m/s]
Die in [4] vorgenommenen umfangreichen Berechnungen beschränkten sich auf drei typi-
sche Tragwerksformen (EFT, Zweifeldträger, Stabbogen) in einem Stützweitenbereich von
1 … 200 m. Es wurden ein- und mehrgleisige Überbauten berücksichtigt. Weiterhin erfolg-
te die Simulation ausschließlich für das genannte europäische Verkehrslastmodell mit und
ohne Prognoseverkehr. Entsprechend der dortigen Zielstellung wurde eine sehr hoch bela-
stete Strecke untersucht, um den Normenbezug herstellen zu können. Im Umkehrschluss
gilt:
• Für andere Tragwerksformen, wie Rahmenbauwerke, Steinbogen oder Netzwerk-
bogen sind die Ergebnisse nur mittelbar zu übertragen. Es dürfen nur Kollektive
ohne tragwerksspezifischen Schwingbeiwert ϕ unter Betriebslastenzügen zu Ver-
gleichszwecken herangezogen werden.
• Weicht die Streckencharakteristik erheblich von der v. g. ab (z.B. Strecken ohne
nennenswerten Güterverkehr), unterscheiden sich die Kollektive signifikant.
Bezüglich der Auswertung der λi-Kollektive unterscheidet man:
• Rainflow-Kollektive für Ermüdungsprobleme, d.h. jeder Lastwechsel (Minima und
Maxima aus der Auswertung der Einflussfunktionen) wird mitgezählt. Je nach Be-
triebslastenzug sind damit zahlreiche Einzelwerte je Überfahrt erfasst. Diese Me-
thode ist für die Untersuchung von Extremwerten der Tragwerksreaktion bezogen
auf lange Zeiträume ungeeignet.
• Spitzenwert-Kollektive für die Extremwerte von λi, d.h. es wird nur ein Größt-
bzw. Kleinstwert je Überfahrt aufgezeichnet. Die Methode ist vor allem bei großen
Stützweiten geeignet, die bei Zugüberfahrt nur einen extremen Beanspruchungs-
wert aufweisen.
• Modifizierte Spitzenwert-Kollektive nach dem Vorschlag in [4] vor allem bei klei-
nen Stützweiten mit mehreren extremen Werten innerhalb einer Zugüberfahrt
(Lastwechsel).
Einige Ergebnisse der statistischen Bewertung vorstehender Kollektive werden im letzten
Abschnitt vorgestellt.
93
Aspekte zur statistischen Beschreibung von Bahnverkehrslasten
5 Ausgewählte Ergebnisse
Mit dem bezogenen Kollektivwert λ sind statistische Auswertungen realitätsnaher Trag-
werksbeanspruchungen bei definierter Streckencharakteristik und Rückschlüsse zu Über-
schreitungswahrscheinlichkeiten berechneter UIC 71 - Beanspruchungen möglich. Die
Kollektive zeigen unabhängig von der Auswertemethodik einen ausgeprägt multimodalen
Charakter, obwohl explizit für die Grundgesamtheit des Streckenverkehrs (Schwierigkeiten
bei der Berücksichtigung von Zugfolgen, Achslasten, veränderlicher Schwingbeiwert) kei-
ne geschlossene Lösung analog Glg. (1) gefunden wurde.
Die ausgeprägte Systemabhängigkeit der Ergebnisse macht Abb. 7 deutlich. Weiterhin sind
innerhalb eines Tragwerkes bedingt durch die maßgebenden Einflusslinien statistische Un-
terschiede zwischen den einzelnen Tragwerksreaktionen feststellbar, d.h. die Klassenhäu-
figkeiten der Kollektive sind schnittkraftbezogene Größen.
25
Spitzenwertklassierung λi = Mi / MUIC 71
- ohne dynamischen Beiwert
- mit Prognoseverkehr
20
15
Häufigkeit [%]
EFT Stützweite l = 3 m
EFT Stützweite l = 10 m
10
0
0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1 1,1 1,2 1,3 1,4 1,5
λ i = M i / M UIC 71
Als Approximation der Spitzenwertkollektive wurde in [4] aufgrund der nicht besetzten
unteren Klassen (unterer Grenzwert ist definiert durch Leerüberfahrten unter Eigengewicht
von Wagen) die WEIBULL-Verteilung gemäß Glg. (4) gewählt (Parameterbezeichnungen
entsprechen den Angaben des ERRI).
δ
λ −λ
− i 0 i
(4)
F (λi ) = 1 − e η
; λi > λ 0 i ; η, δ, λ0i: freie Parameter
94
Aspekte zur statistischen Beschreibung von Bahnverkehrslasten
q =1 −1 / n [⋅ 100 %] ; (5)
Der theoretische 50-Jahreswert (n = 365*50) entspricht nach Glg. (5) einem 99,999%-
Quantil der Grundgesamtheit und wird als ideeller Bemessungswert λQd bezeichnet. Der
Jahreswert (n = 365) entspricht dem 99,7%-Quantil und wird als ideeller charakteristischer
Wert λQk festgelegt.
2 Trimodal
1.5
Modellparameter Trimodal:
95
Aspekte zur statistischen Beschreibung von Bahnverkehrslasten
satz analog Glg. (1) der Vorzug gegeben. Abb. 8 zeigt ein Beispiel für Einfeldträger
mit 10 m Stützweite bei Betrachtung des maßgebenden Feldmomentes für Si.
• Die Lastwechselzahl pro Jahr sinkt mit steigender Stützweite bei der modifizierten
Spitzenwertmethode stark ab, gleichzeitig erhöht sich der Variationskoeffizient
v (λi). Damit steigt die Irrtumswahrscheinlichkeit in den oberen Fraktilen bei gro-
ßen Stützweiten gegenüber kurzen Brücken an.
• Der Schwingbeiwert hat außerordentlichen Einfluss auf die Schnittkraftkollektive.
Während für kleine Stützweiten die normativen Φ-Werte als konservativ gelten,
können sich großen Stützweiten durchaus etwas höhere Schwingbeiwerte als 1,0
ergeben. Der Schwingbeiwert für Betriebslastenzüge ist stets separat festzulegen,
z.B. nach Anhang E zu DIN-FB 101 [1].
Wertet man die Zahlen für das Beispiel in einer Strecke mit normalem Verkehr (α = 1,0)
aus, ergibt sich bei normativer Bemessung des Einfeldträgers:
λQk (1,0 x UIC 71) = 1,0
λQd (1,45 x UIC 71) = 1,45
λQd (Φ = 1,31; 1,45 x UIC 71) = 1,90
Vergleicht man dies mit der statistischen Auswertung in Abb. 8 folgt, dass am gewählten
Träger das gewünschte normative Verhältnis von charakteristischem Wert, Schwingbei-
wert und Bemessungswert realistisch ist. Mit veränderlicher Stützweite verhalten sich die
statistischen Kenngrößen wie folgt, wenn man für Si weiterhin das Moment in Feldmitte
wählt:
• Der tatsächlich ermittelte untere Endwert λ0i verringert sich mit steigender Stütz-
weite.
• Der charakteristische Wert λQk (ohne ϕ) besitzt bei ca. 10 m Stützweite ein lokales
Minimum von λQk = 1,0 und steigt sowohl zu den sehr kleinen als auch den großen
Stützweiten bis auf λQk = 1,25 an.
• Der ideelle Bemessungswert λQd (mit ϕ) ist im Stützweitenbereich unterhalb 10 m
maximal und fällt dann langsam bis auf λQk = 1,50 ab.
Für große Stützweiten wird demzufolge bei statistischer Betrachtungsweise ein charakteri-
stischer Wert λQk der Tragwerksreaktion erhalten, der deutlich über dem charakteristischen
Normwert UIC 71 liegt. Das heißt, in einer hoch belasteten Strecke mit entsprechendem
Güterschwerverkehr liegt die mittlere Auftretenswahrscheinlichkeit der UIC-Schnittgröße
über 1x pro Jahr. In Verbindung mit dem realen Schienenverkehr ist dies so zu interpretie-
ren, dass eine ungünstige Folge schwerer Güterwagen der Gegenwart und Zukunft (z.B.
Kohlezüge mit Überladungsanteilen) relativ häufig auftritt und damit höhere Belastungen
verursacht, als dies durch das charakteristische Lastbild UIC 71 Berücksichtigung findet.
In einem solchen Fall ist die Strecke mit einem Klassifizierungsfaktor α > 1,0 einzustu-
fen. Für das klassifizierte Lastmodell α⋅UIC 71 könnte bei statistischer Betrachtungsweise
der Teilsicherheitsbeiwert γQ für den Grenzzustand der Tragfähigkeit entsprechend abge-
mindert werden.
96
Aspekte zur statistischen Beschreibung von Bahnverkehrslasten
6 Literatur
[1] DIN-Fachbericht 101, 2. Auflage 2003
[2] ERRI – Bericht D 192/RP 1: Theoretische Grundlagen zur Überprüfung des bestehen-
den Lastbildes UIC 71, Utrecht, 1993
[3] ERRI – Bericht D 192/RP 2: Vergleich der Einwirkungen des derzeitigen und künfti-
gen Schienenverkehrs auf den internationalen Strecken mit denen aus Lastbild UIC 71
auf deterministischer Grundlage, Utrecht, 1994
[4] ERRI – Bericht D 192/RP 3: Lastbild für die Berechnung der Tragwerke der interna-
tionalen Strecken, 1994
[5] ERRI – Bericht D 221/RP 1: Vertikale Eisenbahnverkehrslasten: Kombinationsbei-
werte - Hintergrundinformationen zum Thema „Eisenbahnverkehrslasten“, 1998
[6] UIC-Merkblatt 702: Lastbild für die Berechnung der Tragwerke der internationalen
Strecken, Internationaler Eisenbahnverband UIC, 1974
97
Aspekte zur statistischen Beschreibung von Bahnverkehrslasten
98
Teilsicherheitsfaktoren für Natursteinmaterial
1 Einleitung
Es ist zu vermuten, daß sich bereits die ersten Baumeister Gedanken über die Sicherheit
der von ihnen errichteten Bauwerke machten. Angeblich stammt die erste Formulierung
eines Sicherheitsfaktors aus dem 3. Jahrhundert vor Christus von Philo von Byzantium
[38]. Er formulierte den Sicherheitsfaktor wie folgt:
Tragfähigkeit
γ= > 1, 0 . (1)
Belastung
Für die verschiedenen Baustoffe wurden im Laufe der Zeit verschiedene solcher globalen
Sicherheitsfaktoren entwickelt. Mit zunehmendem Wissen verringerte sich der Betrag der
Sicherheitsfaktoren. So wurde beim Ziegelmauerwerk 1880 noch eine zehnfache Sicherheit
gefordert (BUSCH und ZUMPE [3]). 1887 hielt man eine sieben- bis achtfache Sicherheit für
ausreichend [3]. Später wurde eine fünffache Sicherheit für genügend erachtet [3], vor ca.
50 Jahren wurde noch eine vierfache Sicherheit für Mauerwerk gefordert [36] und heute
geht man bei der Nachrechnung historischer Bauwerke etwa von einem globalen Sicher-
heitsfaktor von 3,0 aus [46], [25].
Zu Beginn des 20. Jahrhunderts wurde der Versuch unternommen, baustoffunabhängige
globale Sicherheitsfaktoren zu entwickeln, die in Abhängigkeit von den Streuungen der
Einwirkungen und Widerstände gewählt wurden. In Tab. 1 sind solche Werte von VISODIC
[44] und in Tab. 2 die Empfehlungen von NORTON [29] angegeben. Eine weiterer Vor-
schlag stammt von PUGSLEY [33].
99
Teilsicherheitsfaktoren für Natursteinmaterial
Das Normenwerk im Bauwesen erlebt zur Zeit jedoch eine Umstellung der Sicherheitskon-
zepte, die den Abschied vom globalen Sicherheitsfaktor bedeuten. Das neue semi-pro-
babilistische Sicherheitskonzept zeichnet sich durch eine Vielzahl von Sicherheitsfaktoren
aus. Die Sicherheitsfaktoren werden deshalb als Teilsicherheitsfaktoren bezeichnet. Da-
durch soll es möglich werden, die den jeweiligen Eingangsgrößen inhärenten Unsicherhei-
ten unmittelbar an der Eingangsgröße zu erfassen. Die Entwicklung von Teilsicherheits-
faktoren wurde in der Literatur, zum Teil auch an Beispielen, intensiv diskutiert (AHNER &
SOUKHOV [1], BYFIELD & NETHERCOT [5], [27], SORENSEN [39]).
Die Umstellung auf das moderne Sicherheitskonzept erfolgte jedoch nicht schlagartig für
alle Baustoffe einheitlich, sondern schrittweise. So wurde zunächst in Deutschland die DIN
1055-100 eingeführt, die die Grundlage für das neue Sicherheitskonzept bildet. Anschlie-
ßend wurden einige Normen zur Beschreibung von Einwirkungen, wie z.B. die DIN 1055-
1 eingeführt. Seit dem Jahre 2001 gibt es eine neue Norm für den Beton- und Stahlbeton-
bau (DIN 1045-1). Im Stahlbau erfolgte die Umstellung bereits vor mehreren Jahren mit
der Einführung der neuen DIN 18 800. Bei anderen Baustoffen steht die Einführung natio-
naler Normen mit dem neuen Sicherheitskonzept aber noch aus, so z.B. beim Mauerwerks-
bau mit der DIN 1053-100 oder beim Holzbau. Die entsprechenden Entwürfe und die sehr
weit fortgeschrittenen europäischen Normen erlauben aber einen Blick in die Zukunft.
Die neuen Normen sind aber im wesentlichen auf neue Bauwerke ausgerichtet (VAL &
STEWART [43]). Zusätzlich erfassen sie nur eine begrenzte Anzahl von Baustoffen. Die in
einigen Regionen nur lokal eingesetzten Baustoffe oder neuartigen Baustoffe werden in
den Normen nicht behandelt. Es kann deshalb für den Ingenieur notwendig werden, den
Teilsicherheitsfaktor für die Festigkeit eines bestimmten Materiales selbst zu ermitteln.
Das soll im folgenden am Beispiel von Natursteinmaterial demonstriert werden. Doch zu-
nächst wird noch einmal auf das neue Sicherheitskonzept eingegangen (Abb. 1).
100
Teilsicherheitsfaktoren für Natursteinmaterial
Holzbau Holzbau
BV SK BV
Sicherheits-
Stahlbau Stahlbau konzept
BV SK BV
Aluminium Aluminium
BV SK BV
1.1 Nachweiskonzept
Die Nachweise der Gebrauchstauglichkeit und der Tragfähigkeit werden in den neuen
Normen durch den Vergleich von Bemessungswerten der Einwirkungs- und Widerstands-
seite erbracht:
Ed ≤ Rd . (2)
Die Berechnung der Einwirkungsseite richtet sich nach der jeweils zu verwendenden Ein-
wirkungskombination. Als Beispiel für die Ermittlung des Bemessungswertes der Einwir-
kungskombination ist hier die Formel für die ständige und vorübergehende Einwirkungs-
kombination im Grenzzustand der Tragfähigkeit dargestellt:
Ed = E ∑ γ G , j ⋅ Gk , j + γ P ⋅ Pk + γ Q ,1 ⋅ Qk ,1 + ∑ γ Q ,i ⋅ψ 0,i ⋅ Qk ,i . (3)
j ≥1 i >1
In der Formel wird die Zuordnung der Teilsicherheitsfaktoren deutlich. Die Formulierung
der Widerstandsseite hängt z.B. im Stahlbetonbau von der Art und Weise der Schnittkraft-
ermittlung ab. Im Falle der linearelastischen Schnittgrößenermittlung gilt:
f f yk f tk ,cal f p 0,1k f pk
Rd = R α ⋅ ck ; ; ; ; , (4)
γc γs γs γs γs
während für den nichtlinearen Fall die folgende Formel zu verwenden ist:
1
Rd = R( f cR ; f yR ; f tR ; f p 0,1R ; f pR ) . (5)
γR
Die Veränderung des Aufbaus der Formeln deutet bereits an, daß auch das Teilsicherheits-
faktorenkonzept mit Problemen verbunden ist. Diese Probleme sind jedoch nicht Bestand-
teil dieser Arbeit, sondern die Festlegung von Teilsicherheitsfaktoren. Zwar liegen Teil-
101
Teilsicherheitsfaktoren für Natursteinmaterial
sicherheitsfaktoren bereits in großem Umfang vor, aber, wie bereits erwähnt, nicht für alle
Baustoffe. Tab. 3 listet bereits ermittelte Teilsicherheitsfaktoren für die verschiedenen
Baustoffe auf.
Wie kann man aber nun für andere Materialien Teilsicherheitsfaktoren ermitteln? Zunächst
ist festzustellen, daß die Teilsicherheitsbeiwerte nicht unabhängig von den jeweiligen cha-
rakteristischen Werten festgelegt werden können. Vielmehr dienen beide – die Teilsicher-
heitsfaktoren und die charakteristischen Werte von Baustoffen – dazu, die erforderliche
Sicherheit zu gewährleisten.
102
Teilsicherheitsfaktoren für Natursteinmaterial
2 Verfahren
2.1 Charakteristische Werte
In den Normen wird festgelegt, daß der charakteristische Festigkeitswert fk von Baustoffen
einem 5 %-Fraktilwert der Grundgesamtheit der statistischen Verteilung dieses Wertes
entspricht. Diese Festlegung findet sich z.B. in der baustoffunabhängigen DIN 1055-100,
Abschnitt 6.4, Absatz (2) [12] oder im Eurocode 1. Die Wahl des 5 %-Fraktilwertes findet
sich aber auch in zahlreichen baustoffbezogenen Normen, wie z.B.:
• Betonstahl DIN 488 (90 %-Vertrauensbereich),
• Betondruckfestigkeitsprüfung DIN 1045, DIN 1048,
• Mauerwerk nach Eignungsprüfung DIN 1053
(Schubert [37] 75 %-Vertrauensbereich),
• Außenwandbekleidungen DIN 18516-1, 3, 5 (75 %-Vertrauensbereich),
• Mauerwerk DIN 18152 04.87:Vollsteine und Vollblöcke
(90 %-Vertrauensbereich),
• Betonstahl ENV 100080 (90 %-Vertrauensbereich),
• Holzbau DIN V ENV 1995 (84,1 %-Vertrauensbereich, Variationskoeffizient grö-
ßer gleich 0,1; mindestens 30 Stichproben),
• Mauerwerk Gasbeton (95 %-Vertrauensbereich),
• Empfehlung künstliche Steine (Schubert [37]),
• Natursteine 90 %-Aussagesicherheit (Schubert [37]).
Um einen 5 %-Fraktilwert zu berechnen, benötigt man zunächst statistische Angaben der
jeweiligen Größe. Daraus kann eine Wahrscheinlichkeitsfunktion erstellt werden, die die
Streuung der Größe erfaßt. Auf Grund der Vielzahl von Wahrscheinlichkeitsverteilungs-
funktionen (Tab. 4) wird eine Vorauswahl getroffen. In der Regel werden drei verschie-
dene Wahrscheinlichkeitsfunktionen für Baustoffeigenschaften verwendet: die Normalver-
teilung, die Lognormalverteilung und die Weibullverteilung (FISCHER [16], Eurocode 1
[14], GruSiBau [28]). Die Normalverteilung läßt sich sehr elegant mit dem Zentralen
Grenzwertsatz begründen, der besagt, daß die Summe beliebig verteilter Zufallsgrößen
einer Normalverteilung folgt. Und in der Tat wird die Festigkeit vieler Baustoffe von zahl-
reichen zufälligen Größen beeinflußt. Natürlich gibt es für den Zentralen Grenzwertsatz
auch Randbedingungen, die eingehalten werden müssen. So darf eine einzelne streuende
Größe in dieser Summe nicht dominant sein. Außerdem können bei der Normalverteilung
negative Werte auftreten, die sich physikalisch nicht interpretieren lassen, wie z.B. eine
negative Druck- oder Zugfestigkeit. In solchen Fällen kann man eine Lognormalverteilung
verwenden. Auch diese kann auf den Zentralen Grenzwertsatz zurückgeführt werden, in
dem man keine Addition der einzelnen Größen, sondern eine Multiplikation fordert. Die
Weibullverteilung wird in der Regel bei Materialeigenschaften angewendet, die sich mit
dem Modell der „Kette“ beschreiben lassen. Eine „Kette“ versagt an ihrem schwächsten
Glied, Umlagerungen sind also nicht möglich. Das Verhalten von keramischen Baustoffen
oder Glas läßt sich sehr gut mit diesem Modell beschreiben. Unter der Annahme, daß die
Wahrscheinlichkeitsverteilungen bekannt sind, soll im folgenden die Ermittlung eines 5 %-
Fraktilwertes gezeigt werden.
103
Teilsicherheitsfaktoren für Natursteinmaterial
2.1.1 Normalverteilung
Der 5 %-Fraktilwert fk der Festigkeit läßt sich bei einer Normalverteilung wie folgt berech-
nen:
fk = fm − k ⋅σ , (6)
wobei fm der Mittelwert und σ die Standardabweichung sei. Ist der Mittelwert und die
Standardabweichung bekannt, so beträgt der k-Faktor für einen 5 %-Fraktilwert 1,645. In
der Regel aber ist weder der Mittelwert noch die Standardabweichung bekannt. Zwar kon-
vergiert der Mittelwert sehr schnell mit der Anzahl der Stichproben, aber diese Konver-
genz ist bereits bei der Ermittlung der Standardabweichung deutlich ungünstiger. Diese
Unsicherheit der Verteilungsparameter wird bei der Wahl des k-Faktors berücksichtigt, so
daß der k-Faktor von der Versuchsanzahl abhängt. Wenn man eine Normalverteilung und
einen 95 %-Vertrauensbereich unterstellt, ergibt sich z.B. für 15 Versuche k = 1,76 aus der
Student-t-Verteilung (Tab. 5). Bei sehr großen Stichproben erhält man wieder k = 1,645.
Mit diesen beiden genannten k-Werten und dem empirischen Mittelwert und der empiri-
schen Standardabweichung s erhält man:
104
Teilsicherheitsfaktoren für Natursteinmaterial
Der Eurocode 1 [15], [13] legt etwas andere k-Werte fest. So ist dort der k-Faktors bei
15 Versuchen 1,84. Damit würde sich ergeben:
f k = f m − 1,84 ⋅ s . (8)
Tab. 6 listet verschiedene Regelungen gemäß verschiedener Normen für die Bestimmung
eines 5 %-Fraktilwertes im Betonbau auf.
105
Teilsicherheitsfaktoren für Natursteinmaterial
f m ist der Mittelwert, f ck ist der charakteristische Wert und f i ist ein Einzelwert. Die er-
forderlichen Faktoren für die ENV 206: 1990 können in Abhängigkeit von der vorliegen-
den Stichprobenanzahl dieser Tabelle entnommen werden.
n 31) 41) 51) 6 7 8 9 10 11 12 13 14 15
λ 2,11 2,02 1,93 1,87 1,77 1,72 1,67 1,62 1,58 1,55 1,52 1,5 1,48
k 1 3 3 3 3 4 4 4 4 4 4
1)
Diese Werte finden sich nicht in der Vorschrift. Die Werte wurden von den Verfassern
extrapoliert.
106
Teilsicherheitsfaktoren für Natursteinmaterial
2.1.2 Lognormalverteilung
Die Vorgehensweise für die Berechnung des 5 %-Fraktilwertes bei Annahme einer Log-
normalverteilung gestaltet sich analog zur Normalverteilung. Allerdings müssen die ein-
zelnen Stichprobenwerte zunächst logarithmiert werden.
L ' = y − k ⋅ s* = ln( L) (9)
n
yi
y =∑ mit yi = ln( xi ) (10)
i =1 n
∑( y − y )
2
i
(11)
s* = i =1
n −1
Beispiel:
Es liegen vier Druckfestigkeitsversuche von Natursteinmauerwerk aus Postaer Sandstein
aus historischem Baubestand vor. Für die Versuche ist die charakteristische Mauerwerks-
druckfestigkeit zu bestimmten.
Einzelwert in MPa Logarithmierte Einzelwerte
1 6,70 1,90
2 6,20 1,82
3 5,70 1,74
4 6,60 1,89
Mittelwert 6,30 1,84
Standardabweichung 0,39 0,06
107
Teilsicherheitsfaktoren für Natursteinmaterial
2.1.3 Weibullverteilung
Beispiel:
Für das Beispiel der vier Druckfestigkeitsversuche an Natursteinmauerwerk aus Postaer
Sandstein ergibt sich bei einem Mittelwert von 6,3 MPa und einer Standardabweichung von
0,39 MPa für k = 20,01 und für λ = 5,84×10-17. Damit erhält man für den 5 %-Fraktilwert:
1
1 20,01
fk = − −17
ln(0,95) = 5,58 MPa .
5,84 ⋅10
2.1.4 LEICESTER-Methode
Ein weiteres Verfahren zur Schätzung von Fraktilwerten, aber ohne Wahl einer Wahr-
scheinlichkeitsfunktion, ist die LEICESTER-Methode. Dabei ergibt sich der 5 %-Fraktilwert
aus:
2, 7 ⋅ v
f m = A ⋅ 1 − (15)
n
mit
n Anzahl der Versuche, möglichst größer als 30
v Variationskoeffizient, möglichst kleiner als 0,5
A 5 %-Fraktil, durch lineare Interpolation aus den Versuchsdaten ermittelt.
Beispiel:
Für die 500 Steindruckfestigkeitsversuche ergab sich aus den Versuchsdaten ein empiri-
scher 5 %-Fraktilwert zu 42,3 MPa. Die Ermittlung dieses Wertes läßt sich z.B. sehr ein-
fach mit dem Programm EXCEL und der Funktion Rang und Quantil im Menüpunkt
Analysefunktionen im Menü Extras durchführen. Ergibt sich kein exakter 5 %-Fraktilwert,
so wird zwischen den Werten darunter und darüber linear interpoliert. Der Variations-
koeffizient beträgt 0,177. Damit ergibt sich:
108
Teilsicherheitsfaktoren für Natursteinmaterial
2, 7 ⋅ 0,177
f m = 42,3 MPa ⋅ 1 − = 42, 26 MPa .
500
2.1.5 ÖFVERBECK Power Limit
Als weiteres Verfahren sei das ÖFVERBECK Power Limit genannt. Mit Hilfe einer Konstan-
te ε kann aus einer vorgeschriebenen Anzahl von Versuchswerten q der 5 %-Fraktilwert
gemäß Gleichung (16) berechnet werden. Die Konstante ist in Abhängigkeit von der Ver-
suchsanzahl in Tab. 7 angegeben.
q −1
fk = x 1−ε
q ∏ xε
i =1
i
/( q −1)
. (16)
Beispiel:
Es wird wieder auf das Beispiel der Mauerwerksdruckversuche mit Postaer Sandstein zu-
rückgegriffen. Allerdings liegen nur vier Versuche vor. In Anlehnung an Tab. 7 wird die An-
zahl der verwendeten sortierten Versuchwerte q = 2 und die Öfverbeck-Konstante ε = 6,00
gewählt. Die sortierten Versuchsdaten lauten: 5,7, 6,2, 6,6 und 6,7 MPa, Damit ergibt sich:
q −1 2 −1
5, 7 6
f k = x1q−ε ∏ xiε /( q −1) = x12−6,00 ∏ xi = 6, 21−6 ⋅ 5, 7 6 /(2−1) = = 3, 74 MPa .
i =1 i =1 6, 25
JAEGER und BAKHT [22] stellen ein Verfahren zur Schätzung von Fraktilwerten vor, wel-
ches eine Kombination mehrerer Wahrscheinlichkeitsfunktionen verwendet. Sie bezeich-
nen diese künstliche Verteilung als „log arc sinh normal polynomial-Verteilung“. Bei
Ansatz eines quadratischen Polynoms in der Verteilung und der Berücksichtigung des
109
Teilsicherheitsfaktoren für Natursteinmaterial
kleinsten, mittelsten und größten Versuchswertes kann man die folgenden Schritte abarbei-
ten, um einen Frakilwert abzuschätzen:
1. Schritt: Sortierung der Daten,
2. Schritt: Berechnung des Mittelwertes.
Dabei wird festgelegt: Bei einer ungeraden Anzahl von Versuchergebnissen (Stichproben)
ist der Mittelwert der mittlere Wert (also eigentlich der Median). Bei einer geraden Anzahl
von Versuchsergebnissen (Stichproben n = 2 k) sei der Mittelwert:
( f k + f k +1 )
fm = . (17)
2
4. Schritt: Wähle einen charakteristischen Wert, z.B. ein 5 %-Fraktil. Wähle den entspre-
chenden k-Wert einer Normalverteilung, also für ein 5 %-Fraktil k = z* = -1,645.
5. Schritt: Wähle aus der folgenden Tabelle ein z1 entsprechend der Versuchsanzahl n.
Tab. 8: z1-Werte
Versuchsan- z1
zahl n
10 -1,34
11 -1,38
12 -1,43 Als Näherung kann empfohlen werden:
13 -1,47 z1 = −0,8004 − 0,0649 ⋅ n + 0,0011 ⋅ n 2
14 -1,50
15 -1,53
16 -1,56
17 -1,59
18 -1,62
19 -1,65
20 -1,67
7. Schritt:
f k = f m ( y* + 1 + ( y* ) 2 . (20)
Das vorgestellte Verfahren wird von JAEGER und BAKHT als das numerisch stabilste be-
zeichnet. Es gibt aber auch Variationen des Verfahrens. Sie umfassen neben der Erhöhung
110
Teilsicherheitsfaktoren für Natursteinmaterial
des Polynomgrades auch die Wahl anderer Punkte. Entscheidet man sich z.B. nicht für den
kleinsten, mittelsten und größten Versuchswert, sondern für den kleinsten, mittelsten und
zweitkleinsten Wert, erhält man eine geringfügig andere Näherung für den Fraktilwert.
Beispiel:
Bei der Prüfung von 15 Granitkörpern wurde die Biegezugfestigkeit ermittelt. Die einzel-
nen auf eine Höhe bezogenen Biegezugfestigkeiten finden sich in der folgenden sortierten
Tabelle:
Lfd. Nr. Biegezugfestigkeit in MPa Prozent yi
1 14,710 100,00% 0,35106
2 12,802 92,80% 0,20674
3 12,700 85,70% 0,19858
4 12,506 78,50% 0,18291
5 11,150 71,40% 0,06719
6 10,829 64,20% 0,03793
7 10,822 57,10% 0,03729
8 10,426 50,00% 0,00000
9 10,208 42,80% -0,02113
10 10,002 35,70% -0,04153
11 9,919 28,50% -0,04987
12 9,664 21,40% -0,07597
13 9,412 14,20% -0,10250
14 6,281 7,10% -0,52875
15 4,233 ,00% -1,02851
Gemäß Schritt 2 ergibt sich: f m = 10, 426 MPa . Die einzelnen Werte für y finden sich in
der Tabelle (Schritt 3). Es soll ein 5 %-Fraktilwert der Biegezugfestigkeit ermittelt werden,
so daß z* = -1,645 und z1= 1,53 gilt. Damit erhält man
2
* −1, 0286 − 0,351 −1, 645 −1, 0286 + 0,351 −1, 645
y = + = −1,133
2 −1,53 2 −1,53
( )
f k = 10, 426 MPa ⋅ −1,133 + 1 + (−1,133) 2 = 3,94 MPa .
2.2 Teilsicherheitsfaktor
2.2.1 Allgemeines
Wie bereits erwähnt, wirkt der charakteristische Wert der Festigkeit und der Teilsicher-
heitsfaktor zusammen, um die erforderliche Sicherheit zu realisieren. Deshalb ist nach der
Abschätzung des charakteristischen Wertes auch die Bestimmung des Teilsicherheits-
faktors notwendig und möglich. Laut Eurocode 1 [14] gibt es zwei Möglichkeiten, den
Teilsicherheitsfaktor festzulegen:
111
Teilsicherheitsfaktoren für Natursteinmaterial
„a) Die erste ... erfolgt auf der Grundlage einer Ausrichtung an langer und erfolgreicher
Geschichte der Bautradition. Für die meisten vorgeschlagenen Beiwerte in den vorliegen-
den Eurocodes ist dies das leitende Prinzip.
b) Ein zweiter Weg ruht auf der Grundlage statistischer Auswertung von Versuchsdaten
und Baustellenbeobachtungen. Dieser Weg sollte im Rahmen einer probabilistischen Wahr-
scheinlichkeitstheorie beschritten werden.“
Es ist jedoch nicht immer notwendig, eine vollprobabilistische Berechnung durchzuführen.
Vielmehr existieren vereinfachte Verfahren in Anlehnung an probabilistische Berechnun-
gen. Solch ein vereinfachtes Verfahren zur Ermittlung des Teilsicherheitsfaktors wird z.B.
in der GruSiBau vorgestellt.
2.2.2 Teilsicherheitsfaktor gemäß GruSiBau [28]
Laut GruSiBau, Abschnitt 6.1 [28], dürfen die Streuungen der Einwirkungs- und Wider-
standseite entkoppelt betrachtet werden. Für die Ermittlung des Bemessungswertes gilt:
f d = f m − α Ri ⋅ α R ⋅ β ⋅ σ R mit α R = 0,8 , α R1 = 1, 0 , α Ri = 0, 4 für i>1 und β = 3,8 ± 0,5 . Der
Teilsicherheitsfaktor ergibt sich dann zu:
fk
γ= .
fd
Beispiel:
Der charakteristische Wert der Steindruckfestigkeit für Postaer Sandstein wurde mit
f st , k = 58, 05 MPa − 1, 648 ⋅10,32 MPa = 41, 04 MPa
Der Eurocode 1 [14] verwendet das gleiche Verfahren wie die GruSiBau. Allerdings wird
die Entkopplung der Einwirkungs- und Widerstandsseite geprüft. Dazu muß die folgende
Bedingung der Standardabweichungen von Einwirkung und Widerstand eingehalten wer-
den:
σS
0,16 < < 7, 6 .
σR
Weiterhin werden für die Ermittlung des Bemessungswertes seit der Ausgabe vom August
1994 (Deutsche Fassung Oktober 1994) [14] in Anhang A Abschnitt A 3 sowohl für die
Normal- als auch für Lognormalverteilung die Formeln angegeben:
σ
f d = f m − α ⋅ β ⋅ σ und f d = f m ⋅ exp −α ⋅ β ⋅ mit α = 0,8 .
f
112
Teilsicherheitsfaktoren für Natursteinmaterial
Im Eurocode 1 findet sich seit der Fassung Februar 2000 bzw. Januar 2001 ein zusätzlicher
Faktor η, der Versuchsbedingungen oder besondere Eigenschaften des Baustoffe, wie z.B.
die Dauerstandsfestigkeit, bei der Berechnung des Teilsicherheitsfaktors berücksichtigen
soll:
fk
γ =η ⋅ .
fd
2.2.4 Australian Standard Procedure for Statistical Proof Loading (ASL) [35]
Der Bemessungswert einer Widerstandsgröße ermittelt sich nach dieser australischen Vor-
schrift zu:
f min,n
fd = (21)
φ
mit fd als Bemessungswert, fmin,n als Minimalwert der Widerstandsgröße, der bei n Versu-
chen nicht unterschritten wurde und φ als Korrekturfunktion. Die Korrekturfunktion ist an
einen Faktor k gekoppelt, der den Einfluß des Vertrauensbereiches, der Versuchsanzahl
und des gewählten Fraktilwerts berücksichtigt:
VR
ln(1 − c)
k ( p , c, n ) = (22)
n ⋅ ln(1 − p)
mit c als Vertrauensbereich (üblicherweise 50 % oder 90 %), n Anzahl der Versuche und p
gewählter Fraktilwert (üblicherweise 5 %-Fraktil für Widerstandsgrößen). Damit kann der
charakteristische Wert der Widerstandsgröße wie folgt ermittelt werden:
f min, n
fk = (23)
k ( p , c, n ) .
Der Wert für φ muß der Vorschrift entnommen werden. Als Beispiel sei ϕ für eine weibull-
verteilte Widerstandsgröße mit einem Variationskoeffizient von 0,2, einer lognormal-
verteilten Belastung mit einem Variationskoeffizient von 0,3 und einem Zielsicherheits-
index von 3 angegeben.
Tab. 9: φ -Werte
Anzahl der
Versuche c= 90% c= 50%
1 3,92 3,00
2 3,36 2,57
3 3,07 2,34
4 2,88 2,20
5 2,73 2,09
6 2,63 2,01
7 2,54 1,94
8 2,46 1,88
9 2,40 1,83
10 2,34 1,79
113
Teilsicherheitsfaktoren für Natursteinmaterial
Bei einer höheren Versuchsanzahl kann φ für c=90 % mittels φ = 3,9232 ⋅ n −0,2239 geschätzt
werden. Der Teilsicherheitsfaktor ist dann der Quotient aus der charakteristischen Festig-
keit und dem Bemessungswert:
fk
γ= . (24)
fd
Beispiel:
Die Spaltzugfestigkeitsprüfung von 59 Prüfkörpern aus Rotem Mainsandstein mit einem
Mittelwert von 4,72 MPa, einem Kleinstwert von 1,55 MPa und einem Variationskoeffizient
von 0,278 ergibt:
0,278
ln(1 − 0,9)
k ( p , c, n ) = = 0,927
59 ⋅ ln(1 − 0, 05)
f min,n 1,55
fk = = = 1, 672 MPa
k ( p , c, n ) 0,927
2.2.5 Australian Standard Procedure for Probabilistic Load Testing (APL) [35]
In dieser Vorschrift wird der Bemessungswert der Widerstandsgröße als Produkt aus einer
Korrekturfunktion und dem Verhältnis von Labor- zu Baustellenwerten ermittelt.
fm
Bemessungswert für die Widerstandsgröße f d = φT (25)
msf
vr2
Korrekturfaktor φT = 2,115 ⋅ exp − − 3 ⋅ vr2 + 0,32 (26)
2
Variationskoeffizient der Widerstandsgröße vr2 = Cn ⋅ vl2 + vs2 (27)
n −1
Varianz der Tests Cn = 1 + . (28)
n(n − 3)
Dabei sind φt Korrekturfaktor, fm Mittelwert des Widerstandes bei den Versuchen, msf Kor-
rekturfaktor zur Beschreibung der Unterschiede zwischen Labor und Baustelle, n Anzahl der
Versuche, vl Variationskoeffizient der Versuche, vs Faktor, der die Entnahme der Proben be-
wertet: für konzentrierte Entnahme vs = 0,1 und für breit gefächerte Entnahme vs = 0. Grund-
lage für das Verfahren ist die Annahme lognormalverteilter Widerstands- und Belastungs-
größen. Für die Belastungsgröße gilt ein Variationskoeffizient von 0,3, der Zielsicherheitsin-
dex liegt bei 3,0.
114
Teilsicherheitsfaktoren für Natursteinmaterial
Beispiel:
Auch hier soll wieder die Spaltzugfestigkeit des Roten Mainsandstein geprüft werden:
n −1 59 − 1
Cn = 1 + = 1+ = 1, 017
n(n − 3) 59 ⋅ (59 − 3)
0, 089
φT = 2,115 ⋅ exp − − 3 ⋅ 0, 089 + 0,32 = 0,569
2
fm 4, 72
f d = φT = 0,569 ⋅ = 2, 687 MPa .
msf 1
Die AISI-Vorschrift benutzt ebenfalls einen Produktansatz für den Entwurfswert mit
fd = φ ⋅ fm (29)
mit der Korrekturfunktion φ = 1,5 ⋅ M m ⋅ Fm ⋅ exp(− β ⋅ v0 ) , (30)
n −1
und dem Test-Varianz-Korrektur-Faktor C = . (32)
(n − 3)
Dabei sind fm Mittelwert der bei den Versuchen ermittelten Widerstandsgröße, Mm, Fm Mit-
telwerte eines Materialfaktors und eines Produktionsfaktors, β Zielsicherheitsindex, vm Va-
riationskoeffizient des Materialfaktors, vf Variationskoeffizient des Produktionsfaktors, vp
Variationskoeffizient der Versuche, vq Variationskoeffizient der Last sowie C Korrekturfak-
tor für die Varianz während der Versuche. Alle Zufallsgrößen wurden als lognormalverteilt
angenommen. Der Korrekturfaktor C wurde mit einer Student-t-Verteilung geschätzt.
Beispiel:
Auch hier soll wieder die Spaltzugfestigkeit des Roten Mainsandstein geprüft werden:
n −1 59 − 1
C= = = 1, 035
(n − 3) (59 − 3)
Der Bemessungswert liegt deutlich über dem Wert des ASL-Verfahrens und unterhalb des
APL-Verfahrens.
115
Teilsicherheitsfaktoren für Natursteinmaterial
Reid hat für weibullverteilte Widerstandsgrößen eine verbesserte Formel für φ entwickelt.
Die Formel liegt den Autoren nicht in geschlossener Form, sondern nur in Form einer
Tabelle vor. Die Werte wurden für einen Variationskoeffizient der Widerstandsgröße von
0,2 und einen Zielsicherheitsindex von 3 ermittelt. Ansonsten gelten alle Angaben nach
dem APL-Verfahren. Aus [35] können die exakten Werte für φ durch lineare Interpolation
geschätzt werden.
vr 0,001 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1
φ 0,6200 0,5800 0,4100 0,2300 0,1200 0,0500 0,0200 0,0150 0,0100 0,0050 0,0001
Beispiel:
Das Beispiel gilt wieder für die Spaltzugfestigkeit des Roten Mainsandsteins:
vr2 = 1, 017 ⋅ 0, 278l2 + 0,12 = 0, 089
vr = 0, 089 = 0, 298
φT = 0, 23
fm 4, 72
f d = φT = 0, 23 ⋅ = 1, 08 MPa .
msf 1
In MURZEWSKI [26] finden sich Angaben zur Wahl von Teilsicherheitsfaktoren in Abhän-
gigkeit vom Variationskoeffizient. Weiterhin unterscheidet sich der Teilsicherheitsfaktor
auch noch nach der Bedeutung des Bauwerkes. Diese sogenannten Bauwerksklassen fin-
den sich teilweise in der Literatur auch für die Sicherheitsanforderungen von Bauwerken.
Bei Bauwerken, in denen eine große Anzahl von Menschen ist, wird in der Regel eine sehr
hohe Sicherheit gefordert. Die vorgeschlagenen Teilsicherheitsfaktoren sind in Tab. 11 und
Tab. 12 zusammengestellt.
Bauwerksklasse Variationskoeffizient
0,05 0,10 0,15 0,20
Staumauern 1,26 1,58 1,95 2,43
Eisenbahn- und Straßenbrücken, 1,23 1,49 1,82 2,16
Kulturhäuser, Theater
Wohnhäuser, Industriebauten 1,20 1,40 1,65 1,91
Lager, Bunker, Gerüste 1,15 1,31 1,46 1,62
Zweitrangige Bauelemente 1,10 1,17 1,22 1,25
116
Teilsicherheitsfaktoren für Natursteinmaterial
Bauwerksklasse Variationskoeffizient
0,05 0,10 0,15 0,20
Staumauern 1,24-1,30 1,46-1,85
Eisenbahn- und Straßenbrücken, 1,21-1,26 1,41-1,67 1,60-2,47
Kulturhäuser, Theater
Wohnhäuser, Industriebauten 1,18-1,22 1,35-1,53 1,50-2,00 1,65-2,86
Lager, Bunker, Gerüste 1,15-1,16 1,27-1,37 1,38-1,61 1,49-1,92
Zweitrangige Bauelemente 1,10-1,11 1,17-1,19 1,21-1,25 1,23-1,28
Beispiel:
Die Spaltzugfestigkeitswerte des Roten Mainsandsteins besaßen einen Variationskoeffi-
zient von 0,278. Auf Grund der hohen Standardabweichung von 1,31 MPa und des gerin-
gen Mittelwertes von ca. 4,7 MPa wird eine Lognormalverteilung gewählt, um negative
Werte auszuschließen. Damit ergibt sich ein Teilsicherheitsfaktor bei Brücken von 2,69.
Der Wert wurde linear extrapoliert.
117
Teilsicherheitsfaktoren für Natursteinmaterial
f k 5,32 MPa
γ= = = 1, 44 .
f d 3, 69 MPa
In der Literatur findet man für die mittlere Druckfestigkeit von Postaer Sandstein auch
deutlich kleinere Werte. So sei auf GRUNERT [19] (45,6 MPa), auf GRUNERT, GRUNERT
und GRIEGER [18] (31,6 MPa), auf PESCHEL [31] (41,6 MPa) und auf JÄGER und WENZEL
[21] (43,1 MPa) verwiesen. Dagegen findet sich bei PURTAK [34] ein vergleichbarer Wert
(56 MPa).
118
Teilsicherheitsfaktoren für Natursteinmaterial
119
Teilsicherheitsfaktoren für Natursteinmaterial
120
Teilsicherheitsfaktoren für Natursteinmaterial
121
Teilsicherheitsfaktoren für Natursteinmaterial
4 Zusammenfassung
Nach der Vorstellung der Verfahren zur Ermittlung der charakteristischen Festigkeiten, der
Teilsicherheitsfaktoren und der Erläuterung der statistischen Kenngrößen der Festigkeiten
werden im folgenden die ermittelten Werte aufgeführt.
122
Teilsicherheitsfaktoren für Natursteinmaterial
123
Teilsicherheitsfaktoren für Natursteinmaterial
124
Teilsicherheitsfaktoren für Natursteinmaterial
Die Teilsicherheitsfaktoren für das Natursteinmaterial zeigen nicht nur große Unterschiede,
sondern im Vergleich zu den üblichen Baustoffen sehr hohe Werte. Diese hohen Werte
basieren auf den großen vorgefundenen Streuungen der Natursteinfestigkeiten. Eine Über-
tragung der Steinteilsicherheitsfaktoren auf das Mauerwerk scheint aber nicht notwendig
zu sein, da Mauerwerk in der Regel ein hohes Umlagerungsvermögen aufweist. Insofern
erscheint der deutlich geringe Teilsicherheitsfaktor des Natursteinmauerwerks berechtigt
und findet sich auch in der Literatur.
So empfiehlt der UIC-Kodex [42] für die Nachrechnung von historischen Eisenbahnbrük-
ken einen Teilsicherheitsfaktor für Natursteinmauerwerk von 2,0. Wenn man berücksich-
tigt, daß der UIC-Kodex eine große Spannweite der Qualität von Natursteinmauerwerk
erfaßt und auf der anderen Seite Quadermauerwerk aus Sächsischem Sandstein in der Re-
gel ein sehr hochwertiges Mauerwerk ist, so erscheint der Teilsicherheitsfaktor von 1,7-2,0
durchaus plausibel. Der Teilsicherheitsfaktor sollte jedoch nicht ohne weitere Untersu-
chungen auf andere Arten von Natursteinmauerwerk übertragen werden.
5 Literatur
[1] Ahner, C.; Soukhov, D.: Safety Concept in Codified Design of Piled Raft Founda-
tion. Lacer No. 4, 1999, Seite 403-412
[2] Berndt, E.: Zur Druck- und Schubfestigkeit von Mauerwerk - experimentell nachge-
wiesen an Strukturen aus Elbsandstein. Bautechnik 73 (1996), Heft 4, S. 222-234
[3] Busch, P.; Zumpe, G.: Tragfähigkeit, Tragsicherheit und Tragreserven von Bogen-
brücken. 5. Dresdner Brückenbausymposium, 16.3.1995, Fakultät Bauingenieur-
wesen, Technische Universität Dresden, Seite 153-169
[4] BÜV - Empfehlung für die Bemessung und Konstruktion von Glas im Bauwesen.
Der Prüfingenieur, 18 April 2001, Seite 55-69
[5] Byfield, M.; Nethercot, D.: Safety variations in steel designed using Eurocode 3.
JCSS Workshop on Reliability Based Code Calibration. 21.-22.3.2002, ETH Zürich
[6] Curbach, M.; Günther, L.; Proske, D.: Sicherheitskonzept für Brücken aus Granit-
steindeckern. Mauerwerksbau, Heft 4, 2004, Seite 138-141
[7] Curbach, M.; Hampel, T.; Speck, K.; Scheerer, S.; Proske, D.: Determination for
Design Values of High Performance Concrete under Bi- and Triaxial Loading. In:
Hrsg. Corotis, R. B.; Schuëller, G. I.; Shinozuka, M.: Proceedings of the 8th Interna-
tional Conference on Structural Safety and Reliability ICOSSAR '01, Newport
Beach, California, USA, 17.-22. June 2001. Lisse, Abington, Exton (pa), Tokyo: A.
A. Balkema 2001
[8] Curbach, M.; Jesse, F.; Proske, D.: Partial Safety Factor for Textile Reinforcement.
In: Hrsg. Corotis, R. B.; Schuëller, G. I.; Shinozuka, M.: Proceedings of the 8th In-
ternational Conference on Structural Safety and Reliability (ICOSSAR '01), New-
port Beach, California, USA, 17.-22. June 2001. Lisse, Abington, Exton (pa),
Tokyo: A. A. Balkema 2001
125
Teilsicherheitsfaktoren für Natursteinmaterial
[9] Curbach, M.; Proske, D.: Abschätzung des Verteilungstyps der Mauerwerksdruck-
festigkeit bei Sandsteinmauerwerk. Jahresmitteilungen 1998, Schriftenreihe des In-
stitutes für Tragwerke und Baustoffe, Heft 7, TU Dresden
[10] Deutscher Ausschuß für Stahlbeton 1996: Richtlinie für Betonbau beim Umgang mit
wassergefährdenden Stoffen, September 1996, Beuth-Verlag: Berlin
[11] DIN 53 804, Teil 1: Statistische Auswertungen – Meßbare (kontinuierliche) Merk-
male. September 1981
[12] E DIN 1055-100: Einwirkungen auf Tragwerke, Teil 100: Grundlagen der Trag-
werksplanung, Sicherheitskonzept und Bemessungsregeln, Juli 1999
[13] Entwurf prEN 1990 – Eurocode: Grundlagen der Tragwerksplanung. Deutsche Fas-
sung, 10. Januar 2001
[14] ENV 1991 –1 Eurocode 1: Basis of Design and Action on Structures, Part 1: Basis
of Design. CEN/CS, August 1994
[15] ENV 1991-2-7: Eurocode 1: Grundlage der Tragwerksplanung und Einwirkungen
auf Tragwerke – Teil 2-7: Einwirkungen auf Tragwerke – Außergewöhnliche Ein-
wirkungen. Deutsche Fassung, August 1998
[16] Fischer, L.: Sicherheitskonzept für neue Normen – ENV und DIN-neu, Grundlagen
und Hintergrundinformationen. Teil 3: Statistische Auswertung von Stichproben im
eindimensionalen Fall. Bautechnik 76 (1999), Heft 2, Seite 167-179, Heft 3, Seite
236-251, Heft 4, Seite 328-338
[17] Franke, I.; Deckelmann, G.; Goretzky, W.: Einfluß der Streubreite der Material-
eigenschaften auf die Tragfähigkeit von Mauerwerk – Theoretische und Experimen-
telle Untersuchungen. In: Proceedings of the International Brick/Block Masonry
Conference, 13-16 October 1991, Vol. 1, Berlin, Germany, S. 180- S. 187
[18] Grunert, B.; Grunert, S.; Grieger, Chr.: Die historischen Baustoffe der Marienbrücke
zu Dresden. Wissenschaftliche Zeitschrift der Technischen Universität Dresden, 47
(1998), Heft 5/6, S. 11-20
[19] Grunert, S.: Der Sandstein der Sächsischen Schweiz als Naturressource, seine Ei-
genschaften, seine Gewinnung und Verwendung in Vergangenheit und Gegenwart.
Dissertation, Technische Universität Dresden, 1982
[20] Hunt, R.D.; Bryant, A.H.: Statistical implications of methods of finding characteris-
tic strengths. Journal of Structural Engineering, February 1996, Seite 202-209
[21] Ingenieurgemeinschaft Frauenkirche Dresden, Prof. Jäger und Prof. Wenzel: Mau-
erwerksrichtlinie 12/96: Kenndaten Sächsischer Sandstein – Postaer Varietät
[22] Jaeger, L.G.; Bakht, B.: Lower Fractiles of Material Strength from limited test data.
Structural Safety 7 (1990), Seite 67-75
[23] Kirtschig, K: Zur Beschreibung der Mauerwerksdruckfestigkeit über die mittlere
oder charakteristische Steindruckfestigkeit. In: Proceedings of the International
Brick/Block Masonry Conference, 13-16 October 1991, Vol. 1, Berlin, Germany,
Seite 196-201
126
Teilsicherheitsfaktoren für Natursteinmaterial
[24] Mann, W.: Mauerwerk in Europa. Der Prüfingenieur. 14. April 1999, VPI, Seite 53-
59
[25] Mann, W.: Überlegungen zur Sicherheit im Mauerwerksbau. Mauerwerks-Kalender
1987, Berlin: Verlag Ernst & Sohn, Seite 1-5
[26] Murzewski, J.: Sicherheit der Baukonstruktionen. VEB Verlag für Bauwesen, Ber-
lin, DDR, 1974
[27] National Renewable Energy Laboratory: Wind Turbine Design Strength Analysis:
Guideline DG02. 2004
[28] Normenausschuß Bauwesen im DIN: Grundlagen zur Festlegung von Sicherheitsan-
forderungen für bauliche Anlagen. Ausgabe 1981, Beuth Verlag 1981
[29] Norton, R.L.: Machine Design – An Integrated Approach. Prentice-Hall, New York,
1996
[30] Onken, P.; vom Berg, W.; Neubauer, U.: Verstärkung der West Gate Bridge, Mel-
bourne, Beton- und Stahlbetonbau, Heft 2, 97. Jahrgang, Februar 2002, Seite 94-104
[31] Peschel, A.: Natursteine der DDR – Kompendium petrographischer, petrochemi-
scher, petrophysikalischer und gesteinstechnischer Eigenschaften. Beilage zur Dis-
sertation (B) an der Bergakademie Freiberg, Januar 1984
[32] Proske, D.: Ein Beitrag zur Risikobeurteilung alter Brücken unter Schiffsanprall.
Dissertation. Technische Universität Dresden, Lehrstuhl für Massivbau, 2003-2004
[33] Pugsley, A.G.: The Safety of Structures. Arnold, New York 1966
[34] Purtak, F.: Tragfähigkeit von schlankem Mauerwerk. Dissertation. Technische Uni-
versität Dresden, Fakultät Architektur, 2001
[35] Reid, S.G.: Load–testing for design of structures with Weibull–distributed strengths.
Application of Statistics and Probability (ICASP 8), Sydney, 1999, Band 2, Seite
705-712
[36] Schleicher, F. (Hrsg.): Taschenbuch für Bauingenieure. Springer-Verlag, 1949
[37] Schubert, P.: Beurteilung der Druckfestigkeit von ausgeführtem Mauerwerk aus
künstlichen Steinen und Naturstein. Mauerwerkskalender 1995, Seite 687-701
[38] Shigley, J.E.; Mischke, C.R.: Mechanical Engineering Design. 6th ed. McGraw Hill.
Inc., New York, 2001
[39] Sorensen, J.D.: Calibration of Partial Safety Factors and Target Reliability Level in
Danish Structural Codes. JCSS Workshop on Reliability Based Code Calibration.
21.-22.3.2002, ETH Zürich
[40] Spaethe, G.: Die Sicherheit tragender Baukonstruktionen, 2. Neubearbeitete Aufla-
ge, Wien, Springer Verlag, 1992
[41] Stiglat, K.: Zur Tragfähigkeit von Mauerwerk aus Sandstein. Bautechnik 2/1984,
Seite 54-59 und Bautechnik 3/1984, Seite 94-100
127
Teilsicherheitsfaktoren für Natursteinmaterial
[42] UIC-Kodex: Empfehlungen für die Bewertung des Tragvermögens bestehender Ge-
wölbebrücken aus Mauerwerk und Beton. Internationaler Eisenbahnverband.
1. Ausgabe 1.7.1995
[43] Val, D.V.; Stewart, M.G.: Safety Factors for Assessment of Existing Structures.
Journal of Structural Engineering, Vol. 128, No. 2, February 2002, Seite 258-265
[44] Visodic, J.P.: Design Stress Factors. Vol. 55, May 1948, ASME International, New
York
[45] Warnecke, P.; Rostasy, F.S.; Budelmann, H.: Tragverhalten und Konsolidierung von
Wänden und Stützen aus historischem Natursteinmauerwerk. Mauerwerkskalender
1995, Ernst & Sohn, Berlin, Seite 623-685
[46] Wenzel, F. (Hrsg.): Mauerwerk – Untersuchen und Instandsetzen durch Injizieren,
Vernadeln und Vorspannen. Erhalten historisch bedeutsamer Bauwerke. Empfehlun-
gen für die Praxis. Sonderforschungsbereich 315, Universität Karlsruhe, 1997
128
Dauerhaftigkeit von Beton
Probabilistische Beschreibung
der Dauerhaftigkeit von Beton
Zusammenfassung: Der Baustoff Stahlbeton besitzt wie alle Baustoffe nur ei-
ne begrenzte Dauerhaftigkeit. Der Nachweis der Dauerhaftigkeit des Stahlbe-
tons wurde in der neuen Norm DIN 1045-1 im Vergleich zu den vorangegange-
nen Normen gestärkt. Die Norm verwendet das sogenannte deskriptive Nach-
weiskonzept, welches aber nur für neue Bauwerke gilt. Es wird darum das so-
genannte Performance Konzept vorgestellt, welches den rechnerischen Nach-
weis der Dauerhaftigkeit sowohl im Sinne des semi-probabilistischen als auch
des probabilistischen Sicherheitskonzeptes erlaubt.
1 Einleitung
Der Baustoff Beton war der erfolgreichste Baustoff des letzten Jahrhunderts und dürfte
diese Stellung auch in diesem Jahrhundert verteidigen. Von Seiten der Öffentlichkeit wird
allerdings regelmäßig Kritik an einer unzureichenden Lebensdauer des Baustoffes vorge-
bracht. In der Tat existieren zahlreiche Beispiele von Stahlbetonkonstruktionen, die bereits
nach wenigen Jahren besorgniserregende Schäden aufweisen (Abb. 1). Diese Schäden stel-
len die Dauerhaftigkeit des Bauwerkes in Frage. Unter einem dauerhaften Tragwerk ver-
steht man gemäß DIN 1045-1 ein Tragwerk, welches „während der vorgesehenen Nut-
zungsdauer seine Funktion hinsichtlich der Tragfähigkeit und Gebrauchstauglichkeit ohne
wesentlichen Verlust der Nutzungseigenschaften bei einem angemessenen Instandhal-
tungsaufwand erfüllt“. Die geplante Nutzungsdauer von Hochbauten aus Stahlbeton liegt
etwa im Bereich von 50 bis 100 Jahren (Tab. 1). Daß diese lange Nutzungsdauer durchaus
realistisch ist, zeigen Beispiele von Stahlbetonkonstruktionen, die eine Nutzungsdauer von
100 Jahren erreichen (Abb. 2).
Auf Grund der in den letzten Jahrzehnten gehäuft beobachteten Schäden an den Bauwer-
ken hat man in der neuen Stahlbetonnorm die Bedeutung der Dauerhaftigkeit gestärkt,
denn langfristig ist der Baustoff nur wettbewerbsfähig, wenn die versprochene Nutzungs-
dauer in der Praxis auch umgesetzt werden kann. Aus diesem Grund wurde der Nachweis
der Dauerhaftigkeit den Nachweisen der Tragfähigkeit und Gebrauchstauglichkeit gleich-
gestellt.
129
Dauerhaftigkeit von Beton
2 Nachweiskonzepte
2.1 Deskriptives Konzept
In der neuen DIN 1045-1 wurde das sogenannte deskriptive Konzept des Nachweises der
Dauerhaftigkeit von Stahlbeton umgesetzt. Dieses Konzept verspricht bei überschaubarem
Aufwand für den planenden Ingenieur und Umsetzung der in dem Konzept erhobenen kon-
struktiven Forderungen eine Stahlbetonkonstruktion mit der geplanten Nutzungsdauer von
50 Jahren. Abb. 3 zeigt schematisch den Aufbau des Nachweiskonzeptes. Sowohl die ob-
jektiven dauerhaftigkeitsbeschränkenden Einwirkungen als auch die subjektiven Wünsche
des Eigentümers werden berücksichtigt, wobei letzteres als Zielgröße der Nutzungsdauer
verstanden werden kann. Tab. 2 listet die dauerhaftigkeitsbegrenzenden Einwirkungen auf.
Interessant ist hierbei, daß die physikalischen Einwirkung Last auch eine dauerhaftigkeits-
beschränkende Einwirkung ist. Die in Tab. 2 aufgelisteten dauerhaftigkeitsbeschränkenden
Einwirkungen finden sich auch in Abb. 3 wieder. Die Einwirkungen werden jedoch in der
DIN 1045-1 mit Ausnahme der Last nicht in Zahlen erfaßt, sondern pauschal aus Klassen
gewählt. Neben der Klasse wird dabei auch die Intensität der Einwirkung bestimmt. Tab. 3
nennt einige dieser Expositionsklassen. Anhand der Expositionsklassen werden erforderli-
che Widerstandsgrößen bestimmt. Diese Widerstandsgrößen sind z.B. die Betondeckung
(Tab. 4), die zulässigen Rißbreiten oder die Spannungszustände im Bauteil (Dekompres-
sion) (Tab. 5). Allerdings darf in die beiden letztgenannten Widerstandsgrößen der Bauherr
durch die Wahl einer Anforderungsklasse eingreifen (Tab. 6).
Tab. 1: Entwurfs-Lebensdauern nach Eurocode 1
Entwurfslebensdauer (Jahre) Beispiele
1 – 10 Tragwerke mit befristeter Standzeit
10 – 25 Austauschbare Teile wie Kranbahnträger und Lager
15 – 30 Landwirtschaftlich genutzte Tragwerke
50 Hochbauten und andere gebräuchliche Tragwerke
100 Monumentale Hochbauten, Brücken und andere Ingenieurbauwerke
Abb. 1: Beispiele von Stahlbetonbauteilen mit Rißschäden im Alter von wenigen Jahren
(links) oder wenigen Wochen (rechts)
130
Dauerhaftigkeit von Beton
E
Bewehrungs-
stahl
R
Beton
Umwelteinflüsse Bauherr
Expositionsklasse
Anforderungs-
Betonangriff: Bewehrungskorrosion: Bewehrungsart klasse
Stahlbeton
XF: Frost mit X0 : keine Korrosion
E
Vorspannung
und ohne XC: Karbonatisierung
- ohne Verbund
Taumittel XD: Chloride,
- nachträglicher
XA: chemischer außer Meerwasser A bis F
Verbund
Angriff XS: Chloride
- sofortiger
XM: Verschleiß aus Meerwasser
Verbund
R
Zusammen- Beton- Beton- Ober- Wöhler- Riß-
Beton- Dekom-
setzung und druck- druck- flächen- linie breiten-
dek- pres-
Eigenschaften festig- span- beweh- des begren-
kung sion
des Betons keit nungen rung Stahls zung
131
Dauerhaftigkeit von Beton
Tab. 3: Expositionsklassen
Mindestbeton-
Klasse Umgebung Beispiele für die Zuordnung von Expositionsklassen
festigkeitsklasse
1 Kein Korrosions- oder Angriffsrisiko
Bauteile ohne Bewehrung in nicht betonangreifender Umge- C 12/15
X0 Kein Angriffsrisiko bung, z. B. Fundamente ohne Bewehrung ohne Frost, Innen-
bauteile ohne Bewehrung LC 12/13
132
Dauerhaftigkeit von Beton
Tab. 4: Mindestbetondeckung cmin und Vorhaltemaß ∆c, Auszug aus DIN 1045-1
Chloridinduzierte
Karbonatisierungsinduzierte Chloridinduzierte
Anforderungen an die Korrosion aus Meer-
Korrosion Korrosion
Betondeckung in cm wasser
XC 1 XC 2 XC 3 XC 4 XD 1 XD 2 XD 3 XS 1 XS 2 XS 3
Betonstahl allgemein cmin ≥ ds bzw. dsV
cmin 1) 2) 10 20 25 40
∆c (Vorhaltemaß) 10 15
1)
Zusätzlich für Leichtbeton: cmin ≥ dg + 5 mm (außer XC 1)
2)
Bei Verschleißangriff: XM 1: cmin + 5 mm; XM 2: cmin + 10 mm; XM 3: cmin + 15 mm
133
Dauerhaftigkeit von Beton
1 2 3 4
Vorspannung mit Vorspannung
Vorspannung
Expositionsklasse nachträglichem mit sofortigem Stahlbeton
ohne Verbund
Verbund Verbund
1 XC1 D D F F
2 XC2, XC3, XC4 Ca C E E
XD1, XD2, XD3b
3 Ca B E E
XS1, XS2, XS3
a
Mit Korrosionsschutz, ansonsten Anforderungsklasse D
b
Zusätzliche Maßnahmen können erforderlich werden.
Eingangsgröße Formel
Betondeckung xd = xk − ∆x
Kritischer Chloridgehalt C
Ccr , d = cr , k
γ Ccr
Diffusionskoeffizienten Dcr , d = Dcr , k ⋅ γ D
Vorhandener Chloridgehalt an der Oberfläche Cs , d = Cs , k ⋅ γ Cs .
Kopfindex k gibt an, daß es sich um den charakteristischen Wert handelt (i.a. 5 % oder 95 % Fraktil) und
Kopfzeiger d gibt an, daß es sich um den Bemessungswert handelt. Referenzzeitraum 50 Jahre.
134
Dauerhaftigkeit von Beton
Kosten einer Reparatur proportional zu den Hohe Kosten Normale Kosten Geringe Kosten
Kosten der Herstellung der Konstruktion (β* = 4,3) (β = 2,3) (β = 0,8)
∆x [mm] 18,0 11,0 4,5
γCcr 1,10 1,05 1,02
γD 3,30 1,85 1,20
γCs 4,10 2,10 1,25
*β = Zielsicherheitsindex
Einwirkung Nachweisgleichung
Sulfatangriff c ≥ x(t ) = k ⋅ t α
Alkali-Silica-Reaktion c ≥ x(t ) = t0 + k ⋅ tlα
Frost- und Frost-Tausalz- N t ≥ N = t0 + k 0 ⋅ R
Angriff
Karbonatisierung t
w
c ≥ xc (t ) = 2 ⋅ ke ⋅ kc ⋅ (kt ⋅ R −1
ACC ,0 + ε t ) ⋅ ∆CS ⋅ t ⋅ 0
t
Chloridangriff 1
x C
2
1 1− n
ta ≥ ti = erf −1 1 − cr n
2
Cs D0 ⋅ ke ,cl ⋅ kc ,ct ⋅ t0
D (m2/s)
Lit. Verteilungstyp Mittelwert Variationskoeffizient
[13] Lognormal 1,399·10-11 1,84
[18] Gleich 0,548·10-12 0,57
[24] Normal 2,138·10-12 0,75
[16] Lognormal 1,00·10-12 0,04
[5] Normal 1,00·10-12 0,10
[5] Normal 2,00·10-12 0,10
[5] Normal 4,00·10-12 0,10
[6] Lognormal 4,10·10-12 0,10
[10] Normal 4,75·10-12 0,15
135
Dauerhaftigkeit von Beton
Cs in M.-% v. Z.
Lit. Verteilungstyp Mittelwert Variationskoeffizient
[13] Lognormal 1,70 0,70
[18] Uniform 0,30 0,19
[24] Normal 0,51 0,50
[16] 0,04 0,49
[16] 0,65 0,65
[14] 6,14 0,067
[5] Lognormal 1,28 0,61
[6] Lognormal 0,3 0,10
[10] Normal 4,0 0,12
Tab. 13: Statistische Angaben zum Initialchloridgehalt im Beton nach Speck [23]
136
Dauerhaftigkeit von Beton
x (mm)
Lit. Verteilungstyp Mittelwert Variationskoeffizient A B
[13] Normal 50 0,19
[18] Lognormal 50-60-70 0,20
[24] Normal 58 0,23
[16] 50 0,072
[16] 56 0,2
[5] Lognormal 40 0,25
[5] Lognormal 45 0,22
[5] Lognormal 50 0,20
[17] Normal 51,6 0,22
[1] Normal 50** 0,12*
[10] Betaverteilung 50 0,10 0 225
3 Beispiel
3.1 Vorstellung Bauwerk
Dazu wurde eine Betonbrücke aus dem Jahre 1938 als Beispielbauwerk gewählt. Die
Brücke besteht aus vier Längsträgern. Diese Längsträger werden an der Unterseite von
einem Bogen und an der Oberseite von der Fahrbahnplatte abgeschlossen. Im Bereich des
Scheitels verschmelzen Bogen und Fahrbahnplatte zu einem kompakten Betonkörper. In
den anderen Bereichen besitzt die Fahrbahnplatte Querunterzüge. Alle Längsträger werden
über das Lager hinausgeführt, so daß die Längsträger als rahmenartige Struktur wirken
können (Abb. 4).
Die Brücke wird in einem Bogen von der Straße gequert. Die Kragarme der Brücke folgen
der Spur der Straße. Deshalb ist der äußere Kragarm in Bogenform ausgebildet, der innere
Kragarm zeigt die Bogenform ansatzweise. Zusätzlich ist die Widerlagerbank nicht recht-
winklig zur Brückenlängsachse angeordnet. Auf Grund dieser schwierigen geometrischen
Verhältnisse wurde die Brücke mit einem FE-Modell untersucht (Abb. 5). Neben der rech-
nerischen Untersuchung des Tragverhaltens erfolgte auch eine baustofftechnische Untersu-
chung, wie z.B. die Ermittlung der Betondruckfestigkeit an Bohrkernen. Dabei erfolgte
auch die Ermittlung der Karbonatisierungstiefe und des Chloridgehalts (Tab. 12).
137
Dauerhaftigkeit von Beton
Längstäger Querträger
Fahrbahnplatte 1000
200 300
200
150
350
600 150 150
625
500 2975 3000 2975 500
450 450
10350
Bogen bzw. Bodenplatte
Abb. 5: FE-Modell der Brücke (links Modell und rechts Verschiebungen bei Belastung)
Erste Vergleiche zwischen der vorgefundenen Betonsorte und den gemessenen Betondek-
kungen zeigen, daß die Dauerhaftigkeitsanforderungen gemäß DIN 1045-1 bzw. DIN-
Fachbericht nicht eingehalten sind. So liegt die am Bauwerk ermittelte Betonsorte über-
138
Dauerhaftigkeit von Beton
wiegend etwa bei einem C 25/30. Die erforderliche Betondeckung von cmin = 40 mm ist
ebenfalls in großen Bereichen des Tragwerkes nicht eingehalten, wie Tab. 12 zeigt.
Im Gegensatz zu diesen nicht erfüllten Nachweisen war das Bauwerk aber über 60 Jahr in
der Lage, die Funktion zu erfüllen. Es stellt sich nun die Frage, ob mit den ermittelten
Meßergebnissen am Bauwerk ein Dauerhaftigkeitsnachweis für eine bestimmte Zeitspanne
erbracht werden kann. Dazu wird zunächst das Performance Konzept in seiner semi-proba-
bilistischen Form angewandt.
139
Dauerhaftigkeit von Beton
1
2
1−0,37
3,5 cm 0, 6 − 0,18 % Z. 1
ti = erf −1 1 − 2
2 0,896 − 0,18 % Z. 0,315 cm ⋅ 0,92 ⋅ 0, 79 ⋅ 0, 0787 0,37
Jahr
ti = 43 Jahre
Es handelt sich hierbei um einen Mittelwert. Berücksichtig man die bereits genannten Teil-
sicherheitsfaktoren für den Fall, daß geringe Schadenskosten auftreten, so ergibt sich:
1
Ccr ,k
2
1− n
− Ci
x −1
γ Ccr 1
ti = erf 1 −
2 Cs , k ⋅ γ Cs − Ci D0,k ⋅ γ D ⋅ ke,cl ⋅ kc ,ct ⋅ t0n
1
0, 6
2
1−0,37
− 0,18 % Z. ⋅ 1,25
2 1, 02 1
ti = erf −1 1 − .
3,5 cm − 0,5 cm 0,896 − 0,18 % Z. ⋅1,25 0,315 cm ⋅ 0,92 ⋅ 0, 79 ⋅ 280,37
2
1, 20 Jahr
ti = 8,5 Jahre
Bei einer Größenordnung von ca. 10 Jahren erscheint es günstig, die Zeitdauer vom Errei-
chen der kritischen Chloridkonzentration am Stahl bis zum Auftreten eines Schadens mit
zu berücksichtigen. Als Schaden definieren ENGELUND und FABER [5] einen Riß durch
Bewehrungskorrosion größer 1 mm. Dann vergrößert sich die Lebensdauer um den Betrag tp
−1
w − w0 x m
t p = cr + 74, 4 + 7,3 ⋅ − 17, 4 ⋅ f sp ,c ⋅ 0 ⋅ α ⋅ Fcl ⋅ wt
β d ρ
nres
t 1
ρ = ρ0 ⋅ kc ,res ⋅ ⋅ k RH , res ⋅ kcl ,res .
t0 1 + 0, 025(T − 20)
Die Werte bedeuten:
tp Zeitdauer vom Erreichen des kritischen Chloridgehaltes bis zur Entstehung einer kriti-
schen Rißgröße in Jahren,
wcr kritische Rißgröße (1 mm),
w0 Startrißgröße (0,25 mm),
x Betondeckung in mm,
d Stahldurchmesser in mm,
fsp,c Spaltzugfestigkeit des Betons in MPa,
m0 Konstante (882 µm·Ωm/Jahr),
Fcl Korrosionsrate bei chloridinduzierter Korrosion (2,63),
wt Relativer Feuchtezeitraum in Jahren,
t Alter des Betons, aber nicht mehr als 1 Jahr,
t0 Alter des Betons zum Zeitpunkt der Messung des elektrischen Widerstandes in Jahren,
kc,res Faktor zur Berücksichtigung der Nachbehandlung,
140
Dauerhaftigkeit von Beton
141
Dauerhaftigkeit von Beton
Lebensdauer in Jahren
0 10 20 30 40 50 60 70 80 90
20
18
16
Meßpunkt
14
12
Tiefe in mm
10
Abb. 6: Darstellung der Karbonatisierungstiefe über die Zeit mit eingetragendem Meß-
punkt bei Gültigkeit des Wurzel-t-Gesetzes
142
Dauerhaftigkeit von Beton
RH ist
fe
1−
100
ke = und k = a ⋅ t bc . Damit ergibt sich
RH ist
fe
c c c
1 −
100
xc2
t= .
RH ist
fe
1−
100
2⋅ ⋅ a ⋅ t bc ⋅ (k ⋅ R −1 + ε ) ⋅ ∆C
RH ist
fe
c c t ACC ,0 t S
1−
100
Für die vorliegende Brücke liegen nicht genügend Daten für die einzelnen Eingangsgrößen
vor. Deshalb werden zahlreiche Werte, basierend auf verschiedenen Veröffentlichung, ge-
schätzt. Dabei erhält man für die Lebensdauer
0, 0352
t= 2,5
= 234 Jahre .
80 5
1−
100
2⋅ ⋅ 2 ⋅ (1, 25 ⋅ 7 ⋅10−11 + 1 ⋅10−11 ) ⋅ 8, 2 ⋅10−11
65 5
1−
100
Vergleicht man die ermittelten Lebensdauern für die karbonatisierungsinduzierte und die
chloridinduzierte Korrosion, so liegt die durch die chloridinduzierte Korrosion begrenzte
Lebensdauer für die Konstruktion eine Zehnerpotenz unter der Lebensdauer begrenzt durch
karbonatisierungsinduzierte Korrosion. Es erscheint deshalb sinnvoll, die Nachweise der
chloridinduzierten Korrosion mit einem anderen Sicherheitskonzept durchzuführen, um
mögliche rechnerische Reserven zu erschließen. Das zeigten bereits die ermittelten Le-
bensdauern mit und ohne Sicherheitsfaktoren. Dieses veränderte Sicherheitskonzept soll
das probabilistische Sicherheitskonzept sein. Damit wird der Nachweis vom Vergleich von
Jahren zum Vergleich von Wahrscheinlichkeiten bzw. Sicherheitsindizes verschoben.
Die probabilistische Berechnung soll im folgenden mit dem Programm EXCEL durchge-
führt werden. In das Programm ist standardmäßig ein Funktionsextremwertsucher einge-
baut, der im folgenden zur Ermittlung des Sicherheitsindex verwendet werden soll. Der
Extremwertsucher findet sich im Menü Extras unter Solver. Sollte in dem Menü kein
Punkt Solver vorhanden sein, so muß im Menüpunkt Extras im Untermenüpunkt
Add-Ins der Solver aktiviert werden.
Abb. 7 zeigt den Bildschirmaufbau. Der Zelleninhalt von B5 lautet:
=C12-C13+C16*(1-GAUSSFEHLER(C14/(2*C15*C17*C18*0,0787^0,37*40)))
Der Zelleninhalt von B7 lautet:
=WURZEL(MMULT(MTRANS(F12:F18);MMULT(MINV(B21:H27);(F12:F18))))
143
Dauerhaftigkeit von Beton
Wenn dieser Zelleninhalt für eine Problemanpassung verändert werden muß, so ist die Be-
arbeitung in der Zelle nicht mit ENTER zu beenden, sondern mit STRG-UMSCHALT-
ENTER. Ansonsten erhält man die Fehlermeldung #Wert im Feld B7.
Der Zelleninhalt von B9 lautet:
=NORMVERT(B7;0;1;FALSCH).
Der Zelleninhalt von F12 lautet:
=(C12-D12)/E12.
Die Datei wird auf Anfrage durch die Autoren zur Verfügung gestellt.
Abb. 7: Bildschirm für die Berechnung des Sicherheitsindex mit dem Programm EXCEL
Die Ergebnisse der sehr einfachen probabilistischen Berechnung sind in Tab. 12. darge-
stellt. Da für die Brücke keine Werte vorliegen, wurden die entsprechenden Eingangsgrö-
ßen aus verschiedenen Veröffentlichung gewählt. Außerdem wurden vereinfachend keine
Korrelationen und ausschließlich Normalverteilungen verwendet. Berücksichtigt man wei-
terhin die geringe Anzahl der Materialversuche und die hohe ermittelte operative
Versagenswahrscheinlichkeit von ca. 0,2 für die nächsten 20 Jahre, so muß man davon
ausgehen, daß in etwa in zehn Jahren in einigen lokalen Bereich chloridinduzierte Korrosi-
on auftreten wird.
144
Dauerhaftigkeit von Beton
4 Ausblick
4.1 Migrationsverhalten im ungerissenen Beton
Trotz der zahlreichen und inzwischen auch in der Praxis verwendeten Modelle zur Be-
schreibung von numerischen Dauerhaftigkeitsnachweisen bestehen nach wie vor zahlreiche
Fragen. Die vorgestellten Nachweise für das Eindringen von Chlorid in Beton und die
Wanderung der Karbonatisierungsfront basieren im wesentlichen auf Diffusionsansätzen.
Neuere Untersuchungen, wie z.B. die Arbeiten von SETZER, zeigen aber, daß die Diffusion
nur ein Migrationsantrieb darstellt. Die Leistung des Migrationsantrieb Mikro-Eislinsen-
Pumpe wird in den bisherigen Gleichungen nicht berücksichtigt. Auf Grund des Bewußt-
seins mangelnder Kenntnisse über das Wanderungsverhalten im Beton hat die Deutsche
Forschungsgemeinschaft verschiedene Forschungsprojekte dazu gestartet. Hier seien ge-
nannt:
• SPP 1122: Vorhersage des zeitlichen Verlaufs von physikalisch-technischen Schädi-
gungsprozessen an mineralischen Werkstoffen
• SFB 477: Sicherstellung der Nutzungsfähigkeit von Bauwerken mit Hilfe innovativer
Bauwerksüberwachung
• SFB 524: Werkstoffe und Konstruktionen für die Revitalisierung von Bauwerken
Auf Grund der erheblichen Investitionen in die Schädigungsforschung von Baustoffen ist
zu erwarten, daß in den nächsten Jahren verbesserte Methoden vorgestellt werden, die die
Nachweise der Dauerhaftigkeit entweder vereinfachen oder die Prognosequalität erheblich
verbessern.
145
Dauerhaftigkeit von Beton
Beton Beton
Water
Kapillare
Kapillare
Wasser
Mikropore Wasser
Eis
Beton Beton
a) b)
Beton Beton
Kapillare
Water
Water
Kapillare
Eis Wasser
Eis
Eis
Beton Beton
c) d)
146
Dauerhaftigkeit von Beton
Abb. 9: Textilbewehrung links und textilbewehrte Betonschicht auf einer verstärkten Plat-
te nach einem Biegeversuch (rechts)
5 Zusammenfassung
Auf Grund des gewaltigen Baubestandes in den Industrieländern und der in zunehmendem
Maße zu beobachtenden Einschränkung der Neubauaktivitäten richtet sich der Blick des
Bausektors auf die Modifikation und Erhaltung von Bauwerken. Hierbei müssen die Bau-
werke nicht nur eine gewisse Funktionsflexibilität aufzeigen, sondern auch eine entspre-
chende Lebensdauer besitzen. Die Nachweise der Lebensdauer werden in Zukunft weiter
an Bedeutung gewinnen. Die hier vorgestellten Verfahren stellen eine Möglichkeit der ge-
naueren Erfassung der Lebensdauer dar. Nach der Ermittlung der Restlebensdauer wird es
notwendig sein, aus einem Pool von Maßnahmen die geeignete zu wählen. Auch die Wahl
der Maßnahmen darf im Augenblick als ein sehr dynamisches Feld angesehen werden.
Abschließend kann festgestellt werden, daß die probabilistische Erfassung der Lebensdauer
von Bauwerken ein Hilfsmittel in dem wachsenden Markt der Beurteilung und Behandlung
der Lebensdauer von Bauwerken ist.
6 Literatur
[1] Bach; T.: Tragfähigkeitsnachweis von Stahlbetonquerschnitten bei Biegebeanspru-
chung mit und ohne Längskraft auf der Grundlage der Zuverlässigkeitstheorie der
Stufe II. Dissertation. Technische Universität Dresden, 1991
147
Dauerhaftigkeit von Beton
[2] Bunte, D.: Die Prognose der Lebensdauer von Stahlbetonaußenbauteilen. Tech-
nologie und Anwendung der Baustoffe, Zum 60. Geburtstag von Ferdinand S. Rosta-
sy, Hrsg. H. Budelmann, Ernst & Sohn Verlag, Berlin, 1992, Seite 153-158
[3] Bunte, D.: Zum karbonatisierungsbedingten Verlust der Dauerhaftigkeit von Außen-
bauteilen aus Stahlbeton. Deutscher Ausschuß für Stahlbeton, Heft 436. Beuth Ver-
lag, Berlin 1993
[4] Edvarsen, C.K.: Wasserdurchlässigkeit und Selbstheilung von Trennrissen in Beton.
Deutschen Ausschuß für Stahlbeton, Heft 455, Beuth-Verlag, Berlin 1996
[5] Engelund, S.; Faber, M.H.: Development of a Code for Durability Design of Con-
crete Structures. Application of Statistics and Probability (ICASP 8), Sydney, 1999,
Band 2, Seite 965-972
[6] Enright, M.P.; Frangopol, D.M. & Gharaibeh, E.S.: Reliability of Bridges under Ag-
gressive Conditions. Application of Statistics and Probability (ICASP 8), Sydney,
1999, Band 1, Seite 323-330
[7] Faber, M. H.; Gehlen, Ch.: Probabilistischer Ansatz zur Beurteilung der Dauer-
haftigkeit von bestehenden Stahlbetonbauten. Beton- und Stahlbetonbau 97, 2002,
Heft 8, Seite 421-429
[8] Gehlen, Ch.: Lebensdauerbemessung – Zuverlässigkeitsberechnungen zur wirksamen
Vermeidung von verschiedenartig induzierter Bewehrungskorrosion. Beton- und
Stahlbetonbau 96, 2001, 7, Seite 478-487
[9] Gehlen, Ch.: Probabilistischer Ansatz zur Beurteilung der Dauerhaftigkeit von be-
stehenden Stahlbetonbauten. Deutschen Ausschuß für Stahlbeton, Heft 510, Beuth
Verlag, Berlin 2000
[10] Gehlen, Ch.; Schießl, P.: Probability-based durability design for the Western Scheldt
Tunnel. Structural Concrete. Journal of the fib, Volume 1, Nr. 2, June 1999, Seite 1-7
[11] Gehlen, Ch.; Schießl, P.; Pabsch, G.: Probabilistic Service Life Design: Application
of the DURACRETE-Approach to Existing Structures. fib-Symposium: Concrete &
Environment, Berlin 3-5. Oktober 2001.
[12] Hergenröder, M.: Zur statistischen Instandhaltungsplanung für bestehende Beton-
bauwerke bei Karbonatisierung des Betons und bei möglicher Korrosion der Beweh-
rung. Berichte aus dem Konstruktiven Ingenieurbau 4/92, Technische Universität
München, 1992
[13] Karimi, A.R. & Ramachandran, K.: Probabilistic Estimation of Corrosion in Bridges
due to Chlorination. Application of Statistics and Probability (ICASP 8), Sydney,
1999, Band 2, Seite 681-688
[14] Leira, B.J. & Lindgard, J.: Statistical Analysis of Laboratory Test Data for Service
Life Prediction of Concrete subjected to Chloride Ingress. Application of Statistics
and Probability (ICASP 8), Sydney, 1999, Band 1, Seite 291-296
[15] M. Holický, H. Mihashi: Stochastic Optimisation of Concrete Cover exposed to Car-
bonation. Application of Statistics and Probability (ICASP 8), Sydney, 1999, Band 1,
Seite 279-284
148
Dauerhaftigkeit von Beton
149
Dauerhaftigkeit von Beton
150