Sie sind auf Seite 1von 94

Script zu

Risikotheorie

Markus Riedle
Humboldt-Universität zu Berlin

23. November 2005


Inhaltsverzeichnis
1 Individuelles Modell 4
1.1 Das Modell . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2 Verteilungen für die Einzelrisiken und den Gesamtschaden . . . . . . 8
1.2.1 Gammaverteilung . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2.2 Inverse Gaussverteilung . . . . . . . . . . . . . . . . . . . . . 11
1.2.3 Lognormalverteilung . . . . . . . . . . . . . . . . . . . . . . . 14

2 Kollektives Modell 17
2.1 Das Modell . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.2 Schadenzahlverteilungen . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.3 Approximation der Gesamtschadenverteilung . . . . . . . . . . . . . . 24
2.4 Approximation des individuellen Modells . . . . . . . . . . . . . . . . 27
2.5 Schadenhöhenverteilungen . . . . . . . . . . . . . . . . . . . . . . . . 29

3 Risikoprozesse 36
3.1 Verteilungen für den Schadenzahlprozess . . . . . . . . . . . . . . . . 37
3.2 Ruinwahrscheinlichkeiten im Cramér-Lundberg-Modell . . . . . . . . 38
3.2.1 Ruinwahrscheinlichkeiten . . . . . . . . . . . . . . . . . . . . . 38
3.2.2 Abschätzung der Ruinwahrscheinlichkeit im Cramér’schen Fall 40
3.2.3 Eine Integralgleichung . . . . . . . . . . . . . . . . . . . . . . 42
3.2.4 Erneuerungsgleichungen . . . . . . . . . . . . . . . . . . . . . 43
3.2.5 Asymptotik der Ruinwahrscheinlichkeiten im Cramér’schen Fall 44
3.2.6 Asymptotik der Ruinwahrscheinlichkeit bei subexponentiellen
Schadensverteilungen . . . . . . . . . . . . . . . . . . . . . . . 45

4 Prämienkalkulation 47
4.1 Nettorisikoprinzip . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
4.2 Prämienprinzipien auf Grundlage des Nettorisikoprinzips . . . . . . . 48
4.3 Implizit definierte Prämienprinzipien . . . . . . . . . . . . . . . . . . 49
4.3.1 Nullnutzenprinzip . . . . . . . . . . . . . . . . . . . . . . . . . 49
4.3.2 Exponentialprinzip . . . . . . . . . . . . . . . . . . . . . . . . 50
4.3.3 Schweizer Prinzip . . . . . . . . . . . . . . . . . . . . . . . . . 51
4.3.4 Verlustfunktionenprinzip . . . . . . . . . . . . . . . . . . . . . 52
4.4 Das Percentile-Prinzip . . . . . . . . . . . . . . . . . . . . . . . . . . 53
4.5 Eigenschaften von Prämienprinzipien . . . . . . . . . . . . . . . . . . 54

5 Credibility Prämie 56
5.1 Heterogenes Modell . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
5.2 Bühlmann Modell . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
6 Simulation 64
6.1 Simulation von Zufallszahlen . . . . . . . . . . . . . . . . . . . . . . . 64
6.2 Simulation von Risikoprozessen . . . . . . . . . . . . . . . . . . . . . 66
6.3 Simulation der Ruinwahrscheinlichkeit . . . . . . . . . . . . . . . . . 67
6.3.1 Monte-Carlo Simulation . . . . . . . . . . . . . . . . . . . . . 68
6.3.2 Ruinwahrscheinlichkeit mittels Pollaczek-Khintchine Formel . 72
6.3.3 Via importance sampling . . . . . . . . . . . . . . . . . . . . . 74
6.3.4 Via bedingter Monte-Carlo-Simulation . . . . . . . . . . . . . 75

A Appendix 101
A.1 Parameter von Verteilungen . . . . . . . . . . . . . . . . . . . . . . . 101
A.2 Faltung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
A.3 Laplace-Transformierte . . . . . . . . . . . . . . . . . . . . . . . . . . 106
A.4 Erzeugende Funktion . . . . . . . . . . . . . . . . . . . . . . . . . . . 108

B Bedingter Erwartungswert 111

Literaturverzeichnis 115

3
1 Individuelles Modell
[4]; [6];[9];[19]; [20];[13]

1.1 Das Modell


Bei Eintreten des Versicherungsfalles entsteht gegenüber dem Versicherungsunter-
nehmen eine Zahlungsforderung und es muss den vertraglich vereinbarten Betrag an
den Versicherungsnehmer auszahlen. Jedoch kommt es nicht bei jedem Vertrag oder
Police des Unternehmens zwangsläufig zur Auszahlung und die Höhe der Auszah-
lung hängt von dem tatsächlich eingetretenen Schaden ab. Der verursachte Schaden
jedes Vertrages kann als ein Wert betrachtet werden, der dem Zufall unterworfen
ist, siehe auch Einleitung.

Definition 1.1
a) Eine nichtnegative Zufallsvariable X heißt Risiko.
b) Eine Menge {Xk : k = 1, . . . , n} von Risiken Xk heißt Portfolio.
Im individuellen Modell lässt sich ein Risiko Xk als der Schaden interpretieren,
der sich aufgrund des k-ten Versicherungsvertrages (Police) in dem betrachteten
Zeitraum, z.B. ein Jahr, ergibt. Offensichtlich ist dann die Gesamtsumme, die das
Versicherungsunternehmen in einem Jahr auszahlen muss, gleich der Summe Sn der
Risiken X1 , . . . , Xn .

Definition 1.2 Der Gesamtschaden eines Portfolios {X1 , . . . , Xn } (im individuel-


len Modell) ist die Zufallsvariable
n
X
Sn := Xk .
k=1

Das Versicherungsunternehmen ist hoch interessiert an Aussagen über die Verteilung


der Zufallsvariablen Sn sowie deren Erwartungswert und Varianz, da viele Entschei-
dungen auf diesen Kenngrößen basieren: Prämienkalkulation, Rückversicherungsbei-
träge, Rückstellungen.
Wir werden stets folgende Annahmen voraussetzen, ohne sie zu erwähnen:
• alle Zufallsvariablen X1 , . . . , Xn sind auf demselben Wahrscheinlichkeitsraum
(Ω, A , P ) definiert.
• Endlichkeit der Streuung VarXk ;
Falls diese Voraussetzung nicht erfüllt ist, so besitzen extrem hohe Schäden
eine sehr hohe Wahrscheinlichkeit und man spricht von der “nicht Versicher-
barkeit” des Risikos. Deshalb setzen wir stets voraus, dass E [Xk2 ] < ∞ für alle
k = 1, . . . , n gilt.

4
Desweiteren werden wir oft folgende Annahmen treffen:

• Unabhängigkeit der Risiken Xk .


Diese Annahme ist üblich, wenn sie auch in der Praxis oft verletzt wird, z.B.
bei Hagelschäden. In den vergangenen Jahren wird zunehmend auch versucht,
Risikomodelle ohne Voraussetzung der Unabhängigkeit zu verwenden.

• Identische Verteilung der Risiken Xk .


Von dieser Voraussetzung werden wir uns in einem gewissen Rahmen lösen
können. Auch entspricht diese Annahme meist nicht der Realität, z.B. bei
verschiedenen Versicherungssummen der Hausratversicherung.

Wir betrachten zunächst den Einfluss der Erwartungswerte und Varianzen der Ri-
siken auf den Gesamtschaden.

1) Nehmen wir den Idealfall eines homogenen Portfolios {X1 , . . . , Xn } an, d.h die
Risiken Xk sind unabhängig und identisch verteilt mit

m := E [Xk ] und s2 := VarXk für alle k = 1, . . . , n.

In diesem Fall erhält man

E [Sn ] = nm und VarSn = ns2 . (1)

2) In vielen Bereichen der Versicherungsbranche ist die oben getroffene Annah-


me eines homogenen Portfolios gerechtfertigt, z.B. bei der PKW-Haftpflicht-
versicherung. Anders jedoch ist die Situation, falls verschieden hohe Versiche-
rungssummen durch die Risiken Xk , die weiterhin unabhängig sind, abgedeckt
werden. In diesem Fall geht man von einem “Referenzrisiko” X0 mit einer
Versicherungssumme u0 und
1 1
m := E [X0 ] und s2 := VarX0
u0 u0
aus. Man nimmt an, dass von einem Risiko Xk z.B. mit einer halb so großen
Versicherungssumme wie bei dem Referenzrisiko X0 auch der Erwartungswert
E [Xk ] und die Varianz VarXk halbiert werden. Dies resultiert in der folgenden
Annahme:

E [Xk ] = muk und VarXk = s2 uk für k = 1, . . . , n,

wobei uk > 0 die Versicherungssumme des Risikos Xk bezeichnet. Wird durch


n
X
v := uk
k=1

5
die Gesamtversicherungssumme des Portfolios bezeichnet, so erhält man
E [Sn ] = vm und VarSn = vs2 . (2)
Man beachte, dass in dem unter 2) diskutierten inhomogenen Modell stets auch
das homogene Modell enthalten ist, indem man uk = 1 für alle k = 1, . . . , n
setzt.
In diesem Modell wird insbesondere auch die Varianz anteilig der Versiche-
rungssumme modelliert. Anders dagegen, wenn wir Xk = uuk0 X0 angesetzt
u2k
hätten. Dann würde VarXk = u20
VarX0 gelten.
Ein Vorteil der Zusammenfassung von Risiken verschiedener Personen durch ein
Versicherungsunternehmen, ist der so genannte Ausgleich im Kollektiv, den wir an
dem oben angenommenen inhomogenen Portfolio erläutern wollen. Mittels der Werte
in (2) folgt
VarSn vs2 1 s2
= = .
(E [Sn ])2 (vm)2 v m2

Dies bedeutet, dass die Standardabweichung VarSn langsamer als der Erwartungs-
wert E [Sn ] bei sich vergrößernder Gesamtversicherungssumme v wächst. Mit der
Chebyschev-Ungleichung folgt für jedes ε > 0:
³ ´ 1 s2
P |Sn − E [Sn ]| > ε E [Sn ] 6 2 ,
ε vm2
d.h. die Wahrscheinlichkeit, dass der Gesamtschaden Sn um mehr als ε · 100% von
seinem Erwartungswert abweicht, wird bei wachsender Gesamtversicherungssum-
me v kleiner. Durch die Zusammenfassung der Risiken werden also günstige und
ungünstige Schadenverläufe der Einzelrisiken nivelliert.
Ein wesentlicher Bestandteil bei der Behandlung des individuellen Modells besteht
in der Konstruktion geeigneter stochastischer Modelle für die Risiken Xk , so dass
die daraus resultierende Verteilung der Gesamtschadensumme in gewisser Weise mit
Beobachtungen der vergangenen Jahre übereinstimmt. Hierzu schätzt man aufgrund
von gesammelten Daten vergangener Beobachtungsperioden etwa den Erwartungs-
wert und die Varianz der Verteilung des Gesamtschadens, um daraus Aussagen über
das Verhalten von Sn in der aktuellen Periode treffen zu können. Diesem liegen
jedoch einige Probleme zugrunde, wie z.B:
• eine nicht ausreichende Datenlage, um “gute” Schätzungen treffen zu können;
• die Verteilung von Sn verändert sich durch variierende Anzahl von Policen und
sich verändernden Versicherungssummen von Jahr zu Jahr, siehe z. B. (2).
Eine weitere Diskussion dieser Problematiken und deren Lösung findet man in [14,
S. 43f].
Wären die Verteilungen der Einzelrisiken Xk bekannt, so würde man auch die Ver-
teilung des Gesamtschadens zumindest aus mathematischer Sicht explizit kennen:

6
Theorem 1.3 Es sei {X1 , . . . , Xn } ein Portfolio von unabhängigen Risiken Xk mit
Verteilungen PXk . Dann gilt für die Verteilung PSn des Gesamtschadens Sn :

PSn = PX1 ∗ · · · ∗ PXn .

Jedoch sind im Allgemeinen die Verteilungen der Einzelrisiken nicht bekannt. Auf-
grund einer zu geringen Beobachtungsanzahl von Realisierungen der Risiken der
vergangenen Beobachtungsperioden lassen sich auch nicht unmittelbar Verteilungen
angeben, die die Einzelrisiken ausreichend gut modellieren.
Wir beenden diesen ersten Abschnitt mit der Vorstellung eines Algorithmus nach
DePril (siehe z.B. [18]) zur Berechnung der Verteilung des Gesamtschadens mittels
eines (spielerischen) Zahlenbeispiels aus [12]:

Beispiel 1.4 Man betrachtet ein Portfolio {X1 , . . . , Xn } von Lebensversicherun-


gen. Der potentielle Schaden des Risikos Xk ist die Versicherungssume uk , die im
Todesfall ausgezahlt wird. Als mögliche Versicherungssummen uk nehmen wir in
diesem Beispiel die Werte {1, 2, . . . , 5} an, die etwa für 100000, . . . , 500000 Euro
stehen. Jedem Versicherungsnehmer lässt sich aufgrund gewisser Vorinformationen,
z.B. Alter, Beruf u.s.w., eine einjährige Sterbewahrscheinlichkeit pk zuordnen. Damit
besitzt jedes Risiko Xk die Verteilung

PXk ({uk }) = P (Xk = uk ) = pk und PXk ({0}) = P (Xk = 0) = 1 − pk .

Die folgende Tabelle ist aufgeschlüsselt nach der Sterbewahrscheinlichkeit und der
versicherten Summe. Die Einträge geben die Anzahl der jeweiligen Verträge an.

pk 1 2 3 4 5
0.000505 0 1 1 2 6
0.000525 1 0 2 7 0
0.000552 1 1 3 3 2 Es gibt z.B. 7 Policen über eine Versiche-
rungssumme 4, die jeweils eine Sterbewahr-
0.000587 0 1 3 3 3
scheinlichkeit von 0.000525 haben.
0.000630 1 4 0 4 1
0.000680 2 2 2 2 2
0.000738 1 1 0 1 7

Man erhält nun für die Verteilungen PSk der k-ten Schadensumme Sk = X1 +· · ·+Xk :

PS1 = PX1
PSk+1 = PSk ∗ PXk+1 .

7
Wie in Beispiel A.15.b folgt:

PSk+1 ({j}) = P (Sk+1 = j)


X∞
= P (Sk = j − i)P (Xk+1 = i)
i=0
= P (Sk = j)P (Xk+1 = 0) + P (Sk = j − uk+1 )P (Xk+1 = uk+1 )
= P (Sk = j)(1 − pk+1 ) + P (Sk = j − uk+1 )pk+1 .

Wird nun sukzessiv für jedes k die Wahrscheinlichkeit P (Sk+1 = j) für alle Werte
j ∈ N0 , die Sk+1 annehmen kann, berechnet, so gelangt man zu der Verteilung des
Gesamtschadens Sn .
Das in diesem Beispiel vorgestellte Verfahren lässt sich erweitern auf den Fall, in
dem die Risiken endlich viele und nicht nur zwei Werte annehmen können. Jedoch
stößt man trotz moderner Rechner ab gewissen Größen des Portfolios an die Grenze
der Berechenbarkeit.

1.2 Verteilungen für die Einzelrisiken und den Gesamtscha-


den
Zur Herleitung von realistischen Verteilungen des Gesamtschadens stellen wir in den
beiden folgenden Abschnitten mögliche Verteilungen PXk der Einzelrisiken Xk vor
und leiten die entsprechende Verteilung des Gesamtschadens daraus her. Hierbei
gehen wir von den folgenden Überlegungen aus:

• PXk ist eine Verteilung auf (R+ , B(R+ ));

• die “Hauptmasse” von PXk liegt in oder zumindest sehr dicht an der Null,
da in fast allen Bereichen der Schadenversicherung die Mehrzahl der Risiken
schadenfrei bleiben oder nur sehr geringe Werte annehmen, sogenannte Baga-
tellschäden.

• PXk ist eine zweiparametrige Verteilung, da wir nur von einer Schätzung des
Erwartungswertes und der Varianz der Gesamtschadenverteilung ausgehen.

Um auf die Verteilung des Gesamtschadens schließen zu können, ist folgende Eigen-
schaft von Nutzen:

• einfache Berechenbarkeit der Faltungspotenzen der Verteilungen der Einzelri-


siken.

1.2.1 Gammaverteilung
In der Funktionentheorie wird die so genannte Gammafunktion auf der gesamten
komplexen Ebene betrachtet und dort als meromorphe Funktion nachgewiesen, siehe

8
z. B. [8]. In unserem Fall dient sie der Normierung einer Dichte, wofür das Betrachten
der Gammafunktion auf der positiven reellen Achse ausreicht. Dort besitzt sie eine
Integraldarstelllung, die wir als Definition nutzen.

Definition 1.5 Die Gammafunktion Γ ist gegeben durch:


Z ∞
Γ : (0, ∞) → R, Γ(t) := xt−1 e−x dx.
0

4
α = 125

3
α = 0.2
2
α = 25
α = 0.05
α=5
1 α=1

0.5 1 1.5 2
Abbildung 1: Dichte der Γ-Verteilung mit α = β für verschiedene Werte

Eine Diskussion der Gammafunktion findet man z.B. in [8]. Einige wesentliche Ei-
genschaften der Gammafunktion halten wir in dem folgenden Lemma fest:

Lemma 1.6 Für die Gammafunktion Γ : (0, ∞) → R gilt:



a) Γ( 12 ) = π, Γ(1) = 1;
b) Γ(t + 1) = t Γ(t) für alle t > 0;
c) Γ(n + 1) = n! für alle n ∈ N.
Beweis: Siehe Kapitel VII.5 in [8]. 2

Wir definieren die in diesem Abschnitt betrachtete Gammaverteilung. Diese Vertei-


lung wir häufig in Anwendung zur Modellierung der Risiken benutzt.

9
Definition 1.7 Die Gamma-Verteilung Γ(α, β) zu den Parametern α, β > 0 ist die
Wahrscheinlichkeitsverteilung mit der Dichte
( α
β
sα−1 e−βs , für s > 0,
f (s) := Γ(α)
0, für s 6 0.

Bemerkung 1.8 Für α = 1 entspricht die Gammaverteilung Γ(1, β) einer Expo-


nentialverteilung zu dem Parameter β.

Lemma 1.9 Für eine Γ(α, β)-verteilte Zufallsvariable X gilt:


α α
a) E [X] = , D VarX = ;
β β2
2 6
b) γ1 (X) = √ , γ2 (X) = .
α α
c) cX ∼ Γ(α, c−1 β) für c > 0.
µ ¶α
β
d) ϕX (t) = für t ∈ R.
β − it
µ ¶α
β
e) LX (t) = für t > −β.
β+t
In Abbildung (1) sind die Dichten von Gammaverteilungen für verschiedene Parame-
ter abgebildet. Das folgende Lemma fasst Eigenschaften der Dichte in Abhängigkeit
des Parameters α zusammen:

Lemma 1.10 Es bezeichne f = fα,β die Dichte einer Γ(α, β)-Verteilung. Dann gilt:

• für α < 1 ist die Dichte f monoton fallend auf R+ mit f (0+) = ∞. Der
Modalwert ist 0.

• für α = 1 ist die Dichte f monoton fallend auf R+ mit f (0+) = β. Der
Modalwert ist 0.

• für α > 1 ist die Dichte f monoton wachsend auf [0, α−1
β
) und monoton fallend
α−1 α−1
auf ( β , ∞) mit f (0+) = 0. Der Modalwert ist β .

Da gemäß unseren Überlegungen zu Beginn dieses Abschnittes die größte Masse der
Verteilungen der Risiken in oder nahe der Null liegen soll, bieten sich gemäß dem
vorangegangenen Lemma Parameterwerte α ∈ (0, 1) zur Modellierung der Verteilung
der Einzelrisiken an.
Als eine wünschenswerte Eigenschaft erwähnten wir die explizite Berechnungsmöglich-
keit von Faltungen der Verteilungen der Risiken.

10
Theorem 1.11 Es seien Γ(αk , β) Gammaverteilungen zu den Parametern αk > 0
für k = 1, . . . , n und dem Parameter β > 0. Dann gilt:

Γ(α1 , β) ∗ · · · ∗ Γ(αn , β) = Γ(α1 + · · · + αn , β).

Mittels der Gammaverteilung lässt sich ein nicht homogenes Portfolio {X1 , . . . , Xn }
von unabhängigen Risiken modellieren. Wie in Abschnitt diskutiert, geht man von
einem Referenzrisiko X0 mit Versicherungssumme u0 und
1 1
m := E [X0 ] und s2 := VarX0
u0 u0
aus. Erwartungswert und Varianz eines Risikos Xk verhalten sich dann gemäß dem
Anteil der Versicherungssumme uk bezüglich der des Referenzrisikos.

Theorem 1.12 Es seien X1 , . . . , Xn unabhängige, gammaverteilte Risiken mit

E [Xk ] = muk und VarXk = s2 uk

für m, s2 > 0 und uk > 0 für k = 1, . . . , n. Dann gilt für den Gesamtschaden:
³ 2 ´
Sn ∼ Γ ms2 (u1 + · · · + un ), sm2 .

Mit der Γ(α, β)-Verteilung haben wir eine Verteilung kennengelernt, deren Modal-
wert für α < 1 gleich Null ist. Auch ermöglicht diese Verteilung eine Modellierung
eines nicht homogenen Portfolios von unabhängigen Risiken mit verschiedener Ver-
sicherungssumme. Die Verteilung des Gesamtschaden ist wieder eine Gammavertei-
lung.
Ein wesentlicher Nachteil der Gammaverteilung ist, dass bei der Maximum-Likeli-
hood-Methode keine explizite Auflösung nach dem Parameter α mölich ist, siehe
z.B. [14].

1.2.2 Inverse Gaussverteilung


Der Nachteil der Gammaverteilung, den Parameter α nicht mittels einer Maximum-
Likelihood-Methode schätzen zu können, lässt sich durch Modellierung der Risiken
durch eine andere, sehr ähnliche Verteilung umgehen.

Definition 1.13 Die Inverse-Gauss-Verteilung IG(µ, λ) zu den Parametern µ, λ >


0 ist die Wahrscheinlichkeitsverteilung mit der Dichte
(¡ ¢1/2 ³ ´
λ −λ(s−µ)2
2πs3
exp 2µ2 s
, für s > 0,
f (s) :=
0, für s 6 0.

Wie bei der Gammaverteilung beginnen wir mit der Zusammenfassung einiger ein-
fachen Eigenschaften der Inversen-Gauss-Verteilung:

11
8

λ = 0.05
6

λ = 150
4

λ = 0.2
λ = 50
2
λ = 0.5 λ=5
λ=1

0.5 1 1.5 2
Abbildung 2: Dichte der IG-Verteilung für µ = 1 und verschiedene λ

Lemma 1.14 Für eine IG(µ, λ)-verteilte Zufallsvariable X gilt:


µ3
a) E [X] = µ, D VarX = ;
λ
r
µ µ
b) γ1 (X) = 3 , γ2 (X) = 15 ;
λ λ
c) cX ∼IG(cµ, cλ) für c > 0;
µ ³ ´¶
λ p
d) ϕX (t) = exp −1 2
1 − 1 − λ (2µ it) für t ∈ R.
µ
µ ³ ´¶
λ p
e) LX (t) = exp −1 2
1 − 1 + λ (2µ t) für t > 0.
µ
Anders als bei der Gammaverteilung lässt sich die Verteilungsfunktion der Inversen-
Gauss-Verteilung durch die Verteilungsfunktion der Standard-Normal-Verteilung aus-
drücken. Deshalb ist keine zusätzliche Tabellierung der Verteilungsfunktion erfor-
derlich. Aber aufgrund des Einsatzes von Computern ist dieses Argument für die
Inverse-Gauss-Verteilung gegenüber der Gammaverteilung unseres Erachtens heut-
zutage von geringerer Bedeutung.

12
Lemma 1.15 Für die Verteilungsfunktion F = Fλ,µ der Inversen-Gaussverteilung
IG(µ, λ) gilt:

F (x) = Φ(µ(λx)−1/2 (x − µ)) + e2λ/µ Φ(−µ(λx)−1/2 (x + µ)) für x > 0,

wobei Φ die Verteilungsfunktion der Standardnormalverteilung bezeichnet.


Beweis: Siehe [5]. 2
Insbesondere wird durch dieses Lemma eine einfache Bestimmung der Quantile einer
Inversen-Gauss-Verteilung ermöglicht.
Auch die Inverse-Gauss-Verteilung ist unimodal:

Lemma 1.16 Es sei f = fµ,λ die Dichte einer IG(µ, λ)-Verteilung. Dann gilt: f ist
monoton wachsend auf [0, c) und monoton fallend auf (c, ∞) wobei
s 
µ ¶2
3µ 3µ 
c := µ  1 + − .
2λ 2λ

Der Modalwert ist c.


Das Verhalten der Inversen-Gauss-Verteilung bei Faltung gibt das folgende Resultat
an.

Theorem 1.17 Es seien IG(µk , λk ) Inverse-Gauss-Verteilungen zu den Parame-


tern µk > 0 und λk > 0 für k = 1, . . . , n mit ζ = λk µ−2
k für alle k = 1, . . . , n. Dann
gilt:

IG(µ1 , λ1 ) ∗ · · · ∗ IV (µn , λn ) = IG(µ1 + · · · + µn , ζ(µ1 + · · · + µn )2 ).

Auch mittels der Inversen-Gauss-Verteilung lässt sich ein nicht homogenes Portfolio
{X1 , . . . , Xn } von unabhängigen Risiken modellieren. Wie zuvor geht man von einem
Referenzrisiko X0 mit Versicherungssumme u0 und
1 1
m := E [X0 ] und s2 := VarX0
u0 u0
aus. Erwartungswert und Varianz eines Risikos Xk verhalten sich dann gemäß dem
Anteil der Versicherungssumme uk an der des Referenzrisikos.

Theorem 1.18 Es seien X1 , . . . , Xn unabhängige, Inverse-Gauss-verteilte Risiken


mit

E [Xk ] = muk und VarXk = s2 uk

für m, s2 > 0 und uk > 0 für k = 1, . . . , n. Dann gilt für den Gesamtschaden:
³ ´
m3 2
Sn ∼ IG m(u1 + · · · + un ), s2 (u1 + · · · + un ) .

13
Bemerkung 1.19 Geht man von vorgegebenem Erwartungswert und Varianz aus,
so lässt sich sowohl bei der Gammaverteilung wie auch bei der Inversen-Gauss-
Verteilung eindeutig auf die jeweiligen Parameter schließen. Zum Vergleich der Gam-
maverteilung und der Inversen-Gauss-Verteilungen betrachtet man deshalb zwei Zu-
fallsvariablen X und Y , die entsprechend diesen Verteilungen verteilt sind, jedoch
mit demselben Erwartungswert und Varianz. Bestimmt man dann die Parameter
der jeweiligen Verteilungen, lassen sich Schiefe und Exzess sowie Form der Dichten
miteinander vergleichen.
Die Inverse-Gauss-Verteilung besitzt dieselben positiven Eigenschaften wie die Gam-
maverteilung zur Modellierung der Verteilung der Einzelrisiken. Desweiteren besitzt
sie den Vorteil, dass beide Parameter sich mit der Maximum-Likelihood-Methode
schätzen lassen, siehe [14]
Die Inverse-Gauss-Verteilung besitzt aber gewisse Nachteile, falls Erwartungswert
und Varianz in einem engen Zusammenhang stehen, siehe ebenfalls [14].

1.2.3 Lognormalverteilung
In den zwei vorangegangenen Unterabschnitten haben wir die Gammaverteilung und
die Inverse-Gauss-Verteilung als eine realistische Verteilung für den Gesamtschaden,
ausgehend von denselben Verteilungen für die Risiken, ermittelt. In diesem Abschnitt
betrachten wir dagegen unmittelbar eine Verteilung für den Gesamtschaden, ohne
die Verteilung der einzelnen Risiken zu beachten.

Definition 1.20 Die Lognormalverteilung LN(θ, σ 2 ) zu den Parametern θ, σ 2 > 0


ist die Wahrscheinlichkeitsverteilung mit der Dichte
( ³ ´
((ln s)−θ)2
√ 1 exp − 2 für s > 0,
2πσ 2 s2 2σ
f (s) :=
0, für s 6 0.

Man erhält eine LN(θ, σ 2 )-verteilte Zufallsvariable X durch Transformation einer


normalverteilten Zufallsvariablen Y zu den Parametern θ und σ 2 , denn es gilt:

X := exp(Y ) ∼ LN (θ, σ 2 ).

Deshalb lässt sich die Verteilungsfunktion der Lognormalverteilung mittels der Ver-
teilungsfunktion Φ der Standardnormalverteilung angeben:

Lemma 1.21 Für die Verteilungsfunktion Fθ,σ2 der Lognormalverteilung LN(θ, σ 2 )


gilt:
µ ¶
(ln x) − θ
Fθ,σ2 (x) = Φ für x > 0,
σ

wobei Φ die Verteilungsfunktion der Standardnormalverteilung bezeichnet.

14
8

σ = 0.05
6

4 σ = 1.7

σ = 0.1

2 σ = 1.5
σ=1 σ = 0.5

0.5 1 1.5 2
σ2
Abbildung 3: Dichte der LN-Verteilung mit exp(θ + 2
) = 1 und verschiedene σ

Einfache Eigenschaften der Lognormalverteilung können wir mittels Rückführung


auf die Normalverteilung angeben. Jedoch lässt sich weder Laplace-Transformierte
noch charakteristische Funktion in einer geschlossenen Form angeben.

Lemma 1.22 Für eine LN(θ, σ 2 )-verteilte Zufallsvariable X gilt:


σ2
a) E [X] = exp(θ + 2
), D VarX = exp(2θ + σ 2 )(exp(σ 2 ) − 1);

b) γ1 (X) = (exp(σ 2 ) + 2)(exp(σ 2 ) − 1)1/2 ,


γ2 (X) = exp(4σ 2 ) + 2 exp(3σ 2 ) + 3 exp(2σ 2 ) − 6;

c) cX besitzt eine LN(θ + ln c, σ 2 )-Verteilung für c > 0.

Auch die Lognormalverteilung ist unimodal:

Lemma 1.23 Es sei f = fθ,σ2 die Dichte einer LN(θ, σ 2 )-Verteilung. Dann gilt: f
ist monoton wachsend auf (0, c) und monoton fallend auf (c, ∞) wobei

c := exp(θ − σ 2 ).

Der Modalwert ist c.

15
Bei Faltung der Lognormalverteilung verlässt man die Klasse der Lognormalver-
teilungen, weshalb durch diese nur die Verteilung des Gesamtschadens und nicht
auch der Einzelrisiken modelliert wird. Gerechtfertigt ist diese Modellierung durch
die Ähnlichkeit der Lognormalverteilung zu der Gammaverteilung und der Inversen-
Gauss-Verteilung. Ein wesentlicher Vorteil der Lognormalverteilung ist die Möglich-
keit der Rückführung auf die Normalverteilung, wodurch hervorragende statistische
Methoden zur Verfügung stehen. Einen weiteren Vorteil dieser Verteilung, “heavy
tailed” zu sein, werden wir später kennen lernen. Nachteile der Lognormalvertei-
lungen bestehen dadurch, dass die Laplace-Transformierte oder charakteristische
Funktion nicht in einer geschlossenen Form angegeben werden können.

16
2 Kollektives Modell
2.1 Das Modell
Bei der Behandlung des individuellen Modells steht die Modellierung des Erwar-
tungswertes und der Varianz der Gesamtschadenverteilung im Vordergrund. Dazu
setzten wir, bis auf verschiedene Versicherungssummen, ein homogenes Portfolio
voraus. Jedoch reicht die Kenntnis bzw. Schätzung von Erwartungswert und Vari-
anz nicht aus, um die Verteilung des Gesamtschadens ausreichend beschreiben zu
können, z.B. zur Tarifkalkulation. Auch kann in den meisten Situationen in der Pra-
xis nicht von einem homogenen Portfolio ausgegangen werden. Letzteres ließe sich
zwar durch Unterteilung des Versicherungsbestandes in homogene und unabhängi-
ge Gruppen erzielen, jedoch resultiert dies in Gruppen mit zu geringer Größe, um
effiziente Schätzmethoden anwenden zu können. Ohne die Annahme identischer Ver-
teilungen, bzw. ähnlicher Verteilungen der Risiken, ist das individuelle Modell nur
sehr schwer handhabbar und wenige Aussagen können getroffen werden.
Im kollektiven Modell (F. Lundberg, H. Cramér) wird versucht, die Beschränkung
auf homogene Portfolios zu vermeiden. Bei diesem Modellierungsansatz wird nicht
beachtet, welches Risiko einen Schaden verursacht, sondern das gesamte Portfolio
von Risiken wird als Produzent einer zufälligen Anzahl von Schäden einer Beobach-
tungsperiode betrachtet.
Wie zuvor besteht ein Portfolio {X1 , . . . , Xn : k ∈ N} aus Risiken Xk . Die Anzahl
der Schäden einer Beobachtungsperiode wird modelliert durch eine Zufallsvariable
N.

Definition 2.1 Eine Zufallsvariable N auf (N0 , P(N0 )) heißt Schadenzahl.


Zur Vermeidung von Definitionsschwierigkeiten gehen wir von einem unendlichen
Portfolio {Xk : k ∈ N} aus. Dies stellt keine Beeinträchtigung des Modells dar,
denn die Schadenzahl wird sicherlich so modelliert werden, dass mit einer zu ver-
nachlässigenden Wahrscheinlichkeit die Schadenzahl über der Höhe des realen Port-
folios liegen kann.

Definition 2.2 Der Gesamtschaden eines Portfolios {Xk : k ∈ N} (im kollektiven


Modell) mit Schadenzahl N ist die Zufallsvariable
(P
N
k=1 Xk , falls N > 0,
SN := (3)
0, falls N = 0.

Bei der Behandlung des kollektiven Modells gehen wir wie teilweise zuvor von den
folgenden Annahmen aus:
• Endlichkeit der Streuung VarXk ;
• alle Zufallsvariablen N, X1 , X2 , . . . sind auf demselben Wahrscheinlichkeits-
raum (Ω, A , P ) definiert;

17
• Xk > 0 für alle k ∈ N.
Desweiteren werden wir meistens auch folgende Voraussetzungen annehmen:
• N, X1 , X2 , . . . sind unabhängig;
Die Unabhängigkeit der Risiken diskutierten wir bereits bei Behandlung des
individuellen Modells. Die Unabhängigkeit der Schadenzahl und der Scha-
denhöhen kann als realistisch betrachtet werden, aber auch hier kann eine ge-
nauere Betrachtung notwendig sein, z.B. Autohaftpflichtversicherung in einem
Winter mit besonders viel vereisten Fahrbahnen: viele, jedoch kleine Schäden.
• X1 , X2 , . . . sind identisch verteilt;
Zunächst scheint dies unserer Motivation für das kollektive Modell, der Ver-
meidung der Annahme von homogenen Portfolios, zu widersprechen. Jedoch
werden im kollektiven Modell die Schadenhöhen nicht bestimmten Risiken zu-
geordnet, sondern es wird die Gesamtheit aller Schäden betrachtet. Deshalb
kann sehr wohl eine identische Verteilung der Risiken angenommen werden,
wenn man sich die Realisierung dieser Verteilung als ein zweistufiges Expe-
riment vorstellt: zunächst wird zufällig eine bestimmte Verteilung (aus einer
Klasse von ähnlichen, jedoch verschiedenen Verteilungen) bestimmt, und dann
wird eine Realisation dieser zufällig bestimmten Klasse ausgewählt; siehe hier-
zu die Behandlung von gemischten Verteilungen in Abschnitt 2.2.
Zufallsvariablen der Form (3) werden zusammengesetzte Summenvariablen (com-
pound random variable) genannt und entsprechend ihre Verteilung zusammengesetz-
te Summenverteilung.

Theorem 2.3 Es seien {Xk : k ∈ N} ein Portfolio unabhängiger, identisch ver-


teilter Risiken mit Verteilung PX1 und N eine Schadenzahl. Dann gilt für die zu-
sammengesetzte Summenverteilung PSN der Gesamtschadensumme SN :

X
PSN = P (N = k)PX∗k1 .
k=0

In den meisten Fällen ist es nicht möglich, die zusammengesetzte Summenvertei-


lung in einer expliziten Form zu bestimmen. Jedoch kann man deren Laplace-
Transformierte mittels den Transformierten der Schadenzahl und der Risiken an-
geben:

Theorem 2.4 Es seien {Xk : k ∈ N} ein Portfolio unabhängiger, identisch ver-


teilter Risiken und N eine Schadenzahl.
a) Falls die jeweiligen Momente existieren, dann gilt:
E [SN ] = E [N ] E [X1 ] ,
VarSN = (VarN )(E [X1 ])2 + (E [N ])(VarX1 ).

18
b) Bezeichnet GN die erzeugende Funktion von N und LX1 und LSN die jeweiligen
Laplace-Transformierten von X1 und SN , dann gilt:

LSN (t) = GN (LX1 (t)) für alle t > 0.

Beispiel 2.5 Wir betrachten ein Portefolio {Xk : k ∈ N} von unabhängigen, iden-
tisch exponential verteilten Risiken Xk zu einem Parameter λ und einer geometrisch
verteilten Schadenzahl N :

P (N = k) = p(1 − p)k für k ∈ N0 .

Man erhält für den Gesamtschaden SN

λ(1 − p) λ2 (1 − p) λ(1 − p)
E [SN ] = , VarSN = +
p p2 p

und die Laplace-Transformierte des Gesamtschadens ergibt sich als:


p
LSN (t) = für t > 0.
1 − (1 − p)λ(λ + t)−1

2.2 Schadenzahlverteilungen
Betrachtet man die Schadenzahl N als die Summe von laplaceverteilten Zufalls-
variablen, die nur die Werte 0 oder 1 annehmen können, so ist N gemäß einer
Binomialverteilung verteilt.

Definition 2.6 Eine Zufallsvariable N auf (N0 , P(N0 )) heißt binomialverteilt zu


den Parametern p ∈ (0, 1) und m ∈ N, falls gilt:
(
0, für k > m + 1,
P (N = k) = ¡m¢ k m−k
k
p (1 − p) , für k = 0, . . . , m

Als Notation für die Binomialverteilung benutzen wir b(m, p).


Offensichtlich entspricht der Parameter m der Größe des Portfolios. Erinnert sei an
die folgende Eigenschaften der Binomialverteilung:

Lemma 2.7

a) Für eine binomialverteilte Zufallsvariable N zu den Parametern p ∈ (0, 1) und


m ∈ N gilt:

E [N ] = mp, VarN = mp(1 − p).

19
b) Sind Nk , k = 1, . . . , n unabhängige, binomialverteilte Zufallsvariablen zu den
Parametern mk ∈ N und p ∈ (0, 1), so gilt:
N1 + · · · + Nn ∼ b(m1 + · · · + mn , p).

Die Binomialverteilung eignet sich zur Modellierung der Schadenzahlverteilung für


kleine, homogene Bestände. Dagegen ist sie für große Bestände ungeeignet, da die
Varianz dann sehr klein ausfällt. Desweiteren ist diese Verteilung wenig anpas-
sungsfähig, da nur der Parameter p zur Modellierung dienen kann.
Die Binomialverteilung kann für kleine Werte von p sehr gut durch die Poissonver-
teilung approximiert werden, siehe Beispiel A.25. Doch gerade kleine Werte von p,
also Schäden, die nur mit einer sehr geringen Wahrscheinlichkeit auftreten, treten
in der Versicherungsbranche häufig auf. Wir betrachteten im Folgenden die Pois-
sonverteilung als Modellierung der Schadenzahlverteilung. Dieses Modell ist die am
häufigste verwendete Verteilung der Schadenzahl im kollektiven Modell.
Definition 2.8 Eine Zufallsvariable N auf (N0 , P(N0 )) heißt poissonverteilt zum
Parameter (Intensität) λ > 0, falls gilt:
λk −λ
P (N = k) = e für k ∈ N0 .
k!
Als Notation für die Poissonverteilung benutzen wir π(λ).
Als Verteilung des Gesamtschadens eines Portefolios mit einer poissonverteilten
Schadenzahl N zum Parameter λ > 0 erhält man gemäß Satz 2.3:
X∞
λk −λ ∗k
PSN = e PX1 .
k=0
k!
Die Verteilung von SN heißt dann Poisson-Summenverteilung (compound Poisson-
distribution). Man erhält unmittelbar aus Satz 2.4:
£ ¤
E [SN ] = λE [X1 ] , VarSN = λE X12 .
Ist LX1 die Laplace-Transformierte von X1 , so ergibt sich die Laplace-Transformierte
LSN von SN als:
LSN (t) = exp(λ(LX1 (t) − 1)),
Beispiel 2.9 Es seien {Xk : k ∈ N0 } ein Portefolio unabhängiger, identisch expo-
nentialverteilter Risiken zum Parameter κ > 0 und N eine poissonverteilte Schaden-
zahl zum Parameter λ > 0. Man erhält für die Verteilung PSN des Gesamtschadens
SN :
X ∞
λk −λ
P (SN 6 x) = e P (X1 + . . . Xk 6 x)
k=0
k!
X ∞ Z x
λk −λ κn
= e e−uκ un−1 du.
k=0
k! (n − 1)! 0

20
Mittels Induktion zeigt man:

X∞ k−1
−(λ+κx) λk X (κx)j
P (SN 6 x) = 1 − e .
k=0
k! j=0 j!

Wir wiederholen noch die wichtigsten Eigenschaften der Poissonverteilung:

Lemma 2.10

a) Für eine poissonverteilte Zufallsvariable N zum Parameter λ > 0 gilt:

E [N ] = λ, VarN = λ.

b) Sind Nk , k = 1, . . . , n unabhängige, poissonverteilte Zufallsvariablen zu den


Parametern λk , so gilt:

N1 + · · · + Nn ∼ π(λ1 + · · · + λn ).

Zwar ist die Poissonverteilung auch wenig anpassungsfähig, da sie nur von einem
Parameter abhängt, jedoch ist sie leicht handzuhaben, da viele Rechnungen expli-
zit ausgeführt werden können. Ein wesentlicher Vorteil der Poissonverteilung ist die
folgende Möglichkeit der Aufteilung eines inhomogenen Portfolios in mehrere homo-
gene Portfolios.
In vielen Situationen kann ein inhomogenes Portfolio aufgeteilt werden in m ver-
schiedene Portfolios, die jeweils aus homogenen Risiken und einer poissonverteilten
Schadenzahl bestehen, z.B. in der PKW-Haftpflichtversicherung erfahrene und un-
erfahrene Fahrer. Den verschiedenen Portfolios können unterschiedliche Risikover-
teilungen Ql und unterschiedliche Schadenintensitäten λl der Schadenzahl Nl für
l = 1, . . . , m zugrunde liegen. Jeder Gesamtschaden Sl der verschiedenen Portfolios
besitzt dann die Verteilung:

X λk l
PSl = e−λl Q∗k
l . (4)
k=0
k!

Das Versicherungsunternehmen ist aber interessiert an der Summe der verschiedenen


Gesamtschäden.

Theorem 2.11 Es seien S1 , . . . , Sm unabhängige Zufallsvariablen mit den Vertei-


lungen

X λk l
PSl = e−λl Q∗k
l
k=0
k!

für λl > 0 und Verteilungen Ql auf (R+ , B(R+ )).

21
Dann gilt für S := S1 + · · · + Sm :
N
X
S∼ Yj ,
j=1

wobei N eine poissonverteilte Zufallsvariable zu dem Parameter


λ := λ1 + · · · + λm
ist und {Yj : j ∈ N} unabhängige, identisch verteilte Zufallsvariablen sind mit der
Verteilung:
m
1X
PYj = λ k Qk .
λ k=1

Satz 2.11 besagt, dass ein Portfolio unabhängiger, identisch verteilter Risiken und
einer poissonverteilten Zufallsvariablen bezüglich den Verteilungen als die Zusam-
menfassung mehrerer Portfolios mit unterschiedlich verteilten Risiken und Schaden-
zahlen aufgefasst werden kann.
Betrachtet man ein Portfolio über mehrere Jahre hinweg, so sind oft trendarti-
ge und oszillatorische Veränderungen der Schadenzahl zu beobachten. Trendartige
Veränderungen sind z.B. verbesserte Schadenverhütungsmaßnahmen wie Einbau von
Sprinkelanlagen. Oszillatorische Veränderungen sind Schwankungen in der mittleren
Schadenzahl, wie z.B. regenarme Sommer führen zu einer Zunahme von Bränden.
Die oszillatorischen Veränderungen können modelliert werden, indem man den Para-
meter λ einer poissonverteilten Schadenzahl als einen zufällig gewählten Wert gemäß
einer spezifizierten Verteilung betrachtet. Diese Verteilung modelliert die oszillato-
rischen Änderungen. Diese verbale Beschreibung resultiert in dem mathematischen
Begriff der Poissonmischung:

Definition 2.12 Es sei µ eine Verteilung auf (R+ , B(R+ )). Dann wird durch
Z
θk −θ
Q({k}) = e µ(dθ) für k ∈ N0 ,
R+ k!

ein Wahrscheinlichkeitsmaß Q auf (N0 , P(N0 )) definiert. Das Maß Q heißt Pois-
sonmischung bezüglich des Mischungsmaßes µ.

Bemerkung 2.13 Statt Poissonmischung kann man auch allgemeinere gemischte


Maße erhalten. Es seien Θ eine Menge und (pθ )θ∈Θ eine Familie von Wahrschein-
lichkeitsverteilungen auf (N0 , P(N0 )) sowie µ ein Maß auf einem Maßraum (Θ, A ).
Dann wird (unter geeigneten Meßbarkeitsvoraussetzungen) durch
Z
Q({k}) := pθ ({k}) µ(dθ) für k ∈ N0 ,
Θ

die Mischung der Verteilungen (pθ )θ>0 bezüglich des Mischungsmaßes µ definiert.

22
Beispiel 2.14

a) Falls die Verteilung µ das Dirac-Maß in c > 0 ist, so ist die Poissonmischung
Q bezüglich µ die Poissonverteilung zu dem Parameter c.

b) Falls die Verteilung µ eine Dichte f besitzt, so gilt für das Mischungsmaß Q
bezüglich µ:
Z
θk −θ
Q({k}) = e f (θ) dθ für k ∈ N0 .
R+ k!

c) Falls die Verteilung µ ein diskretes Maß ist mit µ({θj }) = qj , so gilt für das
Mischungsmaß Q bezüglich µ:

X θjk
Q({k}) = e−θj qj für k ∈ N0 .
j=0
k!

d) Es sei Q die gemischte Poissonverteilung bezüglich einer Γ(α, β)-Verteilung,


d.h. es gilt:
Z Z ∞ k
θk −θ βα θ −θ α−1 −βθ
Q({k}) = e µ(dθ) = e θ e dθ.
R+ k! Γ(α) 0 k!

Dann ist Q eine negative Binomialverteilung zu den Parametern p = β(1+β)−1


und r = α.

Definition 2.15 Eine Zufallsvariable N auf (N0 , P(N0 )) heißt negativ-binomial-


verteilt zu den Parametern p ∈ (0, 1) und r > 0, falls gilt:
µ ¶
k+r−1 r
P (N = k) = p (1 − p)k für k ∈ N0 .
k

Als Notation für die Negative-Binomial-Verteilung benutzen wir nb(r, p).


Die Negative-Binomialverteilung dient ebenfalls wie die Poissonverteilung sehr häufig
zur Modellierung der Schadenzahlverteilung im kollektiven Modell. Eine weitere Ver-
teilung, die man oft im Versicherungswesen benutzt, ist die so genannte Poisson-
Inverse-Gauss-Verteilung, die sich als Poissonmischung bezüglich einer Inversen-
Gauss-Verteilung als Mischungsmaß ergibt.
Wir wollen uns noch mathematisch die Motivation zur Einführung der Poissonmi-
schung verdeutlichen. Dazu sei Q die Poissonmischung bezüglich µ. Auf dem Maß-
raum (N0 × R+ , P(N0 ) ⊗ B(R+ )) wird durch
Z k
θ −θ
P̃ ({k} × B) := e µ(dθ), k ∈ N0 , B ∈ B(R+ ),
B k!

23
ein Wahrscheinlichkeitsmaß definiert. Ist (N, T ) ein Zufallsvektor mit der Wahr-
scheinlichkeitsverteilung P̃ , so ist N gemäß der Poissonmischung Q verteilt und es
gilt:

θk −θ
P̃ (N = k|T = θ) = e .
k!
Das bedeutet, dass die Realisierung der Zufallsvariablen N als ein zweistufiges Ver-
fahren vorstellbar ist:
1) Man realisiert die Zufallsvariable T gemäß der Verteilung µ;

2) Die Zufallsvariable N wird realisiert gemäß einer Poissonverteilung zu dem


Parameter, der sich unter 1) als einen zufälligen Wert ergeben hat.

Theorem 2.16 Es seien Q die Poissonmischung bezüglich eines Maßes µ sowie N


und U zwei Zufallsvariablen mit den Verteilungen PN = Q und PU = µ. Dann gilt:
a) E [N ] = E [U ] und VarN = E [U ] + VarU.

b) LN (t) = LU (1 − e−t ) für t > 0.

c) GN (t) = LU (1 − t) für |t| 6 1.

Bemerkung 2.17 Mit den Notationen des Korollars 2.16 betrachten wir noch den
so genannten Dispersionskoeffizient einer Poissonmischung Q bzw. der Zufallsvaria-
blen N :
VarN VarU
=1+ .
E [N ] E [U ]

Falls µ = δc , dann ist Q die Poissonverteilung zu dem Parameter c. Folglich ist der
Dispersionsquotient von gemischten Poissonverteilungen genau dann minimal, wenn
Q eine Poissonverteilung ist.

2.3 Approximation der Gesamtschadenverteilung


In der Risikotheorie sind zahlreiche Approximationsverfahren für die Gesamtscha-
denverteilung entwickelt worden. In diesem Abschnitt stellen wir den bekanntesten
Algorithmus, das so genannte Panjer-Rekursionsverfahren, vor.
Das Verfahren basiert auf der Annahme, dass die Verteilung der Schadenzahl einer
gewissen Rekursionsformel genügt.

Theorem 2.18 Es sei N eine Zufallsvariable auf (N0 , P(N0 )). Dann sind äquiva-
lent:
1) N ist entweder binomial-, poisson-, negativ binomialverteilt oder P (N = 0) =
1;

24
2) es existieren a, b ∈ R, so dass gilt:
µ ¶
b
P (N = k) = a + P (N = k − 1) für alle k ∈ N . (5)
k

Falls die Risiken nur Werte auf einem Gitter {kh : k ∈ N0 } für h > 0 annehmen, gibt
der folgende Satz einen Algorithmus zur Berechnung der Gesamtschadenverteilung
an.

Theorem 2.19 Es seien {Xk : k ∈ N} ein Portfolio unabhängiger, identisch ver-


teilter Risiken mit Werten in {kh : k ∈ N0 } für ein h > 0 und N eine Schadenzahl,
die der Formel (5) genügt. Dann gilt für den Gesamtschaden SN :
P (SN = 0) = GN (P (X1 = 0)) ,
Xk µ ¶
1 jb
P (SN = kh) = a+ P (X1 = jh)P (SN = (k − j)h)
1 − aP (X1 = 0) j=1 k
für k ∈ N .
Der vorangegangene Satz erlaubt eine exakte Berechnung der Verteilung des Ge-
samtschadens, falls die Risiken nur Werte in {kh : k ∈ N0 } für h > 0 annehmen.
Dies erscheint zunächst plausibel, da die Schäden in Euro ausgezahlt werden. Jedoch
werden die Verteilungen der Risiken fast immer durch absolut stetige Verteilungen
modelliert. Für absolut stetig verteilte Risiken erhält man ein Näherungsverfahren,
indem die Risikoverteilung durch eine diskretisierte Verteilung, d.h. eine Verteilung,
die auf solch einem Gitter {kh : k ∈ N} konzentriert ist, approximiert wird. Dann
kann die Gesamtschadenverteilung dieser diskret verteilten Risiken exakt mittels der
Panjer-Rekursion berechnet werden, und es liegt nahe, dadurch eine Näherung der
ursprünglichen Gesamtschadenverteilung zu erwarten, falls h klein genug gewählt
wurde.
Bei approximativen Verfahren ist natürlich eine Abschätzung des Fehlers zwischen
wahrer und approximativer Lösung von erheblicher Bedeutung, jedoch ist nicht im-
mer offensichtlich, wie der Fehler gemessen werden kann. In unserem Fall muss
die “Distanz” zwischen zwei Verteilungen, also Wahrscheinlichkeitsmaßen, gemes-
sen werden, wofür sich mehrere Begriffe anbieten.

Definition 2.20 Für zwei Wahrscheinlichkeitsmaße Q1 , Q2 auf (R, B(R)) heißt


d∞ (Q1 , Q2 ) := sup |Q1 ([x, ∞)) − Q2 ([x, ∞))| (6)
x∈R

die Supremumsdistanz der Verteilungen Q1 und Q2 .


Erfolgt die Approximation einer Wahrscheinlichkeit eines Ereignisses stets durch
größere Werte, so kann man dies als eine “vorsichtige” oder “konservative” Annähe-
rung betrachten. In unserem Fall wird tatsächlich ein solches Monotonieverhalten
auftreten, das wir als eine partielle Ordnung auf dem Raum der Wahrscheinlich-
keitsmaße definieren:

25
Definition 2.21 Für zwei Wahrscheinlichkeitsmaße Q1 , Q2 auf (R, B(R)) wird
folgende Relation definiert:

Q1 6 Q2 ⇔ Q1 ([x, ∞)) 6 Q2 ([x, ∞)) für alle x ∈ R . (7)

Lemma 2.22 Die in (7) definierte Relation ist eine Partialordnung auf dem Raum
der Wahrscheinlichkeitsmaße auf (R, B(R)).
Der nachfolgende Satz über die Diskretisierung basiert auf dem folgenden einfachen
Lemma:

Lemma 2.23 Für zwei Wahrscheinlichkeitsmaße Q1 , Q2 auf (R, B(R)) gilt:


a) Q1 6 Q2 =⇒ Q∗k ∗k
1 6 Q2 für alle k ∈ N.

b) Q2 ([x, ∞)) − Q1 ([x, ∞)) 6 c =⇒ Q∗k ∗k


2 ([x, ∞)) − Q1 ([x, ∞)) 6 kc

für alle k ∈ N.
In unserem Fall basiert der Fehler der Approximation auf der Diskretisierung der zu-
grunde liegenden Verteilung der Risiken. Dieser Fehler überträgt sich auf die Distanz
zwischen wahrer und approximativer Gesamtschadenverteilung. Eine quantitative
Abschätzung dieses Fehlers gelingt durch das so genannte Konzentrationsmaß, das
aber kein Maß im Sinn der Wahrscheinlichkeitstheorie ist:

Definition 2.24 Es sei Q ein Wahrscheinlichkeitsmaß auf (R, B(R)). Dann heißt
für beliebiges β > 0

D(Q, β) := sup Q([x, x + β))


x∈R

das β-Konzentrationsmaß von Q.

Bemerkung 2.25 Falls Q ein absolutstetiges Maß ist, dann gilt:

lim D(Q, β) = 0.
β→0

Es seien {Xk : k ∈ N} ein Portfolio unabhängiger, identisch verteilter Risiken mit


Verteilungen Q := PX1 und einer Schadenzahl N . Der Gesamtschaden und seine
Verteilung werde mit SN sowie PSN bezeichnet. Die Risikoverteilungen Q werden
für beliebiges h > 0 diskretisiert mittels der Verteilung Q̃:

Q̃({0}) := 0,
(8)
Q̃({kh}) := Q([(k − 1)h, kh)) für k ∈ N .

Man erhält Risiken X̃k mit der Verteilung Q̃ durch die folgende Definition:

X̃k (ω) := kh, falls X(ω) ∈ [(k − 1)h, kh).

26
Es ist {X̃k : k ∈ N0 } ein Portfolio unabhängiger, identisch verteilter Risiken, die
Werte auf {hk : k ∈ N0 } annehmen. Erfüllt N die Rekursionsformel (5), so gibt Satz
2.19 die exakte Verteilung PS̃N des Gesamtschadens S̃N dieses Portfolios an. Diese
Verteilung PS̃N kann als Approximation der eigentlichen Gesamtschadenverteilung
PSN betrachtet werden, falls Q absolutstetig ist. Eine Fehlerabschätzung gibt der
folgende Satz an:

Theorem 2.26 Für die Gesamtschadenverteilung PSN und die Gesamtschadenver-


teilung PS̃N bei Diskretisierung (8) der Risikoverteilungen PX1 gilt:
¡ ¢
d∞ PS̃N , PSN 6 E [N ] D (PX1 , h) ,
PSN 6 PS̃N .
Bemerkung 2.27 Wegen Bemerkung 2.25 müssen die (identischen) Risikovertei-
lungen PX1 absolutstetig sein, damit in Satz 2.26 gewährleistet ist, dass der Fehler
bei kleiner werdender Diskretisierung, d.h. h → 0, kleiner wird.
Um auch tatsächlich die Gesamtschadenverteilung PS̃N mittels Satz 2.19 berechnen
zu können, muss die Schadenzahl N der Rekursionsformel (5) genügen.

2.4 Approximation des individuellen Modells


Das individuelle Modell spiegelt die Realität bei Einbeziehung von Bestandsdaten,
also z.B. den Verteilungen der Einzelrisiken, besser wider als das kollektive Modell.
Hierbei kann jedoch nicht von identisch verteilten Risiken ausgegangen werden, denn
in die Modellierung jedes Risikos fließen möglichst viele individuelle Merkmale ein.
Doch bei nicht identisch verteilten Risiken ist die Bestimmung der Verteilung des
Gesamtschadens Sn oft nicht möglich. Jedoch zeigen wir im Folgenden, dass die
Verteilung von Sn durch die Verteilung einer Zufallsvariablen SN approximiert wer-
den, die den Gesamtschaden eines Portfolios im kollektiven Modell beschreibt. Da
letzterem eine poissonverteilte Schadenzahl N zugrunde liegt, ermöglicht die Panjer-
Rekursion eine exakte bzw. näherungsweise Angabe der Verteilung von SN und da-
mit schließlich auch eine Approximation der Verteilung von Sn . Dieses Resultat, der
Näherung der “exakten” Gesamtschadenverteilung durch die Gesamtschadenvertei-
lung im kollektiven Modell, ist einer der Gründe für die fundamentale Bedeutung
des kollektiven Modells (bei poissonverteilter Schadenzahl) in der Risikotheorie.

Definition 2.28 Für Wahrscheinlichkeitsmaße Q1 , Q2 auf (R, B(R)) heißt


dT V (Q1 , Q2 ) := sup |Q1 (B) − Q2 (B)|
B∈B(R)

Totalvariationsabstand von Q1 und Q2 .


Der Totalvariationsabstand definiert durch die Abbildung
(Q1 , Q2 ) 7→ dT V (Q1 , Q2 )
eine Metrik auf dem Raum der Wahrscheinlichkeitsmaße.

27
Beispiel 2.29
Pm Pm
a) Für Punktmaße Q1 = j=1 αj δxj und Q2 = j=1 βj δxj mit αj , βj ∈ R+ ,
xj ∈ R gilt:
m
X
dT V (Q1 , Q2 ) = |αj − βj | .
j=1

b) Für Maße Q1 und Q2 mit Dichten f1 und f2 gilt:


Z
dT V (Q1 , Q2 ) = |f1 (s) − f2 (s)| ds.
R

In den folgenden zwei Lemmata halten wir einige einfache Eigenschaften des Total-
variationsabstands fest.

Lemma 2.30 Für zwei Wahrscheinlichkeitsmaße Q1 und Q2 auf (R, B(R)) gilt:
dT V (Q1 , Q2 ) = sup {Q1 (B) − Q2 (B)}
B∈B(R)

Lemma 2.31 Für Wahrscheinlichkeitsmaße P1 , . . . , Pn und Q1 , . . . , Qn auf


(R, B(R)) gilt:
dT V (P1 ∗ · · · ∗ Pn , Q1 ∗ · · · ∗ Qn ) 6 dT V (P1 , Q1 ) + · · · + dT V (Pn , Qn ).
Es sei {X1 , . . . , Xn } ein Portfolio von unabhängigen, aber nicht notwendigerweise
identisch verteilten Risiken, dessen Gesamtschaden Sn durch das individuelle Modell
beschrieben werde. Die in diesem Abschnitt vorgestellte Approximation der Gesamt-
schadenverteilung PSn basiert auf der Idee, die Verteilung PXk jedes Risikos Xk durch
eine Verteilung Rk der Form (4) zu approximieren. Der Fehler dieser Approximation
wird abgeschätzt durch den Totalvariationsabstand.

Theorem 2.32 Es sei {X1 , . . . , Xn } ein Portfolio von unabhängigen Risiken Xk


mit Verteilungen
P (Xk ∈ B) = (1 − qk )δ0 (B) + qk Qk (B) für B ∈ B(R),
für Verteilungen Qk und qk ∈ (0, 1) sowie mit Gesamtschaden Sn = X1 + · · · + Xn .
Sind Z1 , . . . , Zn unabhängige Zufallsvariablen mit den Verteilungen

X qj
PZk = k −qk
e Q∗j
k ,
j=0
j!
n
X
so gilt für die Verteilungen von Sn und Tn := Zj :
j=1
n
X
dT V (PSn , PTn ) 6 qj2 .
j=1

28
Satz 2.32 erlaubt nun eine Näherung der Gesamtschadenverteilung im individuel-
len Modell durch die Gesamtschadenverteilung in einem kollektiven Modell. Hierzu
wird die Verteilung von Tn mittels Satz 2.11 identifiziert als eine zusammengesetzte
Summenverteilung von identisch verteilten Risiken.

Korollar 2.33 Es sei {X1 , . . . , Xn } ein Portfolio von unabhängigen Risiken Xk mit
Verteilungen
P (Xk ∈ B) = (1 − qk )δ0 (B) + qk Qk (B) für B ∈ B(R)
für Verteilungen Qk und qk ∈ (0, 1) sowie mit Gesamtschaden Sn = X1 + . . . Xn .
Desweiteren seien {Yk : k ∈ N} ein Portfolio von unabhängigen, identisch verteilten
Risiken mit der Verteilung
n
X n
X
qj
PYk = PXj , wobei λ := qj ,
j=1
λ j=1

und N eine Schadenzahl, die poissonverteilt ist zum Parameter λ, sowie


(P
N
j=1 Yj , falls N > 0,
SN :=
0, falls N = 0.
Dann gilt für die Verteilungen von Sn und SN :
n
X
dT V (PSn , PSN ) 6 qk2 .
k=1

2.5 Schadenhöhenverteilungen
Bei der Diskussion möglicher Verteilungen des Gesamtschadens in Abschnitt 1.2
erwähnten wir bereits, dass die meisten Schäden nur von einer geringen Höhe sind.
Jedoch gerade die wenigen, aber sehr kostenintensiven Schäden sind oft für ein Ver-
sicherungsunternehmen relevant, da diese einen wesentlichen Anteil am Gesamtscha-
den haben, z.B. mehr als 80%.
Treten Schäden X extremer Höhe, so genannte Großschäden, mit einer nicht zu
vernachlässigen Wahrscheinlichkeit auf, so konvergiert die Tailwahrscheinlichkeit
P (X > x)
nicht “zu schnell” gegen 0 für wachsende Argumente x. In der Literatur gibt es
keine einheitliche Definition solcher Verteilungen, wenn auch die Unterschiede nur
marginal sind.

Definition 2.34 Eine Verteilung Q auf (R+ , B(R+ )) ist heavy-tailed, falls gilt:
Z
esx Q(dx) = ∞ für alle s > 0.
R+

29
Beispiel 2.35 Die Lognormalverteilung LN(θ, σ 2 ) ist heavy-tailed.
Zunächst betrachten wir Verteilungen, die nicht heavy-tailed sind.

Lemma 2.36 Es sei Q eine Verteilung mit Verteilungsfunktion F . Dann sind äqui-
valent:
1) es existieren s0 , b > 0, so dass gilt:
1 − F (x) 6 be−s0 x für alle x > 0;

2) es existiert s0 > 0, so dass gilt:


Z
esx Q(dx) < ∞ für alle s 6 s0 .
R+

Beispiel 2.37
1) Die Normalverteilung ist nicht heavy-tailed.
2) Die Gammaverteilung Γ(α, β) ist nicht heavy-tailed.
3) Die Inverse-Gauss-Verteilung IG(µ, λ) ist nicht heavy-tailed.

Bemerkung 2.38
1. In Abschnitt 1.2 modellierten wir die Risikoverteilungen mittels der Gamma-
und Inverse-Gauss-Verteilung, obwohl diese nicht heavy-tailed sind. Dies kann
trotzdem sinnvoll sein, wenn z.B. keine Schäden extremer Höhe zu erwarten
sind oder wenn bei der Modellierung andere Aspekte im Vordergrund stehen.
Siehe hierzu [14, S. 92f]. Die ebenfalls in Abschnitt 1.2 vorgestellte Lognormal-
verteilung ist heavy-tailed, modelliert also realistisch auch das Vorliegen von
Großschäden.
2. Für eine heavy-tailed Verteilung Q mit Verteilungsfunktion F gilt:
lim sup esx (1 − F (x)) = ∞
x→∞

für jedes s > 0.


Eine hinreichende Bedingung für eine Verteilung, um heavy-tailed zu sein, gibt das
nachfolgende Lemma an.

Lemma 2.39 Es sei Q eine Verteilung auf (R+ , B(R+ )) mit Verteilungsfunktion
F . Falls
− ln(1 − F (x))
lim sup =0
x→∞ x
gilt, dann ist Q heavy-tailed.

30
Beispiel 2.40 Die Weibullverteilung W(r, c) zu den Parametern r, c > 0 besitzt
die Dichte
( r
rcsr−1 e−cs , für s > 0,
f (s) :=
0, für s 6 0.

Die Weibullverteilung ist für r < 1 heavy-tailed.


Eine wichtige Klasse von heavy-tailed Verteilungen sind die so genannten subexpo-
nentiellen Verteilungen.

Definition 2.41 Eine Verteilung Q auf (R+ , B(R+ )) mit Verteilungsfunktion F


heißt subexponentielle Verteilung, falls gilt:

1 − (F ∗ F )(x)
lim = 2. (9)
x→∞ 1 − F (x)

Beispiel 2.42 Die Paretoverteilung P(α, c) zu den Parametern α, c > 0 besitzt die
Dichte
( ¡ ¢α+1
α c
, für s > c,
f (s) := c s
0, für s 6 c.

Die Paretoverteilung ist subexponentiell.


Am Ende dieses Abschnittes werden wir aufzeigen, dass die Bedingung (9) ein be-
stimmtes asymptotisches Verhalten von Zufallsvariablen mit einer subexponentiellen
Verteilung charakterisiert. Dies ist der eigentliche Kern der Definition von subexpo-
nentiellen Verteilungen. Die folgende Bemerkung erklärt zumindest, dass der Wert
“2” in der Definition nicht willkürlich ist.

Bemerkung 2.43 Für jede Verteilungsfunktion F gilt:

1 − (F ∗ F )(x)
lim inf > 2.
x→∞ 1 − F (x)

Der Nachweis, dass jede subexponentielle Verteilung heavy-tailed ist, basiert auf
dem folgenden Lemma.

Lemma 2.44 Es sei Q eine subexponentielle Verteilung auf (R+ , B(R+ )) mit Ver-
teilungsfunktion F . Dann gilt

1 − F (x − y)
lim =1 für alle y > 0.
x→∞ 1 − F (x)

Theorem 2.45 Jede subexponentielle Verteilung auf (R+ , B(R+ )) ist heavy-tailed.

31
Das folgende Resultat erklärt, dass die Bedeutung der Definition von subexponenti-
ellen Verteilungen nicht in der Ziffer “2” liegt, sondern in dem Verhältnis zwischen
Potenz und Faltung der Verteilungsfunktionen. Hier heraus ergibt sich dann unmit-
telbar die Eigenschaft einer subexponentiellen Verteilung, die durch die Definition
charakterisiert wird.

Theorem 2.46 Es sei Q eine Verteilung auf (R+ , B(R+ )) mit Verteilungsfunktion
F . Dann sind äquivalent:

1) Q ist subexponentiell;
1 − F ∗n (x)
2) lim = n für alle n > 2.
x→∞ 1 − F (x)

Es seien Q eine subexponentielle Verteilung auf (R, B(R)) und X1 , . . . , Xn un-


abhängige Zufallsvariablen mit der Verteilung Q. Dann folgt aus Satz 2.46:

1 − F ∗n (x) 1 − F ∗n (x) 1 − F ∗n (x)


1 = lim = lim Pn−1 k
= lim n
x→∞ n(1 − F (x)) x→∞ 1 − (F (x))
k=0 (F (x)) (1 − F (x))
x→∞

für n > 2. Aufgrund der Unabhängigkeit und der identischen Verteilung für die
Zufallsvariablen gilt:

P (X1 + · · · + Xn > x) = 1 − F ∗n (x)


P (max{X1 , . . . , Xn } > x) = 1 − (F (x))n

und damit erhält man:


P (X1 + · · · + Xn > x)
lim = 1. (10)
x→∞ P (max{X1 , . . . , Xn } > x)

Das bedeutet, dass bei subexponentiellverteilten Zufallsvariablen die Tailwahrschein-


lichkeit der Summe der Zufallsvariablen bestimmt wird durch die Tailwahrschein-
lichkeit des Maximums der Zufallsvariablen.

Bemerkung 2.47 Sind X1 , . . . , Xn die Risiken eines Portfolios, so bedeutet (10)


gerade, dass sich die Tailwahrscheinlichkeit des Gesamtschadens asymptotisch wie
die Tailwahrscheinlichkeit des maximalen Schadens verhält.
Wir betrachten jetzt die Verteilung des Gesamtschaden im kollektiven Modell bei
subexponentiellverteilten Risiken. Zur Vereinfachung der Notationen benutzen wir
das so genannte Landausymbol für Funktionen f , g : R → R:

f (t)
f = o(g) ⇐⇒ lim = 0.
t→∞ g(t)

32
Theorem 2.48 Es seien {Xk : k ∈ N} ein Portefeuillo von unabhängigen Ri-
siken, die identisch gemäß einer subexponentiellen Verteilung verteilt sind und N
eine Schadenzahl mit

X
P (N = k)(1 + ε)k < ∞
k=0

für ein ε > 0. Dann gilt für die Verteilung des Gesamtschadens:

P (SN > x) = E [N ] P (X1 > x)(1 + o(1)) für x → ∞.

Die Aussage des Satzes 2.48 besagt, dass die Tailwahrscheinlichkeit des Gesamtscha-
dens durch E [N ] P (X1 > x) approximiert werden kann, wobei der relative Fehler
für wachsendes x gegen Null konvergiert.

Empirische Methoden zur Erkennung von Verteilungen mit heavy-tails

Die Kenntnis, ob die Verteilung der Risiken eines Portfolios heavy tails besitzt, ist
für Versicherungsunternehmen zur Vermeidung des Ruins von großer Bedeutung. In
der Praxis basiert diese Einschätzung auf den beobachteten Daten der vergangenen
Jahre. Im folgenden soll ein einfaches Verfahren vorgestellt werden.

Definition 2.49 Es sei X ein Risiko mit Verteilungsfunktion F . Die Funktion

H : R+ → R+ , H(x) := − log(1 − F (x))

heißt Hazard-Funktion von X.

Definition 2.50 Es sei X ein Risiko.

(a) Falls X ein diskretverteiltes Risiko ist, dann heißt

h : N0 → [0, 1], h(k) := P (X 6 k|X > k − 1)

die Hazard-Rate von X.

(b) Falls X ein stetigverteiltes Risiko mit Dichte f und Verteilungsfunktion F ist,
dann heißt

f (x)
h : I → R+ h(x) := , I := {y ∈ R : F (y) < 1},
1 − F (x)

die Hazard-Rate von X.

33
Bemerkung 2.51 Bei stetig verteiltem Risiko X gilt:

P (X 6 x + y | X > y) ≈ xh(y)

für kleine x.

Bemerkung 2.52 Falls X geometrisch verteilt ist, dann gilt:

P (X 6 k + m | X > m) = P (X 6 k) für alle k, m ∈ N0 .

Falls X zum Parameter λ > 0 exponentialverteilt ist, dann gilt

P (X 6 x + y | X > y) = P (X 6 x) für alle x, y > 0.

Diese Eigenschaft dieser beiden Verteilungen wird Gedächtnislosigkeit genannt.

Beispiel 2.53
1. Bei Lebensversicherung modelliert X die Lebensdauer eines Versicherungsneh-
mers in Jahren. Dann gibt die Hazard-Rate h(k) die Sterbewahrscheinlichkeit
im Alter von k Jahren an, falls bereits das Alter von k Jahren (am Beginn
eines Beobachtungszeitraumes) erreicht wurde.

2. Bei Feuerversicherung bezeichnet X die Dauer eines Feuers. Dann ist xh(y)
für kleine x die Wahrscheinlichkeit, das Feuer nach der Zeit x unter Kontrolle
zu haben, falls es bereits y lang gebrannt hat. Die Hazard-Rate wird extinction
rate bezeichnet.

3. In der Zuverlässigkeitstheorie wird durch X die Funktionsdauer z.B. einer


Maschine modelliert. Die Hazard-Rate wird Fehlerrate genannt.

Definition 2.54 Es sei X ein Risiko mit Verteilungsfunktion F und F (0) = 0. Die
Funktion
Z ∞
1
eF : I → R+ , eF (x) := (1 − F (y)) dy, I := {y ∈ R : F (y) < 1},
1 − F (x) x
heißt mittlere Rest-Hazard-Funktion von X.

Bemerkung 2.55
1. Die mittlere Rest-Hazard-Funktion und die Verteilungsfunktion sind durch die
jeweils andere Funktion eindeutig bestimmt.

2. Die sogenannte Rest-Hazard-Funktion Ft eines Risikos X mit Verteilungsfunk-


tion F ist definiert durch

Ft : R → [0, 1], Ft (x) := P (X 6 t + x | X > t)

34
für t > 0.
Die Rest-Hazard-Funktion Ft definiert eine Verteilungsfunktion. Für den Er-
wartungswert von Ft erhält man

eF (t) = E[X − t | X > t].

Die mittlere Rest-Hazard-Funktion eF (t) kann als der Erwartungswert des


Risikos X, das bereits den Wert t überschritten hat, interpretiert werden.

Theorem 2.56 Es sei F eine Verteilungsfunktion mit einer Dichte f und F (0) = 0,
deren erstes Moment existiert. Falls eF (x) → ∞ für x → ∞, dann besitzt die zu F
gehörende Verteilung heavy tails.
Es seien X1 , . . . , Xn unabhängige, identischverteilte Zufallsvariablen mit Verteilungs-
funktion F . Die Funktion
n
1X
Fn : R → [0, 1], Fn (x) := 1(−∞,x] (Xk )
n k=1

heißt empirische Verteilungsfunktion zu X1 , . . . , Xn .


Nach dem starken Gesetz der großen Zahlen gilt

lim Fn (x) = F (x) P -f.s.


n→∞

für alle x ∈ R. Nach dem Satz von Glivenko-Cantelli gilt sogar:

lim sup |Fn (x) − F (x)| = 0 P -f.s.


n→∞ x∈R

Satz 2.56 legt folgende Methode nahe, aufgrund einer Beobachtung x1 , . . . , xn der
Risiken X1 , . . . , Xn zu entscheiden, ob die Verteilung F heavy tails besitzt:
1.) Schätzung der mittleren Rest-Hazard-Funktion mittels
Z ∞
1
eFn (x) := (1 − Fn (y)) dy.
1 − Fn (x) x

2.) Vergleich des asymptotischen Verhaltens von eFn mit dem Verhalten von eG
einer bekannten Verteilungsfunktion G. Üblicherweise wird G als die Vertei-
lungsfunktion der Exponentialverteilung gewählt.
Bei der hier vorgestellten Methode aufgrund der mittleren Rest-Hazard-Funktion
auf das Vorliegen einer heavy-tailed Verteilung zu schließen, erfordert eine gewisse
Umsicht.Da gerade wenige Beobachtungen der Risiken mit großen Werten x vorlie-
gen, hängt das asymptotische Verhalten von eFn (x) stark von diesen wenigen Daten
ab.
Es gibt noch zahlreiche andere Verfahren, um auf das Vorliegen einer heavy-tailed
Verteilung zu schließen., wie z.B. QQ-Plots.

35
3 Risikoprozesse
In den vorangegangenen Abschnitten modellierten wir den Gesamtschaden eines
Portfolios in einer bestimmten Zeitperiode, z.B. einem Jahr. In diesem Abschnitt
interessieren wir uns für die Wahrscheinlichkeit, dass der Gesamtschaden eines Versi-
cherungsunternehmens die Einnahmen, z.B. monatlich gezahlte Prämien, übertrifft.
Da diese Ruinsituation nicht nur am Ende einer Beobachtungsperiode geschehen
kann, führen wir noch eine zeitliche Komponente t ein, um die Anzahl der Schäden
bis zum Zeitpunkt t modellieren zu können.
Definition 3.1 Es seien W1 , W2 , . . . positive Zufallsvariablen und

X
N (t) := 1{Tk 6t} für t > 0 und Tk := W1 + · · · + Wk .
k=1

Dann heißt (N (t) : t > 0) Schadenzahlprozess und die Zufallsvariablen Wk Warte-


zeiten.
Bemerkung 3.2 Der Prozess (N (t) : t > 0) heißt auch Sprung- oder Zählprozess.
Ist {Xk : k ∈ N} ein Portfolio und gibt N (t) die Schadenzahl in diesem Portfolio
zur Zeit t an, so wird der Gesamtschaden modelliert durch:
(P
N (t)
k=1 Xk , falls N (t) > 0,
SN (t) :=
0, falls N (t) = 0.
Wie zuvor in Kapitel 2 nehmen wir an:
• Endlichkeit der Streuung VarXk ;
• die Zufallsvariablen N (t) für alle t > 0 und X1 , X2 , . . . sind auf demselben
Wahrscheinlichkeitsraum (Ω, A , P ) definiert;
• X1 , X2 , . . . und N (t) sind für jedes t > 0 unabhängig;
• X1 , X2 , . . . sind unabhängig und identisch verteilt.
Für festes t > 0 übertragen sich die Aussagen aus Kapitel 2, z.B. Satz 2.4 lautet:
Theorem 3.3 Es seien {Xk : k ∈ N} ein Portfolio unabhängiger, identisch ver-
teilter Risiken und (N (t) : t > 0) ein Schadenzahlprozess.
a) Falls die jeweiligen Momente existieren, dann gilt für jedes t > 0:
£ ¤
E SN (t) = E [N (t)] E [X1 ] ,
VarSN (t) = (VarN (t))(E [X1 ])2 + (E [N (t)])(VarX1 ).

b) Bezeichnet GN (t) die erzeugende Funktion von N (t) und LX1 und LSN (t) die
jeweiligen Laplace-Transformierten, dann gilt für jedes t > 0:
LSN (t) (u) = GN (t) (LX1 (u)) für alle u > 0.

36
3.1 Verteilungen für den Schadenzahlprozess
Bei Modellierung des Gesamtschadens in einem festen Zeitraum haben wir die Scha-
denzahl unter anderem durch eine poissonverteilte Zufallsvariable modelliert. In
Analogie betrachten wir jetzt mit dem zusätzlichen zeitlichen Aspekt einen soge-
nannten Poissonprozess.

Definition 3.4 Es seien W1 , W2 , . . . unabhängige Zufallsvariablen, die identisch ex-


ponentialverteilt zu einem Parameter λ > 0 sind. Definiert man

X
N (t) := 1{Tk 6t} für t > 0 und Tk := W1 + · · · + Wk ,
k=1

dann heißt (N (t) : t > 0) (homogener) Poissonprozess mit Intensität λ.


Es gibt zahlreiche äquivalente Charakterisierung von Poissonprozessen, von denen
wir einige in dem folgenden Resultat aufführen.

Theorem 3.5 Es sei N = (N (t) : t > 0) ein Zählprozess. Dann sind äquivalent:

a) der Prozess N ist ein Poissonprozess mit Intensität λ > 0;

b) der Prozess N besitzt folgende Eigenschaften:

i) N (t) ist für jedes t > 0 poissonverteilt zum Parameter λt > 0;


ii) unabhängige Zuwächse:
für alle 0 6 t0 < t1 < · · · < tn und n ∈ N sind die Zuwächse

N (tt1 ) − N (t0 ), N (tt2 ) − N (tt1 ), . . . , N (tn ) − N (tn−1 )

unabhängig;
iii) stationäre Zuwächse:
für alle 0 6 t0 < t1 < · · · < tn , n ∈ N und für alle h > 0 hängen die
Verteilungen von

N (t1 + h) − N (t0 + h), . . . , N (tn + h) − N (tn−1 + h)

nicht von h ab.

c) Der Prozess N besitzt unabhängige, stationäre Zuwächse und es gilt für alle
t > 0:

P (N (t + h) − N (t) = 1) = λh + o(h) für h & 0;


P (N (t + h) − N (t) > 1) = o(h) für h & 0.

37
Bemerkung 3.6 Besitzt N = (N (t) : t > 0) unabhängige Zuwächse und ist für
alle t > 0 die Verteilung von

N (t + h) − N (t)

unabhängig von t, so besitzt N auch stationäre Zuwächse.

Definition 3.7 Ist {Xk : k ∈ N} ein Portfolio unabhängiger, identisch verteilter


Risiken und (N (t) : t > 0) ein Poissonprozess, der unabhängig von X1 , X2 , . . . ist,
und wird der Gesamtschaden zur Zeit t > 0 modelliert durch
(P
N (t)
k=1 Xk , falls N (t) > 0,
SN (t) :=
0, falls N (t) = 0,

so heißt dieses Modell Cramér-Lundberg-Modell.


In der Praxis sind Aussagen über das dynamische Verhalten des Prozesses (SN (t) :
t > 0) von Bedeutung. Nach Satz 2.3 ist die Verteilung von SN (t) für jedes t > 0
eindeutig bestimmt durch die Intensität λ des Poissonprozesses und der Verteilung
von X1 . Da wir im Folgenden meist nur an Aussagen über die Verteilung von SN (t)
interessiert sind –und dabei diese als die Verteilung des Gesamtschadens in einem
Cramér-Lundberg-Modell vor Augen haben– ist folgende Definition zweckmäßig:

Definition 3.8 Es seien {Xk : k ∈ N} unabhängige, identisch verteilte Risiken


und (N (t) : t > 0) ein Poissonprozess mit Intensität λ > 0. Definiert man
(P
N (t)
k=1 Xk , falls N (t) > 0,
SN (t) :=
0, falls N (t) = 0,

so heißt (SN (t) : t > 0) zusammengesetzter Poissonprozess (compound Poisson pro-


cess) mit Charakteristik (λ, FX1 ).

Bemerkung 3.9 Die zeitlich abhängige Schadenzahl eines Portfolios kann durch
zahlreiche andere Prozesse als ein Poissonprozess modelliert werden, jedoch be-
schränken wir uns in diesem Abschnitt auf diesen.

3.2 Ruinwahrscheinlichkeiten im Cramér-Lundberg-Modell


3.2.1 Ruinwahrscheinlichkeiten
Die Bilanz eines Versicherungsunternehmens zum Zeitpunkt t setzt sich zusammen
aus dem Gesamtschaden SN (t) als Verlust und den bezahlten Versicherungsprämien
p(t) als Einnahmen. Es addiert sich noch ein Startkapital u > 0 dazu, mit dem das
Unternehmen zur Zeit t = 0 beginnt. Dies resultiert in der folgenden Definition:

38
Definition 3.10 Es seien {Xk : k ∈ N} ein Portfolio und (N (t) : t > 0) ein
Schadenzahlprozess. Definiert man für eine Konstante u > 0 und eine monoton
wachsende Funktion p : R+ → R+ mit p(0) = 0

R(t) := u + p(t) − SN (t) , t > 0,

so heißt R = (R(t) : t > 0) Risikoprozess mit Anfangsrisikoreserve u. Falls p(t) = βt


für eine Konstante β > 0 gilt, dann heißt R klassischer Risikoprozess.
Der Ruin des Versicherungsunternehmens tritt ein, falls die Liquiditäten aufgebracht
sind, das heißt, falls R(t) < 0 für ein t > 0. Natürlich ist das Versicherungsunterneh-
men interessiert daran, die Wahrscheinlichkeit für das Eintreten dieses Ereignisses
möglichst gering zu halten. Um dies zu realisieren, kann das Versicherungsunter-
nehmen entweder die Prämien p(t) erhöhen oder mit einem höheren Startkapital
beginnen. Den Einfluß der Prämien auf die Wahrscheinlichkeit des Ruins betrach-
ten wir in Kapitel 4. In diesem Abschnitt sind wir interessiert an dem Verlauf des
Prozesses R in Abhängigkeit von dem Startkapital u.

Definition 3.11 Es sei (R(t) : t > 0) ein Risikoprozess mit Anfangsrisikoreserve


u := R(0) > 0. Dann heißt

a) τ (u) := inf{t > 0 : R(t) < 0} Ruinzeit (des Risikoprozesses R);

b) ψ(u) := P (τ (u) < ∞) Ruinwahrscheinlichkeit (des Risikoprozesses R);

c) ϕ(u) := 1 − ψ(u) Überlebenswahrscheinlichkeit (des Risikoprozesses R).

Die (zufällige) Ruinzeit τ (u) muss keine endlichen Werte annehmen. Aus Ergebnis-
sen in der Theorie von stochastischen Prozessen folgt, dass τ (u) eine Zufallsvariable
ist, also (F -B(R̄))-messbar ist.
Man spricht auch von Ruinwahrscheinlichkeit in unendlicher Zeit (infinite-horizon
ruin), da gilt:
[
{τ (u) < ∞} = {inf R(t) < 0} = {R(t) < 0} = {R(t) < 0 für ein t > 0}
t>0
t>0

und das letzte Ereignis sich als das des Eintretens des Ruins in einer beliebig langen
Zeitspanne interpretieren lässt.

Lemma 3.12 Im Cramér-Lundberg-Modell gilt für die Ruinwahrscheinlichkeit des


klassischen Risikoprozesses für alle u > 0:
µ ¶ n
X
ψ(u) = P sup Yn > u mit Yn := (Xk − βWk ).
n∈N
k=1

39
Lemma 3.12 erlaubt eine einfache Herleitung einer notwendigen Bedingung dafür,
dass der Ruin nicht mit Wahrscheinlichkeit 1 eintritt. Denn nach dem starken Gesetz
der großen Zahlen gilt:
1
lim Yn = E [X1 ] − β E [W1 ] P-f.s.
n→∞ n
Falls also EX1 − βEW1 > 0 gilt, dann konvergiert Yn P-f.s. gegen ∞ und gemäß
Lemma 3.12 tritt der Ruin P-f.s. ein.
Mittels Resultaten über “zufällige Irrfahrten” lässt sich auch im Fall EX1 −βEW1 =
0 nachweisen, dass der Ruin P-f.s. eintritt. Für ein Versicherungsunternehmen be-
steht nur dann die Gelegenheit, die Ruinwahrscheinlichkeit zu verringern, falls E [X1 ]−
β E [W1 ] < 0 gilt. Diese Bedingung hat in der Literatur einen eigenen Namen:

Definition 3.13 Der klassische Risikoprozess im Cramér-Lundberg-Modell erfüllt


die Nettoprofitbedingung, falls gilt:

E [X1 − βW1 ] < 0.

Definition 3.14 Im Cramér-Lundberg-Modell mit einem klassischen Risikoprozess


heißt der Wert

β β E [W1 ]
ρ := − 1 := −1
λµ E [X1 ]

Sicherheitszuschlag (safety loading).

Bemerkung 3.15 Die Nettoprofitbedingung ist genau dann erfüllt, wenn der Si-
cherheitszuschlag postiv ist.

3.2.2 Abschätzung der Ruinwahrscheinlichkeit im Cramér’schen Fall


Definition 3.16 Im Cramér-Lundberg-Modell wird eine Konstante r > 0 Cramér-
Lundberg-Koeffizient oder Anpassungskoeffizient genannt, falls gilt

E [exp(r(X1 − βW1 ))] = 1. (11)

Bemerkung 3.17

1) Falls die Nettoprofitbedingung erfüllt ist, kann keine Konstante r < 0 existie-
ren, die der Gleichung (11) genügt.

2) Offensichtlich ist in Definition 3.16 implizit gefordert, dass gilt:


Z ∞
ery (1 − FX1 (y)) dy < ∞.
0

40
Dies ist äquivalent dazu, dass das exponentielle Moment E [exp(rX1 )] des Ri-
sikos X1 existiert und endlich ist. Aus der Markov-Ungleichung folgt:

P (X1 > x) = P (exp(rX1 ) > exp(rx))) 6 E [exp(rX1 )] e−rx

für alle x > 0. Die Existenz des Cramér-Lundberg-Koeffizienten schließt des-


halb heavy-tailed Verteilungen der Risiken aus.

3) Nur in wenigen Fällen kann der Lundberg-Koeffizient explizit bestimmt wer-


den. Es existieren aber verschiedene numerische, statistische oder graphische
Verfahren, um eine Näherung zu erhalten, siehe [18, S. 182].

Theorem 3.18 (Cramér-Lundberg-Ungleichung) Falls die Nettoprofitbedingung er-


füllt ist und der Cramér-Lundberg-Koeffizient r > 0 existiert, dann gilt für die Ruin-
wahrscheinlichkeit:

ψ(u) 6 e−ru für alle u > 0.

Beispiel 3.19 Wir betrachten zwei Portfolios {Xk : k ∈ N} und {Yk : k ∈ N} von
unabhängigen, identisch verteilten Risiken mit
1
P (Xk = 100) = p1 , P (Xk = 0) = 1 − p1 , für p1 := ,
100
1
P (Yk = 10000) = p2 , P (Yk = 0) = 1 − p2 , für p2 := ,
10000

Der Schadenzahlprozess (N (t) : t > 0) sei ein Poissonprozess mit Intensität 1. Als
Sicherheitszuschlag erhält man ρ = β − 1, weshalb die Prämie β größer als 1 gewählt
werden muss. Man erählt
£ ¤ £ ¤ £ ¤
E er(X1 −βW1 ) = p1 E er(X1 −βW1 ) |X1 = 100 + (1 − p1 )E er(X1 −βW1 ) |X1 = 0
1
= (p1 e100r + 1 − p1 )
1 + rβ

und analog

£ ¤ 1
E er(Y1 −βW1 ) = (p2 e10000r + 1 − p1 )
1 + rβ
Aus diesen Gleichungen lässt sich numerisch r > 0 bei vorgegebenem β > 1 gemäß
folgender Tabellen bestimmen.

41
β 1.1 1.5
1. Portfolio (s1 = 100): r 1.877 · 10−3 7.627 · 10−3
u 2823 695

β 1.1 1.5
2. Portfolio (s1 = 10000): r 2.047 · 10−5 7.676 · 10−5
u 2.588 · 105 0.6903 · 105

3.2.3 Eine Integralgleichung


Ausgangspunkt für die folgenden asymptotischen Betrachtungen der Ruinwahrschein-
lichkeit ist eine Integralgleichung, die von der Funktion u 7→ ϕ(u) erfüllt wird. Dieses
Resultat erfordert nicht die Existenz des Anpassungskoeffizienten.

Theorem 3.20 Im Cramér-Lundberg-Modell erfüllt die Überlebenswahrscheinlich-


keit ϕ des klassischen Risikoprozesses die folgende Integralgleichung:
Z
λ u
ϕ(u) = ϕ(0) + ϕ(u − x)(1 − FX1 (x)) dx für alle u > 0.
β 0
Lemma 3.21 Im Cramér-Lundberg-Modell sei die Nettoprofitbedingung erfüllt. Dann
gilt für die Überlebenswahrscheinlichkeit ϕ des klassischen Risikoprozesses:

ϕ : R+ → R+ , ist monoton wachsend und


ρ
ϕ(0) = , lim ϕ(u) = 1,
1+ρ u→∞

β
wobei ρ der Sicherheitszuschlag ρ = λµ
− 1 ist.

Definition 3.22 Es sei F eine Verteilungsfunktion mit F (0−) = 0, deren Erwar-


tungswert mF > 0 existiert. Dann heißt die Funktion
( Rx
1
I I mF 0
(1 − FX1 (u)) (du), falls x > 0,
F : R+ → [0, 1], F (x) :=
0, falls x < 0,

integrierte Tailverteilungsfunktion von F .

Bemerkung 3.23

1) F I ist eine Verteilungsfunktion.

42
2) Wir werden die integrierte Tailverteilungsfunktion der Risikoverteilung eines
Portfolios {Xk : k ∈ N} betrachten, d.h.
Z x
I I 1
FX1 : R+ → [0, 1], FX1 (x) := (1 − FX1 (u)) (du),
EX1 0
wobei FX1 die Verteilungsfunktion von PX1 bezeichnet.

Zusammen mit Lemma 3.21 kann mittels der integrierten Tailverteilungsfunktion


FXI 1 die Integralgleichung in Satz 3.20 auf folgender Weise dargestellt werden:
Z
ρ 1
ϕ(u) = + ϕ(u − y) FXI 1 (dy) für alle u > 0.
1 + ρ 1 + ρ [0,u]

Setzt man diese Gleichung in ψ(u) = 1 − ϕ(u) ein, so erhält man


Z
1 I 1
ψ(u) = (1 − FX1 (u)) + ψ(u − y) FXI 1 (dy) für u > 0. (12)
1+ρ 1 + ρ [0,u]

Diese Art von Integralgleichungen nennt man Volterra Integralgleichungen oder Er-
neuerungsgleichungen. Der erste Begriff stammt aus dem Bereich der Theorie von
Integralgleichungen, siehe z.B. [10], letzterer Begriff ist in der Risikotheorie üblich,
siehe z.B. [1]. In dem folgenden Abschnitt betrachten wir diese Integralgleichungen
kurz.

3.2.4 Erneuerungsgleichungen
Definition 3.24 Es seien f : R+ → R eine Funktion und µ ein Borel-Maß auf
(R+ , B(R+ )). Dann heißt die Integralgleichung
Z
z(t) = z(t − s) µ(ds) + f (t) für alle t > 0, (13)
[0,t]

Erneuerungsgleichung.
Falls µ(R+ ) < 1 gilt, so heißt die Erneuerungsgleichung defekt, falls µ(R+ ) = 1
gewöhnlich und falls µ(R+ ) > 1 exzessiv.
Eine Funktion x : R+ → R, die der Gleichung (13) für alle t > 0 genügt, heißt
Lösung der Erneuerungsgleichung.
Gleichungen der Form (13) werden auch als Faltungsintegralgleichungen bezeichnet.
Im allgemeinen werden Maße µ zugelassen, die sowohl negative wie auch positive
Werte annehmen können, (signierte Maße).

Theorem 3.25 Es sei f : R+ → R eine lokal-beschränkte, messbare Funktion und


µ ein lokal-endliches Borel-Maß. Dann existiert eine eindeutige, lokal-beschränkte
Lösung x : R+ → R von (13).

43
Beweis: Siehe [10, Theorem 2.3.5]. 2

In dem folgenden Lemma zitieren wir eines der wichtigsten Resultate der Erneue-
rungstheorie.

Lemma 3.26 (Smith’ key renewal Lemma)


Es seien f1 : R+ → (0, ∞) eine monoton wachsende Funktion und f2 : R+ → R+
eine monoton fallende Funktion, so dass
Z ∞
f1 (s)f2 (s) ds < ∞
0

und
½ ¾
f1 (u1 + u2 )
lim sup : u1 > 0, u2 ∈ [0, h] = 1.
h→0 f1 (u1 )

Falls f (u) = f1 (u)f2 (u) und µ ein Wahrscheinlichkeitsmaß ist, dann gilt für die
Lösung x der Integralgleichung (13):
( R∞
1
mµ 0
f (u) du, falls mµ < ∞,
lim x(u) =
u→∞ 0, sonst,

wobei mµ der Erwartungswert der Verteilung µ bezeichnet.


Beweis: Siehe [18, Lemma 5.4.2]. 2

3.2.5 Asymptotik der Ruinwahrscheinlichkeiten im Cramér’schen Fall


Gemäß (12) erfüllt die Ruinwahrscheinlichkeit ψ eine Erneuerungsgleichung, die je-
doch defekt ist, da durch
Z
1
µ(A) := FXI 1 (dx) für A ∈ B(R+ ),
A 1+ρ

kein Wahrscheinlichkeitsmaß µ definiert wird, denn µ(R+ ) = (1 + ρ)−1 < 1. Um


jedoch trotzdem das asymptotische Verhalten der Ruinwahrscheinlichkeit mittels
Lemma 3.26 bestimmen zu können, multiplizieren wir die Funktion FXI 1 mit einer
Exponentialverteilung, so dass man durch
Z
1
µ̃(A) := erx F I (dx) für A ∈ B(R+ ),
A 1 + ρ X1
ein Wahrscheinlichkeitsmaß erhält. Wesentliche Voraussetzung hierfür ist die Exi-
stenz des Anpassungskoeffizienten.

44
Theorem 3.27 (Cramér-Lundberg Approximation) Im Cramér-Lundberg-Modell sei
die Nettoprofitbedingung erfüllt und es existiere der Anpassungskoeffizient r > 0. Mit
Z
∗ λ ∞ rx
m := xe (1 − FX1 (x)) dx
β 0
gilt für die Ruinwahrscheinlichkeit des klassischen Risikoprozesses,

a) falls m∗ < ∞:
ρ
lim ψ(u)eru = .
u→∞ (1 + ρ)rm∗

b) falls m∗ = ∞:

lim ψ(u)eru = 0.
u→∞

3.2.6 Asymptotik der Ruinwahrscheinlichkeit bei subexponentiellen


Schadensverteilungen
Wesentliche Voraussetzung zur Bestimmung der Asymptotik der Ruinwahrschein-
lickeit im vorangegangenen Abschnitt ist die Existenz des Anpassungskoeffizienten.
Jedoch werden hierdurch heavy-tailed Verteilungen der Risiken ausgeschlossen. In
diesem Abschnitt betrachten wir die Asymptotik der Ruinwahrscheinlichkeit im Fall
von subexponentiell verteilten Risiken im Cramér-Lundberg Modell.
Auch hier basiert das Resultat wieder auf der Eigenschaft der Überlebenswahrschein-
lichkeit gemäß Satz 3.20, Lösung einer Integralgleichung zu sein. Zunächst kann die
Lösung dieser Integralgleichung explizit angegeben werden:

Theorem 3.28 Im Cramér-Lundberg-Modell gilt für die Ruinwahrscheinlichkeit ψ


des klassischen Risikoprozesses:

ρ X 1
ψ(u) = (1 − (FXI 1 )∗k (u)) für alle u > 0.
1 + ρ k=1 (1 + ρ)k

Bemerkung 3.29 Wir nennen eine Verteilungsfunktion subexponentiell, falls die


Verteilung, die durch diese Verteilungsfunktion bestimmt wird, subexponentiell ist.

Theorem 3.30 Im Cramér-Lundberg-Modell gelte die Nettoprofitbedingung. Falls


die Verteilung der Risiken PX1 und deren integrierten Tailverteilungsfunktion sub-
exponentiell sind, dann gilt für die Ruinwahrscheinlichkeit ψ des klassischen Risi-
koprozesses:

ψ(u) 1
lim I
= .
u→∞ 1 − F (u)
X1 ρ

45
Wesentliche Voraussetzung des vorangegangenen Satzes ist die geforderte Eigen-
schaft der Risikoverteilung und deren integrierte Tailverteilungsfunktion, subexpo-
nentiell zu sein. Im folgenden Satz zitieren wir hierfür eine hinreichende Bedingung.

Theorem 3.31 Es sei F eine Verteilungsfunktion auf [0, ∞), für die gilt:
Z x
1 − F (x − y)
lim (1 − F (y)) dy = 2mF ,
x→∞ 0 1 − F (x)

wobei mF das erste Moment von F bezeichnet. Dann ist sowohl F wie auch ihre
integrierte Tailverteilungsfunktion F I subexponentiell.
Beweis: Siehe [18, Theorem 2.5.6]. 2

46
4 Prämienkalkulation
4.1 Nettorisikoprinzip
Ein Versicherungsunternehmen übernimmt gegen Prämienzahlung des Versicherungs-
nehmers ein spezifiziertes Risiko. Ist die Prämienzahlung zu hoch, so ist das Versiche-
rungsunternehmen nicht konkurrenzfähig, ist sie zu niedrig, ist die Ruinwahrschein-
lichkeit zu hoch. Die Kosten eines Versicherungsunternehmens kann man aufteilen
in einen Anteil, der für die Schadenszahlungen, Rückversicherungen u.s.w. reser-
viert ist, und einen Anteil zur Deckung der Kosten von Verwaltung, Personalkosten,
Provisionen u.s.w. Wir werden (meistens) nicht die dynamische Entwicklung des
betrachteten Portfolios berücksichtigen. Deshalb gelte in diesem Abschnitt stets:

S:Ω→R bezeichne ein Risiko.

Das Risiko S kann entweder als der Gesamtschaden eines Portfolios oder aber auch
als ein einziges Risiko interpretiert werden.
Eine Prämie weist jedem Risiko S eine reellwertige Zahl zu. Mit der Bezeichnung

L0 (Ω, A , P ) := {X : Ω → R : X ist A –B(R)–messbar}

erhalten wir folgende Definition:

Definition 4.1 Ein Prämienprinzip ist ein Funktional

p : L0 (Ω, A , P ) → R ∪{∞}.

Die Prämie für ein Risiko S gemäß eines Prämienprinzips p ist p(S).
Die betrachteten Prämienprinzipien werden nur von der Verteilung PS und nicht
von S selbst abhängen, d.h. es hätte ausgereicht, das Prämienprinzip auf der Menge
der Verteilungen zu definieren.
Nimmt ein Prämienprinzip p für ein Risiko S den Wert ∞ an, so heißt S nicht
versicherbar bezüglich p.
Ein naheliegender Ansatz als Prämienprinzip ist, eine Prämie entsprechend dem
Erwartungswertes des Risikos S zu verlangen:

Definition 4.2 Das Nettorisikoprinzip p ist definiert durch

p(S) := E [S] .

Bemerkung 4.3 In Abschnitt 3.2 haben wir bereits gesehen, dass zumindestens im
Cramér-Lundberg-Modell das Nettorisikoprinzip nicht geeignet ist. Denn in diesem
Fall ist die Nettoprofitbedingung nicht erfüllt und der Ruin tritt mit Wahrschein-
lichkeit 1 ein.

47
4.2 Prämienprinzipien auf Grundlage des Nettorisikoprin-
zips
Da das Nettorisikoprinzip in den meisten Modellen in den Ruin führt, wird dieses
um einen proportionaler Zuschlag erhöht:

Definition 4.4 Das Erwartungswertprinzip p ist definiert durch


p(S) := (1 + κ)E [S] für eine Konstante κ > 0.
Die Konstante κ wird Sicherheitszuschlag genannt.
Dieses Prämienprinzip erfordert nur die Kenntnis bzw. Schätzung des Erwartungs-
wertes des Risikos S und ist deshalb einfach anzuwenden. Jedoch berücksichtigt das
Erwartungswertprinzip nicht Schwankungen des Schadens: ist die Varianz Var(S)
sehr groß, wird das Risiko S eventuell deutlich über (1 + κ)E [S] liegen. Bei einer
kleinen Varianz Var(S) erzielt das Versicherungsunternehmen mit hoher Wahrschein-
lichkeit einen Gewinn. Im Extremfall ist Var(S) = 0 und S = E [S] gilt sogar P -f.s.

Definition 4.5 Das Varianzprinzip p ist definiert durch


p(S) := E [S] + δ VarS für eine Konstante δ > 0.
Obwohl das Varianzprinzip Schwankungen berücksichtigt, ist es in dem folgenden
Sinn nicht “fair” gegenüber dem Versicherungsnehmer: denn Abweichungen des Ri-
sikos S unterhalb des Erwartungswertes E [S] entsprechen kleinen Schäden, gehen
jedoch im selben Umfang in das Varianzprinzip ein, wie Abweichungen überhalb des
Erwartungswertes:
Z Z
2
p(S) = E [S] + δ (S − E [S]) dP + δ (E [S] − S)2 dP.
{S>E[S]} {S<E[S]}

Beispiel 4.6
a) Falls S exponentialvereilt zu dem Parameter λ > 0 ist, dann gilt:
1 δ
p(S) = + 2 (Varianzprinzip).
λ λ
b) Falls S gammaverteilt zu den Parametern α, β > 0 ist, dann gilt:
β β
p(S) = +δ 2 (Varianzprinzip).
α α
Um nicht Größen verschiedener Dimensionen zu addieren, wird statt der Varianz
die Standardabweichung genutzt, um die Schwankungen des Gesamtschadens in die
Prämienkalkulation miteinzubeziehen:

Definition 4.7 Das Standardabweichungsprinzip p ist definiert durch



p(S) := E [S] + δ VarS für eine Konstante δ > 0.

48
4.3 Implizit definierte Prämienprinzipien
4.3.1 Nullnutzenprinzip
Der “Nutzen”, dem ein Versicherungsunternehmen durch Übernahme des Risikos S
bei einer Prämie p(S) entsteht, ergibt sich aus dem Wert u + p(S) − S, wobei u die
Anfangsrisikoreserve bezeichnet. Im Folgenden gehen wir davon aus, dass sich dieser
Nutzen durch einen numerischen Wert beziffern lässt.

Definition 4.8 Eine zweimal differenzierbare Funktion v : R → R heißt Nutzen-


funktion (utility function), falls gilt:

v 0 (x) > 0 und v 00 (x) 6 0 für alle x ∈ R .

Oft wird allgemeiner von einer Nutzenfunktion nur gefordert, monoton wachsend
und konkav zu sein.

Beispiel 4.9
a) v(x) := x, d.h. v = Id.

b) v(x) := 1 − e−x .

c) Ist b > 0 eine Konstante, so ist


(
x2
x− 2b
, falls x 6 b,
v(x) := b
2
, falls x > b.

ein Beispiel einer Nutzenfunktion mit Sättigung.


Die Monotonie der Nutzenfunktion garantiert, dass ein zusätzlicher Gewinn zu einem
bestehenden Kapital mit einem höheren Nutzen bewertet wird, als das Kapital ohne
einen Zugewinn. Aufgrund des konkaven Verlaufes wird der Nutzen, der sich durch
einen Gewinn bei einem bereits bestehenden hohen Kapital als geringer angesehen,
als der Nutzen bei demselben Gewinn, jedoch bei einem kleineren Kapital.

Definition 4.10 Es seien u die Anfangsrisikoreserve und v eine Nutzenfunktion.


Das Prämienprinzip p(·) = p(u, ·), für das gilt

v(u) = E [v(u + p(S) − S)] , (14)

heißt Nullnutzenprinzip.
Bei Kalkulation der Prämie gemäß des Nullnutzenprinzips ist bei Übernahme des
Risikos S für das Versicherungsunternehmen keinen anderen Nutzen zu erwarten,
wie falls es das Risiko S nicht übernimmt.

Beispiel 4.11

49
a) Für v = Id erhält man das Nettorisikoprinzip.
b) Für v(x) = 1 − e−ax für ein a > 0 erhält man
1 £ ¤
p(S) = ln E eaS (Nullnutzenprinzip).
a
Dieses Prämienprinzip heißt Exponentialprinzip, das wir uns im folgenden Ab-
schnitt ansehen werden.
Es muss keineswegs eine Funktion v existieren, die der Gleichung (14) genügt. In den
bei uns behandelten Fällen ist das aber stets gewährleistet, falls der entsprechende
Erwartungswert existiert.
Im Allgemeinen hängt das Nullnutzenprinzip von der Anfangsrisikoreserve u ab. In
diesem Fall beeinflusst die Anfangsrisikoreserve die Prämie. Es lassen sich jedoch
auch Nutzenfunktionen wählen, für die das Nullnutzenprinzip unabhängig von der
Anfangsrisikoreserve ist, z.B.
v(x) = a + bx für Konstanten a ∈ R, b > 0,
−bx
oder v(x) = a(1 − e ) für Konstanten a, b > 0.
In vielen Fällen lässt sich das Nullnutzenprinzip zu einer Nutzenfunktion nicht ex-
plizit angeben. Einen Ansatz einer Approximation liefert das folgende Resultat.

Theorem 4.12 Es sei p das Nullnutzenprinzip zu u = 0 und einer Nutzenfunktion


v, deren Taylorentwicklung
v(x) ≈ v(0) + v 0 (0)x + 21 v 00 (0)x2
für x = p(S) − S “vernünftig” ist. Dann gilt
1
p(S) ≈ ES + 2
rV VarS,
v 00 (0)
falls rV := − “ausreichend klein” ist.
v 0 (0)
v 00 (0)
Bemerkung 4.13 Die Konstante rV := − 0 heißt Risikoaversion des Versiche-
v (0)
rers.

4.3.2 Exponentialprinzip
Das Exponentialprinzip ergibt sich als ein Spezialfall des Nullnutzenprinzips durch
Wahl der Nutzenfunktion
v(x) := 1 − e−ax , x ∈ R,
für eine Konstante a > 0. In diesem Fall lässt sich explizit das Nullnutzenprinzip
bestimmen.

50
Definition 4.14 Das Prämienprinzip p mit
1 £ ¤
p(S) = ln E eaS
a
heißt Exponentialprinzip zum Parameter a > 0.
Man beachte, dass zum Exponentialprinzip keine Schäden mit einer heavy-tailed
Verteilung versichert werden können.

Theorem 4.15 Falls E [exp (aS)] < ∞ für alle a > 0 gilt, dann besitzt die Funktion
1 £ ¤
q : [0, ∞) → R, q(a) = ln(E eaS )
a
folgende Eigenschaften:

a) q ist monoton wachsend;

b) lim q(a) = E [S];


a→0

c) lim q(a) = F −1 (1) für F −1 (1) := inf{x ∈ R : F (x) = 1},


a→∞
wobei F die Verteilungsfunktion von S bezeichnet.

Jede beliebige Prämie, die einen Wert zwischen E [S] und F −1 (1) annimmt, kann
gemäß Satz 4.15 sich auch bei geeigneter Wahl des Parameters a aus dem Exponen-
tialprinzip ergeben. Die Prämienzahlung erhöht sich bei wachsendem Parameter a,
der auch Risikoaversion genannt wird. Insbesondere erhält man für a → 0 das Net-
torisikoprinzip. Falls F −1 (1) endlich ist, dann beziffert dieser Wert den maximalen
Gesamtschaden, und das Prämienprinzip

ρ(S) = F −1 (1)

heißt Maximalschadenprinzip.

4.3.3 Schweizer Prinzip


Manchmal sind Prämienprinzipien von Interesse, die nicht von der Anfangsrisikore-
serve abhängen. Dann interpretiert man den Wert S − p(S) als einen Verlust.

Definition 4.16 Eine zweimal differenzierbare Funktion w : R → R heißt Verlust-


funktion (loss function), falls gilt:

w0 (x) > 0 und w00 (x) > 0 für alle x ∈ R .

Die Forderungen an eine Verlustfunktion kann man wie bei der Nutzenfunktion unter
Berücksichtigung der geänderten Perspektive erklären.

51
Bemerkung 4.17
a) Eine Verlustfunktion w ist eine monoton wachsende, konvexe Funktion.
b) Falls v eine Nutzenfunktion ist, dann erhält man durch
w(x) := −v(−x) für alle x ∈ R,
eine Verlustfunktion.

Definition 4.18 Es seien w eine Verlustfunktion und z ∈ [0, 1]. Das Prämienprin-
zip p, für das gilt
w((1 − z)p(S)) = E [w(S − zp(S))] , (15)
heißt Schweizer Prinzip zum Parameter z.
Falls das Versicherungsunternehmen den Anteil zS zu einer Prämie zp(S) rückver-
sichert und zp(S) eine gute Schätzung für zS ist, dann bleibt dem Unternehmen
ein Risiko S − zp(S) zu einer Prämie (1 − z)p(S). Das Schweizer Prinzip fordert,
dass bei entsprechender Gewichtung der zu erwartende Schaden von S − zp(S) der
entsprechenden Prämie entspricht.

Beispiel 4.19
a) Für z = 0 resultiert das Schweizer Prinzip in
E [w(S)] = w(p(S)).

Dieses Prämienprinzip wird Äquivalenzprinzip genannt.


b) Für w(x) = eax und z = 0 entspricht das Schweizer Prinzip dem Exponential-
prinzip.
c) Für z = 1 und v(x) = −w(−x) erhält man das Nullnutzenprinzip mit Nutzen-
funktion v und Anfangsrisikorserve u = 0.

4.3.4 Verlustfunktionenprinzip
Das Eintreten eines Schadens s, d.h. eine Realisierung s des Risikos S, verursacht
dem Versicherungsunternehmen in Abhängigkeit der Prämie einen Verlust. In diesem
Abschnitt verallgemeinern wir den bisherigen Ansatz, und bewerten einen Verlust
in Abhängigkeit des Risikos S und einer möglichen Prämie. Offensichtlich ist die
Prämie wünschenswert, die den auf dieser Weise quantifizierten Verlust minimiert.

Definition 4.20 Für eine Funktion L : R2 → R wird ein Prämienprinzip p, für


das gilt
p(S) = argmin E [L(S, q)] ,
q>0

Verlustfunktionenprinzip genannt.

52
Beispiel 4.21

a) Für L(s, b) = (s − b)2 erhält man p(S) = E [S]. Das Verlustfunktionenprinzip


ist identisch mit dem Nettorisikoprinzip;

b) Für L(s, b) = (eas − eab )2 für ein a > 0 erhält man


1 £ ¤
p(S) = ln E eaS .
a
Das Verlustfunktionenprinzip ist identisch mit dem Exponentialprinzip.

In vielen Fällen lässt sich zu einem Verlustfunktionenprinzip ein Nullnutzenprinzip


finden, so dass beide dasselbe Prämienprinzip erzeugen:

Theorem 4.22 Es seien v eine Nutzenfunktion mit v(0) = 0 und


Z b
L(s, b) := v(t − s) dt.
s

Desweiteren existiere eindeutig das von v erzeugte Nullnutzenprinzip p mit Anfangs-


risikoreserve u = 0. Dann ist das Nullnutzenprinzip p gleich dem von L erzeugten
Verlustfunktionenprinzip.

4.4 Das Percentile-Prinzip


Definition 4.23 Es sei F die Verteilungsfunktion einer Verteilung Q. Dann heißt

F −1 : [0, 1] → R̄, F −1 (y) := inf{x : F (x) > y}

Quantil-Funktion von F .
Existiert die inverse Funktion von F , dann stimmt die Quantil-Funktion mit der
inversen Funktion überein.

Definition 4.24 Es seien FS die Verteilungsfunktion des Risikos S und ε ∈ [0, 1].
Das Percentileprinzip p zum Parameter ε ist definiert durch

p(S) := F −1 (1 − ε).

Für das Percentileprinzip wird die Prämie zu einem vorgegebenen ε ∈ (0, 1) derart
bestimmt, dass die Wahrscheinlichkeit dafür, dass der Schaden S größer als die
Prämie ist, geringer als ε ist.

Beispiel 4.25 Für ε = 0 erhält man das Maximalschadenprinzip.

53
4.5 Eigenschaften von Prämienprinzipien
Sowohl aus theoretischer als auch aus praktischer Sicht sollen Prämienprinzipien be-
stimmte Eigenschaften besitzen. In der Literatur, z.B. [11], [21], werden zahlreiche
Eigenschaften diskutiert, von denen wir einige vorstellen. Es gibt jedoch keine ein-
heitliche Ansicht darüber, nach welchen Kriterien Prämienprinzipien zu beurteilen
sind.

Definition 4.26 Es sei p ein Prämienprinzip.

a) p heißt translationsinvariant, falls für alle c ∈ R gilt:

p(S + c) = p(S) + c für alle Risiken S;

b) p heißt additiv, falls gilt:

p(S + U ) = p(S) + p(U ) für alle unabhängigen Risiken S und U ;

c) p heißt subadditiv, falls gilt:

p(S + U ) 6 p(S) + p(U ) für alle Risiken S und U ;

d) p heißt homogen, falls für alle c ∈ R+ gilt:

p(cS) = cp(S) für alle Risiken S;

e) p heißt erwartungswertübersteigend, falls gilt:

p(S) > E [S] für alle Risiken S;

f) p heißt maximalschadenbegrenzt, falls gilt:

p(S) 6 uPS := inf{x ∈ R : P (S 6 x) = 1} für alle Risiken S;

Translationsinvarianz bedeutet, dass bei Erhöhung des Risikos um einen festen Be-
trag c, die Prämie sich um den selben Betrag erhöht.
Homogenität verhindert eine Arbitragemöglichkeit: denn wäre die Prämie von 2S
größer als zweimal die Prämie von S, dann würde man zweimal S versichern und
dadurch einen Gewinn erzielen.
Wie bei Homogenität liegt bei Nichtvorliegen der Additivität eine (theoretische)
Arbitragemöglichkeit vor. Falls Subadditivität vorliegt, kann ein hohes Risiko nicht
für eine geringere Prämie versichert werden, indem es als zwei oder mehr unterteilte
Risiken versichert wird. Subadditivität ist auch eine offensichtliche Konsequenz des
Ausgleichs im Kollektiv.

54
Die Eigenschaft einer Prämie, erwartungswertübersteigend zu sein, ist eine offen-
sichtliche Forderung. Denn ein Versicherungsunternehmen wird den Ruin nur schwer
vermeiden können, wenn die Prämien unter dem zu erwartenden Schaden liegen. Um-
gekehrt wird auch kein Versicherungsnehmer bereit sein, ein Risiko zu einer Prämie
zu versichern, die über dem maximalen Schaden liegt.
In der folgenden Tabelle fassen wir zusammen, welche Eigenschaften die von uns
betrachteten Prämienprinzipien besitzen.

Theorem 4.27

a b c d e f
Nettorisikoprinzip ja ja ja ja ja ja
Erwartungswertprinzip nein ja ja ja ja nein
Varianzprinzip ja ja nein nein ja nein
Standardabweichungsprinzip ja nein ja ja ja nein
Nullnutzenprinzip ja nein nein nein ja ja
Exponentialprinzip ja ja ja nein ja ja
Schweizer Prinzip nein nein nein nein ja ja
Percentileprinzip ja nein nein ja nein ja
Maximalschadenprinzip ja ja ja ja ja ja

Außer den beiden “extremen” Prämienprinzipen, dem Nettorisikoprinzip und dem


Maximalschadenprinzip, erfüllt keines der vorgestellten Prinzipien alle Eigenschaf-
ten. In der Literatur findet man zahlreiche Diskussionen, welche Kriterien zu bevor-
zugen sind.
Ein anderer, intuitiv naheliegender, Ansatz fordert von einem betrachteten Prämi-
enprinzip, die Eigenschaften nur lokal für eine relevante Familie von Verteilungen
erfüllen zu müssen.

Beispiel 4.28 Es sei F eine Menge von Verteilungen. Dann gilt für das Erwar-
tungswertprinzip p mit einem Sicherheitszuschlag κ:
p(S) 6 uPS = inf{x ∈ R : P (S 6 x) = 1} für alle Risiken S mit PS ∈ F ;

falls gilt:
½ ¾
uPS
1 + κ 6 inf : PS ∈ F .
E [S]
Das Erwartungswertprinzip p ist lokal maximalschadenbegrenzt.

55
5 Credibility Prämie
Einen anderen Ansatz zur Berechnung der Prämie als im vorigen Kapitel liegt der
Credibility-Theorie zugrunde. Die Anzahl und Höhen der verursachten Schäden ei-
nes Risikos der vergangenen Jahren gewähren eine Information, die zum Zeitpunkt
des Vertragabschlusses nicht zur Verfügung standen. Diese Information lässt einen
gewissen Rückschluß auf die Verteilung des entsprechenden Risikos zu und es ist
naheliegend, diese Kenntnis in eine zukünftige Prämienberechnung miteinfließen zu
lassen.
Dieses Kapitel lehnt sich an die entsprechenden Abschnitte in der Monographie von
Mikosch [16] an.

5.1 Heterogenes Modell


Wir betrachten ein Portfolio {X1 , . . . , Xr } von Risiken. Für jedes Risiko Xi bezeichne
(xi,1 , . . . , xi,ni ) die Schäden der letzten ni Jahre. Diese Werte interpretieren wir als
Realisierungen von nichtnegativen Zufallsvariablen (Xi,1 , . . . , Xi,ni ). Jedem Risiko
Xi wird ein zufälliger Parameter Θi zugeordnet, der die individuellen Eigenschaften
des i-ten Risikos spezifiziert. Die Zufallsvariable Θi wird Strukturparameter genannt.

Definition 5.1 Es seien Θ1 , . . . , Θr Zufallsvariablen und (Xi,t )nt=1


i
eine Folge von
Risiken für alle i = 1, . . . , r. Es wird

(Θ1 , (X1,t )nt=1


1
), . . . , (Θr , (Xr,t )nt=1
r
)

heterogenes Modell genannt, falls gilt:

a) die Zufallsvariablen Θ1 , . . . , Θr sind unabhängig und identisch verteilt.

b) die Zufallsvariablen

(Θ1 , (X1,t )nt=1


1
), . . . , (Θr , (Xr,t )nt=1
r
)

sind unabhängig verteilt;

c) für alle i = 1, . . . , r sind die Zufallsvariablen

Xi,1 , . . . , Xi,ni

bedingt unter σ(Θ1 , . . . , Θr ) unabhängig und identisch verteilt.

d) die zweiten Momente existieren:


2 2
E |Θi | < ∞, E |Xi,t | < ∞ für alle t = 1, . . . , ni , i = 1, . . . , r

56
Es stellt sich die Frage, wie eine Prämie für das i-te Risiko in diesem Modell auf
Basis der vergangenen Schadenverläufe berechnet werden kann. Wir beschränken
uns auf einen Ansatz, der auf dem Nettoprämienansatz des letzten Kapitels basiert:

µ(Θi ) := E [Xi,1 |Θi ] für i = 1, . . . , r.

Außer dem Nettoprämienansatz werden auch weitere Prämienprinzipien des vergan-


genen Kapitels in der Credibility-Theorie zur Modellierung benutzt, siehe z.B. [11].
Wir beschränken uns hier jedoch auf das Nettoprämienprinzip.
Zunächst halten wir einige Eigenschaften für das heterogene Modell fest:

Bemerkung 5.2
a) Die Risiken Xi,1 , . . . , Xi,ni sind aufgrund der Voraussetzung d) identisch ver-
teilt:

P (Xi,t 6 x) = E [P (Xi,t 6 x | Θi )] = E [P (Xi,1 6 x | Θi )]

für alle t = 1, . . . , ni .

b) Die Risiken Xi,1 , . . . , Xi,ni sind nicht unabhängig:

Cov(Xi,s , Xi,t ) = Var[µ(Θi )] für s 6= t.

c) Allen Risiken unterliegt dieselbe Verteilung des Strukturparameters, jedoch


hängt der individuelle Schadenverlauf des i-ten Risikos von der Realisierung
Θi (ω) ab.
Da wir E |Θi |2 < ∞ voraussetzen, können wir µ als eine Funktion der folgenden
Form betrachten:

µ : L2 (Ω, A , P ) → L2 (Ω, A , P ), µ(Y ) = E [Xi,1 |Y ] .

Insbesondere ist µ(Θi ) ein Funktionswert in Abhängigkeit von Θi . Da wir jedoch


nur Realisierungen der Zufallsvariablen Xj,t für t = 1, . . . , nj und allen j = 1, . . . , r
kennen, suchen wir eine Approximation von µ(Θi ) durch eine Zufallsvariable µ̂i , die
eine Funktion der Schadenhistorien

X := (X1,1 , . . . , X1,n1 , X2,1 , . . . , Xr,nr )

ist. Definieren wir

B := σ(B 1 ∪ · · · ∪ B r ) und B i := σ(Xi,1 , . . . , Xi,ni ),

dann ist gemäß Lemma B.9 eine Funktion µ̂i : Ω → R genau dann eine Funktion
von allen Xi,t für t ∈ N und i = 1, . . . , r, falls gilt

µ̂i : Ω → R ist (B −σ(R̄))–messbar.

57
Es ist jetzt naheliegend von unserer Schätzung µ̂i ebenfalls zu fordern, dass ihr
zweites Moment E |µ̂i |2 endlich ist. Dann bietet sich zur Quantifizierung des Fehlers
der Approximation die Norm in L2 (Ω, A , P ) an. Da B ⊆ A erhalten wir:
ρ : L2 (Ω, B, P ) → L2 (Ω, A , P ), ρ(Y ) := E |µ(Θi ) − Y |2 .
Bei Schätzung von µ(Θi ) durch eine Zufallsvariable Y wird ρ(Y ) als der mittlere
quadratische Fehler bezeichnet.
Unsere Aufgabe lässt sich jetzt folgendermaßen formulieren:
gesucht ist eine reellwertige Zufallsvariable µ̂i ∈ L2 (Ω, B, P ), so dass gilt:
ρ(µ̂i ) = min{ρ(Y ) : für alle Y ∈ L2 (Ω, B, P )}. (16)
Falls eine P -f.s. eindeutige Lösung existiert, nennen wir diese Credibility-Prämie
aufgrund der Schadenhistorie (Xi,1 , . . . , Xi,ni ).

Theorem 5.3 Im heterogenen Modell existiert eine P -f.s. eindeutige Lösung µ̂i von
(16). Diese Lösung µ̂i ist gegeben durch:
µ̂i = E [ µ(Θi ) | B i ] P -f.s.,

mit einem mittleren quadratischen Fehler

ρ(µ̂i ) = E [Var(µ(Θi ) | B i )] .
Obwohl wir über allen Funktionen, die B-messbar sind, minimieren, ist der Schätzer
µ̂i für µ(Θi ) nur eine Funktion von Xi,1 , . . . , Xi,ni bzw. (B i − B(R))–messbar. Das
bedeutet, dass die Schadenverläufe der anderen Risiken des Portfolios keine Rolle bei
der Prämienberechnung für das i-te Risiko spielen. Dies liegt an der Voraussetzung
b) in der Definition 5.1.
Im folgenden Lemma verzichten wir auf den Index i. Desweiteren bezeichne δ n das
Zählmaß auf Nn0 und λk das Lebesguemaß auf (Rk , B(Rk )).

Lemma 5.4 Im heterogenen Modell besitze der Zufallsvektor (X, Θ) mit X :=


(X1 , . . . , Xn ) eine gemeinsame Dichte bezüglich eines Produktmaßes µ × ν, wobei
µ × ν entweder dem Maß δ n × λ oder λn × λ entspricht. Desweiteren bezeichne
fΘ die Dichte von Θ bezüglich λ und h : R → R sei eine messbare Funktion mit
E |h(Θ)| < ∞.
1) falls µ × ν = δ n × λ, dann gilt für x = (x1 , . . . , xn ) ∈ Nn0 :
E [h(Θ)|X] = E [h(Θ)|X = x] |x=X ,

wobei

E [h(Θ)|X = x]
Z
1
= h(y)fΘ (y)P (X1 = x1 |Θ = y) · · · P (Xn = xn |Θ = y) dy,
P (X = x)
für alle x mit P (X = x) > 0.

58
2) falls µ × ν = λn × λ, dann gilt für x = (x1 , . . . , xn ) ∈ Rn :

E [h(Θ)|X] = E [h(Θ)|X = x] |x=X ,

wobei
Z
1 fX1 ,Θ (x1 , y) fX ,Θ (xn , y)
E [h(Θ)|X = x] = h(y)fΘ (y) ··· n dy
fX (x) {fΘ >0} fΘ (y) fΘ (y)

für alle x mit fX (x) > 0. Es bezeichnet fX die Dichte von X bezüglich λ sowie
fXi ,Θ die gemeinsame Dichte von (Xi , Θ) bezüglich λ2 .

Beispiel 5.5 Der Strukturparameter Θ sei Γ(α, β)–verteilt und es gelte

θk −θ
P (Xt = k | Θ = θ) = e für k ∈ N0 , θ > 0,
k!
und t = 1, . . . , n. Da E [Xt | Θ = θ] = θ erhält man

µ(Θ) = E [Xt | Θ] = Θ.

Eine einfache Rechnung ergibt für x = (x1 , . . . , xn )


Z
C(x) Pn
E [Θ | X = x] = y y α+ j=1 xj −1 e−(β+n)y dy
x1 ! · · · xn !
für eine Konstante C(x), die nur von x abhängt. Aus Lemma 5.4 folgt:
P
α + nk=1 Xk
µ̂ = E [ µ(Θ) | X1 , . . . , Xni ] =
β+n

mit einem mittleren quadratischen Fehler

α 1
ρ(µ̂) =
ββ+n

5.2 Bühlmann Modell


In vielen Situationen ist es nicht möglich, den Schätzer µ̂i gemäß Satz 5.3 zu be-
stimmen. Man vereinfacht daher das Problem, indem nicht mehr der Schätzer ge-
sucht wird, der den mittleren quadratischen Fehler unter allen Zufallsvariablen Y
in L2 (Ω, B, P ) minimiert, sondern nur noch unter allen linearern Zufallsvariablen ,
d.h. die in dem Raum

L := L (Ω, B) := {Z : Ω → R : Z = a0 + aT X, a0 ∈ R, a ∈ Rm } (17)

liegen mit m := n1 + · · · + nr . Offensichtlich gilt L ⊆ L2 (Ω, B, P ).

59
Unsere Aufgabe lässt sich jetzt folgendermaßen formulieren:
gesucht ist eine reellwertige Zufallsvariable µ̂∗i ∈ L (Ω, B), so dass gilt:
2 2
E |µ(Θi ) − µ̂∗i | = min{E |µ(Θi ) − Z| : für alle Z ∈ L (Ω, B)} (18)

Falls eine P -f.s. eindeutige Lösung existiert, nennen wir diese linearisierte Credibility-
Prämie aufgrund der Schadenhistorie (Xi,1 , . . . , Xi,ni ).
Da wir das Problem vereinfacht haben, können wir das Modell etwas verallgemei-
nern.

Definition 5.6 Es seien Θ1 , . . . , Θr Zufallsvariablen und (Xi,t )nt=1


i
eine Folge von
Risiken für alle i = 1, . . . , r. Es wird

(Θ1 , (X1,t )nt=1


1
), . . . , (Θr , (Xr,t )nt=1
r
)

Bühlmann Modell genannt, falls gilt:


a) die Zufallsvariablen Θ1 , . . . , Θr sind unabhängig und identisch verteilt.

b) die Zufallsvariablen

(Θ1 , (X1,t )nt=1


1
), . . . , (Θr , (Xr,t )nt=1
r
)

sind unabhängig;

c) für alle i = 1, . . . , r sind die Zufallsvariablen

Xi,1 , . . . , Xi,ni

bedingt unter σ(Θ1 , . . . , Θr ) unabhängig mit P -f.s. denselben bedingten Vari-


anzen und Erwartungswerten:

µ(Θi ) := E [Xi,t | Θi ] v(Θi ) := VarXi,t | Θi P -f.s.

d) die zweiten Momente existieren:


2 2
E |Θi | < ∞, E |Xi,t | < ∞ für alle t = 1, . . . , ni , i = 1, . . . , r

Wir führen noch folgende Notationen ein:

µ := E [µ(Θi )] , λ := Varµ(Θi ), ϕ := E [v(Θi )] .

Wegen der Bedingung a) hängen diese diese Größen tatsächlich nicht von i ab. Wir
fassen noch einige weitere einfache Eigenschaften im folgenden Lemma zusammen:

Lemma 5.7 Im Bühlmann Modell gelten für i = 1, . . . , r und s, t = 1, . . . , ni :


a) E [Xi,t ] = µ und VarXi,t = ϕ + λ;

60
(
λ + ϕ, für t = s,
b) Cov(Xi,t , Xi,s ) = ;
λ, für t 6= s,
(
λ, für i = j,
c) Cov(µ(Θi ), Xj,t ) = .
0, für i 6= j

Der folgende Satz gibt nun in expliziter Form den Schätzer µ̂∗i an, der den minimalen
quadratischen Fehler unter allen anderen Zufallsvariablen in L besitzt.

Theorem 5.8 Im Bühlmann Modell existiert eine P -f.s. eindeutige Lösung µ̂∗i von
(18). Diese Lösung µ̂∗i ist gegeben durch:
ni
c X ni λ
µ̂∗i = (1 − c)µ + Xi,k für c := .
ni k=1 ϕ + ni λ

Der mittlere quadratische Fehler für µ̂∗i ergibt sich als:

ρ(µ̂∗i ) = (1 − c)λ.

Wie zuvor bei der allgemeinen Credibility Prämie im heterogenen Modell hängt die
Lösung µ̂∗i von (18) gemäß Satz 5.8 nur von dem i-ten Schadenverlauf und nicht von
allen Schadenverläufe ab.
Für den Beweis von Satz 5.8, siehe auch [16], definieren wir:

Y := (Y1 , . . . . . . , Ym )
:= (X1,1 , . . . , X1,ni , . . . , Xr,1 , . . . , Xr,nr ),
| {z } | {z }
:=X1 :=Xr

mit m := n1 + · · · + nr . Zur Vereinfachung der Notationen definieren wir noch die


Zufallsvariable

Λ := µ(Θi )

für festes i ∈ {1, . . . , r} und führen folgende Notationen für einige Momente und
Kovarianzen ein:
   
Y1 E [Y1 ]
   
Y :=  ...  , E [Y ] :=  ...  ,
Ym E [Ym ]

   
Cov(Λ, Y1 ) Cov(Y1 , Y1 ) . . . Cov(Y1 , Ym )
 ..   .. .. 
ΣΛ,Y :=  .  ΣY :=  . ... . .
Cov(Λ, Ym ) Cov(Y1 , Y1 ) . . . Cov(Y1 , Ym )

61
Das folgende Resultat gilt für einen beliebigen Zufallsvektor Y, ohne dass dieser im
Zusammenhang mit dem Bühlmann Modell stehen muss. Um das Resultat entspre-
chend formulieren zu können, führen wir noch den Raum
L (Ω, Y) := {Z : Ω → R : Z = a0 + aT Y, a0 ∈ R, a ∈ Rn }
ein, der offensichtlich identisch zu dem in (17) definierten Raum ist. Jedoch können
wir jetzt den folgenden Satz formulieren, ohne auf das Bühlmann Modell Bezug zu
nehmen.

Theorem 5.9 Es seien Λ, Y1 , . . . , , Ym Zufallsvariablen mit E |Λ|2 < ∞ und


2
E |Yi | < ∞ für i = 1, . . . , m sowie Y := (Y1 , . . . , Ym )T . Desweiteren bezeichne
(a0 , a)T ∈ R × Rm eine beliebige Lösung von
a0 = E [Λ] − aT E [Y ] ,
ΣTΛ,Y = aT ΣY .
Dann gelten für die Zufallsvariable
Ŷ := a0 + aT Y
folgende Aussagen:
a) der mittlere quadratische Fehler von Ŷ ist
¯ ¯2
¯ ¯
E ¯Λ − Ŷ ¯ = Var(Λ) − aT ΣY a

und die rechte Seite hängt nicht von der spezielen Wahl (a0 , a) ab.
b) für alle Z ∈ L (Ω, Y) gilt:
¯ ¯2
¯ ¯ 2
E ¯Λ − Ŷ ¯ 6 E |Λ − Z| .

c) falls det ΣY 6= 0, dann ist


Ŷ = E [Λ] + Σ−1 −1
Λ,Y ΣY (Y − E [Y ])

die P -f.s. eindeutige Zufallsvariable in L (Ω, Y), für die gilt:


¯ ¯2 © ª
¯ ¯ 2
E ¯Λ − Ŷ ¯ = min E |Λ − Z| : für alle Z ∈ L (Ω, Y) .

Beispiel 5.10 Berechnen wir für das Beispiel 5.5 die linearisierte Credibility Prä-
mie, erhalten wir:
α
µ = E [Θ] = ,
β
α
λ = VarΘ = 2 ,
β
α
ϕ = E [VarX1 | Θ] = .
β

62
Man erhält somit:
µ ¶ n
∗ n n 1X
µ̂ = 1− E [Θ] + Xk .
β+α β + α n k=1

Dies entspricht gerade der (allgemeinen) Credibility Prämie, wie in Beispiel 5.5 be-
rechnet.

63
6 Simulation
In vielen Situationen kann die Verteilung des Gesamtschadens und erst recht die
Ruinwahrscheinlichkeit für ein Portfolio nicht explizit berechnet werden. Desweite-
ren finden in der Praxis komplizierte Modelle Anwendung, die analytisch nicht hand-
habbar sind. In solchen Situationen können Simulationen eingesetzt werden. Dabei
werden auf Computern zufällige Zahlen erzeugt, die z.B. als Schäden interpretiert
werden. Mit diesen Zahlen können neue Modelle virtuell getestet oder statistisch
ausgewertet werden.
In diesem Kapitel werden wir Algorithmen vorstellen, um Risikoprozesse und Ruin-
wahrscheinlichkeiten zu simulieren.

6.1 Simulation von Zufallszahlen


Viele statistische oder mathematische Computerprogramme beinhalten Funktionen
zur Erzeugung von Zufallszahlen, die gemäß relevanten Verteilungen verteilt sind.
Jedoch ist man schnell mit der Notwendigkeit konfrontiert, Zufallsgrößen einer Ver-
teilung simulieren zu müssen, die unbekannt ist bzw. deren Simulation nicht bereit-
gestellt wird.
Ein Computer kann als deterministische Maschine sicherlich keine Zufallszahlen er-
zeugen. Es gibt jedoch verschiedene Verfahren, die ausgehend von einer ersten Zahl,
dem sogenannten Keim (seed), eine deterministische Konstruktion einer Folge von
Zahlen angeben, die mehr oder weniger gut als Realsierung einer Gleichverteilung
interpretiert werden können. Diese Zahlen nennt man Pseudo-Zufallszahlen. Da die
Folge der Zahlen nur vom Wert des Keims abhängt, erhält man bei derselben Wahl
des Keims dieselbe Folge von Zahlen, wodurch die Wiederholung einer Simulation
z.B. unter abgeänderten Bedingungen mit denselben Zahlen möglich ist. In den mei-
sten Programmen ist dem Nutzer überlassen, ob er einen Keim angibt. Wenn kein
Keim angegeben wird, dann wird eine Zahl “zufällig” ausgewählt, z.B. der Wert der
Nanosekunde, in dem das Programm gestartet wurde.
Die Anzahl der Zahlen, die durch solch eine Konstruktion für alle erlaubten Keime
erhalten werden können, ist endlich. Die normierten Zahlen werden als die Simula-
tion einer auf [0, 1] gleichverteilten Zufallsvariablen interpretiert.
Die meisten Generatoren von Zufallszahlen sind von der folgenden Form:

Beispiel 6.1 Ausgehend vom Keim X0 definiert man

Xk+1 := aXk + c mod m für k ∈ N,

für Konstanten a, c, m ∈ N. Dabei wird m sehr groß gewählt. Die Zahlen Xm i+1

werden als Realisationen von auf [0, 1] gleichverteilten Zufallszahlen interpretiert.


Man beachte, dass die Qualität der so erzeugten Pseudo-Zufallszahlen sehr stark
von der Wahl der Konstanten a und m abhängen.

64
Beispiel von zwei Folgen X0 , X1 , . . . für sehr kleine Zahlen m und a:

m = 13, a = 2, c = 0 : 1, 2, 4, 8, 3, 6, 12, 11, 9, 5, 10, 7, 1;


m = 13, a = 4, c = 0 : 1, 4, 3, 12, 9, 10, 1 oder 2, 8, 6, 11, 5, 7, 2.

Wir gehen im Folgenden davon aus, dass uns eine ausreichend gute Folge von Reali-
sierungen von unabhängigen, auf [0, 1] gleichverteilten Zufallsvariablen zur Verfügung
stehen. Das folgende Resultat ist Basis von vielen Algorithmen zur Erzeugung von
Zufallszahlen.

Korollar 6.2 Es seien F eine Verteilungsfunktion mit Quantifunktion F −1 und U


eine auf [0, 1]-gleichverteilte Zufallsvariable. Dann ist F −1 (U ) eine Zufallsvariable
mit Verteilungsfunktion F .
Der Umkehr-Algorithmus zur Erzeugung einer Zufallsvariable Z mit der Verteilungs-
funktion F gestaltet sich dann in folgender Form:

(1) erzeuge U ∼ R[0, 1];

(2) gib Z := F −1 (U ) zurück;

Beispiel 6.3 Die Paretoverteilung besitzt die Dichte

f : R → R, f (x) = aba x−(a+1) 1[b,∞) (x)

für Parameter a, b > 0. Falls U eine auf [0, 1] gleichverteilte Zufallsvariable ist, dann
ist bU −1/a paretoverteilt zu den Parametern a und b
Für viele Verteilungen kann die Quantilfunktion nicht explizit angegeben werden.
Dann kann der Umkehr-Algorithmus nicht angewandt werden oder ist nicht effizi-
ent. Ein anderes Verfahren zur Erzeugung einer Zufallsvariablen einer bestimmten
Verteilung mit einer Dichte ist das Verwerfungsverfahren von John v. Neumann.
Desweiteren kann man für viele Verteilungen effiziente Algorithmen durch Ausnut-
zen spezieller Eigenschaften der Verteilungen erhalten. Viele Verfahren findet man
z.B. in den Monographien [15] und [17]. Als ein Beispiel erwähnen wir die folgende
Methode zur Erzeugung von zwei unabhängigen, standard normalverteilten Zufalls-
variablen.

Beispiel 6.4 (Box-Muller Methode) Wir gehen zunächst den umgekehrten Weg
und betrachten zwei unabhängige, standardnormalverteilte Zufallsvariablen X und
Y . Geht man zu den Polarkoordinaten (R, Θ) des zufälligen Vektors (X, Y ) über,
so kann man leicht nachweisen, dass R und Θ unabhängig sind und die folgenden
Verteilungen besitzen:

R2 ∼ exp(0.5), Θ ∼ R[0, 2π).

65
Aus den Polarkoordinaten (r, ϕ) erhält man die kartesische Koordinaten mittels
folgender Abbildung zurück:
µ ¶ µ ¶
2 2 r r cos ϕ
G:R →R , G := .
ϕ r sin ϕ
Damit können wir folgenden Algorithmus formulieren, um zwei unabhängige, stan-
dardnormalverteilte Zufallsvariablen X und Y zu erhalten:
(1) erzeuge zwei unabhängige, auf [0, 1] gleichverteilte Zufallsvariablen U und V ;

(2) definiere
p
R := −2 log U , Θ := 2πV.

(3) gebe folgende Zufallsvariablen zurück:

X := R cos Θ, Y := R sin Θ.

6.2 Simulation von Risikoprozessen


In diesem Abschnitt beschäftigen wir uns mit der Simulation von Risikoprozessen,
wie wir sie in Kapitel 3 eingeführt haben:

R = (R(t) : t > 0), mit R(t) = u + βt − SN (t) ,

wobei N = (N (t) : t > 0) einen Zählprozess und SN (t) den Gesamtschaden eines
Portfolios {Xk : k ∈ N} von unabhängigen, identisch verteilten Risiken bezeichnet.
Für den Geamtschaden der Form

 N (t)
X X , falls N (t) > 0,

k
SN (t) :=

 k=1
0, falls N (t) = 0,

nehmen wir wie üblich an, dass der Zählprozess N und die Risiken Xk unabhängig
sind. Deshalb können diese Zufallsvariablen getrennt voneinander simuliert werden
und man kann den Risikoprozess R(t) während der Zeit [0, T ] durch folgenden Al-
gorithmus simulieren:
(1) setze T0 = 0, R(0) = u;

(2) wiederhole folgende Schritte für k = 1, 2, . . . bis Tk > T :

(i) erzeuge Wk gemäß der Verteilung der Wartezeiten von N ;


(ii) setze Tk = Tk−1 + Wk ;
(iii) erzeuge Xk gemäß der Verteilung der Risiken;

66
(iv) setze
(
R(Tk−1 ) + β(t − Tk−1 ), falls t ∈ (Tk−1 , Tk ),
R(t) =
R(Tk−1 ) + βWk − Xk , falls t = Tk ;

(3) gebe (R(t) : t ∈ [0, T ]) zurück.

Aus diesem Algorithmus erhält man einfach den Spezialfall eines Poissonprozesses:

Beispiel 6.5 Um einen Poissonprozess N = (N (t) : t > 0) der Intensität λ bis zur
Zeit T > 0 zu simulieren, kann man den folgenden Algorithmus nutzen:

(1) setze T0 = 0, N (0) = 0;

(2) wiederhole folgende Schritte für k = 1, 2, . . . bis Tk > T :

(i) erzeuge eine exponentialverteilte Zufallsvariable Wk zum Parameter λ;


(ii) setze Tk = Tk−1 + Wk ;

X
(3) setze N (t) := 1{Tk 6t} für t ∈ [0, T ]
k=1

Für andere Verfahren zur Simulation von Poissonprozessen siehe auch [17].
Eine Verallgemeinerung des Poissonprozesses ist der sogenannte Erneuerungspro-
zess. Dies ist ein Zählprozess, für den die Wartezeiten W1 , W2 , . . . als unabhängig
und identisch verteilt vorausgesetzt werden. Auch solch ein Prozess kann mittels des
Algorithmus in Beispiel 6.5 simuliert werden, indem die Zufallsvariable W entspre-
chend der vorausgesetzten Verteilung simuliert wird.

6.3 Simulation der Ruinwahrscheinlichkeit


In diesem Abschnitt stellen wir die sogenannte Monte-Carlo-Simulation der Ruin-
wahrscheinlichkeit eines Risikoprozesses mit Anfangsrisikoreserve u vor. Wir werden
nur das Cramér-Lundberg-Modell betrachten.
Es bezeichne stets {Xk : k ∈ N} das zugrundeliegende Portfolio von unabhängigen,
identisch verteilten Risiken mit Verteilungsfunktion FX1 . Der Risikoprozess (R(t) :
t > 0) ist definiert durch

R(t) := u + βt − SN (t) für t > 0.

Die Ruinwahrscheinlichkeit ψ ist definiert durch

ψ(u) := P (Q(u) < 0) mit Q(u) = inf{u + βt − SN (t) : t > 0}.

67
6.3.1 Monte-Carlo Simulation
Die klassische Monte-Carlo Simulation bezeichnet die approximative Näherung eines
Wertes für den Erwartungswert E [Y ] einer Zufallsvariablen Y durch Realisierungen
von n unabängigen Zufallsvariablen Y1 , . . . , Yn mit der Verteilung PY . Mittels des
starken Gesetzes der großen Zahlen schließt man:
n
1X
Ȳn := Yk → E [Y ] P -f.s. für n → ∞.
n k=1

Wir bezeichnen Yk als klassische Monte-Carlo-Simulation für E [Y ] und die Zufalls-


variable Ȳn als klassischer Monte-Carlo-Schätzer für E [Y ]. Die Varianz des Monte-
Carlo-Schätzers Ȳn ergibt sich zu:
1
VarȲn = VarY. (19)
n
Um die Varianz des Monte-Carlo-Schätzers zu reduzieren, werden wir statt Simu-
lationen von Zufallsvariablen mit derselben Verteilung wie Y auch Simulationen
von unabhängigen Zufallsvariablen X1 , . . . , Xn mit E [Y ] = E [X1 ] und identischer,
jedoch zu PY verschiedener, Verteilung betrachten. Denn es gilt auch hier:
n
1X
X̄n := Xk → E [Y ] P -f.s. für n → ∞.
n k=1

Die Zufallsvariablen Xk nennen wir Monte-Carlo-Simulation für E [Y ] und die Sum-


me X̄n nennen wir Monte-Carlo-Schätzer für E [Y ]. Offensichtlich besitzt X̄n die
Varianz:
1
VarX̄n = VarX1 . (20)
n
Beispiel 6.6 (Simulation der Ruinwahrscheinlichkeit in endlicher Zeit) Die Monte-
Carlo-Methode erlaubt unmittelbar eine Simulation der Ruinwahrscheinlichkeit in
endlicher Zeit. Bezeichnet R = (R(t) : t > 0) den Risikoprozess, dann definiert man
die Zufallsvariable

Y := 1{QT <0} für QT := inf R(t). (21)


t∈[0,T ]

Mit den Algorithmen des Abschnittes 6.2 können wir den Risikoprozess R in dem
endlichen Zeitintervall [0, T ] simulieren und damit durch eine klassische Monte-
Carlo-Simulation eine Näherung für E [Y ] = P (QT < 0) erhalten. Jedoch ist auf
dieser Weise keine klassische Monte-Carlo-Simulation der Ruinwahrscheinlichkeit in
unendlicher Zeit, wir sie in Abschnitt 3 betrachtet haben, möglich. Denn wir können
den Risikoprozess R nicht in unendlicher Zeit simulieren.

68
Beispiel 6.7 Monte-Carlo-Simulationen lassen sich auch zur Schätzung von Inte-
gralen der Form
Z 1
I1 := g(x) dx
0

verwenden. Für eine auf [0, 1] gleichverteilte Zufallsvariable U gilt E [g(U )] = I1 .


Sind U1 , . . . , Un unabhänigige, auf [0, 1] gleichverteilte Zufallsvariablen, erhält man
den klassischen Monte-Carlo-Schätzer
n
1X
g(Uk ).
n k=1

Allgemeiner können auf dieser Weise Integrale der Form


Z
I2 := h(x)f (x) dx
R

mit einer Wahrscheinlichkeitsdichte f geschätzt werden. Hierzu wird eine Monte-


Carlo-Simulation für E [h(X)] ausgeführt, wobei X eine Zufallsvariable mit Dichte
f ist.
Insbesondere wird die Monte-Carlo-Simulation zur Schätzung von hoch dimensiona-
len Integralen genutzt.
Um die Varianz (19) der klassischen Monte-Carlo-Simulation zu verringern, stellen
wir einige varianzreduzierende Methoden vor.
bedingte Monte-Carlo-Simulation: Es seien X eine Monte-Carlo-Simulation für
Y mit E [X] = E [Y ] und Z eine weitere Zufallsvariable, die gleichzeitig simuliert
werden kann. Dann ist

X 0 := E [X | Z]

ebenfalls eine Monte-Carlo-Simulation für E [Y ], denn es gilt:

E [X 0 ] = E [E [X | Z]] = E [X] = E [Y ] .

Desweiteren besitzt X 0 geringere Varianz als X:

VarX 0 = VarE [X | Z] 6 VarE [X | Z] + E [VarX | Z] = VarX.

Importance Sampling: Diese Methode basiert auf der Idee, den “wichtigen” Wer-
ten von Y größeres Gewicht zu geben.
Die Zufallsvariable Y sei auf (Ω, A , P ) definiert und besitze die Verteilung PY .
Zur Simulation von E[Y ] = EP [Y ] werden in der klassischen Monte-Carlo-Methode
unabhängige Zufallsvariablen Yk auf demselben Wahrscheinlichkeitsraum bezüglich
desselben Wahrscheinlichkeitsmaßes P simuliert. Beim Importance Sampling werden
die Zufallsvariablen Yk jedoch bezüglich eines anderen Wahrscheinlichkeitsmaßes Q

69
simuliert und es wird von einer weiteren Zufallsvariablen Z ausgegangen, so dass
gilt
Z Z
EP [Y ] := Y dP = ZY dQ =: EQ [ZY ].

Es werden die Zufallsvariablen (Z1 , Y1 ), . . . , (Zn , Yn ) gemäß des Wahrscheinlichkeits-


maßes Q simuliert und
n
1X
Ỹn := Zk Yk
n k=1

als Monte-Carlo-Schätzer für E[Y ] genutzt. Es gilt dann

lim Ỹn = EQ [ZY ] = EP [Y ] Q-f.s.


n→∞

Als Varianz erhält man


1 1¡ ¢
VarQ [Ỹn ] = VarQ [ZY ] = EQ [Z 2 Y 2 ] − (EP [Y ])2 .
n n
Mit der Wahl Z = EP [Y ] (Y )−1 würde man sogar die Varianz 0 erhalten, jedoch
setzt dies die Kenntnis von EP [Y ] voraus, das gerade der Wert ist, den wir simulieren
wollen.
Allgemein kann aber je nach Wahl der Zufallsvariablen Z eine Varianzreduktion
erzielt werden.

Beispiel 6.8 Es sei Ω = R und X(ω) = ω eine Zufallsvariable auf dem Wahrschein-
lichkeitsraum (Ω, B(R), P ). Das Wahrscheinlichkeitsmaß P besitze die Dichte f . Für
eine meßbare Funktion ϕ : R → R suchen wir eine Approximation von E[Y ] mit
Y := ϕ(X). Für eine beliebige Dichte g definiert man die Zufallsvariable
R Z(ω) :=
f (X(ω))/g(X(ω)) sowie das Maß Q auf (Ω, B(R)) durch Q(A) := A g(x) dx für
alle A ∈ B(R). Falls die Menge {ω : g(ω) = 0} eine P -Nullmenge ist, dann gilt
Z
f (X(ω))
EQ [ZY ] = EQ [Zϕ(X)] = ϕ(X(ω)) Q(dω)
Ω g(X(ω))
Z
f (ω)
= ϕ(ω)g(ω) dω
Ω g(ω)
Z
= f (ω)ϕ(ω) dω = EP [ϕ(X)] = EP [Y ].

Durch unabhängige Simulationen Z1 , . . . , Zn von Z und X1 , . . . , Xn bezüglich der


Verteilung Q erhält man den Monte-Carlo-Schätzer
n
1X
Ỹn := Zk Yk → EP [Y ] Q-f.s.
n k=1

70
Als Varianz ergibt sich
Z µ ¶2
1 f (x)
Var[Ỹn ] = − EP [Y ] g(x) dx.
n R g(x)
Je nach Wahl der Funktion g kann diese Varianz geringer als bei der klassischen
Monte-Carlo-Simulation ausfallen.
Speziell in unserem Kontext, der Simulation von Ruinwahrscheinlichkeiten, sind wir
mit dem Problem der Simulation von seltenen Ereignissen (rare events) konfrontiert.
Denn die uns interessierende Größe p := ψ(u), die Ruinwahrscheinlichkeit, ist im
Allgemeinen sehr klein, ca. 10−3 . Für eine Simulation der Ruinwahrscheinlichkeit
setzen wir wie in in Beispiel 6.6

Y := 1{Q(u)<0} ,

jedoch mit einem unendlichen Zeithorizont. Könnten wir eine klassische Monte-
Carlo-Simulation von Y durchführen, so hätte diese die Varianz

VarY = p(1 − p).

Bei abnehmendem p verringert sich zwar die Varianz, jedoch ist dieser Wert p sowieso
sehr klein. Deshalb ist von größerer Bedeutung die relative Abweichung:
√ p
VarY p(1 − p)
= → ∞ für p → 0.
p p
Im Folgenden führen wir ein Qualitätskriterium einer Monte-Carlo-Methode für sel-
tene Ereignise ein.

Definition 6.9 Es seien A(u) Ereignisse, die von einem Paremeter u > 0 abhängen,
so dass

lim P (A(u)) = 0,
u→∞

und X(u) Monte-Carlo-Simulationen für P (A(u)).


1) Es besitzt (X(u))u>0 einen beschränkten relativen Fehler (bounded relative er-
ror), falls gilt:

VarX(u)
lim sup < ∞.
u→∞ (P (A(u)))2

2) Es ist (X(u))u>0 logarithmisch effizient (logarithmically efficient), falls gilt:

VarX(u)
lim sup <∞ für alle ε > 0.
u→∞ (P (A(u)))2−ε

71
Bemerkung 6.10

1) Falls die Folge (X(u))u>0 logarithmisch effizient ist, dann gilt:

ln VarX(u)
lim inf > 2.
u→∞ ln P (A(u))

2) Ein klassisches Monte-Carlo-Verfahren kann nie logarithmisch effizient sein.

3) Damit ein Monte-Carlo-Schätzer X̄n für E [Y ] mit Wahrscheinlichkeit von min-


destens 1 − α nicht um mehr als k% von E [Y ] abweicht, sind approximativ
mindestens
VarX1
n = k 2 u21−α/2
(E [Y ])2

Simulationen notwendig, wobei u1−α/2 das 1 − α2 -Quantil der Standardnormal-


verteilung bezeichnet. Ein beschränkter relativer Fehler bedeutet also, dass die
notwendige Anzahl von Simulationen, um eine relative Genauigkeit des Monte-
Carlo-Schätzers zu garantieren, beschränkt bei kleiner werdendem E [Y ] bleibt.

Beispiel 6.11 Für Ruinwahrscheinlichkeiten ist das Ereignis {Q(u) < 0} abhängig
von der Anfangsrisikoreserve u:

A(u) := {Q(u) < 0} = {τ (u) < ∞},

wobei τ (u) die Ruinzeit bezeichnet. Falls die Nettoprofitbedingung erfüllt ist, dann
bezeichnet A(u) ein seltenes Ereignis im Sinn von Definition 6.9, da P (A(u)) → 0
für u → ∞.

6.3.2 Ruinwahrscheinlichkeit mittels Pollaczek-Khintchine Formel


Eine Simulation der Ruinwahrscheinlichkeit ψ(u) erhalten wir durch eine Monte-
Carlo-Simulation der Zufallsvariablen

Y = 1{Q(u)<0} .

Jedoch kann diese Monte-Carlo-Simulaton keine klassische Simulation sein, da diese


eine Simulation des Risikoprozesses R in unendlicher Zeit erfordert. Die in die-
sem Abschnitt vorgestellten Simulationen basieren auf der Darstellung der Ruin-
wahrscheinlichkeit ψ gemäß Satz 3.28. Für die Überlebenswahrscheinlichkeit ϕ(u) =
1 − ψ(u) gilt:

ρ X 1
ϕ(u) = (F I )∗k (u).
1 + ρ k=0 (1 + ρ)k X1

72
Dies entspricht gerade der Verteilungsfunktion des Gesamtschadens SM eines Port-
folios {Zk : k ∈ N} von unabhängigen Risiken Zk , die gemäß der integrierten
Verteilungsfunktion FXI 1 verteilt sind, und einer Schadenzahl M , die geometrisch
verteilt ist zu dem Parameter r = (1 + ρ)−1 . Denn nach Satz 2.3 gilt:

X
P (SM 6 u) = P (M = k)P (Z1 + . . . Zk 6 u)
k=0

X
= (1 − r) rk (FXI 1 )∗k (u)
k=0
= ϕ(u) (22)

und folglich ψ(u) = P (SM > u).


Unter Ausnutzung dieser Gleichheit erhält man folgenden Algorithmus zur Simula-
tion der Zufallsvariablen Y :

(1) erzeuge eine Zufallsvariable M , die zum Parameter r = (1 + ρ)−1 geometrisch


verteilt ist;

(2) erzeuge unabhängige Z1 , . . . , ZM mit Verteilungsfunktion FXI 1 ;

(3) setze Y = 1, falls SM > u, sonst 0.

Durch n-malige Anwendung dieses Algorithmus erhält man n Monte-Carlo-Simu-


lationen Y1 , . . . , Yn für E [Y ]. Der klassische Monte-Carlo-Schätzer ist
n
1X
Ȳn = Yk .
n k=1

Bemerkung 6.12

1) Als eine klassische Monte-Carlo-Simulation kann diese Simulation nicht loga-


rithmisch effizient sein für das Ereignis {SM > u} und damit auch nicht für
ψ(u). Wie in Bemerkung 6.10.2) erhält man:

VarY1
lim sup =1
u→∞ ψ(u)

2) Dieses Verfahren basiert auf der Pollaczek-Khintchine Formel, die wiederum


auf die Eigenschaft der Ruinwahrscheinlichkeit zurückzuführen ist, Lösung der
Integralgleichung (12) zu sein. Jedoch sind für die Approximation der Lösung
dieser Integralgleichung zahlreiche numerische Verfahren bekannt.

73
6.3.3 Via importance sampling
Setzt man die Existenz des Cramér-Lundberg-Koeffizienten voraus, kann man eine
Simulationsmethode für die Ruinwahrscheinlichkeit gewinnen, die einen beschränk-
ten relativen Fehler besitzt. Dieser Algorithmus basiert auf der Methode des “im-
portance samplings”. Grundlage dieser Methode ist das folgende Resultat:
Theorem 6.13 Falls der Cramér-Lundberg-Koeffizient r > 0 existiert, definiere
man
1
λr := λMX1 (r), Pr,X1 (dx) := erx PX1 (dx).
MX1 (r)
a) Es existiert ein Wahrscheinlichkeitsmaß Pr , so dass (SN (t) : t > 0) bezüglich
dieses Maßes Pr ein zusammengesetzter Poissonprozess mit Charakteristik
(λr , Pr,X1 ) ist.
b) Mit der Bezeichnung Er für den Erwartungswertoperator bezüglich des Maßes
Pr gilt:
£ ¤
ψ(u) := P (τ (u) < ∞) = Er e−r(SN (τ (u)) −βτ (u)) 1{τ (u)<∞} .
Beweis: Siehe [2, Ch. III.5]. 2

Zur Erinnerung und Beachtung:


• λ bezeichnet die Intensität des Poissonprozesses;
• MX1 bezeichnet die momenterzeugende Funktion von X1 ;
• zusammgengesetzter Poissonprozess ist in Definition 3.8 definiert;
• τ (u) ist eine Zufallsvariable, die sogenannte Ruinzeit, vgl. Stochastik 2 Stoppzeit;
• mit SN (τ (u)) wird die Zufallsvariable SN (t) zum Zeitpunkt t = τ (u) bezeichnet, der
Index ist also ebenfalls vom Zufall abhängig.

Für die Monte-Carlo-Simulation mittels importance sampling erhält man folgenden


Algorithmus:
(1) bestimme den Cramér-Lundberg-Koeffizienten r > 0 und definiere λr sowie
Pr,X1 ;
(2) setze Y = 0;
(3) wiederhole folgende Schritte bis u − Y < 0:
(i) erzeuge eine zum Parameter λr exponentialverteilte Zufallsvariable W ;
(ii) erzeuge eine Zufallsvariable X gemäß der Verteilung Pr,X1 ;
(iii) setze Y := Y + X − βW ;
(4) gebe Z := e−rY zurück:
Theorem 6.14 Die nach diesem Algorithmus gewonnene Monte-Carlo-Simulation
hat einen beschränkten relativen Fehler.

74
6.3.4 Via bedingter Monte-Carlo-Simulation
Die Simulationen dieses Abschnittes basieren auf der varianzreduizierenden Metho-
de der bedingten Monte-Carlo-Simulation. Auf diesem Weg werden wir eine Monte-
Carlo-Simulation erhalten, die logarithmisch effizent ist, falls die integrierte Vertei-
lungsfunktion FXI 1 vom Pareto-Typ ist. Man kann zeigen, dass dies der Fall ist, falls
die Verteilung der Risiken vom Pareto-Typ sind, z.B. Paretoverteilung.
Wie zuvor nutzen wir die Darstellung der Ruinwahrscheinlichkeit als die Tailver-
teilungsfunktion des Gesamtschadens SM eines Portfolios von Risken Zk mit der
Verteilung FXI 1 und geometrisch verteilter Schadenzahl M aus. Bedingt man unter
den ersten M − 1 Risiken erhält man:

ψ(u) = P (Z1 + · · · + ZM > u)


= E [P (Z1 + · · · + ZM > u | Z1 , . . . , ZM −1 )]
£ ¤
= E 1 − FXI 1 (u − Z1 − · · · − ZM −1 ) .

Als einen Algorithmus zur Simulation von ψ(u) bietet sich an:
(1) erzeuge eine Zufallsvariable M , die zum Parameter q = (1 + ρ)−1 geometrisch
verteilt ist;

(2) erzeuge unabhängige Z1 , . . . , ZM −1 mit Verteilungsfunktion FXI 1 ;

(3) setze Y1 (u) := 1 − FXI 1 (u − Z1 − · · · − ZM −1 );


Obwohl dieser Algorithmus varianzreduzierend ist, da es eine bedingte Monte-Carlo-
Simulation ist, erhalten wir jedoch dasselbe asymptotische Verhalten dieses Algorith-
mus bei subexponentiellverteilten Risiken wie die klassische Monte-Carlo-Simulation
des Abschnittes 6.3.2:

Korollar 6.15 Die integrierte Verteilungsfunktion FXI 1 und die Verteilungsfunktion


FX1 der Risiken seien subexponentiell. Dann gilt für die Varianz

ln VarY1 (u)
lim = 1.
u→∞ ln ψ(u)

Beweis: Siehe [3] . 2

Das Korollar 6.15 zeigt, dass der oben vorgestellte Algorithmus nicht logarithmisch
effizient sein kann. Wir verbessern diesen Algorithmus durch Ausnutzung einer we-
sentlichen Eigenschaft von subexponentiellen Verteilungen: die Tailverteilung der
Summe verhält sich asypmptotisch wie die Tailverteilung des maximalen Schadens,
siehe (10).
Für beliebige reellwertige Zufallsvariablen Z1 , . . . , Zn bezeichne

Z(1) , . . . , Z(n)

75
die Zufallsvariablen in geordneter Folge, so dass Z(1) 6 . . . 6 Z(n) gilt. Diese Rei-
henfolge hängt natürlich von ω ∈ Ω ab, jedoch lässt sich leicht nachweisen, dass die
Meßbarkeit erhalten bleibt.

Lemma 6.16 Es seien Z1 , . . . , Zn unabhängige, identisch verteilte Risiken mit Ver-


teilungsfunktion FXI 1 und
m
X
S(m) := Z(k) für m 6 n.
k=1

Dann besitzt Sn := Z1 + · · · + Zn die folgende Tailverteilungsfunktion:


· ¸
1 − FXI 1 (max{u − S(n−1) , Z(n−1) })
P (Sn > u) = E .
1 − FXI 1 (Z(n−1) )

Damit erhalten wir folgenden Algorithmus:

(1) erzeuge eine Zufallsvariable M , die zum Parameter p = (1 + ρ)−1 geometrisch


verteilt ist;

(2) erzeuge unabängige Z1 , . . . , ZM mit Verteilungsfunktion FXI 1 ;

(3) setze H(u) := u − Z(1) − · · · − Z(M −1) ;

(4) setze

1 − FXI 1 (max{H, Z(M −1) })


Y2 (u) := .
1 − FXI 1 (Z(M −1) )

Dieser Algorithmus lässt sich jetzt als logarithmisch effizient nachweisen, falls die in-
tegrierte Verteilungsfunktion der Verteilungsfunktion der zugrundeliegenden Risiken
eine Verteilung vom Pareto-Typ ist.

Theorem 6.17 Die integrierte Verteilungsfunktion FXI 1 der Risikoverteilung sei vom
Pareto-Typ. Dann gilt für die Varianz

ln VarY2 (u)
lim inf > 2.
u→∞ ln ψ(u)

76
A Appendix
A.1 Parameter von Verteilungen
In einer Einführung zur Wahrscheinlichkeitstheorie betrachtet man eine reellwertige
Zufallsvariable X als eine messbare Abbildung von einem Wahrscheinlichkeitsraum
(Ω, A , P ) in den Raum (R, B(R)), auf dem das Bildmaß oder die Wahrscheinlich-
keitsverteilung PX induziert wird. Wie oft in der Wahrscheinlichkeitstheorie sind
wir hier nicht an den zufälligen Werten ω ∈ Ω interessiert, sondern nur an den
Werten X(ω) oder sogar meistens nur an der Verteilung PX von X. Deshalb ver-
nachlässigt man den zugrundegelegten Wahrscheinlichkeitsraum und betrachtet nur
die induzierten Wahrscheinlichkeitsverteilungen.

Definition A.1

a) Ein Wahrscheinlichkeitsmaß Q auf (R, B(R)) heißt Verteilung.

b) Besitzt eine reellwertige Zufallsvariable X die (Wahrscheinlichkeits-)Verteilung


Q, so schreiben wir

X ∼ Q.

Außer dem Erwartungswert und der Varianz einer Zufallsvariablen gibt es noch zahl-
reiche andere Parameter, die die zugrunde liegende Verteilung beschreiben. Zunächst
nahe liegend sind höhere Momente.

Definition A.2 Es sei Q eine Verteilung und X eine Zufallsvariable mit der Ver-
teilung Q. Falls für ein k ∈ N
Z
|x|k Q(dx) < ∞
R

gilt, dann heißt


Z
£ k
¤
a) mk := E X = xk Q(dx) das k-te (gewöhnliche) Moment von Q oder X.
R
Z
k
b) µk := E (X − E [X]) = (x − m1 )k Q(dx) das k-te zentrierte Moment von
R
Q oder X.

Bemerkung A.3 Für den Erwartungswert einer reellwertigen Zufallsvariablen auf


einem Wahrscheinlichkeitsraum (Ω, A , P ) mit der Verteilung PX gilt:
Z Z
E [X] = X(ω) P (dω) = x PX (dx).
Ω R

101
Das letzte Integral kann man, unabhängig von der Zufallsvariablen X, als einen Wert
betrachten, der von der Verteilung PX definiert wird. Deshalb spricht man auch
von dem Erwartungswert einer Verteilung, ohne eine Zufallsvariable zu benennen.
Entsprechendes gilt für die höheren Momente.
Mittels der binomischen Formel erhält man unmittelbar folgenden Zusammenhang
zwischen den gewöhnlichen und zentrierten Momenten:

Lemma A.4 Es sei Q eine Verteilung mit


Z
|x|k Q(dx) < ∞,
R

für ein k ∈ N. Dann folgt für die gewöhnlichen und zentrierten Momente:
k µ ¶
X k
µk = (−1)k−j mj mk−j
1
j=0
j

mit m0 := 1.
Bei einer symmetrischen Verteilung, d.h Q(m1 +A) = Q(m1 −A) für alle A ∈ B(R),
ist das dritte zentrierte Moment Null, falls es existiert. Durch geeignete Normierung
dieses Moments erweist sich der resultierende Quotient invariant bezüglich Standar-
disierung bzw. dimensionslos.

Definition A.5 Es sei Q eine Verteilung, deren drittes Moment µ3 existiert und
endlich ist. Dann heißt
µ3
γ1 (Q) := p 3
µ2

die Schiefe der Verteilung (nach Charlier). Falls X eine Zufallsvariable mit der
Verteilung Q ist, so benutzen wir die Notation γ1 (X).
Als eine weitere Größe führen wir den Exzess einer Verteilung ein, der mittels des
vierten zentrierten Moments definiert ist. Der Exzess gibt den Grad der Steilheit
einer Verteilung an. Durch Normierung erhält man wieder die Invarianz bezüglich
Standardisierung und durch eine affine Verschiebung wird erreicht, dass der Exzess
der Standardnormalverteilung sich als 0 ergibt.

Definition A.6 Es sei Q eine Verteilung, deren viertes Moment µ4 existiert und
endlich ist. Dann heißt
µ4
γ2 (Q) := −3
µ22
der Exzess der Verteilung. Falls X eine Zufallsvariable mit der Verteilung Q ist, so
benutzen wir die Notation γ2 (X).

102
Platykurtisch γ2 < 0 Mesokurtisch γ2 = 0 Leptokurtisch γ2 > 0

Abbildung 4: Dichten von Verteilungen mit verschiedenen Exzessen

Eine weitere Kenngröße von Verteilungen ist der Median.

Definition A.7 Es sei X eine Zufallsvariable mit der Verteilung Q. Dann heißt
die Zahl m = m(Q) ∈ R, für die gilt
1 1
P (X 6 m) > und P (X > m) >
2 2
Median von X oder Q.

Bemerkung A.8 Der Median muss nicht eindeutig sein.

Beispiel A.9

a) Es sei X eine Zufallsvariable mit

P (X = 0) = 0.5, P (X = 10) = 0.5.

Dann sind alle Zahlen m ∈ [0, 10] Mediane von X.

b) Der (eindeutige) Median der Normalverteilung N(µ, σ 2 ) ist µ.

Eine Verteilung muss ihren “Masseschwerpunkt” weder beim Erwartungswert noch


beim Median haben.

Definition A.10

a) Es sei X eine stetig verteilte Zufallsvariable mit der Verteilung Q, die die
Dichte f besitze. Dann heißt jedes relative Maximum mod=mod(X) der Dichte
f Modalwert von X oder Q.

103
b) Es sei X eine diskret verteilte Zufallsvariable mit pk = P (X = xk ) für k ∈ N0 .
Dann heißt jedes pk0 Modalwert mod=mod(X) von X oder Q, für das gilt:

pk0 > pk0 −1 und pk0 > pk0 +1 .

Im Falle von Randpunkten wird nur die jeweilige definierte Seite betrachtet.
Falls nur ein Modalwert einer Verteilung existiert, so wird die Verteilung unimodal
genannt. Entsprechend werden die Begriffe bimodal und multimodal benutzt.

Bemerkung A.11 Der Modalwert muss nicht eindeutig sein.

Beispiel A.12
a) Die Poissonverteilung π(λ) besitzt die Modalwerte λ und λ − 1, falls λ ∈ N,
und ansonsten den Modalwerte [λ]. ([·] Gauss-Klammer).
b) Die Binomialverteilung b(n, p) besitzt die Modalwerte

{r ∈ N : p(n + 1) − 1 6 r 6 p(n + 1)}.

c) Die Normalverteilung N(µ, σ 2 ) besitzt den (eindeutigen) Modalwert µ.

A.2 Faltung
Sind X und Y zwei unabhängige, reellwertige Zufallsvariablen, so ist X +Y eine neue
Zufallsvariable. Die Verteilung PX+Y von X + Y ist die Faltung der Verteilungen
PX und PY von X und Y , d.h.
Z
PX+Y (A) = P (X + Y ∈ A) = PX (A − x) PY (dx).
R

für A ∈ B(R).

Definition A.13
a) Es seien R und Q zwei Verteilungen auf (R, B(R)). Dann heißt die Verteilung
Z
R ∗ Q : B(R) → [0, 1], R ∗ Q(A) := R(A − u) Q(du) für A ∈ B(R)
R

Faltung von R und Q, wobei A − c := {y ∈ R : y + c ∈ A} für jedes c ∈ R.


b) Es seien F und G zwei Verteilungsfunktionen auf R. Dann heißt die Funktion
Z
F ∗ G : R → [0, 1], F ∗ G(x) := F (x − u) G(du) für alle x ∈ R,
R

Faltung von F und G, wobei das Integral als Lebesgue-Stieltjes-Integral zu


verstehen ist.

104
Aufgrund der folgenden Bemerkung ist eine vertiefte Kenntnis des Lebesgue-Stieltjes-
Integrals nicht notwendig, um die Faltung von Verteilungsfunktionen zu behandeln.

Bemerkung A.14 Es bezeichne F und G die Verteilungsfunktionen von zwei Ver-


teilungen R und Q. Dann ist die Faltung F ∗ G gerade die Verteilungsfunktion der
Verteilung R ∗ Q, d.h.:
Z x
(F ∗ G)(x) = (R ∗ Q)(ds) = (R ∗ Q)((−∞, x]).
−∞

Beispiel A.15
a) Es seien X und Y unabhängige, poissonverteilte Zufallsvariablen zu den Pa-
rametern λ1 , λ2 > 0. Dann besitzt die Zufallsvariable X + Y eine Poissonver-
teilung zu dem Parameter λ1 + λ2 .
b) Es seien R und Q diskrete Verteilungen auf S = {yk : k ∈ N0 } ⊆ R, d.h.
R(S) = 1 und Q(S) = 1.
Dann ist die Faltung R ∗ Q eine diskrete Verteilung auf
T = {xl : es existiert i ∈ N0 , so dass xl − yi ∈ S}
und ist gegeben durch

X
(R ∗ Q)({xl }) = R({xl − yk })Q({yk }).
k=0

c) Es seien R und Q Verteilungen mit Dichten f und g. Dann besitzt die Faltung
R ∗ Q ebenfalls eine Dichte und ist gegeben durch
Z µZ ¶
(R ∗ Q)(A) = f (x − y)g(y) dy dx für alle A ∈ B(R).
A R

Die Faltung erweist sich als assoziativ, d.h. es gilt für Verteilungen Qk , k = 1, 2, 3:
(Q1 ∗ Q2 ) ∗ Q3 = Q1 ∗ (Q2 ∗ Q3 ).
Deshalb können wir folgende vereinfachende Notation einführen:

Definition A.16
a) Es sei Q eine Verteilung. Dann heißt
Q∗n := Q ∗ · · · ∗ Q für n ∈ N,
n-fache Faltung von Q. Wir setzen Q∗0 := δ0 .
b) Es sei F eine Verteilungsfunktion. Dann heißt
F ∗n := F ∗ · · · ∗ F für n ∈ N,
n-fache Faltung von F . Wir setzen F ∗0 := 1{0} .

105
A.3 Laplace-Transformierte
Ähnlich wie die charakteristische Funktion in eineindeutiger Weise eine Verteilung
beschreibt, gibt es noch weitere Integraltransformierte. Die in diesem Abschnitt
betrachtete Laplace-Transformierte eignet sich insbesondere bei Verteilungen, die
auf der positiven Achse [0, ∞) konzentriert sind.

Definition A.17 Es sei Q eine Verteilung auf (R+ , B(R+ )). Dann heißt
Z
LQ : [0, ∞) → R, LQ (t) := e−ts Q(ds)
R+

Laplace-Transformierte von Q.
Falls X eine Zufallsvariable mit Verteilung Q ist, so nennt man LX := LQ Laplace-
Transformierte von X.
Falls das Integral für ein t0 < 0 existiert, so ist die Laplace-Transformierte sogar auf
[t0 , ∞) definiert.
Ist LX die Laplace-Transformierte einer Zufallsvariablen X, dann gilt offensichtlich

LX (t) = E [exp(−tX)] für t > 0.

Beispiel A.18

a) Die Binomialverteilung b(n, p) besitzt die Laplace-Transformierte

Lb(n,p) (t) = (1 − p + pe−t )n für t ∈ R .

b) Die Poissonverteilung π(λ) besitzt die Laplace-Transformierte

Lπ(λ) (t) = exp(λ(e−t − 1)) für t ∈ R .

c) Die Exponentialverteilung Exp(θ) besitzt die Laplace-Transformierte


θ
LExp(θ) (t) = für t > −θ.
θ+t

Eigenschaften der charakteristischen Funktionen gelten analog für die Laplace-Trans-


formierte.

Theorem A.19 Es sei LX die Laplace-Transformierte einer nichtnegativen Zufalls-


variablen X mit Verteilungsfunktion F . Dann gilt:

a) LX ist stetig in [0, ∞) und beliebig oft differenzierbar in (0, ∞) mit

(k) dk k
£ k ¤
LX (t) := L X (t) = (−1) E X exp(−tX) für k = 0, 1, . . . .
dtk

106
b) die folgende Umkehrformel:
X nk (k)
F (x) = lim (−1)k L (n)
n→∞
k6nx
k!

für alle x ∈ {y > 0 : F ist stetig in y}.

c) die Verteilung von X ist eindeutig durch LX bestimmt.


Beweis: Siehe [7, S. 435]. 2

Mittels der Laplace-Transformierten lassen sich die Momente der zugrundeliegenden


Verteilung einfach bestimmen:

Theorem A.20 Es sei X eine nichtnegative Zufallsvariable mit Laplace-Transfor-


mierter LX . Dann sind für jedes k ∈ N äquivalent:
1) E|X|k < ∞.
(k) (k) £ ¤ (k)
2) LX (0+) := lim LX (t) existiert und E X k = (−1)k LX (0+).
t&0

Beispiel A.21
a) Für eine b(n, p)-verteilte Zufallsvariable X gilt:
(1)
E [X] = −LX (0+) = −(−pn(1 − p + pe−t )n−1 e−t )|t=0 = pn.

b) Für eine π(λ)-verteilte Zufallsvariable X gilt:


(1)
E [X] = −LX (0+) = −(−λ exp(−t) exp(λ(e−t − 1)))|t=0 = λ.

c) Für eine Exp(θ)-verteilte Zufallsvariable X gilt:


µ ¶
(1) θ 1
E [X] = −LX (0+) = − − 2
|t=0 = .
(θ + t) θ

In der Risikotheorie wird oft der folgende Faltungssatz angewandt:

Theorem A.22 Es seien P und Q zwei Verteilungen auf (R+ , B(R+ )) mit Laplace-
Transformierten LP und LQ . Dann gilt für die Laplace-Transformierten LP ∗Q von
P ∗ Q:

LP ∗Q (t) = LP (t)LQ (t) für alle t > 0.

Beispiel A.23 Es seien X1 und X2 poissonverteilte Zufallsvariablen zu den Para-


metern λ1 , λ2 > 0. Dann ist X1 + X2 poissonverteilt zu dem Parameter λ1 + λ2 .

107
Die Laplace-Transformierte erweist sich ebenfalls nützlich zur Verifikation der schwa-
chen Konvergenz von Verteilungen:

Theorem A.24 Es seien Xn , X nichtnegative Zufallsvariablen mit Laplace-Trans-


formierten Ln , L. Dann gilt:
w
Xn → X für n → ∞ ⇐⇒ lim Ln (t) = L(t) für alle t > 0.
n→∞

Beweis: Siehe [7]. 2

Beispiel A.25 Es seien Xn für n ∈ N binomialverteilte Zufallsvariablen zu den


Parametern n ∈ N und pn ∈ (0, 1):
µ ¶
n k
P (Xn = k) = p (1 − pn )n−k für k = 0, 1, . . . , n.
k n
Falls die Grenzwertaussage

lim npn = λ für ein λ > 0


n→∞

gilt, dann konvergiert (Xn )n∈N schwach gegen eine poissonverteilte Zufallsgröße zum
Parameter λ.
Im Zusammenhang mit der Stochastik wird die Laplace-Transformierte in der Mo-
nographie von Feller [7] eingeführt. Klassische Literatur ist die Monographie von
Dötsch.
Weitere Literatur:
• G. Doetsch. Anleitung zum praktischen Gebrauch der Laplace-Transformierte
und der Z- Transformation. München: R. Oldenbourg Verlag, 1989.
• P. P. G. Dyke. An introduction to Laplace transforms and Fourier series.
London: Springer, 2000.
• J. L. Schiff. The Laplace transform: Theory and applications. New York:
Springer, 1999.

A.4 Erzeugende Funktion


Bei diskret verteilten Zufallsvariablen ist noch eine weitere Transformierte üblich.

Definition A.26 Es sei Q eine diskrete Verteilung auf N0 mit qk := Q({k}) für
k ∈ N0 . Dann heißt die Potenzreihe

X
GQ (s) := s k qk
k=0

108
erzeugende Funktion von Q.
Für eine diskret verteilte Zufallsvariable X mit Werten in N0 und Wahrscheinlich-
keitsverteilungen pk := P (X = k) für k ∈ N0 heißt die Potenzreihe

X
£ X
¤
GX (s) := E s = sk pk
k=0

erzeugende Funktion von X.

Beispiel A.27

1) Es sei X eine Poisson verteilte Zufallsvariable zu dem Parameter λ > 0. Dann


gilt

GX (s) = eλ(s−1) für s ∈ R .

2) Es sei X eine geometrisch verteilte Zufallsvariable zu dem Parameter p ∈ (0, 1).


Dann gilt
p 1
GX (s) = für |s| 6 .
1 − (1 − p)s 1−p

Bemerkung A.28

1) Die erzeugende Funktion existiert mindestens für |s| 6 1.

2) Man beachte, dass die erzeugende Funktion eine Potenzreihe ist. Ist r der
Konvergenzradius der erzeugenden Funktion G, dann ist G differenzierbar auf
(−r, r).

3) Der Definitionsbereich bzw. Konvergenzradius r der erzeugenden Funktion


lässt sich z.B. über die Cauchy-Hadamard-Formel bestimmen:
1
r= .
lim supk→∞ (pk )1/k

Für die erzeugende Funktion gelten analoge Aussagen wie für die Laplace-Trans-
formierte. Insbesondere ist die Verteilung durch die erzeugende Funktion eindeutig
bestimmt, was in diesem Fall sich sehr einfach durch Differentiation ergibt.

Theorem A.29 Es sei X eine Zufallsvariable mit Werten in N0 und erzeugender


Funktion G. Dann gilt
(k)
G (0)
P (X = k) = X für alle k ∈ N0 .
k!

109
Die erzeugende Funktion ist wie die Laplace-Transformierte sehr nützlich zur Be-
rechnung der Momente:

Theorem A.30 Es sei X eine Zufallsvariable mit Werten in N0 und erzeugender


Funktion G. Falls für ein k ∈ N die (einseitigen) Ableitungen

G(k) (1−) := lim G(k) (s)


s%1

existieren, dann folgt:

E [X(X − 1) . . . (X − k + 1)] = G(k) (1−).

110
B Bedingter Erwartungswert
Es
p sei H ein Hilbertraum mit Skalarprodukt h·, ·i und dazugehöriger Norm khk =
hh, hi für h ∈ H.

Definition B.1 Es sei U ⊆ H. Eine Projektion auf U ist eine Abbildung


π:H→H mit π◦π =π und π(H) = U.
Theorem B.2 Es sei U ⊆ H ein abgeschlossener, nicht-leerer Unterraum von H.
Dann existiert genau eine lineare Projektion π : H → H auf U , so dass gilt:
kπ(x0 ) − x0 k = inf{ky − x0 k : y ∈ U } für alle x0 ∈ H.
Die Projektion π besitzt folgende Eigenschaften:
a) Id −π ist Projektion auf U ⊥ ,
wobei U ⊥ := {v ∈ H : hv, ui = 0 für alle u ∈ U };
b) H lässt sich als direkte Summe darstellen: H = U ⊕ U ⊥ .
Wir wenden diese einfachen Resultate der Funktionalanalysis an, um den bedingten
Erwartungswert zu definieren.
Es seien (Ω, A , P ) ein Wahrscheinlichkeitsraum und D ⊆ A eine Teil-σ-Algebra.
Dann ist der Raum
L2 (Ω, A , P ) := {X : Ω → R : X ist A –B(R)–messbar und E |X|2 < ∞}/N
ein Hilbertraum bezüglich des Skalarprodukts
Z
hX, Y i := E [XY ] = X(ω)Y (ω) P (dω)

und der Raum

L2 (Ω, D, P ) := {Y : Ω → R : Y ist D–B(R)–messbar und E |Y |2 < ∞}/N


ist ein abgeschlossener Unterraum von L2 (Ω, A , P ), wobei
N := {X : Ω → R : X ist A –B(R)–messbar und X = 0 P-f.s.}.
Dies rechtfertigt unsere folgende Definition:

Definition B.3 Es seien X eine Zufallsvariable mit E |X|2 < ∞ und D ⊆ A eine
Teil-σ-Algebra. Dann heißt die lineare Projektion
π : L2 (Ω, A , P ) → L2 (Ω, A , P ) auf L2 (Ω, D, P )
bedingter Erwartungswert von X unter D.
Als Notation führen wir ein: E [X | D] := π(X).
Man definiert die bedingte Wahrscheinlichkeit auf folgender Weise:
P (X ∈ A | D) := E [1A (X) | D] für alle A ∈ B(R).

111
Bemerkung B.4 Der bedingte Erwartungswert E [X | D] ist eine Äquivalenzklasse
in dem Quotientenraum L2 (Ω, D, P ). In unserer Sprech– und Schreibweise werden
wir aber nicht unterscheiden, wenn wir uns auf einen beliebigen Repräsentanten
dieser Äquivalenzklasse beziehen. In diesem Sinn ist der bedingte Erwartungswert
E [X | D] eine Zufallsvariable auf dem Wahrscheinlichkeitsraum (Ω, D, P |D ) und alle
Aussagen für den bedingten Erwartungswert können nur P -f.s. getroffen werden.

Bemerkung B.5

a) Der bedingte Erwartungswert existiert für jede Zufallsvariable X mit E |X|2 <
∞ und ist P -fast sicher eindeutig.

b) Man kann den bedingten Erwartungswert auch für Zufallsvariablen X mit


E |X| < ∞ definieren. (Auch bei Fortschreiten des hier eingeschlagenen Weges).

Eine wesentliche Eigenschaft des bedingten Erwartungswertes ergibt sich (hier) di-
rekt aus der Definition als Projektion und Satz B.2:

Theorem B.6 Es seien X eine Zufallsvariable mit E |X|2 < ∞ und D ⊆ A eine
Teil-σ-Algebra. Dann gilt:
2 2
E |E [X | D] − X| = inf{E |Y − X| : für alle Y ∈ L2 (Ω, D, P )}.

Der bedingte Erwartungswert E [X | D] lässt sich als eine Vergröberung der Zufalls-
variablen X verstehen, die nur noch die “Informationen” der kleineren σ-Algebra
D wiedergibt. Oft möchte man aber bedingen unter den “Informationen”, die eine
andere Zufallsvariable Y bereitstellt.

Definition B.7

1) Es sei (Ω0 , A 0 ) ein Messraum und T : Ω → Ω0 eine Abbildung. Dann heißt

σ(T ) := {T −1 (A0 ) : A0 ∈ A 0 }

die von der Abbildung T erzeugte σ-Algebra in Ω.

2) Es seien (Ωi , A i ), i ∈ I, eine Familie von Messräumen und Ti : Ω → Ωi ,


i ∈ I, eine Familie von Abbildungen. Dann heißt
à !
[
σ(Ti : i ∈ I) := σ σ(Ti )
i∈I

die von den Abbildungen Ti erzeugte σ-Algebra in Ω (vgl. Notationen mit


Maß- und Integrationstheorie).

112
Definition B.8 Es seien X eine Zufallsvariable mit E |X|2 < ∞. Ist (Ω0 , A 0 ) ein
Messraum und Y : Ω → Ω0 eine Zufallsvariable, dann heißt

E [X | Y ] := E [X | σ(Y )]

bedingter Erwartungswert von X unter Y .

Lemma B.9 (Faktorisierung)


Es seien (Ω0 , A 0 ) ein Messraum und

Y : (Ω, A ) → (Ω0 , A 0 )

eine Zufallsvariable. Für eine beliebige Funktion Z : Ω → R̄ sind äquivalent:


a) Z ist (9σ(Y )–B(R̄))–messbar;

b) es existiert eine messbare Funktion g : (Ω0 , A 0 ) → (R̄, B(R̄)) mit Z = g ◦ Y .

Bemerkung B.10 Da der bedingte Erwartungswert E [X | Y ] σ(Y )-B(R) messbar


ist, existiert eine Borel-messbare Funktion g : (Ω0 , A 0 ) → (R, B(R)), so dass gilt:

E [X | Y ] = g(Y ).

Im folgenden Satz geben wir einige einfache Eigenschaften des bedingten Erwar-
tungswertes wieder.

Theorem B.11 Es seien X und Y reellwertige Zufallsvariablen und E |X|2 < ∞


sowie D ⊆ A eine Teil-σ-Algebra. Dann gelten:
a) E [E [X | D]] = E [X].

b) falls X D-messbar ist: E [X | D] = X P -f.s.;

c) für a, b ∈ R und E |Y |2 < ∞:


E [aX + bY | D] = a E [X | D] + b E [Y | D] P -f.s.;

d) falls Y D-messbar ist und E |XY |2 < ∞: E [XY | D] = Y E [X | D] P -f.s.;

e) falls E ⊆ D Teil-σ-Algebra: E [X | E ] = E [ E [X | D] | E ] P -f.s.

Definition B.12 Es seien X1 , . . . , Xn reellwertige Zufallsvariablen und D ⊆ A


eine Teil-σ-Algebra.
a) Die Zufallsvariablen X1 , . . . , Xn werden bedingt unter D unabhängig genannt,
falls gilt:

P (X1 6 x1 , . . . , Xn 6 xn | D) = P (X1 6 x1 | D) · · · P (Xn 6 xn | D) P-f.s.

für alle x1 , . . . , xn ∈ R.

113
b) Die Zufallsvariablen X1 , . . . , Xn werden bedingt unter D identisch verteilt ge-
nannt, falls gilt:

P (X1 6 x | D) = P (Xj 6 x | D) P-f.s.

für alle x ∈ R und j = 1, . . . , n.

Weder müssen unabhängige Zufallsvariablen bedingt unabhängig sein, noch gilt dies
umgekehrt, wie wir im folgenden Beispiel skizzieren.

Beispiel B.13 Es seien X1 , X2 , X3 unabhängige, identisch verteilte Zufallsvariablen


mit

P (Xi = 1) = p und P (Xi = 0) = 1 − p für i = 1, 2, 3

und p ∈ (0, 1). Desweiteren definiere man


k
X
Sk := Xi für k = 1, 2, 3.
i=1

Wir lassen hier die genaue Begründung aus, wie wir von Eigenschaften der herkömm-
lichen, unter einem Ereignis bedingten Wahrscheinlichkeit, z.B. P (X1 = 1, X2 =
1 | S2 = 1), was eine Zahl ist, auf Eigenschaften der bedingten Wahrscheinlichkeit,
z.B. P (X1 = 1, X2 = 1 | S2 ), die eine Zufallsvariable ist, schließen können.

a) Es gilt:

P (X1 = 1 | S2 = 1) > 0, P (X2 = 1 | S2 = 1) > 0,

jedoch erhält man

P (X1 = 1, X2 = 1 | S2 = 1) = 0.

Deshalb sind X1 , X2 nicht unter σ(S2 ) bedingt unabhängig.

b) Einfache Rechnungen zeigen:

P (S1 = i, S3 = j | S2 = k) = P (S1 = i | S2 = k)P (S3 = j | S2 = k)

für alle i ∈ {0, 1}, k ∈ {0, 1, 2} und j ∈ {0, . . . , 3}. Folglich sind S1 und
S3 bedingt unter σ(S2 ) unabhängig. Jedoch sind S1 und S3 sicherlich nicht
unabhängig (im herkömmlichen Sinn).

114
Literatur
[1] G. Alsmeyer. Erneuerungstheorie. Analyse stochastischer Regenerationssche-
mata. Stuttgart: B. G. Teubner, 1991.

[2] S. Asmussen. Ruin probabilities. Singapore: World Scientific., 1997.

[3] S. Asmussen and K. Binswanger. Simulation of ruin probabilities for subexpo-


nential claims. Astin Bulletin, 27:297–318, 1997.

[4] N. L Bowers, H. U. Gerber, J. C. Hickman, D. A. Jones, and C. J. Nesbitt.


Actuarial mathematics. Itasca: The Society of Actuaries, 1986.

[5] R. S. Chhikara and J. L. Folks. The inverse Gaussian distribution: theory,


methodology, and applications. New York: Marcel Dekker, 1989.

[6] P. Embrechts, C. Klüppelberg, and T. Mikosch. Modelling extremal events for


insurance and finance. Berlin: Springer, 1997.

[7] W. Feller. An introduction to probability theory and its applications. Vol. II.
New York: John Wiley and Sons, 1966.

[8] W. Fischer and I. Lieb. Funktionentheorie. Wiesbaden: Vieweg, 1992.

[9] H. U. Gerber. An introduction to mathematical risk theory. Philadelphia: S.


S. Huebner Foundation, 1979.

[10] G. Gripenberg, S.-O. Londen, and O. Staffans. Volterra integral and functional
equations. Cambridge: Cambridge University Press, 1990.

[11] W.-R. Heilmann. Grundbegriffe der Risikotheorie. Karlsruhe: Verlag Versiche-


rungswirtschaft e.V., 1987.

[12] C. Hipp and R. Michel. Risikotheorie: stochastische Modelle und statistische


Methoden. Karlsruhe: Verlag Versicherungswirtschaft, 1990.

[13] R. Kaas, M. Goovaerts, J. Dhaene, and M. Denuit. Modern actuarial risk


theory. Boston: Kluwer Academic Publishers, 2003.

[14] T. Mack. Schadenversicherungsmathematik. Karlsruhe: Verlag Versicherungs-


wirtschaft, 1996.

[15] N. Madras. Lectures on Monte Carlo methods. Providence, RI: American Ma-
thematical Society, 2002.

[16] T. Mikosch. Non-life insurance mathematics. An introduction with stochastic


processes. Berlin: Springer, 2004.

[17] B. D. Ripley. Stochastic simulation. New York: John Wiley & Sons, 1987.

115
[18] T. Rolski, H. Schmidli, V. Schmidt, and J. Teugels. Stochastic processes for
insurance and finance. Chichester: Wiley, 1999.

[19] K. D. Schmidt. Lectures on risk theory. Stuttgart: B. G. Teubner , 1996.

[20] E. Straub. Non-life insurance mathematics. Berlin: Springer-Verlag, 1988.

[21] K. Wolfsdorf. Versicherungsmathematik. Teil 2. Stuttgart : B. G. Teubner,


1988.

116
Index
Algorithmus Laplace-Transformierte, 106
DePril, 7 Lognormalverteilung, 14, 29
Panjer-Rekursionsverfahren, 23
Anpassungskoeffizient, 39 Maximalschadenprinzip, 50
Ausgleich im Kollektiv, 6 Median, 103
Mischung von Verteilungen, 21
bedingt Modalwert, 103
identisch verteilt, 113 Moment, 101
unabhängig, 113 Monte-Carlo
bedingter Erwartungswert, 111 bedingte, 68
Binomialverteilung, 18 Definition, 67
Bühlmann Modell, 59 importance sampling, 68

Cramér-Lundberg Negative Binomialverteilung, 22


Koeffizient, 39 Nettoprofitbedingung, 39
Modell, 37 Nettorisikoprinzip, 46
Nullnutzenprinzip, 48
Dispersionskoeffizient, 23 Nutzenfunktion, 48
empirische Verteilungsfunktion, 34 Paretoverteilung, 30
Erwartunswertprinzip, 47 Percentileprinzip, 52
erzeugende Funktion, 108 Poisson-Summenverteilung, 19
Exponentialprinzip, 50 Poissonmischung, 21
Exzess, 102 Poissonprozess
homogener, 36
Faltung, 104
zusammengesetzter, 37
Fehler
Poissonverteilung, 19
beschrankter relativer, 70
Portfolio
effizient logarithmisch, 70
Definition, 4
Gammaverteilung, 10, 29 homogenes, 5
Gesamtschaden Prämienprinzip, 46
individuelles Modell, 4
Quantil-Funktion, 52
kollektives Modell, 16
Risiko, 4
Hazard
Risikoaversion, 50
Funktion, 32
Risikoprozess, 38
mittlere Rest, 33
Ruinwahrscheinlichkeit, 38
Rate, 32
Ruinzeit, 38
heavy-tailed, 28
heterogenes Modell, 55 Schadenzahl, 16
Schadenzahlprozess, 35
integrierte Tailverteilungsfunktion, 41
Schiefe, 102
Inverse-Gauss-Verteilung, 11, 29
Schweizer Prinzip, 51
Konzentrationsmaß, 25 Sicherheitszuschlag, 39

117
subexponentielle Verteilung, 30
Supremumsdistanz, 24

Tailwahrscheinlichkeit, 28
Totalvariationsabstand, 26

Uberlebenswahrscheinlichkeit, 38

Varianzprinzip, 47
Verlustfunktion, 50
Verlustfunktionenprinzip, 51
Verteilung, 101

Wartezeiten, 35
Weibullverteilung, 30

zusammengesetzte Summenvariablen, 17

118