Sie sind auf Seite 1von 178

Jens Fricke

Value-at-Risk Ans~itze zur Absch~itzung von Marktrisiken

--4

Cz~
C~
I

ITI

m ~ n m

m
CZJ

IIJ
fro
~J

r_)
L J_
(/)
r-C1)

I=

O_

(1)
c1)

G)
c-

...,..

o
~>

O
a_

C1)
(/)
~>-

(")

r.~
(/)

~:3
~-

G3
Q::

C~

0 ...,.

:~

c-

E
0
CD
~-

CL~

I--

.i..J

G)
~'-

"O
r-

O
=D

x--.

x.=

:(~
cn

C:T)

....,,,,,
L_

C1)

:G:3

(/)

.i...J
, m

~>
r-

, m

r..)
c/)

.t...J

Bibliografische Information Der Deutschen Nationalbibliothek


Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der
Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet iJber
<http://dnb.d-nb.de> abrufbar.

Dissertation Universit~it Osnabriick, 2005

1. Auflage September 2006


Alle Rechte vorbehalten
9 Deutscher Universit~its-Verlag I GWV Fachverlage GmbH,Wiesbaden 2006
Lektorat: Brigitte Siegel/Sabine SchSIler
Der Deutsche Universit~its-Verlag ist ein Unternehmen von Springer Science+Business Media.
www.duv.de
Das Werk einschliel~lich aller seiner Teile ist urheberrechtlich geschlitzt.
Jede Verwertung aul~erhalbder engen Grenzen des Urheberrechtsgesetzes
ist ohne Zustimmung des Verla.gs unzul~issig und strafbar. Das gilt insbesondere fiJr Vervielffiltigungen, Ubersetzungen, Mikroverfilmungen und die
Einspeicherung und Verarbeitung in elektronischen Systemen.
Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem
Werk berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche
Namen im Sinne der Warenzeichen- und Markenschutz-Gesetzgebung als frei zu betrachten
w~iren und daher von jedermann benutzt werden diJrften.
Umschlaggestaltung: Regine Zimmer, Dipl.-Designerin, Frankfurt/Main
Druck und Buchbinder: Rosch-Buch, Scher~litz
Gedruckt auf s~iurefreiem und chlorfrei gebleichtem Papier
Printed in Germany
ISBN-10 3-8350-0550-2
ISBN-13 978-3-8350-0550-1

Geleitwort
Der Value-at-Risk dient der Absch~tzung kiinftiger Marktrisiken. Zu denken ist
dabei an Risiken bei Aktien- und Wechselkursen oder bei Rohstoffpreisen. Hier
steht das Risiko einer Finanzanlage, sei es eine Aktie oder ein Portfolio von Aktien,
im Mittelpunkt.
Anhand des Value-at-Risk kSnnen Unternehmen zum einen ein optimales
Portfolio zusammenstellen, zum anderen kSnnen sie damit das Gesamtrisiko
ihrer Geldanlagen steuern. Er rfickt im Risikomanagement verst~irkt in das
T~tigkeitsfeld von Unternehmen, die ihre Marktrisiken zuverl~sig absch~tzen
mSchten. Einen zus~tzlichen Handlungsdruck fibt der Baseler Ausschuss ffir
Bankenaufsicht aus. Um drohenden kfinftigen Finanzkrisen in Volkswirtschaften
vorzubeugen, hat dieser regulatorische Vorschriften erlassen. Darin wird die HShe
von Eigenmitteln, die ein Unternehmen zu hinterlegen hat, in Abh~ngigkeit vom
Grad des Marktrisikos geregelt, genauer von dem prognostizierten Value-at-Risk.
Von einem bestimmten Tag ausgehend ist der Value-at-Risk der Verlust einer
Finanzanlage, der mit der Wahrscheinlichkeit 1 - a innerhalb der n~chsten
Tage nicht fiberschritten wird. Dieser Maximalverlust ist zu prognostizieren, und
zwar sind 1- und 10-Tages Value-at-Risk Prognosen zu erstellen. Die 1-Schritt
Prognosen dienen der Evaluierung des Verfahrens. Von der Gfite der 1-Schritt
Prognose und der HShe der 10-Schritt Prognose h~ngt die in den Basel II
Richtlinien geregelte Eigenkapitalanforderung (EKA) ab.
Bei der (~berprfifung sind die 1-Schritt Prognosen mit den realisierten Verlusten
innerhalb eines Jahres zu vergleichen. Bei einem zuverl~sigen Verfahren sollte
der tats~chliche Verlust nur in relativ wenigen Fallen fiber dem prognostizierten
Value-at-Risk liegen. Die Richtlinien geben ffir die Zahl der Uberschreitungen
ein Intervall vor. Ist sie kleiner als die Intervalluntergrenze, dann bleibt ein
Multiplikator unver~ndert, und ist sie grSt~er als die Obergrenze, dann ist das als
ungeeignet angesehene Prognoseverfahren zu ersetzen. Liegt die Zahl innerhalb
des Intervalls, dann erhSht sich der Multiplikator. Dieser ist als Ausgleich

vi

GELEITWORT

dafiir gesetzt, dass Unternehmen auch auf der Normalverteilung basierende


Verfahren w~ihlen kSnnen, die aber das Risiko auf Finanzm~irkten systematisch
untersch~itzen.
Mit der Wahrscheinlichkeit a - 0, 01 und dem Multiplikator, der Werte zwischen
3 und 4 annehmen kann, kSnnen die zu hinterlegenden Eigenkapitalmittel einen
betr~ichtlichen Anteil an der gesamten Finanzanlage erreichen und dadurch die
Dispositionsfreiheit von Finanzinstituten erheblich einschNinken.
Die Unternehmen stehen vor dem Problem, ein Verfahren auszuwiihlen, mit dem
bei mSglichst geringer Hinterlegung von Eigenmitteln die Marktrisiken zuverl~sig
prognostiziert werden kSnnen. Hier setzt die Arbeit von Herrn Fricke an.
Aus statistischer Sicht stellt der Value-at-Risk ein Quantil der kiinftigen
Verteilung des Portfoliozuwachses innerhalb der Zeitspanne von einem bzw.
zehn Tagen dar. Dieses l~st sich unter allgemeinen Bedingungen aus dem
entsprechenden Quantil der zugehSrigen bedingten Renditeverteilung ermitteln.
Ffir die Entwicklung der Rendite hat die FinanzmarktSkonometrie in den
letzten 25 Jahren verschiedene vielversprechende Modelle entwickelt, die sich
ffir Prognosen der Quantile bedingter Renditeverteilungen ausnutzen lassen.
Zu nennen sind hier univariate und multivariate GARCH-Modelle sowie
CAViaR-Ans~itze zur direkten Prognose von Quantilen. Diese theoretische Basis
nutzt Herr Fricke, um eine Reihe von Verfahren zur Prognose des Value-at-Risk
vorzuschlagen, die konsequent auf die Basel II EKA ausgerichtet sind.
Die umfassende empirische Vergleichsstudie zeigt, dass die auf der Basis der
modernen GARCH- und CAViaR-Modelle entwickelten Ans~tze das Spektrum
der geeigneten Verfahren wesentlich bereichern. Diese zeigt zudem, dass auch ein
wenig zuverl~siges Verfahren zu relativ niedriger EKA ffihren kann. In diesem
Fall fehlt dem Unternehmen der Anreiz, auf ein zuverl~sigeres Prognoseverfahren
zu wechseln. MSglicherweise sanktioniert der Multiplikator nur unzureichend die
Unzuverl~sigkeit des Verfahrens.
Die vorliegende Arbeit stellt den komplexen Stoff der Value-at-Risk Prognosen
im Zusammenhang mit der EKA nach Basel II umfassend und in relativ
leicht zug~inglicher Weise dar und evaluiert in einer umfangreichen empirischen
Analyse systematisch herkSmmliche und theoretisch wohl fundierte Verfahren.
Sie gew~ihrt somit dem interessierten Leser einen verst~indlichen lJberblick fiber
die theoretische Fundierung und die empirische Anwendung von Verfahren zu
Value-at-Risk Prognosen.
Prof. Dr. Ralf Pauly

Vorwort
Das Management von Risiken gewinnt zunehmende Bedeutung im Rahmen der
komplexen Zusammenh~nge, die von Unternehmen zur erfolgreichen Entwicklung
gestaltet werden miissen. Es ist wesentlich, die Gesch~ftsaktivit~ten hinsichtlich
der potenziellen VerlustmSglichkeiten zu bewerten. Fiir diese Bewertung
bietet sich das Konzept Value-at-Risk an, welches die VerlustmSglichkeit
mit einer gewissen Wahrscheinlichkeit belegt und die Risikosituation
mit einem monet~ren Betrag quantifiziert. Dieses Vorgehen bewertet die
Risikosituation des Unternehmens mit einer Kennzahl, die leicht verst~ndlich
ist. Die Zusammenfiihrung mit der Bewertung der RenditemSglichkeit
von Gesch~ftsaktivit~ten liefert die Basis zur erfolgreichen Steuerung des
Unternehmens.
Insbesondere fiir Finanzinstitute stellt sich die Frage der genauen Quantifizierung
von Risiken und der ad~quaten Hinterlegung mit Eigenmitteln. Fiir diese
Fragestellung liefern die Basel II-Anforderungen einen Rahmen zur Ausgestaltung.
Danach werden die Finanzinstitute aufgefordert, ihre Risiken mit Value-at-Risk
zu bewerten und nach einer festgelegten Berechnungslogik eine vorgeschriebene
Eigenmittelhinterlegung vorzunehmen.
An diesem entscheidenden Punkt setzt die vorliegende Arbeit an. Die
Ausgestaltung des Value-at-Risk Konzepts zur Bewertung von Marktrisiken
kann durch unterschiedliche Ans~itze vorgenommen werden. Dabei bieten sich
neuere Entwicklungen zur Modellierung der Volatilit~t und Interdependenz von
Finanzmarktzeitreihen an. Die Integration dieser Modelle in die Berechnung
des Value-at-Risk liefert aus theoretischer Sicht Vorteile. Im Rahmen der
umfangreichen empirischen Vergleichsstudie wird gezeigt, dass sich die Vorteile
auch in der praktischen Anwendung belegen lassen. Dabei werden nicht nur
genaue Prognosen der bestehenden Marktrisiken erzielt, sondern zudem die
geforderten Eigenmittel zur Hinterlegung mSglichst gering gehalten, welches eine
erstrebenswerte Situation fiir die Finanzinstitute darstellt.

viii

VORWORT

Durch die Ausfiihrung und Belegung dieser Vorteilhaftigkeit neuerer Ans~tze zur
Modellierung der Volatilit~t und Interdependenz wurde die Zielsetzung meiner
Arbeit erreicht. Bei der Erarbeitung dieser Gedanken haben mir sehr viele
Freunde, Bekannte und Kollegen geholfen, bei denen ich mich ganz herzlich
bedanken mSchte.
Insbesondere mSchte ich meinem Doktorvater Herrn Prof. Dr. Ralf Pauly danken,
der mich seit meinem Grundstudium an der Universit~t Osnabriick jederzeit
gefSrdert und persSnlich unterstfitzt hat. Die fruchtbaren Diskussionen w~ihrend
meines Studiums und bei anschlief, enden Treffen haben meine persSnliche
Entwicklung bedeutend vorangetrieben.
Dank gebiihrt Herrn Dr. Dietrich Trenkler, der mir die praktische Umsetzung
und das tiefere Verst~ndnis der theoretischen Konzepte ermSglicht hat, und Herrn
Prof. Dr. Lothar Kniippel, der einen wesentlichen Beitrag zur Entwicklung meiner
Kenntnisse im Themengebiet der Statistik geleistet und als Korreferent meine
Doktorarbeit betreut hat.
Ohne die Unterstiitzung meiner Mentoren bei Roland Berger Strategy Consultants
Dr. Felix Dannegger und Dirk Hanf, en w~re die Erstellung meiner Doktorarbeit
nicht mSglich gewesen. Daher mSchte ich mich ganz herzlich bei Ihnen
fiir den gew~hrten Freiraum zur wissenschaftlichen Arbeit im Rahmen des
Doktorandenprogramms und Ihren persSnlichen Einsatz bedanken.
Ganz besondere Bedeutung fiir meine gesamte berufliche und persSnliche
Entwicklung haben meine Eltern und meine Familie. Nur durch die jederzeitige
Unterstiitzung und Befiirwortung meiner Entscheidungen durch meine Eltern
konnte ich meine gesetzten Ziele erreichen. Dafiir werde ich immer grof,e
Dankbarkeit empfinden. Die entscheidende Person in meinem Leben ist meine
Frau Yvonne. Ohne Ihre Unterstfitzung, die zahlreichen Diskussionen, die
gemeinsamen Erfahrungen und Ihre Zuneigung, h~tte ich nie diesen Weg gehen
kSnnen. Meine Dankbarkeit darfiber, dass wir unsere Zeit weiterhin gemeinsam
verbringen kSnnen, kann ich nicht in Worte fassen.

Jens Fricke

Inhaltsverzeichnis

1 Einleitung

1.1

Problemstellung . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

1.2

G a n g der Untersuchung

........................

Value-at-Risk
2.1

2.2

2.3

2.4

S t r u k t u r i e r u n g des Risikomanagements . . . . . . . . . . . . . . . .

2.1.1

Marktrisiken

..........................

2.1.2

Kreditrisiken

..........................

2.1.3

Operationelle Risiken . . . . . . . . . . . . . . . . . . . . . .

10

2.1.4

Gesch~,ftsrisiken . . . . . . . . . . . . . . . . . . . . . . . . .

10

Value-at-Risk als Risikomai~stab . . . . . . . . . . . . . . . . . . . .

11

2.2.1

Definition des Value-at-Risk . . . . . . . . . . . . . . . . . .

13

2.2.2

Anforderungen an ein Risikomat~

15

2.2.3

Beurteilung des Konzepts Value-at-Risk

...............

AusgestaltungsmSglichkeiten der Berechnung

...........
............

15
16

2.3.1

Nicht-parametrische Ans~,tze im Uberblick . . . . . . . . . .

17

2.3.2

P a r a m e t r i s c h e Ans~tze im Uberblick

18

2.3.3

Semi-parametrische Ans~tze im Uberblick

.............

Regulatorische Anforderungen durch Basel II

..........

............

19
19

2.4.1

Generelle Zielsetzung . . . . . . . . . . . . . . . . . . . . . .

20

2.4.2

A u s g e s t a l t u n g des internen Modells . . . . . . . . . . . . . .

21

2.4.3

Berechnung der E i g e n k a p i t a l a n f o r d e r u n g . . . . . . . . . . .

22

INHALTSVERZEICHNIS

2.5

Validierung der Value-at-Risk P r o g n o s e n . . . . . . . . . . .

24

2.4.5

Konsequenzen der Validierung . . . . . . . . . . . . . . . . .

26

Value-at-Risk in der Praxis

3.2

......................

27

2.5.1

Historische Volatilit~t und N o r m a l v e r t e i l u n g s a n n a h m e

2.5.2

Historische Simulation der R e n d i t e v e r t e i l u n g

2.5.3

Exponentielle G l ~ t t u n g der Volatilit~t

Volatilit~it
3.1

2.4.4

. . .

........

28
30

............

33

und Interdependenz

37

Univariate Modellierung der Volatilit~t . . . . . . . . . . . . . . . .

38

3.1.1

Definition univariater G A R C H - M o d e l l e

...........

38

3.1.2

Sch~tzung univariater G A R C H - M o d e l l e

...........

42

3.1.3

Prognose mit univariaten G A R C H - M o d e l l e n . . . . . . . . .

45

3.1.4

Beurteilung der univariaten G A R C H - M o d e l l e

47

........

Multivariate Modellierung der I n t e r d e p e n d e n z . . . . . . . . . . . .

48

3.2.1

Definition multivariater G A R C H - M o d e l l e

..........

49

3.2.2

Sch~tzung multivariater G A R C H - M o d e l l e

..........

57

3.2.3

P r o g n o s e mit m u l t i v a r i a t e n G A R C H - M o d e l l e n

.......

63

3.2.4

Beurteilung der m u l t i v a r i a t e n G A R C H - M o d e l l e . . . . . . .

67

Neuere Value-at-Risk A n s ~ i t z e

69

4.1

N i c h t - p a r a m e t r i s c h e Ans~itze . . . . . . . . . . . . . . . . . . . . . .

70

4.2

P a r a m e t r i s c h e Ans~itze . . . . . . . . . . . . . . . . . . . . . . . . .

74

4.3

4.2.1

G A R C H - M o d e l l i e r u n g mit N o r m a l v e r t e i l u n g s a n n a h m e

4.2.2

G A R C H - M o d e l l i e r u n g mit G E D - V e r t e i l u n g

S e m i - p a r a m e t r i s c h e Ans~itze . . . . . . . . . . . . . . . . . . . . . .

79
85
88

4.3.1

Direkte Modellierung durch Quantilsregression

.......

89

4.3.2

G A R C H - M o d e l l i e r u n g mit B o o t s t r a p - V e r f a h r e n . . . . . . .

94

4.3.3

G A R C H - M o d e l l i e r u n g mit E x t r e m w e r t t h e o r i e . . . . . . . .

98

5 Empirische Vergleichsstudie
5.1

.........

. . .

Beschreibung der D a t e n g r u n d l a g e . . . . . . . . . . . . . . . . . . .

105
107

INHAL'I SVERZEICHNIS
5.2

5.3
6

xi

Anwendung der alternativen Ans/itze . . . . . . . . . . . . . . . . .

111

5.2.1

Anwendung der univariaten Ans/itze . . . . . . . . . . . . .

113

5.2.2

Anwendung der multivariaten Ans/itze . . . . . . . . . . . .

140

Beurteilung der Ergebnisse . . . . . . . . . . . . . . . . . . . . . . .

Z u s a m m e n f a s s u n g und A usblick

Literaturverzeichnis

153

157
159

A b b il d u ngs ve rzei chnis

5.1

Kursverlauf des Euro Stoxx Index . . . . . . . . . . . . . . . . . . . . .

108

5.2

Kursverlauf der Sektoren-Indizes

109

5.3

Kennzahlen des Euro Stoxx Index im Zeitverlauf

5.4

1-Schritt Quantilsprognosen fiir den Euro Stoxx Index

5.5

Vergleich der 1-Schritt Quantilsprognosen fiir den Euro Stoxx . . . . .

119

5.6

CAViaR 1-Schritt Quantilsprognosen fiir den Euro Stoxx Index . . . .

120

5.7

Vergleich der Backtesting-Ausnahmen fiir den Euro Stoxx Index . . . .

121

5.8

Vergleich der Multiplikatoren f/ir den Euro Stoxx Index

........

123

5.9

10-Schritt Quantilsprognosen fiir den Euro Stoxx Index

........

124

.....................

5.10 10-Schritt Value-at-Risk fiir den Euro Stoxx Index

............

111

.........

118

...........

125

5.11 Eigenkapitalanforderungen fiir den Euro Stoxx Index . . . . . . . . . .

126

5.12 Korrelation zwischen Basic Materials und Financial Services . . . . . .

141

5.13 Quantilsprognosen im Vergleich . . . . . . . . . . . . . . . . . . . . . .

144

5.14 Quantilsprognosen der multivariaten Ans~tze im Vergleich . . . . . . .

145

5.15 Backtesting-Ausnahmen im Vergleich . . . . . . . . . . . . . . . . . . .

146

5.16 Durchschnittliche Korrelation des CCC- und des DCC-Modells


5.17 Multiplikatoren der multivariaten Ans~tze im Vergleich . . . . . . . . .

....

148
149

Tabellenverzeichnis
2.1

Konsequenzen der Validierung . . . . . . . . . . . . . . . . . . . . . . .

27

5.1

Deskriptive Statistik der Datengrundlage . . . . . . . . . . . . . . . . .

109

5.2

Ergebnisse der univariaten Analyse Euro Stoxx . . . . . . . . . . . . .

128

5.3

Ergebnisse der univariaten Analyse Basic Materials . . . . . . . . . . .

130

5.4

Ergebnisse der univariaten Analyse Cyclical Goods . . . . . . . . . . .

132

5.5

Ergebnisse der univariaten Analyse Financial Services

133

5.6

Ergebnisse der univariaten Analyse Industrial Goods . . . . . . . . . .

135

5.7

Ergebnisse der univariaten Analyse Non-cyclical Goods . . . . . . . . .

136

5.8

Ergebnisse der univariaten Analyse des Portfolios . . . . . . . . . . . .

137

5.9

Vergleich der Ergebnisse fiir das gewichtete Portfolio . . . . . . . . . .

150

.........

Symbolverzeichnis
a, S. 13
aj, S. 39
A, S. 50
13, S. 42
~j, S. 39

B , S . 50
cn, S. 98
Di, S. 53
d,~, S. 98
ci, S. 71
',1, S. 99
E, S. 54

ek, S. 54
E K A , S. 23
E S , S. 16
Fi, S. 51
F, S. 51
F, S. 86

J , S . 54
k~, S. 94
K, S. 13
K,S. 13

A, S. 34
L,S. 43
li, S. 43
LR, S. 25
~,S. 29
~, S. ii
.M, S. 23
#, S. 11
m, S. 14
Mn, S. 98
u, S. 86
N, S. 32
n , S . 11
nj, S. 25

7, S. 100

w, S. 14

Gi, S. 56

f~i, S. 38

gi, S. 56
G~,~, S. 100

~b, S. 42
7rj, S. 25

Hi, S. 34

pi, S. 13
Pi+~, S. 13

hi, S. 34
H~, S. 99
2-,S. 43
I~, S. 25
J , S. 43

q(a),, S. 14
QR, S. 92

R, S. 53
p~, S. 52

xviii

S YMB O L VERZEI CHNIS

rj,n+r, S. 32
ri, S. 14
ri+,-, S. 14

~ , S . 29

S, S. 13
S , S . 54
a 2, S. 11
0-2, S. 12
S , S . 12
0, S. 42
0~,~, S. 88
T, S. 15
ui, S. 38

~j, S. 103
~j, S. 103
~l-a, S. i01
~, s. 45
vj,n+r, S. 77
~i, S. 51
wi, S. 41
vi, S. 39
VaR, S. 13

zbj, S. 102
W , S. 50
S. 54

:~, s. 54

54
~, S. 99
X, S. 11
x, S. 11
x f , S. 99
~, S. 86
za, S. 21

Kapitel 1

Einleitung
Risikomanagement riickt immer starker in das Interesse der Unternehmen.
Die Absch~tzung der Marktrisiken ist eine wichtige Aufgabe zur effizienten
Kapitalallokation, insbesondere zur Hinterlegung hinreichender Eigenmittel zur
Absicherung gegen extreme Marktbewegungen. Der Ermittlung des daraus
mSglicherweise entstehenden Verlustbetrags, in der Regel als Value-at-Risk
bezeichnet, kommt grof~e Bedeutung zu. Um diese Absch/itzung des Marktrisikos
optimal vornehmen zu kSnnen, ist eine Erweiterung des Spektrums mSglicher
Ausgestaltungen der Berechnung des Value-at-Risk notwendig. Es ist sinnvoll,
neuere Ans~tze zur Berechnung des Value-at-Risk mit den bestehenden
Ans/itzen zu vergleichen, um den Ansatz auszuw/ihlen, der aus Sicht des
Unternehmens zu einer genaueren Absch/itzung der Marktrisiken und einer
angemessenen Hinterlegung mit Eigenmitteln fiihrt. Dieses Vorgehen fiihrt
zu einer risikoad/iquaten Steuerung des Verh/iltnisses zwischen Risiken und
Eigenmitteln und realisiert damit eine positive Wahrnehmung des Unternehmens
bei Rating-Agenturen und Aktion~ren. Die Vorgaben des Baseler Ausschusses fiir
Bankenaufsicht (Basel II) zum Umgang mit Marktrisiken gelten als Richtlinien
zur Berechnung des Value-at-Risk fiir Finanzinstitute.
Die Notwendigkeit der st/~rkeren Berficksichtigung des Risikomanagements
beruht auf den wirtschaftlichen und gesellschaftlichen Entwicklungen der letzten
Jahre. Der technologische Fortschritt fiihrt zur Globalisierung der M~rkte.
Computersysteme verbinden Unternehmen auf der ganzen Welt. Das Internet
ist wesentlicher Bestandteil der Gesellschaft geworden. Bemerkenswert ist die
zunehmende Vernetzung der Finanzm~rkte. Finanztitel werden rund um die Uhr
auf der ganzen Welt gehandelt, wodurch weitreichende Chancen aber auch Risiken
fiir die Marktteilnehmer entstehen: Auf Grund der engen Vernetzung kSnnen

K A P I T E L 1. EINLEITUNG

sich Finanzkrisen sehr schnell ausbreiten. Prominente Beispiele der jiingeren


Vergangenheit (u.a. Barings Bank, Enron, LTCM, Metallgesellschaft) fiihren
dieses Risiko deutlich vor Augen.
Diese steigende Komplexit~t des Unternehmensumfelds erfordert intelligentes
Risikomanagement, um die erfolgreiche Weiterentwicklung des Unternehmens
nicht zu gef~hrden. Intelligentes Risikomanagement identifiziert und bewertet
Risiken und fiihrt zu Schlussfolgerungen und Maf,nahmen entsprechend
der Unternehmenszielsetzung. Intelligentes Risikomanagement ist also ein
Erfolgsfaktor: Durch bewusstes Steuern des Verh~ltnisses zwischen Rendite
und Risiko wird eine sinnvolle Allokation der Finanzmittel und damit eine
Wertsteigerung des Unternehmens erreicht.
Regulatorische Anforderungen verst~rken zus~tzlich den Handlungsdruck auf
die Unternehmen. Die Basel II-Anforderungen setzen verbindliche Standards
hinsichtlich des Risikomanagements von international t~tigen Banken. Die
geforderte risikoad~quate Bewertung von Finanzinstrumenten fiihrt zunehmend
zur Entwicklung unternehmensinterner Modelle der Banken. Bei giinstiger
Ausgestaltung bilden diese Modelle die Risiken des zukiinftigen Gesch~ftsverlaufs
zutreffend ab und legen damit die Basis fiir entsprechende Maf,nahmen zum
Umgang mit den Risiken.
Die Basel II-Kriterien verkniipfen die HShe der Eigenkapitalanforderung
bei Verwendung eines unternehmensinternen Modells direkt mit dem
prognostizierten Value-at-Risk. So fiihrt eine ErhShung des Value-at-Risk
bei ausgeschSpften Eigenmitteln zur Eingrenzung von Handelsaktivit~ten oder
zur Notwendigkeit der ErhShung der Eigenmittel. Fiir das Finanzinstitut
kommt der umfassenden Analyse und Bewertung der unterschiedlichen Ans~tze
zur Berechnung des Value-at-Risk entscheidende Bedeutung zu. Insbesondere
neuere AusgestaltungsmSglichkeiten der Berechnung erweitern das Spektrum der
Mittel zur Erreichung einer angemessenen Darstellung der Marktrisiken. Ein
geeigneter Value-at-Risk Ansatz gew~hrleistet die risikoad~quate Steuerung der
Kapitalstruktur des Unternehmens.

1.1

Problemstellung

Zur Illustration des Forschungsstands zur Berechnung des Value-at-Risk (VaR)


kann ein Zitat von Prof. Engle, dem Nobelpreistr~iger fiir Wirtschaft des Jahres
2003 herangezogen werden ([39], S. 367): ,J:)espite VaR's conceptual simplicity,

1.1. PROBLEMSTELLUNG

its measurement is a very challenging statistical problem, and none of the


methodologies developed so far gives satisfactory solutions". In erster Linie soll die
vorliegende Arbeit einen Beitrag zur LSsung des aufgeworfenen Problems leisten:
Welche Ans~itze zur Berechnung des Value-at-Risk eignen sich zur ad~quaten
Absch~itzung von Marktrisiken?
Zur Beantwortung dieser Frage wurden zahlreiche Ideen in wissenschaftlichen
Arbeiten (fiir einen 0berblick vgl. Manganelli/Engle [76]) formuliert, wobei
sich insbesondere die Erkenntnisse zur Modellierung von Finanzmarktzeitreihen
fiir die Berechnung des Value-at-Risk nutzen lassen. Oftmals konzentriert
sich die Darstellung der Ans/itze zur Berechnung des Value-at-Risk auf
univariate 1-Schritt Value-at-Risk Prognosen. Da die Basel II-Kriterien die
Festlegung der geforderten Eigenmittel an die 10-Schritt Value-at-Risk Prognosen
kniipft, sollte eine systematische Ausweitung der Darstellung der Ans~itze
hinsichtlich dieser Anforderung vorgenommen werden. Hierbei werden in der Regel
Simulationsverfahren benStigt, um die Problematik der 10-Schritt Prognose zu
15sen. In der aktuellen Diskussion werden multivariate Ans~itze zur Berechnung
des Value-at-Risk kaum beriicksichtigt. Der Fokus bisher diskutierter Ans~itze
liegt auf der univariaten Modellierung eines Portfolios, statt die Bestandteile des
Portfolios multivariat zu modellieren, um gegebenenfalls die Information fiber die
Interdependenz der Bestandteile sinnvoll nutzen zu kSnnen. Diese multivariaten
Ans~itze zur LSsung der Ausgangsfrage sollen in dieser Arbeit st/irker in den
Blickpunkt riicken.
Aus der umfassenden Darstellung und Diskussion der einzelnen Ans/itze lassen
sich aus dem theoretischen Blickwinkel Vor- und Nachteile herausarbeiten. Die
Eignung der einzelnen Ans~itze zur Anwendung in realen Problemstellungen
kann ausschlief~lich durch eine empirische Vergleichsstudie analysiert werden.
Die bisherigen empirischen Arbeiten weisen oftmals Einschr~inkungen des
Betrachtungsumfangs auf. In der Regel werden nur ausgew~ihlte Ans/itze eines
Forschungsbereichs verglichen oder es wird sich auf bestimmte vereinfachende
Verteilungsannahmen beschr/inkt. Der Arbeit von Brooks/Persand ([23], S. 8) ist
folgendes Zitat zu entnehmen: ,,A number of methods to incorporate fat tails
have been proposed, most importantly the use of extreme value distributions
for returns. However, we continue to employ the normality assumption since
other distributional approaches usually do not directly employ a volatility
estimate". Diese Einschr/inkung auf die Normalverteilungsannahme miindet in der
Feststellung der Autoren zur Eignung der Ans/itze hinsichtlich der Value-at-Risk
Berechnung ([23], S. 20): ,,The first point to note is that if the objective is to

K A P I T E L 1. EINLEITUNG

cover 99% of future losses, then almost none of the models are adequate". Aber
genau diese 99% Value-at-Risk Prognosen werden von den Basel II-Kriterien
gefordert. Ziel dieser Arbeit soll es daher sein, eine umfassende Analyse der
denkbaren Ausgestaltungen der Value-at-Risk Berechnungen vorzunehmen, da
vermutet werden kann, dass neuere Ideen (z.B. Engle/Manganelli [39]), alternative
Verteilungsannahmen und die Einbeziehung von multivariaten Ans~tzen zu
geeigneteren Absch~tzungen der Marktrisiken fiihren.
Die Evaluation der in empirischen Studien verwendeten Ans~tze konzentrierte
sich bisher auf den Vergleich der getroffenen Value-at-Risk Prognosen mit
den tats~chlich realisierten Verlusten der betrachteten Finanzmarktzeitreihen.
Auf Grundlage dieses Vergleichs und abgeleiteter Tests lassen sich Aussagen
fiber die Eignung der jeweiligen Ans~tze treffen. In der vorliegenden Arbeit
soll fiber diese Betrachtungsweise hinausgegangen werden. Aus der Sicht
des Finanzinstituts ist es nicht nur wesentlich, die Risiken mSglichst genau
abzusch~tzen, sondern auch eine angemessene Hinterlegung mit Eigenmitteln
zu w~hlen. Eine zu hohe Hinterlegung mit Eigenmitteln fiihrt zu unnStiger
Bindung von Ressourcen und damit zu hSheren Kapitalkosten. Dieser aus
Sicht des Finanzinstituts wichtige Aspekt soll realit~tsnah abgebildet werden,
indem das Vorgehen zur Festlegung der Eigenkapitalanforderung anhand der
Basel II-Richtlinien tagesgenau nachgebildet wird. Dank dieser Betrachtungsweise
kann eine umfassende Bewertung der denkbaren Ans~tze zur Berechnung
des Value-at-Risk erfolgen, da zum einen die Genauigkeit des Ansatzes und
zum anderen die resultierenden Eigenkapitalanforderungen bewertet werden
kSnnen. Die Evaluation der Ans~tze soll durch ein bisher kaum beachtetes
Evaluationskriterium, welches die Eignung der Ans~tze anhand der Zielfunktion
der Quantilsregression bewertet, abgerundet werden.
Diese Arbeit soll daher nicht nur zur LSsung des statistischen Problems der
Value-at-Risk Prognosen beitragen, sondern zus~tzlich die Implikationen des
jeweiligen Ansatzes fiir das Finanzinstitut betrachten. Als Ergebnis sollen
Ausgestaltungen der Berechnung des Value-at-Risk herausgearbeitet werden, die
beiden Ansprfichen genfigen: Genaue Absch~tzung der Risiken bei mSglichst
geringer Hinterlegung von Eigenmitteln, um zum einen die Risiken decken
zu kSnnen, aber zum anderen keine Ressourcen an Eigenmitteln unnStig zu
verschwenden. Dieses optimale Vorgehen zur Nutzung der Kapitalressourcen
sollte sowohl ffir die wissenschaftliche Forschung als auch fiir die betroffenen
Finanzinstitute eine Bereicherung der Diskussion darstellen.

1.2. GANG DER UNTERSUCHUNG

1.2

Gang der Untersuchung

Das zweite Kapitel beginnt mit der Einordung des Themas in das
Gesamtspektrum des Risikomanagements. Der Kern des zweiten Kapitels ist die
Vorstellung und Beurteilung des Grundkonzepts Value-at-Risk, wobei in einem
0berlick die AusgestaltungsmSglichkeiten der Berechnung dargelegt werden.
Die regulatorischen Anforderungen durch Basel II geben den Rahmen fiir
die sp~tere empirische Vergleichsstudie und die Bewertung der Value-at-Risk
Ans~tze vor. Zum Abschluss dieses Grundlagenkapitels werden die in der Praxis
verwendeten Value-at-Risk Ans~tze aufbereitet, um jeweils Vor- und Nachteile
des Vorgehens zu diskutieren. Diese Diskussion liefert den Ausgangspunkt fiir das
dritte Kapitel dieser Arbeit" Volatilit~t und Interdependenz. In diesem Kapitel
wird die Modellierung der zeitver~nderlichen Volatilit~it und Interdependenz
mit GARCH-Modellen (generalized autoregressive conditional heteroscedasticity)
detailliert beschrieben. Dabei stehen Definition, Sch~tzung, Prognose und
Beurteilung univariater sowie multivariater GARCH-Modelle im Vordergrund.
Die Erkenntnisse aus dem dritten Kapitel werden im vierten Kapitel genutzt,
um unterschiedliche Ausgestaltungen der Einbeziehung von GARCH-Modellen
als wesentlichen Bestandteil des Kapitels fiber neuere Value-at-Risk Ans~tze
zu pr~entieren. Daneben werden im vierten Kapitel auch andere neuere Ideen
zur Value-at-Risk Berechnung vorgestellt. Das fiinfte Kapitel beginnt mit
der Beschreibung der Datengrundlage der empirischen Vergleichsstudie. Der
Schwerpunkt des Kapitels liegt in der Anwendung der in vorangegangenen
Kapiteln dargestellten Ans~tze zur Berechnung des Value-at-Risk. Dabei werden
im ersten Schritt univariate Ans~tze verglichen, um darauf aufbauend die
multivariaten Ans~tze in den Vergleich einzubeziehen. Das fiinfte Kapitel schliet~t
mit der Beurteilung der verwendeten Ans~tze aus Sicht des Finanzinstituts. Das
abschliei~ende sechste Kapitel fasst die wesentlichen Erkenntnisse der vorliegenden
Arbeit zusammen und zeigt in einem Ausblick den weiteren Forschungsbedarf auf.

Kapitel 2

Value-at-Risk
Erwachsen aus den Erfahrungen der prominenten Finanzkrisen (fiir eine
Diskussion von Fallbeispielen vgl. Jorion [66], Kapitel 2) in den neunziger Jahren
riickte Value-at-Risk als Konzept zur Absch/itzung von Marktrisiken starker in
den Blickpunkt der Finanzinstitute und der regulierenden AufsichtsbehSrden.
Value-at-Risk sch~tzt den hSchstmSglichen, aus Risiken resultierenden
Verlustbetrag fiir einen gegebenen zukiinftigen Zeitraum ab. Damit kann
die Risikosituation durch eine einzelne Kennziffer zusammengefasst werden. Der
ermittelte Value-at-Risk dient zur Information des Top-Managements. Zus~tzlich
kann der Value-at-Risk fiir ausgew/ihlte Teilbereiche der Gesch~ftst~itigkeit
berechnet werden. Darauf aufbauend kSnnen die Risikopositionen der
verschiedenen Teilbereiche durch die Festsetzung von Limits kontrolliert
werden. Aktives Management der Risikopositionen steuert gezielt die Allokation
des Kapitals auf die relevanten Teilbereiche. Durch dieses Vorgehen besteht die
MSglichkeit, das gesamte Finanzinstitut konsequent hinsichtlich der Abw~gung
zwischen Rendite und Risiko auszurichten. Der genauen Berechnung des
Value-at-Risk kommt wesentliche Bedeutung zu, da hiermit die Ausgangsbasis
zur effektiven Steuerung geliefert wird.
In diesem Kapitel wird zun~chst das Gesamtspektrum Risikomanagement
strukturiert (2.1), um dann fiber die formale Definition des Value-at-Risk (2.2)
zu den AusgestaltungsmSglichkeiten der Berechnung (2.3) zu kommen. Im darauf
folgenden Abschnitt (2.4) werden die regulatorischen Anforderungen durch Basel
II beschrieben. Den Abschluss dieses Kapitels (2.5) bilden die Darstellungen der
in der Praxis verwendeten Ausgestaltungen der Value-at-Risk Berechnung.

KAPITEL2. VALUE-AT-RISK

2.1

Strukturierung des Risikomanagements

In Abh~ingigkeit vom Industriesektor und dem spezifischen Gesch~iftsmodell


des Unternehmens kommt den verschiedenen Risikoarten eine unterschiedliche
Bedeutung zu. Eine grobe Absch~tzung der Gewichtung der Bedeutung der
Risikoarten in einigen Industriesektoren ist Merbecks, Stegemann und Frommeyer
([80], S. 135, im weiteren durch MSF abgekiirzt) zu entnehmen. In dieser
Arbeit wird der Strukturierung der Autoren gefolgt, und damit die folgende
Unterscheidung der Risikoarten gew~ihlt (vgl. MSF [80], S. 80):
9 Marktrisiken
9 Kreditrisiken
9 Operationelle Risiken
9 Gesch~ftsrisiken
Die folgenden Unterkapitel stellen die vier wesentlichen Risikoarten vor, um
die Marktrisiken als Schwerpunkt dieser Arbeit in den Gesamtkontext des
Risikomanagements einordnen zu kSnnen.

2.1.1

Marktrisiken

Sp~testens seit dem Zusammenbruch der Barings Bank 1995 (vgl. Jorion [66], S.
36-38) ist der breiten Offentlichkeit und besonders den Finanzinstituten bewusst
geworden, welche erheblichen Konsequenzen Fehleinsch~tzungen der Marktrisiken
nach sich ziehen kSnnen. In diesem Fall ist ein Verlust in HShe von 1,3 Milliarden
Dollar entstanden.
Zahlreiche andere Finanzkrisen belegen die hohe Gefiihrdung der Wirtschaft durch
Marktrisiken (vgl. Jorion [66], Kapitel 2). ,,Unter Marktrisiken wird hier die
Gefahr einer mSglichen Ver~inderung der VermSgenslage eines Unternehmens auf
Grund einer Abweichung der Marktpreise beispielsweise fiir Aktien, W~hrungen,
Rohstoffe und Zinsen von ihren erwarteten Werten verstanden" (vgl. MSF [80], S.

s2).
In dieser Arbeit wird auf die Absch~tzung von Marktrisiken, insbesondere
Aktienkursrisiken fokussiert. Unter Aktienkursrisiko wird das durch
Kursschwankungen hervorgerufene Risiko eines Portfolios aus Aktien
beziehungsweise Aktienindizes verstanden. In der empirischen Vergleichsstudie

2.1. STRUKTURIERUNG DES RISIKOMANAGEMENTS

wird ein Datensatz bestehend aus europ~ischen Aktienindizes verwendet. Die


Messung des diesbeziiglichen Marktrisikos erfolgt anhand der Tagesschlusskurse
der betrachteten Indizes.
Die weiteren Ausfiihrungen dieser Arbeit zur Berechnung des Value-at-Risk
eines Aktienportfolios lassen sich auf Wechselkurs-, Rohstoffpreis- oder
Zins~inderungsrisiken iibertragen. Damit sind die Erkenntnisse fiir nahezu alle
Unternehmen relevant, da in der heutigen globalisierten Wirtschaft ~iugerst selten
ein Unternehmen ohne Abh~ingigkeit von Wechselkursen oder Rohstoffpreisen zu
finden ist.
2.1.2

Kreditrisiken

Kreditrisiken sind von groger Bedeutung fiir Universalbanken, die als


Kreditgeber zahlreiche Unternehmen mit Kapital versorgen. Zunehmend wird
eine risikoad~iquate Analyse der Kreditnehmer durchgefiihrt. Mit Hilfe von
Rating-Agenturen oder eigenen Bonit~itsbewertungsmodellen werden die Risiken
aus dem Kreditgesch~ft durch Auswahl der Kreditnehmer und risikoad~iquate
Ermittlung des Zinssatzes gezielt gesteuert.
,,Unter Kreditrisiken wird hier die Gefahr mSglicher Wertverluste von Forderungen
eines Unternehmens verstanden
9 auf Grund unerwarteter vollst~indiger, partieller oder tempor~irer
Zahlungsunf~higkeit oder-unwilligkeit eines Schuldners (Ausfall- bzw.
Kreditausfallrisiko),
9 auf Grund einer mit einer unerwarteten Bonit~itsverschlechterung
des Schuldners einhergehenden Marktwertminderung der Forderung
(Bonit~tsrisiko),
9 auf Grund einer unerwarteten Reduktion der
Sicherheiten oder Garantien (Besicherungsrisiko),

Werthaltigkeit

yon

9 oder auf Grund einer unerwarteten generellen Neubewertung der


bestehenden und unver~inderten Ausfall-, Bonit~ts- und Besicherungsrisiken
am Markt (Spread-Risiko)"
(vgl. zur Vertiefung MSF [80], S. 83/84).
In der jfingeren Vergangenheit l~st sich ein weiterer Beleg fiir den bewussteren
Umgang mit Kreditrisiken erkennen. Finanzinstitute ver~uf, ern zunehmend

10

K A P I T E L 2. VALUE-AT-RISK

,notleidende" Forderungen an spezialisierte Finanzinvestoren. Hierdurch werden


die Risiken aus dem betreffenden Kreditgesch~ft weitergegeben.

2.1.3

Operationelle Risiken

Operationelle Risiken sind fiir alle Unternehmen relevant. Besonders


Produktionsunternehmen sind StSrungen des operativen Gesch~fts ausgeliefert.
,,Operationelle Risiken werden hier als die Gefahr mSglicher VermSgensverluste
fiir ein Unternehmen auf Grund unerwarteter mangelhafter Abl~ufe im internen
Leistungsbereich (zum Beispiel mangelnde Qualifikation oder Sorgfalt von
Mitarbeitern, Fehlfunktion von Systemen oder Betrug) oder unerwarteter externer
Beeintr~chtigungen der internen Abl~ufe (zum Beispiel Terroranschl~ge oder
Naturkatastrophen) verstanden" (vgl. MSF [80], S. 87).
Die Bandbreite der operationellen Risiken ist grot~. Ein extremes Beispiel
ist der Terroranschlag vom 11. September 2001 mit seinen dramatischen
Folgen. Auch Imagesch~iden kSnnen zu den operationellen Risiken gez~hlt
werden. An diesem Beispiel wird besonders deutlich, wie vielschichtig und
schwer quantifizierbar sich diese Risikoart fiir das Unternehmen gestaltet.
Zur Identifizierung und Bewertung der operationellen Risiken werden oftmals
Risikob~ume konzipiert, wobei die Einzelrisiken die BlOtter darstellen, die sich
sukzessive zum finanziellen Gesamtrisiko verdichten. Dabei wird auf jeder Ebene
die Eintrittswahrscheinlichkeit des identifizierten Risikos und die Auspr~gung des
Effekts auf die n~chsthShere Ebene modelliert. Als Ergebnis dieses Vorgehens
kSnnen die finanziellen Auswirkungen auf das Gesch~ftsergebnis analysiert
werden.

2.1.4

Gesch~iftsrisiken

Nach der Beriicksichtigung der Markt-, Kredit- und operationellen Risiken


verbleiben die Gesch~ftsrisiken.
,,Unter Gesch~ftsrisiken wird hier die Gefahr mSglicher VermSgensverluste fiir
ein Unternehmen verstanden, die vor allem durch unerwartete Schwankungen
der Absatzmenge oder der Absatzpreise bzw. -margen auf Grund ver~nderter
Kundennachfrage oder-pr~ferenzen entstehen" (vgl. MSF [80], S. 92).
Besonders unerwartet hohe Nachfrageschwankungen in Branchen mit hohem
Fixkostenanteil fiihren zu einer erheblichen Hebelwirkung. Ein Beispiel ist
die Automobilindustrie. Neue Modelle ffihren permanent zur .&nderung des

2.2. VALUE-AT-RISK ALS R I S I K O M A S S S T A B

11

verffigbaren Angebots, wodurch erhebliche Nachfrageschwankungen generiert


werden. Als zweites Beispiel kann die Energieversorgung herangezogen werden.
Maggeblicher Einfiussfaktor ffir die Kundennachfrage ist der Wetterverlauf des
jeweiligen Jahres. Auch Gesch~ftsrisiken sind vom Unternehmen aktiv zu steuern.
Diese Managementaufgabe kann sich bei dieser Risikoart schwierig gestalten. Das
Wetter kann vom Unternehmen nicht beeinflusst werden. Jedoch kSnnen fiber
Wetterderivate geeignete Absicherungsstrategien gefunden werden.

2.2

V a l u e - a t - R i s k als R i s i k o m a g s t a b

Die Absch/itzung von Marktrisiken beinhaltet die Modellierung einer


Zufallsvariablen. Ein Beispiel hierfiir kann der zukiinftige Kurs einer Aktie oder
eines Aktienportfolios sein. Um die Risiken des zukfinftigen Verlaufs absch/itzen
zu kSnnen, miissen die Charakteristika dieser Zufallsvariablen beschrieben
werden. Dabei wird auf die Beschreibung der Verteilung zuriickgegriffen. Die
zu modellierende Zufallsvariable sei in diesem einffihrenden Beispiel mit X
beschrieben.
Zur Charakterisierung dieser Zufallsvariablen X werden in der Regel die Momente
der Verteilung verwendet. Der theoretische Erwartungswert gibt den mittleren
Wert der Verteilung an und wird im weiteren als # bezeichnet

E(X)

~.

In der empirischen Anwendung liegen Beobachtungen der Zufallsvariable vor,


welche mit x bezeichnet sein sollen. 0ber die vorliegenden Beobachtungen kann
eine Sch/itzung des Erwartungswerts vorgenommen werden

--

--

Xi~

i=1

wobei n die Anzahl der vorliegenden Beobachtungen angibt. Zur Beschreibung der
Variabilit/it der Zufallsvariablen kann die theoretische Varianz der Zufallsvariablen
herangezogen werden
V ( X ) = E [(X - p)~] = a2.

Die Varianz der Zufallsvariablen wird mit Hilfe der vorliegenden Beobachtungen
gesch/itzt
n

a--~ =

1
n-1

E ( x i - ft) 2.
i=l

(2.1)

KAPITEL 2. VALUE-AT-RISK

12

Die Beobachtungen einer Aktie oder eines Aktienportfolios liegen in Form einer
Zeitreihe vor. Die historischen Werte der Zeitreihe kSnnen als Realisation einer
Zufallsvariablen angesehen werden. Die Quadratwurzel der gesch~itzten Varianz
wird in diesem Zusammenhang oftmals als gesch~tzte historische Volatilit~it
bezeichnet. Die Volatilitiit einer Aktie oder eines Aktienportfolios l~st Aussagen
fiber die Schwankungsbreite zu.
Die Uberlegung eines Finanzinstituts hinsichtlich der Risiken eines
Aktienportfolios konzentriert sich oftmals auf die einseitige Absch~itzung
des mSglichen zukfinftigen Verlusts. Bei dieser Fokussierung auf das Verlustrisiko
beziehungsweise den hSchstmSglichen Verlustbetrag sollte ein Risikomaf,
verwendet werden, welches diese Betrachtungsweise abbildet.
Die Varianz betrachtet sowohl positive als auch negative Abweichungen vom
Erwartungswert. Damit fiihren extrem positive ebenso wie extrem negative
Abweichungen zu einer ErhShung des Risikos. In der Betrachtungsweise des
Finanzinstituts stellen extrem positive Abweichungen vom Erwartungswert kein
erhShtes Risiko dar. Die ausschlief, liche Berechnung der historischen Volatilitiit
aus den vorliegenden Beobachtungen kann daher nicht geeignet sein.
Um dieses Problem zu fiberwinden wurde das Konzept des Value-at-Risk
entwickelt. ,,Value-at-Risk ist, vereinfacht formuliert, die in W~ihrungseinheiten
ausgedriickte maximale (ungfinstige) Abweichung des tats~chlichen Werts einer
Position von ihrem erwarteten Wert innerhalb eines definierten Zeitraums und
innerhalb eines festzulegenden Sicherheits- oder Konfidenzniveaus" (vgl. MSF [80],

S. 114).
Wichtig ist hierbei, dass Value-at-Risk in der Regel als positiver Wert definiert ist,
jedoch einen Verlustbetrag darstellt. Das Value-at-Risk Konzept hat sich vor allem
bei Finanzinstituten als Standardverfahren zur Absch~itzung von Marktrisiken
durchgesetzt.
Der Value-at-Risk beachtet auch die Schiefe und WSlbung beziehungsweise
Kurtosis der zu modellierenden Zufallsvariablen. Die Schiefe S ist ein Ma~ fiir
die Asymmetrie einer Verteilung (vgl. Franses/van Dijk [47], S. 13)

s - E l ( X - # )33

(2.2)

und kann wie folgt gesch~itzt werden

= I- f i ( ~ - ~)~
n

~-3
i=l

(2.3)

2.2.

13

VALUE-AT-RISK ALS RISIKOMASSSTAB

Die Kurtosis beschreibt die Form der betrachteten Verteilung (vgl. Franses/van
Dijk [47], S. 10)

K : E

(X - ~)~]

~4

(2.4)

Die Sch/itzung aufgrund empirischer Beobachtungen folgt mit

n A.,
i=l

#4

(2.~)

Insbesondere Abweichungen vonder Normalverteilung (K = 3) lassen sich durch


die Berechnung der Kurtosis feststellen. HShere Werte (K > 3) der gesch~tzten
Kurtosis weisen auf eine hShere Anzahl extremer Beobachtungen hin.
In den folgenden Unterabschnitten wird zun~chst das Konzept Value-at-Risk
formal definiert. Daraufhin werden generelle Anforderungen an ein Risikoma~
dargestellt, um letztendlich zu einer Beurteilung des Konzepts Value-at-Risk zu
gelangen. Die Diskussion der historischen Volatilit~it wird im Abschnitt 2.5.1
nochmals aufgegriffen und weitergefiihrt, da die historische Volatilit~t als ein
Baustein zur Berechnung des Value-at-Risk verwendet werden kann.

2.2.1

Definition des Value-at-Risk

Zun~chst soll der Untersuchungsgegenstand dieser Arbeit enger eingegrenzt


werden. Wie schon erw~hnt, wird die Berechnung des Value-at-Risk anhand
eines Aktienportfolios durchgefiihrt. Es sei p~ der Wert des Portfolios zum
Zeitpunkt i. Der zukiinftige Wert des Portfolios in der Zeitperiode i + T
sei durch Pi+r gegeben. Zwischen dem Wert Pi und pi+r liegen folglich T
Zeiteinheiten. Bei Aktienkursen werden Tage als Zeiteinheit gew~hlt. Ziel der
Value-at-Risk Berechnung ist demnach eine Absch/itzung fiir die n~chsten T Tage.
Der Value-at-Risk der Zeitspanne der n~chsten T Zeiteinheiten wird im folgenden
mit VaR(a),.l~ bezeichnet und erfiillt die Gleichung 2.6 mit P a l s Symbol fiir die
Wahrscheinlichkeit:
P(Pi - Pi+r > V a n ( a ) , - l i ) = a.

(2.6)

Der Value-at-Risk ist festgelegt als Verlustbetrag, der im zukiinftigen Zeitpunkt


i + r mit vorgegebener Wahrscheinlichkeit 1 - a nicht iiberschritten wird. Dabei
ist der historische Verlauf des Portfolios bis zum Zeitpunkt i bekannt.
Die Modellierung des historischen Kursverlaufs ist mit Schwierigkeiten verbunden,
da die Zeitreihe eines Aktienkurses oftmals nicht stationer ist (zur Stationarit~t
vgl. Pindyck/Rubinfeld [91], S. 493/494). Daher wird dazu iibergegangen, die

14

KAPITEL

2.

VALUE-AT-RISK

Renditezeitreihe einer Aktienkurszeitreihe zu modellieren. Die resultierenden


Ergebnisse kSnnen dann wieder zurficktransformiert werden, um Aussagen fiber
den Aktienkurs oder das Aktienportfolio treffen zu kSnnen. Es sei ri die
Portfoliorendite zum Zeitpunkt i
(2.7)

ri - l n ( p i / p i - 1 ) .

Das Portfolio ist zusammengesetzt aus m einzelnen Wertpapieren. Die Rendite


eines Wertpapiers sei rk,i, wobei ebenso gilt: rk,i = l n ( p k , i / P k , i - 1 ) . Die
Portfoliorendite kann auch durch die Gewichtung der Bestandteile mit den
Gewichtungsfaktoren wk dargestellt werden
m

ri = ~

~krk,i = ~'ri.

(2.8)

k=l

Da insbesondere die T-Schritt Value-at-Risk Analyse interessiert, sei die


kumulierte Portfoliorendite ffir die entsprechende Zeitperiode gegeben durch
ri+T -- l n ( p i + r / P i ) -- ri+l -}-... + ri+r,

(2.9)

wobei der Fettdruck des Symbols v im Weiteren ffir die Kumulation fiber T
Zeiteinheiten steht. Es folgt der Wert des Portfolios zum Zeitpunkt i + T mit
pi+r = pi exp(ri+r).

Es sei q(c~)rli das c~-Quantil der bedingten Verteilung von r i + r


P(ri+r

< q(~)rli)=

~,

(2.~o)

wobei die historische Information des Prozesses pi bis zum Zeitpunkt i gegeben
ist. Wegen der Gleichungen 2.6 und 2.10 folgt der Value-at-Risk des Portfolios fiir
die Zeitperiode r mit
VaR(~)rli

= pi(1 - exp(q(c~)~-Ii)).

(2.11)

Die Problemstellung liegt in der Berechnung des Quantils q(c~)~.li. Die


weiteren Ausffihrungen dieser Arbeit stellen verschiedene Vorgehensweisen
zur Ausgestaltung dieser Berechnung dar. Die Bestimmung des Quantils der
Renditeverteilung des Portfolios ist insofern der Schlfissel zur Bestimmung eines
genauen Value-at-Risk.

2.2. VALUE-AT-RISK ALS RISIKOMASSSTAB

15

Anforderungen an ein Risikomaf~

2.2.2

Zur Beurteilung geeigneter Risikomage wurden von Artzner et al. [6] vier
Anforderungen an ein Risikomafo definiert. Bei Erfiillung der Anforderungen
bezeichnen die Autoren das Risikomai~ als koh~irent.
Ein koh~irentes Risikomag T transformiert den Verlust Y in das Risikomag T(Y)
unter Einhaltung der folgenden Bedingungen (in Anlehnung an Alexander [3], S.
259):
9 Das Risikomag ist monoton, wenn T(Y) _> T(Z) aus Y >_ Z folgt.
9 Das Risikomag ist homogen, wenn T(~Y) = ~T(Y) fiir ~ >_ 0 gilt.
9 Risikolose Bedingung" T(Y + r
- T(Y) - r mit dem risikolosen Zinssatz
und r C ~. Die risikolose Anlage des Betrags r mindert das vorhandene
Risiko um den Betrag r
9 Das Risikomaf, ist subadditiv, wenn T(Y + Z) _< T(Y) + T(Z) gilt.
Die

Einhaltung

dieser

Bedingungen

gew~ihrleistet

die

Konvexit~it

der

Risikofunktion. In der aktuellen Forschung werden die definierten Anforderungen


und die Implikationen diskutiert. Die Arbeit von Artzner et al. [6] gibt zwei
Beispiele, in denen das Risikomai~ Value-at-Risk die vierte Bedingung der
Subadditivit~it nicht einh~ilt. Die Diskussion soll in dieser Arbeit nicht vertieft
werden.
Die Zielsetzung dieser Arbeit ist die Identifikation eines geeigneten Ansatzes
zur Berechnung des Value-at-Risk eines Aktienportfolios. Es geht nicht um
die Zusammenfiihrung der Value-at-Risk Absch~tzungen einzelner Teilbereiche.
Nur bei dieser Konsolidierung der Teilbereiche wie beispielsweise der
Zusammenfassung von Zinsrisiken, W~ihrungsrisiken und Aktienrisiken ist die
Subadditivit~it relevant.

2.2.3

Beurteilung des Konzepts Value-at-Risk

Das Konzept Value-at-Risk hat sich als Standardverfahren etabliert, da es die


Risikopositionen eines Unternehmens in einer Kennzahl analysiert, und somit
fiir das Top-Management eine leicht interpretierbare Steuerungsbasis liefert.
Unterschiedliche Teilbereiche lassen sich mit dieser Kennzahl vergleichen, da eine
einheitliche Definition des Value-at-Risk fiir alle Marktrisiken zur Anwendung
kommt. Hierauf aufbauend kann die Allokation des Kapitals effizient gesteuert

16

KAPITEL

2. V A L U E - A T - R I S K

werden. Besonders hervorzuheben ist die Fokussierung auf zukfinftige Risiken.


Die Anwendung dieses Konzepts richtet folglich den Blick in die Zukunft und
unterliegt damit nicht der iiblichen Kritik an vergangenheitsorientierten Analysen.
In der Praxis wird der Value-at-Risk auch aufgrund der Vorgaben der Basel
II-Richtlinien berechnet. Durch die Basel II-Kriterien wird das Value-at-Risk
Konzept zur Bestimmung der Eigenkapitalanforderungen mit bankinternen
Modellen akzeptiert und befiirwortet (vgl. Abschnitt 2.4). MSF ([80], S.
114) konstatieren: ,,Mit der Zulassung dieser internen Risikomessmodelle der
Banken zeigt sich, dass sich Value-at-Risk auch bei den Aufsichtsbeh5rden als
Referenzmodell ffir eine moderne Risikoquantifizierung etabliert hat."
Zur 0berbriickung des vorliegenden Nachteils der fehlenden Subadditivit~t
des Konzepts Value-at-Risk werden in der aktuellen Diskussion Alternativen
vorgeschlagen. Viel diskutiert wird der sogenannte ,,Expected Shortfall", im
weiteren durch E S abgekiirzt (Jorion, [66], S. 97), der von Artzner et al. [6] als
,,Tail conditional expectation" oder von Alexander ([3], S. 260) als ,,Conditional
VaR" bezeichnet wird:
ES(o~)~.li = E(pi - Pi+rlPi - Pi+r > VaR(o~).rli).

(2.12)

Der Expected Shortfall gibt die durchschnittliche HShe der 0berschreitungen des
Value-at-Risk an. Die Bedingungen an ein koh~rentes Risikomaf, werden durch
den Expected Shortfall erffillt. Die Definition zeigt, dass dieses RisikomaI~ keine
Alternative, sondern eine Erg~nzung des Value-at-Risk darstellt, da zu dessen
Bestimmung der Value-at-Risk bekannt sein muss. Nur im Rahmen restriktiver
Annahmen (wie z.B. Normalverteilung der Renditen) kann das Risikoma~
ES(o~).rli direkt berechnet werden. Bei Simulationsmethoden oder weniger
restriktiver Festlegung der Verteilungsannahmen t'iihrt erst die Berechnung
des Value-at-Risk zur Identifikation der relevanten Beobachtungen, die zur
Berechnung des Risikomaf, es ES(o~)rli benStigt werden.

2.3

Ausgestaltungsmiiglichkeiten der Berechnung

Die vorgestellte Grundlogik des Konzepts Value-at-Risk kann auf


unterschiedlichste Weise ausgefiillt werden. Die Berechnung des Value-at-Risk
kann dabei auf Grundlage der univariaten Modellierung der Portfoliorenditen
oder der multivariaten Modellierung der Portfoliobestandteile erfolgen. Zahlreiche
AusgestaltungsmSglichkeiten wurden noch nicht von der univariaten Analyse
auf die multivariate Analyse ausgeweitet. In diesem Abschnitt sollen die

2.3. A USGESTALTUNGSMOGLICHKEITEN DER BERECHNUNG

17

grunds~tzlichen Alternativen kurz vorgestellt und systematisiert werden. Die


Detaillierung der Ans~tze zur Value-at-Risk Berechnung findet in den folgenden
Abschnitten dieser Arbeit statt.
Die generelle Vorgehensweise weist drei Schritte auf (vgl. Manganelli/Engle [76])'
1. Bewertung des aktuellen Portfolios
2. Sch~tzung der Verteilung der Portfoliorenditen
3. Berechnung des Value-at-Risk des Portfolios
Dabei unterscheiden sich die unterschiedlichen Ans~tze in der Sch~tzung der
Verteilung der Portfoliorenditen. Die Ermittlung des gesuchten Quantils der
Renditeverteilung erfolgt auf Basis von"
9

Nicht-parametrischen Ans~tzen (Sch~tzung des Quantils direkt aus der


historischen Verteilung)

9 Parametrischen Ans~tzen (oftmals Zerlegung in Prognose der Volatilit~t und


Sch~tzung der Verteilung der Portfoliorenditen)
9

Semi-parametrischen Ans~tzen (Modellierung des Quantils ohne restriktive


Verteilungsannahmen)

Die folgenden Abschnitte geben einen Uberblick zur Ausgestaltung der drei
verschiedenen Vorgehensarten.
2.3.1

N i c h t - p a r a m e t r i s c h e Ans~itze im U b e r b l i c k

Bei den nicht-parametrischen Ans~tzen steht die Verteilung der historischen


Renditezeitreihe im Vordergrund. Eine parametrische Verteilungsannahme wird
nicht getroffen. Die Ans~tze werden in der Regel unter dem Begriff ,,Historische
Simulation" zusammengefasst, wobei es einige Varianten des Grundansatzes
gibt. Das Quantil der Renditeverteilung wird aus den Beobachtungen der
Renditezeitreihe einer definierten historischen Zeitperiode ermittelt. Daraus folgt,
dass die Charakteristika der analysierten Beobachtungen verwendet werden,
um Riickschliisse auf das zukiinftige Quantil der Renditeverteilung zu ziehen.
Die Festlegung des Zeitraums ist wesentlich fiir den ermittelten Value-at-Risk.
Extreme Einfliisse wie die Terroranschl~ige vom 11. September 2001 dominieren
die HShe des Value-at-Risk ffir die Ls
des gew~hlten Zeitfensters. Der

18

KAPITEL 2. VALUE-AT-RISK

Value-at-Risk einer Schweizer Grofobank wird beispielsweise vom 11. September


2001 bis zum September 2003 von diesen Ereignissen gepr~gt. Im September
2003 erfolgt eine deutliche Trendwende. Der Value-at-Risk verringert sich ab dem
September 2003 rapide (vgl. Credit Suisse [28]). Der Grund fiir diesen Verlauf
liegt in einem historischen Zeitfenster von zwei Jahren. Die Turbulenzen des 11.
September und der folgenden Tage sind zwei Jahre im Zeitfenster enthalten, bevor
sie nicht mehr beriicksichtigt werden.
Nicht-parametrische Ans~tze beriicksichtigen die empirisch beobachtete
zeitver~nderliche Volatilit~it nicht explizit. Falls die Renditezeitreihe eine
erkennbare Struktur der Schwankungsbreite im ausgew~ihlten Zeitfenster aufweist,
wird diese Information in der Berechnung des Quantils nicht beriicksichtigt (vgl.
hierzu Abschnitt 3.1).
Der eindeutige Vorteil der nicht-parametrischen Ans~tze ist die geringe
Komplexit~t in der Berechnung. Es ist leicht und schnell mSglich, den
Value-at-Risk auf Grundlage der historischen Renditezeitreihe zu berechnen.
Dabei ist keine Sch~tzung von Parametern eines komplexeren Modells notwendig.
Damit besteht nicht die Gefahr dutch ein falsches parametrisches Modell
Fehlentscheidungen zu treffen. Die detaillierte Vorstellung und Evaluation dieser
Kategorie von Ans~tzen erfolgt in den Abschnitten 2.5.2 und 4.1.

2.3.2

P a r a m e t r i s c h e Ans~itze im U b e r b l i c k

Die Gemeinsamkeit der parametrischen Ans~tze liegt in der Zusammenfiihrung


der Modellierung der Volatilit~t mit einer geeigneten Verteilungsannahme.
Die einfachste Form der parametrischen Modelle ist die in der Praxis oft
getroffene Annahme der Normalverteilung der Portfoliorenditen kombiniert mit
der Annahme der konstanten Volatilit~t im Zeitverlauf. Auf diesen Ansatz wird
im Abschnitt 2.5.1 eingegangen. Im Gegensatz dazu bestehen parametrische
Ans~tze, die in ihrer Ausgestaltung wesentlich komplexer sind und dadurch starker
auf empirische Sachverhalte eingehen. GARCH-Modelle und EWMA-Modelle
(exponentially weighted moving average) modellieren explizit die zeitver~nderliche
Volatilit~t der Renditezeitreihe. Dabei wird ein parametrisches Modell fiir
die Fortentwicklung der Volatilit~t unterstellt. Somit ist es mSglich, Phasen
steigender beziehungsweise sinkender Volatilit~t in die Value-at-Risk Prognose
mit einzubeziehen. Die Modellierung der Volatilit~t wird durch geeignete
Verteilungsannahmen erg~nzt. Im Abschnitt 2.5.3 wird ein Beispiel hierzu
vorgestellt, indem das EWMA-Modell mit der Normalverteilungsannahme der

2.4. REGULATORISCHE ANFORDERUNGEN DURCH BASEL H

19

Renditeverteilung kombiniert wird. Dieser Ansatz stellt eine Alternative zur


Berechnung des Value-at-Risk unter der Annahme konstanter Volatilit~t dar (vgl.
Abschnitt 2.5.1). Die Ans~tze unter Einbeziehung der GARCH-Modelle werden
in Abschnitt 4.2 pr~entiert. Dabei wird auf eine flexiblere Verteilungsannahme
zur Modellierung der Renditezeitreihe zuriickgegriffen.
Die Schwachstelle der parametrischen Ans~tze besteht in der oftmals hohen
Anzahl an Parametern kombiniert mit eng definierten Verteilungsannahmen.
Dieses Vorgehen birgt die Gefahr einer Fehlspezifikation der Modellierung.

2.3.3

Semi-parametrische Ans~itze im Clberblick

Die Vorgehensweise der nicht-parametrischen und der parametrischen Ans~tze


wird bei den semi-parametrischen Ans~tzen kombiniert. Dabei wird nicht
die gesamte Verteilung der Renditezeitreihe durch ein parametrisches Modell
beschrieben. Die Ans~tze konzentrieren sich auf die Modellierung ausgew~hlter
Teilbereiche der Verteilung. Der Rest der Verteilung wird hingegen durch den
nicht-parametrischen Ansatz beschrieben. Die Extremwerttheorie setzt dabei
direkt bei der Modellierung der R~nder der betreffenden Verteilung an. Fiir diese
Teilbereiche wird ein parametrisches Modell verwendet (vgl. Abschnitt 4.3.3).
Eine andere MSglichkeit ist die Verwendung der Quantilsregression. Bei diesem
Ansatz wird eine bestimmte Fortentwicklung des Quantils der Renditeverteilung
unterstellt. Dabei wird das interessierende Quantil direkt durch autoregressive
Modelle beschrieben (vgl. Abschnitt 4.3.1). GARCH-Modelle ohne konkrete
Spezifizierung der Renditeverteilung werden ebenfalls zu den semi-parametrischen
Modellen gez~hlt (vgl. Abschnitt 4.3.2).
Zusammenfassend kann festgehalten werden, dass die semi-parametrischen
Ans~tze hShere Anforderungen an die Berechnung des Value-at-Risk stellen als
die parametrischen Ans~tze.

2.4

Regulatorische Anforderungen durch Basel II

Ziel der Vorgaben des Baseler Ausschusses fiir Bankenaufsicht (Basel II) ist die
Verpflichtung der Banken, die typischen finanzwirtschaftlichen Risiken (Kredit-,
Markt- und operationelle Risiken) zu messen und zu steuern (vgl. Reichling
[93], S. 6). Die Vorgaben gelten zun~chst fiir international t~tige Banken. Die
0bertragung der Richtlinien in nationales Recht soll laut derzeitiger Planung
Anfang 2007 erfolgen.

20

KAPITEL 2. VALUE-AT-RISK

Die Basel II-Richtlinien bestehen aus drei S~ulen. ,,Die erste S~ule regelt
die Mindesteigenkapital-Anforderungen von Kreditinstituten und stellt fiir
Unternehmen die relevante S~ule dar. Die zweite S~iule enth~lt Aussagen zur
Uberpriifung der Einhaltung von Standards durch die Bankenaufsicht. Die dritte
S~ule befasst sich mit verschiedenen Offenlegungspflichten der Kreditinstitute"
(vgl. Reichling [93], S. 6/7).
Die folgenden Unterabschnitte besch~ftigen sich mit den regulatorischen
Anforderungen hinsichtlich Marktrisiken. Im Vordergrund steht die kompakte
Darstellung der Basel II-Vorgaben zur Ermittlung der Eigenkapitalanforderungen,
da diese fiir Finanzinstitute als wesentliche EinflussgrSge angesehen werden
kSnnen. Der Begriff ,,Finanzinstitute" wird in dieser Arbeit als Oberbegriff
verwendet, um die betreffenden Unternehmen des Finanzsektors wie Banken
beziehungsweise Kreditinstitute abzubilden, die in den Anwendungsbereich der
Basel II-Richtlinien fallen (zur genauen Beschreibung des Anwendungsbereichs
vgl. Basle Committee on Banking Supervision [14], im weiteren durch BCBS
abgekiirzt).

2.4.1

Generelle Zielsetzung

Die generelle Zielsetzung der Basel II-Richtlinien hinsichtlich Marktrisiken besteht


in der Gew~hrleistung der Stabilit~t von Finanzinstituten und damit der Stabilit~t
des gesamten Finanzsektors. Die Krisen der Vergangenheit (z.B. Barings Bank)
haben gezeigt, dass die unzureichende Messung und Steuerung der Marktrisiken
drastische Folgen haben kann. Aus dieser Erfahrung heraus fordern die Basel
II-Richtlinien eine risikoad~quate Bewertung der Gesch~ftssituation. Folglich
werden die Mindesteigenkapitalanforderungen aus einer risikobasierten Analyse
abgeleitet.
Zur Marktrisikomessung und zur Bestimmung der Eigenkapitalanforderungen
werden vom Baseler Ausschuss bankinterne Modelle auf Basis der Value-at-Risk
Berechnung befiirwortet. Diese Regelungen wurden in einem Zusatz zum
Baseler Akkord formuliert, den der Baseler Ausschuss 1996 verSffentlicht
hat (vgl. BCBS [11] und [12]). Diese Ausfiihrungen zu Marktrisiken werden
in die Basel II-Richtlinien iibernommen. Die Ausgestaltung des internen
Modells bleibt weitestgehend im Verantwortungsbereich der Finanzinstitute. Die
0berpriifung der Qualit~t des jeweiligen internen Modells obliegt den nationalen
AufsichtsbehSrden. Bei Nichteinhaltung der geforderten Standards resultiert eine
ErhShung der Eigenkapitalanforderung fiir das betreffende Finanzinstitut.

2.4. R E G U L A T O R I S C H E A N F O R D E R U N G E N DURCH BASEL II


2.4.2

21

A u s g e s t a l t u n g des i n t e r n e n M o d e l l s

Die ausdrfickliche Zulassung und Befiirwortung eines internen Modells kann als
grof, er Fortschritt der Basel II-Richtlinien angesehen werden, da hierdurch auf
schon entwickelte Modelle bei den Finanzinstituten zurfickgegriffen werden kann.
Bei der Ausgestaltung des internen Modells werden keine bestimmten Vorgaben
hinsichtlich der verwendeten Ans~itze gegeben: ,~No particular type of model is
prescribed" (vgl. BCBS [11], S. 44). Es wird zun~ichst allgemein ein ad~iquates
Modell gefordert, welches bestimmten Qualitiitsstandards geniigt (vgl. BCBS
[11]). Erst durch die Vorgaben zur Validierung des Modells (vgl. Abschnitte
2.4.4 und 2.4.5) werden Regeln zur 0berpriifung der Qualitiit konkretisiert. Die
Erwartung der AufsichtsbehSrden ist, dass die Finanzinstitute fortlaufend ihre
Risikomodelle verbessern und alle relevanten Marktrisiken in die Modellierung
integrieren: ,move to a comprehensive model" (vgl. BCBS [11], S. 6).
Die Basel II-Richtlinien zum internen Modell erfordern die t~igliche Berechnung
des Value-at-Risk zur Festlegung der Eigenkapitalanforderung (vgl. Abschnitt
2.4.3). Der Value-at-Risk soll mit einem Signifikanzniveau von c~ = 0,01 fiir
die Haltedauer von 10 Tagen (T = 10) berechnet werden. Die Berechnung
soll mindestens auf den historischen Daten des letzten Jahres basieren, das
heit~t es werden mindestens 250 Handelstage in die Analyse einbezogen. Zur
Vereinfachung der Berechnung des geforderten 10-Schritt Value-at-Risk ist
es erlaubt, die 1-Schritt Value-at-Risk Prognose als Grundlage fiir folgende
SkalierungsmSglichkeit zu nutzen:

VaR(o~).,.ji = X/"-TVaR(oL)lli.

(2.13)

Diese Vereinfachung soll eine Erleichterung fiir die Finanzinstitute darstellen, die
zur Zeit nur die 1-Schritt Value-at-Risk Prognose berechnen. Methodisch beruht
diese Vereinfachung auf restriktiven Annahmen. Die dargestellte Skalierung gilt,
wenn fiir die Renditen eine Normalverteilung mit Erwartungswert Null unterstellt
wird. Dabei wird angenommen, dass die Renditen unabh~ingig und identisch
verteilt sind (i.i.d.):
ri ,'~ i.i.d. Af(0, a2).
Aus dieser Darstellung kann das bedingte (gegeben die Information bis zum
Zeitpunkt i) Quantil der Renditeverteilung fiir den Zeitpunkt i + 1 mit

einfach bestimmt werden, wobei z~ das c~-Quantil der Standardnormalverteilung


bezeichnet. Die Varianz der kumulierten T-Schritt Renditeverteilung (vgl.

22

K A P I T E L 2. VALUE-AT-RISK

Gleichung 2.9) folgt mit


7"

V(r,+.)

l=l

Damit weist die kumulierte Renditeverteilung die folgende Verteilung auf


ri+~- ", Af(O, Ta 2) bzw. ~r~+. ~ N ( 0 , 1 )

Das bedingte Quantil der kumulierten T-Schritt Renditeverteilung ist folglich


q(oL),li- ~/'-TaZa- ~/~q(C~)lli.
Durch diese Darstellung l~st sich die SkalierungsmSglichkeit (Gleichung 2.13) als
Approximation der 10-Schritt Value-at-Risk Prognose begriinden.
Als Alternative zur Nutzung des internen Modells ermSglichen die Basel
II-Richtlinien das ,,Standardverfahren". Dieses Verfahren wird oftmals auch als
,,Building Block Approach" bezeichnet. Die Marktrisiken werden in die vier
Risikokategorien (Zinsen, Aktien, W~hrungen, Rohstoffe) unterteilt. Ffir jede
dieser Kategorien werden alle Positionen in der Regel pauschal mit einem
Prozentsatz von 8 % als Risiko der Kategorie bewertet. Das gesamte Marktrisiko
ergibt sich durch einfache Summation der Risiken der vier Kategorien. In diesem
Ansatz wird die Interdependenz einzelner Risikopositionen nicht beriicksichtigt.
Durch die Nichtbeachtung der Korrelationen sowohl in einer Risikokategorie
als auch zwischen den einzelnen Risikokategorien werden Diversifikationseffekte
vernachl~sigt (zur detaillierten Darstellung des Verfahrens vgl. BCBS [11]).
Aus dieser Situation ist die Befiirwortung des internen Modells durch die
AufsichtsbehSrden verst~ndlich. Erst die Nutzung eines internen Modells
fiihrt zur realistischen Analyse der Interdependenz von einzelnen Risiken und
Risikokategorien und damit zur genaueren Absch~tzung von Marktrisiken. Die
Basel II-Richtlinien unterstiitzen somit die verst~rkte Nutzung des internen
Modells in der Zukunft und stellen das ,,Standardverfahren" als Auslaufmodell
dar: ,,Banks which adopt a model will not be permitted, save in exceptional
circumstances, to revert to the standardised approach" (vgl. BCBS [11], S. 6).
2.4.3

Berechnung der Eigenkapitalanforderung

Zur Absicherung gegen Finanzkrisen erfordern die Basel II-Richtlinien eine


ad/iquate Hinterlegung der eingegangenen Marktrisiken durch Eigenkapital (vgl.
BCBS [11]). Die AufsichtsbehSrden greifen explizit auf das Value-at-Risk Konzept

2.4. REGULATORISCHE ANFORDERUNGEN DURCH BASEL II

23

zuriick, um die regulatorischen Eigenkapitalanforderungen (EKA) mit Hilfe des


internen Modells zu berechnen. Die Eigenkapitalanforderung des Zeitpunkts i + 1
soll entweder der 10-Schritt Value-at-Risk Prognose des letzten Tages oder dem
Mittelwert der t/iglichen 10-Schritt Value-at-Risk Prognosen der letzten 60 Tage
multipliziert mit einem Faktor A//entsprechen:

EKAlli = max .M

~ VaR(O, O1)lOli-j+l, VaR(O, 01)1Oli) 9


j=l

Der multiplikative Faktor M wird zun~chst auf M = 3 gesetzt. Bei schlechter


Qualitiit des Modells in der Validierung wird der Faktor auf einen Wert von
bis zu 4 erhSht (vgl. Abschnitt 2.4.5). Zur Begriindung der festgelegten HShe
des Multiplikators wird von Stahl die Tschebyschewsche Ungleichung angefiihrt
(vgl. Stahl [97]). Die Logik der ErhShungen des Multiplikators wird in den Basel
II-Kriterien angegeben (vgl. BCBS [13], S. 8). Die ErhShung des Multiplikators
fiihrt zu einer hSheren Eigenkapitalanforderung. Durch die ErhShung des
Eigenkapitals resultieren hShere Kapitalkosten, da Eigenkapitalgeber in der Regel
hShere Renditen als Fremdkapitalgeber erwarten. Dieses ist mit der nachrangigen
Bedienung der Eigenkapitalgeber im Insolvenzfall zu begriinden. Falls das
Finanzinstitut aufgrund hSherer Risiken ihr Eigenkapital nicht ausweiten will
oder kann, fungiert die erhShte Eigenkapitalanforderung als Einschr~nkung der
mSglichen Gesch~ftsaktivit~ten. Das Finanzinstitut kann nur Gesch~fte mit den
daraus folgenden Risiken eingehen, solange geniigend Eigenkapital zur Erfiillung
der Basel II-Richtlinie vorhanden ist. Die Eigenkapitalanforderung ist daher als
wesentlicher Bestimmungsfaktor des Handlungsspielraums des Finanzinstituts
anzusehen.
In dieser Arbeit wird die Eigenkapitalanforderung (EKA) als 5konomische
Zielfunktion betrachtet, die vom Finanzinstitut bei gleichzeitiger genauer
Absch~tzung der Marktrisiken mSglichst minimiert werden sollte. Aus der
Minimierung der Eigenkapitalanforderung bei gleichzeitiger Einhaltung der Basel
II-Richtlinien steht dem Finanzinstitut der Freiraum zur Aufnahme weiterer
Risiken, die gleichzeitig die Chance zu weiteren profitablen Gewinnen bieten,
zur Verfiigung. Daher wird die Eigenkapitalanforderung in der empirischen
Vergleichsstudie (vgl. Kapitel 5) als ma~gebliche Kennzahl zur Bewertung der
verschiedenen Ans/itze herangezogen.

24

2.4.4

KAPITEL

2. V A L U E - A T - R I S K

Validierung der Value-at-Risk Prognosen

Die Validierung des Value-at-Risk Ansatzes anhand der Basel II-Richtlinien erfolgt
fiber den Vergleich der 1-Schritt Value-at-Risk Prognosen mit den tats~chlich
realisierten 1-Schritt Verlusten fiber den Zeitraum eines Jahres (circa 250
Handelstage). Die 0berschreitung der Value-at-Risk Prognose wird im Weiteren
als Backtesting-Ausnahme bezeichnet
h

Pi - Pi+l > V a R ( O ,

01)11i.

Aquivalent kSnnen die Backtesting-Ausnahmen

als Unterschreitungen

der

Quantilsprognose durch die Renditezeitreihe


ri+l < ~(0, 01)11i
ermittelt werden. Die Validierung der 1-Schritt Prognosen wird gew~hlt,
da sich die Gewichtung der einzelnen Wertpapiere im Portfolio fiber einen
l~ngeren Zeitraum vertindert. Damit ist ein angemessener Vergleich nicht
gewtihrleistet (vgl. BCBS [13]). Diese Vorgabe ist insofern inkonsistent, da sich die
Eigenkapitalanforderung am 10-Schritt Value-at-Risk orientiert. Hieraus entsteht
der Anreiz ffir das Finanzinstitut, die 1-Schritt Value-at-Risk Prognosen eher
konservativ zu gestalten, um in der Validierung erfolgreich zu sein, hingegen die
10-Schritt Value-at-Risk Prognose eher anti-konservativ zu berechnen, um die
Eigenkapitalanforderung und damit die Kapitalkosten zu minimieren.
Die statistische Evaluation der Value-at-Risk Prognosen konzentriert sich darauf,
die Zeitreihe der Backtesting-Ausnahmen zu analysieren. Ein Value-at-Risk
Modell mit einem Konfidenzniveau von (1 - ~)% sollte Prognosen abgeben, die
in c~% der Ftille zu einer Backtesting-Ausnahme ffihren. Dieses wird oftmals als
unbedingte Anforderung bezeichnet
P(ri+l < q(a)lli) = a.

(2.14)

Die Backtesting-Ausnahmen sollten fiber die gesamte Zeitperiode verteilt sein


und nicht gehtiuft auftreten. Zur Beurteilung dieser Anforderung wurden von
Christoffersen [26] Tests entwickelt. Dabei wird zun~chst eine Indikator-Variable
definiert, die bei Eintreten der Backtesting-Ausnahme den Wert 1 und ansonsten
den Wert 0 annimmt

1 ffir ri+l < q(c~)l[i


0 ffir r~+l > q(c~)lli "

2.4. REGULATORISCHE ANFORDERUNGEN DURCH BASEL II

25

Als Forderung

im

l~st

Backtesting-Zeitraum

sich zusammenfassen,

dass

die Serie

{/i+l}n__l

der zurtickliegenden n Zeitperioden unabh~ingig und

identisch verteilt (i.i.d.) sein sollte. Basierend auf dieser Indikator-Variablen wird
im ersten Test die Nullhypothese des Parameters a der Bernoulli-Variablen

i.i.d. Bernoulli(a)

H o : Ii+l ~

(2.15)

gegen die Alternativhypothese, dass der wahre Parameter von a abweicht,


getestet. Die Likelihood-Ratio Teststatistik (LR) ftir diesen ersten Test kann wie
folgt
LR, = -21n

a (1 - o0 n~ ]
TM

& n l ( 1 - &)no a

X2

(1)

formuliert werden. Unter Gfiltigkeit der Ho-Hypothese ist die Teststatistik


asymptotisch Chi-Quadrat-verteilt mit einem Freiheitsgrad, wobei gilt:
nl = Anzahl der Auspr~gungen der Indikator-Variablen mit dem Wert 1,
no - Anzahl der Auspr~gungen der Indikator-Variablen mit dem Wert 0,
&=

nl
als ML-Schiitzung von a.
no + nl

Im zweiten Schritt kann die Hypothese eines unabh~ngig verteilten


Bernoulli-Prozesses gegen die Alternativhypothese eines Markov-Prozesses
erster Ordnung getestet werden (vgl. Christoffersen [26])
I
LR2

m 2 ln

~nl{ 1 - - a ) n~
(1 - 7roi)n~176

(1

7rllj

~nlo6-nll
"11

x2(1),

mit
njk = Anzahl der Beobachtungen mit j gefolgt von k (j,k = O, 1),
~jk = P(Ii+l = k l I i = j)

#01

(j, k = 0, 1),

n01
noo + nol

nil
nIo + nll

Im dritten Schritt kann abschliet~end die Nullhypothese eines unabhiingigen


Bernoulli-Prozesses mit Parameter a gegen die Alternativhypothese eines
Markov-Prozesses erster Ordnung mit einer alternativen Ubergangsmatrix
getestet werden:
H0 : ~01 = 71"11= cz~
LR3 = -21n

c~TM (1 - c~)n~
L X2
( 1 - ~ol)noo6"n~
7T1 ~nl0aCrnll
(2).
"01

--

1]

"11

26

KAPITEL 2. VALUE-AT-RISK

Es gilt: LR3 = LR1 + LR2. Die Beschr~inkung dieser Testmethodik liegt in der
ausschliei~lichen Beriicksichtigung von Abh~ingigkeiten erster Ordnung.
Die grunds~itzliche Idee dieser formalen Tests wird auch in den Basel II-Richtlinien
befolgt. Die Basel II-Richtlinien fordern die Auswertung der Anzahl der
Backtesting-Ausnahmen des letzten Jahres. Eine Abweichung der beobachteten
Backtesting-Ausnahmen von der erwarteten Anzahl bzw. ein geh~iuftes Auftreten
von Backtesting-Ausnahmen fiihrt zu erheblichen Konsequenzen fiir das
Finanzinstitut. Bei moderater Abweichung wird der Multiplikator A4 zur
Berechnung der Eigenkapitalanforderungen erhSht. Eine starke Abweichung
der Anzahl der Backtesting-Ausnahmen fiihrt dazu, dass die AufsichtsbehSrde
zus~itzlich eine .&nderung des Modells vom betreffenden Finanzinstitut verlangt.

2.4.5

Konsequenzen der Validierung

Die Konsequenzen der Anzahl an Backtesting-Ausnahmen fiber die letzten zwSlf


Monate (ca. 250 Handelstage) werden durch die Basel II-Richtlinien geregelt
und folgen einer Ampel-Logik basierend auf Gleichung 2.15 und c~ - 0,01
(vgl. BCBS [13]). Im griinen Bereich ist der Value-at-Risk Ansatz zuverl~sig.
Der Multiplikator verbleibt daher beim Ausgangswert .A4 - 3. Dieser Wert des
Multiplikators sichert die Finanzinstitute gegen unerwartete Marktgegebenheiten
und Fehleranfiilligkeiten des Modells ab (vgl. BCBS [12], S. 3/4 und Stahl
[97]). Allerdings basieren die Uberlegungen zur HShe des Multiplikators
auf der Annahme der Normalverteilung (vgl. Stahl [97]). Damit kann der
gew~ihlte Ausgangswert .A4 = 3 bei Value-at-Risk Ans~itzen mit alternativen
Verteilungsannahmen gegebenenfalls zu hoch sein, da die bestehenden Risiken
durch eine alternative Verteilung angemessen beriicksichtigt werden. Die
Konstruktion des Multiplikators kann somit zu einem Zielkonflikt fiihren, da
der Ausgangswert .A4 = 3 keinen ausreichenden Anreizmechanismus fiir das
Finanzinstitut liefert, um gegebenenfalls zu angemesseneren Verteilungsannahmen
zu wechseln.
Im gelben Bereich trifft das Basel II-Komitee unterstiitzt durch die nationalen
Gremien eine Entscheidung fiber die Anhebung des multiplikativen Faktors
.M. Dabei kSnnen au~ergewShnliche Marktgegebenheiten als Grund fiir die
Backtesting-Ausnahmen geltend gemacht werden, welche zu einer Aussetzung der
ansonsten strengen Einhaltung der Vorgaben zur Anhebung des Faktors fiihren
kSnnen. Die HShe der Anhebungen dient der Aufrechterhaltung des angestrebten
Signifikanzniveaus c~ = 0, 01 (vgl. BCBS [13], S. 8).

2.5. VALUE-AT-RISK IN DER PRAXIS

27

Der rote Bereich fiihrt zu einer direkten Sanktionierung durch Anhebung des
multiplikativen Faktors Az[ auf den Wert A/[ = 4. Aufgrund der offenbarten
M~ngel des Modells wird das betreffende Finanzinstitut vonder AufsichtsbehSrde
aufgefordert, das Modell zu ~ndern.
Zusammenfassend sind die Folgen der Anzahl der Backtesting-Ausnahmen in
Tabelle 2.1 dargestellt:
Zone

Backtesting-Ausnahmen

Anstieg des Faktors A4

Grfin

0 bis 4

0.00

Gelb

0.40

Rot

6
7
8
9
> 10

0.50
0.65
0.75
0.85
1.00

Tabelle 2.1: Konsequenzen der Validierung


Das Reporting an die zust~indige nationale AufsichtsbehSrde findet quartalsweise
statt. Die Evaluation des letzten Jahres wird zur Festsetzung des Multiplikators
fiir das folgende Quartal verwendet. Mehr als vier Backtesting-Ausnahmen
ffihren zu einem hSheren Multiplikator. Damit resultiert aus einer ungenauen
Absch~tzung der Marktrisiken eine hShere Eigenkapitalanforderung. Die H5he der
Eigenkapitalanforderung ist letztendlich an die 10-Schritt Value-at-Risk Prognose
und an die Qualit~t des verwendeten Value-at-Risk Ansatzes geknfipft.
Die Auswahl des geeigneten Value-at-Risk-Ansatzes ist der wesentliche Schlfissel
zur erfolgreichen Absch~tzung der Marktrisiken, da hiermit fiber die Genauigkeit
des Modells und die resultierenden Folgekosten aufgrund der HShe der
Eigenkapitalanforderung entschieden wird.

2.5

Value-at-Risk in der Praxis

In der Praxis werden oftmals Ans~tze angewendet, die leicht zu verstehen


und einfach umsetzbar sind. Neuere komplexere Ans~itze werden nur sehr
langsam ins Tagesgesch~ft der Finanzinstitute fibernommen. Generell ist darauf
zu achten, dass die verwendeten Ans~tze wesentliche Charakteristika der
zu modellierenden Finanzmarktzeitreihen abbilden. Eine vielbeachtete und in

28

K A P I T E L 2. VALUE-AT-RISK

zahlreichen wissenschaftlichen Artikeln best/itigte Eigenschaft der betrachteten


Finanzmarktzeitreihen ist die Leptokurtosis, das heit~t, die Renditezeitreihen
weisen eine hShere Kurtosis im Vergleich zur Normalverteilung auf (vgl.
Gleichungen 2.4/2.5, Gourieroux [50], S. 68/69, Franses/van Dijk [47], S.
9/10). Besondere Beachtung hat die Modellierung der Volatilit~t einer
Finanzmarktzeitreihe gefunden. Es lassen sich Phasen unterschiedlicher Volatilit~t
erkennen, die sich durch GARCH-Modelle abbilden lassen (vgl. Engle [35] und
Bollerslev [17]). Die Volatilit~it wird nicht als konstant angenommen, sondern
explizit im Zeitverlauf modelliert.
Ans~tze zur Berechnung des Value-at-Risk sollten diese empirischen
Informationen beriicksichtigen. Falls dieses nicht gegeben ist, erscheint es
sinnvoll, komplexere Ans~itze in die Praxis zu iiberfiihren, um eine realit~tsnahe
Berechnung des Value-at-Risk sicherzustellen. In den folgenden drei Abschnitten
werden die wesentlichen Praxis-Ans/itze diskutiert:
9 Historische Volatilit~it (parametrischer Ansatz)
9 Historische Simulation (nicht-parametrischer Ansatz)
9 EWMA-Modellierung der Volatilit~t (parametrischer Ansatz)
Das Ziel ist es, die Eignung der Ans~tze zu diskutieren und gegebenenfalls
VerbesserungsmSglichkeiten hinsichtlich der Berechnung des Value-at-Risk
aufzuzeigen.

2.5.1

Historische Volatilit~it und Normalverteilungsannahme

Die Annahme der Normalverteilung fiir die Verteilung der Renditezeitreihe


ist wesentlich fiir die Finanzmarkttheorie. Die Portfoliotheorie beruht auf der
Annahme der Normalverteilung, um die Abw~gung zwischen Rendite und
Risiko als Entscheidungs- und Auswahlgrundlage in den Vordergrund zu stellen
(vgl. Markowitz [77]). Das Capital Asset Pricing Modell zur Ableitung der
wohlbekannten ,,Beta-Faktoren" und damit der Kapitalkosten eines Unternehmens
beruht ebenfalls auf der Normalverteilungsannahme (vgl. Sharpe [96], Lintner [73],
Mossin [85]). Auch in der Black-Scholes Formel, der wesentlichen Grundlage der
Optionspreistheorie, ist die Normalverteilungsannahme wesentlicher Bestandteil
(vgl. Black/Scholes [16]).
Die Normalverteilungsannahme kann zur Berechnung des Value-at-Risk
verwendet werden. Durch die Annahme der multivariaten Normalverteilung der

2.5.

VALUE-AT-RISK

IN DER

29

PRAXIS

Portfoliorenditen wird eine schnelle und einfache Berechnung des Value-at-Risk


erreicht. Die Verteilungsannahme der multivariaten Normalverteilung fiir den
Vektor ri bestehend aus den m einzelnen Wertpapieren wird mit
ri ~ i.i.d. N'm(/~, lE)
dargestellt, wobei mit D der Vektor der Erwartungswerte und mit lE die
Varianz-Kovarianz-Matrix bezeichnet ist. Daraus folgt fiir die Portfoliorendite
ri =

~olri

ri "-~ i.i.d. A/'(#, a 2)


mit
# = w~/~ undcr 2 = WrY]tO.
Das c~-Quantil q ( ~ ) r l n der bedingten Verteilung von r n + ~ (vgl. Gleichung 2.10),
basierend auf dem Informationsstand einschlieglich des Zeitpunkts n, ist
q(c~)rln = #tin + z a a r l n
mit
#~-In = T# und a~.ln - V/~a.
Der Value-at-Risk des Portfolios fiir die Zeitperiode r folgt mit (vgl. Gleichung

2.11)
VaR(c~)rln

= p n ( 1 - exp(q(c~)rln)) = p n ( 1 -- exp(#rln + Z a a r l n ) ) "

Die Sch/itzung des Erwartungswerts # mit der L/inge des Zeitfensters n kann wie
folgt vorgenommen werden
[zk,,In = r[zk,lln = r

-n

rk,i

k = 1, ..., m ,

i=l

In der Praxis wird oftmals /2tin = 0 gesetzt. Durch dieses Vorgehen


h/ingt die Value-at-Risk Berechnung wesentlich von der historischen
Volatilit/it

beziehungsweise

historischen

Varianz-Kovarianz-Matrix

ab.

die Varianz-Kovarianz-Matrix wird folgende Sch/itzung angewendet


n

..
~ 1 7 6 ' l ln - -

1
~(ro,i
rt - 1

fZo,lln)(?"p,i

/Zp, lln)

i=1
Oop,.rl n =

TO'op,lln ,

'

o,p

"-- 1 , . . .

'

m,

Fiir

30

KAPITEL 2. VALUE-AT-RISK

a"~.rln= r(w'EllnW)
mit

611,1[n 612,1[n "" 61m,l[n


]~lln =

~21.,11n ~22.,1l-

~2m.,lln

O'ml,lln O'm2,11n

O'mm,lln

Der Einfachheit dieses Ansatzes stehen einige Kritikpunkte gegeniiber. Ffiir


die Auswahl der Lgnge des Zeitfensters n gibt es keine Regeln. Bei der
Berficksichtigung einer langen Historie der Renditezeitreihen flief,t mehr
Information in die Schgtzer ein, das heif, t die Schgtzungen werden zuverl~siger.
Hingegen wird dadurch die implizite Annahme getroffen, dass sich die Varianzen
beziehungsweise Kovarianzen fiber diesen Zeitraum nicht vergndern. Bei Vorliegen
sich gndernder Parameter kann es angemessener sein, eine verhgltnismgf, ig kurze
Historie einzubeziehen.
Die Annahme der Normalverteilung wird in zahlreichen empirischen Studien
abgelehnt. Renditezeitreihen weisen in der Regel eine hShere Kurtosis auf, das
heif, t extrem negative und extrem positive Renditen treten hgufiger auf als bei
einer Normalverteilung (vgl. Gourieroux [50], S. 68/69 oder Franses/van Dijk
[47], S. 9/10). Die Konstanz der Volatilitgt a i m Zeitverlauf, ausgedrfickt durch
die sogenannte ,,Square-Root-of-Time Regel"

O"rIi-- ~/'Tffl]i,
kann zu Fehleinschgtzungen ffihren (vgl. Diebold et al. [30]).
Zusammenfassend l~st sich sagen, dass bei Annahme der Normalverteilung der
Renditen mit konstanter historischer Volatilitgt die Gefahr besteht, Marktrisiken
zu unterschgtzen.

2.5.2

Historische Simulation der Renditeverteilung

Die historische Simulation ist der am hgufigsten angewendete Ansatz zur


Ermittlung des Value-at-Risk in der Praxis. Vorteil dieses Ansatzes ist, dass
keine Annahmen fiber die Verteilung der Renditezeitreihe benStigt werden. Daher
wird die historische Simulation zu den nicht-parametrischen Ansgtzen gezghlt.
Bei diesem Ansatz ist es nicht notwendig, die Varianz-Kovarianz-Matrix der
m Wertpapiere zu bestimmen. Stattdessen wird als Grundidee die historische
Datengrundlage genutzt, um die empirische Verteilung zu schgtzen. Die

2.5.

VALUE-AT-RISK

31

IN DER PRAXIS

Value-at-Risk Prognose wird fiber die Ermittlung des a-Quantils der historischen
Portfoliorenditezeitreihe ri berechnet. Gegebenenfalls wird hierzu zungchst die
Portfoliorenditezeitreihe aus den Bestandteilen des Portfolios gebildet: ri = w'ri
(vgl. Gleichung 2.8).
Formal dargestellt ist das a-Quantil q(a) der Verteilung F:
q(a) = F - l ( a )

= inf{x e R: F ( x ) >_ a},

0 < a < 1.

Die Schwierigkeit der Anwendung besteht darin, dass die Verteilung der
Renditen nicht bekannt ist. Daher wird das empirische Quantil der historischen
Renditezeitreihe fiber die historischen Beobachtungen geschgtzt. Vereinfacht
gesprochen ist das a-Quantil die Rendite, welche grSger ist als a% der
Beobachtungen und kleiner als ( 1 - a)% der Beobachtungen. Zur genauen
Ermittlung werden die historischen Renditen ri(i = 1, ..., n) aufsteigend sortiert.
Es sei
r(1), ..., r(n)
die Ordnungsstatistik der Beobachtungen definiert durch
r(1) _< ... < r(~).
Zur Schgtzung des empirischen Quantils q(a) gibt es unterschiedliche
MSglichkeiten (vgl. Hyndman/Fan [62]). In der vorliegenden Arbeit wird zur
Schgtzung im ersten Schritt der ganzzahlige Wert l bestimmt, der die Bedingung
(vgl. Uyndman/Fan [62], Definition 7)
l-

1 +a < an < l +a

erffillt. Mit dem Gewichtungsfaktor d zur Interpolation der relevanten geordneten


Werte r(i )
d = 1 + (n - 1)a - l
resultiert das geschgtzte Quantil (vgl. Hyndman/Fan [62], Gleichung 1)
[~(a, ri) = (1 - d)r(L) + dr(l+,).

(2.16)

Diese Vorgehensweise wird in der vorliegenden Arbeit durchgehend zur Schgtzung


des empirischen Quantils verwendet. Dieses rechtfertigt die Unterscheidung
der Notation, denn das 1-Schritt Quantil q(a)ljn zur Bestimmung des
1-Schritt Value-at-Risk kann durch unterschiedlichste Ansgtze ermittelt werden.
Bei der historischen Simulation wird auf das geschgtzte empirische Quantil
zuriickgegriffen

0(~)~t~ = 4(~, ri),

32

K A P I T E L 2. V A L U E - A T - R I S K

um die 1-Schritt Value-at-Risk Prognose des Portfolios zu sch/itzen


A

VaR(a)l[n = pn(1 - exp(q(c~)l[n)).

Die Ermittlung der T-Schritt Value-at-Risk Prognose kann unterschiedlich


gestaltet werden. Eine MSglichkeit ist das Ziehen mit Zuriicklegen aus den
historischen 1-Schritt Renditen. Dieses Vorgehen wird als Bootstrap-Verfahren
bezeichnet (vgl. Davison/Hinkley [29], S. 2/3). Die aus der historischen
Renditezeitreihe zuf/illig gezogene Beobachtung sei rj,n+T, wobei der Index j
die j-te Ziehung angibt. Dabei gilt j - 1,..., N und T -- 1,..., 10. Es werden
demnach 10N zuf~llige Ziehungen vorgenommen. Grundlage dieses Vorgehens
ist die Annahme von identisch und unabh/ingig verteilten (i.i.d.) Renditen ri.
Zur Bildung der interessierenden kumulierten 10-Schritt Renditen rj,n+lo (vgl.
Gleichung 2.9) werden die gezogenen Renditen summiert
10

rj,n+lo = ~

rj,n+7-.

(2.17)

7"=1

Durch dieses Vorgehen werden N kumulierte 10-Schritt Renditen simuliert, aus


denen das gesch/itzte empirische Quantil ~(a, rj,n+lo) ermittelt werden kann.
Dieses wird als 10-Schritt Quantil zur Sch/itzung des 10-Schritt Value-at-Risk
verwendet (vgl. Gleichung 2.11)
h

VaR(a)loln = pn(1 - exp(q(a)loln)).

Zur Bestimmung des kumulierten 10-Schritt Quantils kSnnen alternativ zun~chst


kumulierte 10-Schritt Renditen rs+lo aus den n historischen Beobachtungen
gebildet werden (vgl. Gleichung 2.9)
s+10

rs+lo = ~ ,

rt,

fiir s = 0, 1, ..., n

10.

t=s-bl

Beruhend auf diesen kumulierten 10-Schritt Renditen kann die Sch~tzung des
empirischen Quantils vorgenommen werden, um das interessierende Quantil
O(a)lo] n zu erhalten. Dieses Vorgehen wird oftmals in der Praxis verwendet, wobei
kritisch anzumerken ist, dass sich die gebildeten kumulierten 10-Schritt Renditen
iiberlappen und damit keine unabh/ingigen Beobachtungen darstellen.
Um dieses zu verhindern, kSnnen die kumulierten 10-Schritt Renditen auch
fiberlappungsfrei gebildet werden. Durch dieses Vorgehen reduziert sich die Anzahl
der kumulierten 10-Schritt Renditen um den Faktor 10. Dadurch bleiben oftmals

2.5. VALUE-AT-RISK IN DER PRAXIS

33

nur wenige Beobachtungen zur Bestimmung des empirischen Quantils fiber, sodass
diese MSglichkeit in der vorliegenden Arbeit nicht weiterverfolgt wird.
Zur Diskussion der historischen Simulation ist anzumerken, dass dieser Ansatz
die Charakteristika der empirischen Renditeverteilung berficksichtigt. Es wird
keine explizite Annahme fiber die Verteilung der Renditezeitreihe (beispielsweise
Normalverteilung) getroffen. Hervorzuheben ist im Weiteren die verst~ndliche
Grundidee des Ansatzes. Die Gewinnung des interessierenden Value-at-Risk aus
dem historisch beobachteten Verlauf des Portfolios ist leicht nachvollziehbar.
Problematisch ist die Auswahl der L~nge des Zeitfensters n. Die Abw~gung
zwischen der Einbeziehung einer grSi~eren Anzahl von Beobachtungen (mehr
Information) und der Annahme der Konstanz der Verteilung (Tendenz zu
einem kleineren Zeitfenster) stellt sich wiederum (vgl. Abschnitt 2.3.1). Die
Value-at-Risk Prognose h~ngt stark vonder L~nge des Zeitfensters ab.
Dieses Problem kann durch Gewichtung der Beobachtungen im historischen
Zeitfenster abgemildert werden. Beispielsweise ffihrt eine exponentielle
Gewichtungsstruktur zur geringeren Gewichtung weiter zuriickliegender
Beobachtungen (vgl. Abschnitt 4.1).
Weiterer Kritikpunkt zur historischen Simulation ist, dass die zeitver~nderliche
Volatilit~t der Renditezeitreihe nicht explizit modelliert wird. Dadurch werden die
beobachtbaren Phasen unterschiedlicher Volatilit~t nicht beachtet. Dieses kann zu
einer Unter- oder Ubersch~tzung des Value-at-Risk fiihren.

2.5.3

Exponentielle Gl~ittung der Volatilit~it

In diesem Ansatz wird die zeitver~nderliche Volatilit~t explizit modelliert. In


der Regel wird die exponentielle Gl~ttung der Volatilit~it als EWMA-Modell
(exponentially weighted moving average) bezeichnet (vgl. Alexander [3], S. 57
ft.). Die Grundidee dieses Ansatzes wurde von dem Finanzinstitut J.P. Morgan
zu einer kommerziellen Software-LSsung weiterentwickelt. Der heutige Anbieter
dieses Ansatzes ist das Unternehmen ,,RiskMetrics". Das EWMA-Modell gilt als
parametrischer Ansatz mit zeitver~nderlicher Volatilit~it.
Es sei hi die zeitver~nderliche bedingte Varianz der Renditezeitreihe. Die
Unterscheidung der Notation v o n a 2 wird bewusst getroffen, um deutlich
herauszustellen, dass die Varianz in der Modellierung nicht mehr als konstant
angesehen wird. Der Vektor der Renditezeitreihen ri wird gegeben dem

KAPITEL2.

34

VALUE-AT-RISK

Informationsstand f/i-1 zum Zeitpunkt i - 1 wie folgt modelliert:

rilf~i-1 ~ A/'m(0, Hi),


wobei Hi die zeitver~inderliche Varianz-Kovarianz-Matrix darstellt. Ffir die
Portfoliorendite ri folgt mit hi = co~Hio:
rilfZi-1 ~ A/'(0, hi).
Die Verteilung der Portfoliorendite wird durch eine Normalverteilung mit
zeitveranderlicher bedingter Varianz hi beschrieben. Der Erwartungswert wird
in diesem Ansatz auf Null gesetzt, das heigt es wird angenommen, dass sich der
Mittelwert der Renditezeitreihe nicht signifikant von Null unterscheidet.
Die wesentliche Erweiterung in diesem Ansatz besteht in der Einffihrung der
bedingten Betrachtungsweise hinsichtlich Varianz und Kovarianz

hop,i = Cov(ro,i, rp,il~i-1).


Die Sch~itzung der Varianz-Kovarianz-Matrix Hi erfolgt fiber exponentielle
Gl~ttung der Form
CO

hop,lln = (1 -/~) ~ )~J-lro,n-j+lrp,n-j+l.


j=l

Das EWMA-Modell legt mehr Gewicht auf die Beobachtungen des aktuellen
Randes. Die resultierende Sch~tzung der Volatilit~t reagiert daher sehr schnell
auf ungewShnlich groge positive und negative Renditen. Der Parameter ~ fungiert
als Gl~ittungsparameter. HShere Werte von ~ mit 0 < ~ < 1 ffihren zu
geringerer Gewichtung der aktuellen Beobachtungen. Alexander ([3], S. 59)
berichtet von sinnvollen Werten fiir ~ zwischen 0,75 und 0,98. Die kommerzielle
Software-Version ,2dskMetrics" verwendet )~ = 0, 94.
Eine einfache Berechnung wird durch die folgende Rekursion erreicht:
hop,lln -- (1 -/~)ro,nrp,n -I-/~hop,n.

Da E(ro,n+rrp,n+rlf~n) = hop,rln gilt, entspricht die T-Schritt Prognose der


1-Schritt Prognose hop,rln = hop, Xln" Die Prognose bleibt damit auf einer HShe
und kehrt nicht zu einem langfristigen Mittelwert zurfick. Es folgt die Sch~itzung
der kumulierten T-Schritt Varianz-Kovarianz-Matrix

hop,-rln --" 7"hop,lln"

35

2.5. V A L U E - A T - R I S K IN D E R P R A X I S

Die bedingte T-Schritt Varianz der Portfoliorendite ergibt sich mit

hTI n

T(~tI'~Illn~).

Hinsichtlich der T-Schritt Renditeverteilung wird im ,,RiskMetrics"-Ansatz die


Annahme der Normalverteilung getroffen
rn+r

,~ A/'(0, i) bzw. r,~+r

A/'(0,I).

Der Value-at-Risk des Portfolios fiir die Zeitperiode r 1/isst sich aufgrund der
Normalverteilungsannahme leicht berechnen
A

V a R ( a ) r l n = pn(1 - exp(~(a)rln)) = Pn

1 - exp

za

Die Normalverteilungsannahme ist theoretisch nicht haltbar, da das gew~ihlte


Modell nur die l-Schritt Verteilung der Renditen festlegt. Die Verteilung
der kumulierten T-Schritt Rendite ist eine Summe von Zufallsvariablen,
die jeweils eine unterschiedliche bedingte Varianz hi aufweisen. Die
kumulierte T-Schritt Verteilung kann somit deutlich von der Normalverteilung
abweichen. Die getroffene restriktive Annahme ist kritisch zu betrachten. Eine
L5sungsmSglichkeit zur Ermittlung der gesuchten Renditeverteilung ist die
Monte-Carlo-Simulation, die in Abschnitt 4.2 vorgestellt wird.
Das EWMA-Modell kann mit einer beliebigen Historie der Renditezeitreihe
angewendet werden. Durch die exponentielle Gl~ittung wird in Abh~ingigkeit von
der Wahl des Gl~ittungsparameters weit zuriickliegenden Beobachtungen nur ein
geringes Gewicht gegeben. Dieses ist im Hinblick auf die Basel II-Richtlinien
kritisch zu sehen, da gegebenenfalls die weiter zuriickliegenden Beobachtungen
des letzten Jahres die Value-at-Risk Prognose nur geringfiigig beeinflussen.
Zusammenfassend lksst sich sagen, dass der wesentliche Vorteil der exponentiellen
Gl~ittung in der ,~RiskMetrics"-Ausgestaltung in der expliziten Modellierung
der zeitver~inderlichen Volatilit~it liegt. Die Value-at-Risk Prognose passt sich
daher schnell den Ver~nderungen der Marktverh~iltnisse an. Der Ansatz besitzt
jedoch Nachteile. Der Gl~ttungsparameter A wird nicht gesch~itzt, sondern
aufgrund von Erfahrungswerten festgelegt. Fundierter w~ire eine Sch~tzung
des Modells auf Grundlage statistischer Theorie (vgl. Kapitel 3). Aus der
Modellierung der Varianz-Kovarianz-Matrix folgt die langfristige Prognose
mittels der ,,Square-Root-of-Time Regel". Die Prognose tendiert damit nicht zu
einem langfristigen Mittelwert (,,Mean Reversion"). Im Kapitel 3 werden die
GARCH-Modelle vorgestellt, die realistischere Eigenschaften als der Spezialfall
EWMA-Modell aufweisen.

Kapitel 3

Volatilit/it und Interdependenz


Zur Berechnung eines zuverl~sigen Value-at-Risk ist die Modellierung der
Volatilit~t und Interdependenz empfehlenswert. Unterschiedliche Phasen der
Volatilit/it der Finanzmarktzeitreihen sollten in der Berechnung des Value-at-Risk
beriicksichtigt werden. Eine Steigerung der Volatilit/~t fiihrt zu erhShten
Marktrisiken, sodass eine gleichzeitige Anpassung des Value-at-Risk notwendig
erscheint. Auch die Interdependenz der einzelnen Wertpapiere eines Portfolios
hat wesentlichen Einfluss auf die HShe der Marktrisiken. In markanten
Abschwungphasen der Finanzm~rkte wird oftmals beobachtet, dass die
Korrelation zwischen den einzelnen Wertpapieren zunimmt. Dieses fiihrt bei
konstanten Gewichtungsfaktoren zu einer ErhShung des Gesamtrisikos des
Portfolios, sodass die Value-at-Risk Prognose folglich angehoben werden sollte.
Eine vielbeachtete Modellklasse zur Beschreibung der empirischen Beobachtungen
sind die GARCH-Modelle. Begriinder dieser Modellklasse ist Prof. Engle, der
1982 den Grundstein fiir die schnelle Entwicklung der Forschung in diesem
Themengebiet legte (vgl. Engle [35]). Die Generalisierung des innovativen
Ansatzes wurde 1986 durch Prof. Bollerslev vorgenommen (vgl. Bollerslev [17]),
der zusammen mit Prof. Engle und zahlreichen weiteren Wissenschaftlern die
Modellentwicklung und-erweiterung mat~geblich gepr~igt und vorangetrieben hat.
Im n~chsten Abschnitt (3.1) werden die univariaten GARCH-Modelle zur
Modellierung der zeitver~nderlichen Volatilit~t betrachtet. Im darauf folgenden
Abschnitt (3.2) werden multivariate Erweiterungen der GARCH-Modelle
vorgestellt. Mit ihrer Hilfe kann die Interdependenz in multivariaten
Portfolioiiberlegungen beachtet werden. Besondere Beriicksichtigung findet dabei
die Modellierung der zeitver~nderlichen Varianz-Kovarianz-Matrix.

38

3.1

KAPITEL

3.

VOLATILITJ~T

UND INTERDEPENDENZ

Univariate Modellierung der Volatilit~it

GARCH-Modelle wurden in den letzten Jahren in der akademischen Literatur


besonders beachtet. Der Erfolg dieser Modelle liegt darin, dass sie empirische
Beobachtungen wie zeitver~nderliche Volatilit/it und die Abweichung der
unbedingten Verteilung der Renditezeitreihe vonder Normalverteilung oftmals
treffend beschreiben kSnnen. Die empirischen Ph~inomene der Renditezeitreihen
sind zwar schon Jahrzehnte bekannt, jedoch gelang es Engle (1982) erstmals
mit dem Autoregressive Conditional Heteroscedasticity (ARCH) Modell eine
zutreffende parametrische formale Beschreibung zu entwickeln. Zur Darstellung
der univariaten GARCH-Modelle sind einige sehr gute Biicher und Artikel
erschienen. Die GARCH-Modelle werden in der vorliegenden Arbeit sehr kompakt
dargestellt. Zur detaillierteren Darstellung wird an dieser Stelle auf die Literatur
von Franses/van Dijk [47], Alexander [3], Hamilton [55] und Gourieroux [50]
verwiesen. Einen sehr guten und umfassenden 0berblick bietet der Artikel von
Sera/niggins [15]. Als einer der ersten Autoren liefert Akgiray [1] eine ausfiihrliche
Analyse und Diskussion der Anpassung von GARCH-Modellen und der Prognose
mit GARCH-Modellen.
Die folgenden Ausfiihrungen orientieren sich an der Darstellung von Franses/van
Dijk [47]. Im n~chsten Abschnitt wird zun~chst die Grundidee und die Definition
des GARCH-Modells vorgestellt, um danach die Sch~itzung und Prognose
der univariaten GARCH-Modelle darzustellen. Im Abschnitt 3.1.4 werden die
univariaten GARCH-Modelle im Hinblick auf die Anwendbarkeit zur Berechnung
des Value-at-Risk kritisch diskutiert.

3.1.1

Definition univariater G A R C H - M o d e l l e

Die Grundidee der GARCH-Modelle ist die Beschreibung der zeitveranderlichen


Volatilit~t durch einen parametrischen Ansatz, wobei die aktuelle Volatilitat
durch die Charakteristika der historischen Zeitreihe bestimmt wird. Da somit
die Volatilit~t zum Zeitpunkt i vom Informationsstand des Zeitpunkts i - 1
und gegebenenfalls von der gesamten historischen Entwicklung abhangt, sprechen
wir von bedingter Volatilit~t beziehungsweise Varianz. Ausgangspunkt der
0berlegungen ist die Modellierung der Renditezeitreihe ri als Regressionsmodell
ri = E ( r i l g l i - 1 ) + ui,

i = 1, ..., n,

wobei ~i-1 den Informationsstand zum Zeitpunkt i - 1 angibt. Der Wert ui


wird als Innovation bezeichnet, da er die Abweichung der Renditezeitreihe vom

3.1. U N I V A R I A T E M O D E L L I E R U N G D E R V O L A T I L I T A T

39

bedingten Erwartungswert darstellt. Im Weiteren sei zur Vereinfachung der


Darstellung
#i = E(rilf~i-1),

wobei #i als autoregressives Modell ausgestaltet sein kann. Engle [35] unterstellte
fiir die Innovationen ui gegeben f~i-1 die folgende Verteilung
ui lfli_ l ,.~ Af ( O, hi).

Eine analoge Darstellung ist


vi "~ i.i.d. Af(0, 1).

ui = v/-ffivi,

Es folgt die bedingte Verteilung der Renditezeitreihe


ril~i-1

~ Af(#i, hi).

Engle [35] formulierte 1982 das ARCH(p)-Modell, indem die bedingte Varianz in
Abh~ingigkeit der quadrierten Innovationen modelliert wird
p

hi = c~o +

O~jUi_ j ,

j--1

wobei c~0 > 0 und c~j >__ 0 gelten muss, um eine positive bedingte Varianz
zu gew~hrleisten. Aus dieser Formulierung ist die wesentliche Eigenschaft der
Modellierung deutlich erkennbar. Grot~e Abweichungen der Renditezeitreihe ri
vom bedingten Erwartungswert #i fiihren zu grot;en positiven oder negativen
Innovationen ui. Daraus resultiert, dass fiir p Zeitperioden die bedingte Varianz
der Renditezeitreihe erhSht ist. Durch diese Eigenschaft des Modells lassen sich
die empirisch beobachteten Phasen unterschiedlicher Volatilitiit beschreiben.
Oftmals wird eine hohe Anzahl der p-t-1 Parameter zur Modellierung der bedingten
Varianz benStigt. Dieses wirkt sich nachteilig auf die Sch~tzung des Modells
aus. Daher wurde das ARCH-Grundmodell von Bollerslev [17] weiterentwickelt.
Zur Beschreibung der bedingten Varianz mit dem GARCH(p,q)-Modell werden
q Terme hinzugeffigt, wodurch eine wesentlich flexiblere Modellierung resultiert,
die in der Regel eine geringere Anzahl an Parametern (z.B. p = 1, q = 1) zur
Beschreibung der bedingten Varianz benStigt
p

hi -- c~o + ~

2 j + ~ /~khi-k,
OLjUi_
j=l
k=l

wobei c~0 > 0 und cu, /3k _> 0 dafiir sorgt, dass die bedingte Varianz zu jedem
Zeitpunkt positiv ist.

40

KAPITEL 3. VOLATILITJ~T UND INTERDEPENDENZ

Eine weitere Generalisierung ist durch die Ver/inderung der Verteilungsannahme


mSglich. Die GARCH-Modelle sind nicht auf die Normalverteilung
rilf~i-1 ~ Af(#i, hi)
beschr~inkt (vgl. Bollerslev [17]). Stattdessen kSnnen auch alternative
Verteilungsannahmen getroffen werden. Die Spezifikation einer anderen Verteilung
fiihrt in der Regel zu einer h6heren Komplexit~t zur Beschreibung der
Renditezeitreihe, da zus~itzliche Parameter zur Erreichung einer hSheren
Flexibilit/it der Verteilung notwendig sind. Der Versuch, geeignetere Verteilungen
zu spezifizieren, kann zu einem infiniten Regress fiihren, da die Charakteristika der
Renditezeitreihe nicht vollst~ndig abgebildet werden kSnnen. Beispielsweise kann
eine komplexere symmetrische Verteilung spezifiziert werden, die allerdings bei
genauerer Betrachtung wieder verworfen werden muss, da Asymmetrien vorliegen.
Zur LSsung dieser Problematik wird oftmals zun/ichst auf die Normalverteilung
zuriickgegriffen, da durch diese einfache Modellierung die Sch~itzung des
GARCH-Modells erleichtert wird. Die Quasi-Maximum-Likelihood Sch/itzung
stellt sicher, dass die Sch~tzer konsistent und asymptotisch normalverteilt sind
(vgl. Abschnitt 3.1.2). Die vorteilhaften Sch/itzeigenschaften sind auch bei
Abweichung der wahren Verteilung von der Normalverteilung gesichert. Zur
Value-at-Risk Prognose kann die Normalverteilungsannahme im Anschluss an die
Parametersch~tzung relativiert werden, indem beispielsweise Bootstrap-Verfahren
angewendet werden (vgl. Abschnitt 4.3.2).
Das in der akademischen Diskussion und in der empirischen Anwendung am
h/iufigsten verwendete Modell ist das GARCH(1,1)-Modell
2 1 + ]~1hi-1
hi = ao + a l ui_

(3.1)

mit ao > 0 und al,/31 __ 0. Durch rekursives Einsetzen der bedingten Varianz
wird ersichtlich, dass diese Modellierung/iquivalent zu einem ARCH(p)-Modell
mit exponentiell fallenden Gewichtungsfaktoren fiir p ~ c~ ist
hi

aO -t-

"-b ]~1 h i - 1
_
u2
u2
- 0/0 "-["0/1 i-1 "Jr-~1 (0/0 + 0/1 i - 2 + ~1 (0/0 '[- ~

a0/(1

0/1~i-1

/31) +

O/1(U2-1 -[- ~1 u2i - 2

f42U2i - 3
~'1

-[- Zl (...)))

...).

Die Analogie der GARCH-Modelle zu den bekannten ARMA-Modellen (vgl.


Pindyck/Rubinfeld [91], Kapitel 17) kann durch die Einfiihrung der Differenz
wi zwischen der quadrierten Innovation und der bedingten Varianz hergestellt

41

3.1. U N I V A R I A T E M O D E L L I E R U N G D E R VOLATILITJ~T

werden
~7 i

2 _ hi.

?A i

Durch Einsetzen in Gleichung 3.1 folgt


u i2 = a o +

1 2_1 + Zl

-- C~0 + (C~1 -[- ~ 1 )

-wi

ui-1

-i

)+voi

~2

i - 1 -[- Wi -- ~I~:Ui-1.

Aus dieser Darstellung resultiert die fiir ARMA-Modelle


Stationarit/itsbedingung (vgl. Pindyck/Rubinfeld [91], S. 535)

wohlbekannte

al + 131 < i.

(3.2)

Bei Einhaltung der Stationaritttsbedingung


unbedingten Varianz der Innovationen a 2,

folgt ffir die Herleitung der

O- u

---

E ( u 2)

__

E(E(u2[fli_l))

__

E(hi),

E(hi) = ao + (oL1+ 31)E(hi-1).

Bei Stationarit/it gilt E(hi) = E(hi-1). Daraus folgt die unbedingte Varianz
2

O~0

au -- 1 -

o~ 1 -

/~1"

Die unbedingte Varianz weist damit einen langfristigen Mittelwert auf. Dabei
ist die bedingte Varianz zeitver~nderlich modelliert. Die Tendenz der bedingten
Varianz zu einem Mittelwert zurfickzukehren, wird oftmals als ,,Mean Reversion"
bezeichnet. Dieses Verhalten der GARCH-Modelle stellt eine Verbesserung
im Vergleich zu den EWMA-Modellen (vgl. Abschnitt 2.5.3) dar, weil die
beschriebene Riickkehr zu einem langfristigen Mittelwert in empirischen Studien
beobachtet werden kann (vgl. Alexander [3], S. 84 ft.).
V a r i a n t e n des G A R C H - M o d e l l s
Eine Ausgestaltung der zahlreichen Varianten des GARCH-Modells ist das
G JR- oder TGARCH-Modell. Entwickelt wurde diese Variante zeitgleich dutch
Glosten/Jaganathan/aunkle [49] und Zakoian [102]. Die formale Darstellung ist
hi

t3o +131u 2.
2 + 133hi- i,
~ - 1 + 132Ii- 1 u i--I

wobei die Funktion Ii zur Berficksichtigung von Asymmetrien der Renditezeitreihe


ftihrt
Ii =

1 fiirui<0
0 sonst

42

KAPITEL

3. V O L A T I L I T ) { T UND I N T E R D E P E N D E N Z

Falls der Parameter ~2 in der Sch~itzung des Modells signifikant ist, bestehen
Asymmetrien in der Entwicklung der bedingten Varianz, das heif, t das Vorzeichen
der Innovation spielt eine entscheidende Rolle fiir die HShe der bedingten Varianz.
In empirischen Studien wurde ein positiver Parameter nachgewiesen, das heif, t die
bedingte Varianz reagiert st~irker auf negative Innovationen (vgl. hierzu ,,News
impact curves" in Engle/Ng [42]).
Ein Spezialfall des GARCH(1,1)-Modells ist das schon vorgestellte EWMA-Modell
(vgl. Abschnitt 2.5.3). Mit den Parametern a0 = 0, al = 1 - A, /71 = A in
Gleichung 3.1 und #i = 0 folgt das EWMA-Modell
hi = (1 - )~)r21 + )~hi-1.

In dieser Gleichung wird auch die Kritik an diesem Spezialfall deutlich. Es gilt
(1 -)~) +/k = 1.
Somit gilt die Stationarit~itsbedingung (vgl. Gleichung 3.2) nicht. Dieser
Spezialfall wird als IGARCH (Integrated GARCH) bezeichnet. Ffir die zahlreichen
weiteren Varianten der GARCH-Modelle wird auf die schon genannte Literatur,
insbesondere Franses/van Dijk [47], verwiesen.

3.1.2

Schiitzung univariater GARCH-Modelle

In diesem Abschnitt wird die Sch~itzung des folgenden Modells dargestellt


uill2i_l ~ JV'(O, hi).

ri : lLi W ui,

Es wird angenommen, dass die Innovationen ui eine Normalverteilung aufweisen.


Der bedingte Erwartungswert #i ist beispielsweise eine lineare Funktion der
in dem Vektor xi zusammengefassten Historie der Renditezeitreihe und des
Parametervektors 0
#~

=/(x~, 0)

mit
xi : (1, r i - 1 , ..., r i - p ) ' .
Die bedingte Varianz hi folgt einem GARCH-Modell mit Parametervektor f~.
Beispielsweise kann ein GARCH(1,1)-Modell (vgl. Gleichung 3.1) angenommen
werden. Die Parameter der Mittelwertgleichung und der Varianzgleichung werden
in dem Parametervektor 4) zusammengefasst: d~ = (0', ff)~.

3.1. UNIVARIATE MODELLIERUNG DEft VOLATILITAT

43

Unter der Normalverteilungsannahme gilt

ri lf~i-1 ~ .hf (#i, hi).


Daraus folgt

lu2~

f(ril~i-1; r = (2rhi)-89 exp - ~ hi ]"


Die Log-Likelihood Funktion der/-ten Beobachtung ln/i(~b) ist
2

2i uhii

ln/i(~b) = In f(ri[Qi-1; ~) - - ~1 ln(27r) - ~I In(hi)

Die Sch~tzung des Parametervektors r erfolgt fiber die Maximierung der


Log-Likelihood Funktion fiber die gesamte Stichprobe (i = 1, ..., n)
n

1~

In L(~b) = E In li(4~) = --~n ln(2)- 21 E ln(hi )


i=1

i=1

u, '
h~.

fi

(3.3)

i=1

~b = maxln L(r
r

wobei die Maximum-Likelihood Optimierung die Bedingung erster Ordnung 15st


n

0 In l,(~b) = O.

0r

i=1

Die Score-Vektoren
01nl~(r

00

ui O#i(O) += h,

Oln/i(r
0/3

2 - 1) Ohi

ui

oo

oo'

= ~ 1 ( u 2 _ 1 Ohi
2hi \ hi

] 0[3

sind nicht-linear in den Parametern, so dass ein Optimierungsalgorithmus, wie


beispielsweise der BHHH- oder Marquardt-Algorithmus zum Einsatz kommt (vgl.
Judge et al. [67] (Anhang B), Alexander [3] (S. 94/95), Marquardt [78]).
Wenn die Normalverteilung die richtige Spezifikation ist, sind die resultierenden
Parametersch/itzungen konsistent, asymptotisch normalverteilt und asymptotisch
effizient. Die asymptotische Varianz-Kovarianz-Matrix von v/-~(4)- r entspricht
dann der Inversen der Informationsmatrix 2"-1 mit

Z = -E

(021nli(O) ) = E (Olnli(c])) Olnli(4)) ) = fl


OdpOdp'
Odp
Oq~'

(vgl. Bollerslev [17], S. 317).

44

KAPITEL 3. VOLATILITAT UND INTERDEPENDENZ

Zusammengefasst folgt die asymptotische Normalverteilung mit

Sollte die wahre Verteilung der Renditezeitreihe von der angenommenen


Normalverteilung abweichen, kann in diesem Fall auf die Ergebnisse von White
[101] uncl Bollerslev/Wooldridge [20] zurfickgegriffen werden, welche belegen, dass
bei korrekter Spezifikation der ersten beiden Momente die Sch/itzer dennoch
konsistent und asymptotisch normalverteilt sind. Somit kann die Sch/itzung
der Parameter weiterhin auf der Normalverteilungsannahme basieren, wobei
allerdings die asymptotische Effizienz der Sch/itzer nicht mehr gew/ihrleistet ist.
Auch die Gleichheit der Matrizen 2" und ,J" ist nicht mehr gegeben: 2" :/: ,,7. Die
Sch/itzung der Parameter wird als Quasi-Maximum-Likelihood bezeichnet, wobei
die asymptotische Varianz-Kovarianz-Matrix der Parameter konsistent gesch/itzt
wird, indem die Inverse der Informationsmatrix 2"-1 durch 2"-1,72"-1 ersetzt wird.
Es gilt die Konsistenz und
asymptotische Normalverteilung
Quasi-Maximum-Likelihood Sch/itzers ~b (vgl. White [101], Theorem 3.2)

des

(Z_ 1SZ_ 1)_89y~,( ~ _ r a .]~f(0, I).


In der vorliegenden Arbeit wird in der empirischen Vergleichsstudie ein
rollierendes Zeitfenster zur Analyse verwendet. Dadurch werden 1174 Sch/itzungen
der Parameter ffir den jeweiligen Ansatz und die jeweilige Zeitreihe benhtigt.
Vor diesem Hintergrund ist eine einfache Handhabung der Sch/itzung ffir
die empirische Arbeit wesentlich, um unter anderem den Zeitaufwand der
Berechnungen zu begrenzen. Zur Gew/ihrleistung dieser Anforderung werden die
Parameter ~b des GARCH-Modells in zwei Schritten gesch/itzt.
Im ersten Schritt werden die Parameter der Mittelwertgleichung 0 fiber
die Kleinst-Quadrate Methode gesch/itzt. Wenn die Mittelwertgleichung
ausschlieglich durch eine Konstante # spezifiziert wird, resultiert aus diesem
Vorgehen die Sch/itzung der Konstanten als arithmetisches Mittel der
Renditezeitreihe. Folglich kann der gesch/itzte Parameter als durchschnittliche
historische Rendite interpretiert werden. Im zweiten Schritt kann die Sch/itzung
der Parameter der Varianzgleichung/3 mittels der Maximum-Likelihood Methode
mit den gesch&tzten Residuen ui aus dem ersten Schritt erfolgen. Hierzu werden
die gesch/itzten Residuen in die Gleichung 3.3 eingesetzt. Das beschriebene
Vorgehen ffihrt zur wesentlichen Vereinfachung der Sch/itzung der Modelle, wobei
die Konsistenz der Sch/itzer gesichert ist.

3.1.

3.1.3

UNIVARIATE

Prognose

MODELLIERUNG

DEFt V O L A T I L I T J ~ T

mit univariaten

GARCH-Modellen

45

Die Prognose der bedingten Varianz mit GARCH-Modellen wird zun/ichst fiir das
GARCH(1,1)-Modell mit #i = # dargestellt (vgl. Gleichung 3.1)
uilf~i-1 ~ A/'(0, hi),

ri = # + u i ,

2
hi = ao + alUi_ 1 + fll hi-1.

Es sei hrln die gesch/itzte T-Schritt Prognose der bedingten Varianz der Innovation
gegeben den Informationsstand zum Zeitpunkt n. Es gilt fiir die 1-Schritt Prognose

~/'(Un+llan) --

~tl[n =- C~O "~- C~In"2 -[- ~1 ]ln"

Wegen des einfachen Aufbaus ri = # + ui ist

Die 7-Schritt Prognose kann rekursiv entwickelt werden. Mit

U2

E(n+rlgln)

fiir r > 0

= hrln,

gilt

Durch schrittweises Einsetzen folgt fiir T > 1

]Zrln=CfofE(Cfl-t-l~l)J-1]-t-

(3.4)

(dl -t-/~l)r- 1]ll[n.

kj=l
Fiir den Sonderfall IGARCH(1,1) mit al +/31 = 1 und a0 = 0 gilt

Dieses entspricht der Prognose des EWMA-Modells (vgl. Abschnitt 2.5.3).


Bei Einhaltung der Stationarit/itsbedingung

(vgl. Gleichung 3.2) kann aus

Gleichung 3.4 folgende Form der T-Schritt-Prognose gewonnen werden


h'rln = 1 -- dl -- 31^ + ( d : + 3 ,

-1 h ' l n - 1

Fiir T --* ~ ist die ,,Mean Reversion" ersichtlich


_

lim

hrln -

c~o

1 - dl - ~1

~"

"-- G2u"

d~-/31

"

46

KAPITEL

3.

VOLATILIT/4T

UND INTERDEPENDENZ

Die interessierende kumulierte T-Schritt-Prognose kann wie folgt ermittelt werden


T

j=l
--

1 - cfl - ~1

hll- -

1 - d l - ~1

1 - dl - ~1

Bei autoregressiven Termen in der Mittelwert-Gleichung steigt die Komplexit~it


der Prognose. In der vorliegenden Arbeit wird die Prognose der bedingten Varianz
der Renditezeitreihe im AR(1)-GARCH(1,1)-Modell ausgefiihrt
ri = 0 + Cr~-i + ui,

uil~i-1

2
hi = ao + a l U i _ l +

"~

A/'(0, hi),

~lhi-l.

Der gesch~itzte bedingte Erwartungswert fiir die r-Schritt

Prognose der

Renditezeitreihe ist

E(rn+vl~n) ~- ~TIn =- ~ ~ ~)j-1 _~u~ r r n "


j--1

Die bedingte 1-Schritt Varianz der Renditen entspricht der bedingten 1-Schritt
Varianz der Innovationen, woraus

folgt.
Fiir T > 1 ergeben sich durch den AR(1)-Term Unterschiede zwischen der Varianz
der Renditen und der Varianz der Innovationen
r>l.

Die 2-Schritt Prognose kann durch Rekursion vorgenommen werden

l?(rn+21gtn) = do + (all + ~1% r


= ~o + (all + ZI + $2)s
Dieses entspricht

~(r.+~la.) = ~2~(r.+lla.) + ~(u.

47

3.1. U N I V A R I A T E M O D E L L I E R U N G D E R V O L A T I L I T ] i T

Die T-Schritt Prognose der bedingten Varianz der Renditen kann fiber
schrittweises Einsetzen gebildet werden

j=l

Ffir T ~ OC kann diese Reihe wie folgt geschrieben werden


A

c~o

lira V(rn+r[g/n)=
r--,oo
(l-d1-~1)(1-r
Zur Kumulation der
Renditezeitreihe gilt

T-Schritt

Prognose

der

I"

l=l

l,k=l;l~k

a~
=

2)

1 - r 2'

bedingten

Varianz

der

j=l \ k=~

Bei dieser Darstellung der Prognose der bedingten Varianz der Renditezeitreihe
im AR(1)-GARCH(1,1)-Modell wird die Analogie zu ARIMA-Modellen deutlich
(vgl. Pindyck/Rubinfeld [911, S. 571).
3.1.4

BeurteUung der univariaten GARCH-Modelle

Univariate GARCH-Modelle gewinnen zunehmende Beachtung in der


Modellierung von Finanzmarktzeitreihen. Die Modellbildung ist durch
fundierte Theorie untermauert. Besonders die explizite Berficksichtigung
der zeitver~inderlichen Volatilit/it ffihrt zu weitergehenden Einsichten fiber die
Charakteristika von Finanzmarktzeitreihen. Die Modellierung 1/isst Raum
ffir Erweiterungen hinsichtlich der Beschreibung der bedingten Varianz
(beispielsweise TGARCH-Modell) und der Verteilungsannahme f f i r die
Innovationen.
Die Sch/itzung der Parameter benStigt eine ausreichende Anzahl an
Beobachtungen, um Schwierigkeiten hinsichtlich der Parameterrestriktionen und
des Auffindens eines globalen Optimums zu vermeiden. Das EWMA-Modell als
Spezialfall der GARCH-Modelle weist weniger Komplexit/it auf. Die heuristische
Vorgehensweise ffihrt zu den in Abschnitt 2.5.3 dargestellten Kritikpunkten.

48

KAPITEL 3. VOLATILITAT UND INTERDEPENDENZ

Ein generelles Problem der GARCH-Modelle liegt in der Bestimmung der


T-Schritt Renditeverteilung. Eine analytische Bestimmung ist problematisch, da
die GARCH-Modelle nur die 1-Schritt Renditeverteilung eindeutig festlegen.
Geeignete Strategien zum Umgang mit dieser Problematik hinsichtlich der
Value-at-Risk Prognosen werden im Abschnitt 4.2 vorgestellt.
Zusammenfassend kann vermutet werden, dass die Einbeziehung der
GARCH-Modelle in die Value-at-Risk Prognose die Genauigkeit der Absch~tzung
verbessert. Diese Vermutung soll in der empirischen Vergleichsstudie (Kapitel 5)
fiberprfift werden.

3.2

Multivariate Modellierung der Interdependenz

In diesem Abschnitt wird die Zusammensetzung des Portfolios aus einzelnen


Wertpapieren ins Zentrum der Betrachtung gerfickt. Die Darstellung der
Portfoliorendite eines Portfolios fiihrt bei Aggregation der Renditen der
einzelnen Portfoliobestandteile durch die Gewichtungsfaktoren zu einem
Informationsverlust (vgl. Gleichung 2.8). Die Informationen fiber die
Interdependenz der einzelnen Wertpapiere werden vernachl/issigt. Es ist
bekannt, dass sich Korrelationen zwischen Wertpapieren im Zeitverlauf ver/indern
(vgl. Longin/Solnik [74]). Diese zeitver/inderlichen Strukturen sollten modelliert
werden, um die Information zur Berechnung des Value-at-Risk zu nutzen.
Die Interdependenz zwischen einzelnen Wertpapieren spiegelt sich in der
Varianz-Kovarianz-Matrix wider. Zur Parametrisierung dieser Matrix eignen
sich multivariate GARCH-Modelle. Die wesentliche Herausforderung dieser
Modellierung liegt in der sinnvollen Reduktion der Komplexit/it des Ansatzes.
Nur sparsame Parametrisierungen der Varianz-Kovarianz-Matrix sind in der
Anwendung des Modells geeignet. Es mfissen Restriktionen hinsichtlich der
Parametrisierung gefunden werden, welche die Anwendbarkeit des Modells
gew/ihrleisten.
In den folgenden Abschnitten werden ausgew/ihlte multivariate Ans/itze
vorgestellt, wobei chronologisch mit dem VECH-Modell von Bollerslev, Engle und
Wooldridge [19] begonnen wird. Daraufhin wird das Faktor-Modell von Diebold
und Nerlove [31] erl/iutert. Die Darstellung des Constant Conditional Correlation
Modell von Bollerslev [18] ffihrt fiber das OGARCH-Modell von Alexander [3]
zum Dynamic Conditional Correlation Modell von Engle [37].

3.2. M U L T I V A R I A T E MODELLIERUNG DER I N T E R D E P E N D E N Z

3.2.1

49

Definition multivariater G A R C H - M o d e l l e

Das multivariate GARCH-Modell ffir den Vektor der Renditezeitreihen ri kann


generell wie folgt spezifiziert werden
ri --/~i A- ui,
wobei ri, Di und ui m 1 Vektoren sind. Di stellt den Vektor der bedingten
Erwartungswerte dar

I& = E(rilgli-1).
Als Differenz zwischen ri und tt i resultiert der Vektor der Innovationen ui. Die
multivariate bedingte m x m Varianz-Kovarianz-Matrix Hi ersetzt die bedingte
Varianz im univariaten Fall
uil~i-1 "~ Afro(0, Hi).
Die Varianz des Portfolios folgt mit

hi --w~Hiw > 0,
wobei w der Vektor der Gewichtungsfaktoren ist. Die wesentliche Frage
ist die Parametrisierung der Varianz-Kovarianz-Matrix. Die Komplexit/it der
Modellierung steigt mit der Anzahl m der unterschiedlichen Wertpapiere stark
an. Daher sollten Parametrisierungen gefunden werden, die eine Sch~tzung des
Modells unter den gegebenen Restriktionen ermSglichen, ohne die notwendige
Flexibilit/it der Modellierung zu verlieren. In den n/ichsten Abschnitten werden
die schon angesprochenen unterschiedlichen Vorgehensweisen vorgestellt. Fine
grafische Aufbereitung der Alternativen kann fiber ,,News Impact Surfaces"
vorgenommen werden (vgl. Kroner/Ng [70]). Dabei werden die Auswirkungen
des Vektors der Innovationen auf die Varianz-Kovarianz-Matrix der Folgeperiode
untersucht.
VECH
Das VECH-Modell von Bollerslev, Engle und Wooldridge [19] wird in der
vorliegenden Arbeit als Ausgangspunkt ffir die Darstellungen gew/ihlt, da der
generelle Aufbau der multivariaten GARCH-Modelle anhand dieser Modellierung
anschaulich dargelegt werden kann. Das VECH-Modell wird wie folgt definiert
p

vech(Hi) = W +

Ajvech(ui_ju~_j) + ~-'~ Bkvech(Hi_k),


j=l
k=l

50
wobei

K A P I T E L 3. V O L A T I L I T A T UND I N T E R D E P E N D E N Z

vech(Hi)

den

Vektor

der

einmalig

vorkommenden

Elemente

der

Varianz-Kovarianz-Matrix darstellt. Die Parameter der Modellierung sind in dem


89
x 1 Vektor W und den 89
x 89
Matrizen A j ( j - 1, ...,p)
und B k ( k = 1, ..., q) zusammengefasst. Deutlicher Nachteil dieses Modells ist die
groi~e Anzahl an Parametern. Fiir das reduzierte Modell mit p = 1 und q = 1
resultieren schon 89
+ 1) 2 + 89
+ 1) Parameter. Explizit dargestellt fiir
p = 1, q - 1 und zwei Portfoliobestandteile resultiert

/h11/ /Wl/ /a11012013//2/lil


hl2,i

w2

h22,i

w3

a21

a22

a23

~l,i-lU2,i-1

a31

a32

a33

u2,i_l

b21 b22 b23

h12,i_I

b31

h22,i-1

b32

b33

Fiir zwei Portfoliobestandteile werden folglich schon 21 Parameter benStigt. Fiir


m = 5 folgen aus dieser Formulierung 465 Parameter. Daraus kann geschlossen
werden, dass die Parametrisierung der Varianz-Kovarianz-Matrix vereinfacht
werden muss. Eine MSglichkeit liegt in der Spezifikation der Diagonal-Form

/h11/ /wl/ /all o 0//


hl2,i
h22,i

w2

w3

0
0

a22

Ul,i-lU2,i-1

a33

u22,i-1

h12,i-1
h22,i-1

b22 0
0 baa

Durch diese Restriktion fiir die Varianz-Kovarianz-Matrix wird eine Reduzierung


der Anzahl an Parametern erreicht. Die weiteren Restriktionen W = 0, A1 =
d i a g ( 1 - A ) , B1 = diag(A) mit 0 < A < 1 fiihren mit Izi = 0 zum bereits

/h11/

00//r21il /

dargestellten EWMA-Modell (vgl. Abschnitt 2.5.3)

hl2,i

h22,i

1- A

A 0

h12,i-1

h22,i- 1

/~

--

rl,i-lr2,i-1

r 22, i - 1

Durch diese restriktive Parametrisierung wird sichergestellt, dass die


Varianz-Kovarianz-Matrix positiv-definit ist (vgl. Bera/Higgins [15], S. 343/344
und Alexander [3], S. 202).

3.2. M U L T I V A R I A T E

MODELLIERUNG

51

DER INTERDEPENDENZ

Faktor-GARCH
Das Ziel des von Diebold und Nerlove [31] entwickelten Faktor-Modells
ist

es,

die

hohe

Anzahl

an

Parametern

zu

reduzieren.

Die

bedingte

Varianz-Kovarianz-Matrix der beobachtbaren Renditezeitreihen wird durch einen


gemeinsamen Faktor Fi erkl~irt, der die GARCH-Struktur aufweist. Der
gemeinsame Faktor repr~entiert das Eintreffen neuer Informationen, die fiir die
m Renditezeitreihen ri relevant sind. Dabei wird der Faktor in diesem Abschnitt
als beobachtbar angenommen, das heigt er wird nicht durch eine Faktorenanalyse
oder Hauptkomponentenanalyse ermittelt. Dieses denkbare Vorgehen wird in dem
Abschnitt zu OGARCH-Modellen ausgefiihrt.
Das Ein-Faktor GARCH(1,1)-Modell wird wie folgt dargestellt
ri = tt + bFi + ei.

Es gilt
fiir k = 1, ..., m

Cov(ek,i, Fi) = 0
beziehungsweise
6i "~ i.i.d..hf(0, F)

mit F = diag (71,72, ..., 7m),

wobei 7k die spezifische Varianz des k-ten Wertpapiers darstellt. Weiter gilt
F i --c+~t

i,

Fi ]Q i_ 1 ~ .Af ( c, h i ) ,
2

hi = o~o + a l ui_ 1 + ~1 hi-1.

Die Formulierung der bedingten Varianz kann beliebig von dieser


GARCH(1,1)-Variante auf komplexere GARCH-Modelle ausgeweitet werden. Fiir
die bedingte Verteilung der Renditezeitreihen ri resultiert
ri [gti_ 1 "~ iV'(# + cb, Hi)
mit
Hi = hibb' + F.
Die Schwierigkeit dieses Modells liegt vor allem in der Auswahl des Faktors Fi.
Geeignet erscheinen Indizes mit hoher Marktkapitalisierung (beispielsweise der
Euro Stoxx Index), da sie als Indikator fiir das Verhalten des Gesamtmarktes
gelten.
Zusammenfassend kann festgestellt werden, dass der beschriebene Ansatz das
Verhalten der einzelnen Renditezeitreihen durch einen gemeinsamen Faktor

K A P I T E L 3. V O L A T I L I T A T

52

UND I N T E R D E P E N D E N Z

erkl~irt. Dadurch wird die Komplexit~t der multivariaten Betrachtungsweise


reduziert. Zur Beschreibung der zeitver~nderlichen Varianz-Kovarianz-Matrix
wird ausschlief, lich ein univariates GARCH-Modell benStigt. Die Verkniipfung
der Entwicklung der individuellen Renditezeitreihe mit der Entwicklung des
Gesamtmarktes entspricht der Logik des Capital Asset Pricing Modells, welches
an der ~hnlichen Struktur der Modellierung erkennbar wird (vgl. Elton/Gruber
et al. [32], S. 299).

Constant Conditional Correlation

Das Constant Conditional Correlation (CCC) Modell wurde 1990 von Bollerslev
[18] formuliert. Die Vereinfachung dieses Modells besteht in der Ableitung der
Varianz-Kovarianz-Matrix aus zeitver~inderlichen bedingten Varianzen und der
Annahme konstanter Korrelationen im Zeitverlauf. Es wird im Folgenden von
der Modellierung des Vektors der Renditezeitreihen ri durch einen Vektor mit
Konstanten D ausgegangen

ri = ~ + ui,

u i l ~ i - 1 " A/',~ (0, Hi).


\

Die Definition der unbedingten Korrelation zwischen den Renditezeitreihen o und


p (o, p = 1, ..., m) ist allgemein bekannt

Corr(ro,i, rp,i) =

E(uo,iUp,i)

Dazu kommt die Formulierung der bedingten Korrelation Pop,i

E ( uo,iup,i l~i-1)
Pop,i = ~/E(u2,il~2i_l)Z(u2,il~.li_l )

---

hop,i
x/hoo,,h~, i

Die wesentliche Annahme im CCC-Modell ist die Konstanz der bedingten


Korrelation

pop,i = pop.
Die bedingte Kovarianz bleibt zeitver~nderlich

Die Varianz-Kovarianz-Matrix wird wie folgt spezifiziert


Hi = D i R D i ,

3.2. M U L T I V A R I A T E

MODELLIERUNG

DER INTERDEPENDENZ

53

wobei D/2 die Diagonal-Matrix der bedingten Varianzen darstellt

D~ = diag(hkk,i) = diag(E(u2k,ilgti-1) )
und R die m m Matrix der konstanten bedingten Korrelationen mit den
Elementen pop ist. R wird fiber die standardisierten Residuen vi ermittelt
vi = D~-lui.
Es folgt aus den obigen Darstellungen

E(vo,iVp,ilf~i-1) - pop
beziehungsweise in Matrixschreibweise hergeleitet

E(viv~l~i_l ) = E(D~luiutiDr~ llgli_l)


= D~lE(uiu~ilf'li_l)DT~ 1
= D~IHiD~

--a.

Der Vorteil dieser Modellierung ist die Ermittlung der zeitver/inderlichen


Varianz-Kovarianz-Matrix durch Sch/itzung von m univariaten GARCH-Modellen
und der Sch/itzung der Korrelationsmatrix fiber die standardisierten
Residuen vi. Die Sch/itzung kann in zwei Schritte zerlegt werden (vgl.
die ausffihrliche Darstellung in Abschnitt 3.2.2). Die Komplexit/it der
multivariaten Betrachtungsweise wird durch die geringere Anzahl an Parametern
reduziert. Durch das beschriebene Vorgehen ist bei Beachtung der fiblichen
Parameterrestriktionen fiir univariate GARCH-Modelle die positiv-definite
Varianz-Kovarianz-Matrix gesichert (vgl. Bollerslev [18]).

OGARCH

Die wesentliche Annahme des OGARCH-Modells ist, dass die empirischen


Renditezeitreihen linear in unkorrelierte Hauptkomponenten iiberfiihrt werden
kSnnen (vgl. Alexander [3], S. 210 ft.). Die Abbildung der Renditezeitreihen
durch Hauptkomponenten ist eine weitere MSglichkeit, die Komplexit/it der
multivariaten Betrachtungsweise zu reduzieren.
Das Ziel der Hauptkomponentenanalyse ist die Erkl/irung der Variation der
m Renditezeitreihen durch l Hauptkomponenten, die weitestgehend dieselben
Informationen aufweisen. Es sei r ~ (/z, IE) die n x m Matrix der Renditezeitreihen.

54

K A P I T E L 3. VOLATILITJ~T UND I N T E R D E P E N D E N Z

In der empirischen Anwendung erfolgt zun~chst die Standardisierung der


Renditezeitreihen

rk - Pkl
= ~ ,
k = 1,...,m.
ak
In dieser Darstellung soll die Korrelationsmatrix p

zur Ermittlung

der

Hauptkomponenten genutzt werden


p =

X'x

mit X = (

...,

Es sei p - J E J ~ die Spektraldarstellung von p mit den Eigenwerten ek (k =


1, ..., m)

E = diag(el, ..., era) und el :> e2 >_ ... _> ern,


dann sind die Hauptkomponenten die Spalten der n x m Matrix S (vgl.
Johnson/Wichern [64], Kapitel 8)
XJ.

S =

Die Spalten der Matrix J beinhalten die Eigenvektoren. Die Hauptkomponenten


sind dabei so geordnet, dass die Hauptkomponente in der ersten Spalte den
grSgten Anteil der Varianz erklgxt. Die Hauptkomponenten sind paarweise
unkorreliert. Die k-te Hauptkomponente ist
sk = jlk

+ j2k

+ ... + jmk

Es gilt
=

SJ I

beziehungsweise
xk -- jklSl + jk2s2 + ... + jkmSm.
Es sei Hi die m x m bedingte Varianz-Kovarianz-Matrix der Renditezeitreihen ri.
Dann kann folgende Approximation verwendet werden ( m - l Hauptkomponenten
werden nicht beachtet)
Hi ~ -~-Ei-~/
mit der m x I Matrix .~. = (jlcrl, ...,jlal) und der l x l Matrix

Ei = diag(V(sl,ilgli-1), ..., V(sl,ilgli-1))


mit 1 zur Beschreibung verwendeten Hauptkomponenten. Es werden demnach die
Eigenwerte ek als Varianz der Hauptkomponenten zeitver~nderlich modelliert

E(s2k,ilgti-1) = ek,i.

3.2.

MULTIVARIATE

Diese bedingte
zeitver~nderlichen

MODELLIERUNG

DER

INTERDEPENDENZ

Betrachtungsweise ermSglicht die Beschreibung


Charakteristika durch GARCH-Modelle. Es kann

55
der
ein

GARCH(1,1)-Modell verwendet werden (vgl. Gleichung 3.1)


e k ,i - - 0~0 -Jr- O~l S 2k,i _ 1 -Jr ~ l e k ,i - 1,

wobei fiir die bedingten Varianzen der Hauptkomponenten ek,i unterschiedliche


Parameter verwendet werden kSnnen.
Die Matrix Hi ist positiv semi-definit. Sie ist positiv-definit, wenn l = m gilt.
Daraus folgt, dass bei l < m die Eigenwerte ( e k , i > 0 ffir k - 1, ..., l) der Matrix
iiberpriift werden miissen, um eine positiv-definite Varianz-Kovarianz-Matrix zu
gew~hrleisten (vgl. Alexander [2], S. 7).
Der Vorteil der Methode ist die Reduktion der Risiken auf wenige Risikofaktoren,
die dennoch die Risikosituation ad~quat abbilden. Dadurch muss nur eine geringe
Anzahl bedingter Varianzen modelliert werden. Der Nachteil dieses Vorgehens
liegt in der Annahme der bedingten Unkorreliertheit der Hauptkomponenten,
da durch die Theorie der Hauptkomponentenanalyse nur die unbedingte
Vnkorreliertheit gesichert ist (vgl. Alexander [3], S. 211).

Dynamic Conditional Correlations


Das Dynamic Conditional Correlation (DCC) Modell von Engle [37] erweitert
das schon vorgestellte Constant Conditional Correlations Modell von Bollerslev.
Die Flexibilit~t der univariaten GARCH-Modelle wird hierbei mit einer einfachen
parametrischen Modellierung der zeitver~nderlichen bedingten Korrelationen
verbunden. In empirischen Studien wurde festgestellt, dass Korrelationen zwischen
einzelnen Wertpapieren zeitver~nderlich sind (vgl. Longin/Solnik [74]). Diese
Information fiber die zeitver~nderliche Korrelationsstruktur ist besonders ffir die
Berechnung des Value-at-Risk relevant.
Im DCC-Modell werden zun~chst univariate GARCH-Modelle angepasst,
um dann im zweiten Schritt die zeitver~nderlichen Korrelationen aus den
standardisierten Residuen zu ermitteln. Diese Parametrisierung erh~lt die einfache
Interpretation univariater GARCH-Modelle und ermSglicht die Konstruktion
eines flexiblen Sch~itzers fiir die bedingte Korrelationsmatrix.
Die Modellierung des DCC-Modells erfolgt analog zum CCC-Modell. Dabei wird
die Korrelationsmatrix R nicht mehr als konstant angenommen, sondern als
zeitver~nderliche Korrelationsmatrix 1~ ausgestaltet
Hi -- DiR/D/,

KAPITEL 3. VOLATILITf4T UND INTERDEPENDENZ

56
wobei

D 2 = diag(hkk,i)
gilt. Daraus folgt mit vi = D~-lui
E(viv~lf~i_l) = D~-IHiD~ -1 = 1~.
Als Sch~itzer ffir die bedingte Korrelationsmatrix It/ bieten sich einige
MSglichkeiten an. Vielversprechend ist die exponentielle Gliittung (vgl. Abschnitt
2.5.3)
pop,i =

gop,i

= [pop,d

x/goo,ig~,i
mit
gop,i = (1 - A)Vo,i-1%,i-1 + Agop,i-1.

(3.5)

Bei dieser Ausgestaltung kann durch die Festlegung eines einheitlichen Parameters
A gesichert werden, dass die bedingte Korrelationsmatrix positiv-definit ist.
Die Formulierung der Matrix Ri kann durchaus komplexer gestaltet werden.
Beispielsweise kann ein GARCH-Modell verwendet werden (vgl. Engle [37], S.
341)
gop,i -- -flop + ~ l ( V o , i - l V p , i - 1

-- "flop) + 132(gop,i-1 -- -'flop),

wobei -flop die unbedingte Korrelation zwischen Vo,i und Vp,i darstellt. Die
Umformulierung dieser Darstellung ergibt (vgl. Engle [37], S. 341)
gop,i = -Pop

(1--~1 --~2)
1 - ~2

c~ s-1
Vo,i-sVp,i-s.
S--1

+ ~1 E ~

Matrix-Versionen der vorgestellten Sch~itzer kSnnen wie folgt geschrieben werden


G~ = (I - A)(v~_~ v I.,_~) + AG~_~,

wobei ~ die unbedingte Korrelationsmatrix der standardisierten Residuen vi


darstellt. Die Matrix Ri ist positiv-definit, da die Matrix Gi ein gewichteter
Mittelwert einer positiv-definiten und einer positiv semi-definiten Matrix ist (vgl.
Engle [37], S. 341).
Zusammenfassend kann festgestellt werden, dass die Modellierung der
zeitver~nderlichen Korrelationsmatrix die Abbildung empirischer Beobachtungen
ermSglicht. Die Komplexit~it dieses Ansatzes ist hoch, sodass eine einfache
Modellierung der bedingten Korrelationen (z.B. durch exponentielle GUittung)
sinnvoll ist.

3.2. M U L T I V A R I A T E MODELLIERUNG DER I N T E R D E P E N D E N Z

3.2.2

57

Sch~itzung m u l t i v a r i a t e r G A R C H - M o d e l l e

Die Sch/itzung der Parameter kann generell fiber die Maximum-Likelihood


Optimierung vorgenommen werden. In diesem Abschnitt wird ffir die
Renditezeitreihen unterstellt:
ri = Di + ui.
Zur Sch/itzung der multivariaten GARCH-Modelle wird in der Regel die
Normalverteilungsannahme ffir die Innovationen getroffen

u~l~-~ ~ IOta(o, H~).


Diese Vorgehensweise wird durch die Arbeit von Bollerslev und Wooldridge
[20] gerechtfertigt (vgl. Abschnitt 3.1.2). Auch bei Abweichungen der
empirischen Renditezeitreihen von der Normalverteilungsannahme sind die
Sch/itzer konsistent und asymptotisch normalverteilt, allerdings ist dann
die asymptotische Effizienz der Sch/itzer nicht gew~hrleistet. Die Parameter
der Formulierung des Vektors der bedingten Erwartungswerte tt i und der
bedingten Varianz-Kovarianz-Matrix Hi werden in dem Parametervektor r
zusammengefasst. Die Log-Likelihood-Funktion kann ffir m Renditezeitreihen mit
jeweils n Beobachtungen wie folgt aufgestellt werden (vgl. Bollerslev, Engle,
Wooldridge [19], S. 120)
ln/i(r

= - ~m ln(27r) - 21In IHi(r

1
- ~u~(r162162

In L(r

= ~

In/i(r

i=1

Daraus folgt:
lnL(r

m n ln(2r) - 1 n

= - 2

2~

(lnlH'(r

+ ui(r162162

"

(3.6)

i=1

Diese Funktion muss mit Hilfe geeigneter Algorithmen optimiert werden (vgl.
Abschnitt 3.1.2 und die dort angegebene Literatur)
$ = maxln L(r
r
um den Parametervektor r zu sch~tzen.
In der Regel sind eine Vielzahl an Parametern zu sch/itzen, wobei die Restriktionen
an die Parameter hinsichtlich positiv-definiter Varianz-Kovarianz-Matrix und
Stationarit/it zu beachten sind. Im Folgenden wird die Sch/itzung der einzelnen

58

K A P I T E L 3. VOLATILITJ~T UND I N T E R D E P E N D E N Z

Varianten der multivariaten GARCH-Modelle detaillierter betrachtet. Dabei


werden insbesondere die gegebenenfalls vorhandenen Vereinfachungen der
Sch~itzung durch Reduktion der Anzahl der Dimensionen (Faktor-GARCH und
OGARCH) beziehungsweise durch die Zerlegung des Problems in Sch~itzung von
univariaten GARCH-Modellen und Sch~tzung der Korrelationsmatrix (CCC- und
DCC-Modell) hervorgehoben.

Sch~itzung des VECH-ModelIs


Das VECH-Modell stellt die allgemeinste Variante der multivariaten
GARCH-Modelle dar. Zur Sch~itzung des im Abschnitt 3.2.1 vorgestellten
VECH-Modells muss die in Gleichung 3.6 vorgestellte Log-Likelihood-Funktion
optimiert werden. Zu den ~m
1 2(m + 1)2 + 89
+ 1) Parametern der bedingten
Varianz-Kovarianz-Matrix kommen die Parameter zur Beschreibung des
Vektors der bedingten Erwartungswerte #i. Bei der Modellierung der einzelnen
Renditezeitreihen durch eine Konstante resultieren zus~itzlich m Parameter. Der
Algorithmus zur Optimierung der Log-Likelihood-Funktion hat oftmals Probleme,
ein globales Maximum der Funktion zu bestimmen. Die Varianz-Kovarianz-Matrix
Hi sollte in jedem Zeitpunkt positiv-definit sein: r
> 0. Ein Beispiel ffir die
resultierenden Restriktionen ist Bera/Higgins [15] (S. 343/344) zu entnehmen.
Es wird deutlich, dass auf Modellierungen zuriickgegriffen werden sollte, die eine
geringere Komplexit~t aufweisen. Aufgrund der beschriebenen Probleme wird
das VECH-Modell in der empirischen Vergleichsstudie nicht verwendet, da fiir
m - 5 eine sinnvolle Parametersch~tzung nicht gew~hrleistet ist.

Sch~itzung des Faktor-Modells


Im Abschnitt 3.2.1 wurde das Ein-Faktor Modell ri = / z + bFi + ei vorgestellt.
Die Sch~tzung der Mittelwertgleichung fiir die Renditezeitreihen ri erfolgt durch
die Sch~tzung von m linearen Regressionen, um die Parameter f~k und bk (k =
1, ..., m) zu bestimmen. Auf dieser Grundlage lassen sich die gesch~tzten Residuen
i --

1, ..., n

bilden. Die Sch~tzung der spezifischen Varianz folgt mit


~k=

n - 2

~g2
i=l

k,i~

k=l,

.,m.
""

3.2. MULTIVARIATE MODELLIERUNG DER INTERDEPENDENZ

59

An den Faktor F/wird eine Konstante c angepasst

Fi = ~+z2i

mit ?:= --1


n

Fi.
i=l

Daraufhin wird das vorgeschlagene GARCH(1,1)-Modell gesch/itzt (vgl. Abschnitt

3.1.2)
^

^2

hi = dO + a lU i_ 1 + ~1 h i - 1 ,

Damit sind alle benStigten Parameter


Varianz-Kovarianz-Matrix I:li ermittelt

i = 1, ..., n.

zur

Bildung

der

bedingten

I:I~ = h~fifi' +/'.


Sch/itzung des Constant Conditional Correlation Modells
Die Schatzung des CCC-Modells 1/isst sich vereinfachen, indem die Sch~tzung der
Parameter der bedingten Varianz in zwei Schritten vorgenommen wird. Ausgehend
von der allgemeinen Log-Likelihood-Funktion (vgl. Gleichung 3.6)

mn
1 n
In L(~b) = - - - ~ ln(27r) - ~ Z (In IHi(0)l + u~(q~)'H~-l(q~)ui(q~))
i=1

l~st sich die Funktion durch Umformungen vereinfachen (vgl. Engle [37], S. 342).
Die folgenden Umformungsschritte werden durch die elementaren Rechenregeln
(IABI- IAIIBI; IA21- IAI2 fiir A--diag(alx,a22,...,akk);ln (a 2) -- 21na)
ermSglicht

mn ln(2r) - ~1 ~n (In IDiRDil + uiD


, i-1R-1 D~-lui)
In L(0) = ----~
i=l

= - - mn
- ~ ln(27r) - 21 Zn (2 In IDi[ + In IRI + v'iR-Xvi)
i=1

mn ln(27r) - 21 Zn (2 In ID, I + uiD,


, -1 -1
= ---~
Di ui + In IRI
i=l

v i' R -1

vi -

V'iVi)

Die Parameter r seien aufgeteilt in den Parametervektor ~b = (0',/3')' (vgl.


Abschnitt 3.1.2) mit den Parametern in ui, Di und dem Paramtervektor ~ mit
den zus~tzlichen Parametern in R. Dann kann die Log-Likelihood-Funktion in
einen Varianzteil und einen Korrelationsteil zerlegt werden
In L (~, ~) = In Lv (~b) + In Lc (~, 0 ) .

(3.7)

KAPITEL 3. VOLATILITf4T UND INTERDEPENDENZ

60
Der Varianzteil ist
lnLv

( (~) = ---~-m n l n ( 2 r ) - i ~ ~n (ln [Di[ 2 + u~D~-2ui).


i--1

In dem Korrelationsteil sind die verbleibenden Komponenten zusammengefasst


lnLc

( (~,(~)

= - ~ Z1o
(lnlRl+v,R

vi-

v:v )

i--1
Der Varianzteil ist die Summe univariater GARCH Log-Likelihood-Funktionen
1

ln(27r) +

ln(hkk,i)+

mit
IDil 2 =

hll,ih22,i.., hmm,i,

In IDil 2 = ln(h11,i) + ln(h22,i) + . . . +

ln(hmm,i).

Die individuellen Log-Likelihood-Funktionen kSnnen demnach zun~chst separat


maximiert werden (vgl. die Schtitzung univariater GARCH-Modelle in Abschnitt
3.1.2)
~ = m.ax (lnLv (r
4,
Der optimale Parametervektor kann dann im zweiten Schritt zur Optimierung des
Korrelationsteils verwendet werden

_Durch die Annahme der konstanten Korrelationsmatrix R kann die Schtitzung


wie folgt durchgefiihrt werden (vgl. Bollerslev [18], S. 500)
Pop "-i=1

Vo,i

i=1

Vp,i

Die gesch~itzten Parameter ~ =


~, ~ sind konsistent und asymptotisch
normalverteilt unter gewissen Regularit~tsbedingungen (vgl. Engle [37],
S. 342), die bei Einhaltung der Anforderungen an die Parameter der
GARCH-Modelle hinsichtlich Nicht-Negativittit und Stationarittit erffillt sind. Ffir
das GARCH(1,1)-Modell muss demnach: c~o > 0, c~1,f~l >_ 0, c~1 + ~1 < 1 gelten
(vgl. Abschnitt 3.1.2).
Die Abfolge der Vorgehensschritte zur Sch~tzung des CCC-Modells kann wie folgt
fiir zwei Wertpapiere (m = 2) zusammengefasst werden:

3.2. M U L T I V A R I A T E

MODELLIERUNG

DER INTERDEPENDENZ

61

1) Sch/itzung der zwei univariaten GARCH-Modelle


2) Berechnung der standardisierten Residuen

Vl ,i

__

I$2~i

3) Schgtzung der Korrelationsmatrix


4) Berechnung der gesch/itzten Varianz-Kovarianz-Matrix I:Ii

~tll,i
h22,i

Sch~itzung des O G A R C H - M o d e l l s
Zur Sch:itzung des OGARCH-Modells ist zun/ichst die Durchfiihrung der
Hauptkomponentenanalyse notwendig. Mit den Sch~tzfunktionen

1~

ftk = --nZi=lrk,i und ak =

n-1

i=l (rk,i -- ftk)2

l~st sich die gesch/itzte Korrelationsmatrix ermitteln

-, ,:
X~X
Jb=n_ 19
Mit der gesch~tzten Spektraldarstellung
h = JEJ'

kSnnen die geschiitzten Hauptkomponenten ermittelt werden

Detailliertere Darstellungen kSnnen beispielsweise Johnson/Wichern [64]


entnommen werden. Nach Durchfiihrung der Hauptkomponentenanalyse
sind univariate GARCH-Modelle an die Zeitreihen der Hauptkomponenten
anzupassen, um die zeitveriinderlichen Varianzen der Hauptkomponenten
Ei = diag(iY(.~l,i[fli-1), ..., l)'(.~/,i[gti-1))

KAPITEL 3. VOLATILIT,~T UND INTERDEPENDENZ

62

zu sch~itzen. Zur Darstellung der Sch~itzung kann auf die Ausffihrungen in


Abschnitt 3.1.2 hinsichtlich univariater GARCH-Modelle zurfickgegriffen werden.
Zusammen
mit
den
gesch~tzten
Eigenvektoren
jk
und
den
gesch~itzten Standardabweichungen der Renditezeitreihen 5k aus der
Hauptkomponentenanalyse kann mit der Matrix "~ =
(jlO'l,...,j/o'/) die
gesch~itzte bedingte Varianz-Kovarianz-Matrix der Renditezeitreihen

~I~ = ~-~:i~'
gebildet werden.
Sch~itzung des Dynamic Conditional Correlation Modells
Das DCC-Modell wurde konstruiert, um eine 2-Schritt Sch~tzung der Parameter
zu ermSglichen. Im ersten Schritt werden die univariaten GARCH-Modelle
gesch~tzt. Im zweiten Schritt werden die gesch~tzten standardisierten Residuen
genutzt, um die zeitver~nderlichen Korrelationen zwischen den Renditezeitreihen
zu sch~tzen. Zur Darstellung der Sch~tzung des DCC-Modells kann auf die
Ausfiihrungen zum CCC-Modell zuriickgegriffen werden. Es gilt die in Gleichung
3.7 dargestellte Aufspaltung der Log-Likelihood-Funktion
lnL

(~, ~) = lnLv (~) + lnLc (~, ~) .

Der Varianzteil ist weiterhin wie folgt definiert


lnLv

( (~)

= - - ~mnln(2r)_ ~1 ~ "( l n l D i

12 + u i,D i-2 ui).

i=1

Daher kSnnen im ersten Schritt die individuellen Log-Likelihood-Funktionen


maximiert werden

~=m.ax(lnLv(~)).
4,

Im Korrelationsteil ist im Unterschied zum


Korrelationsmatrix zeitver~inderlich spezifiziert
lnLc ( (~,~ )

CCC-Modell

, i-1 v i - --21 Zn (lnlR/l + viR


i--1

Die Elemente der Matrix 1~ weisen die folgende Form auf


gop,i
Pop,i - -

x/goo,igpp,i

v:vi).

die bedingte

3.2. MULTIVARIATE MODELLIERUNG DER INTERDEPENDENZ

63

Die bedingte Korrelationsmatrix 1~ muss symmetrisch und positiv-definit sein.


Weiterhin muss Pkk,i = 1 und IPop,il _ 1 gelten. Bei Festlegung des Parameters
in der Gleichung 3.5 ist keine Sch/itzung notwendig. Zur Sch~tzung des
Parameters A oder bei Nutzung eines GARCH-Modells zur Spezifikation der
bedingten Korrelationsmatrix 1~ wird die Optimierung des Korrelationsteils der
Log-Likelihood-Funktion im zweiten Schritt vorgenommen

r162162
4,
3.2.3

P r o g n o s e mit multivariaten G A R C H - M o d e l l e n

Allgemein l~st sich die Prognose mit multivariaten GARCH-Modellen im


Wesentlichen in Analogie zu den univariaten GARCH-Modellen ableiten.
In diesem Abschnitt wird sowohl die 1-Schritt Prognose der bedingten
Varianz-Kovarianz-Matrix I:Ill,~ als auch die T-Schritt Prognose I:I~ln vorgestellt.
In der Darstellung der Prognose mit multivariaten GARCH-Modellen wird in
der vorliegenden Arbeit die einfache Ausgestaltung der Mittelwertgleichung mit
konstantem Parametervektor ft verwendet: r~ = ft + ui. Eine Erweiterung
der Mittelwertgleichung durch autoregressive Komponenten ist denkbar, fiihrt
jedoch zu einer betr~chtlichen Steigerung der Komplexit~t. Die prognostizierte
kumulierte bedingte Varianz-Kovarianz-Matrix des Vektors der Renditezeitreihen
kann bei Verzicht auf autoregressive Terme als Summe der prognostizierten
bedingten Varianz-Kovarianz-Matrizen ermittelt werden
T

l=l

Im Folgenden werden die Unterschiede der Prognose der bedingten


Varianz-Kovarianz-Matrix mit den vorgestellten Modellen dargestellt. Die
Prognose mit dem VECH-Modell l~st sich durch sukzessive Rekursion
ermitteln, wobei es sich um die erweiterte Betrachtung der bedingten
Varianz-Kovarianz-Matrix handelt. Im CCC-Modell und im DCC-Modell
setzt sich die Prognose aus den univariaten Prognosen der bedingten Varianz der
jeweiligen Renditezeitreihen und der Prognose der bedingten Korrelationsmatrix
zusammen. Beim Faktor-Modell und dem OGARCH-Modell basiert die
Prognose der bedingten Varianz-Kovarianz-Matrix auf der Prognose der
univariaten bedingten Varianzen, da im Faktor-Modell nur ein Marktindex
mit dem GARCH-Modell prognostiziert wird beziehungsweise die ermittelten
Hauptkomponenten im OGARCH-Modell als orthogonal angenommen werden.

KAPITEL 3. VOLATILITJ4T UND INTERDEPENDENZ

64

Prognose mit dem VECH-Modell


Das VECH-Modell weist erhebliche Schwierigkeiten in der Anwendung auf.
Dennoch soll an dieser Stelle die Prognose fiir p = 1, q - 1 und zwei Wertpapiere
dargestellt werden, da ausgehend von dieser Darstellung die Erkl/irung der
alternativen multivariaten GARCH-Modelle und der Zusammenhang zum
EWMA-Modell leicht ersichtlich wird. Die 1-Schritt Prognose des VECH-Modells
lautet

vech(l:illn) =

h12,1[n
h22,1[n

--

"/~2
w3
-}-

Es gilt

a21 a22/~23
a31 a32/~33

b21 b22 b23


b31 b32 b33

h 12,n
h22,n

~l,nU2,n
U2,n
9

!
E(u,~+,u,~+,[~n) = H,tn,

woraus die T-Schritt Prognose

vech(I:I~-in)-

't~)2
w3

-[-

a21 -4- b21


^ a22 -4- b22
^ a23 + b23
^
a31 q- b31 t~32 -4- b32/~33 ~- b33

vech(I:I~--lln)

folgt. Bei Anwendung des EWMA-Modells (vgl. Abschnitt 2.5.3) resultiert die
folgende einfache Struktur

vech(I:Irln) = vech(I:I21~)=

/100/
0 10
001

vech(I:Iltn).

Aufbauend auf der Darstellung des VECH-Modells wird im Weiteren die Prognose
der bedingten Varianz-Kovarianz-Matrix mit den alternativen multivariaten
GARCH-Modellen aufgezeigt.

Prognose mit dem Faktor-Modell


Die Zeitver/inderlichkeit der bedingten Varianz-Kovarianz-Matrix des
beschriebenen Ein-Faktor-Modells wird durch die zeitver/inderliche bedingte
Varianz des gew/ihlten Faktors bestimmt. Die Prognose der bedingten
Varianz-Kovarianz-Matrix wird mit Hilfe der gesch/itzten Parameter der

3.2. MULTIVARIATE MODELLIERUNG DER INTERDEPENDENZ

65

Mittelwertgleichung la, der gesch/itzten spezifischen Varianz der Renditezeitreihen


I' = diag(;yk) und der Prognose der bedingten Varianz des Faktors hrln entwickelt
(vgl. hierzu die Prognose mit univariaten GARCH-Modellen in Abschnitt 3.1.3)

Das /iugere Produkt des gesch/itzten Parametervektors la sorgt dafiir,


dass die jeweiligen prognostizierten Varianzen beziehungsweise Kovarianzen
unterschiedlich stark auf die Ver/inderung der Prognose der bedingten Varianz
des Faktors reagieren.
Prognose mit dem Constant Conditional Correlation Modell

Durch die Annahme der konstanten Korrelationsmatrix lfisst sich die Prognose im
CCC-Modell relativ einfach ableiten. Die Prognose der Varianz-Kovarianz-Matrix
wird durch die Prognose der individuellen bedingten Varianzen der einzelnen
Wertpapiere bestimmt

IZIlln = I~IInRI~ll n.
Die T-Schritt Prognose ist

Explizit dargestellt lautet die T-Schritt Prognose der Varianz-Kovarianz-Matrix


fiir drei Wertpapiere

hi l,-rln
hll-r n

h22 rlnPi2

lhll,rln M/h22,rlnp12v/hll,rln~/h33,rlnf)13
M/h22,rlnW/h33,rln~
)23

Hierbei wird auf die Prognose der univariaten GARCH-Modelle zuriickgegriffen


(vgl. Abschnitt 3.1.3). Bei der Wahl des GARCH(1,1)-Modells resultiert

und

hkk,rln = dO +

(0~1 "b/~l)hkk,'r-Xln,

wobei unterschiedliche Parameter ffir die jeweiligen bedingten Varianzen


ausdriicklich zugelassen sind.

K A P I T E L 3. VOLATILITJ~T UND I N T E R D E P E N D E N Z

66

Prognose mit dem 0 G A R C H - M o d e l l


Durch die Orthogonalit~t der Hauptkomponenten sind im OGARCH-Modell
nur die Varianzen der einzelnen Hauptkomponenten zu prognostizieren, um
die prognostizierte bedingte Varianz-Kovarianz-Matrix der Renditezeitreihen zu
ermitteln
^

^l

I:I~ln = ~E~ln~.
Die Diagonalmatrix ]~ln beinhaltet die prognostizierten univariaten bedingten
Varianzen der Hauptkomponenten ek,rln = V(Sk,r,+'rlf't")

el,tin

l~.ln

Zur

Bestimmung

der

"'"

e2,~'ln

"

e~,~'ln

prognostizierten bedingten

Varianzen

kSnnen

die

Ausffihrungen in Abschnitt 3.1.3 verwendet werden.


Prognose mit dem Dynamic Conditional Correlation Modell
Bei der Darstellung der Prognose mit dem DCC-Modell kSnnen die Ausfiihrungen
zum CCC-Modell als Grundlage genommen werden. Im Unterschied zum
CCC-Modell ist beim DCC-Modell die Korrelationsmatrix R/ zeitver~inderlich
spezifiziert

= b 1 P t b In.
Explizit dargestellt fiir drei Wertpapiere folgt

Die Prognose der bedingten Varianz ]tkk,.r[n kann den Ausfiihrungen zu der
Prognose mit univariaten GARCH-Modellen entnommen werden (vgl. Abschnitt
3.1.3). Die Prognose der bedingten Korrelationsmatrix beruht auf der gew~hlten
Modellspezifikation

Po~,~-In- ~/goo,~'lng~,7"ln

3.2. M U L T I V A R I A T E

Als Spezifikation

MODELLIERUNG

der Matrix

Gi

67

DER INTERDEPENDENZ

wird in der vorliegenden

Arbeit

das

EWMA-Modell verwendet
gop,i = (1 - A)vo,+_ 1Up,i- 1 + )tgop,i- 1.

Es folgt die 1-Schritt Prognose


[7op,llrt = (1 -- ,X)9o,n~p,n + )~[7op,n.

Fiir die 7--Schritt Prognose wird die folgende Approximation verwendet


fiir l = 1, ..., T.

E(vo,n+lVp,n+llf'tr+) ~ gop,lln,

Damit ist die r-Schritt Prognose


gop,rln -- gop,lln"

Im

Unterschied

zum

CCC-Modell

wird

die bedingte

Korrelationsmatrix

durch die komplexere exponentielle Gl/ittung zeitver/inderlich spezifiziert. Die


1-Schritt-Prognose beruht daher auf einer zeitver/inderlichen Modellierung. Die
T-Schritt Prognose der bedingten Korrelationsmatrix entspricht der 1-Schritt
Prognose (vgl. die Ausfiihrungen zum EWMA-Modell in Abschnitt 2.5.3).

3.2.4

Beurteilung der multivariaten GARCH-Modelle

Multivariate GARCH-Modelle zeichnen sich durch die explizite Modellierung


der Interdependenz der Renditezeitreihen aus. Die Varianz-Kovarianz-Matrix
wird zeitver/inderlich modelliert. Dadurch werden wesentliche Aspekte, wie
beispielsweise die zeitver/inderliche Korrelation in die Betrachtung einbezogen.
Dabei muss deutlich zwischen den einzelnen Modellvarianten unterschieden
werden. Es gibt Ans/itze, in denen die Flexibilit/it durch eine zu hohe Anzahl
an Parametern iiberstrapaziert wird. Dieses ist im VECH-Modell der Fall. Diese
Ans/itze sind nicht geeignet, die Problemstellungen der Praxis zu 15sen. Schon
bei fiinf einzelnen Wertpapieren ist die Anzahl an Parametern zu hoch, um die
problemlose Sch/itzung des Modells zu gew/ihrleisten.
Um dieses Problem zu iiberwinden, sind zahlreiche Varianten vorgeschlagen
worden. Das Faktor-Modell und das OGARCH-Modell
die Reduktion der Anzahl der Risikofaktoren, um dann
der bedingten Varianz-Kovarianz-Matrix auf univariate
zuriickfiihren zu kSnnen. Durch diese Vorgehensweise wird

fokussieren auf
die Gestaltung
GARCH-Modelle
die Komplexit/it

68

KAPITEL 3. VOLATILITAT UND INTERDEPENDENZ

der Modellierung stark reduziert. Auch das CCC-Modell und das DCC-Modell
zielen auf die Komplexittitsreduktion ab, indem die Spezifikation der
bedingten Varianz-Kovarianz-Matrix in zwei Schritte zerlegt wird. Durch diese
Vorgehensweise kSnnen wiederum univariate GARCH-Modelle zur Beschreibung
der bedingten Varianzen genutzt werden. Die Korrelationsmatrix kann darauf
folgend im zweiten Schritt ermittelt werden. Damit wird eine angemessene
Flexibilit/it der Modellierung erreicht, wobei die Anzahl der Parameter
iiberschaubar ist. Das DCC-Modell eignet sich zusiitzlich durch die explizite
Modellierung der zeitveriinderlichen Korrelation.
Wesentlicher Kritikpunkt an den multivariaten GARCH-Modellen ist generell die
hohe Komplexit/it. Im Sinne der sparsamen Parametrisierung der Modellierung
sollte der gewiihlte Ansatz so einfach wie mSglich gestaltet sein, ohne
wesentliche Charakteristika zu vernachl~sigen. Im Umkehrschluss folgt, dass
die multivariaten GARCH-Modelle in der Anwendung zur Berechnung des
Value-at-Risk bessere Ergebnisse liefern sollten, um die hShere Komplexit~t
zu rechtfertigen. Dieses wird in der empirischen Vergleichsstudie im Kapitel 5
analysiert.

Kapitel 4

Neuere Value-at-Risk Ans itze


Neben den in der Praxis verwendeten Ans~tzen (vgl. Abschnitt 2.5) haben
sich in den letzten Jahren in der wissenschaftlichen Forschung einige Ideen zur
Ausgestaltung des Konzepts Value-at-Risk entwickelt. Empirische Charakteristika
der Renditezeitreihen werden bei diesen neueren Ans~tzen verst~irkt einbezogen.
Die neueren Ans~tze lassen sich in die Kategorien nicht-parametrische,
parametrische und semi-parametrische Ans~tze unterteilen (vgl. Abschnitt
2.3). Bei den nicht-parametrischen Ans~tzen steht die Entwicklung von
Gewichtungsstrukturen ffir die historische Renditezeitreihe im Vordergrund (vgl.
Abschnitt 4.1). Die parametrischen Ans~tze profitieren insbesondere vonder
Modellierung der Volatilit~t und Interdependenz mit GARCH-Modellen (vgl.
Kapitel 3). Hierbei werden unterschiedliche Verteilungsannahmen betrachtet.
Die Berechnung des Value-at-Risk aus der multivariaten Betrachtungsweise mit
Hilfe der vorgestellten GARCH-Modelle erweitert das vorhandene Spektrum
an Ans~tzen (vgl. Abschnitt 4.2). Die semi-parametrischen Ans~tze greifen auf
weniger restriktive Verteilungsannahmen zur Modellierung des Value-at-Risk
zurfick. Zur Ausgestaltung dieser Ans~tze kSnnen die Extremwerttheorie und das
Bootstrap-Verfahren verwendet werden, die zur Berechnung des Value-at-Risk in
den GARCH-Kontext integriert werden. Ein weiterer semi-parametrischer Ansatz
ist die direkte Modellierung des interessierenden Quantils der Renditeverteilung
durch ein autoregressives Modell (vgl. Abschnitt 4.3).
Ziel dieses Kapitels ist die umfassende Darstellung und Weiterentwicklung der
oben genannten Ideen und Ans~tze. Insbesondere wurden die meisten Ans~itze
bisher nur hinsichtlich der Nutzung ffir die 1-Schritt Value-at-Risk Prognose
entwickelt. Die 10-Schritt Prognose soll in den n~chsten Abschnitten detaillierter
dargestellt werden, wobei nicht nur die 10-Schritt Value-at-Risk Prognose auf

70

KAPITEL 4. NEUERE VALUE-AT-RISK ANSATZE

Grundlage der Normalverteilung, sondern auch 10-Schritt Prognosen basierend


auf Simulationsverfahren vorgestellt werden. Auf,erdem werden die vorgestellten
Varianten der multivariaten GARCH-Modelle zur Berechnung des Value-at-Risk
in die neueren Ans~tze einbezogen.
Durch diese konsequente Ausweitung auf die 10-Schritt Prognose und die
multivariate Betrachtungsweise entstehen Ans~itze, die eine Neuerung darstellen.
Es wird die ,,Generalized Error Distribution" zur Simulation der 10-Schritt
Renditeverteilung bei unterstelltem GARCH-Modell genutzt (vgl. Abschnitt
4.2.2), eine MSglichkeit zur Verwendung der CAViaR-Modelle zur 10-Schritt
Prognose aufgezeigt (vgl. Abschnitt 4.3.1), das CCC-Modell zur Ableitung der
10-Schritt Value-at-Risk Prognose mit Simulationsverfahren verwendet (vgl.
Abschnitt 4.3.2), die Faktor-GARCH- und OGARCH-Modelle zur 1-Schritt
und 10-Schritt Value-at-Risk Prognose in entsprechende Ans~itze integriert
(vgl. Abschnitt 4.2.1) und die Simulation der zukiinftigen Renditeverteilung
zur Value-at-Risk Prognose aus der historischen Renditezeitreihe mit
Gewichtungsfaktoren vorgenommen (vgl. Abschnitt 4.1).
Die weiterentwickelten Ans~itze liefern die Grundlage fiir die empirische
Vergleichsstudie im fiinften Kapitel. Damit ist ein umfassender Vergleich der
konkurrierenden Value-at-Risk Ans~itze mSglich, der den Entscheidungstr~gern
in Finanzinstituten, AufsichtsbehSrden und Unternehmen jeglicher Art eine
Abw~igung zwischen Vor- und Nachteilen der einzelnen Ans~itze ermSglicht.
In diese Abw~gung werden sowohl die vorhandenen Ans/itze in der Praxis,
als auch eine umfassende Auswahl von Ans~itzen aus der aktuellen Forschung
einbezogen. Damit kann insbesondere im Hinblick auf die Anforderungen der Basel
II-Richtlinien aus einer Vielzahl interessanter Ans~tze ausgew~hlt werden. Der fiir
die jeweilige Unternehmenssituation geeignete Ansatz erfasst dabei wesentliche
Aspekte der Finanzmarktzeitreihen.

4.1

Nicht-parametrische Ans~itze

Das Ziel der nicht-parametrischen Ans~itze ist es, den Value-at-Risk ohne
Verteilungsannahme fiir die Renditezeitreihe zu berechnen. Die historische
Simulation wurde als nicht-parametrischer Ansatz im Abschnitt 2.5.2 vorgestellt.
Im Folgenden wird das Grundkonzept der historischen Simulation erweitert. Die
Erweiterungen beruhen auf der Ermittlung des Quantils aus der historischen
Renditezeitreihe. Dabei wird keine einheitliche Gewichtung der letzten n
historischen Renditen vorgenommen, sondern es wird eine Gewichtungsstruktur

4.1.

NICHT-PARAMETRISCHE

71

ANSfi.TZE

verwendet, die den jeweiligen historischen Renditen mehr oder weniger Gewicht
einrgumt. Es seien r l , r 2 , . . . , r n
die letzten n historischen Renditen am
aktuellen Rand der Zeitperiode n. Zu diesen historischen Renditen werden die
Gewichtungsfaktoren ei (i = 1, ..., n) zugeordnet
rl

r 2 ... r n - 1

~1 s

... s

rn
s

Die Gewichtungsfaktoren sollten dabei die Bedingung y]i~=l ei = 1 einhalten. Fiir


1 das heigt es werden
das Grundkonzept der historischen Simulation gilt: ei = ~,
die n historischen Renditen gleichgewichtet beriicksichtigt.
Zur Durchfiihrung der 1-Schritt Prognose mit Beachtung der Gewichtungsfaktoren
kann als Ausgangspunkt die Ordnungsstatistik der n historischen Renditen
gebildet werden
r(1),...,r(n) 9

Die dazugehSrigen Gewichtungsfaktoren ei werden zur Ermittlung des a-Quantils


aufsummiert bis der Wert a erreicht ist. Das a-Quantil wird durch Interpolation
der zwei relevanten Werte r(0 und rq+l) berechnet (vgl. das Vorgehen in
Abschnitt 2.5.2). Das beschriebene Vorgehen kann veranschaulicht werden,
indem die empirische Verteilungsfunktion ~(x) unter Berficksichtigung der
Gewichtungsfaktoren ei mit der Indikatorfunktion I aufgestellt wird
n

<

i=l

Diese Funktion stellt eine Treppenfunktion dar, die bei den Werten ri Spriinge in
HShe des jeweiligen Gewichtungsfaktors ei aufweist. Aus dem diskreten Verlauf
der Treppenfunktion wird deutlich, dass die bereits angesprochene Interpolation
zwischen zwei Renditen notwendig ist.
Da in der vorliegenden Arbeit die 10-Schritt Value-at-Risk Prognose ffir alle
dargestellten Ansgtze berechnet werden soll, wird statt der Summation der
Gewichtungsfaktoren ein alternatives Vorgehen gewghlt. Zur Berechnung des
relevanten 1-Schritt und 10-Schritt Quantils wird auf Simulationsverfahren
zuriickgegriffen. Die Renditeverteilung wird durch Ziehen mit Zuriicklegen unter
Beriicksichtigung der Gewichtungsfaktoren ei als Wahrscheinlichkeitsverteilung
fiir die historische Renditezeitreihe simuliert. In der empirischen Anwendung
wird die Funktion ,~sample" des Software-Pakets ,,R" genutzt. Die N gezogenen
historischen Renditen seien mit rj,n+l (j = 1, ..., N ) bezeichnet. Zur Berechnung
des interessierenden a-Quantils der simulierten Renditeverteilung rj,n+l wird die

72

K A P I T E L 4. N E U E R E VALUE-AT-RISK ANSfi, TZE

in Abschnitt 2.5.2 vorgestellte Sch~itzung des empiririschen Quantils ~(a) aus


Gleichung 2.16 verwendet. Die 1-Schritt Prognose des Quantils ist damit
(~(Cg) lln --~l(o~,rj,n..bl).

Zur Ermittlung der 10-Schritt Prognose kann in Analogie zu den Ausffihrungen


des Abschnitts 2.5.2 vorgegangen werden. Der Unterschied liegt in der
Berficksichtigung der Gewichtungsstruktur s bei der Ziehung der historischen
Renditen. Es werden N kumulierte 10-Schritt Renditen ?j,n+lo gebildet. Daffir
sind 10N Ziehungen aus der historischen Renditezeitreihe notwendig. Die
kumulierten 10-Schritt Renditen resultieren aus der Summierung der gezogenen
T-Schritt Renditen (vgl. Gleichung 2.17)
10
?~j,n+lO ---- E ~j,n+'r.
7-=1

Aus diesen simulierten kumulierten 10-Schritt Renditen kann das empirische


Quantil ~(a,~j,n+xo) berechnet werden (vgl. Gleichung 2.16), welches dann als
10-Schritt Prognose des Quantils q(a)xoln der kumulierten Renditeverteilung
verwendet wird.
Die Ermittlung des Value-at-Risk aus dem gesch~itzten Quantil erfolgt in
gewohnter Weise (vgl. Gleichung 2.11)
Va"~(O~)l[n = pn(1 -- exp(q(a)lln))

beziehungsweise
A

VaR(a)xoln = p . ( 1 - C x p ( O ( ~ ) ~ o j . ) ) .

Zur Wahl der Gewichtungsfaktoren ei kann auf die heuristische Vorgehensweise


zurfickgegriffen werden. Die Festlegung basiert dabei nicht auf Charakteristika
der Renditezeitreihe, sondern es wird darauf abgezielt, die Renditen am aktuellen
Rand starker zu gewichten als die in der Historie weit zurfickliegenden Renditen.
In Analogie zur exponentiellen Gl~ttung der Volatilit~t (vgl. Abschnitt 2.5.3)
kann eine exponentielle Gewichtung der historischen Renditen vorgenommen
werden. Eine MSglichkeit zur Ausgestaltung der Gewichtungsstruktur wurde von
Boudoukh, Richardson und Whitelaw [21] vorgeschlagen
s

1 - ~ ~t-x

-- 1 -

)~n

l = 1, ..., n.

Damit kann folgende Zuordnung zu den historischen Renditen vorgenommen


werden
rl
r2
... r n - 1
rn
l ff_~n A n - i ~_~n ~ n-- 2
I-A
l-A"
9.. l _ ~ n A 1-~n

73

4.1. N I C H T - P A R A M E T R I S C H E ANSfi, TZE

Der Gl~ittungsparameter A steuert den Verlauf der Gewichtungsstruktur.


Boudoukh, Richardson und Whitelaw I21] setzten in ihrer Studie tX = 0, 97 und
)~ = 0, 99 als Parameter ein.
Fiir die Erweiterungen der historischen Simulation ist die L~inge n der
verwendeten historischen Renditezeitreihe entscheidend. Die Basel II-Richtlinien
fordern eine Historie yon mindestens einem Jahr (d.h. ca. 250 Handelstage).
Bei der Verwendung von exponentiellen Gewichtungsstrukturen werden die
weit zuriickliegenden Renditen aufgrund des geringen Gewichts kaum noch
beriicksichtigt. Die Auslegung dieser Anforderung wird von den jeweiligen
nationalen AufsichtsbehSrden vorgenommen und kann daher an dieser Stelle nicht
weiter diskutiert werden.
Im Gegensatz zu heuristischen Gewichtungsstrukturen kSnnen auch
Gewichtungsfaktoren gew~hlt werden, die sich direkt aus der historischen
Renditezeitreihe ableiten lassen. Ein Kritikpunkt am Grundkonzept der
historischen Simulation ist die fehlende explizite Modellierung der Volatilit~t.
Daher ist ein denkbarer Ansatzpunkt, die Volatilit~it zu modellieren und diese
Information in die Gewichtungsstrukturen einflief,en zu lassen. Um dieses zu
realisieren, kSnnen GARCH-Modelle angewendet werden.
Hierzu wird der Vorschlag yon Hull und White [61] dargestellt. Die Autoren
ermitteln keine Gewichtungsstruktur, sondern transformieren die urspriingliche
Renditezeitreihe. Es sei die Information fin bis zum Zeitpunkt n gegeben. Durch
Verwendung des GARCH-Modells wird die bedingte Varianz der Renditezeitreihe
ermittelt (vgl. Abschnitt 3.1), wobei die Prognose ffir den Zeitpunkt n + 1
mit der Information Fin berechnet werden kann. Daraus folgt die aktuellste
1-Schritt Prognose der bedingten Varianz hlln. Ffir die n letzten Renditen wird
eine Transformation genutzt, um die Modellierung der bedingten Varianz in die
Value-at-Risk Berechnung zu integrieren. Es sei die modifizierte Renditezeitreihe
mit r i* bezeichnet
,

ri* =

~i

ri,

ffir i =

1,

..., n .

Die ursprfingliche Renditezeitreihe ri wird dutch Multiplikation mit einem Faktor


transformiert. Dieser Faktor setzt die aktuelle 1-Schritt Prognose der bedingten
Varianz ins Verh~iltnis zur gesch~tzten bedingten Varianz im Sch~tzzeitraum
(i -- 1,...,n). Daraus resultiert die transformierte Renditezeitreihe r~ mit
neuer Skalierung. Diese weist im Vergleich absolut grS~ere Werte auf, wenn
die gesch~tzte bedingte Varianz geringer ist als die letzte aktuelle Prognose der
bedingten Varianz und umgekehrt. Diese transformierte Renditezeitreihe kann im

74

KAPITEL 4. NEUERE VALUE, AT-RISK ANS]4TZE

Rahmen der historischen Simulation beriicksichtigt werden.


Es besteht auch die MSglichkeit, die gesch/itzte bedingte Varianz h,i (i = 1, ..., n)
als Gewichtungsstruktur zu verwenden: ei - b,i. Hierdurch wird erreicht, dass
Phasen hSherer Schwankungsbreite st/irker bei der Berechnung der Value-at-Risk
Prognosen beriicksichtigt werden. Es ist zu erwarten, dass aus diesem Ansatz
tendenziell hShere, das heitgt konservativere 1-Schritt und 10-Schritt Prognosen
resultieren.
Neben den in den Abschnitten 2.3.1 und 2.5.2 dargestellten inhaltlichen
Kritikpunkten hinsichtlich der historischen Simulation ist anzumerken, dass
die beiden dargestellten Vorgehen einen weiteren Schwachpunkt aufweisen. Die
Grundlage der historischen Simulation beziehungsweise der Bootstrap-Verfahren
ist die Annahme, dass die Renditen unabh/ingig und identisch verteilt (i.i.d.)
sind. Die Modellierung der bedingten Varianz der Renditezeitreihe steht hierzu
im Widerspruch. Die Vorgehensweise der Kombination der GARCH-Modelle
mit Bootstrap-Verfahren weist grotge Ahnlichkeit mit dem in Abschnitt 4.3.2
dargestellten semi-parametrischen Ansatz auf. Da der semi-parametrische Ansatz
die erw/ihnte Problematik der Anforderung der Unabh/ingigkeit besser 15st, wird
das hier vorgestellte Vorgehen der Transformation beziehungsweise Gewichtung
mit der bedingten Varianz in der empirischen Vergleichsstudie nicht verwendet.

4.2

P a r a m e t r i s c h e Ans~itze

Die parametrischen Ans/itze zeichnen sich durch die explizite Modellierung


der Volatilit/it kombiniert mit einer Verteilungsannahme fiir die Innovationen
beziehungsweise Renditen aus. Das Vorgehen zur Ermittlung des interessierenden
Quantils der Renditeverteilung erfolgt oftmals in zwei Schritten. Zun~ichst wird
die Modellierung der Volatilit~t festgelegt. In Abschnitt 2.5.1 wurde die Sch/itzung
der Volatilit/it als Standardabweichung der Renditezeitreihe im historischen
Zeitfenster der L/inge n vorgestellt. Das EWMA-Modell (Abschnitt 2.5.3) ffihrte
zur zeitver~inderlichen Modellierung der Volatilit/it durch exponentielle G1/ittung
der quadrierten Renditezeitreihe. Die Verallgemeinerung dieser Modellierung
stellen die GARCH-Modelle dar (vgl. Kapitel 3). GARCH-Modelle sind in der
Lage, die zeitveriinderliche Dynamik der Volatilit/it zu beschreiben und dabei die
diskutierten Schw/ichen des EWMA-Modells zu iiberwinden. In diesem Abschnitt
sollen die GARCH-Modelle in das Konzept der Berechnung des Value-at-Risk
integriert werden, um alternative Ans/itze zur Implementierung in der Praxis
anbieten zu kSnnen.

4.2. P A R A M E T P d S C H E ANSfi.TZE

75

Der Kernpunkt der Integration der GARCH-Modelle zur Berechnung


des Value-at-Risk sind geeignete Verteilungsannahmen. Zur Sch~tzung
des GARCH-Modells wird die Normalverteilungsannahme verwendet, da
diese Vorgehensweise zu konsistenten und asymptotisch normalverteilten
Parametersch/itzungen fiihrt. Bei Abweichungen der Finanzmarktzeitreihe von
der Normalverteilung sind die Sch~tzer allerdings nicht mehr asymptotisch
effizient (vgl. Abschnitt 3.1.2).
Die Analyse der gesch~tzten standardisierten Residuen ~)i kann ergeben, dass die
Annahme der Normalverteilung in Frage zu stellen ist. Um gegebenenfalls eine
geringere oder hShere Kurtosis in die Value-at-Risk Berechnung einzubeziehen,
kann eine alternative symmetrische Verteilung fiir die gesch~tzten standardisierten
Residuen 7)i angenommen werden. Eine flexible Alternative zur Normalverteilung
ist die Generalized Error Distribution (GED), welche die Normalverteilung als
Spezialfall enth~lt.
Allerdings kann auch die GED-Verteilung aufgrund von Asymmetrien in Frage
gestellt werden. MSglicherweise kann eine asymmetrische Verteilung geeigneter
sein. Der Versuch die empirische Verteilung auf das Genaueste zu beschreiben,
kann in einen infiniten Regress fiihren. Eine exakte Modellierung ist nicht mSglich.
Zur LSsung dieser Problematik kann auf das verteilungsfreie Bootstrap-Verfahren
zuriickgegriffen werden, indem die empirische Verteilung der gesch~tzten Residuen
~)i direkt zur Berechnung des Value-at-Risk genutzt wird.
Im Folgenden wird die Berechnung des Value-at-Risk auf Basis der
Normalverteilung und der GED-Verteilung dargestellt. Das Bootstrap-Verfahren
wird oftmals wegen der fehlenden expliziten Verteilungsannahme den
semi-parametrischen Ans~tzen zugerechnet und daher im Abschnitt 4.3.2
behandelt. Im fiinften Kapitel werden die drei alternativen Vorgehensweisen in
der empirischen Studie verglichen.
Die Berechnung der 1-Schritt Value-at-Risk Prognosen ist aufgrund der
Annahme der Normalverteilung oder der GED-Verteilung leicht zu ermitteln,
da die analytische Herleitung der 1-Schritt Renditeverteilung T~ durch das
GARCH-Modell gegeben ist: Un+l Igt,~ "' :D(O, hn+l). Die detaillierte Darstellung
der Ermittlung der 1-Schritt Value-at-Risk Prognosen folgt in den Abschnitten
4.2.1 und 4.2.2.
Die Herleitung der kumulierten 10-Schritt Renditeverteilung gestaltet sich
komplexer, da im GARCH-Modell nur die Verteilung der n~chsten Zeitperiode
n + 1 basierend auf der aktuellen Zeitperiode n angegeben werden kann.

76

KAPITEL 4. NEUERE VALUE-AT-RISK ANSJ~TZE

Die Verteilung der benStigten kumulierten 10-Schritt Renditezeitreihe kann


durch restriktive Annahmen (z.B. Normalverteilung) oder Simulationen ermittelt
werden. In der vorliegenden Arbeit werden die Alternativen gegenfibergestellt,
das heif,t Durchffihrung der 10-Schritt Value-at-Risk Prognosen sowohl auf
Grundlage restriktiver Annahmen als auch auf Grundlage simulierter T-Schritt
Renditeverteilungen.
Es werden im Folgenden die Alternativen zur Berechnung des 10-Schritt
Value-at-Risk diskutiert. Die einfachste aber auch restriktivste Vorgehensweise
zur Ermittlung des T-Schritt Value-at-Risk ist die EWMA-Modellierung
(vgl. Abschnitt 2.5.3). Durch die Struktur des EWMA-Modells und der
Normalverteilungsannahme ergibt sich die folgende Darstellung
r~+~

~ At(0,1).

Zur Ermittlung des Quantils und des zugehSrigen Value-at-Risk reicht demnach
die Berechnung der 1-Schritt Prognose der bedingten Varianz hlln. Bei
Anwendung der GARCH-Modelle zur Prognose der bedingten Varianz kann auch
auf die Normalverteilungsannahme zuriickgegriffen
( r ~ + . - ~-I~) ~ A r ( 0 , 1 )

~,-In
oder auch eine beliebige Verteilung 7? verwendet werden
(rn+r - f~'ln) ,,, T)(0, 1, ...).

Bei diesen Alternativen ist zu beachten, dass die Annahmen fiber die kumulierte
r-Schritt Renditeverteilung auch auf die multivariate Betrachtungsweise eines
Portfolios angewendet werden kSnnen. Hierbei ergeben sich der prognostizierte
kumulierte T-Schritt Erwartungswert ~rln und die prognostizierte kumulierte
bedingte Varianz h'rln, aus der Multiplikation des gesch/itzten Vektors der
Erwartungswerte )~-In beziehungsweise der geschiitzten Varianz-Kovarianz-Matrix
I:I~.ln mit den Gewichtungsfaktoren w

f~','ln = w'hrln bzw. ]~'ln = w'I:I~'lnW"


Generell muss berficksichtigt werden, dass die Annahme einer Verteilung fiir
die kumulierte 10-Schritt Rendite zu erheblichen Fehleinsch~itzungen hinsichtlich
des 10-Schritt Value-at-Risk ffihren kann. Beispielsweise ist damit zu rechnen,

4.2. P A R A M E T R I S C H E ANSJ~TZE

77

dass die kumulierte empirische 10-Schritt Renditeverteilung eine hShere Kurtosis


(vgl. Gleichung 2.4) als die Normalverteilung aufweist. Bei der Berechnung
des Value-at-Risk kann es daher zu einer Untersch/itzung der tats~ichlichen
Risikosituation kommen.
Um dieses Problem zu vermeiden, bietet sich die weitaus realistischere Simulation
der Renditeverteilung an. Die Grundidee zur Simulation der Verteilung mit
GARCH-Modellen wurde von Barone-Adesi, Giannopoulos und Vosper [10]
formuliert. Im Rahmen der parametrischen Ans/itze wird zur Simulation eine
Annahme beziiglich der Verteilung der standardisierten Residuen vi erforderlich.
Allgemein gehalten wird diese Verteilungsannahme durch 7)(0, 1, ...) spezifiziert.
Es wird das GARCH(1,1)-Modell (vgl. Abschnitt 3.1) mit einer Konstanten in der
Mittelwertgleichung zur Anwendung der Simulation unterstellt
rn+l -- # + ~ V n + l ,

Vn+l

i.i.d. :D(0, 1, ...),

hn+ 1 ~- o~0 + ~ U2n '[- 31hn.

Die Verteilung der vi kann beispielsweise als Normalverteilung oder als


GED-Verteilung angenommen werden. Die bedingte Varianz hn+l ist im
Informationsstand f~n enthalten. Als Ausgangspunkt fiir die Simulation werden
demnach die gesch/itzten Parameter ~, do, all, ~1 und die gesch~tzte 1-Schritt
Prognose der bedingten Varianz hxln verwendet. Die weitere Simulation
der 10-Schritt Renditeverteilung folgt einem rekursiven Aufbau. Es wird in
jedem Schritt der Informationsstand der n/ichsten Zeitperiode gln+r (T =
1,2,..., 10) simuliert. Daher werden die simulierten bedingten Varianzen und
die resultierenden Renditen durchg/ingig mit dem Index n + T dargestellt. Der
Kernpunkt dieses Vorgehens ist die Simulation der standardisierten Residuen vn+r
durch das Erzeugen von Zufallszahlen der gew/ihlten Verteilung :D(0, 1, ...) durch
ein Software-Paket, beispielsweise R, S-Plus oder EViews
?Jj,n+X,

j = 1,2,...,N,

wobei N die Anzahl der Simulationslgufe (z.B. N = 10000) angibt. Die Simulation
der 1-Schritt Rendite rj,n+l folgt mit der Prognose der bedingten Varianz hlln und
der gezogenen Zufallszahl vj,n+l
rj,n+l ~- fA q- ~/hl[n~j,n+l .

Gleichzeitig kann mit vj,n+l die bedingte Varianz in n + 2 simuliert werden


hjn+2
2 -[- ~1 hl[n.
,
-- ~0-~-~1 \(~/]~l[n~j,n+l~
- - /

78

KAPITEL 4. NEUERE VALUE-AT-RISK ANSJ~TZE

Daraufhin folgt das Ziehen der n~.chsten Zufallszahlen fiir die Zeitperiode n + 2
vj,n+2,

j = 1, 2, ..., N.

Mit diesen Zufallszahlen kann die 2-Schritt Rendite

rj,n-l-2 -" ~ '}- ~hj,.-}-2~)j,.Jr


und die bedingte Varianz in n + 3
^

.~

hj,n-}-2~lj,n-F2 Jr" ~I hi,n+2

hJ'n'F3 -- dO "~" d l

simuliert werden. Dieses Vorgehen wird solange fortgesetzt, bis die Rendite rj,n+lO
erreicht ist. Die interessierende Verteilung der kumulierten 10-Schritt Rendite
kann fiber Summation erreicht werden (vgl. Gleichung 2.9)
10
rj,n+10 --- ~
r=l

rj,n+T,

j -- 1, 2, ..., N.

Die Berechnung des Quantils der kumulierten 10-Schritt Rendite resultiert dann
mit Hilfe des gesch~itzten empirischen Quantils (~(a) der N simulierten Renditen
rj,n+lO (vgl. Gleichung 2.16)

O( )lOl

rS,

Der Value-at-Risk des Portfolios fiir die 10-Schritt Zeitperiode folgt mit (vgl.
Gleichung 2.11)
Ya~'R(a)loln = pn(1 - exp(q(a)lOln)).
In den n~ichsten beiden Abschnitten wird die Bedeutung der Verteilungsannahmen
fiir die standardisierten Residuen vi und die kumulierte 10-Schritt
Renditeverteilung detaillierter aufgearbeitet. Hierbei wird zun~ichst die
Normalverteilungsannahme dargestellt. Im Anschluss wird die Generalized
Error Distribution vorgestellt, die eine Verallgemeinerung der Normalverteilung
ist. Die hShere Flexibilit~it dieser Verteilung wird durch einen zus/itzlichen
Parameter erreicht, der die Gestalt der Verteilung steuert. Hierdurch kSnnen
beispielsweise Verteilungen mit unterschiedlicher Kurtosis modelliert werden. Die
Normalverteilung ist fiir einen definierten Wert des zus~itzlichen Parameters als
Spezialfall enthalten.

79

4.2. P A R A M E T R I S C H E ANSfitTZE

4.2.1

GARCH-Modellierung mit Normalverteilungsannahme

Die Normalverteilungsannahme wird auch bei Value-at-Risk Prognosen h~iufig


getroffen (vgl. Brooks/Persand [23]). Dabei muss im Zusammenhang mit
GARCH-Modellen genau unterschieden werden, welche Verteilung mit der
Normalverteilung modelliert wird. Bei der Verwendung der GARCH-Modelle
zur Modellierung der zeitver~nderlichen Volatilit~it wird in der Regel die
Normalverteilungsannahme fiir die standardisierten Residuen vi getroffen. Unter
dieser Annahme werden die Parameter der gew~hlten Modellierung gesch~itzt,
wobei die Konsistenz und asymptotische Normalverteilung der gesch~itzten
Parameter gesichert ist. Allerdings ist die asymptotische Effizienz des Sch~tzers
bei Abweichungen vonder Normalverteilung nicht gew~hrleistet.
Auf Grundlage der Normalverteilungsannahme ist die Ermittlung des
1-Schritt Value-at-Risk problemlos. Das GARCH-Modell mit einer
Konstanten zur Beschreibung des Mittelwerts der Renditezeitreihe und der
Normalverteilungsannahme fiir die standardisierten Residuen weist folgende
Struktur auf
rn+ 1 =

# -Jr- v/hn+ 1Vn+1,

Vn+ 1

i.i.d. A/'(0, 1).

Die bedingte 1-Schritt Verteilung der Renditen ist mit


rn+ 11~2~ ~ A/'(#, hn+ 1)
gegeben. Damit ist die 1-Schritt Value-at-Risk Prognose

VaR(a)lln = Pn

1 - exp /21In+ za

wobei za das a-Quantil der Standardnormalverteilung ist.


Die bisherigen Ausfiihrungen bezogen sich auf die Verteilungsannahme
hinsichtlich der standardisierten Residuen. Davon zu unterscheiden ist die
Verteilungsannahme fiir die kumulierte 10-Schritt Renditeverteilung. Diese
Verteilung ist im Rahmen der GARCH-Modelle nicht gegeben, da wie
schon dargestellt, die GARCH-Modelle nur die bedingte Verteilung der
1-Schritt Prognose vorgeben. Obwohl bekannt ist, dass auf Grundlage der
GARCH-Modellierung der bedingten Varianz eine T-Schritt Renditeverteilung
resultiert, die unter Umst~inden von der Normalverteilung abweichen kann
und in der Regel eine hShere Kurtosis aufweist, wird in empirischen
Studien dennoch auf die Annahme der Normalverteilung fiir die kumulierte
10-Schritt Renditeverteilung zuriickgegriffen (vgl. Brooks/Persand [23]). Um

KAPITEL 4. NEUERE VALUE-AT-RISK ANSATZE

80

diesen Sachverhalt zu beriicksichtigen, wird auch in der vorliegenden Arbeit


die Normalverteilungsannahme der kumulierten 10-Schritt Renditeverteilung
verwendet

(r~+~- ~l~)
~/~i~

~ Af(0,1),

um in der empirischen Vergleichsstudie im fiinften Kapitel diese Vorgehensweise


mit den anderen Alternativen zu vergleichen. Diese Annahme kann aus
Sicht der Finanzinstitute zur Berechnung der Eigenkapitalanforderung (vgl.
Abschnitt 2.4.3) durchaus Sinn machen, da zwar die Gefahr besteht, Risiken zu
untersch~itzen, jedoch gleichzeitig eine geringe Eigenkapitalanforderung resultiert.
Diese Abw~igung wird im fiinften Kapitel genauer erSrtert. Der 10-Schritt
Value-at-Risk wird in diesem Ansatz wie folgt berechnet

VaR(o~)rln = Pn 1 - exp f~rin + za


Zur Spezifikation der Prognose der bedingten Varianz h,'i,~ kann auf die
Ausfiihrungen in Abschnitt 3.1.3 zuriickgegriffen werden. In der Regel wird in
der empirischen Vergleichsstudie im ffinften Kapitel das GARCH(1,1)-Modell
mit einer Konstanten zur Beschreibung des Mittelwerts der Renditezeitreihe
verwendet. In einem Ansatz soll jedoch das AR(1)-GARCH(1,1)-Modell in
Kombination mit der Normalverteilungsannahme fiir die kumulierte 10-Schritt
Renditeverteilung verwendet werden. Hierbei verkompliziert sich die Darstellung
der Prognose der kumulierten bedingten Varianz der Renditezeitreihe (vgl.
Abschnitt 3.1.3), sodass ffir diesen Ansatz in der empirischen Vergleichsstudie
die korrekte Prognose

t~r(rn+.r]an) __--~
~k-1
j-1 \ k=l

hjln"

statt h~-In verwendet wird.


Als Alternative kann die kumulierte 10-Schritt Renditeverteilung simuliert
werden. Bei der Simulation der Renditeverteilung ist die Verteilungsannahme
der standardisierten Residuen von entscheidender Bedeutung. Dabei kann die
Normalverteilung verwendet werden: vi "-, i.i.d. Af(0, 1). Die Simulation wird
mit dieser Annahme nach dem im vorangegangenen Abschnitt 4.2 vorgestellten
Schema durchgefiihrt. Dabei weicht die resultierende kumulierte 10-Schritt
Renditeverteilung in der Regel von der Normalverteilung ab. Die Annahmen der
Simulation sind dabei weniger restriktiv, da die Wirkung der zeitver~inderlichen

4.2. PARAMETRISCHE ANSfi.TZE

81

bedingten Varianz auf die resultierenden T-Schritt Renditeverteilungen in


der Simulation beachtet wird. Auf Grundlage dieser Vorgehensweise sollten
realistischere 10-Schritt Value-at-Risk Prognosen resultieren.
Die vorgestellten Ans~itze lassen sich auch auf die multivariate Betrachtungsweise
iibertragen. Durch diese MSglichkeit kSnnen die in Abschnitt 3.2 vorgestellten
multivariaten GARCH-Modelle zur Beschreibung der Volatilit~it und
Interdependenz der Portfoliobestandteile genutzt werden. Damit kann iiberpriift
werden, ob die zus~itzliche Information der multivariaten Betrachtung Vorteile bei
der Berechnung des Value-at-Risk im Vergleich zur Reduzierung des Problems auf
die univariate Betrachtung der Portfoliorendite erbringt. Zur Beriicksichtigung
dieser Fragestellung kann die Annahme der univariaten Normalverteilung auf die
Annahme der multivariaten Normalverteilung des Vektors der standardisierten
Residuen erweitert werden
vi "-~i.i.d. A/'m(0, I),
wobei m die Anzahl der Portfoliobestandteile darstellt. Bei Modellierung der
Renditezeitreihen durch eine Konstante
rn+l -- /~ ~- Un+l

und der Annahme eines multivariaten GARCH-Modells


Un+ 11~"~n ~,~ ./V"m (0, a n + 1)

resultiert die bedingte multivariate Normalverteilung des 1-Schritt Renditevektors


rn+llf~n "~ J~m (/~, H n + 1).

Dabei kann die bedingte Varianz-Kovarianz-Matrix Hi durch unterschiedliche


multivariate GARCH-Modelle dargestellt werden. Es wird sowohl beim
Faktor-GARCH oder OGARCH als auch beim CCC-Modell oder dem
DCC-Modell auf die univariaten GARCH-Modelle zuriickgegriffen, sodass die
Komplexit~it der Modellierung begrenzt bleibt (vgl. Abschnitt 3.2). Durch die
Integration der genannten multivariaten GARCH-Modelle zur Value-at-Risk
Prognose ergeben sich neue Varianten, die in die empirische Vergleichsstudie
einbezogen werden, um die Vor- und Nachteile der neueren Ans~itze in der
empirischen Anwendung herauszuarbeiten.
Bei der Annahme der multivariaten Normalverteilung ergibt sich ffir die univariate
Portfoliorendite unter Berficksichtigung der Gewichtungsfaktoren w die univariate
Normalverteilung
rn+l I~/n '~ -/~f(~'/~, ~ ' H n + l ~ )

82

K A P I T E L 4. N E U E R E V A L U E - A T - R I S K ANSfi, TZE

beziehungsweise
rn+lll2n ~ JV'(#, hn+l).
Ffir die 1-Schritt Value-at-Risk Prognose folgt in Analogie zur univariaten
Betrachtung
VaR(Ol)lln = Pn

1 -- exp ftlln + Za

wobei der bedingte Erwartungswert und die bedingte Varianz des Portfo!ios aus
der multivariaten Modellierung errechnet werden
fZlln = ~'~lln bzw. hal,, = w'l:lllnW.

Die Ausfiihrungen zur univariaten Vorgehensweise lassen sich auf die Berechnung
des 10-Schritt Value-at-Risk aus der multivariaten Betrachtungsweise iibertragen.
Es ergeben sich wiederum zwei MSglichkeiten zur Ermittlung des 10-Schritt
Value-at-Risk. Entweder kann die restriktive Annahme der multivariaten
Normalverteilung der kumulierten 10-Schritt Renditeverteilung getroffen werden
oder die resultierende Renditeverteilung wird auf Grundlage der multivariaten
Normalverteilung der standardisierten Residuen vi "-, i.i.d. Afro(0, I) simuliert.
Zun~chst soll die Annahme der multivariaten Normalverteilung der kumulierten
10-Schritt Renditeverteilung dargestellt werden. Diese Annahme kann wie folgt
formalisiert werden
I:I;~ n (rn+lO - ~lOln) " ]kfm(0, I)"
Die Spezifikation der bedingten Varianz-Kovarianz-Matrix I:Iloln erfolgt dabei
anhand der Herleitungen in Abschnitt 3.2. Beispielsweise kSnnen das OGARCHoder das Faktor-GARCH-Modell zur Beschreibung der Interdependenz einbezogen
werden.
Dabei ist unbedingt zu beachten, dass die kumulierte bedingte
Varianz-Kovarianz-Matrix verwendet wird, die sich aus der Summation der
T-Schritt Prognosen der bedingten Varianz-Kovarianz-Matrix ergibt
10

r--1

Diese Summation ist unter der Bedingung gerechtfertigt, dass die Modellierung
des Renditeprozesses ri keine autoregressiven Terme aufweist. Die Prognose des

4.2. PARAMETRISCHE ANSATZE

83

kumulierten 10-Schritt Vektors der Erwartungswerte kann durch Multiplikation


des 1-Schritt Vektors der Erwartungswerte erzielt werden

/~lOIn = lO/~lln"
Die multivariate Verteilungsannahme lgsst sich aufgrund der multivariaten
Normalverteilung
auf
die
univariate
Darstellung
mit
Hilfe
der
Gewichtungsfaktoren w reduzieren

(rn+lO - ~101~)
V/-hlol~
~ N(o, 1)
mit

/~lOln

w'/21Oln

bzw.

hloln

W'Hlolnw"

Durch die multivariate Betrachtungsweise erhSht sich die Komplexitgt der


Berechnung des Value-at-Risk, jedoch wird die zur Verfiigung stehende
Information beziiglich der Portfoliobestandteile beriicksichtigt. Damit kann die
Interdependenz der Renditezeitreihen in die Prognose einbezogen werden. In
der empirischen Vergleichsstudie soll die univariate Portfoliobetrachtung mit der
multivariaten Herangehensweise verglichen werden.
Die Simulation der r-Schritt Renditeverteilung in der multivariaten
Problemstellung beruht auf der multivariaten Normalverteilung der
standardisierten Residuen. Fiir die multivariate Renditezeitreihe wird wiederum
ein Vektor mit Konstanten tt als Vektor der Erwartungswerte unterstellt
r i = / , + ui.
Die Innovationen lassen sich multivariat wie folgt spezifizieren
!

ui = H~vi

mit vi "~ i.i.d. A/'m(0, I),

wobei H~ die Quadratwurzelzerlegung der bedingten Varianz-Kovarianz-Matrix


darstellt

H~ =

r,A:r',

mit der Matrix der Eigenvektoren r i und der Matrix der Eigenwerte Ai. Alternativ
1

kann die Cholesky-Zerlegung zur Ermittlung der Matrix Hi2 verwendet werden.
Aus der Spezifikation des Modells folgt
Normalverteilung des Vektors der Innovationen
Oil~i-1 " JV'm(O, Hi),

die

bedingte

multivariate

84

KAPITEL 4. NEUERE VALUE-AT-RISK ANSATZE

aufgrund der Aussage


E(uiu~ll2i_l ) = E

(1 E I'
H~viv~ H

I~i-1)

---

Hi,

wobei die Regel fiir symmetrische positiv-definite Matrizen A = A89189genutzt


wird.
Mit dem Zufallsvektor vj,n+l "~ i.i.d. A/'m(0, I) der multivariaten Normalverteilung
und N Simulationen (j = 1, 2, ..., N) kann der 1-Schritt Renditevektor ermittelt
werden
^!

Die bedingte Varianz-Kovarianz-Matrix I:Illn ist je nach Wahl des multivariaten


GARCH-Modells in Abh~ngigkeit der geschiitzten Innovationen der Vorperiode
fin, der geschiitzten bedingten Varianz-Kovarianz-Matrix der Vorperiode I:In und
dem gesch~tzten Parametervektor r spezifiziert (vgl. Abschnitt 3.2.3)

I~xl. : f(a., I~., ~).


Durch den rekursiven Aufbau der GARCH-Modelle l~st sich die
Prognose der bedingten Varianz-Kovarianz-Matrix jeweils aus dem
Kenntnisstand der Vorperiode herleiten. Die 2-Schritt Prognose der bedingten
Varianz-Kovarianz-Matrix folgt als Funktion der bereits simulierten Innovationen
llj,n+ l
flj,n+l = H ~ l n ~ ' j , n + l ,

der 1-Schritt Prognose der bedingten Varianz-Kovarianz-Matrix I:Illn und der


gesch~itzten Parameter ~b

~Ij,.+2 =/(aj,.+l, I~ll., r


Mit dem neuen Zufallsvektor 'V'j,n+2 kann der 2-Schritt Renditevektor gebildet
werden
-!
2
-rj,n-t-2 -- ~ + H j,n+2Vj,n+2
9

Dieser Vorgang wird solange fortgesetzt, bis die multivariate 10-Schritt


Renditeverteilung simuliert ist. Die kumulierte Renditeverteilung ist
10

rj,n+10 = ~ rj,n+r.
"r--1

85

4.2. P A R A M E T R I S C H E A N S A T Z E

Diese multivariate Renditeverteilung wird anschlief~end durch die Multiplikation


mit den Gewichtungsfaktoren w zur simulierten Renditeverteilung des Portfolios
aggregiert
?:j,n+10

-- r

Damit kann das Quantil der simulierten Renditeverteilung rj,n+lo mit der
Sch~itzung des empirischen Quantils ~(c~) ermittelt werden (vgl. Gleichung 2.16)

O(~)~ol~ = ~(~, b,~+~o).


Die lO-Schritt Value-at-Risk Prognose fiir das Portfolio ist
A

VaR(oOloln = pn(1 - exp({(c~)loln)).

4.2.2

GARCH-Modellierung mit GED-Verteilung

Die gesch/itzten standardisierten Residuen bi kSnnen von der getroffenen


Normalverteilungsannahme abweichen. Bei der Berechnung der Value-at-Risk
Prognosen kann es aufgrund einer falschen Verteilungsannahme zu einer
signifikanten Unter- oder (~bersch/itzung des Risikos kommen. Insbesondere
die Kurtosis (vgl. Gleichung 2.4) der standardisierten Residuen spielt eine
entscheidende Rolle. Falls mit einer hSheren Kurtosis im Vergleich zur
Normalverteilung zu rechnen ist, sollte dieses beriicksichtigt werden. Daher
werden in der vorliegenden Arbeit Ans/itze unter Einbeziehung der Generalized
Error Distribution (GED) entwickelt. Die Generalized Error Distribution ist eine
verallgemeinerte symmetrische Verteilung. Die GED-Verteilung erh~ilt gr5t~ere
Flexibilit/it durch einen zus/itzlichen Parameter, der die Kurtosis der Verteilung
beeinflusst. Damit lassen sich Abweichungen vonder Normalverteilung abbilden.
Bei Anpassung der GED-Verteilung an die gesch~itzten standardisierten Residuen
kann sowohl eine hohe Kurtosis als auch eine geringe Kurtosis modelliert werden.
Damit reagiert die Verteilung flexibel auf die Charakteristika der Renditezeitreihe.
Die Integration dieser Flexibilit~it in die Value-at-Risk Berechnung sollte somit zu
realistischeren Absch~itzungen des Marktrisikos fiihren.
Die Generalized Error Distribution wurde im Zusammenhang mit
GARCH-Modellen von Nelson I87] vorgeschlagen. Die folgende Darstellung
gibt die allgemeine Form der Dichte der GED(a, b2, v)-Verteilung an (vgl.
Johnson et al. [63], S. 195)
f(x)

2~+'r(! + 1)] -'

1
( - ' exp - ~

~-~

I] "

(4.1)

86

KAPITEL 4. NEUERE VALUE-AT-RISK ANSATZE

Der Erwartungswert der Variablen X ist E ( X ) = a und die Varianz b2 lautet

2~r(;)~2
3

52 =

'

wobei gilt: v, { > 0. Fiir v = 1 resultiert die Laplace-Verteilung als Spezialfall,


fiir v - 2 die Normalverteilung und fiir v ~ c~ die Rechteck-Verteilung. Die
theoretische Kurtosis K der GED-Verteilung (vgl. Gleichung 2.4) ist
g = F(~

(4.2)

Daraus folgt zusammenfassend, dass fiir v < 2 eine hShere Kurtosis verglichen
mit der Normalverteilung beziehungsweise fiir v > 2 eine geringere Kurtosis gilt
(vgl. Hamilton [55], S. 669).
Da die standardisierten Residuen vi der GARCH-Modellierung folgend einen
Erwartungswert von Null und eine Varianz von Eins aufweisen, wird zun~chst
eine normierte Version der GED-Verteilung hergeleitet. Die normierte Dichte kann
durch die Festlegung der Parameter a = 0 und b2 = 1 ermittelt werden. Damit
folgt die normierte Darstellung der GED-Verteilung
vexp [- 89 ]~]~]

f(x)-

(4.3)

mit

1_
=

Zur Integration der GED-Verteilung gibt es zwei MSglichkeiten. Zum einen kann
der zus~tzliche Parameter v durch die Maximum-Likelihood Methode gesch/itzt
werden. Dafiir wird fiir die standardisierten Residuen vi die Annahme der
GED-Verteilung getroffen
vi "~ i.i.d. GED(0,1, v).
Daraus folgt bei der Aufstellung des GARCH-Modells die bedingte Verteilung der
Renditezeitreihe
rilai_l

GED(#i, hi, v).

,~

Die Optimierung der Log-Likelihood Funktion erfolgt in Analogie zu den


Darstellungen in Abschnitt 3.1.2 mit dem Unterschied, dass die Dichte der
GED-Verteilung aus Gleichung 4.1 die Normalverteilung ersetzt
n

In L(~) = E l n
i=1

f(rilgti_l; ~b).

4.2. P A R A M E T R I S C H E ANSf4.TZE

87

Aus der Optimierung dieser Log-Likelihood Funktion resultiert unter anderem


der gesch~tzte Parameter/,, der dann zur Berechnung des Value-at-Risk genutzt
werden kann.
Dieser Sch/itzung des Parameters sou in der vorliegenden Arbeit nicht gefolgt
werden, da dutch die Annahme der GED-Verteilung ffir die standardisierten
Residuen eine weitere Annahme fiber die richtige Spezifikation des Modells
gesetzt wird. Das Resultat dieses Vorgehens kann ein infiniter Regress sein. Die
Annahme der komplexeren Verteilung der standardisierten Residuen kann zu
einer Fehlspezifikation des Modells und darnit zu einer vermeintlich genaueren
Sch/itzung ffihren.
Die Integration der GED-Verteilung wird stattdessen fiber die Nutzung der
Momentenmethode (vgl. Johnston/DiNardo [65], S. 328 f.) vorgenommen. Dabei
wird das GARCH-Modell mit der Normalverteilungsannahme der standardisierten
Residuen vi gesch/itzt. Die Einbeziehung der GED-Verteilung folgt im zweiten
Schritt nach der Sch/itzung. Dabei werden die gesch/itzten standardisierten
Residuen ~?i analysiert. Die empirische Kurtosis kann durch die GED-Verteilung
modelliert werden. Die Verteilungsannahme ffir die geschiitzten standardisierten
Residuen
~)i ~ i.i.d. GED(0, 1, u)

(4.4)

beeinflusst bei diesem Vorgehen nicht die Sch/itzung des Modells, sondern sie wird
erst auf Grundlage der Ergebnisse der Sch/itzung verwendet.
Zur Schgtzung des Parameters v mit der Momentenmethode wird die theoretische
Kurtosis mit der empirischen Entsprechung gleichgesetzt (vgl. Gleichung 2.5 und
Gleichung 4.2)
!

n i=1

(4.5)

8~)

mit
2

s~ = n - 1 E (vi _~)2 und ~= -E~i.n


i=1

i=l

Der gesch/itzte Wert des Parameters t) erffillt Gleichung 4.5, welche problemlos
durch Nutzung von Software gelSst werden kann.
Es folgt der geschgtzte 1-Schritt Value-at-Risk (mit der Verteilungsannahme aus
Gleichung 4.4)
A

VaR(c~)ll~ = Pn

1 - exp fil}n + Oa,r,

88

KAPITEL

4. N E U E R E

VALUE-AT-RISK

ANSATZE

wobei 0a,a das a-Quantil der GED-Verteilung mit dem gesch/itzten Parameter
ist.
Zur Ermittlung des 10-Schritt Value-at-Risk wird dieser Ansatz durch Nutzung
des in Abschnitt 4.2 dargestellten Simulationsverfahrens vervollst~ndigt. Hierbei
soll zur Modellierung der Renditezeitreihe weiterhin das GARCH(1,1)-Modell mit
einer Konstanten zur Beschreibung des Mittelwerts genutzt werden
rn+l -- # + V/hn+lVn+l,
hn+ 1 : olo + Otl ~1,2 + ~1 hn.

Zur Simulation der Vn+T werden Zufallszahlen der gesch~tzten GED-Verteilung


gezogen
~j,n+r ~ i.i.d. GED(0,1, ~),
j = 1, 2, ..., g.
Im Weiteren kann auf die Ausfiihrungen zum Simulationsverfahren in Abschnitt
4.2 zuriickgegriffen werden. Die simulierte kumulierte 10-Schritt Renditeverteilung
wird durch die Annahme der GED-Verteilung fiir die gesch~tzten standardisierten
Residuen beeinflusst. Dabei ist denkbar, dass bei einer hSheren Kurtosis der
gesch~tzten standardisierten Residuen im Vergleich zur Simulation mit der
Normalverteilungsannahme eine kumulierte 10-Schritt Renditeverteilung mit
hSherer Kurtosis entsteht. Das gesch~itzte empirische Quantil ~(a) (vgl. Gleichung
2.16) der simulierten Renditeverteilung rj,n+lO wird anschliegend zur Berechnung
des 10-Schritt Value-at-Risk genutzt
Y~"-~(~)lOl~ = p~(1 - ~xpW(~)lOl~)).

In der empirischen Vergleichsstudie sollen die vorgestellten Ans~tze vor


allem hinsichtlich der Auswirkungen auf die Anzahl der (lberschreitungen
der Value-at-Risk Prognosen und die resultierende Eigenkapitalanforderung
miteinander verglichen werden.

4.3

Semi-parametrische Ans~itze

Die semi-parametrischen Ans~tze kombinieren zur Berechnung des Value-at-Risk


die Grundideen der parametrischen und nicht-parametrischen Ans~tze. Bei
semi-parametrischen Ans~tzen wird eine Modellierung in Abh~ngigkeit von
Parametern gew~hlt, jedoch sind die Annahmen beziiglich des Modells weit
weniger restriktiv als die eines parametrischen Ansatzes. Insbesondere die
Verteilungsannahmen werden nicht restriktiv festgelegt. Dadurch wird versucht,

4.3. SEMI-PARAMETRISCHE ANSJ4TZE

89

die Vorteile des Verzichts auf Verteilungsannahmen der nicht-parametrischen


Ans~itze (beispielsweise historische Simulation) mit den Vorteilen einer sparsamen
Parametrisierung des Quantils beziehungsweise der Volatilit~t zu verbinden.
In der vorliegenden Arbeit werden drei semi-parametrische Ans~itze vorgestellt
und angewendet. Die direkte Modellierung des interessierenden Quantils beruht
auf einem Beitrag von Engle und Manganelli [39]. Dabei wird das Quantil
der Renditeverteilung durch eine zeitver~nderliche autoregressive Modellierung
dargestellt, wobei keine weiteren Annahmen fiber die Renditeverteilung notwendig
sind. Die Parameter dieses Ansatzes werden mit Hilfe der Quantilsregression
gesch~itzt (vgl. Abschnitt 4.3.1).
Als zweiter Ansatz wird die GARCH-Modellierung in Kombination mit
der Anwendung des Bootstrap-Verfahrens dargestellt. Die Berechnung des
Value-at-Risk unter Einbeziehung der GARCH-Modellierung der Volatilit~it
und der Interdependenz der Renditezeitreihen wird dabei in Analogie zu den
Ans~tzen des Abschnitts 4.2 vorgenommen. Der wesentliche Unterschied besteht
in der Annahme fiber die Verteilung der standardisierten Residuen. W~hrend
bei den parametrischen Ans~itzen eine bestimmte Verteilung (beispielsweise
Normalverteilung oder GED-Verteilung) angenommen wird, kann bei der
Anwendung des Bootstrap-Verfahrens darauf verzichtet werden. Zur Ermittlung
des Value-at-Risk wird die gesch~itzte empirische Verteilung der standardisierten
Residuen herangezogen. Das Bootstrap-Verfahren generiert durch das Ziehen ohne
Zuriicklegen Zufallszahlen aus den gesch~tzten standardisierten Residuen, um aus
diesen die interessierende Renditeverteilung zu ermitteln (vgl. Abschnitt 4.3.2).
Als Abwandlung dieses Vorgehens wird die GARCH-Modellierung mit
Anwendung der Extremwerttheorie vorgestellt. Bei diesem Ansatz wird auch
auf das Bootstrap-Verfahren zuriickgegriffen. Allerdings wird dieses nicht
fiir die gesamte Verteilung der standardisierten Residuen angewendet. Der
interessierende Rand der Verteilung der standardisierten Residuen wird durch
eine Extremwertverteilung (Generalisierte Pareto Verteilung) modelliert. Durch
diesen Ansatz wird der fiir die Value-at-Risk Berechnungen wichtige Aspekt der
H~ufung extrem negativer Renditen explizit beriicksichtigt (vgl. Abschnitt 4.3.3).

4.3.1

Direkte Modellierung durch Quantilsregression

Die direkte Modellierung des interessierenden Quantils der Renditeverteilung


wurde 2004 von Engle und Manganelli [39] vorgeschlagen. Die Entwicklung
des Quantils wird dabei zeitver~inderlich durch einen autoregressiven Prozess

90

KAPITEL 4. NEUERE VALUE-AT-RISK ANSATZE

spezifiziert. Daraus resultiert der Name ,,CAViaR" (Conditional Autoregressive


Value-at-Risk) dieses Ansatzes. Durch diese direkte Parametrisierung des Quantils
wird vermieden, die gesamte Verteilung der Renditezeitreihe zu bestimmen.
Motiviert ist dieser Ansatz durch die Erkenntnisse zur zeitver~inderlichen
Volatilit~it, die zur Modellierung des zeitver~inderlichen Quantils fibertragen
werden.
In der allgemeinen Form des CAViaR-Modells wird das bedingte c~-Quantil des
Zeitpunkts i + 1 als Funktion des Vektors mSglicher beschreibender Variablen xi
mit dem Informationsstand ~i und dem Parametervektor/3 dargestellt
q(a)lli = f(xi, f}),

1, ..., n.

Diese allgemeine Form wird durch die ermittelten bedingten Quantile


vorangegangener Zeitperioden und weiterer Variablen, wie beispielsweise der
Renditezeitreihe, konkretisiert. Dabei ist anzumerken, dass das Quantil einer
Zeitperiode i nicht beobachtbar ist. Daher beruht der Ansatz auf einem
Startzeitpunkt, um die zeitver~inderliche Entwicklung des Quantils einzuleiten.
Der Wert des Quantils zum Startzeitpunkt kann durch die Sch~itzung des
empirischen Quantils (~(a) (vgl. Gleichung 2.16) bestimmt werden. Daraus folgt,
dass der Verlauf des bedingten Quantils vom Parametervektor f~ abh~ingt
p
q ( c ~ ) l ] i - --~0 +

~ [3jq(o~)i-j+l -- Z ~p+kf(Xi-k+, )
j--1
k-1

mit f als Funktion der Variablen xi.


Die allgemeine Modellierung kann zum Modell erster Ordnung
Beriicksichtigung der Rendite der Zeitperiode i reduziert werden

unter

q(c0,1i = -f~o + fllq(c~)i- f~2f(ri).


Der autoregressive Term ~lq(a)i sorgt ffir die Gl~ittung im Zeitverlauf. Der Term
~2f(ri) ist hingegen fiir die Aktualisierung des bedingten Quantils hinsichtlich
der neuen Information der Renditezeitreihe r im Zeitpunkt i zust~indig. Die
Spezifikation sollte dazu ffihren, dass q(a)lii absinkt, wenn ri einen extrem
negativen Wert aufweist. Auch die Wirkung extrem positiver Werte kann auf diese
Weise modelliert werden, sodass es zu einem Absinken des bedingten Quantils
kommt. Dieses l~st sich durch den vermuteten Anstieg der Volatilit~it (in Analogie
zu den GARCH-Modellen) begriinden. Um die Stationarit/it der gew/ihlten
Modellierung zu erreichen, gilt die Bedingung fiir autoregressive Modelle (vgl.

4.3. S E M I - P A R A M E T R I S C H E

91

ANSATZE

Pindyck/Rubinfeld [91l, s. 535)


p

E~j
j=l

< 1.

Eine einfache Ausgestaltung der funktionalen Form f kann wie folgt gew~hlt
werden
q(C~)l[i- -fl0 + fJlq(a)i - [321ri[.
Diese Ausgestaltung wird als ,,Symmetric absolute value" (SAV) bezeichnet, da
keine Unterscheidung hinsichtlich der Wirkung auf d ~ bedingte Quantil der
aktuellen Zeitperiode zwischen positiver und negativer Rendite der Vorperiode
getroffen wird. Diese Variante kann auch mit asymmetrischer Wirkung der
Rendite der Vorperiode spezifiziert werden (,,Asymmetric Absolute Value", AAV)
q(a)l]i -- -/30 +/31q(a)i- f~2lri- f131.
Eine weitere MSglichkeit der Ausgestaltung ist die adaptive Gestaltung des
bedingten Quantils. Dabei kann diese Ausgestaltung mit einer gegl~tteten
Treppenfunktion verglichen werden. Das bedingte Quantil wird bei
Unterschreitungen des bedingten Quantils der Vorperiode (d.h. kleinerer
Wert der Rendite) deutlich gesenkt, jedoch bei Oberschreitung des Quantils
leicht erhSht
q(a)lli = q(a)i - ~3 ((1 + exp (G[ri - q(a)i]))-' - a)
mit G E ]R+. Fiir G ~ oc folgt (vgl. Engle/Manganelli [39], S. 369)

= q ( ~ ) ~ - Z [I(~ < q(~)~) - ~l

mit der Indikator-Funktion I. Eine weitere MSglichkeit der adaptiven


Ausgestaltung wird mit ,,Proportional Symmetric Adaptive" (PSA) bezeichnet
q(a)lli = q(a)i -/31 max (0, [ri[ + q(a)i)

132

min (0, [ri[ + q(a)i) 9

Hierbei wird wiederum, wie in einem Lernprozess, auf die 0ber- beziehungsweise
Unterschreitungen der letzten Zeitperiode reagiert.
Die Ausgestaltung ,,Asymmetric slope" (AS) ffigt in Analogie zum TGARCHbeziehungsweise GJR-GARCH-Modell (vgl. Abschnitt 3.1.1) die asymmetrische
Wirkung der Rendite der Vorperiode hinzu. Hierdurch kann eine negative Rendite
der Vorperiode eine andere Wirkung als eine positive Rendite der Vorperiode
entfalten
q(Ct)X[i -- --fl0 q- fllq(a)i q- J~2 max(0,

ri)

+ J~3 min(0, ri).

92

KAPITEL 4. NEUERE VALUE-AT-RISK ANSfi, TZE

Die vorgestellten Ans~tze kSnnen fiber die Nutzung der Quantilsregression


gesch~tzt werden. Die Quantilsregression wurde von Koenker/Bassett [68]
entwickelt und kann als Erweiterung der klassischen Kleinst-Quadrate Regression
angesehen werden. Statt nur den bedingten Mittelwert zu sch~tzen, ist es mSglich,
zus~tzlich bedingte Quantile zu sch~itzen. Der Spezialfall der Quantilsregression
ist die Schiitzung des Medians, welche durch Minimierung der Summe der
absoluten Abweichungen der Renditezeitreihe durchgeffihrt wird. Die Sch/itzung
der bedingten Quantile erfolgt in Analogie durch die Minimierung der Summe der
asymmetrisch gewichteten absoluten Abweichungen der Renditezeitreihe.
Die Sch~tzung der gesuchten Parameter /5 erfolgt fiber die Optimierung der
folgenden Zielfunktion (vgl. Engle/Manganelli [39], S. 369)
minQR(~) = m~n _ 1 ~

(I[u < q(c~,r

c~) (r~- q(c~,r

ni= 1
wobei die Indikatorfunktion I die Werte Eins bzw. Null bei Erffillung bzw.
Nichterffillung der dargestellten Bedingung annimmt. Die Zielfunktion ffihrt zu
einer asymmetrischen Gewichtung der Abweichungen der Renditezeitreihe von
dem bedingten Quantil. Eine Unterschreitung des Quantils durch eine sehr kleine
Rendite ffihrt zu dem Wert 1 der Indikatorfunktion. Dadurch nimmt der erste
Term I[ri < q(c~,~)lli-1]- c~ der Zielfunktion bei c~ = 0, 01 den Wert 0, 99 an.
Dieser Wert wird mit einem negativen Weft des zweiten Terms r i - q(c~,/3)11i-1
multipliziert. Unter Berficksichtigung des negativen Vorzeichens der Zielfunktion
ergibt sich insgesamt ein positiver Wert. Hingegen fiihrt die Uberschreitung des
Quantils zu einem Wert von -0, 01 des ersten Terms und einem positiven Wert
des zweiten Terms, woraus insgesamt letztendlich ein positiver Wert resultiert.
Dutch die asymmetrische Gewichtungsstruktur, hervorgerufen durch den ersten
Term, ffihrt folglich die Minimierung der Zielfunktion zu dem gesuchten optimalen
Parametervektor/~

~ = r~nQR(~).
Problematisch bei dieser Vorgehensweise ist, dass die Zielfunktion nicht
differenzierbar ist. Daher kSnnen zur Optimierung die traditionellen
Optimierungsalgorithmen unter Berficksichtigung der ersten oder auch
zweiten Ableitungen nicht angewendet werden. Eine LSsungsalternative bietet
beispielsweise der Nelder-Mead Algorithmus [86], der nur Funktionswerte zur
Optimierung verwendet, dadurch jedoch relativ langsam ist. In der vorliegenden
Arbeit wird der Algorithmus der Funktion ,,optim" des Software-Pakets ,,R"
genutzt. Die gesch~tzten Parameter ~ sind konsistent und asymptotisch
normalverteilt (vgl. Engle/Manganelli [39], S. 369).

4.3. SEMI-PARAMETRISCHE ANSATZE

93

Die Ermittlung der 1-Schritt Prognose des gesuchten bedingten Quantils kann mit
den gesch~itzten Parametern basierend auf dem Informationsstand zum Zeitpunkt
n wie folgt vorgenommen werden
q(~)lln - f(xn, 3).
Fiir das SAV-Modell resultiert die 1-Schritt Prognose des c~-Quantils
(~(~)l]n -" - - s

+ ~lq(C~)n -- ~2lrn] 9

Die 1-Schritt Value-at-Risk Prognose folgt mit

UaR(a)lln = pn(1 - exp(~(a)lln)).


Zur Beurteilung des CAViaR-Modells liisst sich sagen, dass die zu treffenden
Annahmen schwiicher als die eines GARCH-Modells sind. Beispielsweise
wird nicht wie im GARCH-Modell angenommen, dass die standardisierten
Residuen vi identisch und unabhiingig verteilt (i.i.d.) sind. Allerdings stellen
sich konzeptionelle Schwierigkeiten hinsichtlich der Ermittlung des Quantils
der kumulierten 10-Schritt Renditeverteilung ein. Die kumulierte 10-Schritt
Renditeverteilung ergibt sich aus der Summation der 10 aufeinanderfolgenden
Renditen (vgl. Gleichung 2.9). Der CAViaR-Ansatz ermSglicht in der bisherigen
Form nur die Ermittlung des 1-Schritt Quantils. Als LSsungsmSglichkeit kann
die Zeitreihe der kumulierten 10-Schritt Renditen gebildet (vgl. Abschnitt
2.5.2) und dann anschlie~end das vorgestellte Konzept auf die transformierte
Renditezeitreihe angewendet werden. Jedoch verringert sich die Anzahl der
Beobachtungen dadurch auf 10% der vorherigen L~inge der Renditezeitreihe.
Zur Anwendung in der empirischen Vergleichsstudie wird in der vorliegenden
Arbeit eine andere LSsungsmSglichkeit dieses konzeptionellen Problems genutzt,
indem die durch die Basel II-Richtlinien erlaubte Skalierung

q(~

= v/~q(~)l],~

verwendet wird. Diese Vorgehensweise beruht zwar auf restriktiven Annahmen


hinsichtlich der Renditezeitreihe (vgl. Abschnitt 2.4.2), jedoch wird dadurch
die Ermittlung der 10-Schritt Value-at-Risk Prognosen ermSglicht. Damit wird
ein erster umfassender Vergleich der CAViaR-Ansiitze mit den vorgestellten
alternativen Value-at-Risk Ansiitzen gewiihrleistet.
Die Ermittlung des
Berechnungsschema

10-Schritt Value-at-Risk

erfolgt durch

UaR(a)lOln - pn(1 - exp(q(a)lOtn)).

das fibliche

94

4.3.2

KAPITEL 4. NEUERE VALUE-AT-RISK ANSJ~TZE

GARCH-Modellierung mit Bootstrap-Verfahren

Die Berechnung des Value-at-Risk unter Einbeziehung der GARCH-Modelle


zur Modellierung der Volatilit~it kann ohne konkrete Festlegung der Verteilung
der gesch~itzten standardisierten Residuen erfolgen. Dieser Ansatz wird in der
Regel den semi-parametrischen Ans~tzen zugeordnet. Zur Ausgestaltung der
Berechnung wird das Bootstrap-Verfahren verwendet (vgl. Davison/Hinkley
[29], S. 22), das heigt es werden zuf~illig Beobachtungen mit Zuriicklegen
aus der Historie gezogen, um die gesuchte Value-at-Risk Prognose aus der
simulierten Renditeverteilung zu ermitteln. Dabei wird dieses Vorgehen im
Rahmen der GARCH-Modelle angewendet. An die Renditezeitreihe wird zun~ichst
ein GARCH-Modell angepasst. Die resultierenden gesch/itzten standardisierten
Residuen werden anschlief, end als Basis fiir das Bootstrap-Verfahren genutzt.
Es wird dabei angenommen, dass die gesch~itzten standardisierten Residuen
unabh~ngig und identisch verteilt (i.i.d.) sind, da unter dieser Bedingung die
Voraussetzungen zur Anwendung des Bootstrap-Verfahrens erfiillt sind. Die
Grundidee dieses Ansatzes geht auf Barone-Adesi, Giannopoulos und Vosper [10]
zuriick, die ihr Vorgehen als ,,Filtered Historical Simulation" bezeichneten, um die
Verbindung der GARCH-Modelle mit der historischen Simulation zu betonen.
Zur Ausgestaltung dieses Ansatzes wird das GARCH(1,1)-Modell mit einer
Konstanten in der Mittelwertgleichung verwendet
rn+l

-- ~ 9

~hn+lVn+l,
2

hn+ 1 = c~o + al un +/31 hn.


Die Parameter des Modells werden, wie in Abschnitt 3.1.2 dargestellt, durch die
2-Schritt Vorgehensweise gesch~itzt. Mit diesem gesch~tzten Modell werden die
gesch~tzten standardisierten Residuen gebildet
ri - t2

i = 1, 2,...,n

mit der Anzahl n der zur Sch~itzung genutzten Beobachtungen. Zur


Berechnung des 1-Schritt Value-at-Risk wird auf die explizite Annahme
einer Verteilung verzichtet. Stattdessen wird die empirische Verteilung
der gesch~tzten standardisierten Residuen verwendet. Dieses Vorgehen
vermeidet Fehlspezifikationen des Value-at-Risk aufgrund einer falschen
Verteilungsannahme.
Es sei ks das gesch/itzte empirische Quantil der gesch~tzten standardisierten
Residuen. Die Berechnug von ks kann durch die in Abschnitt 2.5.2 dargestellte

4.3. S E M I - P A R A M E T R I S C H E

ANSJ{TZE

95

Sch~itzung des Quantils (}(a) aus empirischen Beobachtungen vorgenommen


werden
=

Daraus resultiert die 1-Schritt Value-at-Risk Prognose mit

V a R ( a ) 1 6 n = Pn

1 - exp Plln + ka

Alternativ hierzu kann fiir die 1-Schritt Prognose das Bootstrap-Verfahren


genutzt werden. Dabei wird das Simulationsverfahren (vgl. Abschnitt 4.2)
zur Ermittlung der Verteilung der 1-Schritt Rendite genutzt. Es werden die
simulierten standardisierten Residuen
vj,n+l,

j = 1,2,...,N

nicht aus einer Verteilung, sondern aus den historischen Beobachtungen der
gesch~itzten standardisierten Residuen vi gezogen. Mit N Ziehungen (mit
Zuriicklegen) wird jeweils die simulierte Rendite

gebildet. Aus dieser simulierten 1-Schritt Renditeverteilung kann dann direkt das
gesuchte quantil q(a)lln gesch~itzt werden

q(~)lln = {}(0~,~,n+l).
Fiir die 1-Schritt Value-at-Risk Prognose gilt
V a R ( a ) x l n = pn(1 - exp(q(a)lln)).

Beide Vorgehensweisen basieren auf der empirischen Verteilung der geschiitzten


standardisierten Residuen, sodass mit sehr ~ihnlichen Value-at-Risk Prognosen zu
rechnen ist.
Die Berechnung des 10-Schritt Value-at-Risk kann durch das vorgestellte
Simulationsverfahren (vgl. Abschnitt 4.2) vorgenommen werden. Hierzu werden
die benStigten standardisierten Residuen vn+~- wiederum unter Anwendung des
Bootstrap-Verfahrens aus den gesch~tzten standardisierten Residuen ~)i gezogen
i3j,n+r,

j = 1, 2, ..., N.

Die kumulierte 10-Schritt Renditeverteilung wird anhand des Vorgehens in


Abschnitt 4.2 simuliert, woraus mit dem gesch~itzten Quantil O(a)loln =

96

K A P I T E L 4. N E U E R E V A L U E - A T - R I S K A N S / 4 T Z E

~(a, rj,n+lo) der simulierten kumulierten Renditeverteilung ?j,n+lo der 10-Schritt


Value-at-Risk ermittelt wird
A

Van(a)lOln = pn(1 - exp(q(a)loln)).

Auch bei der GARCH-Modellierung mit Bootstrap-Verfahren soll die univariate


Betrachtungsweise auf die multivariate Darstellung ausgeweitet werden. Mit der
Modellierung der multivariaten Renditezeitreihe (vgl. Abschnitt 4.2.1)
ri = # + u i
und der GARCH-Spezifikation des Vektors der Innovationen
1

ui = H/2vi
kann generell das multivariate Simulationsverfahren genutzt werden. Fiir den
simulierten T-Schritt Renditevektor gilt
~!
2

f;j,n+r = ~ + Hj,n+.,-v3,n+r,

wobei sich die simulierte bedingte Varianz-Kovarianz-Matrix I:Ij,n+r durch


Rekursion aus dem Kenntnisstand der Vorperiode ermitteln 1/isst:

~Ij,~+~ = f(%,~+~_x, nj,~+~_~, %).


Im Unterschied zur Simulation unter Annahme der multivariaten
Normalverteilung in Abschnitt 4.2.1 wird der Vektor der simulierten
standardisierten Residuen r162
aus den historischen Beobachtungen der
gesch/itzten standardisierten Residuen ~'i gezogen. Dabei wird ein Zeitfenster
der L~inge n verwendet. Zur Anwendung des Bootstrap-Verfahrens wird zuf/illig
eine Zahl s aus der Historie 1,...,n gezogen. Der entsprechende Vektor der
gesch/itzten standardisierten Residuen ~'s stellt dann den Zufallsvektor Vj,n+'r
zur Durchfiihrung der Simulation dar.
Dieses Vorgehen soll in der vorliegenden Arbeit unter Verwendung des
CCC-Modells (vgl. Abschnitt 3.2.1) detailliert werden. Die bedingte
Varianz-Kovarianz-Matrix ist im CCC-Modell wie folgt spezifiziert
Hi = DiRDi
mit D 2 = diag(E(u~,i[f/i_,)) und der bedingten Korrelationsmatrix R. Fiir die
standardisierten Residuen vi gilt (vgl. Abschnitt 3.2.1)

4.3. S E M I - P A R A M E T R I S C H E

ANSJ~TZE

97

Hieraus l~isst sich eine wesentliche Vereinfachung des dargestellten


Simulationsverfahrens ableiten. Denn fiir die Innovationen ui gilt die Darstellung
ui = D i v i 9

Die bedingte Varianz-Kovarianz-Matrix ist


E ( u i u i 'If/i_ 1) - E(Di v i v i 'D i If~i_1) -- DiRDi.

Aus dieser Darstellung folgt fiir den simulierten T-Schritt Renditevektor unter
Zugrundelegung des CCC-Modells
f~j,n+r = ~ + Dj,n+r~Cj,n+r 9

In der Matrix [)j,n+r sind auf der Diagonalen die Quadratwurzeln der simulierten
bedingten Varianzen der m Renditezeitreihen zusammengefasst. Daraus folgt,
dass die standardisierten Residuen ;r
aus der multivariaten empirischen
Verteilung der gesch~itzten standardisierten Residuen zu ziehen sind, ansonsten
aber wie bei der Simulation m einzelner Renditezeitreihen vorgegangen werden
kann. Die Korrelationsstruktur der gesch~itzten standardisierten Residuen schl~gt
sich bei diesem Vorgehen in der simulierten bedingten Varianz-Kovarianz-Matrix
der Renditezeitreihen nieder. Die Komplexit~it dieses Ansatzes ist dabei
weitaus geringer als bei der Anwendung des generellen multivariaten
Simulationsverfahrens.
Aus der aggregierten simulierten kumulierten 10-Schritt Renditeverteilung
ca' (~-~1r~ rj,n+~) kann das empirische Quantil ~(c~) gesch~itzt werden
\

(vgl. Gleichung 2.16)

Der 10-Schritt Value-at-Risk des Portfolios ist


V a ~ ( a ) l O l n - pn(1 - exp(0(a)loln)).

Dieser Ansatz zur Berechnung des Value-at-Risk soll in der empirischen


Vergleichsstudie mit den anderen alternativen BerechnungsmSglichkeiten
verglichen werden. Dabei kombiniert insbesondere der Ansatz unter
Einbeziehung des CCC-Modells die Flexibilit~it der zeitver~inderlichen
Varianz-Kovarianz-Matrix mit Simulationsverfahren, die weniger anfiillig
fiir Fehlspezifikationen sind.

KAPITEL 4. NEUERE VALUE-AT-RISK ANS.;iTZE

98

4.3.3

GARCH-Modellierung mit Extremwerttheorie

Die Extremwerttheorie (EVT) besch~iftigt sich mit der Analyse und Modellierung
extremer Ereignisse. Besonders im Finanzdienstleistungssektor gibt es
Problemstellungen, die mit der Extremwerttheorie bearbeitet werden khnnen. Ein
Beispiel dafiir sind selten auftretende Schadensfiille mit extremen Konsequenzen
(beispielsweise Umweltkatastrophen) im Versicherungswesen. Das Ziel der
Extremwerttheorie ist es, die R~inder einer Wahrscheinlichkeitsverteilung durch
ein parametrisches Modell zu beschreiben. Insbesondere fiir die Value-at-Risk
Berechnung ist diese Betrachtungsweise relevant. Als Standardreferenz zur
Extremwerttheorie sei auf das Buch der Autoren Embrechts, Kliippelberg und
Mikosch ([33], im weiteren abgekiirzt durch EKM) verwiesen.
Die zugrundeliegende Theorie geht v o n d e r Modellierung unabhiingiger und
identisch verteilter (i.i.d.) Zufallsvariablen aus. Die direkte Anwendung
der Erkenntnisse der Extremwerttheorie auf die Renditezeitreihen ist mit
Skepsis zu betrachten. Die nachgewiesenen Abh~ingigkeiten hinsichtlich der
zeitver/inderlichen Volatilitiit der Renditezeitreihen widersprechen der i.i.d.
Annahme der Extremwerttheorie. Insbesondere die erfolgreiche Beschreibung der
Renditezeitreihen mit GARCH-Modellen weist auf eine modellierbare Struktur
der Renditezeitreihe hin. Daher wird die Extremwerttheorie in diesem Abschnitt
auf die standardisierten Residuen der GARCH-Modellierung angewendet (vgl.
McNeil/Frey [79]). Fiir die Zeitreihe der standardisierten Residuen ist die
Annahme unabhiingiger und identisch verteilter Zufallsvariablen nicht restriktiv.
Zun~chst werden die Grundlagen der Extremwerttheorie vorgestellt, um
anschliet?,end die Integration in den GARCH-Rahmen vorzunehmen. Das Ergebnis
dieser Ausfiihrungen ist ein Ansatz zur Berechnung des Value-at-Risk, der in der
empirischen Vergleichsstudie im fiinften Kapitel angewendet wird.
Ein Hauptbestandteil der EVT ist die Beschreibung des Verhaltens von Maxima
aus Stichproben. Fisher und Tippett (vgl. hierzu EKM [33], S. 113 ft.)
lieferten durch die Spezifikation der Grenzverteilung normalisierter Maxima ein
wesentliches aesultat. Es sei Mn = max {Xl, ..., Zn }, wobei {Xi }i=ln eine Sequenz
von i.i.d. Zufallsvariablen mit der Verteilungsfunktion F ist. Falls normierende
Konstanten c, > 0, dn E IR existieren, l~st sich die Verteilungsfunktion H
ermitteln, fiir die folgender Zusammenhang gilt (zur detaillierten Darstellung vgl.
EKM [33], S. 114 ft.)

Cnl(Mn- dn) ~

H,

fiir n -~ oo.

4.3. S E M I - P A R A M E T R I S C H E

ANSATZE

99

Die Funktion H ist wie folgt spezifiziert (vgl. EKM [33], S. 152)

{ (

H-H((x)=

exp - ( I + ( x ) - C

fiir(r

exp(- exp(-x))

fiir ~"= 0

mit der Bedingung 1 + (x > 0. H~ wird als Generalisierte Extremwert Verteilung


(GEV) bezeichnet. Der Parameter ( definiert die Form der GEV-Verteilung.
Verteilungen mit ( > 0 weisen dickere R/inder als die Normalverteilung auf
und werden als Pr6chet-Verteilungen bezeichnet. Fiir ( = 0 resultiert die
Gumbel-Verteilung. Die Weibull-Verteilung resultiert fiir Parameterwerte ( < 0.
Zur Berechnung des Value-at-Risk ist nicht das Maximum, sondern das
Quantil der interessierenden Verteilung relevant. Hierzu liefert die EVT die
MSglichkeit der Modellierung des betreffenden Randes der Verteilung. Die
weiteren Ausfiihrungen beziehen sich auf den rechten Rand der Verteilung, da
sich dieses in der Literatur zur EVT als Konvention durchgesetzt hat. Daraus
folgt, dass bei der spiiteren Integration in den GARCH-Rahmen die negativen
standardisierten Residuen betrachtet werden, da fiir die Value-at-Risk Prognose
der linke Rand der Verteilung der standardisierten Residuen beziehungsweise der
Renditeverteilung relevant ist. Zur Beschreibung des Randes der Verteilung muss
zun/ichst definiert werden, was iiberhaupt unter dem Rand verstanden wird. Um
dieses zu konkretisieren, wird eine Schwelle 77 festgelegt. Der Teil der Verteilung,
der diese Schwelle iiberschreitet, bildet den rechten Rand. Dieser rechte Rand wird
im Folgenden mit Hilfe der Extremwerttheorie modelliert.
Es sei F die Verteilungsfunktion der i.i.d. Zufallsvariablen X und F,7 die
Verteilungsfunktion der Zufallsvariablen der Oberschreitungen Y = X - r / mit
gegebener Schwelle 77. Dann gilt der folgende Zusammenhang (vgl. EKM [a31, s.
353)
Fn(y ) = P ( X -

77 < Yl X > 7)) = F(rl + y) - F(r/)


-

F(,7)

(4.6)

mit y _> 0. Zur Modellierung dieses rechten Randes der Zufallsvariablen X wird
die EVT genutzt. Die Rechtfertigung dieses Vorgehens basiert auf der folgenden
Feststellung von Pickands [90]
lim

sup

IF~(y) - G~,~(y)I = 0,

rf[ X F O<: y <~x F -- rt

wobei XF = sup(x C IR : F(x) < 1) der rechte Endpunkt der Verteilung F ist
(vgl. EKM [33], S. 114/115). Daraus folgt, dass bei der Wahl der Schwelle 7) nahe
dem Endpunkt der Verteilung XF die Verteilung G~,z eine gute Approximation
der Verteilung F v darstellt.

100

K A P I T E L 4. N E U E R E VAL UE-AT-RISK ANS.~TZE

Die Verteilung G~,~ wird als Generalisierte Pareto Verteilung (GPD) bezeichnet
(vgl. EKM [33], S. 162/163)

{1- (1+
1 - exp(-~)

0
fiir ~ -- 0

Dabei gilt zum einen ~ > 0 und zum anderen ist die Festlegung des Triggers der
Zufallsvariablen Y in Abh~ngigkeit vom Parameter ~ zu beachten: y _> 0 ftir ~ >_ 0
beziehungsweise 0 _< y < ~-~ fiir ~ < 0.
Die Giite der Approximation der Verteilung F~ durch die Generalisierte Pareto
Verteilung G~,z hitngt ma~geblich von der Wahl der Schwelle 77 ab. In der
empirischen Anwendung dieser Approximation wird durch die Wahl einer hohen
Schwelle 77 der Bias der Schiitzung gesenkt. Hingegen wird die Varianz des
Schiitzers gesteigert, da nur wenige Beobachtungen zur Schiitzung der Parameter
der GPD verwendet werden kSnnen. Die Handlungsvorschliige zur Auswahl der
Schwelle 77basieren auf der grafischen Analyse der Abh~ngigkeit der Schiitzungen
vonder Variation der Schwelle r/. Da in der empirischen Vergleichsstudie fiir jede
Finanzmarktzeitreihe jeweils 1174 Schiitzungen durchgefiihrt werden, wird zur
besseren Anwendbarkeit des Vorgehens einem Vorschlag von McNeil/Frey [79]
gefolgt. Die Schwelle 77wird mit Hilfe des empirischen 95%-Quantils der negativen
gesch~tzten standardisierten Residuen festgelegt. Dadurch wird erreicht, dass
in den einzelnen Berechnungen jeweils 5% der Werte als relevanter Rand der
Verteilung angesehen werden. Diese Anzahl der Beobachtungen yj = xj-77, welche
die Schwelle 71iiberschreiten, soll im Folgenden mit -), bezeichnet werden. Es gilt:
yj_>0.
Zur Anpassung der Generalisierten Pareto Verteilung an die Beobachtungen yj
kann die Maximum-Likelihood Methode verwendet werden. Die Dichte der GPD
ist ftir ~ -# 0
f~,,~(y) = -~

Daraus resultiert die folgende Log-Likelihood Funktion

= ~

( - ln/3 - (1 + ~) In (1 + ~ y j ) )

j=l

1
= - 7 1 n B - (1 + ~) ~ l n
j=l

(1 + ~ y j )

KAPITEL 4. NEUERE VALUE-AT-RISK ANSATZE

102

hn+1

"- 0~0 + Oil U n + / 3 1 h n .

Die Bildung der gesch~itzten standardisierten Residuen erfolgt in Analogie zu


den Darstellungen aus dem Abschnitt 4.3.2 zur GARCH-Modellierung mit
Bootstrap-Verfahren, wobei in diesem Fall das Vorzeichen gewechselt wird, um
den relevanten Rand mit der EVT zu modellieren
vi -

~,

i = l, 2, ..., n,

wobei n die Anzahl der zur Sch~itzung genutzten Beobachtungen darstellt.


Zur Festlegung der Schwelle r/ wird das empirische 95%-Quantil ~(0.95) der
berechneten ~- gesch~tzt (vgl. Gleichung 2.16)
77= ~(0.95, 'b~-).
Zur Anpassung der GPD wird die Variable zbj = ~ ) ( - 7 / (j = 1,...,7) der
LTberschreitungen der Schwelle 7/gebildet (~)~- > 77). Darauf aufbauend kann die
GPD durch die Maximum-Likelihood Methode an die 9' Uberschreitungen @j
angepasst werden
r~,~x { - T l n / ~ - ( 11)+ ~

~ln

(1 + ~wJ) }

j=l

Mit den gesch~tzten Parametern ~ und ~ wird das gesuchte ( 1 - a)-Quantil ( 1 a > 0.95) der ~)~-gesch~tzt

)
Die Berechnung der 1-Schritt Value-at-Risk Prognose mit diesern gesch/itzten
Quantil wird wie folgt vorgenommen

YaR(a)lln

= Pn

1 - exp

/211n -- ~ l - a

Es ergibt sich ein negatives Vorzeichen, da die Sch~itzung mit den negativen
gesch~itzten standardisierten Renditen durchgefiihrt wurde.
Zur Berechnung des 10-Schritt Value-at-Risk bietet sich die Verwendung des
Simulationsverfahrens (vgl. Abschnitt 4.2) an. Dabei wird der rechte Rand der
negativen gesch~itzten standardisierten Residuen ~3~-durch die angepasste GPD
modelliert, der Rest der Verteilung wird durch die empirischen Beobachtungen in
Analogie zum Abschnitt 4.3.2 beschrieben. Dieses Vorgehen unterscheidet sich von
McNeil/Frey [79], welche beide R~inder der Verteilung durch EVT modellieren.

4.3.

SEMI-PARAMETRISCHE

ANSfi, TZE

103

Im ersten Schritt wird durch das Bootstrap-Verfahren eine zuf~llige Beobachtung


Oj mit Zuriicklegen aus den negativen gesch~tzten standardisierten Residuen O~gezogen (mit der Anzahl der Simulationsl~ufe N)
Oj,

j-

1, 2,..., N.

Falls die gezogene Beobachtung oberhalb der Schwelle 7j liegt ('~j > 'r/), wird
eine Zufallszahl ~j aus der gesch~tzten GPD mit den gesch~tzten Parametern
und ~ generiert. In das Simulationsverfahren wird das simulierte standardisierte
Residuum Vj,n+T eingesetzt

Fiir den modellierten Rand der negativen standardisierten Residuen ~- wird


die gesch~tzte Extremwertverteilung zur Generierung der benStigten Zufallszahl
genutzt. Falls die gezogene Beobachtung 0j unterhalb der Schwelle ~j liegt (0j < ~),
wird die negative gezogene Beobachtung und damit das gesch~tzte standardisierte
Residuum ~ in das Simulationsverfahren eingesetzt
Vj,n+r = --Vj"
Die Simulation der 10-Schritt Renditeverteilung kann dann in Analogie zu den
Ausfiihrungen in Abschnitt 4.2 vorgenommen werden, woraus letztendlich der
10-Schritt Value-at-Risk resultiert
A

Van(o~)lOl n - p n ( 1 - exp(0(O~)lOln)).

Der Ansatz der GARCH-Modellierung mit Extremwerttheorie unterscheidet


sich vom Ansatz mit ausschlieglicher Verwendung des Bootstrap-Verfahrens
aus Abschnitt 4.3.2 durch die parametrische Modellierung des interessierenden
Randes der standardisierten Residuen. Der Rest der Verteilung wird genau wie
bei der GARCH-Modellierung mit Bootstrap-Verfahren durch die gesch~tzte
empirische Verteilung der standardisierten Residuen abgebildet. Die Motivation
dieses Vorgehens ist, dass die Extremwerttheorie den Rand der Verteilung
besser beschreibt als die historischen empirischen Beobachtungen. In der
empirischen Vergleichsstudie wird dieses genauer untersucht. Generell kann davon
ausgegangen werden, dass sich die Ergebnisse der Value-at-Risk Prognosen der
beiden semi-parametrischen GARCH-Modellierungen nicht stark voneinander
unterscheiden, da die Ans~tze ein ~hnliches Vorgehen aufweisen.

Kapitel 5

Empirische Vergleichsstudie
Die empirische Vergleichsstudie stellt eine umfangreiche Analyse des Spektrums
mSglicher Ausgestaltungen der Value-at-Risk Berechnung dar. In der
Vergleichsstudie werden alle vorgestellten Ans~tze zur 1-Schritt und zur
10-Schritt Prognose des Value-at-Risk angewendet. Auf dieser Grundlage werden
die Basel II-Anforderungen erfiillt. Die 1-Schritt Value-at-Risk Prognose kann
zur Validierung des jeweiligen Ansatzes genutzt werden (vgl. Abschnitt 2.4.4).
Darauf aufbauend wird die Anzahl der Backtesting-Ausnahmen der letzten zwSlf
Monate ausgewertet und zur Bestimmung des Multiplikators fiir das n~ichste
Quartal herangezogen (vgl. Abschnitt 2.4.5). Der Multiplikator dient zusammen
mit der 10-Schritt Value-at-Risk Prognose zur Berechnung der resultierenden
Eigenkapitalanforderung (vgl. Abschnitt 2.4.3). Damit wird die Problemstellung
des Finanzinstituts realistisch dargestellt. Besondere Aufmerksamkeit liegt
auf dem Vergleich der Ans~tze hinsichtlich der Anzahl der resultierenden
Backtesting-Ausnahmen und der HShe der Eigenkapitalanforderung. Das Ziel der
Value-at-Risk Prognose ist eine mSglichst genaue Abbildung der Risikosituation,
um die Marktrisiken durch die vorhandene Reserve an Eigenkapital abzudecken.
Dieses soUte jedoch nicht zu einer iiberhShten Hinterlegung von Eigenkapital
fiihren, da hierdurch zu hohe Kapitalkosten in Kauf genommen werden oder
gegebenenfalls Ressourcen gebunden werden, die gewinnbringend investiert
werden kSnnten. Die umfassende Betrachtung des erweiterten Spektrums
an Value-at-Risk Ans~tzen soll geeignete Ans~tze herausfiltern, die eine
angemessene Anzahl an Backtesting-Ausnahmen bei gleichzeitig mSglichst
geringer Eigenkapitalanforderung gew~ihrleisten. Diese Erkenntnis kann von
dem jeweiligen Finanzinstitut genutzt werden, um sowohl die Absch~tzung von
Marktrisiken als auch die Effizienz der Kapitalallokation zu verbessern.

106

KAPITEL 5. EMPIRISCHE VERGLEICHSSTUDIE

Zur Einordnung der empirischen Vergleichsstudie wird kurz auf aktuelle Studien
verwiesen, in denen Value-at-Risk Ans/itze verglichen werden. Im Folgenden
werden die Studien von Sarma et al. [94], Srooks/Persand [23] und Chong [25]
zusammengefasst.
Sarma et al. [94] vergleichen 1-Schritt Value-at-Risk Prognosen mit a = 0, 01
und a = 0, 05. Einbezogen werden die historische Volatilit~it, das EWMA-Modell,
AR(1)-GARCH(1,1) mit zugrundeliegender Normalverteilungsannahme und die
historische Simulation. Insgesamt sind die Ans/itze wenig erfolgreich, wobei
dem EWMA-Ansatz und dem AR(1)-GARCH(1,1)-Ansatz noch die giinstigsten
Eigenschaften bescheinigt werden.
Der Artikel von Brooks/Persand [23] konzentriert sich auf die Evaluation von 1-,
5-, 10- und 20-Schritt Volatilit~itsprognosen. Zur Bildung dieser Prognosen werden
die historische Volatilit/it, das EWMA-Modell, univariate GARCH-Modelle
und ein multivariates GARCH-Modell (VECH) verwendet. Die Value-at-Risk
Prognosen werden durchgehend mit der Normalverteilungsannahme fiir die
Renditezeitreihen gebildet. Die Autoren stellen dabei fest, dass keiner der Ans~itze
ad~iquate 99%-Value-at-Risk Prognosen liefert. Auch wurde keine signifilmnte
Verbesserung der Prognosen durch das multivariate GARCH-Modell erreicht (,,the
gain from using a multivariate GARCH model for forecasting volatility, which has
not been previously investigated, is minimal", [23], S. 20).
Chong [25] analysiert 1-Schritt Value-at-Risk Prognosen fiir Wechselkurse.
Hier liegt der Fokus auf dem Vergleich der historischen Volatilit/it, dem
EWMA-Modell, univariaten GARCH-Modellen und bivariaten GARCH-Modellen
(VECH, BEKK) mit den Value-at-Risk Prognosen, abgeleitet aus der
impliziten Volatilit~it von Optionen. Dabei werden Value-at-Risk Prognosen fiir
Zusammensetzungen des Portfolios aus jeweils zwei Wechselkursen beispielsweise
USD/DEM oder USD/JPY ermittelt. Zur Berechnung des Value-at-Risk wird
die bivariate Normalverteilung der Renditezeitreihen angenommen. Dabei wird
festgestellt, dass die analysierten Ans/itze nicht in der Lage sind, ad~iquate
99%-Value-at-Risk Prognosen zu ermitteln. Die verwendeten multivariaten
Modelle zeigen keine Vorteile auf.
Die empirische Vergleichsstudie dieser Arbeit weist im Vergleich zu den genannten
bestehenden Studien einige Weiterentwicklungen auf. Die 10-Schritt Value-at-Risk
Prognose wird konsequent fiir alle Ans~itze angewendet. Beispielsweise wird
die 10-Schritt Prognose mit CAViaR-Modellen unter Nutzung der Skalierung
der 1-Schritt Prognosen betrachtet. Bei der Value-at-Risk Prognose wird nicht
ausschlief~lich auf restriktive Verteilungsannahmen zuriickgegriffen, sondern es

5.1. BESCHREIBUNG DER DATENGRUNDLAGE

107

werden durch die Verwendung von Simulationsverfahren Ans/itze analysiert,


die das Verhalten von Renditezeitreihen realistischer abbilden. Hervorzuheben
sind hierbei die GARCH-Modellierung mit GED-Verteilung und die historische
Simulation mit Gewichtungsfaktoren. Insbesondere die Analyse der alternativen
multivariaten Ans~itze zur Ermittlung von 10-Schritt Value-at-Risk Prognosen
beziehungsweise Eigenkapitalanforderungen stellt eine wesentliche Erweiterung
dar. Dabei werden die Value-at-Risk Prognosen der multivariaten Ans~itze unter
Einbeziehung der multivariaten GARCH-Modelle (Faktor-, OGARCH, CCC-,
DCC-Modell) umfassend evaluiert. Die Bewertung der 1-Schritt Value-at-Risk
Prognosen mit der Zielfunktion der Quantilsregression stellt eine Neuerung dar.
Die realistische Nachstellung der Konsequenzen der Basel II-Anforderungen fiihrt
zu einem Bewertungsrahmen, der in dieser Ausgestaltung bisher noch nicht
betrachtet wurde.
Im Abschnitt 5.1 wird die Datengrundlage der empirischen Vergleichsstudie
vorgestellt. Darauf folgend werden im Abschnitt 5.2 die univariaten
und multivariaten Ans~itze zur Berechnung der Value-at-Risk Prognosen
beziehungsweise der Eigenkapitalanforderungen verwendet. Die Bewertung der
Ergebnisse aus der Sicht des Finanzinstituts erfolgt im Abschnitt 5.3.

5.1

Beschreibung der Datengrundlage

Zum Vergleich der Ansiitze zur Berechnung des Value-at-Risk werden Daten
des Indexanbieters Stoxx verwendet. Der Dow Jones Euro Stoxx TMI
ist ein vielbeachteter Aktienindex. Das Ziel dieses Indizes ist es, die
Entwicklung der Aktien in den L~ndern Belgien, D/inemark, Deutschland,
Finnland, Frankreich, Griechenland, Gro~britannien, Irland, Italien, Luxemburg,
Niederlande, Norwegen, Osterreich, Portugal, Schweden, Schweiz und Spanien
abzubilden. In diesen L~indern wird durch den Euro Stoxx Index etwa 95%
der Marktkapitalisierung abgedeckt. Der Index kann daher zur Abbildung eines
diversifizierten Portfolios mit Anlageschwerpunkt Europa herangezogen werden.
Der Euro Stoxx Index weist am 31. Dezember 1991 einen Basiswert von 100 aus.
Die in der empirischen Studie betrachtete Zeitperiode reicht vom 31. Dezember
1991 bis zum 17. Mai 2004. Es handelt sich um Tagesschlusskurse. Dabei
sind bei dem ausgew~ihlten Euro Stoxx Index die Dividendenzahlungen in der
Kursentwicklung beriicksichtigt, das heist, die Entwicklung des Index setzt sich
aus den Kursver/inderungen und den Dividendenzahlungen der enthaltenen Aktien
zusammen. Die Notierung erfolgt in Euro. Der Kursverlauf des Euro Stoxx Index

KAPITEL 5. EMPIRISCHE VERGLEICHSSTUDIE

108

,9.o

=2

IJJ

1992

1994

1996

1998

2000

2002

2004

Abbildung 5.1" Kursverlauf des Euro Stoxx Index

ist in der Abbildung 5.1 dargestellt.


Zus~itzlich zum Euro Stoxx Index werden fiinf Sektoren-Indizes zur Analyse
der Value-at-Risk Ans~itze genutzt. In diesen fiinf Sektoren-Indizes sind alle
Aktien des Euro Stoxx Index enthalten. Durch diese Aufteilung ist es mSglich,
unterschiedliche Entwicklungen in den jeweiligen Industriesektoren abzubilden.
Folgende Sektoren-Indizes werden herangezogen: Basic Materials, Cyclical
Goods, Financial Services, Industrial Goods und Non-Cyclical Goods. Bei der
Betrachtung des Kursverlaufs der Sektoren-Indizes in Abbildung 5.2 wird eine
unterschiedliche Entwicklung im Zeitverlauf deutlich.
Durch diese Ausweitung der Analyse kSnnen die univariaten Ans~itze zur
Berechnung des Value-at-Risk anhand von sechs realen Zeitreihen verglichen
werden. Zus/itzlich wird die Einbeziehung der multivariaten Ans~itze ermSglicht,
indem die fiinf Sektoren-Indizes als Bestandteile eines Portfolios verwendet
werden. Zum besseren Vergleich der univariaten und der multivariaten
Betrachtungsweise wird aus den fiinf Sektoren-Indizes eine Zeitreihe erzeugt,
die den Kursverlauf des Portfolios bestehend aus den gleichgewichteten
Sektoren-Indizes (jeweils 20%) abbildet. Diese univariate Zeitreihe wird im
Folgenden als ,,gewichtetes Portfolio" bezeichnet. Der Vorteil dieser Zeitreihe liegt
in der Konstanz der Gewichtungsstruktur w im Zeitverlauf. Der Euro Stoxx
Index setzt sich aus den fiinf Sektoren-Indizes zusammen. Die Zusammensetzung
variiert t~iglich anhand der Marktkapitalisierung der einzelnen Komponenten.

109

5.1. BESCHREIBUNG DER DATENGRUNDLAGE

Abbildung 5.2: Kursverlauf der Sektoren-Indizes


Ein Vergleich der univariaten und multivariaten Ans/itze bei konstanten
Gewichtungsstrukturen ist daher sinnvoller.
Zur Berechnung des Value-at-Risk wird in der Regel die Renditezeitreihe des
jeweiligen Aktienindex verwendet (vgl. Abschnitt 2.2.1). Die Charakteristika
der empirischen Renditezeitreihen (vgl. Gleichung 2.7) lassen sich durch
die deskriptiven Kennzahlen Mittelwert, Varianz, Schiefe und Kurtosis
beschreiben (vgl. Abschnitt 2.2). Die gesch/itzten Kennzahlen fiir den gesamten
Betrachtungszeitraum (31.12.1991-17.05.2004) kSnnen der Tabelle 5.1 entnommen
werden.

Renditezeitreihen
Euro Stoxx
Basic Materials
Cyclical Goods
Financial Services
Industrial Goods
Non-cyclical Goods
Gewichtetes Portfolio

Mittelwert
0,000344
0,000369
0,000267
0,000390
0,000291
0,000353
0,000337

Varianz

0 .2

0,000115
0,000123
0,000142
0,000158
0,000116
0,000090
0,000108

Schiefe

Kurtosis/4

-0,272
-0,159
-0,228
-0,239
-0,352
-0,230
-0,340

Tabelle 5.1" Deskriptive Statistik der Datengrundlage

6,549
6,669
6,836
8,402
6,427
6,425
6,894

110

KAPITEL 5. EMPIRISCHE VERGLEICHSSTUDIE

Es ist erkennbar, dass alle Indizes eine negative Schiefe und eine hShere
Kurtosis im Vergleich zur Normalverteilung aufweisen. Alle Indizes erzielten eine
positive Rendite. Bei Annahme von 250 Handelstagen pro Jahr kann die in
der Tabelle angegebene durchschnittliche Tagesrendite in die durchschnittliche
Rendite pro Jahr durch grobe Absch~itzung iiberfiihrt werden. Fiir den Euro
Stoxx Index resultieren 8,61% (250/2) durchschnittliche j~ihrliche Rendite. Die
durchschnittliche Standardabweichung beziehungsweise Volatilit~it pro Jahr des
Euro Stoxx betr~igt 16,96% ( ~ ~ ) .
Die Analyse der deskriptiven Kennzahlen kann um rollierende Analysen erweitert
werden. Die betreffende Kennzahl wird fiir ein Zeitfenster einer bestimmten L~inge
berechnet, welches im Betrachtungszeitraum jeweils einen Tag weitergeschoben
wird. Bei Verwendung von 250 Tagen als Zeitfenster wird zun~ichst die Kennzahl
fiir die Tage 1 bis 250 berechnet. Daraufhin wird das Zeitfenster um eine Periode
weitergeschoben und wiederum die Kennzahl fiir die Tage 2 bis 251 berechnet.
Dieses Vorgehen wird fortgefiihrt bis das Ende des Betrachtungszeitraums erreicht
ist.
Fiir den Euro Stoxx Index sind in der Abbildung 5.3 die Kennzahlen Mittelwert,
Standardabweichung, Schiefe und Kurtosis mit einem Zeitfenster von 250 Tagen
dargestellt, um die zeitver~inderlichen Charakteristika der Renditezeitreihe zu
betrachten.
Es sind eindeutig unterschiedliche Phasen der Renditeerzielung zu erkennen.
Insbesondere das Jahr 2002 zeichnete sich durch einen klaren Abw~irtstrend
des Euro Stoxx Index aus. Auch die Ver~inderung der Standardabweichung der
Renditezeitreihe des Euro Stoxx Index wird deutlich. Nach den turbulenten
Jahren 1998 und 1999 kam es im Jahr 2002 nochmals zu einer deutlichen
Zunahme der Schwankungsbreite des Euro Stoxx Index. Angefangen im zweiten
Halbjahr 2003 ist eine Abnahme der Standardabweichung bis zum Ende des
Betrachtungszeitraums eingetreten.
Die Kurtosis der Renditezeitreihe, das heif,t die Kennzahl zur Beschreibung
der H~iufungen von Werten in den R~indern der Verteilung, zeigt deutliche
Strukturen im Zeitverlauf. Die Abbildung zeigt die Abh~ingigkeit dieser Kennzahl
von extremen Beobachtungen der Renditezeitreihe. Das Eintreten einer extremen
Beobachtung in das Zeitfenster oder das Verlassen des Zeitfensters hinterlksst
deutliche Spuren. Dariiber hinaus zeichnet sich in bestimmten Zeitperioden
eine Zunahme beziehungsweise Abnahme der Kurtosis ab. Erkennbar sind die
Abnahme im Jahr 1998 und die Zunahme im zweiten Halbjahr 2003.

111

5.2. ANWENDUNG DER ALTERNATIVEN ANS)~TZE

o
0
d

o
o4
o.
o

--

l-ul

"o

1-

(D
0

1994

1998

ix)
o
o
o

m"
1,-

__

C)
I.,,-

__

(,D

o
o.

u
u

1994

1998

2002

1994

2002

1998

2002

1994

1998

2002

Abbildung 5.3: Kennzahlen des Euro Stoxx Index im Zeitverlauf


Die zeitvert~nderlichen Charakteristika der Renditezeitreihe des Euro Stoxx
zeigen deutlich die Relevanz der Beachtung der zeitvertinderlichen Verteilung der
Renditezeitreihe zur Value-at-Risk Prognose.

5.2

Anwendung der alternativen Ans~itze

In der empirischen Vergleichsstudie wird auf die vorgestellte rollierende


Analyse zuriickgegriffen. Dabei nutzen die unterschiedlichen Anstitze jeweils ein
bestimmtes Zeitfenster der historischen Renditezeitreihe, um die Value-at-Risk
Prognose ffir den ntichsten Tag beziehungsweise die n~chsten zehn Tage zu
berechnen. Als l~ngstmSgliches Zeitfenster werden 2000 ttLgliche Beobachtungen
der Renditezeitreihe verwendet. Durch die Differenzenbildung zur Berechnung
der Renditezeitreihe werden damit die ersten 2001 Tage als maximale Historie
des Startzeitpunkts definiert. Diese Zeitperiode reicht vom 31.12.1991 bis zum

112

KAPITEL 5. EMPIRISCHE VERGLEICHSSTUDIE

23.09.1999. Als Variationen der L/inge der Historie werden in der empirischen
Vergleichsstudie 1000 Tage und 250 Tage in den Ans/itzen beriicksichtigt.
Die Berechnung des Value-at-Risk beginnt mit dem Informationsstand am
23.09.1999. Mit allen Informationen aus der Historie einschlie~lich des 23.09.1999
wird die Berechnung der Value-at-Risk Prognose fiir den n/ichsten Handelstag
(24.09.1999) und fiir die n~ichsten zehn Handelstage (24.09.1999 bis 7.10.1999)
mit den alternativen Ans~itzen vorgenommen. Dann wird das Zeitfenster
einen Handelstag weitergerollt. Damit dienen der n~ichsten Berechnung alle
Informationen einschlie~lich des 24.09.1999. Auf dieser Grundlage wird dann
wiederum der Value-at-Risk des n~ichsten Handelstages (27.09.1999) und der
n~ichsten zehn Handelstage (27.09.1999 bis 8.10.1999) berechnet. Dieses Vorgehen
wird bis zum Erreichen des Endes der betrachteten Zeitperiode fortgefiihrt.
Daraus resultieren 1174 1-Schritt Value-at-Risk Prognosen und 1174 10-Schritt
Value-at-Risk Prognosen. Dieses bedeutet, dass die Parameter des jeweiligen
Ansatzes in 1174 Sch~itzungen jeweils neu ermittelt werden. Dabei wird zur
Sch~itzung der GARCH-Modelle auf das Programm ,,EViews" zuriickgegriffen.
Alle weiteren Berechnungen zur Ermittlung der Value-at-Risk Prognosen werden
mit dem Programm ,,R" durchgefiihrt. Der Programm-Code der durchgefiihrten
Analysen der alternativen Ans~itze ist auf der Homepage des Fachgebiets
Statistik/Empirische Wirtschaftsforschung der Universit~it Osnabriick hinterlegt:
http: //nt s4.o ec. uni-osnabrueck, de/stat 1/stat 1.htm.
Um die Ermittlung der Eigenkapitalanforderung durchzufiihren, werden bei der
Berechnung die Basel-II Kriterien eingehalten, das heist es wird c~ - 0,01
gesetzt und eine Mindestl~inge des historischen Zeitfensters von 250 Handelstagen
beachtet (vgl. Abschnitt 2.4.2). Fiir die Berechnung der 1-Schritt und der
10-Schritt Value-at-Risk Prognosen wird eine konsistente Methodik verwendet.
Zur Evaluation der Ans~itze werden die Value-at-Risk Prognosen mit
den tats~ichlich eingetretenen Kursbewegungen verglichen. Die Anzahl der
Backtesting-Ausnahmen in den jeweils letzten vier Quartalen wird ausgewertet
und zur Festlegung des Multiplikators im n~ichsten Quartal verwendet (vgl.
die Abschnitte 2.4.4 und 2.4.5). Aus der Ermittlung des Multiplikators
und der 10-Schritt Value-at-Risk Prognose lassen sich realistisch abgebildete
Eigenkapitalanforderungen berechnen (vgl. Abschnitt 2.4.3). Diese umfassende
Darstellung der Qualit/it der konkurrierenden Ans/itze zur Ermittlung der
Marktrisiken kombiniert mit der Betrachtung der Konsequenzen der Modellierung
fiir da~ Finanzinstitut liefert eine sinnvolle Entscheidungshilfe zur Auswahl des
zur Value-at-Risk Prognose geeigneten Ansatzes.

5.2. ANWENDUNG DER ALTERNATIVEN ANSJ4TZE


5.2.1

113

A n w e n d u n g d e r u n i v a r i a t e n Ans~itze

Die Anwendung der univariaten Ans~tze erstreckt sich auf den Euro Stoxx
Index, die fiinf Sektoren-Indizes und da~ aus den ffinf Sektoren-Indizes gebildete
gewichtete Portfolio. Die Auswertung der Anss
hinsichtlich des gewichteten
Portfolios liefert die Grundlage zum Vergleich der geeigneten univariaten Ans~tze
mit den multivariaten Ans~tzen, der im Abschnitt 5.2.2 folgt. Insgesamt
werden 14 univariate Ans~tze zur Value-at-Risk Prognose verwendet. Darunter
befinden sich die historische Simulation (mit und ohne Gewichtungsfaktoren),
die historische Volatilit~t, die exponentielle Gl~ttung der Volatilit~it, sechs
Ans~tze mit Integration der GARCH-Modelle zur Volatilit~tsprognose und vier
CAViaR-Ans~tze mit unterschiedlicher Ausgestaltung der funktionalen Form zur
Beschreibung des bedingten Quantils.
Die 14 Ans~tze werden mit unterschiedlicher L~nge der Historie angewendet.
Dabei werden 250, 1000 und 2000 Handelstage als Historie betrachtet. Es werden
nicht ffir jeden Ansatz alle drei MSglichkeiten verwendet, da einige Kombinationen
nicht sinnvoll sind. Beispielsweise ist eine Historie von 250 Tagen zu gering, um
ein GARCH-Modell mit zuverl~siger Parametersch~tzung anzupassen. Durch die
Variation der Historie werden letztendlich 30 Ausgestaltungen der 14 Ans~tze
untersucht. Mit dieser Vorgehensweise wird der empirischen Vergleichsstudie eine
weitere Dimension hinzugeffigt. Zus~tzlich zu der umfassenden Bewertung der
alternativen Ans~tze kSnnen Aussagen fiber die Auswirkung der unterschiedlichen
L~nge der Historie getroffen werden.
Um die
Ans~tze
Ans~tze
Ans~tze

Verbindung zu den vorangegangenen Kapiteln herzustellen und die


besser vergleichen und einordnen zu kSnnen, werden die alternativen
kurz zusammengefasst. Als erste Gruppe der alternativen Value-at-Risk
werden die in der Praxis verwendeten Ans~tze herangezogen:

1. Historische Simulation mit gleichgewichteter Historie (250, 1000 und


2000 Handelstage). In dem Vergleich werden die 10-Schritt Value-at-Risk
Prognosen, ermittelt durch die Simulation aus den empirischen 1-Schritt
Renditen, betrachtet, da die Simulation aus den kumulierten 10-Schritt
Renditen zu wesentlich hSheren Eigenkapitalanforderungen ffihrt (vgl.
Abschnitt 2.5.2).
2. Historische Volatilit~t mit Normalverteilungsannahme und einer Historie
von 250, 1000 und 2000 Handelstagen (vgl. Abschnitt 2.5.1).
3. Exponentielle Gl~ttung der Volatilit~t (EWMA-Modell) mit A = 0, 94 (vgl.

114

K A P I T E L 5. E M P I R I S C H E V E R G L E I C H S S T U D I E

Abschnitt 2.5.3), wobei eine Historie von 250 Tagen verwendet wird, da eine
l~ingere Historie aufgrund der Modellstruktur zu keinen anderen Ergebnissen
fiihrt.
Die neueren Ans~tze werden wiederum in die AusgestaltungsmSglichkeiten
nicht-parametrische, parametrische und semi-parametrische Ans~tze unterteilt.
Bei den nicht-parametrischen Ans~tzen wird die historische Simulation mit
Gewichtungsfaktoren angewendet (vgl. Abschnitt 4.1):
4. Historische Simulation mit heuristischen Gewichtungsfaktoren en-z+l =
1-~ ~l-1 , l : 1,...,n mit 250, 1000 und 2000 Tagen als Historie. Der
l_)~n
Parameter dieser exponentiellen Gewichtung ist )~ = 0, 99. Durch die Wahl
dieses Parameters resultiert eine Gewichtung der Historie, die nicht zu stark
vom aktuellen Rand der empirischen Beobachtungen abh~ngt.
Die parametrischen Ans~tze werden durch vier Ausgestaltungen mit
GARCH-Modellen repr~entiert, wobei zwei dieser Ans~itze die Normalverteilung
fiir die kumulierte Renditezeitreihe unterstellen und die anderen beiden Ans~itze
auf Simulationsverfahren zuriickgreifen:
5. GARCH(1,1)-Modell mit einer Konstanten in der Mittelwertgleichung
2
rn+l = # + hv~+lVn+l mit hn+l = c~o + C~lUn
+ ;31h,~ und Annahme der

Normalverteilung fiir die kumulierte Renditezeitreihe h'~l~(r~+~


2
- ~l~)
A/'(0, 1) (vgl. Abschnitt 4.2.1).

6. GARCH(1,1)-Modell mit einer Konstanten und einem AR(1)-Term in der


Mittelwertgleichung rn+ l = ~ + r
+ v/hn+ l Vn+ l und Annahme der
Normalverteilung fiir die kumulierte Renditezeitreihe (siehe Ansatz 5).
7. GARCH(1,1)-Modell mit einer Konstanten in der Mittelwertgleichung und
simulierter kumulierter Renditeverteilung auf Grundlage normalverteilter
standardisierter Residuen ~j,,~+r '~ i.i.d. A/'(0, 1) (vgl. Abschnitt 4.2.1).
8. GARCH(1,1)-Modell mit einer Konstanten in der Mittelwertgleichung und
simulierter kumulierter Renditeverteilung auf Grundlage GED-verteilter
standardisierter Residuen vj,n+r '~ i.i.d. GED(0,1,~) mit gesch~itztem
Parameter ~ (vgl. Abschnitt 4.2.2).
Zu den GARCH-Modellen kann generell angemerkt werden, dass die Parameter
in zwei Schritten gesch~tzt werden (vgl. Abschnitt 3.1.2). Im ersten Schritt

5.2. A N W E N D U N G DER A L T E R N A T I V E N ANSfi, TZE

115

werden die Parameter der Mittelwertgleichung mit der Kleinst-Quadrate


Methode gesch/itzt. Die daraus resultierenden geschgtzten standardisierten
Residuen ui werden im Anschluss in die Gleichung 3.3 eingesetzt. Die folgende
Optimierung der Maximum-Likelihood Funktion liefert die gesch/itzten Parameter
der Varianzgleichung. Die Sch/itzung der GARCH-Modelle wird mit dem
Software-Programm ,,EViews" unter Verwendung des Marquardt-Algorithmus
vorgenommen. Dabei werden die Parameter fiir die 1174 Prognosen jeweils
neu gesch/itzt. Die Ermittlung der Value-at-Risk Prognosen, gegebenenfalls
unter Beriicksichtigung von Simulationsverfahren, wird mit dem Programm ,~R"
vorgenommen.
Als semi-parametrische Ans/itze werden vier CAViaR-Ans/itze betrachtet (vgl.
Abschnitt 4.3.1). Dabei werden unterschiedliche Ausgestaltungen verwendet, um
dieses neue Modell zu analysieren. Dariiber hinaus werden zwei GARCH-Ansiitze
betrachtet, die nicht auf restriktive Verteilungsannahmen, sondern auf die
gesch/itzten standardisierten Residuen zuriickgreifen. Einer dieser beiden Ans/itze
bezieht die Extremwerttheorie ein:
9. CAViaR-Modell mit Ausgestaltung des Quantils beruhend auf dem
symmetrischen Absolutwert (SAV) der Rendite q(c~)lln = -~o + ~lq(o~)n
-

10. CAViaR-Modell mit zeitlicher Entwicklung des Quantils aufgrund adaptiver


Anpassung q(c~)lln = q(c~)n - ~ ((1 + exp (G [rn - q(a)n])) -1 - c~), mit
G = 10. Die Wahl dieses Parameters G wird von Engle/Manganelli [39]
vorgeschlagen.
11. CAViaR-Modell mit Ausgestaltung des Quantils durch asymmetrische
Wirkung des Absolutwerts (AAV) der Rendite der Vorperiode q(c~)lln =
- Z 0 + Z~q(c~)~ - Z21r~ - Zal.

12. CAViaR-Modell mit asymmetrischer Anpassung (AS) q(a)lln = -~o +


~lq(Ct)n + ~2 max(0, rn) + ~3 min(0, rn).
13. GARCH(1,1)-Modell mit einer Konstanten in der Mittelwertgleichung und
simulierter kumulierter Renditeverteilung auf Grundlage der Anwendung
des Bootstrap-Verfahrens auf die gesch/itzten standardisierten Residuen
(vgl. Abschnitt 4.3.2).
14. GARCH(1,1)-Modell mit einer Konstanten in der Mittelwertgleichung und
simulierter kumulierter Renditeverteilung auf Grundlage der Anwendung

KAPITEL 5. EMPIRISCHE VERGLEICHSSTUDIE

116

des Bootstrap-Verfahrens auf die gesch~tzten standardisierten Residuen und


zus/itzlicher Modellierung des linken Randes durch Extremwerttheorie (vgl.
Abschnitt 4.3.3).
Die folgende umfassende Untersuchung der vorgestellten AnsEtze wird St~rken
und Schw~chen herausarbeiten, um dem jeweiligen Anwender die Auswahl eines
geeigneten Ansatzes zu erleichtern. Dabei werden die in der Praxis verwendeten
Ans/itze kritisch /iberpriift, um einen mSglicherweise fiir die Finanzinstitute
vorhandenen Handlungsbedarf offenzulegen.
Um diese Evaluation vorzunehmen, werden insbesondere die Qualitiit der
Ans~itze aufgrund der Anzahl der Backtesting-Ausnahmen und die Konsequenzen
resultierend aus der Beachtung der Basel II-Anforderungen (vgl. Abschnitt
2.4) betrachtet. Daneben werden grafische Vergleiche und die Zielfunktion der
Quantilsregression (vgl. Abschnitt 4.3.1) herangezogen. Zur Evaluation der
Ans~itze wird der folgende Kriterienkatalog verwendet:
9 Grafischer Vergleich der T-Schritt Quantilsprognosen beziehungsweise der
Value-at-Risk Prognosen
9 Vergleich
der
Anzahl
und
des
zeitlichen
Auftretens
der
Backtesting-Ausnahmen, basierend auf den berechneten Quantilsprognosen
9 Entwicklung und durchschnittlicher Wert des Basel II-Multiplikators
9 Entwicklung und durchschnittlicher Wert der resultierenden Basel IIEigenkapitalanforderung
9 Anzahl der Quartale in gelber beziehungsweise roter Zone
9 Zielfunktion der Quantilsregression ffir die 1-Schritt Quantilsprognose
3174

QR = -

(I(ri+l < ~(0, 01)11i) - c~) (ri+l - ~(0, 01)11i) 9

i--2001

Die Auswahl der Kriterien sorgt f/ir die Abbildung der wesentlichen Aspekte
zur Beurteilung der Value-at-Risk Ans~itze. Weitere Kriterien liefern kaum
zus~itzliche Informationen. Beispielsweise beurteilen die in Abschnitt 2.4.4
dargestellten Likelihood-Ratio Teststatistiken die Anzahl und das zeitliche
Auftreten der Backtesting-Ausnahmen, welches durch die ausgew~hlten Kriterien,
wie die Anzahl der Quartale mit erhShtem Multiplikator aufgrund von geh~.uft
auftretenden Backtesting-Ausnahmen, bereits abgebildet wird.

118

K A P I T E L 5. EMPIRISCHE VERGLEICHSSTUDIE

o
c~
o
c;

c;

,d
o

?
,dI
2000

I
2001

I
2002

2003

2004

Abbildung 5.4: 1-Schritt Quantilsprognosen fiir den Euro Stoxx Index


Stoxx Index in Abbildung 5.4 dargestellt. Der prognostizierte Verlauf des 1-Schritt
Quantils wird durch die schwarze Linie dargestellt. Deutlich erkennbar ist, dass
die Quantilsprognose relativ langsam auf die Entwicklung der Renditezeitreihe
reagiert. Die Anpassungen des prognostizierten Quantils h~ingen stark von der
L~nge des Zeitfensters ab. Es kommt zu Anpassungen, wenn extrem negative
Renditen in das Zeitfenster eintreten oder es verlassen. Die Entwicklung des
Quantils kann exemplarisch an der Zeitperiode ab dem 11. September 2001
verdeutlicht werden. Die extrem negative Rendite fiihrt zu einer deutlichen
Anpassung der Quantilsprognose. Die Anpassung geschieht nicht heftig genug,
um die folgende extrem negative Rendite zu antizipieren.
Daraus kann geschlossen werden, dass die historische Simulation nicht zu
ausreichenden Anpassungen der Value-at-Risk Prognose bei geh~uften extrem
negativen Renditen fiihrt. Auch auf Phasen von nachlassender Schwankungsbreite
der Renditezeitreihe wird schwerf~llig reagiert. Beispielsweise wird die
Quantilsprognose nach dem 11. September 2001 oder in der zweiten Jahreshiilfte
2003 nur langsam angepasst, obwohl die Schwankungsbreite der Renditezeitreihe
deutlich abnimmt. In dieser Zeitperiode kann die Quantilsprognose als eher
konservativ angesehen werden.
Um die Unterschiede der Quantilsprognosen zu verdeutlichen, werden in der
Abbildung 5.5 die vier Ans~tze historische Simulation (Ansatz 1), historische
Volatilit~t (Ansatz 2), GARCH-Modell mit GED-Verteilung (Ansatz 8) und

5.2. ANWENDUNG DER ALTERNATIVEN ANSJ~TZE

117

Auch die Heranziehung des in Gleichung 2.12 vorgestellten Expected Shortfall


liefert keine weiteren Einsichten zur Beurteilung der Ans/itze. Ein denkbares
Kriterium in Anlehnung an den Expected Shortfall ist die Betrachtung
der durchschnittlichen Abweichung der Renditezeitreihe von der 1-Schritt
Quantilsprognose, gegeben eine Backtesting-Ausnahme liegt vor, hier mit S1
bezeichnet
3174

S I = BA
1 ~

I(ri+l < ~(0, 01)lli)(ri+l - ~(0, 01)11i),

i--2001

wobei BA die Anzahl der auftretenden Backtesting-Ausnahmen angibt. Als


Alternative kann der durchschnittliche Wert der Renditezeitreihe bei Vorliegen
einer Backtesting-Ausnahme ($2) analysiert werden
3174
1
S2---- ~"~ ~
/(ri+ 1 < (~(0,01)l[i)ri+ 1.
i-20Ol

Beide Kriterien h/ingen mat~geblich vonder Anzahl an Backtesting-Ausnahmen


ab. Diese Anzahl wird durch die Zuverl~sigkeit der Sch/itzung des Quantils
O(0,01)lli bestimmt, welche sich bei den betrachteten Ans~tzen deutlich
unterscheiden kann.
Als Resultat kann aus dieser Konstellation folgen, dass ein unzuverl~siger
Ansatz, mit deutlich hSherer Anzahl an Backtesting-Ausnahmen, einen besseren
Wert in einem der beiden Kriterien aufweist als ein zuverl/issiger Ansatz mit
zufriedenstellender Anzahl an Backtesting-Ausnahmen. Die Auswahl anhand
dieser Kriterien scheint daher fiir die vorliegende empirische Vergleichsstudie
nicht sinnvoll zu sein. Das Weglassen der Division durch die Anzahl
an Backtesting-Ausnahmen in den beiden Kriterien liefert ebenfalls keine
Information, die nicht bereits durch die erw/ihnten Kriterien abgebildet wird.
Im Folgenden werden die Quantilsprognosen beziehungsweise Value-at-Risk
Prognosen und die resultierenden Konsequenzen durch Abbildungen
veranschaulicht. Der Kernteil der Evaluation folgt im Anschluss durch den
ausffihrlichen tabellarischen Vergleich der alternativen Value-at-Risk Ans/itze.
Der umfassende Vergleich der ausgew~ihlten Kriterien ist notwendig, um eine
angemessene Beriicksichtigung der Komplexit/it der Evaluation sicherzustellen.
Es wird mit der Veranschaulichung der 1174 Prognosen des Quantils der 1-Schritt
Renditen q(0,01)lln begonnen. Die 1-Schritt Quantilsprognosen, basierend auf
der historischen Simulation (Ansatz 1) mit einem historischen Zeitfenster von 250
Tagen werden zusammen mit den tats/ichlich eingetretenen Renditen des Euro

5.2. ANWENDUNG DER ALTERNATIVEN ANSfi.TZE

Historlsche Simulation (1)

Historische Volatilittit (2)

U')

U3

n,

119

l
2_

"O
f-

c~

c~
:.=-

(0

2000

2002

2004

2000

2002

2004

C A V l a R - M o d e l l (9)

G A R C H - M o d e l l (8)

._._=

o
o

c:

n,

a3

0
I
2000

2002

2004

2000

2002

2004

Abbildung 5.5: Vergleich der 1-Schritt Quantilsprognosen ftir den Euro Stoxx
CAViaR-Modell (Ansatz 9) gegeniibergestellt. Die historische Volatilit~t mit
Normalverteilungsannahme bezieht 250 Tage als Historie ein. Das GARCH-Modell
und das CAViaR-Modell nutzen 1000 Tage als Historie.
Die 1-Schritt Quantilsprognose der historischen Volatilit~t reagiert im Gegensatz
zur historischen Simulation mit t~glichen Anpassungen der Quantilsprognose.
Allerdings sind die Anpassungen nicht ausgepr~gt genug, um die kr~ftigen
Abw~rtsbewegungen des Euro Stoxx Index abzubilden.
Das GARCH-Modell liefert im Gegensatz zur historischen Simulation und zur
historischen Volatilit/it wesentlich reaktionsschnellere Quantilsprognosen. Dieses
resultiert aus der expliziten Modellierung der Volatilit~t der Renditezeitreihe. Das
GARCH-Modell reagiert sehr ausgepr/igt auf die extrem negative Rendite am
11. September 2001. Ein weiterer Vorteil dieses Ansatzes liegt in der Reaktion
auf Phasen geringerer Schwankungsbreite. Nach dem 11. September 2001 kommt
es zeitnah zu einer Beruhigung der Renditezeitreihe, die vom GARCH-Modell
nachvollzogen wird. Auch in der ruhigeren Phase ab dem 2. Halbjahr 2003 wird

KAPITEL 5. EMPIRISCHE VERGLEICHSSTUDIE

120

Symmetr. Abs01utwert (9)


U3
O

__=
"o
t-

C:

n-

Adaptiv (10)

c~

u-)
q

o
o

c~

a~

==
m

o=

,d

2000

2002

Asymmetr.

Absolutwert

2004

2000

(11)

Asymmetr.

2002

2004

Anpassung

(12)

u3

m_

ra)

o
o

n,

,d

8~
I

2000

2002

2004

2000

2002

2004

Abbildung 5.6: CAViaR 1-Schritt Quantilsprognosen fiir den Euro Stoxx Index
die Quantilsprognose des GARCH-Modells deutlicher als bei der historischen
Simulation oder der historischen Volatilit~t angepasst. Zus~tzlich zur expliziten
Modellierung der Volatilit~it wirkt sich bei diesem Ansatz die Modellierung der
gesch~tzten standardisierten Residuen mit der GED-Verteilung aus. Durch die
Ver~inderung der Kurtosis der gesch~tzten standardisierten Residuen wird die
Quantilsprognose angepasst. Das Zusammenwirken dieser beiden Komponenten
fiihrt zu giinstigen Eigenschaften der Quantilsprognosen.
Als vierter Ansatz dieser Gegeniiberstellung wird der CAViaR-Ansatz 9
dargestellt. Die vier im vorangegangenen Kapitel vorgestellten CAViaR-Ans~itze
weisen, wie in der Abbildung 5.6 erkennbar, unterschiedliche Quantilsprognosen
auf. Der Ansatz 9 weist eine hohe .~hnlichkeit zum GARCH-Modell auf. Dieses
l~st sich durch die Ausgestaltung des Quantils in Abh~ngigkeit des Absolutwerts
der Rendite der Vorperiode erkl~ren. Das CAViaR-Modell reagiert, ~hnlich
wie das GARCH-Modell, schnell auf die Ver~nderungen der Charakteristika
der Renditezeitreihe. Dabei wird deutlich, dass die Quantilsprognosen des

121

5.2. ANWENDUNG DER ALTERNATIVEN ANSATZE

CAViaR-Modells im Vergleich zum GARCH-Modell auf Ver~nderungen heftiger


reagieren. Die CAViaR-Ans/itze 11 und 12 zeigen ebenfalls reaktionsschnelle
1-Schritt Quantilsprognosen. Der Ansatz 10 zeigt ein ~hnliches Verhalten wie die
historische Simulation. Die Anpassungen werden nur sehr langsam vorgenommen.
Dies folgt aus der adaptiven Ausgestaltung. Der Ansatz 11 unterscheidet
sich durch die Einbeziehung des zus/itzlichen Parameters zur Abbildung von
Asymmetrien vom Ansatz 9. Die Quantilsprognosen des CAViaR-Ansatzes 12
weisen die heftigsten Ausschl/ige aus. Dies ist durch die separate Bestimmung eines
Parameters fiir den Effekt negativer Renditen begriindbar. Insgesamt kann zu den
CAViaR-Ans~tzen festgehalten werden, dass sich die unterschiedlichsten Formen
der Quantilsprognose durch die Ausgestaltung der Funktion zur Beschreibung des
Quantils bilden lassen.
Aus der Diskussion der Quantilsprognose folgt die Darstellung
Backtesting-Ausnahmen in Abbildung 5.7 (vgl. Abschnitt 2.4.4).

Historische

Simulation

Historische

(1)

VolatillUtt

(2)

der

i-

(/)

,<=
.c:::

ur)
o

.c::

jI--"

(0
E)
o

2000

2002

GARCH-Modell

.~_
9~
(/)

2002

2004

CAViaR-Modell

(8)

(9)

o
o4

o
du)
--i

I
2000

2004

(/}
i,,'1

,p.

ov--

en

--J-"
!
2000

.c_

o
T-

i.r)

ell

I
2002

I
2004

J!
2000

I
2002

I
2004

Abbildung 5.7: Vergleich der Backtesting-Ausnahmen fiir den Euro Stoxx Index

122

KAPITEL 5. EMPIRISCHE VERGLEICHSSTUDIE

Der Abbildung ist die Summation der Backtesting-Ausnahmen im Zeitverlauf


zu entnehmen. Es werden die vier Ans~itze historische Simulation (Ansatz
1), historische Volatilit~t (Ansatz 2), GARCH-Modell (Ansatz 8) und
CAViaR-Modell (Ansatz 9) gegeniibergestellt.
Bei den Ans~tzen der historischen Simulation und der historischen Volatilit~t
sind st~rkere H~ufungen an Backtesting-Ausnahmen zu erkennen als beim
GARCH-Modell oder CAViaR-Modell. Ein geeigneter Ansatz zur Value-at-Risk
Berechnung sollte kaum H~ufungen aufweisen, da verst~rkte H~ufungen ein
Zeichen dafiir sind, dass zus~tzliche Informationen vorhanden sind, die in
den betreffenden Ansatz integriert werden sollten. Bei dem GARCH-Modell
und dem CAViaR-Modell sind bei diesem Kriterium Vorteile erkennbar. Die
Backtesting-Ausnahmen sind gleichm~f,iger fiber den Gesamtzeitraum verteilt.
Aus dieser zeitlichen Taktung der Backtesting-Ausnahmen leitet sich der Verlauf
des Basel II-Multiplikators ab (vgl. Abschnitt 2.4.5). Die erste Value-at-Risk
Prognose wird fiir den 24.09.1999 vorgenommen. Daher kann fiir die erste
Evaluation eines kompletten Jahres der Zeitraum des 4. Quartals 1999 und der
ersten drei Quartale des Jahres 2000 verwendet werden (1.10.1999-30.09.2000).
Die Anzahl der Backtesting-Ausnahmen in diesem Zeitraum wird herangezogen,
um anhand der Basel II-Kriterien den Multiplikator fiir das folgende Quartal
festzulegen. Die erste Anpassung des Multiplikators erfolgt fiir das 4. Quartal
2000. Diese Auswertung und die gegebenenfalls erforderliche Ver~nderung des
Multiplikators wird quartalsweise vorgenommen. In der Abbildung 5.8 ist der
zeitliche Verlauf der Multiplikatoren resultierend aus historischer Simulation
(Ansatz 1), historischer Volatilit~t (Ansatz 2), GARCH-Modell (Ansatz 8) und
CAViaR-Modell (Ansatz 9) dargestellt.
Der Verlauf des Multiplikators basierend auf der historischen Simulation zeigt,
dass dutch die H~ufungen der Backtesting-Ausnahmen einige Quartale mit einem
erhShten Multiplikator belegt werden. Mit Ausnahme des 3. Quartals 2001 kommt
es bis zum 2. Quarta12002 zu Anhebungen des Multiplikators. Nach der Definition
der Basel II-Kriterien wird aufgrund dieser Ergebnisse die Ampellogik in den
betreffenden Quartalen auf Gelb gesetzt. Beim Ansatz 2, basierend auf der
historischen Volatilit~t, kommt es ebenfalls zu mehreren deutlichen ErhShungen
des Multiplikators. Das CAViaR-Modell schneidet in diesem Vergleich giinstig ab,
da keine Anhebung des Multiplikators resultiert.
In dem sp~ter folgenden tabellarischen Vergleich aller vorgestellten Ans~tze ist es
als Kriterium erstrebenswert, den Multiplikator im Zeitverlauf mSglichst gering
zu halten. Allerdings kann dieses Kriterium nur in gemeinsamer Betrachtung

123

5.2. ANWENDUNG DER ALTERNATIVEN ANSATZE

Historische

Simulation

Historische

(1)

Volatilit~t

(2)

oo
r

o0

O3

2001

2002

2003

2004

GARCH-Modell

o3

'

2001

2002

2003

2004

CAViaR-Modell

(8)

(9)

oo

oo

.=_

u
-5

2001

2002

2003

2004

2001

2002

2003

2004

Abbildung 5.8" Vergleich der Multiplikatoren fiir den Euro Stoxx Index
mit der resultierenden Eigenkapitalanforderung herangezogen werden; denn es
ist denkbar, einen Ansatz zu finden, der sehr konservative Quantilsprognosen
vornimmt und damit wenige Backtesting-Ausnahmen hervorbringt. Aus Sicht des
Finanzinstituts kann die alleinige Betrachtung des resultierenden Multiplikators
nicht zielfiihrend sein, da die konservativen Quantilsprognosen gegebenenfalls zu
vergleichbar hohen Eigenkapitalanforderungen fiihren.
Die weitere Komponente zur Berechnung der Eigenkapitalanforderung ist der
10-Schritt Value-at-Risk, der auf den 10-Schritt Quantilsprognosen basiert. Diese
prognostizierten Quantile sind fiir die vier Ans~tze des Vergleichs der Abbildung
5.9 zu entnehmen. Der Verlauf der 10-Schritt Quantilsprognose der historischen
Simulation entsteht durch die Nutzung des Bootstrap-Verfahrens zur Simulation
der 10-Schritt Renditen. Bei der historischen Simulation und der historischen
Volatilit~t mit Normalverteilungsannahme ist erkennbar, dass in Analogie zu den
1-Schritt Prognosen nicht schnell genug auf Ver~nderungen der Charakteristika
der Renditezeitreihe reagiert wird.

124

KAPITEL 5. EMPIRISCHE VERGLEICHSSTUDIE

Historische Simulation (1)

Historische VolatiliUit (2)

,r

._._=
e-

~r--

d
"O
r-

....,
r

e0~

,d
I

2000

2002

2004

2000

GARCH-Modell (8)

2002

2004

CAViaR-Modell (9)

d
m

2000

2002

2004

2000

2002

2004

Abbildung 5.9: 10-Schritt Quantilsprognosen fiir den Euro Stoxx Index


Die 10-Schritt Quantilsprognosen des GARCH-Modells lassen schnellere und
deutlichere Anpassungen erkennen. Als Beispiel kann die Anpassung auf den
11. September 2001 herangezogen werden. Hier ist die Anpassung auf die
folgende Phase geringerer Schwankungsbreite erkennbar. Beim CAViaR-Modell
resultieren die 10-Schritt Quantilsprognosen aus der Skalierung der 1-Schritt
Quantilsprognosen, sodass die Struktur der 1-Schritt Prognosen erhalten bleibt.
Um den Bezug zu dem Kursverlauf des Euro Stoxx Index herzustellen, werden in
der Abbildung 5.10 die 10-Schritt Value-at-Risk Prognosen der Ans~itze historische
Simulation (Ansatz 1), historische Volatilit/it (Ansatz 2), GARCH-Modell (Ansatz
8) und CAViaR-Modell (Ansatz 9) verglichen. Diese 10-Schritt Value-at-Risk
Prognose resultiert aus der 10-Schritt Quantilsprognose und dem jeweiligen
Kursniveau des Euro Stoxx Index. Dabei ist ein /ihnlicher Verlauf der Ans~itze
historische Simulation und historische Volatilit~it erkennbar. Das GARCH-Modell
und das CAViaR-Modell unterscheiden sich hingegen durch die hShere Variabilit/it
deutlich von den beiden anderen Ans~itzen.

125

5.2. ANWENDUNG DER ALTERNATIVEN ANSfi, TZE

Historische Volatilitlit (2)

Historische Simulation (1)

a:

>

>

==
tr

r-

(/3
TO
cd

O
I

2001

2002

2003

2004

2001

2002

2003

2004

CAViaR-Modell (9)

G A R C H - M o d e l l (8)

>
O

2001

2002

2003

2004

2001

2002

2003

2004

Abbildung 5.10" 10-Schritt Value-at-Risk fiir den Euro Stoxx Index


Gem~I~ der Basel II-Anforderungen l~st sich als letzter Schritt die
Eigenkapitalanforderung der vier Ans~tze im Zeitverlauf berechnen. Hierzu dient
die Berechnungsvorschrift aus dem Abschnitt 2.4.3. Dabei wird das Maximum aus
der letzten 10-Schritt Value-at-Risk Prognose und dem Mittelwert der letzten 60
Prognosen des 10-Schritt Value-at-Risk multipliziert mit dem Multiplikator als
Eigenkapitalanforderung festgelegt. In der Regel entspricht das Maximum dem
Mittelwert der Value-at-Risk Prognosen multipliziert mit dem Multiplikator, da
die aktuelle Value-at-Risk Prognose nicht mehr als das Dreifache des Mittelwerts
betr~gt.
Daraus resultiert der gegl~ttete Verlauf der Eigenkapitalanforderung in Abbildung
5.11. Die Eigenkapitalanforderungen der Ans~itze weisen im 2. Halbjahr 2003
und zu Beginn des Jahres 2004 deutlich geringere Werte auf. Damit wird
die verringerte Risikosituation des Euro Stoxx Index beachtet. Insgesamt
weisen die Eigenkapitalanforderungen resultierend aus dem GARCH-Modell
und dem CAViaR-Modell eine hShere Variabilit~t auf. Dabei gehen die

126

KAPITEL 5. EMPIRISCHE VERGLEICHSSTUDIE

Historische Simulation (1)

o
04

Historische Volatilittt (2)

04
,t-

o
c0

o
00

o
I

2001

2002

2003

2004

2001

2002

2003

2004

GARCH-Modell

(8)

CAVlaR-Modell

o04

o
co

o
(,o

(9)

k/

2001

2002

2003

2004

2001

2002

2003

2004

Abbildung 5.11" Eigenkapitalanforderungen fiir den Euro Stoxx Index


Eigenkapitalanforderungen in Phasen geringerer Risiken starker zuriick. Ein
Beispiel hierfiir ist die erste H~ilfte des J ahres 2002.
Generell fiihrt eine hShere Eigenkapitalanforderung zu hSheren Kapitalkosten
oder zur Beschr~inkung des Handlungsspielraums. Daher kommt insbesondere der
Analyse der Backtesting-Ausnahmen als Indikator fiir die Qualit~it des Ansatzes
und der HShe der Eigenkapitalanforderungen im Zeitverlauf beziehungsweise der
durchschnittlichen Eigenkapitalanforderung eine besondere Bedeutung zu.
Der Vergleich der alternativen Value-at-Risk Ans~itze soll im Folgenden
durch
tabellarische
Zusammenstellung
der
wesentlichen
Kriterien
fortgefiihrt werden. Dabei werden die Anzahl der Backtesting-Ausnahmen
(Ausn.), der durchschnittliche Multiplikator (Mult.), die durchschnittliche
Eigenkapitalanforderung (EKA), die Anzahl der Quartale in gelber Zone (GZ)
beziehungsweise roter Zone (RZ) und der Funktionswert der Quantilsregression
ftir die 1-Schritt Prognose (QR) verglichen.

5.2. ANWENDUNG DER ALTERNATIVEN ANSJ~TZE

127

Die Analyse beginnt mit der Auswertung der Ans/itze hinsichtlich der Zeitreihe
des Euro Stoxx Index. In der Tabelle 5.2 werden die Ergebnisse der 14 alternativen
Value-at-Risk Ans/itze dargestellt. Die Ans/itze werden, wie schon angesprochen,
mit einer unterschiedlichen L/inge der Historie betrachtet.
Zum Vergleich der Ans/itze soll zun/ichst die Qualit/it der Value-at-Risk
Prognosen herangezogen werden. Dazu wird die Anzahl der 1-Schritt
Backtesting-Ausnahmen genutzt, da sich die 1-Schritt Prognose im Vergleich
zur Mehr-Schritt Prognose besser evaluieren 1/isst. Die Grfinde hierffir sind die
Konstanz der Gewichtungsfaktoren im Hinblick auf ein Portfolio, die fiber einen
kurzen Zeitraum eher gegeben ist, sowie die MSglichkeit der Verwendung einer
groigen Anzahl fiberlappungsfreier Prognosen. Bei 1174 Prognosen und c~ 0, 01 sollten rechnerisch circa 12 Backtesting-Ausnahmen resultieren. Auftretende
Abweichungen von dieser ZielgrStge offenbaren Schw/ichen des jeweiligen Ansatzes.
Um einen geeigneten Filter zur ersten Beurteilung zu setzen, werden die Ans/itze
n/iher betrachtet, die 11 bis 13 Backtesting-Ausnahmen produzieren.
Ffir den Euro Stoxx Index erffillen vier Ans/itze diesen Anspruch. Die
betreffenden Ans~tze sind durch den Fettdruck der entsprechenden Anzahl
an Backtesting-Ausnahmen hervorgehoben. Der durchschnittliche Multiplikator
sollte mSglichst gering sein. Allerdings steht diese Kennzahl in starker
Abh/ingigkeit zu der Anzahl der Backtesting-Ausnahmen. Daher ist es sinnvoll,
als n/ichstes Auswahlkriterium die durchschnittliche Eigenkapitalanforderung zu
verwenden. Von den vier selektierten Ans~tzen werden daher die drei Ans/itze
mit den geringsten durchschnittlichen Eigenkapitalanforderungen ausgew/ihlt und
in der Tabelle hervorgehoben. Bei diesen drei Ans/itzen handelt es sich um
das GARCH-Modell mit Simulation der Renditeverteilung und Modellierung
der standardisierten Residuen mit der GED-Verteilung (Ansatz 8), mit der
L/inge der Historie 1000 beziehungsweise 2000, und um das CAViaR-Modell mit
Berficksichtigung des symmetrischen Absolutwerts (Ansatz 9) mit einer Historie
von 2000 Handelstagen.
Diese drei ausgew/ihlten Ans/itze ffihren sowohl zur erwarteten Anzahl
an Backtesting-Ausnahmen als auch zu geringen durchschnittlichen
Eigenkapitalanforderungen. Der Ansatz 8 weist drei beziehungsweise vier Quartale
in der gelben Zone aus. Durch die quartalsweise Betrachtung ffihrt ein Quartal
mit mehr als vier Backtesting-Ausnahmen durch den Auswertungszeitraum eines
Jahres gegebenenfalls zu bis zu vier Folgequartalen mit erhShtem Multiplikator.
Daraus folgt, dass beispielsweise durch die Turbulenzen des 11. September 2001
bis zu vier Quartale in der gelben Zone resultieren kSnnen.

K A P I T E L 5. EMPIRISCHE VERGLEICHSSTUDIE

128
Ansatz

Hist.
!

1. Hist. Sire.

Ausn.
!

250
1000
2000
2. Hist. Vola.
250
1000
2000
3. Exp. Gl~itt.
250
4. Hist. Sire.
250
(heur. Gew.)
1000
2000
5. GARCH
1000
(Norm. Konst.)
2000
6. GARCH
1000
(Norm. AR(1))
2000
7. GARCH
1000
(Sim., Norm.)
2000
8. GARCH
1000
(Sim., GED)
2000
9. CAViaR
1000
(SAV)
2000
10. CAViaR
1000
(Adaptiv)
2000
11. CAViaR
1000
I
(AAV)
2000
12. CAViaR
1000
(AS)
2000
13. GARCH
1000
(Bootstrap)
2000
14. GARCH
1000
(Boot., EVT)
2000

Mult.
!

15
14

23
21
27

56
15
18
17
17
15
22
14
21
15
22
12
12
10
11
14
15
16
Z2
13
14
8
9
8
9

EKA

GZ

RZ

3.17
3.22
3.41
3.35
3.45
3.93
3.14
3.25
3.25
3.25
3.18
3.29
3.13
3.29
3.18
3.29
3.09
3.13
3.00
3.03
3.28
3.22
3.20
3.33
3.06
3.11
3.00
3.03
3.00
3.03

QR
!

103.66
94.12
82.11
108.25
97.40
89.23
91.05
104.59
104.66
104.73
90.12
89.97
93.28
95.61
94.33
94.05

92.28
90.70
92.10
91.93
113.67
111.49
100.18
99.94
92.46
93.52
94.62
92.81
94.50
92.86

'

5'

4
4
9
5
2
4

6
4
6
5
6
3
4 !
0
1
6
6
4
5
2
3
0
1
0
1

0
0
4
0
4
12
0

0
0
0
0
0
0
0
0
0
0
0
0
0
I
0
0
0
0
0
0

0.52
0.53
0.56
0.54
0.59
0.73
0.45
0.51
0.52
0.52
0.44
0.45
0.44
0.45
0.44
0.45
0.43
0.44
0.44 1
0.43
0.54
0.53
0.49
o.50
0.43
0.42
0.43
0.45
0.44
o.45

Tabelle 5.2" Ergebnisse der univariaten Analyse E u r o Stoxx

Ein weiteres wichtiges K r i t e r i u m ist die Anzahl der Q u a r t a l e in der roten Zone
(RZ). Ans~tze die Q u a r t a l e in der roten Zone aufweisen, kSnnen als u n z u v e r l ~ s i g
eingestuft werden.

Die Konsequenz hieraus ist, dass die jeweilige nationale

AufsichtsbehSrde eine .ii,n d e r u n g des Modells vom betreffenden F i n a n z i n s t i t u t


fordert

(vgl. A b s c h n i t t

2.4.5). D a r a u s

folgt, dass die betreffenden

Ans~tze

abgelehnt werden sollten. Dieses wird in der tabellarischen A u s w e r t u n g durch


den K u r s i v d r u c k der Anzahl der Q u a r t a l e in roter Zone und der Anzahl der
B a c k t e s t i n g - A u s n a h m e n der betreffenden Ans~itze hervorgehoben. Ffir den E u r o
Stoxx Index fallen die historische Simulation (Ansatz 1) mit einer Historie von
2000 Handelstagen, die historische Volatilit~t (Ansatz 2) mit der L~nge der

5.2. ANWENDUNG DER ALTERNATIVEN ANSfi.TZE

129

Historie 1000 beziehungsweise 2000 und das CAViaR-Modell mit Beriicksichtigung


des asymmetrischen Absolutwerts (Ansatz 11) mit einer Historie von 2000
Handelstagen auf. Diese Ans~tze liefern Quantilsprognosen, die nicht akzeptabel
sind.
Die Anhebung des Multiplikators aufgrund der Anzahl der Quartale in gelber oder
roter Zone ffihrt zu hSheren Eigenkapitalanforderungen (vgl. Abschnitt 2.4.5).
Allerdings ist ersichtlich, dass einige Ans~tze trotz zahlreicher Quartale in gelber
oder toter Zone geringere durchschnittliche Eigenkapitalanforderungen erreichen
als Ans~tze mit einer zufriedenstellenden Anzahl an Backtesting-Ausnahmen.
Ein Beispiel hierffir ist die historische Volatilit~t (Ansatz 2) mit einer L~nge
der Historie yon 2000 Handelstagen. Obwohl zwei Quartale in gelber Zone und
zwSlf Quartale in roter Zone vorliegen, resultiert eine geringe durchschnittliche
Eigenkapitalanforderung. Die Anhebung des Multiplikators ist nicht deutlich
genug, um die unzuverl~sigen anti-konservativen Quantilsprognosen zu
kompensieren. Letztlich greifen in diesem Fall die Basel II-Kriterien, da aufgrund
der Anzahl der Quartale in roter Zone eine ,ii,nderung des Modells unausweichlich
ist.
Die Kennzahl QR ist bei den drei ausgew~hlten Ans~tzen mit zufriedenstellender
Anzahl an Backtesting-Ausnahmen vergleichsweise gering. Dieses spricht ffir
eine gute Qualit~t des Ansatzes, da dieses Kriterium dutch die Summation der
asymmetrisch gewichteten absoluten Abweichungen der Quantilsprognose von
der Renditezeitreihe die Gfite der getroffenen Quantilsprognosen bewertet. Die
historische Simulation und die historische Volatilit~t weisen bei diesem Kriterium
deutlich hShere Werte auf. Der Grund daffir liegt in der langsamen Reaktion der
Ans~tze auf Ver~nderungen der Charakteristika der Renditezeitreihe.
Die historische Simulation stellt den am h~ufigsten verwendeten Ansatz in der
Praxis dar. Die in der Tabelle dargestellte Variante zeigt ein eher positives Bild
hinsichtlich der Eigenkapitalanforderung. Die aufgeffihrten Werte resultieren aus
der Simulation der kumulierten 10-Schritt Renditeverteilung aus der Summation
der gezogenen 1-Schritt Renditen (vgl. Abschnitt 2.5.2). Hingegen folgen bei der
Simulation der Renditeverteilung aus den vorab gebildeten empirischen 10-Schritt
Renditen weitaus hShere Eigenkapitalanforderungen, wobei die anderen Kriterien
gleich bleiben. Bei einer Historie von 250 Tagen resultiert statt 103,66 der
Weft 111,36, mit der Historie von 1000 Tagen statt 94,12 der Wert 119,03
und bei 2000 Tagen der Wert 101,90 statt der angegebenen 82,11. Daraus
folgt, dass bei der Wahl der in diesem Kriterium ungiinstigsten Methode eine
Eigenkapitalanforderung yon 119,03 resultiert. Im Vergleich dazu folgt aus dem

K A P I T E L 5. EMPIRISCHE VERGLEICHSSTUDIE

130
Ansatz

Hist.

Ausn.

Mult.

'

250

17 ii 3 . 2 4
14 i 3.22
24
3.43
24
3.51
30 3.57
45 3.83
22
3.36
16
3.15
15
3.24
14 | 3.15
24
3.40
25
3.44
24
3.43
24
3.40
24
3.40
25
3.44
18
3.27
16
3.13
10
3.03
14
3.17
12
3.23
12
3.17
12
3.06
15
3.16
14
3.03
15
3.03
12
3.08
13
3.10
13
3.13
12
3.08

1000
2000
2. Hist. Vola.
250
i 1000
2000
3. Exp. Gl~itt.
250
4. Hist. Sire.
250
(hear. Gew.)
1000
2000
|
5. GARCH
1000
(Norm. Konst.) 2000
6. GARCH
1000
(Norm. AR(1))
2000
7. GARCH
1000
(Sim., Norm.)
2000
8. GARCH
1000
(Sire., GED)
2000
9. CAViaR
1000
(SAV)
2000
10. CAViaR
1000
(Adaptiv)
2000
11. CAViaR
1000
(AAV)
2000
12. CAViaR
1000
(AS)
2000
13. GARCH
1000
(Bootstrap)
2000
14. GARCH
1000
(Boot., EVT)
2000

EKA

r. i . Hist. Sire.

GZ
!

101.76
95.04
87.36
110.24
102.81
92.30
100.87
96.88
100.22
96.90
99.43
98.06
106.46
102.08
103.43
102.58
101.58
95.86
102.26
104.64
115.17
108.69
97.96
97.27
96.85
93.35
96.63
97.54
98.27
97.22

RZ
!

7
3
5
I0
9
6
10
4
7
4
11
11
11
11
11
11
8
4

0
1
3
1
3
8
0
0
o
o
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0

QR

0.50
0.52
O.54
0.54 ii
0.58
0.69
0.48
0.50
0.50
0.49
0.47
0.48
0.47
O.48
0.47
0.48
0.45
0.46
0.44
0.44
0.54
0.52
0.45
0.45
0.44
0.43
0.44
0.46
0.44
0.46

Tabelle 5.3: Ergebnisse der univariaten Analyse Basic Materials

G A R C H - A n s a t z 8 ein Wert von 90,70. Dies entspricht einer R e d u k t i o n der


durchschnittlichen E i g e n k a p i t a l a n f o r d e r u n g um 24 %.
Die

gleiche

Zeitreihe

Vorgehensweise

des

Indizes

Quantilsprognosen
Basic

Materials

nach

dem

Basic

zur

Evaluation

Materials

der

Ans~tze

angewendet.

Die

beziehungsweise Value-at-Risk P r o g n o s e n
sind

Kriterium

in

der

Anzahl

Tabelle
der

5.3

zusammengestellt.

Backtesting-Ausnahmen

wird

mit

Ergebnisse
fiir den
Die
ffihrt

der
der
Index

Selektion
zu

drei

CAViaR-Ans~tzen und vier GARCH-Anstitzen. Die Zeitreihe des Indizes Basic


Materials scheint C h a r a k t e r i s t i k a aufzuweisen, die schwer von den p a r a m e t r i s c h e n
G A R C H - A n s t i t z e n abgebildet werden kSnnen. Die semi-parametrischen Anstttze

5.2. ANWENDUNG DEFt ALTERNATIVEN ANSfi, TZE

131

13 und 14 fiihren unter Verwendung des Bootstrap-Verfahrens beziehungsweise


zus~itzlich

der

Extremwerttheorie

zu

besseren

Resultaten.

Anhand

der

durchschnittlichen Eigenkapitalanforderung ergeben die folgenden drei Ans~itze


die geringsten Werte: Ansatz 13 mit Bootstrap-Verfahren (Historie yon
1000 und 2000 Handelstagen) und Ansatz 14 unter Berficksichtigung der
Extremwerttheorie. Die ausgew~ihlten Ans~itze weisen zus~itzlich geringe Werte
bei dem durchschnittlichen Multiplikator und der Kennzahl QR aus. Bei der
Betrachtung der Anzahl der Quartale in der roten Zone fallen wiederum die
historische Simulation (Ansatz 1) und die historische Volatilit~it (Ansatz 2) durch
negative Ergebnisse auf.
Die Ergebnisse der Analysen mit dem Index Cyclical Goods sind der
Tabelle 5.4 zu entnehmen. Die drei Ans~tze mit zufriedenstellender Anzahl
an Backtesting-Ausnahmen und geringer Eigenkapitalanforderung sind der
GARCH-Ansatz 8 mit Simulation und GED-Verteilung und der CAViaR-Ansatz
12 mit asymmetrischer Anpassung auf die Rendite der Vorperiode mit
einer Historie von 1000 beziehungsweise 2000 Handelstagen. Bei diesem
Sektoren-Index wird deutlich, dass die parametrischen GARCH-Ans~itze eher
dazu neigen, die angestrebte Anzahl an Backtesting-Ausnahmen zu/ibertreffen.
Die semi-parametrischen GARCH-Ans~itze fiihren hingegen tendenziell zu
Unterschreitungen der angestrebten Anzahl. Daraus kann geschlossen werden,
dass die semi-parametrischen Ans~itze eher zu konservativen Quantilsprognosen
fiihren. Dies folgt aus der Kombination der GARCH-Modellierung der
Volatilit~it mit der Simulation aus den gesch~itzten standardisierten
Residuen. Die semi-parametrischen GARCH-Ans~itze fiihren zu einem
optimalen durchschnittlichen Multiplikator, weisen aber im Vergleich hShere
durchschnittliche Eigenkapitalanforderungen aus.
Bei der Analyse der Ergebnisse der parametrischen GARCH-Ans~itze 5, 6 und
~' ~?"'~l~-~'auf,--cta,s~:-o~d Un~ei'~cdma~" amse~ drel ,4itsa~z'e 1~' vve~htllcneh in
der HShe der durchschnittlichen Eigenkapitalanforderung liegen. Beim Ansatz
6 resultiert aus der Beachtung des autoregressiven Terms in der 10-Schritt
Volatilit~tsprognose eine hShere durchschnittliche Eigenkapitalanforderung im
Vergleich zum Ansatz 5. Der Ansatz 7 ffihrt ebenfalls zu hSheren Werten in diesem
Kriterium, welches durch die Simulation der kumulierten Renditeverteilung zu
begrfinden ist.
Auch ffir den Index Cyclical Goods wird deutlich, dass die HShe der
Anhebungen des Multiplikators, ausgehend vom Ausgangswert 3, gegebenenfalls
nicht ausreichend ist. Insbesondere die beiden Ans~tze historische Simulation

K A P I T E L 5. EMPIRISCHE VERGLEICHSSTUDIE

132
Ansatz

Hist.

1. Hist. Sim.

250
1000
2000
250
1000
2000
250
250
1000
2000
1000
2000
1000
2000
1000
2OOO
1000
2000
1000
20OO
1000
2000
1000
2000
1000
2O00
1000
2000
1000
2O00

2. Hist. Vola.

3. Exp. Gl~itt.
4. Hist. Sim.
(heur. Gew.)
5. GARCH
(Norm. Konst.)
6. GARCH
(Norm. AR(1))
7. GARCH
(Sire., Norm.)
8. GARCH
(Sire., GED)
9. CAViaR
(SAV)
10. CAViaR
(Adaptiv)
11. CAViaR
(AAV)
12. CAViaR

(AS)
13. GARCH
(Bootstrap)
14. GARCH
(Boot., EVT)

Ausn.

Mult.

EKA

17
17
26
21
34

3.23
93.77
3.25
84.29
3.45
72.64
3.28
95.25
3.61
90.91
56 3.89
77.44
15
3.07
78.96
14
3.09
87.46
16
3.15
89.36
13
3.09
87.44
14
3.21
83.47
16
3.21
79.44
14
3.21
87.60
17
3.24
84.39
14
3.21
87.94
16
3.21
84.08
8
3.00
82.15
11
3.03
80.18
8 ! 3.00
81.11 !
11
3.03
81.39
14
3.22
92.54
17
3.25
92.02
12
3.00
85.94
28
3.46 i 86.98
13
3.01
79.35
13
3.03
79.37
8
3.00
86.25
7
3.00
83.25
5
3.00
86.32
7
3.00
83.34 i
,

GZ

RZ

QR

7
0 0.55
6
0 0.55
5
4 0.59
5
1 0.58
3
7 0.63
4
10 0.82
2
0 0.52
3
0 0.58
5
0 0.57
3
0 0.57
6
0 0.50
6
0 0.50
6 i 0 0.50
6
0 0.50
6
0 0.50
6
0 0.50
0
0 0.49
1
0 0.50
0
0 0.51
1
0 0.51
5
0 0.57
6
0 i 0.56
0
0 0.52
7
2 0.58
1 Ii 0 0.51
1
0 0.49
0
0 0.49
0
0 0.50
0
0 0.50
0
0 0.50
i

T a b e l l e 5.4' E r g e b n i s s e der u n i v a r i a t e n A n a l y s e Cyclical G o o d s

(Ansatz
von

1) u n d historische Volatilit~it ( A n s a t z 2), jeweils m i t einer Historie

2000

Handelstagen,

weisen

trotz

unzuverl~siger

Quantilsprognosen,

e r k e n n b a r an der A n z a h l der Q u a r t a l e in r o t e r Zone, geringe d u r c h s c h n i t t l i c h e


E i g e n k a p i t a l a n f o r d e r u n g e n aus.
Fiir den F i n a n c i a l Services I n d e x erreichen elf Ans~itze eine z u f r i e d e n s t e l l e n d e
A n z a h l an B a c k t e s t i n g - A u s n a h m e n . Die b e t r e f f e n d e n A n s ~ t z e sind in der T a b e l l e
5.5 h e r v o r g e h o b e n .
Die drei A n s ~ t z e m i t der g e r i n g s t e n d u r c h s c h n i t t l i c h e n E i g e n k a p i t a l a n f o r d e r u n g
der elf Ans/itze aus der V o r a u s w a h l sind der G A R C H - A n s a t z 8 m i t S i m u l a t i o n

5.2. ANWENDUNG DER ALTERNATIVEN ANSATZE


Ansatz

Hist.
1

Ausn.
|

Mult.
|

1. Hist. Sire.

250
1000
2000
2. Hist. Vola.
250
1000
2000
3. Exp. Gl~itt. iI 250 .
4. Hist. Sire.
250
(heur. Gew.)
1000
2000
5. GARCH
1000
(Norm. Konst.)
2000
6. GARCH
1000 ~
(Norm. AR(1))
2000
7. GARCH
1000
(Sim., Norm.)
2000
8. GARCH
1000
(Sim., GED)
2000
}00
9. CAViaR
1000
2000
(SAV)
1000
10. CAViaR
(Adaptiv)
2000
1000
11. CAViaR
2000
(AAV)
1000
12. CAViaR
2000
(AS)
13. GARCH
1000
(Bootstrap)
2000
14. GARCH
1000
(Boot., EVT)
2000

EKA
|

133

GZ

RZ[

15
3.20
139.48
12 i 3.18
129.42
18
3.34
111.83
26
3.57
151.92 J
27
3.51
135.55
~{8
3.84 ' 119.41
19
3.27
.
.
. 127.77
.
.
13
3.03
129.50
12
3.03
130.26
13
3.15
135.51
15
3.18
120.61
17
3.26
121.60
15
3.18
126.31
16
3.25
129.35
15
3.18
127.36
17
3.26
127.53
11 i 3.14
128.71
11
3.14
125.39
12
3.03
130.64
12
3.13
137.63
12
3.24
160.40
13
3.21
163.71
15 , 3.19
136.94
15
3.14
126.89
16
3.17
133.431
16
3.18
130.53
9
3.11
134.78
9
3.12
132.06
10
3.12
135.34
11
3.14
133.45

QR
!

6
0 0.64
4
0 0.66
8
0 0.68
9
2 0.70
6
~{ 0.73
5
9 i 0.90
6
0 0.58
1
0 0.64
1
0 0.64
5
0 0.64
4
0 0.55
6
0 0.57
4
0,0.55
6
0 0.57
4
0 0.55
6
0 0.57
4
0 0.55
4
0 0.57
1
0 0.53
4
0 0.55
6
0 i0.69
4
0 0.66
4
0 0.56
4
0 0.56
5 ! 0 0.54
5
0 0.54
4
0 0.55
4
0 0.59
4
0 I 0.55
4
00.58

T a b e l l e 5.5: E r g e b n i s s e der u n i v a r i a t e n A n a l y s e F i n a n c i a l Services

und

GED-Verteilung

mit

der

L~inge des h i s t o r i s c h e n

b e z i e h u n g s w e i s e 2000 H a n d e l s t a g e n

Zeitfensters

von

1000

u n d die historische S i m u l a t i o n m i t einer

Historie von 1000 H a n d e l s t a g e n .


Die

CAViaR-Ans~itze,

hohen

insbesondere

Eigenkapitalanforderungen.

der

Anhand

Ansatz
dieses

10,

fiihren

zu

Beispiels ist das

relativ
sinnvolle

Z u s a m m e n s p i e l der ausgewiihlten K e n n z a h l e n zur B e w e r t u n g der Ans/itze zu


erkennen.

Der A n s a t z

10 m i t einer L~inge der Historie von 1000 u n d

2000

H a n d e l s t a g e n erzielt eine z u f r i e d e n s t e l l e n d e A n z a h l an B a c k t e s t i n g - A u s n a h m e n .
Die

hohe

Eigenkapitalanforderung

ist

auf

konservative

Quantilsprognosen

zuriickzufiihren. Die K e n n z a h l Q R best/itigt diese Aussage. Die W e r t e 0,69 u n d

134

KAPITEL 5. EMPIRISCHE VERGLEICHSSTUDIE

0,66 sind im Vergleich zu den alternativen Ans~itzen relativ hoch. Dieses kann auf
die langsame Reaktion der zudem konservativen Quantilsprognosen zuriickgeffihrt
werden. Die Beachtung der Kombination der ausgew~hlten Kriterien weist auf die
ungfinstigen Eigenschaften des Ansatzes hin.
Ein weiterer interessanter Sachverhalt wird insbesondere bei dem Sektoren-Index
Financial Services deutlich. Die Variation der verwendeten Historie ffihrt bei der
historischen Simulation (Ansatz 1) zu einer deutlichen Wirkung auf die HShe
der Eigenkapitalanforderung. Durch die grS~ere L~nge des Zeitfensters kommt
es zur Beriicksichtigung der Beobachtungen der Renditezeitreihe, die in diesem
Fall aus ruhigeren Phasen mit geringerem Risiko aus den ersten Jahren des
Betrachtungszeitraums stammen. Dieses geringe Risiko friiherer Jahre ffihrt zu
einer deutlich geringeren Eigenkapitalanforderung. Daraus folgt, dass bei der
historischen Simulation die L~nge der Historie als wesentlicher beeinflussender
Faktor auftritt. Sowohl die Anzahl der Backtesting-Ausnahmen als auch die HShe
der Eigenkapitalanforderung h~ngen vonder langfristigen Zu- oder Abnahme des
Marktrisikos ab. Die Betrachtung der Historie von 250 Handelstagen fiihrt bei
allen betrachteten Indizes zu relativ hohen Eigenkapitalanforderungen. Diese hohe
Abh~ngigkeit vonder L~nge der Historie ist bedenklich.
Die GARCH-Ans~tze weisen dagegen in der Regel wesentlich geringere
Unterschiede zwischen der Beachtung der Historie von 1000 oder 2000
Handelstagen aus. Damit sind die GARCH-Ans~tze robuster gegeniiber der
Variation der L~nge der Historie. Wenn dabei eine zufriedenstellende Anzahl an
Backtesting-Ausnahmen und geringe Eigenkapitalanforderungen resultieren, ist
diese Eigenschaft vorteilhaft.
In der Tabelle 5.6 sind die Ergebnisse der Analysen fiir den Sektoren-Index
Industrial Goods zusammengestellt. Sechs Ans~tze erreichen zufriedenstellende
Ergebnisse bei der Anzahl an Backtesting-Ausnahmen. Bei der Berficksichtigung
der HShe der Eigenkapitalanforderungen setzen sich zwei GARCH-Ans~tze
und der Ansatz der historischen Simulation mit Gewichtungsfaktoren aufgrund
geringer Eigenkapitalanforderungen durch. Bei dem GARCH-Ansatz handelt es
sich um den Ansatz 8 mit Simulation und GED-Verteilung mit einer Historie von
1000 und 2000 Handelstagen. Die historische Simulation mit Gewichtungsfaktoren
(1000 Tage Historie) fiihrt zu deutlich hSheren Eigenkapitalanforderungen,
was auf konservative Quantilsprognosen schliet~en l~st. Beim Sektoren-Index
Industrial Goods wird wiederum deutlich, dass die semi-parametrischen
GARCH-Ans~tze 13 und 14 tendenziell konservativere Quantilsprognosen
abgeben als die parametrischen GARCH-Ans~tze.

5.2. A N W E N D U N G D E R A L T E R N A T I V E N ANSfi, T Z E
Ansatz

Hist.

Ausn.

Mult.

EKA

GZ

1. Hist. Sim.

250
1000
2000
250
1000
2000
250
250
1000
2000
1000
2000
1000
2000
1000
2000
1000
2000

15
13
17
24
23
5O
16
12
II
I0
14
19
14
18
14
19
11
12

3.17
3.17
3.25
3.25
3.26
3.79
3.17
3.06
3.00

92.50
87.24
73.16
93.03
85.53
77.84
75.53
84.26

1
1
3
3
2
4
5

20OO
1000
20O0
1000
20OO
1000
200O
1000
20001
1000

7
8
13
10
23
7
10
9
9
8
9

2. Hist. Vola.

3. Exp. Gl~itt.
4. Hist. Sim.

(heur. Gew.)
5. GARCH
(Norm. Konst.)
6. GARCH
(Norm. AR(1))
7. GARCH
(Sim., Norm.)
8. GARCH
(Sim., GED)
9. CAViaR

(SAV)
10. CAViaR
(Adaptiv)
11. CAViaR
(AAV)
12. CAViaR
,

(AS)
13. GARCH

(Bootstrap)
14. GARCH
(Boot., EVT)

82.48

82.50
3 11
75.70
3 24 , 74.88
i
3 11
77.87
76.31
318
311
79.13
3.24
78.73
77.40
3.00
75.34
3.06
3.00
83.62
3.00
82.07
3.06
96.03
3.17 102.40
3.10
99.89
3.19
89.67
3.OO
81.83
3.00
79.54
3.00
83.61
3.00
79.56
3.00
83.57
a.O0 ] 79.75

135
RZ : QR
g
g
g
g
3
9
0
0
0
0
0
0
0

0
0
0
2
0
2
0
0
0
0
0
0

0.52
0.53
0.57
0.56
0.60
0.72
0.49
0.50
0.50
0.50
0.49
0.50
0.49
0.50
0.49
0.50
0.49
0.50
0.49
0.49
0.50
0.53
0.53
0.59
0.49
0.48
0.49
0.50
0.50
0.50

Tabelle 5.6" Ergebnisse der univariaten Analyse Industrial G o o d s

In dieser A u s w e r t u n g ist w i e d e r u m der Nachteil der Ans~itze ersichtlich, die


eher langsam auf Ver~inderungen der Renditezeitreihe reagieren. Die historische
Simulation

(Ansatz

CAViaR-Ansatz

1) mit

10 mit

einer Historie yon

1000 H a n d e l s t a g e n

einer Historie von 2000

Handelstagen

und

der

weisen eine

zufriedenstellende Anzahl an B a c k t e s t i n g - A u s n a h m e n aus. Allerdings geben beide


Ans~itze eher konservative Q u a n t i l s p r o g n o s e n ab, die langsam auf Ver~inderungen
reagieren, was sich an den vergleichsweise hohen E i g e n k a p i t a l a n f o r d e r u n g e n und
hohen W e r t e n der K e n n z a h l Q R zeigt. Trotz der konservativen Q u a n t i l s p r o g n o s e n
resultieren starke H~iufungen der B a c k t e s t i n g - A u s n a h m e n , welches zu jeweils zwei
Q u a r t a l e n in der roten Zone bei den beiden Ans~itzen ffihrt.

KAPITEL 5. EMPIRISCHE VERGLEICHSSTUDIE

136
Ansatz

Hist.

Ausn.

Mult. ! EKA

GZ

1. Hist. Sim.

I 250 '
[ 1000
2000
2. Hist. Vola.
250
1000
2000
3. Exp. Gl~,tt.
250
4. Hist. Sire.
' 250 I
(heur. Gew.)
1000
2000
5. GARCH
1000
(Norm. Konst.)
2000
6. G ARCH
1000
(Norm. AR(1))
2O00
7. GARCH
1000
(Sire., Norm.)
2000
8. GARCH
1000
(Sim., GED)
2000
9. CAViaR
1000
(SAV)
2000
10. CAViaR
1000
(Adaptiv)
2000
11. CAViaR
1000
(AAV)
2000
12. CAViaR
1000
(AS)
2000
13. GARCH
1000
(Bootstrap)
2000
14. GARCH
1000
(Boot., EVT)
2000 !
|

16
7
13
15
19

28
16
16
11
12
13
15
12
14
13
15
8
10
10
12
10
8
10
9
9
10
10
10
9
10

3.09
72.14
3.03
71.89
3.08
63.19
3.26
74.20
3.31
74.83
3.49
67.63
3.15
65.09
3.03
68.43
i
3.03 I 69.05
3.03
69.03
3.00
63.46
3.08
60.41
3.00
62.40
3.03
59.02
3.00
66.38
3.08
62.71
3.00
68.31
3.00
62.49
3.00
72.18
3.06
69.36
3.06
85.12
3.03
87.27
3.06
83.99
3.00
74.34
3.00
70.69
3.00
68.22
3.00
70.94
3.00
65.12
3.00
71.94
3.00
66.01

Rz
!

3
1
3
8
5
7
5
1
1
1
0

0R
i

0 0.44
0 0.44
0 0.45 l
0 0.45 i
2 0.45
3 0.49
0 O.4O
0 0.46
0 0.46
0 0.46
i
0 ! 0.38
0 0.39
0 0.38
0 0.39
0 0.38
0 0.39
0 0.39
0 o.4o
0 0.39 !
0 0.39
0 0.48 I
0 0.45
0 O.45
0 0.42
0 0.40
0 0.40
0 0.39
0 0.40
0 0.39
0 O.4O
!

3
0
1
0
3
0
0

0
2
2
1
2
0
0
0
0
0
0
0

Tabelle 5.7: Ergebnisse der u n i v a r i a t e n A n a l y s e Non-cyclical G o o d s

Die letzte

Auswertung

der

univariaten

Sektoren-Indizes

betrifft

den

Index

Non-cyclical G o o d s u n d ist in der Tabelle 5.7 dargestellt. Fiir diesen I n d e x


fiihren die GARCH-Ans~itze mit der A n n a h m e der N o r m a l v e r t e i l u n g fiir die
R e n d i t e z e i t r e i h e (Ans~itze 5 u n d 6) mit einer Historie von 1000 H a n d e l s t a g e n
sowohl zu einer z u f r i e d e n s t e l l e n d e n A n z a h l an B a c k t e s t i n g - A u s n a h m e n als auch zu
einer geringen E i g e n k a p i t a l a n f o r d e r u n g . A u c h die historische S i m u l a t i o n ( A n s a t z
1) mit einer Historie von 2000 H a n d e l s t a g e n erzielt a n h a n d dieser beiden K r i t e r i e n
g u t e Ergebnisse. Die beiden GARCH-Ans~itze iiberzeugen dabei zus~itzlich d u r c h
einen d u r c h s c h n i t t l i c h e n M u l t i p l i k a t o r in HShe von 3 u n d geringen W e r t e n bei
der K e n n z a h l QR.

5.2. A N W E N D UNG D E R A L T E R N A T I V E N ANSJ~TZE


Ansatz

Hist.

137

Mult.

EKA

GZ

RZ

3.05
3.06
3.26
3.30
25
3.35
,~
3.82
gl
3.35
14
3.10
11
3.00
11
3.03
16
3.16
2I
3.33
17
3.19
gg
3.33
16
3.16
gl
3.33
9
3.00
13
3.13
7
3.00
9
3.03
12
3.15
10
3.06
15
3.20
12
3.06
12
3.06
10
3.O0
9
3.00
9
3.00
6 ] 3.00
I
9
3.00

87.55
83.48
74.52
92.66
86.21
81.06
85.64
86.90
84.01
84.96

2
2
6
9
2
8
5
3
0
1

0
0
0
0
4
6
g
0
0
0

Ausn.

QR

1. Hist. Sim.

2. Hist. Vola.

3. Exp. Gl~itt.
4. Hist. Sim.
(heur. Gew.)
5. GARCH
(Norm. Konst.)
6. GARCH
(Norm. AR(1))
7. GARCH
(Sire., Norm.)
8. GARCH
(Sim., GED)
9. CAViaR
(SAV)
10. CAViaR
(Adaptiv)
11. CAViaR
(AAV)
12. CAViaR
(AS)
13. GARCH
(Bootstrap)
14. GARCH
(Boot. EVT)

250
1000
2000
250
1000
2000
250
250
1000
2000
1000
2000
1000
2000
1000
2000
1000
2000
1000
2000
1000
2000
1000
2000
1000
2000
1000
2000
1000
2000

11
10
16
19

. . . . . . .

!
!
i

]
]
i
i

79.95

o.42

80.37
81.19
81.93
84.36
84.87
81.03

6
4
6
4
6
0

1
0
1
0
1
0

81.38

86.30
86.32
101.69
102.95
96.21

0
1
4
2
6
2
2
0
0
0
0
0

0
0
0
0
0
0
0
0
0
0
0
0

0.43
0.42
0.43
0.42
0.43
0.42
0.43
0.41
0.42
0.55
0.50
0.47
0.44
0.42
0.43
0.43
0.44
0.43
0.44

83.95

0.50
0.50
0.52
0.51
0.54
0.64
0.45
0.50
0.50
0.51

85.88
83.77
87.26
83.97
87.20
84.02
.

Tabelle 5.8' Ergebnisse der univariaten Analyse des Portfolios

Zus/itzlich zu den fiinf Sektoren-Indizes und dem Euro Stoxx Index wird das
gewichtete Portfolio aus den fiinf Sektoren-Indizes b e t r a c h t e t . Das Portfolio wird
dabei gleichgewichtet zusammengesetzt, das heif, t jeder Sektoren-Index erh/ilt ein
Gewicht von 20%. Durch dieses Vorgehen wird eine im Zeitverlauf k o n s t a n t e
G e w i c h t u n g s s t r u k t u r erzielt, die im n/ichsten A b s c h n i t t 5.2.2 zum Vergleich
der u n i v a r i a t e n Ans/itze mit den m u l t i v a r i a t e n Ans/itzen verwendet wird. Die
Ergebnisse der Analysen sind der Tabelle 5.8 zu entnehmen.
Insgesamt erreichen sieben Ans~tze zur Analyse des gewichteten Portfolios eine
zufriedenstellende Anzahl an B a c k t e s t i n g - A u s n a h m e n . Die drei Ans~tze mit
geringer E i g e n k a p i t a l a n f o r d e r u n g sind: der Ansatz historische Simulation mit

138

KAPITEL 5. EMPIRISCHE VERGLEICHSSTUDIE

Gewichtungsfaktoren und 1000 Handelstagen Historie, der GARCH-Ansatz 8 mit


Simulation und GED-Verteilung mit einer Historie von 2000 Handelstagen und
der CAViaR-Ansatz 11 mit asymmetrischer Berficksichtigung des Absolutwerts
der Rendite mit einer Historie von 2000 Handelstagen.
Die exponentielle Gl~ittung kommt bei dieser Zeitreihe zu einer relativ
hohen Anzahl an Backtesting-Ausnahmen und zwei Quartalen in der roten
Zone. Die semi-parametrischen GARCH-Ans~itze gew~ihrleisten wiederum eher
konservative Quantilsprognosen, was an der relativ geringen Anzahl an
Backtesting-Ausnahmen erkennbar ist. Die parametrischen GARCH-Ans~itze mit
Normalverteilungsannahme und einer Historie von 2000 Handelstagen fallen durch
ein Quartal in der roten Zone auf.
Bei der Anwendung der historischen Simulation auf die vorab gebildeten 10-Schritt
Renditen zur Simulation der Renditeverteilung (vgl. Abschnitt 2.5.2) resultieren
im Gegensatz zu der in der Tabelle dargestellten Simulation aus den 1-Schritt
Renditen wesentlich hShere Eigenkapitalanforderungen. Bei der Historie von 250
Tagen resultiert ein Wert von 107,75 statt 87,55. Statt des Wertes 83,48 wird
der Wert 109,00 (1000 Tage Historie) und statt 74,52 der Wert 94,70 ermittelt.
Die Anwendung dieser Variante der historischen Simulation fiihrt folglich zu
wesentlich hSheren Eigenkapitalanforderungen.
Im n~chsten Abschnitt werden die multivariaten Ans~itze analysiert. Dabei werden
die fiinf Sektoren-Indizes multivariat modelliert. Das Ziel ist die Beantwortung der
Frage, ob die multivariate Betrachtungsweise durch Einbeziehung einer grS~;eren
Informationsmenge zu besseren Value-at-Risk Prognosen fiihrt. Zum Vergleich mit
den univariaten Ans~itzen werden die drei fiir das gewichtete Portfolio selektierten
univariaten Ans~itze herangezogen.
Zusammenfassend kann zur univariaten Analyse festgehalten werden, dass einige
der vorgestellten Ans~tze relativ langsam auf Ver~inderungen der Risikosituation
reagieren. Dazu gehSren die historische Simulation, die historische Volatilit~it und
der CAViaR-Ansatz 10 mit adaptiver Anpassung. In einigen F~illen kommt es bei
diesen Ans~itzen zu einer zufriedenstellenden Anzahl an Backtesting-Ausnahmen,
aber zu einer hohen durchschnittlichen Eigenkapitalanforderung und hohen
Werten der Kennzahl QR. Insbesondere die historische Volatilit~t fiihrt oftmals
zu einigen Quartalen in der roten Zone, woraus folgt, dass dieser Ansatz nicht
akzeptabel und eine .~nderung des Modells unausweichlich ist. Die exponentielle
Gl~ttung weist im Vergleich zu anderen Ans~itzen eine relativ hohe Anzahl an
Backtesting-Ausnahmen auf.

5.2. ANWENDUNG DER ALTERNATIVEN ANSATZE

139

Die parametrischen GARCH-Ans~tze kommen tendenziell zu einer hSheren


Anzahl an Backtesting-Ausnahmen, die semi-parametrischen GARCH-Ans~tze
ffihren dagegen eher zu einer geringeren Anzahl. Damit werden durch die
semi-parametrischen GARCH-Modelle konservative Quantilsprognosen getroffen.
Der GARCH-Ansatz mit Simulation und GED-Verteilung (Ansatz 8) stellt einen
guten Kompromiss dar. In ffinf der sieben univariaten Auswertungen findet sich
dieser Ansatz unter den drei ausgew~ihlten Ans~tzen wieder. In den beiden anderen
Auswertungen kommt der GARCH-Ansatz mit Simulation und GED-Verteilung
zu befriedigenden Resultaten.
Die CAViaR-Ans~tze bieten je nach Ausgestaltung ein gemischtes Bild.
Einige Ans~tze liefern gute Ergebnisse und finden sich bei den ausgew~hlten
Ans~tzen wieder. Die generelle Vorgehensweise der Quantilsregression liefert
eine flexible MSglichkeit der Ausgestaltung der Value-at-Risk Prognose. Dabei
muss angemerkt werden, dass die Anwendung der CAViaR-Ans~tze den grS~ten
Zeiteinsatz aufgrund der aufwendigen Optimierung der Zielfunktion verlangt.
Bei der Analyse der sieben Auswertungen f~llt kein CAViaR-Ansatz auf, der
wiederholt zu den selektierten drei Ans~tzen gehSrt.
Bei einigen Ans~tzen resultieren trotz zahlreicher Quartale in gelber
beziehungsweise roter Zone vergleichsweise geringe Eigenkapitalanforderungen.
Die HShe und die Anhebungen des Multiplikators reichen in diesen F~llen
nicht aus, um die unzuverl~sigen anti-konservativen Quantilsprognosen zu
kompensieren. Erfolgreiche Ans~tze mit alternativen Annahmen werden ebenso
wie Ans~tze die auf der Normalverteilung basieren mit dem Ausgangswert des
Multiplikators zur Festlegung der Eigenkapitalanforderung belegt. Hierdurch
besteht kein ausreichender Anreizmechanismus fiir Finanzinstitute, auf ein
angemesseneres Verfahren zu wechseln. Auf Grundlage dieser empirischen
Ergebnisse ist eine Uberarbeitung des Multiplikators zu empfehlen.
Ein weiterer wichtiger Punkt ist die Abh~ngigkeit des jeweiligen Ansatzes vonder
L~nge der verwendeten Historie. Die historische Simulation und die historische
Volatilit~t reagieren tendenziell stark auf die Variation der L~nge der Historie.
Die GARCH-Ans~tze reagieren dagegen vergleichbar wenig. Dieses ist ein Vorteil.
Die GARCH-Ans~tze und die CAViaR-Ans~tze stellen eine klare Bereicherung
des Spektrums an Value-at-Risk Ans~tzen dar. Durch ihren Einsatz lassen
sich Schw~chen der in der Praxis verwendeten Ans~tze vermeiden. In den
meisten Fallen resultieren in der empirischen Vergleichsstudie bessere Ergebnisse
hinsichtlich der getroffenen Value-at-Risk Prognosen.

140
5.2.2

K A P I T E L 5. EMPIRISCHE VERGLEICHSSTUDIE

Anwendung der multivariaten Ans~itze

Im vorangegangenen Abschnitt wurden neuere Ans~tze zur univariaten


Modellierung des gewichteten Portfolios analysiert, die gute Ergebnisse
hinsichtlich der Value-at-Risk Prognosen erzielen. Es ist mSglich, die Bestandteile
eines Portfolios zu aggregieren, indem mit den aktuellen Gewichtungsfaktoren eine
univariate Zeitreihe mit definierter L~nge der Historie gebildet wird. Durch diese
Aggregation der Portfoliobestandteile kann die Komplexit~it der Problemstellung
reduziert werden. Die univariaten Ans~itze erzielen fiir das gebildete Portfolio eine
zufriedenstellende Anzahl an Backtesting-Ausnahmen.
Mit diesem Fazit soll die vorliegende Arbeit allerdings nicht abschliei~en. Hingegen
wird in diesem Abschnitt die Fragestellung gekl~rt, ob sich die erzielten Ergebnisse
noch verbessern lassen. Die Ausweitung der empirischen Vergleichsstudie auf
die multivariaten Ans~itze kl~rt die Frage, ob gegebenenfalls die zus~tzliche
Information, die durch die multivariate Betrachtungsweise verwendet wird, zu
besseren Value-at-Risk Prognosen fiihrt. Hierzu werden ausgew~hlte multivariate
Ans~itze angewendet.
Als Datengrundlage dienen die fiinf Sektoren-Indizes. Diese Indizes kSnnen als
Bestandteile einer Anlagestrategie bezogen auf europ~ische Aktien angesehen
werden. Die aktuelle Gewichtung beriicksichtigt die fiinf Sektoren-Indizes
mit jeweils 20%. Diese gleichgewichteten Renditezeitreihen werden multivariat
modelliert, um letztlich Value-at-Risk Prognosen fiir das Portfolio abzugeben.
Um die Interdependenz zwischen den betreffenden Renditezeitreihen zu
modellieren, bieten sich die in Abschnitt 3.2 vorgestellten multivariaten
GARCH-Modelle an. Die fiir die Value-at-Risk Prognosen wesentliche Varianz
des Portfolios setzt sich aus den Varianzen der Portfoliobestandteile und
den Kovarianzen zwischen den Bestandteilen unter Beriicksichtigung der
Gewichtungsfaktoren w zusammen. Durch die explizite Modellierung der
zeitver~nderlichen Varianz-Kovarianz-Matrix Hi wird die Interdependenz
der Renditezeitreihen beachtet. Dabei werden gegebenenfalls Entwicklungen
prognostiziert, die bei univariater Modellierung nicht zu ermitteln w~iren.
Allein die Beachtung der separaten Volatilit~tsprognosen kSnnte Vorteile im
Vergleich zur ausschlief, lichen Volatilitiitsprognose fiir die aggregierte Zeitreihe
der Portfoliorenditen erbringen. Insbesondere die zeitver~nderliche Korrelation
zwischen den Portfoliobestandteilen, die in der Studie von Longin/Solnik
[74] nachgewiesen wird, kann durch die Modellierung der zeitver~nderlichen
Varianz-Kovarianz-Matrix beriicksichtigt werden.

5.2. ANWENDUNG DER ALTERNATIVEN ANSfi.TZE

141

0
I

1992

1994

1996

1998

2000

2002

2004

Abbildung 5.12: Korrelation zwischen Basic Materials und Financial Services


In der Abbildung 5.12 wird die zeitver~nderliche Korrelation zwischen den
Sektoren-Indizes Basic Materials und Financial Services dargestellt. Diese
zeitver~nderliche Korrelation resultiert aus exponentieller Gl~ttung der Varianzen
beziehungsweise der Kovarianz der beiden Renditezeitreihen. Es ist deutlich
erkennbar, dass die HShe der Korrelation im Zeitverlauf variiert. Es gibt
einige Zeitperioden in denen die Korrelation Werte in HShe von 0,6 aufweist.
Diese geringere Korrelation liegt unter dem langfristigen Durchschnittswert.
Hinsichtlich der Value-at-Risk Prognosen bedeutet eine geringere Korrelation der
Portfoliobestandteile bei konstanten Gewichtungsfaktoren ein geringeres Risiko
des Portfolios. Diese Information kann durch die multivariate Modellierung
zus~tzlich berticksichtigt werden.
Gegebenenfalls kSnnen somit Value-at-Risk Prognosen getroffen werden, die
den formulierten Anspruch hinsichtlich der Anzahl an Backtesting-Ausnahmen
einhalten und dabei zu geringeren Eigenkapitalanforderungen fiihren. Dabei
muss beriicksichtigt werden, dass Value-at-Risk Ans~tze unter Einbeziehung
multivariater GARCH-Modelle eine hohe Komplexit~t aufweisen. Es ist zu kl~ren,
ob im Sinne der sparsamen Parametrisierung der Modellierung eine einfache
Variante der multivariaten GARCH-Modelle unter Umst~nden bessere Ergebnisse
bei der Prognose erzielt als die komplexeren Ausgestaltungen.
Es werden im Folgenden zum einen die multivariaten Ans~tze zur Value-at-Risk
Prognose verglichen und zum anderen gekl~rt, ob die multivariaten Ans~tze

KAPITEL 5. EMPIRISCHE VERGLEICHSSTUDIE

142

Vorteile im Vergleich zu den univariaten Ans~tzen erzielen. Um den Vergleich mit


der univariaten Betrachtung der Zeitreihe des gewichteten Portfolios vollziehen
zu kSnnen, werden die Ergebnisse der multivariaten Ans~tze den erfolgreichen
univariaten Ans~tzen zur Value-at-Risk Prognose des gewichteten Portfolios
aus dem letzten Abschnitt gegeniibergestellt. Es werden in Analogie zum
Abschnitt zu den univariaten Ans~tzen zun~chst die multivariaten Ans~tze
kurz zusammengefasst. Im Anschluss werden grafische Vergleiche der Ans~tze
durchgefiihrt, um letztendlich durch eine umfassende tabellarische Aufbereitung
der relevanten Kriterien die wesentlichen Ergebnisse darzustellen.
Als multivariate Ans~tze werden zum einen die multivariaten Ausgestaltungen
der in der Praxis verwendeten Ans~itze und zum anderen die Ans~tze unter
Einbeziehung der multivariaten GARCH-Modelle betrachtet. Der Ansatz der
historischen Volatilit~t mit Normalverteilungsannahme (vgl. Abschnitt 2.5.1)
wurde bei der univariaten Modellierung des gewichteten Portfolios verwendet.
Aufgrund der Modellstruktur resultieren allerdings keine Ver~nderungen
hinsichtlich der multivariaten Ergebnisse im Vergleich zur univariaten Analyse.
Da die Resultate der historischen Volatilit~t die Anforderungskriterien nicht
in ausreichendem Ma~e erfiillen, wird dieser Ansatz nicht in den Vergleich
einbezogen. Bei der historischen Simulation kSnnen sich geringffigige Unterschiede
aufgrund der Simulation der Portfoliobestandteile und erst anschlie~;ender
Aggregation ergeben, daher wird dieser multivariate Ansatz mit in den
tabellarischen Vergleich aufgenommen. Die beiden in der Praxis verwendeten
Ans~tze des Vergleichs sind die historische Simulation und das multivariate
EWMA-Modell:
1. Historische Simulation mit gleichgewichteter Historie von 250, 1000
und 2000 Handelstagen. Die resultierende Renditeverteilung wird durch
Anwendung des Bootstrap-Verfahrens auf die historische 1-Schritt
Renditezeitreihe simuliert. Dabei werden zuf~llig Vektoren der Renditen
eines Zeitpunkts mit Zuriicklegen gezogen. Nach der Aggregation der
multivariaten Renditeverteilung durch die Gewichtungsfaktoren wird das
empirische Quantil der univariaten Verteilung bestimmt.
2. Exponentielle Gl~ittung (EWMA) mit )~ = 0, 94 (vgl. Abschnitt 2.5.3). Es
wird eine Historie von 250 Handelstagen verwendet.
Die neueren multivariaten Ans~tze integrieren Varianten des multivariaten
GARCH-Modells. Dadurch wird die Modellierung der Interdependenz der
Renditezeitreihen erreicht. Es werden die vier Varianten CCC-Modell,

5.2. A N W E N D UNG DER A L T E R N A T I V E N A N S A T Z E

143

DCC-Modell, OGARCH und Faktor-GARCH betrachtet. Dabei wird das


CCC-Modell mit der Normalverteilungsannahme und mit der Anwendung des
Simulationsverfahrens genutzt (vgl. Abschnitte 4.2.1 und 4.3.2). Das DCC-Modell
wird mit der exponentiellen Gl~ittung der bedingten Korrelationsmatrix
angewendet. Als Gl~ttungsparameter )~ werden die Werte )~ = 0, 94 und A =
0, 97 analysiert. Durch diese Vorgehensweise wird eine zus~tzliche Sch~tzung der
Parameter des Korrelationsteils vermieden.
Es werden die Ergebnisse des OGARCH-Modells mit Verwendung einer
Hauptkomponente dargestellt. Die erste Hauptkomponente beschreibt in den
1174 Sch~tzungen zwischen 83% und 91% der Varianz der Renditezeitreihen.
Die Hinzufiigung der zweiten Hauptkomponente bringt nur 4% bis 8%
zus~tzliche Varianzerkl~rung und fiihrt daher zu geringfiigigen Ver~inderungen.
Der Faktor-GARCH-Ansatz beschlie~t die Sammlung unterschiedlicher
AusgestaltungsmSglichkeiten. Die dargestellten Ans~itze werden jeweils mit
einer Historie von 1000 und 2000 Handelstagen analysiert"
3. GARCH-Ansatz mit konstanter bedingter Korrelation (CCC) ri = D +
ui, Hi = D i R D i mit Normalverteilungsannahme fiir die kumulierte
^_!
multivariate Renditeverteilung und die univariate Aggregation hrln(rn+r2

~.)

~ N(0, ~).

4..GARCH-Ansatz mit konstanter bedingter Korrelation (CCC)


Simulation der kumulierten Renditeverteilung rj,n+lo = ~ r 10
= l rj,n+T.

mit

5. GARCH-Ansatz mit dynamischer bedingter Korrelation (DCC) Hi =


Dil:t/Di mit Normalverteilungsannahme fiir die kumulierte multivariate
Renditeverteilung. Dabei wird zur Ermittlung der zeitver~nderlichen
Korrelationsmatrix die exponentielle Gl~ttung mit )~ = 0, 94 verwendet.
6. GARCH-Ansatz mit dynamischer bedingter Korrelation (DCC) und ,~ =
0, 97 (vgl. Ansatz 5).
7. GARCH-Ansatz
mit
Anwendung
der
Hauptkomponentenanalyse
(OGARCH) Hi ~ .~-Ei-~/, Beriicksichtigung einer Hauptkomponente zur
Berechnung der Varianz-Kovarianz-Matrix und Normalverteilungsannahme
fiir die kumulierte multivariate Renditeverteilung.
8. GARCH-Ansatz mit Beriicksichtigung eines gemeinsamen Faktors ri =
+ bFi + e~, Filgli_l ~ Af(c, hi), GARCH(1,1)-Modellierung des
Faktors und Normalverteilungsannahme fiir die kumulierte multivariate
Renditeverteilung.

144

KAPITEL 5. EMPIRISCHE VERGLEICHSSTUDIE

Hlstorlsche Simulation (1)

Univarlate$ G A R C H - M o d e l l
U3

U3

__=

q
o

rG)

o
o

,d

n,

__=

n,

g
c~

8
I

2000

2002

2004

2000

2002

2004

C C C - M o d e l l (3)

E W M A - M o d e l l (2)
o.

_=_

r-

n-

r
m

,d

8~
I

2000

2002

2004

2000

2002

2004

Abbildung 5.13: Quantilsprognosen im Vergleich


Zur Analyse der genannten multivariaten Ans~itze soll zun~chst die Verbindung
zu den univariaten Ans~tzen hergestellt werden. Dazu werden die 1-Schritt
Quantilsprognosen des univariaten GARCH-Ansatzes unter Einbeziehung
der GED-Verteilung (vgl. Abschnitt 5.2.1) mit den Quantilsprognosen der
multivariaten Ans~itze historische Simulation (Ansatz 1), EWMA-Modell (Ansatz
2) und CCC-Modell mit Normalverteilungsannahme (Ansatz 3) in Abbildung 5.13
verglichen.
Die historische Simulation weist die aus der univariaten Analyse bekannten
Charakteristika auf. Die Quantilsprognosen reagieren relativ langsam auf
Ver~nderungen der Renditezeitreihe. Die Anpassungen auf Phasen hoher
beziehungsweise geringer Schwankungsbreite der Renditezeitreihe des gewichteten
Portfolios erfolgen nicht schnell und heftig genug. Das univariate GARCH-Modell
und das multivariate EWMA-Modell weisen einen ~ihnlichen Verlauf auf. Das
GARCH-Modell ffihrt zu ausgepr~gteren Anpassungen der Quantilsprognosen,
das multivariate EWMA-Modell hingegen zu einem glatteren Verlauf.

5.2. ANWENDUNG DER ALTERNATIVEN ANSJ~TZE


Der

Vergleich

des

univariaten

GARCH-Modells

145

mit

dem

multivariaten

CCC-Modell fiihrt zu interessanten Erkenntnissen. Das CCC-Modell scheint


/ihnlich schnell wie das univariate GARCH-Modell auf Ver~nderungen der
Charakteristika der Renditezeitreihe zu reagieren. Jedoch ist zu erkennen, dass
die Quantilsprognose noch enger an der Renditezeitreihe verl/iuft. Bei heftigen
negativen Ausschl/igen der Renditezeitreihe reagiert die Quantilsprognose zwar
schnell, aber nicht ganz so ausgepr/igt wie beim univariaten GARCH-Modell.
Gegebenenfalls resultieren aus dieser Eigenschaft ein geringerer Wert der
Kennzahl QR und eine geringere durchschnittliche Eigenkapitalanforderung.
Die entscheidende Frage ist, ob die multivariate Modellierung in der Lage
ist, trotzdem eine zufriedenstellende Anzahl an Backtesting-Ausnahmen zu
realisieren. Dieses wird in der sp/iteren tabellarischen Zusammenstellung der
Kriterien dargestellt.
In der Abbildung 5.14 werden vier multivariate Ans/itze unter Einbeziehung der
multivariaten GARCH-Modelle verglichen.

CCC-Modell

(3)

DCC-Modell

U3
O.
(D

.~
"1o

CD

"O
r
|

-,

,d
I

2000

2002

n-

o~
,d

2004

2000

(7)

OGARCH

u3

e-o

2002

2004

(8)

Faktor-GARCH

q
o

u3
o.
o
o

~
o

(5)

o
o
o

8~

2000

2002

2004

2000

2002

2004

Abbildung 5.14: Quantilspr0gn0sen der multivariaten Ans~tze im Vergleich

146

KAPITEL 5. EMPIRISCHE VERGLEICHSSTUDIE

Dargestellt sind die 1-Schritt Quantilsprognosen der Ans~itze mit CCC- (Ansatz
3), DCC- (Ansatz 5), OGARCH- (Ansatz 7) und Faktor-GARCH-Modell (Ansatz
8). Die vier Ans~tze verwenden die multivariate Normalverteilungsannahme.
Bei der grafischen Analyse der Quantilsprognosen sind kaum Unterschiede
erkennbar. Die multivariaten GARCH-Modelle fiihren zu einer schnellen Reaktion
der Quantilsprognosen auf Ver~nderungen der Renditezeitreihe.
Das in dieser Abbildung nicht dargestellte CCC-Modell unter Verwendung des
dargestellten Simulationsverfahrens (Ansatz 4) weist etwas konservativere
Quantilsprognosen aus, da die gesch~tzten standardisierten Residuen
gegebenenfalls eine hShere Anzahl extrem negativer Werte aufweisen, die
nicht vonder Normalverteilung antizipiert werden. Auf die Unterschiede dieser
beiden Ausgestaltungen des CCC-Modells wird sp~ter eingegangen.
Deutlicher werden die Unterschiede der vier Ans~tze mit multivariaten
GARCH-Modellen durch die Darstellung des zeitlichen Auftretens der
Backtesting-Ausnahmen in der Abbildung 5.15.

C C C - M o d e l l (3)

D C C - M o d e l l (5)

o
04

d
.~

u3

u9

o~r-U3
--J

U~

-~

,,,

2004

2000

(7)

o
04

.c

F~

en
I

OGARCH

2002

2000

"
,,-,
,r

2002

2004

(8)

Faktor-GARCH

._

_1 -PJ

nn

o
I

2000

2002

2004

2000

2002

Abbildung 5.15: Backtesting-Ausnahmen im Vergleich

2004

5.2. ANWENDUNG DER ALTERNATIVEN ANSfi, TZE


Klar

erkennbar

ist,

dass

die

Anwendung

des

DCC-Ansatzes

147
und

des

OGARCH-Ansatzes zu einer zu hohen Anzahl an Backtesting-Ausnahmen ffihrt.


Der CCC-Ansatz und der Faktor-GARCH-Ansatz weisen eine zufriedenstellende
Anzahl an Backtesting-Ausnahmen auf. Insbesondere beim DCC-Ansatz ist
eine klare H~iufung der Backtesting-Ausnahmen in den Jahren 2000 und
2001 erkennbar. In diesem Zeitraum werden die Marktrisiken durch das
DCC-Modell systematisch untersch~itzt. Beim OGARCH-Ansatz f'~llt die H~ufung
an Backtesting-Ausnahmen etwas geringer aus.
Ein besseres Ergebnis zeigen der CCC- und der Faktor-GARCH-Ansatz. Die
Backtesting-Ausnahmen treten fiber den Gesamtzeitraum verteilt auf. Dieses
spricht ffir die gute Qualit~t der beiden Ans~tze. Es liegt keine Struktur vor,
die zus~tzlich zur Verbesserung der Prognosen mit einbezogen werden kSnnte.
Von diesen beiden Ans~tzen scheint der Ansatz Faktor-GARCH exakter zu sein.
Der Verlauf der Backtesting-Ausnahmen in Abbildung 5.15 sieht gleichm~t~ig aus.
Bevor die Auswirkungen des Verlaufs der Backtesting-Ausnahmen auf den
Multiplikator dargestellt werden, soll an dieser Stelle der Unterschied zwischen
dem CCC- und dem DCC-Modell detaillierter aufgearbeitet werden. Die
beiden Ans~tze unterscheiden sich nur in der Modellierung der bedingten
Korrelationsmatrix.
Das CCC-Modell ermittelt die Korrelationsmatrix gleichgewichtet aus den
gesch~tzten standardisierten Residuen der definierten L~nge der Historie (vgl.
Abschnitt 3.2.2). Das DCC-Modell wendet hingegen die exponentielle Gl~ttung
zur Bildung der Korrelationsmatrix an. Dabei wird der aktuelle Rand der Historie
starker gewichtet, wodurch die Sch~tzung der Korrelationsmatrix erheblich von
wenigen Beobachtungen beeinflusst wird. Dieser Unterschied in der Sch~tzung der
Korrelationsmatrix soll n~her betrachtet werden.
Dazu wird die gesch~tzte durchschnittliche bedingte Korrelation zwischen den
Portfoliobestandteilen w~Rll,~w analysiert. In der Abbildung 5.16 wird diese
durchschnittliche Korrelation des CCC- und des DCC-Modells mit A = 0, 94 im
Zeitverlauf verglichen. Die Sch~itzungen des CCC-Modells werden durch die graue
Linie, die Sch~tzungen des DCC-Modells (A = 0,94) durch die schwarze Linie
beschrieben.
Die Unterschiede der beiden Ans~tze sind deutlich erkennbar. Das CCC-Modell
bezieht die letzten 2000 Handelstage gleichgewichtet ein, sodass ein sehr ruhiger
stetiger Verlauf resultiert. Die durchschnittliche Korrelation sinkt langsam von
einem Wert von circa 0,89 auf einen Wert von circa 0,83 ab.

KAPITEL 5. EMPIRISCHE VERGLEICHSSTUDIE

148

r
C~

m.. _
Q

2000

2001

2002

2003

2004

Abbildung 5.16: Durchschnittliche Korrelation des CCC- und des DCC-Modells


Die durchschnittliche Korrelation des DCC-Modells weist dagegen starke
Ver~nderungen im Zeitverlauf aus. Angefangen bei einem Wert von 0,85 sinkt die
durchschnittliche Korrelation auf circa 0,51 in der zweiten Jahresh~lfte 2000 ab. In
den Jahren 2002 und 2003 liegt die durchschnittliche Korrelation zwischenzeitlich
fiber den Werten des CCC-Modells. Am Ende des Betrachtungszeitraums betr~gt
der Wert circa 0,87.
In diesem stark schwankenden Verlauf der durchschnittlichen Korrelation
ist der Grund f f i r die in Abbildung 5.15 ausgewiesenen geh~uften
Backtesting-Ausnahmen in den Jahren 2000 und 2001 zu finden. In diesen
Jahren ist die durchschnittliche Korrelation bis zur Jahresmitte 2001 deutlich
geringer als im CCC-Modell. Kombiniert mit der Modellierung der individuellen
Varianzen der Portfoliobestandteile durch univariate GARCH-Modelle und der
Normalverteilungsannahme ffihrt der DCC-Ansatz zu einer Untersch~itzung der
Risiken in dieser Zeitperiode.
Durch die Variation des Gl~ttungsparameters )~ f~illt die Schwankungsbreite
unterschiedlich aus. s = 0, 99 ffihrt zu einem wesentlich glatteren Verlauf der
durchschnittlichen Korrelation. Allerdings bleibt das Grundproblem bestehen. Bei
alternativen Werten des Parameters s kommt es in den Jahren 2000 und 2001
ebenfalls zu geh~uften Backtesting-Ausnahmen.
Im Folgenden wird auf die Konsequenzen der in Abbildung 5.15 dargestellten
Backtesting-Ausnahmen hinsichtlich des Multiplikators eingegangen. Die

5.2. ANWEND UNG DER ALTERNATIVEN ANSfi, TZE

CCC-Modell

=o
00

(3)

149

DCC-Modell

(5)

oo
r

.=_
9-~
-,
2;

~r
r

h
I

2001

2002

2003

2004

2;

OGARCH

o')

2001

2002

2003

2004

Faktor-GARCH

(7)

(8)

oo

oo

_/-I
D
2;

2;

r
2001

2002

2003

2004

(,3

2001

2002

2003

2004

Abbildung 5.17: Multiplikatoren der multivariaten Ans~tze im Vergleich


quartalsweise Auswertung der Anzahl der Backtesting-Ausnahmen des letzten
Jahres ffihrt zu dem in Abbildung 5.17 dargestellten Verlauf des jeweiligen Basel
II-Multiplikators.
Durch Anwendung des CCC-Ansatzes resultiert ein Quartal mit erhShtem
Multiplikator. Der Faktor-GARCH-Ansatz weist den optimalen Verlauf des
Multiplikators ohne ErhShung aus. Beim DCC-Ansatz sind die angesprochenen
Probleme in den Jahren 2000 und 2001 ersichtlich. Ein Quartal in diesem Zeitraum
wird mit einem Multiplikator der HShe 4 belegt, das heif, t es liegt ein Quartal in
der roten Zone vor. Der Ansatz ist daher nicht akzeptabel und eine .~nderung
des Modells wird dutch die jeweilige nationale AufsichtsbehSrde gefordert. Das
OGARCH-Modell ffihrt in fiinf Quartalen zu einem angehobenen Multiplikator.
Die Auswirkungen des Verlaufs der Multiplikatoren auf die resultierenden
durchschnittlichen Eigenkapitalanforderungen werden anhand der folgenden
tabellarischen Zusammenfassung der Kriterien diskutiert.

K A P I T E L 5. EMPIRISCHE VERGLEICHSSTUDIE

150
Ansatz

Hist.

Ausn.

Mult.

EKA

Hist. Sire. (m. Gew.)


GARCH (Sire., GED)
CAViaR (AAV)
1. Historische Sire.

1000
2000
2000
250
1000
2000
250
1000
2000
1000
2000
1000
2000
1000
2000
1000
2000
1000
2000

11
13
12
13
10
17
21
13
14
9
8
17
22
17
23
19
22
13
13

3.00
3.13
3.06
3.05
3.06
3.29
3.35
3.03
3.13
3.00
3.00
3.25
3.36
3.25
3.39
3.22
3.33
3.00
3.09

84.01
81.38
83.95
86.85
82.79
74.33
85.20
75.43
75.96
83.57
82.41
81.66
80.76
81.54
81.39
77.62
77.89
74.70

2. Exp. Gl~ittung
3. GARCH CCC
(Norm.)
4. GARCH CCC
(Simulation)
5. GARCH DCC
(0,94)
6. GARCH DCC
(0,97)
7. OGARCH
8. Faktor-GARCH

GZ

RZ

0
4
2
2
2
6
5
1
4
0
0
4
7
4
6
5
6
0
3

0
0
0
0
0
0
2
0
0
0
0
I
I
1
2
0
1
0
0

75.71

QR
0.50
0.43
0.44
0.50
0.50
0.52
0.45
0.42
0.42
0.43
0.44
0.43
0.44
0.43
0.44
0.42
0.44
0.41
0.42

Tabelle 5.9: Vergleich der Ergebnisse ffir das gewichtete Portfolio

In den ersten drei Zeilen der Tabelle 5.9 sind die drei ausgewiihlten univariaten
Ans~itze dargestellt. Die Auspr~igungen der Kriterien dieser drei Ans~itze s t a m m e n
aus der Tabelle 5.8 und wurden zum Vergleich fibertragen.
In den folgenden Zeilen sind die Auswertungen der multivariaten Ans~itze
dargestellt.

Die

mit

Historie

einer

Anzahl

an

historische
von

Simulation

250

Tagen

Backtesting-Ausnahmen.

der
kommt
Die

multivariaten
zu

einer

Renditezeitreihen
zufriedenstellenden

resultierende

durchschnittliche

Eigenkapitalanforderung liegt aber fiber den Werten der univariaten Ans~itze.


Die multivariate exponentielle Gl~ittung ffihrt zu 21 Backtesting-Ausnahmen.
Die Risiken werden untersch~itzt. Es resultieren zwei Quartale in der roten
Zone. Folglich ist der Ansatz u n z u v e r l ~ s i g und eine ,~nderung des Modells
unumg~inglich.
Das CCC-Modell mit der N o r m a l v e r t e i l u n g s a n n a h m e und einer Historie von 1000
Handelstagen weist eine zufriedenstellende Anzahl an B a c k t e s t i n g - A u s n a h m e n
aus.

Der Multiplikator

wird

nur

einmal

angehoben.

Die durchschnittliche

Eigenkapitalanforderung 75,43 liegt deutlich unter den Werten der univariaten


Ans~itze.

Die

Erkenntnisse

aus

Quantilsprognosen best~itigen sich.

der

grafischen

Analyse

der

1-Schritt

5.2. ANWENDUNG DER ALTERNATIVEN ANSATZE

151

Das multivariate CCC-Modell beschreibt in dieser Konstellation die Risiken des


gewichteten Portfolios besser als die univariaten Ans~tze oder die in der Praxis
verwendeten multivariaten Ans~tze. Auch die Kennzahl QR best~tigt dieses
Ergebnis. Die Summe der asymmetrisch gewichteten absoluten Abweichungen
der Quantilsprognose von der Renditezeitreihe bewertet die Gfite des Ansatzes.
Die ohnehin niedrigen Werte der ausgew~hlten univariaten Ans~tze werden
unterschritten.
Es darf nicht vergessen werden, dass dieser Ansatz einige Bausteine der
Modellierung kombiniert. Fiir den Mittelwert der jeweiligen Renditezeitreihe
wird nur eine Konstante spezifiziert, die univariaten Innovationen werden durch
GARCH(1,1)-Modelle beschrieben, die bedingten Korrelationen werden dutch die
gesch~tzten standardisierten Residuen ermittelt und die Verteilungsannahme ist
die multivariate Normalverteilung. Das Zusammenwirken dieser Komponenten
fiihrt im Vergleich zu guten Ergebnissen.
Das CCC-Modell mit der Anwendung des Bootstrap-Verfahrens ffihrt
in Analogie zu den univariaten Ans~tzen tendenziell zu konservativeren
Quantilsprognosen. Dieses ist an der Unterschreitung der angestrebten Anzahl
an Backtesting-Ausnahmen zu erkennen. Daraus ist folgerichtig die hShere
durchschnittliche Eigenkapitalanforderung und der hShere Wert der Kennzahl QR
begrfindbar.
Das DCC-Modell fiihrt zu einer hSheren Anzahl an Backtesting-Ausnahmen. Die
starke Variation der Sch~tzungen der bedingten Korrelationsmatrix im Zeitverlauf
ist in diesem Fall nicht geeignet, eine angemessene Absch~tzung der Risiken zu
gew~hrleisten. Dieses gilt sowohl ffir die Modellierung mit )~ = 0, 94 als auch
fiir )~ = 0, 97. Beide Varianten ffihren zu mindestens einem Quartal in der
roten Zone. Gegebenenfalls resultiert aus der zeitver~nderlichen Modellierung der
Korrelationen eine zu hohe Komplexit~t des Ansatzes, die in der Prognose zu
schlechteren Ergebnissen ffihrt. Die sparsame Parametrisierung des CCC-Modells
eignet sich besser.
Der OGARCH-Ansatz
weist ebenfalls eine zu hohe Anzahl
an
Backtesting-Ausnahmen auf. Die Reduktion der Informationen der multivariaten
Renditezeitreihe auf eine geringe Anzahl an Hauptkomponenten ist nicht
zielfiihrend. Die erste Hauptkomponente beschreibt zwischen 83% und 91% der
Varianz. Diese Hauptkomponente stellt einen fast gleichgewichteten Durchschnitt
der fiinf Sektoren-Indizes dar. Die Modellierung ist daher vergleichbar mit der
univariaten GARCH-Modellierung des gewichteten Portfolios.

152

KAPITEL 5. EMPIRISCHE VERGLEICHSSTUDIE

Die Beriicksichtigung der zweiten Hauptkomponente fiihrt zu keinen


Verbesserungen. Die Interdependenz der Renditezeitreihen kann durch den
OGARCH-Ansatz nicht in geeignete Quantilsprognosen iiberfiihrt werden.
Problematisch ist zus/itzlich die in der Anwendung resultierende nahezu singul~ire
Varianz-Kovarianz-Matrix.
Der Multiplikator des OGARCH-Ansatzes mit einer L~inge der Historie von
2000 Handelstagen wird zwar aufgrund der Quartale in gelber beziehungsweise
roter Zone in sieben Quartalen erhSht, jedoch wird wiederum deutlich, dass
die Anhebungen des Multiplikators nicht ausreichen, um die unzuverl~sigen
anti-konservativen Quantilsprognosen zu kompensieren, denn die resultierende
durchschnittliche Eigenkapitalanforderung ist vergleichsweise gering.
Gute Ergebnisse werden hingegen vom Faktor-GARCH-Ansatz erzielt. Es
resultiert eine zufriedenstellende Anzahl an Ba~ktesting-Ausnahmen kombiniert
mit einer geringen durchschnittlichen Eigenkapitalanforderung. Die Volatilit~it
wird in diesem Ansatz durch den Marktindex Euro Stoxx bestimmt. Die
Abh~ingigkeit der Sektoren-Indizes wird von Tag zu Tag neu ermittelt. Dadurch
passt sich die bedingte Varianz-Kovarianz-Matrix flexibel an die vorliegenden
Strukturen an. Zur Risikobestimmung werden zu jedem Zeitpunkt die einzelnen
Komponenten der Varianz-Kovarianz-Matrix unterschiedlich stark gewichtet.
Diese Vorgehensweise fiihrt zu dem niedrigsten Wert der Kennzahl QR.
Zusammenfassend l~st sich zur Anwendung der multivariaten Ans~itze
sagen, dass die zus~itzliche Information sinnvoll genutzt werden lmnn, um
die Value-at-Risk Prognosen im Vergleich zu den univariaten Ans~itzen zu
verbessern. Die Modellierung der Interdependenz der Portfoliobestandteile mit
ausgew~ihlten GARCH-Ans~itzen fiihrt zu einer zufriedenstellenden Anzahl an
Backtesting-Ausnahmen und geringen Eigenlmpitalanf~
Der CCC-Ansatz und der Faktor-GARCH-Ansatz sind in dieser empirischen
Vergleichsstudie in der Lage, die Risiken des gewichteten Portfolios sinnvoll
zu modellieren. Dabei liegt die gute Eignung der Ans~itze in der sinnvollen
Kombination der einzelnen Bausteine der Modellierung. Das CCC-Modell
mit Simulationsverfahren fiihrt zu konservativeren Quantilsprognosen. Der
DCC-Ansatz und der OGARCH-Ansatz weisen ungiinstige Ergebnisse hinsichtlich
der getroffenen Value-at-Risk Prognosen auf.

5.3. BEURTEILUNG DER ERGEBNISSE

5.3

153

Beurteilung der Ergebnisse

Die empirische Vergleichsstudie liefert eine umfassende Analyse der univariaten


und multivariaten Ans~itze zur Value-at-Risk Prognose. Die Ansatze wurden
dabei unter realistischer Nachstellung der vorliegenden Basel II-Anforderungen
betrachtet. Diese Vorgehensweise ist insbesondere ffir Finanzinstitute interessant,
die ihre Marktrisiken anhand dieser Anforderungen zu beurteilen haben.
Zu den univariaten Ans~itzen kann festgestellt werden, dass die in der Praxis
vorherrschenden Ansatze der historischen Simulation und der historischen
Volatilit~t mit Normalverteilungsannahme nicht in der Lage sind, auf die
Ver~inderungen der betrachteten Renditezeitreihen adiiquat zu reagieren. Beide
Ans~tze beruhen auf einem definierten Zeitfenster, wobei angenommen wird, dass
die Verteilung der betrachteten Indizes in diesem Zeitraum konstant ist. Diese
Annahme ffihrt zu einer starken Abh~ngigkeit von der Liinge des Zeitfensters.
Bei der Anwendung der beiden Ans~itze resultiert entweder eine hohe
Anzahl an Backtesting-Ausnahmen oder eine hohe durchschnittliche
Eigenkapitalanforderung. Es ist selten der Fall, dass sowohl eine zufriedenstellende
Anzahl an Backtesting-Ausnahmen als auch eine geringe durchschnittliche
Eigenkapitalanforderung realisiert wird. Die exponentielle Gl~ttung der
Volatilit~t in der Ausgestaltung des EWMA-Modells reagiert zwar schnell
auf Ver~nderungen der Renditezeitreihe, ffihrt aber oftmals zu einer zu hohen
Anzahl an Backtesting-Ausnahmen.
Insbesondere der Ansatz der historischen Volatilit~it fiihrt hiiufig zu Quartalen
in der roten Zone. Dieses deutet auf unzuverl~sige Quantilsprognosen hin.
Auffallend ist, dass trotz der Quartale in der roten Zone geringe durchschnittliche
Eigenkapitalanforderungen resultieren. Dieses zeigt Verbesserungspotential
hinsichtlich der HShe und der Anhebungen des Multiplikators auf. Die
momentanen Anhebungen reichen gegebenenfalls nicht aus, um Schwiichen des
Ansatzes entgegenzuwirken. Zudem besteht kein ausreichender Anreiz ffir die
Finanzinstitute, ihre Berechnungen auf angemessenere Value-at-Risk Ansatze
umzustellen.
Aus der Sicht des Finanzinstituts weisen die neueren Ans~itze unter
Einbeziehung der GARCH-Modelle oder der CAViaR-Modelle bessere
Eigenschaften auf. Ausgew~ihlten GARCH-Ans~tzen gelingt es, gute
Ergebnisse hinsichtlich der Anzahl an Backtesting-Ausnahmen und der
durchschnittlichen Eigenkapitalanforderung zu kombinieren. Hierdurch werden
Auseinandersetzungen mit der nationalen AufsichtsbehSrde vermieden, da

154

KAPITEL 5. EMPIRISCHE VERGLEICHSSTUDIE

die Qualit~it des Value-at-Risk Ansatzes anhand der Anzahl der 1-Schritt
Backtesting-Ausnahmen beurteilt wird. Zus~itzlich werden Eigenmittel nicht
unnStig gebunden, da diese Ans~itze zu einer geringen, aber angemessenen
Eigenlmpitalanforderung fiihren. Bei den unterschiedlichen Ausgestaltungen der
GARCH-Ans~itze f'~lt auf, dass die parametrischen Ans~itze tendenziell zu einer
hSheren Anzahl an Backtesting-Ausnahmen neigen. Die semi-parametrischen
Ans~itze fiihren eher zu konservativeren Quantilsprognosen. Ein guter Kompromiss
wird durch den GARCH-Ansatz mit Simulation und Beriicksichtigung der
GED-Verteilung erreicht. Durch die Einbeziehung der GED-Verteilung wird eine
zus~itzliche Flexibilit~it der Modellierung gescha~en.
Die CAViaR-Ans~itze stellen eine klare Alternative zu den bereits beschriebenen
Ans~itzen dar. In einigen F~illen werden gute Ergebnisse anhand der
Backtesting-Ausnahmen und der durchschnittlichen Eigenkapitalanforderungen
erreicht. Allerdings fiillt kein CAViaR-Ansatz wiederholt durch besonders gute
Ergebnisse auf. Die einzelnen Ausgestaltungen h~ingen im Vergleich zu den
GARCH-Ans~itzen st~irker vonder zugrunde liegenden Datenbasis ab.
Die Sch~itzung der CAViaR-Modelle ist aufwendiger als die Sch~itzung der anderen
Modelle, da zur Optimierung der Zielfunktion Algorithmen benStigt werden, die
ausschlief, lich anhand der Funktionswerte die optimalen Parameter suchen. Die
Ermittlung der 10-Schritt Prognosen ist noch nicht befriedigend gelSst und stellt
einen Ansatzpunkt weiterer Forschung dar.
Die Modellierung der Interdependenz der Portfoliobestandteile durch ausgew~ihlte
multivariate GARCH-Ans~itze bringt klare Vorteile. Die multivariaten Ans~itze
sind in der Lage, eine zufriedenstellende Anzahl an B~ktesting-Ausnahmen
zu erreichen. Dabei wird die durchschnittliche Eigenkapitalanforderung
im Vergleich zu den univariaten Ans~tzen reduziert. Der CCC-Ansatz
mit Normalverteilungsannahme und der Faktor-GARCH-Ansatz weisen im
empirischen Vergleich besonders gute Ergebnisse aus. Dabei ist anzumerken, dass
beide Ans~itze zwar komplexer als univariate Ans~itze sind, der Aufwand der
Modellierung ist jedoch relativ gering.
Der CCC-Ansatz benStigt zur Value-at-Risk Prognose ausschlief, lich die
Modellierung der univariaten Zeitreihen mit GARCH-Modellen und eine einfache
Sch~itzung der Korrelationsmatrix aus den gesch~itzten standardisierten Residuen.
Der Faktor-GARCH-Ansatz kommt mit einem univariaten GARCH-Modell und
der Sch~tzung der Abh~ingigkeiten zwischen den Sektoren-Indizes und dem
Marktindex durch lineare Regressionen aus.

5.3. BEURTEILUNG DER ERGEBNISSE

155

Eine hShere Komplexit~it der Modellierung in Form des DCC-Ansatzes oder


des OGARCH-Ansatzes scheint aufgrund der Ergebnisse der empirischen
Vergleichsstudie nicht ratsam zu sein.
Die Analyse des Funktionswerts der Quantilsregression fiir die 1-Schritt
Prognose liefert ein zus~itzliches Bewertungskriterium. Das Kriterium gibt
an, inwiefern die getroffenen Quantilsprognosen den zeitver~derlichen Verlauf
der Renditezeitreihe realistisch nachbilden. Dabei wird in der empirischen
Vergleichsstudie eine hohe Ubereinstimmung der Ergebnisse des Kriteriums
mit den ausgew/ihlten geeigneten Ans~itzen gefunden, das heist Ans~itze, die
eine zufriedenstellende Anzahl an Backtesting-Ausnahmen mit einer geringen
durchschnittlichen Eigenkapitalanforderung kombinieren, weisen auch einen
geringen Wert des Kriteriums aus. Dies resultiert aus der schnellen Reaktion
der Ans~itze auf Ver~inderungen der Renditezeitreihe und der daraus folgenden
genauen Nachbildung des Verlaufs der Risikosituation.
Als Zusammenfassung der Ergebnisse der empirischen Vergleichsstudie zeigt
sich, dass die vorgestellten neueren Ans~itze sehr gute Resultate in
den fiir das Finanzinstitut wichtigen Kriterien erzielen. Insbesondere das
univariate GARCH-Modell mit Integration der GED-Verteilung, der multivariate
CCC-Ansatz und der multivariate Faktor-GARCH-Ansatz weisen giinstige
Eigenschaften zur Value-at-Risk Prognose auf.

Kapitel 6

Zusamment assung und Ausblick


Die genaue Absch~itzung der bestehenden Marktrisiken sorgt fiir eine ad~iquate
Beurteilung der Risikosituation des Unternehmens. Zur Abdeckung der
Marktrisiken werden Eigenmittel in angemessener HShe hinterlegt, um die
weitere erfolgreiche Unternehmensentwicklung zu fSrdern. Insbesondere fiir
Finanzinstitute spielt der Umgang mit Risiken eine entscheidende Rolle. Um die
Stabilit/it des Finanzsystems zu gew~ihrleisten, gibt der Baseler Ausschuss fiir
Bankenaufsicht einen regulatorischen Rahmen zur Absch~tzung von Marktrisiken
vor.

In der vorliegenden Arbeit wurden die theoretischen Grundlagen der


verschiedenen AusgestaltungsmSglichkeiten der Value-at-Risk Ans~tze zur
Absch~tzung von Marktrisiken detailliert beschrieben. Dabei kam zum einen
der Darlegung neuerer Ans/itze und zum anderen der konsequenten Ausweitung
der theoretischen Darstellungen auf die 10-Schritt Prognose, die multivariate
Betrachtungsweise und die Einbeziehung yon Simulationsverfahren besondere
Bedeutung zu. Fiir den Anwender von Value-at-Risk Ans~tzen liefert diese
Arbeit ein umfassendes Spektrum der vorhandenen MSglichkeiten. Daher kann
der Anwender den fiir die jeweilige Unternehmenssituation geeigneten Ansatz
ausw~hlen, um somit die Absch/itzung der relevanten Marktrisiken zu verbessern.
Um diese Beurteilung der Ans/itze sowohl fiir die wissenschaftliche Forschung
als auch fiir die Anwendung in der Praxis vorzunehmen, wurden alle
dargestellten Value-at-Risk Ans/itze in einer empirischen Vergleichsstudie
anhand europ~iischer Aktien-Indizes analysiert. Die Besonderheit dieser
empirischen Studie besteht in der realistischen Nachstellung der aus den
Basel II-Kriterien folgenden Konsequenzen der Anwendung der jeweiligen

158

K A P I T E L 6. ZUSAMMENFASSUNG UND AUSBLICK

Value-at-Risk Ans~tze. Der Vergleich der Ans~tze beruht damit nicht


ausschliet~lich auf der Analyse der Qualit~t der Value-at-Risk Prognosen anhand
der beobachteten Backtesting-Ausnahmen, sondern beriicksichtigt explizit die
HShe der resultierenden Eigenkapitalanforderungen.
Als Ergebnis dieser empirischen Vergleichsstudie ist festzuhalten, dass die
analysierten GARCH-Ans~tze und die CAViaR-Ans~tze eine wesentliche
Bereicherung des Spektrums der Ausgestaltungsm5glichkeiten darstellen.
Durch die Anwendung dieser neueren Ans~tze lassen sich Schwt~chen
der in der Praxis verwendeten Ans~tze vermeiden. GARCH-Ans~tze und
CAViaR-Ans~tze fiihren dutch die Kombination einer zufriedenstellenden Anzahl
an Backtesting-Ausnahmen mit geringen Eigenkapitalanforderungen zu besseren
Ergebnissen.
Bei der univariaten Analyse fiihrt die Verwendung des GARCH-Modells zur
Beschreibung der zeitver~nderlichen Volatilitt~t zusammen mit der flexiblen
Verteilungsannahme der Generalized Error Distribution und der Verwendung
von Simulationsverfahren zu besonders guten Ergebnissen. Die Erweiterung
der Analyse durch die multivariate Betrachtungsweise verbessert nochmals
die Resultate. Dabei wird die Interdependenz der Portfoliobestandteile durch
multivariate GARCH-Modelle beschrieben. Die Anwendung dieser multivariaten
GARCH-Ans~tze l~st sich vereinfachen, indem die Modellierung in einzelne
Komponenten zerlegt wird. Die reduzierte Komplexit~t dieses Vorgehens
fiihrt zu einer einfachen Anwendbarkeit und realisiert dennoch bessere
Ergebnisse in der empirischen Vergleichsstudie. Im Vergleich zu den univariaten
Anst~tzen wird bei gleicher Anzahl an Backtesting-Ausnahmen eine geringere
Eigenkapit alanforderung erreicht.
Als Handlungsbedarf weiterer wissenschaftlicher Forschung kann die Ausweitung
der Analysen hinsichtlich der multivariaten Ans~tze angesehen werden.
Hierbei sind weitere AusgestaltungsmSglichkeiten denkbar. Insbesondere die
Verwendung alternativer Verteilungsannahmen und die Ausweitung der Nutzung
der dargestellten Simulationsverfahren stellen Ankniipfungspunkte weiterer
Forschung dar. Zus~tzlich hierzu besteht weiterer Forschungsbedarf hinsichtlich
der Konstruktion des Basel II-Multiplikators und der 10-Schritt Prognosen mit
CAViaR-Modellen.

L it er at u r v e r z ei c h n i s
[1] Akgiray, V. (1989): Conditional Heteroscedasticity in Time Series of Stock
Returns: Evidence and Forecasts, Journal of Business, Vol. 62, S. 55-80.
[2] Alexander, C.O. (2000): Orthogonal Methods for Generating Large Positive
Semi-Definite Covariance Matrices, ISMA Centre Discussion Papers in
Finance 2000-06, University of Reading, UK.
[3] Alexander, C.O. (2001): Market Models, Wiley.
[4] Alexander, C.O./Leigh, C.T. (1997): On the Covariance Matrices used in
Value at Risk Models, Journal of Derivatives, Vol. 4, S. 50-62.
[5] Ang, A./Chen, J. (2002): Asymmetric correlations of equity portfolios,
Journal of Financial Economics, Vol. 63, S. 443-494.
[6] Artzner, P./Delbaen, F./Eber, J.-M./Heath, D. (1999): Coherent Measures
of Risk, Mathematical Finance, Vol. 9, S. 203-228.
[7] Baillie, R.T./Bollerslev, T. (1989): The Message in Daily Exchange Rates: A
Conditional-Variance Tale, Journal of Business & Economic Statistics, Vol.
7, S. 297-305.
[8] Baillie, R.T./Bollerslev, T. (1992): Prediction in dynamic models with
time-dependent conditional variances, Journal of Econometrics, Vol. 52, S.
91-113.
[9] Baillie, R.T./Myers, R.J. (1991): Bivariate Garch Estimation of the Optimal
Commodity Futures Hedge, Journal of Applied Econometrics, Vol. 6, S.
109-124.
[10] Barone-Adesi, G./Giannopoulos, K./Vosper, L. (1999): VaR without
Correlations for Portfolios of Derivative Securities, Journal of b-htures
Markets, Vol. 19, S. 583-602.

160

LITERATURVERZEICHNIS

[11] Basle Committee on Banking Supervision (1996): Amendment to the Capital


Accord to Incorporate Market Risks.

[12] Basle Committee on Banking Supervision (1996): Overview of the


Amendment to the Capital Accord to Incorporate Market Risks.

[13] Basle Committee on Banking Supervision (1996): Supervisory Framework for


the Use of Backtesting in Conjunction with the Internal Models Approach
to Market Risk Capital Requirements.

[14] Basle Committee on Banking Supervision (2004): International Convergence


of Capital Measurement and Capital Standards: A Revised Framework.

[15] Bern, A.K./Higgins, M.L. (1993): ARCH Models: Properties, Estimation and
Testing, Journal of Economic Surveys, Vol. 7, S. 305-366.
[16] Black, F./Scholes, M. (1973): The Pricing of Options and Corporate
Liabilities, The Journal of Political Economy, Vol. 81, S. 637-654.

[17] Bollerslev,

T.
(1986): Generalized
Autoregressive
Conditional
Heteroskedasticity, Journal of Econometrics, Vol. 31, S. 307-327.

[18] Bollerslev, T. (1990): Modelling the Coherence in Short-Run Nominal


Exchange Rates: A Multivariate Generalized Arch Model, The Review of
Economics and Statistics, Vol. 72, S. 498-505.
[19] Bollerslev, T./Engle, R.F./Wooldridge, J.M. (1988): A Capital Asset Pricing
Model with Time-Varying Covariances, Journal of Political Economy, Vol.
96, S. 116-131.
[20] Bollerslev, T./Wooldridge, J.M. (1992): Quasi-maximum likelihood
estimation and inference in dynamic models with time-varying covariances,
Econometric Reviews, Vol. 11, S. 143-179.
[21] Boudoukh, J./Richardson, M./Whitelaw, R. (1998): The Best of Both
Worlds, RISK, Vol. 11, S. 64-67.
[22] Brooks, C./Clare, A.D./Persand, G. (2000): A word of caution on calculating
market-based minimum capital risk requirements, Journal of Banking and
Finance, Vol. 24, S. 1557-1574.
[23] Brooks, C./Persand, G. (2003): Volatility Forecasting for Risk Management,
Journal of Forecasting, Vol. 22, S. 1-22.

LITERA TURVERZEICHNIS

161

[24] Cappiello, L./Engle, R.F./Sheppard, K. (2003): Asymmetric Dynamics in the


Correlations of Global Equity and Bond Returns, European Central Bank
Working Paper Series No. 204.
Chong, J. (2004): Value at Risk from Econometric Models and Implied from
Currency Options, Journal of Forecasting, Vol. 23, S. 603-620.

[261 Christoffersen, P.F. (1998): Evaluating Interval Forecasts,

International

Economic Review, Vol. 39, S. 841-862.

[27] Christoffersen, P.F./Diebold, F.X. (2000): How relevant is volatility


forecasting for financial risk management?, Review of Economics and
Statistics, Vol. 82, S. 12-22.
[28] Credit Suisse (2003): GeschMtsbericht.
[29] Davison, A.C./Hinkley, D.V. (1997): Bootstrap methods and their
applications, Cambridge University Press.

[30] Diebold, F.X./Hickman, A./Inoue, A./Schuermann, T. (1998): Scale Models,


RISK, Vol. 11, S. 104-107.

[31] Diebold, F.X./Nerlove, M. (1989): The Dynamics of Exchange Rate


Volatility: A Multivariate Latent Factor Arch Model, Journal of Applied
Econometrics, Vol. 4, S. 1-21.
[32] Elton, E.J.,/Gruber, M.J. et al. (2003): Modern Portfolio Theory and
Investment Analysis, 6. Aufl., Wiley.
[33] Embrechts, P./Kliippelberg, C./Mikosch, T. (1997): Modelling Extremal
Events for Insurance and Finance, Springer.
[34] Embrechts, P./Resnick, S.I./Samorodnitsky, G. (1998): Living on the Edge,
RISK, Vol. 11, S. 96-100.
[35] Engle, R.F. (1982): Autoregressive Conditional Heteroscedasticity with
Estimates of the Variance of United Kingdom Inflation, Econometrica, Vol.
50, S. 987-1008.
[36] Engle, R.F. (2002): New Frontiers for ARCH Models, Journal of Applied
Econometrics, Vol. 17, S. 425-446.
[37] Engle, R.F. (2002): Dynamic Conditional Correlation: A Simple Class
of Multivariate Generalized Autoregressive Conditional Heteroskedasticity
Models, Journal of Business & Economic Statistics, Vol. 20, S. 339-350.

162

LITERATURVERZEICHNIS

[38] Engle, R.F./Kroner, K.F. (1995): Multivariate Simultaneous Generalized


Arch, Econometric Theory, Vol. 11, S. 122-150.
[39] Engle, R.F./Manganelli, S. (2004): CAViaR: Conditional Autoregressive
Value at Risk by Regression Quantiles, Journal of Business & Economic
Statistics, Vol. 22, S. 367-381.
[40] Engle, R.F./Lilien, D.M./Robins, R.P. (1987): Estimating Time Varying Risk
Premia in the Term Structure: The Arch-M Model, Econometrica, Vol. 55,
S. 391-407.
[41] Engle, R.F./Mezrich, J. (1996): GARCH for Groups, RISK, Vol. 9, S. 36-40.
[42] Engle, R.F./Ng, V.K. (1993): Measuring and Testing the Impact of News on
Volatility, Journal of Finance, Vol. 48, S. 1749-1778.
[43] Engle, R.F./Ng, V.K./Rothschild, M. (1990): Asset Pricing with a
Factor-ARCH Covariance Structure: Empirical Estimates for Treasury Bills,
Journal of Econometrics, Vol. 45, S. 213-237.
[44] Engle, R.F./Susmel, R. (1993): Common Volatility in International Equity
Markets, Journal of Business & Economic Statistics, Vol. 11, S. 167-176.
[45] Fama, E. (1965): The Behavior of Stock Market Prices, Journal of Business,
Vol. 38, S. 34-105.
[46] Franses, P.H./van Dijk, D. (1996): Forecasting Stock Market Volatility Using
(Non-Linear) GARCH Models, Journal of Forecasting, Vol. 15, S. 229-235.
[47] Franses, P.H./van Dijk, D. (2000): Non-linear time series models in empirical
finance, Cambridge University Press.
[48] Giot, P./Laurent, S. (2003): Value-at-Risk for long and short trading
positions, Journal of Applied Econometrics, Vol. 18, S. 641-664.
[49] Glosten, L.R./Jaganathan, R./Runkle, D.E. (1993): On the Relation between
the Expected Value and the Volatility of the Nominal Excess Return on
Stocks, Journal of Finance, Vol. 48, S. 1779-1801.
[50] Gourieroux, C. (1997): ARCH Models and Financial Applications, Springer.
[51] Gourieroux, C./Laurent, J.P./Scaillet, O. (2000): Sensitivity analysis of
Values at Risk, Journal of Empirical Finance, Vol. 7, S. 225-245.

163

LITERATURVERZEICHNIS

[52] Granger, C.W.J./Ramanathan, R. (1984): Improved Methods of Combining


Forecasts, Journal of Forecasting, Vol. 3, S. 197-204.
[53] Greene, W.H. (2000): Econometric Analysis, 4. Aufl., Prentice-Hall.
[54] Hamao, Y./Masulis, R.W./Ng, V.K. (1990): Correlations in Price Changes
and Volatility across International Stock Markets, The Review of Financial
Studies, Vol. 3, S. 281-307.
[55] Hamilton, J.D. (1994): Time Series Analysis, Princeton University Press.

[56] Hansen, B.E. (1994): Autoregressive Conditional Density Estimation,


International Economic Review, Vol. 35, S. 705-730.

[57] Harvey, C.R./Siddique, A. (1999): Autoregressive Conditional Skewness,


Journal of Financial and Quantitative Analysis, Vol. 34, S. 465-487.

[58] He, C./Tergsvirta, T. (1999): Fourth moment structure of the GARCH(p,q)


process, Econometric Theory, Vol. 15, S. 824-846.
[59] Hendricks, D. (1996): Evaluation of Value-at-Risk Models Using Historical
Data, Federal Reserve Bank of New York Economic Policy Review.
[60] Hull, J.C. (2000): Options, Futures, & other Derivatives, 4. Aufl.,
Prentice-Hall.
[61] Hull, J.C./White, A. (1998): Incorporating Volatility Updating into the
Historical Simulation Method for Value at Risk, Journal of Risk, Vol. 1,
S. 5-19.
[62] Hyndman, R.J./Fan, Y. (1996): Sample Quantiles in Statistical Packages,
The American Statistician, Vol. 50, S. 361-365.
[63] Johnson, N.L./Kotz, S./Balakrishnan, N. (1994): Continuous univariate
distributions, 2. Aufl., Wiley.
[64] Johnson, R.A./Wichern, D.W. (2002): Applied Multivariate Statistical
Analysis, 5. Aufl., Pearson Education International.
[65] Johnston, J./DiNardo,
McGraw-Hill.

J.

(1997):

Econometric

Methods,

[66] Jorion, P. (2002): Value-at-Risk, 2. Aufl., McGraw-Hill.

4. Aufl.,

164

L I TERA T URVERZEI CHNIS

[67] Judge, G.G./Griffiths, W.E. et al. (1985): The Theory and Practice of
Econometrics, 2. Aufl., Wiley.
[68] Koenker, R./Bassett, G. (1978): Regression Quantiles, Econometrica, Vol.
46, S. 33-50.
[69] Kroner, K.F./Kneafsey, K.P./Claessens, S. (1995): Forecasting Volatility in
Commodity Markets, Journal of Forecasting, Vol. 14, S. 77-95.
[70] Kroner, K.F./Ng, V.K. (1998): Modeling Asymmetric Comovements of Asset
Returns, The Review of Financial Studies, Vol. 11, S. 817-844.
[71] Kupiec, P.H. (1995): Techniques for Verifying the Accuracy of Risk
Measurement Models, Journal of Derivatives, Vol. 3, S. 73-84.
[72] Lamoureux, C.G./Lastrapes, W.D. (1990): Persistence in Variance,
Structural Change, and the GARCH Model, Journal of Business & Economic
Statistics, Vol. 8, S. 225-234.
[73] Lintner, J. (1965): The Valuation of Risk Assets and the Selection of
Risky Investments in Stock Portfolios and Capital Budgets, The Review of
Economics and Statistics, Vol. 47, S. 13-37.
[74] Longin, F./Solnik, B. (1995): Is the correlation in international eqfiity returns
constant: 1960-1990?, Journal of International Money and Finance, Vol. 14,
S. 3-26.
[75] Mandelbrot, B. (1963): The variation of certain speculative prices, Journal
of Business, Vol. 36, S. 394-419.
[76] Manganelli, S./Engle, R.F. (2001): Value at Risk Models in Finance,
European Central Bank Working Paper Series No. 75.
[77] Markowitz, H. (1952): Portfolio Selection, The Journal of Finance, Vol. 7, S.
77-91.
[78] Marquardt, D.W. (1963): An Algorithm for Least-Squares Estimation of
Nonlinear Parameters, Journal of the Society for Industrial and Applied
Mathematics, Vol. 11, S. 431-441.
[79] McNeil, A.J./Frey, R. (2000): Estimation of tail-related risk measures for
heteroscedastic financial time series: an extreme value approach, Journal of
Empirical Finance, Vol. 7, S. 271-300.

LITERATURVERZEICHNIS

[80] Merbecks, A./Stegemann, U./Frommeyer, J. (2004):


Risikomanagement, Redline Wirtschaft bei ueberreuter.

165
Intelligentes

[81] Mills, T.C. (1993): The Econometric Modelling of Financial Time Series,
Cambridge University Press.
[82] Mittnik, S./Paolella, M.S. (2000): Conditional Density and Value-at-Risk
Prediction of Asian Currency Exchange Rates, Journal of Forecasting, Vol.
19, S. 313-333.
[83] Mittnik, S./Paolella, M.S./Rachev, S.T. (2000): Diagnosing and treating the
fat tails in financial returns data, Journa/of Empirical Finance, Vol. 7, S.
389-416.
[84] Morgan, J.P. (1996): RiskMetrics- Technical Document.
[85] Mossin, J. (1966): Equilibrium in a Capital Asset Market, Econometrica, Vol.
34, S. 768-783.
[86] Nelder, J.A./Mead, R. (1965): A simplex method for function minimization,
Computer Journal, Vol. 7, S. 308-313.
[87] Nelson, D.B. (1991): Conditional Heteroskedasticity in Asset Returns: A New
Approach, Econometrica, Vol. 59, S. 347-370.
[88] Nelson, D.B./Cao, C.Q. (1992): Inequality Constraints in the Univariate
GARCH Model, Journal of Business ~ Economic Statistics, Vol. 10, S.
229-235.
[89] Perridon, L./Steiner, M. (1999): Finanzwirtschaft der Unternehmung, 10.
Aufl, Vahlen.
[90] Pickands, J. (1975): Statistical Inference Using Extreme Order Statistics, The
Annals of Statistics, Vol. 3, S. 119-131.
[91] Pindyck, R.S./Rubinfeld, D.L. (1998): Econometric Models and Economic
Forecasts, 4. Aufl., McGraw-Hill.
[92] Poon, S.-H./Granger, C.W.J. (2003): Forecasting Volatility in Financial
Markets: A Review, Journal of Economic Literature, Vol. 41, S. 478-539.
[93] Reichling, P. (2003): Risikomanagement und Rating, Gabler.
[94] Sarma, M./Thomas, S./Shah, A. (2003): Selection of Value-at-Risk Models,
Journal of Forecasting, Vol. 22, S. 337-358.

166

LITERATURVERZEICHNIS

[95] Schwert, G.W. (1990): Stock Volatility and the Crash of '87, The Review of
Financial Studies, Vol. 3, S. 77-102.
[96] Sharpe, W.F. (1964): Capital Asset Prices: A Theory of Market Equilibrium
under Conditions of Risk, The Journal of Finance, Vol. 19, S. 425-442.
[97] Stahl, G. (1997): Three cheers, RISK, Vol. 10, S. 67-69.
[98] Stulz, R.M. (1996): Rethinking Risk Management, Journal of Applied
Corporate Finance, Vol. 9, S. 8-24.
[99] The Royal Swedish Academy of Sciences (2003): Time-series Econometrics:
Cointegration and Autoregressive Conditional Heteroskedasticity, Bank of
Sweden Prize in Economic Sciences in Memory of Alfred Nobel.
[100] West, K.D./Cho, D. (1995): The predictive ability of several models of
exchange rate volatility, Journal of Econometrics, Vol. 69, S. 367-391.
[101] White, H. (1982): Maximum Likelihood Estimation of Misspecified Models,
Econometrica, Vol. 50, S. 1-26.
[102] Zakoian, J.-M. (1994): Threshold heteroskedastic models, Journal of
Economic Dynamics and Control, Vol. 18, S. 931-955.

Das könnte Ihnen auch gefallen