Beruflich Dokumente
Kultur Dokumente
N 59 2000
Un test dhtroscdasticit
conditionnelle inspir
de la modlisation
en termes de rseaux
neuronaux artificiels
Renaud CAULET, Anne PEGUIN-FEISSOLLE *
RSUM. Ce papier considre un test d'htroscdasticit conditionnelle bas sur la mthode des rseaux neuronaux artificiels et en compare les performances avec des tests standards, l'aide de simulations de
Monte-Carlo. L'hypothse alternative d'htroscdasticit conditionnelle
est reprsente par une variance conditionnelle de forme neuronale ; le
test du Multiplicateur de Lagrange qui en dcoule permet de dtecter une
grande varit de formes d'htroscdasticit conditionnelle. Les rsultats
des simulations, prsents sous forme graphique, montrent que ce test est
relativement performant.
1 Introduction
La modlisation conomtrique en termes d'htroscdasticit conditionnelle s'est largement rpandue dans la littrature depuis l'article d'ENGLE en
1982 introduisant les modles ARCH (AutoRegressive Conditionally
Heteroscedastic). De nombreuses variantes en ont t proposes et appliques, particulirement dans le domaine financier (cf. BOLLERSLEV, CHOU et
KRONER [1992], BERA et HIGGINS [1993] et BOLLERSLEV, ENGLE et NELSON
[1994]). Se sont dvelopps paralllement des tests d'htroscdasticit conditionnelle, par exemple le test du Multiplicateur de Lagrange propos par
ENGLE [1982], ou des variantes des tests de Box-Pierce ou de Ljung-Box
(cf. MCLEOD et LI [1989]).
Nous nous intressons ici un test d'htroscdasticit conditionnelle,
inspir des techniques de modlisation en termes de rseaux neuronaux artificiels, ces dernires ayant la proprit d'approcher relativement bien une large
classe de fonctions. Sur cette base, l'hypothse alternative d'htroscdasticit
conditionnelle est reprsente par une variance conditionnelle de forme
neuronale ; le test du Multiplicateur de Lagrange qui est construit sur ce
modle permet de dtecter relativement bien une grande varit de formes
d'htroscdasticit conditionnelle. Rcemment, LEE, WHITE et GRANGER
[1993] ont propos un test de linarit bas sur ces techniques.
Nous comparons, par simulation et sur un large vantail de spcifications
possibles de la variance conditionnelle, les performances de ce test avec
celles de trois autres tests d'htroscdasticit conditionnelle, dont l'un est un
test neuronal labor par KAMSTRA [1993], mais utilisant une statistique diffrente.
Le plan de l'article est le suivant. Nous prsentons, dabord, le test d'htroscdasticit conditionnelle, ensuite, les rsultats des simulations et, enfin,
une conclusion fait l'objet de la dernire partie.
yt = xt0 + t
t = 1,..., T
avec
(2)
t xt ,Jt1 I I N (0,h t ).
Jt reprsente l'ensemble d'information en t, comprenant les variables endognes retardes et les variables exognes ; yt est la variable endogne et xt est
178
h t = h(Jt1 ,)
j=1
179
q
X
j (wt0 j )
j=1
h t = 0 +
q
X
j =1
j (wt0 j ),
o wt = (1,t1 ,...,tn )0 est le vecteur des inputs ; les poids des diffrentes
couches sont reprsents comme ci-dessus par j0 , j1 , ... et jn pour
j = 1,...,q
, ainsi que
0 par 0 , 1 , ..., et q ; les j se dfinissent par
h t = 0 +
q
X
j=1
j
.
+
1 + e ( j0 j1 t1 +...+ jn tn )
Il est intressant de noter, ici, que cette formulation permet aux chocs
d'avoir des effets asymtriques : les effets des chocs positifs et ngatifs ne
seront pas les mmes, contrairement certaines formulations traditionnelles
180
H0 : j = 0
j = 1,..., q
dans le modle donn par (1), (2) et (6), pour un choix particulier des vecteurs
1 ,..., q et pour un nombre q d'units caches. Suivant LEE, WHITE et
GRANGER [1993], les poids ji de la couche d'inputs sont choisis a priori,
indpendamment des erreurs passes, pour q N ; ce choix permet de
rsoudre le problme de la non-identification des ji sous l'hypothse nulle.
En supposant l'indpendance et la normalit conditionnelle des erreurs, la
vraisemblance logarithmique s'crit
(8)
ln L( ) =
T
X
lt (yt | )
t=1
avec
(9)
1
1
1
(yt m t )2
lt (yt | ) = ln 2 ln h t
2
2
2h t
H0 : = 0 contre H1 : =
/ 0,
UN TEST DHTROSCDASTICIT CONDITIONNELLE
181
2
1 X b
t
h t 0
NNLM =
1
2 t b
0
2
!
!!1
X h t h t
X h t
1 X h t
0
T
t
t
t
!
!
X b
t2
h t
;
1
0
b
2
t
R , l'estimateur restreint de , calcul sous
cette expression est value en b
H0 ; b
t , t = 1,..., T, est le rsidu estim du modle (1) sous H0 :
b
t = yt xt0b
et b
2 =
t = 1,..., T
b
t2 /T . La statistique NNLM est asymptotiquement distribue
b
t2
h t
1 = 0 + 0 + t
2
b
t = 1,..., T,
h t
est le vecteur q 1
(13)
1
h t
=
+
b
t1 +...+ jnb
tn )
(
j0
j1
j
1+e
j = 1,...,q
!0
2
b
1
b
T2
1,..., 2 1
et = (1 ,...,T )0 , deux vecteurs
Posons =
b
2
b
X =
h t
j0
!
.
t=1,...,T
j=1,...,q
= W + .
!
X b
t2
h t
1
= X 0
0
2
t
et
X h t h t
1
T
t
!
!
X h t
X h t
= X 0 Mi X
t
t
1 0
ii . En utilisant les proprits des matrices partitionnes et le
T
Xb
t2
T = 0, il est facile de montrer que
fait que i 0 =
b
2
1 0
1
NNLM = 0 X X 0 Mi X
X
2
1 0
1
= 0 W W 0 W
W .
2
Ainsi, nous pouvons crire NNLM comme la moiti de la somme explique
des carrs de la rgression auxiliaire reprsente par (12) ou (14), c'est-dire :
o Mi = I
1
2
NNLM = b
0b
(15)
183
La statistique de test LM contre des erreurs ARCH(n) est donne par (voir
formule (35) dans ENGLE [1982]) :
ALM =
(16)
b
12
b
2
b
T2
1 0
Z (Z 0 Z )1 Z 0
2
!0
2 ,...,b
2 ).
1,..., 2 1 , Z 0 = (z 1 ,...,z T ) , et z t0 = (1,b
t1
tn
b
0 Z (Z 0 Z )1 Z 0
= TR2
0
AR2 = T
h t = 0 +
q
X
j=1
1+e
2 +...+ 2
j0 + j1 t1
jn tn
NNR2 = TR2
N
X
b i) = 1
I ( p j 6 xi )
F(x
N j =1
si p j 6 xi
sinon
1. Nous prfrons utiliser, ici, le terme anglais de p-value plutt que sa traduction franaise.
185
FIGURE 2
FIGURE 3
FIGURE 4
FIGURE 5
186
suivant LEE, WHITE et GRANGER [1993]. Par ailleurs, les statistiques NNLM et
NNR2 sont calcules en utilisant les q = 4 plus grandes composantes principales au lieu des variables originelles dans les rgressions auxiliaires
respectives, ce qui permet d'viter les problmes poss parfois par leur
nombre trop important ou leur trop forte corrlation ; le nombre choisi
d'units caches est q = 10.
yt = 0.25 + 0.5xt + t
t = 1,..., T
187
FIGURE 6
FIGURE 7
FIGURE 8
FIGURE 9
188
est T = 100. Le modle de rgression est donn par (22) avec diffrentes
(23)
cas 2 ( n = 3 ) : Figure 4
2 + 0.3 2 + 0.3 2
h t = 0.2 + 0.3t1
t2
t3
(24)
cas 3 ( n = 3 ) : Figure 5
2 + 0.7h
h t = 0.2 + 0.2t1
t1
(25)
cas 4 ( n = 1 ) : Figure 6
0.5
0.5
0.5
0.5
2
2
2
+ 0.2 t2
+ 0.3 t3
(26) h t = 0.2 + 0.3 t1
cas 5 ( n = 3 ) : Figure 7
(27)
1
2
2
2
2
h t = 0.2 + 0.5 t3
+ 0.5 h t3
cas 6 ( n = 2 ) : Figure 8
(28)
h t = 10 +
70
1 + e0.2+0.4t1 +0.9t2
90
1 + e0.9+0.1t1 +0.5t2
cas 7 ( n = 3 ) : Figure 9
0.01 + 5
t3
h t = .
(29)
2
1 + 2.5t3
1
si t1 > 0
si t1 < 0
cas 8 ( n = 3 ) : Figure 10
(30)
ht =
1
2
0.01 + 2.5t5
cas 9 ( n = 2 ) : Figure 11
(31)
h t = e0.1+0.5t2
cas 10 ( n = 3 ) : Figure 12
UN TEST DHTROSCDASTICIT CONDITIONNELLE
189
FIGURE 10
FIGURE 11
FIGURE 12
FIGURE 13
190
h
i
2
2
1 e10t5
h t = 1 + t5
(32)
cas 11 ( n = 3 ) :
10
ht =
0.1
(33)
si t1 > 0
si t1 < 0
cas 12 ( n = 3 ) :
(34)
2 + 5 t3
h t =
0.001
si t1 > 0
si t1 < 0
Les figures 3 14 illustrent ainsi le comportement des tests dans des cas
diffrents. Certains correspondent des formes fonctionnelles proposes dans
la littrature : ARCH dans les cas 1 et 2, le cas 3 est un GARCH(1,1), le cas 4
est un ARCH non linaire, le cas 5 un GARCH non linaire. Les autres cas
correspondent des formes non standard d'htroscdasticit ; par exemple,
les cas 7, 11 et 12 sont des formes seuil et le cas 6 a une forme de rseau
neuronal artificiel.
Par ailleurs, chaque exprience de simulation est mene avec q = 4 , cest-dire les statistiques NNLM et NNR2 sont calcules avec 4 composantes
principales dans la rgression auxiliaire (plus la constante) sur la base de
q = 10 units sur la couche cache. Pour chaque test, le nombre de retards
des erreurs dans les rgressions auxiliaires est n = 3 (hormis dans les cas 4 et
6). Ainsi, certains cas permettent de voir l'influence d'une mauvaise spcification de la forme fonctionnelle de l'htroscdasticit conditionnelle sur les
performances des diffrents tests.
En effet, que n soit suprieur au nombre de retards de t qui a servi
gnrer le modle sous l'hypothse alternative (comme dans les cas 1, 3 et
11), ou qu'il en soit infrieur (cas 4, 8 ou 10 par exemple), ceci ne nuit en rien
aux performances compares du test neuronal par rapport aux autres tests,
puisque la statistique NNLM reste dans la plupart des cas au-dessus des autres
statistiques ; ceci est important noter puisque, dans les applications des
donnes relles, on ne connatra pas gnralement le vrai modle ayant
gnr les donnes.
Les figures montrent dans leur ensemble que le test neuronal (reprsent
par la statistique NNLM) se comporte tout fait bien ; il domine souvent les
autres procdures de test, surtout lorsqu'il s'agit de formes d'htroscdasticit
autres que les formes ARCH ou GARCH standard. En effet, NNLM n'est pas la
meilleure statistique dans les figures 3, 4, 5 et 7 ; en revanche, pour tous les
autres cas, la courbe correspondant la statistique NNLM est nettement audessus des autres courbes.
Les figures 10, 12 et 13 montrent des cas particuliers o les tests, hormis le
test neuronal et le test d'Engle donn par ALM, prsentent de srieux
problmes. En effet, les deux tests correspondant aux statistiques AR 2 et
N N R 2 se comportent assez mal : leurs courbes taille-puissance sont trs
proches de la premire bissectrice, ou bien leur taille est suprieure leur
puissance ; ils sont, ainsi, parfois biaiss, selon la faon dont les donnes sont
engendres.
UN TEST DHTROSCDASTICIT CONDITIONNELLE
191
FIGURE 14
FIGURE 15
FIGURE 16
FIGURE 17
192
Enfin, nous avions not dans le paragraphe 2.2 que la variance conditionnelle h t , donne par la formule (6) et ayant servi construire la statistique
NNLM, permettrait de tenir compte d'effets asymtriques possibles des t
selon leurs signes ; ceci se vrifie dans les cas 6, 7, 9, 11 et 12 qui incorporent
de tels effets et pour lesquels la statistique NNLM se dtache, en effet nettement des autres statistiques.
3.4.2 Influence du nombre d'observations et du nombre
de composantes principales sur le test neuronal
Les deux figures suivantes (15 et 16) exposent les courbes taille-puissance
pour le test neuronal en fonction du nombre d'observations T et du nombre de
composantes principales q . Pour ces deux figures, le modle alternatif est
donn par (22) et
1
1.5
1.5
1.5
1.5
(35) h = 0.2 + 0.3 2
+ 0.2 2
+ 0.3 2
.
t
t1
t2
t3
yt = 0.25 + 0.5yt1 + t
t = 1,..., T
193
4 Conclusion
Nous venons d'exposer un test d'htroscdasticit conditionnelle inspir de
la modlisation reposant sur les rseaux neuronaux artificiels. Il est bien
connu que les rsultats des simulations de Monte-Carlo dpendent de
nombreux facteurs. Nanmoins, le test neuronal (reprsent par la statistique
NNLM) montre dans ces simulations des performances suprieures celles de
la forme LM du test d'Engle, surtout lorsqu'on est en prsence d'une forme
d'htroscdasticit autre qu'un ARCH ou un GARCH standard ; il semble
ainsi efficace dans un large ventail de cas possibles d'htroscdasticit
conditionnelle, comme on peut le voir dans les diffrents graphes. On peut,
donc, esprer qu'il permette de la dtecter dans des applications conomiques.
194
Rfrences bibliographiques
BERA A.K., HIGGINS M.L. [1993]. ARCH Models: Properties, Estimation and Testing ,
Journal of Economic Surveys, 7, 4, pp. 305-366.
BOLLERSLEV T., CHOU R.Y., KRONER K.F. [1992]. ARCH Modeling in Finance: a
Review of the Theory and Empirical Evidence , Journal of Econometrics, 52, 1/2,
pp. 5-60.
BOLLERSLEV T., ENGLE R.F., NELSON, D.B. [1994]. Arch Models , The Handbook of
Econometrics, vol. 4, North-Holland.
CAROLL S.M., DICKINSON B.W. [1989]. Construction of Neural Nets using the Radon
Transform , in Proceedings of the international joint conference on neural networks,
Washington, D.C., IEEE Press, I: pp. 607-611.
CYBENKO G. [1989]. Approximation by Superpositions of a Sigmoid Function ,
Mathematics of Control, Signals and Systems, 2, pp. 303-314.
DAVIDSON R., MACKINNON J.G. [1993]. Estimation and Inference in Econometrics,
Oxford University Press.
DAVIDSON R., MACKINNON J.G. [1994]. Graphical Methods for Investigating the Size
and Power of Hypothesis Tests , GREQAM Working Paper No 94A23, Marseille,
France.
DONALDSON R.G., KAMSTRA M. [1997]. An Artificial Neural Network-GARCH Model
for International Stock Return Volatility , Journal of Empirical Finance, 4, pp. 17-46.
ENGLE R.F. [1982]. Autoregressive Conditional Heteroskedasticity with Estimates of
the Variance of United-Kingdom Inflation , Econometrica, 50, 4, pp. 987-1007.
HORNIK K., STINCHCOMBE M., WHITE H. [1989]. Multi-layer Feedforward Networks are
Universal Approximators , Neural Networks, 2, pp. 359-366.
HORNIK K., STINCHCOMBE M., WHITE H. [1990]. Universal Approximation of an
Unknown Mapping and its Derivatives Using Multi-layer Feedforward Networks ,
NEURAL NETWORKS, 3, pp. 551-560.
HSIEH D.A. [1989]. Modeling Heteroscedasticity in Daily Foreign-Exchange Rates ,
Journal of Business & Economic Statistics, 7, 3, pp. 307-317.
KAMSTRA M. [1993]. A Neural Network Test for Heteroskedasticity , Working Paper,
Simon Fraser University, Burnaby, Canada.
KUAN C.M., WHITE H. [1994]. Artificial Neural Networks: an Econometric
Perspective , Econometric Reviews, 13, 1, pp. 1-91.
LEE T.H., WHITE H., GRANGER C.W.J. [1993]. Testing for Neglected Nonlinearity in
Time Series Models A Comparison of Neural Network Methods and Alternative
Tests , Journal of Econometrics, 56, pp. 269-290.
MCLEOD A.I., LI W.K. [1989]. Diagnostic Checking ARMA Time Series Models using
Squared-Residual Autocorrelations , Journal of Time Series Analysis, 4, 4, pp. 269-273.
STERN H.S. [1996]. Neural Networks in Applied Statistics , Technometrics, 38, 3,
pp. 205-214.
STINCHCOMBE M., WHITE H. [1989]. Universal Approximation using Feedforward
Networks with Non-sigmoid Hidden Layer Activation Functions , in Proceedings of the
international joint conference on neural networks, Washington, D.C., IEEE Press,
I: pp. 613-618.
195
ANNEXE
Sous l'hypothse d'indpendance et de normalit conditionnelle des erreurs,
la vraisemblance logarithmique conditionnelle ln L() est donne par (8) et
(9) et h t est donne par (6). La statistique LM pour tester l'hypothse nulle
reprsente par (10) s'crit
1
NNLM =
T
0
1 ln L( )
ln L( )
I (b
R )
=b
=b
R
R
"
1 h t h t
1 m t m t
I () = E
+
0
2
h t 0
2h t
ou
I () =
avec
11
I ()
I 12 ()
I 21 ()
I 22 ()
1 m t m t
E
h t 0
I 11 () =
#
,
1 h t h t
E
2h 2t 0 00
"
I 12 () = I 21 ()0 =
#
1 h t h t
E
2h 2t 0 0
"
et
#
1 h t h t
.
=E
2h 2t 0
"
I 22 ()
196
1
T
1
ln L( ) 0 22
21 ( ) I 11 ( ) 1 I 12 ( )
I
(
)
I
0
ln L( )
,
0
X
1
h t h t 1 X h t
h t
0 T
0
t
t
t
X b
2
t
t
b
2
h t
1
0
!
.
197