Sie sind auf Seite 1von 22

ANNALES DCONOMIE ET DE STATISTIQUE.

N 59 2000

Un test dhtroscdasticit
conditionnelle inspir
de la modlisation
en termes de rseaux
neuronaux artificiels
Renaud CAULET, Anne PEGUIN-FEISSOLLE *
RSUM. Ce papier considre un test d'htroscdasticit conditionnelle bas sur la mthode des rseaux neuronaux artificiels et en compare les performances avec des tests standards, l'aide de simulations de
Monte-Carlo. L'hypothse alternative d'htroscdasticit conditionnelle
est reprsente par une variance conditionnelle de forme neuronale ; le
test du Multiplicateur de Lagrange qui en dcoule permet de dtecter une
grande varit de formes d'htroscdasticit conditionnelle. Les rsultats
des simulations, prsents sous forme graphique, montrent que ce test est
relativement performant.

A Test for Conditional Heteroscedasticity Based


on Artificial Neuronal Networks
ABSTRACT. This paper considers a test for conditional heteroscedasticity based on artificial neural networks and compares its performance
with some standard tests using a Monte Carlo study. The conditionally
heteroscedastic alternative hypothesis is represented by a conditional
variance with a neural specification; the Lagrange Multiplier test can detect
a large class of conditional heteroscedasticity. The results of the simulation
experiments, that are entirely presented in graphical form, show that its
relative performance is encouraging.

* R. CAULET : GREQAM ; A. PEGUIN-FEISSOLLE : GREQAM-CNRS


Nous remercions F. APRAHAMIAN, M. KAMSTRA, J. MACKINNON, T. TERSVIRTA et un rapporteur anonyme pour les remarques qu'ils nous ont apportes sur des versions
antrieures de ce papier. Bien entendu, les erreurs ou imperfections qui pourraient
subsister sont de notre seule responsabilit.

1 Introduction
La modlisation conomtrique en termes d'htroscdasticit conditionnelle s'est largement rpandue dans la littrature depuis l'article d'ENGLE en
1982 introduisant les modles ARCH (AutoRegressive Conditionally
Heteroscedastic). De nombreuses variantes en ont t proposes et appliques, particulirement dans le domaine financier (cf. BOLLERSLEV, CHOU et
KRONER [1992], BERA et HIGGINS [1993] et BOLLERSLEV, ENGLE et NELSON
[1994]). Se sont dvelopps paralllement des tests d'htroscdasticit conditionnelle, par exemple le test du Multiplicateur de Lagrange propos par
ENGLE [1982], ou des variantes des tests de Box-Pierce ou de Ljung-Box
(cf. MCLEOD et LI [1989]).
Nous nous intressons ici un test d'htroscdasticit conditionnelle,
inspir des techniques de modlisation en termes de rseaux neuronaux artificiels, ces dernires ayant la proprit d'approcher relativement bien une large
classe de fonctions. Sur cette base, l'hypothse alternative d'htroscdasticit
conditionnelle est reprsente par une variance conditionnelle de forme
neuronale ; le test du Multiplicateur de Lagrange qui est construit sur ce
modle permet de dtecter relativement bien une grande varit de formes
d'htroscdasticit conditionnelle. Rcemment, LEE, WHITE et GRANGER
[1993] ont propos un test de linarit bas sur ces techniques.
Nous comparons, par simulation et sur un large vantail de spcifications
possibles de la variance conditionnelle, les performances de ce test avec
celles de trois autres tests d'htroscdasticit conditionnelle, dont l'un est un
test neuronal labor par KAMSTRA [1993], mais utilisant une statistique diffrente.
Le plan de l'article est le suivant. Nous prsentons, dabord, le test d'htroscdasticit conditionnelle, ensuite, les rsultats des simulations et, enfin,
une conclusion fait l'objet de la dernire partie.

2 Prsentation du test neuronal


Le modle de rgression avec erreurs conditionnellement htroscdastiques s'crit :
(1)

yt = xt0 + t

t = 1,..., T

avec
(2)

t xt ,Jt1 I I N (0,h t ).

Jt reprsente l'ensemble d'information en t, comprenant les variables endognes retardes et les variables exognes ; yt est la variable endogne et xt est
178

un vecteur k 1 d'lments de Jt ; est un vecteur k 1 de paramtres


inconnus. La variance conditionnelle s'exprime gnralement comme
(3)

h t = h(Jt1 ,)

o est un vecteur de paramtres inconnus ; par exemple, nous avons un


2 + ... + 2
modle ARC H (q) si h t = 0 + 1 t1
q tq ou un modle
G ARC H ( p,q) si
q
p
X
X
2
h t = 0 +
j t
+
j h t j
j
j=1

j=1

( est alors le vecteur constitu des paramtres 0, 1, ..., q, 1 , ..., p).


L'hypothse nulle laquelle nous nous intressons est l'hypothse d'homoscdasticit, savoir celle caractrise par la constance de la variance
conditionnelle h t . Nous allons considrer un test particulier d'htroscdasticit conditionnelle dans lequel l'hypothse alternative est caractrise par une
variance conditionnelle h t de forme neuronale.

2.1 Bref aperu des rseaux neuronaux artificiels


Les modles de neurones artificiels ont t introduits par les cogniticiens
afin de reprsenter la faon dont l'information est traite dans le cerveau (cf.,
par exemple, STERN [1996]). L'architecture du rseau que nous choisissons de
prsenter et d'utiliser ensuite pour la construction du test est celle d'un rseau
trs simple, avec une seule couche cache ; elle est dcrite dans la figure 1.
Ce rseau se compose de trois couches : la couche d'inputs, la couche cache
et la couche d'outputs. Les n units d'input envoient des signaux nots x1 , ...,
xn , amplifis ou attnus par des facteurs de pondration i j , q units ou
noeuds cachs ; les units caches somment les signaux et gnrent une fonction d'activation . Les signaux des units caches, pondrs par des poids j
pour j = 1 , ..., q, sont envoys ensuite dans la couche d'output ; ici, un seul
FIGURE 1
Rseau de neurones n inputs, une seule couche cache et un seul output

UN TEST DHTROSCDASTICIT CONDITIONNELLE

179

output est considr. En faisant intervenir chaque couche la constante 1, cet


output unique s'exprime de la faon suivante, en posant = (0 , 1 , ...,
q )0 :
(4)

f (wt ,,1 ,..,q ) = 0 +

q
X

j (wt0 j )

j=1

o wt = (1,x1 ,...,xn )0 est le vecteur d'inputs, j = ( j0 , j1 ,..., jn )0 est le


vecteur des poids de la couche d'inputs, pour j = 1,...,q , et est une fonction non linaire donne de R vers R ; trs souvent, est la fonction
logistique de la forme : () = (1 + e )1 , R. D'autres fonctions
pourraient tre utilises, comme la fonction tangente hyperbolique.
D'autres rseaux plus complexes ont t tudis, par exemple, avec
plusieurs couches caches, des liens directs entre les deux couches extrmes
ou des rcurrences entre diverses couches.
La littrature sur les rseaux neuronaux artificiels a montr que des fonctions de la forme (4) fournissent des approximations relativement bonnes de
fonctions arbitraires de wt , pour q suffisamment grand et un choix convenable
des vecteurs et j , j = 1,...,q (voir, par exemple, HORNIK, STINCHCOMBE et
WHITE [1989 et 1990], STINCHCOMBE et WHITE [1989], CYBENKO [1989],
CAROLL et DICKINSON [1989], parmi d'autres). C'est en raison de cette flexibilit que les techniques des rseaux neuronaux artificiels ont attir l'attention
de certains auteurs (voir, KUAN et WHITE [1994]). Cette qualit particulire de
tels rseaux, qui ont d'ailleurs t appels approximateurs universels, va tre
exploite dans ce qui suit pour construire un test permettant de dtecter des
formes diverses d'htroscdasticit conditionnelle.

2.2 Construction du test neuronal


Nous allons considrer le modle de rgression (1) et (2) dans lequel la
variance conditionnelle h t est une fonction neuronale de la forme suivante :
(5)

h t = 0 +

q
X
j =1

j (wt0 j ),

o wt = (1,t1 ,...,tn )0 est le vecteur des inputs ; les poids des diffrentes
couches sont reprsents comme ci-dessus par j0 , j1 , ... et jn pour
j = 1,...,q
, ainsi que
0 par 0 , 1 , ..., et q ; les j se dfinissent par

j = j0 , j1 ,..., jn pour tout j et est la fonction logistique. Les retards


du terme d'erreur jouent le rle des variables d'input du rseau. Ainsi, la
variance conditionnelle h t s'crit
(6)

h t = 0 +

q
X
j=1

j
.

+
1 + e ( j0 j1 t1 +...+ jn tn )

Il est intressant de noter, ici, que cette formulation permet aux chocs
d'avoir des effets asymtriques : les effets des chocs positifs et ngatifs ne
seront pas les mmes, contrairement certaines formulations traditionnelles
180

de modles htroscdasticit conditionnelle telles que les formulations


ARCH et GARCH ; divers modles (comme les modles EGARCH et
TARCH, par exemple) ont d'ailleurs t proposs dans la littrature afin de
capter ce type d'effets. Nous reviendrons sur ceci lorsque nous commenterons
certains exemples de simulation.
Certains auteurs comme DONALDSON et KAMSTRA [1997] ont estim des
modles ARCH utilisant des fonctions neuronales dans lesquels la variance
conditionnelle a une forme se rapprochant de (6) ; notre objectif est diffrent
puisque nous introduisons une variance conditionnelle de forme neuronale
afin de construire un test qui permette de dtecter des classes assez larges
d'htroscdasticit, comme nous le verrons dans les expriences de simulation.
Le test d'htroscdasticit conditionnelle que nous exposons ici s'intresse
l'hypothse nulle suivante :
(7)

H0 : j = 0

j = 1,..., q

dans le modle donn par (1), (2) et (6), pour un choix particulier des vecteurs
1 ,..., q et pour un nombre q d'units caches. Suivant LEE, WHITE et
GRANGER [1993], les poids ji de la couche d'inputs sont choisis a priori,
indpendamment des erreurs passes, pour q N ; ce choix permet de
rsoudre le problme de la non-identification des ji sous l'hypothse nulle.
En supposant l'indpendance et la normalit conditionnelle des erreurs, la
vraisemblance logarithmique s'crit
(8)

ln L( ) =

T
X

lt (yt | )

t=1

avec
(9)

1
1
1
(yt m t )2
lt (yt | ) = ln 2 ln h t
2
2
2h t

o 0 = ( 0 , 0 ) = ( 0 ,0 , 0 ) avec = (1 ,...,q )0 et 0 = (0 , 0 ) ; par


ailleurs, m t = xt0 et h t est donn par (6). Il faut noter, ici, que la vraisemblance logarithmique dfinie en (8) et (9) est galement conditionnelle
certaines valeurs initiales des variables xt et yt et qu'en outre, elle dpend
galement des xt, pour t = 1,..., T. Nous supposerons, galement, satisfaites
les conditions assurant les proprits asymptotiques du maximum de vraisemblance.
Nous utilisons la procdure de test du Multiplicateur de Lagrange : cette
procdure ncessite seulement l'estimation du modle sous l'hypothse nulle.
Rappelons que les ji sont supposs connus a priori. La statistique LM qui
sert tester
(10)

H0 : = 0 contre H1 : =
/ 0,
UN TEST DHTROSCDASTICIT CONDITIONNELLE

181

est donne par (voir Annexe) :


(11)



  2
1 X b
t
h t 0
NNLM =
1
2 t b
0
2

!
!!1
X h t h t
X h t
1 X h t

0
T
t
t
t

!
!
X b
t2
h t
;
1
0
b
2
t
R , l'estimateur restreint de , calcul sous
cette expression est value en b
H0 ; b
t , t = 1,..., T, est le rsidu estim du modle (1) sous H0 :
b
t = yt xt0b

et b
2 =

t = 1,..., T

b
t2 /T . La statistique NNLM est asymptotiquement distribue

comme une q2 sous H0 .


Considrons la rgression auxiliaire suivante :
(12)
o

b
t2
h t
1 = 0 + 0 + t
2
b

t = 1,..., T,

h t
est le vecteur q 1

(13)

1
h t
=

+
b
t1 +...+ jnb
tn )
(
j0
j1
j
1+e

j = 1,...,q

qui est donc valu en b


, l'estimateur de obtenu sous H0 .

!0
2
b
1
b
T2

1,..., 2 1
et = (1 ,...,T )0 , deux vecteurs
Posons =
b
2
b

T 1 , et W = (i,X ), une matrice T (q + 1), o i est le vecteur T 1


tel que i = (1,...,1)0 et X est la matrice T q dfinie par

X =

h t
j0

!
.
t=1,...,T
j=1,...,q

La rgression (12) s'exprime encore


(14)
182

= W + .

Les diffrents lments de (11) peuvent s'crire

!
X b
t2
h t
1
= X 0
0
2

t
et

X h t h t
1

T
t

!
!
X h t
X h t
= X 0 Mi X

t
t

1 0
ii . En utilisant les proprits des matrices partitionnes et le
T
Xb
t2
T = 0, il est facile de montrer que
fait que i 0 =
b
2
1 0
1
NNLM =  0 X X 0 Mi X
X 
2
1 0
1
=  0 W W 0 W
W  .
2
Ainsi, nous pouvons crire NNLM comme la moiti de la somme explique
des carrs de la rgression auxiliaire reprsente par (12) ou (14), c'est-dire :
o Mi = I

1
2

NNLM = b

 0b

(15)

 est le vecteur T 1 des variables endognes estimes dans la rgreso b


sion auxiliaire (12).

3 Les expriences de Monte-Carlo

Des sries univaries seront engendres partir de diffrents modles


choisis pour reprsenter un ventail assez large de formes d'htroscdasticit
conditionnelle. Les mthodes de Monte-Carlo sont utilises pour comparer le
test neuronal donn par (15) avec d'autres tests.

3.1 Tests alternatifs


Pour tudier les proprits de taille et de puissance du test neuronal en petit
chantillon, nous les comparons avec celles de trois autres tests :
UN TEST DHTROSCDASTICIT CONDITIONNELLE

183

La statistique de test LM contre des erreurs ARCH(n) est donne par (voir
formule (35) dans ENGLE [1982]) :
ALM =

(16)

b
12
b
2

b
T2

1 0
 Z (Z 0 Z )1 Z 0 
2

!0

2 ,...,b
2 ).
1,..., 2 1 , Z 0 = (z 1 ,...,z T ) , et z t0 = (1,b
t1
tn
b

Une statistique asymptotiquement quivalente (provenant du fait que


plim  0  /T = 2 sous l'hypothse de normalit) est la suivante (voir
formule (36) dans ENGLE [1982]):
(17)

 0 Z (Z 0 Z )1 Z 0 
= TR2
 0 

AR2 = T

o R 2 est le carr du coefficient de corrlation multiple entre et Z.


Le test de Kamstra (KAMSTRA [1993]) est un test neuronal d'htroscdasticit conditionnelle o la variance conditionnelle prend la forme :

h t = 0 +

q
X
j=1

1+e

2 +...+ 2
j0 + j1 t1
jn tn

la statistique qui est utilise est la suivante :


(18)

NNR2 = TR2

o R 2 est le carr du coefficient de corrlation multiple de la rgression auxih t


t2 sur une constante et le vecteur
valu sous H0 (KAMSTRA
liaire de b

[1993] recommande de prendre les plus grandes composantes principales de
la matrice des rgresseurs dans cette rgression auxiliaire).
Les trois statistiques de test donnes par (16), (17) et (18) suivent asymptotiquement une distribution du 2 avec, respectivement, n (pour (16), (17)) et
q (pour (18)) degrs de libert sous l'hypothse nulle.
Les notations des diffrentes statistiques de test (NNLM, ALM, AR 2 and
N N R 2 ) illustrent bien l'ide qu'il existe deux alternatives (A reprsentant l'alternative ARCH et NN reprsentant l'alternative neuronale) et deux formes de
test (la forme LM et la forme T R 2).

3.2 Mise en place des simulations


Les expriences de simulation nous permettent de comparer les performances de ces diffrents tests. Nous prsentons les rsultats concernant la
taille et la puissance en utilisant la prsentation graphique de DAVIDSON et
MACKINNON [1993 et 1994]. Elle conduit des graphes qui sont beaucoup
184

plus faciles interprter que les tableaux habituellement utiliss pour


prsenter ce type de rsultats. Ces graphes sont construits partir de la fonction de distribution empirique des p-values 1 de ralisations simules j ,
j = 1,..., N , d'une statistique de test . Appelons p j la p-value associe j ;
il s'agit de la probabilit d'observer une valeur de plus grande que j relativement une distribution F( ). La fonction de distribution empirique des p j
est dfinie par
(19)

N
X
b i) = 1
I ( p j 6 xi )
F(x
N j =1

o I est la fonction indicatrice suivante :



1
I ( p j 6 xi ) =
(20)
0

si p j 6 xi
sinon

et xi est un point de l'intervalle [0,1] . Puisque N est gnralement trs grand,


b i ) , donn par
DAVIDSON et MACKINNON [1994, p. 2] conseillent d'valuer F(x
(19), en m points xi , i = 1,..., m , qui devront fournir une reprsentation
raisonnable de l'intervalle [0,1] ; tant donn qu'il est difficile d'tablir de
faon catgorique la valeur de m et le choix des xi , ces auteurs recommandent
de prendre
(21) xi = 0.002, 0.004,..., 0.01, 0.02,..., 0.99, 0.992,..., 0.998 (m = 107)
qui, d'aprs de nombreuses expriences, s'avre tre un ensemble tout fait
parcimonieux.
En ce qui concerne la taille des diffrents tests, nous savons que si la distribution de est correcte, chacun des p j doit tre distribu uniformment sur
b i ) contre xi doit tre
l'intervalle [0,1] ; par consquent, le graphe des F(x
b i ) xi contre xi doit
proche de la droite 45, ou encore le graphe des F(x
tre proche de l'axe horizontal.
En ce qui concerne la puissance des diffrents tests, cest--dire lorsque les
donnes sont engendres sous l'hypothse alternative, nous donnerons les
courbes taille-puissance ; elles reprsentent le graphe de la puissance contre la
b, la fonction de distrivraie taille de chaque test : l'axe horizontal reprsente F
bution empirique lorsque les donnes sont engendres sous l'hypothse nulle,
b , la fonction de distribution empirique lorsque
et l'axe vertical reprsente F
les donnes sont engendres sous l'hypothse alternative, cest--dire selon un
modle conditionnellement htroscdastique. Ainsi, les courbes taille-puissance sont engendres selon une taille correcte (DAVIDSON et MACKINNON
[1994, p. 11]).
En outre, pour ce qui concerne le test neuronal, les poids ji des units
caches sont engendrs alatoirement, pour chaque itration, selon une distribution uniforme sur [2,2] et les variables yt et xt sont normes sur [0,1] ,

1. Nous prfrons utiliser, ici, le terme anglais de p-value plutt que sa traduction franaise.

UN TEST DHTROSCDASTICIT CONDITIONNELLE

185

FIGURE 2

FIGURE 3

FIGURE 4

FIGURE 5

186

suivant LEE, WHITE et GRANGER [1993]. Par ailleurs, les statistiques NNLM et
NNR2 sont calcules en utilisant les q = 4 plus grandes composantes principales au lieu des variables originelles dans les rgressions auxiliaires
respectives, ce qui permet d'viter les problmes poss parfois par leur
nombre trop important ou leur trop forte corrlation ; le nombre choisi
d'units caches est q = 10.

3.3 Rsultats des simulations sous l'hypothse nulle


Les donnes sont engendres partir du modle normal homoscdastique
suivant :
(22)

yt = 0.25 + 0.5xt + t

t = 1,..., T

o t I I N (0,1) et xt = 0.7xt1 + t avec t I I N (0,1) . Le nombre


d'itrations, N, est gal 2 500 ; le nombre d'inputs est n = 3 (plus la
constante).
Nous ne donnons pas les graphes de la fonction de distribution empirique
b i ) contre xi car ils sont tous pratiquement confondus avec la droite 45.
F(x
b i ) xi contre xi pour T = 200. Bien
La figure 2 montre les graphes de F(x
b
que ces carts F(xi ) xi soient faibles, il apparat, nanmoins, que tous les
tests sur-rejettent systmatiquement l'hypothse nulle pour des tailles trs
faibles, qui sont celles qui nous intressent gnralement.

3.4 Rsultats des simulations


sous l'hypothse alternative
Afin de comparer la puissance des tests d'htroscdasticit conditionnelle,
nous traons les courbes de taille-puissance, c'est--dire le lieu des points
b i ), F
b (xi )) o les valeurs des xi sont donnes par (21), F(x
b i ) tant la
( F(x
fonction de distribution empirique engendre par le modle linaire (22) et
b (xi ) tant celle engendre par un processus appartenant l'hypothse
F
alternative. Suivant DAVIDSON et MACKINNON [1994], nous rduisons les
erreurs exprimentales en utilisant le mme ensemble de nombres alatoires
dans toutes les expriences. Par ailleurs, les chantillons artificiels sont
construits avec plus d'observations qu'il n'est ncessaire, la dernire partie
seulement tant effectivement utilise.

3.4.1 Comparaison des diffrents tests dans divers cas


d'htroscdasticit conditionnelle
L'hypothse alternative est ainsi reprsente par diffrents modles, choisis
pour reprsenter un certain ventail de situations conditionnellement htroscdastiques. Le nombre d'itrations est N = 2500 et le nombre d'observations
UN TEST DHTROSCDASTICIT CONDITIONNELLE

187

FIGURE 6

FIGURE 7

FIGURE 8

FIGURE 9

188

est T = 100. Le modle de rgression est donn par (22) avec diffrentes

spcifications de h t . Les erreurs t sont gnres sous la forme t = t h t


avec t I I N (0,1) , t = 1,..., T.
Les diffrentes courbes taille-puissance correspondent :
cas 1 ( n = 3 ) : Figure 3
2
h t = 0.2 + 0.7t1

(23)
cas 2 ( n = 3 ) : Figure 4

2 + 0.3 2 + 0.3 2
h t = 0.2 + 0.3t1
t2
t3

(24)

cas 3 ( n = 3 ) : Figure 5
2 + 0.7h
h t = 0.2 + 0.2t1
t1

(25)

cas 4 ( n = 1 ) : Figure 6

0.5
0.5
0.5

0.5
2
2
2
+ 0.2 t2
+ 0.3 t3
(26) h t = 0.2 + 0.3 t1
cas 5 ( n = 3 ) : Figure 7
(27)

1
2

2
2
2
h t = 0.2 + 0.5 t3
+ 0.5 h t3

cas 6 ( n = 2 ) : Figure 8
(28)

h t = 10 +

70
1 + e0.2+0.4t1 +0.9t2

90
1 + e0.9+0.1t1 +0.5t2

cas 7 ( n = 3 ) : Figure 9

0.01 + 5 
t3


h t = .
(29)
2
1 + 2.5t3
1

si t1 > 0
si t1 < 0

cas 8 ( n = 3 ) : Figure 10
(30)

ht =

1
2
0.01 + 2.5t5

cas 9 ( n = 2 ) : Figure 11
(31)

h t = e0.1+0.5t2

cas 10 ( n = 3 ) : Figure 12
UN TEST DHTROSCDASTICIT CONDITIONNELLE

189

FIGURE 10

FIGURE 11

FIGURE 12

FIGURE 13

190

h
i
2
2
1 e10t5
h t = 1 + t5

(32)
cas 11 ( n = 3 ) :


10

ht =
0.1

(33)

si t1 > 0
si t1 < 0

cas 12 ( n = 3 ) :
(34)




2 + 5 t3
h t =
0.001

si t1 > 0
si t1 < 0

Les figures 3 14 illustrent ainsi le comportement des tests dans des cas
diffrents. Certains correspondent des formes fonctionnelles proposes dans
la littrature : ARCH dans les cas 1 et 2, le cas 3 est un GARCH(1,1), le cas 4
est un ARCH non linaire, le cas 5 un GARCH non linaire. Les autres cas
correspondent des formes non standard d'htroscdasticit ; par exemple,
les cas 7, 11 et 12 sont des formes seuil et le cas 6 a une forme de rseau
neuronal artificiel.
Par ailleurs, chaque exprience de simulation est mene avec q = 4 , cest-dire les statistiques NNLM et NNR2 sont calcules avec 4 composantes
principales dans la rgression auxiliaire (plus la constante) sur la base de
q = 10 units sur la couche cache. Pour chaque test, le nombre de retards
des erreurs dans les rgressions auxiliaires est n = 3 (hormis dans les cas 4 et
6). Ainsi, certains cas permettent de voir l'influence d'une mauvaise spcification de la forme fonctionnelle de l'htroscdasticit conditionnelle sur les
performances des diffrents tests.
En effet, que n soit suprieur au nombre de retards de t qui a servi
gnrer le modle sous l'hypothse alternative (comme dans les cas 1, 3 et
11), ou qu'il en soit infrieur (cas 4, 8 ou 10 par exemple), ceci ne nuit en rien
aux performances compares du test neuronal par rapport aux autres tests,
puisque la statistique NNLM reste dans la plupart des cas au-dessus des autres
statistiques ; ceci est important noter puisque, dans les applications des
donnes relles, on ne connatra pas gnralement le vrai modle ayant
gnr les donnes.
Les figures montrent dans leur ensemble que le test neuronal (reprsent
par la statistique NNLM) se comporte tout fait bien ; il domine souvent les
autres procdures de test, surtout lorsqu'il s'agit de formes d'htroscdasticit
autres que les formes ARCH ou GARCH standard. En effet, NNLM n'est pas la
meilleure statistique dans les figures 3, 4, 5 et 7 ; en revanche, pour tous les
autres cas, la courbe correspondant la statistique NNLM est nettement audessus des autres courbes.
Les figures 10, 12 et 13 montrent des cas particuliers o les tests, hormis le
test neuronal et le test d'Engle donn par ALM, prsentent de srieux
problmes. En effet, les deux tests correspondant aux statistiques AR 2 et
N N R 2 se comportent assez mal : leurs courbes taille-puissance sont trs
proches de la premire bissectrice, ou bien leur taille est suprieure leur
puissance ; ils sont, ainsi, parfois biaiss, selon la faon dont les donnes sont
engendres.
UN TEST DHTROSCDASTICIT CONDITIONNELLE

191

FIGURE 14

FIGURE 15

FIGURE 16

FIGURE 17

192

Enfin, nous avions not dans le paragraphe 2.2 que la variance conditionnelle h t , donne par la formule (6) et ayant servi construire la statistique
NNLM, permettrait de tenir compte d'effets asymtriques possibles des t
selon leurs signes ; ceci se vrifie dans les cas 6, 7, 9, 11 et 12 qui incorporent
de tels effets et pour lesquels la statistique NNLM se dtache, en effet nettement des autres statistiques.
3.4.2 Influence du nombre d'observations et du nombre
de composantes principales sur le test neuronal
Les deux figures suivantes (15 et 16) exposent les courbes taille-puissance
pour le test neuronal en fonction du nombre d'observations T et du nombre de
composantes principales q . Pour ces deux figures, le modle alternatif est
donn par (22) et
1

1.5
1.5
1.5

1.5
(35) h = 0.2 + 0.3 2
+ 0.2 2
+ 0.3 2
.
t

t1

t2

t3

La figure 15, o n = 3 et q = 3 , montre que, lorsque T augmente, les


performances du test neuronal s'amliorent tout fait. La figure 16, gnre
avec n = 3 et T = 50 , montre que, dans cet exemple en tout cas, quatre
composantes principales semblent donner les meilleures performances au test
neuronal, mais ce nombre est dpendant des cas choisis. Dans les cas exposs
ci-dessus, nous avons pris q = 4 ; LEE, WHITE et GRANGER [1993] utilisent
deux ou trois composantes principales pour le test de linarit qu'ils construisent.
3.4.3 Robustesse des diffrents tests l'introduction
d'une dynamique dans l'quation de rgression
D'autres expriences de simulation ont t menes en introduisant la
variable endogne retarde dans le modle de rgression ; nous avons ainsi
tudi un modle normal homoscdastique de la forme :
(36)

yt = 0.25 + 0.5yt1 + t

t = 1,..., T

o t I I N (0,h t ) . Le nombre d'itrations, N, est toujours gal 2 500.


Diffrentes simulations menes avec diverses spcifications pour h t ont
donn des rsultats semblables ceux exposs ci-dessus, en termes de hirarchie des diffrents tests. La figure 17 en montre un exemple o h t correspond
au cas 10 (quation (32).

UN TEST DHTROSCDASTICIT CONDITIONNELLE

193

4 Conclusion
Nous venons d'exposer un test d'htroscdasticit conditionnelle inspir de
la modlisation reposant sur les rseaux neuronaux artificiels. Il est bien
connu que les rsultats des simulations de Monte-Carlo dpendent de
nombreux facteurs. Nanmoins, le test neuronal (reprsent par la statistique
NNLM) montre dans ces simulations des performances suprieures celles de
la forme LM du test d'Engle, surtout lorsqu'on est en prsence d'une forme
d'htroscdasticit autre qu'un ARCH ou un GARCH standard ; il semble
ainsi efficace dans un large ventail de cas possibles d'htroscdasticit
conditionnelle, comme on peut le voir dans les diffrents graphes. On peut,
donc, esprer qu'il permette de la dtecter dans des applications conomiques.

194

Rfrences bibliographiques
BERA A.K., HIGGINS M.L. [1993]. ARCH Models: Properties, Estimation and Testing ,
Journal of Economic Surveys, 7, 4, pp. 305-366.
BOLLERSLEV T., CHOU R.Y., KRONER K.F. [1992]. ARCH Modeling in Finance: a
Review of the Theory and Empirical Evidence , Journal of Econometrics, 52, 1/2,
pp. 5-60.
BOLLERSLEV T., ENGLE R.F., NELSON, D.B. [1994]. Arch Models , The Handbook of
Econometrics, vol. 4, North-Holland.
CAROLL S.M., DICKINSON B.W. [1989]. Construction of Neural Nets using the Radon
Transform , in Proceedings of the international joint conference on neural networks,
Washington, D.C., IEEE Press, I: pp. 607-611.
CYBENKO G. [1989]. Approximation by Superpositions of a Sigmoid Function ,
Mathematics of Control, Signals and Systems, 2, pp. 303-314.
DAVIDSON R., MACKINNON J.G. [1993]. Estimation and Inference in Econometrics,
Oxford University Press.
DAVIDSON R., MACKINNON J.G. [1994]. Graphical Methods for Investigating the Size
and Power of Hypothesis Tests , GREQAM Working Paper No 94A23, Marseille,
France.
DONALDSON R.G., KAMSTRA M. [1997]. An Artificial Neural Network-GARCH Model
for International Stock Return Volatility , Journal of Empirical Finance, 4, pp. 17-46.
ENGLE R.F. [1982]. Autoregressive Conditional Heteroskedasticity with Estimates of
the Variance of United-Kingdom Inflation , Econometrica, 50, 4, pp. 987-1007.
HORNIK K., STINCHCOMBE M., WHITE H. [1989]. Multi-layer Feedforward Networks are
Universal Approximators , Neural Networks, 2, pp. 359-366.
HORNIK K., STINCHCOMBE M., WHITE H. [1990]. Universal Approximation of an
Unknown Mapping and its Derivatives Using Multi-layer Feedforward Networks ,
NEURAL NETWORKS, 3, pp. 551-560.
HSIEH D.A. [1989]. Modeling Heteroscedasticity in Daily Foreign-Exchange Rates ,
Journal of Business & Economic Statistics, 7, 3, pp. 307-317.
KAMSTRA M. [1993]. A Neural Network Test for Heteroskedasticity , Working Paper,
Simon Fraser University, Burnaby, Canada.
KUAN C.M., WHITE H. [1994]. Artificial Neural Networks: an Econometric
Perspective , Econometric Reviews, 13, 1, pp. 1-91.
LEE T.H., WHITE H., GRANGER C.W.J. [1993]. Testing for Neglected Nonlinearity in
Time Series Models A Comparison of Neural Network Methods and Alternative
Tests , Journal of Econometrics, 56, pp. 269-290.
MCLEOD A.I., LI W.K. [1989]. Diagnostic Checking ARMA Time Series Models using
Squared-Residual Autocorrelations , Journal of Time Series Analysis, 4, 4, pp. 269-273.
STERN H.S. [1996]. Neural Networks in Applied Statistics , Technometrics, 38, 3,
pp. 205-214.
STINCHCOMBE M., WHITE H. [1989]. Universal Approximation using Feedforward
Networks with Non-sigmoid Hidden Layer Activation Functions , in Proceedings of the
international joint conference on neural networks, Washington, D.C., IEEE Press,
I: pp. 613-618.

UN TEST DHTROSCDASTICIT CONDITIONNELLE

195

ANNEXE
Sous l'hypothse d'indpendance et de normalit conditionnelle des erreurs,
la vraisemblance logarithmique conditionnelle ln L() est donne par (8) et
(9) et h t est donne par (6). La statistique LM pour tester l'hypothse nulle
reprsente par (10) s'crit
1
NNLM =
T



0


1 ln L( )
ln L( )

I (b
R )
=b
=b
R
R

b0 ,0) est l'estimateur de valu sous H0 . I () est la matrice


o b
,
R = (b
d'information dfinie par
#
"
2lt (yt |)
I () = E
0
et peut s'crire

"

1 h t h t
1 m t m t
I () = E
+
0
2
h t 0
2h t

ou

I () =
avec

11
I ()

I 12 ()

I 21 ()

I 22 ()

1 m t m t
E

h t 0

I 11 () =

#
,
1 h t h t
E
2h 2t 0 00
"

I 12 () = I 21 ()0 =

#
1 h t h t
E
2h 2t 0 0
"

et

#
1 h t h t
.
=E
2h 2t 0
"

I 22 ()

196

On peut montrer que


NNLM =

1
T


1

ln L( ) 0  22
21 ( ) I 11 ( ) 1 I 12 ( )
I
(
)

I
0


ln L( )
,
0

les diffrentes composantes tant values en b


R ; les esprances dans les
matrices I i j seront remplaces par les moments empiriques pour obtenir la
statistique suivante, que nous appelons galement NNLM afin de ne pas
alourdir les notations :


  2
1 X b
t
h t 0
NNLM =
1
2 t b
0
2
X

X
1

h t h t 1 X h t
h t

0 T

0
t
t
t

X b
2
t

t
b
2

h t
1
0

UN TEST DHTROSCDASTICIT CONDITIONNELLE

!
.

197

Das könnte Ihnen auch gefallen