Sie sind auf Seite 1von 37

Econométrie des

séries
temporelles
Pr. Pamphile MEZUI-MBENG
Maître de conférences agrégé
CIREGED – UOB
Séminaire IEF- (AEF) Mai 2018
Quelques exemples
INTRODUCTION

La plupart des séries économiques


se caractérisent par des tendances
fortes

Exemple: PIB, Consommation, niveau


général des prix

Conséquence: elles ne sont pas


stationnaires. Pour les analyser, les
techniques étudiés en L3 et M1 ne
suffisent plus.
Remarque: La stationnarisation d’une
série est possible par différentiation
simple ou par une autre
transformation.
Mais, de nouveau problèmes peuvent
apparaître en présence de séries non
stationnaires. Quelques uns seront
étudiés ici.
INTRODUCTION PLAN

La plupart des séries économiques


se caractérisent par des tendances
fortes

Exemple: PIB, Consommation, niveau Chap. 1: Présentation des séries


général des prix temporelles

Conséquence: elles ne sont pas Chap. 2: Processus non


stationnaires. Pour les analyser, les stationnaires et racines unitaires
techniques étudiés en L3 et M1 ne
suffisent plus.
Chap. 3: Tests de racines unitaires
Remarque: La stationnarisation d’une
série est possible par différentiation
simple ou par une autre Chap. 4: Cointégration
transformation.
Mais, de nouveau problèmes peuvent
apparaître en présence de séries non
stationnaires. Quelques uns seront
étudiés ici.
Chapitre 1:
Présentation des
Séries Temporelles
1.1 Exemple introductif Régréssion de Y sur X
Considérons 2 séries indépendantes
par construction Xt et Yt définis par:

O.S.Q: dans les 2 équation, les aléas


sont normaux, centrées réduits,
homoscédastiques

Représentation graphique

Remarque:
• R2 Très bon
•Excellentes stat de F et T
•Donc modèle pertinent (selon econo
classique) alors les variables sont
indépendantes au départ.

PB des régressions fallacieuses


1.2 Préambule: 1.3 Quelques exemples
L’analyse des ST s’intéresse à la
dynamique d’une variable yt     1 yt 1  ......   p yt  p   t (1)

Définition: La suite d’observations yt     t  1 t 1  ..........  q t q (2)


(Yt, tЄT) d’une variable Y à différentes
dates t est appelée série temporelle.
Habituellement T est dénombrable,
yt    1 yt 1  ...   p yt  p  t 1t 1  .... qt q (3)

de sorte que t=1…T.


Ces 3 modèles représentent
Objectifs de l’analyse des ST: respectivement des modèles AR(p),
• Prévoir un MA(q), ARMA(p,q).

• Relier les variables t : bruit blanc i.e processus purement


• Déterminer la causalité aléatoire identique aux pertubations
étudiées dans le modèle linéraire
• Etudier les anticipations des agents multiple
• Repérer les tendances et les cycles
Remarque: chacun de ces 3 modèles
• Corriger les variations structurelles peut s’écrire sous la forme AR, MA,
• Détecter les chocs structurels ou ARMA
En effet, partant du modèle De même, si les racines de  ( L )  0
ARMA(p,q) , on a: ont un module inférieur à 1, la forme
AR(∞) est donnée par:
yt (1   1L  ... p Lp )   t (1  1L  ...  q Lq )
( L)
 t   ( L) yt ; où  ( L)   K 1 ( L)
L : opérateur retard, tq:  ( L)

Li yt  yt i ; Li t   t i Remarque: Les 2 conditions


précédentes désignent la condition
Conséquence: de stationnarité de la série ( 1  1) et
Le modèle ARMA(∞) s’écrit alors : la condition d’invertibilité .

yt ( L)   t  ( L) Définition: un processus est


faiblement stationnaire si les
Les 2 polynômes sont conditions suivantes sont satisfaites.
respectivement de degrés p et q.
1. E ( yt ) est indépendante de t
Si les racines de ( L)  0 ont un
module inférieur à 1, alors le
2. Var ( yt ) est une constante finie
processus ARMA (p,q) s’écrit:
indépendante de t
 ( L)
yt ( L)  K ( L) t ; où  ( L)  3. Cov( yt ; yt k ) dépend uniquement
( L)
de k et non de t
Théorème de Wald: 1.5 Inversion de polynômes:
Pour parler de l’inverse d’un
Un processus stationnaire linéaire Yt, polynôme retard, introduisons le
peut toujours être représenté comme polynôme retard de degré infini:
la somme de deux processus
mutuellement incorrelés
A(L)=1-αL
Yt, = Dt +ut.

Dt :composante réguli-re prvisible


(déterministe )
Pour A(L) possède un inverse,
ut: : comp. stoch. - MA(∞); et où:
c’est-à-dire que l’on peut définir:

NB: La modélisation vise justement à


approximer cette moyenne mobile par un Considérons à présent que A(L) est
processus dont le nombre de paramètres de degré p:
est fini.
Définition: 1.6 Factorisation:
On appelle équation caractéristique On peut généralement opéré la
associé à A(L): division des polynômes comme
dans le cas de la division
euclidienne, pour factoriser (1-L)

Théorème:
Le polynôme A(L) est inversible si les
p racines lj de son équation
caractéristique associée sont toutes
à l’extérieur du cercle unité. Son
inverse est donné par: Ainsi:
Exemple: 1.7 Méthodologies de
Considérons le processus AR(1):
spécification
yt   1 yt 1   t
Les séries temporelles univariées
peuvent être modélisées sous la
Ce processus est stationnaire si: forme des processus ARMA à l’aide
de la méthodologie de Box et Jenkins
(  1  1) (1976): méthode à 4 étapes (c.f.
Bourbonnais)
Et dans ce cas, on peut vérifié que
1) Stationnariser la série (graph de
les conditions précédentes sont bien
auto-covariances)
remplies.
2) Déterminer une valeur plausible de
l’ordre des parties AR et MA à partir
des FAC et FAP

3) Estimer les paramètres du modèle


choisi

4) Vérifier les qualités prédictives au


moyen de test
1.7.1 Modélisation d’une Série La fonction d’autocorrélation s’écrit :
temporelle: approche par les FAC et
1 T

FAP
( yt  y ).( yt k  y )
T t 1
On veut déterminer les retards p et q rk  T
; k  1,2,3,...
1
qui donnent la meilleure
représentation du mouvement de la

T t 1
( yt  y ) 2

série, à partir de la FAC et de la FAP.


(NB: absence de théorie)
La fonction d’autocorrélation partielle
s’écrit :

Définition: la FAC est obtenue en r11 =r1


calculant la corrélation entre yt et yt  k
k 1
rk   rk 1, j rk  j
j 1
rkk  k 1
; k  2,3,...
1   rk 1, j rj
j 1
Remarque: Exemple 2: Correlogramme MA (3)
A partir du corrélogramme, on peut
avoir un aperçu des caractéristiques
de la série. Ainsi, .
Pour un AR (p) : la FAC présente des
pics aux p premiers retards

Pour un MA (q) : la FAP décroît de


façon exponentielle et/ou

Exemple 1: Correlogramme AR (2)


NB1:
Sur les correlogrammes les valeurs
de la FAC et de la FAP apparaissent
de façon alternée.

NB2:
Si Yt est ARMA(p,q), alors les
autocorrélations r(k) sont en nombre
infini et décroissent vers 0 plutôt
rapidement..
Modèle FAC FACP
Exemple de corrélograme: Un paramètre décomposition pic à la période 1,
autorégressif (p) exponentielle pas de corrélation
pour les autres
périodes.

Deux paramètres une composante pics aux périodes


autorégressifs de forme 1 et 2,
(p) sinusoïdale ou Aucune
un corrélation pour
ensemble de les autres
décompositions périodes.
exponentielles

Un paramètre de pic à la période exponentielle


moyenne 1, amortie.
mobile (q) : aucune
corrélation pour
les autres
périodes
Deux paramètres pics aux une composante
de moyenne périodes 1 et 2, de forme
mobile (q) : Aucune sinusoïdale ou un
corrélation pour ensemble de
les autres décompositions
périodes exponentielles.

Le tableau ci-après récapitule les Un paramètre Décomposition décomposition


autorégressif (p) exponentielle exponentielle
caractéristiques des correlogrammes et un de commençant à la commençant à la
des modèles AR, MA et ARMA. moyenne mobile période 1 période 1.
(q) :
1.7.2 Modélisation des ST: approche 1.7.3 Modélisation des ST: approche
par les tests statistiques par les critères d’information

On peut également tester l’ordre Les critères d’info d’Akaike (AIC) et


d’autocorrelation d’une S.T. à l’aide de Shwarz (BIC) permettent
de 2 statistiques: également de déterminer les valeurs
de p et q dans un ARMA
m
Box  Pierce  T  rk2 En pratique, on choisit les valeurs p
k 1 et q qui maximisent les statistiques
m suivantes:
Ljung  Box  T (T  2) (T  k ) 1 rk2
k 1
AIC ( p, q)  ln ˆ 2  2( p  q)T 1
Ainsi, pour un ARMA (p,q) la stat. de
BIC ( p, q)  ln ˆ 2  ( p  q)T 1 ln T
Box-Pierce suit une Chi-2 à m-p-q
NB: ̂
2
ddl. On rejette la non-autocorrelation est la variance de l’erreur
(H0) si la valeur calculée. (T : nombre d’un ARMA (p, q)
d’observations)
Conclusion chap 1:
NB: pour des petits échantillons la Les modèles ARMA sont assez restrictifs. Ils
stat. de Ljung-Box donne une supposent que Yt est stationnaire, que les
paramètres sont constants et que les erreurs
meilleure approximation. son homoscédastiques
Chapitre 2:
Les processus non
stationnaires
Définition: Une série non 2.1 Les séries DS
stationnaire est une série qui
Déf 1:On appelle processus DS
croit en général avec le temps. Il
avec derive, un processus qui
existe 2 familles de S.N.St
s’écrit:
y t    y t 1   t

Les S.N.St peuvent être


Un processus DS est une marche
stationnarisées soit,
aléatoire avec dérive
- par différentiation (séries DS ou
Il présente une non stationarité de
differency stationary)
nature stochastique
- par calcul de leur écart au trend
Par récurrence, dans ce cas on
(séries TS ou trend stationary)
obtient: y1    y 0   1
y 2    y1   2    y 0   1     2
= y 0  2   1   2
...................
t
y t  t  y 0    i
i 1
Où  t est stationnaire (B.B.), Pour stationnariser une série DS
(avec ou sans dérive), il suffit de
Le processus Yt est non passer en différence première:
stationnaire E ( y t )  y 0   t car
dépend de t et tend vers l’infini
quand t tend vers l’infini
y t  y t 1     t (cas avec dérive)

Def 2: un processus DS sans


derive (β=0) ou marche aléatoire
s’écrit: t
yt  y0   i
i 1

 t  BB
y t  y t 1   t (cas sans dérive)

Remarque:
Le processus DS sans derive est
non staionnaire car on peut
vérifier que V ( y t )  t 
2
Remarque: 2.2 Les séries TS
Si le calcul de la différence Ce sont les séries qui deviennent
première de la série yt, conduit stationnaires après calcul de leur
à l’obtention de écart au trend.
Ces séries se caractérisent par une
zt  y t  y t 1  y t     t tendance déterministe.
y t     t   t ;  t : erreur en t
Alors si Z t est stationnaire (on
dit qu’elle est I(0).
La série yt est non stationnaire car,
Et la série yt est quant à elle I(1).
E( yt )     t
Pour stationnariser yt, on estime les
Déf 3: (Généralisation): une série non paramètress par mco et on calcule,
stationnaire est I(d) s’il convient de la
)
différencier d fois pour la y t  y t  y t  ˆ  ˆt
stationnariser. La série
stationnarisée est alors intégrée
d’orde d. Remarque:
Les tests de stationnarité
Formellement, zt  (1  L )d y t   d y t permettent d’identifier si une
sérle est DS ou TS.
Si Zt est stationnaire alors y t : I (d )
Chapitre 3:
Les tests de racines
unitaires
Granger et Newbold (1974): 3.1 Le test de Dickey Fuller
l’utilisation de séries non
Le test DF permet de savoir si une
stationnaires dans un modèle série est stationnaire et elle pemet de
conduit à des régressions déterminer la meilleure manière de la
fallacieuses (spirious regression) stationnariser.

Raison: les tests de Student et de


H0 : y t est non stationnaire
Fisher ne parviennent pas toujours à 
rejeter la corrélation entre variables
explicatives et la variables expliquée. H1 : y t est stationnaire
Le test correspond à l’une de ces
Les tests de R.U. visent à déterminer formes de non stationnarité:
l’ordre d’intégration d’une série. On
H0 : y t est non stationnaire
va étudier: 
(1): y t  1y t 1   t
-Test Dickey Fuller (DF) 
(2): y t  1y t 1  c   t

- Test Dickey Fuller Augmenté (ADF) (3) : y t  1y t 1  bt  c   t
où (  1)  0 et  : iid (0, 2 )
 1 t 

- Test Phillips-Perron H1 : 1  1



- Test KPSS
Les hypothèses du test DF peuvent - Si c est significatif on etudie le
aussi s’écrire sous la forme: modèle (1).

H0 : y t est non stationnaire


 Remarque
(1): y t  (1  1)y t 1   t Sous H0 vraie, les stat. De Student de

(2): y t  (1  1)y t 1  c   t la constante et du trend sont à

(3) : y t  (1  1)y t 1  bt  c   t
comparer avec les valeurs de la
où (  1)  0 et  : iid (0, 2 ) tables de DF (Pour un échantillon > à
 1 t  500 obs., les valeurs critiques sont
H1 : 1  1
 2,78 à 5% pour la tendance du
modèle (3) et 2,52 pour la constante
Sous H0 vraie, la statistique de test du modèle (2) et -1,95 pour phi1) car
pour l’estimateur de1 est donnée sous H0 vrai le processus étudié est
par: ) non stationnaire (Yt est I(1))
 1
tˆ  1)
1

)
Règle de décision:
Principe d’utilsation du test:
1
- Si t>tDF, (valeur critique de la table
- On commence par étudier le modèle DF), alors on accepte H1 (le coef de
(3) (on regarde si b est significatif). la variable explicative est signif.)

- On passe à l’étude du modèle (2) et Si b est signif. Pour le modèle (3) et


on cherche si c est significatif ou on étudie plus les autres modèles
pas.
De même, si on passe au modèle
(2) et que la constante est signif.,
le test s’arrête au modèle (2). H0 : y t est non stationnaire et correspond

- Si t  t DF , alors on accepte H0, à l'un des formes de non stationarité:
1
 p
la série est non stationnaire. (1): y t  r y t 1    k y t  k 1  t
 k 2
 p
3.2 Le test ADF
(Généralisation aux séries AR(p))
(2): y t  r y t 1    k y t  k 1  c  t
 k 2
Dans le test DF, le processus  t est  p

un BB. Or, à priori il n’y a aucune (3) : y t  r y t 1    k y t  k 1  bt  c  t


raison que l’erreur soit non corrélée.  k 2
où r =0;  1 et  : iid (0, 2 )
Le test ADF ne suppose pas  t est  1 t 
un BB. 

H1 : 1  1
Les hypothèses du test ADF se
définissent de la manière suivante:
Détermination du nombre de 3.3 Le test de Philipps-Perron (1988)
retard p du test ADF Il permet de prendre en compte à
p est déterminé à l’aide du la fois l’autocorrelation et
corrélogramme partiel de la série l’hétéroscédasticité des erreurs
différenciéey t
Il s’appuie sur les mêmes
Sous H0 vraie, la statistique de test modèles que les test DF et ADF,
pour l’estimateur de 1 est donnée mais propose une correction non
par: ) paramétrique de la statistique tˆ
 1 1
tˆ  1)
1
 )
1
Le test se déroule en 4 étapes :

À comparer avec la valeur Etape 1:


critique t DF de la table de DF. Estimation par m.c.o. des trois
modèles du test DF et calcul des
)
résidus  t
Règle de décision:
Etape 2:
- Si t  t DF , on accepte H0: la
1 Estimation de lan variance de

série est non stationnaire. )2 1 )2
court terme   n  t
t 1
Etape 3: Remarque:
Estimation du facteur correctif ou La correction nom paramétrique
variance de long terme: apportée à tˆ ne modifie pas la
1
distribution asymptotique de la
   ˆ ˆ
n b n
)
st2  n1   t2  2 1  bj 1 1
n t t j
statistique qui reste identique à
t 1 j 1 t  j 1 celle de DF simple.
2/9
Où  n  Par conséquent, les valeurs
b  4  critiques tabulées par F restent
 100  valables pour le test de PP.
Etape 4:
Calcul de la statistique de Philips-
Perron:

(ˆ1 1)
n(k  1)ˆˆ
t PP
ˆ1
 k. ˆ)  1

1
k
ˆ 2
Où k  2
St
3.4 Le test KPSS Etape 2: on teste :
Kwiatkowski, Philips, Schmidt, Shin
(1992) H0 :  u2  0, où  =cte
Origine: faible puissance des tests 
ADF qui suppose la non stationnarité
H1 :  u2  0
en H0. Le test se fait en 3 étapes:

Sous H0, la série y t est TS, alors que


sous H1 elle est non stationnaire.
Etape 1: On estime le modèle
Pour effectuer ce test,
y t  t   t   t on régresse y t sur une constante et
un trend afin de calculer la série des
 t : processus stationnaire résidus et .
t : suit une marche aléatoire
Etape 3: On construit ensuite la
i.e: t  t 1  ut statistique:

ut : iid (0; u2 ) t
St   e ; t  1,....,T
 1
Etape 3: On calcule la statistique: Remarque:
T
Les valeurs critiques du KPSS ont
1
LM  2



S
1
t
2 été obtenues par simulation comme
dans les tests DF.

S2 : variance de long terme des résidus et


Valeurs critiques du test KPSS

T l T Tests 10% 5% 01%


1 2
Sˆ   et   w il  et et i
2 2
Avec Trend
T t 1 T t 1 t i 1 0.347 0.463 0.739
Sans trend 0.119 0.146 0.216
i
w il  1  est la fonction de Barlett
l 1
elle est choisie tq T   quand l  

Conclusion du test KPSS:


On rejette la stationnarité lorsque la
statistique LM > valeur critique
Chapitre 4:
PROCESSUS ARIMA
Démarche : Avec :
B: opérateur retard;
Lorsqu’une série y t présente une non
stationnarité stochastique, il convient
de la stationnariser à l’aide d d : l’opérateur de différence de
processus ARIMA (p, d, q) où d degré d (entier)
désigne d’intégration
1,...p ,1, q : coeff. à estimer ;
Définition 1:
Un processus ARIMA(p,d,q) d’ordre Remarque:
La série y t est une série non
p,d,q pour la série y t est un
stationnaire;
processus de la forme suivante:
(1-1B  ...pB ) y t 
p d alors que la série w t =dyt est une
série stationnaire
(1  1B  ...q Bq ) t
Ou encore :
Lien avec ARMA(p,q):
(1-1B  ...pB )(1  B ) y t 
p d
Estimer les paramètres ARIMA (p, d, q)
du processus y t revient à estimer les
(1  1B  ...q Bq ) t paramètres ARMA (p,q) du
processus stationnaire w t
où  t : BB(0; 2 )
L’algorithme de BOX et Jenkins
Il permet de déterminer le modèle
ARIMA pouvant convenir à une série
temporelle en fonction de ses
caractéristiques

L’algorithme comprend plusieurs


étapes:
a) Estimation des paramètres du On prend le log de la vraisemblance
processus ARMA et on applique les conditions
classique de 1er et second ordre
Elle se fait par la méthode du
pour obtenir les estimations des
maximum de vraisemblance. On
suppose pour cela que  t : N (0;  ) paramètres.
2

b) Validation du processus
ARMA (p,q)
Principe:
Soit le modèle : yt =a0  a1xt   t Après avoir selectionner p et q (à
l’aide des corrélogrammes), et après
avoir estimer les paramètres, il faut
On a alors :
les valider et à les départager.
E(yt ) =a0  a1xt ; et Var(y t )   2
La fonction de vraisemblance de Yt Validation
s’écrit: -On retient les coefficients estimés
significativement différents de zéro.
f ( y1, y 2 ,..., y n ; a0 , a1, 2 ) 

  exp(
n n - On examine les résidus estimés de
 ( y t a0 a1xt )2
1 l’erreur du processus ARMA. On
  2 2 2
t 1 vérifie en particulier que les résidus
suivent un BB.
b1) Tests sur les coefficients b2) Test sur les résidus:
-Pour l’autocorrélation des résidus
, on utilisera les tests de Ljung Box
Parmi les processus ARMA estimé, et Box-pierce
on ne retient que ceux dont les t de
Student est >1.96 (pour un risque de - Pour l’hétéroscédasticité, on les
5% et pour n supérieur ou égal à 30)
test d
Chapitre 5:
Cointégration
5.1 Approche de Engel et Granger Exemple
Rappel: Si x t : I(1) et si y t : I(1)
- Si y t admet d racines unitaires,
alors  y t est I(0). Et y t est I(d).
d
et si  t : I(0)
Proposition:

Si x t : I(d) et si y t : I(d) Par conséquent, le couple


alors (xt , y t ) : C.I.(1,1)
axt  by t : I(d) (1,   )
et le vecteur est le vecteur
Conséquence: de cointégration.
Remarque:
 t  y t   xt : I(d)
La cointégration permet de mettre
5.1.1 Définition (Engel et Granger) en évidence la RLT entre les deux
x t et y t sont cointégrés d’ordre séries.
(d,b) si il existe un vecteur β tel que La cointégration renvoie à
l’ordre d’intégration de t soit l’existence d’un équilibre de LT et
inférieur à d, et égal à d-b, avec é  t équivaut à une distance à la
b>0. période t par rapport à cet équilibre.
Avantages:
1) Il ne sert à rien de différencier les
séries, au risque de cacher la RLT
entre elles.

2) Si des séries sont cointégrées, on


peut donc estimer la RLT yt   xt   t
par MCO (regression no spirious)

3) La relation de cointégration est une


relation d’équilibre en régime de
croissance, mais des chocs peuvent
affecter cette RLT.

4) Ainsi, le problème de la cointégration


se ramène à :

- dire si les séries sont cointégrées

- déterminer la RLT et la RCT entre


les variables
5.1.2. La procédure d’Engel et Remarque:
Granger 1) Si le résidu est stationnaire
2 étapes: alors les séries Xt et Yt sont
cointégrées, et la RLT est
Si xt : I(1) et si yt : I(1) estimée par MCO
2) Dans la procédure d’EG, on
1) On estime la RLT par MCO suppose que la RLT entre Xt
y t = xt   t et Yt est tirée de la théorie
économique ( y t = xt   t )
2) On récupère le résidu de cette 3) Le résidu donne donc une
estimation et on teste par ADF: é estimation du déséquilibre.
H0 : et : I(1) 4) Pour obtenir la vitesse
 d’ajustement vers
l’équilibre, on va estimer un
H1 : et : I (0) MCE.
Sur le modèle:p 1
et   *et-1   i* et i 1    t
i 1

t : BB
5.1.3. Le M.C.E. Remarque:
1) Le modèle est cohérent si
Le MCE sert a écrire la dynamique de Xt et Yt sont cointégrées car
LT vers l’équilibre de LT toutes les séries du modèle
précédent sont I(0)
Si xt : I(1) et si yt : I(1) 2) A l’équilibre, y t 1  ˆ xt 1 est
nul. Il mesure la distance
Le vecteur de cointégration étant avec laquelle le système
(1;- ) s’est éloigné de l’équilibre à
Le MCE entre Xt et Yt s’écrit: la période t.

y t  xt   ( y t 1  ˆ xt 1 )  ut 3) L’estimation des MCO de


)
 : estimateur des MCO de la RLT lambda désigne la vitesse
d’ajustement de y vers son
niveau d’équilibre, i.e.
Ce modèle décrit la variation de comment Yt varie en cas de
Yt autour de sa tendance de LT. déséquilibre
PARTIE 2: LES MODELES VAR

Das könnte Ihnen auch gefallen