Beruflich Dokumente
Kultur Dokumente
(UCAO)
Faculté des Sciences Economiques et de Gestion
Master 2 en
Monnaie – Finance – Banque
(MFB)
Volume horaire : 40
Logiciels : Eviews et Stata
Maître en Econométrie
Docteur en Statistique
Email : fodiye@refer.sn
Juin 2014
1
Table des matières
Introduction …….…………………………………………………………………….………...5
2
7.2 Test du coefficient de corrélation linéaire ………………………….……25
7.3 Test de normalité de Jarque-Bera ……………………………………...……29
7.3.1 Moment centré d’ordre r ……………………………………………29
7.3.2 Test de Jarque-Bera ……………………………………….…….…..30
7.4 Test de Student …………………………………………………………….….…32
7.4.1 Comparaison d’un paramètre ai à une valeur fixée a …………32
7.4.2 Comparaison d’un paramètre a i à la valeur a 0 …………………33
7.4.3 Test de l’hypothèse la s …………………………………………34
7.4.4 Intervalle de confiance pour les paramètres ai ………………………34
1. Introduction ………………………………………………………………………..………80
3
4. Les modèles à retards échelonnés …………………………………………….………81
4.1 Formulation générale ………………………………………………….…………81
4.2 Détermination du nombre de retards ………………………….……..………82
4.2.1 Critère de Akaike …………………………………….…………...……82
4.2.2 Critère de Schwarz ……………………………………..……….……83
1. Introduction ………………………………………………………………………..…………92
Application économétrique…………………………………………………..……..…………107
Bibliographie
……………………………………………………………….………………………….……….123
4
Introduction
5
Toute faute humaine est impatience, un arrêt prématuré du méthodique, une apparente
fixation de ce qui paraît être.
F. Kafka
Le travail mental de prévision est une des bases essentielles de la civilisation. Prévoir est
à la fois l’origine et le moyen de toutes les entreprises, grandes ou petites.
P. Valéry
Tout le monde sait et dit que celui qui observe sans idée, observe en vain.
Alain
Les machines un jour pourront résoudre tous les problèmes, mais jamais aucune
d'entre elles ne pourra en poser un !
Albert Einstein
La théorie sans la pratique est absurde, la pratique sans la théorie est aveugle.
E Kant
6
C’est la raison pour laquelle, dans tous les pays, la formation des économistes
suppose l’acquisition des techniques économétriques. A titre d’illustration sur les
derniers Prix Nobel d’Economie, trois furent attribués à des économètres : Heckman
et McFadden en 2000 (économétrie des variables qualitatives), Engle et Granger
en 2003 (économétrie des séries temporelles et économétrie financière) et Sargent
et Sims en 2011 (recherches sur la cause et l’effet en macroéconomie, modèles
VAR, …).
De fait donc, l’économiste ne doit-il pas être aussi économètre ? John Maynard
Keynes, dans les années 1930, écrivait :
S’il faut transférer la pensée de Keynes aujourd’hui, n’aurait-il pas lui-même ajouté
l’économiste doit être économètre ?
L’économétrie est donc une discipline dont le contenu opérationnel est très
important. A titre d’exemple, l’économétrie peut permettre de quantifier un phénomène,
d’établir une relation entre plusieurs variables, de valider ou d’infirmer empiriquement
une théorie, d’évaluer les effets d’une mesure de politique économique, etc.
Les techniques économétriques sont régulièrement utilisées dans les banques, les
ministères, les agences gouvernementales, les grandes entreprises, les institutions
internationales, la recherche agronomique, la finance, etc.
7
2. Les types de données
Nous distinguons plusieurs types de données selon que le modèle est spécifié en :
Série temporelle
Y t t 1,2, , T : c’est le cas le plus fréquent en
économétrie, il s’agit de variables observées à intervalles de temps réguliers
Coupe instantanée Y
i i 1,2, , n : les données sont observées au même
instant et concernent les valeurs prises par la variable pour un groupe d’individus
spécifiques
Exemple : Le Produit Intérieur Brut (PIB) des pays de l’UEMOA, exprimé en francs
courants depuis 1980 jusqu’en 2007.
Cohorte : très proches des données de panel, les données de cohorte se distinguent de
la précédente par la constance de l’échantillon, les individus sondés sont les mêmes
d’une période sur l’autre.
iii) Le moyen terme : généralement entre deux et cinq ans, quelquefois dix
ans ;
8
4. Les différentes étapes de la démarche économétrique
Les données sont collectées pour la variable endogène et pour les variables
exogènes.
9
Etape 5 : Estimation des paramètres du modèle choisi
Les coefficients des modèles économétriques peuvent être estimés par diverses
méthodes : Moindres Carrés Ordinaires (MCO), Moindres Carrés Généralisés (MCG),
Maximum de Vraisemblance (MV), …..
Ils sont déterminés par la théorie statistique et ont pour but d’évaluer la fiabilité
statistique des estimateurs des coefficients du modèle.
Les plus usuels sont le coefficient de détermination R², la variance des estimateurs,
les critères d’information, ….
10
Etape 7 : Simulation et prévision du modèle validé
Avant d’utiliser le modèle estimé pour réaliser des prévisions pour un horizon
souhaité, il est vivement conseillé d’évaluer son pouvoir prédictif par la réalisation de
simulations sur le passé permettant de comparer les valeurs estimées aux données
réelles.
11
Chapitre 1 : Le modèle linéaire général
12
Introduction
On parle de modèle de régression simple si une seule variable explicative est
considérée. La fonction de consommation keynésienne
Ct a1 a2 Rt t , t 1, ... , n
où C est la consommation et R le revenu est un modèle de régression simple.
En pratique, il est cependant fréquent qu’une variable (expliquée) dépende de
plusieurs variables explicatives.
Prenons quelques exemples visant à illustrer les questions auxquelles on peut
répondre dans le chapitre. La production d’une entreprise dépend-t-elle plus du facteur
capital ou du facteur travail ? Le PIB d’un pays dépend-t-il plus de ses exportations, de
l’investissement, du capital humain, de l’encours de la dette extérieure, du taux
d’inflation, ou du taux de change ?
Dans ces différents cas où plusieurs variables explicatives entrent en jeu, on parle
de modèle linéaire général1 ou modèle de régression linéaire multiple.
1. Exposé du problème
Le modèle linéaire général (ou modèle de régression linéaire multiple) peut s’écrire :
L’erreur est une variable aléatoire centrée de variance , indépendante des variables
2
Généralement, la première variable est égale à 1 pour toutes les observations. Par
conséquent a1 est la constante du modèle qui est de la forme :
1
Ce chapitre reprend un certain nombre de développements figurant dans l’ouvrage
de Doucouré (2013) que le lecteur intéressé pourra consulter pour plus de détails.
13
2. Notation matricielle du modèle linéaire général
où
Y est le vecteur des n observations sur la variable endogène. X est la matrice des
variables exogènes, chaque colonne de la matrice X est une variable explicative. a
est le vecteur des coefficients de régression. est le vecteur des écarts aléatoires.
C t a 1 a 2 R t t , t 1, ... , n
C t consommation au temps t ;
R t revenu au temps t ;
a 1 consommation incompressible ;
Y X . a
( n ,1) ( n , 2) ( 2,1) ( n ,1)
C1 1 R 1 1
C2 1 R 2 a1 2
Y ; X ; a ;
a 2
Cn 1 R n n
14
Exercice d’application 2 : Considérons le modèle linéaire simple :
Yt a 1 a 2 t t , t 1, ... , n
Y X . a
( n ,1) ( n , 2) ( 2,1) ( n ,1)
Y1 1 1 1
Y2 1 2 a1 2
Y ; X ; a ;
a 2
Yn 1 n n
Yt a 1 a 2 t a 3 t 2 t , t 1, ... , n
Y X . a
(n,1) (n, 3) (3,1) (n,1)
Y1 1 1 1 1
a1
Y 1 2 22 2
Y 2 ; X ; a a2 ;
a
2 3
Yn 1 n n n
Yt a 1 a 2 Z t a 3 M t t , t 1, ... , n
où
15
Ce modèle s’écrit matriciellement :
Y X . a
( n , 1) ( n , 3 ) ( 3 , 1) ( n , 1)
Y1 1 Z1 M1 1
a1
Y 1 Z2 M2 2
Y 2 ; X ; a a2 ;
a
3
Yn 1 Zn Mn n
L’écriture sous forme matricielle rend plus aisée la manipulation du modèle linéaire
général, c’est pourquoi nous l’adoptons par la suite.
Deux catégories d’hypothèses doivent être faites pour résoudre le problème des moindres
carrés. Nous distinguons les hypothèses structurelles ; des hypothèses stochastiques
(liées à l’erreur ).
Ces hypothèses structurelles sont techniques, elles garantissent l’existence d’une solution.
16
- , les erreurs sont non corrélées (ou encore
indépendantes). Cette hypothèse peut elle aussi être testée. Quand n’est pas
vérifiée, on parle alors d’autocorrélation des erreurs.
Les hypothèses stochastiques ont pour but de s’assurer que les estimateurs des
coefficients jouissent de propriétés statistiques intéressantes.
3.2 Estimation des paramètres par la méthode des moindres carrés ordinaires
Remarque 1.1 : L’estimation des paramètres par la méthode des MCO est effectuée
par ordinateur grâce à des logiciels comme Eviews, Stata, SPSS (Statistical Package
of Social Sciences) ou SAS (Statistical Analysis System).
Yi X i i 1 i n
variance .
2
1) Quelle hypothèse du modèle linéaire simple n’est pas vérifiée a priori dans cette
spécification ?
17
Corrigé :
C kY p
a) Par minimisation
n 2
L’estimateur de est obtenu en minimisant f Y i Xi
i1
f ( ) n
0 2 X i ( Yi X i ) 0
i 1
n n
X i Yi Xi
2
i 1 i 1
On obtient :
n
X iYi
ˆ i1
n
2
Xi
i1
18
b) Par calcul matriciel
Y1 X 1 1
Y2 X 2 2
Yn X n n
X1
X n 1
X ' X X 1 X 2 X n 2 X ' X 1
2
Xi n
i 1
Xi
2
X
n i 1
Y1
Y2 n
X ' Y X 1 X 2 X n X i Yi
i 1
Y
n
On obtient
n
X i Yi
ˆ X ' X
1 i1
X' Y n
2
Xi
i1
Y
a Y a X
X
Le paramètre b a une signification économique, c’est la valeur de Y quand X 0.
19
Exercice d’application 6 : A l’aide de 35 observations, on souhaite estimer les
paramètres du modèle
log( Y ) Y X
a a
log( X ) Y X
log(IMP) a log(PIB) b
L’estimation des paramètres par la méthode des MCO donne : aˆ 0,75 ; bˆ 0,65 .
â est l’estimation de l’élasticité des importations par rapport au produit intérieur brut.
IMP PIB
0,75
IMP PIB
20
Remarque 1.2 : La transformation logarithmique, donnant lieu à un modèle log-
linéaire peut être utilisé pour réduire l’hétérocédasticité des erreurs (voir la sous
section 7.7). La réduction de l’hétérocédasticité provient du fait que la transformation
logarithmique « comprime » les échelles dans lesquelles les variables sont
mesurées.
log(Y ) aX b
log(Y ) Y
a a X
X Y
log(INV ) aTXINT b
L’estimation des paramètres par la méthode des MCO donne : aˆ 0,06 ; bˆ 2,59
aˆ 0,06 signifie qu’une hausse du taux d’intérêt réel d’un point (100%) de 3% à
4% par exemple entraîne une diminution de 6% de l’investissement. Il est à noter
que bˆ 2,59 n’a pas d’interprétation économique.
21
d) parmi les estimateurs sans biais des composantes de a fonctions
linéaires des , les composantes de sont celles dont les variances
sont minimum.
Le théorème de Gauss et Markov énonce une propriété très importante des MCO : Â
donne la meilleure connaissance possible de puisqu’il est sans biais et à variance
minimale. Cette propriété est obtenue sous les hypothèses assez peu exigeantes
puisqu’on n’a pas formulé d’hypothèse sur la (ou les lois) suivie(s) par les erreurs t .
Ayant évalué par la méthode des moindres carrés ordinaires les paramètres du
modèle, on cherche à déterminer si le modèle permet de bien expliquer la variable
ˆ , le vecteur des valeurs
endogène. Soit e Y Yˆ , le vecteur des résidus et Yˆ XA
estimées de Y. On démontre que :
n n n
(Yt Y ) (Yt Yˆt ) 2 (Yˆt Y ) 2
2
t 1 t 1 t 1
SCT SCR SCE
Cette égalité est l’équation d’analyse de la variance. Cette égalité correspond à la
décomposition de la variance totale (SCT) en variance résiduelle (SCR) et variance
expliquée (SCE).
22
6.2 Qualité d’un ajustement
Yˆ Y
2
t
variance expliquée SCE
R 2
t
Y Y
2
variance totale SCT
t
On a :
SCT SCR SCR
R2 1 et SCR ( 1 R 2 ) SCT
SCT SCT
n 1
R 2 1 (1 R 2 )
nk
23
6.2.3 Interprétation du coefficient de détermination
donne une valeur de R2 égale à 0,87. Cette valeur indique que 87% des
fluctuations du PIB sont expliquées par les variables EXPT, TINF et DETTE. On
peut aussi affirmer que le modèle explique 87% de la variance du PIB. Il faut
remarquer que cette valeur obtenue pour le coefficient de détermination R2
n’indique rien sur la qualité du modèle.
7. Tests économétriques
Une étude économétrique consiste non seulement à estimer des paramètres d’un
modèle, mais aussi, à tester des hypothèses afin de valider le modèle économique
théorique. Les paramètres estimés  sont des variables aléatoires, ce ne sont pas
des valeurs certaines, ils ne sont pas exactement identiques à la vraie valeur des
paramètres a. On doit effectuer des tests statistiques afin de compléter les résultats des
estimations. Considérons le modèle de régression multiple :
Yt a1 a 2 X 2t a 3 X 3t a k X kt t
Dans cette section, nous nous intéressons à quelques problèmes statistiques qui
découlent de l’écriture de ce modèle.
7.1.1 Définitions
Un test est une procédure qui permet d’accepter ou de rejeter rationnellement une
hypothèse relative par exemple à la valeur d’un paramètre de la population ou à sa
loi de probabilité. L’hypothèse nulle (ou hypothèse à tester) est notée H0 tandis
que l’hypothèse alternative est notée H1 .
24
7.1.2 Types d’erreurs
Tout test d’hypothèses est sujet à des erreurs. Ces dernières surviennent parce
que la distribution de ces tests est asymptotique et que l’échantillon sur lequel
travaille l’économètre est fini. L’inférence par un test d’hypothèses peut conduire à
deux types d’erreur. L’erreur de type I (erreur de première espèce) survient lorsque
le test d’hypothèse rejette une hypothèse nulle vraie tandis que l’erreur de type II
(erreur de deuxième espèce) ne parvient pas à rejeter une hypothèse nulle fausse.
Sur les logiciels économétriques, les statistiques des tests sont assorties de leurs
probabilités critiques (risque de rejeter à tort l’hypothèse nulle H 0 ), ce qui évite de
se référer aux tables.
L’hypothèse nulle est rejetée dès que cette probabilité est inférieure au seuil .
L’hypothèse nulle n’est pas rejetée dès que cette probabilité est supérieure ou
égale au seuil .
7.2 Test du coefficient de corrélation linéaire
n n n
n xi yi xi yi
Cov( X ,Y )
r ( x, y) i 1 i 1 i 1
XY n
n
2
n
n 2
n x xi
2
i n y yi
2
i
i 1 i 1 i 1 i 1
avec :
25
- Cov( X , Y ) covariance entre X et Y
- n nombre d’observations
26
1) Tracer le nuage de points et le commenter.
Corrigé :
50
45
ES
40
E
VNT
35
30
25
20
1. 5 2.0 2.5 3.0 3. 5 4.0 4. 5 5.0
P UB
i X Y X² Y² XY
1 2,4 38 5,76 1444 91,2
2 3 42 9 1764 126
3 3 42 9 1764 126
4 2,5 39 6,25 1521 97,5
5 3,2 40 10,24 1600 128
6 3,5 45 12,25 2025 157,5
7 2 35 4 1225 70
8 1,8 24 3,24 576 43,2
9 3 38 9 1444 114
10 3,2 40 10,24 1600 128
11 3,8 44 14,44 1936 167,2
12 4,6 53 21,16 2809 243,8
Somme 36 480 114,58 19708 1492,4
27
n n n
n xi y i xi y i
Cov ( X , Y ) i 1 i 1 i 1
rxy
X Y n n
2
n n
2
n xi2 xi n y i2 y i
i 1 i 1 i 1 i 1
soit rxy 0,906 . On trouve que le coefficient de corrélation linéaire existant entre les
deux variables X et Y est r ( X, Y ) 0,906 .
Included observations: 12
Correlation
Probability PUB VENTES
PUB 1.000
-----
VENTES 0.906 1.000
0.0000 -----
28
Le coefficient de corrélation linéaire est 0,906 ; sa probabilité critique est nulle.
Nous rejetons donc l’hypothèse nulle d’absence de corrélation linéaire aux seuils de
1% et 5%. Les ventes sont donc liées aux dépenses de publicité.
X x
r
t n
1
r X
t 1
n avec
x
n
X
t 1
t
Jarque et Bera (1980) ont proposé un test portant sur les deux caractéristiques d’une
loi normale : la symétrie et l’aplatissement. La loi normale est caractérisée par un
coefficient d’asymétrie (skewness) nul et un coefficient d’aplatissement (kurtosis) égal à 3.
3 3
S
3 22
3
1 n
2 X t x
n
X x
1
3
2 2 3
où et t
n i 1 n t 1
Si le skewness est nul, la distribution est dite symétrique. Lorsque le skewness est
non nul, la distribution est dite asymétrique. Plus spécifiquement si S 0, la
distribution est étalée vers la gauche (elle a un biais négatif). Si S 0, la
distribution est étalée vers la droite (elle a un biais positif).
29
Le coefficient d’aplatissement d’une courbe est caractérisé par la valeur de :
4 4 n
X x
1
K 2 où 4
4
t
4
2 n t 1
S 2
JB n
K 3
2
6 24
où S est le coefficient de dissymétrie (Skewness) et K le coefficient d’aplatissement
(Kurtosis). La statistique JB suit sous l’hypothèse nulle de normalité une loi du Khi-
Deux à deux degrés de liberté.
La valeur seuil A pour 5% est égale à 5,991. Par conséquent, si la valeur calculée
de la statistique JB est inférieure à A, l’hypothèse nulle de normalité n’est pas
rejetée. En revanche, si la valeur de JB est supérieure ou égale à A, l’hypothèse nulle
de normalité est rejetée.
30
Remarque 1.6 : Le test de normalité est utile sur des échantillons de petite
dimension mais l’est moins sur de grands échantillons où le « théorème central limite »2
s’applique. Ce test permet notamment de tester l’hypothèse de normalité des résidus.
m2 log(m2)
Mean 522.93 5.82
Median 336.52 5.82
Standard Deviation 497.43 1.01
Skewness 1.49 -0.31
Kurtosis 4.34 2.66
Jarque-Bera 16.47 0.77
Probability 0.00 0.68
Observations 37 37
Corrigé :
S 2
JB n
K 3
2
6 24
(1, 49 ) 2 ( 4,34 3) 2
JB 37 16 , 47
6 24
2
Le théorème central limite affirme d’une suite de variables aléatoires X 1 , X 2 ,, X n indépendantes
et de même loi tend vers une loi normale si le nombre d’observations n est supérieur à 30. Les variables
Xi suivent une loi quelconque.
31
JB 16,47 5,991 ; on rejette l’hypothèse H 0 . La variable masse monétaire
ne suit pas une loi normale.
Une variable suit une loi lognormale si son logarithme suit une loi normale
Le test d’hypothèses est le suivant :
( 0,31) 2 ( 2,66 3) 2
JB 37 0,77
6 24
JB 0,77 5,991 ; on ne rejette pas l’hypothèse H 0 . La variable masse
monétaire suit une loi lognormale de moyenne 5,82 milliards de FCFA et d’écart
type 1,01 milliard de FCFA.
Âi ai
La statistique
ˆ Â suit sous l’hypothèse nulle une loi de Student à n k
i
32
On détermine au seuil , une valeur critique t telle que :
P t Tn k t 1
La règle de décision est alors la suivante :
Aˆ i a
q t , l’hypothèse H 0 : ai a
Si
ˆ Aˆ n’est pas rejetée,
i
Aˆ i a
q t , l’hypothèse H 0 : ai a est rejetée.
Si Aˆ
ˆ
i
En pratique, le test le plus utilisé est celui qui consiste à tester l’hypothèse nulle
H0 : ai 0 contre l’hypothèse alternative H1 : ai 0 . Il s’agit du test de
significativité des variables explicatives.
Quelles sont, parmi les variables X i choisies, celles qui sont réellement explicatives,
celles qui ont une influence significative au seuil . Le test d’hypothèses est
H 0 : ai 0 contre H1 : ai 0. Les décisions associées étant d’exclure ou de conserver la
variable X i dans le modèle. Dans ce cas, la règle de décision est :
Aˆ i
q A , l’hypothèse H 0 : ai 0
Si
ˆ Aˆ n’est pas rejetée. La variable
i
Aˆ i
q t , l’hypothèse H 0 : ai 0 est rejetée. La variable explicative
Si
ˆ Aˆ
i
X it
est significative et a une influence sur Yt . On la conserve dans le
modèle.
33
Aˆ i
t
Remarque 1.9 : Le nombre
ˆ Aˆ est appelé ratio de Student. Sur les logiciels,
i
Aˆi
ˆ Â
les nombres
ˆ Aˆ et
i
sont notés respectivement t-Statistic et Standard-Error.
i
l Aˆ s
q t H0 : la s
Si
ˆ Aˆ , l’hypothèse n’est pas rejetée.
i
l  s
q t H0 : la s
Si
ˆ l  , l’hypothèse est rejetée.
 i a i
Tn k
ˆ Â
i
34
On a alors :
P  i t ˆ  ai  i t ˆ Â
i i
1
I Â i t ˆ Â ; Â i t ˆ Â
i
est l’intervalle de confiance du paramètre a i au niveau
i
Remarque 1.10 : L’intervalle de confiance peut être utilisé pour effectuer le test de
Student H 0 : ai a contre H1 : ai a .
Si a  i t ˆ  i ;  i t ˆ  i , l’hypothèse H 0 : ai a est n’est pas rejetée.
Si a  i t ˆ  i ;  i t ˆ  i , l’hypothèse H 0 : ai a est rejetée.
35
a) Comment s’interprètent économiquement les différents paramètres ?
2
c) Donner une interprétation du coefficient de détermination R .
Corrigé
1) Le modèle Q t AK t 2 L t 3 n’est pas linéaire dans les paramètres, il n’est donc
pas estimable économétriquement par les moindres carrés ordinaires. Pour le
linéariser, on passe aux logarithmes.
LogQ Q / Q
2 eQ / K
LogK K / K
36
a3) 3 est l’élasticité de la production par rapport au travail
LogQ Q / Q
3 eQ / L
LogL L / L
ˆ 3 0 , 405 signifie que l’on estime qu’une augmentation de 10% du travail
implique une augmentation de 4,05% de la production, toutes choses égales par
ailleurs (c’est à dire si le facteur capital est constant).
ˆ 2 0,342
t ˆ 7,125
2 ˆ ˆ 0,048
2
ˆ 3 0,405
t ˆ 13,06
3 ˆ ˆ 0,031
3
37
L’élasticité de la production par rapport au capital est égale à 0,4.
5) a) L’intervalle de confiance à 95% de 2 est
ˆ 2 t ˆ ˆ
2
; ˆ 2 t ˆ ˆ 2
Le niveau de confiance est 1 95 % , soit 5 %
ˆ 3 t ˆ ˆ
3
; ˆ 3 t ˆ ˆ
3
L’intervalle de confiance est :
38
Tester l’hypothèse selon laquelle les rendements d’échelle constatés pour cette
entreprise sont constants consiste à tester :
H 0 : 2 3 1 contre H 1 : 2 3 1
ˆ 2 ˆ 3 1 0 , 342 0 , 405 1
tc 10 , 76
ˆ ˆ ˆ 0 , 0235
2 3
Dans ce qui suit, nous allons nous interroger sur la signification globale du modèle de
régression, c’est-à-dire si l’ensemble des variables explicatives a une influence sur la
variable à expliquer Y. Soit le test d’hypothèses :
H 0 : a2 a3 ak 0
contre
H 1 : il existe au moins un des coefficients non nul.
Pour effectuer le test de signification globale, nous allons comparer ce F * calculé au Flu
sur la table de Fisher à respectivement k 1 et n k degrés de liberté.
nk R2
Si F Flu , nous ne rejetons pas H 0 : le modèle n’est pas
*
k 1 1 R2
globalement significatif au seuil .
nk R2
Si F * Flu , nous rejetons l’hypothèse H 0 : le modèle est
k 1 1 R2
globalement significatif au seuil .
39
Exercice d’application 12 : Test de significativité globale de Fisher
n 20
R 2 0,9842
Corrigé :
H 0 : 2 3 0
contre
nk R2 20 3 0,9842
F
*
529,47
k 1 1 R2 3 1 1 0,9842
*
Pour tester H 0 , on peut comparer la valeur de F à la valeur seuil donnée par la
table de Fisher à respectivement k 1 2 et n k 17 degrés de liberté. Le
Fisher théorique à 5% pour (2,17) degrés de liberté est Flu 3,59 .
40
7.6 Tests d’autocorrélation des erreurs
Nous sommes en présence d’une autocorrélation des erreurs lorsque les erreurs son liées
par un processus à mémoire, donc non indépendantes au cours du temps.
L’autocorrélation des erreurs peut être observée pour plusieurs raisons :
ii) Une mauvaise spécification du modèle, les relations entre la variable à expliquer et les
variables explicatives ne sont pas linéaires et s’expriment sous une autre forme que celle
du modèle estimé (logarithmes, différences premières, etc.).
Le test de Durbin et Watson (DW) permet de détecter une autocorrélation des erreurs
d’ordre un selon la forme :
t t 1 t (1)
avec t N (0 , )
2
contre
H1 : 0 (les erreurs sont autocorrélées)
ˆ , le résidu calculé.
Considérons le modèle linéaire général Y Xa , soit e Y XA
On suppose que le modèle comporte une constante. La statistique de Durbin et Watson
est :
n
( et et 1 ) 2
t2
DW n
e t2
t 1
où et est le résidu calculé au temps t. Pour un grand nombre d’observations c’est-à-
dire quand n tend vers , on montre que DW 2 (1 ˆ ) où ̂ est un
coefficient de corrélation linéaire avec 1 ρ̂ 1 .
41
De par sa construction, la statistique DW varie entre 0 et 4. Ce qui donne 0 DW 4 . Il
est intéressant d’avoir en tête l’approximation DW 2 (1 ρ̂) qui permet de se faire
une idée de la valeur de ρ à partir de DW. Ainsi, il est probable que 0 quand
DW 2 . En revanche, quand la valeur de DW est proche de 0, les erreurs sont
probablement autocorrélées, avec un ρ positif et proche de 1. Quand, à l’inverse,
DW est proche de 4, les erreurs sont vraisemblablement affectées d’une forte
autocorrélation négative.
Le test de Durbin et Watson est très fréquemment utilisé. Il est cependant important
de préciser les conditions d’utilisation :
Les variables explicatives doivent être certaines (c’est à dire non aléatoires) ;
42
Le modèle doit être en série temporelle, pour les modèles en coupe instantanée,
les observations doivent être ordonnées en fonction de la variable à expliquer ;
La variable à expliquer ne doit pas figurer parmi les variables explicatives (en tant
que variable retardée). Le modèle ne doit pas être autorégressif, si c’est le cas
on doit utiliser le test de Breusch et Godfrey (1978).
Yt a1X1t a 2 X 2t a k X kt a 0 ρ1 ε t 1 ρ 2 ε t 2 ρ p ε t p v t
ii) On estime par la méthode des moindres carrés ordinaires l’équation intermédiaire
e t a1X1t a 2 X 2t a k X kt a 0 ρ1 e t 1 ρ 2 e t 2 ρ p e t p v t
et on calcule le coefficient de détermination R² associé à cette régression.
3
Les modèles linéaires autorégressifs sont étudiés dans le chapitre 2.
43
La règle de décision est la suivante :
En cas d’autocorrélation des erreurs, les estimateurs des MCO restent sans biais,
mais ne sont plus de variance minimale. Dans ce cas, si la variance du terme
d’erreur est connue, on applique la méthode des moindres carrés généralisés.
Lorsque la variance du terme d’erreur est inconnue, on utilise les méthodes
numériques de Cochrane et Orcutt, de Hildreth et Lu et du maximum de vraisemblance.
où import désigne les importations, pib le produit intérieur brut et log le logarithme
népérien.
1) Estimer les paramètres du modèle (1) par la méthode des moindres carrés
44
Corrigé :
Partie 1
1) L’estimation des paramètres par la méthode des MCO conduit aux résultats
suivants :
Log IMPORT t 0,65 0,75 Log PIB t
(1, 87 ) ( 15 ,19 )
R 0,87,
2
SCR 0,134 , DW 1,06 , n 34
où les chiffres entre parenthèses correspondent aux ratios de Student des coefficients
estimés.
2) Tests d’autocorrélation des erreurs
a) Test de Durbin-Watson
d1 1, 39 d 2 1, 51
4 d1 2, 61 4 d 2 2, 49
On a :
0 DW d1
0 1,06 1,39
L’hypothèse nulle est rejetée : on peut donc présumer une autocorrélation positive des
erreurs.
Le test de Durbin-Watson effectué sur le logiciel STATA donne les résultats
suivants :
45
b) Le test de Breusch-Godfrey conduit aux résultats suivants :
Le nombre de décalages (Lag) sur le terme d’erreur est un. On teste donc une
autocorrélation d’ordre un des résidus. Le logiciel Eviews effectue 2 tests : le test de
Fisher (F-statistic) et le test du multiplicateur de Lagrange (obs*R-squared = nR²). Les
deux probabilités sont inférieures au seuil de 5%. On rejette l’hypothèse de non
corrélation des erreurs pour les 2 tests. Les erreurs sont donc autocorrélées.
Partie 2
Les deux probabilités sont supérieures aux seuils conventionnels. L’hypothèse nulle
de non corrélation des erreurs n’est pas rejetée. Le test BG effectué pour les
décalages 1 et 2 aboutit au même résultat. La méthode de Cochrane-Orcutt a
donc corrigé l’autocorrélation des erreurs.
7.7.1 Définition
Les erreurs sont homocédastiques si elles ont la même variance. Dans le cas
contraire, on dit qu’elles sont hétérocédastiques. L’hétérocédasticité se rencontre plus
fréquemment pour les modèles en coupe instantanée, contrairement au problème de
l’autocorrélation qui est plutôt spécifique aux modèles en séries temporelles. Sur séries
temporelles, les cas les plus fréquents d’hétéroscédasticité concernent les séries
financières ; ces dernières étant en général caractérisées par une variance variant
au cours du temps.
46
7.7.2 Tests de détection de l’hétéroscédasticité des erreurs
H 0 : 12 2 2 ... n 2
c’est à dire sur l’hypothèse d’une variance des erreurs identique pour chaque
individu. Il existe toute une batterie de tests permettant de détecter de
l’hétéroscédasticité des erreurs dont notamment :
Dans ce qui suit nous ne revenons que sur les deux derniers tests, qui sont les
plus utilisés dans la pratique.
Yt a1 a 2 X 2t ak X kt t (i)
puis à calculer le résidu et Yt aˆ1 aˆ 2 X 2t aˆ k X kt
Dans une deuxième étape, on estime par la méthode des MCO l’équation
et 2 0 1Z1t 2 Z 2t p Z pt ut (ii)
où les variables Z kt , k 1,2, , p sont les variables explicatives du modèle, leurs
carrés et leurs produits.
47
Remarque 1.13 : Les tests de Glejser, White et ARCH sont disponibles sur le logiciel
Eviews. Le test de Breusch-Pagan est exécutable sur le logiciel Stata. L’avantage du test
de Glejser par rapport aux autres tests est qu’il permet de spécifier la forme de
l’hétérocédasticité.
Troisième étape : régression autorégressive des résidus sur p retards (résidu décalé)
p
48
Remarque 1.14 : C’est le test de significativité des coefficients i de la régression
et
2
sur e2t p qui permet de déterminer l’ordre p du processus ARCH sachant
qu’un processus ARCH d’ordre 3 semble un maximum (p 3) .
Un économiste désire estimer par les moindres carrés ordinaires une fonction de
production de type Cobb-Douglas sur Q production, K facteur capital, L facteur travail
utilisés à partir d’un échantillon de 25 entreprises. On estime une fonction de type :
R 2 0, 94 ; DW 2, 54 ; SCR 0, 1871
() = t de Student
Faites un test de White, au seuil de 5%, de l’hypothèse que les erreurs sont
homocédastiques. Conclusion. Que proposez-vous alors de faire ?
49
Corrigé :
H 0 : i 2 2 i
contre
H 1 : i 2 2 pour au moins un i
W nR 2
w 25 0 ,1244 3,11
*
Pour tester H 0 , on peut comparer la valeur de F à la valeur seuil donnée par la
table du Khi-Deux à p 5 degrés de liberté. Le Khi-Deux théorique à 5% est
A 11,07 .
Tester une éventuelle hétérocédasticité des erreurs par le test ARCH d’ordre 1.
Corrigé :
50
Les deux probabilités sont supérieures au seuil de 5%. Le test de Fisher de
significativité du coefficient de régression ou la statistique LM sont concordants, nous
ne rejetons pas l’hypothèse d’homocédasticité des erreurs. Il n’existe pas d’effet ARCH
sur les erreurs du modèle.
Y t a 1 a 2 X 2 t a k X kt t
Yˆt aˆ 1 aˆ 2 X 2 t aˆ k X kt
3e étape : Estimer les paramètres du modèle linéaire par les MCO
51
Corrigé : Le test de Ramsey conduit aux résultats suivants :
La stabilité des paramètres joue un rôle important lorsqu’on cherche à comprendre les
mécanismes économiques et à réaliser des projections. Leur instabilité peut refléter des
phénomènes ponctuels dans le temps (choc pétrolier, dévaluation, crise boursière,
calamités naturelles, mesures de politiques économiques, nouvelles réglementions,
passage d’un régime de changes fixes à un régime de changes flexibles...).
Il existe diverses méthodes pour évaluer la stabilité des coefficients estimés d’un
modèle de régression, nous en présentons deux :
Le test de Chow appelé aussi test de changement structurel, permet d’examiner si les
coefficients d’une régression sont stables par rapport à l’observation utilisée.
Sur des séries temporelles, on compare les estimations effectuées sur deux (ou plusieurs)
sous ensembles d’observations qui correspondent à un découpage de l’échantillon initial.
On parle dans ce cas de test de stabilité temporelle de la régression.
52
Sur les données en coupe, on peut comparer les résultats obtenus par exemple sur des
pays, des régions, des secteurs industriels différents. Concernant des individus, on peut
s’intéresser à des résultats par classe d’âge, par sexe, etc. Dans ce cas, le test de Chow
est souvent qualifié de test d’homogénéité des comportements.
Y X a (0)
( n , 1) ( n , k ) ( k , 1) ( n , 1)
Sous période 1 :
Y1 X 1 a1 1 (1)
( n1 , 1) ( n1 , k ) ( k , 1) ( n1 , 1)
Sous période 2 :
Y2 X2 a2 2 (2)
( n 2 , 1) ( n 2 , k ) ( k , 1) ( n 2 , 1)
Le principe du test est de voir dans quelle mesure le fait de régresser séparément sur les
deux sous périodes améliore le résultat de la régression. Ce test portera sur les sommes
des carrés des résidus (variances résiduelles).
On commence par régresser sur la population totale soit n observations (modèle (0)), on
calcule alors SCR, qui est la somme des carrés des résidus du modèle (0).
Puis on refait la même régression sur chacun des deux sous populations séparément et
on retient la somme des carrés des résidus de chaque régression.
Soit :
53
Le Fisher empirique est égal à :
F*
SCR ( SCR 1 SCR 2 ) / k
SCR 1 SCR 2 / ( n 2 k )
Cette statistique est distribuée suit sous l’hypothèse de stabilité une loi de Fisher à
respectivement k degrés de liberté pour le numérateur et (n 2k ) degrés de liberté pour
le dénominateur. On se fixe un seuil de signification et on lit sur la table de Fisher
Si F * Flu , l’hypothèse H 0 est rejetée. Les coefficients ne sont pas stables sur
l’ensemble de la période.
Le test de Chow suppose la date de rupture connue a priori. Quand on travaille sur
des séries temporelles, la date à laquelle des changements dans les coefficients
interviennent n’est pas toujours facilement repérable. Mais il existe également des tests de
stabilité temporelle qui permettent de déterminer les dates de rupture. Brown, Durbin
et Evans (1975) ont proposé des tests de stabilité des coefficients basés sur le calcul des
résidus récursifs. Ces tests graphiques permettant d’accepter ou non l’hypothèse de
stabilité. L’intérêt de ces tests réside dans le fait qu’il permet d’étudier la stabilité d’une
régression sans définir a priori la date de rupture sur les coefficients.
Il existe deux versions de ce test : le CUSUM fondé sur la somme cumulée des
résidus récursifs et le CUSUM SQ (CUSUM of Squares) fondé sur la somme cumulée
du carré des résidus récursifs. Les tests Cusum sont ainsi basés sur les résidus
récursifs : on procède à une représentation graphique des résidus récursifs cumulés qui
permet de tester la stabilité temporelle de la régression et de visualiser les dates
d’éventuelles ruptures de comportement. Pour ces deux tests, si on constate une rupture
du graphique à la période t alors on rejette l’hypothèse de stabilité des
coefficients de la régression pour cette période .
54
Remarque 1.17 : Les tests Cusum ne sont valables qu’après une estimation des
paramètres par la méthode des MCO.
R 0,87,
2
SCR 0,134 , DW 1,06 , n 34
Corrigé :
a1) Pour la date de rupture 1978, le test de Chow aboutit aux résultats suivants :
La régression de l’importation sur le PIBR et la constante est refaite pour les 2 sous-
périodes 1962-1978 et 1979-1995.
R 22 0, 84 SCR 2 0, 014 n 2 17
55
La statistique de Chow vaut donc :
F * Flu , l’hypothèse H 0 n’est pas rejetée, les coefficients sont stables sur l’ensemble
de la période. La fonction d’importation du Sénégal est stable.
a2) Pour la date de rupture 1973, le test de Chow aboutit aux résultats suivants :
56
b) Les tests Cusum et Cusum Carré sont effectués avec le logiciel Eviews.
15
10
-5
-10
-15
-20
1965 1970 1975 1980 1985 1990 1995
CUSUM 5% Significance
GRAPHIQUE 6
Test CUSUM
1.4
1.2
1.0
0.8
0.6
0.4
0.2
0.0
-0.2
-0.4
1965 1970 1975 1980 1985 1990 1995
GRAPHIQUE 6
Test CUSUM carré
57
2) Stabilisation du modèle par variable indicatrice
Pour stabiliser le modèle, on peut utiliser une variable indicatrice (appelée aussi
variable dummy). La variable indicatrice vaut 1 pendant la ou les zones d’instabilité.
Elle vaut 0 ailleurs.
On pose :
L’estimation par les MCO du modèle corrigé conduit aux résultats suivants :
Les tests Cusum effectués sur le modèle corrigé indiquent que la fonction
d’importation est maintenant structurellement et ponctuellement stable. L’utilisation
de la variable indicatrice a donc stabilisé le modèle.
L’un des intérêts pratiques du modèle de régression réside dans la prévision. Ainsi
une fois le modèle estimé, il est possible de l’utiliser afin de prévoir l’évolution de
la variable endogène Y. Nous considérons le modèle linéaire simple :
Yt a bX t t , t 1, 2, , n
Le terme prévision a ici un sens différent de celui qu’il reçoit dans le langage
courant. Il ne s’agit pas de prévision du futur. On cherche en fait à caractériser les
simulations de politique économique que les estimations économétriques rendent
possibles.
58
Cov ( X , Y )
bˆ ; aˆ Y bˆ X
Var ( X )
1 X X
2
B t S 1 n n h
X t X
-- n 2
t
n
-- X X t
t 1
1 n 2
-- S
2
n 2 t 1
et , et Yt Yˆt Yt aˆ bˆ X t
-- t est facile d’ordre 1 de la loi de Student à ( n 2 ) degrés de liberté.
2
Notons que la longueur de l’intervalle de prévision n’est pas constante : plus la
n
On a calculé : X 7, 00 ; (X t X ) 2 1, 80
t 1
où Yt Log IMPORTt et X t Log PIBR t .
Prévoir, par un intervalle de seuil 0,05, la variable Importation pour l’année 1996
sachant que le logarithme du PIBR en 1996 est fixé à 7,57.
59
Corrigé :
1) La prévision pour l’année 1996 du logarithme des importations est donnée par :
2) Intervalle de prévision
Calculons la valeur de S :
SCR 0,134
S 0,0647
n2 34 2
[Ŷ1996 t B ; Ŷ1996 t B]
soit
[6,1879 ; 6,4670]
60
L’intervalle de confiance de la prévision des importations du Sénégal pour l’année
1996 est [ exp(6,1879) ; exp(6,4670) ]
soit
[486,82 ; 643,55]
La prévision des importations pour l’année 1996 a 95% de chances de se trouver dans
cet intervalle.
L’intervalle de confiance est assez grand, donc notre prévision n’est pas précise.
61
Application économétrique sur le modèle linéaire général
Fonction d’investissement du Sénégal
« Les machines un jour pourront résoudre tous les problèmes, mais jamais aucune
d'entre elles ne pourra en poser un ! »
Albert Einstein
On fait l’hypothèse que les variables INV, PIB et TXINT vérifient le modèle
linéaire général :
a) INV et PIB ;
b) INV et TXINT ;
c) PIB et TXINT ;
3) Estimer les paramètres du modèle par la méthode des moindres carrés ordinaires.
Interpréter économiquement les paramètres estimés.
e3) Estimer les paramètres par la méthode de Cochrane-Orcutt dans le cas où les
erreurs sont corrélées ;
63
1999 905 4752 5.75
2000 867 4371 6.5
2001 925 4620 6.5
2002 4625 6.75
2003 4635 6.85
2004 4650 7.5
Instruction EVIEWS 6
64
a) H 0 : les variables INV et PIB ne sont pas corrélées
H1 : les variables INV et PIB sont corrélées
le coefficient de corrélation linéaire est 0,9028. La probabilité critique est nulle. Les
variables INV et PIB sont corrélées positivement.
Instruction EVIEWS
Cliquer sur <Quick> puis <Group statistics> puis <Descriptive Statistics> puis
<Common Sample> Saisir ensuite dans la fenêtre « Series List »
65
Tableau 2. Caractéristiques de distribution des séries
observations 30 30 30 30 30 30
Toutes les probabilités critiques sont supérieures à 5%. Les séries INV, PIB et
TXINT du Sénégal suivent des lois normales et lognormales sur la période 1972 à
2001.
Remarque : Une variable X suit une loi lognormale si son logarithme suit une loi
normale.
Instruction EVIEWS
66
Tableau 3. Estimation du modèle d’investissement
inv pib
On a : 2
inv pib
ˆ2 1,15 si le PIB augmente de 10% alors l’investissement augmente de
11,5%, toutes choses égales par ailleurs (c’est à dire si les taux d’intérêts réels
restent constants).
inv
On a : 3 tx int
inv
ˆ3 0,063 si le taux d’intérêt réel augmente d’un point (100%) , alors
l’investissement diminue de 6,3%, toutes choses égales par ailleurs (c’est à dire si
le PIB reste constant).
67
5) Tests classiques
-- Testons
H0 : le coefficient 2 est nul
contre
H1 : le coefficient 2 est différent de 0
-- Testons
H0 : le coefficient 3 est nul
contre
H1 : le coefficient 3 est différent de 0
68
c) Test de normalité des erreurs
Après avoir estimé les paramètres par la méthode des moindres carrés ordinaires
14
Series: Residuals
12
Sample 1972 2001
10 Observations 30
8
6 Mean 4.44E-17
Median 0.028670
4 Maximum 0.312213
2 Minimum -0.275180
0 Std. Dev. 0.135040
-0.2 0.0 0.2 Skewness -0.158678
Kurtosis 3.003585
Jarque-Bera 0.125910
Probability 0.938986
69
Le logiciel Eviews propose deux options pour le test de White .
Après avoir estimé les paramètres par les moindres carrés ordinaires
Cliquer sur <View> puis <Residuals Tests> puis <White Heteroskedasticity (no cross
terms) >
White Heteroskedasticity Test (no cross terms)
F-statistic 0.062987 Probability 0.992219
Obs*R-squared 0.299319 Probability 0.989858
Les deux probabilités critiques sont supérieures à 5%. On ne rejette pas l’hypothèse
d’homocédasticité des erreurs.
Instruction EVIEWS
Après avoir estimé les paramètres par les moindres carrés ordinaires
Cliquer sur <View> puis <Residuals Tests> puis <White Heteroskedasticity (cross
terms) >
Instruction EVIEWS
Après avoir estimé les paramètres par la méthode des moindres carrés ordinaires
Cliquer sur <View> puis <Residuals Tests> puis < ARCH LM Test>
Dans la fenêtre « Lag to include », taper 1
Test ARCH
Test ARCH(1) :
F-statistic 0.006502 Probability 0.936326
Obs*R-squared 0.006982 Probability 0.933407
70
Les deux probabilités sont supérieures à 5%. Les erreurs ne suivent pas un modèle
ARCH d’ordre 1 noté ARCH(1). Les erreurs sont homocédastiques.
Test Equation:
Dependent Variable: RESID^2
Method: Least Squares
Sample(adjusted): 1973 2001
Included observations: 29 after adjusting endpoints
Variable Coefficient Std. Error t-Statistic Prob.
C 0.017571 0.005933 2.961351 0.0063
RESID^2(-1) -0.015477 0.191939 -0.080636 0.9363
R-squared 0.000241 Mean dependent var 0.017298
Adjusted R-squared -0.036787 S.D. dependent var 0.025762
S.E. of regression 0.026232 Akaike info criterion -4.377217
Sum squared resid 0.018579 Schwarz criterion -4.282921
Log likelihood 65.46965 F-statistic 0.006502
Durbin-Watson stat 1.972229 Prob(F-statistic) 0.936326
Après avoir estimé les paramètres par la méthode des moindres carrés ordinaires
<View> <Residual Tests> <Serial Correlation LM Test>
Saisir 1 dans la fenêtre «Lag to include »
Les valeurs des probabilités sont inférieures à 5%, on rejette l’hypothèse de non
corrélation des erreurs.
Si on désire tester une autocorrélation d’ordre 2 des erreurs, alors on choisit 2 pour
«Lag to include ».
71
Remarque : Les erreurs sont corrélées, la méthode des moindres carrés n’est plus
optimale. On peut utiliser la méthode d’estimation de Cochrane-Orcutt.
72
Les valeurs des probabilités sont supérieures à 5%, on ne rejette pas l’hypothèse de
non corrélation des erreurs. La méthode de Cochrane-Orcutt a donc corrigé la
corrélation des erreurs.
Si le modèle est mal spécifié alors il manque des variables explicatives pertinentes
dans le modèle.
Instruction EVIEWS
Après avoir estimé les paramètres par la méthode des moindres carrés ordinaires
<View> < Stability Tests> < Ramsey Reset Test> <Number of fitted terms> <Saisir 3 >
L’un des critères les plus importants pour l’estimation d’un modèle est qu’elle doit
rester valable pour des données autres que celles qui ont été utilisées lors de
l’estimation. Ce critère est celui de la constance des paramètres.
73
Nous allons choisir deux dates de rupture : 1981 et 1994
Après avoir estimé les paramètres par la méthode des moindres carrés ordinaires
<View> < Stability Tests> <Chow Breakpoint Test> < Saisir 1981>
Après avoir estimé les paramètres par la méthode des moindres carrés ordinaires
<View> < Stability Tests> <Chow Breakpoint Test> <Saisir 1994>
L’année de la dévaluation du franc CFA (1994) est bien une date d’instabilité pour
l’économie sénégalaise.
Ces tests ne sont exécutables qu’après une estimation par la méthode des
moindres carrés ordinaires.
-- Test CUSUM
Instruction EVIEWS
Après avoir estimé les paramètres par la méthode des moindres carrés ordinaires
<View> < Stability Tests> <Recursive Estimates > < Cusum Test>
Si la courbe coupe les bornes du corridor alors le modèle est instable. Dans
ce cas, la courbe indique la période d’instabilité.
74
20
10
- 10
- 20
76 78 80 82 84 86 88 90 92 94 96 98 00
<View> < Stability Tests> <Recursive Estimates > < Cusum of Squares Test>
1. 6
1. 2
0. 8
0. 4
0. 0
- 0. 4
76 78 80 82 84 86 88 90 92 94 96 98 00
On peut remarquer sur le graphique que la date 1989 est une date de quasi
instabilité ponctuelle (Troubles suite aux élections de 1988, problème avec la
Mauritanie).
6.1) Simulation
Instruction EVIEWS
Après avoir estimé les paramètres par la méthode des moindres carrés ordinaires ,
cliquer sur Resids
75
7. 0
6. 5
6. 0
0. 4
5. 5
0. 2
5. 0
0. 0
- 0. 2
- 0. 4
75 80 85 90 95 00
Les courbes des séries observée (actual) et ajustée (fitted) sont proches. L’erreur
commise est faible, cette erreur sera quantifiée à l’aide des critères de prévision.
6.2) Prévision
Instruction EVIEWS
Après avoir estimé les paramètres par la méthode des moindres carrés ordinaires ,
cliquer sur Forecast. Le logiciel indique l’intervalle de prévision et les critères de
prévision.
-- Intervalle de prévision
1200
1000
800
600
400
200
0
75 80 85 90 95 00
INV PR EV ± 2 S. E.
76
-- Critères de prévision
Forecast: INVF
Actual: LOG(INV)
Sample: 1972 2004
Include observations: 30
Root Mean Squared Error 0.132771
Mean Absolute Error 0.100651
Mean Absolute Percentage Error 1.657931
Theil Inequality Coefficient 0.010763
Bias Proportion 0.000000
Variance Proportion 0.016571
Covariance Proportion 0.983429
Nous utilisons les critères de prévision MAPE et U de Theil pour apprécier les
performances prévisionnelles.
L’erreur absolue moyenne en pourcentage est égale à 1,66%. Le modèle fait moins
de 2% d’erreur. Le critère U de Thieil est proche de 0. les 2 critères indiquent que
le modèle a de bonnes performances prévisionnelles.
-- Prévision
Année Investissement
2002 800,2217
2003 797,1461
2004 767,8316
7) Critères de prévision
77
a) Root Mean Squared Error (Erreur quadratique moyenne)
n
RMSE(e)
1
n ei2
i 1
Ce critère est exprimé dans les mêmes unités que les données.
n
MAE(e) 1
n ei
i 1
n ei
MAPE(e) 1
n Yi
i 1
2
n Y i Ŷ i
Y
i 2 i 1
U
2
n Y i Y i 1
Y i 1
i 2
On a toujours 0 U 1
U vaut 0 si les prévisions sont parfaites. Une valeur égale à 1 indique que la
méthode naïve est aussi bonne que la méthode de prévision examinée. Une valeur
de U entre 0 et 1 survient quand la méthode de prévision étudiée est meilleure que la
méthode naïve. Dans le cas où U > 1, la méthode naïve donne de meilleurs
résultats.
78
Chapitre 2 : Les modèles à Décalages temporels
79
1. Introduction
La présence de telles variables peut, en fait, être justifiée par des motifs divers :
intégration d’un schéma d’anticipation dans l’équation, phénomènes de mémoire ou
tendance à l’inertie (par exemple, modèles faisant dépendre la consommation de la
date t à la consommation de la date t 1 ), existence de temps de réaction
psychologiques ou technique (par exemple, modèles faisant dépendre la
consommation de la date t du revenu de la date t 1 pour la raison que le
revenu doit être perçu avant d’être dépensé), etc.
Soit la formulation
Yt b1Yt 1 b 2 Yt 2 b h Yt h a 0 a1X1t a 2 X 2t a k X kt ε t
ou encore
h k
Yt b j Yt j a 0 a i X it ε t
j 1 i 1
Le modèle général spécifié ci-dessus est rarement utilisé, le plus souvent nous
nous limitons à des modèles autorégressifs d’ordre un de la forme :
Yt bYt 1 a0 a1 X1t a2 X 2t ak X kt t
80
Ce modèle est dit stable si b 1 et explosif si b 1.
Ct b Ct 1 a0 a1 Rt t
où Ct est la consommation au temps t et R t le revenu au temps t.
a1 a a
Les coefficients , 2 , , k sont les élasticités de long terme.
1 b 1 b 1 b
Si les erreurs ne sont pas corrélées, alors on estime les paramètres par la méthode
des moindres carrés ordinaires. En cas d’autocorrélation des erreurs, nous pouvons
utiliser différentes méthodes d’estimation : la méthode de Cochrane et Orcutt, la
méthode de Hildreth-Lu, la méthode du maximum de vraisemblance ou la méthode
des variables instrumentales.
Yt b 0 a 0 X t a1 X t 1 a 2 X t 2 a h X t h ε t
h
a j X t j b0 ε t
j 0
a 0 a1 a 2 a h
It b0 a0 Pt a1 Pt 1 a2 Pt 2 t
où I est l’investissement et P le profit. Ce exemple est justifié par la théorie
économique postulant que les dépenses d’investissement peuvent être expliquées
par les profits passés.
Cette méthode consiste à retenir comme valeur de h celle qui minimise la fonction
de Akaike qui est donnée par :
SCR h 2 h
AIC(h) Log
n n
avec SCR h Somme des Carrés des Résidus pour le modèle à h retards
n nombre d’observations disponibles
Log logarithme népérien
82
4.2.2 Critère de Schwarz (1978)
SCR h h log(n)
SC(h) Log
n n
Pour ces deux critères, la procédure consiste à insérer des retards successifs et
à arrêter la spécification du modèle au moment où la valeur des deux statistiques
ne diminue plus.
Il peut arriver que les critères AIC et SC ne donnent pas le même résultat. Dans
cette situation, le principe de parcimonie invite à choisir le nombre de retards le
plus faible. On choisit ainsi le modèle qui a le plus faible nombre de paramètres
c’est à dire celui qui maximise les degrés de liberté.
83
Partie 2. Applications économétriques
Enoncé de l’application 1
84
TABLEAU 1
Investissement, PIB et Taux d’intérêt du Sénégal
85
Corrigé de l’application 1
Instruction EVIEWS
L’estimation des paramètres par les MCO conduit aux résultats figurant dans le
tableau 2.
TABLEAU 2
Estimation du modèle linéaire autorégressif par les MCO
86
2.2) Elasticités de long terme
87
Application économétrique 2 : Détermination du nombre de retards dans un
modèle à retards échelonnés
Enoncé du cas 2
Yt b 0 a 0 X t a1 X t 1 a 2 X t 2 a h X t h ε t
Déterminer le nombre de décalages trimestriels qui semblent avoir un effet sur les
dépenses d’investissement.
88
1987:3 2721 2131
1987:4 2640 2552
1988:1 2513 2234
1988:2 2448 2282
1988:3 2429 2533
1988:4 2516 2517
1989:1 2534 2772
1989:2 2494 2380
1989:3 2596 2568
1989:4 2572 2944
1990:1 2601 2629
1990:2 2648 3133
1990:3 2840 3449
1990:4 2837 3764
Corrigé du cas 2
Pour le retard 0
Instruction EVIEWS
Pour le retard 1
Instruction EVIEWS
Pour le retard 2
Instruction EVIEWS
Pour le retard 3
Instruction EVIEWS
etc…
89
Le tableau 4 reporte les valeurs prises par ces deux critères pour les valeurs de
h allant de 1 à 10. Ces résultats nous conduisent à retenir un nombre de retards
égal à 6.
Le modèle à retards échelonnés comporte 6 retards : l’investissement des entreprises
de ce secteur est fonction des profits réalisés sur les six derniers trimestres, soit
un an et demi.
TABLEAU 4
Résultats de la recherche du nombre de décalages optimal
TABLEAU 5
Estimation du modèle à retards échelonnés
90
Chapitre 3 : La cointégration et le modèle à
correction d’erreur
91
1. Introduction
2. Tests de stationnarité
2.1 Stationnarité
Une série chronologique est donc stationnaire si elle est la réalisation d’un
processus stationnaire. Ceci implique que la série ne comporte ni tendance, ni
saisonnalité et plus généralement aucun facteur n’évoluant avec le temps.
Une variable stationnaire est caractérisée par une moyenne et une variance
constantes et a tendance à fluctuer autour de sa moyenne revenant régulièrement
vers sa valeur d’équilibre de long terme.
92
4
-1
-2
-3
-4
25 50 75 100 125 150 175 200
EPS MOY
FIGURE 1
Représentation graphique d’un bruit blanc normal centré et réduit
Nous pouvons remarquer cette série est bien centrée sur 0 et que les fluctuations
semblent représentatives d’un bruit blanc.
Pour vérifier la stationnarité des séries, il faut pratiquer des tests de stationnarité ou
de racine unitaire (Unit Root Test). Les tests de stationnarité les plus utilisés sont : le
test de Dickey-Fuller augmenté (ADF,1981) et le test de Phillips-Perron (PP, 1988).
93
Remarque 1: Sur les logiciels, il suffit seulement de comparer la valeur de la
probabilité au seuil statistique alpha.
Ce test est construit sur une correction non paramétrique des statistiques de
Dickey-Fuller pour prendre en compte les erreurs hétéroscédastiques. Pour exécuter
le test, il est nécessaire de définir le nombre de retards l (troncature de Newey-
West) estimé en fonction du nombre d’observations n, l 4 n / 100
2/9
. Pour
effectuer le test, on compare la valeur de PP (Phillips-Perron Test Statistic) à celle
de CV (Test Critical Value). La règle de décision du test est identique à celle de la
procédure de Dickey-Fuller Augmenté.
Nous employons la stratégie séquentielle des tests de racine unité. Nous estimons,
en premier lieu, le modèle avec tendance et quand l’hypothèse nulle de ce
coefficient n’est pas exclue, nous estimons le modèle avec constante seulement.
94
3. Variables intégrées d’ordre d
Li X t X t i , i 0
On a : L Xt Xt 1 et L2 X t X t 2
3.1.2 Opérateur différence
On a X t X t 1 X t LX t (1 L) X t X t
3.2.1 Intégration
Xt I (0)
Définition 2 : Une variable est intégrée d’ordre 1 si sa différence première est
stationnaire.
Xt I(1) si X t I(0 )
95
Définition 3 : Une variable est intégrée d’ordre 2 si sa différence seconde est
stationnaire.
X t I (2) si 2 X t I(0 )
Remarque 2 : Dans la pratique, on a rarement un ordre d’intégration supérieur ou
égal à 3.
Une variable non stationnaire a une variance croissante dans le temps de sorte
qu’elle ne converge nullement vers une valeur d’équilibre, il faudrait pour cela la
différencier un certain nombre de fois selon son degré d’intégration.
Ce processus est intégré d’ordre 1 car sa différence première est le processus bruit
blanc qui est stationnaire
Dans les processus de type DS, un choc à un instant donné se répercute à l’infini
sur les valeurs futures de la série ; l’effet du choc est donc permanent et va en
décroissant.
Soit le processus marche aléatoire avec dérive (random walk with drift) défini par :
Xt 2 Xt 1 t
96
MARCAL
25
20
15
10
-5
25 50 75 100 125 150 175 200
FIGURE 2
Représentation graphique du processus : Xt 2 Xt 1 t
Nous pouvons remarquer que cette série est non stationnaire, on remarque qu’elle
a une tendance croissante.
-1
-2
25 50 75 100 125 150 175 200
D(MARCAL) MEAN
FIGURE 3
Graphique de la série différenciée
Cette série est bien stationnaire (on retrouve un processus de bruit blanc de
moyenne 2 et de variance 1).
Corrigé :
Nous avons vu que la variable log(PIB) est non stationnaire. Elle est non intégrée
d’ordre 0. Le test ADF effectué sur la différence première de log(pib) conduit aux
résultats suivants :
La valeur de la probabilité critique est nulle, l’hypothèse nulle est rejetée pour tous les
seuils statistiques conventionnels. La variable Log(PIB) est stationnaire en différence
première, elle est donc intégrée d’ordre 1. On remarque aussi la valeur de
ADF (- 5,383965) est inférieure à CV pour tous les seuils.
3.2.4 Propositions
Proposition 1 : La somme d’une variable I(0) et d’une variable I(1) est I(1)
98
4. Cointégration et modèle à correction d’erreur
L’idée qu’une relation d’équilibre de long terme puisse être définie entre variables
pourtant individuellement non stationnaires est à la base de la théorie de la
cointégration. La théorie de la cointégration permet d’étudier des séries non
stationnaires mais dont une combinaison linéaire est stationnaire. Elle permet ainsi
de spécifier des relations stables à long terme tout en analysant conjointement la
dynamique de court terme des variables considérées.
La théorie de la cointégration a été introduite par Granger (1981) afin d’étudier des
séries temporelles non stationnaires. Ainsi si on applique les méthodes habituelles de
l’économétrie à des séries non stationnaires, plusieurs problèmes se posent dont le
célèbre problème des régressions fallacieuses (spurious regressions) mis en avant
par Granger et Newbold (1974).
R2 0, 974 et DW 0,30
où les chiffres entre parenthèses figurant sous les valeurs estimées sont les t de
Student associés aux coefficients.
4
Le lecteur intéressé par d’autres exemples de régression fallacieuses peut
consulter le site internet de J.Gonzalo, Université Carlos III, Madrid.
99
Les dépenses de R&D aux Etats Unis ont un impact sur la population d’Afrique du
Sud, ce qui n’a aucun sens. Cet exemple illustre une régression fallacieuse, c’est à
dire dénuée de sens. Cela provient de la non stationnarité des différentes séries
entrant en jeu dans les régressions.
Z t Yt X t
est aussi I (d ) .
X t ,Yt CI d , b
est le paramètre de cointégration et le vecteur 1, est le vecteur de
cointégration.
Cette relation est appelée relation de cointégration ou encore relation de long terme.
Elle est donnée par Yt X t soit (Z t 0) . A long terme, les mouvements
stationnaire. Zt
mesure l’ampleur du déséquilibre entre Xt et Yt et est appelée
erreur d’équilibre.
100
La théorie de la cointégration est souvent utilisée en macroéconomie pour tester
diverses hypothèses de parité du pouvoir d’achat, pour étudier la relation entre
consommation et revenu, pour formuler des modèles de demande de monnaie, pour
examiner des relations entre taux de change de divers pays, pour étudier les
liens entre taux d’intérêt à court et long termes ou les relations entre les indices de
bourses internationales, etc.
La présence d’une relation d’équilibre entre des variables est testée formellement à
l’aide de procédures statistiques, dont les plus utilisées sont celles d’Engle et
Granger (1987) et de Johansen (1988, 1991). Les hypothèses nulles des 2 tests de
cointégration sont celles de la non cointégration. La méthode de Johansen est plus
efficace que la stratégie en deux étapes de Engle et Granger lorsque l’échantillon est
de petite taille et le nombre de variables élevé.
Une condition nécessaire d’utilisation de ce test est que toutes les variables doivent
être du même ordre d’intégration. Ce test est appelé test en deux étapes.
On estime par la méthode des moindres carrés ordinaires la relation de long terme :
Seconde étape : Test de stationnarité sur les résidus du modèle de long terme
(relation statique)
101
Ce test de cointégration est basé sur des résidus estimés et non sur des vraies
valeurs observées. Afin d’interpréter les résultats, il convient d’utiliser les tables des
valeurs critiques de Engle et Yoo (1987) ou de Mc Kinnon (1991)
Considérons les données relatives aux séries PIB et Importation du Sénégal. Les
données sont annuelles et s’étalent sur la période 1962 à 1995. Nous considérons
les séries exprimées en logarithme et notées respectivement LPIB et LIMP. Les
séries LPIB et LIMP sont intégrées d’ordre 1.
Corrigé :
La figure 4 indique que les deux séries semblent exhiber une tendance commune à
la hausse sur l’ensemble de la période. Ces deux séries sont non stationnaires et,
du fait de leur apparente évolution similaire, il est légitime de s’intéresser à l’étude de
la cointégration.
7.6
7.2
6.8
6.4
6.0
5.6
1965 1970 1975 1980 1985 1990 1995
LOG(IMPORT) LOG(PIB)
GRAPHIQUE 4
Evolution des variables pib et imp (en logarithme)
102
2) Le test de Engle-Granger effectué sur le logiciel Eviews7 donne les résultats
suivants :
Le test de Johansen peut être utilisé dans tous les cas de figures c’est à dire si
les variables sont de même ordre d’intégration ou d’ordres d’intégration différents.
Johansen (1988) propose des estimateurs du maximum de vraisemblance pour tester la
cointégration des séries. Il effectue un test de rang de cointégration.
Considérons les données relatives aux séries M2, PIB et IPC du Sénégal. Les
données sont annuelles et s’étalent sur la période 1971 à 2007. Nous considérons
les séries exprimées en logarithme et notées respectivement LM2, LPIB et LIPC.
Les séries LM2, LPIB et LIPC sont intégrées d’ordre 1.
103
Corrigé :
La figure 5 indique que les trois séries semblent exhiber une tendance commune à
la hausse sur l’ensemble de la période. Ces trois séries sont non stationnaires et, du
fait de leur apparente évolution similaire, il est légitime de s’intéresser à l’étude de la
cointégration.
3
1975 1980 1985 1990 1995 2000 2005
GRAPHIQUE 5
Evolution des variables m2, pib et ipc (en logarithme)
Le rang de cointégration est 2 : les variables LM2, LPIB et LIPC sont cointégrées.
Déterminons le rang de cointégration en comparant la statistique (Trace ) à CV
(Critical Value)
104
4.4 Modèle à correction d’erreur
D(LY t ) 0 1 D ( LX 1t ) 2 D ( LX 2 t ) 3 D ( LX 3t ) 4 LY t 1
5 LX 1 t 1 6 LX 2 t 1 7 LX 3 t 1 u t
avec
D(X t ) X t X t 1
LYt aˆ 0 aˆ1 LX 1t aˆ 2 LX 2t aˆ 3 LX 3t et
4.5 Conclusion
106
Partie 2 : Etude de cas sur le modèle à correction d’erreur et cointégration.
D Xt Xt Xt 1
108
2004 1445.8251 4198.510 156.4270
2005 1565.2525 4563.290 159.0941
2006 1745.2200 4802.886 162.3925
2007 1971.9900 5227.585 171.9045
2008 NA 5550.000 177.0000
2009 NA 5890.000 181.0000
2010 NA 6227.000 185.0000
2011 NA 6565.000 189.0000
2012 NA 6902.000 193.0000
Nous voulons déterminer l’ordre d’intégration des variables. Cette étape est
importante pour la suite. Nous utilisons différents tests de stationnarité : le test de
racine unitaire de Dickey-Fuller (ADF) et le test de Philips-Perron (PP). Nous voulons
savoir si les séries sont stationnaires (intégrées d’ordre 0) ou intégrées d’un ordre
supérieur ou égal à 1.
Nous employons la stratégie séquentielle des tests de racine unité. Nous estimons,
en premier lieu, le modèle avec tendance et quand l’hypothèse nulle de ce
coefficient n’est pas exclue, nous estimons le modèle avec constante seulement.
109
a1) Test ADF sur les variables en niveau
Instruction EVIEWS
<Quick> <Series Statistics> <Unit Root Tests> Taper ensuite le nom de la série .
choisir Level ( le test est fait sur la variable en niveau)
t-Statistic Prob.*
t-Statistic Prob.*
La valeur de Prob (0,1056) est supérieure à 5%, l’hypothèse H 0 n’est pas rejetée.
Log(PIB) est non stationnaire en niveau.
110
Augmented Dickey-Fuller Unit Root Test on log(IPC)
Null Hypothesis: LOG(IPC) has a unit root
Exogenous: Constant, Linear Trend
Lag Length: 1 (Automatic based on SIC, MAXLAG=9)
t-Statistic Prob.*
La valeur de Prob (0,2703) est supérieure à 5%, l’hypothèse H 0 n’est pas rejetée.
log(IPC) est non stationnaire en niveau.
Les résultats obtenus pour les variables en niveau indiquent que les séries log(m2),
log(pib) et log(ipc) ne sont pas stationnaires au seuil de 5%. On effectue alors le
test de Dickey Fuller Augmenté sur les variables en différence première.
Instruction EVIEWS
<Quick> <Series Statistics> <Unit Root Tests> Taper ensuite le nom de la série .
Dans la fenêtre Unit Root :
choisir First Difference (le test est fait sur la variable en différence première)
t-Statistic Prob.*
Au niveau de 1%, D(log(M2)) est stationnaire car la probabilité est nulle. La série
log(M2) est intégrée d’ordre un.
111
Augmented Dickey-Fuller Unit Root Test on D(log(PIB))
Null Hypothesis: D(LOG(PIB)) has a unit root
Exogenous: Constant, Linear Trend
Lag Length: 0 (Automatic based on SIC, MAXLAG=9)
t-Statistic Prob.*
Au niveau de 1%, D(log(PIB)) est stationnaire car la probabilité vaut 0,0002, soit
0,02 %. La série log(PIB) est intégrée d’ordre un.
t-Statistic Prob.*
Au niveau de 1%, D(log(ipc)) est stationnaire car la probabilité vaut 0,0006, soit
0,06 %. La série log(ipc) est intégrée d’ordre un.
112
b) Test de Phillips-Perron
La variable log(m2) n’est pas stationnaire car la probabilité critique (0,5765) est
supérieure à 5%. On remarque aussi que la statistique PP (- 2,010733) est
supérieure à CV pour tous les seuils. Log(M2) est non stationnaire.
La variable log(pib) n’est pas stationnaire car la probabilité critique (0,1056) est
supérieure à 5%. On remarque aussi que la statistique PP (- 2,577253) est
supérieure à CV pour tous les seuils. Log(M2) est non stationnaire.
113
La variable log(ipc) est non stationnaire car la probabilité critique (0,5319) est
supérieure à 5%. On remarque aussi que la statistique PP (- 2,097364) est
supérieure à CV pour tous les seuils. log(IPC) est non stationnaire en niveau.
Au niveau de 1%, D(log(M2)) est stationnaire car la probabilité est nulle. La série
log(M2) est intégrée d’ordre un. On remarque aussi que la statistique PP (-
6,847517) est inférieure à CV pour tous les seuils. L’hypothèse H 0 est rejetée :
log(M2) est stationnaire en différence première.
Au niveau de 1%, D(log(pib)) est stationnaire car la probabilité est nulle. La série
log(M2) est intégrée d’ordre un. On remarque aussi que la statistique PP (-
5,659552) est inférieure à CV pour tous les seuils. L’hypothèse H 0 est rejetée.
Log(PIB) est stationnaire en différence première.
114
Phillips-Perron Unit Root Test on D(log(IPC))
Null Hypothesis: D(LOG(IPC)) has a unit root
Exogenous: Constant, Linear Trend
Bandwidth: 2 (Newey-West using Bartlett kernel)
Au niveau de 1%, D(log(ipc)) est stationnaire car la probabilité est nulle. La série
log(ipc) est intégrée d’ordre un. On remarque aussi que la statistique PP(-
5,291242) est inférieure à CV pour tous les seuils. L’hypothèse H 0 est rejetée :
log(IPC) est stationnaire en différence première.
Les trois séries sont intégrées d’ordre 1. L’étape suivante consiste à examiner la
présence éventuelle de relations de cointégration qui existent à long terme entre les
variables.
Sur le logiciel EVIEWS, on dispose de cinq options. Les variables sont cointégrées si
on ne rejette pas l’hypothèse de cointégration pour au moins une option.
115
Instruction EVIEWS
116
3) Modèle à correction d’erreur
3.1 Modèle de Hendry : Estimation par les MCO en une seule étape
Après l’estimation des paramètres par la méthode des MCO, on effectue le test de
corrélation des erreurs de Breusch-Gofrey.
Instruction EVIEWS
<View> <Residual Tests> <Serial Correlation LM Test > Taper 1 dans la fenêtre
« Lag to include »
Les erreurs du modèle à correction d’erreur sont corrélées car toutes les
probabilités sont inférieures à 5%.
Les erreurs sont corrélées, on utilise la méthode d’estimation de Cochrane Orcutt.
Instruction EVIEWS
<Quick> <Estimate Equation >
117
Tableau 2. Estimation des paramètres du modèle à correction d’erreur à la Hendry
13,4% des effets d’un choc intervenu une année donnée est résorbé dans l’année
qui suit tout choc.
118
Ainsi, les chocs sur la masse monétaire au Sénégal se corrigent-ils à 13,4% % par
l’effet de « feed back ». En d’autres termes, un choc constaté au cours d’une année
est entièrement résorbé au bout de sept années et 6 mois ( 1/ 0,134 = 7,5 années)
ˆ 5 0,375
2,799
ˆ 3 0,134
119
4) Estimation du modèle à correction d’erreur en deux étapes
Etape 2 : estimation par les MCO de la relation du modèle dynamique (court terme)
On peut effectuer tous les tests classiques sur ce modèle et ensuite l’utiliser à
des fins de prévisions.
120
5) Prévision du modèle à correction d’erreur sur la période 2002 à 2004
(Modèle à la Hendry)
b) Critères de prévision
2,400
2,000
1,600
1,200
800
400
0
70 75 80 85 90 95 00 05 10
M2 M2F
121
d) Simulation du modèle
.6
.4
.2
.0
.3
-.2
.2
.1
.0
-.1
-.2
1975 1980 1985 1990 1995 2000 2005
122
Bibliographie
123
124