Sie sind auf Seite 1von 124

Université Catholique de l’Afrique de l’Ouest

(UCAO)
Faculté des Sciences Economiques et de Gestion

Année Universitaire 2013/2014

Master 2 en
Monnaie – Finance – Banque
(MFB)

Volume horaire : 40
Logiciels : Eviews et Stata

Cours : Econométrie Appliquée


Par

Fodiyé Bakary Doucouré

Maître en Econométrie

Docteur en Statistique

Faculté des Sciences Economiques et de Gestion

Université Cheikh Anta Diop de Dakar

Email : fodiye@refer.sn

Juin 2014

1
Table des matières

Introduction …….…………………………………………………………………….………...5

1. Qu’est - ce que l’économétrie ? ……………………………………………………………..6

2. Les types de données ………………………………………………………….…..………8

3. Les différents types d’horizons ………………………………………………….….………8

4. Les différentes étapes de la démarche économétrique ……………………………9

Chapitre 1 : Le modèle linéaire général

Objectifs pédagogiques du chapitre 1…………………………….………..………….…….12

1. Exposé du problème ……………………………………………………………….…………13

2. Notation matricielle du modèle linéaire général …………………………………….……14

3. Estimation et propriétés des estimateurs …………………………………….….………16


3.1 Hypothèses d’application de la méthode des moindres carrés
ordinaires ………………………………………………………………….…….……16
3.1.1 Hypothèses structurelles …………………………………………….……16
3.1.2 Hypothèses stochastiques ……………………………………….………16
3.2 Estimation des paramètres par la méthode des moindres
carrés ordinaires ……………………………………………………………..………17

4. Interprétation économique des paramètres ………………………………………..……19


4.1 Modèle sans logarithme …………………………………………………………19
4.2 Modèle log-linéaire ……………………………………………………..…………20
4.3 Modèle semi logarithmique ……………………………………………….………21

5. Théorème de Gauss et Markov ………………………………………………..…………21

6. Equation d’analyse de la variance et qualité d’un ajustement ………..………………22


6.1 Equation d’analyse de la variance ………………………………………….…22
6.2 Qualité d’un ajustement ………………………………………………….………23
6.2.1 Coefficient de détermination ………………………………….………23
6.2.2 Coefficient de détermination corrigé …………………………………23
6.2.3 Interprétation du coefficient de détermination ……………..………24

7. Tests économétriques ……………………………………………………………….……24


7.1 Test d’hypothèses ………………………………………………….…….………24
7.1.1 Définitions …………………………………………………..…….………24
7.1.2 Types d’erreurs ………………………………………………….………25
7.1.3 Niveau de signification d’un test ……………………………………25

2
7.2 Test du coefficient de corrélation linéaire ………………………….……25
7.3 Test de normalité de Jarque-Bera ……………………………………...……29
7.3.1 Moment centré d’ordre r ……………………………………………29
7.3.2 Test de Jarque-Bera ……………………………………….…….…..30
7.4 Test de Student …………………………………………………………….….…32
7.4.1 Comparaison d’un paramètre ai à une valeur fixée a …………32
7.4.2 Comparaison d’un paramètre a i à la valeur a  0 …………………33
7.4.3 Test de l’hypothèse la  s …………………………………………34
7.4.4 Intervalle de confiance pour les paramètres ai ………………………34

7.5 Test de significativité globale d’une régression ………………………..… 39


7.6 Tests d’autocorrélation des erreurs ………………………………….………41
7.6.1 Définition et causes de l’autocorrélation des erreurs …….……41
7.6.2 Estimation en présence d’autocorrélation des erreurs ….………41
7.6.3 Tests d’autocorrélation des erreurs ………………………..………41
7.6.3.1 Test de Durbin-Watson …………………………….………41
7.6.3.2 Test de Breusch-Godfrey ………………………….………43
7.6.3.3 Procédures d’estimation en cas d’autocorrélation
des erreurs ………………………………………..…………44
7.7 Tests d’hétéroscédasticité des erreurs ……….…………….……….………46
7.7.1 Définition …………………………………………………………………46
7.7.2 Tests de détection de l’hétéroscédasticité des erreurs …..………47
7.7.2.1 Test de White …………………………………….…………47
7.7.2.2 Test ARCH …………………………………………………48
7.7.3 Procédure d’estimation en présence de l’hétéroscédasticité
des erreurs …………………………………………………..…………49
7.8 Test de spécification de Ramsey ……………………………………………51
7.9 Tests de stabilité ………………………………………………….…………..…52
7.9.1 Test de Chow ………………………………………….…………… 52
7.9.2 Tests Cusum de Brown-Durbin-Evans……………………….……54

8. La prévision à l’aide du modèle linéaire général ………………………………58

Application économétrique ……..………………………………………………………….…62

Chapitre 2 : Les modèles à décalages temporels

Objectifs pédagogiques du chapitre 2…………………………………..………..………79

1. Introduction ………………………………………………………………………..………80

2. Pourquoi introduire des retards ? Quelques exemples…………………..…………80

3. Les modèles linéaires autorégressifs ………………………………….………….……80


3.1 Formulation générale ……………………………………………………………80
3.2. Modèle autorégressif d’ordre un …………………………………….………80
3.3 Elasticités de court et long termes …………………………………………81
3.4 Tests d’autocorrélation des erreurs et méthodes d’estimation …………81

3
4. Les modèles à retards échelonnés …………………………………………….………81
4.1 Formulation générale ………………………………………………….…………81
4.2 Détermination du nombre de retards ………………………….……..………82
4.2.1 Critère de Akaike …………………………………….…………...……82
4.2.2 Critère de Schwarz ……………………………………..……….……83

Application économétrique 1 : Modèle linéaire autorégressif ………………….……...84

Application économétrique 2 : Modèle à retards échelonnés ……………………..….88

Chapitre 3 : La cointégration et le modèle à correction d’erreur

Objectifs pédagogiques du chapitre 3………………………………….…….….…………91

1. Introduction ………………………………………………………………………..…………92

2. Tests de stationnarité ………………………………………………………..……………92


2.1 Stationnarité ………………………………………………………………92
2.1.1 Définition ………………………………………………………….………92
2.1.2 Exemples de processus stationnaire …………………………...92
2.2 Tests de stationnarité ……………………………………………………………93
2.2.1 Test de Dickey-Fuller Augmenté ……………………………….……93
2.2.2 Test de Phillips Perron …………………………………………………94

3. Variables intégrées d’ordre d ……………………………………………………95


3.1 Opérateurs décalage et différence ………………………………….…………95
3.1.1 Opérateur décalage ……………………………………………...………95
3.1.2 Opérateur différence ……………………………………………..…….…95
3.2 Notion d’intégration ……………………………………………………..…………95
3.2.1 Intégration …………………………………………………..……………95
3.2.2 Quelques définitions ………………………………………..……………95
3.2.3 Exemple de processus non stationnaires ………………..…………96
3.2.4 Propositions ………………………………………………………..………98

4. Cointégration et modèle à correction d’erreur ……………………………..……99


4.1 Le problème des régressions fallacieuses ………………………………99
4.2 Définition de la cointégration …………………………………..………100
4.3 Tests de cointégration ……………………………….…………………101
4.3.1 Test de Engle et Granger …………………………….………101
4.3.2 Test de cointégration de Johansen ……………………….………103
4.4 Modèle à correction d’erreur …………………………………………..………105
4.5 Conclusion ……………………………………………………………….………106

Application économétrique…………………………………………………..……..…………107

Bibliographie
……………………………………………………………….………………………….……….123

4
Introduction

Objectifs pédagogiques de l’introduction

Lorsque vous aurez lu l’introduction, vous pourrez :

 définir correctement l’économétrie ;

 savoir quelques interrogations auxquelles l’économétrie permet de


répondre ;

 définir les types de séries temporelles ;

 distinguer les différents types d’horizon de prévision ;

 indiquer les différentes étapes dans la construction d’un modèle


économétrique.

5
Toute faute humaine est impatience, un arrêt prématuré du méthodique, une apparente
fixation de ce qui paraît être.
F. Kafka

L’homme approche la vérité inaccessible par une succession d’erreurs.


A. Huxley

Le travail mental de prévision est une des bases essentielles de la civilisation. Prévoir est
à la fois l’origine et le moyen de toutes les entreprises, grandes ou petites.
P. Valéry

Tout le monde sait et dit que celui qui observe sans idée, observe en vain.
Alain

Les machines un jour pourront résoudre tous les problèmes, mais jamais aucune
d'entre elles ne pourra en poser un !
Albert Einstein

La théorie sans la pratique est absurde, la pratique sans la théorie est aveugle.
E Kant

1. Qu’est - ce que l’économétrie ?

L’économétrie est la mesure des phénomènes économiques. Elle constitue une


branche de la science économique qui fait appel conjointement à la théorie
économique, la statistique, les mathématiques et l’informatique.

L’économétrie, en tant que discipline, est née en 1930 lors de la création de la


Société d’économétrie par Ragnar Frisch, Charles Roos et Irving Fisher.

L’économétrie est un ensemble de méthodes statistiques appliquées à l’économie.


Elle a deux fonctions essentielles :

i) tester les théories économiques ou, plus modestement certaines assertions de la


théorie économique;

ii) évaluer les paramètres en jeu dans les relations économiques.

L’économétrie est une branche de la science économique consistant à établir des


lois ou à vérifier des hypothèses à partir de données chiffrées tirées de la réalité.

Il est à peu près impossible de faire de la recherche en sciences économiques


sans se trouver devant la nécessité de lire ou de réaliser des travaux
d’économétrie à un moment ou à un autre.

6
C’est la raison pour laquelle, dans tous les pays, la formation des économistes
suppose l’acquisition des techniques économétriques. A titre d’illustration sur les
derniers Prix Nobel d’Economie, trois furent attribués à des économètres : Heckman
et McFadden en 2000 (économétrie des variables qualitatives), Engle et Granger
en 2003 (économétrie des séries temporelles et économétrie financière) et Sargent
et Sims en 2011 (recherches sur la cause et l’effet en macroéconomie, modèles
VAR, …).

De fait donc, l’économiste ne doit-il pas être aussi économètre ? John Maynard
Keynes, dans les années 1930, écrivait :

« L’économiste doit être mathématicien, historien, philosophe, homme d’Etat, … »

S’il faut transférer la pensée de Keynes aujourd’hui, n’aurait-il pas lui-même ajouté
l’économiste doit être économètre ?

L’économétrie est donc une discipline dont le contenu opérationnel est très
important. A titre d’exemple, l’économétrie peut permettre de quantifier un phénomène,
d’établir une relation entre plusieurs variables, de valider ou d’infirmer empiriquement
une théorie, d’évaluer les effets d’une mesure de politique économique, etc.

L’économétrie peut permettre de répondre à des interrogations comme :


 Les termes de l’échange sont-il un instrument de la valeur des taux de
change ? D’autres variables économiques ont-elles plus d’impact ?
 La théorie de la parité des pouvoirs d’achat est-elle vérifiée empiriquement ?
 Le CFA est-il surévalué ? Si oui, quel est le pourcentage de surévaluation ? En
d’autres termes, quelle est la valeur d’équilibre du CFA ?
 Une hausse de l’inflation permet-elle de réduire le chômage ?
 Y a t-il une convergence des PIB par tête au niveau international ?
 Quel est l’impact d’une hausse de 10% du revenu sur la consommation d’un
ménage ? Cet impact diffère t-il selon le pays de résidence du ménage ?
 etc.

De manière générale, pour répondre à ces interrogations, l’économètre devra


construire un modèle visant à mettre en relation les diverses variables d’intérêt.
L’économétrie peut en effet être appliquée à toutes les branches de l’économie : la
macroéconomie, la finance, l’économie du travail, l’économie industrielle, l’économie
publique, etc. Les techniques économétriques peuvent aussi être mobilisées dans
d’autres disciplines, telles que la gestion (notamment en marketing), la biologie,
l’agronomie, la science politique, la médecine, la sociologie, etc.

Les techniques économétriques sont régulièrement utilisées dans les banques, les
ministères, les agences gouvernementales, les grandes entreprises, les institutions
internationales, la recherche agronomique, la finance, etc.

7
2. Les types de données

Nous distinguons plusieurs types de données selon que le modèle est spécifié en :

Série temporelle  
Y t t  1,2, , T : c’est le cas le plus fréquent en
économétrie, il s’agit de variables observées à intervalles de temps réguliers

Exemple : Le Produit Intérieur Brut (PIB) de la Guinée, exprimé en dollars courants


depuis 1980 jusqu’en 2007.

Coupe instantanée Y 
i i  1,2,  , n : les données sont observées au même
instant et concernent les valeurs prises par la variable pour un groupe d’individus
spécifiques

Exemple : La consommation observée en 2012 pour les chefs de ménages guinéens.

Panel Yi t  i  1,2,,n ; t  1,2,, T : la variable représente les valeurs


prises par un échantillon d’individus sur une période donnée ;

Exemple : Le Produit Intérieur Brut (PIB) des pays de l’UEMOA, exprimé en francs
courants depuis 1980 jusqu’en 2007.

Cohorte : très proches des données de panel, les données de cohorte se distinguent de
la précédente par la constance de l’échantillon, les individus sondés sont les mêmes
d’une période sur l’autre.

3. Les différents types d’horizons

Il est classique de distinguer les prévisions en fonction de leur terme. En fait,


quatre horizons sont généralement mis en scène

i) Le très court terme : des dernières observations jusqu’à deux trimestres


au-delà de la date courante.

ii) Le court terme : de six mois à deux ans ;

iii) Le moyen terme : généralement entre deux et cinq ans, quelquefois dix
ans ;

iv) Le long terme : au-delà de cinq à dix ans.

Les techniques économétriques sont adaptées pour des prévisions à moyen ou


long termes.

Les techniques statistiques (méthodes de lissage, méthode de Box-Jenkins, …) sont


adaptées pour des prévisions à court ou moyen termes.

8
4. Les différentes étapes de la démarche économétrique

La construction d’un modèle économétrique s’effectue selon plusieurs étapes.

Etape 1 : Choix de la variable dépendante


(ou variable expliquée ou encore variable endogène.

La variable endogène est notée Y .

Etape 2 : Choix des variables indépendantes


(ou variables explicatives ou encore variables exogènes)

Les variables exogènes sont notées : X 1 , X 2 , , X k .

Le modélisateur peut s’aider de la théorie économique pour choisir les variables


explicatives.

Etape 3 : Constitution de la base des données

Les données sont collectées pour la variable endogène et pour les variables
exogènes.

Quatre types de données sont couramment utilisées pour la constitution de la


base des données : les séries temporelles ; les séries en coupe instantanée ; les
panels ; les cohortes.

Etape 4 : Choix du modèle

On choisit un modèle Y  f ( X1, X2 ,, X k )  


Sachant que le phénomène étudié ne peut être expliqué à 100%, l’influence des
autres variables explicatives éventuelles est prise en compte par le terme d’erreur
.

Pour le choix de la forme fonctionnelle, le modélisateur peut s’aider des


représentations graphiques entre la variable endogène et chaque variable exogène.
Dans la pratique, il teste plusieurs formes (linéaire, non linéaire) et retient celle
jugée la plus satisfaisante en se basant sur certains critères.

Les modèles économétriques disponibles sont : le modèle linéaire général, le modèle


linéaire autorégressif, le modèle à retards échelonnés, le modèle à correction
d’erreur, le modèle probit-logit, le modèle tobit, le modèle de durée, le modèle à
équations simultanées, le modèle de panel, le modèle VAR, …

Le choix d’un modèle dépend de la disponibilité des données et du problème


étudié.

9
Etape 5 : Estimation des paramètres du modèle choisi

Les coefficients des modèles économétriques peuvent être estimés par diverses
méthodes : Moindres Carrés Ordinaires (MCO), Moindres Carrés Généralisés (MCG),
Maximum de Vraisemblance (MV), …..

Etape 6 : Validation du modèle estimé

Après l’estimation du modèle, l’économètre doit procéder à sa validation. Pour ce


faire, il utilise des critères (économiques, statistiques et économétriques) afin de
vérifier si les paramètres obtenus sont théoriquement satisfaisants et statistiquement
significatifs. Au total, le modèle doit être validé économiquement, statistiquement
et économétriquement.

-- Les critères économiques

Ces critères sont déterminés par les développements de la théorie économique et


concernent généralement le signe et la valeur des paramètres des relations
économiques (propension marginale, élasticité, semi élasticité, multiplicateurs,…).

-- Les critères statistiques

Ils sont déterminés par la théorie statistique et ont pour but d’évaluer la fiabilité
statistique des estimateurs des coefficients du modèle.

Les plus usuels sont le coefficient de détermination R², la variance des estimateurs,
les critères d’information, ….

-- Les critères économétriques

Ces critères permettent de vérifier les hypothèses de base qui sous-tendent la


technique économétrique utilisée. Ils concernent une batterie de tests.

Un modèle est validé si :

 la plupart des variables explicatives ont un impact significatif sur la variable


endogène (Student)

 il est globalement significatif (Fisher) ;

 ses erreurs ne sont pas corrélées (Durbin-Watson, Breusch-Godfrey, h de


Durbin, …) ;

 ses erreurs sont homocédastiques (White, Goldfeld-Quandt, Glejer, ARCH,


Breusch-Pagan,….) ;

 il est bien spécifié (Ramsey) ;

 il est stable (Chow, Cusum de Brown-Durbin-Evans, …)

10
Etape 7 : Simulation et prévision du modèle validé

Avant d’utiliser le modèle estimé pour réaliser des prévisions pour un horizon
souhaité, il est vivement conseillé d’évaluer son pouvoir prédictif par la réalisation de
simulations sur le passé permettant de comparer les valeurs estimées aux données
réelles.

Un modèle a des chances d’avoir un bon pouvoir prédictif s’il reproduit


« fidèlement » le passé.

11
Chapitre 1 : Le modèle linéaire général

Objectifs pédagogiques du chapitre 1

Lorsque vous aurez complété l’étude du chapitre 1, vous pourrez :

 maîtriser l’économétrie du modèle linéaire général;

 énoncer les hypothèses d’application de la méthode des moindres


carrés ordinaires ;

 interpréter économiquement les paramètres d’un modèle estimé ;

 interpréter le coefficient de détermination R² d’un modèle estimé ;

 définir ce qu’on entend par seuil de signification d’un test d’hypothèse ;

 reconnaître quel type de test économétrique on doit mettre en


œuvre dans une situation particulière ;

 appliquer la démarche proposée dans l’exécution des tests


économétriques suivants : coefficient de corrélation linéaire, Jarque-
Bera, Student, Fisher, White, ARCH, Durbin-Watson, Breusch-Godfrey,
Ramsey, Chow et Brown-Durbin-Evans ;

 utiliser le modèle linéaire général à des fins de prévision ;

 utiliser le logiciel économétrique Eviews pour estimer les paramètres


du modèle linéaire général et effectuer les tests économétriques
classiques.

12
Introduction
On parle de modèle de régression simple si une seule variable explicative est
considérée. La fonction de consommation keynésienne

Ct  a1  a2 Rt   t , t  1, ... , n
où C est la consommation et R le revenu est un modèle de régression simple.
En pratique, il est cependant fréquent qu’une variable (expliquée) dépende de
plusieurs variables explicatives.
Prenons quelques exemples visant à illustrer les questions auxquelles on peut
répondre dans le chapitre. La production d’une entreprise dépend-t-elle plus du facteur
capital ou du facteur travail ? Le PIB d’un pays dépend-t-il plus de ses exportations, de
l’investissement, du capital humain, de l’encours de la dette extérieure, du taux
d’inflation, ou du taux de change ?

Dans ces différents cas où plusieurs variables explicatives entrent en jeu, on parle
de modèle linéaire général1 ou modèle de régression linéaire multiple.

1. Exposé du problème

Le modèle linéaire général (ou modèle de régression linéaire multiple) peut s’écrire :

où Y est la variable endogène (ou à expliquer), les variables


exogènes (ou explicatives) indépendantes et non aléatoires, des nombres
réels inconnus, le nombre d’observations et  le terme d’erreur (ou aléa) non
observé.

L’erreur  est une variable aléatoire centrée de variance  , indépendante des variables
2

. Il s’agit d’un terme d’erreur stochastique qui permet de prendre en compte le


fait que la variable Y est affectée par d’autres variables que les variables
.

Généralement, la première variable est égale à 1 pour toutes les observations. Par
conséquent a1 est la constante du modèle qui est de la forme :

On désire estimer les paramètres et la variance de la variable aléatoire


 à partir d’un ensemble de n observations indépendantes.

1
Ce chapitre reprend un certain nombre de développements figurant dans l’ouvrage
de Doucouré (2013) que le lecteur intéressé pourra consulter pour plus de détails.
13
2. Notation matricielle du modèle linéaire général

Le modèle linéaire général peut être présenté sous la forme matricielle :

Y est le vecteur des n observations sur la variable endogène. X est la matrice des
variables exogènes, chaque colonne de la matrice X est une variable explicative. a
est le vecteur des coefficients de régression.  est le vecteur des écarts aléatoires.

Exercice d’application 1 : Considérons le modèle linéaire simple (fonction de


consommation keynésienne) :

C t  a 1  a 2 R t   t , t  1, ... , n
C t  consommation au temps t ;

R t  revenu au temps t ;

a 1  consommation incompressible ;

a 2  propension marginale à consommer

Ce modèle s’écrit matriciellement :

Y  X . a  
( n ,1) ( n , 2) ( 2,1) ( n ,1)

 C1  1 R 1   1 
     
C2  1 R 2   a1  2 
Y  ; X ; a    ;  
    a 2  
     
Cn  1 R n  n 

14
Exercice d’application 2 : Considérons le modèle linéaire simple :

Yt  a 1  a 2 t   t , t  1, ... , n

Ce modèle s’écrit matriciellement :

Y  X . a  
( n ,1) ( n , 2) ( 2,1) ( n ,1)

 Y1  1 1  1 
     
 Y2  1 2  a1  2 
Y  ; X ; a    ;  
   a 2  
     
 Yn  1 n n 

Exercice d’application 3 : Considérons le modèle linéaire :

Yt  a 1  a 2 t  a 3 t 2   t , t  1, ... , n

Ce modèle s’écrit matriciellement :

Y  X . a  
(n,1) (n, 3) (3,1) (n,1)

 Y1  1 1 1   1 
     a1   
Y  1 2 22    2 
Y  2  ; X  ; a  a2  ;    
     
    a   
2   3 
 Yn  1 n n  n 

Exercice d’application 4 : A la fonction de production de Cobb-Douglas, on associe


le modèle linéaire général :

Yt  a 1  a 2 Z t  a 3 M t   t , t  1, ... , n

Yt est le logarithme népérien de la production Q t de la période t


Z t est le logarithme népérien du capital utilisé K t
M t est le logarithme népérien de la main d’œuvre employée L t
a 2 est l’élasticité de la production par rapport au facteur capital
a 3 est l’élasticité de la production par rapport au facteur travail
a 1 est la constante du modèle.

15
Ce modèle s’écrit matriciellement :

Y  X . a  
( n , 1) ( n , 3 ) ( 3 , 1) ( n , 1)

 Y1  1 Z1 M1   1 
     a1   
Y  1 Z2 M2    2 
Y   2  ; X   ; a  a2  ;   
    a   
     3   
Yn  1 Zn Mn   n 

L’écriture sous forme matricielle rend plus aisée la manipulation du modèle linéaire
général, c’est pourquoi nous l’adoptons par la suite.

3. Estimation et propriétés des estimateurs

3.1 Hypothèses d’application de la méthode des moindres carrés ordinaires.

Deux catégories d’hypothèses doivent être faites pour résoudre le problème des moindres
carrés. Nous distinguons les hypothèses structurelles ; des hypothèses stochastiques
(liées à l’erreur  ).

3.1.1 Hypothèses structurelles

- : le nombre d’observations est supérieur au nombre de séries


explicatives, c’est à dire que les degrés de liberté ( ) doivent être strictement
positifs.

- le rang de la matrice X des variables explicatives est égal à k, le nombre


de paramètres à estimer. La matrice X est de plein rang colonne, autrement dit, les
variables explicatives sont linéairement indépendantes (absence de colinéarité entre les
variables explicatives). Ceci implique que la matrice est inversible c’est à dire que
la matrice existe. désignant la transposée de la matrice X.

Ces hypothèses structurelles sont techniques, elles garantissent l’existence d’une solution.

3.1.2 Hypothèses stochastiques

- , l’espérance mathématique de l’erreur est nulle. Cette hypothèse


implique que Y est une variable aléatoire d’espérance mathématique . Cette condition
permet d’obtenir des estimations sans biais.

- , les erreurs sont homocédastiques (leur variance est constante).


Cette hypothèse peut être testée et quand on a repéré l’hétéroscédasticité (
pour au moins un t), on peut corriger et obtenir néanmoins de bons estimateurs.

16
- , les erreurs sont non corrélées (ou encore
indépendantes). Cette hypothèse peut elle aussi être testée. Quand n’est pas
vérifiée, on parle alors d’autocorrélation des erreurs.

- les termes d’erreur suivent une loi normale. Cette hypothèse


joue un rôle essentiel bien qu’elle soit difficile à vérifier. Il existe des tests de normalité (par
exemple le test de Jarque-Bera) mais ils ne sont pas applicables sur les termes d’erreurs,
qui par définition demeurent inconnus.

Les hypothèses stochastiques ont pour but de s’assurer que les estimateurs des
coefficients jouissent de propriétés statistiques intéressantes.

3.2 Estimation des paramètres par la méthode des moindres carrés ordinaires

La méthode des moindres carrés ordinaires (ci-après MCO) consiste à minimiser la


somme des carrés des résidus. On démontre que de l’estimateur des moindres
carrés ordinaires est . La matrice existe du fait que X est
de rang (hypothèse H 2 ).

Remarque 1.1 : L’estimation des paramètres par la méthode des MCO est effectuée
par ordinateur grâce à des logiciels comme Eviews, Stata, SPSS (Statistical Package
of Social Sciences) ou SAS (Statistical Analysis System).

Exercice d’application 5 : Soit le modèle linéaire simple :

Yi  X i  i 1 i  n

On suppose que la variable aléatoire i suit une loi normale centrée et de

variance  .
2

1) Quelle hypothèse du modèle linéaire simple n’est pas vérifiée a priori dans cette
spécification ?

2) Pouvez-vous trouver dans la théorie économique deux exemples où de telles


relations se justifient ?

3) Démontrer que l’estimateur des moindres carrés ordinaires de  est


n
 X iYi
ˆ  i 1
n .

2
X i
i 1

17
Corrigé :

1) Il n’y a pas de terme constant  . Ou autrement dit, on a supposé une


hypothèse supplémentaire   0.
2) Une telle relation se justifie dans les deux modèles suivants:

a) Dans un modèle d’offre de travail OT i   w i   i


où OT est l’offre de travail et w le salaire. Pour un salaire nul, un individu
n’offrira pas de travail.

b) Dans la fonction de consommation de Milton Friedman, on a

C  kY p

où C est la consommation et Yp le revenu. Pour un revenu permanent


(richesse) nul, l’individu ne pourra pas consommer.

3) Nous déterminons l’estimateur  en utilisant deux méthodes ( par minimisation de


la somme des carrés des erreurs et par calcul matriciel)

a) Par minimisation
n 2
L’estimateur de  est obtenu en minimisant f     Y i  Xi
i1
 f ( ) n
 0   2  X i ( Yi   X i )  0
 i 1

n n
 X i Yi  Xi
2
  
i 1 i 1

On obtient :
n
 X iYi
ˆ  i1
n

2
Xi
i1

18
b) Par calcul matriciel

L’écriture matricielle du modèle est :

 Y1   X 1   1 
     
 Y2   X 2  2 

           
     
 Yn   X n   n 

Calculons X' X 1 et X' Y

 X1 
 
X  n 1
X ' X  X 1 X 2  X n  2  X ' X  1
2
   Xi   n
i 1
   Xi
2
X 
 n  i 1

 Y1 
 
 Y2  n
X ' Y  X 1 X 2  X n       X i Yi
i  1
 
Y 
 n 
On obtient
n
 X i Yi
ˆ  X ' X 
 1 i1
X' Y  n

2
Xi
i1

4. Interprétation économique des paramètres

Nous considérons trois modèles de régression couramment utilisés dans la pratique


et donnons l’interprétation économique des paramètres.

4.1 Modèle sans logarithme

Nous considérons le modèle Y  aX  b   .


Dans ce cas, le paramètre a est une propension marginale.

Y
a   Y  a  X
X
Le paramètre b a une signification économique, c’est la valeur de Y quand X  0.

19
Exercice d’application 6 : A l’aide de 35 observations, on souhaite estimer les
paramètres du modèle

Cons  a Re v  b   , où cons est la consommation de l’individu et Rev son


revenu. Les données sont en francs CFA. L’estimation des paramètres par la
méthode des MCO donne : aˆ  0,85 ; bˆ  12 000 . .

On a une fonction de consommation, b̂ est l’estimation de la consommation quand le


revenu est nul, c’est à dire si Rev  0 . b̂ est donc l’estimation de la consommation
incompressible (consommation autonome ou minimum de subsistance).

â est l’estimation de la propension marginale à consommer :  Cons  0,85   Re v.


aˆ  0,85 signifie qu’une augmentation de 100 000 francs CFA du revenu d’un individu
implique une augmentation de 85 000 francs CFA de sa consommation.

4.2 Modèle log-linéaire

Le modèle log-linéaire, encore appelé modèle log-log ou modèle double-log , est


donné par :
log(Y )  a log( X )  b  

où log est le logarithme népérien.

Dans ce cas, le paramètre a est une élasticité.

 log( Y ) Y X
a  a
 log( X ) Y X

a est l’élasticité de Y par rapport à X et le paramètre b n’a pas une signification


économique.

Exercice d’application 7 : Les importations du Sénégal (Y) sont mises en relation


avec le Produit Intérieur Brut (X) sur la période 1962 à 1995 .

log(IMP)  a log(PIB)  b  
L’estimation des paramètres par la méthode des MCO donne : aˆ  0,75 ; bˆ  0,65 .

â est l’estimation de l’élasticité des importations par rapport au produit intérieur brut.

 IMP  PIB
 0,75 
IMP PIB

aˆ  0,75 signifie qu’une augmentation de 10% du PIB implique une augmentation


de 7,5% des importations. Il est à noter que bˆ  0,65 n’a pas d’interprétation
économique.

20
Remarque 1.2 : La transformation logarithmique, donnant lieu à un modèle log-
linéaire peut être utilisé pour réduire l’hétérocédasticité des erreurs (voir la sous
section 7.7). La réduction de l’hétérocédasticité provient du fait que la transformation
logarithmique « comprime » les échelles dans lesquelles les variables sont
mesurées.

4.3 Modèle semi logarithmique

Le modèle semi logarithmique est donné par :

log(Y )  aX  b  

Dans ce cas, le paramètre a est une semi élasticité.

 log(Y ) Y
a   a  X
X Y

est la semi élasticité de Y par rapport à X et le paramètre b n’a pas une


signification économique.

Exercice d’application 8 : L’investissement (INV) du Sénégal est mis en relation


avec le taux d’intérêt réel (TXINT) sur la période 1972 à 2001.

log(INV )  aTXINT  b  

L’estimation des paramètres par la méthode des MCO donne : aˆ   0,06 ; bˆ   2,59

â est l’estimation de la semi élasticité de l’investissement par rapport au taux


d’intérêt réel.
 INV
  0,06   TXINT
INV

aˆ   0,06 signifie qu’une hausse du taux d’intérêt réel d’un point (100%) de 3% à
4% par exemple entraîne une diminution de 6% de l’investissement. Il est à noter
que bˆ   2,59 n’a pas d’interprétation économique.

5. Théorème de Gauss et Markov

L’estimateur de a est «BLU» (Best Linear Unbiased) ou le meilleur


estimateur linéaire sans biais de a c’est-à-dire que :

a) les composantes de sont des fonctions linéaires des ,

b) est un estimateur sans biais de a,

c) la matrice de variances-covariances de est .

21
d) parmi les estimateurs sans biais des composantes de a fonctions
linéaires des , les composantes de sont celles dont les variances
sont minimum.

Le théorème de Gauss et Markov énonce une propriété très importante des MCO : Â
donne la meilleure connaissance possible de puisqu’il est sans biais et à variance
minimale. Cette propriété est obtenue sous les hypothèses assez peu exigeantes
puisqu’on n’a pas formulé d’hypothèse sur la (ou les lois) suivie(s) par les erreurs  t .

Remarque 1.3 : L’estimateur des MCO est appelé estimateur de Gauss-Markov. Il


est optimal si les erreurs sont homocédastiques et non corrélées c’est à dire si
V ( )   2 I .
Si les erreurs sont homocédastiques et/ou non corrélées, l’estimation
des paramètres se fait par la méthode des moindres carrés généralisés (MCG).

Considérons le modèle Y  X a  , pour lequel V ( )  V  I , l’estimateur des


2

ˆ  X V 1 X 1 X V  1Y . L’estimateur de Aitken


MCG ou estimateur de Aitken est A
généralise donc l’estimateur de Gauss et Markov.

6. Equation d’analyse de la variance et qualité d’un ajustement

6.1 Equation d’analyse de la variance

Ayant évalué par la méthode des moindres carrés ordinaires les paramètres du
modèle, on cherche à déterminer si le modèle permet de bien expliquer la variable
ˆ , le vecteur des valeurs
endogène. Soit e  Y  Yˆ , le vecteur des résidus et Yˆ  XA
estimées de Y. On démontre que :

n n n
 (Yt  Y )   (Yt  Yˆt ) 2   (Yˆt  Y ) 2
2

t 1 t 1 t 1
SCT  SCR  SCE
Cette égalité est l’équation d’analyse de la variance. Cette égalité correspond à la
décomposition de la variance totale (SCT) en variance résiduelle (SCR) et variance
expliquée (SCE).

SCT = Variabilité totale

SCR = Variabilité des résidus

SCE = Variabilité expliquée

22
6.2 Qualité d’un ajustement

6.2.1 Coefficient de détermination

Un modèle est une représentation simplifiée des déterminants du phénomène économique


étudié. Les facteurs qui influencent la variable endogène Y sont certainement beaucoup
plus nombreux et complexes que ceux qui sont retenus dans le modèle. Quelle est la
part de la variance de Y qui est expliquée par ce modèle réducteur ?

Le coefficient de détermination R² est défini à partir de l’équation d’analyse de la


variance précédente :

 Yˆ  Y 
2
t
variance expliquée SCE
R  2
 t

 Y  Y 
2
variance totale SCT
t
On a :
SCT  SCR SCR
R2  1 et SCR  ( 1  R 2 ) SCT
SCT SCT

Par construction on a : 0  R  1. Le coefficient de détermination est donc bien un


2

instrument de mesure de la qualité de l’ajustement. Plus il est proche de 1, mieux


cela vaut. Cependant le coefficient de détermination doit être utilisé avec précaution,
2
il est aussi à noter que le coefficient R n’est utilisable que dans un modèle avec
terme constant.

6.2.2 Coefficient de détermination corrigé


Le coefficient de détermination est une fonction non décroissante du nombre de
variables explicatives incluses dans le modèle. Ainsi, lorsqu’on augmente le nombre
de variables explicatives dans le modèle, la valeur du coefficient de détermination
augmente. Afin de pallier ce problème, il convient de corriger le coefficient de
détermination par le nombre de degrés de liberté. Pour cela, on détermine ce que l’on
appelle le coefficient de détermination corrigé, ou encore coefficient de détermination
2
ajusté. Ce dernier noté R est donné par :

n 1
R 2  1 (1  R 2 )
nk

On a : R  R 2 et si n est grand R 2  R 2 . R 2 peut diminuer lorsqu’une variable


2
2
est ajoutée à l’ensemble des variables exogènes. R peut même être négatif.

23
6.2.3 Interprétation du coefficient de détermination

Nous donnons l’interprétation du coefficient de détermination à travers un modèle


de croissance économique. On dispose pour un pays donné, des séries
macroéconomiques PIB, Investissement (INV), Exportations (EXPT), Taux d’inflation
(TINF) et Encours de la dette extérieure (DETTE).
L’estimation par la méthode des MCO des paramètres du modèle

PIBt  a1  a 2 EXPTt  a3TINFt  a 4 DETTE t   t

donne une valeur de R2 égale à 0,87. Cette valeur indique que 87% des
fluctuations du PIB sont expliquées par les variables EXPT, TINF et DETTE. On
peut aussi affirmer que le modèle explique 87% de la variance du PIB. Il faut
remarquer que cette valeur obtenue pour le coefficient de détermination R2
n’indique rien sur la qualité du modèle.

Remarque 1.4 : Les coefficients de détermination et de détermination ajusté permettent


de comparer des modèles entre eux. Bien entendu, ces modèles doivent avoir la
même variable endogène et comporter le même nombre d’observations. On retiendra
le modèle dont le coefficient de détermination – ou le coefficient de détermination ajusté
– est le plus élevé.

7. Tests économétriques

Une étude économétrique consiste non seulement à estimer des paramètres d’un
modèle, mais aussi, à tester des hypothèses afin de valider le modèle économique
théorique. Les paramètres estimés  sont des variables aléatoires, ce ne sont pas
des valeurs certaines, ils ne sont pas exactement identiques à la vraie valeur des
paramètres a. On doit effectuer des tests statistiques afin de compléter les résultats des
estimations. Considérons le modèle de régression multiple :

Yt  a1  a 2 X 2t  a 3 X 3t    a k X kt   t

Dans cette section, nous nous intéressons à quelques problèmes statistiques qui
découlent de l’écriture de ce modèle.

7.1 Test d’hypothèses

7.1.1 Définitions

Un test est une procédure qui permet d’accepter ou de rejeter rationnellement une
hypothèse relative par exemple à la valeur d’un paramètre de la population ou à sa
loi de probabilité. L’hypothèse nulle (ou hypothèse à tester) est notée H0 tandis
que l’hypothèse alternative est notée H1 .

24
7.1.2 Types d’erreurs

Tout test d’hypothèses est sujet à des erreurs. Ces dernières surviennent parce
que la distribution de ces tests est asymptotique et que l’échantillon sur lequel
travaille l’économètre est fini. L’inférence par un test d’hypothèses peut conduire à
deux types d’erreur. L’erreur de type I (erreur de première espèce) survient lorsque
le test d’hypothèse rejette une hypothèse nulle vraie tandis que l’erreur de type II
(erreur de deuxième espèce) ne parvient pas à rejeter une hypothèse nulle fausse.

7.1.3 Niveau de signification d’un test

Le niveau de signification d’un test est la probabilité de l’erreur de première


espèce. En théorie, les valeurs critiques d’un test d’hypothèses sont construites selon un
niveau désiré. Les seuils statistiques conventionnels sont 1%, 5% ou 10 %. Par
exemple, une valeur critique d’un niveau théorique de 5% signifie que la probabilité
de rejeter une hypothèse nulle vraie se situe à 5% (on se donne 5 chances sur 100
de se tromper).

Remarque 1.5 : Tests sur les logiciels

Sur les logiciels économétriques, les statistiques des tests sont assorties de leurs
probabilités critiques (risque de rejeter à tort l’hypothèse nulle H 0 ), ce qui évite de
se référer aux tables.

La règle de décision suivante doit être appliquée :

L’hypothèse nulle est rejetée dès que cette probabilité est inférieure au seuil .
L’hypothèse nulle n’est pas rejetée dès que cette probabilité est supérieure ou
égale au seuil .
7.2 Test du coefficient de corrélation linéaire

Nous disposons de deux variables quantitatives aléatoires X et Y. Le test du


coefficient de corrélation linéaire s’écrit :

H 0 : les variables X et Y ne sont pas corrélées (   0)

H1 : les variables X et Y sont corrélées (   0)

On calcule le coefficient de corrélation linéaire défini par :

n n n
n xi yi   xi  yi
Cov( X ,Y )
r ( x, y)   i 1 i 1 i 1

 XY n
 n 
2
 n 
n 2

n x    xi 
2
i n y    yi 
2
i
i 1  i 1  i 1  i 1 
avec :
25
- Cov( X , Y )  covariance entre X et Y

-  x et  y  écart type de X et écart type de Y ;

- n nombre d’observations

Pour tester l’hypothèse H 0 , on peut comparer la valeur observée de r ( x, y ) à la


valeur seuil A donnée par la table du coefficient de corrélation pour v  n  2
degrés de liberté.

La règle de décision est alors la suivante :

 Si r ( X , Y )  A , l’hypothèse H 0 n’est pas rejetée,

 Si r (x, y)  A , l’hypothèse H 0 est rejetée et les variables X et Y sont


corrélées.

Exercice d’application 9 : Une entreprise commerciale consacre une certaine somme à


des opérations publicitaires au début de chaque mois. Dans le tableau ci-dessous sont
récapitulés, mensuellement, pour 2002,

 Les sommes consacrées à ces opérations ;

 Les montants des ventes correspondantes

Dépenses de publicité X i Ventes Yi


Mois
(en millions de FCFA) (en millions de FCFA)
Janvier 2,4 38
Février 3 42
Mars 3 42
Avril 2,5 39
Mai 3,2 40
Juin 3,5 45
Juillet 2 35
Août 1,8 24
Septembre 3 38
Octobre 3,2 40
Novembre 3,8 44
Décembre 4,6 53

26
1) Tracer le nuage de points et le commenter.

2) Calculer le coefficient de corrélation linéaire.

3) Effectuer aux seuils de 5% et 1% le test du coefficient de corrélation linéaire. Les


ventes sont-elles liées aux dépenses de publicité ?

4) Effectuer le test du coefficient de corrélation linéaire en utilisant le logiciel


Eviews

Corrigé :

1) Le nuage de points indique que les couples de valeurs sont approximativement


alignés : les deux variables sont corrélées positivement.
55

50

45
ES

40
E
VNT

35

30

25

20
1. 5 2.0 2.5 3.0 3. 5 4.0 4. 5 5.0

P UB

2) Afin de calculer le coefficient de corrélation linéaire, nous dressons le tableau de


calcul suivant :

i X Y X² Y² XY
1 2,4 38 5,76 1444 91,2
2 3 42 9 1764 126
3 3 42 9 1764 126
4 2,5 39 6,25 1521 97,5
5 3,2 40 10,24 1600 128
6 3,5 45 12,25 2025 157,5
7 2 35 4 1225 70
8 1,8 24 3,24 576 43,2
9 3 38 9 1444 114
10 3,2 40 10,24 1600 128
11 3,8 44 14,44 1936 167,2
12 4,6 53 21,16 2809 243,8
Somme 36 480 114,58 19708 1492,4

27
n n n
n  xi y i   xi y i
Cov ( X , Y ) i 1 i 1 i 1
rxy  
 X Y n  n 
2
n  n 
2

n  xi2    xi  n  y i2    y i 
i 1 i 1  i 1 i 1 

12 (1292 ,4)  (36 )( 480 )



(12 )(114 ,58 )  36 2 (12 )(19708 )  480 2

soit rxy  0,906 . On trouve que le coefficient de corrélation linéaire existant entre les
deux variables X et Y est r ( X, Y )  0,906 .

3) Le test d’hypothèses est :

H 0 : les variables X et Y sont non corrélées   0 


H 1 : les variables X et Y sont corrélées   0 

L’hypothèse H 0 signifie que la variable Vente est indépendante de la variable


Publicité. Pour tester H 0 , on peut comparer la valeur de r à la valeur seuil A
donnée par la table du coefficient de corrélation à n  2  12  2  10 degrés de
liberté.

a) A  0,576 pour le seuil de 5 %.

r  0,906  0,576  rejet de l’hypothèse H 0 . Le coefficient de corrélation entre X


et Y est significativement différent de 0 au seuil de 5%. On conclut donc qu’il existe
une liaison (linéaire) entre les ventes et les dépenses de publicité. Les ventes sont
donc liées aux dépenses de publicité.

b) A  0,7079 pour le seuil de 1% .


r  0,906  0,7079  rejet de l’hypothèse H0. Les ventes sont liées aux
dépenses de publicité. au seuil de 1%.

4) le test du coefficient de corrélation linéaire effectué sur le logiciel Eviews 6


donne les résultats suivants :

Included observations: 12
Correlation
Probability PUB VENTES
PUB 1.000
-----
VENTES 0.906 1.000
0.0000 -----

28
Le coefficient de corrélation linéaire est 0,906 ; sa probabilité critique est nulle.
Nous rejetons donc l’hypothèse nulle d’absence de corrélation linéaire aux seuils de
1% et 5%. Les ventes sont donc liées aux dépenses de publicité.

7.3 Test de normalité de Jarque-Bera

7.3.1 Moment centré d’ordre r

On appelle moment centré d’ordre r r  IN  associé à la série X t le nombre :

 X  x
r
t n
1
r  X  
t 1

n avec
x
n
X
t 1
t

Jarque et Bera (1980) ont proposé un test portant sur les deux caractéristiques d’une
loi normale : la symétrie et l’aplatissement. La loi normale est caractérisée par un
coefficient d’asymétrie (skewness) nul et un coefficient d’aplatissement (kurtosis) égal à 3.

Le coefficient de skewness, noté S, associé à la série X t est donné par :

3 3
S  
 3 22
3

1 n
 2     X t  x 
n

 X  x
1
3 
2 2 3
où et t
n i 1 n t 1

Si le skewness est nul, la distribution est dite symétrique. Lorsque le skewness est
non nul, la distribution est dite asymétrique. Plus spécifiquement si S  0, la
distribution est étalée vers la gauche (elle a un biais négatif). Si S 0, la
distribution est étalée vers la droite (elle a un biais positif).

Distribution étalée Distribution symétrique Distribution étalée


vers la droite vers la gauche

29
Le coefficient d’aplatissement d’une courbe est caractérisé par la valeur de :

4 4 n

 X  x
1
K  2 où 4 
4


t
4
2 n t 1

Si K  3, la distribution est normale (on dit qu’elle est mésokurtique). Lorsque


K  3 , la distribution estplus aplatie que la distribution normale (on dit qu’elle est
hyponormale ou platykurtique). Si K  3 , la distribution présente un excès de kurtosis.
Elle est moins aplatie que la distribution normale (on dit qu’elle est hypernormale ou
leptokurtique).

Distribution platikurtique Distribution mésokurtique Distribution leptokurtique

7.3.2 Test de Jarque-Bera

Le test d’hypothèses est le suivant :

H0 : la variable X suit une loi normale N m,  


H1 : la variable X ne suit pas une loi normale N m,  

La statistique de Jarque-Bera est définie par :

S 2
JB  n  
K  3 
2


 6 24 
où S est le coefficient de dissymétrie (Skewness) et K le coefficient d’aplatissement
(Kurtosis). La statistique JB suit sous l’hypothèse nulle de normalité une loi du Khi-
Deux à deux degrés de liberté.
La valeur seuil A pour 5% est égale à 5,991. Par conséquent, si la valeur calculée
de la statistique JB est inférieure à A, l’hypothèse nulle de normalité n’est pas
rejetée. En revanche, si la valeur de JB est supérieure ou égale à A, l’hypothèse nulle
de normalité est rejetée.

30
Remarque 1.6 : Le test de normalité est utile sur des échantillons de petite
dimension mais l’est moins sur de grands échantillons où le « théorème central limite »2
s’applique. Ce test permet notamment de tester l’hypothèse de normalité des résidus.

Exercice d’application 10 : Test de normalité de Jarque-Bera


Considérons la série macroéconomique masse monétaire (X) du Sénégal sur la
période 1971-2007 à fréquence annuelle. Les données sont en milliards de FCFA.
Tester au seuil de 5% les hypothèses de normalité et de lognormalité de la
variable masse monétaire. Les résultats obtenus pour cette série sont consignés
dans le tableau ci-dessous :

m2 log(m2)
Mean 522.93 5.82
Median 336.52 5.82
Standard Deviation 497.43 1.01
Skewness 1.49 -0.31
Kurtosis 4.34 2.66
Jarque-Bera 16.47 0.77
Probability 0.00 0.68
Observations 37 37

La moyenne et l’écart-type sont donnés en milliards de francs CFA .

Corrigé :

1) Variable Masse monétaire

Le test d’hypothèses est le suivant :

H0 : X suit une loi normale Nm,  


H1 : X ne suit pas une loi normale Nm,  

La statistique de Jarque-Bera est définie par ;

S 2
JB  n  
K  3 
2


 6 24 

où S est le coefficient de dissymétrie et K le coefficient d’aplatissement. On lit dans


la table du Khi-Deux à 2 degrés de liberté, au seuil de 5% : la valeur seuil A  5,991 .

 (1, 49 ) 2 ( 4,34  3) 2 
JB  37      16 , 47
 6 24 
2
 
Le théorème central limite affirme d’une suite de variables aléatoires X 1 , X 2 ,, X n indépendantes
et de même loi tend vers une loi normale si le nombre d’observations n est supérieur à 30. Les variables
Xi suivent une loi quelconque.

31
JB  16,47  5,991 ; on rejette l’hypothèse H 0 . La variable masse monétaire
ne suit pas une loi normale.

Remarque 1.7 : la probabilité critique associée au test de normalité est nulle.


L’hypothèse nulle est rejetée. La variable masse monétaire ne suit pas une loi
normale.

2) Variable log(masse monétaire)

Une variable suit une loi lognormale si son logarithme suit une loi normale
Le test d’hypothèses est le suivant :

H 0 : log(X) suit une loi normale Nm,  


H 1 : log(X) ne suit pas une loi normale Nm,  

 (  0,31) 2 ( 2,66  3) 2 
JB  37      0,77
 6 24 
JB  0,77  5,991 ; on ne rejette pas l’hypothèse H 0 . La variable masse
monétaire suit une loi lognormale de moyenne 5,82 milliards de FCFA et d’écart
type 1,01 milliard de FCFA.

Remarque 1.8 : la probabilité critique associée au test de lognormalité est égale à


0,68. L’hypothèse nulle de lognormalité n’est pas rejetée. La variable masse
monétaire suit une loi lognormale. Autrement dit, si nous rejetons l’hypothèse de
lognormalité de la variable masse monétaire, nous aurons 68% de chances de
prendre une mauvaise décision.

7.4 Test de Student

7.4.1 Comparaison d’un paramètre ai à une valeur fixée a

Le test d’hypothèses est le suivant : H 0 : ai  a contre H1 : ai  a

Soit ˆ Â l’écart type estimé des estimateurs des coefficients de régression.


i

Âi  ai
La statistique
ˆ Â suit sous l’hypothèse nulle une loi de Student à n  k
i

degrés de liberté notée Tn  k .

32
On détermine au seuil  , une valeur critique t telle que :

P  t  Tn  k  t  1
La règle de décision est alors la suivante :

Aˆ i  a
 q   t , l’hypothèse H 0 : ai  a
Si
ˆ Aˆ n’est pas rejetée,
i

Aˆ i  a
q  t , l’hypothèse H 0 : ai  a est rejetée.
 Si  Aˆ
ˆ
i

En pratique, le test le plus utilisé est celui qui consiste à tester l’hypothèse nulle
H0 : ai  0 contre l’hypothèse alternative H1 : ai  0 . Il s’agit du test de
significativité des variables explicatives.

7.4.2 Comparaison d’un paramètre a i à la valeur a0

Quelles sont, parmi les variables X i choisies, celles qui sont réellement explicatives,
celles qui ont une influence significative au seuil  . Le test d’hypothèses est
H 0 : ai  0 contre H1 : ai  0. Les décisions associées étant d’exclure ou de conserver la
variable X i dans le modèle. Dans ce cas, la règle de décision est :

Aˆ i
 q A , l’hypothèse H 0 : ai  0
Si
ˆ Aˆ n’est pas rejetée. La variable
i

explicative X it n’est pas significative et n’a aucune influence sur Yt . On


l’élimine du modèle.

Aˆ i
 q   t , l’hypothèse H 0 : ai  0 est rejetée. La variable explicative
Si
ˆ Aˆ
i

X it
est significative et a une influence sur Yt . On la conserve dans le
modèle.

33
Aˆ i
t
Remarque 1.9 : Le nombre
ˆ Aˆ est appelé ratio de Student. Sur les logiciels,
i

Aˆi
ˆ Â
les nombres
ˆ Aˆ et
i
sont notés respectivement t-Statistic et Standard-Error.
i

7.4.3 Test de l’hypothèse la  s

On désire tester l’hypothèse nulle H 0 : la  s contre l’hypothèse alternative


H1 : la  s avec
 a1 
 
a 
l  l1 l 2  l k  , a   2  , la  l1 a1  l 2 a 2    l k a k
1 , k  ( k ,1) 
 
a 
 k
l   l a
Dans ce cas, on démontre que la variable aléatoire une loi Student à
ˆ l Â
(n  k ) degrés de liberté.

La règle de décision est :

l Aˆ  s
 q  t H0 : la  s
Si
ˆ Aˆ , l’hypothèse n’est pas rejetée.
i

l   s

q  t H0 : la  s
Si
ˆ l  , l’hypothèse est rejetée.

7.4.4 Intervalle de confiance pour les paramètres ai

On cherche un intervalle I tel que : P  ai  I   1   . I est appelé intervalle de confiance


pour le paramètre ai , au niveau de confiance 1   . Le réel  0    1 peut être
interprété comme le risque que l’intervalle de confiance I ne contienne pas la vraie valeur
du paramètre. On utilise le résultat établi précédemment :

 i  a i
 Tn  k
ˆ Â
i

34
On a alors :

P Â i  t ˆ Â  ai  Â i  t ˆ Â
i i
 1

I  Â i  t ˆ Â ; Â i  t ˆ Â
i
 est l’intervalle de confiance du paramètre a i au niveau
i

de confiance 1   . L’intervalle prend aussi la forme I   Â  r ; Â  r  où i i

r  t ˆ Â est le rayon de l’intervalle de confiance.


i

Remarque 1.10 : L’intervalle de confiance peut être utilisé pour effectuer le test de
Student H 0 : ai  a contre H1 : ai  a .

  
Si a  Â i  t  ˆ Â i ; Â i  t  ˆ Â i , l’hypothèse H 0 : ai  a est n’est pas rejetée.

 
Si a  Â i  t  ˆ Â i ; Â i  t  ˆ Â i ,  l’hypothèse H 0 : ai  a est rejetée.

Exercice d’application 11 : On souhaite estimer la fonction de production des


entreprises industrielles sur la période 1975-1994. On dispose pour cela des
observations relatives au logarithme du niveau de production noté log(Q t ) , au
logarithme du stock de capital utilisé noté log(K t ) , ainsi qu’au logarithme du
niveau d’emploi noté log( L t ) . On se propose d’estimer la fonction de production de
ces entreprises en utilisant une spécification de type Cobb-Douglas.

1) L’expression générale de la fonction de production Cobb-Douglas s’écrit


Q t  AK t 2 L t 3 . Pourquoi ce modèle n’est pas estimable économétriquement par
les moindres carrés ordinaires.

2) On considère la forme estimable suivante :

log(Q t )  1   2 log(K t )  3 log(L t )   t


En effectuant la régression par les moindres carrés ordinaires sur la période
globale, on obtient :

LogQt  1,899  0,342 LogK t  0,405 LogLt


( 0 , 06 ) ( 0 , 048) ( 0 , 031)
n  20
R 2  0,9842
(·) = Écarts types estimés de l’estimateur des coefficients de régression.

35
a) Comment s’interprètent économiquement les différents paramètres ?

b) Comment s’interprète la perturbation  t du modèle économétrique ?

2
c) Donner une interprétation du coefficient de détermination R .

3) Testez au seuil de 5%, la significativité de  2 et de  3 .

4) Testez au seuil de 5%, l’hypothèse H 0 :  2  0,4 contre H 1 :  2  0,4

5) Donnez, au seuil de 5%, des intervalles de confiance pour les paramètres  2 et


3 .
6) Testez au seuil de 5%, l’hypothèse selon laquelle les rendements d’échelle
constatés pour cette entreprise sont constants. On a calculé 
ˆ ˆ ˆ  0,0235 .
2 3

Corrigé
 
1) Le modèle Q t  AK t 2 L t 3 n’est pas linéaire dans les paramètres, il n’est donc
pas estimable économétriquement par les moindres carrés ordinaires. Pour le
linéariser, on passe aux logarithmes.

log(Q t )  log(A )   2 log(K t )   3 log(L t )   t

2) ˆ 1  1,899 ; ˆ ˆ  0 , 06 ; ˆ 2  0 , 342 ; ˆ ˆ  0,048 ;


1 2
ˆ 3  0 , 405 ; ˆ ˆ  0 , 031 ;
3

a) Interprétation des coefficients

a1) 1  log(A ) n’a pas d’interprétation économique intéressante

a2)  2 est l’élasticité de la production par rapport au capital

 LogQ Q / Q
2    eQ / K
 LogK  K / K

ˆ 2  0 , 342 signifie que l’on estime qu’une augmentation de 10% du capital


implique une augmentation de 3,42% de la production, toutes choses égales par
ailleurs (c’est à dire si le facteur travail est constant).

36
a3)  3 est l’élasticité de la production par rapport au travail

 LogQ  Q / Q
3    eQ / L
 LogL  L / L
ˆ 3  0 , 405 signifie que l’on estime qu’une augmentation de 10% du travail
implique une augmentation de 4,05% de la production, toutes choses égales par
ailleurs (c’est à dire si le facteur capital est constant).

b) La perturbation  t représente l’effet des pannes de machines, de l’état de santé et


de motivation des travailleurs, le progrès technique, ...

c) R  0,9842 signifie que 98,42% des fluctuations de


2
la production sont
expliquées par les facteurs capital et travail. Il faut noter que ceci n’indique rien
sur la qualité du modèle.

3) a) On veut tester H 0 :  2  0 contre H 1 :  2  0 .

ˆ 2 0,342
t ˆ    7,125
2 ˆ ˆ 0,048
2

Le Student théorique à 5% pour n  k  20  3  17 degrés de liberté est t   2,11

t ˆ  7,125  2,11 ; on rejette l’hypothèse H 0 . Le capital a un impact positif


2
significatif sur la production.

b) On veut tester H 0 :  3  0 contre H 1 :  3  0 .

ˆ 3 0,405
t ˆ    13,06
3 ˆ ˆ 0,031
3

t ˆ  13,06  2,11 ; on rejette l’hypothèse H 0 . Le travail a un impact positif


3
significatif sur la production.

4) On veut tester H 0 :  2  0,4 contre H 1 :  2  0,4 .

ˆ 2  0,4 0,342  0,4


tc    1,208
ˆ ˆ 0,048
2

t c  1,208  2,11 ; on ne rejette pas l’hypothèse H 0 :  2  0,4 .

37
L’élasticité de la production par rapport au capital est égale à 0,4.
5) a) L’intervalle de confiance à 95% de  2 est

 ˆ 2  t  ˆ ˆ
2
; ˆ 2  t  ˆ ˆ 2 
Le niveau de confiance est 1    95 % , soit   5 %

Le Student théorique à 5% pour n  k  20  3  17 degrés de liberté est t   2,11

L’intervalle de confiance est :

0,342  2,11  0,048 ; 0,342  2,11  0,048    0,242 ; 0,442


L’intervalle de confiance n’est pas très large, l’estimation de  2 est précise.
On remarque que la valeur zéro n’appartient pas à l’intervalle de confiance.
L’hypothèse H 0 :  2  0 est rejetée. Le capital a un impact positif significatif sur la
production. On retrouve un résultat obtenu précédemment.

b) L’intervalle de confiance à 95% de  3 est

 ˆ 3  t  ˆ ˆ
3
; ˆ 3  t  ˆ ˆ
3

L’intervalle de confiance est :

0,405  2,11  0,031 ; 0,405  2,11  0,031    0,34 ; 0,47

L’intervalle de confiance n’est pas très large, l’estimation de  3 est précise. On


remarque que la valeur zéro n’appartient pas à l’intervalle de confiance. L’hypothèse
H 0 :  3  0 est aussi rejetée. Le travail a un impact positif significatif sur la
production.

6)  2   3 représente les rendements d’échelle : de combien varie la production


lorsque qu’on fait varier de la même façon tous les inputs ?

 Les rendements d’échelle sont décroissants si  2   3  1 , la production


augmente dans une proportion moindre que les facteurs de production,

 Les rendements d’échelle sont constants si  2   3  1 , la production


augmente dans une proportion identique aux facteurs de production,

 Les rendements d’échelle sont croissants si  2   3  1, la production


augmente plus vite que les facteurs de production

38
Tester l’hypothèse selon laquelle les rendements d’échelle constatés pour cette
entreprise sont constants consiste à tester :

H 0 :  2   3  1 contre H 1 :  2   3  1

Le ratio de Student est égal à

ˆ 2  ˆ 3  1 0 , 342  0 , 405  1
tc     10 , 76
ˆ ˆ  ˆ 0 , 0235
2 3

t c  10 ,76  2,11 ; on rejette l’hypothèse H 0 de rendements d’échelle


constant.

7.5 Test de significativité globale d’une régression (Fisher)

Dans ce qui suit, nous allons nous interroger sur la signification globale du modèle de
régression, c’est-à-dire si l’ensemble des variables explicatives a une influence sur la
variable à expliquer Y. Soit le test d’hypothèses :

H 0 : a2  a3    ak  0
contre
H 1 : il existe au moins un des coefficients non nul.

Le modèle à tester est Yt  a1   t . Pour le test de signification globale, on démontre


nk R2
que la statistique de Fisher est égale à F *   .
k 1 1 R2

Pour effectuer le test de signification globale, nous allons comparer ce F * calculé au Flu
sur la table de Fisher à respectivement k  1 et n  k  degrés de liberté.

La règle de décision est :

nk R2
 Si F    Flu , nous ne rejetons pas H 0 : le modèle n’est pas
*

k 1 1 R2
globalement significatif au seuil  .

nk R2
 Si F *    Flu , nous rejetons l’hypothèse H 0 : le modèle est
k 1 1 R2
globalement significatif au seuil  .

39
Exercice d’application 12 : Test de significativité globale de Fisher

On considère la fonction de production de l’exemple précèdent :

log(Q t )  1   2 log(K t )  3 log(L t )   t

En effectuant la régression par les moindres carrés ordinaires sur la période


globale, on obtient :

LogQ t  1,899  0 ,342 LogK t  0 , 405 LogL t


( 0 , 06 ) ( 0 , 048 ) ( 0 , 031 )

n  20

R 2  0,9842

(·) = Écarts types estimés de l’estimateur des coefficients de régression.

Tester au seuil de 5%, la significativité globale de ce modèle.

Corrigé :

On veut tester l’hypothèse :

H 0 : 2  3  0

contre

H 1 : il existe au moins un coefficient différent de 0

La statistique de Fisher est :

nk R2 20  3 0,9842
F 
*
    529,47
k 1 1  R2 3  1 1  0,9842
*
Pour tester H 0 , on peut comparer la valeur de F à la valeur seuil donnée par la
table de Fisher à respectivement k  1  2 et n  k  17 degrés de liberté. Le
Fisher théorique à 5% pour (2,17) degrés de liberté est Flu  3,59 .

F *  529 ,47  3,59  rejet de l’hypothèse H 0 . On conclut donc que le


modèle est globalement significatif au seuil de 5%. Il est préférable au modèle
log(Q t )  1   t . Les facteurs capital et le travail ont globalement un effet
significatif sur la production.

40
7.6 Tests d’autocorrélation des erreurs

7.6.1 Définition et causes de l’autocorrélation des erreurs

Nous sommes en présence d’une autocorrélation des erreurs lorsque les erreurs son liées
par un processus à mémoire, donc non indépendantes au cours du temps.
L’autocorrélation des erreurs peut être observée pour plusieurs raisons :

i) L’absence d’une ou plusieurs variables explicatives dont l’explication résiduelle


permettrait de « blanchir » les erreurs.

ii) Une mauvaise spécification du modèle, les relations entre la variable à expliquer et les
variables explicatives ne sont pas linéaires et s’expriment sous une autre forme que celle
du modèle estimé (logarithmes, différences premières, etc.).

7.6.2 Estimation en présence d’autocorrélation des erreurs

En présence d’autocorrélation des erreurs, les estimateurs des moindres carrés


ordinaires sont sans biais mais ne sont plus de variance minimale. Dans cette
situation, on utilise la méthode des moindres carrés généralisés.

7.6.3 Les tests d’autocorrélation des erreurs

7.6.3.1 Test de Durbin et Watson (1951)

Le test de Durbin et Watson (DW) permet de détecter une autocorrélation des erreurs
d’ordre un selon la forme :
 t    t 1   t (1)
avec  t  N (0 , )
2

Le test d’hypothèses est le suivant :

H0 :   0 (les erreurs ne sont pas autocorrélées)

contre
H1 :   0 (les erreurs sont autocorrélées)

ˆ , le résidu calculé.
Considérons le modèle linéaire général Y  Xa   , soit e  Y  XA
On suppose que le modèle comporte une constante. La statistique de Durbin et Watson
est :
n
 ( et  et 1 ) 2
t2
DW  n
 e t2
t 1
où et est le résidu calculé au temps t. Pour un grand nombre d’observations c’est-à-
dire quand n tend vers   , on montre que DW  2 (1  ˆ ) où ̂ est un
coefficient de corrélation linéaire avec  1  ρ̂  1 .

41
De par sa construction, la statistique DW varie entre 0 et 4. Ce qui donne 0  DW  4 . Il
est intéressant d’avoir en tête l’approximation DW  2 (1  ρ̂) qui permet de se faire
une idée de la valeur de ρ à partir de DW. Ainsi, il est probable que   0 quand
DW  2 . En revanche, quand la valeur de DW est proche de 0, les erreurs sont
probablement autocorrélées, avec un ρ positif et proche de 1. Quand, à l’inverse,
DW est proche de 4, les erreurs sont vraisemblablement affectées d’une forte
autocorrélation négative.

Venons-en maintenant à la procédure du test. Les valeurs critiques du test Durbin et


Watson tenant compte du nombre d’observations et du nombre de variables explicatives
ont été calculées.

La lecture de la table de Durbin et Watson permet de déterminer deux valeurs d1  d inf et


d 2  d sup comprises entre 0 et 2 qui délimitent l’espace entre 0 et 4 selon le schéma ci-
dessous :

Selon la position du DW empirique dans cet espace, nous pouvons conclure :

 Si d 2  DW  4  d 2 , on accepte l’hypothèse H 0 ( ρ  0 ), les résidus sont non


corrélés.

 Si 0  DW  d1 , on rejette l’hypothèse H 0 ( ρ  0 ), les résidus sont autocorrélés


positivement.

 Si 4  d1  DW  4 ,on rejette l’hypothèse H 0 ( ρ  0 ), les résidus sont


autocorrélés négativement.

 Si d1  DW  d 2 ou 4  d 2  DW  4  d 1 ,on est dans une zone


d’indétermination, ou zone de doute, c’est-à-dire qu’on ne peut pas conclure dans
un sens comme dans l’autre.

Remarque 1.11 : Lorsque que la statistique de Durbin et Watson appartient à la


région de doute, les économètres conseillent de rejeter l’hypothèse de non
autocorrélation des erreurs.

Le test de Durbin et Watson est très fréquemment utilisé. Il est cependant important
de préciser les conditions d’utilisation :

 Le modèle de régression doit comporter impérativement un terme constant ;

 Les variables explicatives doivent être certaines (c’est à dire non aléatoires) ;

 Le nombre d’observations doit être supérieur ou égal à 15 ;

42
 Le modèle doit être en série temporelle, pour les modèles en coupe instantanée,
les observations doivent être ordonnées en fonction de la variable à expliquer ;

 La variable à expliquer ne doit pas figurer parmi les variables explicatives (en tant
que variable retardée). Le modèle ne doit pas être autorégressif, si c’est le cas
on doit utiliser le test de Breusch et Godfrey (1978).

Remarque 1.12 : Le test de Durbin et Watson permet uniquement de détecter


l’autocorrélation d’ordre 1 des résidus. En d’autres termes, il n’est pas approprié si
les résidus présentent de l’autocorrélation à un ordre supérieur ou égal à 2.

7.6.3.2 Test de Breusch et Godfrey (1978)

Breusch et Godfrey ont proposé un test permettant de déceler la présence


d’autocorrélation d’ordre supérieur à 1 restant valide lorsque le modèle comporte la
variable endogène retardée dans les variables explicatives3. Ce test est fondé sur
un test de Fisher de nullité des coefficients (F-statistic) ou du Multiplicateur de
Lagrange ( nR 2 ). L’idée générale de ce test réside dans la recherche d’une relation
significative entre le résidu et ce même résidu décalé.

Considérons le modèle général à erreurs autocorrélées d’ordre p :

Yt  a1X1t  a 2 X 2t    a k X kt  a 0  ρ1 ε t 1  ρ 2 ε t  2    ρ p ε t  p  v t

Le test de Breusch et Godfrey consiste à tester l’hypothèse H0 d’absence


d’autocorrélation des erreurs, soit H0 : ρ1  ρ 2    ρ p  0 . Ce test est mené
en trois étapes :

i) On estime par la méthode des moindres carrés ordinaires les paramètres du


modèle ci-dessus et on calcule le résidu e t , puisque les erreurs ε t sont
inconnues.

ii) On estime par la méthode des moindres carrés ordinaires l’équation intermédiaire

e t  a1X1t  a 2 X 2t    a k X kt  a 0  ρ1 e t 1  ρ 2 e t  2    ρ p e t  p  v t
et on calcule le coefficient de détermination R² associé à cette régression.

iii) On calcule la statistique du multiplicateur de Lagrange de Breusch et Godfrey


définie par BG  nR 2 . Cette statistique suit sous l’hypothèse H 0 de non
autocorrélation des erreurs une loi du Khi-Deux à p degrés de liberté. On se fixe un
seuil  , et on lit sur la table du Khi-Deux la valeur seuil A.

3
Les modèles linéaires autorégressifs sont étudiés dans le chapitre 2.
43
La règle de décision est la suivante :

 Si BG  A, l’hypothèse nulle d’absence d’autocorrélation n’est pas rejetée.

 Si BG  A, l’hypothèse nulle d’absence d’autocorrélation est rejetée : au moins


un des coefficients  i , i  1,  , p , est significativement différent de zéro.

7.6.3.3 Procédures d’estimation en cas d’autocorrélation des erreurs

En cas d’autocorrélation des erreurs, les estimateurs des MCO restent sans biais,
mais ne sont plus de variance minimale. Dans ce cas, si la variance du terme
d’erreur est connue, on applique la méthode des moindres carrés généralisés.
Lorsque la variance du terme d’erreur est inconnue, on utilise les méthodes
numériques de Cochrane et Orcutt, de Hildreth et Lu et du maximum de vraisemblance.

Les programmes de régression utilisent fréquemment la méthode de Cochrane et Orcutt.


Sargan a montré que la procédure itérative de Cochrane et Orcutt est convergente
c’est-à-dire qu’au bout d’un certain nombre d’itérations les valeurs des coefficients vont
se stabiliser.

Application 13 : Tests d’autocorrélation des erreurs

On considère la fonction d’importation du Sénégal, à fréquence annuelle sur la période


allant de 1962 à 1995 :

(1) log( import t )  a  b log( pibt )   t , t  1,2,  34 , n  34

où import désigne les importations, pib le produit intérieur brut et log le logarithme
népérien.

Partie 1 : Modèle estimé par les moindres carrés ordinaires

1) Estimer les paramètres du modèle (1) par la méthode des moindres carrés

2) Tester une éventuelle autocorrélation des erreurs.

a) par le test de Durbin-Watson,


b) par le test de Breusch-Godfrey.

Partie 2 : Modèle estimé par la méthode de Cochrane-Orcutt

3) Estimer les paramètres par la méthode de Cochrane-Orcutt.

4) Tester une éventuelle autocorrélation des erreurs du modèle corrigé par la


méthode de Cochrane-Orcutt en utilisant le test de Breusch-Godfrey.

44
Corrigé :

Partie 1

1) L’estimation des paramètres par la méthode des MCO conduit aux résultats
suivants :
Log IMPORT t  0,65  0,75 Log PIB t
(1, 87 ) ( 15 ,19 )

R  0,87,
2
SCR  0,134 , DW  1,06 , n  34
où les chiffres entre parenthèses correspondent aux ratios de Student des coefficients
estimés.
2) Tests d’autocorrélation des erreurs
a) Test de Durbin-Watson

Le tests d’hypothèses sont H 0 :   0 contre H1 :   0 . Les conditions


d’utilisation du test de Durbin et Watson sont bien respectées : le modèle est
spécifié en série temporelle, le nombre d’observations (n  34) est supérieur à 15 et ,
enfin le modèle comporte un terme constant. Le nombre de variables exogènes
(constante exclue) est k  1 .

Sur la table de Durbin et Watson, au seuil de 5 %, on lit les valeurs suivantes :

d1  1, 39 d 2  1, 51
4  d1  2, 61 4  d 2  2, 49
On a :
0  DW  d1
0  1,06  1,39

L’hypothèse nulle est rejetée : on peut donc présumer une autocorrélation positive des
erreurs.
Le test de Durbin-Watson effectué sur le logiciel STATA donne les résultats
suivants :

Durbin's alternative test for autocorrelation


---------------------------------------------------------------------------
lags(p) | chi2 df Prob > chi2
-------------+-------------------------------------------------------------
1 | 6.592 1 0.0102
---------------------------------------------------------------------------
H0: no serial correlation
Durbin-Watson d-statistic(2,34) =1.064825

La probabilité critique (0,0102) est inférieure au seuil de 5%. On rejette l’hypothèse


de non corrélation des erreurs.

45
b) Le test de Breusch-Godfrey conduit aux résultats suivants :

Breusch-Godfrey Serial Correlation LM Test: (Lag : 1 )

F-statistic 6.591775 Probability 0.015291


Obs*R-squared 5.961952 Probability 0.014618

Le nombre de décalages (Lag) sur le terme d’erreur est un. On teste donc une
autocorrélation d’ordre un des résidus. Le logiciel Eviews effectue 2 tests : le test de
Fisher (F-statistic) et le test du multiplicateur de Lagrange (obs*R-squared = nR²). Les
deux probabilités sont inférieures au seuil de 5%. On rejette l’hypothèse de non
corrélation des erreurs pour les 2 tests. Les erreurs sont donc autocorrélées.

Partie 2

3) Les erreurs du modèle étant corrélées positivement, l’estimation par la méthode de


Cochrane et Orcutt conduit aux résultats suivants :

Log IMPORT t  0, 47  0, 77 Log PIB t  0, 41 ar (1) (2)


(1, 88 ) (10 , 20 ) ( 2 , 64 )

R 2  0, 90 SCR  0, 09 DW  2,18 ˆ  0,41

Convergence assurée après 6 itérations.

4) Le test de Breusch-Godfrey effectué sur le modèle corrigé par la méthode de


Cochrane-Orcutt conduit aux résultats suivants :

Breusch-Godfrey Serial Correlation LM Test:


Lag : 1

F-statistic 1.182139 Probability 0.285875


Obs*R-squared 1.292506 Probability 0.255587

Les deux probabilités sont supérieures aux seuils conventionnels. L’hypothèse nulle
de non corrélation des erreurs n’est pas rejetée. Le test BG effectué pour les
décalages 1 et 2 aboutit au même résultat. La méthode de Cochrane-Orcutt a
donc corrigé l’autocorrélation des erreurs.

7.7 Tests d’hétéroscédasticité des erreurs

7.7.1 Définition

Les erreurs sont homocédastiques si elles ont la même variance. Dans le cas
contraire, on dit qu’elles sont hétérocédastiques. L’hétérocédasticité se rencontre plus
fréquemment pour les modèles en coupe instantanée, contrairement au problème de
l’autocorrélation qui est plutôt spécifique aux modèles en séries temporelles. Sur séries
temporelles, les cas les plus fréquents d’hétéroscédasticité concernent les séries
financières ; ces dernières étant en général caractérisées par une variance variant
au cours du temps.
46
7.7.2 Tests de détection de l’hétéroscédasticité des erreurs

Les tests statistiques d’homocédasticité portent sur l’hypothèse :

H 0 :  12   2 2  ...   n 2

c’est à dire sur l’hypothèse d’une variance des erreurs identique pour chaque
individu. Il existe toute une batterie de tests permettant de détecter de
l’hétéroscédasticité des erreurs dont notamment :

 le test de Goldfeld-Quandt (1965)


 le test de Glejser (1969)
 le test de Breusch -Pagan (1979)
 le test de White (1980)
 le test ARCH (1982)

Dans ce qui suit nous ne revenons que sur les deux derniers tests, qui sont les
plus utilisés dans la pratique.

7.7.2.1 Test de White (1980)

Le test de White consiste à estimer dans une première étape le modèle :

Yt  a1  a 2 X 2t    ak X kt   t (i)
puis à calculer le résidu et  Yt  aˆ1  aˆ 2 X 2t    aˆ k X kt

Dans une deuxième étape, on estime par la méthode des MCO l’équation

et 2  0  1Z1t   2 Z 2t     p Z pt  ut (ii)
où les variables Z kt , k  1,2,  , p sont les variables explicatives du modèle, leurs
carrés et leurs produits.

De l’estimation par la méthode des MCO de l’équation (ii), on déduit le coefficient de


2
détermination noté R W . La statistique de White est la statistique du multiplicateur
de Lagrange (Lagrange Multiplier : LM) définie par LM  nR2W .
Cette statistique suit sous l’hypothèse H 0 d’homocédasticité des erreurs une loi du
Khi-Deux à p degrés de liberté. On se fixe un seuil  , et on lit sur la table du Khi-
Deux la valeur A qui est telle .

La règle de décision est la suivante :

 Si , l’hypothèse H 0 d’homocédasticité n’est pas rejetée.

 Si , l’hypothèse H 0 d’homocédasticité est rejetée.

47
Remarque 1.13 : Les tests de Glejser, White et ARCH sont disponibles sur le logiciel
Eviews. Le test de Breusch-Pagan est exécutable sur le logiciel Stata. L’avantage du test
de Glejser par rapport aux autres tests est qu’il permet de spécifier la forme de
l’hétérocédasticité.

7.7.2.2 Test ARCH (1982)

Les modèles ARCH (en anglais AutoRegressive Conditional Heteroscedasticity)


ont été introduits par Engle en 1982, pour modéliser le processus d’inflation en
Grande Bretagne. Ils permettent de modéliser des chroniques (la plupart du temps
financières) qui ont une volatilité instantanée qui dépend du passé. Le test
d’hétérocédasticité de type ARCH est fondé aussi sur le test du Multiplicateur de
Lagrange (Lagrange Multiplier Test).

De manière pratique, on procède de la manière suivante :

Première étape : calcul de e t le résidu du modèle de régression ;

Deuxième étape : calcul des e 2t ;

Troisième étape : régression autorégressive des résidus sur p retards (résidu décalé)
p

où seuls les retards significatifs sont conservés , e 2


t   0    i e 2t i . Soit à
i 1
tester d’homocédasticité des erreurs H 0 : 1   2     p  0 .

Quatrième étape : calcul de la statistique du multiplicateur de Lagrange , LM  nR 2


avec

n = nombre d’observations servant au calcul de la régression de l’étape 3,

R 2 = coefficient de détermination de l’équation intermédiaire de l’étape 3.

La règle de décision est la suivante :

Si LM   ( p) à p degrés de liberté lu dans la table du Khi-Deux à un seuil


2

 , l’hypothèse H0 n’est pas rejetée, les erreurs sont homocédastiques.

Si LM   ( p ) , l’hypothèse H0 est rejetée; on considère que les erreurs


2

sont hétéroscédastiques conditionnellement (le processus suit un modèle
ARCH(p)).

48
Remarque 1.14 : C’est le test de significativité des coefficients i de la régression

et
2
sur e2t  p qui permet de déterminer l’ordre p du processus ARCH sachant
qu’un processus ARCH d’ordre 3 semble un maximum (p  3) .

7.7.3 Procédure d’estimation en présence de l’hétéroscédasticité des erreurs

La présence de l’hétéroscédasticité des erreurs a pour conséquence que les


estimateurs des moindres carrés restent sans biais, mais ne sont plus de variance
minimale. Il peut être pertinent de chercher à corriger l’hétéroscédasticité. Il convient
de distinguer les cas où la variance de l’erreur est connue de ceux où elle est
inconnue. Lorsque la variance du terme d’erreur est connue, il convient d’appliquer
la méthode des moindres carrés généralisés. Dans ces cas où la variance du terme
d’erreur est inconnue, les programmes de régression utilisent les corrections suggérées
par White (1980) et Newey-West (1987).

Exercice d’application 14 : Test d’hétérocédasticité des erreurs de White

Un économiste désire estimer par les moindres carrés ordinaires une fonction de
production de type Cobb-Douglas sur Q production, K facteur capital, L facteur travail
utilisés à partir d’un échantillon de 25 entreprises. On estime une fonction de type :

Log Qi  a  Log Ki  Log Li   i (i  1, , 25)


En effectuant la régression, l’économiste a obtenu les résultats suivants :

Log Q i  2, 481  0, 640 Log K i  0, 257 Log L i (1)


(19, 29) (18, 43) (9, 54)

R 2  0, 94 ; DW  2, 54 ; SCR  0, 1871
() = t de Student

On désire déceler une éventuelle hétéroscédasticité des résidus. On régresse alors le


carré des résidus (obtenu dans la régression (1)) sur les variables explicatives du
modèle, leurs carrés et leurs produits.

On obtient les résultats suivants :

e i 2   0,047  0,064 LogK i  0,01 (LogK i ) 2  0,009 (LogK i  LogL i )


 0,004 LogL i  0,002 (LogL i ) 2

R 2  0, 1244 ; SCR  0,002 ; n  25

Faites un test de White, au seuil de 5%, de l’hypothèse que les erreurs sont
homocédastiques. Conclusion. Que proposez-vous alors de faire ?

49
Corrigé :

Le test d’hypothèses est

H 0 : i 2   2  i
contre
H 1 :  i 2   2 pour au moins un i

La statistique de White est :

W  nR 2
w  25  0 ,1244  3,11
*
Pour tester H 0 , on peut comparer la valeur de F à la valeur seuil donnée par la
table du Khi-Deux à p  5 degrés de liberté. Le Khi-Deux théorique à 5% est
A  11,07 .

W  3,11  11,07  non rejet de l’hypothèse H 0 . Les erreurs du modèle sont


donc homocédastiques. On garde donc les estimations obtenues par les moindres
carrés ordinaires qui restent sans biais et de variances minimales.

Exercice d’application 15 : Test ARCH d’hétérocédasticité conditionnelle des


erreurs

Considérons la fonction d’importation du Sénégal, à fréquence annuelle sur la période


allant de 1962 à 1995. L’estimation des paramètres par les MCO conduit aux
résultats suivants :

Log IMPORT t  0,65  0,75 Log PIB t


(1, 87 ) (15 ,19 )

R2  0,87, SCR  0,134 , DW  1,06 , n  34

où les chiffres entre parenthèses correspondent aux ratios de Student des


coefficients estimés.

Tester une éventuelle hétérocédasticité des erreurs par le test ARCH d’ordre 1.

Corrigé :

Le test ARCH d’ordre 1 conduit aux résultats suivants :

Heteroskedasticity Test: ARCH(1)


F-statistic 0.008791 Prob. F(1,31) 0.9259
Obs*R-squared 0.009355 Prob. Chi-Square(1) 0.9229

50
Les deux probabilités sont supérieures au seuil de 5%. Le test de Fisher de
significativité du coefficient de régression ou la statistique LM sont concordants, nous
ne rejetons pas l’hypothèse d’homocédasticité des erreurs. Il n’existe pas d’effet ARCH
sur les erreurs du modèle.

7.8 Test de spécification de Ramsey

Le test de spécification de Ramsey repose sur la même idée simplificatrice du test


de White. Il s’agit d’un test général de variables manquantes. En pratique, le test
de Ramsey consiste à procéder en 4 étapes.

1re étape : Estimer les paramètres de la forme linéaire :

Y t  a 1  a 2 X 2 t    a k X kt   t

2e étape : Simuler la variable ajustée Yˆt définie par :

Yˆt  aˆ 1  aˆ 2 X 2 t    aˆ k X kt
3e étape : Estimer les paramètres du modèle linéaire par les MCO

Yt  a1  a2 X 2t    ak X kt  1Yˆt   2Yˆt   3Yˆt  ut


2 3 4

4e étape : Effectuer un test de Fisher de l’hypothèse H 0 : 1   2   3  0 .


La règle de décision est la suivante :

 Si l’hypothèse H0 n’est pas rejetée, le modèle est bien spécifié.

 Si l’hypothèse H0 est rejetée, le modèle est mal spécifié.

Remarque 1.15 : On peut se demander pourquoi s’arrêter à la puissance 4 dans la


troisième étape, d’autant plus la plupart des logiciels permettent de procéder au test
en utilisant des puissances supérieures. En fait les expériences de simulation (de
Monte-Carlo) montrent que la puissance du test est maximale dans cette configuration.

Exercice d’application 16 : Test de spécification de Ramsey

Reprenons la fonction d’importation du Sénégal, à fréquence annuelle sur la période


allant de 1962 à 1995. En effectuant la régression sur la période globale n  34 , on
obtient :
Log IMPORT t  0,65  0,75 Log PIB t

Tester la spécification du modèle.

51
Corrigé : Le test de Ramsey conduit aux résultats suivants :

Ramsey RESET Test:


F-statistic 6.366191 Prob. F(2,30) 0.0050
Log likelihood ratio 12.02783 Prob. Chi-Square(2) 0.0024

Le logiciel Eviews effectue 2 tests : le test de Fisher et le test du rapport de


vraisemblance (Log likelihood ratio).

La statistique de Fisher vaut 6,36 ; sa probabilité critique est nulle. L’hypothèse


nulle du test de Ramsey est rejetée : la fonction d’importation est mal spécifiée. Ce
résultat n’est pas surprenant dans la mesure où le pib n’est pas la seule variable
explicative des importations. Il manque des variables explicatives comme la production
nationale, les prix, etc.

7.9 Tests de stabilité

La stabilité des paramètres joue un rôle important lorsqu’on cherche à comprendre les
mécanismes économiques et à réaliser des projections. Leur instabilité peut refléter des
phénomènes ponctuels dans le temps (choc pétrolier, dévaluation, crise boursière,
calamités naturelles, mesures de politiques économiques, nouvelles réglementions,
passage d’un régime de changes fixes à un régime de changes flexibles...).

Il est souvent intéressant d’évaluer la robustesse du modèle estimé, c’est à dire la


stabilité de celui-ci. L’idée sous-jacente est que, sur la période considérée, il peut
apparaître un changement structurel ou un changement ponctuel dans la relation
entre la variable à expliquer et les variables explicatives. En d’autres termes, il se
peut que les valeurs des coefficients du modèle estimé ne soient pas stables sur
l’ensemble de la période considérée. Les changements peuvent avoir plusieurs
sources.

Il existe diverses méthodes pour évaluer la stabilité des coefficients estimés d’un
modèle de régression, nous en présentons deux :

 Le test de Chow (1960)

 Les tests Cusum et Cusum Carré de Brown, Durbin et Evans (1975).

7.9.1 Test de Chow

Le test de Chow appelé aussi test de changement structurel, permet d’examiner si les
coefficients d’une régression sont stables par rapport à l’observation utilisée.

Sur des séries temporelles, on compare les estimations effectuées sur deux (ou plusieurs)
sous ensembles d’observations qui correspondent à un découpage de l’échantillon initial.
On parle dans ce cas de test de stabilité temporelle de la régression.

52
Sur les données en coupe, on peut comparer les résultats obtenus par exemple sur des
pays, des régions, des secteurs industriels différents. Concernant des individus, on peut
s’intéresser à des résultats par classe d’âge, par sexe, etc. Dans ce cas, le test de Chow
est souvent qualifié de test d’homogénéité des comportements.

On considère le modèle linéaire général suivant :

Y  X a   (0)
( n , 1) ( n , k ) ( k , 1) ( n , 1)

On se pose le problème de la stabilité des coefficients du modèle dans le temps.

Doit-on considérer le modèle comme étant stable sur la totalité de la période


( t  1, 2,  , n ) ? Ou doit-on considérer deux sous périodes distinctes d’estimation ?

Supposons qu’on ait deux sous périodes ayant n1 et n2 observations :

Sous période 1 :
Y1  X 1 a1   1 (1)
( n1 , 1) ( n1 , k ) ( k , 1) ( n1 , 1)

Sous période 2 :
Y2  X2 a2  2 (2)
( n 2 , 1) ( n 2 , k ) ( k , 1) ( n 2 , 1)

Le principe du test est de voir dans quelle mesure le fait de régresser séparément sur les
deux sous périodes améliore le résultat de la régression. Ce test portera sur les sommes
des carrés des résidus (variances résiduelles).

On commence par régresser sur la population totale soit n observations (modèle (0)), on
calcule alors SCR, qui est la somme des carrés des résidus du modèle (0).

Puis on refait la même régression sur chacun des deux sous populations séparément et
on retient la somme des carrés des résidus de chaque régression.

Soit :

Sur n1 observations  SCR1

Sur n2 observations  SCR2

On pose alors le test d’hypothèses :

H 0 : SCR  SCR1  SCR2 (Stabilité des coefficients)


contre
H1 : SCR  SCR1  SCR2 (Instabilité des coefficients)

53
Le Fisher empirique est égal à :

F* 
 SCR  ( SCR 1  SCR 2 ) / k
 SCR 1  SCR 2 / ( n  2 k )
Cette statistique est distribuée suit sous l’hypothèse de stabilité une loi de Fisher à
respectivement k degrés de liberté pour le numérateur et (n  2k ) degrés de liberté pour
le dénominateur. On se fixe un seuil de signification  et on lit sur la table de Fisher

la valeur Flu telle que 


P F ( k , n  2k )  Flu  
La règle de décision est :

 Si F *  Flu ,l’hypothèse H 0 n’est pas rejetée et on retient une estimation par


les moindres carrés ordinaires avec l’ensemble des observations (les
coefficients sont stables sur l’ensemble de la période),

 Si F *  Flu , l’hypothèse H 0 est rejetée. Les coefficients ne sont pas stables sur
l’ensemble de la période.

Remarque 1.16 : Le test de Chow peut être facilement généralisé à l’existence de


plus d’une rupture structurelle. Ainsi, si l’on souhaite tester l’existence de deux
ruptures, on procédera en trois sous-périodes, le principe du test restant le même (la
somme des carrés SCR étant égale à la somme des carrés des résidus des trois
régressions correspondant aux trois sous-périodes). Le test de Chow suppose que
l’on connaisse la date à laquelle se produit la (ou les) rupture(s).

7.9.2 Tests Cusum

Le test de Chow suppose la date de rupture connue a priori. Quand on travaille sur
des séries temporelles, la date à laquelle des changements dans les coefficients
interviennent n’est pas toujours facilement repérable. Mais il existe également des tests de
stabilité temporelle qui permettent de déterminer les dates de rupture. Brown, Durbin
et Evans (1975) ont proposé des tests de stabilité des coefficients basés sur le calcul des
résidus récursifs. Ces tests graphiques permettant d’accepter ou non l’hypothèse de
stabilité. L’intérêt de ces tests réside dans le fait qu’il permet d’étudier la stabilité d’une
régression sans définir a priori la date de rupture sur les coefficients.

Il existe deux versions de ce test : le CUSUM fondé sur la somme cumulée des
résidus récursifs et le CUSUM SQ (CUSUM of Squares) fondé sur la somme cumulée
du carré des résidus récursifs. Les tests Cusum sont ainsi basés sur les résidus
récursifs : on procède à une représentation graphique des résidus récursifs cumulés qui
permet de tester la stabilité temporelle de la régression et de visualiser les dates
d’éventuelles ruptures de comportement. Pour ces deux tests, si on constate une rupture
du graphique à la période t   alors on rejette l’hypothèse de stabilité des
coefficients de la régression pour cette période  .

Les tests Cusum sont disponibles sur le logiciel EViews.

54
Remarque 1.17 : Les tests Cusum ne sont valables qu’après une estimation des
paramètres par la méthode des MCO.

Exercice d’application 17 : Tests de stabilité des coefficients d’un modèle

Reprenons la fonction d’importation du Sénégal, à fréquence annuelle sur la période


allant de 1962 à 1995. L’estimation des paramètres par la méthode des MCO
conduit aux résultats suivants :

Log IMPORT t  0,65  0,75 Log PIB t


(1, 87 ) (15 ,19 )

R  0,87,
2
SCR  0,134 , DW  1,06 , n  34

où les chiffres entre parenthèses correspondent aux ratios de Student des


coefficients estimés.

1) Tester la stabilité de la fonction d’importation du Sénégal en utilisant :

a) le test de Chow (choisir les dates de rupture 1973 et 1978),

b) les tests Cusum de Brown-Durbin-Evans

2) Stabiliser le modèle en utilisant les variables indicatrices.

Corrigé :

1) Test de stabilité de Chow

a1) Pour la date de rupture 1978, le test de Chow aboutit aux résultats suivants :

La régression de l’importation sur le PIBR et la constante est refaite pour les 2 sous-
périodes 1962-1978 et 1979-1995.

On obtient les résultats suivants :

Sous- période 1 : 1962 à 1978

Log IMPORTt  1, 34  0, 65 Log PIBt


( 3, 63)

R 12  0,46 SCR 1  0, 102 n 1  17

Sous- période 2 : 1979 à 1995

Log IMPORTt  2,15  0, 54 Log PIBt


( 8 , 90 )

R 22  0, 84 SCR 2  0, 014 n 2  17

55
La statistique de Chow vaut donc :

 SCR  (SCR 1  SCR 2 )  / k


F* 
 SCR 1  SCR 2  / ( n  2 k )

0 ,134  ( 0 ,102  0 , 014 )


 2  2 , 302
0 ,102  0 , 014
30

La valeur critique Flu est F0,05 ( 2, 30)  3, 32

F *  Flu , l’hypothèse H 0 n’est pas rejetée, les coefficients sont stables sur l’ensemble
de la période. La fonction d’importation du Sénégal est stable.

Les résultats du test de Chow donnés par le logiciel Eviews sont :

Chow Breakpoint Test: 1978


Null Hypothesis: No breaks at specified breakpoints

Varying regressors: All equation variables


Equation Sample: 1962 1995
F-statistic 1.95 Prob. F(2,30) 0.16
Log likelihood ratio 4.15 Prob. Chi-Square(2) 0.12
Wald Statistic 3.89 Prob. Chi-Square(2) 0.14

La probabilité associée au test de Chow (0,16) est supérieure aux seuils


statistiques conventionnels. L’hypothèse de stabilité n’est pas rejetée. La fonction
d’importation est donc stable.

a2) Pour la date de rupture 1973, le test de Chow aboutit aux résultats suivants :

Chow Breakpoint Test: 1973


Null Hypothesis: No breaks at specified breakpoints

Varying regressors: All equation variables


Equation Sample: 1962 1995
F-statistic 7.27 Prob. F(2,30) 0.00
Log likelihood ratio 13.44 Prob. Chi-Square(2) 0.00
Wald Statistic 14.54 Prob. Chi-Square(2) 0.00

La statistique de Chow vaut 7,27 ; sa probabilité critique est nulle. L’hypothèse


nulle de stabilité est rejetée au seuil de 1%. La fonction d’importation est instable
sur la totalité de la période. Le fait de scinder en deux échantillons détériore la
qualité du modèle. Le premier choc pétrolier (année 1973) est bien une date d’instabilité
pour l’économie sénégalaise.

56
b) Les tests Cusum et Cusum Carré sont effectués avec le logiciel Eviews.

b1) Test Cusum

Ce test permet de détecter les instabilités structurelles.


20

15

10

-5

-10

-15

-20
1965 1970 1975 1980 1985 1990 1995

CUSUM 5% Significance

GRAPHIQUE 6
Test CUSUM

La courbe ne sort pas du corridor représenté en pointillés, la fonction d’importation est


structurellement stable.

b2) Test Cusum Carré

Ce test permet de détecter les instabilités ponctuelles.

1.4

1.2

1.0

0.8

0.6

0.4

0.2

0.0

-0.2

-0.4
1965 1970 1975 1980 1985 1990 1995

CUS UM of S quares 5% S ignific anc e

GRAPHIQUE 6
Test CUSUM carré

La courbe sort du corridor représenté en pointillés, le modèle est ponctuellement


instable. La zone d’instabilité est 1977 à 1986. Cette instabilité peut être expliquée
par le deuxième choc pétrolier et par les politiques d’ajustement structurel.

Au total, c’est l’hypothèse d’instabilité qui doit être acceptée.

57
2) Stabilisation du modèle par variable indicatrice

Pour stabiliser le modèle, on peut utiliser une variable indicatrice (appelée aussi
variable dummy). La variable indicatrice vaut 1 pendant la ou les zones d’instabilité.
Elle vaut 0 ailleurs.

On pose :

dumt  1 pour les années 1977 à 1986


dumt  0 ailleurs

L’estimation par les MCO du modèle corrigé conduit aux résultats suivants :

Log IMPORT t  0,76  0,73 Log PIB t  0,06 dum t


(16 , 01 ) ( 2 , 73 )

R 2  0,90, SCR  0,108 n  34

où les chiffres entre parenthèses correspondent aux ratios de Student des


coefficients estimés. La variable indicatrice dum est significative au seuil statistique
de 5%.

Les tests Cusum effectués sur le modèle corrigé indiquent que la fonction
d’importation est maintenant structurellement et ponctuellement stable. L’utilisation
de la variable indicatrice a donc stabilisé le modèle.

8. La prévision à l’aide du modèle linéaire général

L’un des intérêts pratiques du modèle de régression réside dans la prévision. Ainsi
une fois le modèle estimé, il est possible de l’utiliser afin de prévoir l’évolution de
la variable endogène Y. Nous considérons le modèle linéaire simple :

Yt  a  bX t   t , t  1, 2,  , n

On suppose connue la valeur X n  h et on cherche à déterminer la prévision de la


variable expliquée pour un horizon h. Nous voulons prévoir la valeur Yn  h où n est
l’origine de la prévision et h l’horizon de la prévision, h  IN * .

Le terme prévision a ici un sens différent de celui qu’il reçoit dans le langage
courant. Il ne s’agit pas de prévision du futur. On cherche en fait à caractériser les
simulations de politique économique que les estimations économétriques rendent
possibles.

La valeur de est prévue par Yˆn  h  aˆ  bˆ X n  h


Yn  h où â et b̂ sont les
estimateurs des MCO des paramètres a et b définis par :

58
Cov ( X , Y )
bˆ  ; aˆ  Y  bˆ X
Var ( X )

L’intervalle de confiance des prévisions - également appelée intervalle de prévision-


au niveau 1   
est donnée par : Yˆn  h  B ; Yˆn  h  B 
avec :

1 X  X 
2

B  t S 1   n n  h
 X t  X 
-- n 2

t 
n
-- X   X t
t 1

1 n 2
-- S 
2

n  2 t 1
et , et Yt Yˆt Yt  aˆ  bˆ X t

-- t est facile d’ordre 1  de la loi de Student à ( n  2 ) degrés de liberté.
2
Notons que la longueur de l’intervalle de prévision n’est pas constante : plus la

valeur de X n  h s’écarte de la moyenne X de l’échantillon considéré, plus la


longueur de l’intervalle augmente, c’est à dire plus l’intervalle s’élargit.

Exercice d’application 18 : Prévision d’un modèle linéaire simple

L’exemple suivant concerne les importations sénégalaises en données annuelles de


1962 à 1995. L’ajustement par la méthode des moindres carrés ordinaires a donné :

Log IMPORTt  0, 65  0, 75 Log PIBR t


(1, 86) (15,19)
R 2  0, 87 ; SCR  0, 134 ; n  34

() = t de Student , log est le logarithme népérien.

n
On a calculé : X  7, 00 ;  (X t  X ) 2  1, 80
t 1
où Yt  Log IMPORTt et X t  Log PIBR t .

Prévoir, par un intervalle de seuil 0,05, la variable Importation pour l’année 1996
sachant que le logarithme du PIBR en 1996 est fixé à 7,57.

59
Corrigé :

L’ajustement du modèle à donné : â  0, 65 et b̂  0, 75

1) La prévision pour l’année 1996 du logarithme des importations est donnée par :

Ŷ1996  0,65  0, 75  7, 57  6, 3275

La prévision de la variable importation est exp(6,3275)  559,755


(exp est l’exponentiel)

2) Intervalle de prévision

Déterminons d’abord l’intervalle de prévision du logarithme des importations pour


l’année 1996

Calculons la valeur de S :

SCR 0,134
S   0,0647
n2 34  2

Il nous faut ensuite calculer la valeur de B :


1
  2
 1 (X  X) 2
B  S 1   n n  h 
 n 2
  ( X t  X ) 
 t 1 
1
 1 (7, 57  7) 2  2
soit B  0, 0647  1     0, 0712
 34 1, 8 

La valeur de t  est lue dans la table de Student à 34  2  32 degrés de liberté, on


lit t   1, 96 .

L’intervalle de confiance de la prévision du logarithme des importations est donné


par

[Ŷ1996  t  B ; Ŷ1996  t  B]

[6,3275  1,96  0,0712 ; 6,3275  1,96  0,0712]

soit
[6,1879 ; 6,4670]

60
L’intervalle de confiance de la prévision des importations du Sénégal pour l’année
1996 est [ exp(6,1879) ; exp(6,4670) ]

soit

[486,82 ; 643,55]

La prévision des importations pour l’année 1996 a 95% de chances de se trouver dans
cet intervalle.

P Importation 1996  [486,82 ; 643,55 ]  0,95

L’intervalle de confiance est assez grand, donc notre prévision n’est pas précise.

61
Application économétrique sur le modèle linéaire général
Fonction d’investissement du Sénégal

« Les machines un jour pourront résoudre tous les problèmes, mais jamais aucune
d'entre elles ne pourra en poser un ! »
Albert Einstein

Enoncé de l’étude de cas

On dispose pour le Sénégal et sur la période 1972 à 2001, des séries


macroéconomiques Investissement (INV), Produit Intérieur Brut (PIB) et Taux d’intérêt
réel (TXINT).

Nous disposons des données annuelles du tableau 1.

On fait l’hypothèse que les variables INV, PIB et TXINT vérifient le modèle
linéaire général :

log(INVt )  1  2 log(PIBt )  3 TXINTt   t


1) Tester l’hypothèse de corrélation linéaire entre les variables :

a) INV et PIB ;

b) INV et TXINT ;

c) PIB et TXINT ;

2) Tester la normalité et la lognormalité des variables INV, PIB et TXINT, (Utiliser


le test de Jarque Bera ).

3) Estimer les paramètres du modèle par la méthode des moindres carrés ordinaires.
Interpréter économiquement les paramètres estimés.

4) Interpréter la valeur du coefficient de détermination R2 .


5) Effectuer les tests suivants :

a) Significativité des variables explicatives (Student) ;

b) Significativité globale du modèle (Fisher) ;

c) Normalité des erreurs (Jarque-Bera);

d) Hétéroscédasticité des erreurs ;

d1) Test de White ;

d2) Test ARCH ;


62
e) Corrélation des erreurs de Breusch-Godfrey ;

e3) Estimer les paramètres par la méthode de Cochrane-Orcutt dans le cas où les
erreurs sont corrélées ;

f) Spécification du modèle (Ramsey) ;

g) Stabilité des coefficients du modèle

g1) Test de Chow ;

g2) Tests CUSUM de Brown, Durbin et Evans ;

6) Simuler le modèle et prévoir la variable investissement pour les années 2002 à


2004.

7) Rappeler les critères de prévision

Tableau 1. Investissement, PIB et Taux d’intérêt réel

Date INV PIB TXINT


1972 158 1090 3.5
1973 202 1255 5.5
1974 275 1414 5.5
1975 289 1906 8
1976 264 1933 8
1977 287 1979 8
1978 316 2209 8
1979 314 2751 8
1980 350 2987 10.5
1981 317 2479 10.5
1982 316 2583 12.5
1983 317 2480 10.5
1984 300 2337 10.5
1985 270 2579 10.5
1986 429 3763 8.5
1987 574 4600 8.5
1988 633 4980 9.5
1989 548 4626 11
1990 787 5698 11
1991 708 5500 11
1992 894 6027 12.5
1993 765 5431 10.5
1994 676 3642 10
1995 748 4476 7.5
1996 859 4651 6.5
1997 789 4387 6.5
1998 866 4646 6.25

63
1999 905 4752 5.75
2000 867 4371 6.5
2001 925 4620 6.5
2002 4625 6.75
2003 4635 6.85
2004 4650 7.5

La période 2002 à 2004 est utilisée pour des fins de prévisions.

Corrigé de l’étude de cas


1) Test du coefficient de corrélation linaire

Le test d’hypothèses est le suivant :


H 0 : les variables X et Y ne sont pas corrélées
H1 : les variables X et Y sont corrélées

La règle de décision est :

 On ne rejette pas l’hypothèse H0 de non corrélation dès que la valeur de


Probability est supérieure à 5%.

 On rejette l’hypothèse H0 de non corrélation dès que la valeur de


Probability est inférieure ou égale à 5%.

Instruction EVIEWS 6

Cliquer sur <Quick> puis <Show >

Taper INV PIB TXINT puis OK

Cliquer sur <View> puis <Covariance Analysis > puis OK

Covariance Analysis: Ordinary


Sample (adjusted): 1972 2001
Included observations: 30 after adjustments
Balanced sample (listwise missing value deletion)
Correlation
Probability INV PIB TXINT
INV 1.0000
-----
PIB 0.9028 1.0000
0.0000 -----
TXINT -0.0068 0.3025 1.0000
0.9714 0.1041 -----

64
a) H 0 : les variables INV et PIB ne sont pas corrélées
H1 : les variables INV et PIB sont corrélées

le coefficient de corrélation linéaire est 0,9028. La probabilité critique est nulle. Les
variables INV et PIB sont corrélées positivement.

b) H 0 : les variables INV et TXINT ne sont pas corrélées


H1 : les variables INV et TXINT sont corrélées

Le coefficient de corrélation linéaire est - 0,0068. La probabilité critique est vaut


0,9714. Les variables INV et TXINT ne sont pas corrélées.

c) H 0 : les variables PIB et TXINT ne sont pas corrélées


H1 : les variables PIB et TXINT sont corrélées

Le coefficient de corrélation linéaire est 0,3025. La probabilité critique vaut 0,1041.


Les variables PIB et TXINT ne sont pas corrélées.

2) Test de normalité de Jarque-Bera

Le test d’hypothèses est le suivant :

H0 : la variable X suit une loi normale N m,  


H1 : la variable X ne suit pas une loi normale N m,  

La règle de décision est :

 On ne rejette pas l’hypothèse H0 de normalité dès que la valeur de


Probability est supérieure à 5%.

 On rejette l’hypothèse H0 de normalité dès que la valeur de Probability est


inférieure ou égale à 5%

Instruction EVIEWS

Cliquer sur <Quick> puis <Group statistics> puis <Descriptive Statistics> puis
<Common Sample> Saisir ensuite dans la fenêtre « Series List »

inv log(inv) pib log(pib) txint log(txint)

65
Tableau 2. Caractéristiques de distribution des séries

INV Log(INV) PIB Log(PIB) TXINT Log(TXINT)


Mean 531.600 6.146 3538.400 8.072 8.583 2.111
Median 488.500 6.183 3702.500 8.216 8.250 2.109
Maximum 925.000 6.829 6027.000 8.704 12.500 2.525
Minimum 158.000 5.062 1090.000 6.993 3.500 1.252
Std. Dev. 259.740 0.533 1459.118 0.478 2.286 0.294
Skewness 0.193 -0.171 -0.047587 -0.608 -0.162 -0.803
Kurtosis 1.410 1.656 1.700699 2.333 2.189 3.487

Jarque-Bera 3.345 2.402 2.121 2.408 0.954 3.523


Probability 0.187 0.300 0.346 0.299 0.620 0.171

observations 30 30 30 30 30 30

Toutes les probabilités critiques sont supérieures à 5%. Les séries INV, PIB et
TXINT du Sénégal suivent des lois normales et lognormales sur la période 1972 à
2001.

Remarque : Une variable X suit une loi lognormale si son logarithme suit une loi
normale.

3) Estimation par les moindres carrés ordinaires des coefficients du modèle

a) Estimation de la relation de long terme par la méthode des moindres carrés


ordinaires (MCO)

Instruction EVIEWS

<Quick> <Estimate Equation>

Renter dans l’ordre : log(inv) c log(pib) txint

(Série à expliquer, Constante, Variables explicatives).

On obtient alors l’estimation du modèle linéaire général

( LS : Least Squares : Moindres Carrés Ordinaires)

66
Tableau 3. Estimation du modèle d’investissement

Dependent Variable: LOG(INV)


Method: Least Squares
Sample(adjusted): 1972 2001
Included observations: 30 after adjusting endpoints
Variable Coefficient Std. Error t-Statistic Prob.
C -2.599391 0.444296 -5.850588 0.0000
LOG(PIB) 1.150813 0.058314 19.73462 0.0000
TXINT -0.063363 0.012197 -5.194884 0.0000
R-squared 0.935858 Mean dependent var 6.146406
Adjusted R-squared 0.931107 S.D. dependent var 0.533203
S.E. of regression 0.139953 Akaike info criterion -1.000386
Sum squared resid 0.528842 Schwarz criterion -0.860266
Log likelihood 18.00579 F-statistic 196.9703
Durbin-Watson stat 1.102590 Prob(F-statistic) 0.000000

b) Interprétation économique des paramètres

 log inv  inv / inv


2  
 log  pib  pib/ Pib : élasticité de l’investissement par rapport au PIB.

 inv  pib
On a :  2 
inv pib
ˆ2  1,15  si le PIB augmente de 10% alors l’investissement augmente de
11,5%, toutes choses égales par ailleurs (c’est à dire si les taux d’intérêts réels
restent constants).

 log inv  inv / inv


3  
 tx int  tx int : semi élasticité de l’investissement par rapport au

taux d’intérêt réel.

 inv
On a :  3   tx int
inv

ˆ3   0,063  si le taux d’intérêt réel augmente d’un point (100%) , alors
l’investissement diminue de 6,3%, toutes choses égales par ailleurs (c’est à dire si
le PIB reste constant).

4) Interprétation du coefficient de détermination

R 2  0,9358  93,58% des fluctuations de l’investissement sont expliquées par le


PIB et le taux d’intérêt réel.

67
5) Tests classiques

a) Test de significativité des variables explicatives (Student)

Le test d’hypothèses est le suivant :

H0 : le coefficient ai associé à la variable Xi est nul


H1 : le coefficient ai associé à la variable Xi est différent de 0

La règle de décision est :

 On ne rejette pas l’hypothèse H0 si la valeur de Probability est supérieure à


5%  la variable Xi n’a pas un impact significatif sur la variable endogène Y.

 On rejette l’hypothèse H0 dans le cas contraire  la variable Xi a un


impact significatif sur la variable endogène Y.

-- Testons
H0 : le coefficient  2 est nul
contre
H1 : le coefficient  2 est différent de 0

La probabilité critique associée à la variable log(PIB) est nulle. On accepte


l’hypothèse H1 . Le PIB a un impact positif significatif sur l’investissement.

-- Testons
H0 : le coefficient 3 est nul
contre
H1 : le coefficient 3 est différent de 0

La probabilité critique associée à la variable TXINT est nulle. On accepte


l’hypothèse H1 . Le taux d’intérêt réel a un impact négatif significatif sur
l’investissement.

b) Test de significativité globale du modèle (Fisher)

H0 : le modèle n’est pas globalement significatif


contre
H1 : le modèle est globalement significatif

La statistique de Fisher vaut 196,9703. Sa probabilité critique est nulle. On accepte


l’hypothèse H1 . Les variables PIB et Taux d’intérêt réel ont globalement un impact
significatif sur l’investissement.

68
c) Test de normalité des erreurs

H0 : les erreurs suivent une loi normale


contre
H1 : les erreurs ne suivent pas une loi normale

La règle de décision est la suivante :

 On ne rejette pas l’hypothèse H0 de normalité des erreurs dès que la


probabilité critique (Probability) est supérieure à 5%.
 On rejette l’hypothèse H0 de normalité des erreurs dès que la probabilité
critique (Probability) est inférieure ou égale supérieure à 5%.

Après avoir estimé les paramètres par la méthode des moindres carrés ordinaires

<View> <Residual Tests> <Histogram-Normality test >

14
Series: Residuals
12
Sample 1972 2001
10 Observations 30
8
6 Mean 4.44E-17
Median 0.028670
4 Maximum 0.312213
2 Minimum -0.275180
0 Std. Dev. 0.135040
-0.2 0.0 0.2 Skewness -0.158678
Kurtosis 3.003585

Jarque-Bera 0.125910
Probability 0.938986

La statistique de Jarque-Bera est 0,1259. Sa probabilité critique vaut 0,9389. On ne


rejette pas l’hypothèse de normalité des erreurs.

d) Test d’homocédasticité des erreurs de White

d1) Test de White

H 0 : les erreurs sont homocédastiques


H 1 : les erreurs sont hétéroscédastiques

La règle de décision est la suivante :

 On ne rejette pas l’hypothèse H0 d’homocédasticité dès que la probabilité


critique (Probability) est supérieure à 5%.
 On rejette l’hypothèse H0 d’homocédasticité dès que la probabilité critique
(Probability) est inférieure ou égale à 5%.

69
Le logiciel Eviews propose deux options pour le test de White .

Option 1 : Test de White sans termes croisés


Instruction EVIEWS

Après avoir estimé les paramètres par les moindres carrés ordinaires
Cliquer sur <View> puis <Residuals Tests> puis <White Heteroskedasticity (no cross
terms) >
White Heteroskedasticity Test (no cross terms)
F-statistic 0.062987 Probability 0.992219
Obs*R-squared 0.299319 Probability 0.989858

Les deux probabilités critiques sont supérieures à 5%. On ne rejette pas l’hypothèse
d’homocédasticité des erreurs.

Option 2 : Test de White avec termes croisés

Instruction EVIEWS

Après avoir estimé les paramètres par les moindres carrés ordinaires
Cliquer sur <View> puis <Residuals Tests> puis <White Heteroskedasticity (cross
terms) >

White Heteroskedasticity Test (cross terms)


F-statistic 3.790150 Probability 0.011350
Obs*R-squared 13.23661 Probability 0.021260

Les deux probabilités critiques sont inférieures à 5%. On rejette l’hypothèse


d’homocédasticité des erreurs.

Au total, c’est l’hypothèse d’hétéroscédasticité qui doit être acceptée.

d2) Test ARCH

H 0 : les erreurs ne suivent pas un modèle ARCH d’ordre 1


 elles sont homocédastiques
H1 : les erreurs suivent un modèle ARCH d’ordre 1
 elles sont conditionnellement hétéroscédastiques

Instruction EVIEWS

Après avoir estimé les paramètres par la méthode des moindres carrés ordinaires
Cliquer sur <View> puis <Residuals Tests> puis < ARCH LM Test>
Dans la fenêtre « Lag to include », taper 1

Test ARCH

Test ARCH(1) :
F-statistic 0.006502 Probability 0.936326
Obs*R-squared 0.006982 Probability 0.933407

70
Les deux probabilités sont supérieures à 5%. Les erreurs ne suivent pas un modèle
ARCH d’ordre 1 noté ARCH(1). Les erreurs sont homocédastiques.

Tableau 4. Régression autorégressive

Test Equation:
Dependent Variable: RESID^2
Method: Least Squares
Sample(adjusted): 1973 2001
Included observations: 29 after adjusting endpoints
Variable Coefficient Std. Error t-Statistic Prob.
C 0.017571 0.005933 2.961351 0.0063
RESID^2(-1) -0.015477 0.191939 -0.080636 0.9363
R-squared 0.000241 Mean dependent var 0.017298
Adjusted R-squared -0.036787 S.D. dependent var 0.025762
S.E. of regression 0.026232 Akaike info criterion -4.377217
Sum squared resid 0.018579 Schwarz criterion -4.282921
Log likelihood 65.46965 F-statistic 0.006502
Durbin-Watson stat 1.972229 Prob(F-statistic) 0.936326

Le paramètre 1 est significativement égal à zéro. L’hypothèse d’homocédasticité des


erreurs n’est pas rejetée.

e) Test de corrélation des erreurs de Breusch-Godfrey

Le test d’hypothèses est :

H 0 : les erreurs ne sont pas corrélées


H 1 : les erreurs sont corrélées

On ne rejette pas l’hypothèse H 0 si la valeur de Probability est supérieure à 5%.


On rejette l’hypothèse H 0 si la valeur de Probability est inférieure ou égale à 5%.

Testons une autocorrélation d’ordre 1 des erreurs.

Après avoir estimé les paramètres par la méthode des moindres carrés ordinaires
<View> <Residual Tests> <Serial Correlation LM Test>
Saisir 1 dans la fenêtre «Lag to include »

Breusch-Godfrey Serial Correlation LM Test:


F-statistic 5.603920 Probability 0.025646
Obs*R-squared 5.319517 Probability 0.021088

Les valeurs des probabilités sont inférieures à 5%, on rejette l’hypothèse de non
corrélation des erreurs.

Si on désire tester une autocorrélation d’ordre 2 des erreurs, alors on choisit 2 pour
«Lag to include ».

71
Remarque : Les erreurs sont corrélées, la méthode des moindres carrés n’est plus
optimale. On peut utiliser la méthode d’estimation de Cochrane-Orcutt.

Correction de l’autocorrélation par la méthode de Cochrane Orcutt

La méthode de Cochrane-Orcutt est une méthode d’estimation des paramètres qui


doit être utilisée en cas de corrélation des erreurs. Nous avons vu que les erreurs
du modèle linéaire étaient corrélées.
Nous donnons ci-dessous les estimations obtenues par la méthode de Cochrane
Orcutt.

Estimation par la méthode de Cochrane-Orcutt


Instruction EVIEWS
<Quick> <Estimate Equation>
Rentrer dans l’ordre : log(inv) c log(pib) txint ar(1)

Tableau 5. Estimation par la méthode de Cochrane-Orcutt

Dependent Variable: LOG(INV)


Method: Least Squares
Sample(adjusted): 1973 2001
Included observations: 29 after adjusting endpoints
Convergence achieved after 15 iterations
Variable Coefficient Std. Error t-Statistic Prob.
C 0.282131 1.371151 0.205762 0.8386
LOG(PIB) 0.766443 0.159034 4.819354 0.0001
TXINT -0.017902 0.019576 -0.914448 0.3692
AR(1) 0.864431 0.108455 7.970425 0.0000
R-squared 0.952100 Mean dependent var 6.183779
Adjusted R-squared 0.946351 S.D. dependent var 0.501060
S.E. of regression 0.116056 Akaike info criterion -1.342042
Sum squared resid 0.336726 Schwarz criterion -1.153450
Log likelihood 23.45961 F-statistic 165.6385
Durbin-Watson stat 2.443466 Prob(F-statistic) 0.000000
Inverted AR Roots .86

Convergence assurée après 15 itérations.

Testons la corrélation des erreurs du modèle estimé par la méthode de Cochrane-


Orcutt en utilisant la méthode de Breusch-Godfrey

Après avoir estimé les paramètres par la méthode de Cochrane-Orcutt


<View> <Residual Tests> <Serial Correlation LM Test>
Saisir 1 dans la fenêtre “Lag to include”

Breusch-Godfrey Serial Correlation LM Test:


F-statistic 2.009490 Probability 0.169171
Obs*R-squared 2.240536 Probability 0.134434

72
Les valeurs des probabilités sont supérieures à 5%, on ne rejette pas l’hypothèse de
non corrélation des erreurs. La méthode de Cochrane-Orcutt a donc corrigé la
corrélation des erreurs.

f) Test Reset de Ramsey

H 0 : le modèle est bien spécifié


H 1 : le modèle est mal spécifié

On ne rejette pas l’hypothèse H 0 si la valeur de Probability est supérieure à 5%.


On rejette l’hypothèse H 0 si la valeur de Probability est inférieure ou égale à
5%.

Si le modèle est mal spécifié alors il manque des variables explicatives pertinentes
dans le modèle.

Instruction EVIEWS

Après avoir estimé les paramètres par la méthode des moindres carrés ordinaires

<View> < Stability Tests> < Ramsey Reset Test> <Number of fitted terms> <Saisir 3 >

Ramsey RESET Test:


F-statistic 1.896326 Probability 0.157185
Log likelihood ratio 6.381662 Probability 0.094448

Les deux probabilités sont supérieures à 5%, on accepte l’hypothèse H 0 . Le


modèle est bien spécifié.

g) Tests de stabilité des paramètres

L’un des critères les plus importants pour l’estimation d’un modèle est qu’elle doit
rester valable pour des données autres que celles qui ont été utilisées lors de
l’estimation. Ce critère est celui de la constance des paramètres.

g1) Test de Chow

H 0 : le modèle est stable


H 1 : le modèle est instable

 Les coefficients du modèle sont stables si la valeur de probability est


supérieure à 5%.

 Les coefficients du modèle sont instables si la valeur de probability est


inférieure ou égale à 5%.

73
Nous allons choisir deux dates de rupture : 1981 et 1994

-- Point de rupture 1981

Après avoir estimé les paramètres par la méthode des moindres carrés ordinaires
<View> < Stability Tests> <Chow Breakpoint Test> < Saisir 1981>

Chow Breakpoint Test: 1981


F-statistic 1.340279 Probability 0.284748
Log likelihood ratio 4.646839 Probability 0.199561

Les deux probabilités sont supérieures à 5% : le modèle est stable.

-- Point de rupture 1994 (Dévaluation du franc FCFA)

Après avoir estimé les paramètres par la méthode des moindres carrés ordinaires
<View> < Stability Tests> <Chow Breakpoint Test> <Saisir 1994>

Chow Breakpoint Test : 1994


F-statistic 5.972873 Probability 0.003430
Log likelihood ratio 16.73029 Probability 0.000803

Les deux probabilités sont inférieures à 5% , le modèle est instable. On a un


changement de régime entre les deux périodes.

L’année de la dévaluation du franc CFA (1994) est bien une date d’instabilité pour
l’économie sénégalaise.

g2) Tests CUSUM de Brown, Durbin et Ewans

Ces tests ne sont exécutables qu’après une estimation par la méthode des
moindres carrés ordinaires.

-- Test CUSUM

Ce test permet de détecter les instabilités structurelles

Instruction EVIEWS

Après avoir estimé les paramètres par la méthode des moindres carrés ordinaires
<View> < Stability Tests> <Recursive Estimates > < Cusum Test>

La règle de décision est la suivante :

 Si la courbe ne coupe pas les bornes du corridor alors le modèle est


stable.

 Si la courbe coupe les bornes du corridor alors le modèle est instable. Dans
ce cas, la courbe indique la période d’instabilité.

74
20

10

- 10

- 20
76 78 80 82 84 86 88 90 92 94 96 98 00

CUS UM 5% S i gni fi cance

Conclusion : La courbe ne coupe pas le corridor, le modèle est structurellement stable.

-- Test Cusum Carré

Ce test permet de détecter les instabilités ponctuelles


Après avoir estimé les paramètres par la méthode des moindres carrés ordinaires

<View> < Stability Tests> <Recursive Estimates > < Cusum of Squares Test>
1. 6

1. 2

0. 8

0. 4

0. 0

- 0. 4
76 78 80 82 84 86 88 90 92 94 96 98 00

C USUM of Squares 5% Si gni fi cance

Conclusion : La courbe ne coupe pas le corridor, le modèle est ponctuellement stable.

On peut remarquer sur le graphique que la date 1989 est une date de quasi
instabilité ponctuelle (Troubles suite aux élections de 1988, problème avec la
Mauritanie).

6) Simulation et prévision du modèle estimé par la méthode des moindres


carrés ordinaires

6.1) Simulation

Instruction EVIEWS

Après avoir estimé les paramètres par la méthode des moindres carrés ordinaires ,
cliquer sur Resids

75
7. 0

6. 5

6. 0

0. 4
5. 5

0. 2
5. 0

0. 0

- 0. 2

- 0. 4
75 80 85 90 95 00

R esi dual A ctual Fi tted

Les courbes des séries observée (actual) et ajustée (fitted) sont proches. L’erreur
commise est faible, cette erreur sera quantifiée à l’aide des critères de prévision.

Le modèle a des chances d’avoir un bon pouvoir prédictif car il reproduit


« fidèlement » le passé.

6.2) Prévision

Instruction EVIEWS

Après avoir estimé les paramètres par la méthode des moindres carrés ordinaires ,
cliquer sur Forecast. Le logiciel indique l’intervalle de prévision et les critères de
prévision.

-- Intervalle de prévision

1200

1000

800

600

400

200

0
75 80 85 90 95 00

INV PR EV ± 2 S. E.

76
-- Critères de prévision

Forecast: INVF
Actual: LOG(INV)
Sample: 1972 2004
Include observations: 30
Root Mean Squared Error 0.132771
Mean Absolute Error 0.100651
Mean Absolute Percentage Error 1.657931
Theil Inequality Coefficient 0.010763
Bias Proportion 0.000000
Variance Proportion 0.016571
Covariance Proportion 0.983429

MAPE : Mean Absolute Percentage Error (Erreur absolue moyenne en pourcentage)

Theil Inequality Coefficient : Critère U de Theil

Nous utilisons les critères de prévision MAPE et U de Theil pour apprécier les
performances prévisionnelles.

L’erreur absolue moyenne en pourcentage est égale à 1,66%. Le modèle fait moins
de 2% d’erreur. Le critère U de Thieil est proche de 0. les 2 critères indiquent que
le modèle a de bonnes performances prévisionnelles.

-- Prévision

Les prévisions obtenues sont données dans le tableau 7 ci-après :

Tableau 7. Prévision à un horizon de trois années

Année Investissement
2002 800,2217
2003 797,1461
2004 767,8316

7) Critères de prévision

Soient Y1, Y2 ,, Yn les n valeurs observées


Soient Ŷ1, Ŷ2 ,, Ŷn les prévisions associées

Posons e i  Yi  Ŷi , i  1,, n

Les critères ci-dessous sont utilisés pour juger de la qualité de la méthode de


prévision

77
a) Root Mean Squared Error (Erreur quadratique moyenne)

n
RMSE(e) 
1
n  ei2
i 1

Ce critère est exprimé dans les mêmes unités que les données.

b) Mean Absolute Error ( Erreur absolue moyenne)

n
MAE(e)  1
n  ei
i 1

c) Mean Absolute Percentage Error (Erreur absolue moyenne en pourcentage)

n ei
MAPE(e)  1
n  Yi
i 1

d) Theil Inequality Coefficient (Critère U de Theil)

2
n  Y i  Ŷ i 
 
 Y 


i 2  i 1 
U 
2
n  Y i  Y i  1 
 
 Y i  1


i 2  

On a toujours 0  U  1

U vaut 0 si les prévisions sont parfaites. Une valeur égale à 1 indique que la
méthode naïve est aussi bonne que la méthode de prévision examinée. Une valeur
de U entre 0 et 1 survient quand la méthode de prévision étudiée est meilleure que la
méthode naïve. Dans le cas où U > 1, la méthode naïve donne de meilleurs
résultats.

78
Chapitre 2 : Les modèles à Décalages temporels

Objectifs pédagogiques du chapitre 2

Lorsque vous aurez complété l’étude du chapitre 2, vous pourrez :

 distinguer entre modèle linéaire autorégressif et modèle à retards


échelonnés;

 maîtriser l’économétrie du modèle linéaire autorégressif ;

 maîtriser l’économétrie du modèle à retards échelonnés ;

 déterminer le nombre de décalages du modèle à retards échelonnés


en utilisant les critères d’information de Akaike et de Schwarz.

79
1. Introduction

Dans le chapitre 1, nous avons essentiellement considéré des modèles dans


lesquels les variables sont toutes exprimées au même instant du temps. Sur de
tels modèles, les effets sont dits synchrones. La théorie économique postule
couramment des effets retardés qui peuvent être de deux types : les modèles
autorégressifs et les modèles à retards échelonnés. Dans le modèle autorégressif, la
variable retardée est la variable endogène. Par contre, dans les modèles à retards
échelonnés, les variables exogènes apparaissent avec plusieurs décalages.

2. Pourquoi introduire des retards ? Quelques exemples

En économie, il est fréquent que la valeur présente de la variable endogène


dépende des valeurs passées des variables exogènes. En d’autres termes,
l’influence des variables explicatives ne s’exerce qu’après un certain temps, appelé
retard ou décalage.

La présence de telles variables peut, en fait, être justifiée par des motifs divers :
intégration d’un schéma d’anticipation dans l’équation, phénomènes de mémoire ou
tendance à l’inertie (par exemple, modèles faisant dépendre la consommation de la
date t à la consommation de la date t  1 ), existence de temps de réaction
psychologiques ou technique (par exemple, modèles faisant dépendre la
consommation de la date t du revenu de la date t  1 pour la raison que le
revenu doit être perçu avant d’être dépensé), etc.

3. Les modèles linéaires autorégressifs

3.1 Formulation générale

Lorsqu’on étudie un phénomène économique, il arrive souvent qu’à côté de la


valeur prise par la variable endogène à l’instant t figurent les valeurs prises par
cette même variable aux instants t  1, t  2 ,  , t  h . Dans ce cas on se trouve
en présence d’un modèle autorégressif.

Soit la formulation

Yt  b1Yt 1  b 2 Yt  2    b h Yt  h  a 0  a1X1t  a 2 X 2t    a k X kt  ε t
ou encore
h k
Yt   b j Yt  j  a 0   a i X it  ε t
j 1 i 1

3.2. Modèle autorégressif d’ordre un

Le modèle général spécifié ci-dessus est rarement utilisé, le plus souvent nous
nous limitons à des modèles autorégressifs d’ordre un de la forme :

Yt  bYt  1  a0  a1 X1t  a2 X 2t    ak X kt   t
80
Ce modèle est dit stable si b  1 et explosif si b 1.

Un exemple classique de modèle autorégressif d’ordre un est :

Ct  b Ct  1  a0  a1 Rt   t
où Ct est la consommation au temps t et R t le revenu au temps t.

3.3 Elasticités de court et long termes

Considérons le modèle linéaire autorégressif d’ordre un dans lequel toutes les


variables sont exprimées en logarithmes népériens :

log(Yt )  b log(Yt  1 )  a0  a1 log( X 1t )  a2 log( X 2t )    ak log( X kt )   t

Le coefficient a0 représente la constante du modèle.

Les coefficients a1, a2 ,, ak sont les élasticités de court terme.

a1 a a
Les coefficients , 2 , , k sont les élasticités de long terme.
1 b 1 b 1 b

3.4 Tests d’autocorrélation des erreurs et méthodes d’estimation

La méthode d’estimation adéquate dépend d’une éventuelle autocorrélation des erreurs ;


or dans le cas d’un modèle autorégressif, le test du Durbin et Watson a une
puissance limitée et est biaisé. C’est pourquoi il convient d’utiliser le test de
Breusch et Godfrey (1978).

Si les erreurs ne sont pas corrélées, alors on estime les paramètres par la méthode
des moindres carrés ordinaires. En cas d’autocorrélation des erreurs, nous pouvons
utiliser différentes méthodes d’estimation : la méthode de Cochrane et Orcutt, la
méthode de Hildreth-Lu, la méthode du maximum de vraisemblance ou la méthode
des variables instrumentales.

4. Les modèles à retards échelonnés

4.1 Formulation générale

Nous avons vu précédemment les modèles comportant des variables endogènes


retardées. Il arrive souvent également que les variables intervenant dans les
modèles apparaissent non seulement au temps t mais aussi aux instants
t  1, t  2, 

Ce type de modèle est un modèle à retards échelonnés. Son estimation ne pose


pas de problème puisque les variables retardées sont des exogènes.
81
Le modèle à retards échelonnés se présente sous la forme :

Yt  b 0  a 0 X t  a1 X t  1  a 2 X t  2    a h X t  h  ε t
h
  a j X t  j  b0  ε t
j 0

En général, l’effet de la variable explicative s’estompe avec le temps :

a 0  a1  a 2    a h

Le nombre de retards, h, peut être fini ou infini. Cependant, la somme des


coefficients a j tend vers une limite finie, sinon Yt serait un processus explosif.

Les coefficients a 0 , a1, a 2 ,, a h représentent des multiplicateurs instantanés et


leur somme ( a 0  a1  a 2    a h ) le multiplicateur cumulé.

Un exemple classique de modèle à retards échelonnés est :

It  b0  a0 Pt  a1 Pt  1  a2 Pt  2  t
où I est l’investissement et P le profit. Ce exemple est justifié par la théorie
économique postulant que les dépenses d’investissement peuvent être expliquées
par les profits passés.

4.2 Détermination du nombre de retards

Il existe de nombreux critères statistiques permettant de déterminer la valeur


du nombre de retards d’un modèle à retards échelonnés. Dans la pratique, il s’agit
de déterminer la période maximum d’influence de la série explicative. Pour
déterminer le nombre de retards, on utilise les critères d’information : Akaike (AIC),
Schwarz (SC) ou Hannan Quinn (HAN). Nous exposons dans cette section les
critères AIC et SC.

4.2.1 Critère de Akaike (1974)

Cette méthode consiste à retenir comme valeur de h celle qui minimise la fonction
de Akaike qui est donnée par :

 SCR h  2 h
AIC(h)  Log  
 n  n

avec SCR h  Somme des Carrés des Résidus pour le modèle à h retards
n  nombre d’observations disponibles
Log  logarithme népérien

82
4.2.2 Critère de Schwarz (1978)

Cette méthode très proche de la précédente consiste à retenir la valeur h qui


minimise la fonction de Schwarz :

 SCR h  h log(n)
SC(h)  Log  
 n  n

Pour ces deux critères, la procédure consiste à insérer des retards successifs et
à arrêter la spécification du modèle au moment où la valeur des deux statistiques
ne diminue plus.

Remarque : Principe de parcimonie

Il peut arriver que les critères AIC et SC ne donnent pas le même résultat. Dans
cette situation, le principe de parcimonie invite à choisir le nombre de retards le
plus faible. On choisit ainsi le modèle qui a le plus faible nombre de paramètres
c’est à dire celui qui maximise les degrés de liberté.

83
Partie 2. Applications économétriques

Application 1 : Modèle linéaire autorégressif

Enoncé de l’application 1

On dispose pour le Sénégal et sur la période 1972 à 2001, des séries


macroéconomiques Investissement (INV) et Produit Intérieur Brut (PIB) et Taux
d’intérêt (TXINT). Nous disposons des données du tableau 1. On fait l’hypothèse
que les variables INV, PIB et TXINT vérifient le modèle linéaire autorégressif :

log(INVt )  b log( INVt  1 )  a0.  a1 log(PIBt )  a2 TXINTt   t

1) Estimer les paramètres modèle linéaire autorégressif par la méthode des


moindres carrés ordinaires.

2) Interpréter économiquement les élasticités de court et de long termes.

3) Interpréter la valeur du coefficient de détermination R 2 .

4) Effectuer les tests suivants :

a) Significativité des variables explicatives (Student) ;

b) Significativité globale du modèle (Fisher) ;

c) Normalité des erreurs (Jarque-Bera);

d) Hétéroscédasticité des erreurs

d1) Test de White ;


d2) Test ARCH ;

e) Corrélation des erreurs de Breusch-Godfrey

f) Spécification du modèle (Ramsey) ;

g) Stabilité des coefficients du modèle

g1) Test de Chow ;


g2) Tests CUSUM de Brown, Durbin et Evans ;

5) Déterminer la prévision d’investissement pour les années 2002 à 2004

84
TABLEAU 1
Investissement, PIB et Taux d’intérêt du Sénégal

Date INV PIB TXINT


1972 158 1090 3.5
1973 202 1255 5.5
1974 275 1414 5.5
1975 289 1906 8
1976 264 1933 8
1977 287 1979 8
1978 316 2209 8
1979 314 2751 8
1980 350 2987 10.5
1981 317 2479 10.5
1982 316 2583 12.5
1983 317 2480 10.5
1984 300 2337 10.5
1985 270 2579 10.5
1986 429 3763 8.5
1987 574 4600 8.5
1988 633 4980 9.5
1989 548 4626 11
1990 787 5698 11
1991 708 5500 11
1992 894 6027 12.5
1993 765 5431 10.5
1994 676 3642 10
1995 748 4476 7.5
1996 859 4651 6.5
1997 789 4387 6.5
1998 866 4646 6.25
1999 905 4752 5.75
2000 867 4371 6.5
2001 925 4620 6.5
2002 4625 6.75
2003 4635 6.85
2004 4650 7.5

La période 2002 à 2004 est utilisée à des fins de prévisions.

85
Corrigé de l’application 1

Instruction EVIEWS

<Quick> <Estimate Equation>

Renter dans l’ordre : log(inv) c log(inv(-1)) log(pib) txint

L’estimation des paramètres par les MCO conduit aux résultats figurant dans le
tableau 2.

TABLEAU 2
Estimation du modèle linéaire autorégressif par les MCO

Dependent Variable: LOG(INV)

Variable Coefficient Std. Error t-Statistic Prob.


C -1.2653 0.3981 -3.1783 0.0039
LOG(INV(-1)) 0.4280 0.0835 5.1242 0.0000
LOG(PIB) 0.6465 0.1024 6.3098 0.0000
TXINT -0.0474 0.0099 -4.7794 0.0001
R-squared 0.9659 Mean dependent var 6.1837
Adjusted R-squared 0.9618 S.D. dependent var 0.5010
S.E. of regression 0.0978 Akaike info criterion -1.6835
Sum squared resid 0.2393 Schwarz criterion -1.4949
Log likelihood 28.41091 Durbin-Watson stat 2.4036
F-statistic 236.4473
Prob(F-statistic) 0.0000

Les paramètres estimés sont :

bˆ  0,428 aˆ0  1,265 aˆ1  0,646 aˆ2   0,047

2) Elasticités de court et de long termes

2.1) Elasticités de court terme

-- L’élasticité de court terme de l’investissement par rapport au PIB est


aˆ  0,646 . A court terme, si le PIB augmente de 10%, alors l’investissement
1
augmente de 6,46%.

-- La semi élasticité de court terme de l’investissement par rapport au taux


d’intérêt est aˆ   0,047 . A court terme, si le taux d’intérêt augmente d’un point
2
(100%), alors l’investissement diminue de 4,7%.

86
2.2) Elasticités de long terme

-- L’élasticité de long terme de l’investissement par rapport au PIB est


aˆ1
 1,129 . A long terme, si le PIB augmente de 10%, alors l’investissement
1  bˆ
augmente de 11,29%.

-- La semi élasticité de long terme de l’investissement par rapport au taux


aˆ 2
d’intérêt est   0,082 . A long terme, si le taux d’intérêt augmente d’un
1  bˆ
point (100%), alors l’investissement diminue de 8,2%.

3) La valeur du coefficient de détermination est R  0,9659 . On peut dire que


2

96,59% des fluctuations du logarithme de l’investissement courant sont expliquées


par le logarithme de l’investissement de la période t 1 , le logarithme du PIB
courant et les taux d’intérêt courants.

NB : Pour les réponses des questions 4 et 5, nous renvoyons le lecteur au


corrigé de l’étude de cas 1 du chapitre 1.

87
Application économétrique 2 : Détermination du nombre de retards dans un
modèle à retards échelonnés

Enoncé du cas 2

La théorie économique postule que les dépenses d’investissement (notées Yt )


peuvent être expliquées par les profits passés (notés X t ). Le modèle prend alors la
forme du modèle à retards échelonnés ci-dessous :

Yt  b 0  a 0 X t  a1 X t 1  a 2 X t  2    a h X t  h  ε t

Nous disposons des données trimestrielles du tableau 3 concernant l’industrie


chimique française.

Déterminer le nombre de décalages trimestriels qui semblent avoir un effet sur les
dépenses d’investissement.

TABLEAU 3. Dépenses d’investissement et profit

Date INV PROF


1980:1 2072 1660
1980:2 2077 1926
1980:3 2078 2181
1980:4 2043 1897
1981:1 2062 1695
1981:2 2067 1705
1981:3 1964 1731
1981:4 1981 2151
1982:1 1914 2556
1982:2 1991 3152
1982:3 2129 3763
1982:4 2309 3903
1983:1 2614 3912
1983:2 2896 3571
1983:3 3058 3199
1983:4 3309 3262
1984:1 3446 3476
1984:2 3466 2993
1984:3 3435 2262
1984:4 3183 2011
1985:1 2697 1511
1985:2 2338 1631
1985:3 2140 1990
1985:4 2012 1993
1986:1 2071 2520
1986:2 2192 2804
1986:3 2240 2919
1986:4 2421 3024
1987:1 2639 2725
1987:2 2733 2321

88
1987:3 2721 2131
1987:4 2640 2552
1988:1 2513 2234
1988:2 2448 2282
1988:3 2429 2533
1988:4 2516 2517
1989:1 2534 2772
1989:2 2494 2380
1989:3 2596 2568
1989:4 2572 2944
1990:1 2601 2629
1990:2 2648 3133
1990:3 2840 3449
1990:4 2837 3764

Corrigé du cas 2

Nous estimons le modèle à retards échelonnés pour divers valeurs de h et


retenons celle qui minimise les critères de Akaike et de Schwarz.

Pour le retard 0
Instruction EVIEWS

<Quick> <Estimate Equation>

Renter dans l’ordre : inv c prof

Pour le retard 1
Instruction EVIEWS

<Quick> <Estimate Equation>

Renter dans l’ordre : inv c prof prof(-1)

Pour le retard 2
Instruction EVIEWS

<Quick> <Estimate Equation>

Renter dans l’ordre : inv c prof prof(-1) prof(-2)

Pour le retard 3
Instruction EVIEWS

<Quick> <Estimate Equation>

Renter dans l’ordre : inv c prof prof(-1) prof(-2) prof(-3)

etc…

89
Le tableau 4 reporte les valeurs prises par ces deux critères pour les valeurs de
h allant de 1 à 10. Ces résultats nous conduisent à retenir un nombre de retards
égal à 6.
Le modèle à retards échelonnés comporte 6 retards : l’investissement des entreprises
de ce secteur est fonction des profits réalisés sur les six derniers trimestres, soit
un an et demi.

L’estimation des paramètres par les MCO du modèle à retards échelonnés à 6


retards conduit aux résultats figurant dans le tableau 5. Il convient de noter que
seul le coefficient du sixième retard est significativement différent de 0.

TABLEAU 4
Résultats de la recherche du nombre de décalages optimal

Décalage Akaike Schwarz


0 14,88 14,96
1 14,42 14,55
2 13,97 14,14
3 13,48 13,69
4 13,18 13,44
5 12,93 13,23
6 12,78* 13,13*
7 12,83 13,22
8 12,91 13,35
9 12,98 13,47
10 13,05 13,59

TABLEAU 5
Estimation du modèle à retards échelonnés

Dependent Variable: INV

Variable Coefficient Std. Error t-Statistic Prob.


C 501.5414 154.8486 3.238915 0.0029
PROF -0.011389 0.081532 -0.139687 0.8898
PROF(-1) 0.061265 0.124906 0.490487 0.6274
PROF(-2) 0.227569 0.119635 1.902194 0.0668
PROF(-3) 0.167932 0.112997 1.486158 0.1477
PROF(-4) 0.118734 0.127454 0.931580 0.3590
PROF(-5) 0.000169 0.136907 0.001235 0.9990
PROF(-6) 0.237174 0.084065 2.821310 0.0084
R-squared 0.921953 Mean dependent var 2567.553
Adjusted R-squared 0.903742 S.D. dependent var 424.8027
S.E. of regression 131.7973 Akaike info criterion 12.78507
Sum squared resid 521116.1 Schwarz criterion 13.12983
Log likelihood -234.9164 Durbin-Watson stat 0.571584
F-statistic 50.62600
Prob(F-statistic) 0.000000

90
Chapitre 3 : La cointégration et le modèle à
correction d’erreur

Objectifs pédagogiques du chapitre 3

Lorsque vous aurez complété l’étude du chapitre 3, vous pourrez :

 définir la stationnarité d’une variable ;

 déterminer l’ordre d’intégration d’une variable en utilisant les tests de


stationnarité de Dickey-Fuller Augmenté et de Phillips-Perron ;

 tester l’hypothèse de cointégration en utilisant les procédures de


Johansen et de Engle-Granger ;

 estimer les paramètres du modèle à correction d’erreur ;

 utiliser le modèle à correction d’erreur à des fins de prévision.

91
1. Introduction

Lorsqu’on travaille sur des séries temporelles, il convient de prendre garde à la


stationnarité de celles-ci au cours du temps. Les modèles étudiés dans les chapitres
1 et 2, et en particulier la méthode des moindres carrés ordinaires, ne sont valables
que si les séries temporelles sont stationnaires.

Cet aspect de la méthode économétrique a été ignoré pendant longtemps avant de


ressurgir au cours des dernières années. Il pose des problèmes redoutables dans
la mesure où la plupart des séries économiques sont non stationnaires car elles sont
tendancielles ou saisonnières.

Face à ce problème, la théorie de la cointégration permet de préciser les conditions


dans lesquelles il est légitime de travailler sur des séries non stationnaires. Les
variables non stationnaires peuvent être combinées pour obtenir un modèle à
correction d’erreur qui est une relation stable économiquement interprétable. Les
termes non stationnaires s’interprètent comme les éléments d’un équilibre de long
terme.

2. Tests de stationnarité

2.1 Stationnarité

2.1.1 Définition : Un processus stochastique Xt est stationnaire si :

-- E( Xt )  E( Xt  h )   t et  h , la moyenne est constante et


indépendante du temps ;

-- la variance est finie et indépendante du temps ;

-- la fonction d’autocovariance  ( h )  Cov ( X t , X t  h ) est indépendante du


temps

Une série chronologique est donc stationnaire si elle est la réalisation d’un
processus stationnaire. Ceci implique que la série ne comporte ni tendance, ni
saisonnalité et plus généralement aucun facteur n’évoluant avec le temps.
Une variable stationnaire est caractérisée par une moyenne et une variance
constantes et a tendance à fluctuer autour de sa moyenne revenant régulièrement
vers sa valeur d’équilibre de long terme.

2.1.2 Exemple de processus stationnaire


Un processus de bruit blanc t (suite de variables aléatoires équidistribuées et

mutuellement indépendantes) de loi normale N (0, 


2
) est stationnaire. Sa
représentation graphique est donnée dans la figure 1.

92
4

-1

-2

-3

-4
25 50 75 100 125 150 175 200

EPS MOY

FIGURE 1
Représentation graphique d’un bruit blanc normal centré et réduit

Nous pouvons remarquer cette série est bien centrée sur 0 et que les fluctuations
semblent représentatives d’un bruit blanc.

2.2 Tests de stationnarité

Pour vérifier la stationnarité des séries, il faut pratiquer des tests de stationnarité ou
de racine unitaire (Unit Root Test). Les tests de stationnarité les plus utilisés sont : le
test de Dickey-Fuller augmenté (ADF,1981) et le test de Phillips-Perron (PP, 1988).

Ces tests permettent de mettre en évidence le caractère stationnaire ou non d’une


série temporelle par la détermination d’une tendance déterministe ou stochastique.

Contrairement au test ADF qui prend uniquement la présence d’autocorrélations


dans les séries, le test PP considère en plus l’hypothèse de présence d’une
dimension hétérocédastique dans les séries. Les hypothèses nulles des tests ADF
et PP sont celles de racine unité c’est à dire de non stationnarité.

2.2.1 Test de Dickey-Fuller Augmenté

Les hypothèses du test de Dickey-Fuller Augmenté sont :

H0 : le processus X est non stationnaire (X a une racine unité)

H1 : le processus X est stationnaire (X n’a pas une racine unité)

Pour effectuer le test, on compare la valeur de ADF (Augmented Dickey-Fuller Test


Statistic) à celle de CV (Test Critical Value).

La règle de décision est la suivante :

 Si ADF est inférieure à CV, l’hypothèse de non stationnarité de la série


est rejetée ;

 Si ADF est supérieure ou égale à CV, l’hypothèse de non stationnarité de la


série n’est pas rejetée.

93
Remarque 1: Sur les logiciels, il suffit seulement de comparer la valeur de la
probabilité au seuil statistique alpha.

La règle de décision est :

 Si la valeur de la probabilité est supérieure au seuil alpha, l’hypothèse de


non stationnarité n’est pas rejetée.

 Si la valeur de la probabilité est inférieure ou égale au seuil alpha,


l’hypothèse de non stationnarité est rejetée.

2.2.2 Test de Phillips Perron

Ce test est construit sur une correction non paramétrique des statistiques de
Dickey-Fuller pour prendre en compte les erreurs hétéroscédastiques. Pour exécuter
le test, il est nécessaire de définir le nombre de retards l (troncature de Newey-
West) estimé en fonction du nombre d’observations n, l  4 n / 100 
2/9
. Pour
effectuer le test, on compare la valeur de PP (Phillips-Perron Test Statistic) à celle
de CV (Test Critical Value). La règle de décision du test est identique à celle de la
procédure de Dickey-Fuller Augmenté.

Application 1. Tests de racine unité

On dispose pour le Sénégal et sur la période 1971 à 2007 de la série


macroéconomique PIB. Tester la stationnarité de la série log(pib) en utilisant la
méthode de Dickey-Fuller Augmenté.

Nous employons la stratégie séquentielle des tests de racine unité. Nous estimons,
en premier lieu, le modèle avec tendance et quand l’hypothèse nulle de ce
coefficient n’est pas exclue, nous estimons le modèle avec constante seulement.

Le test de Dickey-Fuller Augmenté conduit aux résultats suivants :

Augmented Dickey-Fuller Unit Root Test on log(PIB)

Null Hypothesis: LOG(PIB) has a unit root


Exogenous: Constant
Lag Length: 0
(Automatic based on SIC, MAXLAG=9)
t-Statistic Prob.*
Augmented Dickey-Fuller test statistic -2.081023 0.2530
Test critical values: 1% level -3.600987
5% level -2.935001
10% level -2.605836
*MacKinnon (1996) one-sided p-values.

La valeur de Prob (0,2530) est supérieure aux seuils statistiques conventionnels,


l’hypothèse nulle n’est pas rejetée. La variable Log(PIB) est non stationnaire. On
remarque aussi la statistique ADF (- 2,081023) est supérieure à CV pour tous les
seuils.

94
3. Variables intégrées d’ordre d

3.1 Opérateurs décalage et différence

3.1.1 Opérateur décalage

L’opérateur décalage L est défini par :

Li X t  X t  i ,  i  0

On a : L Xt  Xt  1 et L2 X t  X t  2
3.1.2 Opérateur différence

On a X t  X t  1  X t  LX t  (1  L) X t  X t

L’opérateur   1 L est appelé opérateur différence première.

L’opérateur 2  (1  L ) 2 est appelé opérateur différence seconde.

3.2 Notion d’intégration

3.2.1 Intégration

On appelle variable intégrée d’ordre d une variable X t telle que :

 Sa différence d-ième est stationnaire ;

 Après avoir été différencié d fois, elle possède une représentation


stationnaire.

Notation : X t  I (d ) qui signifie que la variable Xt est intégrée d’ordre d.

3.2.2 Quelques définitions

Définition 1 : Une variable stationnaire est dite intégrée d’ordre 0

Xt  I (0)
Définition 2 : Une variable est intégrée d’ordre 1 si sa différence première est
stationnaire.
Xt I(1) si X t  I(0 )
95
Définition 3 : Une variable est intégrée d’ordre 2 si sa différence seconde est
stationnaire.

X t  I (2) si 2 X t  I(0 )
Remarque 2 : Dans la pratique, on a rarement un ordre d’intégration supérieur ou
égal à 3.

3.2.3 Exemple de processus non stationnaires

Une variable non stationnaire a une variance croissante dans le temps de sorte
qu’elle ne converge nullement vers une valeur d’équilibre, il faudrait pour cela la
différencier un certain nombre de fois selon son degré d’intégration.

Exemple 1 : Soit le processus ARIMA(0,1,0) : (1  L ) X t   t


ou encore
X t  X t 1  t
Ce processus est dit DS (Differency Stationnary) car on le stationnarise par le filtre
différence.

Ce processus est intégré d’ordre 1 car sa différence première est le processus bruit
blanc qui est stationnaire

Le processus ARIMA(0,1,0) porte le nom de modèle de marche aléatoire (Random


Walk Model). Il est très fréquemment utilisé pour analyser l’efficience des marchés
financiers.

Dans les processus de type DS, un choc à un instant donné se répercute à l’infini
sur les valeurs futures de la série ; l’effet du choc est donc permanent et va en
décroissant.

Soit le processus marche aléatoire avec dérive (random walk with drift) défini par :

Xt  2  Xt 1  t

où t est le processus bruit blanc normal

96
MARCAL
25

20

15

10

-5
25 50 75 100 125 150 175 200

FIGURE 2
Représentation graphique du processus : Xt  2  Xt 1  t

Nous pouvons remarquer que cette série est non stationnaire, on remarque qu’elle
a une tendance croissante.

La représentation graphique de cette série différenciée est :

-1

-2
25 50 75 100 125 150 175 200

D(MARCAL) MEAN

FIGURE 3
Graphique de la série différenciée

Cette série est bien stationnaire (on retrouve un processus de bruit blanc de
moyenne 2 et de variance 1).

Exemple 2: Le processus X t  a  bt   t est non stationnaire car sa

moyenne dépend du temps, on a E ( X t )  a  bt . Ce processus est dit TS (


Trend Stationnary), il représente une non stationnarité de type déterministe. Dans ce
type de modélisation, l’effet produit par un choc à un instant t est transitoire. Le
modèle étant déterministe, la chronique retrouve son mouvement de long terme qui
est ici la droite de tendance.
On peut stationnariser ce processus TS en retranchant, de la valeur de X t en t,

la valeur estimée â  b̂ t où â , b̂ sont les estimations des moindres carrés


ordinaires des paramètres a et b.
97
En résumé, pour stationnariser un processus TS, la bonne méthode est celle des
moindres carrés ; pour un processus DS il faut employer le filtre aux différences. Le
choix d’un processus DS ou TS comme structure de la chronique n’est donc pas
neutre.

Application 2 : Détermination de l’ordre d’intégration

Reprenons la série relative au PIB du Sénégal sur la période 1971 à 2007.


Déterminons l’ordre d’intégration de la série log(PIB) en utilisant le test de Dickey-
Fuller Augmenté.

Corrigé :

Nous avons vu que la variable log(PIB) est non stationnaire. Elle est non intégrée
d’ordre 0. Le test ADF effectué sur la différence première de log(pib) conduit aux
résultats suivants :

Augmented Dickey-Fuller Unit Root Test on d(log(PIB))

Null Hypothesis: d(log(PIB)) has a unit root


Exogenous: Constant
Lag Length: 0 (Automatic based on SIC,
MAXLAG=9)
t-Statistic Prob.*
Augmented Dickey-Fuller test statistic -5.383965 0.0001
Test critical values: 1% level -3.605593
5% level -2.936942
10% level -2.606857
*MacKinnon (1996) one-sided p-values.

La valeur de la probabilité critique est nulle, l’hypothèse nulle est rejetée pour tous les
seuils statistiques conventionnels. La variable Log(PIB) est stationnaire en différence
première, elle est donc intégrée d’ordre 1. On remarque aussi la valeur de
ADF (- 5,383965) est inférieure à CV pour tous les seuils.

3.2.4 Propositions

Proposition 1 : La somme d’une variable I(0) et d’une variable I(1) est I(1)

Proposition 2 : Si X t  I (d ) alors aX t  b  I (d ) avec a et b non nuls

Proposition 3 : Toute combinaison linéaire de variables I(0) est I(0).

Proposition 4 : Toute combinaison linéaire de variables I(d) est généralement I(d)


mais peut être d’un ordre d’intégration plus faible.

Proposition 5 : Toute combinaison linéaire de variables d’ordres d’intégration


différents est généralement intégrée à l’ordre le plus élevé.

98
4. Cointégration et modèle à correction d’erreur

L’analyse de la cointégration, présentée par Granger (1983) et Engle et Granger


(1987), est considérée par beaucoup d’économistes comme un des concepts
nouveaux les plus importants dans le domaine de l’économétrie et de l’analyse des
séries temporelles.

L’idée qu’une relation d’équilibre de long terme puisse être définie entre variables
pourtant individuellement non stationnaires est à la base de la théorie de la
cointégration. La théorie de la cointégration permet d’étudier des séries non
stationnaires mais dont une combinaison linéaire est stationnaire. Elle permet ainsi
de spécifier des relations stables à long terme tout en analysant conjointement la
dynamique de court terme des variables considérées.

4.1 Le problème des régressions fallacieuses

La théorie de la cointégration a été introduite par Granger (1981) afin d’étudier des
séries temporelles non stationnaires. Ainsi si on applique les méthodes habituelles de
l’économétrie à des séries non stationnaires, plusieurs problèmes se posent dont le
célèbre problème des régressions fallacieuses (spurious regressions) mis en avant
par Granger et Newbold (1974).

De façon heuristique, considérons deux séries temporelles Xt et Yt intégrées d’ordre

1 et sans lien entre elles. Si on effectue la régression Yt    X t   t , on


devrait avoir   0 .

Granger et Newbold (1974) montrent que  est significativement différent de zéro,


signifiant que X t est une variable explicative de Yt , ce qui n’a aucun sens
puisque, par hypothèse, les deux séries sont indépendantes.
La non stationnarité a ainsi pour conséquence que les procédures d’inférence
classique ne sont plus valables.
Afin d’illustrer cette question fondamentale donnons un exemple de régression
fallacieuse4.

Exemple : la régression de la population d’Afrique du Sud (POP) sur les dépenses


de recherche-développement aux Etats Unis, en données annuelles 1971-1990 donne
les résultats suivants :

POPt  21698 ,7  111,58 RD t


( 59 , 44 ) ( 26 , 40 )

R2  0, 974 et DW  0,30
où les chiffres entre parenthèses figurant sous les valeurs estimées sont les t de
Student associés aux coefficients.

4
Le lecteur intéressé par d’autres exemples de régression fallacieuses peut
consulter le site internet de J.Gonzalo, Université Carlos III, Madrid.
99
Les dépenses de R&D aux Etats Unis ont un impact sur la population d’Afrique du
Sud, ce qui n’a aucun sens. Cet exemple illustre une régression fallacieuse, c’est à
dire dénuée de sens. Cela provient de la non stationnarité des différentes séries
entrant en jeu dans les régressions.

On note deux caractéristiques symptomatiques d’une régression fallacieuse : d’une


part le coefficient de détermination est très élevé (supérieur à 0,90 dans notre
exemple) et d’autre part, la valeur de la statistique de Durbin-Watson est faible.

4.2 Définition de la cointégration

Si Xt et Yt sont deux séries I (d ) , alors en général la combinaison linéaire


Zt :

Z t  Yt   X t
est aussi I (d ) .

Cependant, il est possible que Zt ne soit pas I (d ) mais I (d  b) où b est un

entier positif ( 0  b  d ) . En d’autres termes, la variable Z t est intégrée d’un


ordre inférieur à l’ordre d’intégration des deux variables considérées. Dans ce cas,
Xt et Yt sont dites cointégrées, ce que l’on note :

 X t ,Yt   CI d , b
 est le paramètre de cointégration et le vecteur 1,   est le vecteur de
cointégration.

Le cas le plus étudié correspond à d  b  1 . Ainsi, deux séries non stationnaires


(I (1)) sont cointégrées s’il existe une combinaison linéaire (I ( 0 )) de ces séries.
Sauf indication contraire, c’est à ce dernier phénomène que nous référons en
employant le terme cointégration.

L’idée sous-jacente est la suivante. A court terme, Xt et Yt peuvent avoir une


évolution divergente (elles sont toutes les deux non stationnaires), mais elles vont
évoluer ensemble à long terme. Il existe donc une relation stable à long terme
entre Xt et Yt .

Cette relation est appelée relation de cointégration ou encore relation de long terme.
Elle est donnée par Yt   X t soit (Z t  0) . A long terme, les mouvements

similaires de Xt et Yt ont tendance à se compenser de sorte à obtenir une série

stationnaire. Zt
mesure l’ampleur du déséquilibre entre Xt et Yt et est appelée
erreur d’équilibre.

100
La théorie de la cointégration est souvent utilisée en macroéconomie pour tester
diverses hypothèses de parité du pouvoir d’achat, pour étudier la relation entre
consommation et revenu, pour formuler des modèles de demande de monnaie, pour
examiner des relations entre taux de change de divers pays, pour étudier les
liens entre taux d’intérêt à court et long termes ou les relations entre les indices de
bourses internationales, etc.

Remarque 3 : Cette définition de la cointégration pour deux variables se généralise à


un nombre quelconque de séries, mais le vecteur de cointégration n’est plus unique.

4.3 Tests de cointégration

La présence d’une relation d’équilibre entre des variables est testée formellement à
l’aide de procédures statistiques, dont les plus utilisées sont celles d’Engle et
Granger (1987) et de Johansen (1988, 1991). Les hypothèses nulles des 2 tests de
cointégration sont celles de la non cointégration. La méthode de Johansen est plus
efficace que la stratégie en deux étapes de Engle et Granger lorsque l’échantillon est
de petite taille et le nombre de variables élevé.

4.3.1 Test de Engle et Granger

Une condition nécessaire d’utilisation de ce test est que toutes les variables doivent
être du même ordre d’intégration. Ce test est appelé test en deux étapes.

Considérons une variable Y endogène et trois séries explicatives X1, X2 et X3 .


Nous voulons tester l’hypothèse de cointégration en supposant que les variables
log(Y), log(X1 ) , log(X2 ) et log(X 3 ) sont intégrées d’ordre 1.

La stratégie en deux étapes de Engle et Granger est la suivante :

Première étape : Estimation de la relation de long terme

On estime par la méthode des moindres carrés ordinaires la relation de long terme :

Log(Y t )   0   1 Log ( X 1t )   2 Log ( X 2 t )   3 Log ( X 3 t )   t


Le résidu e t issu de cette régression est :

e t  Log(Yt )  ˆ 0  ˆ 1Log(X1t )  ˆ 2 Log(X 2t )  ˆ 3Log(X 3t )

Seconde étape : Test de stationnarité sur les résidus du modèle de long terme
(relation statique)

Pour que la relation de cointégration soit acceptée, le résidu et doit être


stationnaire. La stationnarité du résidu est testée à l’aide des tests de racine unité.

101
Ce test de cointégration est basé sur des résidus estimés et non sur des vraies
valeurs observées. Afin d’interpréter les résultats, il convient d’utiliser les tables des
valeurs critiques de Engle et Yoo (1987) ou de Mc Kinnon (1991)

 Si la statistique ADF estimée est inférieure à la valeur tabulée au seuil alpha,


l’hypothèse nulle de non stationnarité est rejetée. Les résidus de la relation
statique sont stationnaires : les variables sont cointégrées.

 Si la statistique ADF estimée est supérieure ou égale à la valeur tabulée


au seuil alpha. Les résidus de la relation statique ne sont pas stationnaires :
les variables ne sont pas cointégrées.

Application 3 : Test de cointégration de Engle-Granger

Considérons les données relatives aux séries PIB et Importation du Sénégal. Les
données sont annuelles et s’étalent sur la période 1962 à 1995. Nous considérons
les séries exprimées en logarithme et notées respectivement LPIB et LIMP. Les
séries LPIB et LIMP sont intégrées d’ordre 1.

1) Représenter graphiquement les séries LPIB et LIMP.

2) Tester l’hypothèse de cointégration des variables LPIB et LIMP en utilisant la


méthode de Engle-Granger.

Corrigé :

La figure 4 indique que les deux séries semblent exhiber une tendance commune à
la hausse sur l’ensemble de la période. Ces deux séries sont non stationnaires et,
du fait de leur apparente évolution similaire, il est légitime de s’intéresser à l’étude de
la cointégration.

7.6

7.2

6.8

6.4

6.0

5.6
1965 1970 1975 1980 1985 1990 1995

LOG(IMPORT) LOG(PIB)

GRAPHIQUE 4
Evolution des variables pib et imp (en logarithme)

102
2) Le test de Engle-Granger effectué sur le logiciel Eviews7 donne les résultats
suivants :

Series: LIMPORT LPIB


Sample (adjusted): 1962 1995
Included observations: 34 after adjustments
Null hypothesis: Series are not cointegrated
Cointegrating equation deterministics: C
Automatic lags specification based on Schwarz criterion (maxlag=7)
Dependent tau-statistic Prob.* z-statistic Prob.*

LIMPORT -3.798129 0.0281 -19.10696 0.0294

LPIB -3.814065 0.0271 -18.58596 0.0343

*MacKinnon (1996) p-values.

Les 2 probabilités sont inférieures à 5% : les variables LPIB et LIMP sont


cointégrées.

4.3.2 Test de cointégration de Johansen

Le test de Johansen peut être utilisé dans tous les cas de figures c’est à dire si
les variables sont de même ordre d’intégration ou d’ordres d’intégration différents.
Johansen (1988) propose des estimateurs du maximum de vraisemblance pour tester la
cointégration des séries. Il effectue un test de rang de cointégration.

La règle de décision est la suivante :

 Si le rang de cointégration est égal à zéro, l’hypothèse nulle de non


cointégration n’est pas rejetée,

 Si le rang de cointégraton est supérieur ou égal à un, l’hypothèse nulle de non


cointégration est rejetée.

Application 4 : Test de cointégration de Johansen

Considérons les données relatives aux séries M2, PIB et IPC du Sénégal. Les
données sont annuelles et s’étalent sur la période 1971 à 2007. Nous considérons
les séries exprimées en logarithme et notées respectivement LM2, LPIB et LIPC.
Les séries LM2, LPIB et LIPC sont intégrées d’ordre 1.

1) Représenter graphiquement les séries LM2, LPIB et LIPC.

2) Tester l’hypothèse de cointégration des variables LM2, LPIB et LIPC en utilisant


la méthode de Johansen.

103
Corrigé :

La figure 5 indique que les trois séries semblent exhiber une tendance commune à
la hausse sur l’ensemble de la période. Ces trois séries sont non stationnaires et, du
fait de leur apparente évolution similaire, il est légitime de s’intéresser à l’étude de la
cointégration.

3
1975 1980 1985 1990 1995 2000 2005

LOG(M2) LOG(PIB ) LOG(IPC)

GRAPHIQUE 5
Evolution des variables m2, pib et ipc (en logarithme)

2) Le test de Johansen conduit aux résultats suivants :

Johansen cointegration test

Hypothesized : No. of CE(s) Eigenvalue Trace Statistic 5% CV Prob.**


None * 0.678640 70.88630 35.19275 0.0000
At most 1 * 0.501019 31.15450 20.26184 0.0011
At most 2 0.177118 6.822968 9.164546 0.1361

Trace test indicates 2 cointegrating eqn(s) at the 0.05 level


* denotes rejection of the hypothesis at the 0,05 level
** MacKinnon Haug-Michelis (1999) p-values

Le rang de cointégration est 2 : les variables LM2, LPIB et LIPC sont cointégrées.
Déterminons le rang de cointégration en comparant la statistique (Trace ) à CV
(Critical Value)

Comparaison de Trace Statistic et Critical Value Rang de cointégration


La valeur 70,8863 est supérieure à 35,19275 1
La valeur 31,15450 est supérieure à 20,26184 1
La valeur 6,822968 est inférieure à 9,164546 0
Rang = 1 + 1 + 0 = 2

104
4.4 Modèle à correction d’erreur

Le modèle à correction d’erreur présente une propriété remarquable qui a été


démontrée par Granger en 1983. Un ensemble de variables cointégrées peut être
mis sous forme d’un modèle à correction d’erreur dont toutes les variables sont
stationnaires et dont les coefficients peuvent être estimés par les méthodes de
l’économétrie classique sans risque de corrélations fortuites. Le résultat connu sous
le nom de théorème de représentation de Granger, valide de façon générale la
démarche du modèle à correction d’erreur pour une classe importante de variables.

Il existe deux versions du modèle à correction d’erreur : le modèle en une étape de


Hendry et le modèle en deux étapes de Engle et Granger.
Considérons l’exemple précédent de la variable endogène Y et des trois séries
explicatives X1 , X2 et X 3 . Nous supposons que les variables log(Y), log( X 1 ) ,
log(X 2 ) et log(X 3 ) sont cointégrées.

Modèle 1 : Modèle à la Hendry


Le modèle de Hendry est de la forme :

D(LY t )   0  1 D ( LX 1t )   2 D ( LX 2 t )   3 D ( LX 3t )   4 LY t  1
  5 LX 1 t  1   6 LX 2 t  1   7 LX 3 t  1  u t
avec

LY  Log (Y); LX 1  Log ( X 1 ); LX 2  Log ( X 2 ); LX 3  Log ( X 3 )

D est l’opérateur de différence première défini par :

D(X t )  X t  X t  1

Les coefficients 1,  2 et 3 représentent la dynamique de court terme et les


coefficients 5 ,  6 et  7 caractérisent l’équilibre de long terme.
Le coefficient 4 est le coefficient de correction d’erreur, il doit être inférieur à
l’unité et négatif. Le coefficient de correction d’erreur indique la vitesse d’ajustement
de la variable endogène Y pour retourner à l’équilibre de long terme suite à un
choc.

Le coefficient 0 représente la constante du modèle.

Les élasticités de court terme sont :  ,  et  .


1 2 3
  
Les élasticités de long terme sont :  5 ,  6 et  7 .
  
4 4 4
105
Modèle 2 : Modèle à la Engle-Granger

Pour le modèle de Engle et Granger, on procède en deux étapes.

Etape 1 : Estimation de la relation de long terme par la méthode des moindres


carrés ordinaires

LYt  aˆ 0  aˆ1 LX 1t  aˆ 2 LX 2t  aˆ 3 LX 3t  et

Etape 2 : Estimation de la relation du modèle dynamique (court terme) par la


méthode des moindres carrés ordinaires

D(LY t )  β 0  β 1 D (LX 1t )  β 2 D (LX 2 t )  β 3 D (LX 3 t )  β 4 e t  1  ε t

β 4 est le coefficient de correction d’erreur, il doit être significativement négatif.

4.5 Conclusion

L’intérêt de la théorie de la cointégration est qu’elle fournit une méthode d’analyse


des séries temporelles non stationnaires en évitant le problème des régressions
fallacieuses (spurious regressions) mis en évidence par Granger et Newbold (1974).
De plus, grâce aux modèles à correction d’erreur, la théorie de la cointégration
permet de modéliser simultanément les dynamiques de long terme et de court
terme des séries temporelles.

106
Partie 2 : Etude de cas sur le modèle à correction d’erreur et cointégration.

Fonction de demande de monnaie du Sénégal

Enoncé de l’étude de cas

On dispose pour le Sénégal et sur la période 1971 à 2007, des séries


macroéconomiques Masse monétaire (M2), Produit Intérieur Brut (PIB) et Indice des
prix à la consommation (IPC).

Nous disposons des données annuelles du tableau 1 de la page 20.

1) Déterminer le degré d’intégration des variables log(M2), log(PIB) et log(IPC)

a) en utilisant le test de stationnarité de Dickey-Fuller Augmenté

b) en utilisant le test de stationnarité de Phillips-Perron

2) Tester la cointégration des variables variables log(M2), log(PIB) et log(IPC) en


utilisant le test de Johansen.

3) On se propose d’estimer le modèle à correction d’erreur à la Hendry suivant


(estimation en une étape) :

D (Log(M2 t ))  0  1 D (Log(PIB t ))  2 D(Log(IPC t )


 3 Log(M2 t - 1)   4 Log(PIB t  1)  5Log(IPC t  1)  ut

D est l’opérateur de différence première défini par :

D  Xt   Xt  Xt  1

a) Estimer par la méthode des moindres carrés ordinaires les paramètres du


modèle à correction d’erreur (ECM) ;

b) Donner une interprétation économique du coefficient de correction d’erreur


β 3 ; Interpréter économiquement les élasticités de court et de long terme ;
c) Effectuer les tests de significativité des variables explicatives (Test de
Student) ;

d) Tester la significativité globale du modèle à correction d’erreur (Test de


Fisher)

e) Tester l’hypothèse de normalité des erreurs du modèle à correction d’erreur


(Test de Jarque-Bera) ;
f) Tester l’homocédasticité des erreurs du modèle à correction d’erreur ;
f.1 Test de White
f.2 Test ARCH
107
g) Tester l’autocorrélation des erreurs du modèle à correction d’erreur (Test de
Breusch-Godfrey) ;
h) Tester l’hypothèse de spécification du modèle à correction d’erreur (Test de
Ramsey) ;
i) Tester la stabilité des coefficients du modèle à correction d’erreur
i.1 Test de rupture de Chow
i.2 Tests Cusum de Brown, Durbin et Evans

4) Estimer les paramètres du modèle à correction d’erreur à la Engle-Granger


(estimation en deux étapes)

5) Prévoir la masse monétaire du Sénégal pour les années 2008 à 2012.

Tableau 1. Données du Sénégal

Année M2 PIB IPC


1971 38.0462 248.4000 22.28010
1972 42.8330 275.1000 23.64256
1973 52.2714 279.7000 26.30735
1974 77.2570 340.3000 30.67522
1975 86.1020 408.5000 40.37267
1976 143.2139 461.8000 40.83350
1977 130.9672 486.1000 45.44180
1978 158.8335 498.5000 47.00461
1979 161.1246 585.2000 51.55280
1980 177.6901 631.0000 56.04087
1981 216.9207 673.6000 59.36686
1982 262.3346 848.9000 69.66540
1983 272.9995 944.9000 77.78000
1984 287.1151 1021.200 86.93649
1985 300.1090 1158.500 98.29693
1986 333.5651 1303.300 104.3078
1987 332.8298 1382.300 100.0000
1988 334.4922 1483.300 98.17672
1989 368.9406 1475.900 98.61751
1990 351.1785 1525.300 98.93809
1991 371.6107 1535.680 97.19495
1992 384.9504 1578.700 97.19495
1993 336.5247 1521.900 96.47365
1994 463.6893 1864.900 127.4294
1995 499.5299 2146.400 137.7279
1996 559.9946 2349.600 141.5147
1997 580.3872 2509.300 143.7790
1998 630.1709 2716.500 145.4771
1999 714.0779 2893.081 146.6570
2000 790.4259 3114.000 147.7437
2001 905.1608 3342.700 152.1475
2002 974.1287 3467.096 155.7007
2003 1280.5926 3960.800 155.6488

108
2004 1445.8251 4198.510 156.4270
2005 1565.2525 4563.290 159.0941
2006 1745.2200 4802.886 162.3925
2007 1971.9900 5227.585 171.9045
2008 NA 5550.000 177.0000
2009 NA 5890.000 181.0000
2010 NA 6227.000 185.0000
2011 NA 6565.000 189.0000
2012 NA 6902.000 193.0000

La période 2008 à 2012 est utilisée à des fins de prévision.

Les variables M2 et PIB sont données en milliards de francs CFA.

Corrigé de l’étude de cas

1) Détermination du degré d’intégration des variables du modèle

Nous voulons déterminer l’ordre d’intégration des variables. Cette étape est
importante pour la suite. Nous utilisons différents tests de stationnarité : le test de
racine unitaire de Dickey-Fuller (ADF) et le test de Philips-Perron (PP). Nous voulons
savoir si les séries sont stationnaires (intégrées d’ordre 0) ou intégrées d’un ordre
supérieur ou égal à 1.

Nous employons la stratégie séquentielle des tests de racine unité. Nous estimons,
en premier lieu, le modèle avec tendance et quand l’hypothèse nulle de ce
coefficient n’est pas exclue, nous estimons le modèle avec constante seulement.

a) Test de stationnarité de Dickey Fuller Augmenté

H 0 : Racine Unitaire (Non stationnaire)


H 1 : Non Racine Unitaire (Stationnaire)

ADF : ADF Test Statistic ( Test de Dickey Fuller Augmenté)

CV : Critical Value (Valeur critique)

-- Si la valeur de ADF est supérieure ou égale à la valeur de CV (ou de


manière équivalente si Prob est supérieure ou égale au seuil alpha) alors on
accepte l’hypothèse H 0 : la série X est non stationnaire

-- Si la valeur de ADF est inférieure à la valeur de CV (ou de manière


équivalente si Prob est inférieure au seuil alpha) alors on accepte l’hypothèse
H 1 : la série X est stationnaire

109
a1) Test ADF sur les variables en niveau

Instruction EVIEWS

<Quick> <Series Statistics> <Unit Root Tests> Taper ensuite le nom de la série .
choisir Level ( le test est fait sur la variable en niveau)

Augmented Dickey-Fuller Unit Root Test on log(M2)


Null Hypothesis: LOG(M2) has a unit root
Exogenous: Constant, Linear Trend
Lag Length: 0 (Automatic based on SIC, MAXLAG=9)

t-Statistic Prob.*

Augmented Dickey-Fuller test statistic -2.067561 0.5462


Test critical values: 1% level -4.226815
5% level -3.536601
10% level -3.200320

*MacKinnon (1996) one-sided p-values.

La valeur de Prob (0,5462) est supérieure à 5% alors on ne rejette pas l’hypothèse


H 0 : Log(M2) est non stationnaire en niveau.

On remarque aussi que la statistique ADF (- 2,0677561) est supérieure à CV pour


tous les seuils. on ne rejette pas l’hypothèse H 0 : Log(M2) est non stationnaire en
niveau.

Augmented Dickey-Fuller Unit Root Test on log(PIB)


Null Hypothesis: LOG(PIB) has a unit root
Exogenous: Constant
Lag Length: 0 (Automatic based on SIC, MAXLAG=9)

t-Statistic Prob.*

Augmented Dickey-Fuller test statistic -2.577253 0.1056


Test critical values: 1% level -3.596616
5% level -2.933158
10% level -2.604867

*MacKinnon (1996) one-sided p-values.

La valeur de Prob (0,1056) est supérieure à 5%, l’hypothèse H 0 n’est pas rejetée.
Log(PIB) est non stationnaire en niveau.

On remarque aussi que la statistique ADF (- 2,577253) est supérieure à CV pour


tous les seuils. L’hypothèse H 0 n’est pas rejetée.

110
Augmented Dickey-Fuller Unit Root Test on log(IPC)
Null Hypothesis: LOG(IPC) has a unit root
Exogenous: Constant, Linear Trend
Lag Length: 1 (Automatic based on SIC, MAXLAG=9)

t-Statistic Prob.*

Augmented Dickey-Fuller test statistic -2.629096 0.2703


Test critical values: 1% level -4.205004
5% level -3.526609
10% level -3.194611

*MacKinnon (1996) one-sided p-values.

La valeur de Prob (0,2703) est supérieure à 5%, l’hypothèse H 0 n’est pas rejetée.
log(IPC) est non stationnaire en niveau.

On remarque aussi que la statistique ADF (- 2,629096) est supérieure à CV pour


tous les seuils. l’hypothèse H 0 n’est pas rejetée. Log(IPC) est non stationnaire en
niveau.

Les résultats obtenus pour les variables en niveau indiquent que les séries log(m2),
log(pib) et log(ipc) ne sont pas stationnaires au seuil de 5%. On effectue alors le
test de Dickey Fuller Augmenté sur les variables en différence première.

a2) Test ADF sur les variables en différence première

Instruction EVIEWS
<Quick> <Series Statistics> <Unit Root Tests> Taper ensuite le nom de la série .
Dans la fenêtre Unit Root :
choisir First Difference (le test est fait sur la variable en différence première)

Augmented Dickey-Fuller Unit Root Test on D(log(M2))


Null Hypothesis: D(LOG(M2)) has a unit root
Exogenous: Constant
Lag Length: 0 (Automatic based on SIC, MAXLAG=9)

t-Statistic Prob.*

Augmented Dickey-Fuller test statistic -6.923104 0.0000


Test critical values: 1% level -3.626784
5% level -2.945842
10% level -2.611531

*MacKinnon (1996) one-sided p-values.

Au niveau de 1%, D(log(M2)) est stationnaire car la probabilité est nulle. La série
log(M2) est intégrée d’ordre un.

On remarque aussi que la statistique ADF (- 6,923104) est inférieure à CV pour


tous les seuils. L’hypothèse H 0 est rejetée : Log(M2) est stationnaire en
différence première.

111
Augmented Dickey-Fuller Unit Root Test on D(log(PIB))
Null Hypothesis: D(LOG(PIB)) has a unit root
Exogenous: Constant, Linear Trend
Lag Length: 0 (Automatic based on SIC, MAXLAG=9)

t-Statistic Prob.*

Augmented Dickey-Fuller test statistic -5.659552 0.0002


Test critical values: 1% level -4.198503
5% level -3.523623
10% level -3.192902

*MacKinnon (1996) one-sided p-values.

Au niveau de 1%, D(log(PIB)) est stationnaire car la probabilité vaut 0,0002, soit
0,02 %. La série log(PIB) est intégrée d’ordre un.

On remarque aussi que la statistique ADF (- 5,659552) est inférieure à CV pour


tous les seuils. L’hypothèse H 0 est rejetée. Log(PIB) est stationnaire en
différence première.

Augmented Dickey-Fuller Unit Root Test on D(log(IPC))


Null Hypothesis: D(LOG(IPC)) has a unit root
Exogenous: Constant, Linear Trend
Lag Length: 0 (Automatic based on SIC, MAXLAG=9)

t-Statistic Prob.*

Augmented Dickey-Fuller test statistic -5.270588 0.0006


Test critical values: 1% level -4.205004
5% level -3.526609
10% level -3.194611

*MacKinnon (1996) one-sided p-values.

Au niveau de 1%, D(log(ipc)) est stationnaire car la probabilité vaut 0,0006, soit
0,06 %. La série log(ipc) est intégrée d’ordre un.

On remarque aussi que la statistique ADF (- 5,270588) est inférieure à CV pour


tous les seuils. L’hypothèse H 0 est rejetée : log(IPC) est stationnaire en différence
première.

112
b) Test de Phillips-Perron

b1) Test de Phillips-Perron sur les variables en niveau

Phillips-Perron Unit Root Test on log(m2)


Null Hypothesis: LOG(M2) has a unit root
Exogenous: Constant, Linear Trend
Bandwidth: 1 (Newey-West using Bartlett kernel)

Adj. t-Stat Prob.*

Phillips-Perron test statistic -2.010733 0.5765


Test critical values: 1% level -4.226815
5% level -3.536601
10% level -3.200320

*MacKinnon (1996) one-sided p-values.

La variable log(m2) n’est pas stationnaire car la probabilité critique (0,5765) est
supérieure à 5%. On remarque aussi que la statistique PP (- 2,010733) est
supérieure à CV pour tous les seuils. Log(M2) est non stationnaire.

Phillips-Perron Unit Root Test on log(pib)


Null Hypothesis: LOG(PIB) has a unit root
Exogenous: Constant
Bandwidth: 0 (Newey-West using Bartlett kernel)

Adj. t-Stat Prob.*

Phillips-Perron test statistic -2.577253 0.1056


Test critical values: 1% level -3.596616
5% level -2.933158
10% level -2.604867

*MacKinnon (1996) one-sided p-values.

La variable log(pib) n’est pas stationnaire car la probabilité critique (0,1056) est
supérieure à 5%. On remarque aussi que la statistique PP (- 2,577253) est
supérieure à CV pour tous les seuils. Log(M2) est non stationnaire.

Phillips-Perron Unit Root Test on log(ipc)


Null Hypothesis: LOG(IPC) has a unit root
Exogenous: Constant, Linear Trend
Bandwidth: 4 (Newey-West using Bartlett kernel)

Adj. t-Stat Prob.*

Phillips-Perron test statistic -2.097364 0.5319


Test critical values: 1% level -4.198503
5% level -3.523623
10% level -3.192902

*MacKinnon (1996) one-sided p-values.

113
La variable log(ipc) est non stationnaire car la probabilité critique (0,5319) est
supérieure à 5%. On remarque aussi que la statistique PP (- 2,097364) est
supérieure à CV pour tous les seuils. log(IPC) est non stationnaire en niveau.

b2) Test de Phillips-Perron sur les variables en différence première

Phillips-Perron Unit Root Test on D(log(m2))


Null Hypothesis: D(LOG(M2)) has a unit root
Exogenous: Constant
Bandwidth: 3 (Newey-West using Bartlett kernel)

Adj. t-Stat Prob.*

Phillips-Perron test statistic -6.847517 0.0000


Test critical values: 1% level -3.626784
5% level -2.945842
10% level -2.611531

*MacKinnon (1996) one-sided p-values.

Au niveau de 1%, D(log(M2)) est stationnaire car la probabilité est nulle. La série
log(M2) est intégrée d’ordre un. On remarque aussi que la statistique PP (-
6,847517) est inférieure à CV pour tous les seuils. L’hypothèse H 0 est rejetée :
log(M2) est stationnaire en différence première.

Phillips-Perron Unit Root Test on D(log(pib))


Null Hypothesis: D(LOG(PIB)) has a unit root
Exogenous: Constant, Linear Trend
Bandwidth: 0 (Newey-West using Bartlett kernel)

Adj. t-Stat Prob.*

Phillips-Perron test statistic -5.659552 0.0002


Test critical values: 1% level -4.198503
5% level -3.523623
10% level -3.192902

*MacKinnon (1996) one-sided p-values.

Au niveau de 1%, D(log(pib)) est stationnaire car la probabilité est nulle. La série
log(M2) est intégrée d’ordre un. On remarque aussi que la statistique PP (-
5,659552) est inférieure à CV pour tous les seuils. L’hypothèse H 0 est rejetée.
Log(PIB) est stationnaire en différence première.

114
Phillips-Perron Unit Root Test on D(log(IPC))
Null Hypothesis: D(LOG(IPC)) has a unit root
Exogenous: Constant, Linear Trend
Bandwidth: 2 (Newey-West using Bartlett kernel)

Adj. t-Stat Prob.*

Phillips-Perron test statistic -5.291242 0.0005


Test critical values: 1% level -4.205004
5% level -3.526609
10% level -3.194611

*MacKinnon (1996) one-sided p-values.

Residual variance (no correction) 0.003787


HAC corrected variance (Bartlett kernel) 0.003945

Au niveau de 1%, D(log(ipc)) est stationnaire car la probabilité est nulle. La série
log(ipc) est intégrée d’ordre un. On remarque aussi que la statistique PP(-
5,291242) est inférieure à CV pour tous les seuils. L’hypothèse H 0 est rejetée :
log(IPC) est stationnaire en différence première.

Les trois séries sont intégrées d’ordre 1. L’étape suivante consiste à examiner la
présence éventuelle de relations de cointégration qui existent à long terme entre les
variables.

2) Tests de cointégration de Johansen

H 0 : Les variables ne sont pas cointégrées


(le rang de cointégration est nul)

H 1 : Les variables sont cointégrées


(le rang de cointégration est supérieur ou égal à 1)

-- On ne rejette pas l’hypothèse de cointégration si Trace Statistic est supérieur à


Critical Value (ou de façon équivalente si la probabilité critique est inférieure au
seuil alpha du test )

-- On rejette l’hypothèse de cointégration si Trace Statistic est inférieur ou égal à


Critical Value (ou de façon équivalente si la probabilité critique est supérieure ou
égale au seuil alpha du test )

Sur le logiciel EVIEWS, on dispose de cinq options. Les variables sont cointégrées si
on ne rejette pas l’hypothèse de cointégration pour au moins une option.

La sixième option (Summary) résume les 5 options.

115
Instruction EVIEWS

<Quick> <Group Statistics> < Cointegration Test>

Saisir les noms des séries : log(m2) log(pib) log(ipc)

Dans la fenêtre Johansen Cointegration Test

Choisir l’option : No Deterministic trend in data et No Intercept or Trend in CE or Test


VAR

Choisir 1 pour décalage ( lag : 1 1 )

Sample (adjusted): 1973 2007


Included observations: 35 after adjustments
Trend assumption: No deterministic trend
Series: LOG(M2) LOG(PIB) LOG(IPC)
Lags interval (in first differences): 1 to 1
Unrestricted Cointegration Rank Test (Trace)

Hypothesized Trace 0.05


No. of CE(s) Eigenvalue Statistic Critical Value Prob.**

None * 0.669304 63.80015 24.27596 0.0000


At most 1 * 0.499035 25.07072 12.32090 0.0002
At most 2 0.024776 0.878070 4.129906 0.4031

Trace test indicates 2 cointegrating eqn(s) at the 0.05 level

Le rang de cointégration vaut 2. Les variables log(m2), log(pib) et log(ipc) sont


cointégrées.

Nous donnons les résultats obtenus avec l’option Summary

Johansen Cointegration Test Summary


Sample: 1970 2012
Included observations: 35
Series: LOG(M2) LOG(PIB) LOG(IPC)
Lags interval: 1 to 1

Data Trend: None None Linear Linear Quadratic


Test Type No Intercept Intercept Intercept Intercept Intercept
No Trend No Trend No Trend Trend Trend
Trace 2 2 1 1 1
Max-Eig 2 2 1 1 1

*Critical values based on MacKinnon-Haug-Michelis (1999)

L’hypothèse de cointégration est acceptée pour les 5 options

Les variables Log(M2), Log(PIB) et log(IPC) sont cointégrées au seuil de 5%.

116
3) Modèle à correction d’erreur

3.1 Modèle de Hendry : Estimation par les MCO en une seule étape

D (Log(M2 t ))  0  1 D (Log(PIB t ))  2 D(log(IPC t )


 3 Log(M2 t - 1)  4 Log(PIB t  1)  5Log(IPC t  1)  ut
Instruction EVIEWS

<Quick> <Estimate Equation >

Rentrer dans l’ordre : d(log(m2)) c d(log(pib)) d(log(ipc)) log(m2(-1)) log(pib(-1))


log(ipc(-1) )

Après l’estimation des paramètres par la méthode des MCO, on effectue le test de
corrélation des erreurs de Breusch-Gofrey.

Test de corrélation des erreurs de Breusch-Godfrey

H 0 : erreurs non corrélées


H 1 : erreurs corrélées

On ne rejette pas l’hypothèse de non corrélation des erreurs si la valeur de


Probability est supérieure à 5 %.

Instruction EVIEWS
<View> <Residual Tests> <Serial Correlation LM Test > Taper 1 dans la fenêtre
« Lag to include »

Breusch-Godfrey Serial Correlation LM Test:

F-statistic 16.72278 Prob. F(1,29) 0.0003


Obs*R-squared 13.16674 Prob. Chi-Square(1) 0.0003

Les erreurs du modèle à correction d’erreur sont corrélées car toutes les
probabilités sont inférieures à 5%.
Les erreurs sont corrélées, on utilise la méthode d’estimation de Cochrane Orcutt.

Instruction EVIEWS
<Quick> <Estimate Equation >

Rentrer dans l’ordre : d(log(m2)) c d(log(pib)) d(log(ipc)) log(m2(-1)) log(pib(-1))


log(ipc(-1) ) ar(1)

Les résultats de l’estimation du modèle à correction d’erreur par les moindres


carrés ordinaires sont donnés dans le tableau 2.

117
Tableau 2. Estimation des paramètres du modèle à correction d’erreur à la Hendry

Dependent Variable: D(LOG(M2))


Method: Least Squares
Sample (adjusted): 1973 2007
Included observations: 35 after adjustments
Convergence achieved after 13 iterations

Variable Coefficient Std. Error t-Statistic Prob.

C -0.209248 0.147776 -1.415984 0.1678


D(LOG(PIB)) 1.623545 0.315070 5.152967 0.0000
D(LOG(IPC)) -0.470552 0.276055 -1.704558 0.0994
LOG(M2(-1)) -0.134485 0.054562 -2.464815 0.0201
LOG(PIB(-1)) 0.371736 0.075620 4.915815 0.0000
LOG(IPC(-1)) -0.375793 0.072335 -5.195179 0.0000
AR(1) -0.590469 0.143334 -4.119520 0.0003

R-squared 0.695976 Mean dependent var 0.109414


Adjusted R-squared 0.630828 S.D. dependent var 0.124666
S.E. of regression 0.075747 Akaike info criterion -2.145989
Sum squared resid 0.160651 Schwarz criterion -1.834920
Log likelihood 44.55482 Hannan-Quinn criter. -2.038608
F-statistic 10.68299 Durbin-Watson stat 2.468552
Prob(F-statistic) 0.000004

b.1 Interprétation du coefficient de correction d’erreur

Le coefficient β3 (force de rappel vers l’équilibre) est le coefficient de correction


d’erreur. Il doit être négatif ; dans le cas contraire il convient de rejeter une
spécification du type ECM (Modèle à Correction d’Erreur). En effet, le mécanisme de
correction d’erreur (rattrapage qui permet de tendre vers la relation de long terme)
irait alors en sens contraire et s’éloignerait de la cible de long terme.

On constate que le coefficient associé à la force de rappel est négatif(  0,134 ) et


significativement différent de zéro au seuil statistique de 3% . Il existe donc bien un
mécanisme à correction d’erreur : à long terme les déséquilibres entre la masse
monétaire, le produit intérieur brut et l’indice des prix à la consommation se
compensent de sorte que les trois séries ont des évolutions similaires.

β3 représente la vitesse à laquelle tout déséquilibre entre les niveaux désiré et


effectif de la masse monétaire est résorbé dans l’année qui suit tout choc.

ˆ 3   0,134  on arrive à ajuster 13,4% du déséquilibre entre le niveau désiré


et effectif de la masse monétaire.

13,4% des effets d’un choc intervenu une année donnée est résorbé dans l’année
qui suit tout choc.

118
Ainsi, les chocs sur la masse monétaire au Sénégal se corrigent-ils à 13,4% % par
l’effet de « feed back ». En d’autres termes, un choc constaté au cours d’une année
est entièrement résorbé au bout de sept années et 6 mois ( 1/ 0,134 = 7,5 années)

b.2 Elasticités de court et de long terme

b.2.1 Elasticités de court terme

-- L’élasticité de court terme de la masse monétaire par rapport au PIB est


ˆ1  1,623

A court terme, si le PIB du Sénégal augmente de 10%, alors la masse monétaire


augmente de 16,3%.

-- L’élasticité de court terme de la masse monétaire par rapport à l’indice des


prix à la consommation est ˆ 2   0,47

A court terme, si l’indice des prix à la consommation augmente de 10%, alors la


masse monétaire diminue de 4,7%.

b.2.2 Elasticités de long terme

L’élasticité de long terme de la masse monétaire par rapport au PIB est :


ˆ 4 0,371
   2,769
ˆ 3  0,134

A long terme, si le PIB du Sénégal augmente de 10%, alors la masse monétaire


augmente de 27,69%.

-- L’élasticité de long terme de la masse monétaire par rapport à l’indice des


prix à la consommation est :

ˆ 5  0,375
    2,799
ˆ 3  0,134

A long terme, si l’indice des prix à la consommation augmente de 10%, alors la


masse monétaire diminue de 27,99%.

Pour les réponses des questions c) à i) relatives aux tests économétriques,


nous renvoyons le lecteur au corrigé de l’étude de cas 1 du chapitre 1.

119
4) Estimation du modèle à correction d’erreur en deux étapes

Etape 1 : estimation par les MCO de la relation de long terme

Log (M2 t )  â  b̂ Log (Pib t )  ĉ log( IPC t )  e t

Etape 2 : estimation par les MCO de la relation du modèle dynamique (court terme)

D (Log(M2 t ))  0  1 D (Log(PIB t ))  2 D(log(IPC t )


 3 e t - 1  u t

L’estimation des paramètres du modèle de Engle-Granger est donnée dans le


tableau 3.

Tableau 3. Estimation des paramètres du modèle à correction d’erreur à la Engle-


Granger

Dependent Variable: D(LOG(M2))


Method: Least Squares
Sample (adjusted): 1972 2007
Included observations: 36 after adjustments

Variable Coefficient Std. Error t-Statistic Prob.

C 0.008853 0.031491 0.281123 0.7804


D(LOG(PIB)) 1.278896 0.415099 3.080941 0.0042
D(LOG(IPC)) -0.154379 0.334914 -0.460953 0.6480
ERREURLT(-1) -0.219527 0.105539 -2.080048 0.0456

R-squared 0.339236 Mean dependent var 0.109667


Adjusted R-squared 0.277290 S.D. dependent var 0.122882
S.E. of regression 0.104465 Akaike info criterion -1.575497
Sum squared resid 0.349212 Schwarz criterion -1.399550
Log likelihood 32.35894 Hannan-Quinn criter. -1.514087
F-statistic 5.476271 Durbin-Watson stat 2.424805
Prob(F-statistic) 0.003746

Le coefficient associé à la force de rappel est négatif et significativement différent de


zéro au seuil de 5%. Il existe donc bien un mécanisme à correction d’erreur. Le
modèle à correction d’erreur est valable.

On peut effectuer tous les tests classiques sur ce modèle et ensuite l’utiliser à
des fins de prévisions.

120
5) Prévision du modèle à correction d’erreur sur la période 2002 à 2004
(Modèle à la Hendry)

a) Prévisions à un horizon de trois années

Année Masse monétaire


2008 2013,26
2009 2189,32
2010 2367,38
2011 2548,95
2012 2732,36

b) Critères de prévision

MAPE = 8,54% THEIL = 0,03

Le modèle ECM peut être utilisé à des fins de prévision

Ceci est confirmé par l’examen des graphiques ci-dessous.

c) Comparaison sur la période 1962 à 2004 des séries réelle et ajustée

INV : Série observée

INVP¨REV : Série prévue


2,800

2,400

2,000

1,600

1,200

800

400

0
70 75 80 85 90 95 00 05 10

M2 M2F

121
d) Simulation du modèle

.6

.4

.2

.0
.3
-.2
.2

.1

.0

-.1

-.2
1975 1980 1985 1990 1995 2000 2005

Residual Actual Fitted

122
Bibliographie

Bourbonnais R, (2007) « Econométrie : cours et exercices corrigés », Dunod.

Bresson G, Pirotte A, (1985) « Econométrie des séries temporelles : théories et


applications», PUF.

Doucouré F. B, (2013) « Introduction à l’économétrie : Cours et exercices corrigés »,


Editions ARIMA.

Doucouré F. B, (2013) « Méthodes économétriques : Cours, Exercices corrigés et


Travaux Pratiques », Editions ARIMA.

Doucouré F. B, (2013) « Statistiques et probabilités pour l’économie et la gestion:


Cours et exercices corrigés », Editions ARIMA.

Tome 1 : Statistique descriptive et calcul des probabilités.

Tome 2 : Estimation et tests paramétriques et non paramétriques.

Greene W. H, (1997) « Econometric Analysis », Londres, Prentice Hall.

Guerrien B, (1991) « Algèbre linéaire pour économistes », Economica.

Hamilton J, (1994) « Time series analysis », Princeton University Press.

Pyndick R S, Rubinfeld D L, (1991) « Econometric Models and Econometric


Forecasts », McGraw Hill.

123
124

Das könnte Ihnen auch gefallen