Beruflich Dokumente
Kultur Dokumente
La dfinition du terme economtrie a evolu depuis lmergence de cette discipline dans les annes
1930. A lorigine, elle reprsentait une voie de formalisation de lconomie par lusage de
mathmatiques, probabilits et statistiques. La formalisation prsente des avantages et des
inconvnients : elle permet dtablir des arguments prcis et rapidement comprhensibles grace
une absence dambigut. En revanche, elle fait aussi apparatre le domaine plus abstrait et accrot
les barrires lentre pour les nophytes. Par ailleurs, elle peut entraner la thorie dans des
directions o`u des thormes peuvent tre tablis, et ainsi viter des problmes conomiques
importants mais dont la formalisation se rvle plus ardue.
Dans les annes 1960, la dfinition traditionnelle de lconomtrie sest rvle dsuette car la
plupart des domaines de lconomie avaient et gagnes par lapproche economtrique, bien que
subsistent des dbats sur le dgr de formalisation de lanalyse. Une rdfinition du terme
sensuivit, et le nouveau sens est plus proche de lutilisation du suxe mtrie rencontr dans
dautres sciences, comme la biomtrie.
Lconomtrie applique utilise, quant elle, les dvloppements thoriques pour analyser des cas
concrets afin dobtenir des recommandations politiques, de tester la thorie conomique ou de
suggrer de nouvelles manires damliorer cette dernire. Au vu de la rapidit des
dveloppements, il est essentiel pour toute personne qui sintresse aux tudes conomiques de
pouvoir en comprendre les forces et faiblesses car des mthodes economtriques appliques
mauvais escient entranent souvent des rsultats sans fondements.
Au cours de la dernire dcennie, divers conomtres ont recu le prix Nobel dconomie :
La thorie probabiliste est construite autour de la notion densemble. Les principales dfinitions
concernent les evnements possible et leur probabilit.
Intersection. A B, ex. A B = .
c c
La thorie probabiliste est construite autour des dveloppements de la thorie des ensembles. En
particulier, on appelle espace probabilisable le couple (, F) o`u F est une tribu (sigma algbre)
associe , il sagit de lensemble des combinaisons dvnements possibles 1. Pour un espace
dchantillonnage , une fonction de probabilit Pr est une fonction dfinie sur une tribu associe
1. Pr () 0 pour tous F.
1. Pr () = 1.
Pr Ai = Pr (Ai) .
i=1 i=1
1
Une collection de sousensembles de S est appele tribu F si elle satisfait trois conditions :
1. F
1. Si A F alors Ac F
1. Si A1, A2, ... F alors i=1Ai F
i.e. lensemble vide est un membre de la tribu, le complmentaire de tout membre est un membre,
toute union de membres de la tribu appartient la tribu.
La tribu reprsente tous les sousensembles de et fournit ainsi la base sur laquelle les
evnements valides peuvent tre dfinis.
Si les evnements sont disjoints (pas de superposition) alors la probabilit quun dentre eux (et
un seul) arrive est la somme des probabilits que chacun survienne. Par exemple pour deux
evnements disjoints {A1,A2} , alors
Exemple 1 Divisons en deux evnements {A, Ac} . Alors = {A} {Ac} et ces evnements sont
ncessairement disjoints. Par consquent
donc
Pr (A) 1.
Pr () = 0.
Pr (A B) = Pr (A) + Pr (B) Pr (A B) .
Ainsi la probabilit quau moins un de A ou de B se produise est la probabilit quA arrive plus celle
de B moins la probabilit que les deux se produisent.
1.2.2 Indpendance
Pr (A B) = Pr (A) Pr (B) .
Noter que deux evnements ne peuvent tre indpendants sils sont disjoints, car alors Pr (A B)
= 0. On note parfois lindpendance entre deux evnements :
A B.
Exemple 3 Soit A le rendement (gomtrique) dun actif sur un jour donn et B son rendement
pour le jour suivant. Beaucoup de modles en conomie financire font lhypothse dindpendance
de A et de B. Ceci est pourtant rejet empiriquement car si A et B sont typiquement presque
noncorrls, il ne sont pas indpendants. Une forte volatilit tendance suivre une forte
volatilit.
Exemple 4 Par dfinition si on jette un d deux fois successives, le rsultat du premier jet
ninfluence pas celui du second, et ainsi les deux rsultats sont indpendants.
Il est parfois souhaitable de changer despace dchantillonnage, dunivers pour calculer les
probabilits. On peu soit redfinir chque fois, par exemple en calculant sparment avec un
pour les employs masculins de plus de 45 ans et un pour les employes fminines de moins de 21
ans... Afin dviter toute confusion, on utiliser le concept de probabilit conditionnelle, qui vise le
mme but, mais conserve constant. Si on conditionne sur B, les axiomes de probabilit
demeurent les mmes :
Pr ( A| B) 0
Pr ( B| B) = 1
Pr [
i=1 Ai| B = X
i=1 Pr ( Ai| B)
Pr (salaire|employe)
Pr (salaire|f emme)
Remarquer que les evnements sont indpendants au sein de . Il sagit de dfinir au pralable
et toutes les propositions en dpendent.
Il est souvent plus utile de dfinir la probabilit conditionnelle laide de la distribution conjointe :
si nous connaissons la distribution conjointe des salaires et de lemploi il serait agrable de pouvoir
dduire de manire automatique des informations concernant la probabilit conditionnelle des
salaires, connaissant le statut demploi. On procde de la manire suivante.
Soit un univers comportant deux ralisations A et B. On peut sintresser soit Pr (A) , soit Pr
(B) , soit encore Pr (A B) . Enfin on peut aussi sintresser Pr (A|B) pourvu que Pr (B) > 0
(i.e. que B ait une chance de se raliser). Il sagit ainsi de contraindre notre monde de sorte que B
se ralise et de se demander ce qui se passe alors pour A. Ceci ne peut arriver que si A et B
peuvent arriver coinjointement, on dfinit alors :
Pr (A|B) = Pr (A B)
.
Pr (B)
Il est facile de constater que cette dfinition satisfait aux axiomes de probabilit. La probabilit
conditionnelle est un concept vital en economtrie. On peut alors sintresser la probabilit
conditionnelle coinjointe de deux evnements :
Pr (A B|C) .
Exemple 6 Supposons que A soit la richesse accumule au cours de la vie ; B le fait dtudier HEC
; C les capacits, lducation, la formation. Lindpendance entre A et B sachant C revient dire
que le label HEC napporterait aucune valeur pour aucun individu, ce qui est une dclaration plus
forte quune absence de valeur ajoute en moyenne.
Pr (B) Pr (A|B) = Pr (A B) ,
et
Pr (A) Pr (B|A) = Pr (A B) ,
Pr (A) Pr (A)
Celuici revient dire que pour passer de Pr (A|B) Pr (B|A) , il sut de multiplier par le ratio Pr
(B) / Pr (A) .
Nous avons pour linstant utils pour reprsenter chacun des evnements associs au triplet (,
F, Pr) , i.e. F est gnr partir de , F, et Pr est la fonction qui associe une probabilit.
Ces evnements ne sont pas ncessairement numriques. En particulier pour diverses applications
on peut choisir de sintresser de mulitples facettes dun mme evnement et ainsi utiliser des
fonctions numriques de cet evnement. Si on choisit une fonction X () qui mne une valeur
numrique (potentiellement un vecteur ou une matrice), on appelle X variable alatoire. Les
distributions sont des familles spcifiques de variables alatoires.
Exemple 7 Soit lunivers des nouveauns en France en 2005. Pour chaque i individuel, i.e.
chaque naissance, on peut choisir de sintresser des fonctions diverses : la taille, le poids du
nouveaun, la dure de la grossesse, qui sont des fonctions relles ; le nombre de frres et soeurs
de lenfant, qui est une fonction entire ; ou une fonction indicatrice qui prend la valeur 1 si lenfant
a des cheveux et 0 sinon.
Distribution de Bernoulli. Une personne est employe un non ; on note employ = E, sans
emploi = U. Soit X ( = E) = 1 et X ( = U) = 0 la variable indicatrice qui renvoie 1 si un
individu possde un emploi et 0 sinon. On note Pr (X = 1) = p et Pr (X = 0) = 1 p. La distribution
de Bernoulli joue un rle important en microconomtrie quand des variables prennent les valeurs
0 et 1.
X
i
Alors
n!
y!
Pr (Y = y) = (n y)! py (1 p)ny , y = 0, 1, ..., n.
dfinie par
FX : R(ou N) [0, 1]
: x Pr (X x) .
o`u X est ici evalue sur , i.e. pour lensemble des evnements. La densit de X est (pour les
variables alatoires continues)
F
x
X
.
Z x
x
x
FX (x) 1, FX (x) 0,
fX (x) 0.
Les quantiles dune distribution sont fournies par la fonction inverse de F X . Ainsi si on souhaite
savoir quelle est la valeur x telle que pour une proportion p de la population X prend une valeur
infrieure ou gale x, p = FX (x) et donc
x = FX1 (p)
est appele fonction quantile de X. On appelle mdiane le quantile 0,5 (50% de la population de
parts et dautres de cette valeur).
Exemple 8 Les quantiles sont des mesures essentielles de lingalit. Ainsi des politiques
conomiques peuvent par exemple cibler les 10% de la population ayant les revenus les plus
faibles.
FX = 1 exp (x/) ,
et sa fonction quantile
La distribution Normale ou Gaussienne est la plus couramment utilise. Elle apparat naturellement
lorsque on sintresse la distribution de la moyenne et prsente des proprits pratiques de
translation. Sa forme ne parat malheureusement pas immdiatement attractive : sa densit est
Les distributions tant des familles de variable alatoire, on constate ici que chaque X Gaussienne
est paramtre par sa moyenne et sa variance 2, ce quon note
X N , 2 .
log fX (x) = c 1
2 2 (x )2 .
La logdensit est quadratique en x, la constante c est determine de sorte que
Z
+
Pr () = 1 = fX (x) dx.
La densit Normale a R comme support est centre autour de , contrle sa dispersion. Une
proprit importante de la distributon Normale est que si X N (, 2) alors
+ X N + , 22 ,
i.e. les transformations anes dune Normale sont Normales. Ceci entrane quon puisse crire
toute distribution Gaussienne comme loi
X = + N,
o`u N suit une Normale standard N N (0, 1) . Ainsi si X et Y suivent deux Normales
indpendantes
1. + Y N X + Y , 2X + 2Y .
Khideux
iid
Supposons que Xi N (0, 1), (souvent crit NID(0, 1) ou IN(0, 1) , ce qui signifie que les X i sont
des copies indpendantes et identiquement Normalement distribues),alors
vX
Y= Xi2 2 ,
i=1
une distribution khideux avec degrs de libert. Lesprance et la variance dune distribution
2 sont respectivement et 2.
Uniforme
On contraint parfois les variables sur de petits intervalles. Lexemple le plus simple est la
distribution uniforme standard
fX (x) = 1, x [0, 1] .
Cette variable na que le segment [0, 1] comme support. Cette distribution est souvent utilise
dans les modles styliss afin dintroduire une ide ou un concept. Elle est aussi utilise en
simulation. Une Uniforme plus gnrale se dfinit comme
fX (x) = 1 , x [a, b] .
ba
Poisson
Les modles de comptage sont souvent utiliss en conomie, par exemple le nombre de brevets
dposs en un intervalle de temps, le nombre dchanges sur un march... La distribution la plus
courante est celle de Poisson :
e x
fX (x) , x = 0, 1,
= x! 2, ...
Student
Z t = p
X/
suit une distribution dite de Student avec degrs de libert. Celleci a la mme forme quune
distribution Normale, mais avec des bords plus pais. Quand augmente, t se comporte de plus
en plus comme une Normale, entre = 30 et 100 une Normale standard est une bonne
approximation, au del de 100 on ne peut les distinguer.
Fischer
Si X1 et X2 sont deux distributions khideux indpendantes avec pour degrs de libert 1 et 2, alors
le ratio
X1/1 F
1,2 =
X2/2
suit une loi de Fischer avec 1 et 2 degrs de libert. Quand 2 est nettement plus grand que 1,
comme est courant en economtrie, X2/2 tend vers 1 et F1,2 se comporte comme un 21 divis
par 1.
Figure 1.1 Graphiques des densits des distributions Standard Normale, Normales, de Student et
Khideux.
X2 (x2)
f
Tous les rsultats prcdents sont aussi valables lorsquon sintresse au vecteur multivari de
dimension p :
X = (X1, ..., Xp)0 .
Les elments de ce vecteur ne sont pas ncessairement indpendants, ils peuvent par exemple
reprsenter une srie chronologique ou un panel dobservations conomiques. En particulier, si p =
2 de sorte que
X =
X
1 X2
alors
FX (x1, x2) = Pr (X1 x1, X2 x2) qui, dans le cas continu scrit
Z
x1 Z
x2
Et de manire similaire
Dans le cas gnral en intgrant par rapport une variable sur son support, on obtient la densit
marginale de la seconde :
Z
+
F
X1|X2=x2 (x1) = Pr (X1 x
1|X2 = x
2)
qui possde toutes les proprits dune densit, en particulier on peut montrer que
fX1|X2=x2 (x1) = .
fX (x1, x2)
1.3.5 Moments
Soit X une variable alatoire, on dfinit de manire gnrale les moments de X comme lintgrale
(lorsquelle existe)
avec des cas spcifiques de fonction et est un oprateur linaire : pour polynmiales g () . E []
est appel esprance a et b constantes
E [a + bg (X)] = a + bE [g (X)] .
Esprance mathmatique
Le cas le plus simple desprance est la moyenne ou moment de premier ordre dfinie par
Variance
Dans le cas dune variable univarie, la variance est dfinie comme second moment de la variable
centre X E [X] :
V [X] = E (X E [X])
= (x E [X])2 fX (x) dx
= E X2 (E [X])2 .
X
2 2 " 22 #
sont et 2 respectivement.
Exercice 3 Quelles sont les esprance et variance dune distribution uniforme standard ?
Covariance
ZZ
= E [XY ] E [X] E [Y ] .
Exercice 4 Prouver que Cov [a + bX, c + dY ] = bdCov [X, Y ] , i.e. que la covariance est invariante
par translation.
Matrice de Covariance
Cette matrice est symtrique, i.e. Cov [X] = Cov [X]0, et dfinie, i.e. pour tous vecteurs u : uCov
[X] u0 0. La matrice de covariance de X = (X1, ..., Xn)0 scrit
Cov ,
Cov [X2, X1 ] V [X2] [X2 Xn]
Cov ,
V [X1]Cov [X1, X2 ] [X1 X n]
Cov [X]
= . .. . ..
.
. . . ..
Cov [Xn,
X1 ] Cov [Xn, X2] V [Xn]
E [a + BX] = a + BE [X]
La matrice de corrlation est dfinie de manire similaire avec des 1 sur la diagonale principale et
les corrlations de parts et dautres.
La variable alatoire X de dimension n est dite suivre une distribution Normale multivarie
desprance et de matrice de covariance (symtrique et positive dfinie, i.e. pour tous z 6= 0,
zz0> 0) si
fX (x) = |2|1/2 exp 2 (x ) 1 (x )0 , n.
x R
1. = a + BX N (a + B, BB0) .
1.3.6 Estimateurs
Une statistique S (X) est une fonction dune variable alatoire (vectorielle) X. Quand on utilise cette
statistique pour apprendre des proprits du modle probabiliste, on dit quon estime le modle. La
version alatoire de cette fonction S (X) est appele estimateur, dans le cas dun vecteur observ
1 n
X
i
S (X) = n Xi.
Si les Xi sont NID(, 2) , alors en utilisant le fait que S (X) est une combinaison linaire de
Normales :
S (X) N , n .
Si n est trs grand, lestimateur a une variance qui tend vers zro et donc sa distribution tend vers
une constante, lesprance commune tous les Xi.
Biais
On suppose quon ait dfini un estimateur afin destimer une certaine quantit . On peut souhaiter
que S (X) soit en moyenne proche de . Une manire de voir ceci est de sintresser au biais
destimation E [S (X) ] .
1 n
Xi
X= n Xi
Quand le biais est nul on parle destimateur non biais. Les estimateurs nonbiaiss peuvent tre
trs imprcis car ils peuvent prsenter une trs forte dispersion. Une manire dvaluer leur
imprcision est via le critre de moyenne derreur quadratique (Mean Square Error, ou MSE) :
23
G. Chevillon, Economtrie
Montrer que le minimum de MSE est atteint pour k = 1 tandis que lestimateur est nonbiais pour
k = 1. Pour ce faire remarquer que
1.4.1 Motivations
Xn = 3 + n 3 quand n .
Y Xn =3+
n
quand Y est une variable alatoire ? Il existe diverses mesures de convergences, certaines
ncessitant lexistence de moments, dautres non.
La thorie des distributions peut se rvler trs complique et parfois inextricable. Par consquent,
nous sommes souvent obligs dutiliser des approximations. Parmi les nombreuses mthodes, celle
qui domine consiste rechercher lerreur faite par une approximation consistant supposer quon
possde un grand chantillon et quon est proche des distributions asymptotiques pour la taille de
lchantillon. Cette ide est particulirement attractive si on estime un paramtre et quon souhaite
augmenter la prcision avec le nombre dobservations. Deux rsultats principaux sont utiliss dans
la littrature arente : la loi des grands nombres et le thorme limite central. Ces
approximations sont des exemples de concepts plus gnraux de convergence en probabilit et
de convergence en distribution.
Formellement, nous observons une suite de variables alatoires X1, ..., Xn telles que, lorsque n
crot, Xn se comporte comme une autre variable alatoire ou une constante X.
1.2.2 Indpendance . . . . . . . . . . . . . . . . . . . . . . . . 11
1.3.5 Moments . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.3.6 Estimateurs . . . . . . . . . . . . . . . . . . . . . . . . . 22
1.4.1 Motivations . . . . . . . . . . . . . . . . . . . . . . . . . 24
1.4.2 Dfinitions . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2 Infrence 31
2.1 Motivations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3 Rgression 41
3.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
3.2 Rgression . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
4 Sries temporelles 57
4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
4.2.2 Stationnarit . . . . . . . . . . . . . . . . . . . . . . . . 66
4.2.3 Ergodicit . . . . . . . . . . . . . . . . . . . . . . . . . . 67
5.3 Lissages . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
6.1.1 Concepts . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
6.3.4 Estimation . . . . . . . . . . . . . . . . . . . . . . . . . . 93
6.3.5 Diagnostic . . . . . . . . . . . . . . . . . . . . . . . . . . 93