Beruflich Dokumente
Kultur Dokumente
∑𝒕=𝒏(𝒙𝒕 −𝒙
̅)𝒚𝒕
̂𝟎 = 𝒚
Les estimateurs 𝒂 ̅− 𝒂
̂𝟏 𝒙 ̂ 𝟏 = ∑𝒕=𝟏
̅ 𝑒𝑡 𝒂 𝒕=𝒏(𝒙 −𝒙 sont exprimés
𝒕=𝟏 𝒕 ̅)𝒙𝒕
sous forme de fonctions linéaires des 𝑦𝑡 , qui sont des variables aléatoires
normalement distribuées.
Donc, ces estimateurs sont eux aussi des variables aléatoires qui suivent des
lois normales, dont les espérances et les variances sont données comme suit :
∑𝑡=𝑛
𝑡=1 (𝑥𝑡 − 𝑥̅ )𝑦𝑡
𝐸(𝑎̂1 ) = 𝐸 ( 𝑡=𝑛 )
∑𝑡=1 (𝑥𝑡 − 𝑥̅ )2
∑𝑡=𝑛
𝑡=1 (𝑥𝑡 − 𝑥̅ )𝐸(𝑦𝑡 )
=
∑𝑡=𝑛
𝑡=1 (𝑥𝑡 − 𝑥̅ )
2
∑𝑡=𝑛
𝑡=1 (𝑥𝑡 − 𝑥̅ )(𝑎0 + 𝑎1 𝑥𝑡 )
=
∑𝑡=𝑛
𝑡=1 (𝑥𝑡 − 𝑥̅ )
2
𝑎0 ∑𝑡=𝑛 𝑡=𝑛
𝑡=1 (𝑥𝑡 − 𝑥̅ ) + 𝑎1 ∑𝑡=1 (𝑥𝑡 − 𝑥̅ ) 𝑥𝑡
=
∑𝑡=𝑛
𝑡=1 (𝑥𝑡 − 𝑥̅ )
2
0 + 𝑎1 ∑𝑡=𝑛
𝑡=1 (𝑥𝑡 − 𝑥̅ )
2
=
∑𝑡=𝑛
𝑡=1 (𝑥𝑡 − 𝑥̅ )
2
= 𝑎1
1
̂𝟎 ) = 𝑬(𝒚
𝑬(𝒂 ̅− 𝒂 ̅) = 𝑬(𝒚
̂𝟏 𝒙 ̅) − 𝒙 ̂𝟏 ) = 𝑬(𝒚
̅ 𝑬( 𝒂 ̅ ) − 𝒂𝟏 𝒙
̅
𝒕=𝒏
∑𝒕=𝒏
𝒕=𝟏 𝒚𝒕 𝟏
= 𝑬( ̅ = ∑(𝒂𝟎 + 𝒂𝟏 𝒙𝒕 ) − 𝒂𝟏 𝒙
) − 𝒂𝟏 𝒙 ̅
𝒏 𝒏
𝒕=𝟏
𝟏
= ( 𝒏𝒂𝟎 + 𝒏 𝒂𝟏 𝒙
̅ ) − 𝒂𝟏 𝒙
̅ = 𝒂𝟎
𝒏
∑𝒕=𝒏
𝒕=𝟏 (𝒙𝒕 − 𝒙
̅)𝒚𝒕 ∑𝒕=𝒏 ̅)𝟐 𝝈𝜺 𝟐
𝒕=𝟏 (𝒙𝒕 − 𝒙 𝟐
∑𝒕=𝒏 ̅ )𝟐
𝒕=𝟏 (𝒙𝒕 − 𝒙
̂ 𝟏 ) = 𝑽 ( 𝒕=𝒏
𝑽(𝒂 ) = = 𝝈 𝜺
̅ )𝟐
∑𝒕=𝟏 (𝒙𝒕 − 𝒙 (∑𝒕=𝒏 ̅ )𝟐 )𝟐
𝒕=𝟏 (𝒙𝒕 − 𝒙 (∑𝒕=𝒏 ̅)𝟐 )𝟐
𝒕=𝟏 (𝒙𝒕 − 𝒙
𝟐
𝟏 𝝈𝜺 𝟐
̂ 𝟏 ) = 𝝈𝜺
𝑽(𝒂 = 𝒕=𝒏
∑𝒕=𝒏 ̅ )𝟐
𝒕=𝟏 (𝒙𝒕 − 𝒙 ̅ )𝟐
∑𝒕=𝟏 (𝒙𝒕 − 𝒙
̂ 𝟎 ) = 𝑽(𝒚
𝑽(𝒂 ̅− 𝒂 ̅) = 𝑽(𝒚
̂𝟏 𝒙 𝒙𝟐 𝑽(𝒂
̅) + ̅ ̂𝟏 ) − 𝟐 𝒙
̅ 𝑪𝒐𝒗 (𝒚
̅, 𝒂
̂𝟏 )
On a aussi :
∑𝒕=𝒏 𝒕=𝒏
𝒕=𝟏 𝒚𝒕 ∑𝒕=𝟏 (𝒙𝒕 − 𝒙
̅)𝒚𝒕
𝑪𝒐𝒗 (𝒚 ̂𝟏 ) = 𝑪𝒐𝒗 (
̅, 𝒂 , 𝒕=𝒏 )
𝒏 ∑𝒕=𝟏(𝒙𝒕 − 𝒙̅) 𝟐
∑𝒏𝒕=𝟏(𝒙𝒕 − 𝒙̅)𝑽(𝒚𝒕 ) + 𝟎
𝑪𝒐𝒗 (𝒚 ̂𝟏 ) =
̅, 𝒂 𝒕=𝒏
𝒏 ∑𝒕=𝟏(𝒙𝒕 − 𝒙̅) 𝟐
2
𝝈𝜺 𝟐 ∑𝒏𝒕=𝟏(𝒙𝒕 − 𝒙
̅) 𝝈𝜺 𝟐 × 𝟎
𝑪𝒐𝒗 (𝒚 ̂𝟏 ) =
̅, 𝒂 =
𝒏 ∑𝒕=𝒏 ̅)𝟐
𝒕=𝟏 (𝒙𝒕 − 𝒙 𝒏 ∑𝒕=𝒏 ̅) 𝟐
𝒕=𝟏 (𝒙𝒕 − 𝒙
𝑪𝒐𝒗 (𝒚 ̂𝟏 ) = 𝟎
̅, 𝒂
De même, on a :
∑𝒕=𝒏
𝒕=𝟏 𝒚𝒕 ∑𝒕=𝒏
𝒕=𝟏 𝑽(𝒚𝒕 ) 𝒏 𝝈𝜺 𝟐 𝝈𝜺 𝟐
̅) = 𝑽 (
𝑽(𝒚 )= = =
𝒏 𝒏𝟐 𝒏𝟐 𝒏
Ainsi, on obtient :
𝝈𝜺 𝟐 𝝈𝜺 𝟐
̂𝟎 ) =
𝑽(𝒂 𝒙𝟐 𝑽(𝒂
+ ̅ ̂𝟏 ) , ̂𝟏 ) =
𝒂𝒗𝒆𝒄 ∶ 𝑽(𝒂
𝒏 ∑𝒕=𝒏 ̅ )𝟐
𝒕=𝟏 (𝒙𝒕 − 𝒙
𝝈𝜺 𝟐 𝟐
𝝈𝜺 𝟐
̂𝟎 ) =
𝑽(𝒂 + ̅
𝒙 𝒕=𝒏
𝒏 ̅ )𝟐
∑𝒕=𝟏 (𝒙𝒕 − 𝒙
𝟐
𝟏 ̅𝟐
𝒙
̂ 𝟎 ) = 𝝈𝜺
𝑽(𝒂 ( + 𝒕=𝒏 )
̅ )𝟐
𝒏 ∑𝒕=𝟏 (𝒙𝒕 − 𝒙
𝝈𝜺 𝟐 (∑𝒕=𝒏
𝒕=𝟏 (𝒙𝒕 − 𝒙̅ )𝟐 + 𝒏 𝒙
̅𝟐 )
̂𝟎 ) =
𝑽(𝒂
𝒏 ∑𝒕=𝒏
𝒕=𝟏 (𝒙𝒕 − 𝒙̅ )𝟐
𝝈𝜺 𝟐 (∑𝒕=𝒏 𝟐
𝒕=𝟏 𝒙𝒕 − 𝒏 ̅𝒙𝟐 + 𝒏 ̅
𝒙𝟐 )
̂𝟎) =
𝑽(𝒂
𝒏 ∑𝒕=𝒏 ̅ )𝟐
𝒕=𝟏 (𝒙𝒕 − 𝒙
𝝈𝜺 𝟐 (∑𝒕=𝒏 𝟐
𝒕=𝟏 𝒙𝒕 )
̂𝟎 ) =
𝐷𝑜𝑛𝑐 ∶ 𝑽(𝒂
𝒏 ∑𝒕=𝒏
𝒕=𝟏 (𝒙𝒕 − 𝒙̅ )𝟐
3
Ainsi, on a :
𝝈𝜺 𝟐 (∑𝒕=𝒏 𝟐
𝒕=𝟏 𝒙𝒕 ) ̂ 𝟎 − 𝒂𝟎
𝒂
̂ 𝟎 ↝ 𝑵 (𝒂𝟎 ,
𝒂 ) ⟹ ↝ 𝑵(𝟎, 𝟏)
𝒏 ∑𝒕=𝒏 (𝒙 𝒕 − ̅
𝒙 ) 𝟐
𝒕=𝟏
(∑𝒕=𝒏 𝟐
𝒕=𝟏 𝒙𝒕 )
𝝈𝜺 √
𝒏 ∑𝒕=𝒏 ̅ )𝟐
𝒕=𝟏 (𝒙𝒕 − 𝒙
𝝈𝜺 𝟐 ̂ 𝟏 − 𝒂𝟏
𝒂
̂ 𝟏 ↝ 𝑵 (𝒂𝟏 , 𝒕=𝒏
𝒂 ) ⟹ 𝝈𝜺 ↝ 𝑵(𝟎, 𝟏)
̅ )𝟐
∑𝒕=𝟏 (𝒙𝒕 − 𝒙
⁄√∑𝒕=𝒏(𝒙 − 𝒙
̅ )𝟐
𝒕=𝟏 𝒕
Les estimateurs seront d'autant plus précis que les variances seront d'autant plus
petites :
✓ La dispersion des X est forte, c'est-à-dire que les points recouvrent bien l'espace de
représentation.
Les estimateurs sont aussi convergents : lorsque n tend vers l’infini, leurs variances
tendent vers 0.
𝑪𝒐𝒗 (𝒂 ̂ 𝟎 ) = 𝑪𝒐𝒗 (𝒂
̂𝟏, 𝒂 ̂ 𝟏 , ̅𝒚 − 𝒂 ̅)
̂𝟏 𝒙
𝑪𝒐𝒗 (𝒂 ̂ 𝟎 ) = 𝑪𝒐𝒗 (𝒂
̂𝟏 , 𝒂 ̅) – 𝒙
̂𝟏 , 𝒚 ̅ 𝑽 (𝒂
̂𝟏 )
𝝈𝜺 𝟐
𝑪𝒐𝒗 (𝒂 ̂𝟎 ) = 𝟎 − 𝒙
̂𝟏 , 𝒂 ̅ 𝒕=𝒏
𝒙)𝟐
∑𝒕=𝟏 (𝒙𝒕 − ̅
𝒙𝝈𝜺 𝟐
̅
𝑪𝒐𝒗 (𝒂 ̂ 𝟎 ) = − 𝒕=𝒏
̂𝟏 , 𝒂
̅ )𝟐
∑𝒕=𝟏 (𝒙𝒕 − 𝒙
4
3.4. Théorème de Gauss – Markov
Les estimateurs des MCO de la régression sont sans biais et convergents. On peut
démontrer aussi que, parmi les estimateurs linéaires sans biais de la régression, les estimateurs
MCO sont à variance minimale c.-à-d. il n'existe pas d'autres estimateurs linéaires sans biais
présentant une plus petite variance. Les estimateurs des MCO sont appelés alors des
estimateurs BLUE (Best Linear Unbiased Estimator). On dit que ces estimateurs sont
efficaces, car il est impossible d'obtenir des variances plus faibles(les meilleurs estimateurs
linéaires.
𝝈𝜺 𝟐 (∑𝒕=𝒏 𝟐
𝒕=𝟏 𝒙𝒕 )
sont données en fonction de la variance des erreurs 𝝈𝜺 𝟐 qui est inconnue. Donc
𝒏 ∑𝒕=𝒏 ̅ )𝟐
𝒕=𝟏 (𝒙𝒕 −𝒙
pour pouvoir calculer les variances des estimateurs, on est obligé de définir un estimateur sans
̂ 𝜺 𝟐 𝑑𝑒 𝝈𝜺 𝟐 .
biais 𝝈
̂𝟎 + 𝒂
𝑂𝑛 𝑎 ∶ 𝐲𝐭 = 𝐚𝟎 + 𝐚𝟏 𝐱 𝐭 + 𝛆𝐭 et 𝐲𝐭 = 𝒂 ̂ 𝟏 𝒙 𝒕 + 𝒆𝒕 = 𝒚
̂ 𝒕 + 𝒆𝒕
̂𝒕 , avec :
Les erreurs εt peuvent être estimées par les résidus du modèle : 𝒆𝒕 = 𝐲𝐭 − 𝒚
̂𝒚𝒕 = 𝒂 ̂𝟏 𝒙𝒕 = (𝒚
̂𝟎 + 𝒂 ̅− 𝒂 ̅) + 𝒂
̂𝟏 𝒙 ̂ 𝟏 𝒙𝒕 = 𝒚
̅+𝒂
̂ 𝟏 ( 𝒙𝒕 − 𝒙
̅)
5
= ∑(𝑉(𝑦𝑡 ) + 𝐸 2 (𝑦𝑡 )) − ∑(𝑉(𝑦̂𝑡 ) + 𝐸 2 (𝑦̂𝑡 ))
D’autre part :
𝜎𝜀 2 (∑𝑛𝑡=1 𝑥𝑡2 ) 2
𝜎𝜀 2 𝑥̅ 𝜎𝜀 2
= + 𝑥𝑡 − 2 𝑥𝑡 𝑡=𝑛
𝑛 ∑𝑛𝑡=1(𝑥𝑡 − 𝑥̅ )2 ∑𝑛𝑡=1(𝑥𝑡 − 𝑥̅ )2 ∑𝑡=1 (𝑥𝑡 − 𝑥̅ )2
𝜎𝜀 2 (∑𝑛𝑡=1 𝑥𝑡2 )
= ( + 𝑥𝑡 2 − 2 𝑥𝑡 𝑥̅ )
∑𝑡=𝑛(𝑥
𝑡=1 𝑡 − 𝑥̅ ) 2 𝑛
𝜎𝜀 2 ∑𝑛𝑡=1(𝑥𝑡 − 𝑥̅ )2 2 2
1 (𝑥𝑡 − 𝑥̅ )2
= 𝑛 ( + (𝑥𝑡 − 𝑥̅ ) ) = 𝜎𝜀 ( + 𝑛 )
∑𝑡=1(𝑥𝑡 − 𝑥̅ )2 𝑛 𝑛 ∑𝑡=1(𝑥𝑡 − 𝑥̅ )2
𝑛
1 (𝑥𝑡 − 𝑥̅ )2
𝑃𝑎𝑟 𝑐𝑜𝑛𝑠é𝑞𝑢𝑒𝑛𝑡, )2
𝐸 (∑(yt − 𝑦̂𝑡 ) = 𝑛 𝜎𝜀2 2
– 𝜎𝜀 ∑ ( + 𝑛 )
𝑛 ∑𝑡=1(𝑥𝑡 − 𝑥̅ )2
𝑡=1
𝑛 ∑𝑛𝑡=1(𝑥𝑡 − 𝑥̅ )2
)2
𝐸 (∑(yt − 𝑦̂𝑡 ) = 𝑛 𝜎𝜀2 2
– 𝜎𝜀 ( + 𝑛 ) = (𝑛 − 2)𝜎𝜀2
𝑛 ∑𝑡=1(𝑥𝑡 − 𝑥̅ )2
∑(yt − 𝑦̂𝑡 )2 ∑ 𝑒𝑡 2
𝐷′ 𝑜ù: 𝐸 ( ) = 𝐸( ) = 𝜎𝜀2
(𝑛 − 2) (𝑛 − 2)
∑(𝐲𝐭 − 𝐲̂𝐭 )𝟐 ∑ 𝐞𝐭 𝟐
̂𝟐𝛆 =
𝑂𝑛 𝑝𝑜𝑠𝑒 𝑎𝑖𝑛𝑠𝑖 ∶ 𝛔 = ̂ 𝟐𝜺 ) = 𝝈𝟐𝜺
, 𝑒𝑡 𝑜𝑛 𝑎 ∶ 𝑬(𝝈
(𝐧 − 𝟐) (𝐧 − 𝟐)