Beruflich Dokumente
Kultur Dokumente
Mendes de Oliveira
Excerto das notas pessoais sobre:
TEORIA DA ESTIMAÇÃO
E ESTIMADORES DE MÁXIMA VEROSIMILHANÇA
Introdução
Exemplo 1
2
Considere-se o modelo
1, se Y * > γ
Y= ,
0, se Y * ≤ γ
u γ −β γ −β
P(Y = 1) = P(Y* > γ) = P(β + u > γ) = P( > ) = 1 − Φ( ),
σ σ σ
γ −β
P(Y = 0) = Φ( ).
σ
γ −β Y γ − β (1−Y)
f(Y;β,γ,σ) = [1 − Φ( )] [Φ( )] .
σ σ
Exemplo 2
Considere-se, agora, o modelo Y = β + u, com u ~ N(0, σ2). Vem
2
(Y-β )
1 - 2
f(Y;β,σ) = e 2σ
σ 2π
1
L(Y;β,σ) = (2πσ2)−n/2 exp[ − (Y - βi)'(Y - βi)],
2σ 2
_____________________________________________________________________________________________________
Teoria da Estimação e Estimadores de Máxima Verosimilhança M. Mendes de Oliveira,
18.Ago.2000
3
Um estimador cêntrico de θ pode não existir, ou pode suceder que não exista
o valor esperado de um "bom" estimador de θ . Por outro lado, interessam-nos,
geralmente, estimadores cuja distribuição de probabilidade esteja "concentrada" em
torno do verdadeiro valor do parâmetro. O grau de dispersão pode ser aferido pelo
erro quadrático médio, E( θ − θ)2 para um estimador escalar, ou E[( θ − θ )'( θ − θ )]
para um vector de estimadores. Mas não há estimadores que minimizem o erro
quadrático médio para qualquer θ ∈ B: o estimador θ (Y) tem erro quadrático médio
~
nulo se for θ = θ , enquanto o estimador θ (Y) tem erro quadrático médio nulo se for
~
θ = θ . Por outro lado, o critério de minimização do erro quadrático médio conduz
frequentemente a estimadores que dependem de grandezas desconhecidas. É usual,
por isso, restringir-se a selecção de estimadores com erro quadrático médio mínimo ao
conjunto dos estimadores cêntricos, o que conduz à busca de estimadores cêntricos
com variância mínima.
~
e, para um estimador alternativo, θ ,
_____________________________________________________________________________________________________
Teoria da Estimação e Estimadores de Máxima Verosimilhança M. Mendes de Oliveira,
18.Ago.2000
4
~ ~
Var(c θ ) = c Var( θ ) c'.
~
Então, a condição "[Var( θ ) − Var( θ )] semi-definida positiva" é equivalente à
~
condição "Var(c θ ) ≥ Var(c θ ) para todo o c", permitindo substituir uma comparação
entre matrizes por uma comparação entre escalares. Faz-se uso dessa equivalência na
demonstração da proposição seguinte.
Demonstração:
Sejam θ (1) e θ (2) dois estimadores MVU de θ , com matrizes de variâncias e
covariâncias A = Var( θ (1)) e B = Var( θ (2)), respectivamente.
Comece-se por estabelecer que terá de ser A = B, porquanto, sendo θ (1) MVU,
terá, por definição, de ser semi-definida positiva a matriz (B − A) e, sendo θ (2) MVU,
terá, também, de ser semi-definida positiva a matriz (A − B). As duas condições só
são compatíveis se for A = B.
Considere-se, agora, para qualquer c, o escalar Var(c θ (1) − c θ (2)) que, sendo
uma variância, terá de ser necessariamente não negativo. Mas
para qualquer c.
Seja, por último, um terceiro estimador de θ , dado por
1 (1)
θ (3) = ( θ + θ (2)).
2
1 1 1
Var( θ (3)) = Var( θ (1)) + Var( θ (2)) + Cov( θ (1), θ (2)).
4 4 2
1 1 1
Var(c θ (3)) = Var(c θ (1)) + Var(c θ (2)) + Cov(c θ (1), c θ (2))
4 4 2
1 1
= cAc' + Cov(c θ (1), c θ (2))
2 2
_____________________________________________________________________________________________________
Teoria da Estimação e Estimadores de Máxima Verosimilhança M. Mendes de Oliveira,
18.Ago.2000
5
e, tendo em atenção a relação de ordem entre os escalares cAc' e Cov(c θ (1), c θ (2))
que se mostrou acima,
Mas, nesse caso, terá de ser cAc' = Cov(c θ (1), c θ (2)) e, por conseguinte,
Var(c θ (1) - c θ (2)) = 0. Então, se a variância é nula, (c θ (1) − c θ (2)) é uma constante,
para todo o c possível, e os estimadores θ (1) e θ (2) apenas poderão diferir por uma
constante. Como têm ambos, por hipótese, o mesmo valor médio, essa constante é
igual a 0. Então, terá de ser θ (1) ≡ θ (2).
d
n ( θ − θ ) → N(0, Σ ).
Teorema de Cramér-Rao
O teorema de Cramér-Rao considera uma amostra aleatória {Y1, Y2, ..., Yn} de
uma população caracterizada pela função de densidade f(Yi; θ ) e a função de
densidade conjunta
n
L(Y; θ ) = ∏ f ( Yi ; θ ) ,
i =1
−1
'
∂ ∂ lnL( Y; θ )
E −
∂θ ∂θ
_____________________________________________________________________________________________________
Teoria da Estimação e Estimadores de Máxima Verosimilhança M. Mendes de Oliveira,
18.Ago.2000
7
Demonstração:
1. Por definição de função de densidade de probabilidade, o integral de
L(Y; θ ) sobre todo o espaço da amostra, A, é igual a 1:
A L( Y; θ ) dY = 1,
onde a notação empregue deve ser entendida como uma abreviatura do integral
múltiplo
∂ L( Y; θ )
dY = 0;
A
∂θ
notando que
∂ L( Y; θ ) ∂ L( Y; θ ) ∂ lnL( Y; θ ) ∂ lnL( Y; θ )
= = L(Y; θ ) ,
∂θ ∂ lnL( Y; θ ) ∂θ ∂θ
∂ lnL( Y; θ )
L( Y; θ ) dY = 0.
A
∂θ
∂ lnL( Y; θ )
E[ ] = 0,
∂θ
' '
∂ ∂ lnL( Y; θ ) ∂ lnL( Y; θ ) ∂ L( Y; θ )
L( Y; θ ) + dY = 0
A
∂θ ∂θ ∂θ ∂θ
_____________________________________________________________________________________________________
Teoria da Estimação e Estimadores de Máxima Verosimilhança M. Mendes de Oliveira,
18.Ago.2000
8
' '
∂ ∂ lnL( Y; θ ) ∂ lnL( Y; θ ) ∂ lnL( Y; θ )
+ L( Y; θ ) dY = 0.
A
∂θ ∂θ ∂θ ∂θ
' '
∂ ∂ lnL( Y; θ ) ∂ lnL( Y; θ ) ∂ lnL( Y; θ )
E + E = 0.
∂θ ∂θ ∂θ ∂θ
'
∂ lnL( Y; θ ) ∂ ∂ lnL( Y; θ )
Var[ ]=− E .
∂θ ∂θ ∂θ
E( θ ) = A θ L( Y; θ ) dY
[
∂ E( θ ) ]' = θ
∂ L( Y; θ )
'
dY = θ
∂ lnL( Y; θ )
'
L( Y; θ ) dY .
∂θ A
∂θ A
∂θ
'
∂ lnL( Y; θ ) ∂ lnL( Y; θ ) ∂ lnL( Y; θ )
Cov( θ ,
∂θ
) = E θ − E( θ ) [ ] ∂θ
− E(
∂θ
)
∂ lnL( Y; θ )
e no caso vertente, em que E( θ ) = θ e E[ ] = 0, é fácil verificar que
∂θ
_____________________________________________________________________________________________________
Teoria da Estimação e Estimadores de Máxima Verosimilhança M. Mendes de Oliveira,
18.Ago.2000
9
'
∂ lnL( Y; θ ) ∂ lnL( Y; θ )
Cov( θ , )= E θ .
∂θ ∂θ
∂ lnL( Y; θ )
Cov( θ , ) = Iq.
∂θ
θ
Var ,
∂ lnL( Y; θ )
∂θ
Var (θ ) Iq
Π= ,
−1
Iq Q
em que se fez uso de outra convenção para simplificação notacional e se designou por
'
∂ ∂ lnL( Y; θ )
Q-1 a matriz − E , já que (ver passo 1.) é
∂θ ∂θ
'
∂ lnL( Y; θ ) ∂ ∂ lnL( Y; θ )
Var[ ]=− E .
∂θ ∂θ ∂θ
c= a [ - aQ ]
em que a, por sua vez, é um qualquer vector (1×q). Tem-se
_____________________________________________________________________________________________________
Teoria da Estimação e Estimadores de Máxima Verosimilhança M. Mendes de Oliveira,
18.Ago.2000
10
qualquer que seja a, fica provado que [Var( θ ) − Q]] é semi-definida positiva, com
−1
'
∂ ∂ lnL( Y; θ )
Q= E − .
∂θ ∂θ
p Y q 1− Y , se Y = 0 ou Y = 1,
f(Y;p) =
0 , se Y ≠ 0 e Y ≠ 1.
_____________________________________________________________________________________________________
Teoria da Estimação e Estimadores de Máxima Verosimilhança M. Mendes de Oliveira,
18.Ago.2000
11
n
Yi n- Yi
L(Y;p) = ∏ f (Yi ; p) = p q .
i =1
A função L(Y;p) pode ser "lida" de várias maneiras. Para um dado p, a função
reparte a probabilidade de obtenção de Y entre todas as amostras possíveis de
dimensão n. Por exemplo, para p = 0,3 e n = 2, a amostra (Y1 = 1, Y2 = 1) ocorrerá
com probabilidade 0,32 (9%), o par (0, 0) com probabilidade 0,72 (49%) e cada um
dos pares (1, 0) e (0, 1) com probabilidade 0,3×0,7 (21%). Nessa acepção, L(Y;p) é,
para cada p, a função de probabilidade conjunta de (Y1, Y2), definida no espaço da
amostra A = {(Y1, Y2): Y1 = 0 ∨ Y1 = 1, Y2 = 0 ∨ Y2 = 1}.
L(Y; θ ) ≥ L(Y; θ ), ∀ θ ∈ B,
_____________________________________________________________________________________________________
Teoria da Estimação e Estimadores de Máxima Verosimilhança M. Mendes de Oliveira,
18.Ago.2000
12
Por outro lado, a definição apresentada não é, por vezes, a mais adequada para
identificação concreta do estimador. Se a função de verosimilhança verificar certas
condições de regularidade e o máximo ocorrer num ponto interior do espaço dos
parâmetros, o sistema das chamadas equações de verosimilhança,
∂ lnL( Y; θ )
= 0,
∂θ
∂ lnL( Y; θ )
=0
∂θ
Exemplo 3
Seja Y uma variável aleatória com distribuição uniforme no intervalo [0, β],
isto é, com f.d.p.
_____________________________________________________________________________________________________
Teoria da Estimação e Estimadores de Máxima Verosimilhança M. Mendes de Oliveira,
18.Ago.2000
13
1
, se 0 ≤ Y ≤ β,
f(Y;β) = β
0 , se Y < 0 ou Y > β.
1
, se β ≥ Yn ,
L(Y;β) = β n
0 , se β < Yn ,
lnL(Y;β) = -n lnβ.
_____________________________________________________________________________________________________
Teoria da Estimação e Estimadores de Máxima Verosimilhança M. Mendes de Oliveira,
18.Ago.2000
14
Exemplo 4
Considere-se o modelo
1
Yt = β + ut, ut ∼ N(0, σ2) , ∀ t.
t
Designando por θ o vector [β, σ2]', a função logarítmica de verosimilhança, para uma
amostra de n observações, é
n n 1 n 1
lnL(Y; θ ) = − ln(2π) − ln(σ2) − (Yt − β ) 2
2 2 2σ 2 t =1 t
n
Yt
( t )
t =1
β = n ,
( 1 2)
t =1 t
com variância
σ2
Var( β ) = n .
( 1 2)
t =1 t
n
Prova-se que lim ( 1 2 ) = π2/6 (1,645, aproximadamente); por conseguinte, quando
t =1 t
n tende para infinito, Var( β ) tende para um limite positivo. O limite em probabilidade
de β , se existir, não será, portanto, uma constante.
Exemplo 4
Considere-se o modelo
1
Yt = β + ut, ut ∼ N(0, σ2) , ∀ t.
t
Designando por θ o vector [β, σ2]', a função logarítmica de verosimilhança, para uma
amostra de n observações, é
n n 1 n 1
lnL(Y; θ ) = − ln(2π) − ln(σ2) − (Yt − β ) 2
2 2 2σ 2 t =1 t
n
Yt
( t )
t =1
β = n ,
( 1 2)
t =1 t
com variância
σ2
Var( β ) = n .
( 1 2)
t =1 t
n
Prova-se que lim ( 1 2 ) = π2/6 (1,645, aproximadamente); por conseguinte, quando
t =1 t
n tende para infinito, Var( β ) tende para um limite positivo. O limite em probabilidade
de β , se existir, não será, portanto, uma constante.
d
n ( θ ML − θ ) → N{0, [I( θ )]−1},
'
∂ ∂ lnL( Y; θ ) ∂ 2 lnL( Y; θ )
em que I( θ ) = E − =− E .
∂θ ∂θ ∂ θ ∂ θ'
_____________________________________________________________________________________________________
Teoria da Estimação e Estimadores de Máxima Verosimilhança M. Mendes de Oliveira,
18.Ago.2000
16
Duas matrizes têm papel chave nesta proposição: a primeira é o vector (q×1)
de derivadas parciais de 1ª ordem, em ordem a θ , da função logarítmica de
verosimilhança,
∂ lnL( Y; θ )
,
∂θ
'
∂ ∂ lnL( Y; θ ) ∂ 2 lnL( Y; θ )
= ,
∂θ ∂θ ∂ θ ∂ θ'
∂ lnL( Y; θ )
E[ ]=0
∂θ
e
'
∂ lnL( Y; θ ) ∂ lnL( Y; θ ) ∂ lnL( Y; θ ) ∂ 2 lnL( Y; θ )
Var[ ]= E =− E .
∂θ ∂θ ∂θ ∂ θ ∂ θ'
n
L(Y; θ ) = ∏ f ( Yi ; θ )
i =1
e
n
lnL(Y; θ ) = ln f ( Yi ; θ ) ,
i =1
vem
∂ lnL( Y; θ ) n ∂ ln f ( Yi ; θ )
= ,
∂θ i =1 ∂θ
expressão cujo segundo membro é uma soma de n vectores (q×1), cada um dos quais
mede a chamada contribuição da iª observação para o gradiente. De modo análogo, de
'
∂ 2 lnL( Y; θ ) ∂ n ∂ ln f( Yi ; θ ) n ∂ 2 ln f ( Yi ; θ )
= = ,
∂ θ ∂ θ' ∂θ i =1 ∂θ i =1 ∂ θ ∂ θ'
_____________________________________________________________________________________________________
Teoria da Estimação e Estimadores de Máxima Verosimilhança M. Mendes de Oliveira,
18.Ago.2000
17
reconhece-se ser a matriz Hesseana a soma de n matrizes (q×q). É como se, numa
amostra de dimensão n da população f(Y; θ ), se dispusesse de n observações do
vector gradiente e da matriz Hesseana desconhecidos.
∂ ln f ( Yi ; θ )
g(Yi; θ ) ≡ ,
∂θ
n
gn(Y; θ ) = g( Yi ; θ ) .
i =1
∂ lnL( Y; θ ) ∂ 2 lnL( Y; θ )
Var[ ]=− E ,
∂θ ∂ θ ∂ θ'
implica ser
∂ 2 ln f ( Yi ; θ )
Var[g(Yi; θ )] = − E[ ].
∂ θ ∂ θ'
E( gn ) = 0,
1 n 1 n ∂ 2 ln f ( Y ; θ ) 1
i
Var( gn ) = 2 Var[ g( Yi ; θ ) ] = − 2 E[ ' ] = − 2 E[Hn(Y; θ )].
n i =1 n i =1 ∂θ∂θ n
_____________________________________________________________________________________________________
Teoria da Estimação e Estimadores de Máxima Verosimilhança M. Mendes de Oliveira,
18.Ago.2000
18
1
lim E[ Hn(Y; θ )] = H( θ )
n
d
n gn → N[0, I( θ )],
1
n ( θ − θ ) = [− Hn(Y; θ *)]−1 ( n gn ).
n
1
plim[− Hn(Y; θ *)]−1 = {E[−H( θ )]}−1 = [I( θ )]−1
n
e que
d
n ( θ − θ ) → [I( θ )]−1 [ n gn ].
Usando agora
_____________________________________________________________________________________________________
Teoria da Estimação e Estimadores de Máxima Verosimilhança M. Mendes de Oliveira,
18.Ago.2000
19
d
n gn → N[0, I( θ )],
tem-se
d
n ( θ − θ ) → [I( θ )]−1 N[0, I( θ )].
No lado direito, figura uma variável com distribuição normal q-variada, com vector de
médias [I( θ )]−1 0 = 0 e matriz de variâncias [I( θ )]−1 I( θ ) [I( θ )]−1 = [I( θ )]−1, pelo
que
d
n ( θ − θ ) → N{0, [I( θ )]−1}.
Exemplo 5
Considere-se o modelo
Yi = β Xi + ui, ui ∼ N(0, 1) , ∀ i,
1
Var( β ) = n .
X 2i
i =1
β−β
∼ N(0, 1),
1
X 2i
d
X 2i ( β − β) → N(0, 1).
θ1
θ = .
θ2
Exemplo 6
Seja Y uma amostra aleatória, de dimensão n, de uma população N(µ, σ2). A
função logarítmica de verosimilhança é
n n 1 n
lnL(Y; µ, σ2) = − ln(2π) − ln σ2 − 2 (Yi − µ ) 2 .
2 2 2σ i=1
Da condição de 1ª ordem
∂ lnL( Y; µ , σ 2 )
= 0,
∂ σ2
vem
1 n
σ2 = (Y − µ) 2 .
n i=1 i
n n 1 n n
lnLc(Y; µ) = − ln(2π) − ln (Yi − µ ) 2 −
2 2 n i=1 2
1 n
µ = Y = Y.
n i=1 i
_____________________________________________________________________________________________________
Teoria da Estimação e Estimadores de Máxima Verosimilhança M. Mendes de Oliveira,
18.Ago.2000
22
Mais trivial, porque o valor óptimo para µ não depende de σ2, é a função de
verosimilhança concentrada sobre µ,
n n 1 n
lnL(Y; σ2) = − ln(2π) − ln σ2 − (Yi − Y) 2 .
2 2 2σ 2 i=1
Exemplo 7
Seja Y uma amostra aleatória de n observações do par (Y1, Y2), com função de
distribuição normal bivariada
f(y1, y2) =
2 2
1 1 y1 − µ 1 y − µ1 y2 − µ2 y − µ2
exp − − 2ρ 1 + 2
2 π σ 1 σ 2 (1 − ρ )
2 2 2 2(1 − ρ 2 ) σ1 σ1 σ2 σ2
σ 22
ρ
n
ln L(Y; θ ) = −n ln(2π) − [ln σ 12 + ln σ 22 + ln(1−ρ2)]
2
1
−
2(1 − ρ 2 )
(A 2i − 2ρA i Bi + B2i ) ,
Y1i − µ 1 Y2 i − µ 2
(convencionando representar por Ai e Bi as variáveis e ,
σ1 σ2
respectivamente, e subentendendo somatórios para i = 1, 2, ..., n) e as equações de
verosimilhança são
∂ lnL( Y; θ ) 1
∂ µ1
=
σ 1 (1 − ρ 2 )
(A i − ρB i ) = 0,
_____________________________________________________________________________________________________
Teoria da Estimação e Estimadores de Máxima Verosimilhança M. Mendes de Oliveira,
18.Ago.2000
23
∂ lnL( Y; θ ) 1
∂ µ2
=
σ 2 (1 − ρ 2 )
(B i − ρA i ) = 0,
∂ lnL( Y; θ ) 1
∂ σ1
2 =− 2
2σ 1 (1 − ρ 2 )
[
n(1 − ρ 2 ) − ]
(A 2i − ρA i B i ) = 0,
∂ lnL( Y; θ ) 1
∂ σ2
2 =− 2
2σ 2 (1 − ρ 2 )
[
n(1 − ρ 2 ) − ]
( B 2i − ρA i B i ) = 0,
∂ lnL( Y; θ ) 1 ρ
= nρ − (A 2i − 2ρA i B i + B 2i ) + A i B i = 0.
∂ρ 1 − ρ2 1 − ρ2
n(1−ρ2) = (A 2i − ρA i B i ) ,
n(1−ρ2) = ( B 2i − ρA i B i ) ,
1 + ρ2
n(1−ρ2) = (A 2i − A i B i + B 2i ) .
ρ
1 − ρ2
n(1−ρ2) = A i Bi
ρ
e
1
ρ= A i Bi .
n
n= A 2i = B2i ,
donde
1
σ 12 = (Y1i − µ 1 ) 2
n
e
1
σ 22 = (Y2 i − µ 2 ) 2 .
n
Por último,
_____________________________________________________________________________________________________
Teoria da Estimação e Estimadores de Máxima Verosimilhança M. Mendes de Oliveira,
18.Ago.2000
24
1
(Y1i − µ 1 ) (Y2 i − µ 2 )
ρ= n .
1 1
(Y1i − µ 1 ) × 2
(Y2 i − µ 2 ) 2
n n
ln Lc(Y;µ1, µ2) =
= constante −
n
2
ln {[ (Y1i − µ 1 ) 2 ][ ] [
(Y2 i − µ 2 ) 2 − (Y1i − µ 1 )(Y2 i − µ 2 ) ] },
2
1
µ1 = Y1i = Y1
n
e
1
µ2 = Y2 i = Y2 .
n
_____________________________________________________________________________________________________
Teoria da Estimação e Estimadores de Máxima Verosimilhança M. Mendes de Oliveira,
18.Ago.2000
25
∧
Varass. (θ ML ) = [I( θ ML)]−1,
∧
1
Varass. (θ ML ) = [− Hn( θ ML)]−1.
n
' '
∂ ∂ lnL( Y; θ ) ∂ lnL( Y; θ ) ∂ lnL( Y; θ )
E + E = 0,
∂θ ∂θ ∂θ ∂θ
∧
Varass. (θ ML ) = {G( θ ML) [G( θ ML)]'}−1.
_____________________________________________________________________________________________________
Teoria da Estimação e Estimadores de Máxima Verosimilhança M. Mendes de Oliveira,
18.Ago.2000
26
Exemplo 8
Retome-se o exemplo anterior, em que Y é uma amostra aleatória de n
observações do par (Y1, Y2), com função de distribuição normal bivariada. Dispõe-se
já do vector gradiente; por nova diferenciação dos seus elementos, vem:
∂ 2 lnL( Y; θ ) n
=− 2 , j = 1 ou j = 2,
∂ µj2
σ j (1 − ρ 2 )
∂ 2 lnL( Y; θ ) nρ
= ,
∂ µ1 ∂ µ 2 σ 1 σ 2 (1 − ρ 2 )
∂ 2 lnL( Y; θ ) 1 ρ
= − 3 Ai − Bi ,
∂ µ1 ∂ σ12
σ 1 (1 − ρ 2 ) 2
Y1i − µ 1 Y − µ2
(continuando a usar Ai ≡ e Bi ≡ 2 i ),
σ1 σ2
∂ 2 lnL( Y; θ ) ρ
= Bi ,
∂ µ1 ∂ σ 2
2
2 σ 1 σ 2 (1 − ρ 2 )
2
∂ 2 lnL( Y; θ ) 1
∂ µ1 ∂ ρ
=
σ 1 (1 − ρ 2 ) 2
[
2ρ A i − (1 + ρ 2 ) B i , ]
∂ 2 lnL( Y; θ ) ρ
= Ai ,
∂ µ 2 ∂ σ12
2 σ 1 σ 2 (1 − ρ 2 )
2
∂ 2 lnL( Y; θ ) 1 ρ
= − 3 Bi − Ai ,
∂ µ2 ∂ σ2 2
σ 2 (1 − ρ 2 ) 2
∂ 2 lnL( Y; θ ) 1
∂ µ2 ∂ ρ
=
σ 2 (1 − ρ )
2 2 [
2ρ B i − (1 + ρ 2 ) A i , ]
∂ 2 lnL( Y; θ ) 1 3ρ
= n(1 − ρ 2 ) − 2 A i2 + A i Bi ,
∂ (σ 1 )
2 2
2 σ 1 (1 − ρ )
4 2
2
∂ 2 lnL( Y; θ ) ρ
= A i Bi ,
∂ σ1 ∂ σ 2
2 2
4 σ 1 σ 2 (1 − ρ 2 )
2 2
∂ 2 lnL( Y; θ ) 1
∂ σ1 ∂ ρ
2 =
2 σ 1 (1 − ρ 2 ) 2
2 [
2ρ A 2i − (1 + ρ 2 ) A i B i , ]
_____________________________________________________________________________________________________
Teoria da Estimação e Estimadores de Máxima Verosimilhança M. Mendes de Oliveira,
18.Ago.2000
27
∂ 2 lnL( Y; θ ) 1 3ρ
= n(1 − ρ 2 ) − 2 B i2 + A i Bi ,
∂ (σ 2 )
2 2
2 σ 2 (1 − ρ )
4 2
2
∂ 2 lnL( Y; θ ) 1
∂ σ2 ∂ ρ
2 =
2 σ 2 (1 − ρ 2 ) 2
2 [
2ρ B 2i − (1 + ρ 2 ) A i B i , ]
∂ 2 lnL( Y; θ ) 1 1 + 3ρ 2 6ρ + 2ρ 3
= n (1 + ρ 2
) − ( A 2i + B i2 ) + A i Bi .
∂ ρ2 (1 − ρ 2 ) 2 1 − ρ2 1 − ρ2
n Y1i − µ 1
E( A i ) = E = 0,
i =1 σ1
n Y2 i − µ 2
E( Bi ) = E = 0,
i =1 σ2
2
n Y1i − µ 1
E( A 2i ) = E = n,
i =1 σ1
2
2
n Y2 i − µ 2
E( B )=E = n,
i
i =1 σ2
n Y1i − µ 1 Y2 i − µ 2
E( A i B i ) = E = nρ.
i =1 σ1 σ2
Obtém-se
σ 22 − ρσ 1σ 2 0 0 0
− ρσ 1σ 2 σ 12 0 0 0
σ 2 (2 − ρ 2 )
2
ρ2 ρ 2 σ 22
0 0 − −
1 4σ 12 4 2
σ σ (1 − ρ 2 )
2 2
ρ2 σ 1 (2 − ρ 2 )
2
ρ σ 12
2
1 2
0 0 − −
4 4σ 22 2
ρ 2 σ 22 ρ 2 σ 12 σ 12 σ 22 (1 + ρ 2 )
0 0 − −
2 2 1 − ρ2
_____________________________________________________________________________________________________
Teoria da Estimação e Estimadores de Máxima Verosimilhança M. Mendes de Oliveira,
18.Ago.2000
28
(...)
Referências:
_____________________________________________________________________________________________________
Teoria da Estimação e Estimadores de Máxima Verosimilhança M. Mendes de Oliveira,
18.Ago.2000
29
Exercícios
a , se θ < a
~
θ = θ, se a ≤ θ ≤ b
b, se θ > b
tem erro quadrático médio não superior ao de θ . Mostre também que, se for
~
E( θ ) = θ, a variância de θ é não superior à de θ .
(M. Kendall e A. Stuart, The Advanced Theory of Statistics, vol. 2)
2.
_____________________________________________________________________________________________________
Teoria da Estimação e Estimadores de Máxima Verosimilhança M. Mendes de Oliveira,
18.Ago.2000