Sie sind auf Seite 1von 63

Mnica C. Sandoval, Silvia L. P.

Ferrari e Heleno Bolfarine

Estatstica para Estudantes de Matemtica


III Colquio de Matemtica da Regio Sul

Florianpolis, SC
2014

Mnica C. Sandoval, Silvia L. P. Ferrari e Heleno Bolfarine

Estatstica para Estudantes de Matemtica


III Colquio de Matemtica da Regio Sul

Minicurso apresentado no III


Colquio de Matemtica da Regio Sul, realizado na Universidade Federal de Santa Catarina,
em maio de 2014.

Florianpolis, SC
2014

Prefcio
Este texto foi preparado para um mini-curso de mesmo
ttulo no III Colquio de Matemtica da Regio Sul. O minicurso tem como objetivos apresentar conceitos bsicos da inferncia estatstica e mostrar ao estudante de Matemtica que a
rea de Estatstica pode ser interessante para a continuao de
seus estudos em nvel de ps-graduao.
O texto baseado no livro Introduo Inferncia Estatstica dos dois primeiros autores. Selecionamos alguns tpicos capazes de ilustrar alguns conceitos centrais da teoria estatstica. Inclumos tambm uma seo preliminar em que alguns
conceitos de probabilidade so introduzidos para tornar o texto
razoavelmente autocontido.
Agradecemos ao Comit Cientfico e ao Comit Local
pela oportunidade de ministrar esse mini-curso e de divulgar
a Estatstica entre os estudantes de Matemtica. Em particular,
agradecemos ao Professor Artur Lopes pela sugesto de submeter
este mini-curso apreciao da organizao do Colquio.

So Paulo, fevereiro de 2014

Os autores

Sumrio
Introduo . . . . . . . . . . . . . . . . . . .

Conceitos Bsicos . . . . . . . . . . . . . . .

1.1

Preliminares . . . . . . . . . . . . . . . . . . .

1.2

Modelos estatsticos . . . . . . . . . . . . . . .

18

1.3

Problemas estatsticos

. . . . . . . . . . . . .

21

1.4

Amostras, estatsticas e estimadores . . . . . .

23

Estimao Pontual . . . . . . . . . . . . . . .

27

2.1

Estatsticas Suficientes . . . . . . . . . . . . .

27

2.2

Propriedades de estimadores . . . . . . . . . .

33

2.2.1

Estimador no viciado e erro quadrtico mdio

34

2.2.2

Estimadores eficientes . . . . . . . . . . . . . .

37

2.2.3

Estimadores Baseados em Estatsticas Suficientes 40

2.2.4

Estimadores consistentes . . . . . . . . . . . .

42

2.3

Estimadores de mxima verossimilhana . . .

42

2.3.1

Propriedades dos Estimadores de Mxima Verossimilhana . . . . . . . . . . . . . . . . . .

45

2.3.2

O Caso Multiparamtrico . . . . . . . . . . . .

48

Estimao Intervalar . . . . . . . . . . . . . .

51

3.1

Mtodo da quantidade pivotal . . . . . . . . .

51

3.2

Intervalos para Populaes Normais . . . . . .

54

3.2.1

O caso de uma nica amostra . . . . . . . . .

54

3.2.2

Duas amostras independentes . . . . . . . . .

55

3.3

Intervalos de Confiana Aproximados . . . . .

57

Consideraes Finais e Notas Bibliogrficas .

59

Referncias . . . . . . . . . . . . . . . . . . .

61

Introduo
Estatstica uma disciplina muito ampla com aplicaes
nas mais diversas reas. Engloba o planejamento de experimentos, a obteno, organizao, resumo e visualizao de dados,
bem como a chamada inferncia estatstica.
Inferncia estatstica, que o foco deste texto, compreende o uso de dados amostrais para se chegar a concluses acerca
de alguma caracterstica da populao, real ou hipottica, da
qual os dados foram extrados. H diversos enfoques utilizados
em inferncia estatstica, sendo os principais o enfoque frequentista, ou clssico, e o bayesiano.
Este texto apresenta alguns conceitos fundamentais da
inferncia estatstica. No procura ser abrangente pois foi escrito para servir de base a um mini-curso de quatro horas. Dada
a limitao de tempo, foram escolhidos alguns tpicos e outros,
embora relevantes, foram omitidos. Em particular, deve ser ressaltado que o texto trata apenas do enfoque frequentista.
O material apresentado a seguir est organizado da seguinte forma. No Captulo 1, fazemos uma breve reviso de conceitos bsicos de probabilidade que sero utilizados ao longo do
texto. Os conceitos de modelos e problemas estatsticos, amostras, estatsticas e estimadores so tambm introduzidos. Os Captulos 2 e 3 tratam de estimao pontual e intervalar respectivamente. Testes de hipteses no so tratados neste livro. O
livro se encerra com algumas consideraes finais e notas bibliogrficas.

1 Conceitos Bsicos
1.1 Preliminares
Na prtica, comum estarmos diante de situaes ou experimentos que envolvem incertezas. Experimentos que, ao serem
repetidos nas mesmas condies, no produzem necessariamente
o mesmo resultado so denominados experimentos aleatrios. O
conjunto de todos os resultados possveis de um experimento
aleatrio chamado de espao amostral (), que pode ser finito
ou infinito. O espao amostral infinito e enumervel se tiver
um nmero infinito de elementos e puder ser colocado em correspondncia biunvoca com o conjunto dos nmeros naturais.
infinito no enumervel se no nem finito e nem infinito
enumervel.
Exemplo 1.1.1. Uma moeda lanada duas vezes. Em cada
lanamento pode ocorrer cara (c) ou coroa (
c). O espao amostral
o conjunto = {cc, c
c, cc, cc} e finito.
Exemplo 1.1.2. Uma moeda lanada sucessivamente at que
aparea cara pela primeira vez. O espao amostral o conjunto
= {cc, cc, ccc, ...} e infinito enumervel.
Exemplo 1.1.3. Escolhemos uma lmpada de um processo de
fabricao e observamos o tempo at queimar. O espao amostral
o conjunto dos nmeros reais no negativos, ou seja, = {x :
x <, x 0} e infinito no enumervel.
Subconjuntos A, B, C, . . . do espao amostral so cha-

10

Captulo 1. Conceitos Bsicos

mados de eventos e de interesse calcular a chance ou probabilidade de ocorrncia desses eventos. Uma funo P que atribui
valores numricos aos eventos de um espao amostral chamada
de probabilidade se satisfaz as seguintes condies:
(a) 0 P[A] 1, para todo A ;
(b) P[] = 1;
(c) P[
i=1 Ai ] =

i=1

P[Ai ], para todoAi Ai0 = , i 6= i0 .

Dados dois eventos A e B de um mesmo espao amostral com P[B] > 0, a probabilidade condicional de A dado que
ocorreu B denotada por P[A|B] e definida por
P[A|B] =

P[A B]
.
P[B]

Dois eventos so ditos independentes se a ocorrncia de B no


altera a probabilidade de ocorrncia de A, isto , se P[A|B] =
P[A] ou, equivalentemente, se P[A B] = P[A]P[B].
Em alguns experimentos os resultados so numricos,
no entanto, em outros os elementos do espao amostral no so
expressos numericamente. Nesse caso, conveniente associar valores numricos a cada ponto de . Denomina-se varivel aleatria qualquer funo X do espao amostral na reta real.
No Exemplo 1.1.1, o interesse pode ser o nmero de caras que
ocorre nos dois lanamentos da moeda. Ento, define-se a funo X que associa a cada ponto do espao amostral o nmero de
caras. Logo, X assume valores no conjunto {0, 1, 2}.
Qualquer varivel aleatria X pode ser caracterizada
por meio da funo de distribuio (f.d.) definida por
F (x) = P[X x], x <.
Toda f.d. satisfaz as seguintes condies:

1.1. Preliminares

11

(a) limx F (x) = 0 e limx F (x) = 1;


(b) F (x) contnua direita;
(c) F (x) no decrescente.
A partir da f.d. as variveis aleatrias podem ser classificadas em discretas e contnuas. As variveis aleatrias que
assumem valores em um conjunto enumervel so denominadas
discretas. Para essas variveis a f.d. descontnua e tem a forma
de escada. Os pontos de descontinuidade xi , para i = 1, 2, . . .,
so os valores assumidos pela varivel. A funo de probabilidade
(f.p.) de uma varivel aleatria discreta uma funo, f digamos, que atribui probabilidade a cada um dos valores assumidos
pela varivel, ou seja,
f (xi ) = P[X = xi ],

i = 1, 2, 3, . . . .

Toda f.p. deve satisfazer:


(a) 0 f (xi ) 1, para todo i;
P
(b) i=1 f (xi ) = 1.
A partir da f.d. de uma varivel aleatria discreta podese obter a f.p. como f (xi ) = P[X = xi ] = F (xi ) F (x
i ), em
que F (x
i ) representa o limite de F (x) com x tendendo a xi pela
esquerda.
As variveis que podem assumir todos os valores em um
intervalo da reta (limitado ou no limitado) so denominadas
contnuas. Uma varivel ser contnua se existir uma funo f ,
denominada funo densidade de probabilidade (f.d.p.), tal que
Z x
F (x) =
f (w)dw, para todo x <.

As propriedades da f.d.p. so anlogas s da f.p., ou seja,


(a) f (x) 0, para todo x;

12

Captulo 1. Conceitos Bsicos

(b)

f (x)dx = 1.
As variveis aleatrias discretas e contnuas so carac-

terizadas pela funo de probabilidade e pela funo densidade


de probabilidade, respectivamente. Quando for relevante explicitar o parmetro da distribuio, denotaremos a f.p. e a f.d.p
por f (x|). Define-se como suporte da varivel aleatria X, o
conjunto dos nmeros x tais que f (x|) > 0.
Muitas vezes, quando um experimento aleatrio realizado, vrias variveis podem ser de interesse. Denomina-se
vetor aleatrio ou varivel aleatria n-dimensional qualquer funo X = (X1 , . . . , Xn ) de em <n . A funo de distribuio
conjunta de X definida por
F (x) = F (x1 , . . . , xn ) = P[X1 x1 , X2 x2 , . . . , Xn xn ],
para todo x = (x1 , . . . , xn ) <n .
Denomina-se vetor aleatrio discreto, o vetor aleatrio
X cujos componentes X1 , . . . , Xn so variveis aleatrias discretas. A funo de probabilidade conjunta de X dada por
f (x) = P[X1 = x1 , X2 = x2 , . . . , Xn = xn ]
e a funo de probabilidade marginal de cada Xi dada por
fXi (xi ) = P[Xi = xi ] =

P[X1 = x1 , . . . , Xn = xn ].

xj ,j6=i

Se os componentes so variveis aleatrias contnuas, denominase o vetor X de vetor aleatrio contnuo. Um vetor aleatrio
contnuo se existe uma funo f : <n <+ tal que
Z x1
Z xn
F (x) =
...
f (y)dy1 dy2 . . . dyn .

1.1. Preliminares

13

A funo f denominada funo densidade de probabilidade


conjunta. A funo densidade de probabilidade marginal de cada
Xi dada por
Z

fXi (xi ) =

...

f (y)dy1 . . . dyi1 dyi+1 . . . dyn .

As propriedades do vetor aleatrio discreto ou contnuo so anlogas s dos repectivos casos unidimensionais.
Sejam X1 e X2 duas variveis aleatrias discretas (contnuas) com f.p. (f.d.p.) conjunta fX1 ,X2 (x1 , x2 ). Seja x1 um ponto
no suporte de X1 , ou seja, x1 tal que fX1 (x1 ) > 0. A funo
de probabilidade condicional de X2 dado X1 = x1 definida por
fX1 ,X2 (x1 , x2 )
.
fX1 (x1 )

fX2 |X1 =x1 (x2 ) =

Um conceito importante o de independncia entre variveis aleatrias. As variveis aleatrias X1 , X2 , . . . , Xn so independentes se e somente se para todo (x1 , x2 , . . . , xn ),
f (x1 , x2 , . . . , xn ) = f (x1 )f (x2 ) . . . f (xn ).
As principais medidas utilizadas para resumir o comportamento de uma varivel aleatria so a mdia e a varincia.
Para variveis aleatrias discretas, o valor esperado, esperana
matemtica ou mdia de X dada por
E[X] = =

xi P[X = xi ].

i=1

Para variveis aleatria contnuas X com f.d.p. f (x) o valor esperado dado por
Z

E[X] = =

xf (x)dx.

14

Captulo 1. Conceitos Bsicos

A mdia de uma funo g(X) dada por


E[g(X)] =

g(xi )P[X = xi ]

i=1

no caso discreto e
Z

E[g(X)] =

g(x)f (x)dx

no caso contnuo. A varincia de uma varivel aleatria X


definida por Var[X] = 2 = E[(X E(X))2 ] e a raiz quadrada
da varincia denominada desvio padro.
A esperana de uma varivel aleatria d idia da posio da distribuio de probabilidade dessa varivel e a varincia
fornece uma caracterstica importante de uma varivel aleatria
que a sua variabilidade, avaliada pela disperso de seus valores em relao sua mdia. Uma expresso alternativa para
obteno da varincia Var[X] = E[X 2 ] E[X]2 .
A seguir apresentamos algumas propriedades da mdia
e da varincia. Sendo a e b constantes quaisquer, temos
E[aX + b] = aE[X] + b e

Var[aX + b] = a2 Var[X].

Podemos observar que as alteraes feitas nos valores da varivel


se refletem na sua mdia. J, em relao varincia, vemos que
apenas a multiplicao por constante interfere na disperso da
varivel. A varincia no se altera com o acrscimo de constantes.
Para um vetor aleatrio X = (X1 , . . . , Xn ) temos que
E[X1 + . . . + Xn ] = E[X1 ] + . . . + E[Xn ]
e, se as variveis aleatrias forem independentes,
Var[X1 + . . . + Xn ] = Var[X1 ] + . . . + Var[Xn ].

1.1. Preliminares

15

Algumas distribuies de probabilidade importantes so


apresentadas a seguir.
Distribuio normal. Dizemos que X tem distribuio normal
com parmetros e 2 , que denotamos por X N (, 2 ), se a
f.d.p. de X dada por
f (x|, 2 ) =

(x)2
1
e 22 ,
2

< x < ,

em que < < e 2 > 0. Neste caso, o suporte de X a


reta real. A mdia e a varincia de X so dadas por
E[X] = e

Var[X] = 2 .

O clculo de probabilidades com a f.d.p. normal no pode ser


feito pela integral, mas podem ser obtidos numericamente. Probabilidades envolvendo a distribuio N (0, 1), tambm chamada
de distribuio normal padro, so tabeladas. Uma vez que se
X N (, 2 ) ento Z = (X )/ N (0, 1), temos
ha
b i
Z
,
P[a X b] = P

que podem ser calculadas usando uma tabela da distribuio normal padro. A distribuio normal comumente utilizada para
descrever variveis como peso, altura, presso arterial, quociente
de inteligncia, etc.
Distribuio exponencial. Dizemos que X tem distribuio
exponencial com parmetro , que denotamos por X Exp(),
se a f.d.p de X dada por
f (x|) = ex ,

x > 0,

em que > 0. Neste caso, o suporte de X A = {x, x > 0}. A


mdia e a varincia de X so dadas por
1
1
E[X] =
e Var[X] = 2 .

16

Captulo 1. Conceitos Bsicos

A distribuio exponencial comumente empregada para descrever tempo de vida de equipamentos. A distribuio exponencial
tem a bem conhecida propriedade da falta de memria, ou seja,
P[X > s + t|X > s] = P[X > t], para todo s, t 0.
Distribuio de Bernoulli. Dizemos que a varivel aleatria
X tem distribuio de Bernoulli com parmetro , que denotamos por X Bernoulli(), se sua f.p. dada por

,
se x = 1,
f (x|) =
1 , se x = 0.
A mdia e a varincia de X so dadas por
E[X] =

Var[X] = (1 ).

Neste caso, o suporte de X A = {0, 1}.


Distribuio binomial. Dizemos que a varivel aleatria X
tem distribuio binomial com parmetros n e , que denotamos
por X Binomial(n, ), se sua f.p. dada por
 
n x
f (x|) =
(1 )nx , x = 0, 1, . . . , n,
x
em que 0 < < 1. Nesse caso, o suporte de X A = {0, 1, . . . , n}.
A mdia e a varincia de X so dadas por
E[X] = n

Var[X] = n(1 ).

Se X tem distribuio Binomial(n, ), podemos escrever X =


X1 + . . . + Xn , sendo X1 , . . . , Xn variveis aleatrias independentes com distribuio Bernoulli(). A distribuio binomial
comumente empregada em situaes em que cada observao
da amostra admite apenas dois resultados, sucesso ou fracasso,
como, por exemplo, em pesquisas eleitorais, em que cada indivduo ou no favorvel a determinado partido ou candidato, ou

1.1. Preliminares

17

ainda em controle de qualidade, em que cada pea produzida em


uma linha de produo ou no defeituosa.
Distribuio de Poisson. Dizemos que a varivel aleatria X
tem distribuio de Poisson com parmetro , que denotamos
por X Poisson(), se sua f.p. dada por
f (x|) =

e x
,
x!

x = 0, 1, . . . ,

em que > 0. Neste caso, o suporte de X o conjunto dos


nmeros naturais. A mdia e a varincia de X so
E[X] = Var[X] = .
A distribuio de Poisson utilizada para descrever variveis
que representam uma contagem como, por exemplo, o nmero
de chamadas que chegam a uma central telefnica, o nmero de
partculas emitidas por uma fonte radioativa ou o nmero de
pessoas que chegam a determinada fila, sempre em um intervalo
de tempo fixado.
Distribuio uniforme. Dizemos que X tem distribuio uniforme no intervalo [0, ], que denotamos por X U (0, ), se a
f.d.p. de X dada por
f (x|) =

1
I[0,] (x),

em que > 0, e I[0,] (x) a funo indicadora do intervalo [0, ],


isto ,

I[0,] (x) =

1, se 0 x ,
0, caso contrrio.

Neste caso, o suporte de X A = [0, ] e depende do parmetro


. A mdia e a varincia de X so
E[X] =

Var[X] =

2
.
12

18

Captulo 1. Conceitos Bsicos

Distribuio qui-quadrado. Dizemos que X tem distribuio


qui-quadrado com graus de liberdade, que denotamos por X
2 , se a f.d.p. de X dada por
f (y|) =

1
y /21 ey/2 ,
2/2 (/2)

y > 0,

em que > 0 e () representa a funo gama. Neste caso, o


suporte de X A = {x, x > 0}. A mdia e a varincia de X so
dadas por
E[X] =

Var[X] = 2.

A distribuio 2 tabelada para diferentes valores de .


Distribuio t de Student. Dizemos que X tem distribuio t
de Student com graus de liberdade, que denotamos por X t ,
se a f.d.p. de X dada por
f (y|) =

(( + 1)/2)
(/2)


(+1)/2
y2
1+
,

< y < ,

em que > 0. Neste caso, o suporte de X a reta real. A mdia


e a varincia de X so dadas por
E[X] = 0 e

Var[X] =

.
2

A distribuio t tabelada para diferentes valores de .

1.2 Modelos estatsticos


Considere uma f.d.p. ou f.p. f (x|) em que o parmetro
<k . Cada valor fixado de corresponde a uma
distribuio de probabilidades e o conjunto F = {f (x|),
} define uma famlia de distribuies de probabilidade. Um
modelo estatstico (paramtrico) para uma varivel aleatria (ou

1.2. Modelos estatsticos

19

um vetor aleatrio) observvel X refere-se suposio de que X


tem distribuio na famlia F .
Definio 1.2.1. O conjunto em que toma valores denominado espao paramtrico.
A seleo do modelo hipottico a ser utilizado numa
anlise estatstica no uma tarefa trivial. fundamental que o
modelo represente, na medida do possvel, a complexidade que
envolve o mundo real da varivel em estudo. Neste texto focaremos em alguns modelos simples, derivados de distribuies de
probabilidade introduzidas na Seo 1.1, e que so comumente
utilizados em anlise de dados.
Os modelos normal, exponencial, Bernoulli, binomial e
Poisson so membros de uma famlia de modelos chamada de
famlia exponencial.
Definio 1.2.2. Dizemos que a distribuio da varivel aleatria (ou do vetor aleatrio) X pertence famlia exponencial
unidimensional de distribuies se sua f.p. ou f.d.p. dada por
f (x|) = exp{c()T (x) + d() + S(x)},

x A,

(1.1)

em que c() e d() so funes reais de , T () e S() so funes


reais de x e o conjunto A no depende de .
No caso em que X contnua, para que f (x|) em (1.1)
seja uma f.d.p. necessrio que
Z
exp{c()T (x) + d() + S(x)}dx = 1,
A

ou seja,
Z
exp{c()T (x) + S(x)}dx = exp{d()},
A

20

Captulo 1. Conceitos Bsicos

de modo que d() est associado constante de normalizao da


densidade. Resultado similar vale para o caso em que X uma
varivel aleatria discreta.
Exemplo 1.2.1. Seja X Bernoulli(). Podemos escrever1


o
n

x
1x
+ log(1 ) ,
f (x|) = (1 )
= exp x log
1
x {0, 1}. Portanto, a distribuio de X pertence famlia
exponencial unidimensional com



c() = log
, d() = log(1 ),
1
T (x) = x,

S(x) = 0,

A = {0, 1}.

Exemplo 1.2.2. Seja X N (, 1). Temos que


n (x )2 o
n
o
2 x2
1
= exp x log 2 .
f (x|)= exp
2
2
2
2
Portanto, a distribuio da varivel aleatria X pertence famlia exponencial unidimensional com
c() = ,
T (x) = x,

S(x) =

d() =

2
,
2

x2
log 2,
2

A = <.

Definio 1.2.3. Dizemos que a distribuio da varivel aleatria (ou do vetor aleatrio) X pertence famlia exponencial de
dimenso k se a f.d.p. ou a f.p. de X dada por
f (x|) = exp

k
nX

o
cj ()Tj (x) + d() + S(x) ,

j=1
1

Neste texto, log denota logaritmo na base e.

x A, (1.2)

1.3. Problemas estatsticos

21

em que cj () e d() so funes reais de e Tj () e S() so


funes reais de x, para j = 1, . . . , k e A no depende de .
Como no caso unidimensional, d() est associado constante
de normalizao de (1.2).
Exemplo 1.2.3. Seja X N (, 2 ). Temos que
(x)2
1
e 22
2



2
1
= exp 2 x2 + 2 x 2 log 2 log 2 ,
2

2
2

f (x|) =

Portanto, a distribuio da varivel aleatria X pertence famlia exponencial bidimensional com


T1 (x) = x,
d() =

T2 (x) = x2 ,

1
log 2 ,
2 2
2

c1 () =

,
2

S(x) = log

c2 () =

2,

1
,
2 2

A = <.

1.3 Problemas estatsticos


Inferncia estatstica compreende o uso de dados amostrais, digamos x = (x1 . . . , xn ), para se chegar a concluses
acerca de algum aspecto da populao (real ou hipottica) da
qual os dados foram extrados. Em inferncia estatstica paramtrica, de que este livro trata, os dados so modelados como
valores observados de variveis aleatrias, colecionadas no vetor
aleatrio X = (X1 , . . . , Xn ), que seguem algum modelo estatstico pr-estabelecido que depende de um parmetro (
pode ser escalar ou vetorial). Desta forma, a distribuio de X
parcialmente conhecida, j que a forma de sua f.d.p. ou f.p.,
f (x|) digamos, conhecida, mas seu parmetro desconhecido.
Definio 1.3.1. Seja X uma varivel aleatria (ou um vetor aleatrio) com f.d.p. ou f.p. f (x|) pertencente famlia

22

Captulo 1. Conceitos Bsicos

F = {f (x|), }, em que um parmetro desconhecido e <k . Chamamos de inferncia estatstica o problema


que consiste em especificar um ou mais valores para , baseado
em um conjunto de valores observados de X.
Vamos assumir que a famlia F identificvel, ou seja,
cada elemento de F unicamente identificado pelo valor de .
Trs problemas fundamentais em inferncia estatstica
so: estimao pontual, estimao intervalar e testes de hipteses. Num problema de estimao pontual o objetivo procurar, segundo algum critrio especificado, um valor que represente adequadamente o parmetro desconhecido , ou um ou
mais de seus componentes. Estimao intervalar, por outro
lado, busca estimar os componentes de atravs de intervalos
de valores plausveis. Finalmente, em problemas de testes de
hipteses, o objetivo verificar a veracidade de afirmaes sobre os parmetros desconhecidos.
Por exemplo, uma mquina de empacotamento automtico de acar regulada para produzir pacotes de 1 kg, em
mdia, com desvio padro de 0, 02 kg. Suponhamos que, por
experincia passada, seja razovel supor que o peso dos pacotes produzidos pela mquina seguem uma distribuio normal.
Como possvel que a mquina se desregule, de interesse inferir
sobre o peso mdio dos pacotes ( digamos). Se uma amostra de
pacotes aleatoriamente selecionada da produo, o peso mdio
pode ser estimado atravs da mdia amostral dos pesos dos pacotes selecionados. Ou ainda, possvel construir um intervalo
de valores plausveis para o peso mdio. Em geral, o interesse
saber se este , de fato, igual a 1 kg. Neste caso, um teste da
hiptese H0 : = 1 contra a hiptese H1 : 6= 1 pode ser

1.4. Amostras, estatsticas e estimadores

23

construdo.
No presente texto, abordaremos exclusivamente problemas de estimao, tanto pontual quanto intervalar.

1.4 Amostras, estatsticas e estimadores


Nesta seo os conceitos de amostra aleatria, estatstica e estimador so formalizados.
Definio 1.4.1. O conjunto de valores de uma caracterstica
(observvel) associada a uma coleo de indivduos ou objetos
de interesse dito ser uma populao.
Qualquer parte (ou subconjunto) de uma populao
denominada uma amostra. Formalmente, temos a seguinte definio.
Definio 1.4.2. Seja X uma varivel aleatria com f.d.p. ou
f.p. f (x|). Um vetor (X1 , . . . , Xn ) de n variveis aleatrias independentes e identicamente distribudas (i.i.d.) com com f.d.p.
ou f.p. f (x|) dito ser uma amostra aleatria (ordenada) de
tamanho n da distribuio de X. Nesse caso, a f.d.p. ou f.p.
conjunta de X1 , . . . , Xn dada por
f (x1 , . . . , xn |) =

n
Y

f (xi |) = f (x1 |) . . . f (xn |).

i=1

Definio 1.4.3. Qualquer funo da amostra que no dependa


de parmetros desconhecidos denominada uma estatstica.
Exemplo 1.4.1. Seja (X1 , . . . , Xn ) uma amostra aleatria da
varivel aleatria X. Exemplos de estatsticas so
X(1) = min(X1 , . . . , Xn ),

X(n) = max(X1 , . . . , Xn ),

24

Captulo 1. Conceitos Bsicos


n

X
1X
e = med(X1 , . . . , Xn ), X = 1
X
Xi ,
b2 =
(Xi X)2 ,
n i=1
n i=1
em que min(.), max(.) e med(.) denotam, respectivamente, o
b2
mnimo, o mximo e a mediana amostrais. Note que X e
denotam, respectivamente, a mdia e a varincia amostrais.
Definio 1.4.5. Qualquer estatstica que assume valores somente no espao paramtrico um estimador de .
Em outras palavras, um estimador de qualquer funb
o da amostra, b = (X)
digamos, que assume valores apenas
em , e usada para estimar o parmetro desconhecido. O valor
b
do estimador calculado na amostra observada x, ou seja (x),

chamado de estimativa de .
Em muitas situaes, o interesse estimar uma funo
g(). Por exemplo, em um modelo normal, que especificado
por dois parmetros, mdia () e varincia ( 2 ), o interesse do
pesquisador pode estar focado na mdia e, neste caso, 2 visto
como um parmetro de pertubao, ou seja, necessrio especificao do modelo mas no de interesse. Aqui, = (, 2 ) e
g() = .
Definio 1.4.6. Qualquer estatstica que assume valores somente no conjunto dos possveis valores de g() um estimador
de g().
Finalizamos esta seo apresentando um teorema que
fornece resultados utilizados em inferncia para populaes normais.
Teorema 1.5.1. Seja (X1 , . . . , Xn ) uma amostra aleatria de
tamanho n da distribuio N (, 2 ). Ento

1.4. Amostras, estatsticas e estimadores

25

(i) X e S 2 so independentes,
(n1)S 2
2n1 ,
2

tn1 ,
(iii) n(X)
S

(ii)

em que X =

Pn

i=1

Xi /n e S 2 =

Pn

i=1 (Xi

X)2 /(n 1).

27

2 Estimao Pontual
2.1 Estatsticas Suficientes
Seja X = (X1 , . . . , Xn ) uma amostra aleatria da varivel aleatria X com f.d.p ou f.p. f (x|). Inferncias sobre o
parmetro so feitas com base em alguma estatstica, ou seja,
uma funo dos dados. Certas estatsticas guardam toda a informao que a amostra contm sobre o parmetro. Em outras
palavras, possibilitam o resumo dos dados sem perda de informao sobre . Nesse caso, o conhecimento apenas da estatstica
(e no necessariamente da amostra completa) suficiente para
que sejam feitas inferncias sobre . A seguir apresentamos a
definio formal de estatstica suficiente.
Definio 2.1.1. Dizemos que a estatstica T = T (X) suficiente para se a distribuio condicional de X dado T for
independente de .
Exemplo 2.1.1. Amostra aleatria de Bernoulli(). Seja
(X1 , . . . , Xn ) uma amostra aleatria da distribuio de BernoulPn
li(). Verifiquemos se a estatstica T = i=1 Xi suficiente para
. De acordo com a Definio 2.1.1, T suficiente para se
a probabilidade condicional P[X1 = x1 , . . . , Xn = xn |T = t]
for independente de , para todo t = 0, 1, . . . , n. Temos, para
xi {0, 1}, i = 1, . . . , n, e t = 0, . . . , n,
P[X1 = x1 , . . . , Xn = xn |T = t] =
(
Pn
0,
se
i=1 xi 6= t,
P[X1 =x1 ,...,Xn =xn ] , se Pn x = t.
i=1 i
P[T =t]

(2.1)

28

Se

Captulo 2. Estimao Pontual

Pn

i=1

xi = t, temos

P[X1 = x1 , . . . , Xn = xn |T = t] =

P[X1 = x1 ] . . . P[Xn = xn ]

n t
nt
t (1 )

x1 (1 )1x1 . . . xn (1 )1xn

=
n t
nt
t (1 )

t (1 )nt
1

= n ,
t (1 )nt
t

n
t

pois X1 , . . . , Xn so independentes e T Binomial(n, ). Assim,


Pn
(
0,
se
xi 6= t,
Pni=1
P[X1 = x1 , . . . , Xn = xn |T = t] =
1
, se
i=1 xi = t,
(nt)
Pn
que no depende de . Portanto, T = i=1 Xi uma estatstica
suficiente para .
Exemplo 2.1.2. Amostra aleatria de Poisson(). Seja (X1 ,
. . . , Xn ) uma amostra aleatria da distribuio de Poisson com
Pn
parmetro . Verifiquemos se T =
i=1 Xi suficiente para
. possvel mostrar que T tem distribuio de Poisson com
parmetro n. Assim, para xi , t = 0, 1, 2, ..., i = 1, . . . , n, temos
que P[X1 = x1 , . . . , Xn = xn |T = t] dada por (2.1) e, ento, se
Pn
i=1 xi = t, temos
P[X1 = x1 ] . . . P[Xn = xn ]
P[T = t]
1
t!
=
,
x1 !, . . . , xn ! nt
Pn
que independente de . Portanto, i=1 Xi uma estatstica
P[X1 = x1 , . . . , Xn = xn |T = t] =

suficiente para .
A Definio 2.1.1 apenas permite verificar se determinada estatstica ou no suficiente. Contudo, no pode ser utilizada como um mtodo para obteno de estatsticas suficientes.
Um procedimento para a obteno de estatsticas suficientes o

2.1. Estatsticas Suficientes

29

critrio da fatorao. Antes de introduzi-lo conveniente abordar o conceito de funo de verossimilhana.


Definio 2.1.2. Seja X = (X1 , . . . , Xn ) uma amostra aleatria de tamanho n da varivel aleatria X com f.d.p. ou f.p.
f (x|), , em que o espao paramtrico. A funo de
verossimilhana de correspondente amostra aleatria observada x = (x1 , . . . , xn ) dada por
L(; x) =

n
Y

f (xi |),

(2.2)

i=1

Note que a funo de verossimilhana a f.d.p. ou f.p.


conjunta de X avaliada na amostra observada x, vista como
funo do parmetro .
Teorema 2.1.1. (Critrio da Fatorao de Neyman) Seja X =
(X1 , . . . , Xn ) uma amostra aleatria da distribuio da varivel
aleatria X com f.d.p. ou f.p. f (x|) e seja L(; x) a funo de
verossimilhana. A estatstica T = T (X) suficiente para se
e somente se
L(; x) = h(x)g (T (X)),

(2.3)

em que h(x) uma funo que depende apenas de x (no depende


de ) e g (T (x)) depende de e depende de x somente atravs
de T .
Prova. Provemos o teorema apenas para o caso discreto, em que
L(; x) = P [X = x]. Suponhamos que (2.3) esteja verificada.
Ento,
P [X = x] = h(x)g (T (x)).

30

Captulo 2. Estimao Pontual

Como
(
P[X = x|T (X) = t] =

0,
se T (x) 6= t
P [X=x,T (X)=t] , se T (x) = t,
P [T (X)=t]

temos que, quando T (x) 6= t, P [X = x|T (x) = t] = 0, que


independente de e, portanto, (2.3) est verificada. Quando
T (x) = t,
P [X = x|T (X) = t] =

P [X = x]
P [X = x, T (X) = t]
=
P [T = t]
P [T = t]

h(x)g (t)
h(x)
=P
,
{x;T (x)=t} h(x)g (t)
{x;T (x)=t} h(x)

=P

que independente de e, portanto, T = T (X) uma estatstica


suficiente para .
Suponhamos agora que T = T (X) seja uma estatstica
suficiente. Sendo T (x) = t, temos que
P [X = x]

= P [X = x, T (x) = t]
= P [X = x|T (x) = t]P [T (X) = t] = h(x)g (t),

pois a distribuio condicional de X dado T independente de .


Exemplo 2.1.3. Amostra aleatria de Poisson(). Para x =
(x1 , . . . , xn ) com xi = 1, 2, . . . , i = 1, . . . , n, temos
L(; x) =

n
Y
e xi
i=1

xi !

Portanto, tomando T (x) =


h(x) = Qn

i=1 xi !

en
= Qn

Pn

i=1

Pn

i=1

i=1

xi !

xi

xi ,

e g (T (x)) = en

temos, pelo critrio da fatorao, que T (X) =


estatstica suficiente para .

> 0.

Pn

i=1

Pn

xi

i=1

Xi uma

2.1. Estatsticas Suficientes

31

Exemplo 2.1.4. Amostra aleatria de U (0, ). Seja X =


(X1 , . . . , Xn ) uma amostra aleatria da varivel aleatria X
U (0, ). Temos que
L(; x) =

n
Y
1

i=1

I[0,] (xi ) =

1
I[0,] (x(n) )I[0,x(n) ] (x(1) ), > 0,
n

em que x(1) = min(x1 , . . . , xn ) e x(n) = max(x1 , . . . , xn ). Portanto, pelo critrio da fatorao, X(n) = max(X1 , . . . , Xn ) uma
estatstica suficiente para .
Exemplo 2.1.5. Amostra aleatria de N (, 2 ), 2 conhecido. Seja X = (X1 , . . . , Xn ) uma amostra aleatria da distribuio N (, 2 ). Suponhamos que 2 seja conhecido (fixado).
Temos que
n
Y

(xi )2
1
e 22
2
i=1

n P
(xi )2
n
1

=
e i=1 22
2

n
Pn
n2

2
1
1

=
e 22 i=1 xi e 22 + 2
2

L(; x) =

Pn

<. Portanto, pelo critrio da fatorao, T (X) =

i=1

xi

Pn

,(2.4)

i=1

Xi

uma estatstica suficiente para .


Exemplo 2.1.6. Amostra aleatria de N (, 2 ). Suponhamos que ambos os parmetros sejam desconhecidos. Temos, ento, que = (, 2 ). Nesse caso, a funo de verossimilhana
L(; x) tem a forma (2.4) com < e 2 > 0. Tomando

h(x) = 1/( 2)n e


1 12 Pni=1 x2i + 2 Pni=1 xi n 22

2 ,
e 2
n
Pn
o critrio da fatorao garante que a estatstica T = ( i=1 Xi ,
Pn
2
2
i=1 Xi ) (conjuntamente) suficiente para (, ).
g (t1 (x), t2 (x)) =

32

Captulo 2. Estimao Pontual

Definio 2.1.2. Dizemos que duas estatsticas T1 e T2 so equivalentes se existir uma relao 1:1 entre elas.
Em outra palavras, T1 e T2 so equivalentes se T1 puder
ser obtida a partir de T2 e vice-versa. Nesse caso, temos que, se
T1 suficiente para , ento T2 tambm suficiente para .
Exemplo 2.1.7. Amostra aleatria de N (, 2 ), 2 conhePn
cido. Vimos que T1 = i=1 Xi suficiente para . Como T1
Pn
equivalente a T2 = i=1 Xi /n = X, temos que T2 = X tambm
suficiente para .
Exemplo 2.1.8. Amostra aleatria de N (, 2 ). No difPn
Pn
cil verificar que T1 = ( i=1 Xi , i=1 Xi2 ) e T2 = (X, S 2 ) so
equivalentes. Como T1 suficiente para = (, 2 ) (Exemplo
2.1.6), temos que T2 tambm suficiente para .
Na famlia exponencial unidimensional possvel obter estatsticas suficientes unidimensionais. De fato, seja X =
(X1 , . . . , Xn ) uma amostra aleatria de tamanho n da varivel
aleatria X, com f.d.p. ou f.p. na famlia exponencial unidimensional (1.1). Ento, a distribuio conjunta de X dada por

f (x|) = ec ()T (x)+d ()+S (x) , x An ,


Pn

em que T (x) =
i=1 T (xi ), c () = c(), d () = nd() e
P
n
S (x) = i=1 S(xi ), que da famlia exponencial unidimensio-

nal. Note-se que, tomando


h(x) = e

Pn

i=1

S(xi )

e g (T (x)) = ec()

Pn

i=1

T (xi )+nd()

fcil ver que, pelo critrio da fatorao, T (X) =

Pn

i=1

T (Xi )

uma estatstica suficiente para .


fcil verificar que amostras aleatrias de famlias exponenciais de dimenso k tambm tm distribuies que so

2.2. Propriedades de estimadores

33

membros da famlia exponencial com a mesma dimenso. De


fato, se X = (X1 , . . . , Xn ) uma amostra aleatria de uma varivel aleatria com f.d.p. ou f.p. na forma (1.2), temos que a
f.d.p. ou f.p. conjunta de X dada por

X
cj ()Tj (x) + d () + S (x) ,
f (x1 , . . . , xn |) = exp

j=1

onde Tj (x) =

Pn

i=1

Tj (xi ), cj () = cj (), S (x) =

d () = nd(). Neste caso,

(T1 , . . . , Tk )

Pn

i=1

S(xi ),

conjuntamente sufici-

ente para .
Exemplo 2.1.9. Amostra aleatria de N (, 2 ). Aqui =
(, 2 ) e
(x)2
1
e 22
2



1 2

2
1
2
= exp 2 x + 2 x 2 log log 2 ,
2

2
2

f (x|) =

que da famlia exponencial bidimensional com


T1 (x) = x,

T2 (x) = x2 ,

c1 () =

,
2

c2 () =

1
,
2 2

1
2

log

,
S(x)
=

log
2, A = <.
2 2
2
A distribuio de uma amostra aleatria da densidade acima
d() =

tambm da famlia exponencial bidimensional com T1 (X) =


Pn
Pn
2
i=1 Xi e T2 (X) =
i=1 Xi , e (T1 , T2 ) uma estatstica (conjuntamente) suficiente para (, 2 ).

2.2 Propriedades de estimadores


Para a estimao de um parmetro desconhecido necessria a escolha de um estimador adequado. Para tal, estudam-

34

Captulo 2. Estimao Pontual

se as propriedades dos estimadores e estabelecem-se critrios de


otimalidade.

2.2.1 Estimador no viciado e erro quadrtico mdio


Qualquer estimador uma varivel aleatria e tem, portanto, uma distribuio de probabilidade. Seu valor observado
depende da particular amostra extrada da populao em estudo. Claramente, no possvel antever se a estimativa produzida pela amostra ser prxima ou no do verdadeiro valor do
parmetro que se objetiva estimar. Entretanto, se a distribuio
do estimador puder ser determinada, ou se, ao menos, algumas
caractersticas dessa distribuio puderem ser obtidas, pode ser
vivel verificar se o estimador possui algumas boas propriedades.
Intuitivamente, desejvel que um estimador tenha distribuio
centrada em , no havendo uma tendncia a superestimar ou
subestimar o parmetro desconhecido. Em outras palavras, desejvel que o estimador seja no viciado.
Definio 2.2.1. O vis de um estimador b do parmetro
dado por
b = E[]
b ,
B[]

Definio 2.2.2. Dizemos que um estimador b no viciado


para se
b = ,
E[]

para todo ,

b = 0, para todo .
ou seja B[]
H situaes em que o estimador possui um vis que
decresce medida que o tamanho da amostra cresce. Ou seja,
espera-se que, em amostras grandes, o vis de b seja muito pequeno. Formalmente, temos a seguinte definio.

2.2. Propriedades de estimadores

35

Definio 2.2.3. Dizemos que um estimador b assintoticamente no viciado para se


b = 0,
limn B[]

para todo .

Exemplo 2.2.1. Amostra aleatria de populao com mdia e varincia 2 . Seja X = (X1 , . . . , Xn ) uma amostra
aleatria da varivel aleatria X com E[X] = e Var[X] = 2 .
Temos que
"

#
n
n
1X
1X
Xi =
E[Xi ] =
E[X] = E
n i=1
n i=1
e
Var[X] =

n
2
1 X
Var[X
]
=
.
i
n2 i=1
n

Portanto, X um estimador no viciado de . Com relao


Pn
varincia amostral,
b2 = i=1 (Xi X)2 /n, possvel mostrar
que
E[b
2 ] =

(n 1) 2

B[b
2 ] =

2
.
n

Portanto,
b2 um estimador viciado de 2 , mas assintoticamente no viciado, ou seja, medida que o tamanho da amostra
aumenta, seu vcio diminui. O vis de
b2 pode ser corrigido pela
multiplicao pelo fator n/(n 1), o que resulta no estimador
n

S2 =

n
1 X

b2 =
(Xi X)2 ,
n1
n 1 i=1

que um estimador no viciado para 2 . por esta razo que,


usualmente, estima-se a varincia populacional utilizando-se a
varincia amostral obtida com n1 e no com n no denominador.

36

Captulo 2. Estimao Pontual

Estimadores no viciados podem ser comparados atravs de suas varincias, que so medidas de variabilidade das estimativas em torno do parmetro a ser estimado em amostras
repetidas. No entanto, se a comparao envolve ao menos um
estimador viciado, mais adequado utilizar o erro quadrtico
mdio.
Definio 2.2.4. O erro quadrtico mdio (EQM) de um estimador b do parmetro dado por
b = E[(b )2 ],
EQM[]

Note-se que
b = E[{(b E[(])
b + (E[]
b )}2 ]
EQM[]
b 2 ] + 2E[(b E[(])](E[
b
b )
= E[(b E[(])
]
b )2
+ (E[]
b 2 ] + (E[]
b )2
= E[(b E[(])
b + B[]
b 2.
= Var[]
b = 0,
Logo, se b um estimador no viciado para , ou seja, se B[]
o erro quadrtico mdio de b se reduz sua varincia.
Exemplo 2.2.2. Amostra aleatria de N (, 2 ). Conforme
visto no Exemplo 2.2.1,
b2 um estimador viciado de 2 enquanto que S 2 no viciado. Por outro lado, temos que
EQM[S 2 ] = Var[S 2 ] =
e
EQM[b
2 ] =

2 4
n1



2 4
3n 1
1
.
n1
2n2

Note-se que
b2 , apesar de ser um estimador viciado, apresenta
EQM menor que o estimador S 2 .

2.2. Propriedades de estimadores

37

2.2.2 Estimadores eficientes


Como mencionado anteriormente, a comparao entre
estimadores no viciados pode ser feita atravs de suas varincias. A eficincia de um estimador pode ser medida pelo quociente entre a menor varincia que pode ser atingida por qualquer
estimador no viciado e a sua prpria varincia.
b
Definio 2.2.5. Chamamos de eficincia de um estimador ,
no viciado para o parmetro , o quociente
b = LI() ,
E []
b
Var[]
em que LI() o limite inferior da varincia dos estimadores
b = 1, b dito ser eficiente.
no viciados de . Se E []
Como veremos no Teorema 2.2.1,
1

LI() =
nE



log f (X|)

2  ,

(2.5)

quando certas condies de regularidade esto satisfeitas. As


condies de regularidade so basicamente duas: o suporte A =
{x, f (x|) > 0} independente de e possvel a troca da ordem das operaes de derivao com respeito a e de integrao
sob a distribuio de X.
Exemplo 2.2.3. Amostra aleatria de N (, 2 ), 2 conhecido. Temos que
log f (x|) = log

1
(x )2
log 2
.
2
2 2

Portanto,
log f (x|)
(x )
=
.

(2.6)

38

Captulo 2. Estimao Pontual

Assim,
"
2 #


(X )2
1
1
log f (X|)
=E
= 4 Var[X] = 2 .
E

Logo, conclui-se de (2.5) que


LI() =

2
,
n

que coincide com Var[X], e, portanto, X um estimador eficiente


para . De (2.6) temos tambm que


log f (X|)
1
E
= 2 E[X ] = 0.

(2.7)

Definio 2.2.6. A quantidade


log f (X|)

chamada funo escore.


O resultado (2.7), ou seja, que


log f (X|)
E
= 0,

(2.8)

vale em geral quando as condies de regularidade esto satisfeitas. Portanto, o valor esperado da funo escore sempre nulo.
Definio 2.2.7. A quantidade
"
2 #
log f (X|)
IF () = E
,

denominada informao de Fisher de .


Como consequncia de (2.8) temos que


log f (X|)
IF () = Var
,

2.2. Propriedades de estimadores

39

pois Var[X] = E[X 2 ] para uma varivel aleatria X qualquer


com E[X] = 0. Um resultado importante estabelece que
"
2 #
 2

log f (X|)
log f (X|)
E
= E
.

2
Uma outra propriedade relevante estabelece que, para uma amostra aleatria (X1 , . . . , Xn ) da varivel aleatria X com f.d.p
ou f.p. f (x|) e informao de Fisher IF (), a informao total
de Fisher de correspondente amostra observada a soma
da informao de Fisher das n observaes da amostra. De fato,
sendo
L(; x) = f (x|) =

n
Y

f (xi |)

i=1

a f.d.p. conjunta de (X1 , . . . , Xn ), temos que


"
2 #
 2

log L(; X)
log L(; X)
= E
E

2
= E

" n
#
X 2 log f (Xi |)
i=1

n
X


 2
log f (Xi |)
= nIF (),
=
E
2
i=1

pois Xi , para i = 1, . . . , n, so independentes e identicamente


distribudas com a mesma distribuio que X.
Teorema 2.2.1. Desigualdade da Informao. Quando as
condies de regularidade esto satisfeitas, a varincia de qualquer estimador no viciado b do parmetro satisfaz a desigualdade
b
Var[]

1
.
nIF ()

A desigualdade da informao, inicialmente chamada de


Cramr-Rao, no um mtodo de construo de estimadores,
mas apenas possibilita verificar se determinado estimador ou

40

Captulo 2. Estimao Pontual

no eficiente. ento importante que sejam estabelecidos mtodos para construo de estimadores que tenham boas propriedades.

2.2.3 Estimadores Baseados em Estatsticas Suficientes


Seja X = (X1 , . . . , Xn ) uma amostra aleatria da varivel aleatria X com f.d.p. ou f.p. f (x|). Seja T = T (X) uma
estatstica suficiente para e S = S(X) um estimador de .
Como T uma estatstica suficiente, a distribuio condicional
de S dado T no depende de . Ento,
b = E[S|T ]

(2.9)

tambm um estimador de e depende da amostra somente


atravs de T . Temos ainda que, se S um estimador no viciado
de , ento b um estimador no viciado de . Em outras palavras, a partir de qualquer estimador no viciado S de , pode-se
encontrar um estimador no viciado que seja funo apenas da
estatstica suficiente T usando (2.9). Um resultado importante,
conhecido como Teorema de Rao-Blackwell, estabelece que, se S
um estimador no viciado de , ento,
b Var[S],
Var[]

para todo .

b que baseado na estatstica suficiente


Portanto, o estimador ,
T , no viciado e apresenta varincia menor (ou igual) que a
varincia do estimador no viciado S. Desse modo, qualquer estimador S que no seja funo de uma estatstica suficiente pode
ser melhorado pelo procedimento (2.9).
Exemplo 2.2.4. Amostra aleatria de Poisson(). Suponha
que o interesse seja estimar P [X = 0] = = e . Temos que

2.2. Propriedades de estimadores

a estatstica T =

Pn

i=1

41

Xi suficiente para (Exemplo 2.1.2).

Consideremos

S=

1, se X1 = 0,
0, caso contrrio.

Temos que E[S] = P[X1 = 0] = , ou seja, S um estimador


no viciado de . Notemos que, para t = 0, 1, 2, ...,
Pn
P[ i=2 Xi = t]P[X1 = 0]
Pn
E[S|T = t] = P[X1 = 0|T = t] =
P[ i=1 Xi = t]
=

t!
e(n1) ((n 1))t
e
=
t!
en (n)t

n1
n

t
.

Portanto,

b =

n1
n

Pni=1 Xi

um estimador no viciado de e melhor que o estimador S,


pois apresenta EQM menor.
O Teorema de Rao-Blackwell no possibilita garantir
que um estimador obtido pelo mecanismo (2.9), sendo S um
estimador no viciado, seja o de menor varincia entre todos
os estimadores no viciados. O chamado Teorema de LehmannScheff garante que, se T for uma estatstica completa, alm de
suficiente, o estimador b em (2.9) o nico estimador no viciado
de varincia uniformemente mnima (ENVVUM) de .1 A definio de estatstica completa no ser fornecida neste texto.
possvel demonstrar que, na famlia exponencial de dimenso k,
como dada na Definio 1.2.3, a estatstica (T1 (X), . . . , Tk (X))
completa (j sabemos que suficiente), desde que o espao
paramtrico contenha retngulos de dimenso k.
1

O termo uniformemente indica que a mnima varincia vale qualquer


que seja o valor de .

42

Captulo 2. Estimao Pontual

Exemplo 2.2.5. Amostra aleatria de Poisson(). Por proPn


priedades da famlia exponencial, temos que T = i=1 Xi uma
estatstica suficiente e completa. Como X o estimador no viciado de e funo de T , ENVVUM de .

2.2.4 Estimadores consistentes


Estimadores consistentes so aqueles que, medida que
o tamanho da amostra aumenta, aproximam-se do parmetro
que est sendo estimado. Consistncia est ligada ao conceito de
convergncia em probabilidade; veja James [6].
Definio 2.2.8. Seja X = (X1 , . . . , Xn ) uma amostra aleatria
da distribuio da varivel aleatria X que depende do parmetro
. Dizemos que o estimador b consistente para se
limn P[|b | > ] = 0,

para qualquer  > 0.

Exemplo 2.2.6. Amostra aleatria de populao com mdia e varincia 2 . Da desigualdade de Chebyshev (veja James [6]) temos que
P[|X | > ]

2
,
n2

o que leva a
limn P[|X | > ] = 0,
e, portanto, X um estimador consistente para .

2.3 Estimadores de mxima verossimilhana


Nesta seo apresentamos um dos mtodos de obteno
de estimadores mais utilizados, o mtodo de mxima verossimilhana. Como vimos na Seo 2.1, a funo de verossimilhana

2.3. Estimadores de mxima verossimilhana

43

dada em (2.2) a f.d.p. ou f.p. de X = (X1 , . . . , Xn ) avaliada


na amostra observada x = (x1 , . . . , xn ) vista como funo do
parmetro desconhecido . Assim, faz sentido tomar como
estimativa de o valor em que maximiza a funo de verossimilhana. No caso discreto, esta estimativa pode ser interpretada
como o valor de que maximiza a probabilidade de se observar
a amostra que foi selecionada.
Definio 2.3.1. Seja L(; x) a funo de verossimilhana correspondente amostra observada x. A estimativa de mxima
verossimilhana de o valor b que maximiza L(; x); b
avaliado em X chamado de estimador de mxima verossimilhana de .
O logaritmo natural da funo de verossimilhana de
denotado por l(; x) = log L(; x). Como o logaritmo uma
funo montona crescente, qualquer valor de que maximiza
l(; x) tambm maximiza a funo de verossimilhana L(; x).
Alm disso, quando um intervalo aberto da reta e l(; x)
derivvel, uma estimativa de mxima verossimilhana pode, em
muitos casos, ser encontrada como raiz da equao de verossimilhana
l(; x)
= 0.
(2.10)

Para se concluir que uma soluo desta equao um ponto de


l0 (; x) =

mximo necessrio verificar se



2 log L(; x)
b
l (; x) =
b < 0.
2
=
00

(2.11)

Em situaes em que discreto ou em que o mximo de l(; x)


ocorre na fronteira do espao paramtrico , o estimador de
mxima verossimilhana pode ser obtido por inspeo da funo
de verossimilhana.

44

Captulo 2. Estimao Pontual

Exemplo 2.3.1. Amostra aleatria de N (, 2 ), 2 conhecido. A funo de verossimilhana dada por



n
Pn
2
1
1
L(; x) =
e 22 i=1 (xi ) , < < .
2
Como
n

1 X
l(; x) = n log( 2) 2
(xi )2 ,
2 i=1

segue que a equao de verossimilhana dada por


n
X

(xi
b) = 0.

i=1

Logo, o estimador de mxima verossimilhana de dado por


n

b=

1X
Xi = X.
n i=1

No difcil verificar que (2.11) est satisfeita.


Portanto, X, alm de ser eficiente (Exemplo 2.2.3) e
funo da estatstica suficiente, tambm estimador de mxima
verossimilhana.
Exemplo 2.3.2. Amostra aleatria de Bernoulli(). A funo de verossimilhana de dada por
L(; x) =

Pn

i=1

xi

(1 )n

Pn

i=1

xi

0 < < 1.

Assim,
l(; x) =

n
X
i=1

xi log +

n
X

!
xi

log(1 ).

i=1

Logo, a equao de verossimilhana de dada por


Pn
Pn
(n i=1 xi )
i=1 xi

= 0.
b
1 b

2.3. Estimadores de mxima verossimilhana

45

Portanto, o estimador de mxima verossimilhana de b = X,


pois, neste caso, (2.11) tambm est verificada.
O exemplo a seguir ilustra uma situao em que a equao (2.10) no pode ser utilizada.
Exemplo 2.3.3. Amostra aleatria de U (0, ). Como visto
no Exemplo 2.1.4, podemos escrever a funo de verossimilhana
como
1
I[0,] (x(n) )I[0,x(n) ] (x(1) ), > 0.
n
Como a funo de verossimilhana nula para < x(n) e
L(; x) =

decrescente para x(n) , o mximo de L(; x) dado por x(n) .


Logo,o estimador de mxima verossimilhana de b = X(n) ,
que uma estatstica suficiente para . Nesse caso o estimador
de mxima verossimilhana de viciado.
Nos exemplos apresentados acima, a soluo da equao
de verossimilhana pode ser obtida explicitamente. Em alguns
casos, principalmente quando a verossimilhana est associada a
modelos mais complexos, a funo de verossimilhana no apresenta soluo analtica explcita. Em tais casos, os estimadores
de mxima verossimilhana podem ser obtidos por meio de mtodos numricos (por exemplo, mtodo de Newton-Raphson ou
mtodo do escore).

2.3.1 Propriedades dos Estimadores de Mxima Verossimilhana


O teorema a seguir apresenta uma propriedade importante dos estimadores de mxima verossimilhana, estabelecendo
que o estimador de mxima verossimilhana funo de qualquer
estatstica suficiente.

46

Captulo 2. Estimao Pontual

Teorema 2.3.1. Seja X = (X1 , . . . , Xn ) uma amostra aleatria


da varivel aleatria X com f.d.p. ou f.p. f (x|). Seja T = T (X)
uma estatstica suficiente para . Ento o estimador de mxima
verossimilhana b (se existir) funo de T .
Prova. Pelo critrio da fatorao, se T suficiente para , ento,
L(; x) = h(x)g (T (x)).
Como h(x) constante em , maximar L(; x) com relao a
equivalente a maximizar g (T (x)) com relao a . Como
g (T (x)) depende de x somente atravs de T , temos que b
funo de T .
Uma outra propriedade interessante dos estimadores de
mxima verossimilhana a de invarincia, ou seja, se b um
b um
estimador de mxima verossimilhana de , ento g()
estimador de mxima verossimilhana de g().
Exemplo 2.3.6. Amostra aleatria de Bernoulli(). Suponha que o interesse seja estimar g() = Var[X] = (1 ). Pela
propriedade de invarincia, temos que o estimador de mxima
verossimilhana de g()
b = X(1 X).
g()
b um estimador viciado para g().
possvel mostrar que g()
Por outro lado, mostra-se tambm que
b g() =
E[g()]

1
(1 ),
n

que decresce medida que n aumenta.


Exemplo 2.3.7. Amostra aleatria de N (, 2 ), 2 conhecido. Vimos que
b = X o estimador de mxima verossimi-

2.3. Estimadores de mxima verossimilhana

47

lhana de . Suponha que o interesse seja estimar


g() = P [X 0] = ().
Pela propriedade de invarincia, temos que
g(b
) = (X)
o estimador de mxima verossimilhana de g().
Exemplo 2.3.8. Amostra aleatria de Exp(). Seja (X1 , . . . ,
Xn ) uma amostra aleatria da distribuio da varivel aleatria
X com distribuio exponencial de parmetro . Neste caso, b =
1/X o estimador de mxima verossimilhana de . Suponha
que o interesse seja estimar
g() = P [X > 1] = e .
Pelo princpio da invarincia, o estimador de mxima verossimilhana g()
b = e1/X .
g()
Nos trs exemplos acima, o estimador de mxima verossimilhana uma funo complicada da amostra. Certamente,
no uma tarefa fcil encontrar a distribuio do estimador
(X), por exemplo. Contudo, se o tamanho da amostra for
grande, o estimador de mxima verossimilhana apresentar uma
distribuio aproximadamente normal, como veremos adiante.
Alm disso, veremos que o estimador de mxima verossimilhana
aproximadamente eficiente em grandes amostras.
Se condies de regularidade esto satisfeitas, temos que



1
a
b
n( ) N 0,
,
(2.12)
IF ()

48

Captulo 2. Estimao Pontual

b g()) N
n(g()


0,

(g 0 ())2
IF ()


,

(2.13)

em que indica distribuio assinttica. Em outras palavras, em


amostras grandes, os estimadores de mxima verossimilhana
de e de g() tm distribuio aproximadamente normal, so
aproximadamente no viciados, e tm varincias prximas dos
correspondentes limites inferiores das varincias dos estimadores
no viciados. Portanto, em grandes amostras, os estimadores de
mxima verossimilhana so aproximadamente eficientes.
Exemplo 2.3.9. Amostra aleatria de Poisson(). O estimador de mxima verossimilhana de b = X (verifique!). Pela
propriedade de invarincia, temos que o estimador de mxima
verossimilhana de P [X = 0] = e dado por
b = eX .
g()
De (2.13), temos que

b e ) N (0, e2 ),
n(g()

aproximadamente, se n for grande.

2.3.2 O Caso Multiparamtrico


Nas sees anteriores discutimos a obteno dos estimadores de mxima verossimilhana e estudamos suas propriedades
no caso em que a funo de verossimilhana depende apenas de
um parmetro. Nesta seo vamos considerar situaes em que
= (1 , . . . , k ), ou seja, a verossimilhana depende de dois ou
mais parmetros. O espao paramtrico ser denotado por .
Nos casos em que condies de regularidade esto satisfeitas, os

2.3. Estimadores de mxima verossimilhana

49

estimadores de mxima verossimilhana de 1 , . . . , k podem ser


obtidos como soluo das equaes
l(; x)
= 0,
i

i = 1, . . . , k.

Nos casos em que o suporte da distribuio de X depende de


ou o mximo ocorre na fronteira de , o estimador de mxima
verossimilhana , em geral, obtido inspecionando o grfico da
funo de verossimilhana como no caso uniparamtrico. Nos
casos em que a funo de verossimilhana depende de dois parmetros, 1 e 2 , utilizando a equao
l(1 , 2 ; x)
= 0,
1
obtemos uma soluo para 1 como funo de 2 , que podemos
denotar por b1 (2 ). Substituindo a soluo para 1 na verossimilhana conjunta, temos agora uma funo apenas de 2 , ou
seja,
g(2 ; x) = l(b1 (2 ), 2 ; x),
que o logaritmo da chamada funo de verossimilhana perfilada de 2 . Esta pode ser usada para obter o estimador de
mxima verossimilhana de 2 . A maximizao de g(2 ; x) pode,
ento, ser feita de maneira usual, ou seja, atravs de derivao,
quando possvel.
Exemplo 2.3.10. Amostra aleatria de N (, 2 ). Aqui,
l(, 2 ; x) =

n
X
n
(xi )2
log(2 2 )
.
2
2 2
i=1

Assim, a equao
n
X
l(, 2 ; x )
(xi
b)
=2
=0
2

2
i=1

50

Captulo 2. Estimao Pontual

leva ao estimador
b = X. Logo, o logaritmo da funo de verossimilhana perfilada de 2 dado por
g( 2 ; x) =

n
1 X
n
log(2 2 ) 2
(xi x)2 .
2
2 i=1

Portanto, o estimador de mxima verossimilhana de 2 obtido


como soluo da equao
n

X (xi x)2
g( 2 ; x)
n
= 2 +
=0
2

2b

2b
4
i=1
que leva ao estimador
n

b2 =

1X
(Xi X)2 .
n i=1

No caso multiparamtrico, as mesmas propriedades, tais


como invarincia, funo da estatstica suficiente e outras, continuam valendo.

51

3 Estimao Intervalar
Neste captulo consideramos o problema de estimao
de parmetros utilizando intervalos de confiana. Os intervalos
de confiana so obtidos a partir de variveis aleatrias especiais
chamadas de quantidades pivotais.

3.1 Mtodo da quantidade pivotal


A construo de intervalos utilizando quantidades pivotais considerada a seguir.
Definio 3.1.1. Uma varivel aleatria Q(X; ) dita ser uma
quantidade pivotal para o parmetro se sua distribuio for
independente de .
Note-se que uma quantidade pivotal no uma estatstica, pois depende do parmetro .
Seja (0, 1) e defina = 1 . Para fixado, sejam
1 e 2 tais que
P[1 Q(X; ) 2 ] = .

(3.1)

Como a distribuio de Q(X; ) independente de , 1 e 2


tambm no dependem de . Alm disso, se para cada X existirem t1 (X) e t2 (X) tais que
1 Q(X; ) 2 se e somente se t1 (X) t2 (X),
ento, de (3.1) segue que
P[t1 (X) t2 (X)] = .

52

Captulo 3. Estimao Intervalar

Assim, [t1 (X); t2 (X)] um intervalo aleatrio que contm com


probabilidade , e denominado coeficiente de confiana.
Nos casos em que a distribuio da quantidade pivotal
discreta, nem sempre possvel determinar 1 e 2 tais que (3.1)
esteja satisfeita exatamente. Nesses casos, podemos escolher 1 e
2 tais que (3.1) seja satisfeita para um coeficiente de confiana
maior ou igual a , o mais prximo possvel de .
Quando n razoavelmente grande, intervalos de confiana aproximados podem ser obtidos atravs da distribuio
assinttica do estimador de mxima verossimilhana, vista na
Seo 2.3.1. Um outro ponto a salientar que, na maioria dos
casos, existem infinitos pares (1 , 2 ) satisfazendo (3.1). Sempre
que possvel, devemos escolher (1 , 2 ) que produz o intervalo de
menor comprimento. Tal procedimento facilitado em situaes
em que a distribuio de Q(X; ) simtrica, como no caso da
distribuio normal.
Exemplo 3.1.1. Amostra aleatria de U (0, ). Vimos no
Captulo 2 que uma estatstica suficiente para dada por Y =
X(n) . A f.d.p. de Y
fY (y) =

ny n1
,
n

y [0, ].

Logo X(n) no uma quantidade pivotal j que sua distribuio


depende de . Por outro lado, a distribuio de Q(X; ) = X(n) /
dada por
fQ (q) = nq n1 I[0,1] (q),
que no depende de , e, portanto, Q(X; ) uma quantidade
pivotal. Assim, dado = 1 , podemos encontrar 1 e 2 tais

3.1. Mtodo da quantidade pivotal

53

que
Z

fQ (q)dq = = 1 .
1

Como existem infinitos pares (1 , 2 ) satisfazendo esta equao,


consideramos o intervalo simtrico, ou seja, consideramos o intervalo satisfazendo
Z 1

fQ (q)dq =
2
0

fQ (q)dq =

e
2

,
2

o que leva a
1 =

 1/n
2


1/n
e 2 = 1
.
2

Como




X(n)
X(n)
X(n)
2 = P
P 1

= 1 ,

2
1
temos que
"

X(n)
1/n

(1 /2)

X(n)
(/2)

1/n

um intervalo de confiana para com coeficiente de confiana


= 1 .
Conforme mencionado anteriormente, o coeficiente de
confiana, , a probabilidade fixada de que o intervalo aleatrio [t1 (X); t2 (X)] contenha o verdadeiro valor do parmetro.
Aps a amostra ser observada, o intervalo de confiana calculado com base nos dados observados e passa a no depender de
nenhuma quantidade aleatria; apenas um intervalo numrico.
Desta maneira, no pode ser interpretado como a probabilidade do verdadeiro valor de pertencer ao intervalo de confiana
obtido. O que se aplica a interpretao frequentista, ou seja,

54

Captulo 3. Estimao Intervalar

para cada 100 intervalos numricos construdos a partir do intervalo aleatrio, aproximadamente 100% deles contero o valor
verdadeiro de . Assim, fornece um grau de confiana de que o
intervalo de confiana obtido contenha o verdadeiro valor de .

3.2 Intervalos para Populaes Normais


3.2.1 O caso de uma nica amostra
Seja (X1 , . . . , Xn ) uma amostra aleatria de tamanho n
da distribuio N (, 2 ). Assumindo 2 conhecido, temos que
uma quantidade pivotal baseada na estatstica suficiente X
dada por
Q(X; ) =

X
,
/ n

que tem distribuio N (0, 1). Portanto, dado o coeficiente de


confiana = 1 , existem 1 e 2 tais que


X
2 = .
P 1
/ n
Como a distribuio N (0, 1) simtrica, o intervalo de menor
comprimento o intervalo simtrico, que obtido tomando 1 =
z/2 e 2 = z/2 , em que P[Z z/2 ] = 1 /2 com Z
N (0, 1). O intervalo de confiana para de menor comprimento
, portanto, dado por



X z/2 ; X + z/2 .
n
n
Se 2 desconhecido, temos pelo Teorema 1.5.1.(iii) que
Q(X, ) =

X
tn1
S/ n

3.2. Intervalos para Populaes Normais

55

e, portanto, Q(X, ) uma quantidade pivotal. Ento, existem


1 e 2 tais que


X
2 = .
P 1
S/ n
Como a distribuio tn1 simtrica, o intervalo de confiana de
menor comprimento obtido tomando 1 = t/2 e 2 = t/2 ,
em que t/2 tal que P (T t/2 ) = 1 /2 com T tn1 .
Assim, o intervalo de menor comprimento dado por


S
S
X t/2 ; X + t/2 .
n
n
Suponha que o interesse seja estimar 2 sendo desconhecido. Do Teorema 1.5.1.(ii), temos que
Q(X, 2 ) =

(n 1)S 2
2n1
2

e , ento, uma quantidade pivotal. Portanto, podemos determinar 1 e 2 de modo que




(n 1)S 2
P 1
2 = .
2
Considerando o intervalo simtrico, ou seja, 1 = q1 e 2 =
q2 , em que P[2n1 q2 ] = P[2n1 q1 ] = /2, obtm-se o
intervalo


(n 1)S 2 (n 1)S 2
;
.
q2
q1

3.2.2 Duas amostras independentes


Sejam X = (X1 , . . . , Xn ) e Y = (Y1 , . . . , Ym ) amostras
aleatrias independentes de X N (1 , 2 ) e Y N (2 , 2 ),
respectivamente. O objetivo estimar a diferena das mdias

56

Captulo 3. Estimao Intervalar

populacionais, ou seja, 1 2 . Admitindo que a varincia 2 ,


comum s duas populaes, conhecida, o vetor de parmetros
= (1 , 2 ). Sabe-se que



1
1
X Y N 1 2 , 2
+
.
n m
Assim,
Q(X, Y, ) =

X Y (1 2 )
q
N (0, 1),
1
n1 + m

e , portanto, uma quantidade pivotal. Analogamente ao exposto


na seo anterior, mostra-se que
"
#
r
r
1
1
1
1
X Y z/2
+ ; X Y + z/2
+
n m
n m
um intervalo de confiana para 1 2 com coeficiente de
confiana .
Se 2 desconhecido, temos que uma quantidade pivotal
dada por
Q(X, Y, ) =

X Y (1 2 )
q
tn+m2 ,
1
Sp n1 + m

(3.2)

em que
Sp2 =

(n 1)Sx2 + (m 1)Sy2
,
n+m2

com
n

Sx2 =

1 X
(Xi X)2
n 1 i=1

e Sy2 =

1 X
(Yi Y )2 .
m 1 i=1

De fato, como
(n 1)Sx2
2n1
2

(m 1)Sy2
2m1 ,
2

3.3. Intervalos de Confiana Aproximados

57

e, pela independncia de Sx2 e Sy2 , temos que


(n + m 2)Sp2
(n 1)Sx2 + (m 1)Sy2
=
2n+m2 .
2
2

(3.3)

Ento, do Teorema 1.5.1(iii) segue (3.2). Um intervalo de confiana para 1 2 com coeficiente de confiana , ento, dado
por
"

X Y t/2 Sp

1
1
+ ; X Y + t/2 Sp
n m

#
1
1
+
,
n m

em que t/2 tal que P (T t/2 ) = 1 /2 com T tn+m2 .


Para construir um intervalo de confiana para 2 , podese considerar a quantidade pivotal (3.3).

3.3 Intervalos de Confiana Aproximados


Intervalos de confiana aproximados podem ser constrdos com base na distribuio assinttica de estimadores de
mxima verossimilhana. De (2.12) temos que
p
a
nIF () (b ) N (0, 1).
Como IF () pode depender de , que no conhecido, substib temos que
tuindo IF () por IF (),
q
Q(X, ) =

a
b (b )
nIF ()
N (0, 1),

(3.4)

de modo que Q(X, ) uma quantidade aproximadamente pivotal em grandes amostras.


Se o interesse estiver na construo de intervalos de confiana para uma funo g(), pode-se considerar a varivel alea-

58

Captulo 3. Estimao Intervalar

tria
b g() a
g()
Q(X, g()) = r
N (0, 1),

(3.5)

b 2
(g 0 ())
b
nIF ()

que uma quantidade aproximadamente pivotal para amostras


grandes.
Exemplo 3.3.1. Amostra aleatria de Bernoulli(). Como
o estimador de mxima verossimilhana de b = X e IF () =
1/[(1 )], de (3.4) temos que
X
Q(X, ) = q

N (0, 1).

X(1X)
n

Assim, para valores grandes de n, um intervalo de confiana para


com coeficiente de confiana aproximadamente dado por

s
s
X z/2 X(1 X) ; X + z/2 X(1 X) .
n
n
Exemplo 3.3.2. Amostra aleatria de Exp(). Suponha que
o interesse seja estimar g() = E[X] = 1/. Como IF () = 1/2
e b = 1/X, segue de (3.5) que

Q(X, ) =

n(X 1/) a
N (0, 1),
X

o que conduz ao intervalo de confiana com coeficiente de confiana aproximado = 1 dado por


X
X
X z/2 ; X z/2 .
n
n

59

Consideraes Finais e Notas


Bibliogrficas
O material apresentado neste livro foca em alguns conceitos centrais da inferncia estatstica clssica. So abordados
os tpicos de estimao pontual e intervalar, enquanto que o
tpico de testes de hipteses, igualmente relevante, omitido.
Espera-se que o estudo deste breve texto motive o leitor a se
aprofundar mais e procurar livros e cursos mais abrangentes.
Grande parte do texto baseada no livro Introduo
Inferncia Estatstica de Bolfarine e Sandoval [1], que frequentemente utilizado em disciplinas de inferncia estatstica em nvel
de graduao no Brasil. Recomendamos ao leitor interessado que
leia nesse livro o Captulo 6, que trata de testes de hipteses, e
as Sees 4.3 e 4.4, que introduzem o enfoque Bayesiano.
Outras referncias teis para aprofundamento do contedo aqui apresentado incluem os livros de Casella e Berger [2],
DeGroot e Schervish [3], Garthwaite et. al. [4] e Hogg et al. [5].

61

Referncias
[1]

H. Bolfarine, M.C. Sandoval, Introduo Inferncia Estatstica. SBM, 2. ed., Rio de Janeiro, 2010.

[2]

G. Casella R. Berger Statistical Inference. Duxbury, 2. ed.,


2002.

[3]

M.H. DeGroot, M.J. Schervish, Probability and Statistics,


Pearson, 4. ed., 2011

[4]

P.H. Garthwaite, I.T. Jolliffe, B. Jones, Statistical Inference.


Oxford University Press, 2. ed., 2002.

[5]

R.V. Hogg, J. McKean, A.T. Craig, Introduction to Mathematical Statistics. Pearson, 7. ed., 2012.

[6]

B.R. James, Probabilidade: um Curso em Nvel Intermedirio. IMPA, 3. ed., Rio de Janeiro, 2008.

Das könnte Ihnen auch gefallen