Beruflich Dokumente
Kultur Dokumente
Notas de Aula
Leonardo T. Rolla
8 de agosto de 2017
c 20122017 Leonardo T. Rolla.
8 de agosto de 2017.
Prefcio
Estas notas foram produzidas a partir de notas de aula das disciplinas Proba-
bilidade, do mestrado em Cincias Atuariais da PUC-Rio, ministrada em 2006,
Introduo Probabilidade, ministrada em 2012 e 2013 no IMPA, e Teoria da
Probabilidade, ministrada em 2017 na NYU-Shanghai.
Para seguir estas notas no necessrio qualquer conhecimento prvio em Proba-
bilidade. Os pr-requisitos so clculo de derivadas e integrais em Rd , limites de
sequncias, convergncia de sries, e limites laterais de funes. Para seguir as de-
monstraes mais avanadas, o leitor deve estar familiarizado com as propriedades
elementares de lim sup e lim inf, polinmios de Taylor e supremo de conjuntos.
5
6 PREFCIO
Rigor Matemtico
Tpicos Omitidos
Erros e Omisses
Estas notas contm inmeras imprecises e omisses. A quem faa uso deste texto,
peo que me enviem todos os comentrios, crticas e correes que venham a surgir.
8 de agosto de 2017.
8 PREFCIO
Sumrio
Prefcio 5
1 Espao de Probabilidade 13
1.1 Espao de Probabilidade . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.2 Probabilidade Condicional . . . . . . . . . . . . . . . . . . . . . . . . 20
1.3 Independncia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
1.4 O Problema de Monty-Hall . . . . . . . . . . . . . . . . . . . . . . . 29
1.5 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2 Variveis Aleatrias 33
2.1 Variveis Aleatrias . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.2 Variveis Aleatrias Discretas . . . . . . . . . . . . . . . . . . . . . . 39
2.3 Variveis Aleatrias Contnuas . . . . . . . . . . . . . . . . . . . . . 42
2.4 Distribuies Mistas e Singulares . . . . . . . . . . . . . . . . . . . . 48
2.5 Distribuio Condicional dado um Evento . . . . . . . . . . . . . . . 49
2.6 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
3 Vetores Aleatrios 53
3.1 Vetores Aleatrios . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
3.2 Tipos de Vetores Aleatrios . . . . . . . . . . . . . . . . . . . . . . . 57
9
10 SUMRIO
4 Esperana Matemtica 71
4.1 Variveis Aleatrias Simples . . . . . . . . . . . . . . . . . . . . . . . 71
4.2 Esperana Matemtica . . . . . . . . . . . . . . . . . . . . . . . . . . 78
4.3 Demonstraes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
4.4 Momentos, Varincia e Covarincia . . . . . . . . . . . . . . . . . . . 87
4.5 Desigualdades Bsicas . . . . . . . . . . . . . . . . . . . . . . . . . . 91
4.6 Esperana Condicional dado um Evento . . . . . . . . . . . . . . . . 95
4.7 Exerccios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
Notao 188
Espao de Probabilidade
13
14 CAPTULO 1. ESPAO DE PROBABILIDADE
3. Uma funo P que associa a cada conjunto mensurvel um nmero real, que
representa a ideia de chance, verossimilhana, confiana, credibilidade, ou
probabilidade. Esta funo chamada de probabilidade, medida, ou medida
de probabilidade.
#B
P (B) = ,
#
#B 4 1
P (B) = = = 8%.
# 52 13
#B 2 1
P (B) = = = 33%.
# 6 3
N = {1, 2, 3, . . . }.
e
1 5 10
6(6)
P (B) = 61 ( 56 )10 + 16 ( 56 )11 + 16 ( 56 )12 + = = ( 56 )10 16%.
1 ( 56 )
Espao Amostral
= {0, 1},
16 CAPTULO 1. ESPAO DE PROBABILIDADE
= {0, 1}2 = {0, 1} {0, 1} = {(0, 0), (0, 1), (1, 0), (1, 1)},
Eventos Aleatrios
Qualquer subconjunto A do espao amostral , isto , A , ao qual atribumos
uma probabilidade, dito um evento aleatrio.
Dizemos que o evento A ocorre se a realizao tal que A. Vamos traduzir
algumas operaes sobre conjuntos para a linguagem de eventos.
A unio A B o conjunto de todos os tais que pertence a A ou
pertence a B, ou seja, o conjunto das realizaes tais que algum dos eventos A
ou B ocorrem, portanto A B o evento A ou B.
P() = {A : A }
(F1) F;
(F2) Para todo A F, tem-se que Ac F;
(F3) Se A1 , A2 , A3 , F, ento (
i=1 Ai ) F.
Espao de Probabilidade
Seja um espao amostral e F uma -lgebra para um dado experimento. Uma
medida de probabilidade P uma aplicao P : F R satisfazendo as seguintes
propriedades:
1. P () = 0.
2. P (Ac ) = 1 P (A).
3. Se A, B F e A B ento P (A) 6 P (B). (monotonicidade)
4. Se A, B F e A B ento P (B \ A) = P (B) P (A).
1.1. ESPAO DE PROBABILIDADE 19
1. um conjunto no-vazio;
2. F uma -lgebra de subconjuntos de ;
3. P uma probabilidade definida em F.
Tomamos
F = P()
e
#A
P (A) = , A F.
524
Qual a probabilidade do evento A = as quatro cartas so valetes? Temos A =
4
({J} {qualquer naipe}) , logo #A = 44 e portanto
44 1
P (A) = 4
= 4.
52 13
e portanto
62 134 62 9
P (C) = 4
= 4
= .
52 4 64
P (A B)
P (A | B) = .
P (B)
Exemplo 1.21. Suponha que 30% dos genes de cor de olhos seja para olho
claro c, uniformemente espelhados por toda uma populao. Como essa uma
caracterstica gentica recessiva, 9% da populao ter olhos claros cc, 42% ter
ambos os genes diferentes Cc, e 49% ter ambos os genes correspondentes a olhos
escuros CC. Os 42% com genes diferentes Cc tero o mesmo fentipo dos 49%
que tm ambos os genes para olhos escuros CC, porque este um gene dominante.
Uma pessoa de olhos escuros selecionada ao acaso. Qual a probabilidade de
que essa pessoa tenha o gene recessivo para olhos claros? Denotando B = olhos
escuros= {Cc, CC} e A = tem um gene de olhos claros= {cc, Cc}, temos
P (A B) P ({Cc}) 42%
P (A|B) = = = = 46, 15%.
P (B) P ({Cc, CC}) 91%
Demonstrao. Exerccio.
Regra do produto
P (A2 A1 )
P (A2 |A1 ) = = P (A1 A2 ) = P (A1 )P (A2 |A1 ).
P (A1 )
Para n = 3, temos
P (A1 A2 A3 )
P (A3 |A1 A2 ) =
P (A1 A2 )
e portanto
P (A1 Am Am+1 )
P (Am+1 |A1 Am ) =
P (A1 Am )
e portanto
1 1 2 1
P (A B C) = P (A)P (B|A)P (C|B A) = = .
2 3 3 9
Exemplo 1.25. Selecionar 3 cartas de um baralho francs de 52 cartas, ao acaso e
sem reposio. Qual a probabilidade de tirar 3 reis? Seja Ai = tirar rei na i-sima
retirada e A = tirar 3 reis= A1 A2 A3 . Temos
4 3 2 1
P (A) = P (A1 )P (A2 |A1 )P (A3 |A1 A2 ) = = .
52 51 50 5525
Exemplo 1.26. Continuando o Exemplo 1.21, suponha que os casais se formam e
decidem ter filhos aleatoriamente. Cada vez que o casal tem um filho, cada um dos
pais transmite algum dos genes com mesma probabilidade. Selecionam-se uma me
e filha ao acaso. Qual a probabilidade de ambas me e filha terem olhos claros?
Definindo A = me tem olhos claros, B = filha tem olhos claros, D = o gene
transmitido pelo pai c, temos
1 2 1 3 9
P (azul) = P (A)P (azul|A) + P (B)P (azul|B) = + = .
2 5 2 6 20
Exemplo 1.29. So dadas duas urnas, A e B. A urna A contm 1 bola azul e 1
vermelha. A urna B contm 2 bolas vermelhas e 3 azuis. Uma bola extrada ao
acaso de A e colocada em B. Uma bola ento extrada ao acaso de B.
Problema: Qual a probabilidade de se retirar uma bola vermelha de B?
Problema: Qual a probabilidade de ambas as bolas retiradas serem da mesma cor?
Frmula de Bayes
P (Bj )P (A|Bj )
P (Bj |A) = P .
i P (Bi )P (A|Bi )
Exemplo 1.31. No Exemplo 1.28, sabendo-se que uma meia azul foi retirada, qual
a probabilidade de ter sido aberta a gaveta A? Pela Frmula de Bayes temos
1
P (A)P (azul|A) 5 4
P (A|azul) = = 9 = .
P (A)P (azul|A) + P (B)P (azul|B) 20
9
Exerccio 1.1. Num certo certo pas, todos os membros de um comit legislativo
ou so trabalhistas ou so liberais. H trs comits. O Comit 1 tem 5 trabalhistas,
o Comit 2 tem 2 trabalhistas e 4 liberais, e o Comit 3 consiste de 3 trabalhistas
e 4 liberais. Um comit selecionado aleatoriamente e uma pessoa selecionada
aleatoriamente deste comit.
30
P (A|D) = P (A|D B) = P (A|D B c ) =
100
que representam a chance de a me tambm transmitir o gene de olhos claros. Por
outro lado,
1 P (Cc) 1 42 21
P (D|B) = 1, P (D|B c ) = = = .
2 P ({Cc, CC}) 2 91 91
30
P (A|B) = P (A D|B) = P (D|B)P (A|D B) =
100
26 CAPTULO 1. ESPAO DE PROBABILIDADE
e
63
P (A|B c ) = P (A D|B c ) = P (D|B c )P (A|D B c ) = .
910
Finalmente, pela Frmula de Bayes,
9 70
P (B)P (Ac |B)
P (B|Ac ) = = 9 70
100 100
91 847 = 6.92%.
P (B)P (Ac |B) + P (B c )P (Ac |B c ) 100 100 + 100 910
1.3 Independncia
Exemplo 1.34. Uma moeda lanada duas vezes. Sejam A = a primeira moeda
sai cara e B = a segunda moeda sai cara. Ento A e B so independentes, pois
2 1
P (A) = P ({1} {0, 1}) = =
4 2
2 1
P (A) = P ({0, 1} {1}) = =
4 2
1
P (A B) = P ({1} {1}) = = P (A)P (B).
4
Veja que no exemplo acima, j sabamos de antemo que os eventos deveriam ser
independentes, pois cada lanamento da tm absolutamente nenhuma interferncia
sobre o outro. Entretanto, independncia no significa necessariamente que os
eventos no possam nenhuma relao entre si.
primeiro dado par e C = a soma dos valores dos dados par. Ento
18 1
P (A) = P ({2, 4, 6} {1, 2, 3, 4, 5, 6}) = = ,
36 2
2 2 18 1
P (C) = P ({2, 4, 6} {1, 3, 5} ) = = ,
36 2
2 9 1
P (A C) = P ({2, 4, 6} ) = = = P (A)P (C).
36 4
Proposio 1.36. So equivalentes:
(i) A e B so independentes,
(ii) A e B c so independentes,
(iii) Ac e B so independentes,
(iv) Ac e B c so independentes,
(v) P (A|B) = P (A),
(vi) P (B|A) = P (B).
Demonstrao. Exerccio.
18 1
P (A) = P ({2, 4, 6} {1, 2, 3, 4, 5, 6}) = = ,
36 2
18 1
P (B) = P ({1, 2, 3, 4, 5, 6} {2, 4, 6}) = = ,
36 2
2 2 18 1
P (C) = P ({2, 4, 6} {1, 3, 5} ) = = ,
36 2
2 9 1
P (A B) = P ({2, 4, 6} ) = = = P (A)P (B),
36 4
9 1
P (A C) = P ({2, 4, 6}2 ) = = = P (A)P (C),
36 4
9 1
P (B C) = P ({2, 4, 6}2 ) = = = P (B)P (C).
36 4
28 CAPTULO 1. ESPAO DE PROBABILIDADE
1
P (A B) = P ({2}) = = P (A)P (B),
4
1
P (A C) = P ({4}) = = P (A)P (C),
4
1
P (B C) = P ({1}) = = P (B)P (C).
4
Definio 1.40 (Eventos Coletivamente Independentes). Os eventos aleatrios
(Ai )iI so ditos coletivamente independentes ou estocasticamente independentes
se, dado qualquer conjunto de ndices distintos i1 , i2 , . . . , in I, vale
1
P (A B) = P ({3, 6}) = = P (A)P (B),
6
1
P (B C) = P ({2, 4, 6}) = = P (B)P (C),
4
1
P (A C) = P ({6, 12}) = = P (A)P (C),
6
1
P (A B C) = P ({6}) = = P (A)P (B)P (C).
12
Contra-Exemplo 1.42. No Exemplo 1.39, os eventos A, B e C no so coletiva-
mente independentes. De fato,
1
P (A B C) = P () = 0 6= = P (A)P (B)P (C).
8
Contra-Exemplo 1.43. No Exemplo 1.38, os eventos A, B e C no so coletiva-
mente independentes. De fato,
1 1
P (A B C) = P ({2, 4, 6}2 ) = 6= = P (A)P (B)P (C).
4 8
1.4. O PROBLEMA DE MONTY-HALL 29
dois filhos homens, sabendo-se que o casal tem um filho homem. A incompletude
est na expresso sabendo-se. Como foi que o observador soube que o resultado
do dado era maior que 3, ou que a meia retirada foi azul, ou que o casal tem um
filho homem? Essa pequena falha na linguagem compreensvel, porque tornar
essas expresses absolutamente precisas (se que isso possvel) teria um preo
esttico s vezes muito alto. Um possvel compromisso entre preciso e fluidez ir
eliminando a ambiguidade nas entrelinhas dos exemplos e exerccios. Entretanto,
para o problema em questo, mais preciso se faz necessria.
Probabilidade Condicional representa a nova medida de probabilidade do ponto de
vista de um observador que tem acesso ocorrncia ou no de determinado evento
B. Neste caso, faz-se uma observao com dois resultados possveis: ou B ocorreu
ou B no ocorreu. O fato de um terceiro trazer a notcia de que B ocorreu no
se enquadra nesse tipo de situao. Isso porque no h uma dicotomia entre as
possveis observaes B e B c , j que o terceiro poderia ter decidido no revelar
nada a respeito da ocorrncia ou no desse evento B.
Esse o caso do problema de Monty Hall. O participante no tinha a prerrogativa
de revelar o contedo de uma outra porta para ento decidir se queria mudar
sua escolha original. Ao contrrio, foi o apresentador quem decidiu, usando a
informao sobre o contedo das portas e sobre a escolha que fez o participante,
que deveria abrir a segunda porta e no a terceira. Veja tambm que nesse
programa o apresentador nunca revela uma porta com dinheiro, o que novamente
deixa claro que no se trata de uma observao que tem como resultados possveis
B ou B c . Portanto, o clculo de 50% mencionado acima to simples e to
correto quanto intil para responder pergunta original. A formulao pertinente
seria a probabilidade condicional de o prmio estar na terceira porta, dado que
o participante escolheu a primeira porta e, seguindo o protocolo pr-estabelecido
pela produo do programa, o apresentador decidiu mostrar-lhe que o prmio no
est na segunda porta, de %. Deixamos ao leitor a tarefa de formular um
modelo probabilstico capaz de representar todo o processo de decises envolvidas
nesse programa, e preencher a lacuna acima com 66,666...
1.5 Exerccios
1.2. Considere o experimento resultante do lanamento de dois dados onde se
observa o mnimo entre suas faces. Construa um modelo probabilstico associado.
1.5. EXERCCIOS 31
1. A e B so independentes?
2. A e B so mutuamente exclusivos?
3. Calcule P (Ac |B c ).
(a) Calcule a probabilidade de a carta sorteada ser uma das trs figuras reais
(J, Q, K).
(b) Sabendo-se que foi sorteada uma figura real, calcule a probabilidade de o
baralho retirado ter sido o baralho comum.
(c) Calcule a probabilidade de a carta sorteada ser de espadas .
(d) Sabendo-se que foi sorteada uma carta de espadas, calcule a probabilidade
de o baralho retirado ter sido o baralho de truco.
32 CAPTULO 1. ESPAO DE PROBABILIDADE
(e) Sejam A = Foi retirado o baralho comum, B = Foi sorteada uma figura
real e C = Foi sorteada uma carta de espadas. A e B so independentes?
A e C so independentes? A, B e C so coletivamente independentes?
(f) Qual a probabilidade de se sortear uma carta de nmero 5 ?
(g) Sabendo-se que foi sorteado um nmero (i.e., no foi sorteado A, J, Q nem
K), qual a probabilidade de o baralho retirado ter sido o baralho de truco?
Variveis Aleatrias
X: R .
7 X()
Exemplo 2.1. Joga-se um dado e observa-se a face superior. Nesse caso temos
= {1, 2, 3, 4, 5, 6} e X() = .
Vamos colocar uma restrio sobre a funo X com o intuito de poder associar
probabilidade a eventos como o valor observado de X menor que 7. Para isso,
introduzimos uma definio mais formal:
33
34 CAPTULO 2. VARIVEIS ALEATRIAS
X:R
Se A F e X = 1A , ento
,
se a > 1,
{ : X() 6 a} = c
A , se 0 6 a < 1,
,
se a < 0.
ainda, a menor -lgebra que contm todos os conjuntos abertos. O leitor mais curioso pode
2.1. VARIVEIS ALEATRIAS 35
Exemplo 2.6. Um dado lanado trs vezes. Seja X o valor obtido no primeiro
lanamento. Esse experimento pode ser modelado por = {1, 2, 3, 4, 5, 6}3 , F =
P() e P (A) = #A
216 para todo A F, nesse caso X dado por
X:R
7 1 ,
ver [Jam04, Exerccio 1.6] a respeito da existncia e unicidade da menor -lgebra contendo uma
classe de conjuntos qualquer.
36 CAPTULO 2. VARIVEIS ALEATRIAS
ou
#{2, 3} 1
PX ([1, 5 , 3, 4]) = = .
6 3
Funo de Distribuio
FX (x) = P (X 6 x), x R.
Exemplo 2.8. Duas moedas honestas so lanadas. Seja a varivel X que conta
o nmero de caras observadas. Temos que
P () = 0, t < 0;
P ({(0, 0)}) = 1 ,
0 6 t < 1;
4
FX (t) = P (X 6 t) = 3
P ({(0, 0), (0, 1), (1, 0)}) = , 1 6 t < 2;
4
P () = 1, t > 2.
FX (t)
1
3/4
1/4
t
1 2
FX (t)
1
a b t
1. P (X > a) = 1 FX (a).
2. P (a < X 6 b) = FX (b) FX (a).
3. P (a < X < b) = FX (b) FX (a).
4. P (a 6 X < b) = FX (b) FX (a).
5. P (a 6 X 6 b) = FX (b) FX (a).
6. P (X = a) = FX (a) FX (a).
7. P (X = a) = 0 se e somente se FX contnua em a.
(a) P (X > 18 )
(b) P ( 18 < X < 25 )
2
(c) P (X < 5 | X > 18 )
2.2. VARIVEIS ALEATRIAS DISCRETAS 39
pX (x) = P (X = x).
1
pX (xi ) = , i = 1, 2, . . . , k.
k
Exemplo 2.14. Lanar um dado 4 vezes e contar o nmero de vezes que se obtm
o nmero 3. Temos X b(4, 61 ). A probabilidade de se obter 3 duas vezes dada
por
2 5 42 4! 52 25
P (X = 2) = pX (2) = 42 61 6 = 4
= .
2!(4 2)! 6 216
Exemplo 2.16. Num jogo de bingo com 50 pedras, conta-se o nmero X de pedras
pares sorteadas nas 10 primeiras retiradas. Neste caso, X Hgeo(25, 25, 10).
e k
pX (k) = , k = 0, 1, 2, 3, . . . .
k!
De fato, se temos n grande e pn = n, ento para cada k fixo temos
n k nk k n n1 nk e k
nk+1
P (X = k) = k n 1 n = k! n n n 1 n .
k!
Exemplo 2.18. Se em 1.000 horas de servio uma operadora recebe 50.000 cha-
madas, essas chamadas acontecendo em instantes independentes e uniformemente
distribudas ao longo dessas 1.000 horas, ento a distribuio da quantidade X de
chamadas recebidas em 1 hora bem aproximada por X Poisson(50).
Definio 2.20. Dizemos que uma varivel aleatria X, sua funo de distribuio
2.3. VARIVEIS ALEATRIAS CONTNUAS 43
d
fX (x) = FX (x),
dx
para quase todo x R, isto , para todo x exceto talvez em conjunto pequeno.2
Portanto, para especificar a distribuio ou a lei de uma varivel aleatria absolu-
2 Dizemos que um conjunto A B pequeno, isto , tem medida zero, se, para todo > 0,
Exemplo 2.24. Quando se diz que uma lmpada incandescente de uma deter-
minada marca tem vida mdia de 1.000 horas, isso quer dizer que seu tempo de
1
vida T satisfaz T exp( 1000 ).
onde Z
() = x1 ex dx.
0
46 CAPTULO 2. VARIVEIS ALEATRIAS
(t) = 1 (t).
Consequentemente,
Em particular,
P (a < N < a) = 2(a) 1.
Exemplo 2.25. Calculemos as seguintes probabilidades:
X
Exerccio 2.8. Mostre que se X N (, 2 ) ento a varivel aleatria tem
distribuio normal padro.
Alm desses casos, existem variveis aleatrias cuja parte contnua no absolu-
tamente contnua. Por um lado, nenhum ponto em particular tem probabilidade
positiva de ocorrer, o que afasta o tratamento por somatrios do caso discreto.
Por outro lado, sua distribuio no similar de uma distribuio uniforme,
pois tais variveis aleatrias vivem conjuntos pequenos da reta, no sendo aplicvel
tampouco o uso de integrais em f (x)dx para nenhuma f . A tais variveis chamamos
de singulares. Toda varivel aleatria pode ser decomposta em suas partes discreta,
absolutamente contnua, e singular. O leitor pode ler mais a respeito em [Jam04,
pp. 44-48], e nas referncias ali citadas.
2.5. DISTRIBUIO CONDICIONAL DADO UM EVENTO 49
Exemplo 2.26. Imagine uma pessoa sempre se desperta num horrio S com
distribuio normal de mdia 07:00 e desvio-padro de 1 hora. Representemos
como nmeros reais os horrios medidos em horas, relativos meia-noite, de
maneira que S N (7, 1). Colocamos um alarme para despertar essa pessoa s
08:00, que funciona com probabilidade 12 . Nesse caso, ela vai se despertar s 08:00
com probabilidade 7,94%, ou antes das 08:00 seguindo a densidade original, ou
depois das 08:00 seguindo uma densidade normal atenuada. Mais precisamente,
essa pessoa vai se despertar em um horrio T cuja distribuio dada por
2
( (
1 e(t7) /2 , t < 8, 0, 0794, t = 8,
fT (t) = 2 pT (t) =
2
1 e(t7) /2 , t > 8, 0, t 6= 8.
8
X Z 9
P (6 6 T 6 9) = pT (t) + fT (t) dt
66t69 6
Z 8 Z 9
1 2 1 2
= 0, 0794 + e(t7) /2 dt + e(t7) /2 dt
6 2 8 8
= 0, 0794 + [(1) (1)] + 12 [(2) (1)]
= 0, 0794 + 32 (1) + 21 (2) 1 = 82, 99%
2.6 Exerccios
Vetores Aleatrios
53
54 CAPTULO 3. VETORES ALEATRIOS
B Bd .
PX (B) = P { : X() B} ,
t2
3/4 1
1/4
1
0
1/2
t1
1 2
e sucessivamente obtemos
h i
jaj ,bj dad ,bd FX (x) = jaj ,bj j+1 d
aj+1 ,bj+1 ad ,bd FX (x) =
= P (X1 6 x1 , . . . , Xj1 6 xj1 , Xj 6 bj , aj+1 < Xj+1 6 bj+1 , . . . , ad < Xd 6 bd )
P (X1 6 x1 , . . . , Xj1 6 xj1 , Xj 6 aj , aj+1 < Xj+1 6 bj+1 , . . . , ad < Xd 6 bd ) =
= P (X1 6 x1 , . . . , Xj1 6 xj1 , aj < Xj 6 bj , . . . , ad < Xd 6 bd ).
Tomando j = 1 temos
e, por outro lado, esta sempre pode ser calculada derivando-se aquela tambm em
cada coordenada:
d
fX (x) = FX (x1 , . . . , xd ).
x1 xd
para quase todo x Rd , isto , para todo x exceto talvez em conjunto pequeno.1
Exemplo 3.9. Seja G Rd uma regio tal que Vol G > 0, onde Vol G o volume
1 Dizemos que um Boreliano A B d pequeno, isto , tem medida zero, se, para todo > 0,
uniformemente distribudo em G.
(i) X1 , X2 , . . . , Xd so independentes.
(ii) FX (t) = FX1 (t1 )FX2 (t2 ) FXd (td ) para todo t Rd .
(iii) FX (t) = F1 (t1 )F2 (t2 ) Fd (td ) para todo t Rd , com F1 , . . . , Fd funes
reais.
3.3. INDEPENDNCIA DE VARIVEIS ALEATRIAS 61
1
FX (x1 , . . . , xd ) = FX1 (x1 ) FXd (xd ).
c1 cd
(i) X1 , X2 , . . . , Xd so independentes.
(ii) pX (t) = pX1 (t1 )pX2 (t2 ) pXd (td ) para todo t Rd .
(iii) pX (t) = p1 (t1 )p2 (t2 ) pd (td ) para todo t Rd , com p1 , . . . , pd funes reais.
Demonstrao. (i) (ii) (iii) so triviais. Suponha (iii). Para xi tal que
pXi (xi ) > 0, calculando a marginal temos
X XX X YX
pXi (xi ) = pX (x) = pi (xi ) pj (xj ) = ci pi (xi ),
xj xi1 xi+1 xd j6=i xj
62 CAPTULO 3. VETORES ALEATRIOS
onde ci 6= 0. Assim,
1
pX (x1 , . . . , xd ) = pX (x1 ) pXd (xd ).
c1 cd 1
(i) X1 , X2 , . . . , Xd so independentes.
(ii) fX (t) = fX1 (t1 )fX2 (t2 ) fXd (td ) para quase todo t Rd .
(iii) fX (t) = f1 (t1 )f2 (t2 ) fd (td ) para quase todo t Rd , com f1 , . . . , fd funes
reais.
Demonstrao. (i) (ii) (iii) so triviais. Suponha (iii). Para Bi B tal que
P (Xi Bi ) > 0,
Z Z YZ Z
PXi (Bi ) = 1Bi (xi )fX (x) dd x = fi (xi )dxi fj (xj ) dxj = ci fi (xi )dxi ,
Rd Bi j6=i R Bi
1
fX (x1 , . . . , xd ) = fX (x1 ) fXd (xd ).
c1 cd 1
Segue das definies que uma famlia de variveis aleatrias coletivamente indepen-
dentes tambm independente duas a duas. Entretanto no vale a recproca.
1 1
pX,Y,Z (1, 1, 1) = 6= = pX (1)pY (1)pZ (1).
4 8
Entretanto, X, Y e Z so duas a duas independentes.
definimos os Jacobianos:
x1 x1
y1 yd
x .. .. ..
Jh (y) = det = det . . .
y
xd xd
y1 yd
e
y1 y1
x1 xd
y .. .. ..
Jg (x) = det = det . . .
.
x
yd yd
x1 xd
1
Jh (y) = .
Jg (x)
Ideia da prova. Pelo clculo de vrias variveis, sabemos que se o jacobiano for
no-nulo para todo y G, ento
Z Z
f (x) dd x = f (h(y)) |Jh (y)| dd y
A g(A)
e os valores possveis de y so
n o
1
G = (y1 , y2 ) : 0 < y2 < y1 , 0 < y2 < y1 .
Agora, q
2 y1 y2
Jg (h(y)) = p = 2y1
y2 /y1
e q p
fX (h(y)) = 4 y1 y2 y2 /y1 = 4y2 .
Portanto,
(
1 2y2 /y1 , 0 < y2 < 1, y2 < y1 < 1/y2 ,
fY (y) = fX h(y) =
|Jg (x)| 0, caso contrrio.
zez , z > 0
fZ (z) =
0, z 6 0
e (
1
(w+1)2 ,w>0
fW (w) = .
0, w 6 0
w1 + w2
w1 = x + y x=
2
w1 w2
w2 = x y y= .
2
Ainda,
1 x2 1 y 2
fZ (z) = fX,Y (x, y) = fX (x)fY (y) = e 2 e 2 ,
2 2
logo
1 1 w12 w22
fW (w) = fZ (h(w)) = e 4 e 4 = fN (0,2) (w1 )fN (0,2) (w2 ).
|Jg (h(w))| 4
3.5 Exerccios
Encontre FX,Y .
3.5. EXERCCIOS 67
Encontre FZ,W .
3.9.
c ey
(
x3 , x > 1, y > 0
f (x, y) =
0, caso contrrio.
(b) Suponha que (X, Y ) um vetor aleatrio absolutamente contnuo com funo
de distribuio conjunta dada por
(
1 ex + exy xex ey + xexy , x, y > 0
FXY (x, y) =
0, caso contrrio.
a+b
Pn a
b
Dica: n = k=0 k nk .
3.12. Se X e Y so independentes e distribudas respectivamente como Poisson(1 )
e Poisson(2 ), mostre que
X + Y Poisson(1 + 2 ).
Pk k
Dica: (a + b)k = j=0 j aj bkj .
3.13. Sejam X e Y variveis aleatrias definidas no mesmo espao de probabi-
lidade, independentes, discretas e com distribuies Poisson(1 ) e Poisson(2 ),
respectivamente. Mostre que, dada a ocorrncia do evento [X + Y = n], a
probabilidade condicional de X = k
k nk
n 1 2
P (X = k|X + Y = n) = .
k 1 + 2 1 + 2
Esperana Matemtica
71
72 CAPTULO 4. ESPERANA MATEMTICA
pX (x)
x
EX
que jogaremos esse jogo n vezes, e denotamos o resultado de cada jogada por
X1 , . . . , Xn , independentes e com a mesma distribuio de X. A noo intuitiva
de probabilidade como frequncia relativa diz que a proporo dentre essas n
repeties em que o resultado ai se aproxima de P (X = ai ) para n grande,
ou seja,
n
1X
1[Xj =ai ] P (X = ai ).
n j=1
Dessa forma, para o ganho total dividido pelo nmero de jogadas, temos
n n k
1X 1 XX
Xj = ai 1[Xj =ai ] =
n j=1 n j=1 i=1
k n
! k
X 1X X
= ai 1[Xj =ai ] ai P (X = ai ) = EX.
i=1
n j=1 i=1
1 2 6 21 7
EX = 1 P (X = 1) + + 6 P (X = 6) = + + + = = .
6 6 6 6 2
Exemplo 4.3. Lanar uma moeda 4 vezes e contar quantas vezes saem cara.
Temos
1 4 6 4 1 32
EX = 0 +1 +2 +3 +4 = = 2.
16 16 16 16 16 16
Exemplo 4.4. Seja X dada por X = 1A para algum A F. Nesse caso temos
EX = 0 P (Ac ) + 1 P (A) = P (A). Ou seja, 1A tem distribuio Bernoulli e
E1A = P (A).
4.1. VARIVEIS ALEATRIAS SIMPLES 73
1 2 3 4 5 6
EX = 2 +3 +4 +5 +6 +7 +
36 36 36 36 36 36
5 4 3 2 1 252
+8 +9 + 10 + 11 + 12 = = 7.
36 36 36 36 36 36
Exemplo 4.6. Retirar 3 cartas de um baralho francs e contar quantas so reis.
1
EX = 1 1 + 2 2 + 3 2 + 4 3 + 5 2 + 6 4 + 8 2 + 9 1 + 10 2 + 12 4+
36
441 49
+ 15 2 + 16 1 + 18 2 + 20 2 + 24 2 + 25 1 + 30 2 + 36 1 = = .
36 4
Teorema 4.9. Sejam X e Y variveis aleatrias simples.
Exemplo 4.10. No Exemplo 4.3, temos X = X1 +X2 +X3 +X4 , onde Xi representa
o lanamento da i-sima moeda. Logo EX = EX1 +EX2 +EX3 +EX4 = 4 12 = 2.
7 7
EX = EY + EZ = + = 7.
2 2
Exemplo 4.12. No Exemplo 4.6, observamos que X = X1 + X2 + X3 , onde Xi
o indicador de que a i-sima carta retirada rei. Ao contrrio dos exemplos
anteriores, aqui X1 , X2 e X3 no so independentes. Ainda assim, cada uma
1
individualmente satisfaz EXi = 13 , e podemos calcular
1
EX = EX1 + EX2 + EX3 = 3 .
13
Exemplo 4.13. No Exemplo 4.7, observamos que X tem a mesma distribuio de
X1 + + Xn , com Xi i.i.d. Bernoulli(p), e portanto
Exemplo 4.14. Uma gaveta contm 10 pares de meias, todos diferentes. Abre-
se a gaveta no escuro e retiram-se 6 meias. Qual o valor esperado do nmero
de pares X formados pelas meias retiradas? Se numeramos as meias retiradas,
e contamos a quantidade N de meias cujo par tambm foi retirado, estaremos
contando cada par duas vezes, portanto N = 2X. A probabilidade de que o par
5
da primeira meia retirada tambm seja retirado 19 . Somando sobre as 6 meias,
5 15
temos E[2X] = EN = 6 19 , e portanto EX = 19 .
Ento
X X
P (A1 An ) = P (Ai ) P (Ai Aj )+
16i6n 16i<j6n
X
+ P (Ai Aj Ak ) P (A1 An ).
16i<j<k6n
E[XY ] = EX EY.
7 7 49
EX = EY EZ = = .
2 2 4
Demonstraes
Pn
Lema 4.18. Se X = j=1 aj 1Aj , onde A1 , . . . , An formam uma partio, ento
Pn
EX = j=1 aj P (Aj ), mesmo que alguns aj coincidam.
Pk
Demonstrao. Com efeito, primeiro escrevemos X = j=1 cj 1Cj onde os cj so
distintos e C1 , . . . , Ck formam uma partio. Observe que, para todo j = 1, . . . , k,
[
Cj = Ai .
i:ai =cj
k
X k
X X k
X X
EX = cj P (Cj ) = cj P (Ai ) = ai P (Ai ) =
j=1 j=1 i:ai =cj j=1 i:ai =cj
k X
X n n
X
= 1ai =cj ai P (Ai ) = ai P (Ai ),
j=1 i=1 i=1
concluindo a prova.
Demonstrao do Teorema 4.9. Os itens (i) e (ii) so triviais, e (iv) segue de (iii)
e (i) se tomamos Z = X Y . Resta provar (iii). Sejam X e Y variveis aleatrias
simples. Escrevemos X e Y como
n
X k
X
X= ai 1Ai e Y = bj 1Bj ,
i=1 j=1
4.1. VARIVEIS ALEATRIAS SIMPLES 77
n
X k
X k
X n
X
aX + bY = a ai 1Ai 1Bj + b bj 1Bj 1Ai =
i=1 j=1 j=1 i=1
n X
X k n X
X k
= (aai + bbj )1Ai 1Bj = (aai + bbj )1Ai Bj .
i=1 j=1 i=1 j=1
temos
" n
! k
!# " n X
k
#
X X X
E[XY ] = E ai 1Ai bj 1Bj =E ai bj 1Ai 1Bj
i=1 j=1 i=1 j=1
" k
n X
# n X
k
X X
=E ai bj 1Ai Bj = ai bj E[1Ai Bj ]
i=1 j=1 i=1 j=1
X k
n X n X
X k
= ai bj P (Ai Bj ) = ai bj P (Ai )P (Bj )
i=1 j=1 i=1 j=1
" n
#" k #
X X
= ai P (Ai ) bj P (Bj ) = EX EY.
i=1 j=1
Definio 4.19. Seja X uma varivel aleatria tal que X > 0. Definimos a
esperana de X por
Para definir a esperana no caso geral, observe que uma varivel aleatria sempre
pode ser decomposta em suas partes positiva e negativa. De fato, temos
X = X + X ,
onde ( (
+ X, X > 0, X, X 6 0,
X = X =
0, X 6 0, 0, X > 0,
EX = EX + EX
Portanto, o valor esperado de uma varivel aleatria que segue o modelo de Poisson
com parmetro o prprio .
Portanto, o valor esperado de uma varivel aleatria que segue o modelo exponen-
cial com parmetro 1 .
4.2. ESPERANA MATEMTICA 81
Y = h(X),
onde h uma funo real contnua, ou uma funo contnua por partes. Temos pelo
menos duas alternativas. Uma calcular FY (t) para todo t, a partir da distribuio
acumulada FX de X, e depois calcular a esperana usando os Teoremas 4.21 e 4.25.
Entretanto, existe outra maneira, que pode ser mais conveniente:
Teorema 4.27 (Mudana de Varivel). Seja X um vetor aleatrio misto com
componentes discreta e absolutamente contnua. Seja h : Rd R+ uma funo
contnua por partes, e considere Y = h(X). Ento
X Z
EY = h(x) pX (x) + h(x) fX (x) dd x.
x Rd
Proposio 4.31.
1. Se X = c ento EX = c.
2. Se P (X = Y ) = 1 e EX est definida, ento EY = EX.
3. Se e EX est definida, ento E[aX + b] = aEX + b.
4. X integrvel se e somente se E|X| < .
5. Se X integrvel ento E[X EX] = 0.
6. Se a 6 X 6 b, ento a 6 EX 6 b.
7. Se e EX est definida, ento |EX| 6 E|X|.
8. Se 0 6 |X| 6 Y e Y integrvel, ento X integrvel.
9. Se e EX est definida, ento E[X1A ] est definida para todo A F.
10. Se X integrvel, ento X1A integrvel para todo A F.
11. Se X > 0 ento EX > 0.
12. Se X > 0 e EX = 0 ento P (X = 0) = 1.
E[XY ] = EX EY.
g(x) X()
4.3 Demonstraes
Nesta seo demonstramos as propriedades da Esperana apresentadas na seo
anterior. Primeiro observamos que qualquer varivel aleatria no-negativa X pode
ser aproximada por variveis aleatrias simples. De fato, considere gk : R+ R+
dada por
gk (x) = 2k max j {0, 1, . . . , 2k k} 2k j 6 x ,
84 CAPTULO 4. ESPERANA MATEMTICA
g2 (y)
x
g3 (x)
g2 (x)
g1 (x)
x y
e
x 2k < gk (x) 6 x para todo k > x.
Portanto, para todo x > 0,
gk (x) % x quando k .
X()
g2 (X())
g1 (X())
(X + Y )+ (X + Y ) = X + Y = X + X + Y + Y ,
logo
(X + Y )+ + X + Y = (X + Y ) + X + + Y + .
Como todas as variveis aleatrias acima so no-negativas, pelo caso anterior
temos
E[(X + Y )+ ] + EX + EY = E[(X + Y ) ] + EX + + EY + .
86 CAPTULO 4. ESPERANA MATEMTICA
Supondo que EX +EY est definido, necessariamente temos que EX +EY <
ou EX + + EY + < . Consideramos sem perda de generalidade o primeiro caso.
Como (X + Y ) 6 X + Y , temos E[(X + Y ) ] 6 EX + EY < , e portanto
podemos subtrair, obtendo
Portanto,
X Z
EY = lim EYk 6 h(x) pX (x) + h(x) fX (x) dd x.
k Rd
x
E[XY ] = E[X + Y + X + Y X Y + + X Y ]
= EX + EY + EX + EY EX EY + + EX EY = EX EY.
V X = E[(X EX)2 ].
1 1
Exemplo 4.37. Pelo exemplo anterior, se X U [0, 1], ento EX = 2 eVX = 12 .
1. V X > 0.
2. V X = EX 2 (EX)2 .
3. V X = 0 se e somente se P (X = c) = 1 para algum c R, neste caso
X = EX.
4. V X 6 EX 2 .
5. V (X b) = V X.
6. V (aX) = a2 V X.
1 1 1
EX = , EX 2 = , V X = EX 2 (EX)2 = .
2 2 4
Definio 4.40 (Desvio-Padro). O desvio-padro (X) dado pela raiz quadrada
da varincia
(X) = V X,
e mede a disperso de X em torno de sua mdia. O desvio-padro tem a mesma
unidade de medida de X.
1. (X) > 0.
2. (X) = 0 se e somente se P (X = c) = 1 para algum c R.
3. (X) 6 EX 2 .
4. (X b) = (X) para todo b R.
5. (aX) = |a| (X) para todo a R.
4.4. MOMENTOS, VARINCIA E COVARINCIA 89
1. Cov(X, Y ) = E[XY ] EX EY .
2. Cov(X, Y ) = 0 se e somente se E[XY ] = EX EY .
3. Cov(cX, Y ) = c Cov(X, Y ).
4. Cov(X, Y ) = Cov(Y, X).
5. Cov(X, X) = V X.
6. Cov(X, c) = 0 para todo c R.
7. Cov(X, Y + Z) = Cov(X, Y ) + Cov(X, Z).
P P P P
8. Cov( i ai Xi , j bj Yj ) = i j ai bj Cov(Xi , Yj ).
3. (X, X) = 1.
4. (X, aY + b) = (X, Y ) se a > 0 e b R.
1. EZ = 0 e V Z = 1, onde Z a padronizao de X.
2. X e (aX + b) tm a mesma padronizao para a > 0 e b R.
3. Se Z a padronizao de X e W a padronizao de Y , ento
Demonstrao. (a), (b) e (c) so imediatos. Para (d) usamos g(x) = xp em (0, )
e depois (a). Para (e), tomamos Y = |X| e g(y) = y t/s em (0, ). Temos que g
t
convexa pois g 0 (y) = st y s 1 no-decrescente. Logo, E|X|t = E[(Y s )t/s ] >
[EY s ]t/s . Elevando todos os temos a 1/t, temos a desigualdade desejada.
E(X)
P (X > ) 6 .
EX > EY = P (X > ),
Exemplo 4.57. Se uma empresa recebe em mdia 100 chamadas telefnicas por
dia, queremos estimar a probabilidade de, num certo dia, receber mais de 300
chamadas. Temos
EX 1
P (X > 300) 6 = .
300 3
Ou seja, esse evento ocorre com probabilidade igual a, no mximo, 31 .
Exerccio 4.3. Suponha que X seja uma varivel aleatria tal que P (X > 0) = 1
e P (X > 10) = 15 . Mostre que E(X) > 2.
4.5. DESIGUALDADES BSICAS 93
EY E|X|t
P (|X| > ) = P (Y > t ) 6 = .
t t
Proposio 4.59 (Desigualdade Clssica de Tchebyshev). Seja X uma varivel
aleatria integrvel e seja > 0 uma constante. Ento
VX
P |X E(X)| > 6 2 .
EY VX
P |X EX| > = P (Y > 2 ) 6 2 = 2 .
Exemplo 4.60. Estimar a probabilidade de uma varivel aleatria X no diferir
de sua mdia por mais que duas vezes o valor do seu desvio-padro . Temos
VX 2 3
P ( 2 < X < + 2) = 1 P |X EX| > 2) > 1 2
= 1 2
= .
(2) 4 4
Exerccio 4.4. Suponha que X seja uma varivel aleatria tal que E(X) = 10,
P (X 6 7) = 0, 2 e P (X > 13) = 0, 3. Prove que V X > 29 .
trivialmente. Assumimos ento que 0 < a < e 0 < b < . Observamos que
2
X2 Y2
X Y XY 2 E[XY ]
06E =E 2 + =2 ,
a b a2 ab b2 ab
donde
E[XY ] 6 ab = EX 2 EY 2 .
X Y
2
Reciprocamente, suponha que E[XY ] = ab. Temos que E a b = 0, logo
P(X Y a
a b = 0) = 1 e portanto P (Y = cX) = 1 com c = b .
X EX Y EY
Z= e W =
(X) (Y )
donde
Cov(X, Y ) = (X)(Y )(X, Y ) 6 +(X)(Y ).
Ainda, se (X, Y ) = +1, ento W = +cZ com c > 0. Mas 1 = EW 2 = c2 EZ 2 = c2 ,
logo c = +1 e portanto
X EX
Y = EY + (Y ) Z = EY + (Y ) .
(X)
FX|A (t) = P (X 6 t | A) t
ou
pX|A (x) = P (X = x | A) x.
1
pX|A (x) = P (X = x|A) = 1{2,4,6} (x)
3
e em seguida a esperana
X
E(X|A) = x pX|A (x) = 4.
x
FX|A (t) = P (X 6 t | A) t
96 CAPTULO 4. ESPERANA MATEMTICA
e depois fazemos
d
FX|A (x) x.
fX|A (x) =
dx
Exemplo 4.63. Seja X uma varivel aleatria com distribuio X U [0, 1].
Vamos calcular E(X | X < 21 ). Primeiro encontramos a funo de distribuio
condicional
0,
x 6 0,
FX|A (t) = P (X 6 t|A) = 2x, 0 6 x 6 21 , ,
1
1, x> 2
d
fX|A (x) = FX|A (x) = 2 1[0, 21 ]
dx
e finalmente a esperana condicional
Z
1
E(X|A) = x fX|A (x) dx = .
R 4
4.7 Exerccios
4.5. Calcular EX, onde:
1. X Geom(p).
2. X N (, 2 ).
4.6. Considere o seguinte jogo de azar. Uma urna contm 18 bolas, sendo 9 azuis e
9 brancas. Retiram-se 3 bolas da urna ao acaso. As bolas retiradas so descartadas
e o jogador marca 1 ponto se pelo menos 2 dessas 3 bolas forem azuis. Em seguida
retiram-se outras 3 bolas da urna ao acaso, as bolas retiradas so descartadas e o
jogador marca 1 ponto se pelo menos 2 dessas 3 bolas forem azuis. Repete-se o
procedimento at que a urna esteja vazia. Ao final, o jogador recebe um prmio X
igual ao total de pontos marcados. Calcule EX.
4.7. Dada X varivel aleatria, defina
(
X, X 6 a,
Y =
a, caso contrrio,
4.7. EXERCCIOS 97
1. X Geom().
2. X Poisson().
3. X b(n, p).
4. X exp().
5. X N (, 2 ).
4.14. Considere uma sequncia de variveis aleatrias X1 , X2 , X3 , . . . i.i.d. com
distribuio Bernoulli(p). Quantas realizaes so suficientes para que a mdia
amostral, dada por
n
1X
Xn () = Xn (),
n j=1
no difira de seu valor esperado p por mais de 0,01, com probabilidade mnima de
0,95? (Sugesto: Desigualdade de Tchebyshev)
98 CAPTULO 4. ESPERANA MATEMTICA
nn e
pX (n) =
.n!
para n = 0, 1, 2, 3, . . . , calcule V X.
Dica: desenvolver (n 1)(n 2 + 1) + 2(n 1) + 1.
Convergncia de Variveis
Aleatrias
Definio 5.1 (lim sup e lim inf de eventos). Dada uma sequncia de eventos
aleatrios An , definimos o evento lim sup An , denotado por [An infinitas vezes] ou
99
100 CAPTULO 5. CONVERGNCIA DE VARIVEIS ALEATRIAS
P
2. Se n=1 P (An ) = e os eventos An so independentes, ento
Observao 5.7 (Lei 0-1 para Infinitos Eventos Independentes). Uma consequn-
cia imediata do Lema de Borel-Cantelli a seguinte. Se (An )nN uma sequncia
de eventos independentes, ento P (An infinitas vezes) = 0 ou 1.
Sejam X e (Xn )nN variveis aleatrias definidas num mesmo espao de probabi-
lidade (, F, P ).
1
P |Xn 0| > = P (Xn = 1) = 0,
n
P
e portanto Xn 0.
Xn
Yn = .
log n
5.2. CONVERGNCIA DE VARIVEIS ALEATRIAS 103
Ento
Xn
P log n 0 > = P (Xn > log n) = n 0,
Xn P
e portanto log n 0.
Xn () = + n .
q.c.
Ento Xn X com X U [0, 1]. De fato, tomando X() = , temos que
q.c.
Xn () X() para todo [0, 1). Como P [0, 1) = 1, segue que Xn X.
q.c.
Proposio 5.14. Xn X se, e somente se,
P |Xn X| > infinitas vezes = 0 > 0.
104 CAPTULO 5. CONVERGNCIA DE VARIVEIS ALEATRIAS
P (Xn X) = 1
P ( > 0, |Xn X| < eventualmente) = 1
P (@ > 0 tal que |Xn X| > i.v.) = 1
P @k N tal que |Xn X| > k1 i.v. = 1
q.c. P
Proposio 5.15 (q.c. P ). Se Xn X ento Xn X.
P
e pela Proposio 5.6 segue que P (|Xn X| > ) 0, ou seja, Xn X.
q.c.
portanto no vale Xn 0.
Xn
P( > infinitas vezes) = 1
log n
Xn q.c.
para 6 1 e 0 para > 1. Portanto no vale que log n 0.
E|Xn X|p
P (|Xn X| > ) 6 0.
p
Lp+s
Proposio 5.20 (Lp+s Lp ). Sejam p > 1 e s > 0. Se Xn X ento
Lp
Xn X.
1
Contra-Exemplo 5.21 (q.c. 6 Lp ). Suponha que P (Xn = n3 ) = n2 = 1
q.c. P
P (Xn = 0). Ento para < 1 temos P (X > ) = n12 , portanto Xn 0 e Xn 0.
L
Entretanto, EXn = n, logo no podemos ter Xn 1 0, e pela proposio acima no
podemos ter convergncia em Lp para nenhum p > 1.
1
E|X 0|p = EX p = P (X = 1) = 0,
n
106 CAPTULO 5. CONVERGNCIA DE VARIVEIS ALEATRIAS
Lp P q.c.
portanto Xn 0 para todo p e Xn 0. No entanto, no vale Xn 0.
Demonstrao. Seja t R tal que FX seja contnua em t. Temos que mostrar que
FXn (t) FX (t) quando n . Dado > 0, temos que
Xn 6 t = |Xn X| > ou X 6 t +
X 6 t = |Xn X| > ou Xn 6 t,
donde
Fazendo n temos
concluindo a demonstrao.
q.c. d
Exerccio 5.6. Mostre que, se Xn Y e Xn Z, ento Y Z.
q.c.Y
constante
subsequncia |
P +3 d
BJ
caso dominado
y
Lp+s +3 Lp
P P
Corolrio 5.30 (Unicidade do Limite em Probabilidade). Se Xn X e Xn Y
ento P (X = Y ) = 1.
P
Proposio 5.31 (Caso Dominado). Seja p > 1. Se Xn X e existe Y tal que
Lp
EY p < e |Xn | 6 Y q.c. para todo n, ento Xn X.
5.3 Exerccios
5.7. Sejam (Xn )nN variveis aleatrias independentes, distribudas respectiva-
P
mente como exp(n ), onde n = n3 . Prove que P n=1 Xn < = 1.
d P q.c. L L
Verifique respectivamente se Xn X, Xn X, Xn X, Xn 2 X, Xn 1 X,
para alguma varivel aleatria X.
5.11. Seja (Xn )n uma sequncia de variveis aleatrias independentes com dis-
tribuio uniforme em [0, 1], e Yn = max{X1 , . . . , Xn }. Encontre a funo de
distribuio de Yn e o limite em distribuio desta sequncia.
5.12. Sejam Xn , n N, variveis aleatrias independentes tais que Xn
Bernoulli(pn ). Estude as condies sobre (pn ) para que:
P
1. Xn 0.
q.c.
2. Xn 0.
5.13. Seja (Xn )n uma sequncia i.i.d. Mostre que
Xn q.c.
0
n
se e somente se E|X1 | < .
5.14. Seja (Xn )n uma sequncia i.i.d. Mostre que
X q.c.
n 0
n
110 CAPTULO 5. CONVERGNCIA DE VARIVEIS ALEATRIAS
5.15. Seja (Xn )n uma sequncia i.i.d. com distribuio exp(1). Mostre que
5.16. Seja (Xn )n uma sequncia i.i.d. com distribuio Poisson(). Mostre que
Xn q.c.
0.
log n
5.17. Seja (Xn )n uma sequncia i.i.d. de variveis aleatrias no-negativas com
EX12 < . Mostre que ( )
X Xn
P < =1
n=1
n2
Sn = X1 + X2 + + Xn .
Definio 6.1 (Lei Fraca dos Grandes Nmeros). Dizemos que a sequncia
(X1 , X2 , . . . ) satisfaz a Lei Fraca dos Grandes Nmeros se, para todo > 0, vale
Sn ESn
P > 0, quando n ,
n
ou seja, se
Sn ESn P
0.
n
111
112 CAPTULO 6. LEI DOS GRANDES NMEROS
Teorema 6.2 (Lei dos Grandes Nmeros de Bernoulli, 1713). Considere uma
sequncia de ensaios binomiais independentes tendo a mesma probabilidade p de
sucesso em cada ensaio. Se Sn o nmero de sucessos nos primeiros n ensaios,
ento
Sn P
p.
n
No veremos a demonstrao original de Bernoulli. A Lei dos Grandes Nmeros
de Tchebyshev provada logo abaixo mais geral.
A Lei dos Grandes Nmeros de Bernoulli tem uma importncia histrica inestim-
vel. De certa forma, esse teorema justifica o conceito de probabilidade como sendo
a frequncia relativa de ocorrncia de um evento, isto ,
Sn ESn P
0.
n
Demonstrao. Pela Desigualdade Clssica de Tchebyshev, temos
Pn
V ( Snn )
Sn ESn V Sn V Xi nM
P
> 6 2
= 2 2 = i=1
2 2
6 2 2 0.
n n n n
Sn P
.
n
Definio 6.5 (Lei Forte dos Grandes Nmeros). Dizemos que (X1 , X2 , . . . )
satisfaz a Lei Forte dos Grandes Nmeros se
Sn ESn
P lim = 0 = 1,
n n
ou seja, se
Sn ESn q.c.
0.
n
Teorema 6.6 (Lei dos Grandes Nmeros de Borel, 1909). Considere uma sequn-
cia de ensaios binomiais independentes tendo a mesma probabilidade p de sucesso
em cada ensaio. Se Sn o nmero de sucessos nos primeiros n ensaios, ento
Sn q.c.
p.
n
Teorema 6.7 (Lei dos Grandes Nmeros de Cantelli, 1917). Sejam X1 , X2 , . . . va-
riveis aleatrias independentes e identicamente distribudas, com quarto momento
finito e mdia . Ento (X1 , X2 , . . . ) satisfaz a Lei Forte dos Grandes Nmeros:
Sn q.c.
.
n
114 CAPTULO 6. LEI DOS GRANDES NMEROS
X X 4! X 2 2
Sn4 = (X1 + + Xn )4 = Xi Xj Xk Xl = Xi4 + X X +
i
2!2! i<j i j
i,j,k,l
4! X 3 4! X 2 X
+ Xi Xk + Xi Xj Xk + 4! Xi Xj Xk Xl .
3! 2! j<k
i6=k i<j<k<l
i6=j,k
Como assumimos que EXk = 0, a segunda linha igual a zero. Alm disso, como
as Xi tm a mesma distribuio, obtemos
n
ESn4 = nEX14 + 6 E(X12 X22 )
2
= nEX14 + 3(n2 n)E(X12 X22 )
q q
6 nEX14 + 3(n2 n) EX14 EX24
= (3n2 2n)EX14
6 3n2 EX14 .
ES 4 3EX 4
Sn
P > 6 4 n4 6 4 21 ,
n n n
Sn q.c.
e pelo Lema de Borel-Cantelli segue que n 0.
Sn q.c.
.
n
6.3. EXERCCIOS 115
6.3 Exerccios
Observao. As questes sobre a Lei Forte dos Grandes Nmeros, por tratarem
de eventos que devem acontecer com probabilidade 1, em geral envolvem o uso do
Lema de Borel-Cantelli.
6.1. Seja (Xn )n uma sequncia de variveis aleatrias independentes com funes
de probabilidade pn dadas por pn (n2 ) = n13 = 1 pn (0). Essa sequncia satisfaz a
Lei dos Grandes Nmeros?
6.2. Seja (Xn )n uma sequncia de variveis aleatrias independentes com funes
de probabilidade pn dadas por pn (n2 ) = n12 = 1 pn (0). Essa sequncia satisfaz a
Lei dos Grandes Nmeros?
Seja (Xn )n uma sequncia i.i.d. de variveis aleatrias. Pela Lei dos Grandes
Nmeros sabemos que a mdia amostral Snn se aproxima do valor esperado para
valores grandes de n, isto ,
Sn
.
n
Porm, no razovel esperar que Snn seja exatamente igual a . Ento a primeira
pergunta que surge sobre a flutuao Snn da mdia amostral em torno do seu
valor esperado. Tipicamente, essa diferena ocorre em qual escala? Nessa escala,
qual seu comportamento estatstico?
No difcil adivinhar a escala em que ocorre essa flutuao. De fato, sabemos
que ESn = nEX1 = n e V Sn = nV X1 = n 2 , ou seja, (Sn ) = n. Assim
temos que a esperana da mdia amostral e seu desvio-padro n . Isso uma
indicao de que tipicamente as flutuaes assumem valores da ordem n (de fato,
pela desigualdade de Tchebyshev, as flutuaes no podem ser muito maiores do
que o desvio-padro, porm o valor numrico da varincia poderia ser resultado de
uma flutuao atipicamente grande, enquanto os valores tpicos fossem na verdade
muito menores). Vamos supor que esse argumento est correto para tentar entender
qual poderia ser o comportamento estatstico das flutuaes nessa escala.
Escrevemos Snn = + n Yn , onde Yn satisfaz EYn = 0 e V Yn = 1. Ser que
o comportamento estatstico de Yn se aproxima de alguma distribuio Y que
no depende de n? Suponhamos que sim, e busquemos um candidato para essa
117
118 CAPTULO 7. TEOREMA CENTRAL DO LIMITE
Sn ESn d
N (0, 1).
V Sn
Reescrevendo, temos
Sn
+ N (0, 1).
n n
Ou seja, a escala em que a mdia amostral Snn flutua em torno de seu valor
esperado de fato dada por n . Ademais, seu comportamento nessa escala possui
forte regularidade estatstica, e sua distribuio se aproxima de uma normal padro.
Dito de outra forma, a distribuio da soma parcial Sn pode ser aproximada por
uma normal com mesma mdia e varincia de Sn :
Sn N (n, n 2 ).
Teorema 7.1 (Teorema de De Moivre-Laplace, 1730, 1812). Seja (Xn )nN uma
sequncia de variveis aleatrias independentes, com distribuio Bernoulli(p),
onde p = 1 q (0, 1), e tome Sn = X1 + + Xn . Ento para todos a < b
Z b
Sn np 1 x2
P a< 6b e 2 dx.
npq 2 a
7.1. TEOREMA DE DE MOIVRE-LAPLACE 119
n
Figura 7.1: Funo de probabilidade de Sn n
para Sn com distribuies b(4, 12 )
1
e b(16, 2 ) para valores entre 3 e 3. A rea de cada retngulo dada pela funo de
probabilidade. O terceiro grfico a funo de densidade de uma normal padro,
assim como as linhas pontilhadas. O quarto grfico representa as frequncias
n
relativas de Sn n
para Sn com distribuio b(16, 12 ), em um experimento real
com 200 amostras.
Ou seja,
Sn N (np, npq).
O teorema foi provado por De Moivre supondo que p = 21 e por Laplace para
0 < p < 1. De fato, ele segue de uma aproximao muito mais fina:
x2
n! 1 k
pk q nk e 2 , ()
k! (n k)! 2npq
onde
k np
xk = xn,k =
npq
e significa que a razo entre ambos os termos tende a 1 quando n tende a infinito.
O limite em () uniforme se restrito a |xk | < M com qualquer M < fixo.
Essa aproximao muito mais fina porque diz no apenas que a probabilidade de
a flutuao estar dentro de um certo intervalo bem aproximada pela normal, mas
tambm que a funo de probabilidade de cada um dos possveis valores dentro de
um intervalo fixo aproximado pela densidade da normal.
Para entender de onde vem essa aproximao, primeiro precisamos de uma expres-
so mais palpvel para n!. Qual a probabilidade de obtermos exatamente 60 caras
120 CAPTULO 7. TEOREMA CENTRAL DO LIMITE
120! 1
P (S120 = 60) = 120 .
60! 60! 2
Essa expresso simples e matematicamente perfeita. Porm, quanto vale essa
probabilidade? Mais de 15%? Menos de 5%? Entre 5% e 10%? Uma calculadora de
bolso trava ao calcular 120!. Num computador esse clculo resulta em 7, 2684979%.
Mas e se fossem 40.000 lanamentos da moeda? E se estivssemos interessados
em calcular P (S40.000 6 19.750), faramos um clculo semelhante 250 vezes para
depois somar? As expresses com fatorial so perfeitas para a combinatria, mas
impraticveis para se fazer estimativas. Nosso socorro ser a frmula de Stirling
n! nn en 2n.,
que pode ser feito at mesmo sem calculadora. Mais do que isso, acabamos de
obter a aproximao () no caso particular em que p = q = 12 e xk = 0.
Vamos que mostrar () para |xk | < M onde M est fixo. Aplicando a frmula de
Stirling obtemos
n! nn en 2n pk q nk ( np )k ( nk
nq nk
)
k nk
p q p = pk .
k! (n k)! k
k e k 2k(n k)nk e kn 2(n k) 2k(n k)/n
donde obtemos
np k nq nk
n! k nk f (n, k)
pk q nk = .
k! (n k)! 2npq 2npq
x2 r(x)
log(1 + x) = x + r(x), onde 0 quando x 0.
2 x2
Assim,
npqx2k
npq xk npq xk
log f (n, k) = k + r( k ) +
k 2k 2
npqx2k
npq xk npq xk
+ (n k) + r( nk ) .
nk 2(n k)2
knp
onde os somatrios so sobre k com a condio sobre xk , que dado por xk =
npq .
122 CAPTULO 7. TEOREMA CENTRAL DO LIMITE
Observando que
1
xk+1 xk = ,
npq
e substituindo (), obtemos
x2
k
Sn np
X e 2 1 X x2
k
P a<
npq 6b = e 2 [xk+1 xk ].
2npq 2
a<xk 6b a<xk 6b
Sn ESn d
N (0, 1),
V Sn
isto ,
Sn n d
N (0, 1).
n
Ento,
2
ex /2
Sn ESn
Z
Ef f (x) dx quando n
V Sn R 2
para qualquer f tal que f , f 0 , f 00 e f 000 sejam limitadas.
7.2. TEOREMA CENTRAL DO LIMITE 123
Yi Xi
V i = Z i1 e Zi = V i + ,
V Sn V Sn
de forma que este termo tambm se cancela, bem como o terceiro termo pelo mesmo
motivo. Portanto,
E|Xi |3 + i3 E|N |3
=C
6(V Sn )3/2
E|Xi |3
6C ,
(V Sn )3/2
1 1
i = (E|Xi |2 ) 2 6 (E|Xi |3 ) 3
7.3 Exerccios
7.1. Um par de dados honestos lanado 180 vezes por hora.
X1 + + XN
pbN = .
N
bN = X1 + + XN .
N
probabilidade de que o nmero de vezes que se obtm coroa seja no mnimo 4.893
e no mximo 4.967.
Funes Geradoras
MX (t) = E[etX ].
e Z
MX (t) = etx fX (x) dx se X absolutamente contnua.
R
127
128 CAPTULO 8. FUNES GERADORAS
0
EX = MX (0) = p,
00
EX 2 = MX (0) = p,
V X = EX 2 (EX)2 = p(1 p).
0
EX = MX (0) = np,
00
EX 2 = MX (0) = np(1 p) n2 p2 ,
V X = EX 2 (EX)2 = np(1 p).
0 1
EX = MX (0) = ,
p
00 2 1
EX 2 = MX (0) = 2 ,
p p
1p
V X = EX 2 (EX)2 = .
p2
0
EX = MX (0) = ,
00
EX 2 = MX (0) = 2 + ,
V X = EX 2 (EX)2 = .
e, tomando = EX,
0
MX (t) 1 X tn X npX (n) X
= ne pX (n) = etn = etn pY (n) = MY (t).
n n
n
Se MX+1 = MY vale
M 0 (t)
et M (t) =
M 0 (t)
= et ,
M (t)
integrando em t obtemos
log M (t) = et + c
e, como M (0) = 1, temos c = . Logo,
t
1)
M (t) = e(e
e portanto X Poisson().
EZ = EX + iEY.
A integrao de funes complexas em domnios reais pode ser feita, para todos os
d
fins prticos, como no caso real. Ou seja, se F : R C satisfaz dx F (x) = f (x)
para x [a, b], ento
Z b
f (x) dx = F (b) F (a).
a
Observao 8.21. Como |eitX | = 1, X (t) sempre est definida para todo t R.
para todo t R.
dk
(t) = ik EX k .
X
dtk
t=0
EX = i 0X (0) = ,
EX 2 = 00X (0) = 2 + ,
V X = EX 2 (EX)2 = .
Convergncia em distribuio
O Teorema de Continuidade relaciona convergncia de funes caractersticas com
convergncia em distribuio, vista no Captulo 5.
Teorema 8.32 (Teorema da Continuidade de Lvy). Sejam X e (Xn )nN variveis
aleatrias. Ento
d
Xn X se, e somente se, Xn (t) X (t) t R.
8.3. EXERCCIOS 135
d
Xn Poisson().
r2 (w) t2
onde r2 () tal que w2 0 quando w 0. Segue que Sn
(t) e 2 quando
n
Sn d
n , para todo t R. Pelo Teorema 8.32, n
N.
8.3 Exerccios
t2
8.1. Se X N (0, 1), mostre que MX (t) = e 2 . Mostre que EX = 0. Mostre que
V X = 1. (Sugesto: verifique que (z 2 2tz) = t2 (z t)2 e faa z t = u.)
136 CAPTULO 8. FUNES GERADORAS
X1 + X2 + + Xn
Sn = X1 + X2 + + Xn e Sn = .
n
Mostre as seguintes propriedades:
X
1. Se X N (, 2 ), ento Z = N (0, 1).
2
2. Assim, se X N (, ), ento
1 2 2
MX (t) = et+ 2 t
EX =
V X = 2 .
Pn Pn
3. Se Xi N (i , i2 ), ento Sn N ( i=1 i , i=1 i2 ).
4. Se Xi N (, 2 ), ento Sn N (n, n 2 ).
2
5. Se Xi N (, 2 ), ento Sn N (, n ).
8.5. O peso de uma determinada fruta uma varivel aleatria com distribuio
normal com mdia de 200 gramas e desvio-padro de 50 gramas. Determine a
probabilidade de um lote contendo 100 unidades dessa fruta pesar mais que 21 kg.
8.3. EXERCCIOS 137
8.7. Se X U [a, b], calcule MX (t). Use a funo geradora de momentos para
calcular EX e V X.
8.10. Seja Y uma varivel aleatria absolutamente contnua com funo de densi-
dade de probabilidade dada por
yey , se y > 0
fY (y) =
0, caso contrrio
para qualquer c R.
Esperana Condicional
139
140 CAPTULO 9. ESPERANA CONDICIONAL
Definio 9.3 (Probabilidade Condicional Dada uma Partio). Dada uma par-
tio D = {Di }i e um evento A, definimos a varivel aleatria
X
P (A|D) = P (A|D)() = P (A|Di ) 1Di ().
i
P P
Demonstrao. E P (A|D) = E[ j P (A|Dj )1Dj ] = j P (A|Dj )P (Dj ) = P (A),
onde a segunda igualdade basicamente uma aplicao do Teorema 4.27 com
P
relao varivel aleatria J = j j1Dj que vale j em cada Dj .
P (A|Y ) = p (1 Y ) + (1 p) Y.
Definio 9.9 (Esperana Condicional Dada uma Partio). Seja X uma varivel
aleatria simples. Considere D uma partio de (, F). Definimos a varivel
aleatria X
E(X|D)() = E(X|Di ) 1Di ().
i
e portanto X
E(X|D) = x P (X = x | D).
x
P
De forma mais geral, se X = i xi 1Ai para uma partio {Ai }i , ento E(X|D) =
P
i xi P (Ai | D).
Assim, (
4, se X() par,
Z() =
3, se X() mpar.
142 CAPTULO 9. ESPERANA CONDICIONAL
X() E(X|D)()
D D
1. E(c | D) = c
2. Se X 6 Y ento E(X|D) 6 E(Y |D)
3. E(aX + bY |D) = aE(X|D) + bE(Y |D)
4. E(X|{}) = EX .
P
EX= xP (X=x)
P ()
x
/ E()
E Y
P (AD)
P (A|D)= P (D)
P
E(X|D)= xP (X=x|D)
P (|D)
x
/ E(|D)
P
P (A|D)= P (A|Di )1Di
P (A)=E[P (A|D)] i EX=E[E(X|D)]
P
E(X|D)= E(X|Di )1Di
i
P (|D) P / E(|D)
E(X|D)= xP (X=x|D)
x
E(X|Y ) = E(X|DY ).
Dizemos que D2 mais fina que D1 , denotado por D2 < D1 , se todo elemento de D1
igual unio de elementos de D2 , isto , se para todo D D1 existe C D2 tal
que D = C. Isso significa que D2 tem mais informao do que D1 .
Definimos DX1 ,X2 ,...,Xd como sendo a partio gerada pelo vetor (X1 , X2 , . . . , Xd ),
ou seja, a partio cujos tomos so os maiores conjuntos onde todas as Xj so
constantes. Mais formalmente, se {x1 , x2 , x3 , . . . } so os valores assumidos pelo
vetor aleatrio X, definimos Di = [X = xi ] e D = {D1 , D2 , D3 , . . . }.
Demonstrao. Escrevemos
X X
X= xi 1Di e Y = yj 1Aj ,
i j
assim XX
XY = xi yj 1Aj Di
i j
9.1. ESPERANA CONDICIONAL DADA UMA PARTIO 145
e portanto
XX
E[XY |D] = xi yj P (Aj Di |D)
i j
XX X
= xi yj P (Aj Di |Dm )1Dm
i j m
XX
= xi yj P (Aj |Di )1Di .
i j
concluindo a prova.
Em particular,
E E(X|Y1 , Y2 )Y1 = E(X|Y1 ).
X X E(X1Dj ) P (Dj )
E[E(X|D)|C] = 1Ci
P (Dj ) P (Ci )
i j:Dj Ci
X 1 X
= 1Ci E(X1Dj )
P (Ci )
i j:Dj Ci
X 1
= 1Ci E(X1Ci )
i
P (Ci )
X
= 1Ci E(X|Ci ) = E(X|C).
i
X X X
E(X1Dj ) = xk P (Ak Dj ) =
j:Dj Ci j:Dj Ci k
X X X
= xk P (Ak Dj ) = xk P (Ak Ci ) = E(X1Ci ).
k j:Dj Ci k
No caso de variveis aleatrias Y que no sejam discretas, temos que dar sentido a
expresses como P (X B|Y = y) e E(X|Y = y), mesmo que P (Y = y) seja zero,
para poder dizer que relaes anlogas continuam valendo.
P (X B, Y = y)
P (X B|Y = y) =
P (Y = y)
P (X B|Y = y) = P (X B).
d
Logo, fX (x|Y = 1) = dx FX (x|Y = 1) = 1[0,1] (x) e
Z 1
1
E(X|Y = 1) = xfX (x|Y = 1)dx = .
0 2
1
Portanto, E(X|Y = y) = y se y (1, 2] e E(X|Y = y) = 2 se y = 1. Substituindo,
(
1
2, Y = 1,
E(X|Y ) =
Y, 1 < Y 6 2.
Exemplo 9.31. No Exemplo 9.29, temos que Y mista com funes de densidade
e probabilidade dadas por
e portanto
Z 2
1 1 1
EX = E E(X|Y ) = E[g(y)] = 2 2 + 2 y dy = 1.
1
Exemplo 9.33. O Jogador I lana uma moeda honesta n vezes, obtendo k caras,
onde 0 6 K 6 n. Depois o Jogador II lana a moeda k vezes, obtendo j coroas.
Seja X o nmero j de coroas obtidas pelo Jogador II. Queremos calcular EX.
(Poderamos fazer algum esforo neste caso nem sempre isso possvel para
mostrar que X b(n, 41 ) e portanto EX = n4 , mas estamos interessados apenas em
saber EX.)
Seja Y o nmero de caras obtidas pelo Jogador I. claro que X|Y = k b(k, 21 ),
logo E(X|Y = k) = k2 . Assim, E(X|Y ) = Y2 . Calculamos ento
Y 1 1n n
EX = E [E(X|Y )] = E = EY = = ,
2 2 22 4
1
5 4y
Z
15 8 7
(4y 3y 2 )dy =
E[X] = E E(X|Y ) = = .
0 8 6y 12 12 12
9.3. ESPERANA CONDICIONAL REGULAR 153
Exemplo 9.35. No Exemplo 9.25, vamos calcular E eX/2 Y e E eX/2 Y = 1 .
Substituindo a densidade condicional obtida, temos
h X i Z x Z
1
E e 2 Y = y = e 2 yexy dx = y e( 2 y)x dx.
0 0
1 y
Se y 6 2 a integral vale +. Se y > 12 , a integral vale y 21
. Assim,
(
h i +, Y 6 21 ,
E eX/2 Y = y
y 12
, y > 12 ,
e E eX/2 Y = 1 = 12 .
Exemplo 9.36. Seja X U [0, 1]. Se X = x, ento uma moeda com proba-
bilidade x de sair cara lanada n vezes independentemente. Seja Y a varivel
aleatria que representa o nmero de caras obtidas.
Temos que Y |X = x b(n, x) e X U (0, 1) Se y 0, 1, . . . , n ento:
Z 1 Z 1
n
P (Y = y) = P (Y = y | X = x)fX (x)dx = y xy (1 x)ny dx.
0 0
Portanto
n
X n Z
X 1
n
E[Y ] = yP (Y = y) = y y xy (1 x)ny dx
y=0 y=0 0
Z 1 n
X
n1
= xn y1 xy1 (1 x)ny dx
0 y=0
Z 1 Z 1
n
= xn(x + 1 x)n1 dx = n xdx = .
0 0 2
E [Y ] = E [N ] E [X] .
k
E [Y1 + Y2 + + Yk |Y1 + Y2 + + Yn = y] = y, k = 1, 2, . . . , n.
n
Exerccio 9.6. Um nmero no-negativo X escolhido com densidade fX (x) =
xex para x > 0. Se X = x, um nmero Y escolhido no intervalo [0, x]. Ache
P (X + Y 6 2).
9.4 Exerccios
9.7. Considere X e Y i.i.d. Bernoulli(p). Calcule E(X+Y |Y ) e escreva essa varivel
aleatria como uma funo da varivel aleatria Y , de duas formas diferentes:
X +Y
E(X|X + Y ) = E(Y |X + Y ) = .
2
9.9. Seja X uma varivel aleatria simples definida em (, F, P ) e D uma partio
de (, F). A varincia condicionada a uma partio definida de forma anloga
9.4. EXERCCIOS 155
Mostre que
2
V (X|D) = E X 2 D [E (X|D)]
e que
V X = E[V (X|D)] + V [E(X|D)].
E [ X E (Y |D) ] = E [ Y E (X|D) ] .
mostre que P (X = Y ) = 1. Dica: desenvolva E (X Y )2 .
9.12. Joga-se um dado, depois uma moeda, depois o dado novamente e segue-se
alternando entre o dado e a moeda. Quando se obtm cara na moeda, o jogo
imediatamente interrompido e conta-se o total Z de pontos obtidos nos lanamentos
do dado. Calcule EZ.
9.13. Seja X exp() e Y = min{X, c}, onde c > 0 uma constante. Encontre
E(X|Y ).
Convergncia da Esperana
Uma questo fundamental sobre o limite de EXn para uma sequncia qualquer
X1 , X2 , X3 , . . . de variveis aleatrias. Mas precisamente, a questo quando po-
demos comutar a esperana com o limite em n, ou seja, se E[limn Xn ] = limn EXn .
Vale lembrar que derivadas e integrais tambm so limites.
Pensemos a regio abaixo do grfico de uma funo real no-negativa como tendo
uma rea, volume ou massa. Se a funo dada por f (x) = n 1(0, n1 ] (x),
ou por g(x) = 1(n,n+1] (x), essa massa sempre igual a 1 e, no entanto, desaparece
quando tomamos o limite em n. Podemos dizer que a massa escapou ao infinito,
no primeiro exemplo o fez verticalmente e, no segundo, horizontalmente. As trs
propriedades estudadas neste captulo explicam o que pode acontecer com a massa
no limite.
157
158 CAPTULO 10. CONVERGNCIA DA ESPERANA
Demonstrao. Por monotonicidade, temos que EXn converge e limn EXn 6 EX,
faltando demonstrar a desigualdade oposta. Seja 0 6 Z 6 X simples, e seja < 1.
Tomando Ak = [Xk > Z], temos que
O Lema de Fatou diz que, embora os exemplos acima mostrem que possvel perder
massa no limite, no possvel ganhar massa.
Teorema 10.2 (Lema de Fatou). Seja (Xn )n uma sequncia de variveis aleatrias
estendidas no-negativas. Ento E[lim inf n Xn ] 6 lim inf n EXn .
Demonstrao. Exerccio.
Demonstrao. Exerccio.
P
Corolrio 10.6. Sejam (Xn )n variveis aleatrias tais que n E|Xn | < . Ento
P P P
a srie n Xn converge quase-certamente, e E[ n Xn ] = n EXn .
Demonstrao. Exerccio.
q.c.
Corolrio 10.7. Se Xn X e exite M R tal que |Xn | 6 M q.c. para todo n,
ento EXn EX.
Demonstrao. Exerccio.
160 CAPTULO 10. CONVERGNCIA DA ESPERANA
P
Demonstrao da Proposio 5.31. Suponha que Xn X e |Xn | 6 Y q.c., onde
EY p < . Ento |X| 6 Y q.c. e temos
P P
que integrvel. Por outro lado, como Xn X 0 temos |Xn X|p 0. Pelo
Teorema da Convergncia Dominada, E|Xn X|p 0.
dk
MX (t) = E[X k etX ]
dtk
para todo t (, +), por induo em k.
Para k = 0 temos a identidade MX (t) = EetX que vale trivialmente. Suponhamos
a identidade acima vlida para k N. Escrevemos gx (t) = xk etx e gx0 (t) = xk+1 etx .
Temos
d (k) d gX (t + h) gX (t)
M (t) = EgX (t) = lim E .
dt X dt h0 h
Se pudermos comutar a esperana e o limite, teremos
(k+1) gX (t + h) gX (t) 0
MX (t) = E lim = EgX (t) = E[X k+1 etX ].
h0 h
Para aplicar o Teorema da Convergncia Dominada, tomamos uma sequncia
qualquer hn 0, e basta dominar o termo aleatrio | gX (t+h)gh
X (t)
| por uma
varivel aleatria integrvel. Ora, pelo Teorema do Valor Mdio,
gx (t + h) gx (t)
= gx0 (),
h
|t|
onde [t, t + h] depende de x, t e h. Tomando = 3 , para |h| < temos
10.3 Exerccios
10.1. Seja X uma varivel aleatria integrvel, se seja (An )n uma sequncia de
eventos tais que P (An ) 0. Prove que E[X1An ] 0.
O Passeio Aleatrio
1
P (Xn = ej ) = P (Xn = ej ) = 2d , j = 1, . . . , d.
S0 = 0, Sn = Sn1 + Xn .
Teorema 11.1. (
1, d 6 2,
P (Sn = 0 i.v.) =
0, d > 2.
Antes de ver a prova completa, tentaremos entender de onde vem essa diferena
163
164 CAPTULO 11. O PASSEIO ALEATRIO
P
entre d 6 2 e d > 2. Definimos Zn = 1Sn =0 e R = n=1 Zn , que conta o nmero
de retornos origem. Ento
X
ER = P (Sn = 0).
n=1
ou 0 dependendo da paridade. Isso, por sua vez, implica que ER < , o que
certamente implica que R < q.c. O mesmo raciocnio tambm funciona para
d = 4, 5, 6, . . . .
H dois pontos que devemos justificar: para d 6 2, por que ER = implica
P (R = ) = 1; para d > 2, formalizar a idia de que nd passos so feitos em cada
direo, enquanto os sentidos dos passos permanecem independentes.
X c3
+ P (N1 , N2 , N3 ) = (n1 , n2 , n3 )
n1 ,n2 ,n3
n1 n2 n3
n
algum menor que 4
3
c X
6 P (N1 , N2 , N3 ) = (n1 , n2 , n3 ) +
( n4 )3/2 n1 ,n2 ,n3
n
todos maiores que 4
X
+ P (N1 , N2 , N3 ) = (n1 , n2 , n3 )
n1 ,n2 ,n3
n
algum menor que 4
3
8c
= P (N1 , N2 , N3 so maiores que n4 )+
n3/2
n
+ P (algum N1 , N2 , N3 menor que 4)
8c3 E(N1 n3 )4
6 + 3 n 4
n3/2 ( 12 )
6 (8c3 )n3/2 + (3 3 124 )n2 .
Ento X
P (R > k) = P (T1 = t1 , T2 = t2 , . . . , Tk = tk ).
t1 <t2 <<tk
#{(x1 , . . . , xtk ) : st1 = = stk = 0, sn 6= 0 para tj < n < tj+1 } #At1 ,...,tk
= ,
(2d)tk (2d)tk
temos
#At1 ,...,tk = #At1 #At2 t1 #At3 t2 #Atk tk1 .
11.3. PROVA DA RECORRNCIA 167
k
= P (R > 1) .
( P
1, n P (Sn = 0) = ,
Corolrio 11.3. P (R = ) = P
0, n P (Sn = 0) < .
c2 X
6 pn n P (N1 , N2 ) = (n1 , n2 )
2 2 n1 ,n2
ambos pares
c2
= p n n P (N1 , N2 so ambas pares)
2 2
2 1
=c n ,
Grandes Desvios
Seja X uma varivel aleatria integrvel com mdia . Sejam (Xn )n independentes
e com a mesma distribuio de X, e tome Sn = X1 + + Xn .
A Lei dos Grandes Nmeros foi provada da seguinte forma: dado a > ,
Sn
2 1
> a 6 P ( Snn )2 > (a )2 6 1 Sn VX
P n (a)2 E n = (a)2
n
169
170 CAPTULO 12. GRANDES DESVIOS
1
ela decai pelo menos to rpido quanto nk
.
Tentaremos agora obter estimativas melhores usando momentos de etX ao invs de
X 2k . Para t > 0,
Sn
> a 6 P etSn > eatn 6 1 tSn
= eatn M (t)n = e[atlog M (t)]n ,
P n eatn Ee
+
Teorema 12.1 (Desigualdade de Concentrao de Chernoff). Se DM > 0, ento
para qualquer a > existe t > 0 tal que [at log M (t)] > 0. Como
Sn
> a 6 e[atlog M (t)]n ,
P n
+
Demonstrao. Suponha que DM > 0 e seja a > . Pela Proposio 10.9, podemos
tomar a derivada lateral pela direita, obtendo
d h i M 0 (0)
at log M (t) =a = a > 0,
dt t=0
M (0)
Definio 12.2 (funo taxa). Seja X uma varivel aleatria. Definimos a funo
taxa I associada distribuio de X, por
I(a) = sup at log M (t) .
tR
Podemos pensar na funo taxa como uma tentativa de obter a melhor estimativa
possvel a partir de (12.1). A razo pela qual a funo I merece esse nome
que, uma vez que maximizamos [at log M (t)] sobre todo t, a desigualdade (12.1)
deixa de ser apenas mais uma cota superior, sendo de fato a melhor cota superior
possvel. O prximo teorema torna esta afirmao precisa. Dado A R, para
descrever a maneira mais fcil (ou menos difcil) de Snn estar em A, vamos denotar
I(A) = inf I(a).
aA
Sn
J = eI(J)n+o(n) .
P n
d
M 0 (y)
0= dy ay log M (y) = a ,
M (y)
172 CAPTULO 12. GRANDES DESVIOS
assim
d M 0 (y)
a= dy log M (y) = M (y) ,
log M (t) a2 a=
y=0
I() = 0
y1 t
y2
I(a1 )
a1
I(a2 )
Figura 12.1: Obteno de I(a) para distintos valores de a a partir da funo log M .
Se X N (, 1), temos
t2
log M (t) = + t,
2
assim
a = [log M (y)]0 = y + , y = a ,
e h i (a )2
(a)2
I(a) = a(a ) 2 + (a ) = , a R.
2
Se X Poisson(), temos
assim
a = [log M (y)]0 = ey , y = log a ,
12.2. PRINCPIO DOS GRANDES DESVIOS 173
e
I(a) = ay log M (y) = a log a a + .
De fato, (
a log a a + , a > 0,
I(a) =
+ a < 0.
Se X exp(1), temos
1
M (t) = , t < 1,
1t
assim
M 0 (y) (1 y)2 1 1
a= = = , y =1 ,
M (y) (1 y)1 1y a
e
I(a) = ay log M (y) = a(1 a1 ) log M (y) = a 1 log a.
De fato, (
a 1 log a, a > 0,
I(a) =
+ a 6 0.
Se X Bernoulli(p), temos
M (t) = pet + 1 p,
assim
M 0 (y) pey 1p
a= = y , y = log( ap 1a ),
M (y) pe + 1 p
e
I(a) = ay log M (y) = = a log ap + (1 a) log 1a
1p .
De fato,
a 1a
a log p + (1 a) log 1p , 0 < a < 1,
log 1 ,
a = 1,
p
I(a) = 1
log 1p , a = 0,
+ a < 0 ou a > 1.
Se X = constante, temos
log M (t) = t,
174 CAPTULO 12. GRANDES DESVIOS
assim
a = [log M (t)]0 = , y pode ser qualquer nmero,
e
I(a) = ay log M (y) = 0.
De fato, (
0, a=
I(a) =
+ a 6= .
Sn
[a , a + ] > eI(a)n+o(n) .
P n
O teorema vale tal como enunciado, sem suposies adicionais sobre a distribuio
de X. No entanto, vamos supor que o supremo em I(a) atingido, ou seja,
+
Demonstrao. Como o supremo atingido no interior de (DM , DM ), temos
d h i M 0 (y)
0= at log M (t) =a ,
dt t=y
M (y)
e portanto
E[XeyX ]
= a.
E[eyX ]
Bn = (z1 , . . . , zn ) : z1 ++z a 6 Rn .
n
n
Ento
Sn
P n [a , a + ] = E 1Bn (X1 , . . . , Xn )
h i
(y)n eyX1 eyXn
= E ey(XM1 ++Xn )
1
Bn (X 1 , . . . , X )
n M (y) M (y)
n
M (y) eyX1 eyXn
> E ayn+|y|n 1Bn (X1 , . . . , Xn ) M (y) M (y)
e
= e[aylog M (y)|y|]n P (Y1 , . . . , Yn ) Bn
Esta ltima probabilidade converge para 1 pela Lei dos Grandes Nmeros, e
portanto
P Snn a 6 > P Snn a 6 > eI(a)n2|y|n
completando a prova.
Sn
J > eI(J )n+o(n) , o que conclui a prova.
Como arbitrrio, P n
I(a) = sup[at log M (t)] para a > e I(a) = sup[at log M (t)] para a 6 .
t>0 t60
Demonstrao. Tomando t = 0 temos [at log M (t)] = 0, logo I(a) > 0 para todo
a. Agora, pela desigualdade de Jensen, M (t) = EetX > eEtX = et , donde
t log M (t) 6 0.
Isso implica que I() = 0. Isso tambm implica que, para a > e t < 0, at
log M (t) < 0, assim I(a) = supt>0 [atlog M (t)]. Analogamente, para a < temos
I(a) = supt60 [at log M (t)].
Para provar monotonicidade em [, +), vejamos que, para a > c > ,
I(a) = sup[at log M (t)] > sup[ct log M (t)] = I(c) > 0 = I().
t>0 t>0
e podemos tomar t 6 0 tal que [at log M (t)] > I(J ) . Agora, usando a
estimativa (12.1) obtemos
Sn Sn
6 a 6 eI(J )n+n .
P n J 6P n
Sn
J 6 eI(J )n+o(n) , concluindo a demonstrao.
Como arbitrrio, P n
12.5 Convexidade
Esta seo pode ser omitida. Vamos enunciar e provar a Desigualdade de Young,
para ento enunciar e provar a Desigualdade de Hlder, e finalmente demonstrar a
Proposio 12.4.
Sejam p > 1, q > 1 tais que
1 1
+ = 1.
p q
ap bq
ab 6 + .
p q
1
p1= .
q1
|X| |Y |
X = e Y =
kXkp kY kq
E[XY ] E|XY | E X p E X q 1 1
6 = E[X Y ] 6 + = + = 1.
kXkp kY kq kXkp kY kq p q p q
= I(a1 ) + I(a2 ).
1 i h 1 i
h
t1 X t2 X
6 log E e E e
Frmula de Stirling
Com esse argumento de aproximao de soma por integral, pode-se mostrar que
r(n)
log n! = n log n n + r(n) com 0,
n
que suficiente em muitas aplicaes, mas queremos uma aproximao mais fina.
De fato, queremos aproximar assintoticamente n! e no apenas log n!.
179
180 APNDICE A. FRMULA DE STIRLING
temos
h i
n+1 n en1 n+1 n!
cn+1 cn = log (n + 1) n en n (n+1)!=
= n log(1 + n1 ) 1 + log(1 + n1 ).
x2
log(1 + x) = x + r(x)
2
2 x3 x3
onde r(x) igual a (1+x)3 6 para algum x [0, x] e satisfaz 0 6 r(x) 6 3 .
Continuando o desenvolvimento de cn+1 cn , temos Temos que
1 1
+ r( n1 ) 1 + 1 1
+ r( n1 )
cn+1 cn = n n 2n2 n 2n2
1 1
= n 2n + n r( n ) 2n2 + r( n1 )
= n r( n1 ) + 12 r( n1 ) 4n1 2
1 1
se escolhemos = 2 para cancelar os termos de ordem n.
Finalmente, combinando a ltima identidade e expanso de Taylor temos
1
|cn+1 cn | 6 2n2 ,
n!
ec = 2
nn en n
m x2
e 2
Z
1
1 m2 6 dx 6 1.
m 2
e portanto = .
2 4 6 (2n 2)
r
= lim 2n.
2 n 3 5 7 (2n 1)
182 APNDICE A. FRMULA DE STIRLING
e portanto = .
n1
In = In2 .
n
I2n2 2n 2n I2n
= .
I2n1 2n 1 2n + 1 I2n+1
c) Verifique que I0 = 2 e I1 = 1.
d) Mostre por induo que para todo n > 0 vale
2 2 4 4 6 6 2n 2n I2n
= .
2 1 3 3 5 5 7 2n 1 2n + 1 I2n+1
12.1 Obteno de I(a) para distintos valores de a a partir da funo log M .172
183
184 LISTA DE FIGURAS
Lista de Tabelas
185
186 LISTA DE TABELAS
Notao
Ac Complementar de A: Ac = { :
/ A} . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
an
Assintoticamente equivalentes: an bn se bn 1 quando n . . . . 119
N (, 2 ) Distribuio normal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
187
188 APNDICE A. NOTAO
o(w)
o() ordem pequena; qualquer funo satisfazendo |w| 0 . . . . . . . . . . . . . . . 169
X Vetor aleatrio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
X Y X e Y tm a mesma distribuio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
x 6 y Desigualdade de vetores, x1 6 y1 , . . . , xd 6 yd . . . . . . . . . . . . . . . . . . . . . . . . . . 54
X, Y Variveis aleatrias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
ndice Remissivo
189
190 NDICE REMISSIVO
mite tabela, 47
densidade, veja funo de densidade singular, veja varivel aleatria sin-
desigualdade gular
bsica de Tchebyshev, 92 uniforme, 44
clssica de Tchebyshev, 93 contnua, 44
de Cauchy-Schwarz, 93 discreta, 40
de concentrao de Chernoff, 169
equiprovvel, 14, 40
de Hlder, 177
espao amostral, 15
de Jensen, 91
espao de probabilidade, 13, 19
de Markov, 93
induzido, 35, 54
de Young, 177
espao discreto, 14
desvio-padro, 88
esperana
propriedades, 88
caso contnuo, 80
determinante, veja mtodo do Jacobiano
caso discreto, 79
discreta, veja ver varivel aleatria dis-
condicional
creta
dada uma partio, 141
distribuio
dado um evento, 95
binomial, 41, 118, 135
iterada, 151
condicional propriedades, 141, 142, 151
dado um evento, 49 regular, 150
regular, 147 de variveis independentes, 75, 82
conjunta, veja funo de distribui- de varivel aleatria simples, 71
o conjunta propriedades, 73
de Bernoulli, 40 definio, 78
de Poisson, 42, 68, 79, 110, 128 linearidade, 81
130, 133135 momentos, veja momentos
de uma varivel aleatria, 35 monotonicidade, 81
exponencial, 45 mudana de varivel, 80
funo de, veja funo de distribui- propriedades, 81, 82
o unitariedade, 81
gama, 45 varincia, veja varincia
geomtrica, 41 Euler, veja frmula de Euler
hipergeomtrica, 41 evento
normal, 46, 117, 118, 122, 135, 137 aleatrio, 16
padro, 46 certo, 17
soma de, 65, 136 elementar, 17
NDICE REMISSIVO 191
lei dos grandes nmeros, 111 partio, 23, 139, veja tambm proba-
de Bernoulli, 111 bilidade condicional dada uma
de Borel, 113 partio
de Cantelli, 113 mais fina, 143
de Khintchine, 112 mensurabilidade de varivel aleat-
de Kolmogorov, 114 ria, 143
de Tchebyshev, 112 passeio aleatrio, 163
forte, 113 pequeno, veja conjunto pequeno
fraca, 111 Poisson, veja distribuio de Poisson
lema de Borel-Cantelli, 101 princpio da preservao das chances re-
Lvy, veja teorema da continuidade de lativas, 149
Lvy princpio da substituio, 150
Lyapunov, veja teorema central do li- princpio dos grandes desvios, 171
mite de Lyapunov probabilidade, 18
condicional, 20
marginal, veja funo de distribuio dada uma partio, 140
marginal, veja funo de pro- total, veja lei da probabilidade total
babilidade marginal, veja fun- produto de Wallis, 181
o de densidade marginal
Markov, veja desigualdade de Markov realizao do experimento, 15
recorrncia, 166
matriz
regra do produto, 21
Jacobiana, veja mtodo do Jacobi-
regularidade
ano
determinstica, 13
mdia, veja esperana
estatstica, 13
mdia amostral, 117
resultados possveis, 15
medida de probabilidade, veja probabi-
Riemann, veja soma de Riemann
lidade
mtodo do Jacobiano, 63 Schwarz, veja ver desigualdade de Cauchy-
modelo probabilstico, veja espao de Schwarz
probabilidade -lgebra, 18
momentos, 87 de Borel, 34, 54
mudana de varivel, veja mtodo do singular, veja varivel aleatria singular,
Jacobiano, veja esperana veja vetor aleatrio singular
soma de Riemann, 122
normal, veja distribuio normal Stirling, veja frmula de Stirling
partes, veja conjunto das partes tabela normal, veja distribuio normal
NDICE REMISSIVO 193
195