Beruflich Dokumente
Kultur Dokumente
Augusto Teixeira
8 de junho de 2016
Licena
i
ii
Contribuies
Somos gratos especialmente a Hubert Lacoin, pela reviso do texto, assim como
pelas colaboraes autorais.
iii
Sumrio
Prefcio iv
1 Fundamentos 1
1.1 Espaos mensurveis . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2 Espaos de probabilidade . . . . . . . . . . . . . . . . . . . . . . 3
1.3 Sistemas - . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3.1 Igualdade de probabilidades . . . . . . . . . . . . . . . . 7
1.4 Elementos aleatrios . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.4.1 Distribuio de elementos aleatrios . . . . . . . . . . . . 9
Tpico: O paradoxo de Bertrand . . . . . . . . . . . . . . . . . . . . . 10
v
SUMRIO
vi
SUMRIO
4 Esperana condicional 97
4.1 Esperana condicional . . . . . . . . . . . . . . . . . . . . . . . . 97
4.2 Propriedades bsicas da esperana condicional . . . . . . . . . . 100
4.3 Probabilidade Condicional Regular . . . . . . . . . . . . . . . . . 106
4.4 Princpio da substituio . . . . . . . . . . . . . . . . . . . . . . . 108
Tpico: Processos de Poisson em R . . . . . . . . . . . . . . . . . . . . 112
Index 119
vii
SUMRIO
viii
Captulo 1
Fundamentos
1
CAPTULO 1. FUNDAMENTOS
(P({1, 3, 5}) = 1/2) ou o lado serteado foi dois (P({2}) = 1/6). E percebemos
rapidamente que para eventos disjuntos a probabilidade de sua unio a soma
de suas probabilidades (no caso acima, P({1, 2, 3, 5}) = 1/2 + 1/6 = 2/3). Esse
carter aditivo da probabilidade certamente nos remete aos conceitos bsicos de
Teoria da Medida. Vamos agora formalizar a discusso acima com mais calma,
sob a tica dessa teoria.
a) 1 = {1, 2, . . . , 6},
b) 2 = R+ ,
c) 3 = { f : [0, 1] R; f contnua}.
a) F ,
b) A F implica que Ac F e
c) se A1 , A2 , F , ento i Ai F .
a) F1 = P (1 ),
b) F2 = B([0, 1]) e
2
1.2. ESPAOS DE PROBABILIDADE
Obviamente, isso nada mais que uma medida que associa massa um ao
espao todo.
Exemplo 1.2.1. Probabilidades nos espaos do Exemplo 1.1.1
a) P1 ( A) = (#A)/6 em (1 , F1 ). Ou mais geralmente P10 ( A) = i A pi , onde
pi 0 e i pi = 1.
b) P2 pode ser a medida de Lebesgue em ([0, 1], B([0, 1])). Mais geralmente tam-
bm podemos ter P20 ( A) = A ( x ) dx,Ronde : [0, 1] R+ uma funo
R
mensurvel, chamada densidade, tal que [0,1] ( x ) dx = 1.
3
CAPTULO 1. FUNDAMENTOS
a) Se A B ento P( A) P( B).
P i I A i P ( A i ).
S
(1.2)
i I
b) P( A B) = P( A ( B \ A)) = P( A) + P( B \ A) P( A) + P( B).
Deixamos o caso enumervel como exerccio abaixo.
c) Chamamos de A a unio dos Ai . Basta mostrar a validade da equao
abaixo e depois integrar com respeito a P.
n
1 A ( ) = (1)k1 1 Ai ( ). (1.5)
k =1 I {1,...,n} i I
| I |=k
(1 A 1 A1 ) (1 A 1 An )( ) = 0. (1.6)
Ai i P( Ai ) no caso enumervel.
S
Exerccio 1.2.2. Mostre que P i
4
1.3. SISTEMAS -
b) A prova anloga de 1.
Lema 1.2.4 (Borel-Cantelli - primeira parte). Sejam A1 , A2 , F satisfazendo
i=1 P( Ai ) < . Ento
P[ Ai para infinitos i ] := P
T S
n=1 ( i n Ai ) = 0. (1.10)
Demonstrao. Estimamos
T S
= lim P in Ai lim P( Ai ) = 0.
S
P i n Ai (1.11)
n =1 n n in
1.3 Sistemas -
Uma importante ferramenta para provar fatos tericos sobre probabilidades
o Teorema de Dynkin que apresentaremos nessa seo. Ele trata de classes de
eventos que no so necessariamente -lgebras, mas sistemas ou como
definidos abaixo.
5
CAPTULO 1. FUNDAMENTOS
a) A,
De fato, caso isso seja provado teremos que (A) fechado por diferenas
(pois A \ B = A Bc ). Assim, podemos mostrar que (A) fechado por
unies enumerveis, pois se A1 , A2 , (A), definimos Bn = in=1 Ai =
(in=1 Aic )c (A) e escrevemos
An \ Bn1 ,
S S
An = (1.14)
n =1 n =1
que uma unio disjunta de termos em (A), logo est em (A). Isso mostra
que (A) uma -lgebra e que de fato suficiente demonstrar (1.13).
Vamos primeiramente mostrar que (A) fechado por intersees com
A. Para tanto, definimos B = B (A); B A (A) para todo A A) e
veremos que
B = (A). (1.15)
Obviamente, A B , pois A um -sistema. Ento basta mostrar que B um
-sistema.
a) obviamente pertence a B .
6
1.3. SISTEMAS -
7
CAPTULO 1. FUNDAMENTOS
com A = {(0, 0), (0, 1)} e B = {(0, 0), (1, 0)}. Contudo, P1 6= P2 , mesmo tendo
P () = ({ A, B}).
8
1.4. ELEMENTOS ALEATRIOS
X P( A) := P { ; X ( ) A} = P[ X A].
(1.22)
9
CAPTULO 1. FUNDAMENTOS
10
Captulo 2
11
CAPTULO 2. CONSTRUO DE ESPAOS DE PROBABILIDADE
Exerccio 2.1.3. Seja = {0, 1}n e p = 21n para todo (ou seja a proba-
bilidade uniforme). Considere X : {0, 1, . . . , n} dada por X (1 , . . . , n ) =
in=1 i . Obtenha a distribuio PX . D um exemplo de medida em para a qual a
distribuio de X seja Bin(n, p).
12
TPICO: MTODO PROBABILSTICO
B = { x A | X a [ 3p , 2p
3 )},
13
CAPTULO 2. CONSTRUO DE ESPAOS DE PROBABILIDADE
p 2p
que e o complementario de [ 3 , 3 ) em Z p .
#A
Basta portanto mostrar que com probabilidade positiva #B 3 , que segue
do seguinte argumento.
Z Z
#B dP = 1Xa[ p/3,2p/3) dP
a A
h p 2p i #A #A #A 1
= P X a 3, 3
3
p
>
3
,
a A
R
mas para qualquer varivel aleatria , P[ X X dP] > 0. Nesse caso, isso
#A1
implica P[ X #A
3 ] = P[ X > 3 ] > 0.
14
2.2. CASO ABSOLUTAMENTE CONTNUO
Exemplo 2.2.1. Vrios exemplos podem ser obtidos via (2.5) se tomamos R e a
medida de Lebesgue restrita a . Nesses casos, escrevemos P = ( x ) dx em . Alguns
exemplos importantes so:
Exemplo 2.2.2. Considere por exemplo X : [0, 2 ] C dada por X (t) = exp{it}.
A distribuio imagem X U[0,2 ] o que chamamos de distribuio uniforme em S1 ,
tambm denotada por US1 .
Exerccio 2.2.3. Mostre que US1 no absolutamente contnua com respeito medida
de Lebesgue em C R2 .
Exerccio 2.2.4. Mostre que US1 invariante por rotaes rgidas de C, isto , se
T : C C uma isometria linear, T US1 = US1 .
15
CAPTULO 2. CONSTRUO DE ESPAOS DE PROBABILIDADE
e que
0
se x 0,
FU[0,1] = x se x [0, 1] e (2.7)
1 se x 1.
a) lim F ( x ) = 0, lim F ( x ) = 1,
x x
b) F montona no-decrescente e
b) Se x x 0 ento (, x ] (, x 0 ], donde F ( x ) F ( x 0 ).
16
2.4. ESPAOS PRODUTO FINITO
S(u)
S(u)
17
CAPTULO 2. CONSTRUO DE ESPAOS DE PROBABILIDADE
Nn
Essa -lgebra e chamada de -lgebra produto e denotaremos ela por i =1 Fi ,
o F1 F2 quando n = 2.
Note que a unicidade do produto pode ser concluda por exemplo usando o
Corolrio 1.3.5.
Exerccio 2.4.1. Mostre que o produto de n cpias de ({0, 1}, P ({0, 1}), Ber(1/2))
a distribuio uniforme em {0, 1}n .
2.5 Independncia
Nossa intuio nos diz que quando jogamos duas moedas, o resultado de cada
uma delas no deve depender um do outro. Dessa forma, a probabilidade de
obtermos um determinado resultado (como por exemplo duas caras) deve ser
um quarto, ou seja meio vezes meio.
Em geral, definimos dois eventos como independentes da seguinte forma.
P ( A B ) = P ( A ) P ( B ). (2.12)
P[ Xi = a, X j = b] = P[ Xi = a] P[ X j = b], (2.14)
18
2.5. INDEPENDNCIA
P i I A i = P ( A i ).
T
(2.15)
i I
a) P( Ai ) = 1/2 para i = 1, 2, 3,
c) P( A1 A2 A3 ) = 0 6= 1/8 = P( A1 ) P( A2 ) P( A3 ).
Definio 2.5.3. Dizemos que uma coleo infinita de eventos ( An )n1 independente
se toda sub-coleo finita de tais eventos forem independentes.
T
P
i =1
Ai = P ( A i ). (2.16)
i =1
Demonstrao. De fato,
T n
T n
P
i =1
Ai = lim P
n
Ai = lim
i =1 n
P ( Ai ) = P ( A i ).
i =1 i =1
19
CAPTULO 2. CONSTRUO DE ESPAOS DE PROBABILIDADE
X1 ( x, y) = x e X2 ( x, y) = y, (2.19)
dP = ( x, y) d(1 2 ). (2.20)
20
2.5. INDEPENDNCIA
mas
T S c
S T
T
P
n i =n
Ai =P
n i=n
Aic P i=n
Aic . (2.25)
n
Logo basta mostrar que a probabilidade direita zero para todo n. Mas
T
P
i =n
Aic = P( Aic ) = (1 pi )
i =n i =n
(2.26)
exp{ pi } = exp
pi = 0.
i =n i =n
21
CAPTULO 2. CONSTRUO DE ESPAOS DE PROBABILIDADE
n
Xn ( ) = i . (2.28)
i =1
E gostaramos de entender como se comporta essa distribuio, que nada mais
que Bin(n, p).
Uma primeira tentativa seria modelar esse processo dizendo que o nmero
de tomos n to grande, que somente estamos interessados no comportamento
assimttico quando n vai para infinito. Mas para manter o nmero de emisses
sob controle, tambm gostaramos que p = pn , que converge a zero. Poderamos
por exemplo escolher
pn = . (2.29)
n
Mas a discusso que se segue muito mais geral que essa escolha especfica.
Como estaremos interessados em um regime assimttico da distribuio de
X p (lembre que apesar do espao amostral de Xn variar com n, sua distribuio
sempre uma probabilidade em N). Mas para falar de regimes assimtticos,
precisamos de definir uma noo de distncia entre duas distribuies em N.
Definio 2.5.8. Dadas duas distribuies 1 e 2 em (, A), definimos
k1 2 kVT = sup |1 ( A) 2 ( A)|, (2.30)
AA
22
TPICO: LEI DOS PEQUENOS NMEROS
1 ( x ) 2 ( x ) = |1 ( A) 2 ( A)|
x A
(2.32)
= |1 ( Ac ) 2 ( Ac )| = c 2 ( x ) 1 ( x ),
x A
donde
1
2
k1 2 kVT |1 ( A) 2 ( A)| = |1 ( xi ) 2 ( xi )|. (2.33)
i
23
CAPTULO 2. CONSTRUO DE ESPAOS DE PROBABILIDADE
( ? )( x ) := ( x y ) ( y ). (2.37)
y Z
d d
Exerccio 2.5.17. Se X e Y so variveis aleatrias inteiras e independentes,
d
ento X + Y ? . Dica: particione o espao amostral nos eventos [ X = j], para
j Z, como na prova do Lema 2.5.15 abaixo.
= ( ) ( )
x E { : X ( )= x } (2.40)
( ) ( )
= 2k kVT .
provando o lema.
24
TPICO: LEI DOS PEQUENOS NMEROS
Definio 2.5.14. Uma varivel aleatria X dita ter distribuio de Poisson com
parmetro , se
k e
P[ X = k] = , para k 0 inteiro. (2.41)
k!
d
Denotamos isso por X Poisson().
mostrando o resultado.
Nossa prxima tarefa estimar a distncia entre uma varivel aleatria com
distribuio Ber( p) e uma Poisson( p), como segue.
Lema 2.5.16. Para p [0, 1], seja 1 = Ber( p) e 2 = Poisson( p), ento,
k1 2 kVT p2 . (2.43)
1
2
k1 2 kVT = |1 ( x ) 2 ( x )|
x
1
= |1 (0) 2 (0)| + |1 (1) 2 (1)| + 2 ( x )
2 x 2 (2.44)
1 p
= e (1 p) + p(1 e p ) + (1 e p pe p )
2
2
= p (1 e p ) p2 ,
2
terminando a prova.
25
CAPTULO 2. CONSTRUO DE ESPAOS DE PROBABILIDADE
Teorema 2.5.17 (Lei dos Pequenos Nmeros). Dado, n 1 e p [0, 1], suponha
que n , Fn e Pp sejam dados como em (2.27). Ento,
Lema 2.5.15
k Xn Pp Poisson( pn)kVT = kBer( p)?n Poisson( p)?n kVT
Lema 2.5.13
kBer( p)n Poisson( p)n kVT (2.46)
Lema 2.5.10 Lema 2.5.16
nkBer( p) Poisson( p)kVT np2 ,
provando o teorema.
Exerccio 2.5.18. Fixado > 0, seja N uma varivel aleatria com distribuio
Poisson(), isto
k e
P[ N = k] = para k = 0, 1, . . . (2.48)
k!
Considere no mesmo espao de probabilidade uma sequncia de variveis aleatrias
X1 , X2 , . . . que sejam i.i.d. , com distribuio Ber(1/2) e independentes de N.
26
2.6. ESPAOS PRODUTO INFINITO
a) G .
b) Se A G , ento Ac G .
Sn
c) Para todo n 1, se A1 , . . . , An G , ento i =1 Ai G .
a) P() = 1,
b) P finitamente aditiva e
27
CAPTULO 2. CONSTRUO DE ESPAOS DE PROBABILIDADE
Claramente
a) Bn e
b) Bn G , pois G uma lgebra.
Sn
Logo podemos escrever A como a unio disjunta A = i =1 Ai Bn e j que
P finitamente aditiva,
n
P( A) = P( Ai ) + P( Bn ), (2.51)
i =1
Xi ( 1 , 2 , . . . ) = i , (2.54)
F = (( Xi )i1 ), (2.55)
28
2.6. ESPAOS PRODUTO INFINITO
b) B = {limn Xn = 4} e
c) C = {limn n1 Xn existe}
Ento existe uma nica probabilidade P no espao produto infinito (, F ) tal que
P( A R . . . ) = Pn ( A) para todo n e todo boreliano A de Rn .
k
n S o
Sl = [ a1,j , b1,j ) [ al,j , bl,j ) Rl : ai,j R {}, bi,j R {} .
j =1
S = A R . . . : onde l 1 e A Sl .
(2.57)
P( B) = Pl ( A). (2.58)
Note que por (2.56) essa definio independe da escolha da escolha de l que
usamos na definio de B.
Gostaramos agora de utilizar o Lemma 2.6.2. Para tanto, tome uma sequn-
cia encaixada B1 B2 S e, supondo que P( Bn ) > 0 para todo
n 1, temos de mostrar que sua interseo no pode ser vazia.
Como Bn S , podemos escrever
29
CAPTULO 2. CONSTRUO DE ESPAOS DE PROBABILIDADE
de forma que os Dn
Rl n
so compactos e no vazios.
Para cada n 1 considere um n Dn . Usando um argumento de diagonal
de Cantor, podemos obter um e uma sub-sequncia de n j que convirja
para coordenada a coordenada (observe que n j Rln j ). Para concluir a
prova mostramos que n1 Bn . Para isso e suficiente mostrar (lembramos
T
= (1 , 2 , . . . ) Cn .
30
2.6. ESPAOS PRODUTO INFINITO
Exerccio 2.6.4. Mostre que a hiptese (2.56) pode ser substituida por
Pn+1 ( I1 . . . , In R) = Pn ( I1 In ), (2.65)
Exemplo
Nn
2.6.5. Se Pi so probabilidades em (R, B(R)), podemos definir Pn =
i =1 Pi (relembrando, Pn a nica distribuio em Rn tal que Pn ( A1 An ) =
n
i=1 Pi ( Ai )). No difcil verificar que essa lei satisfaz as equaes de consistncia
(2.56). Desta forma, podemos construir uma nica P em RN para os quais as coordena-
das cannicas XN i so independentes e possuem distribuies marginais Pi . Denotamos
nesse caso P = i1 Pi .
Mais adiante no texto daremos outros exemplos bastante interessantes do
uso do Teorema 2.6.4.
Exerccio 2.6.6. Mostre que se p > 0 e P = em RN , ento
N
i 1 Ber( p )
31
CAPTULO 2. CONSTRUO DE ESPAOS DE PROBABILIDADE
Tpico: Percolao
Imagine que gostaramos de modelar o movimento de um lquido em um meio
poroso, como uma rocha ou uma esponja. A primeira tarefa nesse estudo seria
modelar esse meio poroso de maneira matematicamente rigorosa, que o que
faremos a seguir.
Fixamos uma dimenso d 1 e consideramos o seguinte grafo (Zd , E), onde
a rede quadrada Zd o conjunto de vrtices e o conjunto de elos dado por
E = { x, y} Zd : | x y| = 1},
32
TPICO: PERCOLAO
para n 1.
Exerccio 2.6.10. Mostre que A = nn=1 An e consequentemente que A de fato
mensurvel e P( A) = limn P( An ).
Definimos portanto a funo : [0, 1] [0, 1] por
( p) = Pp ( A), (2.72)
33
CAPTULO 2. CONSTRUO DE ESPAOS DE PROBABILIDADE
Pp [( xi )ik=1 aberto] = pk
k n ( xi )k auto-evit. k n ( xi )k auto-evit.
i =1 i =1
Como p < 1/(2d), a soma acima finita e converge a zero quando n diverge,
provando o teorema.
Notas - O teorema acima ajuda a compreender o comportamento que ob-
servamos no lado esquerdo da Figura 2.2. Mais precisamente, ele nos diz que
para valores de p baixos (na verdade 0, 4 no baixo o suficiente para podermos
aplicar esse teorema) difcil encontrar um caminho aberto do centro borda
da caixa.
Na verdade, possvel mostrar que para d = 2,
como foi mostrado por Harris e Kesten, veja por exemplo [Gri99] e [BR06]. De
fato, algo bastante interessante est acontecendo nesse modelo para p = 1/2,
como nos mostrou o trabalho de grandes matemticos, como: Oded Schramm,
Wendelin Werner, Stanislav Smirnov, entre outros.
34
2.7. DISTRIBUIES CONJUNTAS
35
CAPTULO 2. CONSTRUO DE ESPAOS DE PROBABILIDADE
= N , F = F N e P = P N . (2.77)
Na verdade somente definimos esse produto para = R, mas como menciona-
mos abaixo do Teorema da Extenso de Kolmogorov, isso pode ser fcilmente
generalizado e o faremos posteriormente.
Proposio 2.8.2. Na situao acima, seja B F com P( B) > 0 e defina T : N
por T ( ) = inf{n 1 : Xn ( ) B}, onde os Xn so as coordenadas cannicas.
Ento T < quase certamente e
XT ( ) ( ) um elemento aleatrio em com distribuio P(| B). (2.78)
36
2.8. PROBABILIDADES CONDICIONAIS
a) P[ X, X 0 = | pelo menos um ] e
b) P[ X, X 0 = | pelo menos um e nasceu em uma segunda-feira].
37
CAPTULO 2. CONSTRUO DE ESPAOS DE PROBABILIDADE
Exerccio 2.8.7. Supondo que P( A B) > 0, mostre que P(| A| B) = P(| B| A).
Mais precisamente, podemos condicionar P em B e depois a probabilidade resultante em
A ou vice-versa.
a) Calcule PX +Y .
b) Considere P0 () = P | X + Y 1 e calcule X P0 .
P (r e ) = P (r | e ) P ( e ). (2.86)
38
2.9. NCLEOS DE TRANSIO
P ( Ai ) P ( B | Ai )
P ( Ai | B ) = . (2.87)
j I P ( A j ) P ( B | A j )
P ( Ai ) P ( B | Ai ) P ( Ai ) P ( B | Ai ) P ( Ai ) P ( B | Ai )
P ( Ai | B ) = = = . (2.88)
P( B) j I P ( B A j ) j I P ( A j ) P ( B | A j )
Exerccio 2.8.9. Utilize a frmula acima para calcular P(doente|+) com os dados em
(2.85). Comente o resultado.
Exerccio 2.8.10. Barry James: Cap. 1, Ex: 18 e 19.
tal que
39
CAPTULO 2. CONSTRUO DE ESPAOS DE PROBABILIDADE
Note que K (, A) est bem definido para 2 -quase todo ponto por Fubini.
Exerccio 2.9.5. Prove que os dois exemplos acima de fato definem um ncleo.
Tipicamente, definimos os ncleos de transio introduzindo K (y, ) como
sendo uma medida que depende de y. Nesse caso, uma das condies para que
K seja um ncleo est automaticamente satisfeita, restando apenas mostrar que
K (, A) mensurvel para quaisquer A A2 . Mas obviamente o conjunto A2
pode ser muito complexo, ento gostaramos de apenas verificar que K (, A)
mensurvel para os conjuntos A em uma classe rica o suficiente.
Proposio 2.9.2. Seja K : E1 A2 [0, 1], tal que K (y, ) uma medida para todo
y E1 . Se K (, A) mensurvel para dodo A G , onde G um -sistema que gera
A2 , ento K um ncleo de transio.
40
2.9. NCLEOS DE TRANSIO
A1 -mensurvel.
41
CAPTULO 2. CONSTRUO DE ESPAOS DE PROBABILIDADE
a) U[0,1] ? K [ X2 = 1],
42
2.9. NCLEOS DE TRANSIO
Exerccio 2.9.10. Para 0 a < b 1, definimos a probabilidade U[ a,b] em ([0, 1], B([0, 1]))
atravz da seguinte frmula U[ a,b] ( B) = L( B [ a, b])/(b a). Consideramos tam-
bm a funo K : [0, 1] B([0, 1]) [0, 1] dada por K ( x, ) = U[0,x] (), se x > 0 e
K (0, ) = 0 ().
a) Mostre que K um ncleo de transio.
b) Calcule U[0,1] ? K [ X1 < 1/2] e U[0,1] ? K [ X2 < 1/2], onde X1 e X2 so as
projees cannicas em [0, 1]2 .
P1 ? K [ X2 | X1 = y] = K (y, ). (2.101)
43
CAPTULO 2. CONSTRUO DE ESPAOS DE PROBABILIDADE
Pn = (n ) Pn , em Rn . (2.105)
44
2.10. ESPAOS CANNICOS
( x1 , x2 , . . . ) = (1 ( x1 ), 2 ( x2 ), . . . ). (2.106)
P A1 An En+1 . . . = P 1 ( A1 An En+1 . . . )
= P 11 ( A1 ) n1 ( An ) R . . .
= Pn (11 ( A1 ) n1 ( An ))
= Pn 11 11 ( A1 )) n1 n1 ( An )
= Pn ( A1 An ),
a) 0 injetiva.
b) 0 mensurvel.
c) ( A) B(R).
Vejamos,
45
CAPTULO 2. CONSTRUO DE ESPAOS DE PROBABILIDADE
Fica como exerccio mostrar que a -lgebra dos borelianos induzida por essa
mtrica coincide com a -lgebra produto em E. Definimos agora o mapa
: E R dado por
k
( n 1 , n 2 , . . . ) = 2 n 1 + 2 1 n 1 n 2 + + 2 k i =1 n i + . . . (2.108)
tambm polons. Mostre tambm que a topologia induzida por essa mtrica equiva-
lente topologia produto em E.
Outros exemplos de espaos poloneses so dados pelo seguinte lema, que
tambm ser til para provar o resultado principal desta seo.
Lema 2.10.7. Seja ( E, d) um espao polons e G, F E um aberto e um fechado de E
respectivamente. Ento, existe uma mtrica d0 em F G tal que
a) d e d0 so equivalentes em F G (induzem a mesma noo de convergncia),
b) d( x, y) d0 ( x, y) para todo x, y F G e
46
2.10. ESPAOS CANNICOS
c) ( F G, d0 ) polons.
Demonstrao. A primeira observao que faremos que F G separvel com
respeito a d. Isso segue do fato de separabilidade ser equivalente existncia de
uma base enumervel.
Vamos definir para x, y em G,
1 1
d0 ( x, y) = d( x, y) + (2.110)
c c
d( x, G ) d(y, G )
,
47
CAPTULO 2. CONSTRUO DE ESPAOS DE PROBABILIDADE
Terminamos essa seo com esse importante resultado, que confirma nossa
afirmao de que quase todos os espaos mensurveis que podemos nos inte-
ressar so cannicos.
Teorema 2.10.9. Todo sub-conjunto boreliano de espao polons ( E, d) cannico.
Demonstrao. Primeiramente, pelo Lema 2.10.4, basta mostrar que todo espao
E polons cannico. Pelo Lema 2.10.5 e novamente o Lema 2.10.4,
48
2.10. ESPAOS CANNICOS
onde
Nn : A1 ,...,n = }.
[
E := {(w1 , . . . , wk )
n 1
o que segue loge do fato que por k n + 1, xk Aw1 ,...,wk cujo dw1 ,...,wn -dimetro
menor que 1/k.
Consideramos x n o limite de ( xk )kn em ( Aw1 ,...,wn , dw1 ,...,wn ). E facil de
mostrar que x n = x0 := x (o limite da sequencia em ( E, d)) para todo valor de n.
E suficiente ver que d( x n , xk ) dw1 ,...,wn ( x n , xk ), para todo k n, o que implica
que x n e o limite em ( E, d).
Em consequencia podemos concluir que x Aw1 ,...,wn para todo n e ento
que ( x ) = , o que conclui a prova do teorema.
49
CAPTULO 2. CONSTRUO DE ESPAOS DE PROBABILIDADE
Mas resta a questo sobre a existncia de uma que ser respondida com
ajuda do prximo resultado.
50
TPICO: CADEIAS DE MARKOV
Provando o lema.
Logo, o Teorema da Extenso de Kolmogorov (lembre que ( E, A) foi suposto
cannico) nos fornece uma nica P em (, F ) tal que
P ( X0 = x 0 , . . . , X n = x n ) = p 0 ( x 0 ) p ( x 0 , x 1 ) . . . p ( x n 1 , x n ) . (2.122)
K ( x, A) = US1 ( A x ). (2.123)
Nesse contexto,
a) mostre que K um ncleo de transio e,
b) considerando a cadeia com distribuio inicial 0 = 0 em R2 e ncleo K, mostre
que X2 tem distribuio absolutamente contnua com respeito a Lebesgue e calcule
sua densidade.
Exerccio 2.10.7. Mostre que para qualquer ncleo de transio K entre E e E, existe
um ncleo de transio K entre E e = EN , tal que para toda medida inicial 0 , temos
que 0 ? K a distribuio de uma Cadeia de Markov comeando de 0 e com transio
dada por K. Esse ncleo til se quisermos mudar a distribuio inicial 0 e uma
notao bastante comum para esse ncleo Px () = K ( x, ).
Vamos terminar essa seo dando uma interpretao bastante interessante
para os ncleos de transio em analogia lgebra linear. Fixe um ncleo de
transio K entre E e E, uma medida inicial e uma funo limitada f : E R.
Relembre a notao em (2.102) e defina K f : E R dada por
Z
K f ( x ) := f (y)K ( x, dy), (2.124)
51
CAPTULO 2. CONSTRUO DE ESPAOS DE PROBABILIDADE
b) defina para todo n o ncleo K (n) iterado (de E em E), de forma que K (n) f ainda
seja associativa.
x1 + x+1
K ( x, ) = , (2.125)
2
que obviamente define um ncleo pois toda funo em Z mensurvel na
-lgebra das partes.
Podemos portanto construir P em ZN que nos fornece a lei de uma Cadeia
de Markov em Z com distribuio inicial 0 e ncleo de transio K. Chamamos
esse processo de passeio aleatrio simples simtrico.
Poderamos estar interessados em vrias perguntas sobre esse processo,
como por exemplo quo longe esperamos que o passeio aleatrio pode ir depois
de um determinado tempo? Para responder essa e vrias outras questes,
iremos mostrar outra construo do passeio simples simtrico atravz de uma
soma de variveis aleatrias.
Introduzimos um espao de probabilidade P, variveis Y1 , Y2 , . . . i.i.d. com
distribuio (1 + 1 )/2 e definimos S0 = 0 e Sn = Y1 + + Yn .
52
TPICO: CADEIAS DE MARKOV
P [ X1 = x 1 , . . . , X n = x n ]
= n [ X1 = x 1 , . . . , X n = x n ]
= n 1 ? K n [ X1 = x 1 , . . . , X n = x n ]
P[S1 = x1 , . . . , Sn = xn ]
= n [Y1 = x1 x0 , Y2 = x2 x1 . . . , Yn = xn xn1 ]
n n
= P[Yi = xi xi1 ] = 2n 1{| xi1 xi |=1} .
i =1 i =1
53
CAPTULO 2. CONSTRUO DE ESPAOS DE PROBABILIDADE
que nada mais que o nmero de bolas do tipo x que se encontram na urna no
tempo n. Quando tivermos uma sequncia infinita de wi s, escreveremos Nxn
para denotar Nx (w1 , . . . , wn ).
Para cada n 1, definimos Kn : {0, 1}n P ({0, 1}) por
N1
Kn (w1 , . . . , wn ) = Ber n . (2.128)
Exerccio 2.10.9. Mostre que todos Kn acima definem ncleos de transio. Alm disso
a seguinte sequncia de medidas compatvel no sentido de Kolmogorov:
P1 = Ber(1/2),
P2 = P1 ? K1 ,
P3 = P2 ? K2 , . . .
Conclua que existe a medida P em {0, 1}N que define o modelo de Plya.
Podemos agora fazer perguntas como por exemplo: ser que escolheremos
bolas de ambas as cores para sempre, ou a partir de um certo momento escolhe-
remos bolas de apenas uma cor com certa probabilidade. Mais precisamente,
qual a probabilidade de [ Xi = 1, infinitas vezes]?
54
TPICO: URNA DE PLYA
Para responder perguntas desse tipo, iremos mostrar algo muito curioso,
que pode ser entendido como uma outra maneira de representar o modelo
descrito acima. Mas antes, vamos colecionar alguns fatos sobre o modelo da
Urna de Plya.
Primeiramente vamos olhar para os seguintes eventos. Fixamos n 1 e uma
sequncia w1 , . . . , wn {0, 1} e seja A o evento {w1 } {wn } {0, 1} . . .
Note que os eventos desse tipo (junto com o evento ) formam um -sistema
que gera a -lgebra cannica de {0, 1}N , portanto essa coleo bastante
completa para identificar a distribuio da Urna de Plya.
Podemos calcular a probabilidade do evento A acima
O que muito interessante sobre a equao acima que ela nos remete a
problemas combinatrios ao notarmos o fator binomial acima.
Vamos portanto construir um processo completamente diferente que apre-
senta as mesmas probabilidades que o anterior. Seja S N o conjunto de todas as
permutaes de {1, . . . , N }. fcil ver que
1
1 n h i
= USn+1 (n + 1) = j + 1, (i ) j se e s se i j .
( n + 1) j
( X1 , . . . , X n ) d ( X ( 1 ) , . . . , X ( n ) ) , (2.130)
55
CAPTULO 2. CONSTRUO DE ESPAOS DE PROBABILIDADE
Agora estamos prontos para provar o resultado principal que nos ajudar a
calcular probabilidades no modelo da Urna de Plya.
Dado u [0, 1], seja Pu = Ber(u)N , ou seja a probabilidade que nos d uma
sequncia infinita de moedas independentes com probabilidade u de sucesso.
Definimos agora K : [0, 1] (P ({0, 1})N ) [0, 1] dada por
Lema 2.10.12. A funo K definida acima um ncleo entre [0, 1] e {0, 1}N .
56
TPICO: URNA DE PLYA
Se definirmos K : [0, 1] B([0, 1]n ), dado por K (u, B) = U[0,1n ] , sabemos que
isso define um ncleo pelo Exerccio 2.9.7. Mais ainda, esse mesmo exerccio
nos diz que U[0,1] ? K = U[0,1] , de forma que
h i
P( A) = U[0,1] ? K Xi < X0 , para i N0n e Xi > X0 , para i N0n + 1
Z 1 h i
= U[0,1n ] Xi < u, para i N0n e Xi > u, para i N0n + 1 du
0
Z 1
n n
= u N0 (1 u)n N0 du,
0
57
CAPTULO 2. CONSTRUO DE ESPAOS DE PROBABILIDADE
58
Captulo 3
3.1 Esperana
| X | d < , dizemos que X
R
Definio 3.1.1. Se X uma varivel aleatria com
integrvel e definimos Z
E( X ) = X ( ) P(d ), (3.1)
a chamada esperana de X. Nesse caso tambm dizemos que X L1 .
Quando X 0, tambm podemos supor que E( X ) est bem definida, mesmo
que possivelmente tomando valor infinito.
No demonstraremos algumas propriedades conhecidas da integrao de
Lebesgue, tais como
a) E( X + Y ) = E( X ) + E(Y ) (se estiverem bem definidas),
b) Valem os Teoremas de Convergncia (Montona e Limitada).
Exerccio 3.1.1. Mostre que se X L1 e P[ X > x ] = 0, ento E( X ) x.
Lema 3.1.2. A esperana de uma varivel aleatria X L1 depende somente de sua
distribuio. Mais precisamente
Z
E( X ) = x PX (dx ). (3.2)
59
CAPTULO 3. SOMAS DE VARIVEIS INDEPENDENTES
por definio de X P.
Agora podemos extender o teorema para funes f simples por linearidade,
depois para funes positivas usando o Teorema da Convergncia Montona e
finalmente escrevemos x = x1[0,) ( x )1(,0) .
d
Exemplo 3.1.2. Se X Ber( p), ento E( X ) = 0 P[ X = 0] + 1P[ X = 1] =
0 + p = p.
d
Exemplo 3.1.3. Seja X Bin(n, p), ento, para calcular E( X ), basta calcular E(Y )
d
onde X Y. Como vimos anteriormente, se Z1 , Z2 , . . . , Zn so variveis i.i.d. (re-
d
lembrando: independentes e identicamente distribudos) com Z1 Ber( p), ento
d
Y = i Zi Bin(n, p). Logo
60
3.1. ESPERANA
R
Se d( X P) = ( x ) dx (com 0 e ( x ) dx = 1), ento
Z Z
E( X ) = x ( X P)(dx ) = x( x ) dx. (3.8)
d
Exemplo 3.1.4. Se X U[0,1] , ento sua densidade com respeito a Lebesgue dada
R1
por d( X P) = 1[0,1] dx, donde E( X ) = 0 x dx = 1/2.
Proposio 3.1.3. Se X 0 P-q.c., ento
Z Z
E( X ) = P[ X > x ] dx ) = 1 F ( x ) dx. (3.9)
0 0
Demonstrao.
Z X Z
E( X ) = E 1 dx = E 1[ x< X ] dx
0 0 (3.10)
Z Z
Fubini
= E(1[ x<X ] ) dx = P[ x < X ] dx.
0 0
d
Exemplo 3.1.5. Se X Exp(), ento
Z
P[ X x ] = et dt = ex , (3.11)
x
donde Z
1
E( X ) = ex dx = . (3.12)
0
Exerccio 3.1.6. Se X L1 e P[ X x ] = P[ X x ] para todo x 0, ento
E( X ) = 0.
Exerccio 3.1.7. Marcelo coleciona figurinhas de futebol. O lbum completo conter
N figurinhas. No i-simo dia, ele compra uma nova carta Xi {1, . . . , N }. A coleo
( Xi )i0 distribuida de maneira i.i.d. e uniforme nas figurinhas.
a) Para j = 1, . . . , N, seja Tj o tempo passado at a aquisio da j-sima nova
figurinha, i.e.
T1 = 1 e Tj = inf{i, Xi 6 { XTj0 ; j0 < j}}. (3.13)
61
CAPTULO 3. SOMAS DE VARIVEIS INDEPENDENTES
E( X )
P[ X x ] . (3.15)
x
Demonstrao. Sabemos que X x1[ X x] , logo
O prximo exemplo serve muito bem para mostrar porque estamos interes-
sados em desigualdades como a do Teorema 3.1.4 acima.
Em vrios exemplos importantes, podemos ter dificuldade de calcular pro-
babilidades explicitamente. Nesses casos, poderamos gastar nossas energias
tentando calcul-las a qualquer custo, ou podemos nos contentar em obter cotas
superiores e inferiores para as probabilidades nas quais estamos interessados.
Em vrios casos, a segunda estratgia tem uma grande vantagem sobre a pri-
meira, por possibilitar que estudemos problemas mais complexos (e consequen-
temente mais importantes/interessantes) e muitas vezes sem nos afastarmos da
realidade (em vrios exemplos as cotas superiores e inferiores so prximas o
suficiente para que no nos preocupemos).
Exemplo 3.1.9. Sejam n patos e m caadores. Cada caador escolhe um pato aleatorea
e uniformemente e atira (abatendo-o com probabilidade p). Seja X = #{patos vivos},
que pode ter uma distribuio complicada de calcular, mas
n n
E( X ) = E 1[pato i vive] = P[pato i vive]
i =1 i =1
m
T
= nP[pato 1 vive] = P [caador j no mata pato 1] (3.17)
j =1
p
= nP[caador j no mata pato 1]m = n 1 .
n
Observe que
E( X )
P[patos para o jantar n/2] = P[ X n/2]
n/2 (3.18)
n p m pm
= 2 1 2 exp{ }.
n n n
62
3.2. VARINCIA
E( XY ) = E( X ) E(Y ). (3.19)
3.2 Varincia
Na seo anterior, limitamos P[ X > a] usando E( X ) (se X 0). Esse mtodo
chamado de mtodo do primeiro momento, de acordo com a seguinte
Definio 3.2.1. Dada uma varivel aleatria X, definimos o seu k-simo momento
como E( X k ), para k = 1, 2, . . .
Ento, por exemplo, se X Lk e X 0, podemos estimar
E( X k )
P[ X x ] = P[ X k xk ] , para quaisquer k 1. (3.20)
xk
Observe que quando o k-simo momento de X finito, a razo acima decai mais
rpido quando x diverge.
Exerccio 3.2.1. Mostre uma frmula anloga da Proposio 3.1.3.
Exerccio 3.2.2. Mostre que se a distribuio de X tem densidade e E(| f ( X )|) < ,
ento Z
E( f ( X )) = f ( x )( x ) dx. (3.21)
63
CAPTULO 3. SOMAS DE VARIVEIS INDEPENDENTES
Definio 3.2.2. Dada uma varivel aleatria X L2 , definimos sua varincia como
2
Var( X ) = E X E( X ) = E ( X 2 ) E ( X )2 . (3.23)
a) Var( X ) 0 e
b) E( X 2 ) E( X )2 .
Obviamente
Exerccio 3.2.5. Calcule Var ( X ) quando X tem distribuies Ber( p), U [0, 1] ou
Exp().
Var( X )
P[| X E( X )| > a] . (3.26)
a2
Demonstrao. A desigualdade segue trivialmente da cota de Markov, ao obser-
varmos que
a) | X E( X )| 0,
mostrando a proposio.
64
3.2. VARINCIA
d
Exerccio 3.2.7. Calcule Var( X ) quando X Bin(n, p).
d
Exerccio 3.2.8. Calcule E( X ) quando X Geo( p).
65
CAPTULO 3. SOMAS DE VARIVEIS INDEPENDENTES
a) se s1 = s e si = 0 para todo i 2 e
Compare os resultados.
h S
n
i Var( Snn )
P E ( X1 ) > , (3.34)
n 2
pois E(Sn /n) = 1/nE( X1 + + Xn ) = E( X1 ).
Mas como Var(Sn /n) = 1/n2 Var( X1 + + Xn ) = (n/n2 ) Var( X1 ), temos
o resultado.
66
3.3. LEI FRACA DOS GRANDES NMEROS
a) calcule a esperana de Sn = 1
n2 in=1 nj=1 Zi,j e
b) estime P[|Sn E(Sn )| > a] usando o mtodo do segundo momento. Como esse
resultado se compara com o caso em que os Zi,j so i.i.d.?
Exerccio 3.3.3. Considere uma rua infinita com casas i Z. Para todo i Z, existia
uma rua entre as casas i e i + 1, mas aps uma grande tempestade essas ruas foram
danificadas. Mais precisamente, para cada i Z, temos variveis aleatrias Xi que so
i.i.d. com distribuio Ber( p), onde Xi = 1 indica que o trecho da rua entre as casas
i e i + 1 foi danificado e no pode ser utilizado. Defina, para i Z, Ri como sendo o
nmero de casas que continuaram acessveis casa i aps a tempestade. Por exemplo,
se X2 e X0 = 1 e X1 = 0, temos que a casa 0 somente pode acessar a casa 1, logo
R0 = 1. Nesse contexto,
a) Calcule a distribuio e a esperana de R0 ,
b) Use o mtodo do segundo momento para estimar a probabilidade
h 1 n i
P R i E ( R0 ) > a . (3.38)
n i =1
67
CAPTULO 3. SOMAS DE VARIVEIS INDEPENDENTES
En0 = e En ; Xe = 1 .
(3.39)
Tn = 1 A{x,y,z} , (3.41)
x,y,zVn distintos
Donde
1 6 6 1
Varn ( Tn ) = n p n6 p6 + cn5 p5 + ... c(n5 p5 + n3 p3 ), (3.44)
36 36
para todos p [0, 1] e n 1 se escolhemos bem a constante c > 0.
68
TPICO: CONTANDO TRINGULOS
Isso nos permite por exemplo estimar o que acontece em alguns regimes,
como por exemplo, se p = 1/2, ento
n(n 1)(n 2)
En ( Tn ) = , (3.45)
48
que cresce como n3 , e Varn ( Tn ) cn5 , logo
h i Varn ( Tn ) c
Pn Tn En ( Tn ) > n3 2 . (3.46)
2
n 6 n
69
CAPTULO 3. SOMAS DE VARIVEIS INDEPENDENTES
70
3.4. LEI FORTE DOS GRANDES NMEROS
Lema 3.4.4 (Lema de Kronecker). Suponha que xn R e bn > 0 sejam tais que
bn e i=1 xbi convirja a s R. Ento
i
n
1
lim
n bn xi = 0. (3.54)
i =1
x1 xn
Demonstrao. Definindo s0 = 0 e sn = b1 ++ bn , temos, por integrao por
partes,
n n n n n 1
x
xi = bi bii = bi s i bi s i 1 = b n s n + ( bi bi + 1 ) s i . (3.55)
i =1 i =1 i =1 i =1 i =1
Escolhemos agora, para qualquer > 0, um n0 1 tal que |sn s| < para
todo n n0 . Dessa forma,
n n 1
1 1
bn xi = s n bn ( bi + 1 bi ) s i
i =1 i =1
n0 1 n 1
1 1
= sn
bn ( bi + 1 bi ) s i b n ( bi + 1 bi ) s i
i =1 i = n0
| {z }
n0
n 1 n 1
1 1 1
= s n n0
|{z} bn bn (bi+1 bi )s bn (bi+1 bi )(si s),
i = n0 i = n0
s | {z }
0
| {z } | {z }
( bn bn 0 ) s ( bn bn 0 )
= bn s bn
71
CAPTULO 3. SOMAS DE VARIVEIS INDEPENDENTES
Por outro lado, como os Zi s tem mdia zero, o Teorema de Uma Srie diz que
suficiente mostrar que
n Z n
1
Var i
i
= i2 Var(Zi ) < . (3.57)
i =1 i =1
Isso nos permite concluir a prova de (3.51) via o Lema de Kronecker. Conse-
quentemente, obtemos o Teorema 3.4.1 via o Lema 3.4.3.
Exerccio 3.4.1. Sejam Yk variveis aleatrias independentes e com a seguinte distri-
buio: (
1
1 se i = 1 or i = 1,
P[Yk = i ] = 22 k2 (3.59)
k2
se i = 3.
Mostre que
h1 n i
P
n Yk converge a zero = 1. (3.60)
k =1
Exerccio 3.4.2 (Depende de Tpico: Urna de Plya). Mostre que segundo a lei P
construida no Exerccio 2.10.9, vale que
n
n Xi converge] = 1.
1
P (3.61)
i 1
72
3.5. LEI {0, 1} DE KOLMOGOROV
iremos estudar outros tipos de evento que assumem apenas esses dois valores.
Esperamos que esse fenmeno se torne intuitivo ao final dessa discusso.
No que se segue, consideraremos um espao mensurvel = i=1 E, com a
-lgebra cannica F , isto a -lgebra gerada pelas coordenadas cannicas
( Xi )i=1 .
Definio 3.5.1. Dizemos que um evento A F caudal se
A Xi ; i n , para todo n 1. (3.62)
b) n1 in=1 Xi converge e
73
CAPTULO 3. SOMAS DE VARIVEIS INDEPENDENTES
disj. indep.
P ( Bi ) A = P ( Bi A) = P( Bi A) = P( A) P( Bi ).
S S T T S
i i i i
Logo B A um -sistema.
Lembrando que B A contm o -sistema k ( X1 , . . . , Xk ), isto dos eventos
S
74
3.6. MOMENTOS EXPONENCIAIS
Definio 3.6.1. Dada uma varivel aleatria X, definimos sua transformada de La-
place como
X (s) = E(esX ) (0, ], (3.69)
para todos s R. Essa transformada tambm chamada funo geradora de mo-
mentos de X.
Exerccio 3.6.1. Calcule a funo geradora de momentos das distribuies Ber( p),
Exp() e U[0,1] .
c) X (s) C em (, ) e
(n)
d) X (s) = E( X n esX ).
75
CAPTULO 3. SOMAS DE VARIVEIS INDEPENDENTES
E e(s+h)X esX
X ( s + h ) X ( s ) ehX 1
= = E esX . (3.70)
h h h
Lembrando que | y1 (ey 1)| e|y| , para todo y R, temos que para todos os
+|s|
h < ( |s|)/2, o integrando acima dominado por | X |e(|s|+h)| X | | X |e 2 | X |
que pertence a L1 . Logo podemos usar o Teorema da Convergncia Dominada
para trocar o limite h 0 com a esperana, obtendo
0
X (s) = E( XesX ). (3.71)
Note que para todo > 0 e k 1, | x |k c(k)e| x| , isso nos permite repetir o
argumento acima indutivamente para obter c) e d).
Lembramos que ao usar o mtodo do segundo momento, nos foi bastante
til o fato que a varincia se comporta bem com relao a somas independentes.
Mais precisamente, Var( X1 + + Xk ) = Var( X1 ) + + Var( Xk ).
Uma outra propriedade importante da funo geradora de momentos que
ela tambm se comporta bem com respeito somas independentes.
Proposio 3.6.3. Se X1 , . . . , Xn so variveis independentes com Xi (s) < para
todo i k e |s| < , ento
usando Fubini.
Consideraremos agora uma sequncia X1 , X2 , . . . de variveis i.i.d. com
X1 (s) < para |s| < . Ento podemos tentar estimar, para a > 0 e |s| < ,
hX + + X i h i
1 n
P E( X1 ) a = P X1 + + Xn ( a + E( X1 ))n
nh i
= P es(X1 ++Xn ) es(a+E(X1 ))n
76
3.7. PRINCPIO DE GRANDES DESVIOS
P X 1 + + X n m + a n e X1 ( m + a ) n ,
(3.75)
77
CAPTULO 3. SOMAS DE VARIVEIS INDEPENDENTES
onde m = E( X1 ) e
X1 ( x ) = sup xs log X1 (s) (3.76)
s 0
(3.77)
= exp log X1 (s) n s(m + a)n
= exp (m + a)s log X1 (s) n
78
3.7. PRINCPIO DE GRANDES DESVIOS
X 0 ( b )
log(4)
X ( b )
log(2)
log(4/3)
b b
0 1 0 1
Figura 3.1: Funes taxa X (b) de uma varivel X com distribuio Ber(1/2), e
X 0 (b) de uma varivel com distribuio Ber(3/4), para b (0, 1).
Lema 3.7.2. Seja X uma varivel aleatria tal que X (s) < para todo s (, ).
Supondo a 0 tal que P[ X > m + a] > 0, ento existe smax 0 tal que
X (m + a) = (m + a)smax log X (smax ) . (3.81)
que converge a menos infinito quando s diverge. Isso, junto com a continuidade
de X implica a existncia do smax desejado.
Lema 3.7.3. Seja X uma varivel aleatria tal que X (s) < para todo s (, ).
Ento o conjunto onde a funo X (s) finita um intervalo, na qual X convexa e
portanto contnua.
79
CAPTULO 3. SOMAS DE VARIVEIS INDEPENDENTES
igual a as bs, da
Para mostrar que X convexa, observe que X ( x ) dada pelo supremo (para
s 0) das funes afins x 7 xs X (s). Como o supremo de funes convexas
tambm convexo, obtemos o enunciado do lemma.
Exerccio 3.7.3. Suponha que se X (s) finita para todo s (, ) e mostre que
1
lim inf log P X1 + + Xn m + a n X1 (m + a), (3.84)
n n
onde novamente m = E( X1 ) e X1 ( x ) definida como no Teorema 3.7.1.
Note que o resultado do teorema acima mais fraco que o que vemos
na equao (3.83), mas mostra que X1 ( a) realmente o expoente correto no
decaimento da probabilidade de grandes desvios.
Um corolrio dos Teoremas 3.7.1 e 3.7.4 o seguinte
Corolrio 3.7.5. Se X1 , X2 , . . . variveis aleatrias i.i.d. com X1 (s) < , para todo
s R, ento
1
lim log P X1 + + Xn m + a n = X1 (m + a). (3.85)
n n
80
3.7. PRINCPIO DE GRANDES DESVIOS
Donde o limite acima igual a log( P[ X1 = m + a]). Mas por outro lado,
d 1 x
= e . (3.87)
dPX1 Z
81
CAPTULO 3. SOMAS DE VARIVEIS INDEPENDENTES
Isso implica que se uma varivel aleatria tem distribuio , sua esperana b.
possvel verificar que uma tal varivel aleatria X 0 satisfaz obrigatoriamente
X 0 (s) < para todo s 0, donde X 0 L p para todo p > 1.
Como prometido, consideramos variveis X10 , X20 , . . . i.i.d. com distribuio
. Pela lei fraca dos grandes nmeros, para qualquer > 0,
h X0 + + X0 i
1 n
lim P (b , b + ) = 1. (3.89)
n n
Finalmente vamos relacionar essa probabilidade probabilidade definida
em termos de Xi , na qual estamos interessados.
hX + + X i Z n
1 n O
P (b , b + ) = 1 ( X1 P)(dxi )
n xi ; n i n xi b <
i =1
n n
e i =1 x i
Z
= Zn ( X10 P)(dxi )
O
1
xi ; i n xi b <
n i =1
h X0 + + X0 i
n
Zn exp{(b + )n} P 1
(b , b + ) .
n
Tomando o logartmo, dividindo por n e tomando o liminf quando n vai a
infinito, recuperamos
1 hX + + X i
n
lim log P 1 (b , b + ) log( Z ) (b + )
n n n (3.90)
= log(X1 ()) (b + ) = X1 () .
Como isso vale para todo > 0, provamos (3.86) o que conclui a prova do
teorema.
Exerccio 3.7.4. Mostre o Teorema 3.7.4 no caso em que X1 (s) < , para todo
s (, ).
82
TPICO: FUNES CARACTERSTICAS
83
CAPTULO 3. SOMAS DE VARIVEIS INDEPENDENTES
300
250
200
150
100
50
10 20 30 40 50 60 70
Figura 3.2: Vrios ensaios de uma varivel Bin(100, 0.5), pra ser mais preciso
1000 ensaios. Cada barra representa o nmero de ensaios que caram no intervalo
determinado pela base da barra. Note que apesar dos experimentos se concentrarem
em torno da mdia, alguns se afastam um pouco (obviamente pois o experimento
aleatrio). Nessa seo estudaremos esses desvios espontneos, que so chamados
de flutuaoes.
Nosso objetivo nessa seo ser obter qual o tamanho tpico das flutuaes
em torno da mdia dessa soma de variveis aleatrias. Ao contrrio do que
fizemos ao estudar Grandes Desvios, ns agora estamos buscando flutuaes
menores, que acontecem espontaneamente e no com baixa probabilidade.
Note tambm que apesar de observarmos uma aleatoriedade na Figura 3.2,
tambm notamos uma certa regularidade que muitas vezes chamada de forma
de sino no histograma apresentado.
84
3.8. O TEOREMA CENTRAL DO LIMITE
dentes e tambm distribudos como (pois so dados por uma soma que tem a
mesma distribuio daquela que define ).
O seguinte lema mostra que isso somente pode acontecer na situao trivial
em que = 0 .
Lema 3.8.1. Sejam X e Y variveis aleatrias em L2 , i.i.d. com distribuio . Nesse
caso, se X + Y tambm tem distribuio , ento = 0 .
Demonstrao. Sabemos que
E( X + Y ) = E( X ) + E(Y ) = 2E( X ) e
(3.95)
Var( X + Y ) = Var( X ) + Var(Y ) = 2 Var( X ).
Mas como X + Y tem a mesma distribuio de X, ento E( X ) = 2E( X ) e
Var( X ) = 2 Var( X ), donde ambas so zero. Usando o mtodo dos segundo
momento, para todo a > 0,
Var( X )
P[| X | a] = 0, (3.96)
a2
terminando a prova de que X = 0 quase certamente.
A intuio dessa prova que quando somamos duas variveis no determi-
nsticas, a incerteza da soma (medida atravz da varincia) tende a aumentar.
Dessa forma no podemos obter a mesma distribuio aps a soma.
Mas existe uma maneira simples de tornar esse problema interessante nova-
mente. Digamos que X e Y pertencem a L2 e so i.i.d. Ento
X +Y X
Var = 2 Var = Var( X ). (3.97)
2 2
Ento podemos nos perguntar se
Questo 3.8.2. Existe alguma distribuio no trivial em L2 tal que, se X e Y so
independentes e distribudas de acordo com , temos
X+Y
d ? (3.98)
2
Pelo menos sabemos agora que a varincia no se altera atravz dessa operao.
Ou em outras palavras, queremos saber se existe algum ponto fixo para o
operador que toma uma distribuio em R e retorna
X + X
() = 1
2 . (3.99)
2
Para tentar responder a essa questo, vamos estudar mais a fundo qual
a distribuio da soma de duas variveis aleatrias independentes. Para isso,
considere a distribuio ( X, Y ) P do par, que coincide com , nos dando
hX +Y i
z = ( x, y); x+y z .
P (3.100)
2 2
85
CAPTULO 3. SOMAS DE VARIVEIS INDEPENDENTES
1
Note tambm que a transformao linear ( x, y) 7 x + y, x y uma
2
rotao rgida em R2 , o que nos motiva a propor a pergunta mais simples.
Questo 3.8.3. Existe alguma distribuio no trivial em L2 tal que, se X e Y so
independentes e distribudas de acordo com , a distribuio do par ( X, Y ) invariante
por rotaes?
Ainda estamos numa busca no rigorosa de tal distribuio, ento vamos su-
por algumas outras propriedades, como por exemplo que seja absolutamente
contnua com respeito a Lebesgue, isto d = f ( x ) dx. Nesse caso, j vimos
que ( X, Y ) d f ( x ) f (y) dx dy e no fundo estamos procurando uma funo f tal
que
f ( x ) f (y) = h( x2 + y2 ), para todo x, y R e alguma h : R+ R+ . (3.101)
Para trasformar o produto f ( x ) f (y) em uma soma, definimos g = log f e
k = log h e o que gostaramos que acontecesse g( x ) + g(y) = k( x2 + y2 ). Como
ainda no estamos preocupados com unicidade de e apenas com a existncia,
j podemos encontrar nossa resposta para nossa pergunta, escolhendo uma
funo quadrtica, tal como g( x ) = x2 . 2
Mas temos ainda R que cuidar para que f ( x ) = exp x seja uma
densidade, ou seja f dx = 1. Para isso, precisamos que seja negativo e,
fixado , o valor de j estar determinado por normalizao. Tudo isso motiva
finalmente a seguinte definio.
Definio 3.8.4. Dizemos que X tem distibuio normal cannica, se
1
exp x2 /2 dx.
X d (3.102)
2
Alm disso, para m R e 0, dizemos que Y d N (m, 2 ) se Y tem a mesma
distribuio de X + m, onde X tem distribuio normal cannica N (0, 1). Note que
N (m, 0) = m . Muitas vezes chamamos essa distribuio de gaussiana, obviamente
em homenagem a Gauss.
Vamos rapidamente observar que a definio acima realmente descreve uma
distribuio de probabilidade, ou seja que a integral dessa densidade um. Para
tanto, vamos usar um truque conhecido, que consiste em retornar ao plano.
Obviamente,
Z 2 Z Z
exp x2 /2 dx = exp ( x2 + y2 )/2 dx dy
Z 2 Z (3.103)
2s = r2
= exp{r2 /2}r dr d = 2.
0 0
Donde a constante em (3.102) est de fato correta.
Exerccio 3.8.1. Mostre que a distribuio N (m, 2 ), tem densidade
1
exp ( x m)2 /(22 ) .
(3.104)
2
86
3.8. O TEOREMA CENTRAL DO LIMITE
1
A(w, z) = w + z, w z . (3.107)
2 + 2
X1 + + Xn d N (nm, n2 ). (3.108)
Como consequncia
in=1 Xi nE( X1 )
d N (0, 1). (3.109)
n
87
CAPTULO 3. SOMAS DE VARIVEIS INDEPENDENTES
No difcil mostrar que a definio acima induz uma mtrica, mas ela possui
alguns problemas que descreveremos a seguir.
Exerccio 3.8.3. Mostre que dVT define uma mtrica.
Exerccio 3.8.4. Sejam e absolutamente contnuas com respeito a uma medida fixa
, tendo densidades e respectivamente. Encontre uma frmula para dVT (, ) em
termos das densidades. Essa frmula nos remete a qual distncia entre funes?
88
3.8. O TEOREMA CENTRAL DO LIMITE
Essa definio fica ainda mais natural para aqueles que conhecem o Teo-
rema da Representao de Riesz. Com isso em mente, podemos relacionar a
convergncia em distribuio com a convergncia fraca-? no espao de medidas
finitas.
Exerccio 3.8.6. Considere a funo do espao de medidas em ([0, 1], B([0, 1])) nele
mesmo, dada por:
()( A) = 21 (3A) + (3A 2) .
(3.114)
Mn = max Xi . (3.115)
i =1,...,n
89
CAPTULO 3. SOMAS DE VARIVEIS INDEPENDENTES
1[ M0 , M0 ] g 1[ M0 1, M0 + 1], (3.116)
concluimos que
n [ M0 1, M0 + 1] 1 /2,
(3.117)
para todo n suficientemente grande. Se tomamos M M0 suficientemente
grande, podemos obter a cota acima para todo n (com M no lugar de M0 + 1 e
no lugar de /2).
Fixamos agora uma f : R R contnua e limitada. Sabemos que possvel
aproximar f por uma funo g C3 de suporte compacto, com k gk 2k f k e
| g f | /M uniformemente no intervalo [ M, M]. Essa g certamente satisfaz
as hipteses do teorema.
Portanto,
Z Z Z M Z M
f dn f d 2k f k + f dn f d
M M
Z M Z M
2k f k + 2M + g dn g d
M M M
Z Z
2k f k + 2 + g dn d.
90
3.8. O TEOREMA CENTRAL DO LIMITE
Vale lembrar que no Corolrio 3.8.6 j estabelecemos algo mais forte para
variveis normais. Mais precisamente, suponha que extendemos nosso espao
de probabilidade para (0 , F 0 , P0 ), onde exista uma sequncia Y1 , Y2 , . . . de
variveis aleatrias i.i.d. com distribuio N (0, 1) independente de X1 , X2 , . . .
Ento, para todo n 1,
Z Z
n (Y1 , . . . , Yn ) dP0 = g(s)N (0, 1)(ds), (3.121)
o que tornaria o limite em (3.120) trivial para tais variveis. A nossa estratgia
ser aproximar n ( X1 , . . . , Xn ) por (Y1 , . . . , Yn ), e faremos isso trocando uma
varivel de cada vez.
Para entender o que acontece quando trocamos uma das variveis Xi por Yi ,
temos que expandir g em srie de potncias, isto , escrever
so x so x2 x
n (zi ) = n (zio ) + g0 i i + g00 i i
+ r sio i , (3.123)
n n n 2n
n
n
91
CAPTULO 3. SOMAS DE VARIVEIS INDEPENDENTES
n 1 Z Z n 1
n ( Zi ) dP0 n ( Zi+1 ) dP0 = |k i k0i |
i =0 i =0
M
n 3/2 E(| X1 |3 ) + E(|Y1 |3 ) ,
n
que claramente converge a zero, provando o teorema.
Corolrio 3.8.10. A N (0, 1) a nica distribuio que possui esperana zero,
varincia 1 e tal que se X, Y so i.i.d. com distribuio , ento ( X + Y )/ 2 tambm
possuem distribuio . Em outras palavras, N (0, 2 ), para 0, so os nicos
pontos fixos de em L3 .
92
3.8. O TEOREMA CENTRAL DO LIMITE
X1 + + X2 k
d . (3.128)
2k
Mas pelo Teorema central do limite, a distribuio dessa combinao de Xi deve
convergir a N (0, 1), logo temos = N (0, 1).
93
CAPTULO 3. SOMAS DE VARIVEIS INDEPENDENTES
a) n ,
R R
a) f dn f d, para toda f unifmormemente contnua e limitada,
94
TPICO: O TEOREMA DE PORTMANTEAU
f (x)
Z Z Z Z
lim inf f dn lim inf f dn lim sup f dn lim inf f dn + .
Exerccio 3.8.9. Lembrando que em (R, B(R)), temos n1 in=1 i/n U[0,1] , use
o tem d) do Teorema 3.8.11 para dar uma caracterizao dos conjuntos Riemann-
mensurveis. Mais precisamente, encontre os A R tais que n1 in=1 i/n ( A) converge
para a medida de Lebesgue de A.
95
CAPTULO 3. SOMAS DE VARIVEIS INDEPENDENTES
96
Captulo 4
Esperana condicional
97
CAPTULO 4. ESPERANA CONDICIONAL
aleatria.
Interpretamos informalmente a definio acima como Y a melhor apro-
ximao F 0 -mensurvel de X. Ou Y a melhor aproximao que podermos
fazer de X se conhecemos apenas F 0 .
98
4.1. ESPERANA CONDICIONAL
b) E( X1 ) = 0 = E(Y1 ) e E( X1 ) = E( X ) = E(Y1 ).
Alm caso trivial dado acima pelo Exemplo 4.1.1, quando podemos esperar
que existam esperanas condicionais?
E (Y Y 0 )1 A = E(Y1 A ) E(Y 0 1 A ) = 0.
(4.5)
a) Y F 0 -mensurvel e
R
b) ( A) = A Y dP.
99
CAPTULO 4. ESPERANA CONDICIONAL
E(Y1 A ) = E E( X |F 0 )1 A + E( X 0 |F 0 )1 A
= E E( X |F 0 )1 A + E E( X 0 |F 0 )1 A
(4.8)
0 0
= E( X1 A ) + E( X 1 A ) = E ( X + X )1 A .
100
4.2. PROPRIEDADES BSICAS DA ESPERANA CONDICIONAL
0 E ( E( X 0 |F 0 ) E( X |F 0 ))1 A = E ( X 0 X )1 A 0,
(4.10)
Demonstrao. Mais uma vez, basta verificar que ZE( X |F 0 ) satisfaz as condies
que definem a esperana condicional. A primeira trivial, pois ZE( X |F 0 )
F 0 -mensurvel por ser um produto de funes F 0 -mensurveis.
Para provar a segunda condio, comeamos com o caso Z = 1B , implicando
que B F 0 , donde
E ZE( X |F 0 )1 A = E E( X |F 0 )1 A B = E( X1 A B ) = E( ZX1 A ).
Por linearidade, j sabemos que o resultado vale para funes Z simples e gos-
taramos de extender para quaisquer Z positivas via Teorema da Convergncia
Montona. Um problema aqui que mesmo que Z seja positiva, no sabemos
se E( X |F 0 ) tambm ser positiva.
Portanto, trataremos primeiramente do caso X 0. Para tais X, sabemos
pelo Lema 4.2.2 que E( X |F 0 ) 0 quase certamente. Da, podemos concluir que
ZE( X |F 0 ) = E( ZX |F 0 ) para toda Z 0, podemos aproxim-la por baixo por
Zn simples e, pelo Teorema da Convergncia Montona,
TCM
E ZE( X |F 0 ) = lim E Zn E( X |F 0 )
n (4.12)
TCM
= lim E E( Zn X |F 0 ) = E E( ZX |F 0 ) .
n
101
CAPTULO 4. ESPERANA CONDICIONAL
E XZ E( X |F 0 ) Z = 0.
(4.13)
Note que no claro que essa esperana faz sentido, pois no sabemos que
ZE( X |F 0 ) L1 . Masisso segue facilmente
da Proposio
4.2.3.
Mas E E( X |F 0 ) Z = ZE E( X |F 0 )1 = ZE X1 , provando o resultado.
lim E( Xn |F 0 ) = E( X |F 0 ). (4.14)
n
b) Dado A F 0 , temos
TCM
E(Y1 A ) = E(lim E( Xn |F 0 )1 A ) = lim E E( Xn |F 0 )1 A
n n
(4.15)
TCM
= lim E( Xn 1 A ) = E( X1 A ).
n
102
4.2. PROPRIEDADES BSICAS DA ESPERANA CONDICIONAL
E( X |F 0 ) = E i ( X )1 Ai , (4.18)
i
E ( X )|F 0 E ( X )|F 0 = E( X |F 0 ) .
(4.20)
E ( X )|F 0 sup E( X |F 0 ) = E( X |F 0 ) ,
(4.21)
linear
103
CAPTULO 4. ESPERANA CONDICIONAL
104
4.2. PROPRIEDADES BSICAS DA ESPERANA CONDICIONAL
a) Defina X0 = 0 e
n
Xn = Zi , para n 1. (4.33)
i =1
n 2
Yn = Zi nE( Z12 ) (4.34)
i =1
105
CAPTULO 4. ESPERANA CONDICIONAL
P = P ? K, (4.35)
Em particular,
Z
P( A B) = K (, B) P (d ) para todo A F , B A. (4.36)
A
106
4.3. PROBABILIDADE CONDICIONAL REGULAR
q
a) para cada q Q, F (, q) [0, 1], P -quase certamente, pois P ( A)
P ( A) para todo A F ,
q
b) para q < q0 Q, F (, q) F (, q0 ), P -quase certamente, pois P ( A)
q0
P ( A) para todo A F e
( X1 P)-quase certamtente.
107
CAPTULO 4. ESPERANA CONDICIONAL
108
4.4. PRINCPIO DA SUBSTITUIO
[X = x]
E
x
que mensurvel.
Caso E seja outro espao cannico qualquer, existe : E B B(R)
bi-mensurvel e G = 1 ( G X ), onde G X o grfico de X e (, x ) =
(, ( x )). Logo G tambm mensurvel nesse caso.
Retornando prova de (4.43), j sabemos que G 0 = {( X ( ), ); }
mensurvel. Alm disso, por definio PW ( G 0 ) = P[( X ( ), ) G 0 ] = P() =
1, ou seja a medida PW tem suporte em G 0 .
109
CAPTULO 4. ESPERANA CONDICIONAL
Mas como o integrado acima pertence a [0, 1], essa integral s pode ser um se
K ( x, [ X = x ]) = 1, ( X P)-quase certamente, como desejado.
Exerccio 4.4.1. Sejam X : E e Y : E0 elementos aleatrios com E
cannico. Ento existe um ncleo de transio K entre E e E0 tal que
K ( X ( ), B) = E[1Y B | X ], para todo B A0 . (4.48)
Poderamos chamar esse ncleo de K ( x, B) = P[Y B| X = x ].
Exerccio 4.4.2. Mostre que se K ( x, F ) = P[ F | X = x ], ento
Z
f ( 0 )K ( X ( ), d 0 ) = E( f | X )( ), para toda f F . (4.49)
Vamos agora mostrar uma aplicao do que foi feito acima, tentando justifi-
car o nome Princpio da Substituio.
Lema 4.4.3. Se X, Y so variveis aleatrias independentes, ento a funo de distri-
buio acumulada F de X + Y dada por
Z
F (z) = P[ X + Y z] = FY (z x )( X P)(dx ), (4.51)
110
4.4. PRINCPIO DA SUBSTITUIO
Mostre que
a) K define um ncleo de transio entre R em R.
111
CAPTULO 4. ESPERANA CONDICIONAL
112
TPICO: PROCESSOS DE POISSON EM R
t1 t2 t3 t4 t5 t6 t7
113
CAPTULO 4. ESPERANA CONDICIONAL
P [ Nt = 0] = P [ X1 > t] = et , (4.62)
Logo,
P [ Nt = k] = P [hX1 t, ( X2 , X3 , . . . )(t X1 ) = k 1] i
= E 1X1 t P [( X2 , X3 , . . . )(t X1 ) = k 1| X1 ]
h i
Subst.
= E 1X1 t P [( X2 , X3 , . . . )(t x1 ) = k 1| X1 = x1 ] X1
h i
induc.
= E 1X1 t Poisson((t x1 ))({k 1}) X1
114
TPICO: PROCESSOS DE POISSON EM R
115
CAPTULO 4. ESPERANA CONDICIONAL
116
Captulo 5
Solues de exerccios
k k
P [ R0 = k ] = P[ D0 = l, E0 = k l ] = p2 (1 p)k = p2 k(1 p)k . (5.2)
l =0 l =0
Alm disso,
2(1 p )
E( R0 ) = 2E( D0 ) = lP[ D0 = l ] = 2p l (1 p)l = p
=: m. (5.3)
l =0 l =0
h 1 i Var(Sn )
P Sn E ( R0 ) > a , (5.4)
n a2 n2
117
CAPTULO 5. SOLUES DE EXERCCIOS
Aqui j temos metade da estimativa resolvida, mas ainda falta obter uma esti-
mativa explcita.
Ento precisamos estimar superiormente Cov( Ri , R j ) = Cov( R0 , R j1 ). Po-
demos calcular essa quantidade explicitamente, mas vamos evitar contas chatas
fazendo uma estimativa do tipo
n 1
Var(Sn ) nVar( R0 ) + 2 (n k)c exp{c0 k} c00 n. (5.7)
k =1
Cov( R0 , Rk ) = E( R0 Rk ) m2
= E( R0 Rk ) + E( R0 Rk 1[ R0 6= R0 ] [ Rk 6= Rk ]) m2
E( R0 )2 m2 + E ( E0 + D0 )( Ek + Dk )1[ R0 6= R0 ] [ Rk 6= Rk ]
E ( E0 + k + Dk )2 1[ R0 6= R0 ] [ Rk 6= Rk ]
= E ( E0 + k + Dk )2 P [ R0 6= R0 ] [ Rk 6= Rk ]
118
Referncias Bibliogrficas
119
ndice Remissivo
120
NDICE REMISSIVO
Mtodo Probabilstico, 13
momento
primeiro, 63
segundo, 68
k1 2 k, 22
ncleo de transio, 39
Paradoxo de Bertrand, 10
passeio aleatrio simples, 52
-sistema, 6
Princpio
da Substituio, 108, 112
de Grandes Desvios, 77
Princpio de Grandes Desvios, 80
probabilidade, 3
condicional, 35
Processo de Poisson, 112
sequncias
intercambiveis, 55
-lgebra, 2
caudal, 73
de borel, 2
gerada por G , 2
trivial, 73
Teorema
Central do Limite, 91
da Desintegrao, 106
da Extenso de Caratheodory, 27
da Extenso, 29, 44
de Dynkin, 6
de Fubini para Ncleos, 41
de Portmanteau, 94
trasformada
de Laplace, 75
variao total, 22
varincia, 64
121