Beruflich Dokumente
Kultur Dokumente
ESTOCSTICOS
DINTER UEA-UFPE
E-mail hmo@ufpe.br URL http://www2.ee.ufpe.br/codec/deOliveira.html
SUMRIO DA PARTE I
Conceitos de Probabilidade
lgebra e -lgebra
Continuidade
Variveis conjuntas
Desigualdades:
.................................. Jensen, Minkowski, Liapunov, Cr
Critrios de convergncia
.................................. em mdia quadrtica
.................................. em probabilidade
.................................. com probabilidade 1
.................................. em distribuio
Lei dos grandes nmeros
.................................. Teorema de Bernoulli
.................................. Teorema da Kolmogorov
.................................. Teorema de Borel
Definies e classificao
Passeio aleatrio
Ergodicidade
Cadeias de Markov
.................................. Equaes de Chapman-Kolmogorov
.................................. Classificao de estados
.................................. Probabilidades limites
Processo de Poisson
.................................. Processo de contagem
.................................. Tempo entre chegadas
.................................. Tempo de espera
.................................. Processo filtrado
Dennis Poisson.
Assim um evento ter, pela sua prpria natureza, uma chance, maior ou menor,
conhecida ou desconhecida, e sua probabilidade ser relativa aos nossos
conhecimentos naquilo que lhe diz respeito. Poisson, 1837. (Sceaux, Frana)
PROBABILIDADES ALEATRIAS
PROBABILIDADES ESPISTMICAS
Matemtica determinismo
Aleatrio: Taboo
Mundo real
iii) Axiomtica
Dicas: problemas 5 e 6.
UNIES FINITAS DISJUNTAS
Dados eventos A1, A2, A3..., An todos disjuntos par-a-par, ento:
n n
P(U Ak ) = P( Ak ) .
k =1 k =1
n +1 n +1
P(U Ak ) = P( Ak )
(via Pn) k =1 k =1
i.e. Pn+1 verdadeira! Q.E.D.
O problema dos aniversrios
Inteligncia artificial
Mecnica Quntica
Algoritmos probabilsticos (e algoritmos genticos)
Lgica nebulosa
Teoria de informao
Controle estocstico
Redes neuronais
Teoria da evoluo e seleo natural
Gentica
Otimizao
Predio, teoria da deciso, teoria dos jogos
etc. etc. e tal.
TEORIA DOS CONJUNTOS
Coleo arbitrria de elementos
CONJUNTO DE INDICES = T
{At, t T}.
Conjunto das partes ( uma classe)
A={w1, w2}
(A)={ {w1}, {w2}, A, }
2n
Conjunto finito=
tem um nmero finito de elementos.
Conjunto enumervel =
se finito ou
pode ser posto em correspondncia biunvoca com .
CARDINALIDADE
|| ||= || ||=0
1,2,3,..., 0 (?) 2c
Paul Cohen (1934-2007), Medalha Fields
No pode ser deduzido da teoria de conjuntos. ?=sim ou no.
Considere uma rede com diferentes caminhos entre os ns 1,2,3,4.
Os caminhos so indicados por letras. Escreva o evento K13, h
uma ligao (caminho fechado) entre o n 1 e 3, em termos dos
caminhos A, B, C, D, E.
sup At = UA t
t T
t T
inf At = I At
tT
t T
LEIS DE DE MORGAN
c
c
U At = I At
tT tT
c
c
I At = U At
tT tT
Conseqncia
c
sup At inf At
c
=
t T t T
c
inf At
sup At
c
=
t T t T
CAMPO (ALGEBRA)
uma classe fechada quando efetuamos um nmero finito
(arbitrrio) de operaes entre seus elementos.
i) A,B AB
ii) A,B AB
iii) A Ac
Mostremos que
Exemplo (trivia).
Seja wAk se k mpar
wAk se k par.
Escreve-se lim Ak = A .
CLASSES MONOTNICAS
lim An = lim inf Ak = I An
An n =1
Se {Bn } uma seqncia qualquer, ento:
inf Bk
I Bk =
k =n kn faa diagramas de Venn...
sup Bk
U Bk ==
k =n kn faa diagramas de Venn...
Verificao:
Dn+1 = IB k Dn = Bn I Dn+1 Dn Dn+1
k =n+1 ,
En+1 = UB k En = Bn U En+1 En En+1 .
k =n +1 ,
Examinar o tipo e a convergncia nas seguintes classes: =[0,1]
1 1
An := x | < x 1 Bn := x | 0 < x <
n +1 e n
-lgebra lgebra de Borel
2) U A n
C
n =1
:= { [ ], [ ), ( ], ( ), , [0,1]} no -lgebra.
1) Ej
Ej Ej+1 e lim En = U
j =1
Ej
2) Ej
Ej Ej+1 e lim E n = I
j =1
Ej
-lgebra mnima
Est contida em qualquer -lgebra definida sobre a class.
nica. Fmin=F.
TEOREMA.
Toda -lgebra uma lgebra monotnica e vice-versa.
TEOREMA.
A -lgebra mnima sobre uma classe e a classe monotnica
mnima sobre a mesma classe coincidem.
-lgebra
de BOREAL
FUNES DE CONJUNTO
Seja C uma classe. Considere uma aplicao de C em .
: C
A a (A) .
1. Funes de conjunto aditivas
n n
U A j = ( A j )
Se C ={Aj} uma classe disjunta e j =1 j =1
, a funo
TEOREMA.
(U A j ) < +
Seja uma funo de conjunto -aditiva tal que j =1
.
( A ) < +
j
j
(~) ( A ) < +
j
j
( A ) < +
j
j
() ( A ) < + .
j
j
Separando:
A +j = Aj ou , se ( A j ) 0
A j = Aj ou , se ( A j ) 0 .
j j j)
j
( A ) = ( A +
) + ( A
TEOREMA
Seja uma funo de conjunto no-negativa, 0, e aditiva.
Ento:
i) A | (A)<+ (-finita), se AB (B) (A)<+
(monotonicidade)
n n
U A j ( A j )
ii) j =1 j =1
(sub--aditividade).
Prova.
i AB
A=B+(A-B) e B(A-B)=. (i.e. B(BcA)).
Pela hiptese de aditividade, (A)= (B)+ (A-B). Mas como a
funo no-negativa, (A-B)0, e a monotonicidade segue.
ii UA
j =1
j = A1 + ( A2 A1 ) + ( A3 A2 A1 ) + ...
c c c
ou seja, U A j = A1 + ( A1 A2 ) + ( A1 A2 A3 ) + ...
j =1
c
Mas Ai A j A j e pela monotonicidade (item i), segue-se:
(U A j ) ( A1 ) + ( A2 ) + ( A3 ) + ...
j =1
, provando assim a sub--
aditividade.
CONTINUIDADE DE FUNES DE CONJUNTO
Medida AnA .
Considere An no decrescente A1 A2 A3 A4 ...
1 1
An := x R | x 1
n + 1 n + 1 n =1
An A
1
1 1 x2 / 2
( An ) = 1 n +1 e dx
n +1 2
Mas i) (lim An ) = ( A)
1
1 1 x2 / 2
1 1 x2 / 2
lim ( An ) = lim 1 n +1 e = e = ( A)
ii) n +1 2 0
2
-aditividade Continuidade.
Nota histrica.
PROVA.
()
Seja An uma seqncia no-decrescente (arbitrria).
lim An = UA
n =1
n
lim An = A1 + ( A2 A1 ) + ( A3 A2 ) + ...
lim An = ( An An 1 )
n =1
se A0:=.
lim n
lim An =
n k =1
( Ak Ak 1 )
Mas
n
( A
k =1
k Ak 1 ) =
( A1 ) + ( A2 ) ( A1 ) + ( A3 ) ( A2 ) + .. + ( An ) ( An1 ) = ( An )
lim
(lim An ) = ( An )
Ento n contnua por baixo.
Seja An uma seqncia no-crescente (arbitrria).
lim An = I An
n =1
()
n
An =
Parte A U ( Ak ) + Ak
k = n +1 .
n =1 k =1
lim Ak = () = 0
Mas quando n+, k = n +1 (use hiptese)
( claro que assumimos a classse {An} disjunta, pois queremos
provar a -aditividade).
An = ( Ak )
Assim, U
n =1 k =1
Outra demonstrao.
n
U An = Ak = lim Ak
n =1 k =1 k =1 . Pela continuidade por baixo, se
Ak' = A Ak .
So 2n subconjuntos. Caso n=2
A1A2
(A-A1)A2
A1(A-A2)
(A-A1)(A-A2)
( An ) ( Bn ) ( Bn Bn + 1 Bn + 2 ... Bn ' ) = U Bk
k =n
contnua.
Defina C := lim kU
=n
Bk
Q.E.D.
Resolvendo a questo 11.
lim sup Ak = U Ak U Ak U Ak U Ak ...
k =1 k =2 k =3 k =4
ou seja,
lim sup Ak = U Ak U Ak A1 U Ak ( A1 + A2 ) U Ak ( A1 + A2 + A3 )...
k =1 k =1 k =1 k =1
lim sup Ak =
c c c
k =1
Ak Ak A1 Ak ( A1 + A2 ) Ak ( A1 + A2 + A3 ) ...
k =1 k =1 k =1
Usando de Morgan,
lim sup Ak =
c c c
k k k
c c c
Ak A A1 A ( A1 A2 ) A ( A1 A2 A3 ) ...
k =1 k =1 k =1 k =1
ou seja,
c
c
lim sup Ak = Ak I Ak = Ak Ak =
k =1 k =1 k =1 k =1 .
Implicaes
Se AB= P(AB)=0 P(B|A)=0.
Se AB AB=A P(B|A)=1
Se AB AB=B P(B|A)= P(B)/P(A)P(B).
Caso limite
P(B|A) com P(A)=0.
Como definir? Abordagem menos comum nos textos bsicos.
Tome uma seqncia monotnica An que converge para A.
Defina ento
P ( B An )
lim
P ( B | A) := P ( An )
n
n
P( A) = P( A B j )
j =1
REGRA DE BAYES
P( B j ) P( A | B j )
P( B j | A) = n
P( B ) P( A | B )
k =1
k k
INDEPENDNCIA ENTRE EVENTOS
P(B|A) = P(B)
P(A|B) = P(A)
P(AB)=P(A).P(B)
Equivalentes!
Nota. A e B mutuamente exclusivos so dependentes.
AB= P(AB)=0
P(B|A)=0 P(B) no so independentes.
{A }n
k 1 estatisticamente independentes se e s se para qualquer
subcoleo arbitrria:
j j
P (I Aki ) = P ( Aki )
i =1 i =1
.
PROVAS DE IGUALDADE ENTRE CONJUNTOS
I A + B = I A + I B se AB=.
I A B = I A . I B
I AB = ( I A + I B ) mod 2
lim An=A I An I A .
Funes mensurveis e medidas
(finitas) deles.
A MEDIDA DE RIEMMAN (integral de Riemman)
m(I):=l(I)=b-a.
inf l ( I n )
( A) :=
A I n .
Note que esta medida funciona como uma extenso: o caso particular de
conjuntos do tipo intervalos, A=I, e a medida usada no requer uma cobertura
UI n e a medida vale l(I)=b-a, coincidindo com a medida de Riemman.
n
NOTA-A medida de Lebesgue no uma medida de probabilidade, pois
( )1 e, portanto, no obedece AX3 (normalizao).
VARIVEIS ALEATRIAS
Considere os mapeamentos X (denominados variveis aleatrias)
X : R
w a X ( w)
(,A,P) ( ,B,P)
Lembre o exemplo trivial: lanamento de um dado
P:A
A[0,1]
BB P(B):=P(X-1(B)) se X-1(B)A.
+
1
x | f ( x ) } = U {x | f ( x ) < +
n =1 n
}.
Seja a seleo {x | f(x)
No contexto de variveis aleatrias, consideram-se:
wx
X f
{w | X(w)}:=FX().
P(B):=P{w | wX-1(B)A}
FX():={w | X(w)}
Varivel discreta
Varivel contnua
NOTAS (DE RODAP) SIMPLES
FX(x1)=P(w | X(w)<x1)
FX(x2)=P(w | X(w)<x2)
Se x1<x2 F(x1) F(x2).
F(-)=P(w | X(w)<-)=P()=0.
F(+)=P(w | X(w)<+)=P()=1.
Funo densidade de Probabilidade
x
F ( x) =
f ( )d .
dF ( x)
Como F(x) no decrescente (monotonicidade), f ( x) = 0.
dx
Discretas
dC ( x)
f ( x) = + P( X = xi ) ( X xi ) .
dx i
EXPERIMENTOS DE BERNOULLI
(ensaios de Bernoulli)
P(A1A2A3...An)=P(A1).P(A2).P(A3)...P(An)
p.p.p...p.(1-p).(1-p)....(1-p)
k vezes n-k vezes (total n)
Como os eventos da ocorrncia de k caras em n lanamentos so mutuamente
n
exclusivos e ocorrem em nmero , via AX4 tem-se:
k
n k
p (1 p ) n k
P(k ocorrncias em n eventos repetidos)= k
Note que s podem ocorrer k=0, k=1, k=2, k=3, ou... k=n ocorrncias.
MUTUAMENTE EXCLUSIVAS
n
n k
P()= p (1 p) nk
=[p+(1-p)] n
=1 (vale AX3).
k =0 k
A probabilidade de haver a ocorrncia entre k1 e k2 vezes o evento nos n
ensaios dada por:
k2
n k
p (1 p ) nk
.
k =k1 k
HIPTESES: Varivel aleatria binria, n eventos, independencia entre eles.
TEOREMAS ASSINTTICOS.
n k k 2 np
erf k1 np
k2
p (1 p ) n k erf
n. p.(1 p) n. p.(1 p)
k = k1 k
(tirar pirulito de criana!) Procure conhecer sobre a aproximao de continuidade.
Aproximao II. n
n k nk np ( np )
k
p (1 p ) e
k k!
Uma companhia area estima que 5,5% dos clientes que reservam vos
terminam em no shown. Um Airbus 319 tem capacidade de transporte de
144 passageiros, com velocidade de cruzeiro 850 km/h. Ela estabelece a
poltica de venda de 150 bilhetes em cada vo com esta aeronave.
150
150
k =145 k
0.945 k 0.055150 k (use tambm o teorema de De Moivre-Laplace).
N Prob(overbooking)
145 0,03% (0.00027)
146 0,25% (0.00246)
147 1% (0.01123)
148 3,5% (0.03487)
149 8,5% (0.08297)
150 16% (0.1618)
VARIVEIS ALEATRIAS USUAIS
GAUSSIANA UNIFORME
1
( xm)2 1 a<x<b
2
f X ( x) = e 2 f X ( x) = b a
2 2 0 caso contrrio
EXPONENCIAL chi2
2 n 1 x 2 / 2 2
f T (T ) = a.e aT
u (T ) f X ( x) = n/2
x e u ( x)
2 ( n / 2)
n
BETA
+
Funo fatorial generalizado (funo gama de Euler) ( x) := 0
x e d = x!
(a).(b)
Funo beta B(a, b) :=
(a + b)
f X ( x) = B ( , ) x +1.(1 x) +1
M ( , )
( t a( , ) )
1 1
phibeta ( t , , ) := ( b ( , ) t )
+ 1
T( , )
Limitada direita e a esquerda. Pode ser simtrica ou assimtrica. A
simetria controlada pelos parmetros.
MAXWELL
1 2 2
/ 2 2
f X ( x) = 2
x 2e x u ( x)
Weibul
1 ( x / )
f X ( x; , ) = x e u ( x)
,>0
F-Senedecor
m/2
m x ( m2) / 2
f X ( x) = B(n, m). . ( n+ m) / 2
.u ( x)
n m
1 + x
n
Log-Normal
(ln x m ) 2
1 2 2
f X ( x) = e u ( x)
2
2 x
Gama
1 x
f X ( x; , ) = x e u ( x)
( )
Logstica
ex
f X ( x) =
(1 + e )
x 2
Pareto
+1
c
f X ( x; , c) = u ( x c) ,c>0
c x
VETORES ALEATRIOS
3
exemplo: mapeamento em .
Um vetor aleatrio um mapeamento vetorial tal que
n
1) x , o conjunto no espao amostral X:={w |Xx} corresponde
a um evento.
O vetor de x:=(x1,x2,x3,...,xn) e
Xx (X1(w) x1, X2(w) x2, X3(w) x3,, Xn(w) xn)
i) FX 1 , X 2 ,..., Xn ( x1 , x2 ,...,,...xn ) = 0
Partindo de FX ,Y ( x, y ) :
FX ,Y ( x, ) = FX ( x)
FX ,Y (, y ) = FY ( y ) .
A funo densidade de um vetor aleatrio tambm pode ser definida por
extenso:
n
f X ( x) := FX 1 , X 2 ,..., X n ( x1 , x2 ,..., xn )
x1x2 ...xn .
PROPRIEDADES DAS DENSIDADES DE VETORES
x1 x2 xn
FX 1 X 2 ... X n ( x1 , x2 ,..., xn ) = ... f X 1 X 2 ... X n (1 , 2 ,... n )d1d 2 ...d n
1) Normalizao:
+ + +
...
f X1X 2 ... X n (1 , 2 ,... n )d1d 2 ...d n = 1
2) No-negatividade:
f X 1 , X 2 ,..., X n ( x1 , x2 ,..., xn ) 0
3) Distribuio Marginal:
+ + xi +
FX i ( xi ) = ... ... f X1X 2 ... X n (1 , 2 ,... n )d1d 2 ...d n
X e Y independentes f XY ( x, y ) = f X ( x). fY ( y ) .
Do ponto de vista de densidades condicionais, a independncia implica
em:
f X |Y = y ( x) = f X ( x) e fY | X = x ( y ) = fY ( y ) .
n
E ( X ) := P ( X = xi ) xi CASO DISCRETO
k =1
+
E ( X ) := xf X ( x)dx CASO CONTINUO
Interprete como mdias ponderadas pela probabilidade de ocorrncia.
LIGADO AO 3 MOMENTO
Coeficiente de assimetria da distribuio
3 :=
[
E ( X )3 ]
3
LIGADO AO 4 MOMENTO CENTRAL
Coeficiente de curtose da distribuio
4 :=
[
E ( X )4 ]
4 .
CASO DE DUAS VARIVEIS
X, Y
E(XnYm)
E{(X-mX)n(Y-mY)m}.
n n
var X i = var( X i ) + 2 cov( X i , X j )
i =1 i =1 i< j
.
{ }n
Corolrio. Variveis aleatrias i i =1 independentes
X
n n
var X i = var(X i )
i =1 i =1 .
INDEPENDNCIA E MOMENTOS
X e Y independentes (usando o desacoplamento entre densidades)
E(XnYm)=E(Xn).E(Ym) n,m
Teste preliminar:
Se E(XY)=E(X)E(Y), ento h um desacoplamento parcial, de 2
ordem.
Neste caso, cov(X,Y)=corr(X,Y)-E(X).E(Y)=0
FY(y)=P(Xx1)+P(x2Xx3)+P(x4Xx5).
Escrevendo agora em termos de integrais:
FY ( y ) = + + f X ( x)dx
x1 x3 x5
x2 x4
1
Ora, xi = g1 ( y ) (imagem inversa)
EXEMPLO
f X ( x) = e xu ( x) . Seja a transformao Y=X2, quem fY? y>0:
y y
FY ( y ) = f X ( x)dx = e x dx = 1 e y
0 0
+
FY ( y ) = + + + ... + f X ( x)dx
x1 x3 x5
x2 x4 xn
Para a determinao da densidade de probabilidade, usa-se a REGRA
DE LEIBNITZ
d a ( ) da( ) db( ) a ( )
f ( x, )dx = f (a( ), ) f (b( ), ) + f ( x, )dx
d b( ) d d b ( )
Aplicando-a na expresso de FY
FY ( y ) dx dx dx dx dx dx
fY ( y ) = = f X ( x1 ) 1 + f X ( x3 ) 3 f X ( x2 ) 2 + f X ( x5 ) 5 f X ( x4 ) 4 ... f X ( xn ) n
y dy dy dy dy dy dy
dx i
f Y ( y ) = f X ( xi )
i dy
dxi
1
f X ( g ( y ))
i
dy .
i g i1 ( y )
JACOBIANO da transformao
No caso de vetores aleatrios,
f Y ( y ) = f X ( g i1 ( y )) || J ||1
g i1 ( y )
i
r r x y
x y x2 + y 2 x2 + y 2
J = =
O jacobiano da transformao
y x
x y x2 + y 2 x2 + y 2
1 1
| J |= det J = =
x2 + y 2 r.
x2 + y2 r2
f XY ( x, y ) r r
f r (r , ) = = e 2 2
= e 2 2
Assim, | J | 2 2
2 2
Jensen CONVEXIDADE
A desigualdade de Jensen estabelece que
f gd ( f o g )d
f convexa em (a,b) e gL1(),
ag(x)b e ()=1.
g Lebesgue-integrvel, i.e., gd +
1/ p
| g | p d +
Observao: Se
diz-se que gLp().
DEFINIO (convexidade)
f : ( a, b ) dita ser uma funo convexa se
Ilustrao:
Observao.
f (t ) f ( s ) f (u ) f (t )
a < s < t < u < b uma condio equivalente.
ts u t
A derivada, se existir, monotonicamente no-decrescente.
A 2 derivada, se existir, sempre positiva (concavidade)
x, (a, b ) ento f ( x) > f ( ) + f ' ( ).( x )
TEOREMA.
Se f convexa em (a,b), ento f contnua em (a,b).
Observao.
Este teorema no exclui os casos limites a=-, b=+.
PROVA.
Seja t :=
gd a<t<b.
Tome agora
f (t ) f ( s ) f (t ) f ( s )
:= sup ( , pois o sup).
ts ts
( f o g )d f (
gd ) d gd + t d 0 .
Da ( f o g )d f (
gd ) d t + t 0 donde
( f o g )d f (
gd ) d 0 , concluindo a demonstrao.
CONSEQUNCIAS
Se ( pi ) := i > 0 ,
i
i = 1 (distribuio discreta arbitrria)
Chega-se a
n
y1 1 . y2 2 .... yn 1 y1 + 2 y2 + ... + n yn
Generalizao da relao entre mdias harmnica & geomtrica.
3) Sejam p e q expoentes conjugados, i.e,
1 1
+ = 1; 1<p<+
p q
X
f .gd {
X
f dp
} .{ g d}
1/ p
X
q
1/ q
{ ( f + g ) d} {
X
p
1/ p
X
f dp
} + { g d}
1/ p
X
p
1/ p
.
Hlder (PROVA)
X
f .gd {X
f dp
} .{ g d}
1/ p
X
q
1/ q
:=A :=B
(p e q so expoentes conjugados, f0, g0 mensurveis)
f g
Sejam F := e G := funes
A B
{substituindo,
fp 1
X p d = p
f p d
f p d X
=1
;
A A f d
X p
X
gq 1
X q d = q
g q d
g q d X
=1
}.
B B g d
X q
X
s/ p t/q
Dado x, s, t | F ( x) = e e G ( x) = e .
e s / p + t / q p 1e s + q 1et
s t
g
{e convexa, + =p-1s+q-1t uma combinao convexa}
p q
F ( x)G ( x) p 1e s + q 1et
Da segue-se:
F ( x)G ( x) p 1 F s ( x) + q 1G t ( x) ,
pois F ( x) = e e G ( x) = e .
p s q t
Integrando ambos os membros, deduz-se a desigualdade
X
F ( x)G ( x)d p 1 F p d + q 1 G q d
X X
X
F ( x)G ( x)d 1 .
Substituindo as expresses de F e G em termos de f e g,
f ( x) g ( x)
X A B
d 1 X
f ( x).g ( x)d A.B
{ ( f + g ) d} {
X
2
2
X
}{
f 2 d . g 2 d
X
}.
Aplicao direta para variveis aleatrias:
{ } { }
E{| XY |} E1 / p | X | p .E1 / q | Y |q .
Minkowsky (PROVA)
{ ( f + g ) d} {
X
p
1/ p
X
f d
p
} + { g d}
1/ p
X
p
1/ p
Partindo de
(f+g)p=f(f+g)p-1+g(f+g)p-1 [**]
Aplicando Hlder a cada das funes do 2 membro:
X
f ( f + g) p 1
d { f d } .{ ( f + g )
X
p
1/ p
X
( p 1) q
d }
1/ q
(1 funo)
d { g d } .{ ( f + g ) }
1/ p 1/ q
g ( f + g ) p 1 ( p 1) q
p
d (2 funo)
X X X
X
( f + g ) d
p
{[ X
f d p
] + [ g d ] }
1/ p
X
p
1/ p
. ( f + g )
X
pq q
d
1/ q
.
Dividindo adequadamente, chega-se a
X
( f + g ) p d
( f + g ) p d
1/ q
{[
X
f p d ] + [ g d ] } e a prova conclui. Q.E.D.
1/ p
X
p
1/ p
{ ( f + g ) d} {
X
2
1/ 2
X
2
f d } + { g d}
1/ 2
X
2
1/ 2
DESIGUALDADE Cr
em que
2 r 1 r 1
Cr :=
1 r 1
Prova.
Considere f()=r+(1-)r.
Um esboo de f
Segue a cota:
21r se r 1
f ( )
1 se r 1 .
Concluso: Cr f ( ) 1 , r. (1)
|X| |Y |
Tome agora = | X | + | Y | e da 1 = | X | + | Y |
{ } { }
Cr E | X |r + Cr E | Y |r E (| X | + | Y |)
r
PROVA.
Defina a funo f (t ) := log E {| U |t } , t0, funo convexa.
t+h t h
Seja X :=| U | 2
e Y :=| U | , (h).
2
Da desigualdade de Cauchy-Schwartz, tem-se:
E 2 {| XY |} E | X |2 .E | Y |2
{ }
E 2 | U |t E | U |t +h .E | U |t h
Suponha que voc deseja simular um sistema e avaliar uma taxa de erros
ou taxa de acertos (e.g. de peas em uma linha de montagem, de uma
transmisso digital, taxa de coliso de partculas etc.).
A cada simulao, efetuam-se n repeties do evento e obtendo um
resultado diferente cada vez que a simulao for realizada. O valor
mdio um estimador da probabilidade p (vide anexo).
E(k)=np e var(k)=2(k)=np(1-p).
Seja a estimativa de freqncia relativa para a probabilidade p do evento estudado (e repetido): . Como
k uma varivel aleatria, tambm o .
1. , o estimador no enviezado.
(o valor mdio das diversas simulaes tende a fornecer o valor de p)
2. de modo que o espalhamento relativo mdia vale .
(p pequeno)
Integrao Monte Carlo
Hit or miss technique
b
0g(x)c em axb. Deseja-se avaliar S := g ( x)dx
a
ALGORITMO.
Aplicaes
Exemplo.
+
M X ( j ) = e
j x
b
f X ( x)dx = e jx
a
1
ba
dx =
1
j (b a)
[
e j b e j a ].
M X ( j ) =
1
j (b a )
[
e j b e j a ]
A funo caracterstica
E(),
2) Varivel exponencial . X~E
+
M X ( j ) = e j x
f X ( x)dx = e x e jx dx .
0
M X ( j ) =
j .
1 x2 / 2
f X ( x) = e . Tem-se imediatamente M X ( j ) = e
2 / 2
.
2
2) Uma varivel gaussiana sob transformao afim,
1 2 2
f X ( x) = e ( x ) / 2 resulta em
2
j 2 2 / 2
M X ( j ) = e e .
3) varivel de Poisson
+
M X ( j ) = e j x
i e
( x i )dx = e
(e )
j i
i =0 i! i =0 i!
(1e j )
M X ( j ) = e .
Propriedades da funo caracterstica. (10 propriedades)
ii) M X ( j ) = M X* ( j ) bvio.
| M X ( j + h ) M X ( j ) =
+
[ ] +
[
e jx e jhx 1 dFX ( x) e jx e jhx 1 dFX ( x)
]
de onde:
+ +
| M X ( j + h) M X ( j ) | | e jx | e jhx 1 dFX ( x) = e jhx 1 dFX ( x) 0 se h0.
Assim, | M X ( j + h) M X ( j ) | h<
+ + +
= 1 + jhx 1 dFX ( x) = hx dFX ( x) =| h | x dFX ( x) =| h | .E{| X |}
| |<
E{| X |} .
M X ( j ) = M X* ( j ) e M aX +b ( j ) = M X ( ja ).e jb
v) Geradora de momentos:
n
{ }
E X n
= ( j ) n
n
M X ( j )
=0
vi) Frmula de inverso:
1 +
f X ( x) =
2
e jx M X ( j )d
vii) De Pr( X = x) = FX ( x + ) FX ( x ) ,
lim1 n
n M X ( j )d .
jx
Pr( X = x) = e
0 2n
M [ j (v u )]h(v)h * (u ) 0 , S
u , v S
X , finito, h: qualquer.
ix) {X i } v.a.s independentes, e Y := X i e a varivel soma, ento
i
M Y ( j ) = M X i ( j ) .
i
n 0 | n = 1 .M
n
n Xn ( j )
tambm uma funo caracterstica.
Teorema da unicidade. Se duas funes distribuio de probabilidade tm
+
( j ) k
[ ]
M X ( j ) = E Xk
k! .
k =0
+
10 x 2 / 4
avaliar:
x e dx , use 2=2 n=10.
EXERCCIO (seguradoras)
Algumas companhias de seguro aplicam o chamado princpio exponencial
para atribuir um custo de um seguro. Seja X a varivel aleatria que descreve
o valor a ser pago ao segurado nas diversas possveis ocorrncias em que ele
pode acionar o seguro. A distribuio adimitida como exponencial de
parmetro , e a quantia mdia para pela seguradora E(X)=.
O valor V estabelecido para a aplice segue a regra:
1
V =
a
( )
ln e aX , em que a=
Assim,
1 ln(1 ) 1
V = ln =
a a
No caso de funes caractersticas conjuntas, seja o caso simples de apenas
Mostra-se que
n+m
[
EX X 1
n m
2 ] = ( j ) n+m
1 2
n m
M X 1 , X 2 ( j 1 , j 2 )
1 = 0 , 2 =0
X vetor n-dimensional:
r
M Xr ( j ) := E e [ r r
j T X
]
r r
As propriedades so semelhantes, e.g., Y = A. X + B , A e B matrizes:
r r
j T b
M Yr ( j ) = e .M X ( jAT ) .
M Xr ( j ) = M Xr ( j ( 1 , 2 )) = e (2 1 + 2 2 + 1 . 2 ) .
r 2 2
Deseja-se o vetor mdia mX e a matriz de covarincia KX.
M X
1) E {X 1 } = j ... calculando-se:
1 r
= ( 0,0)
r
E{X 1 } = j M X ( j )[ 4 1 2 ]r =( 0, 0 ) = 0 .
2M X r
2) E{X 1 X 2 } = ( j ) 1 2
2
= M Xr ( j ).[(4 1 + 2 ).(4 2 + 1 ) 1] = 1
r
=( 0,0 )
e E{X 2 X 1 } = E{X 1 X 2 } = 1 .
2M X
{ } = ( j )
E X 1
2 2
2 { } { }
= 4 e E X 2 = E X 2 = 4,
1 r
=( 0,0)
2 1
4 1
K X =
Resultando em
1 4 .
A VARIVEL SOMA
independentes, {X }N
n n =1 .
N
X := X n .
n =1
N
M
A funo caracterstica para X X ( j ) = E exp j X n .
n =1
N
Logo, M X ( j ) = E exp( jX n ) . Desde que as v.a.s so
n =1
independentes, o clculo da esperana desacoplado:
N N
M X ( j ) = [E exp( jX n )] = M X n ( j ) .
n =1 n =1
N
M X ( j ) = M X n ( j )
n =1
Z:=X+Y X e Y independentes.
f Z ( z ) = f X ( z ) * fY ( z ) =
( z ) * ( z ) = (z )
Z:=X+Y .
VARIVEL aleatria CAUCHY
1 1
f X ( x) = 2 e M X ( j ) = e | |
(1 + x )
{X }
N
i.i.d. Cauchy, e X :=
N
Sejam n n =1
Xn .
n =1
x ( n2) / 2 e x / 2 1
f X ( x) = n / 2 u ( x ) M X ( j ) =
2 ( n / 2) e (1 j 2 ) n / 2
{X }
N
i.i.d. Cauchy, e X :=
N
Sejam n n =1
Xn .
n =1
Mdia mX
Varincia X2
X2
Pr{| X m |> } 2 .
Teorema. Se fa>0 em I , ento
E{ f ( X )}
Pr{X I } .
a
+
Vejamos: E{ f ( X )} = f ( x)dFX ( x) .
Q.E.D.
Aplicao. v.a. X, com mdia nula E{X}=0 e E{X2}=2
2
2
Seja f ( x) := x + a .
2 2
2 2
Para xa>0, (intervalo I), f ( x) = x + a a + 0 .
a
Esboo:
E{ f ( x)} { }
Pr{X a} 2 Pr{X a}
E X 2 + 2 E{ X } 2 / a + 4 / a 2
2 ou seja, 2
2
a + 2 a + 2
a
a
Logo
2 + 4 / a2 2 2
Pr{X a} 2
a + 2 ou Pr{X a} 2
a + 2 . (cota).
2
2
a + 2
a
COTA INFERIOR E SUPERIOR
E finalmente
E{g ( X )}
Pr{| X | }
g ( ) .
2 Pr{| X | }
{ }
E X2
Com g(x)=x 2 .
var{X }
Pr{| X m X | }
2 desigualdade de Chebyshev
DESIGUALDADE DE MARKOV
Tomemos g(x)=|x|r
Pr{| X | }
{ }
E X
r
r .
Observao.
{Y }
Uma sequncia infinita de variveis aleatrias i n =1 , estatisticamente
independentes (e possivelmente identicamente distribuidas)
1 n
X := (Yi E (Yi ) )
Definamos n n i =1 n=1,2,3,...
2
Y2
Var(Xn)= = n
i
n
Um esboo da verso fraca da Lei dos grandes nmeros:
var{X }
Pr{| X m X | }
2
2
Pr{| X n | } 2 0 quando n.
n
lim
Pr{| X n | } = 0
n0
+
Usando a funo caracterstica. M X ( j ) := e dFX ( x).
j x
+
( ) = dFX ( x) , s Real.
sx
Seja M X s e
Seja ( s ) := ln M X ( s ) = ln E {e sX
}.
+
( s ) := ln e sx dFX ( x) pela desigualdade de Jensen
( s) := ln
+
e dFX ( x) ln e
sx s
xdFX ( x )
= s.E{X }.
Dado >0, Avaliemos agora Pr{X }:
+
Pr {X } = dFX ( x ) = E {I [ , )} = I [ , ) dFX ( x )
1 1
Pr {X } = I [ , ) dFX ( x ) =
e s
E {
e s
. I [ , })
e s
E{ }
e s
Em termos de (s), s0
1 (s)
Pr{X } e = e ( s ) s
.
e s
Resolvendo agora o problema de programao matemtica (minimizao)
Min ( s) s
s.t. ( s)
s [ ( s ) s ] = 0 ou seja, s = o que atingido em um
s0
s=s0 particular.
Pr {X } e ( s0 ) s0
Vejamos agora um caso de interesse.
N
1 N
Pr
Isto equivale a considerar N
i =1
X i .
1 N
Pr
Da cota de Chernoff bsica, N
i =1
X i
e X ( s0 ) Ns0
.
s xi
N
) = ln (M Xi ( s ) ) = N ln (M Xi ( s ) )
N
sx
= ln E e i =1 = ln E e sxi
= ln E ( e
i =1 i =1
A cota de Chernoff no caso de varivel soma i.i.d. torna-se:
1 N
N (s0 X i ( s0 ) )
N X i ( s0 ) Ns0
Pr X e = e
N i =1
i
.
1 N
Pr
N
i =1
X i e
NE ( s0 , )
Esta cota decresce exponencialmente com N, enquanto que a lei fraca dos
grandes nmeros (com base na cota de Chebyshev) decresce apenas com
1/N.
UMA COTA EXPONENCIALMENTE APERTADA!
Pode ser demonstrado que o expoente E(s0,) o maior possvel, i.e., inexiste
uma cota exponencial da forma
1 N
Pr
N
i =1
X i
e NE '
2 / 2 ( s / j )2 / 2 s2 / 2 s2
M X ( j ) = e . M X ( s) = e =e ( s) = .
2
( s)
impondo s = , tem-se s0 = .
1 com prob. p
Xi =
0 com prob.1 - p
(
M X i ( s) = pe s + (1 p) ( s ) = ln pe s + (1 p ) . )
( s ) 1 .(1 p )
De s = . p.e s
= s
obtm-se 0 = ln
pe s + (1 p ) (1 ). p
(s
0 Xi
) . .
( s0 ) = . ln p (1 ) ln(1 p ) + . ln (1 ) ln(1 )
Definindo:
Tp ( ) := ln p (1 ) ln(1 p ) e
H ( ) := ln (1 ) ln(1 )
Mostra-se que:
1 N
N (T p ( ) H ( ) )
Pr
N
i =1
X i
e
, p < 1.
Ou
1 N
N (T p ( ) H ( ) )
Pr
N
i =1
X i
e
, 0 < p.
{rn }n =1 r r (r
n n converge para r)
se e somente se >0 N | rn - r |< n> N
f n f = 0 . A convergncia uniforme?
Critrio.
lim sup f n ( x) f ( x) = 0
Fn converge uniformemente n x [0,1] .
Temos:
sup f n ( x) f ( x) = sup n 2 xe nx
x [0,1] x [0,1] .
d 2 nx 3 nx 2 nx
Verificando o mximo: dx
n xe = n xe + n e =0
1
[1-n.x]=0 i.e., o ponto de mximo ocorre em x =
n.
sup n 2 xe nx = n
e
x [0,1]
lim sup n 2 xe nx = +
n x [0,1] e a convergncia no uniforme.
Graficamente:
Ver Animao.
Exemplo 2.
/ n
Exemplo 3. X n ( ) := e , com [0,1].
Xn() X()=1 (converge uniformemente).
lim sup X n ( ) X ( ) = ?
n [0,1]
sup e / n 1 = sup 1 e / n
[0,1] [0,1] . Mas em [0,1] , e 1 / n e / n 1 e
Def. {X }
n n =1 diz-se que Xn X c.p.1 (p.s. = a.s.) se e s se
lim X n ( ) = X ( ) a.s.
Pr w = 1 . Denota-se tambm X n X .
n
lim X n ( ) X ( )
Conseqencia. Pr w = 0 .
n
Pr U {w | X n ( ) X ( ) | } < 1 (1 ) = (conjuntos ruins)
n> N
,
sup | X n ( ) X ( ) |<
Pr w > 1 .
n > N
,
CONDIES
I) Necessria
Pr(Bn)0 quando n
P U Bn P ( Bn ) 0
n> N n> N
1
Obs. Suponha que P ( B ) =
2n . Pr(Bn)0 quando n
n
mas P U Bn pode no ser menor que um >0 arbitrrio
n> N
Bn = 1.
Exemplo- bolo francesa nU
P
> N
II) Suficincia para convergncia cp 1
P U Bn <
Bn = bad sets
n > N
Suponha que P( B )
n =1
n seja convergente (cond.)
Ento N n > N n P ( Bn ) < e, portanto, P U Bk P ( Bn ) < .
> N n > N n > N
O Lema de Borel-Cantelli
i) Se
n =1
pn < P(lim sup An ) = 0
ii) Se
n =1
pn = + , {An} independentes P(lim sup An ) = 1 .
Consequncia: O macaco digitador
Definio.
{
lim E X n X r
} 0
n r>0 .
Proposio:
r { } { }
lim E X n r = E X r
se X n X ento n
i) para 0<r1, usando a desigualdade-Cr
{ }= E{X
E Xn
r
n X +X
r
} E{X n X
r
}+ E{X }
r
{ } E{X
E X
r
n X
r
}+ E{X } n
r
Denominaremos por
{ } E{X } E{X X }
z := E X n
r r
n
r
z = E {X } E {X } E {X X }
r r r
n n
0 | z |= E {X } E {X } E {X X } 0 pois X
r r r r
n n n X
Definio. Seja {X }
n n =1 uma sequncia de variveis aleatrias. Diz-se que
lim Pr ({w | X n ( w) X ( w) | }) = 0
n
P
Notamos por X n X i.e., para convergncia em probabillidade exigimos
que
P (Bn ) para todo n>N,.
lim Pr (Bn ) = 0
ou seja, n
Bn so conjuntos ruins:
Bn := {w | X n ( w) X ( w) | }.
p lim X n = X
Notao: n
r P
Proposio. X n X X n X
{
E Xn X
r
}
Prova. Pela cota de Markov, 0 Pr ( X n X ) r
r
lim E X n X { r
}= 0
Mas X n X n
lim Pr ( X n X ) = 0 P
n e logo X n X .
P r
Xn X Xn X .
Prova.
Seja X uma v.a. arbitrria e g em uma funo de Borel no-negativa. Se g
par e no-decrescente em [0,), vale a>0
E{g ( X )} g (a) E{g ( X )}
Pr{| X | a}
a.s.Supg ( x) g (a )
| X |r
Para este caso, tome g ( x ) = 1+ | X |r . Chega-se a (a.s. sup g(x)=1):
| X |r ar 1 + a r | X |r
E r
Pr{| X | a} r E r
1+ | X | 1 + a r
a 1+ | X |
X n X r
lim E r
=0 P
X Y
d ( X , Y ) := E uma distncia, exceto que d(X,Y)=0 X=Y p.p.
1 + X Y
a.s. P
Proposio: X n X c.p. 1 X n X
B U B P ( B ) P U B
n > N , , n n
n
n> N n
.
n > N , ,
Definio. Seja {X }
n n =1 uma sequncia de variveis aleatrias. Diz-se que
d
Notamos isto por X n X .
P d
Teorema. X n X X n X .
Prova.
(X<x)= (Xn<x,X<x) ( Xnx,X<x) (Xn<x) ( Xnx,X<x)
Disjuntos
P(X<x) P(Xn<x) + P( Xnx,X<x).
Consideremos x<x:
P
P( Xnx,X<x) P(|Xn-X|x-x) 0 qdo n , pois X n X .
Assim,
FX ( x' ) FX n ( x) + Pr(| X n X | x x' )
donde
FX ( x' ) lim inf FX n ( x) , x<x.
Considere a sequncia {X }
i 1 e defina S N := X i . Queremos examinar a
i =1
Tem-se
1N N
1 N
S := X i E{ X i } = [X i E{ X i }] .
N
N i =1 i =1 N i =1
{S }
N 1 converge para zero de alguma maneira.
{X i }
P
b) S 0 ento dizemos que a sequncia dos
N obedece Lei
{X i }
r
c) S 0 ento dizemos que a sequncia dos
N obedece Lei
1 N 1 N 2 X2
E{S N } = E{ X } = E{ X } e
i
2
SN
= 2 X i = 0
N i =1 N i =1 N
VERSES FRACAS Weak law of large numbers
N r
[ X i E{ X i }]
lim E i =1
=0
para algum r>0.
r
N N 2 + [ X E{ X }]
N
i i
i =1
Prova.
P
Yn Y r
lim E
r =0
Sabemos que YN Y se e somente se N 1 + Yn Y .
Ento substituindo S N Yn e 0 Y , vem
S r
lim E N
r = 0
P
S N 0
N 1 + S N
1 N r
( X i E{ X i })
N i =1
lim E =0
e o resultado segue.
r
N 1 + 1
N
( X i E{ X i })
N i =1
1 N
{X i }
lim
N 2
var
1
X i = 0
Se as variveis aleatrias so tais que N , ento
P
S 0.
N
Prova.
S r
{ }
r
S N r N r
S N 0 E r E S N
r
1+ S N 1 + S N .
S r
N
Ento E S { }
r
N 0 (cond. Suf.?)
E
1 + S N
r
0
(cond. nec. e suf.?)
{ } 1
r
N
1 N
E S r
N = E ( X i E{ X i }) a r
E X i E{ X i }
r
N i =1 N i =1
1 N
1 N
i
2
lim E X E{ X }
N 2 i=1
i
=0
N
1 N N
lim E ( X i E{ X i }).(X j E{ X j })
N 2
i =1 j =1
=0
N , ou seja,
1 N
lim
N 2
var
1
X i = 0
N Q.E.D.
Observaes: casos particulares de interesse.
1) {X i } i.i.d.
1 N
1 N
1 2
lim
N 2
var
1
X i=
N 2 X2 = lim
i
N
X =0
N 1
N
1 N
1+
lim E i
N 1+ i =1
X E{ X i }
=0
P
N S 0
N
1 N
lim
N2
2
Xi =0
P
N 1 , ento S 0 .
N
Pafnuty Chebyshev
CONVERGNCIA DA FREQUNCIA RELATIVA.
K P lim
Z N := p , i.e., Pr{| Z N p |> } = 0 >0.
N N
p lim Z N = p
Em notao simplificada: N
Teorema de Poisson. Se em uma sequncia de realizaes de um
experimento, a probabilidade de ocorrncia de um evento na i-sima
realizao pi, ento se
K lim 1 N
Z N := , >0, Pr | Z N pi |< = 1 .
N N N i =1
FREQUNCIA RELATIVA.
Ento
K 1 N
1 N a.s.
=
N N
i =1
X i , e
S
N :=
N
(X
i =1
i p ) 0 .
[a demonstrao usa a desigualdade de Makov com r=4]
mile Borel
lim
N X2
1 N i <
a. s.
N , ento S N 0 .
RESUMO
X2
N
i
<
1
Kolmogorov (2)
{X i } i.i.d. E(Xi)<+.
ARGUMENTO DO TEOREMA CENTRAL DO LIMITE
X
i =1
i
E( X )
i =1
i
Nm
E () = = =m (no enviezado)
N N
N
2
2
(X i )
2
() = i =1
2
= (reduzindo a incerteza pelo aumento da populao)
N N
1 N
1 N
X i m (X i m)
N N
Y = i =1
1/2 , ou seja, Y =
i =1
/N / N 1/ 2
1 N
Xi m
Y = 1/ 2
N
i =1
.
1 N
i
N
j i =11 / 2
{ }
M Y ( j ) = E e jy = E e N
M Y ( j ) = E e
N j
i
N1 / 2
ou i =1 .
Como os Xis so independentes, tambm o so os is
j N1 / 2 i
j 1/ 2 i
N
=E N e N = M ( j 1 / 2 )
N
M Y ( j ) = E e .
i =1 N
2 ( ) = 1 ).
lim N
2
. A =0
fcil verificar que + N
N
t z
log(1 + z ) = z + B ( z ) em que B( z ) = 0 t + 1 dt .
***
1 z
Veja que tomando a derivada, 1 + z = 1 + B' ( z ) 1 + z = B' ( z ) , com B(0)=0.
***
2 2
log M Y ( j ) = + N . A
+ N .B + A
2 N 2N N .
Mas
B( z ) 1 z z
tdt = 0
z z 0 2 quando z 0 .
Lembrando que
N . A 0 quando N, ento no limite, o comportamento ditado por:
N
lim 2 lim 2
log M Y ( j ) = M ( j ) = exp
N 2 N Y 2 .
Como M Y ( j ) contnua em =0, a transformada M Y ( j ) f Y ( y ) verifica
lim 1 y2
fY ( y) = exp
N 2 2 Q.E.D. linda demonstrao .
Teorema de Lindenberg-Lvy
Teorema de Liapunov
Teorema de Berry-Esseen
pS * ( s) , PS * ( s ) , M S * ( j )
n n n
1 s2 / 2 s
(limite:
pS ( s ) := e
e
PS ( s ) = p( )d )
2
ESTUDO
d
*
1 condies sobre as quais S S ?
n
lim pS * ( s) = pS ( s )
2 condies sobre as quais n
n
i) identicamente distribuidos
ii) independentes
Ento
d
*
S S , i.e., a probabilidade do evento descrito abaixo,
n
* ( X 1 + X 2 + ... + X n ) nm
S n =
n
s tende para PS (s )
Teorema de Liapunov. Se os termos em {X i } so
i) no identicamente distribuidos
ii) independentes
{
E X i mi
2 +
}:= 2 + ( X i ) para algum >0.
lim
2 + ( X i )
i =1
=0
n S2n+ para algum >0.
d
*
S S , i.e., * ( X 1 + X 2 + ... + X n ) nm
Ento n S n =
n
s tende para PS (s )
i) no identicamente distribudas
ii) independentes
iv) se
lim | mi |> S n( mi ) 2 p X i ( )d
i =1
=0
n S2n >0.
d
*
Ento S S .
n
Teorema do erro 1.
v
Se m3 = E ( X ) existe e M X ( j ) , para algum v1 integrvel, ento
3
m3 1
pS * ( s ) = pS ( s ) ( s 3 3s ) pS ( s ) +
n
6 3 n n .
Teorema do erro 2.
v
Se m 3 = 0 e m 4 = E ( X ) existe e M X ( j ) , para algum v1 integrvel,
4
m4 3 4 4 2 1
p S * ( s ) = pS ( s ) 4
( s 6 s + 3) p ( s ) +
24 n
S
n
n.
Teorema de Berry-Esseen.
+
Distribuio {p(x)} H ( p( x)) := p( x) log 2 p( x) dx
Desigualdade de potncias-entropicas
Sejam X e Y independentes, contnuas e de varincia finita. Ento a entropia
diferencial diferencial satisfaz
e 2 H ( X + Y ) e 2 H ( X ) + e 2 H (Y ) .
(prova p.287, R.Blahut, principles and practice of Information Theory, Addison-Wesley)
Digresso: Discriminante de Kulback
+ p0 ( x)
L( p0 ; p1 ) :=
p0 ( x ) ln
p1 ( x)
dx caso contnuo
L(Yn ; Z ) 0 quando n.
p 1 p 4
Passo1 p [0,1] , q p , tem-se p ln
q
+ (1 p ) ln
1 q 2 log e
( p q) 2 .
p 1 p 4
Considere ento a def. f ( p , q ) := p ln + (1 p ) ln ( p q) 2 com
q 1 q 2 log e
f(p,q)=0 q=p.
f
A derivada q < 0 q < p.
f ( p, q ) pq 1
Calculando: q = 4( p q ) log e 0 q < p. .
q (1 q )
q () q (C ) 2 log e
Q.E.D.
Sejam
X X
1Y Y .
De TI, H ( aX ) = H ( X ) + ln(a ) .
Ento:
X + (1 )Y )
e2 H ( .e 2 H ( X ) + (1 ).e 2 H (Y ) .
2 + ( x) ln ( x)dx
Multiplicando por exp
, em que ~ N(0, 2
), e usando o fato que
+ +
( x ) ln ( x )dx = p ( x) ln ( x)dx quando p(x) tem a mesma varincia que
X + ( 1 )Y ; Z )
e 2 L ( .e 2 L ( X ; Z ) + (1 ).e 2 L ( Y ; Z )
e 2 L ( X + (1 )Y ; Z )
e 2[L ( X ; Z ) + (1 ) L (Y ; Z ) ]
ou finalmente,
L( X + (1 )Y ; Z ) L( X ; Z ) + (1 ) L(Y ; Z ) ,
Com igualdade se e s se X e Y so gaussianas.
A concluso da demonstrao elaboraa: em linhas gerais
n
Yn X Ym ' Y =
n + m e chega-se a
T=conjunto de indices
{X t , t T }
Teoria no Sculo XX, com base no gigante A. Kolmogorov.
1
Obs: X t ( janelas ) a
(
Pr ai X ti bi )
Pr U (ai X ti bi )
i
CLASSIFICAO DE PROCESSOS
Fixado w,
X(w,t) so chamadas de funes amostrais ou trajetrias de um
processo estocstico
Fixado t1T,
X(w,t1) uma varivel aleatria.
Varivel aleatria
w X
x
(, ,P) ( , ,P)
w Xt
(, ,P) ( , ,P)
A A = X t1 ( A' )
EQUIVALENCIA DE P.E.s
Intervalo aberto
Unies, interseces e outras operaes finitas com intervalos abertos em
formam a lgebra . Tome como a menor -lgebra que contm todos os
intervalos abertos.
Funo amostral ou Realizao de um P.E. (trajetria)
t fixo
X(w1,t)
X(w2,t)
Figura. Fixado um instante arbitrrio de tempo, o processo aleatrio torna-se uma simples
varivel aleatria.
Xt1 uma varivel aleatria,
(
logo tem sentido a distribuio FX t 1 ( x1 ) = Pr X t1 x1 )
Distribuies marginais:
(
FX t 1 ( x1 ) = Pr X t1 x1 )
FX t 2 ( x ) = Pr (X
2 t2 x )
2
...
(
FX tn ( xn ) = Pr X tn xn )
Funes distribuio finito-dimensionais: n, t1,...,tn,
(
FX t , X t 2 , ..., X tn1, X tn ( x1 , x2 ,..., xn1 , xn ) = Pr X t1 x1 , X t2 x2 ,..., X tn1 xn1 , X tn xn
1
)
1. Condio de simetria:
permutao j1,j2,...,jk dos ndices 1,2,..,k,
F(xj1 xj2 ... xjk; tj1 tj2 ... tjk)=F(x1,x2,...;t1,t2...tk).
2. Condio de compatibilidade m<k
F(x1,x2,..xm,+,...,+ ; t1,t2...tm,...,tk) = F(x1,x2,...xm;t1,t2...tm).
t1 t2 t3
Figura. Estacionaridade de funes de distribuio finito-dimensionais (N=3).
Adicionando-se o mesmo incremento aos instantes fixados t1, t2, t3, recai-se sobre os
instantes identificados por (). A distribuio conjunta permanece a mesma.
CONSEQENCIAS:
Para k=1
F
xt1 (x1)= Fxt1+ (x1), i.e., mesma distribuio mantm-se durante todo o processo.
1. E{X(t)}= constante.
2. E{X2(t)}<+ tT
Alm de ser mais simples de tratar, so mais gerais e com menor regularidade
Xt=at+b a,b~N(0,1)
Xt=2.cos(2(100+)t) ~U(-10,10)
Yn = Xn Xn-1 Xn Bernoulli
n
Yn = X k
k =1
Xn Bernoulli
Processo das retas aleatrias
Xt=at+b a,b~N(0,1) a e b independentes.
Caso p=1/2. P{ X n = 0} = 1 / 2 e P{ X n = 1} = 1 / 2 .
Xt=at+b a,b~N(0,1)
Calculando a ACF, RX(t1,t2)=t1.t2+b2
No estacionrio, nem no sentido amplo nem estrito...
PASSEIO ALEATRIO (passeio causual)
Trajetria tpica
Incrementos independentes
Para qualquer escolha de instantes arbitrrios t 0 < t1 < ... < t n ,
as variveis de incremento
X (t1 ) X (t 0 ) , X (t 2 ) X (t1 ) , X (t 3 ) X (t 2 ) ,..., X (t n ) X (t n 1 ) so:
1) independentes
que X (t j ) X (t j 1 ) k
A mdia do processo
m(t)=m1.
RX(t1,t2)=m1(m2-m1)+E{ X2t1}.
1 0 0
K 0
X (t1 ) X (t1 ) X (t 0 )
X (t ) 1 1 0
K 0
X ( t ) X (t )
2
= 1 1 1 K 0.
2 1
M M
M M O L 0 .
X (t n ) X (t n ) X (t n 1 )
1 1 1 L 1
Como {X ( t k ) X ( t )}n
k 1 k =1 so variveis aleatrias independentes e
b) RZ(t,t+)=E(Zt. Zt+)=
=E{(Xcos2t+Ysen2t).(Xcos2(t+)+Ysen2(t+)}
Apenas os termos
E(X2)cos2t.cos2(t+) e E(Y2)sen2t.sen2(t+) so no
nulos, via a independncia das variveis X e Y. Por outro
lado,
E(X2)= E(Y2)=1.(2/3)+4.(1/3)=2 de modo que
RZ(t,t+)=2[cos2t.cos2(t+)+ sen2t.sen2(t+)]
RZ()=2cos(2), estacionrio.
c) Porm, examinando-se o terceiro momento:
<X(w3,t)>
X(wn,t) <X(wn,t)>
...
+
E ( X t ) := xt dFX
R X ( ) := E ( X t X t + )
lim 1
T
lim 1 T
x(t ) x(t + )dt
< X (t ) >:=
T 2T
T
x (t ' )dt ' X ( ) :=
T 2T
T
Teorema Ergdico de Birkoff
RX ( ) m X2 .d < + , ento:
1. E[<x(t)>] = mX,
2. l.i.m. <x(t)> = mX,
3. plim <x(t)> = mX.
Prova.
1 T
Seja AX (T ) :=
2T
T
x(t )dt , cuja mdia vale
1 1
E ( AX (T ) ) = ( )
T T
2T T E x (t ) dt = m X
2T
T
dt = m X .
1
2
T T
( AX (T ) ) = E x(t ) x(t ' )dtdt ' m X2
2 .
2T T T
Ento a varincia vale:
1
( AX (T ) ) = 2 {R }
T T
2 2
X (t ' t ) m X dtdt '
4T T T
Mas
2
2T
1 { } 2T
R X ( ) m X d 0 R X ( ) m X d = K < +
2 2
, e assim
0
2T
lim 2 ( AX (T ) ) lim K = 0
T
T T concluindo a prova. Q.E.D.
Exemplo.
Um processo estocstico constante definido por funes
amostrais:
X(t)=a, sendo a uma varivel aleatria binria,
+ 1 com probabilidade p
a := , 0<p<1.
1 com probabilidade 1 p
Por inspeo:
E(Xt)=1.p-1.(1-p)=2p-1
<X(t)>= +1 ou -1,
Logo E(Xt) <X(t)> e o processo no ergdico. (veja a cond.)
TEOREMA DE WIENER-KINCHINE
ESPECTRO DE PROCESSOS ESTOCSTICOS
t
amostral truncada, definida por xT (t ) = x(t ). .
T
Ento
+ +T / 2
X T ( w) := xT (t )e jwt
dt = x(t )e jwt dt < .
T / 2
2 T /2 T /2
Ora, X T ( w) = X T ( w). X T ( w) = x(t1 )e jwt1
dt1 x(t 2 )e jwt 2 dt 2
T / 2 T / 2
Ento
2 T /2 T /2
X T ( w) = x(t1 ) x(t 2 )e jw(t2 t1 ) dt1 dt 2 .
T / 2 T / 2
A densidade espectral
lim 1
T /2 T /2
jw ( t 2 t1 )
< x (t1 ) x (t 2 ) > e dt1 dt 2
/ 2 / 2
SX(w)= T
T T T
ou seja
lim 1 T /2 T /2
RX(t2-t1) e jw ( t2 t1 ) dt1dt 2
SX(w)= T T T / 2 T / 2
lim jw | |
T /2
RX() e 1 d RX() e jw d
SX(w)= T T / 2 T =
Assim,
RX() SX(w).
S X ( w) := R X ( )e jw d
Etimologia:
Martingale estratgia francesa de apostar em dobro at ganhar.
Exemplo.
Y0:=0 {Yn} i.i.d. com E{|Yn|}<+ (n) e E{Yn}=0.
Def.
X0:=0 para n=0
Xn:=Y1+Y2+Y3+...+Yn para n 1.
E [X n +1 | Y0 , Y1 , Y2 ,..., Yn ] = E [X n + Yn +1 | Y0 , Y1 , Y2 ,..., Yn ] =
= [X n ] + E [Yn+1 ] = X n martingale!
Problema para lista. Doob martingale.
Y0:=0
{Yn} i.i.d. com (n) E{Yn}=0 e var{Yn}=2.
Seja
X0:=0 para n=0
2
n
Xn:= k =1
Yk n. 2
para n 1.
E{|Xn|}2n.2<+.
Mostrar que E [X n+1 | Y0 , Y1 , Y2 ,..., Yn ] = X n martingale!
PROCESSO ESTOCSTICO PADRO:
A onda telegrfica aleatria
Um exemplo bsico envolvendo a ACF o processo conhecido
como onda telegrfica, que assume valores 0 ou 1 com igual
probabilidade a cada instante e realiza transies independentes
entre os dois estados.
Usualmente formula-se a hiptese que a probabilidade de haver k
transies em um intervalo de tempo T expressa por uma
distribuio de Poisson,
( T ) k
p(k , T ) = exp(t ) .
k!
Rx(t,t+)=P(x1=1,x2=1).
Esta probabilidade aquela que x1=1 e que haja um nmero par de
transies de estado no intervalo (t,t+).
( | | k ) 1 ( | | k ) (- | | k ) 1 | | 1 | |
k!
=
2 k!
+
k!
= e + e
k =0 k =0 k =0 2 2
k par
1 1
Limites: R X (0) = E ( X 2 ) = e R X ( ) = = m X2
2 4
TRANSFORMAES LINEARES de Processos Estocsticos
+ + +
Da E ( y(t )) = E h( ) x(t )d = E (h( ) x(t ))d = h( ) E (x(t ))d
Como E (x(t )) = E (x(t )) = m X pela estacionaridade, ento:
E ( y(t ) ) = mY = H (0).m X = constante.
2) ACF do processo
RY ( t , t + ) = E ( y ( t ) y ( t + ) ) = E {
+ +
h ( ) x ( t ) d . h ( ) x ( t + ) d
}
Assim,
+ +
RY (t , t + ) = h( )h( ).E{x(t ) x(t + )}dd .
+ +
De RY ( ) = h( )h( ).R X ( + )dd , usando o fato que
R X ( ) = S X ( f )e j 2f
df R X ( + ) = S X ( f )e j 2f ( + ) df ,
Chega-se expresso
+ + +
RY ( ) = S X ( f )e j 2f ( + ) h( )h( ).dfdd
Separando-se as integrais:
+
RY ( ) = S X ( f )e
j 2f
{
+
h( )e j 2f
+
}
d h( )e j 2 .d df .
+
R
(1) Y ( ) = X
S ( f ) | H ( f ) | 2
.e j 2f
df
SY ( f ) = S X ( f ). | H ( f ) |2
Preditores lineares: Filtragem tima de Wiener
MODELO y(t)=s(t)+n(t)
s(t) sinal desejado
n(t) rudo aditivo (n de rudo)
y(t) sinal corrompido
a) se s(t) conhecido, o problema inexiste
b) se n(t) conhecido, trivial obter-se s(t)
c) casos de interesse: n(t) aleatrio e desconhecido.
Critrios de desempenho do preditor
= 2 . { +
+ +
}
h( ) g ( ) R y ( )dd g ( ) Rsy ( + )d +
+ +
+ 2 g ( ) g ( ) R y ( )dd 0 .
+
Da impe-se que 0 h( ) R y ( )d Rsy ( + ) = 0
+
Rsy ( + ) = h( ) R y ( )d 0 EQUAO DE WIENER-HOPF
0
Demonstrou-se anteriormente que a Equao de Wiener-Hopf
uma CONDIO NECESSRIA para que h(.) resulte em um EMQ
mnimo.
e jw S sy ( w) = H ( w) S y ( w)
Por isto
S sy ( w)
H ( w) = e jw
S y ( w)
S s ( w)
H ( w) = e jw
S s ( w) + S n ( w) .
Cadeias de Markov
Definio 1:
Veja os modelos:
Definio 2:
A probabilidade de Xn+1 estar no estado j dado que Xn est no
estado i chamada probabilidade de transio de um passo e
denotada por Pijn,n+1. Isto :
Pijn,n+1 = Pr{Xn+1=j | Xn=i}. (2)
Formalmente,
Pij(n) = Pr{Xm+n=j | Xm=i}. (10)
Consideramos este processo homogneo, ou seja, dependente
apenas da diferena [m - (m+n)], e possuindo probabilidades de
transio estacionrias.
Pij(n) = k
=0
Pik Pkj(n-1) (11)
1 , se i = j
em que definimos Pij (0) = .
0 , se i j
144
42444
3
n vezes
Prova: O evento de ir do estado i para o estado j em n transies
pode ser realizado por caminhos mutuamente exclusivos, indo para
um estado intermedirio k (k= 0,1,...), na primeira transio, e ento
ir do estado k ao estado j nas (n-1) transies restantes. Por conta
da propriedade de Markov, a probabilidade da segunda transio
Pkj(n-1) (da primeira transio obviamente Pik). Usando a Lei da
Probabilidade Total:
Pij(n) = Pr{Xn=j | X0=i} = Pr{Xn=j, X1=k | X0=i}
k =0
= Pr{X1=k | X0=i} . Pr{Xn=j | X0=i, X1=k}
k =0
= Pik Pkj(n-1)
k =0
Se a probabilidade do processo estar inicialmente no estado j pj,
isto , a lei de distribuio de X0 Pr{X0=j)=pj, ento a
probabilidade do processo estar no estado k no tempo n :
pk = pj Pjk(n) = Pr{Xn=k} (13)
j=0
Q.E.D.
Equaes de Chapman-kolmogorov
Para o clculo das probabilidades de transio em n passos:
P n+m
ij = ik Pkj
P n m
k =0
Alguns Modelos de Cadeias de Markov
Modelo de Inventrio
Na qual Y+=max(Y,0).
A partir de (18), obtemos a matriz de probabilidades de transio:
a0 a1 a2 a3 a4 L
a0 a1 a2 a3 a4 L
0 a0 a1 a2 a3 L
P= 0 0 a0 a1 a2 L
0 0 0 a0 a1 L
M M M M M
Algumas Cadeias de Markov Especiais
Pn = 1 b a + (1 - a - b) a - a
n
(20)
a+b b a (a + b) - b b
n
Observemos que 1 - a - b < 1 quando 0<a, b<1, e da 1 - a - b 0
quando n e:
b a
lim P n = a + b a + b
n b a
a+b a+b
Para um exemplo numrico, suponha que os itens produzidos por um
trabalhador estejam sendo separados em defeituosos ou no, e que, devido
qualidade da matria prima, um item est com defeito ou no depende
em parte de se ou no o item anterior estava defeituoso. Seja Xn a
qualidade do ensimo item, com Xn=0 significando bom e Xn=1
significando defeituoso. Suponha que Xn caracteriza uma Cadeia de
Markov cuja matriz de transio :
0,99 0,01
P= .
0,12 0,88
Observe que itens defeituosos tendem a aparecer em grupos na
sada deste sistema.
1 R$200 1 2 3 4
2 R$280 1 3 4 4
3 R$420 2 4 4 4
4 R$700 3 4 4 4
S2(0)=1
S2(k)=4, k2
Diagrama de estados da cadeia de Markov dos
seguros de automveis
Matriz de transio:
a0 a1 a2 1 a0 a1 a2
a0 0 a1 1 a0 a1
P=
0 a0 0 1 a0
0 0 a0 1 a0
ak=Pr(segurado usar k vezes o seguro no ano)=
k
= e
k!
k0
O Conceito de Convergncia em
Cadeias de Markov
N
j = k =0
k Pkj , j = 0 ,1,..., N
N
k =0
k = 1.
Prova:
Visto que a cadeia de Markov regular ento existe uma
distribuio limite j>0 para todo j=0,1,...,N e jj=1.
Escreva Pn como o produto de matrizes Pn-1P na forma:
N
Pij( n ) = Pik( n 1) Pkj , j = 0,1,..., N
k =0
N
xj = k =0
x k Pkj , j = 0 ,1,..., N
N
k =0
xk = 1.
j= 0
x jP jl =
j= 0 k = 0
x k P kj P jl =
k = 0
x k P kl( 2 )
N
xl = x P
j =0
j jl ento a equao anterior nos leva a :
N
xl =
k =0
xk Pkl( 2 ) , para l = 0 ,1,..., N
Repetindo esse argumento n vezes, temos:
N
xl = x
k =0
k P (n)
kl , para l = 0 ,1,..., N
N
xl = x
k =0
k l , para l = 0 ,1,..., N
0,4 0 1
0,05
0,05 0,25
0,1
0,5
2
0,45
Exemplo 1
Seja a matriz de probabilidades de transio dada por:
5
0 =
65
5 Quais as probabilidades limites para o processo
1 = humor de Seo Lunga? A fama de mal
8
humorado justificvel?
31
2 =
104
Matrizes Duplamente Estocsticas
N 1
j = k =0
k Pkj , j = 0 ,1,..., N 1
N 1
k =0
k = 1.
Mas
N 1
1
k =0 N
=1
1 N 1 1 1
= Pkj =
N k =0 N N
P(A)=p.P(A|AA)+q.P(A|aa)+r.P(A|Aa)=p+0+r/2
P(a) = p.P(a|AA)+q.P(a|aa) +r.P(a|Aa) =0+q+r/2
Assim,
P(AA)=P(A).P(A)=(p+r/2)2
P(aa)=(q+r/2)2
P(Aa)=P(A)P(a)+P(a)P(A)=2P(A)P(a)=2(p+r/2)(q+r/2)
0 1 2 3
0.8 0.2 0 0 0
0 0 0.4 0.6
1
P=
0.6 0.4 0 0 2
3
0 0 0. 1 0.9
(
pij = P (j n ) = (a j1 , a j 2 ,..., a jL ) | i( n 1) = (ai1 , ai 2 ,..., aiL ) )
Diagrama de estados:
Matriz de Markov para o registador a deslocamento:
Entrada aleatria, trs retardos puros.
0 1 2 3 4 5 6 7
p 0 0 0 1 p 0 0 0
p 0 0 0 1 p 0 0 0
0 p 0 0 0 1 p 0 0
0 p 0 0 0 1 p 0 0
P=
0 0 p 0 0 0 1 p 0
0 0 p 0 0 0 1 p 0
0 0 0 p 0 0 0 1 p
0 0 0 p 0 0 0 1 p
Considere agora a matriz de transio em m passos, Pm.
= [p3 p 2 (1 p ) p 2 (1 p ) p (1 p ) 2 p 2 (1 p ) p (1 p) 2 p (1 p ) 2 (1 p )3 ]
Classificao dos Estados
Nem todas as cadeias de Markov so regulares. Vamos
considerar alguns exemplos:
1 0
P=
0 1
0 1
P=
1 0
1 / 2 1 / 2
P= , ento P n
dada por :
0 1
1 n 1
n
P n = 2 1 2 e o limite quando n :
0 1
n 0 1
lim P =
n
0 1
1) ii (reflexividade);
2) Se ij, ento ji (simetria) e
3) Se ij e jk ento ik (transitividade).
probabilidades de transio:
1/ 2 1/ 2 0 0 0
1/ 4 3/ 4 0 0 0
P1 0
P= 0 0 0 1 0 =
0 P2
0 0 1/ 2 0 1/ 2
0 0 0 1 0
Classificando:
0,5 0,5 0
cadeia irredutvel.
P = 0,5 0,25 0,25
0 1/ 3 2/3
classes:
0,5 0,5 0 0 {1,2} {3} {4}
0,5 0,5 0 0 1 acessvel de 3
P= 3 no-acessvel de 1
0,25 0,25 0,25 0,25
4 absorvente.
0 0 0 1
Periodicidade de uma Cadeia de Markov
Definimos:
N N
f ii =
n=0
f ii( n ) = lim
N
n=0
f ii( n )
n =1
Pii( n ) =
0 se X n i
1{ X n = i} =
1 se X n = i.
Mas como vimos E[ M | X 0 = i ] < quando i transitr io.
Logo :
> E[ M | X 0 = i ] = E[1{ X n = i | X 0 = i ] = Pii( n )
n =1 n =1
como queramos.
Corolrio 1: Se ij e se i recorrente, ento j
recorrente.
Prova:
Como ij ento existe m,n1 de modo que:
(n) (m)
P >0 e P
ij ji >0
Somando :
jj
P ( n+ m+v )
v =0
ji ii ij
P ( m) (v) (n)
P P
v =0
= Pji Pij ii
(m) ( n)
P (v)
v =0
Como P (v)
ii diverge, temos que Pjj( v ) tambm diverge.
v =0 v =0
O Teorema Bsico do Limite para
Cadeias de Markov
(n ) 1 1
lim P ii =
=
n mi
n=0
nf ii
(n )
(b) Sobre as mesmas condies de (a):
1
lim Pjj( n ) = j = i Pij = e i = 1
n m j i =0
i =0
Pr{`X 1 = i} = Pr{X 0 = k} Pr{X 1 = i | X 0 = k}
k =0
= k Pki = i
k =0
0 1
P= mas = (1/2,1/2) uma distribuio estacionria pois :
1 0
0 1
(1 / 2,1 / 2) = (1 / 2,1 / 2).
1 0
Em guisa de concluso
A apresentao do assunto bastante limitada e tmida,
face a sua aplicabilidade e potencial.
O Processo de Poisson
1 - Introduo
2 - Processo de Poisson
3 - Tempos de Chegada
N(0)=0
k
P1 =t
.
.
. P+ de 1 em t = 0
4
3
2
1
t 0
t
Processo Aleatrio de Contagem {Nt, 0 t<+}
N0 0
c. P[ N t + t N t = 1] t + 0 ( t )
d. P[ N t + t N t > 1] 0 ( t )
em que uma constante positiva e 0(t) uma funo de
t a qual vai a zero mais rapidamente que t, i..,
0(t) uma funo tal que (BigO Landau)
0( t )
lim =0 (1)
t 0 t
P[ N t + t N t = 0] = 1 P[ N t + t N t 1] =
1 ( P[ N t + t N t = 1] + P[ N t + t N t > 1]) =
1 ( t + 0( t ) + 0( t )) =
1 t 20( t ) =
P[ N t + t N t = 0] = 1 t + 0( t ) (2)
Determinar a distribuio de probabilidade da varivel
aleatria de contagem Nt: Considere o intervalo (0,t+t] e
divida-o em dois, conforme a ilustrao abaixo:
0 t t+t
Introduz-se a notao
p k ( t ) P[ N t = k ]
p j ,k (t , t + t ) P[ N t + t = k | N t = j ]
O evento condicional [Nt+t=k | Nt=j] equivalente ao evento
[Nt+t - Nt = k-j] e ento suas probabilidades so iguais:
P[ N t + t = k | N t = j ] = P[ N t + t N t = k j ]
P[ N t + t N t = k j ] = P[ N t N 0 = k j ] = P[ N t = k j ]
p j ,k ( t ) p j ,k (t , t + t ) = P[ N t = k j ] (3)
Considere a probabilidade de que nenhum evento ocorra no
intervalo (0,t+t]. Esta situao ocorre quando nenhum evento
ocorre no intervalo (0,t] e nem no (t,t+t].
p 0 ( t + t ) = p 0 ( t ) p 0 ,0 ( t ) (4)
p0,0 ( t ) = 1 t + 0( t )
Usando este resultado em (4), subtraindo p0(t) de ambos os
lados e dividindo por t, tem-se
p0 (t + t ) p0 (t ) 0( t )
= p0 (t ) + p0 (t )
t t
Passando o limite t 0, tem-se
dp0 (t)
= p0 (t)
dt
como a equao diferencial para probabilidade de que nenhum
evento ocorra em um intervalo de durao t. Sua soluo ,
p0 (t ) = ce t
notando que
p0 ( 0) = 1 c = 1
segue-se
P[ N t = 0] = p0 (t ) = e t
Tendo obtido p0(t) vamos determinar pk(t) para k 1.
k
pk (t + t ) = p j (t ) p j ,k ( t ) (5)
j =0
pj ,k (t ) pj ,k (t , t + t ) = P[ Nt +t = k| Nt = j] = P[ Nt +t Nt = k j] =
P[ Nt = k j]
se 0 j k-2, ento
k j 2 k j >1
Logo,
p j ,k ( t ) = P[ N t > 1] = 0( t )
Passo B. Mostrar que
dpk (t )
+ p k ( t ) = p k 1 ( t )
dt
Como visto em (5)
k
pk (t + t ) = p j (t ) p j ,k ( t )
j =0
assim
k 2
pk (t + t ) = p j (t ) p j ,k (t) + pk 1 (t ) pk 1,k (t) + pk (t) pk ,k (t )
j =0
p j , k ( t ) = 0( t ) 0 j k-2,
assim
k 2
pk (t + t ) = 0(t ) p j (t ) + pk 1 (t ) pk 1,k (t ) + pk (t ) pk ,k (t)
j =0
Lembrando que
p k ,k ( t ) = P [ N t = k k = 0 ] = 1 t + 0 ( t )
e que
p k 1 , k ( t ) = P [ N t = k k + 1 = 1] = t + 0 ( t )
tem-se que
k 2
pk (t + t ) = 0(t ) p j (t ) + pk 1 (t)t + pk 1 (t )0(t ) +
j =0
pk (t ) pk (t )t + pk (t )0(t )
Subtraindo pk(t) em ambos os lados, dividindo por t e
tomando o limite,
pk (t ) 0( t ) k 2
pk (t + t ) pk (t )
t
+
t j = 0
p j (t ) + pk 1 (t ) +
lim = lim
t 0 t t 0
0( t ) pk (t ) 0( t )
pk 1 (t ) t + t pk (t ) + pk (t ) t
dpk (t )
= pk (t ) + pk 1 (t )
dt
Passo C.
Para k=1:
dp1
+ p1 = p0
dt
t
mas, como provado anteriormente po = e
assim
dp1 t dp1 t
= p1 + e e + e t p1 =
dt dt
d
dt
[ ] [ ]
p1e t = d p1e t = dt
p1 (t ) = te t
k=2
dp2
+ p2 = p1
dt
mas, como visto, p1 (t ) = te t
assim
dp2 2 t dp2 t
= p2 + te e + e t p2 = 2 t
dt dt
d
dt
[ ] [ ]
p2 e t = 2 t d p2 e t = 2 tdt
(t ) 2 t
p2 (t ) = e
2
k=3 (idntico)
dp3
+ p3 = p2
dt
( t ) 2 t
mas, como vimos p2 (t ) = e
2
assim
dp3 ( t ) 2 t dp3 t t 3 2
t
= p3 + e e + e p3 =
dt 2 dt 2
3 2 3 2
d
dt
[t
p3e = ] 2
t t
d p3e =[ 2
t
dt]
( t ) 3 t
p3 (t ) = e
3!
Logo, por induo finita,
( t ) t
k
P[ N t = k ] = e
k!
E[Nt]=var[Nt]= t
Exerccio
Uma medio controlada realizada para avaliar um enlace de comunicao
de servios constatou, aps duas horas de transmisso, que
.
.
.
4
3 N(t)
2
1
t1 t2 tk t tk+1 t
Determinar a relao entre a funo distribuio de probabilidade do
tempo de chegada do k-simo evento, Tk, e a varivel aleatria de
contagem Nt :
P[Tk t ] = P[ N t > k 1] = 1 P[ N t k 1]
Escrevendo o resultado acima em termos das correspondentes
funes distribuio de probabilidade, tem-se que
FTk = 1 FN t ( k 1) (6)
Vlido para qualquer processo de contagem, desde que N0=0.
Vamos aplicar o resultado anterior ao caso do processo de
contagem de Poisson. Como visto
e t ( t ) j
P[ N t = j ] =
j!
FTk (t ) = 1 e t para t 0
j =0 j!
0 para t<0
Tempos entre chegadas
Tendo considerado os tempos de chegada Tk de um um processo
de contagem aleatrio {Ni, 0 t<+ }, vamos agora estudar algumas
das propriedades estatsticas dos intervalos entre sucessivos
tempos de chegada.
Z1 T1
Z k Tk Tk 1 ,para k=2,3,4,...
z1 z2 zk
0 t1 t2 tk-1 tk t
A seqncia de intervalos entre chegadas forma dessa forma um
processo aleatrio de parmetro discreto com varivel aleatria
contnua {Zk, k=1,2,3,...}.
P[ Z k > z] = 1 P[ Z k z] = 1 FZ k ( z)
Segue-se, da definio de intervalo entre chegadas, que o evento
[Zk>z] e [Tk - Tk-1>z] so equivalentes
P[ Ntk1+z Ntk1 = 0] = P[ Nz = 0]
Pode-se escrever:
M
t = m
m =1
Segue que:
M
k
m =1
m =k
P[ N1 = k1 , N 2 = k 2 ,..., N M = k M | N t = k ] =
P[ N1 = k1 , N 2 = k 2 ,..., N M = k M , N t = k ]
=
P[ N t = k ]
P[ N1 = k1 , N 2 = k 2 ,..., N M = k M ]
= (1)
P[ N t = k ]
Incrementos estacionrios e independentes, vem:
M
P[ N1 = k1 , N 2 = k 2 ,..., N M = k M ] = P[ N m = k m ] ( 2)
m =1
e m ( m ) km e t ( t ) k
P[ N m = km ] = e P[ N t = k ] =
km! k!
e m ( m ) k m
M
m =1 km!
P[ N1 = k1 , N 2 = k 2 ,..., N M = kM | Nt = k ] =
e t (t ) k
k!
M
( m ) km
e (1 + 2 +...+ M ) k1 + k2 +...+ k M
m =1 km!
=
e t k tk
k!
k! M ( m ) km
= k
t m =1 k m !
3 Passo:
Particionamento suficientemente bom apenas um evento
ocorra em cada subintervalo. Nesse caso, cada um dos k
subintervalos ter apenas um evento ocorrendo em sua
durao, ou seja:
( m ) k m = m e k m != 1
0
( m ) km
= =1
m e k m != 0! = 1
k! M ( m ) km
P[ N1 = k1 , N 2 = k 2 ,..., N M = kM | Nt = k ] = k
t m =1 k m !
k! k
P[t1 ( 1 ), t 2 ( 2 ),..., t k ( k ) | N t = k ] = k j (3)
t j =1
4 Passo:
k eventos ocorrem durante [0,t], o mesmo resultado pode
ser obtido assumindo que os tempos de chegada tj so as
estatsticas de ordem dos tempos de evento (ou tempos de
chegada no-ordenados).
Objetos #1 #2 L #i #k
L
Tempos
de Evento
u2 uk u1 ui t
L L L
Tempos
de Chegada
0 t1 t2 ti t j tk t
5 Passo:
1
k ,0 < u i t
fU1 ,U 2 ,...,U k (u1 , u2 ,..., uk | N t = k ) = t , i = 1,2,..., k
0, caso contrrio
k!
k ,0 < t j t
fT1 ,T2 ,...,Tk (t1 , t 2 ,..., t k | N t = k ) = t , j = 1,2,..., k (4)
0, caso contrrio
Tempos de chegadas no-ordenados
Retornando aos k subintervalos (j) da eq.(3), a
probabilidade de um T1 cair em um subintervalo (1), de
durao 1 , que T2 caia num subintervalo (2), de durao
2 , e assim sucessivamente dada pela distribuio
condicional conjunta escrita em (4), ou seja:
P[T1 ( 1 ), T2 ( 2 ),..., Tk ( k ) | N t = k ] =
k! k! k
L k
dt1dt 2 L dt k = k j
( K) ( 2) ( 1) t t j =1
Esse resultado idntico ao obtido em (3), completando a
prova.
Q.E.D
Processo de Poisson Filtrado
Definio
Suponha que um operador linear excitado aleatoriamente
por um processo de Poisson. O processo aleatrio que
descreve o fenmeno, [Xt , 0 t<+] pode ser escrito:
Nt
X t = h(t U j ) , onde
j =1
h(t U
j =1
j )
1
,0 < u t
fU j (u | N t = k ) = t , j = 1,2,..., k
0, caso contrrio
Ficando:
t
k k
1
E[ X t | N t = k ] = E[h(t U j )] = h(t u j ) du j
j =1 j =1 t 0
Fazendo u = t-uj :
t
k
E[ X t | N t = k ] = h(u )du ( 2)
t 0
Substituindo (2) em (1), chega-se esperana de Xt :
t t
1
E[ X t ] = h(u )du P[ N t = k ]k = h(u )du
t0 k =0 0
Q.E.D
Distribuio de Xt :
Nt
X t (v) = E[e ] = E exp iv h(t U j )
ivX t
j =1
Analogamente:
X (v) = P[ N t = k ]E[eivX | N t = k ]
t
t
k =0
em que:
k
E[e ivX t
| N t = k ] = E exp iv h(t U j )
j =1
k ivh ( t U j )
E[eivX t | N t = k ] = E e
j =1
[ ]
k
=E e
ivh ( t U j )
j =1
k
k t
1 ivh (t u j ) 1 ivh (u ) t
= e du j = e du
j =1 t 0 t 0
k =0
k k
e t
( t ) k
1 ivh (u )
t
1
t
X (v ) = e du = e e
t ivh ( u )
du
t
k =0 k! t 0 k = 0 k! 0
t
X t (v) = e exp e
t ivh ( u )
du
0
t ivh (u )
= exp e [ ]
1 du
0
Q.E.D
Processo de Poisson Generalizado {Nt, 0 t<+}
N0 0
c.
d. P[ N t + t N t > 1] 0 ( t )
Funo valor mdio do processo no homogneo de
Poisson:
Exemplo:
N (t )
X (t ) := Yi
i =1
Vrios usurios
Demanda aleatria
Servidor(es)
Tempo de atendimento aleatrio
A/B/m/K/M
O Processo Gaussiano
1 - Introduo
probabilidade.
Uma varivel aleatria
gaussiana somente se sua x
FX (x) = P ( X x) Fx(x)
x
=
f X ( x ) dx
+
X (v ) E [exp (ivx )] = 1
[ f X ( x)] = - f X ( x ) exp (ivx ) dx
v 2 2
X (v) = exp ivm
2
Determinao dos Momentos
EXEMPLO: Calcular o ensimo momento associado funo:
g(X) = Xn.
- Soluo atravs de fX(x):
+
E(X ) = f X ( x ) dx
n n
X
1 (x m k )2
f Xk (x) = exp 2
2 . k 2 k
Densidade de Probabilidade Conjunta Gaussiana
= exp -
k =1 2 . k 2 k
1 1 n x m
2
=
n
n
exp
-
2
k k
(2 ) 2 k k = 1 k
k =1
Utilizando a notao matricial para a equao apresentada, x, m e
podem ser definidos como:
x1 m1 12 0 ... 0
x m
0 22 ... 0
X 2 m x E [X ] = 2
... ... ... ... ... ...
x n 2
m n 0 0 ... n
1 1
f X (x) = 1 2
exp - ( X T m Tx ) 1 ( X m x )
( 2 ) n 2
2
Funo Caracterstica Conjunta
v1 m1 12 0 ... 0
v m
0 22 ... 0
V 2 m x E [X ] = 2
... ... ... ... ... ...
2
vn m n 0 0 ... n
v1
v
m Tx V = [m 1 m 2 ... m k ] 2 = m 1 v1 + m 2 v 2 + ... + m n v n
...
v n
e
12 0 ... 0 v1
0 22 ... 0 v2
V V = [v1 v2 ... vn ]
T
= v12 12 + v22 22 + ... + vn2 n2
0 0 ... ... ...
0 0 0 n2 vn
Pode-se dizer que
n n
mTx V = vk mk e V T V = vk2 k2
k =1 k =1
T 1 T
X (V ) = exp im x V V V
2
Um vetor randmico gaussiano X de dimenso n, cujas
componentes so variveis randmicas gaussianas
mutuamente independentes, tem como funo densidade
conjunta de probabilidade e funo caracterstica conjunta,
respectivamente:
1 1
f X (x) = 1 2
exp - ( X T m Tx ) 1 ( X m x )
( 2 ) n 2
2
1
X (V ) = exp imTx V V T V
2
Transformao Linear
Y 1 = g 11 X 1 + g 12 X 2 + ... + g 1n X n
Y 2 = g 21 X 1 + g 22 X 2 + ... + g 2n X n
...
Y m = g m1 X 1 + g m2 X 2 + ... + g mn X
Y = gX
n
m
Y1 ,Y2 ,...,Yn (u1 , u2 ,..., un ) = E exp i u jY j
j =1
T T 1 T T
Y (u ) = exp imx g u u gg u
2
= gg T
T
g11 g12 ... g1n 12 0 0 0 g11 g12 ... g1n
g
g22 ... g2 n 0 22 0 0 g21 g22 ... g2 n
gg = 21
T
... ... ... ... ... ...
... ... ... ... ... ...
g
m2 gm 2 ... gmn 0 0 0 n2 gm 2 gm 2 ... gmn
Porm, por definio, a matriz dada por::
11 12 ... 1 m
22 ... 2 m
21
... ... ... ...
m1 m2 ... mm
em que jk cov (Y j , Yk )
T 1 T
Y (u ) = exp imY u u u
2
A funo caracterstica conjunta de um vetor randmico Y tem
T 1 T T 1 T
X (V ) = exp im x V V V Y (u ) = exp imY u u u
2 2
A funo caracterstica conjunta para quaisquer vetores randmicos
T 1 T
Y (u ) = exp imY u u u
2
Ou,
m
[ ] cov (Y j , Y k ) u j u k
m m
1
Y1 ,Y 2 ,..., Y n (u 1 , u 2 ,..., u n ) = exp i E Y j u j -
j =1 2 j =1 k =1
Transformao Linear - Funo Densidade Prob. de Y
1 1 n n
f x1 , x 2 ,..., x n (x 1 , x 2 ,..., x n ) =
( 2 ) n 2
1 2
exp -
2
j =1 k =1
jk ( x j m j )( x k m k )
1 1
f X (x) = 1 2
exp - ( X T m Tx ) 1 ( X m x )
( 2 ) n 2
2
T 1 T
X (V ) = exp im x V V V
2
2. A funo caracterstica conjunta de um vetor aleatrio Y tem
exatamente a mesma forma da funo caracterstica conjunta do
vetor randmico X, quando Y definido como a transformao
linear de X e quando os componentes de X so variveis randmicas
gaussianas mutuamente independentes.
T 1 T T 1 T
X (V ) = exp im x V V V Y (u ) = exp imY u u u
2 2
3. A funo densidade conjunta de probabilidade e a funo
1 1 T
f Y (y) = 1 2
exp - (Y m YT ) 1 (Y m Y )
( 2 ) n 2 2
T 1 T
Y (u ) = exp imY u u u
2
Processo Aleatrio Gaussiano
{Yt , t T}
As funes caractersticas do vetor aleatrio
Ento:
K y (t , t' ) = K y (t - t' )
ou
n
1 n n
i m *v j K y (t j t k ) v j vk
Yt 1 , Yt 2 , ... (v1 , v 2 , ... , v n ) = e
j =1
2 j =1 k =1
{Yt }
processo gaussiano randmico estacionrio
no sentido amplo. translao dos instantes de
tempo t1 , t 2 ,..., t n pela mesma quantidade
A funo caracterstica conjunta das novas variveis
Yti + , j = 1,2,..., n
n
1
n n
i m*v j ( )
K y t j + t k - v j vk
Yt1+ , Yt 2+ , ... , Yt + (v1 , v2 , ... , vn ) = e
j=1
2 j =1 k =1
n
n
1
n n
i
m*v j
2 ( )
K y t j t k v j vk
=e j=1 j =1 k =1
x(t ) = An cos(wn t + n ) = (2S ' ( f ) ) cos(w t + )
n f n n
n =1 n =1
2
An
em que, 2S ' dado por: S'= An = 2 S '
2
xc (t ) = (2S ' ( f ) ) cos[(w
n f n wc )t + n ]
n =1
xs (t ) = (2S ' ( f ) ) sen[(w
n f n wc )t + n ]
n =1
Formas de Onda de faixa-estreita
Uma funo do tempo X(t) dita ser uma forma de onda de banda
estreita se a regio sobre a qual o espectro de frequncia.
i*2* * f *t
X(f ) = x (t ) * e dt
f o >> f
A forma de onda de faixa estreita vista em um osciloscpio
aparece mais ou menos como uma onda senoidal com uma
funo envoltria variando lentamente e uma funo de fase
tambm variando vagarosamente.
Pode-se escrever:
a frequncia aparente.
Uma representao alternativa
x(t ) = v(t ) * cos[ o t + (t )]
resultando
1 xs (t )
v(t ) = (x
2
(t ) + xs2 (t )) e ( )
t = tan
xc (t )
c
Formas de Onda de faixa estreita
Decomposio:
1. Processo Aleatrio de Faixa Estreita
Sendo f0 >> f
Estender o estudo de banda estreita para processos
aleatrios.
1) um mdulo de processo
{Vt, -<t<+ } e
2) um processo de fase
{t, -<t<+ },
usando a relao:
Xt = Vt Cos(wot + t) com wo=2fo.
Alternativa:
em termos de seus componentes seno e cosseno
{Xct, -<t<+ },
{Xst, -<t<+ }, respectivamente.
usando a relao:
Xt = Xct Cos wot - Xst Sen wot.
2 2
V t
= X ct
+ X st
1 X st
t = tan
X ct
Mdulo, fase, componente cosseno e componente seno so
independncia!
1 x2 + y2
f xct , xst ( x, y ) = exp
2 Rx (0) 2 R x ( 0)
Densidade de probabilidade do mdulo e fase:
1 X st
t = tan
2 2
V t
= X ct
+ X st
X ct
Concluso: o mdulo e a fase das variveis so estatisticamente
independentes com densidade de probabilidade dada por:
v v2
exp , para 0 v
f vt ( v ) = R x ( 0 ) 2 R x (0 )
0 Caso Contrrio
1
, para 0 2
f t ( ) = 2
0 Caso Contrrio
FECHO
Este curso procurou revisar e apresentar conceitos
fundamentais da Teoria de Probabilidade e de
Processos Estocsticos.