Sie sind auf Seite 1von 21

6.

Mdia, Varincia, Momentos e Funo Caracterstica


A funo densidade de probabilidade de uma v.a X, f X (x).
representa uma informao complete a respeito da v.a. X e
e de todo subconjunto B mapeado sobre o eixo- x
P ( X ( ) B ) =

f X ( x )dx.

Se desejado representar-se alguma informao mais (6-1)


detalhada ou caracterizar, por exemplo, o comportamento
mdio de uma v.a. X, ento necessrio introduzir neste
contexto dois importante parmetros que so: mdia e
varincia, que so usados para caracterizar todas as
propriedades de uma v.a. X e de sua funo densidade de
probabilidade, f X (x).
1

A Mdia ou Valor Esperado de uma v.a. X definido


+
como:
X = X = E ( X ) = x f X ( x )dx.

Se X uma v.a. do tipo discreta, ento


X = X = E ( X ) = x pi ( x xi )dx = xi pi ( x xi )dx
i

$!#
! !"
!
1

= xi pi = xi P( X = xi ) .
i

Portanto, a mdia representa o valor de uma v.a. mais


provvel de ocorrer, quando um nmero muito grande de
um dado experimento repetido. Por exemplo, se X uma
v.a. uniformemente distribuda no intervalo (a,b), o valor
mdio dado por:
E( X ) =

2 b

x
1 x
dx =
ba
ba 2

b2 a 2
a+b
=
=
2(b a )
2

Por outro lado, se X exponencial com parmetro , ento:


E( X ) =

x /

dx = ye y dy = ,

Se X v.a. de Poisson com parmetro , ento


k

E( X ) =

kP ( X

= k) =

k =0

= e
k =1

k!

k =0

ke

( k 1)!

= e
i =0

i
i!

=e

k
k =1

k
k!

= e e = .

Para uma v.a. X com f.d.p. binomial:


n
n k n k
n!
E ( X ) = kP ( X = k ) = k p q = k
p k q n k
( n k )!k!
k =0
k =0 k
k =1
n
n 1
n!
( n 1)!
k n k
=
p q = np
p i q n i 1 = np ( p + q) n 1 = np.
k =1 ( n k )!( k 1)!
i =0 ( n i 1)!i!
3
n

Quando X uma v.a. gaussiana,


E( X ) =
=

1
2
1

xe

( x ) 2 / 2 2

dx =

y 2 / 2 2

dy +
$!ye
!#!!
"

2
1

( y + )e

y 2 / 2 2

y 2 / 2 2

e
dy = .
!!#!!!"
$2!
2

Se Y = g ( X ) representa uma nova v.a. com f.d.p. fY ( y). ,


ento o valor mdio de y dado por:

Y = E (Y ) =

y fY ( y )dy.

Mas, para calcular E (Y ), necessrio determinar fY ( y).


Relembrando que, para qualquer y,
P( y < Y y + y ) = P(xi < X xi + xi ) ,

y > 0

onde xi representa as mltiplas solues de y = g ( xi ).

dy

Pode -se escrever que fY ( y )y = f X ( xi )xi ,


i
onde (xi , xi + xi ) so intervalos que no se sobrepe, ento
y fY ( y )y = y f X ( xi )xi = g ( xi ) f X ( xi )xi ,
i

Ento fazendo y 0, tem-se:


E (Y ) = E (g ( X ) ) =

y fY ( y )dy =

g ( x ) f X ( x )dx.

Para o caso discreto a expresso reduz-se a:


E (Y ) = g ( xi )P( X = xi ).
i

Exemplo: Se X uma v.a. de Poisson, determine o valor


mdio de Y = X 2 .
E(Y ) = E( g ( X )) = E( X 2 )
5

k =0

k =0

E (X 2 ) = k 2 P ( X = k ) = k 2 e
=e

k
k!

= e k 2

k (k 1)! = e (i + 1)
k =1

i =0

k =1

k
k!

i +1
i!

i
i
i

= e i + = e i + e
i =0 i! i =0 i!
i =1 i!


i
m +1



= e
+ e = e
+ e
i =1 (i 1)!

m =0 m!

= e (e + e ) = 2 + .

Em geral, E (X k ) conhecido como o k-simo momento da


v.a. X.
E(X 2 ) = 2 + o segundo momento da v.a. de Poisson.
6

A mdia sozinha no caracteriza totalmente a f.d.p. de uma


v.a.. Para ilustrar este fato, considere duas variveis
aleatrias gaussianas, X1 ~ N (0,1) e X 2 ~ N (0,10), isto ,
ambas tem mdia = 0, no entanto suas f.d.p.s so
diferentes, como pode ser visto na figura abaixo. Uma
mais concentrada torno da mdia, enquanto a outra mais
dispersa. Claramente, h necessidade de um outro
parmetro para caracterizar as f.d.p.s das varivel
aleatrias X1 e X2 . O parmetro que caracteriza essa
disperso em torno da mdia chama-se varincia.
f X 1 ( x1 )

f X 2 ( x2 )

x1
(a) 2 = 1

x2
(b) 2 = 10

Para uma v.a. X com mdia , X representa o


desvio da v.a. em relao mdia. Uma vez que esse desvio
pode ser positivo ou negativo, considera-se ento ( X ) 2 ,
cujo valor esperado E[( X ) 2 ] representa o valor mdio
quadrtico dos desvios em torno da mdia. Definindo

= E[( X ) 2 ] > 0.
2
X

e considerando que g ( X ) = ( X )2 tem-se:


2

= ( x )2 f X ( x )dx > 0.
X

2 conhecido como a varincia da v.a. X, e a sua raiz


quadrada X = E( X )2 conhecido como desvio padro
de v.a. X. Assim o desvio padro est relacionado com a
raiz quadrada do espalhamento de uma v.a. em torno da
8
mdia ..
X

Expandindo a equao e usando a propriedade da


linearidade tem-se:
Var( X ) =
=

2
X

(x

2 x + 2 ) f X ( x )dx
+

x f X ( x )dx 2 x f X ( x )dx + 2

= E (X

= E (X

) [E ( X )]

___
2

=X X .

Que pode ser usado como outra alternativa para calcular 2 .


X

Assim, por exemplo, retornando v.a. de Poisson, pode-se


calcular a varincia da v.a. X.
___
2

= X X = (2 + ) 2 = .
2

Assim, para a v.a. de Poisson, a mdia e a varincia so


ambas iguais ao parmetro .

Determinao da varincia de uma varivel aleatria com


distribuio normal N ( , 2 ),
2

Var ( X ) = E[( X ) ] =

(x )

( x ) 2 / 2 2

dx.

Para simplificar, pode-se usar a identidade


+
+
1
( x ) 2 / 2 2
f X ( x )dx =
e
dx = 1

2 2
Ento,

( x ) 2 / 2 2

dx =

2 .

Diferenciando ambos os lados da equao a , tem-se:


2
+ ( x )
( x ) / 2
e
dx = 2
3
+
ou
1
2
( x ) 2 / 2 2
2
(
)
x

e
dx
=

,

2 2
10
Portanto: Var( X ) = 2
2

Momentos: o momento de uma v.a. X definido como:


___
n

mn = X = E ( X n ),

n 1

e n = E[( X )n ] conhecido como momento central da


v.a. X (momento em relao a mdia). Assim = m1e 2 = 2 .
Relao entre n e mn
n n k
n
n k
n = E[( X ) ] = E X ( )
k =0 k

n
n
n
k
n k
n k
(
)
=
E
X
(

)
=
m
(

)
.

k
k k
k =0
k =0

Em geral a quantidade E[( X a )n ] conhecida como


n

momento generalizado de X em relao a a e E[| X |n ]


conhecida como momento absoluto de X.

11

Caso particular: Varivel aleatria gaussiana X N (0, 2 ),


0,
n mpar,

E ( X ) =
n
1

3
!
(
n

1
)

, n par.

3
!
(
n

1
)

,
n par,

n
E (| X | ) = k
2 k! 2k +1 2 / , n = (2k + 1), n mpar.

Funo Caracterstica

A funo caracterstica de uma v.a. X definida como:

X ( ) = E (e

jX

)=

e jx f X ( x )dx.

Assim X (0) = 1, X ( ) 1 para todo .


Para variveis aleatrias discretas a funo caracterstica da
v.a. X dada por:
12
( ) = e jk P( X = k ).
X

Funo caracterstica: Exemplos


Varivel aleatria discreta com distribuio de Poisson.

X ( ) = e jk e
k =0

j k
(

e
)

e j
( e j 1)
=e
=e e
=e
.
k!
k!
k =0

Varivel aleatria discreta com distribuio binomial


n
n

n
jk
k n k
X ( ) = e p q = ( pe j )k q n k =( pe j + q)n .
k =0
k =0 k
k
n

Varivel aleatria uniforme X~U(a, b).


b
1
1
jx
X () = e
dx =
(e jb - e ja )
a
ba
j (b a)
Se X uniformemente distribudo no intervalo (-a, a).
1
sen(a )
ja
ja
X ( ) =
(e e ) =
13
j 2a
a

Funo caracterstica de uma v.a. gaussiana X ~ N ( , 2 ),


X ( ) =
=e

1
2

jx

( x ) 2 / 2 2

jy y 2 / 2 2

dy = e

dx (fazendo x = y )
j

1
2

y / 2 2 ( y j 2 2 )

dy

(fazendo y j 2 = u tal que y = u + j 2 )


=e

2 2

X ( ) = e

e ( u + j

)( u j 2 ) / 2 2

du

j 2 2 / 2

1
2 2

e u

/ 2 2

du = e ( j

2 / 2)

Se X uma varivel aleatria Gaussiana com mdia zero e


varincia 2 , a funo caracterstica dada por:

X ( ) = e

2 2 / 2

f X ( x) =

1
2

x 2 / 2 2
14

A funo caracterstica de uma varivel aleatria tambm


chamada de funo geradora de momentos. Para ilustrar esta
propriedade, considere a representao em srie de X () .
( jX )k k E ( X k ) k
X ( ) = E (e ) = E
=j

k! k =0
k!
k =0
2
k
2 E( X )
2
k E( X )
= 1 + jE ( X ) + j
+!+ j
k + !.
2!
k!
jX

Tomando-se a primeira derivada com relao a , no ponto


=0

X ( )
1 X ( )
= jE ( X ) or E ( X ) =
.
=0
j =0

Similarmente, para a segunda derivada


2
1

X ( )
2
E( X ) = 2
,
2
j

=0

15

Repetindo este procedimento k vezes obtm-se o k-simo


momento de X, ou seja:
k
1

X ( )
k
E( X ) = k
, k 1.
k
j

=0

Clculo da mdia e da varincia de uma v.a. X com

(
e
1)
distribuio de Poisson. X P( ).
X ( ) = e
j

X ( )
e j
= e e je j ,

E( X ) =

1 X ( )
=
j =0

2 X ( )

e j
j 2
e j
2 j
=
e
e
(

je
)
+
e

j
e ,
2

2
1

X ( )
1 2 2
2
2
2
E( X ) = 2
=
(
j

+
j

)
=

+
2
2
j

j
=0

Mas,

2 = E(X 2 ) E(X)2 = 2 + 2 =

16

Varivel aleatria com distribuio binomial


Funo caracterstica:

X ( ) = ( pe j + q) n

X ( )
= jnpe j ( pe j + q)n 1

E( X ) =

1 X ( )
= np
j =0

2 X ( )
2
j
j
n 1
j 2
j
n 2
(
)
=
j
np
e
(
pe
+
q
)
+
(
n

1
)
pe
(
pe
+
q
)
2

2
1

2
2 2
X ( )
(
)
E( X ) = 2
=
np
1
+
(
n

1
)
p
=
n
p + npq.
2
j

=0

X2 = E ( X 2 ) E ( X ) 2 = n 2 p 2 + npq n 2 p 2 = npq.

17

Em alguns casos, a mdia e a varincia pode no existir. Por


( / )
exemplo, considere uma v.a. de Cauchy: f ( x ) = + x ,
X

E( X ) =

x2

dx
=
2 + x 2

E( X ) =

x
2 + x 2 dx. Avaliando o lado direito da integral:

2
1 2 + x 2 dx = ,
+

x
0 2 + x 2 dx. fazendo x = tan
+
/ 2 tan
/ 2 sin
x
2
0 2 + x 2 dx = 0 2 sec2 sec d = 0 cos d
/ 2 d (cos )

/2
=
= log cos 0 = log cos = ,
0
cos
2
+

Como as integrais no convergem a mdia e a varincia so


indefinidas.
Ser visto em seguida um limitante que estima a disperso da
18
v.a. centrado em torno da mdia.

Desigualdade de Chebychev
Considere um intervalo de largura 2 simetricamente
centrado em torno da mdia com mostrado na figura.
Qual a probabilidade de X ser encontrado fora deste
intervalo?
Ou seja P(| X | ) ?

Tomando-se a definio de varincia


+

= E [( X ) ] = ( x )2 f X ( x )dx
2

|x |

2 f X ( x )dx 2

|x |

|x |

( x )2 f X ( x )dx

f X ( x )dx 2 P ( | X | ) .

2
Portanto: P( | X | ) 2 , (desigualdade de Chebychev)

19

2
P( | X | ) 2 ,

Observe que, para calcular a probabilidade,


no h necessidade de se conhecer fX(x). necessrio
conhecer somente a varincia 2 , da v.a. X. Em particular,
se = k , ento:
1
P ( | X | k ) 2 .
k

Se k=3, a probabilidade da v.a. X ser encontrada fora do


intervalo 3 em torno de sua mdia de 0,111 para
qualquer v.a. Obviamente que este limite no deve ser
rigoroso quando se inclui todas as v.a.s . Por exemplo para
uma v.a. gaussiana com ( = 0, = 1) tem-se:
P( | X | 3 ) = 0.0027.

Que muito mais estreito do que o limitante dado pela


desigualdade de Chebychev.
20

Assim com k = 3, estima-se que a probabilidade de X se


encontrar for a do intervalo de 3 em torno de sua mdia
igual 0.111 para uma dada v.a. Obviamente que isto no
pode ser que inclui todas as v.as. por exemplo, no caso de
uma v.a. Gaussiana, tem-se (Table 4.1)
( = 0, = 1)

P( | X | 3 ) = 0.0027.

(6-57)

Que mais do que aquele dado em (6-56). A desigualdade


de Chebychev sempre subestima a probabilidade.

21

Das könnte Ihnen auch gefallen