Sie sind auf Seite 1von 48

CONCEITOS BÁSICOS

1) Experimento Aleatório é um experimento no qual:


i) todos os possíveis resultados são conhecidos;
ii) resulta num valor desconhecido, dentre todos os resultados
possíveis;
iii) pode ser repetido em condições idênticas.
2) Espaço Amostral é o conjunto de todos os resultados possíveis para
um experimento aleatório.
É denotado por .
Pode ser:
- Discreto  Finito: formado por um conjunto finito de pontos;
Infinito: conjunto infinito e enumerável de pontos;
- Contínuo  formado por um conjunto Não Enumerável de
pontos.

3) Um Evento é um subconjunto de , associado a um experimento.


É denotado por letras maiúsculas: A, B, E, . . .

4) Um Evento Complementar: denotado por Ac é o complementar de A


em relação a , ou seja, Ac  A = .
5) Dois eventos A e B são mutuamente exclusivos, ou disjuntos, se
A  B = .

Exemplos:
Um dado equilibrado é lançado e seu número observado.
O espaço amostral é:  = { 1, 2, 3, 4, 5, 6 }.
Sejam
A = O número observado é menor ou igual a 4, então, A = { 1, 2, 3, 4 }
B = O número observado é par, B = { 2, 4, 6 }
C = O número observado é ímpar, C = { 1, 3, 5 }
Então, temos
A  B = { 2, 4 } e A  C = { 1, 3 }
B  C =   B e C são disjuntos
Bc = C, pois B  C = 

6) Evento elementar
Seja o espaço amostral  = { 1, 2, ..., N }, em que i, i = 1, 2, ...,
N , são resultados elementares.
Um evento é dito elementar se é formado por um resultado
elementar, ou seja:

Ai = { i }, i = 1, 2, ..., N.
obs: note que o evento elementar é dado por um subconjunto unitário.
No lançamento de um dado equilibrado:
A1 = { 1 }, A2 = { 2 }, A3 = { 3 }, A4 = { 4 }, A5 = { 5 }, A6 = { 6 } são
eventos elementares.

Assim sendo, temos que: A1  A2  A3  A4  A5  A6 = 


6
Ou seja:  A i  Ω .
i 1

Exemplos:
a) Experimento: numa linha de produção, conta-se o número de
peças com defeito, por lote;

A = { 0, 1, 2, . . . , N }, N = tamanho do lote
Eventos:
A1 = todas as peças são boas  A1 = { 0 }
A2 = no máximo cinco peças com defeito  A2 = { 1, 2, 3, 4, 5 }
b) Experimento: Numa indústria são contados os itens produzidos até
a ocorrência de um item defeituoso;

B = { 1, 2, 3, 4, . . . }, ou ainda B = N*, N* = N – { 0 }

Eventos:
B1 = o item defeituoso ocorre até a 10ª peça produzida
 B1 = { 1, 2, 3, 4, 5, 6, 7, 8, 9, 10 }
B2 = são produzidas no mínimo 200 peças antes do item defeituoso
 B2 = { X  N* | X > 200 }

c) Experimento: Uma lâmpada é fabricada e, num ensaio, é anotado


o tempo (semanas) até que ela se queime;

C = { t  R | t  0 }

Eventos:
C1 = a lâmpada queima antes de completar 720 horas (4 sem.)
 C1 = { t < 4 }
C2 = a lâmpada dura pelo menos 1 ano (52 semanas)
 C2 = { t  R | t  52 }

7) Medida de Probabilidade: Seja um evento A associado a um espaço


amostral , então a probabilidade de ocorrência de A é dada por

medida de A
P A  
medida de Ω

As medidas de A e de  são bem definidas e estando associadas às


suas dimensões.
7.1) Probabilidade em Espaços Finitos: seja A um evento associado a
um espaço amostral finito , então

número de pontos, em Ω, favoráveis a A card(A)


P A    ,
número total de pontos em Ω card(Ω)

card(.) = função cardinalidade = número de elementos do conjunto.

PA  é a probabilidade de ocorrência do evento A e deve satisfazer:


a) 0  PA   1;
b) PΩ  1;
c) Se A e B são disjuntos, então, PA  B  PA   PB.

7.2) Probabilidade como frequência relativa: sejam o evento A


associado a um experimento E. Suponha que E seja repetido n vezes e
seja nA o número de ocorrências de A.
A frequência relativa de A é dada por:
nA
fA  , 0  f A  1.
n
Se n for grande, então f A se aproxima da probabilidade de
ocorrência de A, ou seja,
lim f A  P( A) .
n 

7.3) Resultados igualmente prováveis: se num espaço amostral finito


os eventos elementares têm todos a mesma probabilidade, então
dizemos que são igualmente prováveis.

Seja pi , i = 1, 2, . . . , N, a probabilidade de ocorrência do i-ésimo


evento elementar, então:
1
p1  p2    pN  , N  card(Ω)
N

obs: nesse caso dizemos que o espaço amostral é uniforme.

7.3) Propriedades de Probabilidade

i) Se  é o espaço vazio, então P() = 0 e, consequentemente,


P() = 1;

ii) Se Ac é o evento complementar de A, então P( Ac )  1  P( A)

iii) Se A e B são eventos quaisquer, então


P(A  B)  P(A)  P(B)  P(A  B)

iv) Se A e B são eventos tais que A  B, então


− P( A)  P(B) ;
− A  B  A  P( A  B)  P( A) ;
− A  B  B  P( A  B)  P(B) .

8) Métodos de Contagem
i) Permutação: quando temos de permutar n elementos em n
posições diferentes
Pn,n  n! n! n(n  1)(n  2) 1, n! é o fatorial de n

ii) Arranjo: quando, de um total de n elementos, devemos tomar k


destes elementos e permutá-los
n!
A n, k   n(n  1)( n  2)  (n  k  1) .
(n  k )!
iii) Combinação: quando temos de escolher k, dentre n elementos
distintos, sem considerar a ordem

n n! A n, k
Cn, k   ; note que Cn, k  .
 
k k ! ( n  k )! Pk , k

9) Probabilidade Condicional e Independência: sejam A e B eventos


quaisquer tais que PA   0 , então a probabilidade de B
condicionada ao evento A é definida por

P (B  A )
P (B | A )  .
P( A)

Lê-se: probabilidade de B dado A.

Nota: os eventos A e B são independentes se: P(B | A)  P(B) .

9.1) Regra Multiplicativa das Probabilidades: da probabilidade


condicional podemos escrever a probabilidade conjunta de A e B por
− P( A  B)  P(B | A) P( A)
ou
− P( A  B)  P( A | B) P(B)

E, se A e B forem independentes, então


− P( A  B)  P( A) P(B) .
Exemplos:
I) Considere as informações da qualidade de um produto pela região de
procedência. O produto foi classificado como tipos A e B, sendo o tipo A
de melhor qualidade.
Região
Qualidade Total
S SE CO
Tipo A 22 118 54 224
Tipo B 23 42 11 76
Total 75 160 65 300

Se um fornecedor é sorteado ao acaso para verificação, qual é a


probabilidade de que:
a) Seja de qualidade Tipo A?
224
P(A)   0.7467
300
b) Seja procedente da região S?
75
P(S)   0.25
300
c) Seja de qualidade Tipo B e da região CO?
11
P(B  CO)   0.0367
300
d) Seja da região S ou de qualidade Tipo A?
75  224  52 247
P(A  S)    0.8233
300 300
e) Sabendo que o fornecedor escolhido é da região SE, qual a
probabilidade de que seja de qualidade do Tipo B?
42 / 300 42
P(B | SE)    0.2625
160 / 300 160
f) Se a amostra não é de região S, qual é a probabilidade de que seja
de qualidade do Tipo A?
P[( A  SE)  (A  CO)]
P[A | (SE  CO)] 
P(SE  CO)
(118  54) / 300 172
P[A | (SE  CO)]    0.7644
(160  65) / 300 225

II) Um aluno responde a um teste de múltipla escolha com quatro


alternativas, sendo uma só correta. A probabilidade de que saiba a
resposta é de 30%. Se ele não sabe a resposta, vai “chutar”.
Definindo: A = o aluno acerta a questão e S = o aluno sabe a resposta.
a) Qual a probabilidade dele acertar a questão?
P(A) = P(acertar sabendo ou acertar chutando)
P(A) = P(acertar sabendo) +P(acertar chutando)
P(A) = P(A | S) P(S) + P(A | Sc) P(Sc)
P(A) = (1.0)(0.3) + (0.25)(0.7) = 0.475

b) Se ele acertou a questão, qual é a probabilidade de que ele realmente


saiba a resposta?
P(S  A) 0.3
P(S | A)    0.632
P(A) 0.475
** Esse resultado é conhecido como “teorema de Bayes”.
10) Teorema de Bayes

10.1) Partição: os eventos E1, E2, . . ., Ek, são uma partição de  se:

i) Ei  Ej = ,  i  j, i, j = 1, 2, . . ., k;

ii) E1  E2  . . .  Ek = 

Seja um evento A ocorrendo sobre a partição de .

A
Assim, podemos escrever A como sendo:
A  (A  E1)  (A  E2 )  (A  E3 )  (A  E4 )  (A  E5 )

k
ou ainda: A   ( A  Ei ) .
i 1

Então, a probabilidade de ocorrência de A é calculada por:


k  k k
P( A)  P   ( A  Ei )   P( A  Ei )   P( A | Ei )P(Ei )
i 1  i 1 i 1

O resultado acima é conhecido como lei da probabilidade total.

10.2) Teorema de Bayes: considerando a partição de  e sabendo que


ocorreu o evento A, a probabilidade de que tenha ocorrido uma parcela
específica EJ da partição é dada por
P (E J  A ) P ( A | E J ) P (E J )
P (E J | A )   , J = 1, 2, . . ., k.
P( A) P( A)

Podemos, ainda escrever o resultado acima como:


P ( A | E J ) P (E J )
P (E J | A )  k
, J = 1, 2, . . ., k.
 P( A | Ei ) P(Ei )
i 1

Esse resultado se deve ao Revendo Inglês Thomas Bayes num


trabalho seu publicado em 1763, e recebe o seu nome em sua
homenagem.
Os exemplos a seguir são para resolver em sala

III) Um levantamento nas estradas mostra que 75% dos acidentes


ocorrem por imprudência do motorista, 5% por defeito na pista ou falha
na sinalização e o restante por falha mecânica no veículo. O índice de
casos fatais nos acidentes é de 9%, 5% e 3%, respectivamente.

a) Se um acidente é registrado, qual é a probabilidade de que haja uma


vítima fatal?
b) Se uma morte acontece num acidente, qual a probabilidade de que
seja por falha na pista? E por imprudência?

IV) O Neymar do Santos e o Ronaldo do Corinthians resolveram fazer


uma disputa de pênaltis. O Neymar só acertou 30% dos últimos pênaltis
cobrados e o Ronaldo 88%. Cada um tem uma única cobrança e o
Marcos do Palmeiras é o goleiro. Qual a probabilidade de que:
a) Ambos acertem as cobranças?
b) Só o Ronaldo acerte?
c) Apenas um deles acerte?

IV) Num processo de produção de placas eletrônicas, o índice de


defeitos é de 1%. Sabendo que as peças são produzidas
independentemente umas das outras:
a) Qual é a probabilidade de que a primeira placa com defeito seja
exatamente a quinta a ser produzida?
b) Existe uma norma na empresa que diz que “se a primeira placa
defeituosa for produzida antes e que a 11ª placa tenha sido produzida,
então o processo deve ser ajustado”. Qual a probabilidade de que o
processo precise ser ajustado?
c) Qual a probabilidade de que a primeira placa defeituosa ocorra
apenas após a 20ª peça ter sido produzida?
Variáveis Aleatórias
Definição:
Uma variável aleatória v.a. é uma função que associa elementos do
espaço amostral a valores numéricos, ou seja, X :  → I , em que I  .
Esquematicamente:

As variáveis aleatórias são classificadas em dois tipos:

VA discreta: é aquela para a qual o conjunto I é um conjunto finito ou


infinito enumerável
Exs.: I = {1, 2, 3, 4, 5, 6}, I = N = {0, 1, 2, 3, 4,.......∞}, etc.
VA contínua: é aquela para a qual o conjunto I é um conjunto infinito não
enumerável, ou seja, é uma v.a. que assume valores em intervalos de
números reais
Exs.: I =  = (−∞,∞), I = [0,1]   , etc.

Notas: Para v.a.’s contínuas, a função que normalmente associa pontos


de  ao conjunto I  , é a função identidade;
Para v.a.’s discretas, a função que normalmente associa pontos
de  ao conjunto I  , é uma contagem ou soma.
Exemplo: Três jogadores A, B e C cobram um penalti cada um
(independentemente) e marcam o gol com probabilidades 90%, 88% e
85%, respectivamente.
a) Quais os resultados possíveis?
b) Como definir uma v.a.?
c) Como associar probabilidade a essa uma v.a.?
Sejam os eventos A = o jogador A marca o penalti, B = o jogador B marca
o penalti e C = o jogador C marca o penalti.

a)  =  ABC, AcBC, ABcC, ABCc, AcBcC, AcBCc, ABcCc, AcBcCc  é o espaço


amostral.

b) Temos pelo menos duas formas para definir uma variável aleatória
para esse caso:
(i) X1 = número de gols marcados nas três cobranças ou
(ii) X2 = número de gols perdidos nas três cobranças.

Vamos considerar X = número de gols marcados nas três cobranças


X(ABC) = 3
X(AcBC) = X(ABcC) = X(ABCc) = 2
X(AcBcC) = X(AcBCc) = X(ABcCc) = 1
X(AcBcCc) = 0

 Vamos simplificar a notação para os possíveis valores da v.a.:


X(ABC) X=3
X(AcBC) = X(ABcC) = X(ABCc) X=2
X(AcBcC) = X(AcBCc) = X(ABcCc)  X = 1
X(AcBcCc) X=0

Assim pode-se escrever:


P(X = 3) = P(ABC) = 0.900.880.85 = 0.6732
P(X = 2) = P(AcBC  ABcC  ABCc) = 0.2854
P(X = 1) = P(AcBcC  AcBCc  ABcCc) = 0.0396
P(X = 0) = P(AcBcCc) = 0.0018
Normalmente reperentam-se os valores numa tabela com a
distribuição das probabilidades, chamada de função de probabilidade:

Tabela: Função de probabilidade da v.a.


X = gols marcados nas 3 cobranças.
Valores da v.a. X Probabilidades
0 0.6732
1 0.2854
2 0.0396
3 0.0018
Função de probabilidade de uma v.a. discreta

A função que associa probabilidades aos possíveis valores de uma v.a.


discreta X, é chamada de função de probabilidade (fp) ou função massa
de probabilidade (fmp), sendo representada por:

p(x) = P(X = x), x  I,

I = conjunto dos possíveis valores de X.

Propriedades:
a) 0  p(x)  1;

b)  p ( x)  1.
xI

Exemplos:
a) No exemplo dos 3 jogadores, temos I = { 0, 1, 2, 3 } e:
x p(x)  função que associa
0 0.0018 probabilidades à v.a.
1 0.0396 número de gols
2 0.2854 narcados nas 3
3 0.6732 cobranças de penaltis.

b) Uma indústria que produz placas para componentes eletrônicos, usadas


na fabricação de celulares, afirma que no processo de produção dessas
placas, 1% sai com defeito nas furações. Considerando que na inspeção
dessas placas, 10 unidades são selecionadas aleatoriamente e avaliadas,
i) Defina uma variável aleatória para esse caso.

Qual é a probabilidade de que a inspeção encontre:


ii) exatamente uma placa com defeito?
iii) pelo menos uma placa com defeito?
iv) no máximo três placas com defeito?
Escrevendo as probabilidades em termos da v.a.:

a) Seja a v.a. X = número de itens com defeito encontrados na


inspeção de n = 10 placas.
Então, temos que I = { 0, 1, 2, 3, 4, 5, 6, 7, 8, 9, 10 }, ou seja

p(x) = P(X = x), em que x  { 0, 1, 2, 3, 4, 5, 6, 7, 8, 9, 10 }.

b) Probabilidade de que a inspeção encontre exatamente uma placa


defeituosa: P(X = 1).
Se o índice de placas com defeitos na produção é de 1%, então, uma
placa tem probabilidades 0.01 de ser defeituosa e 0.99 de ser boa.

Sendo D = placa com defeito e b = placa boa, temos que


b/D D b b b b b b b b b
prob. 0.01 0.99 0.99 0.99 0.99 0.99 0.99 0.99 0.99 0.99
item 1 2 3 4 5 6 7 8 9 10

Assim, a probabilidade de que a inspeção encontre exatamente uma


placa defeituosa, senda esta a primeira é igual a: (0.01)(0.99)9
Como a placa com defeito pode ser a primeira placa ou a segunda ou a
terceira . . . ou a décima, então temos dez vezes essa probabilidade, i.e.:
10 
P(X = 1) = 10(0.01)(0.99)9 =   (0.01)1(0.99)9 = 0.09135
1

c) Se a inspeção encontrar pelo menos uma placa com defeito, então,


pode ser uma placa com defeito ou duas ou três . . . ou as dez.
Portanto, a probabilidade da inspeção encontrar pelo menos uma
placa com defeito é dada por:
10
P(X  1) =  P( X  x)  P(X = 1) + P(X = 2) + ...+ P(X = 10).
x 1
Mas, utilizando o evento complementar, podemos escrever essa
probabilidade como sendo um menos a probabilidade de que todas as
placas sejam boas, ou seja:
P(X  1) = 1 – P(X = 0) = 1 – (0.99)10 = 0.09562

d) A probabilidade da inspeção encontrar no máximo três placas com


defeito é escrita como:
P(X  3) = P(X = 0) + P(X = 1) + P(X = 2) + P(X = 3).

Em que:
10 
P(X = 0) =   (0.01)0 (0.99)10 = 0.90438
0
10 
P(X = 1) =   (0.01)1 (0.99)9 = 0.09135
1
10 
P(X = 2) =   (0.01)2 (0.99)8 = 0.00415
2
10 
P(X = 3) =   (0.01)3 (0.99)7 = 0.00011
3

Logo, P(X  3) = 0.99999  1

O modelo binomial
No exemplo acima podemos escrever uma fórmula geral para as
probabilidades:
10 
P(X = x) =   (0.01)x (0.99)10 – x
x

Generalizando um pouco mais, podemos pensar num processo de


fabricação com índice de defeitos diferente de 1%.
Como esse índice de defeitos pode ser expresso como uma
proporção entre 0 e 1, podemos definir uma quantidade p, 0  p  1,
como sendo a probabilidade de que uma placa seja defeituosa.
Considerando que a inspeção pode ser aplicada a um número n
qualquer de placas, se X é a v.a. que conta o número de defeitos nas n
placas inspecionadas, então podemos generalizar a probabilidade P(X =
x) por:

n
P(X = x) =   px (1 – p)n – x, x = 0, 1, 2, ..., n.
 x

Esse modelo é conhecido como modelo binomial.

O modelo binomial está associado à ensaios ou eventos


independentes com apenas dois resultados possíveis:
 sim/não;
 ocorre/não ocorre;
 0 ou 1.

Os ensaios com essas características são chamados de ensaios de


Bernoulli.

Nos ensaios de Bernoulli estamos interessados na ocorrência de


apenas um dos resultados ao qual chamaremos de sucesso sendo que, a
não ocorrência do evento de interesse vamos chamar de fracasso.

Desta forma, para o modelo binomial temos que:


p = P(sucesso) e (1 – p) = P(fracasso)

No exemplo acima, ocorre sucesso quando a inspeção detecta uma


placa com defeito e fracasso quando a placa não apresenta defeito.

O modelo binomial é, então, caracterizado pela realização de n


ensaios independentes com apenas dois resultados possíveis (sucesso e
fracasso), nos quais a probabilidade de sucesso p é constante.
A v.a. binomial é definida como sendo:
Uma v.a. que conta o número de sucessos num número fixo de
ensaios de Bernoulli.

Notação: X  binomial(n; p).

No exemplo das placas eletrônicas, temos p = 0.01 e n = 10, logo


X  binomial(10; 0.01).

Outro exemplo: Considere a fabricação de pinos metálicos para


montagens de motores em que o índice de produtos com defeito é de
2.5%. Se um inspetor seleciona um lote com 80 pinos para inspeção, qual
a probabilidade de que:
a) apenas um seja defeituoso?
b) nenhum seja defeituo?
c) no máximo dois sejam defeituosos?
d) Qual é o número esperado de pinos defeituosos no lote?

Vamos definir a v.a. X = número de pinos defeituosos dentre os 80.

Como estamos interessados nos defeitos (sucesso  defeito), então:


p = P(defeito) = 0.025 e X  binomial(80; 0.025)

 80 
a) P(X = 1) =   (0.025)1(0.975)79 = 0.2706
1
 80 
b) P(X = 0) =   (0.025)0(0.975)80 = 0.1319
0
c) P(X  2) = P(X = 0) + P(X = 1) + P(X = 2) = 0.6767.

d) Espera-se: 800.025 = 2 peças defeituosas no lote, ou seja,


espera-se np peças com defeito.
Resultado: O número esperado de sucessos em n ensaios de Bernoulli, tal
que, P(sucesso) = p é dado por np.

No exemplo das placas eletrônicas, espera-se 100.01 = 0.1 placas


com defeito na inspeção.

Mais um exemplo: Segundo pesquisa Lance!/IBOPE (ago/2010) 9.2% dos


Paulistas são torcedores do Santos. Se 21 pessoas do estado de São Paulo
são escolhidas ao acaso,
a) qual é a probabilidade de que pelo menos uma seja Santista?
b) qual é a probabilidade de que no máximo duas sejam Santistas?
c) qual o número esperado de Santistas entre as 21 pessoas?

Seja a v.a. X = número de torcedores do Santos na amostra.


X  binomial(21; 0.092)

a) P(X  1) = 1 – P(X = 0) = 1 – (0.908)21 = 0.8682

b) P(X  2) = P(X = 0) + P(X = 1) + P(X = 2) = 0.6962

c) E = 21  0.092 = 1.932  2 torcedores


Função de probabilidade de uma v.a. contínua

Para modelarmos as probabilidades associadas a uma v.a. contínua,


temos de considerar que estas assumem valores em intervalos dos reias.
Desta forma, o conjunto de possíveis valores que uma v.a. contínua
X pode assumir é dado por I = { x  R | k1  x  k2 }, k1 < k2.
Como existem infinitos pontos no intervalo [k1, k2], não faz sentido
pensarmos na probabilidade de X assumir um valor x0  I, uma vez que
essa probabilidade será igual a zero.
Desta forma, para uma v.a. contínua,

P(X = x0) = 0.

No entanto, podemos determinar a probabilidade de X assumir um


valor entre dois pontos quaisquer pertencentes a I:
P(a  X  b) ; P(X  b); P(X  a); etc…

Definição 1: Seja um função f(x) não negativa tal que

a) f(x)  0,  x  I;

b)  f ( x)dx  1;
I

c) lim f ( x)  lim f ( x)  0 ;
x x

b
Então: P(a  X  b) =  f ( x)dx
a

A função f(x) é chamada de função densidade de probabilidade (fdp)


da v.a. X, ou simplesmente função densidade de X e serve para descrever
a distribuição de probabilidade de uma v.a. contínua.
A função de probabilidade f(x) pode ser aproximada pelo
histograma da v.a. X., conforme podemos observar pela figura 2.

Definição 2: Seja um função F(x) tal que


x
F ( x)  P( X  x)   f (u )du .

F(x) é chamada função de distribuição acumulada (fda) da v.a.
X, ou simplesmente função de distribuição.
Nota: Da definição de fdp segue-se que:

b
P(a  X  b) =  f ( x)dx = F(b) – F(a)
a

Exemplo: Seja uma v.a. X com fdp f(x) dada por


k x
f(x) = 2 e , x  0.

a) Para que valor de k, f(x) define uma f.d.p.?

 
k x
De  f ( x)dx   2 e dx  1,
 0

fazendo w = kx, segue-se que dw = kdx.

Portanto,

   
 
k x  w dw 2 2
 2 e dx  2  e   e w   e   e0  1,
0 0 k k 0 k

2
de onde se obtém:  1  k  2.
k

b) Encontrar a fda
x
x
 2u  e  2u 
F ( x)   2 e du  2    1  e 2 x .
2 
0  0

2 x
Portanto, F ( x)  P( X  x)  1  e .

Desta forma, podemos encontrar P(1  X  2) = F(2) – F(1), ou seja

P(1  X  2) = 1  e  22
 1  e21   e2  e4 = 0.1170.
Valor Esperado e Variância de uma v.a.

A-) O valor esperado, esperança ou média de uma variável


aleatória é definido por:

i) Se X é uma variável discreta: E ( X )   x p( x)


x

ii) Se X é uma variável contínua: E ( X )   x f ( x)dx


x

Propriedades de Esperança:
a) Eg ( X )   g ( x) p( x) ou Eg ( X )   g ( x) f ( x)dx
x x
b) E (aX  bY )  aE ( X )  bE (Y ) e E (aX  b)  aE ( X )  b

c) E (k )  k , k constante.

B-) A variância de uma variável aleatória é definida por:

Var( X )  E X  E ( X )2  E ( X 2 )  E ( X )2 ,

em que: E ( X 2 )   x 2 p( x) ou E ( X 2 )   x 2 f ( x)dx
x x

Propriedades de Variância:
a) Var (aX  b)  a 2Var ( X )

b) Var (k )  0 , k constante.
Exemplos:
1) Seja uma v.a. discreta com função de probabilidade
x 1
dada por: p( x)  , k > 0 e x { –2, –1, 0, 2, 4 }:
k 2 3
10
a) Achar o valor de k para que p(x) seja uma função de
probabilidade;
b) Calcular o valor esperado de X ;
c) Calcular a variância de X;
d) Encontre P(–1  X < 4 );
e) Quais os valores de a e b para os quais (aX + b)
tenha média zero e variância um?

a) Achar o valor de k:

 2 1 1 1 0 1 2 1 4 1
 p( x)  1  k 2 3

k 2 3

k 2 3

k 2 3

k 2 3
1
x 10 10 10 10 10
10 1
 k 2 3

k 2 4
1
10 10
 10k 4  1
2

 k2  4  0  k 2

x 1 x 1
Desta forma: p( x)  2 2 3
 ou p( x)  0.1 x  1
10 10

x –2 –1 0 2 4
p(x) 0.3 0.2 0.1 0.1 0.3
b) Valor esperado de X:
E ( X )   x p( x)  (2) 0.3  (1) 0.2  (0) 0.1  (2) 0.1  (4) 0.3
x

E (X )  0.6

c) Variância de X:
E ( X 2 )   x 2 p( x)
x

 (2) 2 0.3  (1) 2 0.2  (0) 2 0.1  (2) 2 0.1  (4) 2 0.3
 1.2  0.2  0  0.4  3.2  6.6

Var ( X )  E ( X 2 )  E ( x)2  6.6  (0.6) 2  6.24

DP(X )  6.24  2.4980

d) P(–1  X < 4 ) = 0.2 + 0.1 + 0.1 = 0.4

e) E (aX  b)  aE ( X )  b  0.6a  b  0
1
Var (aX  b)  a 2Var ( X )  6.24a 2  1  a   0.400
6.24
0.6
Assim, temos que: b    0.2402
6.24

Resultado:
X  E( X )
Seja uma v.a. Y  aX  b , tal que Y  , então Y é
DP( X )
uma v.a. padronizada, tendo média 0 e variância 1.
2) Seja uma v.a. contínua com fdp dada por:
k
f ( x)  , k > 0 e { x  R | 0 < x  1 }:
x
a) Achar o valor de k para que f(x) seja uma densidade
de probabilidade;
b) Calcular o valor esperado de X ;
c) Calcular a variância de X;
d) Encontre a função distribuição acumulada de X;
e) Encontre P(X  1/2) e P(1/4 < X < 9/16);
f) Quais os valores de k1 e k2 tal que P(X  k1) = 0.05 e
P(X  k2) = 0.05?

a) Achar o valor de k:  f ( x)dx  1


x
1
1
k k x 1/ 2 
 x
dx    1

0  1/ 2 0
2k (1  0)  1
1
2k  1  k
2

1
Logo: f ( x)  , 0 < x  1 , é uma fdp.
2 x
b) Valor esperado de X :
1 1
x x
E( X )   dx   dx
0
2 x 0
2

1
1  x3 / 2  1 1
     E( X ) 
2  3 / 2  3 3
0

c) Variância de X:
1 1
x2 x3 / 2
E( X 2 )   dx   dx
0
2 x 0
2

1
1  x5 / 2  1
   
2  5 / 2  5
0

2
1 1 4
 Var ( X )     
5  3 45

4
 DP( X )   0.2981
45

d) fda de X:
x
1  u1/ 2 
x
1
F ( x)   du     x
0
2 u 2  1 / 2 
0

 0 , x0

Logo: F ( x)   x , 0  x  1.
 1 , x 1

Figura: fdp e fda, respectivamente.

e) P(X  1/2) e P(1/4  X < 9/16):

2
i) P( X  1/ 2)  F (1 / 2)  1 / 2 
2
3 1 1
ii) P(1 / 4  X  9 / 16)  F (9 / 16)  F (1 / 4)   
4 2 4

f) k1 e k2 tal que P(X  k1) = 0.05 e P(X  k2) = 0.05:

i) P( X  k1 )  k1  0.05  k1  0.025

ii) P( X  k2 )  1  P( X  k2 )  1  k2  0.05
 k2  0.95
 k2  0.9025
3) Seja X uma v.a. discreta com função de probabilidade
binomial(n, p). Calcular E(X) e Var(X).

4) Seja X uma v.a. contínua com fdp dada por:


1 x / 
f ( x)  e ,  > 0 e { x  R }.

Calcular E(X) e Var(X).

O modelo acima é o modelo exponencial:


X  exponencial()

E(X) = 

Var(X) = 2

Obs: 1/ é a taxa de ocorrência:

O modelo exponencial também aparece na forma:

f ( x)   e x ,  > 0 e x  R ( = 1/).


Mais Exemplos:

1) Para o modelo binomial mostra-se facilmente que

E(X) = np e que Var(X) = np(1 – p).

Dessa forma, no exemplo das placas, como n = 10 e p = 0.01,


E(X) = 10(0.01) = 0.1 placas e
Var(X) = 10(0.01)(0.99) = 0.099

2) No exemplo da fabricação de pinos metálicos para


motores, como n = 80 e p = 0.025,

E(X) = 80(0.025) = 2 def./lote e


Var(X) = 80(0.025)(0.975) = 1.95.

3) Para o exemplo da v.a. contínua, em que f(x) = 2 e 2x ,


temos que:
 
2 x 1
E ( X )   x 2e dx  2  x e 2 x dx , int. por partes, E ( X )  .
0 0
2

 
2 x
E ( X )   x 2e
2 2
dx  2  x 2 e 2 x dx , e, integrando p.partes
0 0

1 1
E ( X 2 )  , logo, Var ( X )  .
2 4
A distribuição de probabilidade Normal.

Uma v.a. X tem distribuição normal ou Gaussiana, com parâmetros 


e 2 se a sua f.d.p. for:

e   x  
1
f x 
2
2 2
,    x   ,       e 2  0 .
 2

Notação: X  normal(; 2) ou X  N(; 2).

As principais características da distribuição normal são:


a) X tem média E(X) =  e variância Var(X) = 2;
b) f(x) é uma função simétrica em torno de : f( – k) = f( + k);
c) f(x) tem pontos de inflexão em ( – ) e ( + );
d) f(x) tem o conhecido formato de sino com 95% de probabilidade
entre ( – 2) e ( + 2) (ver figura).
A função de distribuição acumulada (fda) do modelo normal não pode
ser determinada uma vez que a integral
x
1 w 2
F x   e 2 2
dw, não tem solução algébrica,
  2 
o que dificulta as coisas, pois temos de recorrer à programação numérica.

No entanto, o resultado a seguir vem facilitar as coisas:

Considere a v.a. normal padronizada, dada pela transformação linear


X 
Z .

Essa transformação padroniza a va X em relação ao seu desvio padrão,
além de centralizá-la na origem.
Desta forma, tem-se que E(Z) = 0 e Var(Z) = 1.

Resultado: Seja X uma va com distribuição normal com média  e


variância 2, então a variável Z tem distribuição normal padrão, com
média 0 e variância 1, ou seja: Z  N(0; 1),

1 z2 2
e a sua fdp é dada por: f z   e ,    z  .
2
Nota: Com este resultado, basta construir uma tabela de probabilidades
para a distribuição normal padronizada que conseguimos as
probabilidades para uma va normal qualquer.

Exemplo: 1) Seja uma va X com distribuição normal com média 220 e


variância 16, ou seja, X  N(220; 16). Calcular as probabilidades abaixo:

a) P(X  225)
 X  220 225  220 
P(X  225) = P    PZ  1.25 = 0.8943
 4 4 

b) P(210  X  228)
 210  220 X  220 228  220 
P(210  X  228) = P   
 4 4 4 

 P 2.50  Z  2.00 

 PZ  2.00  PZ  2.50  0.9773 – 0.0062 = 0.9711


c) Qual o valor de k tal que P(X  k) = 0.01?
 X  220 k  220 
P(X  k) = P   = 0.01,
 4 4 

k  220
Da tabela temos que  2.33  k = 210.38
4

d) Quais os valores k1 e k2 simétricos em torno de , tal que


P(k1  X  k2) = 0.95?

 k  220 k  220 
P(k1  X  k2) = P 1 Z 2  = 0.95,
 4 4 

 k  220   k  220 
Da tabela temos que P Z  1   P Z  2  = 0.025, e,
 4   4 

k1  220
 1.96  k1 = 212.16
4

Como k1 e k2 simétricos em torno da média, então

k 2  220
 1.96  k2 = 227.84
4

Exemplo: 2) Suponha que o nível de dureza de uma peça de espuma


tenha distribuição N 40; 36. Qual a probabilidade de que:
a) Um item produzido tenha dureza inferior a 28.7?
b) Um item produzido tenha dureza superior a 50.5?
c) A especificação para esse produto é que pelo menos 95% dos
itens produzidos tenham dureza entre 28 e 52. A especificação é
atendida?
a) P(X < 28.7)
 28.7  40 
P(X < 28.7) = P Z    PZ  1.88 = 0.0301
 6 

b) P(X > 50.5)


 50.5  40 
P(X > 50.5) = P Z    1  PZ  1.75 = 0.0401
 6 

c) P(28 < X < 52)


P(28 < X < 52) = P 2.0  Z  2.0  PZ  2.0  PZ  2.0
= 0.9773 – 0.0228 = 0.9545

Exemplo: 3) O tempo até a falha dos televisores da marca X-View tem


distribuição normal com média 35 mil horas ( 4 anos) e desvio padrão de
2.675 mil horas ( 3.7 meses). A empresa deseja fixar a garantia do
produto de forma que, no máximo 5% dos televisores apresentem
problemas abaixo desse limite.
a) Encontre o limite de garantia? P(X < L) = 0.05

 L  35  L  35
P Z    0.05   1.645
 2.675  2.675
 L = 30.6 mil horas ( 3.5 anos)

b) Os diretores da companhia traçam um plano de ação para


reduzir a variabilidade do processo de produção. De quanto deve ser
reduzido o desvio padrão do processo para que, mantido o limite obtido
em (a), o percentual de itens abaixo do limite garantia caia pela metade?
P(X < 30.6) = 0.025

 30.6  35   4.4
P Z    0.025   1.96
 *  *
 * = 2.245 mil horas ( 3.1 meses)
Notação: Seja Z o quantil 100% da distribuição N(0, 1), então,
Z é tal que P(Z  Z) = 

Principais quantis da distribuição Normal


 Quantil Z
 = 0.005 0.5% Z0.005 = –2.575
 = 0.01 1% Z0.01 = –2.33
 = 0.025 2.5% Z0.025 = –1.96
 = 0.05 5% Z0.05 = –1.645
 = 0.10 10% Z0.1 = –1.28
 = 0.5 50% ou ~x Z0.5 = 0
 = 0.90 90% Z0.9 = 1.28
 = 0.95 95% Z0.95 = 1.645
 = 0.975 97.5% Z0.975 = 1.96
 = 0.99 99% Z0.99 = 2.33
 = 0.995 99.5% Z0.995 = 2.575

Obs: 1) Notem que Z = – Z(1–), por exemplo Z0.025 = – Z0.975;


2) No programa R os quantis da normal são obtidos pelo
comando: qnorm(), 0    1.
Exemplo: 4) O diâmetro D (cm) de esferas usadas na fabricação
de um rolamento tem distribuição N (0.614, 6.25  10-6 ) . Uma
esfera é classificada como “boa” se 0.610  D  0.618 ;
“recuperável” se 0.608  D  0.610 ou 0.618  D  0.620 e como
“descarte” se D  0.608 ou D  0.620 . Quais as probabilidades
de uma esfera ser “boa”, “recuperável” e “descarte”?

 0.004 0.004 
P(“boa”) = P(0.610  D  0.618) = P  Z 
 0.0025 0.0025 
= P(Z  1.60) – P(Z  –1.60)
= 0.9452 – 0.0548 = 0.8904

P(“rec”) = P(0.608  D < 0.610) + P(0.618 < D  0.620)


= [P(Z  –1.60) – P(Z  –2.40)]

+ [P(Z  2.40) – P(Z  1.60)]


= [0.0548 – 0.0082] + [0.9918 – 0.9452]
= 0.0466 + 0.0466 = 0.0932

P(“des”) = P(D < 0.608) + P(D > 0.620)


= P(Z  –2.40) + [1 – P(Z  2.40)]
= 0.0082 + [1 – 0.9918] = 0.0164

Classificação boa recuperável descarte


probabilidade 0.8904 0.0932 0.0164
O fabricante deseja fixar limites de especificação (inferior e
superior) para o produto “bom” de tal forma que apenas 0.5%
dos rolamentos fiquem de fora. Quais devem ser esses limites?

P(k1  D  k2) = 1 – 0.005


 k  0.614 k  0.614 
= P 1 Z  2  = 0.995
 0.0025 0.0025 

k1  0.614
 Z 0.0025  2.81  k1 = 0.607
0.0025

Como k1 e k2 são simétricos em torno da média, então

k2  0.614
 Z 0.9975  2.81  k2 = 0.621
0.0025

Logo, P(0.607  D  0.621) = 0.995

Considerando que cada esfera é produzida a um custo de R$


0.15 e vendido a R$ 0.25 por unidade, calcule o lucro esperado na
venda de 50 mil unidades do produto se cada peça recuperável
tem um custo adicional de R$ 0.05 de retrabalho.
Seja L o lucro na venda de uma esfera, então

Classificação boa recuperável descarte


probabilidade 0.8904 0.0932 0.0164
Custo  C 0.15 0.15 + 0.05 0.15
Venda  V 0.25 0.25 0
Lucro  L 0.10 0.05 – 0.15
E(L) = 0.8904(0.10) + 0.0932(0.05) + 0.0164(– 0.15)
= R$ 0.09124/esfera
Em 50 mil esferas, temos:
50000 E(L) = 50000 (0.09124) = R$ 4.562,00

Obs: Pode-se, ainda, encontrar o lucro esperado fazendo


L = V – C  E(L) = E(V) – E(C),
em que V é o valor da venda de uma esfera.
Como E(V) = R$ 0.2459/un. e E(C) = R$ 0.15466/un., então

E(L) = R$ 0.2459 – R$ 0.15466 = R$ 0.09124/un.

Exemplo: 5) Um produto é vendido em pacotes de um


quilograma, sendo que a distribuição do peso dos pacotes é
normal com média 1005g e desvio padrão 12g.
a) Qual a probabilidade de que um pacote saia com peso 15g
abaixo da média?
b) Num fardo com 12 pacotes, qual é a probabilidade de no
máximo 2 estejam abaixo de 990g?
c) Um fiscal informou o produtor de que são aceitos apenas 5%
dos pacotes com peso abaixo de 995g. De quanto deve
diminuir a variabilidade para que esse limite seja atendido?
d) Como o processo não permite o ajuste na variabilidade, a
opção seria aumentar a média para atender a especificação.
De quanto deve ser a nova média?
e) Com a nova média obtida no item anterior, de quanto se
espera aumentar a perda do empacotador em uma tonelada
do produto.
PRINCIPAIS DISTRIBUIÇÕES DISCRETAS.

1. Uniforme Discreta: ocorre quando cada um dos k valores possíveis de uma va


discreta X tem mesma probabilidade.

1
f.d.p.: P( X  x)  xi  ( x1 , x2 ,, xk ), i = 1,2,, k .
k

k k
 xi  xi2
E( X )  i 1
Var ( X )  i 1
 E ( X ) 2
k k

F  x   P ( X  x )   P ( X  xi ) 
n( x )
f.d.a.: ,
xi  x k
onde n(x) é o número de valores xi  x .

2. Bernoulli: a distribuição de Bernoulli ocorre quando a va discreta X assume apenas


dois valores: X = 1 (sucesso) ou X = 0 (fracasso), em que p = P(sucesso)

Notação: X ~ Bernoulli ( p)

x 0 1 Total
p x  1–p p 1

E( X )  p Var ( X )  p (1  p)

obs: Cada experimento de uma va de Bernoulli é chamado ensaio de Bernoulli.

0, x<0

f.d.a.: F ( x)  (1  p), 0  x  1 , 0  p  1.
1, x 1

3. Binomial: Considere n ensaios de Bernoulli, independentes. Seja X a va que conta o
número de sucessos nesses n ensaios. Então X tem distribuição binomial com
parâmetros n e p.
X : número de sucessos em n ensaios de Bernoulli, independentes.

Notação: X ~ binomial (n, p) .

n
f.d.p.: P( X  x)    p x (1  p) n x x  0, 1, , n e 0  p  1 .
 x

E( X )  n p Var ( X )  n p (1  p)

f.d.a.: F ( x )  P ( X  x )   P ( X  xi )
xi  x

4. Hipergeométrica: Esta distribuição ocorre quando executamos extrações, sem


reposição, de uma população finita e verificamos a ocorrência de um dado evento.
Seja uma população de tamanho N, tal que m elementos dessa população apresentam
uma certa característica e (N – m) não a apresentam. Se selecionamos ao acaso n
elementos sem reposição, então a probabilidade de que nessa amostra existam
exatamente k elementos com a característica de interesse é:
X : número de elementos com a característica na amostra de tamanho n.

Notação: X ~ HG( N , m, n) .

 m  N  m 
  
 k  n  k 
f.d.p.: P( X  k )  max0, n  ( N  m)  k  min( m, n) .
N
 
n 

nm n m  m  N  n 
E( X )  Var ( X )  1   
N N  N  N  1 

f.d.a.: F ( x )  P ( X  x )   P ( X  xi )
xi  x

obs: Se N é grande, então a distribuição Hipergeométrica pode ser aproximada pela


distribuição binomial.
5. Geométrica: Ocorre quando contamos o número de ensaios de Bernoulli que
resultam em fracasso até a ocorrência do primeiro sucesso, em que P(sucesso)  p .
X : número de fracassos até a ocorrência do primeiro sucesso.

Notação: X ~ geométrica ( p) .

f.d.p.: P( X  x)  p (1  p) x x  0, 1, 2,  e 0  p  1 .

(1  p) (1  p)
E( X )  Var ( X ) 
p p2

f.d.a.: F ( x)  P( X  x)  1  P( X  x  1)  1  (1  p) x1

obs: A geométrica pode, ainda, ser definida pela contagem do número de ensaios até o
primeiro sucesso, sendo P( X  x)  p (1  p) x1 , x  1, 2,  e 0  p  1.

6. Binomial Negativa ou Pascal: Se agora estamos interessados em contar o número


de falhas até a ocorrência do r-ésimo sucesso, tal que P sucesso  p, então a va X
tem distribuição binomial negativa com parâmetros r e p, e fp dada por:
X : número de falhas até a ocorrência do r-ésimo sucesso.

Notação: X ~ BN (r , p) .

 r  x  1 r
f.d.p.: P( X  x)    p (1  p) x x  0, 1, 2,  , r  1 e 0  p  1 .
 r 

r (1  p) r (1  p)
E( X )  Var ( X ) 
p p2

f.d.a.: F ( x )  P ( X  x )   P ( X  xi ) .
xi  x

Quando r = 1 temos a distribuição geométrica com parâmetro p.

obs: Da mesma forma como a geométrica, a distribuição binomial negativa pode ser
definida pela contagem do número de ensaios até o r-ésimo sucesso.
7. Poisson: a distribuição de Poisson ocorre quando contamos o número de eventos, de
um certo tipo, que ocorrem num intervalo de tempo, superfície ou volume, etc. . .
com taxa de ocorrência λ.

Notação: X ~ Poisson() .

e  x
f.d.p.: P( X  x)  x  0, 1, 2,  e   0 .
x!

E (X )   Var (X )  

f.d.a.: F ( x )  P ( X  x )   P ( X  xi )
xi  x

obs: A distribuição de Poisson é uma aproximação da distribuição binomial quando


n  , p  0 , com   n p constante.
PRINCIPAIS DISTRIBUIÇÕES CONTÍNUAS.

1. Uniforme: Seja X uma va continua com distribuição Uniforme no intervalo


[a ; b]   , a < b , então sua fdp é dada por:

Notação: X ~ U (a, b) .

 1
 se a xb
f.d.p.: f ( x)   b  a

0 se x < a ou x > b

ab (b  a) 2
E( X )  Var ( X ) 
2 12

xa
f.d.a.: F ( x)  , se a  x  b
ba

2. Normal: Uma va X tem distribuição normal com parâmetros  e  2 ,  2  0 e


     , se sua fdp é dada por:

Notação: X ~ N (,  2 ) .

1 
 ( x  ) 2 
    x  ;
f.d.p.: f ( x)  exp  2 
, .
2  
 2         e   0

E (X )   Var ( X )   2

x
f.d.a.: F ( x)   f (u )du . F (x) não tem solução algébrica e seus valores

devem ser obtidos por intermédio de tabela.

obs: Se Z é uma va tal que z  (X  )  , então Z tem distribuição Normal


Padronizada com média 0 e variância 1, ou seja, Z ~ N (0,1) e sua f.d.p. é dada por:

1
ez
2
f.d.p.: f ( z)  2
,   z  .
2
3. Exponencial: Dizemos que uma va X tem distribuição exponencial, ou distribuição
dos tempos de vida, com parâmetro  ,   0, se a sua fdp é:

Notação: X ~ exponencia l () .

1 x 
  e se x0
f.d.p.: f ( x)  

0 se x<0

E (X )   Var ( X )   2

x
f.d.a.: F ( x)   f (u )du  1  e  x  .
0

obs: Para   1 temos a exponencial padrão com f.d.p. f ( x)  e  x , se x  0 .

4. Gama: Uma extensão da distribuição exponencial é dada pela distribuição gama


com parâmetros ,   0, e sua fdp é dada por:

Notação: X ~ gama(, ) .

    1  x
 x e se x0
  ( )
f.d.p.: f ( x)  

0 se x<0


onde ()   x 1 e  x  dx é chamada função gama.
0

 
E( X )  Var ( X ) 
 2

x
f.d.a.: F ( x)   f (u )du . F (x) não tem solução algébrica.


obs: Para   1 temos a distribuição exponencial com parâmetro   1 /  .


5. Qui-quadrado: Uma va X tem distribuição qui-quadrado com n graus de liberdade
se a sua fdp for:

Notação: X ~  2n .

 1
 n x n 21 e  x 2 se x0
   2 n 2
f.d.p.: f ( x)    2 


 0 se x<0

E( X )  n Var ( X )  2n

obs: A distribuição qui-qaudrado é um caso especial da gama, para   n 2 e   1 2 .

6. t–Student: Uma va X tem distribuição t–Student com n graus de liberdade se tiver


fdp dada por:

Notação: X ~ t n .

 n 1 n 1 2


 
 2   x 2 
f.d.p.: f ( x)  1 ,    x   .
 n   n 
n  
2

n
E( X )  0 Var ( X )  , n  2.
n2

obs: Quando o valor de n é grande, a distribuição t-Student aproxima-se da N (0,1) .


7. F de Snedcor: Sejam X 1 ~  2m e X 2 ~  2n , independentes. A va W, definida por
X1 m
W , tem distribuição F de Snedcor com m e n graus de liberdade, com fdp:
X2 n

Notação: Y ~ Fm,n .

mn
 
w ( m  2) 2
m2
 2  m
f.d.p.: f ( w)    ( m n)
, w  0.
m n n
     
2
 mw
 1  
 2  2  n 

n 2n 2 (m  n  2)
E (W )  Var ( X )  , n  4.
n2 m (n  2) 2 (n  4)

Das könnte Ihnen auch gefallen