Sie sind auf Seite 1von 50

EMENTA DO CURSO DE PROBABILIDADE E

PROCESSOS ESTOCÁSTICOS

Capítulo I - Conceitos Básicos da Teoria das Probabilidade


Capítulo II - Variáveis Aleatórias
Capítulo III - Valores Esperados, Momentos e Função Geratriz de Momentos
Capítulo IV - Função de Variáveis Aleatórias
Capítulo V - Processos Aleatórios
Capítulo VI- Sistemas Lineares e Sinais Aleatórios

BIBLIOGRAFIA

[1] Clarke, A. Bruce e Disney, Ralph. “Probabilidade e processos estocásticos”

[2] Peebles, P. Z. , “Probability and Random Variables and Random Signal Principles”, 4th edition,
2001. McGraw-Hill.

[3] Leon-Garcia, A. “Probability and Random Processes for Electrical Engineers”, 2nd edition,
Addison Wesley, 1994.

[4] Meyer, P. L. “Probabilidade: aplicações à estatística”, Rio de Janeiro: LTC, 1989.

[5] Spiegel, M. R., Schiller, J. e Srivasan, R. A. “ Probabilidade e Estatística”, Coleção Schaum,


Bookman, 2a edição, 2004.

[6] Papoulis, A. “Probability, Random Variables, and Stochastic Processes”, McGraw-Hill.

CURSO DE PROBABILIDADE E PROCESSOS ESTOCÁSTICOS

Capítulo I - Conceitos Básicos da Teoria da Probabilidade


1.1 - Espaço Amostral (S)
é o conjunto formado por todos os resultados possíveis de um experimento aleatório.

1.2 - Evento (E)


É um conjunto composto de resultados possíveis de um experimento aleatório contidos
no espaço amostral.

1.3 - Cálculo da Probabilidade

1.3.1- Frequência Relativa.

Considere um experimento aleatório repetido n vezes, onde n A representa o


número de vezes que o evento A, definido para este experimento, ocorre nas n repetições do
experimento.
Denomina-se de frequência relativa (f A) do evento A ocorrer para a relação:
fA = nA / n.

1.3.2 - Definição de Probabilidade

Considerando-se que os resultados possíveis de um experimento aleatório, contidos no


espaço amostral, são igualmente prováveis de ocorrer e mutuamente exclusivos (sem
interseção), então a probabilidade de ocorrência de um evento A, definido para o
experimento aleatório, é dada por: P(A) = lim fA = lim nA/ n
n→∞ n→∞
Desta forma deduz-se que para se obter a probabilidade de ocorrência do evento
A é necessário repetir o experimento infinitas vezes.
Uma forma mais pratica de se obter a probabilidade de um evento ocorrer é
com o uso da expressão: P(A) = NA / N (1) onde:

NA - é o número de elementos contidos no conjunto dos eventos.

N - é o número de elementos contidos no conjunto do espaço amostral.

1.4 - Propriedades e teoremas da probabilidades


a) 0 ≤ P(A) ≤ 1
b) P(S) = 1
c) Se A e B são eventos mutuamente exclusivos, então: P(AUB ) = P(A) + P(B)
d) Se A1, A2, ..., An são dois a dois eventos mutuamente exclusivos, então:
n n
P(U i = 1 Ai) = P(A1) +P(A2) +...+P(An)=∑ P(Ai )
i=1
e) Se φ é o espaço vazio, então: P(φ) = 0

_
f) Se A é o evento complementar do evento A, então:
_
P( A) = 1- P( A)
g) Se A e B são eventos quaisquer, então:
P(A U B) = P(A) + P(B) - P(A ∩ B)

1.5 - Probabilidade Marginal


Sejam A1 , A2, ..., An são eventos mutuamente exclusivos entre si, associados a um
espaço amostral S, onde: Uni =1 Ai = S.
Seja BJ um evento também associado ao espaço amostral S, que ocorre conjuntamente
(possui interseção) com todos os eventos Ai.
BJ = (BJ∩A1) U (BJ∩A2) U . . . (BJ∩An) = BJ∩S
BJ=(Uni =1Ai∩BJ),então
P[BJ] = ∑n i =1 P[Ai ∩BJ] - Probabilidade Marginal

1.6 - Probabilidade Condicional


Ex 1- Considere o experimento aleatório que consiste na retirada de dois componentes de
um lote formado de 10 componentes defeituosos e 40 não defeituosos. Para este
experimento são definidos os seguintes eventos:
A - O primeiro componente retirado é defeituoso.
B - O segundo componente retirado é defeituoso.
Determine a probabilidade dos eventos A e B considerando que os componentes são
retirados sem reposicão.
Solução:
P(A) = 10/50 P(B) = 9/49
Agora os eventos são redefinidos:
A – O primeiro componente retirado é perfeito.
B – O segundo componente retirado é defeituoso.
Determine a probabilidade dos eventos A e B considerando que os componentes são
retirados sem reposicão.
Solução:
b) P(A) = 40/50 P(B) = 10/49

O que pode-se concluir desses resultados é que a probabilidade de ocorrência do


evento B está condicionada a ocorrência anterior do evento A, portanto existe a necessidade
de se introduzir o conceito de probabilidade condicional (ou condicionada).
Sejam A e B eventos associados a um experimento aleatório. Representaremos por
P(B/A) a probabilidade condicional do evento B ocorrer dado que o evento A tenha ocorrido

Ex 2- Considere o experimento de retirada de duas cartas, uma de cada vez, de um conjunto


formado de quatro cartas de baralho numeradas de 1 a 4. Para este experimento são
definidos os seguintes eventos:
A- a soma dos números contidos nas cartas retiradas é igual a cinco;
B- o número contido na primeira carta retirada é maior do que o número contido na segunda
carta retirada.
Determine as Probabilidades P(A) , P(B) e P(B/A).
Solução:
Espaço amostral S:
S={(1,2); (1,3); (1,4); (2,3); (2,4); (3,4); (2,1); (3,1); (4,1); (3,2); (4,2); (4,3)}
Conjunto dos Eventos A e B:
A={(1,4); (2,3); (4,1); (3,2)}
B={(2,1); (3,1); (4,1); (3,2); (4,2); (4,3)}
Cálculo das probabilidades:
P(A) = 4/12 = 1/3
P(B) = 6/12 = 1/2
P(B/A) = 2/4
Observe que para a obtenção de P(B/A) foi utilizado o conjunto do evento A, uma
vez que a ocorrência do evento B está condicionada a ocorrência anterior do evento A.
Essencialmente P(B/A) representa a probabilidade da ocorrência do evento B naqueles
resultados em que A tenha ocorrido.
Calculemos agora a probabilidade da interseção dos eventos A e B, P(AB) e a
razão entre as probabilidades P(AB)/P(A).
P(AB) = 2/12 (obtido de S).
P(AB)/P(A) = (2/12) / (4/12) = 2/4
Podemos observar que a razão acima apresentou um resultado igual a
probabilidade P(B/A). Portanto, intuitivamente, podemos concluir que P(B/A) =
P(AB)/P(A).
Essa solução para P(B/A) = P(AB)/P(A) apesar de obtida, especificamente, para o
exemplo estudado, é uma solução geral que pode ser reforçada pelo uso do conceito de
frequência relativa.
Suponhamos que um experimento aleatório é repetido n vezes, onde:
nA - é o número de vezes que o evento A ocorre nas n repetições;
nAB- é o número de vezes que o evento AB (interseção dos eventos) ocorre nas n repetições;
fA = nA/n - é a frequência relativa do evento A;
fAB = nAB/n - é a frequência relativa do evento AB;e
nAB/nA - é a frequência relativa do evento B condicionada a ocorrência anterior do evento A,
ou seja a ocorrência de B naqueles resultados em que A tenha ocorrido.
Podemos escrever que:
nAB/ nA = (nAB/n) / (nA/n) ⇒ nAB/ nA = fAB/ fA
Como os termos da equação acima representam frequencias relativas é óbvio que se
n, o número de repetições do experimento, tender ao infinito, essas frequências relativas
serão a probabilidade dos eventos que elas representam e poderemos escrever que:
P(B/A) = lim [ fAB/ fA ] ⇒ P(B/A) = P(AB) /P(A).
n→∞

1.7 - Probabilidade total.


Dá-se o nome de probabilidade total à probabilidade marginal computada com o uso
da probabilidade condicional, onde a ocorrência do evento BJ está condicionada a
ocorrência anterior do evento Ai.
P[BJ] = ∑n i =1 P[Ai . BJ]
Como:
P[BJ / Ai ] = P[Ai. BJ ] / P[Ai ] ⇒ P[Ai. BJ ] = P[BJ / Ai ] P[Ai ]
Então:

P[BJ] = ∑n i =1 P[BJ / Ai ] P[Ai ]


1.8- Independência de Eventos
Dois eventos são independentes se a ocorrência anterior de um deles não influenciar a
ocorrência posterior do outro.
P[A/B] = P[A]
P[A.B] = P[A/B] P[B] ⇒ P[A.B] = P[A] P[B]

1.9 - Teorema de Bayés


Sejam os eventos A1, A2, . . ., An partições do espaço amostral S, onde P[Ai] ≠ 0, onde
os eventos Ai são mutuamente exclusivos.
Seja B um evento que ocorre conjuntamente com todos os eventos Ai. Deseja-se
determinar a probabilidade de ocorrência de um dos eventos Ai dado que o evento B
ocorreu.

P[Ai / B] = P[Ai.B] / P[B]

P[B] = ∑n i =1 P[B / Ai ] P[Ai ] – probabilidade total

Como P[Ai.B] = P[B / Ai ] P[Ai ], então tem-se que:

P[Ai / B] = {P[B / Ai ] P[Ai ]} / ∑n i =1 P[B / Ai ] P[Ai ]

Ex 1.1.1- Um experimento aleatório consiste na retirada de duas cartas ao mesmo tempo de


um conjunto de 4 cartas composta de um Ás, um Rei, um Valete e uma dama. Determine o
espaço amostral desse experimento.

Ex 1.1.2- Uma moeda é lançada duas vezes. Determine o espaço amostral.

Ex 1.2.1- Um experimento aleatório consiste na retirada de uma carta de um conjunto de 4


cartas numeradas de 1 a 4. Determine o conjunto do evento, sabendo-se que o evento é
definido como sendo a retirada de uma carta par ou uma carta impar.
Ex 1.2.2- Para o exemplo anterior, o evento é definido como sendo a retirada de uma carta
par.

Ex 1.2.3 - Um dado é lançado uma vez. O evento é definido como sendo aparecimento do
número sete na face superior do dado. Determine E , o conjunto do evento.

Ex 1.3.2.1- Com os dígitos 1, 4, 7, 8, e 9 são formados números de 3 algarismos distintos.


Um deles é escolhido ao acaso. Qual a probabilidade dele ser ímpar?

Ex 1.3.2.2- Um dado é lançado uma única vez. Qual é a probabilidade de aparecer um


número par na sua face superior?

Ex 1.5.1- Testes de qualidade foram realizados nos circuitos integrados produzidos por
diversos fabricantes, tendo-se obtido os seguintes resultados em relação aos defeitos
encontrados:
Fabricantes Classe de Defeitos Total
Nenhum Sério Crítico
N S C
F1 50 15 20 85
F2 30 5 15 50
F3 20 10 5 35
Total 100 30 40 170

Qual é a probabilidade de que um circuito integrado, selecionado aleatoriamente dos 170


não apresente defeito;

Ex. 1.6.1- Suponha que em uma loja existam 20 microcomputadores, conforme mostra a
tabela abaixo. Alguns micros possuem HD de 160 Gbytes (160G) , enquanto outros
possuem HD de 320 Gbytes (320G). Alguns micros têm monitor de 17 polegadas (M17) e
outros têm monitor de 19 polegadas (M19). Um cliente entra na loja e escolhe,
aleatoriamente, um micro e observa na ficha técnica do equipamento que o mesmo possui
um monitor de 17 polegadas. Qual é a probabilidade de que este micro possua um HD de
160 Gbytes.

160G 320G Total


M17 8 6 14
M19 2 4 6
Total 10 10 20

Ex. 1.7.1- Uma caixa contém 2000 componentes, dos quais 5% são defeituosos. Uma
segunda caixa contém 500 componentes, dos quais 10% são defeituosos. Seleciona-se,
aleatoriamente, uma das caixas e retira-se dela um componente. Qual é a probabilidade do
componente ser defeituoso?

Ex. 1.8.1- Considere o lançamento de dois dados. Os eventos A e B são definidos da


seguinte maneira:
A - o primeiro dado mostra um número par;
B - o segundo dado mostra um número impar
Verifique se os eventos são independentes.
Ex. 1.9.1- Um canal de comunicação binário é um sistema de transmissão onde os dados
são transmitidos na forma de 0 e 1. Por causa do ruído um 0 transmitido é algumas vezes
recebido como 1 e um 1 transmitido é algumas vezes recebido como 0. Assuma que para
um certo canal de comunicação binário a probabilidade de que um 0 transmitido seja
recebido como 0 é de 0,95 e a probabilidade de um 1 transmitido seja recebido como 1 é de
0,9. Também assuma que a probabilidade de um zero ser transmitido é de 0,4.
Ache:
a) a probabilidade de um 1 seja recebido?;
b) a probabilidade de que um 1 é transmitido dado que um 1 é recebido?

Capítulo II - Variáveis Aleatórias

2.1 - Conceito de Váriável Aleatória.


Os resultados obtidos em um experimento aleatório são especificados no espaço amostral S.
Para cada resultado s ∈ S será associado um número real X(s), através de uma regra X
denominada de variável aleatória. X é uma função cujo domínio é o espaço amostral S e o
contradomínio é o conjunto RX composto pelos números X(s).
S RX
X
s1
X (s1)

ss X
2
(s2)
domínio contradomínio

X(s1) e X(s2) são os valores que a variável aleatória X assume.

2.2 - Probabilidade associada à variável aleatória


Determinar a probabilidade da V. A. assumir um determinado valor X(s), ou seja,
P[X= X(s)]

2.3 - Variáveis aleatórias discretas e contínuas.


2.3.1- Variável Aleatória Discreta.
Se o contradomínio R X da V.A. X é composto de um número finito ou infinito
numerável de valores, ou seja, de números discretos, então a V. A. é denominada de
discreta.

2.3.2- Variável Aleatória Contínua.


Se o contradomínio RX da V. A. é um intervalo ou uma coleção de intervalos, sendo
estes formados por um número infinito não numerável de valores, então a V. A. é
denominada de contínua.

2.4 - Função Densidade de Probabilidade e Função Distribuição de Probabilidade.


2.4.1 - Função Densidade de Probabilidade para uma V.A. Discreta ou Função de
Probabilidade de massa.
Denomina-se de função densidade de probabilidade de uma Variável aleatória X
discreta ou função de probabilidade de massa para a função p(x i) = P[X= xi], que representa
a probabilidade da V.A. X assumir um determinado valor x i e tem que satisfazer as
seguintes condições:
a) p(xi ) ≥ 0 para todo xi ;

b) ∑ p( xi ) = 1.
xi = -∞
2.4.2 - Função Distribuição de Probabilidade para uma Variável Aleatória Discreta.
De uma forma geral, denomina-se de função distribuição de probabilidade de uma
variável aleatória X para a função F(x) = P[ X≤ x ] com -∞ ≤ x ≤ ∞.
Para uma variável aleatória X discreta a função distribuição de Probabilidade assume a
forma:

x
F(x) = ∑ p(xi)
xi = -∞
e que representa a probabilidade da variável aleatória X discreta assumir um valor menor ou
igual a x.

2.4.3- Função Densidade de Probabilidade para uma Variável Aleatória Contínua.


A função representada por f(x) é definida como sendo a função densidade de
probabilidade de uma variável aleatória contínua se são satisfeitas as seguintes condições:
a) f(x) ≥ 0 ∀ x ∈ RX

b) ∫ f(x) dx = 1
-∞

2.4.4- Função Distribuição de Probabilidade para uma Variável Aleatória Contínua.


Se f(x) é uma função densidade de probabilidade, então a função: x
F(x) = ∫ f(x) dx
-∞
é denominada de Função distribuição de probabilidade da Variável aleatória X contínua.

Observações: b
a) para um intervalo (a,b) a P[a ≤ X ≤ b] = ∫ f(x) dx, onde a<b
a
b) Sendo X uma V. A. contínua a P[ X= x0 ] = 0

2.4.5- Propriedades da Função Distribuição de Probabilidade,


a) F(x) é crescente, isto é, se x1 ≤ x2, então tem-se que F(x1) ≤ F(x2);

b) Lim F(x) = 0 = F( -∞);


x→ -∞

c) Lim F(x) = 1 = F(∞)


x→ ∞

d) dF(x) /dx = f(x):

e) F(x) é contínua a direita, isto é, F(x+) = F(x) , onde:


F(x+) = lim F(x + ε )
ε →0
ε> 0
2.5 - Funções Distribuições Pré-Definidas.
São funções previamente conhecidas e utilizadas para descrever o comportamento
probabilístico de fenômenos aleatórios.

2.5.1- Funções Distrinuições Pré-Definidas para Variável Aleatória Discreta.


2.5.1.1- Binomial
a) Características:
a.1) o experimento aleatório é repetido n vezes;
a.2) o experimento aleatório conduz a somente dois resultados ou eventos;
a.3) Os resultados ou eventos são independentes um do outro;
a.4) as probabilidades dos eventos permanecem constantes nas n repetições.
b) Parâmetros que caracterizam a Distribuição Binomial:
b.1) P - representa a probabilidade do evento de interesse ocorrer;
b.2) Q - representa a probabilidade do outro evento ocorrer;
b.3) n - representa o número de vezes que o experimento é repetido;
b.4) xi - representa o número de vezes que o evento de interesse ocorre ou o valor que a
variável aleatória pode assumir
b.5) P+ Q = 1

c) Função Densidade de Probabilidade para a Distribuição Binomial.


xi xi n-xi
p(xi)= C P Q → representa a probabilidade do evento de
n interesse ocorrer xi vezes nas n repetições

d) Função Distribuição de Probabilidade para a Distribuição Binomial


x xi xi n-xi
F(x) = ∑ C P Q
xi = 0 n

2.5.1.2 - Poisson
Representa uma extensão da distribuição binomial e se aplica quando o número de
vezes que o experimento é repetido é muito grande e a probabilidade do evento de interesse
ocorrer é muito pequena.
a) Parâmetros
a.1) λ - representa um valor médio e é dado por λ = n P
a.2) xi - representa o número de vezes que o evento de interesse ocorre ou o valor
que a variável aleatória pode assumir
b) Função Densidade de Probabilidade da Distribuição de Poisson
-λ xi
p(xi) = e λ / xi!

c) Função Distribuição de Probabilidade da Distribuição de Poisson


x -λ xi
F(x) = ∑ e λ / xi!
xi = 0

2.5.2 - Funções Distribuições Pré-definidas para Variável Aleatória Contínua.

2.5.2.1 - Retangular Uniforme ou Uniformemente Distribuída

a) Função densidade de probabilidade

f(x) = { 0 x≤ a
{ 1/ (b-a) a≤ x≤ b com b > a
{0 x≥ b

b) Função distribuição de probabilidade


F(x) = { 0 x ≤ a
{ (x-a) / (b-a) a < x < b
{ 1 x ≥ b

2.5.2.2 - Distribuição Gaussiana ou Normal


a) Função densidade de Probabilidade
___ - (1/2) [( x - µx) / σx] 2
f(x) = (1/ σx √ 2π ) e -∞ < x<∞
onde: σx - desvio padrão da V. A. X; µx - média da V. A. X

b) Função distribuição de probabilidade


x
F(x) = ∫ f(x) dx
-∞

2.5.2.2.1 - Distribuição normal unitária


é um caso particular da distribuição normal ou gaussiana, que ocorre quando µx = 0
e σx = 1. Desta forma a função densidade de probabilidade toma a forma:
___ - x2 / 2
f(x) = (1/ √ 2π ) e - ∞ < x<∞

2.5.2.2.2 - Transformação de uma distribuição gaussiana em normal unitária.


2.5.2.3 - Distribuição Exponencial
a) Função densidade de probabilidade
- x/λ
f(x) = { (1/ λ) e x≥ 0
{ 0 x< 0
b) Função distribuição de probabilidade
x - x/λ
F(x) = ∫ (1/ λ) e dx
0
2.6 - Variável Aleatória Bidimensional
2.6.1 - Conceito.
Seja S o espaço amostral associado a um experimento aleatório. Se X e Y são duas
funções que atribuem a cada resultado s ∈ S um número real X(s) e Y(s), respectivamente,
então o par (X,Y) será denominado de váriável aleatória bidimensional

S RXY

(X,Y)
[X(s1),Y(s1)
s1
ss ]

s2 [X(s2),Y(s2)
]

Domínio Contradomínio

[X(s1),Y(s1)] e [X(s2),Y(s2)] são os valores que a variável aleatória bidimensional (X,Y)


assume para os resultados s1 e s2 pertencentes a S, respectivamente.
2.6.2 - Probabilidade associada a variável aleatória bidimensional.
Objetivo é determinar P[ X=X(s), Y= Y(s)], ou seja, a probabilidade da V. A. X
assumir o valor X(s) e a V. A. Y assumir o valor Y(s).

2.6.3 - Variáveis aleatórias bidimensionais discretas e contínuas.


Se o R XY é composto de números discretos, então a V. A. será discreta. Se o R XY é
composto de números contínuos \, então a V. A. será do tipo contínua.

2.7 - Função densidade de probabilidade conjunta e função distribuicão de probabilidade


conjunta para uma variável aleatória bidimensional.

2.7.1- Função densidade de probabilidade conjunta para uma V.A. bidimensional discreta.
é uma função definida por p(xi, yJ) = P[X= xi , Y= yJ] e tem que satisfazer as
seguintes condições:

a) p(xi, yJ) ≥ 0 ∀ xi ,yJ ∈ RXY


∞ ∞
b) ∑ ∑ p(xi, yJ) = 1
yJ= - ∞ xi= - ∞

2.7.2 - Função distribuição de probabilidade conjunta para uma variável aleatória


bidimensional discreta.
De uma forma geral. chama-se de função distribuição de probabilidade conjunta para a
função F(x,y)=P[X≤ x,Y≤ y].
Para uma variável aleatória bidimensional discreta tem-se que;
y x
F(x,y)= ∑ ∑ p(xi , yJ)
yJ= - ∞ xi = - ∞

2.8 - Função densidade de probabilidade conjunta e função distribuição de probabilidade


conjunta para uma variável aleatória bidimensional contínua.

2.8.1- Função densidade de probabilidade conjunta.


Chama-se de função densidade de probabilidade conjunta para a função representada
por f(x,y) e que tem que satisfazer as seguintes condições:

a) f(x,y) ≥ 0 ∀ x,y ∈ RXY ;


∞ ∞
b) ∫ ∫ f(x,y) dx dy = 1
-∞ -∞

2.8.2- Função distribuição de probabilidade conjunta.

Se a função f(x,y) é uma função densidade de probabilidade conjunta, então a


função representada por
y x
F(x,y)= ∫ ∫ f(x,y) dx dy é denominada de função distribuição
-∞ -∞ de probabilidade conjunta
2.8.3 - Propriedades da função distribuição de probabilidade conjunta.
a)F(-∞,-∞) = 0; b) F(-∞ , y)= 0; c) F(x,- ∞) = 0;
d)F(∞,y) = FY(y) → função distribuição de probabilidade marginal da variável aleatória
Y;
e)F(x,∞) = FX(x) → função distribuição de probabilidade marginal da variável aleatória
X;
f) F(∞ , ∞ ) = 1
g) f(x ,y ) = ∂ 2 F(x,y) / ∂ X ∂ Y

2.9 - Função Densidade de Probabilidade Marginal e Função Distribuição de probabilidade


Marginal.

A variável aleatória Bidimensional (X,Y) é composta de duas variáveis aleatórias


unidimensionais X e Y. Se estivermos interessados em estudar as características de apenas
uma das variáveis aleatórias que compõem a variável aleatória bidimensional, então as
características desta variável aleatória são denominadas de marginais. Para tanto é
necessário que nenhuma restrição seja imposta em relação aos valores que a outra variável
aleatória possa assumir

2.9.1- Função Densidade de Probabilidade Marginal para uma Variável Aleatória Discreta
É a função designada por p X(xi)= P[X=xi , sem nenhuma restrição sobre a v. a. y]. a v.
a. Y pode assumir todos os valores desde -∞ até +∞, ou seja:
pX(xi) = P[X=xi ,Y=y1;ou X=xi , Y=y2 ; ou ...]
∞ ∞
pX(xi) = ∑ P[X=xi ,Y=yJ] → pX(xi) = ∑ p(xi , yJ)
yJ= -∞ yJ= -∞

2.9.2- Função Distribuição de Probabilidade Marginal para uma Variável Aleatória Discreta.
É a função representada por:
FX(x) = P[X≤ x, sem nenhuma restrição sobre a V. A. Y]
FX(x) = P[X≤ x, Y≤ ∞] = F(x, ∞)
x ∞ x
FX(x) = ∑ ∑ p(xi, yJ) → FX(x) = ∑ pX(xi)
xi= -∞ yJ = - ∞ xi= -∞

2.9.3- Função Densidade de Probabilidade Marginal para uma Variável Aleatória Contínua.

Por analogia com a função densidade de probabilidade Marginal obtida para uma
variável aleatória discreta, tem-se que a função a função densidade de probabilidade
marginal para uma variável aleatória é dada por:


fX(x) = ∫ f(x,y) dy
-∞

2.9.4- Função Distribuição de Probabilidade Marginal para uma Variável Aleatória


Contínua.

Sabe-se que F(x, ∞) = FX(x) representa a função distribuição de probabilidade


marginal da V. A. X, então:
x ∞ x
FX(x) = ∫ ∫ f(x,y) dy dx → FX(x) = ∫ fX(x) dx
-∞ -∞ -∞

2.10 - Função Densidade de Probabilidade Condicional e Função Distribuição de


Probabilidade Condicional.

2.10.1 - Função Densidade de Probabilidade Condicional para uma Variável Aleatória


Discreta.
Sabe-se que P[A/B] = P[AB]/P[B] .
Se A ={ X=xi } representa o evento a v. a. X assumir o vaor xi e B = {Y=yJ } representa o
evento a v. a. Y assumir o valor yJ. Então tem-se que:
P[ X= xi / Y= yJ] = P[X= xi , Y= yJ] / P[Y= yJ] , representa a probabilidade da variável
aleatória X assumir um valor xi dado que a variável aleatória Y assumiu um valor yJ, que
pode ser expressa pela equação:
pX/Y(xi /yJ) = p(xi ,yJ) / pY(yJ) que é a função densidade de probabilidade condicional para
uma variável aleatória discreta.

2.10.2 - Função Distribuição de Probabilidade Condicional para uma Variável Aleatória


Discreta.
Esta função representa a probabilidade da variável aleatória X assumir um valor
menor ou igual a x dado que a variável aleatória Y assume um determinado valor yJ. Então:
x
FX/Y(x/yJ) = P[X≤ x/Y=yJ] ⇒ FX/Y(x/yJ) = ∑ pX/Y (xi/yJ)
xi= -∞

2.10.3 - Função Densidade de Probabilidade Condicional para uma Variável Aleatória


Contínua.

É a função representada por f X/Y(x/y) e por analogia com a função densidade de


probabilidade para uma variável aleatória discreta tem-se que:
fX/Y(x/y) = f (x,y) / fY(y)

2.10.4 - Função Distribuição de Probabilidade Condicional para uma Variável Aleatória


Contínua.

Esta função é representada por F X/Y(x /y) e pode ser interpretada de duas formas,
tendo os seguintes significados:

a) FX/Y(x /y) = P[X≤ x / Y=y] , ou seja, a probabilidade da variável aleatória X assumir um


valor menor ou igual a x dado que a variável aleatória Y assume um valor igual a y. por
analogia com a função distribuição de probabilidade para uma variável aleatória discreta
tem que:

FX/Y(x /y) = ∫ f(x,y) dx / fY(y)
-∞
b) FX/Y(x /y) = P[X≤ x / Y≤ y] , ou seja, a probabilidade da variável aleatória X assumir
um valor menor ou igual a x dado que a variável aleatória Y assume menor ou valor igual a
y.
FX/Y(x /y) = P[X≤ x, Y≤ y] / P[Y≤ y]

FX/Y(x /y) = F(x,y) / FY(y)

x y y
FX/Y(x /y) = ∫ ∫ f(x,y) dy dx / ∫ fY(y) dy
-∞ -∞ -∞

2.11 - Variáveis Aleatórias Independentes


Do primeiro capítulo sabe-se que P[A.B]=P[A] P[B] para que os eventos A e B
sejam independentes.

2.11.1 - Independência de Variáveis Aleatórias Discretas


a) Em relação a Função Densidade de Probabilidade.
p(xi, yJ) = P[X=xi, Y=yJ] ⇒ p(xi, yJ) = P[X=xi] P[ Y=yJ]
p(xi, yJ) = pX(xi) pY(yJ)

b) Em Relação a Função distribuição de probabilidade


P[X≤ x ,Y≤ y]= P[X≤ x] P[Y≤ y]
F(x,y) = FX(x) FY(y)

2.11.2- Independência de Variáveis Aleatórias contínuas


a) Em relação a Função Densidade de Probabilidade.
Por analogia com o caso discreto tem-se que:
f(x,y) = fX(x) fY(y)

b) Em relação a Função Densidade de Probabilidade.


por analogia com o caso discreto tem-se que:
P[X≤ x ,Y≤ y]= P[X≤ x] P[Y≤ y]
F(x,y) = FX(x) FY(y)
Ex 2.1.1- Duas cartas são retiradas ao mesmo tempo, de um conjunto formado pelas cartas
de número 1, 2, 3 e 6. Para este experimento aleatório a variável aleatória X representa o
produto dos números que as cartas retiradas mostram. Faça a representação esquemática
desta variável aleatória e obtenha o seu contradomínio RX.

Ex 2.2.1- Determine a probabilidade da variável aleatória X, definida no exemplo anterior,


assumir os valores 2 e 6.

Ex 2.4.2.1- um experimento aleatório consiste na retirada de duas bolas, ao mesmo tempo,


de uma urna contendo três bolas azuis e duas vermelhas. Para este experimento é definida a
variável aleatória X como sendo o número de bolas azuis retiradas. Determine a função
densidade de probabilidade de X.

Ex 2.4.2.2- Para o experimento aleatório acima referido, determine a probabilidade da


variável aleatória assumir os seguintes valores:
a) x > 1; b) 0 < x ≤ 1 ; x ≤ 3

Ex 2.4.2.3- Faça a representação gráfica da função densidade de probabilidade da V. A. X


referida no exemplo 1

Ex 2.4.4.1 - A V. A. X tem f(x) = a x 0 ≤ x ≤ 1


ax / 2 1 ≤ x ≤ 2
0 para outros x . Determine:
a) o valor de a para que f(x) seja uma função densidade de probabilidade; b) F(x).

Ex 2.4.4.2- Determine P[ X ≤ 3/2] para a variável aleatória X do exemplo anterior.

Ex 2.5.1.1.1- Qual é a probabilidade de obter-se, exatamente, duas vezes o número em três


lançamentos de um dado?

Ex 2.5.1.1.2- Qual é a probabilidade de obter-se, no máximo, uma vez o número 1 em três


lançamentos de um dado?

Ex 2.5.1.2.1- A probabilidade de ser produzida uma peça defeituosa em uma linha de


produção é igual a 3 % . Qual é a probabilidade de que, em uma produção de 300 unidades,
sejam encontradas no máximo 3 peças defeituosas
Ex 2.5.2.1.1- Uma variável aleatória X é uniformemente distribuída entre 10 e 20.
Determine a probabilidade da variável aleatória assumir valores entre 12 e 16.

Ex 2.5.2.2.1- Uma variável aleatória X é normalmente distribuída com média igual a 1200
e desvio padrão igual a 200. Qual é a probabilidade P[ 800≤ X≤ 1000]

Ex 2.5.2.3.1- Em um experimento aleatório verificou-se que a variável aleatória Y,


associada ao experimento, seguia uma distribuição exponencial com média igual a 20.
Determine a probabilidade desta variável aleatória assumir valores entre 10 e 20, ou seja,
P[ 10 ≤ Y≤ 20].

Ex 2.6.1.1- Um experimento aleatório consiste na retirada de duas cartas, ao mesmo tempo,


de um conjunto formado pelas cartas 1 , 2 , 3 e 6. Define-se para este experimento as
seguintes variáveis aleatórias: X - representa o produto dos números que as cartas retiradas
apresentam; Y - representa a soma dos números que as cartas retiradas apresentam.
Determine o contradomínio da V. A. bidimensional (X,Y)

Ex 2.6.2.1- Para o exemplo visto anteriormente, determine as seguintes probabilidades:


a) P[ X= 2, Y= 3]; b) P[X=6,Y=7] ; c) P[X=6, Y=3]

Ex 2.7.1.1- Considere o experimento de retirada de duas bolas de uma urna contendo 4


bolas azuis e 3 bolas vermelhas. Para esse experimento aleatório são definidas as seguintes
variáveis aleatórias: X é o número de bolas azuis retiradas; Y é o número de bolas
vermelhas retiradas. Determine a função densidade de probabilidade conjunta de (X,Y).

Ex 2.7.2.1- Para o exemplo anterior determine as seguintes probabilidades:


a) P[ X ≤ 2, Y ≤ 1] ; b) P[X ≤ 3,Y ≤ 3]

Ex 2.8.1.1- Determine o valor de a para que a função dada abaixo possa representar uma
função densidade de probabilidade conjunta.
f(x,y) = { a [x2 +(xy / 3)] 0≤ x ≤ 1 ; 0≤ y ≤ 2
{ 0 para outros x e y

Ex 2.8.2.1- Considerando-se o exemplo anterior e o valor de a obtido determine


P[ X≤ ½ , Y≤ 1]

Ex 2.8.2.2- Determine a função distribuição de probabilidade conjunta na forma literal ou


genérica para a variável aleatória que apresenta a função densidade de probabilidade dada
no exemplo anterior.

Ex 2.9.1.1- Para um experimento aleatório onde obteve-se a seguinte tabela, na qual estão
representados os valores da função densidade de probabilidade conjunta das V. A. (X,Y),
determine pY(4);

xi 3 10 12
yj
4 0,17 0,13 0,25
5 0,1 0,3 0,05

Ex 2.9.2.1- Para o exemplo anterior determine FX(10).

Ex 2.9.3.1- Sabendo-se que a função densidade de probabilidade conjunta f(x,y) é dada por:
f(x,y) = { x2 +(xy)/3 0≤ x≤ 1 ; 0≤ y≤ 2
{0 para outros valores de x e y
Determine a função densidade de probabilidade marginal para a variável aleatória X

Ex 2.9.4.1- Para o exemplo anterior determine a função distribuição de probabilidade


marginal para a variável aleatória X.

Ex 2.10.1.1- Duas linhas de produção fabricam um certo tipo de peça. Suponha que em
qualquer dia a capacidade de produção seja de 4 peças na linha I e de 2 peças na linha II.
Admita que o número de peças realmente produzidas, em qualquer linha, seja uma variável
aleatória e que (X,Y) represente a variável aleatória bidimensional que fornece o número de
peças produzidas pelas linhas I e II, respectivamente. A tabela abaixo fornece a função
densidade de probabilidade conjunta. Determine pX/Y(xi / 2) FX/Y (4/2).

xi 0 1 2 3 4
yj
0 0 0,01 0,03 0,05 0,16
1 0,01 0,02 0.04 0,05 0,14
2 0,02 0,05 0,09 0,11 0,22

Ex 2.10.2.1- Para o exemplo anterior determine FX/Y (4/2).

Ex 2.10.3.1- Se a função densidade de probabilidade conjunta das Variáveias aleatórias é


dada por:

f(x,y) = { (x + y) / 3 0≤ x≤ 1 ; 0≤ y≤ 2
{ 0 para outros intervalos de x e y
determine a função densidade de probabilidade condicional fX/Y(x/y);

Ex 2.10.4.1- Para o exemplo anterior determine FX/Y(x/y) = P[X≤ x, Y=y]

Ex 2.11.2.1- Verifique se as variáveias aleatórias X e Y são independentes , sabendo-se que


a função densidade de probabilidade conjunta é dada por:
-y
f(x,y) = { (1/2) e 0≤ x≤ 2 , y≥ 0
{ 0 para outros intervalos
Capítulo III – Valores esperados

3.1- Valor médio ou Média de uma Variável Aleatória.


Representa a média aritmética ponderada dos valores que a variável aleatória assume,
tendo como peso a função densidade de probabilidade.

3.1.1- Valor médio para uma Variável Aleatória Discreta.


Para equacionar o valor médio vamos realizar o seguinte experimento aleatório:
Lança-se uma moeda duas vezes. A variável aleatória X é definida como sendo o número de
caras que aparecem nos dois lançamentos.


E[X] = µ X = ∑ xi p(xi)
xi= -∞

3.1.2- Valor médio para uma Variável Aleatória Contínua.


Por analogia com a equação anterior tem-se que:

E[X] = µX = ∫ x f(x) dx
-∞

3.2 - Momento
É o valor média dos valores que a variável aleatória assume elevados a uma potência
r.
3.2.1- Momento para uma V. A. Discreta
r ∞
E[ X ] = mr = ∑ xir p(xi)
xi = - ∞

3.2.2 - Momento para uma V. A. Contínua.


r ∞
E[X] = mr = ∫ xr f(x) dx
-∞

3.3 - Momento Central


É o valor médio do desvio da média da V. A. elevado a uma potência r.
O desvio da média é a diferença entre os valores que a V. A. assume e a sua média
(xi-µX) ou (x-µX) para o caso de uma V. A. discreta ou contínuo, respectivamente.

3.3.1- Momento Central para uma V. A. Discreta



E[ (X-µX)r ] = mcr = ∑ (xi-µX) r p(xi)
xi = - ∞

3.3.2- Momento Central para uma V. A. Contínua



E[ (X-µX)r ] = mcr = ∫ (x-µX) r f(x) dx
-∞

3.4 Variância
É definida como sendo o segundo momento central da variável aleatória, ou seja,
Var[X] = σx2 = E[(X-µx)2]

3.4.1- Variância para uma Variável Aleatória Discreta



σx2 = ∑ (xi-µX)2 p(xi)
xi = - ∞

3.4.2- Variância para uma Variável Aleatória Contínua



σx =
2
∫ (x-µX) 2 f(x) dx
-∞

Obs. A variância é uma medida de dispersão da variável aleatória e terá um grande valor
(será mais dispersa) quanto mais distante da média µX, a variável aleatória assumir valores
com grandes probabilidades e terá um pequeno valor( será menos dispersa ou mais
concentrada ) quanto mais próximo da média a variável aleatória assumir valores com
grandes probabilidades.

3.4.3- Propriedades da Variância


a) Var[ k X] = k2 Var[X] = k2 σx2
b) Var[X1+X2 + ... + VarXn] = Var[X1]+Var[X2]+...+ Var[Xn]

3.5- Desvio Padrão


____
σx = √ σx2

3.6 - Propriedades do Valor Esperado


a) Se k é uma constante, então E[k]= k;
b) E[k X] = k E[X];
c) E[X1 + X2] = E[X1] + E[X2];
n n
d) E[ ∑ ki Xi] = ∑ ki E[ Xi];
i=1 i=1

e) Se X e Y são variáveis aleatórias independentes, então:


E[XY] = E[X] E[Y];
f) σx2 = E[X2] - µx2
3.7- Covariância e Coeficiente de Correlação

3.7.1- Covariância
É a variância entre duas variáveis aleatórias e representa o valor médio do produto
dos desvios das médias das variáveis aleatórias.
σXY = E[(X-µX) (Y-µY)] ⇒ σXY = E[XY] - µX µY

3.7.2- Coeficiente de Correlação


É o parâmetro que mede o grau de linearidade entre duas variáveis aleatórias ou a
dependência linear entre elas.
ρXY = σXY / σX σY , onde: σX é o desvio padrão da V. A. X;
σY é o desvio padrão da V. A. Y; e
-1 ≤ ρXY≤ 1
valores de ρXY próximos a ± 1 indicam alto grau de linearidade
valores de ρXY próximos a 0 indicam falta de linearidade
ρXY positivo indica que Y cresce com valores crescentes de X
ρXY negativo indica que Y decresce com valores crescentes de X.

3.8 - Esperança Condicional.


É o valor médio dos valores que a variável aleatória X assume dado que a variável
aleatória Y assumiu um determinado valor a priori.
3.8.1- Esperança Condicional para Variável Aleatória Discreta

E[X/Y= yJ ] = ∑ xi pX/Y(xi/yJ)
xi = -∞

3.8.2-Esperança Condicional para Variável Aleatória contínua



E[X/Y= yJ ] = ∫ x fX/Y(x/y) dx
-∞

3.9 – Função Geratriz de Momentos

Suponha que g(X) seja uma variável, função de uma variável aleatória X complexa,
através da expressão g(X) = e jωX. Denomina-se de função geratriz de momentos ao valor
médio de g(X), isto é, ϕX (ω) = E[e jωX].

3.9.1 – Função Geratriz de Momentos para uma Variável Aleatória Discreta.



ϕX (ω) = ∑ e jωxi p(xi)
xi = - ∞

3.9.2 – Função Geratriz de Momentos para uma Variável Aleatória Contínua


ϕX (ω) = ∫ e jωx f(x) dx
-∞

3.9.3 – Aplicação da Função Geratriz de Momentos no Cálculo de Momentos


Expandindo-se ϕX (ω) em uma série de potência, mais precisamente na série de
Mclaurin, tem-se:
ϕX (ω) = α0 + α1 ω + α2 ω2 + . . . + αn ωk eq. A

Os coeficientes podem ser obtidos da seguinte maneira:

α0 = ϕX (ω)ω =0 α1 = dϕX (ω) / dωω =0 α2 = (1/ 2! ) d2ϕX (ω) / dω2ω =0

αk = (1/ k! ) dkϕX (ω) / dωkω =0

Expandindo-se na série de Mclaurin o termo e jωX tem-se:

e jωx = 1 + j ω x + (j ω x)2 / 2! + . . . + (j ω x)k / k!

Usando-se o termo e jωx expandido na série de Mclaurin obtém-se :



ϕX (ω) = E[e ] = ∫ [1 + j ω x + (j ω x)2 / 2! + . . . + (j ω x)k / k! ] f(x) dx
jωX

-∞

∞ ∞ ∞ ∞
ϕX (ω) = ∫ f(x)dx + ∫ j ω x f(x) dx + ∫ [(j ω x) / 2! ] f(x) dx + ∫
2
[(j ω x)k / k! ] f(x)
dx
-∞ -∞ -∞ -∞

ϕX (ω) = 1 + j ω E[X] + (j2 ω2 / 2!) E[X2 ]+ . . . + (jk ωk / k!) E[Xk ] eq. B

Comparando-se as equações A e B, tem-se:

α0 = 1

α1 = j E[X] ⇒ E[X] = α1 / j

α2 = j2 E[X2] / 2! ⇒ E[X2] = 2! α2 / j2

αk = jk E[Xk] / k! ⇒ E[Xk] = k! αk / jk

A última expressão, E[X k] = k! αk / jk , possibilita o cálculo do k-ésimo momento de


uma variável aleatória X a partir do conhecimento da sua função característica.

Ex 3.1.2.1- Determine o valor médio da variável aleatória X que apresenta a seguinte função
densidade de probabilidade:
f(x) = { 2x 0 ≤ x≤ 1
{ 0 para outros x

Ex 3.2.1.1- Determine o 2 o momento da V. A. X que representa o número da face superior


de um dado em um único lançamento
Ex 3.3.1.1- Determine para o exemplo anterior o 2 o momento central da V. A. X .

Ex 3.4.1.1- A variável aleatória Y = 2 X, onde X é uma variável aleatória que apresenta a


seguinte função densidade de probabilidade:

xi 2 3 4
p(xi) 1/4 1/2 1/4

Determine a variância da variável aleatória de Y.

Ex 3.4.2.1- Determine a variância de uma variável aleatória uniformemente distribuída entre


0 e 4.

Ex 3.7.2.1- suponha que a variável aleatória Y esteja relacionada com a variável aleatória X
pela expressão Y = -3X/2, onde a V. A. X é uniformemente distribuída entre 0 e 2.
Determine o coeficiente de correlação.

Ex 3.8.2.1- Se a função densidade de probabilidade conjunta das Variáveias aleatórias é


dada por:

f(x,y) = { (x + y) / 3 0≤ x≤ 1 ; 0≤ y≤ 2
{ 0 para outros intervalos de x e y
determine o valor médio condicional E[X/Y=1].

Ex. 3.9.1 – Ache a função geratriz de momentos da variável aleatória X uniformemente


distribuída entre 0 e 2. Use a função geratriz de momentos para calcular o 2º momento da
variável aleatória X.

Capítulo IV - Função de Variável Aleatória


Supor que tem-se uma variável Y como função da variável aleatória X, isto é,
Y = g(X), então Y é , também, uma variável aleatória.
Objetivo - Determinar a função densidade de probabilidade da variável aleatória Y, dada a
função densidade de probabilidade da variável aleatória X.

4.1- Função de Variável Aleatória para Variável Aleatória Discreta.


O procedimento adotado para determinar-se a função densidade de probabilidade da
variável aleatória Y, que é função da variável aleatória X, será mostrado através do
exemplo.

4.2- Função de Variável Aleatória para Variável Aleatória Contínua.


Como a variável Y está relacionada com a variável aleatória X e este relacionamento é
representado por Y=g(X), estudaremos os diversos tipos de expressões para g(x).

4.2.1- g(X) é uma função crescente.

yo = g(xo)

y1 = g(x1)

xi = g-1(yi) xo = g-1(yo) x

P[X≤ xo] = P[Y≤ yo]

f(y) = f[g-1(y)] dg-1(y)/dy

4.2.2- g(X) é uma função decrescente

y1 = g(x1)
xo = g-1(yo)

xi = g-1(yi) x

yo = g(xo)

P[X≥ xo] = P[Y≤ yo]

f(y) = f[ g-1(y)] dg-1(y)/dy

4.2.3- g(X) é uma função mista

a
x1 x2 x3 x4 x

P[a≤ Y≤ b]=P[x1≤ X≤ x2] +P[x3≤ X≤ x4]


para um valor de y entre a e b a função densidade de probabilidade é:
f(y) = f[g1-1(y) ] dg1-1(y)/dy+ f[ g2-1(y)] dg2-1(y)/dy
onde: g1-1(y) é a inversa de g(x) aplicada entre x1 e x2
g2-1(y) é a inversa de g(x) aplicada entre x3 e x4

4.2.4- g(X) é uma função ‘jump’ (salto).

x1 x

P[a< Y< b] = P[X=x1]

f(y) = 0

4.2.5- g(X) é uma constante

k
a b x

P[Y=k] = P[a ≤ X ≤ b]
b
P[Y=k] = ∫ f(x) dx
a

4.3 - Soma de duas variáveias aleatórias

Considere a variável Y como sendo função de duas variáveis aleatórias através da


soma, ou seja, Y = X1 + X2, onde as variáveis aleatórias são independentes. O nosso
objetivo é determinar a função densidade de probabilidade da variável aleatória Y.
4.3.1- Soma de duas Variáveis Aleatórias Discretas.

O procedimento adotado para obter-se a função densidade de probabilidade da


variável aleatória Y será visto no exemplo.


p(yJ) = ∑ pX1(xi) pX2 (yJ -xi )
xi = -∞

4.3.2- Soma de Duas Variáveis Aleatórias Contínuas


Por analogia com o caso discreto tem-se que:
∞ ∞
f(y) = ∫ fX1(x1) fX2(y-x1) dx1 = ∫ fX2(x2) fX1(y-x2) dx2
-∞ -∞
Esta integral recebe o nome de integral de convolução e f(y) pode ser representada
pela operação de convolução entre as funções fX1(x1) e fX2 (x2), ou seja, f(y) = fX1(x1) * fX2(x2)
ou f(y) = fX2(x2) * fX1(x1), devido esta operação ser comutativa.

4.3.2.1- Análise Gráfica da função fX2(y-x1).


Seja fX2(x2) = { x2 /2 0 ≤ x2 ≤ 2
{ 0 para outros x2

substituindo-se o argumento x2 por x1 tem-se:


fX2(x1) = { x1 /2 0 ≤ x1 ≤ 2
{ 0 para outros x1

substituindo-se o argumento x1 por - x1 tem-se:


fX2(-x1) = { -x1 /2 0 ≤ -x1≤ 2 ⇒ -2 ≤ x1≤ 0
{ 0 para outros x1

substituindo-se o argumento -x1 por (y - x1), atribuindo-se para y um valor, por exemplo,
igual a 1, tem-se:
fX2(1-x1) = {(1-x1)/2 0≤ 1-x1≤ 2 ⇒ -1≤ -x1≤ 1 ⇒ -1≤ x1≤ 1
{0 para outros x1

4.3.2.2- Procedimento para a Resolução da Convolução


1) Determinar o intervalo de variação de y
2) Faça os gráficos das funções fX1(x1) e fX2(-x1).
3) Plote em um único gráfico as funções fX1(x1) e fX2(y-x1) atribuindo para y o menor valor
do intervalo obtido no ítem 1.
4) Resolva a integral de convolução considerando os limites de integração inferior e
superior, Li e Ls, respectivamente. Em seguida determine estes limites observando no
gráfico do ítem 3 se o produto das funções é diferente de zero.
5) Desloque a função fX2(y-x1), atribuindo para y um valor contido no intervalo obtido no
ítem 1, sempre observando quando dois extremos das funções f X1(x1) e a função deslocada
se tocam. Então plote em um único gráfico as duas funções e resolva a integral de
convolução, considerando os limites de integração inferior e superior, Li e Ls,
respectivamente. Então determine estes limites, observando no gráfico se o produto das
funções é diferente de zero.
6) Repita o ítem 5 até que y tenha assumido todos os valores existente dentro do intervalo
obtido no ítem 1.

Ex 4.1.1- Uma urna contém 4 bolas numeradas de 1 a 4. O experimento consiste em retirar-


se uma bola da urna. A variável aleatória X representa o número que a bola retirada
apresenta. Determine a função densidade de probabilidade da variável Y que está
relacionada a variável aleatória X pela expressão Y = 2X + 1.

Ex 4.2.1- A função densidade de probabilidade da variável aleatória X é dada por: f(x) = e-x
para x≥ 0 e zero para outros valores de x. Sabe-se que Y é uma variável função de X
através da expressão Y = 2X - 2. Determine a função densidade de probabilidade da variável
Y.

Ex 4.2.2- A função densidade de probabilidade da variável aleatória X é dada por:


f(x) = ax 0≤ x≤ 4 e zero para outros x.
Determine f(y), sabendo-se que Y está relacionada com a V. A. X pela expressão
Y={ (X-2)2 para 1 ≤ x≤ 4
{ 1 para 0≤ x≤ 1
Ex. 4.3.1.1- Considere a existência de duas urnas. Na urna 1 existem três bolas numeradas
de 1 a 3, enquanto na urna 2 existem duas bolas numeradas, 4 e 5. O experimento aleatório
consiste na retirada de uma bola de cada urna. A variável aleatória X1 representa o valor que
a bola retirada da urna 1 apresenta, enquanto a variável aleatória X2 representa o valor que a
bola retirada da urna 2 apresenta.. Determine a função densidade de probabilidade da
variável aleatória Y que é função de X1 e X2 através da soma Y = X1 + X2

Ex. 4.3.3.1- Determine a função densidade de probabilidade da variável aleatória Y = X 1 +


X2, onde X1 e X2 são variáveis aleatórias independentes e apresentam as seguintes funções
densidades de probabilidade:
fX1(x1) = { 1 0≤ x1≤ 1 fX2 (x2)= { x2/2 0< x2 <2
{ 0 para outros x1 {0 para outros x2

Ex. 4.3.3.2- Determine a função densidade de probabilidade da variável aleatória Y = X 1 +


X2, onde X1 e X2 são variáveis aleatórias independentes e apresentam as seguintes funções
densidades de probabilidade:
fX1(x1) = { x + 1 -1≤ x1≤ 0 fX2 (x2) = {x2 / 4 0 ≤ x2 ≤ 2
{-x + 1 0≤ x1≤ 1 { - x2 / 4 -2 ≤ x2 ≤ 0
{0 para outros x1 {0 para outros x2

CAPÍTULO V - PROCESSOS ALEATÓRIOS

5.1 - Conceito.
Suponha que seja realizado um experimento aleatório cujo resultado compõe o espaço
amostral S, onde a probabilidade de ocorrência de cada evento s é conhecida. Para cada
resultado ou evento s é atribuída uma função do tempo X(t,s) real. Então, teremos criado
uma família de funções, a qual denominaremos de processo aleatório ou estocástico.
Um processo aleatório pode ser visto como uma função de duas variáveis, t e s, onde
o domínio de s é o espaço amostral S e o domínio de t é o conjunto dos números reais.

5.2 - Interpretações de X(t).


Um processo aleatório pode ser interpretado, dando-se quatro diferentes significações:
a) Uma família de funções do tempo (um processo aleatório propriamente dito) - quando t e
s são variáveis.
b) Uma função do tempo (função amostra) - quando t é variável e s constante (fixo).
c) Uma variável aleatória - quando t constante (fixo) e s variável.
d) Um número - quando t e s são constantes.

5.3- Classificação dos Processos Aleatórios.


Dependendo dos valores que t e s assumam, isto é, se são contínuos ou discretos, os
processos aleatórios classificam-se em:
a) Processo aleatório contínuo - quando t e s são contínuos.
b) Processo aleatório discreto - quando t é contínuo e s é discreto.
c) Seqüência aleatória contínua - quando t é discreto e s é contínua.
d) Seqüência aleatória discreta - quando t e s são discretos.

5.4 - Estatísticas de Primeira e Segunda Ordens.

5.4.1 - Função distribuição de probabilidade de primeira ordem do processo aleatório X(t).

É a função que define a probabilidade do processo aleatório X(t) assumir um valor


menor ou igual a x em um determinado tempo t e é representada por F(x, t) =P[X(t)≤ x].

5.4.2- Função densidade de probabilidade de primeira ordem do processo aleatório X(t).


é representada por f(x,t) = ∂ F(x,t) / ∂ x

5.4.3- Função distribuição de probabilidade de segunda ordem do processo aleatório X(t).

É a função que define a probabilidade do processo aleatório X(t) assumir valores


menores ou iguais a x1 e x2 em dois instantes de tempo t1 e t2, respectivamente, e é
representada por : F(x1, x2 ; t1, t2) = P[ X(t1) ≤ x1 , X(t2) ≤ x2].

5.4.4 - Função densidade de probabilidade de segunda ordem do processo aleatório X(t).


é representada por f(x1,x2;t1,t2) = ∂ 2F(x1, x2 ;t1,t2) /∂x1∂x2.

5.5 - Momentos de um Processo Aleatório X(t).

5.5.1-Momento ou valor médio de um processo aleatório X(t).



E[X(t)] = µX(t) = ∫ x f(x,t) dx
-∞
onde f(x,t) tem que ser obtida de conformidade com o visto no capítulo anterior.

E[X(t)] = µX(t) = ∫ X(t) f(λ) dλ
-∞
onde f(λ) é a função densidade de probabilidade da variável aleatóri contida no processo
aleatório.

5.5.2- Função Auto-Correlação de um Processo Aleatório


É o momento conjunto das variáveis aleatórias X(t1) e X(t2) e é representado por:

RXX(t1, t2) = E[X(t1) X(t2)] = ∫ X(t1) X(t2) f(λ) dλ
-∞
onde f(λ) é a função densidade de probabilidade da variável aleatória contida no processo
aleatório.

RXX(t1, t2) = E[X(t1) X(t2)] = ∫ x1 x2 f(x1,x2; t1, t2) dx1 dx2
-∞
onde f(x1,x2; t1, t2) é a função densidade de 2 a ordem de X(t)

5.5.3 - Auto-covariância de X(t).

É a covariância das variáveis aleatórias X(t1) e X(t2), e é obtida pelo uso da equação:
CXX(t1, t2) = E{[ X(t1) - µX(t1)] [ X(t2) - µ X(t2)]}

CXX(t1, t2) = RXX(t1, t2) - µX(t1) µX(t2)

5.5.4 – Variância de um processo aleatório X(t)

A variância de um processo aleatório X(t) é o segundo momento central do processo


e é obtido pela equação:
σ2X(t) = E[X(t)2] - [µ X(t)]2

Fazendo-se t1 = t2 = t, então a auto-correlação de X(t) é dada por:


RXX(t, t) = E[X(t) X(t)] = E[X(t)2] , então tem-se que:

σ2X(t) = RXX(t, t) - [µ X(t)]2

5.5.5 – Desvio Padrão do Processo Aleatório X(t).


_______ __________________
σX(t) = = √ σ X(t) = √ RXX(t, t) - [µ X(t)]2
2

5.6 - Processo Aleatório Estacionário

Um processo aleatório é dito estacionário se suas propriedades estatísticas ( valor


médio, momentos, variância, etc.) - relacionadas a função densidade de probabilidade do
processo - não mudam com o tempo.
Um processo aleatório estacionário pode ser definido em dois sentidos: o sentido
amplo e o sentido estrito.

5.6.1- Processo Aleatório Estacionário no Sentido Estrito.


Um processo aleatório é estacionário no sentido estrito se é satisfeita a seguinte
condição:
f(x1,x2, . . .,xn;t1,t2, . . .,tn) = f(x1,x2, . . .,xn ;t1+ε,t2+ε, . . .,tn+ε) , ou seja, a função densidade
probabilidade de n-ésima ordem do processo aleatório independe do tempo, onde ε é o
acréscimo de tempo dado.

5.6.2 - Estacionariedade de Primeira Ordem.


Restringindo a estacionariedade no sentido estrito para a função densidade de
probabilidade de primeira ordem, tem-se que:
f(x; t1) = f(x; t1 + ε) = f(x) , pois independe do tempo e uma conseqüência é que: E[ X(t) ] =
µX = constante.

Para um processo aleatório X(t) tem-se que:



E[ X(t1)] = ∫ x f(x, t1) dx
-∞

E[ X(t1 +ε)] = ∫ x f(x, t1+ε) dx
-∞

para estacionariedade de primeira ordem tem - se que:


f(x; t1) = f(x; t1 + ε) , então:
E[ X(t1 +ε)] = E[ X(t1)] = cte. , para t e ε arbitrários

5.6.3 - Estacionariedade de segunda ordem.


Um processo aleatório para ser estacionário em segunda ordem tem que satisfazer as
seguintes condições:
f(x1,x2;t1, t2) = f(x1,x2;t1+ε, t2 +ε) e
RXX(t1, t2) = RXX(t1 +ε, t2 +ε) ( 1 ) e a consequência é que:
RXX(t1, t2) = E [ X(t1) X(t2)] = RXX(τ ) , onde τ = t2 - t1.
fazendo-se t = t1 +ε , e substituindo-se em (1) tem-se que:
RXX(t1, t2) = RXX(t, t2 + ε) ( 2 ) . Como ε = t - t1 e substituindo-se em (2) obtém-se:
RXX(t1,t2) = RXX(t, t2 + t - t1) ( 3 ). Reordenando-se (3) tem-se:
RXX(t1,t2) = RXX[(t, t + (t2 - t1) ] , fazendo-se t2 - t1= τ tem-se:
RXX(t1,t2) = RXX(t, t + τ ) = RXX(τ ) = E[X(t) X(t+τ)], onde τ é denominado de diferença de
tempo.

5.6.4 - Processo Estacionário no Sentido Amplo.


A condição necessária para que um processo aleatório seja considerado estacionário
no sentido amplo é que sejam satisfeitas as condições abaixo:
a) E[X(t)] = constante.
b) E[X(t) X(t+τ)] = RXX (τ ).

Obs. Se um processo aleatório é estacionário no sentido estrito, então ele será estacionário
no sentido amplo. O contrário nem sempre é verdadeiro.

5.7 - Função Auto-correlação de Processos Aleatórios Estacionários.


RXX(τ ) = RXX(t1,t2) = RXX(t1, t1 + τ ), onde τ = t2 - t1

5.7.1 - Propriedades da RXX(τ ).


a) RXX(τ ) = RXX(-τ ) - propriedade simétrica;
b) RXX(0 ) ≥ 0 , onde para τ = 0 tem-se que:
RXX(0 ) = = RXX(t1, t1 ) = E[ X(t1) X(t1)] = E[X2 (t1)]
c) RXX(0 ) ≥ RXX(τ )
d) Se X(t1) e X(t1 + τ) são independentes, então RXX(τ ) = µ2.

5.8 - Média no Tempo


A média no tempo de uma função amostra de um processo aleatório é obtida através
da expressão:
b
η(a,b) = η= 1/(b-a) ∫ X(t) dt
a
A média no tempo η(a,b) = η é uma variável aleatória, pois para diferentes valores
de s (valores que a variável aleatória contida no processo assume) tem-se diferentes funções
amostras, consequentemente η terá valores diferentes. Com isso, pode-se obter o valor
médio da média no tempo, isto é, E[η], ou seja.
b
E[η] = E{ [1/(b-a)] ∫ X(t) dt}
a
b
E[η] = [1/(b-a)] ∫ E[X(t)] dt
a
b
E[η] = [1/(b-a)] ∫ µX (t) dt
a

se o processo aleatório é estacionário µX(t) é uma constante igual a µ , então:


b
E[η] = [1/(b-a)] µ [ t ] ⇒ E[η] = [1/(b-a)] µ [b-a] = µ
a

5.9 - Processo Aleatório Ergódico ( Ergocidade).


Ergódico é o termo usado para descrever um processo aleatório em que uma única
amostra deste processo, normalmente propicia informações suficientes para determinar-se a
estatística referente ao processo aleatório.
Quando o processo aleatório é ergódico os valores esperados do processo podem ser
substituídos pela média no tempo.
De um modo geral um processo aleatório é ergódico se: T
E{ g[X(t)]} = lim (1/2T) ∫ g[X(t)] dt
T→∞ -T

onde as formas de maior interesse para a função g[ X(t)] são as seguintes:


g[X(t)] = X(t) e g[X(t)] = X(t) X(t + τ).

5.9.1 - Ergodicidade na Média.


Se um processo aleatório é ergódico na média, então a condição abaixo deve ser
satisfeita:
T
E[X(t)] = lim (1/2T) ∫ X(t) dt , então:
-T
µX(t) = η( -T, T)
Para haver esta igualdade é necessário que µX(t) independa do tempo t, o que significa
que o processo aleatório deve ser estacionário e, consequentemente, µX(t) = µ = cte., e
η( -T, T) deve ser independente da função amostra escolhida, ou seja, η( -T, T) deve ser a
mesma para qualquer função amostra do processo aleatório, consequentemente η( -T, T)
deve ser constante

5.9.2 - Ergodicidade na Auto-correlação


Se um processo aleatório é ergódico na auto-correlação, então a condição abaixo deve
ser satisfeita:
T
E[X(t)X(t+τ)] = lim (1/2T) ∫ X(t)X(t+τ ) dt
-T
onde o termo E[X(t)X(t+τ)] = RXX(τ) é a auto-correlação de um processo aleatório
estacionário e o termo:
T
lim (1/2T) ∫ X(t)X(t+τ ) dt = RT(τ) é a média no tempo do
-T produto do processo aleatório considerando-se dois instantes
do tempo.

5.10 - Densidade Espectral de Potência.


Chama-se densidade espectral de potência para a transformada direta de fourier da
função auto-correlação RXX(τ) de um processo aleatório estacionário. Desse modo tem-se
que:
∞ - jωτ
ΦXX(ω) = ∫ e RXX(τ) dτ
-∞
Achando-se a transformada inversa de fourier de ΦXX(ω), obtém-se a função auto-correlação,
ou seja:
∞ jωτ
RXX(τ) = (1/2π) ∫ e ΦXX(ω) dω
-∞

5.10.1- Propriedades da Densidade Espectral de Potência.

1) O valor de ΦXX(ω) em ω= 0 é igual a área total sob o gráfico da função auto-correlação, ou


seja:

ΦXX(0) = ∫ RXX(τ) dτ
-∞

2) o segundo momento do processo estacionário no sentido amplo é igual a área total sob o
gráfico de ΦXX(ω)

RXX(0) = E[ X (t)] = ∫ ΦXX(ω) dω
2

-∞

3) A densidade espectral de potência de um processo aleatório no sentido amplo é sempre


não negativa,isto é, ΦXX(ω)≥ 0 ∀ ω

4) A densidade espectral de potência de um processo aleatório real é uma função par da


frequência, isto é, ΦXX(ω) = ΦXX(-ω)

5.10.2 - Significado da Densidade Espectral de Potência.


Considerando-se τ = 0 na expressão da transformada inversa de Fourier tem-se:

RXX(0) = E[ X (t)] = (1/ 2π) ∫ ΦXX(ω) dω
2

-∞
Portanto, se X(t) é uma corrente através de um resistor de um Ohms, então
E[X2(t)] é a potência instantânea esperada ser dissipada no resistor. Então a integral de
ΦXX(ω) é também a potência instantânea dissipada no resistor. Logo ΦXX(ω) é uma densidade
de potência. T
Se X(t) é ergódico, E[X2(t)] = lim (1/2T) ∫ X2(t) dt
T →∞ -T
então, E[X2(t)] é a potência média dissipada no resistor de um Ohms.

5. 11 - Processo Aleatório Conjunto.


Considere a existência de dois processo aleatórios X(t) e Y(t), para os quais pode-se
definir os seguintes parâmetros:

5.11.1- Função distribuição de Probabilidade conjunta de primeira ordem.


F(x1,t1;y2, t2) = P[X(t1) ≤ x1 , Y(t2) ≤ y2].

5.11.2- Função densidade de Probabilidade conjunta de primeira ordem.

f(x1,t1;y2, t2) = ∂ 2 F(x1,t1;y2, t2) / ∂x1∂y2

5.11.3- Correlação cruzada

RXY(t1,t2) = E[X(t1) Y(t2)]

RYX (t2,t1) = E[Y(t2) X(t1)]

RXY(t1,t2) = RYX (t2,t1)

pela propriedade da função auto-correlação de processos aleatórios estacionários, tem-se que

RXY(-τ) = RYX (τ)

5.12 – Processos Aleatórios Especiais.

5.12.1 – Processo de Poisson

X(t) é um processo aleatório de poisson se uma função amostra deste processo


segue uma distribuição de poisson, ou seja, a sua função densidade de probabilidade é
dada por :

p(xi, t) = P[X(t) = xi] = [ e -λt (λt) xi ] / xi!

A função distribuição de probabilidade é dada por:


x
F(x, t) = P[ X(t) ≤ x]= ∑ [ e -λt (λt) xi ] / xi!
xi = 0
onde: λ é a taxa média.

5.12.2 – Processo Gaussiano

Diz-se que X(t) é um processo aleatório gaussiano se uma função amostra deste
processo segue a distribuição de gaussiana, ou seja, a sua função densidade de
probabilidade é dada por :

___ - (1/2) {[ x - µx(t)] / σx(t)]} 2


f(x,t) = (1/ σx(t) √ 2π ) e

Qualquer conjunto de n variáveis aleatórias, definidas para este processo, constitui


um vetor gaussiano X = [X(t1) X(t2) . . . X(tn)] , sendo a função densidade de
probabilidade do vetor aleatório dada por:

_______ ___ - (1/2) [( x - µx)T (Λx)-1 ( x - µx) ]


f(x) = [1/ √ det Λx ( √ 2π ) ] e
n

onde:

µx = { E[X(t1)] E[X(t2)] . . . E[X(tn)] }T é o vetor transposto que contém os valores


médios do processo nos instantes t1, t2, . . . , tn , e

Cxx(t1,t1) Cxx(t1,t2) . . .Cxx(t1,tn)

Cxx(t2,t1) Cxx(t2,t2) . . . Cxx(t2,tn)


Λx = . . .
. . .
. . .

Cxx(tn,t1) Cxx(tn,t2) . . . Cxx(tn,tn)

Λx é a matriz covariância do processo gaussiano.


Ex 5.1.1- Um experimento aleatório consiste na conexão de dois geradores G1 e G2 a uma
carga. Esta conexão depende do resultado obtido quando se lança uma moeda uma única
vez. Na ocorrência de cara o gerador G1 é conectado na carga, se ocorrer coroa o gerador G2
é conectado. As formas de onda de saída dos geradores são mostradas na figura abaixo. Faça
as interpretações para o processo aleatório e classifique-o.

G G C
A
1 2
R
G
A

Ex. 5.5.1.1- Determine a média do processo aleatório X(t) = 2 Y t, onde Y é uma variável
aleatória cuja função densidade de probabilidade é dada por: f(y) ={ 2y/3 1≤ y≤ 2
{0 para outros y

Ex.5.5.2.1- Determine a auto-correlação do processo aleatório X(t) = 2 Y t visto no


exemplo anterior.

Ex. 5.5.2.2- Determine a função auto-correlação do processo aleatório dado por X(t) = A
cos(ω t + θ ), onde θ é uma variável aleatória uniforme entre - π e π , enquanto A e ω são
constantes.

Ex 5.5.3.1- Determine a auto-covariância do processo aleatório X(t) = A cos(ω t + θ ), visto


anteriormente.

Ex. 5.6.4.1- Verifique se o processo aleatório X(t) = A cos(ω t + θ ) é estacionário no


sentido amplo.
Ex 5.7.1- Verifique quais das funções abaixo podem representar funções auto-correlações:
a) RXX(τ) = 2 e - 2τ b) RXX(τ) = 4 ; c) RXX(τ) = 1- e - τ

Ex 5.9.1- Verifique se o processo aleatório X(t)= A cos (ωt +θ ), já estudado anteriormente,


é ergódico na média e na auto-correlação.

Ex 5.10.1- O ruído branco B(t) é um processo aleatório caracterizado por uma densidade
espectral de potência constante dada por:
ΦXX(ω) = No / 2 W/ Hz. Determine a auto-correlação de B(t),

Ex. 5.12.1 – O número de chamadas em uma central telefônica, que pode ser modelada por
um processo de poisson, apresenta a taxa média de uma chamada a cada quatro segundos.
Determine a probabilidade de que o número de chamadas no intervalo de zero a dez
segundos seja maior do que 5 chamadas.

Ex. 5.12.2 – Um processo aleatório gaussiano é estacionário com valor médio e


autocorrelação dados por:

µX (t) = 1 RXX(τ) = 2 - τ + 1, determine a probabilidade do processo aleatório, no


instante t=4, assumir valores entre 1 e 3.
CAPÍTULO VI - SISTEMAS E SINAIS ALEATÓRIOS

6.1 - Revisão de Sistemas Lineares e Invariantes no Tempo.

6.1.1 - Sistema Linear.


Um sistema é dito linear se satisfaz a regra da linearidade. Para tanto considere:
a) x1(t) um sinal aplicado na entrada do sistema e y1(t) a resposta do sistema.
b) x2(t) um sinal aplicado na entrada do sistema e y2(t) a resposta do sistema.
Se x3(t)=a1x1(t) +a2x2(t), que é uma combinação linear dos sinais anteriores, é aplicado na
entrada do sistema e produz a resposta y3(t) =a1y1(t) +a2y2(t), então o sistema é chamado
linear.

6.1.2- Sistema invariante no tempo


Um sistema é dito invariante no tempo se x(t) pruduz a saída y(t), então x(t+τ)
produz a saída y(t+τ)

6.2 - Resposta de um sistema a um sinal de entrada x(t)


Considerando um sistema linear e invariante no tempo deseja-se obter a resposta deste
sistema quando na sua entrada é aplicado um sinal x(t).

6.2.1 - Função Impulso ou Delta de Dirac.


É uma função singular assim definida:
δ(t) = 0 p/ t ≠ 0
b
∫ δ(t) dt =1 com a > 0 e b > 0
-a
Para um impulso ocorrendo em t = a tem-se que:
δ(t-a) = 0 p/ t ≠ a
c
∫ δ(t-a) dt =1 para b < a < c
b

∫ f(t) δ(t-to) dt = f(to)

6.2.2 - Resposta ao Impulso.
Quando x(t) é um impulso a resposta do sistema a este sinal é y(t) = h(t)

6.2.3 - Resposta a uma sinal x(t) qualquer.


Para um sinal de entrada x(t) qualquer a resposta do sistema y(t) é dada por:

y(t) = ∫ h(τ) x(t-τ) dτ (1)

6.3- Análise de Fourier


Consiste na obtenção da resposta do sistema no domínio da frequência. usando-se a
transformada de Fourier na equação (1) , tem-se pela propriedade da transformada de fourier
que a transformada da convolução é igual ao produto das transformadas das funções que
estão sendo convoluidas. Portanto, tem-se que:

Y(ω) = H(ω) X(ω) , onde obtém-se que:

H(ω) = Y(ω) / X(ω) que é denominada de função de transferência do Sistema.

6.3.1 - Função de transferência de um sistema

Considere uma equação diferencial linear da forma:


an yn(t) + an-1 y(n-1)(t) + ... + aoy(t) = x(t) , onde:
ai , i= 0, 1, ...n são constantes e y(i) é a i-ésima derivada de y(t) em relação a t. Tomando-se a
transformada de Fourier da equação tem-se:
[an (jω)n + an-1 (jω)(n-1) + ... + ao] Y(jω) = X(jω)
n
H(jω) = 1/ [ ∑ ai (jω)i ]
i=0

6.4 - Processo Aleatório como Entrada de um Sistema Linear Invariante no Tempo.


Quando na entrada de um S.L.I.T. é aplicado um processo aleatório X(t) a resposta
ou saída do sistema é obtida usando-se a equação:

Y(t) = ∫ h(τ) X(t- τ) d τ
-∞

6.4.1 - Média ou valor médio da resposta do sistema



Y(t) = ∫ h(τ) X(t- τ) d τ
-∞

E[Y(t)] = E[ ∫ h(τ) X(t- τ) d τ]
-∞

E[Y(t)] = ∫ h(τ) E[ X(t- τ)] d τ
-∞
Assumindo-se que X(t) é um processo aleatório estacionário tem-se que:
E[ X(t- τ)] = E[X(t)] = cte = µX

E[Y(t)] = E[ X(t- τ)] ∫ h(τ)d τ
-∞

E[Y(t)] = µX H(0) = µX (1/ao)

6.4.2 - Correlação Cruzada

RXY (t1,t2) = E[X(t1) Y(t2)] = RYX(t2,t1) = E[Y(t2)X(t1)]


RXY(τ) = E[X(t + τ) Y(t)]
RXY(-τ) = RYX(τ) ∞
RXY(τ) = E[X(t + τ) Y(t)] = E[X(t+τ) ∫ h(λ) X(t-λ)]dλ
∞ -∞
RXY(τ)= ∫ E[ X(t+τ) X(t-λ)] h(λ)dλ
-∞ ∞
RXY(τ)= ∫ RXX(τ+λ) h(λ)dλ
-∞

RXY(-τ) = RYX(τ) = ∫ RXX(λ-τ) h(λ)dλ (eq.1)
-∞
como RXX(τ) = RXX(-τ) tem-se que :

RXY(-τ) = RYX(τ) = ∫ RXX(τ-λ) h(λ)dλ
-∞

Como a transformada direta de Fourier da convolução no domínio do tempo corresponde,


no domínio da frequência, a multiplicação da transformada de Fourier das funções que estão
sendo convoluidas, tem-se que :
ΦXY(-ω) = ΦYX(ω) = ΦXX(ω) H(ω)

6.4.3- Auto-correlação da Saída


RYY(τ) = E[Y(t+ τ) Y(t)]

RYY(τ) = E[ Y(t+ τ) ∫ h(α) X(t-α)dα]
-∞


RYY(τ) = ∫ E[ Y(t+ τ) X(t-α) ] h(α) dα
-∞
como E[ Y(t+ τ) X(t-α) ] = RYX(τ +α) , tem-se que:

RYY(τ)=∫ RYX(τ +α) h(α) dα
-∞

RYX(τ +α) = ∫ RXX(λ -τ -α ) h (λ) dλ
-∞

RYY(τ)=∫ ∫ RXX(λ -τ -α ) h (λ) dλ h(α) dα
-∞

Achando-se a transformada de Fourier tem-se que:


ΦYY(ω) = ΦXX(ω )  H(ω)2

6.5 - Sistema com Duas Entradas.


Um sistema com duas entradas é modelado da seguinte maneira:
z(to) = g[ x(to) , y(to)]
Dentre os sistemas com duas entradas far-se-á referência aquele cuja resposta é uma
combinação linear dos sinais de entrada, isto é , se X(t) e Y(t) são os processos aleatórios
aplicados nas entradas do sistema, então a resposta será dada por:
Z(t) = X(t) + Y(t)

6.5.1 - Média de Z(t)


µZ(t) = E[Z(t)] = E[ X(t) + Y(t)] ⇒ µZ(t) = µX(t) + µY(t)
6.5.2 - Auto-correlação de Z(t)
RZZ(t1,t2) = E{[X(t1) + Y(t1) ] [X(t2) + Y(t2) ] }
RZZ(t1,t2)=E[X(t1)X(t2) + X(t1)Y(t2) +Y(t1)X(t2) + Y(t1)Y(t2) ]
RZZ(t1,t2) = RXX(t1,t2) + RXY(t1,t2) + RYX(t1,t2) + RYY(t1,t2)
Se X(t) e Y(t) são processos aleatórios independentes e µX(t) = 0 ou µY(t) = 0
então:
RZZ(t1,t2) = RXX(t1,t2) + RYY(t1,t2)
Se X(t) e Y(t) são estacionários, então:
RZZ(τ) = RXX(τ) + RXY(τ) + RYX(τ) + RYY(τ)

Ex 6.1.1.1- Verifique se um circuito diferenciador, que é caracterizado pela relação y =


dx/dt, é linear.

Ex 6.3.1.1- Considerando-se o circuito abaixo, determine a sua função de transferência.

X(t) Y(t)
X(t) e Y(t) são sinais de tensão

Ex 6.4.1- Determine a resposta do sistema formado pelo um circuito LR do exemplo


anterior, sabendo-se que na sua entrada é aplicada uma tensão que é o processo aleatório
X(t) = A e-t u(t) , onde A é uma variável aleatória com função densidade de probabilidade
dada uniforme entre 0 e 2.

Ex 6.4.1.1- Determine o valor médio da resposta do sistema do exemplo anterior.

Ex. 6.5.1- Um sinal recebido X(t) é a soma de um sinal de informação S(t) e um ruído N(t).
Se ambos possuem média zero e são independentes com RSS(τ)=e -5τ e
RNN(τ)= (sen 1000τ) /τ , determine o valor médio e a auto-correlação de X(t).

FORMULÁRIO - CAPÍTULO I
n n
P[A] = NA / N - @ P[BJ ] = ∑ P[ Ai . BJ ] @ P[BJ ] = ∑ P[ BJ / Ai ] P[ Ai ]
definição de i=1 i=1
probabilidade probabilidade marginal probabilidade total
-------------------------------------------------------------------------------------------------------------
n
P[A/B]=P[A.B]/ P[B] @ P[Ai /B]={P[B/Ai }P[Ai ]}/ ∑ P[B/Ai ]P[Ai ] @ P[A.B]= P[A]P[B]
Probabilidade i=1 Independência de
condicional Teorema de Bayés eventos
-------------------------------------------------------------------------------------------------------------
FORMULÁRIO - CAPÍTULO II
x x
p(xi ) = P [ X= xi ] @ F(x) = ∑ p(xi) @ f(x) = dF(x) / dx @ F(x) = ∫ f(x) dx
função densidade xi = - ∞ função densidade -∞
de probabilidade função distribuição de de probabilidade função distribuição
de
V.A.D. probabilidade V.A.D. V.A.C. probabilidade V.A.C.
-------------------------------------------------------------------------------------------------------------
xi xi n-xi -λ xi
p(xi ) = C P Q @ p(xi ) = e λ / xi ! @ f(x) = { 1 / (b-a ) a < x < b
n { 0 para outros x
função densidade de função densidade de função densidade de
probabilidade
probabilidade binomial probabilidade poisson uniforme
------------------------------------------------------------------------------------------------------------
___ - ( x - µx )2 / 2 σx2
f(x) = { (1/ λ ) e- x / λ x ≥ 0 @ f(x) = 1/ (σx √ 2 π ) e -∞ ≤ x ≤

{ x< 0
função densidade de função densidade de probabilidade
probabilidade exponencial normal ou gaussiana
-------------------------------------------------------------------------------------------------------------
y x
p(xi , yj ) =P[X= xi ,Y= yJ ] @ F(x,y) = Σ Σ p(xi , yJ ) @ f(x,y) = ∂ 2 F(x,y) /∂x ∂y
yJ = -∞ xi = -∞
função densidade de proba- função distribuição de proba- função densidade de pro-
bilidade conjunta V.A.D. bilidade conjunta V.A.D. babilidade conjunta
V.A.C
-------------------------------------------------------------------------------------------------------------
x y ∞ ∞
F(x,y) = ∫ ∫ f(x,y) dy dx @ pX (x) = Σ p(xi, yJ ) @ fX (x) = ∫ f(x,y)
dy
-∞ - ∞ yJ= - ∞ -∞
Função distribuição de proba- função densidade de proba- função densidade de
pro-
lidade conjunta V.A.C. bilidade marginal V.A.D. babilidade marginal
V.A.C.
x x
FX(x) = Σ pX (xi ) @ FX (x) = ∫ fX (x) dx @ pX / Y (xi , YJ ) = p(xi , yJ ) / pY (yJ)
xi= -∞ -∞
Função distribuição de Função distribuição de Função densidade de
probabilidade
probab. marginal V.A.D. probab. Marginal V.A.C. condicional V. A. D.
CONTINUAÇÃO DO FORMULÁRIO DO SEGUNDO CAPÍTULO

x
fX / Y (x / y) = f (x,y) / fY (y ) @ FX / Y ( x / yJ) = Σ pX /Y (xi / yJ )
função densidade de probabilidade xi = -∞
condicional V. A. C. Função distribuição de probabilidade
condicional V. A. D.
-------------------------------------------------------------------------------------------------------------
x
FX / Y ( x / y) = P [X ≤ x / Y= yJ ] = ∫ fX / Y ( x / y ) dx
-∞
Função disribuição de probabilidade condicional V. A. C.
-------------------------------------------------------------------------------------------------------------
x y y
FX /Y ( x / y ) = P[ X ≤ x / Y≤ y ] = [ ∫ ∫ f(x,y) dy dx ] / [ ∫ fY ( y ) dy ]
-∞ -∞ -∞
Função distribuição de probabilidade condicional para V. A. C.
-------------------------------------------------------------------------------------------------------------

p(xi , yJ) = pX(xi) pY (yJ) @ f(x,y) = fX (x) fY (y) @ F(x , y ) = FX ( x ) FY ( y )

Independência de V`s A`s Discretas e Contínuas Independência de V`s A`s Discretas


em relação a função densidade de probabilidade e Contínuas em relação a função
dis
tribuição de probabilidade

FORMULÁRIO – CAPÍTULO III



E[X] = µX = ∑ xi p(xi) Valor médio V. A. Discreta
xi= -∞

E[X] = µX = ∫ x f(x) dx Valor médio V. A. Continua
-∞

r ∞
E[ X ] = mr = ∑ xir p(xi) Momento de ordem r p/ V. A. Discreta
xi = - ∞

r ∞
E[X] = mr = ∫ xr f(x) dx Momento de ordem r p/ V. A.Contínua
-∞

E[ (X-µX)r ] = mcr = ∑ (xi-µX) r p(xi) Momento Cemtral de ordem r p/ V.A. Discreta
xi = - ∞

E[ (X-µX)r ] = mcr = ∫ (x-µX) r f(x) dx Momento Central de ordem r p/ V. A.
Contínua
-∞


σx2 = ∑ (xi-µX)2 p(xi) Variância para uma Variável Aleatória Discreta
xi = - ∞


σx2 = ∫ (x-µX) 2 f(x) dx Variância para uma Variável Aleatória Contínua
-∞

Var[X] = σx2 = E[(X-µx)2] Variância forma geral


____
σx = √ σx2 Desvio Padrão

σXY = E[XY] - µX µY Covariância

ρXY = σXY / σX σY Coeficiente de correlação


E[X/Y= yJ ] = ∑ xi pX/Y(xi/yJ) valor médio Condicional para Variável Aleatória
Discreta
xi = -∞


E[X/Y= yJ ] = ∫ x fX/Y(x/y) dx Esperança Condicional para Variável Aleatória
contínua
-∞

CONTINUAÇÃO DO FORMULÁRIO DO TERCEIRO CAPÍTULO


ϕX (ω) = ∑ e jωxi p(xi) função característica para uma variável aleatória discreta
xi = - ∞


ϕX (ω) = ∫ e jωx f(x) dx função característica para uma variável aleatória contínua
-∞

ϕX (ω) = α0 + α1 ω + α2 ω2 + . . . + αn ωk expansão de ϕX (ω) na série de Mclaurin

α0 = ϕX (ω)ω =0 determinação do coeficiente α0


αk = (1/ k! ) dkϕX (ω) / dωkω =0 determinação dos coeficientes αk , com k= 1,2,...

E[Xk] = k! αk / jk determinação do k-ésimo momento da variável aleatória X

FORMULÁRIO - CAPÍTULO IV

f(y) = f[ g-1(y)] dg-1(y)/dy função de variável aleatória p/ relacionamento crescente


e
decrescente
b
P[Y=k] = ∫ f(x) dx função de variável aleatória p/ relacionamento constante
a

p(yJ) = ∑ pX1(xi) pX2 (yJ -xi ) Soma de variáveis aleatória discretas
xi = -∞

∞ ∞
f(y) = ∫ fX1(x1) fX2(y-x1) dx1 = ∫ fX2(x2) fX1(y-x2) dx2 Convolução
-∞ -∞

FORMULÁRIO – CAPÍTULO V
F(x, t) = P[X(t) ≤ x] f(x,t) = ∂ F(x,t) / ∂ x
Função distribuição de probabilidade de 1ª ordem Função densidade de probabilidade
de 1ª ordem
___-_____________________________________________________________________________
F(x1, x2 ; t1, t2) = P[ X(t1) ≤ x1 , X(t2) ≤ x2] f(x1,x2;t1,t2) = ∂ 2F(x1, x2 ;t1,t2) /∂x1∂x2.
Função distribuição de probabilidade de 2ª ordem Função densidade de probabilidade de
2ª ordem
∞ ∞
E[X(t)] =µX(t) =∫ x f(x,t) dx E[X(t)]=µX(t) = ∫ X(t) f(λ) dλ
-∞ -∞
Valor médio do processo aleatório X(t)
________________________________________________________________________________

RXX(t1, t2) =E[X(t1) X(t2)] =∫ X(t1) X(t2) f(λ) dλ
-∞
Auto-correlação do processo aleatório X(t)
________________________________________________________________________________

RXX(t1, t2) = ∫ x1 x2 f(x1,x2; t1, t2) dx1 dx2 RXX(τ ) = RXX(t, t + τ ) = E[X(t) X(t+τ)]
-∞
Auto-correlação do processo aleatório X(t) Auto-correlação p/ um processo
aleatório estacionário
________________________________________________________________________________
CXX(t1, t2) =E{[X(t1) -µX(t1)][X(t2) -µ X(t2)]} CXX(t1, t2) = RXX(t1, t2) -µX(t1) µX(t2) σ2X ( t) =E[X
2
(t)]-[µ X(t)]2
Covariância do processo aleatório X(t) Covariância do processo aleatório X(t)
Variância de X(t)

T T T
η(-T,T) = η= Lim (1/2T) ∫ X(t) dt E[η]= Lim (1/2T) ∫ µX (t) dt E[X(t)]= lim (1/2T) ∫ X(t) dt
T →∞ -T T →∞ -T T →∞ -T
Média no tempo do processo X(t) Valor médio da média no tempo Ergodicidade na média de X(t)
________________________________________________________________________________

T ∞ - jωτ ∞ jωτ
E[X(t)X(t+τ)]=lim (1/2T)∫ X (t)X(t+τ ) dt ΦXX(ω)=∫ e RXX(τ) dτ RXX(τ) = (1/2π) ∫ e ΦXX(ω) dω

T→ ∞ - T -∞ -∞
Ergodicidade na auto-correlação Densidade Espectral de potência Auto-correlação de
X(t)

RXY(t1,t2) = E[X(t1) Y(t2)] = RYX (t2,t1) = E[Y(t2) X(t1)] Correlação cruzada

p(xi, t) = P[X(t) = xi] = [ e -λt (λt) xi ] / xi!


função densidade de probabilidade do processo
de poisson
__________________________________________________________________________

x
F(x, t) = P[ X(t) ≤ x]= ∑ [ e -λt (λt) xi
] / xi! função distribuição de probabilidade
do
xi = 0 processso de poisson

onde: λ é a taxa média.


__________________________________________________________________________

___ - (1/2) {[ x - µx(t)] / σx(t)]} 2


f(x,t) = (1/ σx(t) √ 2π ) e
função densidade de probabilidade de um processo aleatório gaussiano
_________________________________________________________________________

_______ ___ - (1/2) [( x - µx)T (Λx)-1 ( x - µx) ]


f(x) = [1/ √ det Λx ( √ 2π ) n ] e

função densidade de probabilidade de um processo aleatório gaussiano que é um vetor


_________________________________________________________________________
µx = { E[X(t1)] E[X(t2)] . . . E[X(tn)] }T é o vetor transposto que contém os valores
médios do processo aleatório gaussiano
__________________________________________________________________________

Cxx(t1,t1) Cxx(t1,t2) . . .Cxx(t1,tn)

Cxx(t2,t1) Cxx(t2,t2) . . . Cxx(t2,tn)


Λx = . . .
. . . matriz covariância do processo
aleatório gaussiano vetorial
. . .

Cxx(tn,t1) Cxx(tn,t2) . . . Cxx(tn,tn)

FORMULÁRIO – CAPÍTULO VI
∞ n
Y(t) = ∫ h(τ) X(t- τ) d τ H(ω) = Y(ω) / X(ω) H(ω) = 1/ [ ∑ ai (jω)i ]
-∞ i=0
Resposta de um sistema a um processo de entrada X(t) Função de transferência de um sistema
________________________________________________________________________________________
∞ ∞
E[Y(t)] = ∫ h(τ) E[ X(t- τ)] d τ RXY(-τ) = RYX(τ) = ∫ h(λ) RXX(τ-λ)dλ ΦXY(-ω) = ΦYX(ω) = ΦXX(ω) H(ω)
-∞ -∞
valor médio da resposta do Correlação cruzada entre o processo de Densidade espectral de
potência
sistema Y(t) entrada X(t) e a resposta Y(t) cruzada
________________________________________________________________________________________
∞ ∞
RYY(τ)=∫ ∫ RXX(λ -τ -α ) h (λ) dλ h(α) dα ΦYY(ω) = ΦXX(ω )  H(ω)2
-∞ -∞
Auto-correlação da resposta do sistema Y(t) Densidade espectral de potência da resposta Y(t)
________________________________________________________________________________________
µZ(t) = µX(t) + µY(t) RZZ(t1,t2) = RXX(t1,t2) + RXY(t1,t2) + RYX(t1,t2) + RYY(t1,t2)
Valor médio da resposta do sistema da Auto-correlação da resposta do sistema da
forma Z(t)=X(t)+Y(t) forma Z(t)=X(t)+Y(t)
________________________________________________________________________________________

Das könnte Ihnen auch gefallen