Sie sind auf Seite 1von 21

Introduccin a la Estadstica y a la Teora de Procesos Estocsticos en

Comunicaciones

1. Concepto y definicin de probabilidad.

Se define experimento aleatorio como cualquier circunstancia natural o artificial


cuyo resultado es incierto. Por ejemplo, lanzar una moneda al aire, la temperatura media
de pasado maana, nmero de goles en un partido de ftbol, el ruido presente en un
receptor, etc. Prueba es una realizacin de un experimento y suceso es el conjunto o un
subconjunto de los resultados posibles de un experimento.

Habitualmente se define el conjunto que contiene todos los resultados posibles


de un experimento llamado espacio de sucesos. Para esa representacin, un suceso ser
un subconjunto de ese total; as, el suceso A se dar en todas las pruebas cuyos
resultados sean elementos de A.

Espacio de Sucesos
Temperaturas del 19 de marzo del 2007
A C
B
suceso A: mximas entre 18 y 20
suceso B: " entre 19 y 21
suceso C: " entre 30 y 32

P(AB) Todos los sucesos de A y/o B


P(AB) Todos los sucesos de A y B simultneamente.

La Probabilidad es una medida de la verosimilitud de un suceso. Sean las


siguientes asignaciones:

A: suceso A : suceso complementario de A


P(A): probabilidad del suceso A
: suceso seguro (ocurre siempre) : suceso imposible (nunca ocurre)

La definicin axiomtica de probabilidad presenta los siguientes axiomas:

1.- P(A) 0;
2.- P(A) 1; por lo tanto P() = 1;
3.- Si AB= P(A)+P(B) = P(AB);

Propiedades que se derivan de la definicin son:

1.- P() = 0;
2.- P(A) = 1 - P( A ) 1
3.- Si AB , entonces P(AB) = P(A) + P(B) - P(AB);

La definicin clsica o ms conocida de probabilidad es la basada en una


magnitud llamada frecuencia relativa de un suceso

1
P= lim NF / Np NF = Ocurrencias de un suceso
pruebas Np = Resultados posibles

A continuacin se enunciarn algunos teoremas referentes a la probabilidad.

Probabilidad condicional

P (A M)
P(A / M) =
P(M)

P(A/M): Probabilidad de que ocurra A cuanto ha ocurrido M.


P(AM): Probabilidad conjunta de A y M.
P(M): Probabilidad del suceso M.

Teorema de la probabilidad total

Sea un espacio de sucesos en el que se define una serie de sucesos posibles


[A1...An] mutuamente excluyentes cuya unin es .
A1 A3

B
A2 An

Se define la probabilidad de ocurrencia de un proceso B como:


n
P(B) = P(B/A1) P(A1) + P(B/A2) P(A2) + ... + P(B/An) P(An) = P(B / A ) P(A )
i i
i=1

Teorema de Bayes

P(B / A i ) P(A i )
P (A i / B) = n

P(B / A ) P(A )
i i
i =1

P(Ai) = Probabilidades a priori.


P(B/Ai ) = Probabilidades condicionadas.
P(Ai/B) = Probabilidades a posteriori.

Independencia entre sucesos

Dos sucesos son independientes si la probabilidad conjunta de ambos sucesos es

2
P(AB) = P(A)P(B). Para n sucesos, la definicin queda:
n
P(A 1 ... A n ) = P(A i )
i=1

Experimentos de Bernouilli

Si se llama p a la probabilidad de que ocurra un suceso, q a la probabilidad de


que no ocurra (q=1-p), la probabilidad de que ocurra k veces en n experimentos
repetidos es:

n
Pn ( k ) = p k q n-k
k

Este nmero, para un nmero de experimentos y unos valores de probabilidad


tales que se cumpla npq >> 1, y segn el teorema de De Moivre-Laplace, puede
aproximarse a la expresin:

( k - np ) 2
n k n -k 1
2npq
p q e ; n , p y q 0
k 2 npq

Es decir, se aproxima el valor de probabilidad a una funcin gaussiana

1 x 2
g(x) =
2
e 2

La suma deesta funcin a lo largo de un intervalo es


x
1
G(x) = g(y) dy 1 - g(x) ; a partir de esta ltima se define tambin la funcin
- x
1 x y2 2 1
de error erf(x) =
2 0
e dy = G(x) -
2

3
Repaso de combinatoria

Se denominan variaciones de m elementos tomados de n en n, al nmero de


colecciones distintas que pueden formarse con n elementos distintos entre los m, siendo
dos colecciones distintas si tienen algn elemento distinto, o bien si an teniendo los
mismos elementos, estn en distinto orden.

m!
Vm ,n = m(m 1)(m 2 ) (m n + 1) =
(m n )!
Las Variaciones con repeticin son anlogas al caso anterior cuando se pueden
repetir elementos.
VmR,n = m n

Permutaciones de n elementos son el nmero de colecciones distintas que


pueden formarse con los n elementos, siendo dos colecciones distintas si el orden de los
elementos es distinto. Es un caso particular de las variaciones.

Pn = Vn ,n = n(n 1)(n 2 ) 3 2 1 = n!

Si se tiene n elementos de los cuales a son iguales, b son iguales, c son iguales,
etc. el nmero de permutaciones con repeticin que pueden formarse es

n!
Pna ,b ,c ,... =
a!b!c!

Se llaman permutaciones circulares de n elementos a las distintas formas de


colocar a n elementos en crculo, teniendo en cuenta que no hay primero ni ltimo.

PnC = Pn 1 = (n 1)!

Se denominan combinaciones de m elementos tomados de n en n, al nmero de


colecciones distintas que pueden formarse con n elementos distintos entre los m, siendo
dos colecciones distintas si tienen algn elemento distinto, no distinguindose por el
orden si tienen los mismos elementos.

Vm , n m(m 1)(m 2) (m n + 1) m! m
C m,n = = = =
Pn n! n!(m n )! n

Se denominan combinaciones con repeticin de m elementos tomados de n en n,


al nmero de colecciones distintas que pueden formarse con n elementos de entre los m,
pudindose repetir, siendo dos colecciones distintas exclusivamente si tienen algn
elemento distinto.

m + n 1
C mR,n = C m + n 1,n =
n

4
2. Variable aleatoria

Una variable aleatoria es una funcin real cuyo dominio es el conjunto S de


todos los resultados posibles de un experimento. Se asigna un nmero real a cada uno
de los posibles resultados del experimento. Debe cumplir 2 propiedades:

: S 1) x es un suceso posible.
2) p==p=-=0

Por lo tanto, representamos cada resultado posible por un nmero real. Cualquier
suceso puede representarse por la unin de intervalos en y, adems, se cumplen las
propiedades anteriores. Esto se hace porque es ms sencillo trabajar con intervalos
reales que con subconjuntos de naturaleza arbitraria.

Las variables aleatorias pueden ser:

- Discretas: Si slo pueden tener valores discretos.


suceso A =2 =4
p(A) p=9 p=4
- Continuas: Si pueden tener un rango de valores continuos.
suceso A 79 1115
p(A) p79 p1115
- Mixtas: Algunos de los valores pueden ser discretos y otros continuos.

Funcin de distribucin

La funcin de distribucin o funcin de distribucin de probabilidad acumulada


de la variable aleatoria X caracteriza la probabilidad asociada al evento x. Se
define de la forma:

FX ( x ) = p{X x}

La funcin de distribucin cumple las siguientes propiedades:

1) 0 F(x) 1
2) F(-)=0 y F()=1, ya que p-=0.
3) F(x1) F(x2) si x1 x2.
4) F(x+)= F(x), si >0 y 0. (Es continua por la derecha)
5) px1Xx2= F(x2)-F(x1)

Funcin de densidad de probabilidad

Es una funcin real de una variable aleatoria que permite calcular de forma
sencilla las probabilidades de sucesos asociados a la misma. Se define como la derivada
de la funcin de distribucin:

5
dFX ( x)
f X ( x) =
dx

La funcin de densidad de probabilidad (fdp) debe cumplir las siguientes


propiedades:

1) f(x) 0

2) f

(x)dx = 1
x
3) FX ( x) = f ( ) d

x2

4) px1 x2 = f
x1
( x)dx

Puede advertirse que la funcin densidad de probabilidad caracteriza totalmente


la variable aleatoria y el suceso que la define.

Media, varianza y valor cuadrtico medio

Se define media de una variable aleatoria como el valor medio que toma esa
variable aleatoria cuando promediamos un nmero muy grande de resultados de un
experimento caracterizado por la misma. Viene dada por el operador esperanza, E{}

x= E{X } = xi p{ = xi } para una variable aleatoria discreta


i
+
x= E{X } = x f x (x) dx para una variable aleatoria continua
-

La varianza es una medida de la concentracin de valores de la variable


aleatoria alrededor de su media, de forma que cuanto mayor sea la varianza, mayor ser
la probabilidad de encontrar resultados alejados de ella. La raz cuadrada de la varianza
se llama desviacin tpica.

x2 = E{( x ) 2 } = (x
i
i x ) 2 p( = xi ) para una v.a. discreta
+
= E{( x ) } = (x - ) 2 f (x) dx
2 2
x x para una v.a. continua
-

La varianza se puede expresar en funcin del valor cuadrtico medio { 2 } , de


modo que x = { 2 } - x . Esto se debe a que la esperanza es un operador lineal.
2 2


a i i = a i { i } = a i i
i i i

{( 2 + x - 2 x ) } = { 2 } + x - 2 x {} = { 2 } - x
2 2 2

6
3. Variables aleatorias de uso habitual en comunicaciones

Variable aleatoria Gaussiana

Las funciones de densidad de probabilidad y de distribucin de una v.a.


Gaussiana son
fx(x)
( x - x )2 1
1 2
f (x) = N( x , x ) = e 2 x 2 x
2 x
x 1 1 / 2

e
FX (x)= f X (y)dy 2 x
-

x-x x x+x x
La media y la varianza son

+
{} = x N( ,
-
x x ) dx =
+
Var (x) = E{(X x ) } = (x - ) 2 N ( x , x ) dx = x2
2
x
-

A partir de la forma de la fdp se observa que el valor ms probable es el valor


medio y a medida que el valor de la v.a. se aleja de l, la probabilidad para ese valor
ser menor.

Advirtase que esta funcin de densidad de probabilidad queda totalmente


determinada mediante dos parmetros: la media y la varianza. Si x es muy pequea, el
problema tiende a ser determinista.

La probabilidad p{ x1 X x2 } viene dada por la funcin erf(x)

x
1 -y2
erf(x) =
2
e
0
2
dy

(x - x ) 2
x2
1 2 x 2
p{x 1 x 2 } =
2 x
e
x1
dx

Haciendo un cambio de variable en la integral

x - x dx x1 - x x 2 x
u= ; du = ; u1 = ; u2 =
x x x x
x 2 - x x 2 - x
x 0 x
1 -u 2
1 -u 2
1 - u2
p{x 1 x 2 } =
2

x1 -
e 2
du =
2
e
x1 - x
2
du +
2

0
e 2
du =
x
x x

7
x - x -
= erf 2 x - erf 1 x
x x

x
1 x x
FX (x)= f
-
X (y)dy =
2
+ erf
x

Los valores de la funcin erf(x) estn tabulados y por lo tanto ser sencillo
calcular la probabilidad de que el valor de una v.a. gaussiana se encuentre en un
determinado intervalo.

Un problema que podemos modelar a partir de una v.a. gaussiana sera conocer
el valor real de una resistencia tras el proceso de fabricacin. Su valor medio o ms
probable ser su valor nominal mientras que encontrar valores de resistencia alejados
del nominal tendr una probabilidad menor.

Variable aleatoria Uniforme

En este caso la f.d.p. est definida en un intervalo, siendo nula la probabilidad de


encontrar valores fuera de l. La probabilidad de que la v.a. tenga un determinado valor
en el intervalo es la misma para cualquier valor.

0 xa
1 fx(x)

f X ( x) = a<xb
b a 1
0 x>b ba

0 xa
x a x
a x b
FX ( x ) = a<xb
b a
1 x>b

b
1 1 1 2 b+a
x = E{x} = x dx = (b a 2 ) = = x
a
b-a b-a 2 2
1 b 1
x 2
= E {(x - x ) } = 2

b-a a
(x - x ) 2 dx =
12
( b - a )2

Un ejemplo de v.a. uniforme es el error que se produce al hacer una


cuantificacin uniforme de seales. Se estudiar posteriormente.

Variable aleatoria Binomial

Es una v.a. discreta que toma los siguientes valores de probabilidad

8
n
p{x = k } = p k q n k p + q = 1, k = 0, 1,....., n
k

Por lo tanto sus funciones de densidad de probabilidad y de distribucin son

fx(x)
n
n
f X ( x) = p k q n k ( x k ) n=6
k =0 k
p=0,25
n
n
FX ( x) = p k q n k u ( x k )
k =0 k

x
0 1 2 3 4 5 6

Esta distribucin proviene de experimentos aleatorios con dos posibles


resultados repetidos varias veces, como por ejemplo lanzar una moneda n veces y sacar
cara k veces.

Variable aleatoria de Poisson

Una v.a. de Poisson con parmetro a es una v.a. discreta que toma los siguientes
valores de probabilidad
ak
p{x = k } = e a a > 0, k = 0, 1,.....
k!

Por lo tanto sus funciones de densidad de probabilidad y de distribucin son


ak
f X ( x) = e a (x k)
k = 0 k!

ak
FX ( x ) = e a u( x k )
k = 0 k!

Esta distribucin es similar a la binomial. Cuando n y p0 la binomial se


convierte en la de Poisson con np=a.

Una aplicacin importante de la distribucin de Poisson es cuando describe el


nmero de eventos sucedidos en un perodo de tiempo, como es el nmero de llamadas
realizadas en un intervalo, el nmero de electrones emitidos en un ctodo, el nmero de
elementos que esperan en una cola, etc. Cuando es el rgimen, o tasa, promedio de
ocurrencia del evento y T es el perodo de inters, la constante a se calcula de la forma
a=T.

Variable aleatoria Exponencial

Es una v.a. continua cuyas funciones de densidad de probabilidad y de


distribucin son

9
1 x b a fx(x)
e x>a 1/b
f X ( x) = b
0 x<a


xa
1 e b x>a
FX ( x ) =
0 x<a
a x

Variable aleatoria de Rayleigh

Es una v.a. continua cuyas funciones de densidad de probabilidad y de


distribucin son
fx(x)
2 ( xa ) 2

( x a )e b xa 0,607 2 / b
f X ( x) = b
0 xa

( x a )2

1 e b xa
FX ( x ) =
0 xa
a a b/2 x

4. Funciones de probabilidad condicionadas

Se definen las funciones de distribucin condicional y de densidad de


probabilidad condicional de la siguiente forma

p{(X x) B}
FX ( x / B ) =
p (B)
d ( FX ( x / B ) )
f X ( x / B) =
dx

El teorema de la probabilidad total queda de la forma

n
FX ( x) = FX ( x / B1 ) p ( B1 ) + FX ( x / B2 ) p ( B2 ) + ... = FX ( x / Bi ) p( Bi )
i =1
n
f X ( x) = f X ( x / B1 ) p( B1 ) + f X ( x / B2 ) p( B2 ) + ... = f X ( x / Bi ) p( Bi )
i =1

El teorema de Bayes queda de la forma

10
f X ( x / A)
p{A / ( X = x )} = p ( A)
f X ( x)

Multiplicando esta expresin por fX(x) e integrando, se obtiene la versin


continua del teorema de la probabilidad total

p{A / ( X = x )} f

X ( x)dx = p( A)

La versin continua del teorema de Bayes ser

p{A / ( X = x )} f X ( x)
f X ( x / A) =

p{A / ( X = x )} f

X ( x)dx

5. Variable aleatoria multidimensional

En la prctica se dan casos en que varias magnitudes aleatorias interaccionan


para dar lugar a otra de la cual se desea obtener alguna informacin o, de forma ms
general, realizar su caracterizacin mediante su funcin de densidad de probabilidad o
de distribucin. Por ejemplo, una variable aleatoria que sea suma de otras dos, Z=X+Y.

Para encontrar las propiedades estadsticas de las magnitudes aleatorias


resultantes ser necesario conocer las caractersticas propias de las magnitudes iniciales
y las caractersticas conjuntas de las mismas, donde estas ltimas miden el grado de
interaccin que existe entre las magnitudes iniciales.

Se realizar la presentacin del caso para dos variables aleatorias y se extender


para el caso general.

Funcin de distribucin conjunta

Si las variables aleatorias X e Y son discretas, la funcin de distribucin conjunta


queda

N M
FXY ( x, y ) = p{X x, Y y} = p{X = x n , Y = y m }u ( x x n )u ( y y m )
n =1 m =1

Debe cumplir las siguientes propiedades

1) FXY ( , ) = 0, FXY ( , y ) = 0, FXY ( x, ) = 0


2) FXY (, ) = 1
3) 0 FXY (x, y ) 1
4) FXY (x, y ) es una funcin no decreciente en x e y.

11
p{x1 X x 2 , y1 Y y 2 } = FXY ( x 2 , y 2 ) + FXY ( x1 , y1 )
5)
FXY ( x1 , y 2 ) FXY ( x 2 , y1 )
6) FXY ( x, ) = FX ( x ), FXY (, y ) = FY ( y )

De la ltima propiedad se observa que las funciones de distribucin marginales


FX(x) y FY(y) se pueden obtener de la conjunta.

Para N variables aleatorias se puede generalizar de la forma

FX 1 X 2 ... X N ( x1 , x 2 ,..., x N ) = p{X 1 x1 , X 2 x 2 ,..., X N x N }

Funcin de densidad de probabilidad conjunta

La funcin de densidad de probabilidad conjunta de las variables aleatorias X e Y


es

2 FXY ( x, y )
f XY ( x, y ) =
xy

Si las variables aleatorias son discretas se tiene

N M
f XY (x, y ) = p{X = x n , Y = y m } ( x x n ) ( y y m )
n =1 m =1

Las propiedades que debe cumplir son:

1) f XY ( x, y ) 0

2) f (x, y )dxdy = 1

XY

x y
3) FXY ( x, y ) = f (u, v )dudv
XY

x y

4) FX ( x ) = f (u, v )dudv,
XY FY ( y ) = f (u, v )dudv
XY

x2 y 2

5) p{x1 X x 2 , y1 Y y 2 } = f (x, y )dxdy


XY
x1 y1

6) Las funciones de densidad de probabilidad marginales son



f X ( x) = f XY ( x, y )dy , f Y ( y ) = f (x, y )dx .
XY

12
La generalizacin para N variables aleatorias es

N FX 1 X 2 ... X N ( x1 , x 2 ,..., x N )
f X 1 X 2 ... X N ( x1 , x 2 ,..., x N ) =
x1x 2 ...x N

Funciones de distribucin y de densidad de probabilidad condicionadas

La funcin de distribucin condicionada en funcin de la conjunta queda

p{X x, Y y} FXY ( x, y )
FX ( x / (Y y )) = =
p (Y y) FY ( y )
FXY ( x, y 2 ) FXY ( x, y1 )
FX ( x / ( y1 Y y 2 )) =
FY ( y 2 ) FY ( y1 )

La funcin de densidad de probabilidad condicionada ser

dFX ( x / (Y y ))
f X ( x / (Y y )) =
dx

La funcin de distribucin tambin se puede representar de la forma

y2

f (x, y )dy
XY

FX ( x / ( y1 Y y 2 )) =
y1
y2

f (x, y )dxdy
y1
XY

Independencia estadstica

Aplicando la definicin de independencia estadstica, se dice que dos variables


aleatorias X e Y son independientes si se cumple

p ( X x, Y y ) = p (X x) p (Y y)

De aqu se deduce que si dos variables aleatorias son independientes se cumple

FXY ( x, y ) = FX ( x ) FY ( y )
f XY ( x, y ) = f X ( x ) f Y ( y )

Tambin se cumple

FX ( x / (Y y )) = FX ( x ), FY ( y / ( X x )) = FY ( y )
f X ( x / (Y y )) = f X ( x ), f Y ( y / ( X x )) = f Y ( y )
Momentos de una y de dos variables aleatorias

13
Para una variable aleatoria X, se define el momento sobre el origen de orden n
como
+
{ } x
mn= E X n = n
f x (x) dx
-

De aqu se deduce que la media es m1 y que el valor cuadrtico medio es m2.

Los momentos en torno a la media se denominan momentos centrales. Se define


el momento central de orden n como

+
n = E{( x )n } = (x - x ) n f (x) dx
-

Por lo tanto 2 es la varianza de la variable aleatoria.

Para dos variables aleatorias X e Y, se define el momento conjunto sobre el


origen de orden n+k como

++
{
mnk = E X Y n k
}= x n
y k f XY (x, y) dxdy
- -

Se observa que mn0 y m0k son los momentos sobre el origen de X e Y.

Al momento de segundo orden m11 se denomina correlacin de X e Y

++
R XY = m11= E{X Y } = x y f XY (x, y) dxdy
- -

Se dice que las variables aleatorias son incorreladas cuando R XY = E{X } E{Y } .
Adems, se puede demostrar que si son independientes, son necesariamente
incorreladas. Cuando R XY = 0 se dice que las variables aleatorias son ortogonales.

Se define el momento conjunto central de orden n+k como

++
nk = E{( x ) ( Y y ) } = (x ) ( y
n k n
x y ) k f XY (x, y) dxdy
- -

Al momento de segundo orden 11 se denomina covarianza de X e Y.

C XY = 11=E{( x )( Y y )} =R XY x y

14
Se denomina coeficiente de correlacin a

11 C
= = XY
02 20 x y

Se puede demostrar que est acotado entre 1 y 1.

Variables aleatorias conjuntamente gaussianas

Las variables aleatorias X e Y son conjuntamente gaussianas si su funcin de


densidad de probabilidad conjunta se expresa de la forma

1
x
( ) (
( x - )2 2 ( x - x ) y - y y - y )2

+
1 (
2 1 2
) x2 x y 2y
f Y (x, y) = e

2 x y 1 2

Cuando =0, las variables aleatorias estn incorreladas, cumplindose entonces


f XY ( x, y ) = f X ( x ) f Y ( y ) . Por lo tanto, en este caso incorrelacin supone
independencia.

Se cumple siempre que el valor mximo viene dado por

f Y (x, y) f Y ( x , y ) =
1
2 x y 1 2

6. Procesos estocsticos

Los procesos estocsticos representan magnitudes variables en el tiempo cuyo


valor en cada instante es incierto. Son, por lo tanto, funciones temporales cuyo valor en
cada instante es una variable aleatoria. Ejemplos de esto son las seales de voz, de
ruido, los ndices de la bolsa, etc. El proceso estocstico no tiene por que ser una
funcin continua del tiempo. Si nos fijamos en los valores que presenta un proceso
estocstico en un intervalo de tiempo, a la curva resultante se le denomina realizacin
del proceso. En general, las realizaciones del proceso sern distintas para intervalos de
tiempo distintos.

Para modelar matemticamente el proceso se ha de tener en cuenta su condicin


de variable aleatoria dependiente del tiempo. Se representar de la forma X(t).

Funciones de distribucin y de densidad de probabilidad de un proceso estocstico

Al igual que el proceso estocstico, las funciones de distribucin y de densidad


de probabilidad sern dependientes del tiempo. Al fijar un instante de tiempo t se genera

15
una variable aleatoria X(t), de tal forma que se definen las funciones de distribucin y
de densidad de probabilidad de primer orden de la forma

FX ( x, t ) = p{X (t ) x}
dFX ( x, t )
f X ( x, t ) =
dx

Si se fijan dos instantes t1 y t2 se generan las variables aleatorias X(t1) y X(t2). Se


definen las funciones de distribucin y de densidad de probabilidad de segundo orden
de la forma

FX ( x1 , x 2 ; t1 , t 2 ) = p{X (t1 ) x1 , X (t 2 ) x 2 }
2 FX ( x1 , x 2 ; t1 , t 2 )
f X ( x1 , x 2 ; t1 , t 2 ) =
x1x 2

De forma general se tendr para orden n

FX ( x1 ,..., x n ; t1 ,..., t n ) = p{X (t1 ) x1 ,..., X (t n ) x n }

n FX ( x1 ,..., x n ; t1 ,..., t n )
f X ( x1 ,..., x n ; t1 ,..., t n ) =
x1 ...x n

En la prctica las funciones que se suelen emplear son las de primer y segundo
orden, debido a la complejidad de las expresiones.

Momentos de un proceso estocstico

Sea X(t) una variable aleatoria definida al fijar el instante de tiempo t. Se define
el momento sobre el origen de orden n

{ } x
+
mn (t )= E X (t ) =
n n
f x (x, t) dx
-

De donde se observa que la media es x(t)=m1(t) y que el valor cuadrtico


medio es E{X2(t)}= m2(t).

Se define el momento central de orden n como

+
n (t ) = E{( (t ) x (t ) ) } = (x - x (t ) ) n f (x, t) dx
n

Por lo tanto la varianza es x2(t)=2(t).

16
Se ha visto que cuando se fijan los instantes t1 y t2 se generan las variables
aleatorias X(t1) y X(t2). Se definen los momentos conjuntos de ambas variables
aleatorias, de los que slo nos vamos a fijar en los siguientes.

17
Se define la autocorrelacin del proceso estocstico como

++
R XX (t1 , t 2 )= E{X (t1 )X (t 2 )} = x x 1 2 f X ( x1 , x 2 ; t1 , t 2 )dx1 dx 2
- -

Se define la autocovarianza como

C XX (t1 , t 2 )= E{( X (t1 ) x (t1 ))( X (t 2 ) x (t 2 ))}

Desarrollando se obtiene

C XX (t1 , t 2 )=R XX (t1 , t 2 ) x (t1 ) x (t 2 )

Se pueden definir tambin momentos conjuntos de dos o ms procesos


estocsticos. Sean las variables aleatorias X(t1) e Y(t2). Se define la funcin de
correlacin cruzada como

++
R XY (t1 , t 2 )= E{X (t1 )Y (t 2 )} = x y f (x, y; t , t )dxdy
XY 1 2
- -

La funcin de covarianza cruzada es

C XY (t1 , t 2 )= E{( X (t1 ) x (t1 ))(Y (t 2 ) y (t 2 ))}

Procesos estocsticos estacionarios

El nmero de variables aleatorias introducidas por un proceso estocstico es


infinito, ya que cada instante distinto genera una variable aleatoria distinta. Cada una
tendr sus respectivas funciones y estadsticos, por lo que resulta evidente la dificultad
de trabajar con tal cantidad de parmetros.

Lo habitual es buscar ciertas propiedades de los procesos que posibiliten trabajar


de una forma ms cmoda.

Se dice que un proceso estocstico es estacionario de primer orden si su


funcin densidad de probabilidad de primer orden es independiente del tiempo

f X ( x, t ) = f X ( x, t + t ) = f X ( x)

Esto significa que x(t)=x, x2(t)=x2, { 2 (t )} = { 2 }

Se dice que un proceso estocstico es estacionario de segundo orden si su


funcin densidad de probabilidad de segundo orden cumple

f X ( x1 , x 2 ; t1 , t 2 ) = f X ( x1 , x 2 ; t1 + t , t 2 + t )

18
Tambin se suele expresar de la forma

f X ( x1 , x 2 ; t1 , t 2 ) = f X ( x1 , x 2 ; t 2 t1 ) = f X ( x1 , x 2 ; ) = t 2 t1

Esto significa que

R XX (t1 , t 2 )= R XX (t 2 t1 ) = R XX ( ) = E{X (t )X (t + )}
C XX (t1 , t 2 )= C XX (t 2 t1 ) = C XX ( )

Se dice que un proceso estocstico es estacionario en sentido amplio cuando su


media no depende del tiempo y su autocorrelacin depende del desplazamiento . En
este caso la funcin de autocorrelacin cumple las siguientes propiedades:

1) R XX ( ) R XX (0 ) . Est acotada y es mxima en el origen.


2) R XX (0) = E{ X 2 (t )}
3) R XX ( ) = R XX ( )
4) lim R XX ( ) = x2 , si el proceso no tiene componentes peridicas.

Se dice que un proceso estocstico es estacionario en sentido estricto si su


funcin de densidad de probabilidad de orden n cumple:

f X ( x1 ,..., x n ; t1 ,..., t n ) = f X ( x1 ,..., x n ; t1 + t ,..., t n + t )

Si un proceso es estacionario en sentido estricto, entonces es estacionario para


cualquier orden kn.

Se dice que dos procesos estocsticos son conjuntamente estacionarios en


sentido amplio cuando cada uno es estacionario en sentido amplio y la funcin de
correlacin cruzada depende solamente del desplazamiento .

R XY (t1 , t 2 )=R XY ( ) = E{X (t )Y (t + )}=RYX ( )


C XY ( )= R XY ( ) x y

Se dice que dos procesos estocsticos conjuntamente estacionarios en sentido


amplio son ortogonales cuando R XY ( ) = 0 . Se dice que son incorrelados cuando
C XY ( ) = 0 R XY ( ) = x y . Se dice que son independientes cuando

f XY ( x1 ,..., x n , y1 ,..., y n ; t1 ,..., t n , t1' ,..., t n' ) = f X ( x1 ,..., x n , t1 ,..., t n ) f Y ( y1 ,..., y n , t1' ,..., t n' )

Si dos procesos son independientes entonces tambin son incorrelados. Adems,


si dos procesos son incorrelados y al menos uno de ellos tiene media nula, entonces
tambin son ortogonales.

19
Procesos estocsticos ergdicos

Un proceso estocstico es ergdico si sus promedios estadsticos coinciden con


los respectivos promedios temporales. Por lo tanto, cualquier estadstico podr
obtenerse a partir de una sola realizacin del proceso.

Caractersticas espectrales de los procesos estocsticos

Para analizar en frecuencia un proceso estocstico X(t), se presenta la dificultad


de que no se puede asegurar a priori que todas las realizaciones del proceso tengan
transformada de Fourier. Sin embargo, se ver a continuacin que es posible obtener la
Densidad Espectral de Potencia DEP, del proceso.

Supngase una realizacin del proceso x(t). En general ser una funcin definida
en potencia, por lo que es posible que no tenga transformada de Fourier. Por lo tanto se
define la seal xT(t) como la realizacin del proceso definida en un intervalo T. Esta
seal ser definida en energa, por lo que se puede asegurar que tiene transformada de
Fourier XT(w).

Aplicando el teorema de Parseval, la potencia media de la realizacin ser

T /2
1 1 1 1 1
x(t ) dt = lim xT (t ) dt = Tlim P (w)dw
2 2 2
Px = lim X T ( w) dw =
2 2
x
T T T T T
T / 2

donde Px(w) es la DEP de la realizacin x(t).

De forma anloga se puede obtener la potencia media del proceso

{ }
T /2
PX = lim
1
T T
{ }
E X 2 (t ) dt =
1
2 Tlim
1
T
2
E X T ( w) dw =
1
2 P X ( w)dw
T / 2

donde PX ( w) = lim
1
T T
{
E X T ( w)
2
} es la DEP del proceso X(t).
Cuando el proceso es estacionario en sentido amplio se cumple

T /2 T /2
PX = lim
1
T T
{ }
E X 2 (t ) dt = lim
1
T T
R X (0)dt = R X (0)
T / 2 T / 2

donde se observa que la potencia media del proceso viene dada por su valor cuadrtico
medio. Adems, se cumple lo que se conoce como teorema de Wiener-Khinchin, que
demuestra que la transformada de Fourier de la autocorrelacin del proceso es la DEP

R X ( )
TF
PX (w)

20
Transformaciones de procesos

Los procesos estocsticos modelan variaciones temporales que, a su vez, pueden


ser transformados por sistemas.

X(t) T[ ] Y(t)=T[X(t)]

Las herramientas de anlisis de seales y sistemas pueden entonces extenderse al


caso habitual en que las seales sean procesos estocsticos.

En particular, cuando se trata de sistemas lineales e invariantes, se pueden


trasladar la mayor parte de las conclusiones que tratan de seales deterministas
definidas en potencia al campo de los procesos estocsticos estacionarios.

Se puede demostrar que si se dispone de un proceso estocstico estacionario X(t)


a la entrada de un sistema lineal e invariante, la relacin entre las autocorrelaciones de
la entrada y la salida es

RY ( ) = R X ( ) * h( ) * h( )

Aplicando transformada de Fourier a la ecuacin

2
PY ( w) = PX ( w) H ( w) H * ( w) = PX ( w) H ( w)

Ruido blanco gaussiano

El ruido habitual que se introduce en cualquier sistema de comunicaciones se


modela como un proceso estocstico estacionario blanco y gaussiano que se aade de
forma aditiva a la seal transmitida que llega al receptor.

X(t)
+ Receptor

N(t)

La validez de la hiptesis de que el ruido tenga una distribucin gaussiana y no


cualquier otra, se apoya en el hecho de que lo consideremos consecuencia de mltiples
fuentes de ruido independientes. En esta situacin, cuando el nmero de fuentes tiende a
ser infinito, se aplica el Teorema del Lmite Central, que indica que la distribucin
resultante tiende a ser gaussiana.

La incorrelacin del ruido indica la independencia total entre instantes sucesivos


de tiempo. Esto es as porque las variables aleatorias gaussianas que estn incorreladas
son tambin independientes.

21

Das könnte Ihnen auch gefallen