Beruflich Dokumente
Kultur Dokumente
Comunicaciones
Espacio de Sucesos
Temperaturas del 19 de marzo del 2007
A C
B
suceso A: mximas entre 18 y 20
suceso B: " entre 19 y 21
suceso C: " entre 30 y 32
1.- P(A) 0;
2.- P(A) 1; por lo tanto P() = 1;
3.- Si AB= P(A)+P(B) = P(AB);
1.- P() = 0;
2.- P(A) = 1 - P( A ) 1
3.- Si AB , entonces P(AB) = P(A) + P(B) - P(AB);
1
P= lim NF / Np NF = Ocurrencias de un suceso
pruebas Np = Resultados posibles
Probabilidad condicional
P (A M)
P(A / M) =
P(M)
B
A2 An
Teorema de Bayes
P(B / A i ) P(A i )
P (A i / B) = n
P(B / A ) P(A )
i i
i =1
2
P(AB) = P(A)P(B). Para n sucesos, la definicin queda:
n
P(A 1 ... A n ) = P(A i )
i=1
Experimentos de Bernouilli
n
Pn ( k ) = p k q n-k
k
( k - np ) 2
n k n -k 1
2npq
p q e ; n , p y q 0
k 2 npq
1 x 2
g(x) =
2
e 2
3
Repaso de combinatoria
m!
Vm ,n = m(m 1)(m 2 ) (m n + 1) =
(m n )!
Las Variaciones con repeticin son anlogas al caso anterior cuando se pueden
repetir elementos.
VmR,n = m n
Pn = Vn ,n = n(n 1)(n 2 ) 3 2 1 = n!
Si se tiene n elementos de los cuales a son iguales, b son iguales, c son iguales,
etc. el nmero de permutaciones con repeticin que pueden formarse es
n!
Pna ,b ,c ,... =
a!b!c!
PnC = Pn 1 = (n 1)!
Vm , n m(m 1)(m 2) (m n + 1) m! m
C m,n = = = =
Pn n! n!(m n )! n
m + n 1
C mR,n = C m + n 1,n =
n
4
2. Variable aleatoria
: S 1) x es un suceso posible.
2) p==p=-=0
Por lo tanto, representamos cada resultado posible por un nmero real. Cualquier
suceso puede representarse por la unin de intervalos en y, adems, se cumplen las
propiedades anteriores. Esto se hace porque es ms sencillo trabajar con intervalos
reales que con subconjuntos de naturaleza arbitraria.
Funcin de distribucin
FX ( x ) = p{X x}
1) 0 F(x) 1
2) F(-)=0 y F()=1, ya que p-=0.
3) F(x1) F(x2) si x1 x2.
4) F(x+)= F(x), si >0 y 0. (Es continua por la derecha)
5) px1Xx2= F(x2)-F(x1)
Es una funcin real de una variable aleatoria que permite calcular de forma
sencilla las probabilidades de sucesos asociados a la misma. Se define como la derivada
de la funcin de distribucin:
5
dFX ( x)
f X ( x) =
dx
1) f(x) 0
2) f
(x)dx = 1
x
3) FX ( x) = f ( ) d
x2
4) px1 x2 = f
x1
( x)dx
Se define media de una variable aleatoria como el valor medio que toma esa
variable aleatoria cuando promediamos un nmero muy grande de resultados de un
experimento caracterizado por la misma. Viene dada por el operador esperanza, E{}
x2 = E{( x ) 2 } = (x
i
i x ) 2 p( = xi ) para una v.a. discreta
+
= E{( x ) } = (x - ) 2 f (x) dx
2 2
x x para una v.a. continua
-
a i i = a i { i } = a i i
i i i
{( 2 + x - 2 x ) } = { 2 } + x - 2 x {} = { 2 } - x
2 2 2
6
3. Variables aleatorias de uso habitual en comunicaciones
e
FX (x)= f X (y)dy 2 x
-
x-x x x+x x
La media y la varianza son
+
{} = x N( ,
-
x x ) dx =
+
Var (x) = E{(X x ) } = (x - ) 2 N ( x , x ) dx = x2
2
x
-
x
1 -y2
erf(x) =
2
e
0
2
dy
(x - x ) 2
x2
1 2 x 2
p{x 1 x 2 } =
2 x
e
x1
dx
x - x dx x1 - x x 2 x
u= ; du = ; u1 = ; u2 =
x x x x
x 2 - x x 2 - x
x 0 x
1 -u 2
1 -u 2
1 - u2
p{x 1 x 2 } =
2
x1 -
e 2
du =
2
e
x1 - x
2
du +
2
0
e 2
du =
x
x x
7
x - x -
= erf 2 x - erf 1 x
x x
x
1 x x
FX (x)= f
-
X (y)dy =
2
+ erf
x
Los valores de la funcin erf(x) estn tabulados y por lo tanto ser sencillo
calcular la probabilidad de que el valor de una v.a. gaussiana se encuentre en un
determinado intervalo.
Un problema que podemos modelar a partir de una v.a. gaussiana sera conocer
el valor real de una resistencia tras el proceso de fabricacin. Su valor medio o ms
probable ser su valor nominal mientras que encontrar valores de resistencia alejados
del nominal tendr una probabilidad menor.
0 xa
1 fx(x)
f X ( x) = a<xb
b a 1
0 x>b ba
0 xa
x a x
a x b
FX ( x ) = a<xb
b a
1 x>b
b
1 1 1 2 b+a
x = E{x} = x dx = (b a 2 ) = = x
a
b-a b-a 2 2
1 b 1
x 2
= E {(x - x ) } = 2
b-a a
(x - x ) 2 dx =
12
( b - a )2
8
n
p{x = k } = p k q n k p + q = 1, k = 0, 1,....., n
k
fx(x)
n
n
f X ( x) = p k q n k ( x k ) n=6
k =0 k
p=0,25
n
n
FX ( x) = p k q n k u ( x k )
k =0 k
x
0 1 2 3 4 5 6
Una v.a. de Poisson con parmetro a es una v.a. discreta que toma los siguientes
valores de probabilidad
ak
p{x = k } = e a a > 0, k = 0, 1,.....
k!
ak
f X ( x) = e a (x k)
k = 0 k!
ak
FX ( x ) = e a u( x k )
k = 0 k!
9
1 x b a fx(x)
e x>a 1/b
f X ( x) = b
0 x<a
xa
1 e b x>a
FX ( x ) =
0 x<a
a x
1 e b xa
FX ( x ) =
0 xa
a a b/2 x
p{(X x) B}
FX ( x / B ) =
p (B)
d ( FX ( x / B ) )
f X ( x / B) =
dx
n
FX ( x) = FX ( x / B1 ) p ( B1 ) + FX ( x / B2 ) p ( B2 ) + ... = FX ( x / Bi ) p( Bi )
i =1
n
f X ( x) = f X ( x / B1 ) p( B1 ) + f X ( x / B2 ) p( B2 ) + ... = f X ( x / Bi ) p( Bi )
i =1
10
f X ( x / A)
p{A / ( X = x )} = p ( A)
f X ( x)
p{A / ( X = x )} f
X ( x)dx = p( A)
p{A / ( X = x )} f X ( x)
f X ( x / A) =
p{A / ( X = x )} f
X ( x)dx
N M
FXY ( x, y ) = p{X x, Y y} = p{X = x n , Y = y m }u ( x x n )u ( y y m )
n =1 m =1
11
p{x1 X x 2 , y1 Y y 2 } = FXY ( x 2 , y 2 ) + FXY ( x1 , y1 )
5)
FXY ( x1 , y 2 ) FXY ( x 2 , y1 )
6) FXY ( x, ) = FX ( x ), FXY (, y ) = FY ( y )
2 FXY ( x, y )
f XY ( x, y ) =
xy
N M
f XY (x, y ) = p{X = x n , Y = y m } ( x x n ) ( y y m )
n =1 m =1
1) f XY ( x, y ) 0
2) f (x, y )dxdy = 1
XY
x y
3) FXY ( x, y ) = f (u, v )dudv
XY
x y
4) FX ( x ) = f (u, v )dudv,
XY FY ( y ) = f (u, v )dudv
XY
x2 y 2
12
La generalizacin para N variables aleatorias es
N FX 1 X 2 ... X N ( x1 , x 2 ,..., x N )
f X 1 X 2 ... X N ( x1 , x 2 ,..., x N ) =
x1x 2 ...x N
p{X x, Y y} FXY ( x, y )
FX ( x / (Y y )) = =
p (Y y) FY ( y )
FXY ( x, y 2 ) FXY ( x, y1 )
FX ( x / ( y1 Y y 2 )) =
FY ( y 2 ) FY ( y1 )
dFX ( x / (Y y ))
f X ( x / (Y y )) =
dx
y2
f (x, y )dy
XY
FX ( x / ( y1 Y y 2 )) =
y1
y2
f (x, y )dxdy
y1
XY
Independencia estadstica
p ( X x, Y y ) = p (X x) p (Y y)
FXY ( x, y ) = FX ( x ) FY ( y )
f XY ( x, y ) = f X ( x ) f Y ( y )
Tambin se cumple
FX ( x / (Y y )) = FX ( x ), FY ( y / ( X x )) = FY ( y )
f X ( x / (Y y )) = f X ( x ), f Y ( y / ( X x )) = f Y ( y )
Momentos de una y de dos variables aleatorias
13
Para una variable aleatoria X, se define el momento sobre el origen de orden n
como
+
{ } x
mn= E X n = n
f x (x) dx
-
+
n = E{( x )n } = (x - x ) n f (x) dx
-
++
{
mnk = E X Y n k
}= x n
y k f XY (x, y) dxdy
- -
++
R XY = m11= E{X Y } = x y f XY (x, y) dxdy
- -
Se dice que las variables aleatorias son incorreladas cuando R XY = E{X } E{Y } .
Adems, se puede demostrar que si son independientes, son necesariamente
incorreladas. Cuando R XY = 0 se dice que las variables aleatorias son ortogonales.
++
nk = E{( x ) ( Y y ) } = (x ) ( y
n k n
x y ) k f XY (x, y) dxdy
- -
C XY = 11=E{( x )( Y y )} =R XY x y
14
Se denomina coeficiente de correlacin a
11 C
= = XY
02 20 x y
1
x
( ) (
( x - )2 2 ( x - x ) y - y y - y )2
+
1 (
2 1 2
) x2 x y 2y
f Y (x, y) = e
2 x y 1 2
f Y (x, y) f Y ( x , y ) =
1
2 x y 1 2
6. Procesos estocsticos
15
una variable aleatoria X(t), de tal forma que se definen las funciones de distribucin y
de densidad de probabilidad de primer orden de la forma
FX ( x, t ) = p{X (t ) x}
dFX ( x, t )
f X ( x, t ) =
dx
FX ( x1 , x 2 ; t1 , t 2 ) = p{X (t1 ) x1 , X (t 2 ) x 2 }
2 FX ( x1 , x 2 ; t1 , t 2 )
f X ( x1 , x 2 ; t1 , t 2 ) =
x1x 2
n FX ( x1 ,..., x n ; t1 ,..., t n )
f X ( x1 ,..., x n ; t1 ,..., t n ) =
x1 ...x n
En la prctica las funciones que se suelen emplear son las de primer y segundo
orden, debido a la complejidad de las expresiones.
Sea X(t) una variable aleatoria definida al fijar el instante de tiempo t. Se define
el momento sobre el origen de orden n
{ } x
+
mn (t )= E X (t ) =
n n
f x (x, t) dx
-
+
n (t ) = E{( (t ) x (t ) ) } = (x - x (t ) ) n f (x, t) dx
n
16
Se ha visto que cuando se fijan los instantes t1 y t2 se generan las variables
aleatorias X(t1) y X(t2). Se definen los momentos conjuntos de ambas variables
aleatorias, de los que slo nos vamos a fijar en los siguientes.
17
Se define la autocorrelacin del proceso estocstico como
++
R XX (t1 , t 2 )= E{X (t1 )X (t 2 )} = x x 1 2 f X ( x1 , x 2 ; t1 , t 2 )dx1 dx 2
- -
Desarrollando se obtiene
++
R XY (t1 , t 2 )= E{X (t1 )Y (t 2 )} = x y f (x, y; t , t )dxdy
XY 1 2
- -
f X ( x, t ) = f X ( x, t + t ) = f X ( x)
f X ( x1 , x 2 ; t1 , t 2 ) = f X ( x1 , x 2 ; t1 + t , t 2 + t )
18
Tambin se suele expresar de la forma
f X ( x1 , x 2 ; t1 , t 2 ) = f X ( x1 , x 2 ; t 2 t1 ) = f X ( x1 , x 2 ; ) = t 2 t1
R XX (t1 , t 2 )= R XX (t 2 t1 ) = R XX ( ) = E{X (t )X (t + )}
C XX (t1 , t 2 )= C XX (t 2 t1 ) = C XX ( )
f XY ( x1 ,..., x n , y1 ,..., y n ; t1 ,..., t n , t1' ,..., t n' ) = f X ( x1 ,..., x n , t1 ,..., t n ) f Y ( y1 ,..., y n , t1' ,..., t n' )
19
Procesos estocsticos ergdicos
Supngase una realizacin del proceso x(t). En general ser una funcin definida
en potencia, por lo que es posible que no tenga transformada de Fourier. Por lo tanto se
define la seal xT(t) como la realizacin del proceso definida en un intervalo T. Esta
seal ser definida en energa, por lo que se puede asegurar que tiene transformada de
Fourier XT(w).
T /2
1 1 1 1 1
x(t ) dt = lim xT (t ) dt = Tlim P (w)dw
2 2 2
Px = lim X T ( w) dw =
2 2
x
T T T T T
T / 2
{ }
T /2
PX = lim
1
T T
{ }
E X 2 (t ) dt =
1
2 Tlim
1
T
2
E X T ( w) dw =
1
2 P X ( w)dw
T / 2
donde PX ( w) = lim
1
T T
{
E X T ( w)
2
} es la DEP del proceso X(t).
Cuando el proceso es estacionario en sentido amplio se cumple
T /2 T /2
PX = lim
1
T T
{ }
E X 2 (t ) dt = lim
1
T T
R X (0)dt = R X (0)
T / 2 T / 2
donde se observa que la potencia media del proceso viene dada por su valor cuadrtico
medio. Adems, se cumple lo que se conoce como teorema de Wiener-Khinchin, que
demuestra que la transformada de Fourier de la autocorrelacin del proceso es la DEP
R X ( )
TF
PX (w)
20
Transformaciones de procesos
X(t) T[ ] Y(t)=T[X(t)]
RY ( ) = R X ( ) * h( ) * h( )
2
PY ( w) = PX ( w) H ( w) H * ( w) = PX ( w) H ( w)
X(t)
+ Receptor
N(t)
21