Sie sind auf Seite 1von 6

Repaso de Teoría de la Probabilidad

Luis Mendo Tomás


Escuela Politécnica Superior
Universidad Autónoma de Madrid

Febrero de 2008

1. Introducción

Este documento contiene, de forma esquemática, los conceptos básicos so-


bre Teoría de la Probabilidad necesarios para la asignatura Comunicaciones
Móviles.
En este documento, las funciones de una variable discreta se denotan uti-
lizando corchetes, y las de una variable continua utilizando paréntesis. Las
variables aleatorias se denotan mediante letras mayúsculas en negrita. Los
procesos estocásticos se denotan mediante letras minúsculas en negrita. Las
probabilidades, esperanzas matemáticas y varianzas se escriben indicando su
argumento entre corchetes.

2. Variables aleatorias

Caracterización de una variable aleatoria Para una variable aleatoria


discreta X se dene su función de probabilidad fX [n]:

fX [n] = Pr[X = n]. (1)

Para una variable aleatoria continua X se dene su función de distribución


FX (x):
FX (x) = Pr[X ≤ x]. (2)

La derivada de FX (x), si existe, se denomina función de densidad de proba-


bilidad de X , fX (x):
dF (X)(x)
fX (x) = . (3)
dx
Habitualmente puede unicarse el tratamiento de ambos tipos de variables
deniendo para el caso discreto una función de densidad de probabilidad
formada por deltas de Dirac:
X
fX (x) = fX [n]δ(x − n). (4)
n

Mediana y percentil La mediana de X es el valorx0,5 que verica Pr[X ≤


x0,5 ] = 0,5. El percentil p es el valor xp tal que Pr[X ≤ xp ] = p.

1
Función de una variable aleatoria Si Y = g(X), fY (y) puede calcularse
a partir de fX (x) como
n
X fX (xi )
fY (y) = , (5)
i=1
|g 0 (xi )|
donde x1 , ..., xn son las soluciones de la ecuación y = g(x), y g 0 (x) es la
función derivada de g(x).

Operador  E o esperanza matemática La esperanza matemática o va-


lor medio de X se dene como
Z ∞
E[X] = xfX (x)dx. (6)
−∞

El operador E es lineal.

Media de una función de variable aleatoria


Z ∞
E[g(X)] = g(x)fX (x)dx. (7)
−∞

Varianza, desviación típica y coeciente de variación Sea ηx = E[X].


La varianza se dene como

Var[X] = E[(X − ηx )2 ] = E[X 2 ] − ηx2 . (8)

La desviación típica es la raíz cuadrada de la varianza. Se emplea habi-


tualmente como medida de la dispersión de una variable aleatoria en torno a
su media.
El coeciente de variación se dene como la desviación típica entre la
media. Es una medida normalizada de la dispersión.

Caracterización de dos variables aleatorias Una pareja de variables


aleatorias X e Y se caracteriza mediante su función de distribución conjunta,
FX,Y (x, y):
FX,Y (x, y) = Pr[X ≤ x, Y ≤ y]. (9)

La función de densidad se dene como la siguiente derivada doble, si existe:

∂ 2 FX,Y (x, y)
fX,Y (x, y) = . (10)
∂x ∂y

Dada una región D del plano, la probabilidad de que el punto (X, Y ) perte-
nezca a D se calcula como
ZZ
Pr[(X, Y ) ∈ D] = fX,Y (x, y) dx dy. (11)
D

2
Probabilidad condicionada (o condicional) Dados dos sucesos A y B,
la probabilidad de A condicionada a B , Pr[A|B], se dene como

Pr[A, B]
Pr[A|B] = , (12)
Pr[B]
siendo Pr[A, B] la probabilidad de que ocurran simultáneamente A y B.
Dada una variable X y un suceso A, la función de distribución de X
condicionada a A viene dada por

Pr[X ≤ x, A]
FX (x|A) = Pr[X ≤ x|A] = . (13)
Pr[A]
La función de densidad condicionada se dene como

dF (X)(x|A)
fX (x|A) = . (14)
dx
Dadas dos variables X e Y, la función de densidad de X condicionada a
Y viene dada por
fX,Y (x, y)
fX (x|Y = y) = . (15)
fY (y)

Teorema de la probabilidad total


Z ∞
Pr[A] = Pr[A|X = x]fX (x)dx. (16)

Z−∞

fY (y) = fY (y|X = x)fX (x)dx. (17)
−∞

Teorema de Bayes

Pr[A|X = x]fX (x)


fX (x|A) = . (18)
Pr[A]
fY (y|X = x)fX (x)
fX (x|Y = y) = . (19)
fY (y)

Independencia e incorrelación Dos sucesos AyB son (estadísticamente)


independientes si Pr[A, B] = Pr[A] Pr[B].
Dos variables X e Y son (estadísticamente) independientes si, para cua-
lesquiera conjuntos C y D , Pr[X ∈ C, Y ∈ D] = Pr[X ∈ C] Pr[Y ∈ D].
Equivalentemente, X e Y son independientes si FX,Y (x, y) = FX (x)FY (y), o
bien si fX,Y (x, y) = fX (x)fY (y).
Si X e Y son independientes, también lo son g(X) y h(Y ).
Dos variables aleatorias X e Y son incorreladas si E[XY ] = E[X] E[Y ].
Si dos variables son independientes, son también incorreladas.

Una función de dos variables aleatorias Si Z = g(X, Y ),


ZZ
FZ (z) = fX,Y (x, y)dx dy, (20)
Dz

donde Dz es la región del plano tal que g(x, y) ≤ z .

3
Dos funciones de dos variables aleatorias Si Z = g(X, Y ) y W =
h(X, Y ),
n
X fX,Y (xi , yi )
fZ,W (z, w) = , (21)
i=1
|J(xi , yi )|
donde (x1 , y1 ), . . . , (xn , yn ) son las soluciones del sistema z = g(x), w = h(y),
y J(x, y) es el determinante jacobiano de (z, w) respecto a (x, y):
∂z ∂w ∂z ∂w
J(x, y) = − . (22)
∂x ∂y ∂y ∂x

Suma de variables aleatorias independientes o incorreladas La fun-


ción de densidad de probabilidad de una suma de variables aleatorias inde-
pendientes se obtiene como la convolución de las funciones de densidad indi-
viduales.
La varianza de la suma de variables aleatorias incorreladas es igual a la
suma de las varianzas.

Algunas distribuciones

Función de densidad de probabilidad gaussiana o normal de media η y


desviación típica σ:
1 (x − η)2
f (x) = √ e− . (23)
σ 2π 2σ 2

Función de densidad de probabilidad exponencial de parámetro c:


f (x) = ce−cx , para x ≥ 0. (24)

El parámetro c representa el inverso del valor medio.

La suma de los cuadrados de dos variables aleatorias gaussianas inde-


pendientes de media nula y la misma varianza es una variable aleatoria
exponencial.

Función de densidad de probabilidad Rayleigh de parámetro b:


x −x2
f (x) = e 2b , para x ≥ 0. (25)
b
El parámetro b representa la mitad del valor cuadrático medio: b =
E[X 2 ]/2.
La raíz cuadrada de una variable aleatoria exponencial es una variable
Rayleigh.

Variable aleatoria log-normal: es, por denición, aquélla cuyo logaritmo


es una variable aleatoria gaussiana.

Función de probabilidad de Poisson de parámetro a:


ak
f [n] = e−a . (26)
k!
El parámetro a representa el valor medio.

4
Variables conjuntamente gaussianas n variables X 1 , . . . , X n , és-
Dadas
tas se denominan conjuntamente gaussianas si a1 X 1 +· · ·+an X n es gaussiana
para cualesquiera a1 , . . . , an .
Si X 1 , . . . , X n son conjuntamente gaussianas e incorreladas, son indepen-
dientes.

Teorema del límite central Bajo condiciones muy generales, la distri-


bución de la suma de un gran número de variables aleatorias tiende a ser
gaussiana.
Una condición suciente es que las variables aleatorias sean independientes
e idénticamente distribuidas con varianza nita.

Ley de los grandes números y resultados relacionados Se realiza un


experimento y se observa la ocurrencia o no de un suceso A, cuya probabilidad
es p. Si el experimento se realiza n veces, y k denota el número de veces que
ocurre A, la frecuencia relativa del suceso A, denida como k/n, tiende a p
en el sentido siguiente:

 
k
Pr − p ≤  → 1
para n→∞ (27)
n

(versión débil de la ley de los grandes números).


Seann variables aleatorias X 1 , . . . , X n independientes idénticamente dis-
tribuidas, con media η , desviación típica σ y coeciente de variación c = σ/µ.
En estas condiciones,
Pn √
la variable suma i=1 Xi tiene coeciente de variación c/ n; y
Pn
la variable promedio (o suma normalizada)
√ 1/n · i=1 Xi tiene desvia-
ción típica σ/ n.

3. Procesos estocásticos

Caracterización de procesos estocásticos Para caracterizar un proceso


estocástico x(t) debe conocerse la función de distribución conjunta de las
variables aleatorias x(t1 ), ..., x(tn ), para todos los posibles t1 , ..., tn y para
todo n.
Para caracterizar dos procesos estocásticos debe conocerse la función de
distribución conjunta de las variables correspondientes a ambos.
Un proceso x(t) es gaussiano si las variables x(t1 ), . . . , x(tn ) son conjun-
tamente gaussianas para todos los posibles t1 , . . . , tn y para todo n.

Autocorrelación y correlación cruzada Dado un proceso x(t) (en ge-


neral complejo), su autocorrelación Rx (t1 , t2 ) se dene como E[x(t1 )x∗ (t2 )].
Dados dos procesos x(t) e y(t), su correlación cruzada Rx,y (t1 , t2 ) se dene

como E[x(t1 )y (t2 )].

5
Estacionariedad en sentido amplio Un proceso x(t) es estacionario en
sentido amplio si

su media es independiente del tiempo t; y

su autocorrelación depende sólo de la diferencia de tiempos τ = t1 − t2 .


Para un proceso estacionario en sentido amplio, la autocorrelación se denota

como Rx (τ ) = E[x(t + τ )x (t)].
Dos procesos son conjuntamente estacionarios en sentido amplio si

cada uno de ellos es estacionario en sentido amplio; y

su correlación cruzada depende sólo de la diferencia de tiempos.

Espectro de potencia Dado x(t) estacionario en sentido amplio, se dene


su espectro de potencia Sx (f ) como la transformada de Fourier de Rx (τ ).
El valor cuadrático medio (potencia) de x(t) viene dado por
Z ∞
2
E[|x(t)| ] = Rx (0) = Sx (f )df. (28)
−∞

Sistemas lineales invariantes con entradas estocásticas Dado un siste-


ma lineal invariante (determinista) con respuesta al impulso h(t), cuya entrada
es un proceso estocástico en sentido amplio x(t), con autocorrelación Rx (τ ) y
espectro de potencia Sx (f ), y cuya salida es y(t), se verica que los procesos
de entrada y salida son conjuntamente estacionarios en sentido amplio, con

E[y(t)] = E[x(t)] ∗ h(t) (29)

Rx,y (τ ) = Rx (τ ) ∗ h∗ (−τ ) (30)

Ry (τ ) = Rx,y (τ ) ∗ h∗ (τ ) (31)

Sx (f ) = Sy (f ) |H(f )|2 . (32)

Además, si x(t) es gaussiano, y(t) es gaussiano.

Procesos puntuales Un proceso puntual es un conjunto de puntos aleato-


rios en el eje real.

Proceso de Poisson Un proceso de Poisson de tasa λ es un proceso puntual


que verica lo siguiente:

El número de puntos en un intervalo (t1 , t2 ) de longitud t = t1 − t2 sigue


una distribución de Poisson de parámetro λt.

Dados dos intervalos disjuntos, los números de puntos que contienen son
variables aleatorias independientes.

Superposición de procesos puntuales Dados n procesos puntuales, su


superposición se dene como un proceso puntual formado por la unión de
todos los puntos pertenecientes a los n procesos.

Teorema de Cinlar Bajo ciertas condiciones muy generales, la superposi-


ción de un gran número de procesos puntuales tiende a un proceso de Poisson.

Das könnte Ihnen auch gefallen