Sie sind auf Seite 1von 25

1

UNIVERSIDAD DE SONORA
DEPARTAMENTO DE INVESTIGACIN EN FSICA
INGENIERA EN TECNOLOGA ELECTRNICA

TEORA DE LA PROBABILIDAD Y PROCESOS


ESTOCSTICOS
NOTAS COMPLEMENTARIAS AL CURSO:
SISTEMAS DE COMUNICACIONES II

RESPONSABLE: DRA. MILKA DEL CARMEN ACOSTA ENRQUEZ


COLABORADORES: DRA. MARIA ELENA ZAYAS SAUCEDO
DR. SANTOS JESS CASTILLO

EDITADO POR:
COMIT EDITORIAL DEL DEPARTAMENTO DE INVESTIGACIN
EN FSICA

HERMOSILLO, SONORA

AGOSTO DE 2012

Contenido
TEORIA DE LA PROBABILIDAD Y PROCESOS ESTOCASTICOS ............................... 1
1.

INTRODUCCIN ....................................................................................................... 1

2.

PROBABILIDAD........................................................................................................ 1
2.1.

3.

Asignacin de probabilidades a sucesos............................................................... 2

VARIABLES ALEATORIAS ..................................................................................... 3

4. DISTRIBUCIN DE PROBABILIDADES Y FUNCIN DE DENSIDAD DE


PROBABILIDAD............................................................................................................... 4
4.1.
5.

Esperanza matemtica .......................................................................................... 6

DISTRIBUCIONES DE INTERES ............................................................................. 7


5.1.

Variables Aleatorias Discretas ............................................................................. 7

5.2.

Variables aleatorias continuas .............................................................................. 9

6.

FUNCIN DE UNA VARIABLE ALEATORIA .................................................... 11


6.1.

7.

Esperanza matemtica ........................................................................................ 13

VARIABLES ALEATORIAS CONJUNTAMENTE DISTRIBUIDAS .................. 15


7.1.

Variables discretas .............................................................................................. 15

7.2.

Variables continuas ............................................................................................ 17

7.3.

Funciones de variables aleatorias ....................................................................... 19

8.

PROBABILIDADES CONDICIONALES ............................................................... 19

9.

TEOREMA DE LA PROBABILIDAD TOTAL ...................................................... 21

10.

CONCLUSIONES. ................................................................................................ 23

11.

BIBLIOGRAFA. .................................................................................................. 23

TEORIA DE LA PROBABILIDAD Y PROCESOS ESTOCASTICOS


1. INTRODUCCIN
La teora de la probabilidad es, junto con la teora de seales, uno de los dos pilares
matemticos sobre los que se asienta el anlisis de sistemas de comunicaciones digitales.
En estas notas se presentan nociones bsicas de probabilidad y procesos aleatorios. Se
revisan los conceptos de variable aleatoria y procesos estocsticos, as como sus
propiedades, en particular aquellas de inters en comunicaciones digitales.

2. PROBABILIDAD
El concepto de probabilidad est ligado a realizacin (fsica o mental) de un experimento
aleatorio, entendindose por tal un experimento cuyo resultado es desconocido (es decir,
no predecible) por un observador. Suele ponerse el ejemplo de lanzamiento de un dado: el
resultado puede ser cualquier nmero entre 1 y 6, pero es a priori impredecible ni siquiera
por el lanzador.
La probabilidad es una medida de la incertidumbre que, para un observador, tiene el
resultado de un experimento, y es, por tanto, una medida subjetiva. As, por ejemplo, el
contenido de un mensaje enviado a travs de un canal de comunicaciones digitales es
completamente desconocido por el receptor antes de iniciarse la comunicacin, pero no por
el transmisor, que puede predecirlo con exactitud en la medida que conoce el mensaje
transmitido.
El desconocimiento puede ser total o parcial. Si consideramos el experimento lanzar dos
dados y sumar sus puntos, cualquier resultado entre 2 (1+1) y 12 (6+6) es posible. Sin
embargo, tambin sabemos que el 7 es un resultado ms esperable que el 2. Lo sabemos
por naturaleza del experimento o por informacin estadstica.
La probabilidad es esencialmente, una medida de incertidumbre sobre el resultado del
experimento, y por lo tanto, dependiente de la cantidad de informacin disponible por el
observador en cada momento. Para acercarnos a una definicin ms formal, se precisan
varios elementos:

Espacio muestral, , que es el conjunto de todos los resultados posibles de un


experimento aleatorio.
Conjunto de sucesos, = {S, S }.
Suceso es cualquier subconjunto de 1 . Ejemplos de sucesos en el ejemplo de los
dados son que la suma sea: 2, un nmero impar, un nmero menor que 8, etc. En
total hay 211 posibles sucesos.

2
Definimos ahora una medida de probabilidad Pr como toda una funcin que, aplicada sobre
cualquier suceso S , devuelve un nmero real Pr{S} que verifica las siguientes
propiedades
1.
2.
3.
4.

0 Pr {S}1
Pr {}=0
Pr {}=1
Dado un conjunto finito (o infinito numerable) de sucesos S i disjuntos (Si Sj =
), se verifica { } { }

2.1.

Asignacin de probabilidades a sucesos

Supongamos que el experimento aleatorio puede repetirse un nmero indefinido de veces, y


que el resultado de cada experimento es independiente de los dems. Diremos que una
probabilidad Pr es un buen modelo de incertidumbre para dicho experimento en la medida
en que sea capaz de predecir con exactitud la frecuencia con la que se repiten los diferentes
sucesos del experimento.
Es decir, Pr es una buena medida de incertidumbre sobre el resultado del experimento si
dado cualquier suceso S , tras N repeticiones del experimento, denominado N s al
nmero de veces que se produce algn resultado que est en S, el cociente N s/N converge a
P{S} cuando N tiende a infinito.
Ejemplo 1.1
Considere el experimento consistente en lanzar un dado no cargado y mirar el resultado: un
nmero entero entre 1 y 6. Cmo asignar probabilidades al suceso 5? La fsica del
problema sugiere que, siendo un dado no cargado esencialmente simtrico, no hay razn
para pensar que uno de los resultados tenga mayores oportunidades de producirse que el
otro. Esta afirmacin nos invita a hacer la asignacin P r {1} = Pr {2} = = Pr {6} = 1/6. En
apoyo de esta asignacin est el hecho de que ha resultado ser razonablemente acertada con
otros muchos dados anteriormente. Si, adems, tenemos la oportunidad de ensayar el
lanzamiento de este dado cierto nmero N de veces, podremos comprobar si,
efectivamente, la frecuencia de 5 o de cualquier otro resultado se parece a 1/6. Si es as,
podemos confiar en la bondad de esta asignacin. Pero, en todo caso, pinsese que ninguna
de estas evidencias es definitiva a favor del modelo equiprobable frente a todos los
posibles.

3
Ejemplo 1.2
La asignacin de probabilidades a los 6 resultados posibles del lanzamiento del dado
permite calcular un valor de probabilidad para cualquier otro suceso. As, por ejemplo,
suponiendo que la probabilidad de cada posible resultado es 1/6, la probabilidad de que se
obtenga un nmero par ser
{{ }

{ }

{ }}

{ }

{ }

{ }

3. VARIABLES ALEATORIAS
Estrictamente hablando, variable aleatoria es toda aplicacin de en la recta real, que
asigna a cada posible resultado un nmero. Dado el resultado
, la variable aleatoria X
tomara un valor
. En la prctica, la notacin suele simplificarse y, de forma
general escribiremos X, omitiendo el argumento.
Mediante el uso de variables aleatorias, el espacio muestral original se proyecta sobre un
subconjunto de la recta real, que llamaremos espacio muestral imagen.
Ejemplo 2.1
Un transmisor enva una secuencia de dgitos binarios (ceros y unos), { [ ]
}, a un receptor distante a travs de un canal de comunicaciones digitales. A consecuencia
de imperfecciones del canal, la secuencia de dgitos binarios detectada en recepcin,
{ [ ]
}, es posiblemente diferente a la transmitida.
Para evaluar el rendimiento de la comunicacin, considere el experimento consistente en
comparar las secuencias transmitida y recibida y determinar cul de los resultados
siguientes se ha producido:
Hay errores de transmisin, o bien
No hay errores
de transmisin. Puede definirse la variable aleatoria Z dada por
y
=1. De
} es la probabilidad de que se haya producido algn error en la
este modo, {
{
}
transmisin. Si llamamos al espacio muestral imagen ( es decir,
), podemos distinguir entre:

Variables aleatorias discretas: es discreto (es decir, finito o infinito numerable).


Variables aleatorias continuas: es continuo, o contiene algn subconjunto
continuo.

La diferencia entre variables discretas y continuas es sustancial. Como hemos visto


anteriormente, si el espacio muestral imagen es finito o infinito numerable, para
caracterizar la variable aleatoria en trminos probabilsticos es suficiente con asignar un
valor de probabilidad a cada posible resultado (que, de acuerdo con la definicin anterior,

4
es tambin un suceso); respetando las propiedades 1 a 3, y calcular las probabilidades de los
dems sucesos aplicando la propiedad 4. Lo ltimo es posible porque puede construirse
cualquier suceso mediante la unin contable de sucesos atmicos (esto es, sucesos
formados por un solo resultado posible). Sin embargo, si es continuo, aquellos sucesos
que contengan un conjunto infinito y no numerable de resultados posibles no pueden
construirse como unin contable de sucesos atmicos; por lo tanto, no es posible calcular su
probabilidad a partir de las probabilidades de los sucesos atmicos. Adems, la mayora de
los sucesos atmicos tienen probabilidad nula.
Cuando es continuo, suele preferirse caracterizar la variable aleatoria X a partir de los
}. La funcin que devuelve la probabilidad de este suceso para
sucesos de la forma {
cada valor de X se denomina funcin de distribucin acumulada o, simplemente, funcin de
distribucin
{

La funcin de distribucin tiene las siguientes propiedades, que se deducen directamente de


su definicin:
1.
2.
3.
4.

es una funcin montona creciente

si

4. DISTRIBUCIN DE PROBABILIDADES Y FUNCIN DE


DENSIDAD DE PROBABILIDAD
Dada una variable aleatoria discreta X, se define su distribucin de probabilidades (o
simplemente distribucin), que llamaremos
, como aquella que, para cada posible
valor x de X, devuelve su probabilidad. As, por ejemplo,
{
Obviamente, si X puede tomar los valores {

}
} resulta

Probabilidad y distribucin de probabilidades son esencialmente lo mismo, aunque la


primera se aplica a sucesos y la segunda a nmeros. Si la variable es discreta, conociendo
su distribucin puede calcularse la probabilidad de cualquier caso. Por el contrario, si la
variable aleatoria es continua, la distribucin de probabilidades no resulta til, y suele

5
recurrirse a la funcin de distribucin acumulada o bien a su derivada, que se conoce como
funcin de densidad de probabilidad (abreviadamente, FDP).

Las siguientes propiedades son una consecuencia inmediata de esta definicin, y de las
propiedades de la funcin de distribucin enunciadas anteriormente:
1.
2.

3.
Adems, la densidad de probabilidad define completamente una variable aleatoria, en el
sentido de que permite calcular la probabilidad de cualquier suceso. Por ejemplo, la
} se puede calcular teniendo en cuenta que el conjunto
probabilidad del suceso {
{
} admite la particin
{

Luego, en virtud de la propiedad 4,


{

Y, por tanto
{

De forma general, la probabilidad del suceso {


{

} se puede calcular como

La propiedad (3.9) puede ayudarnos a interpretar la funcin


definicin de derivada,
{

partiendo de la
}

La expresin final explica la denominacin de densidad de probabilidad para

Resumiendo, las variables aleatorias discretas pueden caracterizarse mediante su


distribucin de probabilidades, y las continuas mediante su funcin de densidad de
probabilidad. Para completar el paralelismo entre variables discretas y continuas, puede

6
definirse la funcin de probabilidad acumulada (o de distribucin) de una variable discreta,
{
}
dada por
La
funcin de distribucin cumple
, donde
es el mximo valor posible de X (estrictamente hablando, el
valor supremo).
Asimismo, las probabilidades pueden expresarse a partir de la funcin de distribucin.
Suponiendo
, puede escribirse
.
4.1.

Esperanza matemtica

La media o esperanza matemtica de la variable aleatoria discreta X de espacio muestral


{
} se define como
{ }

La esperanza matemtica tambin tiene una interpretacin de frecuencia. Supongamos, por


ejemplo, que se observan N realizaciones
de la variable aleatoria X; el
promedio de todas ellas ser

Agrupando los sumandos iguales, resulta

Siendo

el numero de sumandos iguales a . Dado que el cociente N i/N se aproxima a


a medida que aumenta N, el promedio se aproxima a la media.

La esperanza matemtica puede aplicarse a cualquier funcin de X,


{

Existiendo algunos casos particulares de especial inters:

Valor cuadrtico medio: { }


{
}
{
Varianza:
Momento de orden : { }
Momento central de orden : {

}
}

7
De modo anlogo se escribe la esperanza matemtica de una variable aleatoria continua:
{ }

Y, en general,
{

Los casos particulares definidos anteriormente tambin son de aplicacin a variables


continuas.

5. DISTRIBUCIONES DE INTERES
5.1.

Variables Aleatorias Discretas

Bernoulli. Una variable aleatoria X se dice de Bernoulli si su espacio muestral tiene


{
}, con probabilidades
solamente dos elementos:

Habitualmente,
y
representacin ms compacta:

, en cuyo caso la distribucin de probabilidades admite una

La ocurrencia o no de cierto suceso S en un experimento aleatorio puede modelarse como


una variable de Bernoulli dada por

X(se ha producido S) = 1
X(no se ha producido S) = 0

As, por ejemplo, esta variable aleatoria resulta til en comunicaciones para analizar
sucesos del tipo Se ha transmitido un bit de valor 1 o bien El mensaje recibido contiene
errores.
Binomial. Supongamos que cierto experimento aleatorio se repite n veces (independientes),
y desea evaluarse el nmero de veces que se produce cierto suceso S de probabilidad
{ }
. Considerando la variable aleatoria X que toma el valor k si el suceso S se ha
producido k veces, puede demostrarse que, en tal caso, X es una variable aleatoria de
{
}, con distribucin de probabilidades
espacio muestral

8
( )
( )
Su media es

. Las distribuciones de esta forma se denominan binomiales.

Geomtrica. El espacio muestral de la distribucin geomtrica es el conjunto de todos los


enteros no negativos. La distribucin de probabilidades viene dada por:

Donde

es un parmetro de la distribucin.

La distribucin geomtrica surge, por ejemplo, cuando se desea evaluar la primera vez que
se produce un suceso S de probabilidad p es una sucesin infinita de realizaciones
independientes de cierto experimento aleatorio. Su valor medio (que es el tiempo medido
de aparicin del suceso) puede calcularse como:
{ }

Sabiendo que

, podemos escribir
{ }

=
(

La distribucin geomtrica es til en comunicaciones digitales para estimar el tiempo


medido transcurrido antes de producirse un error en una transmisin digital.
Poisson. La variable aleatoria de Poisson tambin toma valores enteros no negativos, y su
funcin de probabilidad se define como
don de
Su medida y su varianza coinciden con .

9
5.2.

Variables aleatorias continuas

Uniforme. Una variable continua X se denomina uniforme si su funcin de densidad de


probabilidad tiene la forma

Su media es
{ }

Y su varianza
{

Gaussiana. Una variable continua X se dice gausiana o normal si su funcin de densidad


de probabilidad tiene la forma

Su media coincide con el valor del parmetro y su varianza con

La distribucin gaussiana es un buen modelo para muchos procesos aleatorios presentes en


la naturaleza. En particular, es un buen modelo del ruido en numerosos dispositivos
elctricos y electrnicos, y en sistemas de comunicaciones digitales.
La variable gaussiana de media cero y varianza unidad se conoce como una variable normal
unitaria. La probabilidad de que supere un valor x se calcula como
{

La integral en la ecuacin anterior no tiene solucin analtica, sin embargo se dispone de la


solucin en forma de una funcin tabulada, conocida por funcin de Q, que se define como

10

Una alternativa al uso de tablas o aproximaciones numricas de la funcin Q consiste en el


establecimiento de cotas superiores e inferiores de la misma. Las cotas superiores ms
utilizadas son

Y una inferior es
(

Weibull. Una variable Weibull de parmetros


de densidad de probabilidad

se caracteriza por una funcin

,
Que es la derivada de una funcin de distribucin de expresin ms sencilla:
,
En el caso
y
conocida como Rayleigh

, la FDP en la ecuacin se simplifica en una distribucin

,
Alternativamente, podemos definir una variable aleatoria de tipo Rayleigh a partir de dos
variables gaussianas: si
y
son gausianas independientes de media cero y varianza ,
la variable dada por

sigue una distribucin Rayleigh con


.
Variables de este tipo las encontramos con frecuencia en ciertos detectores en
comunicacin digitales.
Lognormal. La funcin densidad de probabilidad lognormal de parmetros
por

se define

11
Gamma. La variable aleatoria de tipo gamma de parmetros b y

se define por

,
Donde

es la funcin de Gamma.

Hay dos casos particulares de especial inters:

Distribucin exponencial. Es la distribucin Gamma de parmetro


resultando:

,
La distribucin exponencial se utiliza frecuentemente para el modelado de la duracin
media de paquetes de datos.

Distribucin Chi-cuadrado
. Se dice que una variable aleatoria tiene una
distribucin
con grados de libertad si se ajusta a una distribucin Gamma con
los parmetros
y
. En este caso, la FDP en la ecuacin de Gamma
antes mencionada se reduce a
,

( )

con

Tambin podemos definir una variable aleatoria tipo


con grados de libertad
como la suma de los cuadrados de
variables aleatorias normales unitarias
independientes: sean
variables aleatorias gausianas de media nula y
varianza unidad independientes entre s; si definimos la variable aleatoria como
, esta posee una distribucin
con grados de libertad. A
partir de aqu podemos tambin definir la distribucin , que sera la que posee la
variable
. Note que la distribucin con dos grados de libertad
un caso particular de una distribucin de Rayleigh.

es

6. FUNCIN DE UNA VARIABLE ALEATORIA


Cualquier transformacin sobre una variable aleatoria es, a su vez, otra variable aleatoria,
se puede caracterizar por su funcin de probabilidad o de densidad de probabilidad, segn
se trate de una variable discreta o continua, respectivamente.
{

Si es una variable discreta de espacio muestral


{
variable aleatoria de dominio
transformacin es invertible, resulta
{

es otra
} . Adems, si la

12
Si la transformacin no es uno a uno (porque para uno o mas
con
), se comprueba fcilmente que

se verifica que

El anlisis en el caso continuo es algo ms complejo. Sea


e
. Entonces, puede escribirse
{

Supongamos, en primer lugar, que


puede definirse la funcin inversa
como

es una funcin estrictamente creciente. En tal caso,


, y la ecuacin anterior se reescriben
{

Por el contrario, si

una variable aleatoria continua

es estrictamente decreciente, un razonamiento anlogo conduce a


{

Derivando las dos ecuaciones inmediatas anteriores, segn se trate de una funcin creciente
o decreciente, resulta
|

Ejemplo 5.1
Si es una variable aleatoria gausiana de media
una distribucin
| |

y varianza , la variable

Y por tanto, es una variable lognormal.


Sabiendo que, para

.
|

La ecuacin

| puede reescribirse como

tiene

13

Esta expresin puede generalizarse para funciones con tramos crecientes y decrecientes,
de modo anlogo al caso discreto: la fdp resulta de la suma

Ejemplo 5.2
Considere la variable aleatoria
funcin
creciente

con FDP

tiene como derivada

y la variable aleatoria

. La

y un tramo decreciente

y un tramo
, y en el

. En el tramo decreciente la funcin inversa es

tramo creciente es

. Aplicando la ecuacin:

Es posible obtener:

Si

es una variable aleatoria gaussiana de media

y varianza

6.1.

,
)

Esperanza matemtica

De acuerdo con la definicin de esperanza matemtica, la media de


calcularse por dos procedimientos: como esperanza matemtica de .
{ }

puede

14
O bien como esperanza matemtica de
{

.
}

Cabe preguntarse si ambos procedimientos conducen al mismo resultado. Para simplificar,


supondremos que
es una funcin estrictamente creciente. Llamando
a su
inversa, y haciendo el cambio de variable
, la integral inmediata anterior puede
escribirse como
{

Sabiendo que
(

Resulta
{

Por ltimo, en virtud de

| y teniendo en cuenta que, si

estrictamente creciente, su inversa tambin lo es, de modo que


(

)|

es

, resulta
{

{ }

Por tanto, el valor medio es independiente de la variable que se utilice para su clculo. Esta
propiedad es vlida para cualquier funcin , no necesariamente creciente.
Un caso particular de inters es aquel en el que la relacin entre las variables es lineal.
Supongamos, por ejemplo, que la variable aleatoria continua tiene media
y varianza
, y se define la variable
, siendo y constantes conocidas. De acuerdo con
la ecuacin inmediata anterior, la media de es
{ }

15
Y su varianza
{

7. VARIABLES ALEATORIAS CONJUNTAMENTE DISTRIBUIDAS


Considere el experimento consistente en lanzar dos dados y observar el resultado. Si
estamos interesados en el valor que toma cada dado, el resultado es la combinacin de los
resultados de cada dado, y su probabilidad puede medirse recurriendo a la probabilidad de
la ocurrencia simultanea de dos dados especficos. Por ejemplo, si
es el resultado de
lanzar el dado 1 y
es el resultado de lanzar el dado 2, podemos calcular las
} . De
probabilidades de la configuracin
,
como {
forma general, podemos definir la funcin de probabilidad conjunta
que, para
cada posible valor de
y , devuelve la probabilidad del suceso
y
.
7.1.

Variables discretas

{
} de
De forma general, dada una coleccin de variables aleatorias
espacios muestrales
, respectivamente, se define la funcin de probabilidad
conjunta de las variables en como aquella funcin que devuelve, para cada configuracin
posible de valores de las variables, su probabilidad de ocurrencia simultnea. De forma
general, denotaremos esta funcin como
. Asimismo, puede
construirse el vector aleatorio

En cuyo caso la funcin de probabilidad conjunta admite la representacin

A partir de esta definicin, no es difcil demostrar que la funcin de probabilidad asociada a


un subconjunto de las variables en se puede obtener a partir de la probabilidad conjunta,
mediante suma sobre todos los valores posibles de las otras variables. Esta operacin suele
denominarse marginacin. As, por ejemplo,

16
La media

de un vector aleatorio

tiene una definicin similar al de una variable escalar

{ }

Podemos observar que la media es un vector cuya componente i-sima,


{ }

Es decir, { } es un vector de componentes

, viene dada por

{ }.

De modo similar al caso escalar, el operador esperanza matemtica puede aplicarse a


cualquier funcin de . En particular, se define la matriz de covarianzas de como

Donde el superndice denota como vector transpuesto. Se comprueba que la componente


de tiene la forma
(

{(

)(

)(

)}

Y se denomina covarianza cruzada o, simplemente, covarianza, de las variables


Resulta inmediato comprobar que
coincide con la varianza de .

La matriz de covarianzas tiene dos propiedades importantes, que se deducen directamente


de su definicin, las propiedades son las siguientes:
1. Es simtrica:
2. Es semidefinida positiva, dado que, para todo , se verifica que
{

}
{

Como consecuencia de estas propiedades, todos los autovalores de


Adems, existe una base ortonormal de autovectores {
y
, de modo que se puede factorizar como

son no-negativos.
}, con

17

| |
Donde

es una matriz ortogonal


formada por los
autovectores, y es una matriz diagonal tal que
es el autovalor correspondiente al
autovector .
7.2.

Variables continuas

La funcin de distribucin conjunta de las variables {


funcin de densidad de probabilidad conjunta se define como
{

}, se define y la
}

Y la funcin de densidad de probabilidad conjunta se define como

Cuando
, las definiciones anteriores se reducen a las ya conocidas para el caso
escalar. Puede interpretarse la funcin de densidad de probabilidad como un valor
proporcional a la probabilidad de que las componentes del vector aleatorio caigan dentro de
los intervalos [
]
[
].
{

Partiendo de la FDP conjunta de , se puede calcular la funcin de distribucin conjunta

Asimismo, de forma general, la probabilidad de que una variable aleatoria caiga dentro de
una regin
se puede calcular como
{

Para el caso continuo:

18
Asimismo, se define la media de un vector aleatorio

{ }

como

{ }.

Que es un vector de componentes

La matriz de covarianzas se define por

Sus componentes son las covarianzas de las componentes de ,


(

{(

)(

)}

Y conserva las mismas propiedades que la matriz de covarianzas de un conjunto de


variables discretas.
Variable gausiana multidimensional. Una funcin de densidad de probabilidad conjunta
de especial inters en comunicaciones es la gausiana N-dimensional, dada por

Donde

es la media, C es la matriz de covarianzas y

su determinante.

Variables comple jas. Cualquier variable aleatoria compleja


puede
considerarse un conjunto de dos variables aleatorias reales,
y , de modo que, para todo
.
En particular, en virtud de la ecuacin de una variable gaussiana multidimensional, la
densidad de probabilidad de una variable gaussiana compleja de media nula y matriz de
covarianzas
(

Se puede expresar como


(

19
7.3.

Funciones de variables aleatorias

Dado un vector aleatorio


, y un conjunto de N funciones de
en
{
} , puede obtenerse otro vector aleatorio
, tal que

. Si es invertible y denota la componente i-sima


} de modo
de la funcin inversa de , el vector se construye a partir de {
similar al vector .
{

Si es un variable discreta,
modo inmediato

Si

es continua con FDP conjunta

se generaliza de

la matriz Jacobiana de la transformacin

, dada por

(
Y

, puede demostrarse que


|

Siendo

su determinante.

Ejemplo 6.1
Sea

un vector aleatorio e
, siendo una matriz cuadrada invertible y
un vector constante. La matriz Jacobiana de la transformacin es
y la
|
|
FDP de se puede calcular aplicando directamente la expresin
.
|

8. PROBABILIDADES CONDICIONALES
Hemos dicho que la probabilidad es una medida de la incertidumbre acerca del resultado de
un experimento, y por tanto es subjetiva, en la medida en que depende de la informacin
disponible por el observador que pueda tener alguna relacin con el mismo. Por tanto, si el
observador recibe nueva informacin, la cantidad de incertidumbre puede cambiar.

20
Se precisa, por tanto, alguna medida de la probabilidad de cierto suceso condicionada por
el conocimiento sobre la ocurrencia de otro suceso . Matemticamente, esto se escribe
{ | } y se define como
{

{ | }

}
{ }

Cabe preguntarse si esta definicin matemtica expresa efectivamente lo que se desea


medir. Supongamos que, tras realizar un numero (suficientemente grande) de veces el
experimento aleatorio asociado a los sucesos y se producen
ocurrencias de y
ocurrencias simultaneas de
y . Si las probabilidades de los sucesos son consistentes
con las observaciones, debe ser buena la aproximacin { | }
(es decir, la
probabilidad debe aproximarse a la proporcin de veces que se ha observado entre todas
las observaciones en las que ha sucedido ).
{

{ | }
{

}
{ }

{ | } { }

{ | } { }

Esta expresin puede generalizarse para la interseccin de sucesos con la denominada


regla de la cadena de la probabilidad condicional, de la forma siguiente:
{

} {

Del mismo modo que hemos definido la funcin de probabilidad de una variable aleatoria a
partir de las probabilidades de los sucesos atmicos (sucesos constituidos por un solo
resultado posible), se define la funcin de probabilidad condicional de dado (o mejor,
de dado
) como
|

Que, para cada valor de

y de , devuelve la probabilidad condicionada correspondiente.

Asimismo, se define la funcin de densidad de probabilidad condicional de la variable


continua dada la variable continua
|

Ejemplo 7.1
Un ejemplo de probabilidades condicionales utilizado en transmisin digital es el modelo
de Canal binario simtrico, como se muestra en la figura 7.1. Este modelo define las

21
probabilidades con las que ocurren los 0 y los 1 a la salida de un canal de
comunicaciones, supuesto conocido el valor de los bits a su entrada. De esta forma se
definen las variables aleatorias
asociadas al bit transmitido y recibido,
respectivamente, relacionada a travs de las siguientes probabilidades
{

Se observa que la probabilidad de que el canal produzca un error es , independientemente


del valor del bit transmitido, y de ah el apelativo simtrico.

Transmisor

Canal

Receptor

Figura 7.1: Modelo de canal binario simtrico. El transmisor enva un bit S=0 o 1 a travs del canal. El
receptor observa un bit R= 0 o 1, que, con probabilidad , difiere de .

9. TEOREMA DE LA PROBABILIDAD TOTAL


El teorema de la probabilidad total permite calcular las probabilidades de cualquier suceso
como suma de probabilidades condicionadas a los sucesos de una particin de cierto
espacio muestral.
El teorema afirma que, si
espacio de sucesos, de modo que

es un suceso y {
,y
{ }

} una particin del


,

{ | } { }

La demostracin es sencilla: por definicin de probabilidad condicional,

Dado que los sucesos {

{ | } { }

} son disjuntos, puede aplicarse la relacin siguiente:

22

{ }

{ }

De modo que:

{ }

El teorema de la probabilidad total tiene algunas extensiones inmediatas de inters:

Si los sucesos son realizaciones de las variables aleatorias X e Y de espacios


} y {
} , respectivamente, la
muestrales {
distribucin de probabilidades de X se puede calcular como

( | )

( )

Si la variable X es continua e Y discreta con espacio muestral {


}, obtenindose
podemos aplicar el teorema sobre los sucesos de la forma {

( | )

( )

( | )

( )

},

Y, derivando respecto de ,

Si la variable X es discreta e Y continua, la suma anterior debe reemplazarse por


una integral sobre todo su dominio

Por ltimo, si X e Y son continuas

23

Ejemplo 8.1
Consideremos el canal binario simtrico descrito por las probabilidades condicionales en el
ejemplo 7.1. Si la probabilidad de transmitir un 1 es y la de transmitir un 0 es
,
las probabilidades de recibir un 0 y un 1 son
{

} {

} {

} {

} {

Obviamente, en este caso tambin poda haberse calculado

} como

}.

10. CONCLUSIONES.
En estas notas se revisaron las principales definiciones de probabilidad y procesos
estocsticos aplicados a sistemas de comunicaciones electrnicas digitales para el curso de
Sistemas de Comunicaciones II de la Ingeniera en Tecnologa Electrnica.

11. BIBLIOGRAFA.
[1] LATHI B. P. & DING ZHI. Modern Digital and Analog Communication Systems.
Editorial Oxford University Press. 2009.
[2] PROAKIS JOHN G. Fundamentals Communication Systems. Editorial Prentice
Hall. 2004.
[3] HERRERA PEREZ ENRIQUE. Comunicaciones II: comunicacin digital y ruido;
una introduccin a la teora de la comunicacin digital y el ruido. Editorial Limusa,
Grupo Noriega Editores. 2008.

Das könnte Ihnen auch gefallen