Sie sind auf Seite 1von 139

TEMARIO, BOLETINES Y PRCTICAS

PROBABILIDAD Y ESTADSTICA (PE)


2010/2011










TEMA 1 TEORA DE LA PROBABILIDAD
PROBABILIDAD Y ESTADSTICA (PE)
2010/2011
Universidad de Vigo. PyE. Tema 1: Teora de la probabilidad 1.1
Prologo
En disciplinas como la fsica o la qumica se establecen relaciones entre distintas variables
que permiten describir el funcionamiento de un determinado sistema. Por ejemplo, conociendo
la altura sobre el suelo de un objeto podemos predecir el tiempo que tardar a en llegar al suelo
si se deja caer. Del mismo modo, conociendo la temperatura de dos cuerpos, su masa y su calor
especco es posible predecir su temperatura nal una vez que se ponen en contacto y realizan un
intercambio de calor. Cualquiera de estas dos situaciones supone generalmente una simplicaci on
de un problema real, puesto que en el primer caso no estamos teniendo en cuenta el rozamiento
del aire y en el segundo la interaccion con otros cuerpos externos. La implicacion real es que el
resultado nal del experimento no se ajustara con total precisi on a la predicci on determinista que
se obtiene a partir de la correspondiente f ormula, sino que presentar a una cierta desviaci on.
Generalmente los factores que afectan a un experimento son m ultiples y difcilmente todos
ellos se mantienen constantes, por lo que la repeticion del experimento dar a lugar a resultados
diferentes. Si dejamos caer una pluma al suelo, el tiempo que tarda en caer y la posici on seran
distintos en cada prueba. Las peque nas variaciones en la posicion inicial de la pluma y las condi-
ciones del aire originan estos cambios. Lo mismo ocurre cuando lanzamos una moneda al aire, ya
que en este caso resulta casi imposible lanzarla dos veces de la misma forma. Estos dos ejemplos
se podran considerar deterministas si la geometra de los cuerpos, sus posiciones y velocidades
iniciales y todas las caractersticas fsicas del aire y su variaci on con el tiempo fuesen conocidas,
con lo que se podra predecir (no sin calculos complicados) el tiempo y la posicion de cada.
Sin embargo, en la pr actica no se pueden controlar todos estos factores y como consecuencia se
observa una cierta variabilidad o aleatoriedad en los resultados. Exactamente lo mismo ocurre en
muchos experimentos relacionados con el ambito de la ingeniera de telecomunicacion.
Sintonicemos una radio en un punto del dial en el que no se reciba ninguna emisora y au-
mentemos el volumen. Escucharemos un sonido siseante llamado ruido de radio. Reemplazando
el altavoz por un osciloscopio que registre la salida del amplicador de audio, observaremos que
trazar a, en un intervalo de tiempo, una curva irregular que nunca se repite exactamente y que
no puede ser representada como una funcion regular del tiempo f(t). Sin embargo, esta se nal
uctuante aparenta tener una cierta estructura: su amplitud permanece dentro de unos lmites
vagamente denidos. Observando las salidas de varios receptores identicos sintonizados en la mis-
ma frecuencia, veremos que dieren en el detalle, pero que, en general, muestran caractersticas
similares. Las uctuaciones ruidosas son debidas a las agitaciones termicas de iones y electrones
en los componentes del receptor y a la excitaci on de su antena por campos electromagneticos
aleatorios producidos por los movimientos caoticos de las componentes de toda la materia circun-
dante. Para describir y analizar el ruido de radio, debemos desarrollar alg un modo de manejar
la incertidumbre aleatoria que lo caracteriza, y esto se puede hacer mediante la teora de la
probabilidad.
El ruido interere con la recepci on de se nales de radio debiles. Si estamos tratando de
recoger mensajes de un satelite que transmite con una potencia limitada, las se nales pueden
ser enmascaradas por el ruido. Subir el volumen no sirve, simplemente el ruido es amplicado
conjuntamente con la se nal. Al estrechar la banda de paso del receptor se reduce el ruido, pero a
costa de distorsionar las se nales hasta un punto en el que estas puedan ser indistinguibles. Si un
sistema de comunicaci on por satelite transmite informacion codicada en secuencias de dgitos
binarios: ceros y unos, el ruido causa errores en la interpretaci on de la se nal recibida: los ceros
se pueden convertir en unos y viceversa. Esos errores ocurren en una secuencia err atica y con
una frecuencia que depende de la relaci on se nal/ruido. El grado en el que el sistema es propenso
a error se mide en terminos de probabilidad. Para dise nar un receptor optimo debemos analizar
Universidad de Vigo. PyE. Tema 1: Teora de la probabilidad 1.2
en terminos de teora de la probabilidad el comportamiento aleatorio tanto de la se nal como del
ruido. En efecto, la secuencia de ceros y unos representa la informaci on codicada de ciertos
mensajes transmitida por el satelite a un receptor con una cierta velocidad y con una cierta
abilidad. Si el emisor enva siempre lo mismo no habra necesidad del sistema de comunicaci on,
a menor predictibilidad en los mensajes, mayor informaci on llevan. El contenido de la informaci on
y la velocidad de transmisi on se pueden cuanticar a traves de un an alisis probabilstico de los
mensajes que se van a enviar. Estos son factores esenciales en el desarrollo de un sistema de
comunicaci on.
Que los experimentos reales presenten cierta variabilidad no quiere decir que sean incon-
trolables o que no podamos tener en cuenta en su estudio dicha variabilidad. La variabilidad de
un experimento presenta una cierta estructura, una cierta estabilidad que es susceptible de ser
medida. Generalmente esta estabilidad se describe indicando cu ales son los posibles resultados del
experimento y la frecuencia con la que ocurren a largo plazo, es decir, la proporcion de veces que
ocurren cuando el experimento se ha realizado muchas veces. En el caso de un dado, por ejemplo,
los resultados posibles son del 1 al 6, y si el dado est a equilibrado todos ellos ocurren con la misma
facilidad, es decir 1/6 de las veces cuando el dado se ha tirado muchas veces. Sin embargo, la
estabilidad de la variabilidad no siempre se maniesta en forma de equiprobabilidad. En el caso de
un sistema de transmision binario es muy posible (y conveniente) que la transmisi on sea correcta
una proporci on de veces muy superior a la obtenida para los errores. La Estadstica y la Teora
de la Probabilidad son las disciplinas cientcas que permiten analizar y modelar los resultados
de los experimentos aleatorios. Las herramientas que proporcionan hacen posible el estimar un
modelo adecuado para el experimento, el predecir su comportamiento futuro y el tomar decisiones
relativas al sistema. Por ejemplo, poseer un modelo probabilstico para el n umero de demandas de
comunicaci on por unidad de tiempo a una central telef onica permite dimensionar la central para
que la frecuencia con la que ocurre una saturacion de lneas no supere un determinado umbral.
Descripcion del material de la asignatura
El material de apoyo a la asignatura de Probabilidad y Estadstica consta de los apuntes de
la asignatura, boletines de problemas y enunciados de pr acticas de laboratorio. Las caractersticas
principales de los apuntes de la asignatura son:
- Incluyen los contenidos te oricos que constituyen el programa de la asignatura. En muchas
ocasiones se omiten las demostraciones matem aticas.

Estas aparecen en los libros recomen-
dados en la bibliografa.
- Incluyen espacio para ejercicios y ejemplos. Algunos se resuelven en clase y otros son pro-
puestos. Tambien incluyen ejemplos resueltos.
- Al nal de cada captulo existe un conjunto de lecturas recomendadas y de problemas
propuestos pertenecientes a alguno de los libros incluidos en la bibliografa. En general
estos problemas son algo m as sencillos que los problemas de los boletines de la asignatura.
- Presentan un estilo uniforme. Por ejemplo, cada vez que se dene un concepto nuevo, este
aparece subrayado en el texto.
Todo el material de esta asignatura ha sido elaborado por los profesores Ignacio Alonso Alonso y
Jose Ram on Fern andez Bern ardez, del departamento de Teora de la Se nal y Comunicaciones de
la Universidad de Vigo.
Universidad de Vigo. PyE. Tema 1: Teora de la probabilidad 1.3
Tema 1. Teora de la probabilidad
1. Introducci on. Fen omenos deterministas y aleatorios
El metodo cientco se basa en la observacion de los hechos para poder realizar una prevision
o predicci on mediante un proceso de deducci on. La Estadstica es la ciencia que nos permite, en
base a una serie de observaciones o datos, realizar predicciones con los mnimos m argenes de error
posibles. El metodo se basa en el ajuste de un modelo te orico a nuestros datos; si comprobamos que
el modelo es sucientemente bueno, podemos asumir que este ha sido el mecanismo generador de
los datos, por lo que futuras observaciones de la misma poblaci on deberan encajar en ese esquema.
Desde el punto de vista matematico, la Estadstica se basa en el c alculo de probabilidades. La
probabilidad es una disciplina matem atica basada en un modelo abstracto, y sus conclusiones son
deducciones basadas en axiomas. La Estadstica trata con las aplicaciones de la teora a problemas
reales, y sus conclusiones son inferencias basadas en observaciones.
En este primer tema, se recogen las ideas b asicas de la teora de la probabilidad, aunque
tratando de cuidar mas la vision intuitiva que la vision formal. Posteriormente, en los temas dos y
tres, trataremos de presentar de una forma l ogica los posibles modelos probabilsticos que se nos
puedan presentar en un problema real, estudiando las propiedades principales de cada uno. En
los temas cuatro y cinco estudiaremos estos modelos suponiendo que existe un cierta dependencia
temporal.
As, entendemos por Experimento () la observaci on de un fen omeno fsico. De cada realizaci on
(ensayo o prueba) se obtiene un resultado. Distinguiremos dos tipos de fenomenos: deterministas
y aleatorios. En los primeros existe una relaci on causa-efecto, es decir, el resultado es predecible
de antemano; mientras que en los fen omenos aleatorios no existe esta relacion; podemos conocer
de antemano todos los posibles resultados, pero en cambio no podemos predecir con antelacion
el resultado de una realizaci on concreta.
En un experimento ideal de cada de un cuerpo con velocidad inicial nula, su trayectoria es
determinista (es un movimiento rectilneo uniformemente acelerado). El resultado de la lotera, la
se nal recibida en un receptor de un sistema de comunicacion, la evidencia que aportan la pruebas
de ADN en un juicio o el hecho de que una persona herede una enfermedad de sus ascendientes
son aleatorios. Cuando repetimos un experimento en identicas condiciones obtendremos el mismo
resultado si el fen omeno es determinista, no siendo as en el caso aleatorio. La teora de la proba-
bilidad estudia los fen omenos aleatorios. Destacamos tambien, que un mismo fen omeno puede dar
lugar a distintos experimentos seg un lo que observemos. Por ejemplo, en la cada de un proyectil
podemos observar la velocidad del impacto, el angulo de incidencia o la posici on.
2.

Algebra de sucesos
Bas andonos en un experimento aleatorio, a continuacion damos algunas deniciones con sus
correspondientes notaciones entre parentesis:
Espacio muestral (): conjunto de todos los posibles resultados. Seg un el n umero de elemen-
tos que tienen, los espacios muestrales se clasican como discretos (contienen un n umero
nito o innito numerable de elementos) o continuos.
Universidad de Vigo. PyE. Tema 1: Teora de la probabilidad 1.4
Suceso (A, B, C, etc.): conjunto de resultados de un experimento (subconjunto de ). Esta
denici on es v alida para espacios muestrales discretos, pero en espacios continuos podra
ocurrir que un subconjunto del espacio muestral no sea un suceso.

Algebra de sucesos (F) es el conjunto formado por todos los sucesos asociados a un expe-
rimento aleatorio. En general, ser a el conjunto cuyos elementos son todos los subconjuntos
de , denominado partes de (P()).
Un suceso ocurre o se verica si al realizar el experimento se obtiene un resultado que
pertenece al suceso.
Suceso seguro (): aquel que ocurre siempre.
Suceso imposible (): aquel que nunca ocurre.
Suceso complementario (contrario, opuesto) de A (A
C
o A): ocurre si y s olo si no ocurre A.
Sucesos disjuntos (incompatibles o mutuamente excluyentes): son aquellos sucesos que no
se pueden vericar simultaneamente.
Diremos que un suceso es compuesto si contiene dos sucesos no vacos distintos de el mismo;
en caso contrario hablaremos de sucesos elementales (los elementos de ).
En el conjunto de sucesos, se pueden denir las siguientes operaciones y relaciones:
Inclusi on (implicaci on): A B si y s olo si siempre que se verica A tambien ocurre B.
Uni on (suma) A B (o A + B) es un suceso que se verica si y s olo si se verica A o B
(puede ocurrir uno de los dos o ambos simultaneamente).
Intersecci on (producto) AB (o AB o A,B) es un suceso que se verica si y solo si ocurren
A y B simult aneamente.
El conjunto de sucesos, conjuntamente con las operaciones uni on, intersecci on y toma de
complementarios, tiene estructura de algebra de Boole, pues cumple las siguientes propiedades:
- Conmutativa: A B = B A; A B = B A
- Elemento neutro: A = A; A = A
- Distributiva: A (B C) = (A B) (A C); A (B C) = (A B) (A C)
- A A
C
= ; A A
C
=
Como consecuencia de esto, se verican:
- Leyes de De Morgan:
(A
1
. . . A
n
)
C
= A
C
1
. . . A
C
n
(A
1
. . . A
n
)
C
= A
C
1
. . . A
C
n
- Propiedad asociativa:
A (B C) = (A B) C
A (B C) = (A B) C
Ejemplo 1.1: = Giro de una ruleta y observacion del n umero obtenido.
= {0, 1, 2, . . . , 36}. Sea A = {N umero impar} y sea B = {2}.
a) Determina A
C
, AB
C
, AB e indica cu ales de los sucesos anteriores son elementales y cu ales
son compuestos.
b) Si en lugar de observar el n umero obtenido observasemos el color (rojo o negro), tendramos
el mismo experimento?
Universidad de Vigo. PyE. Tema 1: Teora de la probabilidad 1.5
3. Aproximaciones al concepto de probabilidad
Intentaremos dar una denici on de probabilidad como un n umero que mida la facilidad
con la que puede ocurrir un suceso. Veremos distintas aproximaciones a esta idea.
Como medida de creencia:
La probabilidad se usa a veces como medida de creencia o de convencimiento de que algo
pueda ser cierto o no. Evidentemente tiene un car acter muy subjetivo y no cuanticable, por lo
que no se utilizara. Se utiliza, por ejemplo, en expresiones del tipo: Es probable que hoy llueva.
Cl asica o a priori:
Si tenemos un espacio muestral nito de tama no N (casos posibles), podemos denir la
probabilidad de un suceso A como el cociente entre N
A
, el n umero de casos en los que el suceso
A ocurre (casos favorables), y N. Es una idea intuitiva y claramente comprensible, pero un tanto
ambigua en cuanto a la denicion de los casos. Funciona correctamente cuando todos los casos son
equiprobables; por lo que no es una buena denici on, al entrar el propio concepto que queremos
denir dentro de la denici on. Ademas no es v alida para espacios innitos.
Ejemplo 1.2: = Lanzar dos dados y obtener la suma.
Sea A = {La suma es 7}. Determina P(A).
Frecuencia relativa o a posteriori:
Repetimos n veces el experimento en identicas condiciones y observamos n
A
, el n umero de
veces que ha ocurrido A. Se dene:
P(A) = lm
n
n
A
n
= f
r
(A)
donde f
r
(A) se denomina frecuencia relativa de A. Estrictamente hablando nunca conoceremos
su valor en el lmite, pues requerira realizar el experimento innitas veces. Aunque no sea
la denicion a utilizar, se interpretar an muchos conceptos desde el punto de vista frecuencial,
es decir, pensando en como sera ese concepto si hubiesemos utilizado la denicion frecuencial.
Universidad de Vigo. PyE. Tema 1: Teora de la probabilidad 1.6
Axiom atica:
La probabilidad de un suceso A es un n umero real positivo que cumple una serie de axio-
mas. Es la denicion que utilizaremos, pues, aunque sea poco intuitiva, posee propiedades muy
interesantes. Sobre ella iremos construyendo la teora de la probabilidad, hasta que, gracias a las
leyes de los grandes n umeros, veremos que esta denici on coincide con la denici on frecuencial.
En ese momento todas las interpretaciones frecuenciales dejar an de ser simplemente interpre-
taciones. En la pr actica, se asignan a los sucesos probabilidades que veriquen los axiomas y que
se aproximen al valor asintotico de la frecuencia relativa.
4. Espacio de probabilidad
A cada espacio de probabilidad, continuo o discreto, le asociamos un algebra de sucesos.
Veamos algunos ejemplos.
Ejemplo resuelto 1.1: Examinaremos, para algunos experimentos, cu ales seran los espacios
muestrales, indicando si son continuos o discretos, y determinando las algebras asociadas.
: Lanzamiento de una moneda
= {c,+} discreto, por tanto F = P() = partes de = { ,,c,+}
: Lanzamiento de una moneda dos veces
= {cc,c+,+c,++} discreto, por tanto F = P()
: Lanzamiento de una moneda hasta que salga cara
= {c,+c,++c,+++c,. . . } numerable y por tanto discreto. Entonces F = P()
: Tiempo de ejecucion de un programa inform atico
= (0,) continuo por tanto, F= cualquier subconjunto de (0,)
: Nivel de agua en un pantano de capacidad C
= (0,C) continuo por tanto, F= cualquier subconjunto de(0,C)
Estamos ahora en condiciones de dar la denici on axiom atica de probabilidad. Dado un
espacio muestral , con un algebra de sucesos F asociada, denimos una medida de probabilidad
P como:
P : F [0, 1] vericando:
(i) A F, P(A) 0
(ii) P() = 1
(iii) Si {A
i
}

i=1
F tales que A
i
A
j
= si i = j, entonces P

i=1
A
i

i=1
P(A
i
)
Sus principales propiedades son:
1) P() = 0 ya que:
A y son sucesos disjuntos y su union es el propio A; por tanto, por el axioma (iii)
P(A) = P(A ) = P(A) + P()
de donde se deduce que P() = 0
Universidad de Vigo. PyE. Tema 1: Teora de la probabilidad 1.7
2) P(A
C
) = 1 P(A) ya que:
A A
C
= uni on disjunta. Por tanto:
P(A) + P(A
C
) = P() = 1
3) P(A B) = P(A) + P(B) P(A B) ya que:
A B = B (A B
C
) union disjunta. Por tanto:
P(A B) = P(B) + P(A B
C
)
A = (A B) (A B
C
) union disjunta. Por tanto:
P(A) = P(A B) + P(A B
C
)
Igualando P(A B
C
) en las dos expresiones anteriores se demuestra la propiedad.
Esta propiedad es generalizable a cualquier uni on nita de sucesos. Por ejemplo, si unimos
tres sucesos:
P(A B C) = P(A) + P(B) + P(C) P(A B) P(A C) P(B C) + P(A B C)
4) Si B A, entonces P(B) P(A) ya que:
A = B (A B
C
) union disjunta. Por tanto:
P(A) = P(B) + P(A B
C
)
Dado que todas las probabilidades son mayores o iguales
que cero, se obtiene el resultado.
5) 0 P(A) 1 para todo suceso A de F.
6) P() = 1 pero si un suceso A es tal que P(A) = 1 no quiere decir que A = .
A la terna (, F, P) le llamaremos espacio de probabilidad.
Denici on axiomatica y espacios equiprobables
Un espacio discreto en el que todos los sucesos elementales tienen la misma probabilidad
se dice que es equiprobable. En este tipo de espacios se puede utilizar la denici on cl asica de
probabilidad. Supongamos que es un espacio discreto. Caben dos posibilidades:
(i) nito, es decir = {w
1
, . . . , w
N
} y por tanto # = N
(ii) innito numerable, es decir = {w
1
, . . . , w
n
, . . . } y por tanto # =
Sea = # ( ser a N o , seg un el caso)
Consideremos los sucesos elementales {w
i
} i = 1, . . . , y sea p
i
= P({w
i
}) i = 1, . . . , .
Ahora:
1 = P() = P

i=1
{w
i
}

i=1
p
i
. Por tanto

i=1
p
i
= 1
Universidad de Vigo. PyE. Tema 1: Teora de la probabilidad 1.8
Es decir, la suma de los probabilidades de los sucesos elementales de un espacio discreto es uno.
Para utilizar la denici on cl asica de probabilidad necesitamos que todos los sucesos elementales
tengan la misma probabilidad, es decir, p
i
= p i. Por tanto:
(i) Si nito entonces: 1 =
N

i=1
p
i
=
N

i=1
p = Np p =
1
N
(ii) Si innito numerable entonces: 1 =

i=1
p
i
=

i=1
p = p p =??
Claramente esta ultima situaci on no se puede dar, pues no existe ninguna constante p que
sumada innitas veces consigo misma de 1. Por tanto, cualquier espacio equiprobable debe ser
nito y la denicion cl asica de probabilidad tan solo se podra utilizar en este tipo de espacios.
En estos casos, la probabilidad de cada suceso elemental sera uno dividido por el n umero de
elementos del espacio. Evidentemente, no pueden existir espacios equiprobables continuos.
Ejercicio 1.1: Considera el espacio obtenido al observar el resultado en el lanzamiento de un
dado. Puede ser un espacio equiprobable?
Si la respuesta es armativa, que probabilidad tendra cada suceso elemental?
Sobre el mismo espacio muestral, asigna probabilidades a los sucesos elementales de modo que el
espacio no sea equiprobable.
5. Probabilidad condicional e independencia
Dado un experimento existe un conjunto de posibles resultados que conforman el espa-
cio muestral. Cada uno de estos resultados ocurre con una determinada facilidad que medimos
mediante la probabilidad. En algunos casos interesa calcular la facilidad con la que ocurre un re-
sultado imponiendo alguna condicion al experimento o restringiendo el estudio a un subconjunto
de los resultados. Por ejemplo, considerese un experimento donde se observan los bits enviados y
los recibidos en un sistema de comunicaci on binario. Puede ser de interes calcular la probabilidad
de que se produzca un error de transmisi on, pero tambien puede ser de interes calcular esta misma
probabilidad bajo la condicion de que se haya enviado un bit 0. Si se dene A: Se produce un
error de transmisi on y B: Se enva un 0 entonces las probabilidades mencionadas son, res-
pectivamente, P(A) y P(A/B). Esta ultima se denomina probabilidad de A condicionada por B.
Tambien se denomina probabilidad a posteriori, porque se calcula basandose en la hip otesis de
que el suceso B ha ocurrido, es cierto. Por tanto, tambien se puede leer como sigue: sabiendo que
ocurre B (sabiendo que se ha enviado un 0), cu al es la probabilidad de que se produzca un error
de transmision?
Al condicionar un suceso cambia el referente a partir del cual se calcula su probabilidad
(cambia el espacio de probabilidad), y por tanto, en general, P(A) ser a diferente de P(A/B).
En el caso anterior, para conocer P(A/B), se trabaja solamente con un subconjunto del espacio
muestral original ( unicamente se consideran aquellos casos en los que se enva un 0).
Denici on: Sea B tal que P(B) > 0, denimos la probabilidad de A condicionada por B:
P(A/B) =
P(A B)
P(B)
Universidad de Vigo. PyE. Tema 1: Teora de la probabilidad 1.9
Desde el punto de vista frecuencial, se denira la frecuencia relativa de A condicionada por
B como el cociente entre las frecuencias relativas de la intersecci on y del suceso que condiciona.
Si realizamos n veces el experimento (siendo n un n umero sucientemente grande), obtenemos
n
A
, n
B
y n
AB
, es decir, el n umero de veces que ocurren A, B y AB respectivamente. Denimos:
f
r
(A/B) =
f
r
(A B)
f
r
(B)
=
n
AB
n
B
La frecuencia relativa condicionada por B tiene en cuenta tan s olo las realizaciones del
experimento en las que ocurre el suceso B y, dentro de estas, cuenta en cu antas ocurre ademas el
suceso A.
Observaci on: Una vez jado el suceso B, la probabilidad condicionada es, a su vez, una
medida de probabilidad, pues verica los tres axiomas:
P
B
: F [0, 1] vericando:
(i)A F, P
B
(A) = P(A/B) 0
(ii)P(/B) = 1
(iii) Si {A
i
}

i=1
F tales que A
i
A
j
= si i = j, entonces P

i=1
A
i
/B

i=1
P(A
i
/B)
Propiedades:
1) P(A/) = P(A)
2) Si A y B disjuntos entonces P(A/B) = 0
3) Si A B entonces P(A/B) P(A)
4) Si B A entonces P(A/B) = 1
Ejercicio 1.2: Demuestra las propiedades anteriores
Ejemplo 1.3: Sea : Lanzar un dado y observar el n umero obtenido.
Sean los sucesos A = {El resultado es par} y B = {2}. Calcula P(B/A)
Universidad de Vigo. PyE. Tema 1: Teora de la probabilidad 1.10
Ejemplo 1.4: Tenemos una caja con tres bolas blancas y dos rojas. Extraemos dos bolas seguidas.
Cu al es la probabilidad de que la primera sea blanca y la segunda sea roja?
A continuaci on se enuncian algunos resultados que, pese a tener una sencilla demostraci on,
tienen una gran importancia:
Regla del producto (probabilidad de la interseccion de sucesos)
P(A
1
. . . A
n
) = P(A
1
)P(A
2
/A
1
). . . P(A
n
/A
1
. . . A
n1
)
Observacion: Dado que la intersecci on es conmutativa, los sucesos A
1
, . . . , A
n
puede inter-
cambiarse de orden, por lo que las probabilidades condicionadas pueden elegirse en cualquier
orden.
Denici on: Dado un espacio muestral , se dice que {A
1
, . . . , A
n
, . . . } es una partici on de
si los A
i
son todos de probabilidad estrictamente positiva, son disjuntos dos a dos y su union
es el propio .
Observacion: Las particiones tienen una cantidad nita o innita numerable de elementos.
Teorema de las probabilidades totales
Si {A
1
, . . . , A
n
, . . . } es una partici on de , entonces suceso B se verica:
P(B) =

i
P(B/A
i
)P(A
i
)
La demostracion es sencilla.
Dado que

i
A
i
= es una uni on disjunta:
B =

i
(B A
i
) es una uni on disjunta, por lo que:
P(B) =

i
P(B A
i
) =

i
P(B/A
i
)P(A
i
)
Observacion: En la demostraci on anterior tanto las uniones como los sumatorios podran
ser nitos (si la partici on lo es) o innitos numerables, por lo que el teorema es cierto tanto para
particiones nitas como para particiones innitas numerables.
Teorema de Bayes
Si {A
1
, . . . , A
n
, . . . } es una partici on de , entonces suceso B se verica:
P(A
i
/B) =
P(B A
i
)
P(B)
=
P(B/A
i
)P(A
i
)

j
P(B/A
j
)P(A
j
)
Observacion: El teorema es cierto tanto para particiones nitas como innitas numerables.
As, hablaremos de probabilidad a priori P(A
i
) y probabilidad a posteriori P(A
i
/B).
Universidad de Vigo. PyE. Tema 1: Teora de la probabilidad 1.11
Ejemplo 1.5: Tenemos tres cajas, C
1
, C
2
y C
3
, con piezas que pueden ser defectuosas (D) o no. C
1
contiene 2000 piezas, de las cuales 100 son defectuosas; C
2
contiene 500 piezas (200 defectuosas);
mientras que C
3
contiene 1000 piezas (100 defectuosas). Se elige una caja al azar y se extrae una
pieza de ella.
a) Cual es la probabilidad de que sea defectuosa?
b) Sabiendo que la pieza elegida es defectuosa, cual es la probabilidad de que provenga de C
2
?
Independencia de sucesos
Intuitivamente, dos sucesos son independientes cuando el hecho de que uno de ellos ocurra
no inuye en la probabilidad de ocurrencia del otro. Diremos que dos sucesos A y B son indepen-
dientes si la probabilidad de su interseccion es el producto de sus probabilidades. Evidentemente
esta condici on es equivalente a la de decir que para uno cualquiera de ellos coinciden sus probabi-
lidades a priori y a posteriori despues de conocer al otro; es decir, la informaci on que la ocurrencia
de uno aporta no inuye en la probabilidad de ocurrencia del otro.
A y B son independientes P(A B) = P(A)P(B) P(A/B) = P(A) si P(B) > 0
En terminos frecuenciales podemos decir que dos sucesos son independientes si, en el lmite,
la proporcion de veces que uno ocurre (frecuencia relativa) no vara si s olo consideramos v alidas
las ocasiones en las que el otro ocurre (frecuencia relativa condicionada). Es decir, para un n
sucientemente grande:
f
r
(A/B) =
n
AB
n
B
= f
r
(A) =
n
A
n
La idea de independencia se puede generalizar a m as sucesos. Diremos que A
1
, . . . , A
n
son
mutuamente independientes si cualquier subconjunto de ellos verica que la probabilidad de la
intersecci on es el producto de las probabilidades. Por ejemplo si n=3
A, B y C son mutuamente independientes

P(A B) = P(A)P(B)
P(A C) = P(A)P(C)
P(B C) = P(B)P(C)
P(A B C) = P(A)P(B)P(C)
Propiedades:
1) Si A y B son independientes, entonces A
C
y B
C
son independientes
2) Si A
1
, . . . , A
n
son independientes entonces A
i
es independiente de cualquier suceso formado
por uniones, intersecciones y/o complementarios de los otros
Universidad de Vigo. PyE. Tema 1: Teora de la probabilidad 1.12
Ejercicio 1.3: Estudia si se cumplen las siguientes implicaciones entre sucesos de probabilidad no
nula.
Dos sucesos independientes son siempre disjuntos
Dos sucesos disjuntos no son nunca independientes
Dos sucesos disjuntos son siempre independientes
EJERCICIOS PROPUESTOS:
Cuestiones basicas de probabilidad. Li. Problema de autoevaluaci on 2.1. Pag. 61.
Denici on de sucesos. Li. Problema de autoevaluaci on 2.2. Pag. 61.
Probabilidad condicionada. Cao. Ejemplo 3.10. Pag 126
Fiabilidad. Cao. Problema 3.12. Pag 147
Teorema de Bayes. Pe na prob 3.1.4, pag 77 (primera ed) o pag 113 (segunda ed)
Independencia. Pe na prob 3.1.13, pag 78 (primera ed) o pag 114 (segunda ed)
LECTURAS RECOMENDADAS:
Introducci on a la probabilidad. Papoulis. Captulo 1; Cao. Captulo 3
INFORMACI

ON Y DOCUMENTACI

ON ADICIONAL:
La documentaci on de este tema se complementa con un boletn de problemas.
Universidad de Vigo. Problemas de PyE. Tema 1: Teora de la probabilidad 1.1
PROBLEMAS DE PROBABILIDAD Y ESTAD

ISTICA
Tema 1: Teora de la probabilidad
1.1) En una ciudad se publican tres peri odicos A, B y C. Supongamos que la probabilidad de
que una familia este suscrita a un peri odico(s) es, en cada caso:
A = 0.6; B = 0.4; C = 0.3 A y B = 0.2; A y C = 0.1; B y C = 0.2 A, B y C = 0.05
a) Cu al es la probabilidad de que una familia este suscrita al menos a un periodico?
b) Cu al es la probabilidad de que una familia este suscrita exactamente a un peri odico?
1.2) Disponemos de tres monedas: una con dos caras, otra con dos cruces y la tercera con una
cara y una cruz. Se elige aleatoriamente una moneda, se lanza y se obtiene una cara.
a) Cual es la probabilidad de que en el lado que no vemos tengamos otra cara?
b) Cual es la probabilidad de obtener una cara en el lanzamiento posterior de una segunda
moneda elegida tambien aleatoriamente de entre las dos que quedan?
1.3) Un generador de n umeros aleatorios proporciona equiprobable e independientemente valores
enteros entre 1 y 9 incluidos ambos.
a) Se generan dos valores consecutivos:
- Cual es la probabilidad de que su suma sea impar?
- Cual es la probabilidad de que su producto sea par?
- Sabiendo que su producto es par, Cu al es la probabilidad de que la suma sea
impar?
- Sabiendo que su suma es impar, Cu al es la probabilidad de que el producto sea
par?
b) Se generan tres valores consecutivos:
- Cual es la probabilidad de que su suma sea impar?
- Cual es la probabilidad de que su producto sea par?
1.4) Supongamos que hay una prueba para diagnosticar el cancer que da positivo en el 95 % de
los casos cuando se aplica a personas que tienen esta enfermedad y da negativa en el 95 %
de los casos cuando se aplica a personas sanas. Si la probabilidad de que una persona tenga
c ancer es 0.005, Cual es la probabilidad de que una persona tenga realmente c ancer cuando
la prueba le de positivo?. Analiza el resultado obtenido.
1.5) Un circuito electrico est a formado por cuatro elementos A
k
, con k = 1, 2, 3, 4, seg un el es-
quema que muestra la gura. Si un elemento funciona mal, se produce un circuito abierto
en ese punto. La probabilidad de que un elemento A
k
funcione incorrectamente es igual a
p
k
, k = 1, 2, 3, 4; suponiendo independencia en el funcionamiento de los distintos componen-
tes; Cual es la probabilidad de que la corriente uya a traves del circuito?
Universidad de Vigo. Problemas de PyE. Tema 1: Teora de la probabilidad 1.2
1.6) Una red est a formada por un servidor y N ordenadores. El servidor enva un paquete de
datos a los N ordenadores y cada uno de ellos conrma una correcta recepci on con una
probabilidad p, independientemente de los demas ordenadores. Si el paquete de datos no es
conrmado, se vuelve a enviar. Sea el suceso S(m): El paquete de datos ha sido conrmado
por los N ordenadores en m o menos envos. Calcula P(S(m)) en los siguientes supuestos:
a) Si en un intento falla alguno de los N ordenadores, se vuelve a enviar a todos otra vez,
as hasta que recibe, en un mismo envo, las N conrmaciones.
b) Si en un intento falla alguno de los N ordenadores, se vuelve a enviar tan solo a los
ordenadores que no han conrmado.
1.7) Un sistema de transmisi on consta de varios canales; cada uno de los cuales est a formado por
un emisor y un receptor. En cada canal, la probabilidad de que un emisor enve un mensaje
es de 0.9; y, una vez enviado, la probabilidad de que se reciba es de 0.95. Se desea que, con
una probabilidad mayor que 0.9999; un mensaje llegue a su destino. Por cu antos canales
deber a enviarse? Sup ongase independencia en el funcionamiento de distintos canales.
1.8) Disponemos de n helic opteros para encontrar un avi on perdido. El avion se ha perdido en
una de dos posibles zonas: la zona I (con probabilidad 0.8) o la zona II (con probabilidad
0.2). Un helic optero buscando en la region adecuada (esto es, la zona en la que el avi on se
perdi o) encuentra el avion con probabilidad 0.3, independientemente de lo que hagan los
dem as helic opteros.
a) Cual es la probabilidad de encontrar el avi on si enviamos n
1
helic opteros a la zona I
y el resto a la zona II?
b) En el caso particular de que dispongamos de n = 3 helic opteros; que cantidad enviaras
a cada zona para maximizar la probabilidad de encontrar el avion? cu anto valdra esta
probabilidad m axima?
1.9) En una clase en la que hay n personas nadie quiere salir al encerado para hacer un problema.
Para resolver el dilema se decide hacer un sorteo de forma que cada persona debe elegir un
papel dentro de una bolsa; los n papeles son todos iguales por fuera, pero hay uno que indica
el agraciado. Si pudieses escoger el orden de eleccion, en que lugar elegiras? Justica la
decisi on probabilsticamente.
1.10) Un canal de comunicaci on funciona como se ilustra en la gura. En cada echa esta indicada,
en terminos de p
0
y p
1
, la probabilidad de que se produzca esa transmisi on. Inicialmente se
transmite un 0 o un 1 con igual probabilidad.
a) Si en la salida del canal recibimos un 0; Cu al es la probabilidad de que inicialmente
se hubiese transmitido tambien un cero?
b) Cual es la probabilidad de obtener lo que se ha transmitido?
c) Particulariza, en ambos apartados para el caso en que p
0
= p
1
Universidad de Vigo. Problemas de PyE. Tema 1: Teora de la probabilidad 1.3
SOLUCIONES AL BOLET

IN DE PROBLEMAS
Tema 1: Teora de la Probabilidad
1.1) a) 0.85
b) 0.45
1.2) a) 2/3
b) 1/3
1.3) a) 40/81, 56/81, 40/56, 1
b) 365/729, 604/729
1.4) p = 0.087
1.5) 1 p
3
p
4
p
1
p
2
p
4
+ p
1
p
2
p
3
p
4
1.6) a) 1 (1 p
N
)
m
b) [1 (1 p)
m
]
N
1.7) n = 5
1.8) a) 1 0.8(0.7)
n
1
0.2(0.7)
nn
1
b) Los 3 a la zona I; p = 0.5256
1.9) Da igual, p = 1/n en cualquier orden
1.10) a)
p
2
0
+ p
1
p
0
p
1
p
2
0
p
2
1
+ 2p
1
b)
1
2
[1 + (p
0
p
1
)
2
]
c) 1/2 en ambos casos
Universidad de Vigo. PyE. Practica 1 1.1
PROBABILIDAD Y ESTAD

ISTICA
Practica 1. Introduccion al Matlab
Objetivos
- Manejo b asico de Matlab
- Resolver problemas de calculo de probabilidades mediante simulaci on
Introducci on
MATLAB (MATrix LABoratory) es un programa para realizar c alculos numericos con matri-
ces (escalares y vectores no son m as que casos particulares). Tambien ofrece capacidades gracas
muy potentes, tanto en dos como en tres dimensiones. En esta asignatura no se pretende ense nar
en profundidad la herramienta MATLAB en s, sino introducir su funcionamiento b asico; pues
resultar a util para el desarrollo de las pr acticas. MATLAB es un lenguaje de programaci on inter-
pretado. Su manejo b asico se realiza desde una consola (ventana de comandos), en la que aparece
un indicador ())), donde se escribir an las instrucciones o nombres de funciones y se pulsar a re-
torno de carro para ejecutarlas. MATLAB dispone de una excelente ayuda on-line mediante el
comando help.
Observacion: MATLAB distingue may usculas de min usculas. Los ejemplos de la ayuda sue-
len aparecer en may usculas pero han de escribirse en min usculas.
Con las teclas de flecha arriba y flecha abajo es posible recuperar instrucciones anteriores
para no tener que volver a escribirlas.
Operaciones basicas con Matlab. Tablas resumen
Algunos operadores b asicos se resumen en la siguiente tabla:
Operaci on Smbolo Ejemplo
Suma + 7+6
Resta 35
Producto * 2.5*8.9
Divisi on / o \ 56/7 = 7\56 = 8
Potencia 5(1/4)
Funcion Exponencial exp(x) exp(6)
En MatLab est an disponibles muchas funciones como pueden ser la raz cuadrada o las
funciones seno y coseno. Para obtener por pantalla una lista de funciones elementales, escribe
help elfun en la ventana de comandos. Para obtener informaci on sobre una funci on concreta
escribe directamente help nombre funci on (Ej.: help exp).
Para generar un vector se pueden utilizar alguno de los metodos que se resumen a continuacion:
Denici on de un vector la Comentarios
x=[1 exp(0) 4*7 5] Los elementos son expresiones que dan un resultado numerico.
Deben separarse por espacios y delimitarse mediante corchetes.
x=(1:5) Equivale a x=[1 2 3 4 5]
x=(1:0.5:3) Equivale a x=[1 1.5 2 2.5 3]
x=(1:0.6:3) Equivale a x=[1 1.6 2.2 2.8]
Si al nalizar la expresion incluimos un ; evitaremos que se visualicen en la pantalla los
elementos del vector o matriz denidos (o calculados).
Universidad de Vigo. PyE. Practica 1 1.2
Una vez denidos un conjunto de vectores y escalares es sencillo realizar operaciones entre
ellos y denir nuevos vectores. A continuaci on se especican algunas posibilidades:
Operaciones entre vectores la y escalares. x = [0 2 4], y = [1 3 5], a=2, b = 3
Operaci on Tipo de operacion Resultado Condicion
z=a+x Elemento a elemento z=[2 4 6] Ninguna
z=b*y Elemento a elemento z=[-3 -9 -15] Ninguna
z=x+y Matricial z=[1 5 9] x e y del mismo tama no
z=x*y Matricial z=??Error!! x e y matrices cuyo producto este denido
z=x.*y Elemento a elemento z=[0 6 20] x e y del mismo tama no
z=x.y Elemento a elemento z=[0 8 1024] x e y del mismo tama no
z=x./y Elemento a elemento z=[0 2/3 4/5] x e y del mismo tama no
z=exp(x) Elemento a elemento z=[1 e
2
e
4
] Ninguna
Algunos comandos de Matlab que usaremos durante el curso
Puedes vericar su sintaxis con ayuda del comando help.
rand: Genera n umeros aleatorios en el intervalo (0,1) (distribuci on uniforme)
zeros: Genera un vector de ceros
ones: Genera un vector de unos
sum: Calcula la suma de los elementos de un vector
mean: Calcula el promedio de un vector
std: Calcula la desviaci on est andar de los elementos de un vector
oor: Funci on parte entera (calcula el entero inmediatamente inferior)
nd: Busca los elementos de un vector que cumplan una condici on especicada
length: Calcula la longitud de un vector
gure: Crea una ventana gr aca nueva
plot: Hace una representaci on de puntos en un plano XY
hist: Representa un histograma con 10 clases por defecto
stairs: Representa puntos en un plano XY unidos de forma escalonada
if : Comprueba si se verica una condici on
for: Realiza un bucle mediante un contador
while: Permite realizar un bucle mientras se verique una condici on
Resoluci on de problema
El siguiente problema se resolver a con detalle en la pizarra.
Problema) Tres jugadores lanzan un dado alternativamente hasta que uno de ellos obtiene
un 5, en cuyo caso es el ganador del juego y este naliza. Llamando A, B y C a los jugadores
seg un el orden de actuaci on; Cuales son, para los tres, las probabilidades de ganar el juego?
Ejercicios (10)
1) En la ventana de comandos de Matlab dene:
a) Un vector que contenga todos los n umeros enteros entre 1 y 20
b) Un vector que contenga 10 unos
c) Un vector que contenga 20 doses
Universidad de Vigo. PyE. Practica 1 1.3
d) Un vector conteniendo el producto, elemento a elemento, de los obtenidos en a) y c)
e) Un vector que contenga, como primer elemento el n umero 1 y a continuaci on tome
valores que se vayan incrementando en 0.1 hasta llegar a 5 (1, 1.1,1.2, . . . ,5)
2) En la ventana de comandos de Matlab genera (comando rand):
a) Un n umero aleatorio entre 0 y 1
b) Un vector con 10 n umeros aleatorios entre 0 y 1
3) Simulacion de un suceso de probabilidad p.
Supongamos que queremos simular en el ordenador la ocurrencia de un suceso de probabi-
lidad p. Para ello realizamos un experimento equivalente. Por ejemplo, la probabilidad de
que un n umero generado con el comando rand sea menor o igual que p es precisamente
p; pues es como si dividiesemos el intervalo (0,1) en dos trozos de longitudes p y 1 p.
Bajo esta idea, simula el resultado de 10 lanzamientos de una moneda, suponiendo que
P(C)=P(+)=0.5.
Resoluci on de problema (35)
Se ha resuelto en la pizarra el problema de los tres jugadores que lanzan el dado. Posterior-
mente se pide que, con ayuda de Matlab, se resuelva mediante simulaci on. La idea es aproximar
el valor de cada probabilidad pedida por su frecuencia relativa. Para ello se repetira muchas veces
el experimento y se determinar a la proporcion de veces que ocurre cada suceso de interes.
Simulaci on de eventos discretos (opcional)
1) En la ventana de comandos de Matlab genera:
a) Un n umero aleatorio entre 0 y 6
b) Un n umero elegido equiprobablemente entre {1, 2, 3, 4, 5, 6}
c) Un vector con 20 n umeros aleatorios entre 0 y 1
d) Un vector con 20 n umeros elegidos equiprobablente y de forma independiente entre {1,
2, 3, 4, 5, 6}
2) Suponiendo que hay n personas en clase, dise na un algoritmo que puedas programar en
Matlab para realizar un sorteo que seleccione a una persona para hacer un problema en el
encerado. Evidentemente, el sorteo debe de ser justo, esto es, todas las personas deben de
tener la misma probabilidad de salir.
3) Simula el lanzamiento de un dado y estudia la ocurrencia del suceso sale un 5. Con ayuda
del generador de n umeros aleatorios de Matlab simula 10 veces el experimento. Guarda los
resultados en un vector de unos (ha salido un cinco) y ceros (no ha salido un 5).
Sugerencia: Dado que la probabilidad del suceso de interes es 1/6, puedes realizar la simu-
laci on de la siguiente manera: genera un n umero aleatorio. Si el n umero es menor que 1/6
decide que ha salido un 5. En otro caso decide que no ha salido un 5.
Universidad de Vigo. PyE. Practica 2 2.1
PROBABILIDAD Y ESTAD

ISTICA
Practica 2. Teora de la Probabilidad
Objetivos
Repaso de los conceptos de: denici on frecuencial y axiom atica de probabilidad, probabilidad
condicionada, teorema de las probabilidades totales y teorema de Bayes.
Ejecucion. Caractersticas generales del software
La practica se inicia tecleando estadlab en la ventana de comandos de MatLab. En la
pantalla se visualizara una ventana de presentaci on desde donde se puede acceder a los distintos
m odulos que componen las pr acticas de laboratorio. Para iniciar la sesion correspondiente a Teora
de la Probabilidad se pulsa en el bot on Probabilidad, que nos llevar a a una nueva ventana de
presentaci on en la que se puede seleccionar cualquiera de las practicas que componen este modulo.
A medida que estas se ejecutan, se van generando nuevas ventanas de trabajo que ocultan a las
anteriores. Para cambiar de ventana de trabajo, se deben utilizar los men us Windows o Ventanas
que est an en la barra de men us de la parte superior de la pantalla. Si se desea volver a la ventana
de comandos basta con pulsar una tecla (por ejemplo espacio), siempre que en la ventana actual
no hayamos seleccionado ning un objeto para introducir datos. En el men u General existe un tem
de Ayuda que proporciona informacion tanto sobre el entorno de trabajo como sobre la base
te orica subyacente a la pr actica.
Importante: en todas las practicas que se desarrollen durante el curso, la ventana de coman-
dos de MatLab no se debe cerrar nunca durante la sesi on.
Denici on clasica de probabilidad y frecuencia relativa (20)
En esta pr actica se plantea un problema que en su da ya fue propuesto a Galileo. Los juga-
dores de dados, bas andose en su experiencia, saban que al lanzar dos dados y observar su suma,
era menos frecuente obtener un 10 que un 9. Sin embargo, sus razonamientos teoricos les llevaban
a la conclusion de que ambos sucesos eran equiprobables. El objetivo de esta pr actica es obtener
una solucion te orica que concuerde con los resultados empricos y aprender donde radicaba el
error que cometan los contemporaneos de Galileo.
La practica debe realizarse en el siguiente orden:
-Resolver las preguntas relacionadas con el tema que aparecen en este cuestionario. Es recomen-
dable utilizar lapiz y papel para resolverlas.
-Comprobar empricamente que los resultados teoricos (las probabilidades calculadas) se aseme-
jan a las frecuencias relativas que se obtienen en la simulacion:
-Elegir el valor de n (n umero de veces que se realiza el experimento).
-Pulsar el boton Tirar dados varias veces, hasta que se comprenda el signicado de la tabla
y de la gr aca que aparecen en pantalla.
-Pulsar Seguido para nalizar el proceso.
-Repetir esta operacion para valores de n grandes y peque nos. Comparar los resultados. (Recordar
que las frecuencias relativas se asemejan a las probabilidades cuando n es grande).
Cuestiones:
1) Si en el experimento correspondiente a esta pr actica, observamos la suma de los dados al
caer, Cual es el n umero de resultados posibles del experimento?
2) Observando la suma de los dados sabemos que hay 11 resultados posibles. En esta situacion
indica si las siguientes armaciones son verdaderas o falsas:
a) Si aplicasemos la denici on clasica de probabilidad, obtendramos la misma probabili-
dad para los sucesos sumar 9 y sumar 10.
Universidad de Vigo. PyE. Practica 2 2.2
b) Las probabilidades que se obtienen si aplicamos la denicion clasica a un espacio mues-
tral as dise nado, son correctas.
3) Ahora consideraremos los resultados posibles si se tienen en cuenta las parejas de n umeros
obtenidos sin distinguir entre dados. En esta situaci on indica si las siguientes armaciones
son verdaderas o falsas:
a) El n umero de casos posibles es 36.
b) Si aplicasemos la denici on clasica de probabilidad, obtendramos la misma probabili-
dad para los sucesos sumar 9 y sumar 10.
c) Las probabilidades que se obtienen si aplicamos la denicion clasica a un espacio mues-
tral as dise nado, son correctas.
4) Calcula la probabilidad de que dos dados sumen 9.
5) Calcula la probabilidad de que dos dados sumen 10.
Observacion: Anota este resultado y el de la cuesti on anterior para compararlo despues con
las frecuencias relativas que se obtienen en la simulacion en funci on del n umero de veces
que se realiza el experimento.
6) Se han lanzado los dados 20 veces y se han obtenido las siguientes sumas:
5 8 9 9 10 10 10 3 4 10 9 10 7 8 12 2 6 3 5 9
Indica si las siguientes armaciones son verdaderas o falsas:
a) La frecuencia relativa del suceso sumar 2 es 0.1
b) Despues de 5 tiradas la frecuencia relativa de sumar 10 es 1/5.
c) La frecuencia relativa de sumar 10 ha sido mayor que la de sumar 9, por tanto el
suceso sumar 10 es mas probable.
Denici on axiomatica de probabilidad (10)
En esta pr actica se presenta un sorteo con un conjunto de posibles resultados. En primer
lugar se deben introducir las probabilidades que se deseen asignar a cada uno de ellos, de tal
forma que se veriquen los axiomas de la probabilidad.
A continuacion, sobre la misma ventana de trabajo se plantean una serie de preguntas
relacionadas con el ejemplo. Es recomendable utilizar l apiz y papel para resolverlas. Tecleando la
respuesta el programa las corregir a autom aticamente.
Probabilidad Condicionada (15)
En esta practica se simula un sistema de comunicaci on binario. Se enva una trama de
bits (secuencia de 50) con probabilidades jas. En cada transmision se superpone ruido blanco
gaussiano y en recepci on se emplea el smbolo ruidoso recibido para estimar el transmitido. Como
consecuencia existe una cierta probabilidad de error y el comportamiento del sistema se describe
mediante las probabilidades de que el smbolo detectado sea 0 o 1 en funci on de cual fue el smbolo
transmitido.
Pulsando el bot on Iniciar trama se genera una trama (50 bits). En base a los datos
obtenidos (en la parte inferior de la pantalla) se pide calcular distintas frecuencias relativas.
Las casillas se deben rellenar con cuidado para introducir solamente caracteres numericos. A
continuacion resuelve las cuestiones.
Cuestiones:
Si en el canal binario de la pr actica: P(X=0)=P(X=1)=0.5; P(X=0,Y=0)=0.4; P(X=1,Y=1)=0.45.
1) Calcula P(Y=0/X=0)
2) Calcula P(Y=1/X=1)
3) Cual es la probabilidad de tener un error de transmision si se envi o un cero?
4) Cual es la probabilidad de tener un error de transmision?
Universidad de Vigo. PyE. Practica 2 2.3
Teorema de las probabilidades totales (15)
En esta practica se dispone de tres cajas con bolas de dos tipos distintos, con una composi-
ci on predeterminada. En primer lugar se pide que se calcule la probabilidad de obtener una bola
grande en cada una de las cajas.
En segundo lugar se propone calcular la probabilidad de extraer una bola grande suponiendo
que se introducen todas las bolas en una unica caja y se extrae una de ellas.
Cuestiones:
1) Supongamos que el experimento consiste en elegir una caja equiprobablemente para extraer
una bola de ella. Cu al es la probabilidad de que sea una bola grande? Compara el resultado
con el valor que se obtena cuando todas las bolas estaban en una unica caja.
2) En una votaci on se recogen los siguientes resultados: el 70 % del censo son hombres y el
30 % son mujeres. Entre los hombres hay un 40 % de abstencion y entre las mujeres un
45 %. Indica si las siguientes armaciones son verdaderas o falsas:
a) P(No votar) = 0.85
b) P(Votar) = 0.585
c) P(No votar) = 0.415
d) P(Votar) = 0.575
3) En un sistema de transmisi on se envan bits (X) y por efecto del canal durante la propaga-
ci on, se recibe Y = X + R, donde R es el ruido aleatorio. Se dispone de los siguientes datos:
P(X=0) = P(X=1) = 0.5 ; P(Y=0/X=0) = P(Y=1/X=1) = 0.9
Calcula la probabilidad de recibir un 1, esto es, P(Y=1).
4) En un sistema de transmisi on se envan bits (X) y por efecto del canal durante la propaga-
ci on, se recibe Y = X + R, donde R es el ruido aleatorio. Se dispone de los siguientes datos:
P(X=0) = 0.4 ; P(X=1) = 0.6 ; P(Y=1/X=1) = 0.9 ; P(Y=0/X=0) = 0.6
Calcula la probabilidad de recibir un 0, esto es, P(Y=0).
5) El contenido de dos cajas es el siguiente: en la caja 1 hay 2 bolas rojas y 8 blancas; la caja
2 contiene 9 rojas y 6 blancas. Se elige de aleatoriamente una de las cajas y se toma una
bola de ella, tambien al azar. Calcula la probabilidad de que la bola escogida sea roja.
Teorema de Bayes (10)
En esta practica se simula un sistema de comunicaci on binario. Se enva una trama de
bits (secuencia de 50) con probabilidades jas. En cada transmision se superpone ruido blanco
gaussiano y en recepci on se usa el smbolo ruidoso recibido para estimar el transmitido. Como
consecuencia existe una cierta probabilidad de error y el comportamiento del sistema se describe
mediante las probabilidades de que el smbolo detectado sea 0 o 1 en funci on de cual fue el smbolo
transmitido.
Pulsando el bot on Iniciar trama se genera una trama. En base a los datos obtenidos (en
la parte inferior de la pantalla) se pide que se calculen las frecuencias relativas condicionadas y la
frecuencia relativa de errores cometidos. Las casillas se deben rellenar con cuidado para introducir
solamente caracteres numericos. Una vez realizada la simulacion, realiza las cuestiones.
Cuestiones:
Con la informacion dada en la practica, esto es:
P(X = 0) = P(X = 1) = 0.5 ; P(Y = 0/X = 0) = 0.8; P(Y = 1/X = 1) = 0.9
Resuelve las siguientes cuestiones:
1) Calcula P(X = 0/Y = 0).
2) Calcula P(X = 1/Y = 0).
3) Calcula P(X = 1/Y = 1).
4) Calcula P(X = 0/Y = 1).
5) Calcula la probabilidad de error de transmisi on
Algunos resultados sobre series
Funciones exponenciales

k=0
a
k
k!
= e
a
Suma de los terminos de una progresion geometrica
m

k=
r
k
=
r

r
m+1
1 r
Si |r| < 1 , se puede calcular tambien la suma innita:

k=
r
k
=
r

1 r
Suma de los terminos de una progresion aritmetica
m

k=
k =
m +
2
(m + + 1)
(Primero+ ultimo) dividido por dos y multiplicado por el n umero de sumandos, o lo que es lo
mismo, la media multiplicada por el n umero de sumandos.
Suma de los terminos de una progresion aritmetico-geometrica

k=1
kr
k1
= S
Calcularemos S del siguiente modo:
S = 1r
0
+ 2r
1
+ 3r
2
+ . . .
rS = 1r
1
+ 2r
2
+ 3r
3
+ . . .
Si restamos las dos expresiones:
(1 r)S = r
0
+ r
1
+ r
2
+ . . . = (progresi on geometrica) =
r
0
(1 r)
(siempre que |r| < 1)
Por lo que, despejando:
S =
1
(1 r)
2
Observacion: Si en lugar de comenzar la suma en k = 1, lo hace en cualquier otro ndice, o si la
suma fuese nita en lugar de innita, las cuentas seran analogas.










TEMA 2 VARIABLES ALEATORIAS UNIDIMENSIONALES
PROBABILIDAD Y ESTADSTICA (PE)
2010/2011
Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.1
Tema 2. Variables aleatorias
unidimensionales
1. Introducci on
En el tema de probabilidad hemos considerado experimentos aleatorios en los que deni-
mos los sucesos de forma cualitativa, independientemente de la naturaleza del experimento. Por
ejemplo, un suceso A poda referirse a un error de transmision en un sistema de comunicacion o
a que ha salido el n umero siete al lanzar un dado. En todo caso, siempre se aplic o la teora a un
conjunto de sucesos cualitativos a los que nos referamos mediante letras may usculas (A, B, C,
etc).
En la pr actica, existen muchos experimentos donde se manejan variables cuantitativas. En
el campo de las telecomunicaciones tiene interes realizar medidas de ruido en un sistema de
transmisi on o conocer el n umero de llamadas que se encaminan a traves de una central telef onica.
En estos casos se suelen plantear preguntas acerca de la probabilidad que existe de que el ruido
o el n umero de llamadas encaminadas superen un cierto umbral. Los sucesos as denidos se
corresponden con un intervalo de valores de la variable observada. Emplear una notaci on basada
en sucesos cualitativos para denir este tipo de sucesos asociados a variables cuantitativas es poco
pr actico. Resulta mucho m as natural e intuitivo asignar un nombre a la variable de interes, por
ejemplo X, y denir los sucesos de la forma {X u}, donde u sera el umbral. Esta notaci on
es mucho mas vers atil para referirse a variables cuantitativas y permite f acilmente designar a los
posibles sucesos de interes, que generalmente seran del tipo {X = x
1
}, {x
1
< X x
2
}, {X < x
1
},
etc. Como la variable X est a asociada a un experimento no determinista y no se conoce el valor
concreto que va a tomar en una realizaci on determinada (aunque se conozca el rango), se dice
que es una variable aleatoria.
Como veremos a continuaci on, una variable aleatoria es, matematicamente hablando, una
funci on que asigna a los resultados de un experimento un n umero real. Cuando se manejan ex-
perimentos cuantitativos no es necesario realizar esta asignaci on y el hecho de que la variable
aleatoria sea una funci on queda totalmente difuminado (se puede pensar que es la funci on iden-
tidad). Se trabaja directamente con los valores que toma la variable. Sin embargo, las variables
aleatorias tambien se pueden utilizar con experimentos cualitativos. En ese caso se realiza una
transformaci on del espacio de probabilidad, asignando a cada resultado cualitativo del experi-
mento un n umero real. De este modo, la variable aleatoria aporta una representaci on equivalente
del problema en terminos cuantitativos, que en algunos casos puede resultar m as manejable.
2. Denici on de Variable Aleatoria
Denici on: Variable Aleatoria (VA):
Dado : (, F, P), consideramos:
X : R
X
donde R
X
es un subconjunto de R. Entonces diremos que X es una variable aleatoria si:
el conjunto X
1
((, x]) = { tales que X() x} es un suceso x.
Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.2

R
!
2

!
3

!
1

X(!
2
)
X(!
3
)
X(!
1
)
R
X
se denomina rango de X, y es el conjunto de los posibles valores que puede tomar la
VA. Si A = X
1
(B) entonces se dice que A y B son sucesos equivalentes.
Cuando se manejan variables aleatorias, el espacio muestral original se transforma en un
nuevo espacio muestral R
X
denido sobre los n umeros reales. En este nuevo espacio los sucesos
suelen estar denidos como intervalos pertenecientes a la recta real. Todos estos sucesos tienen
su suceso equivalente en el espacio muestral original. Por ejemplo:
{X x} = { /X() x} = X
1
((, x])
Notaci on: las letras may usculas (X) se emplean para representar VA y las min usculas (x)
representan valores concretos que toman dichas VA.
La transformaci on que se dene mediante una VA conserva la medida de probabilidad asig-
nando probabilidades iguales a sucesos equivalentes. A (R
X
, F
X
) se le asocia una medida de
probabilidad P
X
tal que:
P
X
(B) = P(X
1
(B)) B F
X
La terna (R
X
, F
X
, P
X
) constituye un espacio de probabilidad.
Ejemplo: Sea : Lanzar una moneda. Se denen los sucesos A: Salir cara y B: Salir
cruz, el espacio muestral es = {A, B}. Si se dene X: N umero de caras que han salido,
entonces X(A) = 1 y X(B) = 0. La VA X aporta una representaci on equivalente del problema
donde el nuevo espacio muestral es
X
= {0, 1}. Las probabilidades se asignan conservando la
medida de probabilidad: P
X
(X = 0) = P(B) = 1/2; P
X
(X = 1) = P(A) = 1/2.
Ejemplo: Sea : Transmision de un bit. Se denen los sucesos A: Se transmite un 0 y
B: Se transmite un 1, el espacio muestral es = {A, B}. Si se dene X: N umero de veces que
se transmite un bit 0, entonces X(A) = 1 y X(B) = 0. A pesar de que el experimento es cuali-
tativamente distinto al del ejemplo anterior, la VA resultante es equivalente y las consideraciones
realizadas son igualmente aplicables a este caso.
Denici on: Una VA compleja es de la forma Z=X+jY, donde X e Y son VA reales.
3. Clasicaci on de variables aleatorias
Existen distintos tipos de VA en funci on del n umero de posibles valores que pueden tomar,
que son un reejo de la distinta naturaleza de las variables observadas en experimentos reales. Si,
por ejemplo, se mide el n umero de bits transmitidos con error en una trama de N bits, el conjunto
de posibles valores es nito. Cada uno de ellos llevar a asociada una determinada probabilidad
mayor que cero. Lo mismo ocurre si se mide el n umero de transmisiones hasta que se produce
un error. En este caso el rango de la variable es innito y numerable y todos los posibles valores
tienen una probabilidad no nula.
Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.3
Denici on: Se dice que una VA es discreta si su rango es nito o innito numerable.
El n umero de intentos necesarios para transmitir sin error un conjunto de bits se puede
modelar mediante una VA discreta.
Existe otro tipo de variables cuyos posibles valores son todos los pertenecientes a uno o varios
intervalos de la recta real. Por ejemplo, el nivel de ruido en un sistema de comunicaci on o el tiempo
de espera en una cola hasta que se puede emplear un determinado servicio. El rango resultante
es un conjunto innito no numerable de puntos. Como hemos visto en el captulo anterior, en
cualquier espacio muestral de este tipo se puede demostrar que es imposible asignar probabilidades
no nulas a todos los subconjuntos del espacio muestral, de tal forma que se veriquen los axiomas.
Concretamente, en los espacios muestrales no numerables denidos sobre la recta real, se asignan
probabilidades no nulas a los sucesos del tipo {X x}. Las probabilidades de los demas sucesos
se derivan mediante la teora de la probabilidad. Como consecuencia, solamente un conjunto
numerable de sucesos del tipo {X = x} puede tener probabilidad no nula.
Por ejemplo la variable que mide el tiempo de espera hasta que se puede emplear un deter-
minado servicio, el suceso {X = 0}, que ocurre cuando el servicio est a desocupado, tiene asignada
una probabilidad mayor que cero. En el resto del rango se asigna a los intervalos {X x} una
probabilidad mediante una funci on continua de x que verique los axiomas. Como consecuencia,
P(X=x)=0 para todos los valores de X excepto el ya mencionado x=0.
Denici on: Se dice que una VA es continua si su rango es no numerable y todos los sucesos
del tipo {X = x} tienen asignada probabilidad cero.
El nivel de ruido en un sistema de comunicaci on puede modelarse mediante una VA continua.
Denici on: Se dice que una VA es mixta si su rango es no numerable y todos los sucesos del
tipo {X = x} tienen asignada probabilidad cero, excepto un conjunto numerable de ellos. Es una
combinaci on de una VA continua y otra discreta.
El tiempo que transcurre desde que un paquete de datos llega a una central de comunica-
ciones hasta que es encaminado puede modelarse mediante una VA mixta.
4. Funciones de distribucion y de densidad
En los experimentos aleatorios se desconoce el resultado que se va a obtener en una realiza-
ci on concreta. Sin embargo, se puede llegar a conocer el conjunto de los posibles resultados y la
frecuencia de aparici on a largo plazo de los mismos, es decir, su probabilidad. De hecho, describir
completamente un experimento aleatorio consiste precisamente en indicar todos sus resultados
posibles y sus probabilidades. En el caso de las variables aleatorias se emplean dos funciones que
contienen toda esta informaci on, que son la funcion de distribuci on de probabilidad y la funcion
de densidad de probabilidad. Estas funciones constituyen dos formas distintas de almacenar la
misma informacion relativa a un experimento aleatorio. Ambas permiten calcular probabilidades y
su representacion graca resulta util para ilustrar visualmente las caractersticas m as importantes
de la variable observada en el experimento.
Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.4
4.1. Funcion de distribuci on
Denici on: Funci on de distribuci on de una VA:
Sea X una VA. Se dene la funci on F
X
como
F
X
: R [0, 1]
x F
X
(x) = P(X x)
F
X
(x) se denomina Funcion de Distribucion (FD) de X, y representa, para cada valor de x,
la probabilidad acumulada desde menos innito hasta x. La FD es una funci on que esta denida
en todo R y cuya imagen es un valor de probabilidad. Escribiremos F(x) si no hay ambig uedad.
La FD en un valor de x determinado se interpreta desde un punto de vista frecuencial del
mismo modo que la probabilidad de un suceso, puesto que F
X
(x) es igual a la probabilidad del
suceso {X x}. Por tanto, si realizamos muchas veces el experimento a partir del que se dene
X, F
X
(x) coincidira asint oticamente con el cociente entre el n umero de veces en que el resultado
obtenido es menor o igual que x y el n umero total de veces que se realice el experimento.
Observaci on: Las VA complejas carecen de FD (en el conjunto de los n umeros complejos no
hay orden); aunque existe la FD de la parte real y de la parte imaginaria.
Ejemplo 2.1: Sea X: N umero de caras obtenidas al lanzar dos monedas. Calcula su FD y
representala gracamente.
Propiedades de la FD:
1) F() = P(X ) = 0; F(+) = P(X +) = 1
2) Si x
1
x
2
entonces F(x
1
) F(x
2
) (F es no decreciente)
3) F(x
+
) = F(x) (F es continua por la derecha, ver la demostracion a continuaci on)
4) P(X = x) = F(x) F(x

) (ver demostracion a continuaci on). Esto implica:


Si F(x) es continua en x
0
entonces P(X = x
0
) = 0
Si F(x) es discontinua en x
0
entonces P(X = x
0
) = 0
5) Si x
1
< x
2
entonces P(x
1
< X x
2
) = F(x
2
) F(x
1
)
Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.5
6) An alogamente a la propiedad anterior:
P(x
1
< X < x
2
) = F(x

2
) F(x
1
)
P(x
1
X < x
2
) = F(x

2
) F(x

1
)
P(x
1
X x
2
) = F(x
2
) F(x

1
)
Demostraciones de algunas de las propiedades
demostraci on de prop2 Si x
1
x
2
entonces F(x
1
) F(x
2
)
Si x
1
x
2
entonces: (, x
2
] = (, x
1
]

(x
1
x
2
] siendo una union disjunta, por tanto:
P((, x
2
]) = P((, x
1
]) + P((x
1
x
2
]) de donde:
F(x
2
) = F(x
1
) +P((x
1
x
2
]) siendo esta ultima probabilidad mayor o igual que cero, por lo que se cumple la
desigualdad.
demostraci on de prop3 F(x
+
) = F(x)
Por denicion, F(x
+
) = lm
0
+
F(x +)
F(x +) = P(X x +) = P(X x) +P(x < X x +)
Cuando 0
+
, {x tales que x < X x +} {x/x < X x} = , con
lo que su probabilidad es cero. Por tanto:
F(x
+
) = lm
0
+
F(x +) = P(X x) = F(x) como queramos demostrar.
6 Departamento de Teora de la Seal y Comunicaciones. Universidad de Vigo

Teorema: Cualquier funcin que verifique las propiedades 1), 2) y 3) de las FD es una FD de
alguna VA. Por tanto, el aspecto de una FD ser como el de las figuras siguientes o como una
combinacin de ambas.
F(x)
x
1
F(x)
x
1

Obs: Las VA discretas se caracterizan por FD escalonadas. Cada uno de los valores que forman
parte del rango de una VA discreta tiene una probabilidad que da lugar a un salto en la FD
(propiedad 4). Por otra parte, entre dos valores adyacentes del rango no se acumula ninguna
probabilidad, y la FD presenta tramos de valor constante. La alternancia de saltos con tramos
constantes da a la FD de las VA discretas aspecto escalonado.
Obs: Las VA continuas se caracterizan por tener FD continuas. Las FD son continuas por la
derecha (propiedad 3), y en el caso de las VA continuas P(X=x)=0 para todo x, por lo que sus FD
son tambin continuas por la izquierda (propiedad 4), y, por lo tanto, continuas.
Obs: Las VA mixtas constituyen una combinacin de las discretas y las continuas. Sus FD
alternan tramos continuos con escalones.

Dem: Propiedad 3) de la FD: F(x
+
)=F(x)
Por definicin,
!
F(x
+
) = lim
"#0
+
F(x +")
F(x+!) = P(X ! x+!) = P(X ! x) + P(x< X ! x+!)
Cuando !"0
+
, {x/ x< X ! x+!}"{x/ x< X ! x}=, con lo que su probabilidad es cero.
Por tanto
!
F(x
+
) = lim
"#0
+
F(x +") = P(X $ x) = F(x) como queramos demostrar.
La FD es, por tanto, continua por la derecha. No se puede asegurar, sin embargo, que sea continua por la
izquierda. Si P(X=x
0
)>0, no es posible encontrar un valor de ! suficientemente pequeo como para que la diferencia
P(X ! x
0
) P(X ! x
0
-!) sea tan pequea como se desee.

Dem: Propiedad 4) de la FD: P(X=x)=F(x)-F(x
-
)
Por definicin,
!
F(x
"
) = lim
#$0
+
F(x "#)
F(x-!)=P(X ! x-!) = P(X ! x)P(x-!< X ! x)
Cuando !"0
+
, {x/ x-! < X ! x}"{x/ x ! X ! x} = {X=x}
Por tanto F(x
-
)=F(x)P(X=x) como queramos demostrar
Como consecuencia de esta propiedad, en las VA continuas se verifica que P(X=x)=0.

( ]
X+!

X
!"0

( ]
X X-!
!"0

La FD es, por tanto, continua por la derecha. No se puede asegurar, sin embargo, que sea continua por
la izquierda. Si P(X = x
0
) > 0 no es posible encontrar un valor de sucientemente peque no como para que la
diferencia P(X x
0
) P(X x
0
) sea tan peque na como se desee.
demostraci on de prop4 P(X = x) = F(x) F(x

)
Por denicion, F(x

) = lm
0
+
F(x )
F(x ) = P(X x ) = P(X x) P(x < X x)
Cuando 0
+
, {x tales que x < X x} {x tales que x X
x} = {X = x}.
Por tanto F(x

) = F(x) P(X = x) como queramos demostrar.


6 Departamento de Teora de la Seal y Comunicaciones. Universidad de Vigo

Teorema: Cualquier funcin que verifique las propiedades 1), 2) y 3) de las FD es una FD de
alguna VA. Por tanto, el aspecto de una FD ser como el de las figuras siguientes o como una
combinacin de ambas.
F(x)
x
1
F(x)
x
1

Obs: Las VA discretas se caracterizan por FD escalonadas. Cada uno de los valores que forman
parte del rango de una VA discreta tiene una probabilidad que da lugar a un salto en la FD
(propiedad 4). Por otra parte, entre dos valores adyacentes del rango no se acumula ninguna
probabilidad, y la FD presenta tramos de valor constante. La alternancia de saltos con tramos
constantes da a la FD de las VA discretas aspecto escalonado.
Obs: Las VA continuas se caracterizan por tener FD continuas. Las FD son continuas por la
derecha (propiedad 3), y en el caso de las VA continuas P(X=x)=0 para todo x, por lo que sus FD
son tambin continuas por la izquierda (propiedad 4), y, por lo tanto, continuas.
Obs: Las VA mixtas constituyen una combinacin de las discretas y las continuas. Sus FD
alternan tramos continuos con escalones.

Dem: Propiedad 3) de la FD: F(x
+
)=F(x)
Por definicin,
!
F(x
+
) = lim
"#0
+
F(x +")
F(x+!) = P(X ! x+!) = P(X ! x) + P(x< X ! x+!)
Cuando !"0
+
, {x/ x< X ! x+!}"{x/ x< X ! x}=, con lo que su probabilidad es cero.
Por tanto
!
F(x
+
) = lim
"#0
+
F(x +") = P(X $ x) = F(x) como queramos demostrar.
La FD es, por tanto, continua por la derecha. No se puede asegurar, sin embargo, que sea continua por la
izquierda. Si P(X=x
0
)>0, no es posible encontrar un valor de ! suficientemente pequeo como para que la diferencia
P(X ! x
0
) P(X ! x
0
-!) sea tan pequea como se desee.

Dem: Propiedad 4) de la FD: P(X=x)=F(x)-F(x
-
)
Por definicin,
!
F(x
"
) = lim
#$0
+
F(x "#)
F(x-!)=P(X ! x-!) = P(X ! x)P(x-!< X ! x)
Cuando !"0
+
, {x/ x-! < X ! x}"{x/ x ! X ! x} = {X=x}
Por tanto F(x
-
)=F(x)P(X=x) como queramos demostrar
Como consecuencia de esta propiedad, en las VA continuas se verifica que P(X=x)=0.

( ]
X+!

X
!"0

( ]
X X-!
!"0

Como consecuencia de esta propiedad, en las VA continuas se verica que P(X = x) = 0 x.
Teorema: Cualquier funcion que verique las propiedades 1), 2) y 3) de las FD es una FD
de alguna VA. Por tanto, el aspecto de una FD ser a como el de las guras siguientes o como una
combinaci on de ambas.
F(x)
x
1
F(x)
x
1

Observaci on: Las VA discretas se caracterizan por FD escalonadas. Cada uno de los valores
que forman parte del rango de una VA discreta tiene una probabilidad que da lugar a un salto
en la FD (propiedad 4). Por otra parte, entre dos valores adyacentes del rango no se acumula
ninguna probabilidad, y la FD presenta tramos de valor constante. La alternancia de saltos con
tramos constantes da a la FD de las VA discretas aspecto escalonado.
Observaci on: Las VA continuas se caracterizan por tener FD continuas. Todas las FD son
Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.6
continuas por la derecha (propiedad 3), y en el caso de las VA continuas, P(X = x) = 0 x, por
lo que sus FD son tambien continuas por la izquierda (propiedad 4), y, por lo tanto, continuas.
Observaci on: Las VA mixtas constituyen una combinacion de las discretas y las continuas.
Sus FD alternan tramos continuos con escalones.
Observaci on: VA continuas y P(X = x) = 0
Este es un hecho que llama bastante la atenci on y que parece bastante articial. Si estamos
realizando un experimento fsico, siempre obtenemos una medida concreta de la variable obser-
vada, aunque sea una variable de las que denominamos continuas. Por tanto, nuestra intuici on
nos dice que un valor concreto cualquiera puede aparecer, es un valor posible y por tanto tiene
una cierta probabilidad. Esta idea choca con el modelo probabilstico que se emplea para las VA
continuas, que se caracteriza por asignar probabilidades nulas a sucesos del tipo {X = x}. Sin
embargo, esta aparente limitacion del modelo probabilstico basado en una VA continua para
describir un experimento real, no supone un verdadero problema. Cuando se mide una variable
continua, en la practica siempre se discretiza su valor al realizar la lectura de los sistemas de
medida. Por tanto, al especicar la medida no estamos indicando un valor unico y especco,
sino identicando, implcitamente, un intervalo al que pertenece. Las variables continuas no se
miden con precisi on innita y el suceso {X = x} no tiene utilidad pr actica en este contexto. Las
probabilidades se asignan a intervalos, y, por tanto, las VA continuas constituyen una herramienta
perfectamente v alida para caracterizar este tipo de experimentos.
En el esquema siguiente se representan los distintos tipos de VA que existen en funcion del
rango de la variable que describen. Tambien se indican las caractersticas de las FD que resultan
en cada caso.
Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.7
4.2. Funcion de densidad
Denici on: Funci on de densidad de probabilidad de una VA. Sea X una VA. Se dene:
f
X
(x) =
dF
X
(x)
dx
f
X
(x) se denomina funci on de densidad de probabilidad (fdp) de X.
La fdp no siempre se puede obtener de acuerdo con la denici on anterior. Analizaremos los
distintos casos que se pueden dar en funci on del tipo de VA (continua, discreta o mixta). Adem as,
propondremos metodos alternativos para denir la fdp cuando la derivada de la FD no existe. En
todo caso, la fdp de una VA es una funci on que se caracteriza por una serie de propiedades que
veremos a continuaci on.
Propiedades de la fdp:
1) f(x) 0 puesto que F(x) es no decreciente.
2)
_
+

f(x)dx = 1. Es decir, el area bajo la curva es igual a una unidad.


10 5 0 5 10
0
0.05
0.1
0.15
0.2
x
f
(
x
)
Area =1
3) F(x) =
_
x

f
X
(y)dy
10 5 0 3 5 10
0
0.05
0.1
0.15
0.2
x
f
(
x
)
F(x)=P(X 3)
4) P(x
1
< X x
2
) = F(x
2
) F(x
1
) =
_
x
2
x
1
f
X
(x)dx
Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.8
10 5 0 5 10
0
0.05
0.1
0.15
0.2
x
f
(
x
)
P(3<X 5)
Teorema: Cualquier funci on que verique las propiedades 1) y 2) de las fdp es una fdp de
alguna VA.
Observaci on: La fdp es una funci on que, al igual que la FD, permite calcular probabilidades
asociadas a cualquier suceso relativo a una VA. El valor concreto de la FD en un punto x es la
probabilidad acumulada hasta x, es decir P(X x). Por su parte el valor de la fdp en un punto
representa el incremento instantaneo de probabilidad, aunque no se trate de la probabilidad de
ning un suceso (por ejemplo, podra ser mayor que uno). La interpretaci on mas sencilla de la fdp
consiste en tener presente que su integral entre dos puntos es igual a la probabilidad del intervalo
denido por ambos (propiedad 4 de la fdp).
A continuaci on indicaremos las caractersticas de las fdp de las VA continuas, discretas y
mixtas.
4.2.1. fdp de las VA continuas
Las VA continuas se caracterizan por FD continuas, pudiendo darse dos situaciones:
1) FD derivable en todo el rango: en este caso la fdp se calcula directamente aplicando la
denici on.
2) FD es no derivable en un conjunto numerable de puntos: en la gura que se representa a
continuacion, la FD presenta tres cambios de pendiente donde la funci on no es derivable
(puntos x = 2, x = 6 y x = 9). En estos casos se asigna a f(x) un valor arbitrario positivo,
puesto que no va a afectar a los c alculos que se realicen. Estos puntos conictivos pueden
ignorarse a la hora de determinar y representar la fdp pues al ser continua la VA tienen
probabilidad cero. Recordemos que para obtener una probabilidad con la fdp se calcula una
integral en el intervalo de interes. La probabilidad es igual al area bajo la curva, que no
depende de un valor aislado de f(x).
2 6 9
0
0.4
1
F(x)
2 6 9
0
0.1
0.2
f(x)
Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.9
En las VA continuas, como P(X=x)=0, se verica:
P(x
1
< X x
2
) = P(x
1
< X < x
2
) = P(x
1
X x
2
) = P(x
1
X < x
2
) =
_
x
2
x
1
f
X
(x)dx
Ejercicio 2.1: (Stark, Problema 2.2, Pag. 100) En un restaurante conocido por su inusual servicio,
el tiempo X, en minutos, que un cliente tiene que esperar hasta que es atendido por un camarero
viene especicado por la siguiente FD:
F(x) =
_

_
x
2
/4 si 0 x 1
x/4 si 1 x 2
1/2 si 2 x 10
x/20 si 10 x 20
1 si x 20
a) Representa gracamente F(x).
b) Calcula y representa gr acamente f(x). Verica que el area bajo la curva es igual a la unidad.
c) Cual es la probabilidad de que el cliente tenga que esperar al menos 10 minutos?
d) Cual es la probabilidad de que el cliente tenga que esperar menos de 5 minutos?
e) Cual es la probabilidad de que el cliente tenga que esperar entre 5 y 10 minutos?
f) Cu al es la probabilidad de que el cliente tenga que esperar exactamente 1 minuto?
Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.10
4.2.2. fdp de las VA discretas
Las VA discretas se caracterizan por FD escalonadas, es decir, o son constantes o son
discontinuas siendo el salto de discontinuidad siempre nito e inferior a una unidad. Por lo tanto,
la derivada de la FD o bien es nula, o bien no esta denida. Para poder denir la fdp en el
caso discreto, de tal forma que verique las propiedades caractersticas que denen a una fdp, se
recurre a la funci on delta o funcion impulso.
Denici on: Funci on delta o Impulso (x) es una funcion generalizada que se dene por la
siguiente propiedad:
_
A
(x)(x x
0
)dx = (x
0
)
donde es cualquier funcion continua en x
0
y el punto x
0
A (dominio de integraci on). Se dice
que la est a centrada o ubicada en el punto x
0
.
La funci on delta nos permite denir la derivada generalizada de una funcion. Sea G una
funci on discontinua en x
0
. Se dene su derivada generalizada:
dG(x)
dx

x=x
0
=
_
G(x
+
0
) G(x

0
)

(x x
0
)
La idea de la funci on delta es que, a la hora de integrar, nos permita recuperar el valor del
salto en el punto x
0
.
Ejemplo: La funci on escalon unidad se dene como:
U(x) =
_
0 si x < 0
1 si x > 0
U(x) es una funci on discontinua en x = 0. Su derivada generalizada es precisamente (x),
esto es, una delta centrada en x = 0.
Se puede denir la f(x) en un punto de discontinuidad de F(x) a partir de la derivada
generalizada:
f(x
0
) =
_
F(x
+
0
) F(x

(x x
0
) = P(x = x
0
)(x x
0
)
La magnitud del impulso coincide con la magnitud del escal on de la FD, que a su vez
coincide con la probabilidad de que la VA tome el valor x
0
.
Observaci on: La funcion delta, en lo que se reere a su aplicacion en el campo de las VA, no
encierra un signicado cualitativo intrnseco. Es simple y unicamente, una herramienta matemati-
ca que nos permite caracterizar y representar los resultados de un experimento discreto. Como en
todo experimento aleatorio nos interesa conocer los posibles valores y sus probabilidades. En len-
guaje matematico expresamos esta situacion mediante un conjunto de deltas, cada una centrada
en cada valor de la VA y con magnitud igual a su probabilidad. Ademas, la propiedad que dene
a la funci on delta, permite que la suma de todos estos impulsos sea una fdp, vericando todas
las propiedades caractersticas. Al hacer la integral de una delta agregamos el valor del salto de
la discontinuidad en el punto en el que la delta esta centrada.
Observaci on: Otra forma equivalente a la fdp de representar la informaci on acerca de un
experimento aleatorio discreto es mediante la funcion de masa de probabilidad. Simplemente es la
funci on que, denida en los valores del rango de la VA, asigna a cada uno de ellos su probabilidad
(P(X = x
i
) = p
i
). No emplea la funci on delta, pero conocer una es equivalente a conocer la otra.
Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.11
En la siguiente gura se representa una FD y una fdp genericas de una VA discreta X. La funci on
de masa de probabilidad sera:
R
X
= {x
1
, x
2
, ...., x
n
, ..}; P(X = x
i
) = p
i
con p
i
> 0 i
Evidentemente:

i
p
i
= 1
La FD presenta discontinuidades en los puntos x
i
. Para denir la fdp se recurre a la derivada
generalizada:
f(x) =

i
p
i
(x x
i
) =

i
_
F(x
i
) F(x

i
)

(x x
i
)
Observaci on: La fdp de una VA discreta y su funcion de masa de probabilidad son equivalen-
tes. Para conocer la fdp necesitamos conocer d onde est an ubicadas las deltas (lo cual es el rango
de la VA R
X
) y la magnitud de cada delta (lo cual es la probabilidad asociada a cada punto, p
i
),
por lo que conociendo la fdp conocemos autom aticamente la funci on de masa de probabilidad y
viceversa.
Observaci on: En las VA discretas, la probabilidad de un determinado intervalo puede variar
en funci on de que sea abierto, cerrado o semiabierto. Calcular la probabilidad de un intervalo
consiste en sumar la magnitud de las deltas incluidas en dicho intervalo, por lo que el problema
se reduce precisamente a identicar cu ales est an incluidas.
Ejemplo 2.2: Demuestra las propiedades 1), 2) y 3) de las fdp para el caso discreto.
Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.12
Ejemplo 2.3: Sea X: N umero de caras obtenidas al lanzar dos monedas. Calcula su fdp y
representala gr acamente (su FD se calculo en el ejemplo 2.1). Comprueba que se trata de una
fdp.
4.2.3. fdp de las VA mixtas
Las VA mixtas son una combinacion de las discretas y las continuas. Globalmente presentan
un rango no numerable, pero algunos de los valores de su rango tienen probabilidades no nulas.
Como consecuencia, la FD alterna escalones con regiones continuas, siendo al menos una de
ellas no constante. Para calcular la fdp basta con identicar los escalones, que se representar an
mediante una funcion delta. En los dem as puntos se calcula la derivada de la FD. Por ejemplo,
en las guras siguientes se representan la FD y la fdp de una VA mixta con un impulso en x = 0.
0 2 4 6
0
0.2
0.4
0.6
0.8
1
x
F(x)
0 2 4 6
0
0.2
0.4
0.6
0.8
1
x
f(x)
5. Distribuciones notables
En la naturaleza existen experimentos que son practicamente equivalentes desde el punto
de vista probabilstico a pesar de que pertenezcan a ambitos cientcos completamente distintos.
Por ejemplo, existe un cierto paralelismo entre una variable que mide el n umero de caras que
se obtienen al lanzar una moneda 10 veces, y una segunda variable denida como el n umero de
bits que se transmiten correctamente en una trama de 10 bits. Como consecuencia, existen distri-
buciones de probabilidad que aparecen con frecuencia en la practica. Estas distribuciones sirven
para describir el comportamiento probabilstico de VA asociadas a situaciones experimentales de
Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.13
caractersticas similares. En este apartado estudiaremos las m as comunes, distinguiendo entre
discretas y continuas. Realmente, estudiaremos familias de distribuciones que en funcion del valor
o valores de uno o mas par ametros dan lugar a distribuciones diferentes.
5.1. Distribuciones discretas notables
5.1.1. Distribuci on de Bernoulli
Denici on: Distribucion de Bernoulli: Ber(p) con p [0, 1]
Dado : (, F, P), sea un suceso A F tal que P(A) = p y P(A
c
) = 1 p. Se realiza una
vez el experimento y se dene la VA X: N umero de veces que ocurre A. Entonces X Ber(p).
X() =
_
_
_
1 si A
0 si / A
Entonces, R
X
= {0, 1} con probabilidades: P(X = 1) = P(A) = p; P(X = 0) = 1 P(A) = 1 p
Una vez conocida la funcion de masa de probabilidad conocemos la fdp:
f(x) = (1 p)(x 0) + p(x 1)
0 1
0
1!p
1
FD de X~Ber(p)
0 1
1!p
p
1
x
fdp de X~Ber(p)
La distribucion de Bernoulli describe una situacion muy sencilla en la que nos interesa
observar si ha ocurrido un determinado tipo de suceso o su complementario. Por ejemplo, en una
cadena de producci on podran ser los sucesos defectuoso y no defectuoso, y en un sistema de
transmisi on podran ser transmisi on correcta o erronea.
5.1.2. Distribuci on binomial
Denici on: Distribucion Binomial: Bi(n, p) con n N, p [0, 1]
Dado : (, F, P), sea un suceso A F tal que P(A) = p y P(A
c
) = 1 p. Se repite
el experimento n veces de modo independiente, es decir, el valor de p es constante en todas las
repeticiones. Se dene la VA X: N umero de veces que ocurre A en n realizaciones. Entonces
X Bi (n, p).
Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.14
Observaci on: Generalmente al suceso A se le denomina exito, y as, se dice que la VA mide
el n umero de exitos en n intentos.
Vamos a calcular la fdp de esta distribuci on. Evidentemente, el rango viene dado por:
R
X
= {0, 1, 2, . . . , n}
Para calcular P(X = k) hay que tener en cuenta que existen distintos resultados elementales
del experimento incluidos en el suceso {X = k}. Este suceso se reere al n umero total de veces
que ocurre el suceso A durante las n realizaciones, independientemente del orden en que hayan
aparecido. Supongamos n = 4. El suceso {X = 2} incluye todos los resultados siguientes:
AAA
c
A
c
, AA
c
AA
c
, AA
c
A
c
A, A
c
A
c
AA, A
c
AA
c
A, A
c
AAA
c
Cualquiera de estos sucesos tienen la misma probabilidad. Cada uno de ellos es una inter-
secci on de sucesos independientes, por tanto:
P(AAA
c
A
c
) = P(AA
c
AA
c
) = = P(A
c
AAA
c
) = P(A)
2
P(A
c
)
2
= p
2
(1 p)
2
Como el suceso {X = 2} es la union de todos los sucesos anteriores, y estos son disjuntos
entre s, P(X = 2) se obtendr a mediante la suma de las probabilidades. Como todos los terminos
son equiprobables:
P(X = 2) = (N umero de ordenaciones posibles) p
2
(1 p)
2
El n umero de ordenaciones posibles es el n umero de combinaciones de 4 elementos tomados
de 2 en 2:
C
4,2
=
_
4
2
_
=
4!
(4 2)!2!
= 6
En el caso general un suceso elemental con k exitos y (nk) fracasos tiene una probabilidad
p
k
(1 p)
nk
. El n umero de ordenaciones posibles son las combinaciones de k elementos en n:
C
n,k
=
_
n
k
_
=
n!
(n k)!k!
Por tanto:
P(X = k) =
_
n
k
_
p
k
(1 p)
nk
con k = 0, 1, 2, . . . , n
Una vez conocida la funcion de masa de probabilidad conocemos la fdp:
f(x) =
n

k=0
_
n
k
_
p
k
(1 p)
nk
(x k)
0 1 2 3 4 5 6 7
0
0.1
0.2
0.3
0.4
0.5
fdp de X~Bi(7,0.5)
0 1 2 3 4 5 6 7
0
0.1
0.2
0.3
0.4
0.5
fdp de X~Bi(7,0.9)
Observaci on: Por el Binomio de Newton se comprueba que las probabilidades suman 1. Esta
Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.15
propiedad da nombre a la distribuci on:
n

k=0
P(X = k) =
n

k=0
_
n
k
_
p
k
(1 p)
nk
= (p + 1 p)
n
= 1
Observaci on: Una VA binomial se puede ver como una suma de VA de Bernoulli asociada
cada una de ellas a un realizaci on independiente del experimento:
X =
n

k=0
X
k
, donde X
k
Ber(p)
La distribucion binomial se emplea en diversos ambitos. Surge, por ejemplo, al medir el
n umero de errores que se producen en n transmisiones independientes de un sistema de comuni-
caci on, el n umero de unidades defectuosas que aparecen en n elegidas al azar en una cadena de
producci on, el n umero de mutaciones que se producen en un conjunto de genes, etc.
5.1.3. Distribuci on geometrica
Denici on: Distribucion Geometrica: Geo(p) con p [0, 1]
Dado : (, F, P), sea un suceso A F tal que P(A) = p y P(A
c
) = 1 p. Al suceso A se
le denomina exito.
Se repite el experimento, de forma independiente, un n umero indeterminado de veces; es
decir, p es constante para todas las repeticiones. Se dene la VA X: N umero de intentos hasta
que ocurre el primer exito. Entonces X Geo(p).
R
X
= {1, 2, ..., n, ...}. X tiene rango innito numerable.
Para que ocurra el suceso {X = k} tienen que producirse (k 1) fracasos en los (k 1) primeros
intentos, y, posteriormente, un exito en el intento k-esimo (especcamente en ese orden). Se
trata de una interseccion de sucesos. Cada exito ocurre con probabilidad p y cada fracaso con
probabilidad (1 p). Por tanto:
P(X = k) = (1 p)
k1
p
Una vez conocida la funcion de masa de probabilidad, la fdp ser a:
f(x) =

k=0
(1 p)
k1
p (x k)
1 2 3 4 5 6 7 8
0
0.2
0.4
0.6
0.8
fdp de X~Geo(0.5)
1 2 3 4 5 6 7 8
0
0.2
0.4
0.6
0.8
fdp de X~Geo(0.9)
Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.16
Observaci on: Existe otra versi on de la distribuci on geometrica que cuenta el n umero de
fracasos antes del primer exito. Evidentemente ambas VA son equivalentes, tan solo estan despla-
zadas una unidad. La distribucion geometrica tambien se conoce con el nombre de distribuci on
de Pascal.
Ejercicio 2.2: Demuestra que la expresi on de la fdp de la geometrica cumple las propiedades que
denen a una fdp.
La distribuci on geometrica tambien es de uso com un. Variables como el n umero de veces que
hay que transmitir un paquete de datos hasta que llega a su destino o el n umero de veces que se
necesita participar en un juego de azar hasta que se consigue un premio, siguen una distribuci on
geometrica.
Ejemplo 2.4: En un sistema de transmisi on binario se puede producir un error, en cada transmi-
si on, con probabilidad p. Sabiendo que las transmisiones son independientes, calcula:
a) La probabilidad de que no se produzca ning un error en 6 transmisiones.
b) La probabilidad de que el primer error se produzca en la sexta transmisi on.
c) La probabilidad de que se produzca exactamente un error en 6 transmisiones.
5.1.4. Distribuci on de Poisson
Denici on: Distribucion de Poisson: P() con > 0
La distribuci on de Poisson est a asociada a variables que miden el n umero de sucesos de
un determinado tipo que ocurren por unidad de tiempo. Para que este tipo de variables tengan
una distribucion de Poisson, se tienen que dar determinadas circunstancias en el experimento
(independencia de ocurrencias, n umero medio de ocurrencias por unidad de tiempo constante,
etc). La funci on de masa de probabilidad viene dada por:
Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.17
R
X
= {0, 1, ..., n, ...}. X tiene rango innito numerable.
P(X = k) = e

k
k!
_
Una vez establecida la funci on de masa de probabilidad, la fdp sera:
f(x) =

k=0
e

k
k!
_
(x k)
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17
0
0.05
0.1
0.15
0.2
fdp de X~P(5)
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17
0
0.05
0.1
0.15
0.2
fdp de X~P(8)
Ejercicio 2.3: Demuestra que la expresi on de la fdp de una VA con distribucion de Poisson
cumple las propiedades que denen a una fdp.
5.2. Distribuciones continuas notables
5.2.1. Distribuci on uniforme
Denici on: Distribucion Uniforme: U(a, b) con a < b
Sea X una VA tal que R
X
= (a, b). La variable ser a uniforme si la probabilidad de un
intervalo es proporcional a la longitud del mismo. Esto es, dado un intervalo (x, x+x) (a, b),
P(x < X x +x) = kx, independientemente de x. Entonces X U(a, b).
La distribuci on uniforme es una generalizacion al caso continuo de los espacios discretos
equiprobables. En el caso continuo la equiprobabilidad se maniesta en los intervalos, cuya pro-
babilidad solo depende de su longitud (siempre que esten incluidos en el rango de la VA).
Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.18
f(x) =
_
_
_
1
b a
si a < x < b
0 otro caso
a b
0
1/(b!a)
fdp de X~U(a,b)
F(x) =
_

_
0 si x a
x a
b a
si a < x < b
1 si x b
a b
0
1
FD de X~U(a,b)
La distribucion uniforme se emplea en casos en los que la probabilidad se reparte de forma
homogenea en todo el rango de una VA continua, es decir, cuando intervalos iguales tienen la
misma probabilidad. En el campo de las telecomunicaciones se utiliza, por ejemplo, para modelar
el error de cuanticaci on que se produce en la digitalizaci on de se nales o para modelar la fase de
una se nal.
Ejercicio 2.4: Demuestra que la expresi on de la fdp de una VA con distribucion uniforme cumple
las propiedades que denen a una fdp.
5.2.2. Distribuci on exponencial
Denici on: Distribucion exponencial: exp() con > 0
La distribucion exponencial est a ligada a la distribuci on de Poisson. Si el n umero de ocu-
rrencias de un determinado tipo de suceso en una unidad de tiempo sigue una distribuci on de
Poisson, entonces el tiempo que transcurre entre dos ocurrencias consecutivas sigue una distri-
buci on exponencial, y viceversa. Por ejemplo, si el n umero de demandas de lnea que llegan a
una central telef onica sigue una distribuci on de Poisson, el tiempo que pasa entre dos demandas
consecutivas se distribuye exponencialmente.
Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.19
f(x) =
_
_
_
e
x
si x > 0
0 otro caso
0 2 4 6
0
0.2
0.4
0.6
0.8
!=1
fdp de X" exp(! = 1)
F(x) =
_
_
_
0 si x < 0
1 e
x
si x 0
0 2 4 6
0
0.2
0.4
0.6
0.8
1
FD de X !exp(" = 1)
Ejercicio 2.5: Demuestra que la expresion de la fdp de una VA con distribucion exponencial
cumple las propiedades que denen a una fdp.
La distribuci on exponencial tambien est a ligada a la distribuci on geometrica. Recordemos
que la geometrica es una distribucion discreta que surge al medir el n umero de intentos hasta que
ocurre un determinado suceso (exito), siempre que en cada intento su probabilidad sea la misma.
La exponencial se utiliza en situaciones similares en las que en lugar de medir n umero de intentos,
se mide una magnitud continua (tiempo, distancia, etc.). Por ejemplo, si la probabilidad de que
se produzca una llamada a traves de una lnea telefonica se supone constante para cualquier
instante de tiempo, el tiempo que pasa hasta que se produce una llamada sigue una distribuci on
exponencial.
Ambas distribuciones, exponencial y geometrica, comparten una propiedad; son distribu-
ciones sin memoria. Esta propiedad se deriva del tipo de experimento a partir del cu al se han
denido. En el caso de una geometrica, el saber que se han producido, por ejemplo, 4 intentos sin
exito, no nos proporciona ninguna informacion sobre los intentos que quedan. Lo mismo ocurre
si en el caso de la exponencial han pasado 3.25 segundos sin que ocurra el suceso de interes. Es
decir, el tiempo que queda hasta que ocurre un exito despues de un n umero cualquiera de fracasos
sigue teniendo una distribuci on geometrica o exponencial respectivamente.
Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.20
5.2.3. Distribuci on normal
Denici on: Distribucion normal o gaussiana: N(, ) con , R; > 0.
La distribucion gaussiana constituye un modelo probabilstico adecuado para muchas va-
riables reales y muy variadas: el ruido en un sistema de comunicaci on, los errores de medida
en determinado tipo de observaciones, la altura de un conjunto de individuos, etc. En todos los
ambitos cientcos existen variables aproximadamente normales. De hecho, el termino normal
se le dio como consecuencia de su aparici on tan frecuente. Este fenomeno es debido, en parte, a
que una variable, denida como la suma de muchos efectos aleatorios independientes y de similar
peso, sigue aproximadamente una distribuci on gaussiana.
La distribuci on normal es simetrica con respecto al par ametro , es decir, f(x) = f(+x),
y tiene forma de campana, de ah el nombre de campana de Gauss. La probabilidad se concentra
en el eje de simetra y decae exponencialmente hacia los extremos. El parametro es proporcional
a la dispersi on de la distribuci on con respecto al eje de simetra. Aproximadamente el 95 % de
la probabilidad se concentra en un intervalo centrado en de radio 2. Para un radio de 3, la
probabilidad pasa a ser algo mas del 99 %.
La expresion analtica de la fdp de una N(, ) es:
f(x) =
1

2
e

1
2
_
(x )
2

2
_
Proposici on: La expresion anterior de f(x) cumple las propiedades de toda fdp, es decir, es
no negativa y verica que
_
+

f(x)dx = 1.
La funci on que dene la fdp de la normal no tiene primitiva, por lo que no existe una ex-
presi on analtica exacta para la FD. Sus valores se pueden calcular numericamente por ordenador
o consultar en tablas. Aunque existen innitas distribuciones gaussianas distintas (pues exis-
ten innitas combinaciones de par ametros) es suciente una unica tabla de la FD para calcular
probabilidades asociadas a cualquiera de ellas. Esto es debido a la siguiente propiedad:
Proposici on: Sea X N(, ). Se dene Z =
X

. Entonces Z N(0,1).
Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.21
Esta proposici on ser a demostrada en la secci on de transformaciones de VA. Esta propiedad
permite transformar un suceso cualquiera de una distribucion N(, ) en otro suceso equivalen-
te, con la misma probabilidad, asociado a una N(0,1). A la distribucion N(0,1) se le denomina
normal estandar o normal tipo, y su FD es la que se tabula habitualmente.
Observaci on: La notaci on que se emplea para la distribucion normal no es universal. Aunque
nosotros utilizaremos N(, ), no es raro encontrar fuentes bibliogr acas donde se utiliza N(,
2
).
En la gura siguiente se observa la inuencia de los par ametros en el aspecto de la distribu-
ci on. Un cambio en produce un desplazamiento del eje de simetra de la distribucion mientras
que el aumento de produce un incremento de la dispersi on de la distribucion con respecto al
eje de simetra.
!10 !5 x=0 y=5 10
0
0.1
0.2
0.3
0.4
fdp de X~N(0,3) e Y~N(5,1)
5.2.4. Distribuci on Rayleigh
Denici on: Distribucion Rayleigh: Ray() con > 0
La distribuci on de Rayleigh es una distribuci on asimetrica cuya fdp es no nula unicamente
para valores positivos. Una de las variables que sigue esta distribucion es el modulo de un vector
de componentes aleatorias cuyas distribuciones son normales de media cero y varianza com un.
f(x) =
_

_
x

2
e

1
2
_
x
2

2
_
si x > 0
0 otro caso
0 1 2 3 4 5
0
0.1
0.2
0.3
0.4
0.5
0.6
fdp de Rayleigh(1)
Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.22
F(x) =
_

_
0 si x < 0
1 e

1
2
_
x
2

2
_
si x 0
0 1 2 3 4 5
0
0.2
0.4
0.6
0.8
1
FD de Rayleigh(1)
6. Transformacion de variables aleatorias
En general, cualquier magnitud fsica que dependa de una VA tambien sera una VA. Supon-
gamos un sistema formado por una resistencia sometida a una diferencia de potencial constante.
Si el valor de la resistencia vara aleatoriamente en funcion de distintos factores, como por ejemplo
la temperatura, la intensidad de corriente resultante tambien sera una VA. Si el tiempo que un
vehculo emplea en realizar un recorrido se puede modelar mediante una VA como consecuencia
de las uctuaciones del traco, la velocidad media resultante tambien es aleatoria. Estos ejemplos
se pueden modelar mediante un sistema que obtiene una se nal de salida tras transformar una
cierta se nal de entrada. Como la se nal de entrada es una VA, tambien lo es la se nal de salida.
El problema general que se plantea consiste en determinar la distribucion de la se nal (VA)
de salida en funcion de la distribuci on de la se nal (VA) de entrada, que se supone conocida.
En esta secci on analizaremos distintos metodos para resolver este problema, cuya complejidad
vara mucho en funcion de las distribuciones de probabilidad y las transformaciones implicadas.
Evidentemente los sistemas pueden tener m ultiples entradas y m ultiples salidas, con lo que el
c alculo se puede complicar indenidamente.
Una vez comprendidos estos contenidos podremos calcular, por ejemplo, la distribuci on del
tiempo que pasa hasta que un sistema se avera en funci on de su arquitectura y de las distribuciones
an alogas de sus componentes. Tambien podremos llegar a evaluar estadsticamente los errores
cometidos en un sistema de cuanticaci on o conocer la distribuci on del tiempo que un usuario
emplea para poder disfrutar de un servicio en funci on de la distribuci on del tiempo de espera y
del tiempo de uso del servicio.
Planteamiento del problema
Dada una VA X, se dene Y = g(X), donde g dene una transformaci on de X. En general,
Y va ser tambien una VA, pues recordemos que una VA no era mas que una funci on de un espacio
de probabilidad en R. Obviamente Y = g(X) es una composicion de las dos funciones g y X por
lo que sigue siendo una funcion de un espacio de probabilidad en R, es decir, una VA.
Para tener un espacio de probabilidad sobre R
Y
necesitamos denir una medida de proba-
bilidad. La manera de hacerlo es asignar la misma probabilidad a los sucesos equivalentes. En
general, la fdp de X ser a conocida y por lo tanto tambien lo ser an las probabilidades asociadas
a cualquier suceso A F
X
. La probabilidad de un suceso B F
Y
es por denicion igual a la
probabilidad del suceso equivalente correspondiente en X. Por tanto la clave para calcular la
probabilidad de un suceso B relativo a Y est a en calcular el suceso equivalente en R
X
, es decir,
Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.23
en conocer g
1
(B).
Sea B F
Y
. Entonces: P
Y
(B) = P
X
(g
1
(B))
Observaci on Dado que la medida de probabilidad se conserva en una transformaci on, habitual-
mente notaremos directamente P(A) o P(B) en lugar de P
X
(A) o P
Y
(B).
A continuaci on veremos como aplicar esta idea sencilla al calculo de la FD de la VA Y y
posteriormente enunciaremos un teorema para el calculo de su fdp.
6.1. Calculo de la FD de Y = g(X)
Para calcular la probabilidad de un suceso relativo a Y se debe determinar el suceso equi-
valente en X, es decir la imagen inversa del suceso para la transformaci on denida. En el caso
concreto de la FD el suceso de interes es {Y y}, y por tanto:
F
Y
(y) = P(Y y) = P({x/g(x) y}) = P(X g
1
((, y]))
Conceptualmente se trata de una operaci on sencilla pero en la pr actica la dicultad para
obtener este suceso equivalente depende de c omo este denida la VA X y fundamentalmente de
la transformacion g. En el caso particular de que X sea discreta la FD sera:
F
Y
(y
0
) = P(Y y
0
) =

{i/y
i
y
0
}
P(Y = y
i
) =

{i/y
i
y
0
}

{j/g(x
j
)=y
i
}
P(X = x
j
)
es decir, P(Y = y
i
) se calcula como la suma de las probabilidades de todos los valores de X
tales que g(x
j
) = y
i
. Por denici on F
Y
(y
0
) se calcula como la suma de todas las probabilidades
asociadas a valores de Y menores o iguales que y
0
.
Ejemplo 2.5: Sea X una VA discreta cuyo rango es R
X
= {2, 1, 0, 1, 2}. Se dene Y = X
2
.
Calcula la funcion de masa de probabilidad de Y sabiendo que los posibles valores de X son
equiprobables.
A continuacion vamos a ver una serie de situaciones que se pueden dar dependiendo de la forma
de la transformacion:
g(x) continua y no constante:
Para cada valor Y = y puede haber varias inversas. En el ejemplo de
la gura hay 3 imagenes inversas y el suceso equivalente de {Y y
0
}
se dene a partir de la uni on de 2 intervalos en X:
g
1
((, y
0
]) = (, x
1
]) [x
2
, x
3
]
y por tanto:
F
Y
(y
0
) = P({X x
1
)}{x
2
X x
3
}) = F
X
(x
1
)+F
X
(x
3
)F
X
(x
+
2
)
Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.24
g(x) escalonada:
Esta transformacion se corresponde por ejemplo con la funci on de
transferencia de un conversor anal ogico-digital. La VA resultante Y
es discreta. Para calcular la probabilidad asociada a cada uno de
sus valores hay que obtener la imagen inversa correspondiente. Por
ejemplo, {Y = y
1
} y {x
1
< X x
2
} son sucesos equivalentes y por
tanto:
P(Y = y
1
) = F
X
(x
2
) F
X
(x
1
)
g(x) constante en [x
0
, x
1
]:
Este caso se puede considerar como una mezcla de los anteriores.
Aunque no es escalonada presenta un tramo constante. Como conse-
cuencia {Y = y
0
} tiene como suceso equivalente el intervalo [x
0
, x
1
].
Por tanto:
P(Y = y
0
) = P(x
0
X x
1
) = F
X
(x
1
) F
X
(x

0
)
Si X es continua la expresion anterior es equivalente a:
P(Y = y
0
) = F
X
(x
1
) F
X
(x
0
)
y la VA Y resultante ser a mixta.
Ejemplo 2.6: Sea X U(C, C). Se dene Y = 1/X
2
. Calcula F
Y
(y).
Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.25
Ejemplo 2.7: Un vehculo realiza a diario un trayecto de longitud L metros. Como consecuencia
de las uctuaciones del tr aco y de las condiciones meteorol ogicas, la velocidad que desarrolla es
una VA V U(a, b). Sea T el tiempo que tarda en realizar el trayecto.
a) Representa gracamente la relaci on entre T y V .
b) Determina la funci on de distribuci on de probabilidad de T.
6.2. Calculo de la fdp de Y = g(X). Teorema fundamental
Sea X una VA continua.
Se dene Y = g(X), siendo g una funcion real, derivable y no constante en R
X
.
Para cada Y = y sean x
1
, x
2
, . . . , x
n
, . . . las races reales de y = g(x). Entonces:
f
Y
(y) =

i
f
X
(x
i
)
|g

(x
i
)|
Observaciones:
a) Si g(x) es discontinua, no derivable o con derivada nula en una cantidad numerable de
puntos, el teorema se puede aplicar en todo el rango de X excepto en dichos puntos. Como
X es una VA continua (si no, el teorema no sera aplicable), la imagen de un conjunto de
puntos aislados tiene probabilidad cero y por lo tanto no tiene repercusi on en la distribuci on
de probabilidad de Y . A la fdp de Y en la imagen de dichos puntos se le puede asignar un
valor arbitrario.
b) Si X es mixta el teorema es aplicable unicamente a la parte continua.
c) Si g(x) es constante en un intervalo el teorema no es aplicable en dicho intervalo. Como ya
hemos visto anteriormente, en estos casos la VA Y ser a mixta. Si g(x) = y
0
en el intervalo
[x
1
, x
2
] la fdp de Y presentar a un impulso (y y
0
) de magnitud [F
X
(x
2
) F
X
(x
1
)].
d) Si no existe ning un valor de x tal que g(x) = y
0
, entonces f
Y
(y
0
) = 0.
e) El n umero de races de y=g(x) puede ser innito numerable.
Ejemplo resuelto 2.1:
Sea X una VA continua de fdp conocida. R
X
= [x
0
, x
1
]. Se dene Y = aX + b (a > 0).
Calcula f
Y
(y).
Resolveremos este problema aplicando el teorema fundamental (tambien se puede calcular
la FD mediante la obtencion del suceso equivalente y despues derivar). Una vez que se decide
Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.26
abordar un problema de transformaciones desde esta perspectiva, es recomendable dar una serie
de pasos que vamos a ver a continuacion:
1) Comprobar si se verican las hip otesis del teorema.
En este caso es evidente que s. La VA X es continua (dato del problema) y la funci on g es
derivable, real y no constante en todo el conjunto de los n umeros reales.
2) Representar gr acamente la transformaci on
Seg un cu al sea la transformaci on que se presente, pueden
variar aspectos fundamentales para el calculo de la nueva
fdp, como por ejemplo el rango de Y o el n umero de
im agenes inversas correspondientes a cada uno de sus
valores.
La representacion graca nos obliga a realizar un analisis
en profundidad de la transformaci on y posteriormente nos
proporciona de un vistazo la informacion m as signicativa
que necesitamos para aplicar el teorema fundamental.
3) Determinar el rango de la VA Y
A la vista de la transformacion gr aca queda claro que los posibles valores de Y pertenecen
al intervalo [ax
0
+ b, ax
1
+ b].
4) Obtener la imagen o im agenes inversas
Claramente para cada valor de y hay una unica imagen inversa, se trata de una transfor-
maci on biyectiva. La representacion gr aca nos ayuda a ver claramente esta condici on.
Nuestro objetivo es obtener una expresi on para f
Y
(y) y por tanto dicha expresi on debe
de escribirse en funcion de y adem as de otras cantidades o par ametros que se consideren
conocidos (en todo caso la expresi on no debe quedar en funcion de x, que es la variable que
se transforma). Por tanto, la imagen inversa de Y = y (que evidentemente se trata de un
valor de X) debe quedar expresada en funci on de y.
En nuestro caso particular sabemos que y = ax + b
Por tanto el valor de x correspondiente a y se puede expresar como: x = (y b)/a
La expresion que emplearemos para la imagen inversa sera pues (y b)/a
En el caso general puede ocurrir que la expresi on de la imagen inversa cambie para cada
valor de y, que haya varias im agenes inversas, que el n umero de im agenes inversas vare de
unos valores de y a otros, etc.
5) Calcular la derivada de la transformacion. Expresarla en funci on de y.
En este caso la derivada de la transformaci on es g

(x) = a. Por tratarse de un par ametro


conocido se puede utilizar directamente en la expresi on de f
Y
(y). Si g

(x) queda en funcion


de x esta debe sustituirse por el valor correspondiente de y (del mismo modo que en la
expresi on de la imagen inversa).
6) Obtener la fdp mediante la aplicaci on del teorema.
Con la informacion recogida en los pasos anteriores, obtenemos la fdp de Y :
f
Y
(y) =
f
X
(
yb
a
)
a
y R
Y
= [ax
0
+ b, ax
1
+ b]
Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.27
donde en el denominador gura directamente a, puesto que en este ejemplo se ha supuesto
a > 0 y coincide con su valor absoluto.
Adem as de escribir la expresion de f
Y
(y) es imprescindible indicar el rango de Y , el con-
junto de valores de y para los que es v alida. Para el resto de valores no especicados se
sobreentender a que es nula.
Ejemplo 2.8: Sea X N(, ). Se dene Y = aX + b. Calcula f
Y
(y). Estudia el caso particular
en que a = (1/) y b = (/).
A continuacion vamos a aplicar el teorema fundamental a distintas transformaciones de uso
com un en ingeniera. La transformaci on del Ejemplo 2.9 es la que se aplica en un detector de ley
cuadr atica y la del Ejemplo 2.10 es equivalente a la funci on de transferencia de un recticador de
media onda.
Ejemplo 2.9: Sea X una VA continua con fdp conocida. Se dene Y = aX
2
(a > 0). Calcula
f
Y
(y).
Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.28
Ejemplo 2.10: Sea X una VA continua con fdp conocida. Se dene Y = (X + |X|)/2. Calcula
f
Y
(y).
Ejemplo 2.11: Sea X una VA continua con fdp conocida. Se dene Y = c exp(x)U(x) con
> 0, c > 0. Calcula f
Y
(y).
Ejemplo 2.12: Sea X una VA continua con FD F
X
continua. Se dene la transformacion
Y = F
X
(X). Calcula f
Y
(y) bajo los siguientes supuestos:
a) F
X
(x) es estrictamente creciente
b) F
X
(x) no es estrictamente creciente
Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.29
Resultado: Si X es una VA continua, la VA U = F
X
(X) sigue una distribuci on U(0,1).
Este resultado se utiliza a menudo en simulaci on para generar n umeros aleatorios. En oca-
siones s olo se dispone de un generador de n umeros aleatorios U U(0,1). Si conocemos la F
X
(x)
de la VA que queremos generar, bastar a con aplicar a estos n umeros aleatorios la transformaci on
inversa F
1
X
(u).
Ejemplo 2.13: Se desea generar una muestra aleatoria con distribucion exp() Para ello se
dispone unicamente de un generador de n umeros aleatorios con distribuci on U(0,1). Calcula la
transformaci on que se debe aplicar a los n umeros obtenidos con el generador para obtener la
distribuci on de probabilidad deseada.
Observaci on: Cuando se transforma una VA la relacion que existe entre los sucesos equiva-
lentes del dominio original y del transformado (de X e Y ) puede ser muy variada. Seg un cu al sea
la ley de transformacion puede haber diferencias muy importantes entre los rangos y la distri-
buci on de probabilidad de ambas VA. En este sentido para conocer cu al es la fdp o la FD de la
nueva VA es necesario realizar un estudio minucioso de la transformaci on y de c omo aplicar las
diferentes tecnicas que se estudian en este captulo. Deben evitarse en cualquier caso las suposi-
ciones c omodas y poco rigurosas de que a pesar de que ha habido una transformacion se mantiene
el tipo de distribuci on de probabilidad (por ejemplo suponer que al transformar una uniforme se
mantiene la distribucion uniforme y s olo cambian los par ametros que determinan su rango).
7. Caractersticas de una variable aleatoria
A menudo es interesante resumir ciertas propiedades de una VA y de su distribuci on de
probabilidad en unos cuantos n umeros. Estas cantidades deterministas no identicar an de forma
Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.30
unica a la VA, pero nos dar an una idea de sus principales caractersticas. En esta seccion se
estudiar an los principales parametros de una VA; fundamentalmente ndices de localizacion y de
dispersion.
7.1. Esperanza
Denici on: Llamaremos Esperanza (Media o Valor esperado) de una VA:
E(X) = =
_
+

xf
X
(x)dx
En el caso discreto, esta integral se convierte en:
E(X) = =

i
x
i
P(X = x
i
)
Evidentemente, en un espacio equiprobable este es el concepto intuitivo y habitual de pro-
medio. La media es un parametro de localizaci on, nos da una idea de donde puede estar situada
la variable estudiada.
Interpretacion frecuencial
Supongamos que X es una VA discreta tomando valores {x
1
, x
2
, . . . , x
k
, . . .}. Repetimos el
experimento n veces (siendo n sucientemente grande) y observamos n
i
= {n umero de veces que
obtenemos el valor x
i
}; con lo que f
r
(x
i
) = n
i
/n. La esperanza de X sera:
E(X)

i
x
i
f
r
(x
i
) =
n
1
x
1
+ + n
k
x
k
+ . . .
n
La media puede entenderse desde el punto de vista frecuencial como el lmite del promedio
de muestras de la misma VA, cuando el n umero de muestras tiende a innito.
Observaci on: La esperanza se dene como una integral (o como una serie en el caso discreto).
Esta integral puede que no siempre exista. De hecho, algunas VA carecen de media.
Ejemplo: Sea X: Valor obtenido en el lanzamiento de un dado. X toma valores en
{1, 2, . . . , 6} con probabilidad 1/6. Por tanto: E(X) = (1 + 2 + . . . + 6)/6 = 3.5.
Ejemplo: Sea X U(a, b). Entonces:
E(X) = =
_
b
a
x
b a
dx =
1
b a
b
2
a
2
2
=
b + a
2
Las principales propiedades de la esperanza son:
1) Si la fdp es simetrica respecto a un punto, ese punto ha de ser necesariamente la media.
Es decir, si f(a + x) = f(a x) x, entonces E(X) = a. En particular, si la fdp es par
entonces la media es cero. Por ejemplo, una uniforme es simetrica respecto al punto medio
del intervalo donde esta denida, por lo que este punto es la media.
2) La media de una VA no tiene porque ser uno de los posibles valores de la variable. En el
ejemplo del lanzamiento de un dado, la media (3.5) no pertenece al rango de la VA.
Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.31
3) Teorema fundamental para esperanzas
Bajo las mismas hipotesis del teorema fundamental. Si Y = g(X) entonces:
E(Y ) =
_
+

yf
Y
(y)dy =
_
+

g(x)f
X
(x)dx
El teorema tambien es cierto en el caso discreto:
E(Y ) =

j
y
j
P(Y = y
j
) =

i
g(x
i
)P(X = x
i
)
El teorema fundamental para esperanzas nos permite calcular la media de una transforma-
ci on sin necesidad de calcular la fdp de la variable transformada.
4) La esperanza es un operador lineal, es decir: E(aX + b) = aE(X) + b
Ejemplo resuelto 2.2: Sea X una VA N(0, ). Hacemos la transformacion Y = X
2
. Calcula E(Y )
E(Y ) = E(g(X)) =
_
+

g(x)f
X
(x)dx =
1

2
_
+

x
2
e

x
2
2
2
dx

=
1

2
_
+

2
z
2
e
z
2
/2
dz

=
z = x/ dz = dx/ (tipicamos)
_
z = u dz = du
ze
z
2
/2
dz = dv v = e
z
2
/2

=

2

2
_

_
ze
z
2
/2
_
+

. .
=0

_
+

z
2
2
dz
_

_
=
2
_
+

2
e

z
2
2
dz =
2
_
+

f(z)dz =
2
Por tanto, E(Y ) = E(X
2
) =
2
Otros ndices de localizaci on son la moda: el valor en el que se alcanza el m aximo de la fdp
o, lo que es lo mismo en el caso discreto, el valor m as probable; y la mediana, aquel punto que
deja la mitad de la probabilidad a cada lado, es decir, el punto en el que la FD vale 1/2.
Ejemplo 2.14: Sea X una VA N(, ). Determina la media, la moda y la mediana de X
Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.32
Ejemplo 2.15: Sea X una VA exp(). Determina la media, la moda y la mediana de X
7.2. Varianza
De entre los par ametros de dispersi on, el m as importante quiza sea la varianza, que mide la
concentraci on de una variable aleatoria respecto a su media. Se dene:
Var(X) =
2
= E{(X )
2
} =
_
+

(x )
2
f
X
(x)dx
En el caso discreto, esta integral se convierte en:
Var(X) =
2
=

i
(x
i
)
2
P(X = x
i
)
Las principales propiedades de la varianza son:
1) Var(X) = E(X
2
) E
2
(X)
2) Si X = c (constante o determinista) entonces Var(X) = 0
3) V ar(aX + b) = a
2
V ar(X); con a y b n umeros reales.
Ejercicio 2.6: Demuestra las propiedades anteriores
Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.33
Ejemplo 2.16: Sea X una VA que toma valores en -1 y en +1 con probabilidad 1/2. Calcula su
media y su varianza. Sea Y una VA que toma valores en -10 y en +10 con probabilidad 1/2.
Calcula su media y su varianza. Compara las medias y las varianzas de X e Y .
Otro parametro importante de dispersi on es la desviaci on tpica: la raz cuadrada (positiva)
de la varianza. Tiene especial interes por estar expresada en la mismas unidades que la variable.
Habitualmente se denota por .
7.3. Calculo de las medias y varianzas para las distribuciones notables
En esta secci on veremos ejemplos de calculo de medias y varianzas. En algunos casos, como
las distribuciones normal, exponencial o uniforme ya se calculo la media en ejemplos anteriores,
por lo que s olo calcularemos la varianza. Existen distribuciones, como la binomial, la geometrica
o la Poisson, en las que es difcil calcular su media y varianza utilizando la denici on. Existen
tecnicas alternativas para el c alculo de medias y varianzas, basadas en la denominada funci on
caracterstica, que permiten determinar f acilmente los parametros de esas distribuciones. Esos
contenidos exceden los objetivos de esta asignatura, por lo que no seran introducidos. Sin embargo,
al nal de la seccion se incluye una tabla en la que se facilitan los par ametros de las distribuciones
m as importantes.
Ejemplo 2.17: Sea X una VA Ber(p). Determina la media y la varianza de X.
Ejemplo 2.18: Sea X una VA N(, ). Determina la varianza de X.
Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.34
Ejemplo 2.19: Sea X una VA U(a, b). Determina la varianza de X.
Ejemplo 2.20: Sea X una VA exp(). Determina la varianza de X.
Ejemplo resuelto 2.3: Sea X una VA Ray(). Determina la media y la varianza de X.
E(X) =
_
+

xf
X
(x)dx =
_

0
x
2

2
e

x
2
2
2
dx

= x e

x
2
2
2
. .
=0
_

0
+
_

0
e

x
2
2
2
dx =
=

2
_

0
f
N(0,1)
(x)dx =

2
2

_
x = u dx = du
x

2
e

x
2
2
2
dx = dv v = e

x
2
2
2
E(X
2
) =
_
+

x
2
f
X
(x)dx =
_

0
x
3

2
e

x
2
2
2
dx

=
_

0
t
2
2
e

t
2
2
dt = E(exp(
1
2
2
)) = 2
2
x
2
= t 2xdx = dt
Por tanto, Var(X) = E(X
2
) E
2
(X) = 2
2

2
=
4
2

2
Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.35
Medias y varianzas de las distribuciones mas importantes
Distribucion Parametros Rango Media Varianza
Bernoulli p {0, 1} p p(1 p)
Binomial n, p {0, 1, 2, ..., n} np np(1 p)
Poisson {0, 1, 2, 3, ....}
Geometrica p {1, 2, 3, ....}
1
p
(1 p)
p
2
Uniforme a, b (a, b)
(a + b)
2
(b a)
2
12
Normal , (, +)
2
Exponencial (0, +)
1

2
Rayleigh (0, +)

2

2
4
2

2
EJERCICIOS PROPUESTOS:
Cuestiones basicas de variables aleatorias. Li. Problemas de autoevaluaci on 3.1. Pag. 139.
Propiedades de la funci on de distribuci on. Li. Problemas. 3.2. Pag. 130.
Propiedades de la funci on de densidad. Li. Problemas. 3.9 y 3.10. Pag. 131.
Funcion de distribucion y de densidad. Cao. Problema 4.5, apartados a), b) y c). Pag. 192.
Funcion de densidad. Cao. Problema 4.9. Pag. 196.
Distribuci on Gaussiana. Li. Problemas. 3.22. Pag. 133
Teorema fundamental.Ejemplo 5.13 (Papoulis).
Teorema fundamental. Problema 3.8 de (Stark, 1994). Pag. 154.
Esperanzas y varianzas. Cao. Problema 4.6. Pag. 181; Problema 4.12. Pag 198.
Esperanza y varianza. Li. Problemas de autoevaluaci on 3.4. Pag. 140.
Varianza. Li. Problemas de autoevaluacion 3.2. Pag. 139.
Esperanza de funciones de una VA. Li. Problema 3.41. Pag. 135.
LECTURAS RECOMENDADAS:
Concepto de variable aleatoria. Papoulis. Apartado 4.1
Funciones de distribuci on y densidad. Papoulis. Apartado 4.2
Introducci on a las transformaciones de VA. Apartado 3.1. Stark.
Esperanzas y varianzas. Cao. Captulos 4.6 y 4.7.
INFORMACI

ON Y DOCUMENTACI

ON ADICIONAL:
La documentaci on de este tema se complementa con un boletn de problemas.
Universidad de Vigo. Problemas de PyE. Tema 2: Variables aleatorias unidimensionales 2.1
PROBLEMAS DE PROBABILIDAD Y ESTAD

ISTICA
Tema 2: Variables aleatorias unidimensionales
2.1) Una VA continua X se distribuye en el intervalo (0, /4) con densidad proporcional a cos(x),
y en el intervalo (/4, /2) con densidad proporcional a sen(x). En el primer intervalo ocurre
que: P(0 X /4) = 1/2.
a) Halla la funci on de densidad y de distribucion. Utilizando la funcion de distribuci on,
calcula:
b) P(X /6)
c) P(X 3/8)
2.2) Una empresa fabrica antenas cuya vida util (medida en a nos) es una VA X con fdp dada
por:
f(x) =
_
C cos
_

10
x
_
si x (0, 5)
0 en otro caso
La empresa ofrece una garanta de dos a nos y medio; de modo que si la antena falla en ese
periodo, tendra que reemplazarla por una nueva.
a) Determina el valor de la constante C.
b) Calcula la probabilidad de que haya que reemplazar una antena en el periodo de
garanta.
c) Cual debera de ser el perodo de garanta si la empresa desea reemplazar tan s olo el
50 % de las antenas que vende?
d) Si un cliente ha recibido 10 antenas, calcula la probabilidad de que se estropeen exacta-
mente cuatro de ellas en el periodo de garanta. Asume independencia entre la duraci on
de distintas antenas.
2.3) Un canal transmite palabras de 8 bits. La probabilidad de transmitir incorrectamente un bit
es, independientemente de los dem as, 0.1. En recepcion se utiliza un codigo de correccion
que permite decodicar correctamente las palabras que contienen un m aximo de dos errores.
a) Calcula la probabilidad de que una palabra sea decodicada incorrectamente.
b) Calcula la probabilidad de que un mensaje de cuatro palabras sea decodicado correc-
tamente.
c) Suponiendo que se realizan sucesivas transmisiones independientes de palabras, deter-
mina la fdp de la VA denida como el n umero de palabras transmitidas correctamente
hasta decodicar incorrectamente una palabra.
2.4) Un cruce est a regulado por cuatro sem aforos. Los sem aforos pueden averiarse, por lo que
cada 24 horas acude un tecnico y los revisa. En caso de que esten averiados los arregla
inmediatamente. El tiempo que el semaforo i est a funcionando desde que es revisado hasta
que se avera es una VA X
i
con distribuci on exp(1/20), con el par ametro referido a horas,
independientemente de los demas sem aforos. En caso de avera, el semaforo no vuelve a
funcionar hasta que lo arregle el tecnico.
a) Determina la probabilidad de que el cruce este bien regulado entre dos visitas conse-
cutivas del tecnico.
b) Determina la probabilidad de que el tecnico no tenga que reparar todos los semaforos
en una visita.
c) Determina la probabilidad de que el tecnico tenga que reparar exactamente dos sem afo-
ros en una visita.
Universidad de Vigo. Problemas de PyE. Tema 2: Variables aleatorias unidimensionales 2.2
d) Un grupo de vecinos quiere sabotear el cruce. El sabotaje consiste en estropear un
sem aforo determinado y simular que es una avera, lo cual ocurre con una probabilidad
de 0.05. Se observa que dos horas despues de la visita del tecnico ese sem aforo no
funciona. Determina la probabilidad de que se hubiese producido un sabotaje.
2.5) Un transmisor emite impulsos de dos tipos. La amplitud de los impulsos de tipo I tiene como
fdp: f
1
(x) = x exp (x
2
/2) si x > 0 (distribuci on de Rayleigh con = 1); y la amplitud
de los impulsos tipo II es una N(5,2). Un receptor decide el tipo de impulso transmitido
comparando la amplitud de cada impulso recibido con un umbral U. Si la amplitud del
impulso es mayor que U, se decide que el impulso transmitido fue de tipo II, en caso
contrario se decide que fue de tipo I.
a) Determina el valor del umbral U de forma que la probabilidad de equivocacion al
transmitir un impulso de tipo II sea de 0.1. (Ver observaci on al nal de este problema).
b) Para el umbral obtenido en el apartado anterior, obten la probabilidad de equivocacion
al transmitir un impulso de tipo I.
c) Si se transmiten N impulsos sucesivos de tipo II; Cual es la probabilidad de que, al
menos M de ellos superen el umbral U?. Obten dicha probabilidad para N = 5, M = 4
y el valor del umbral U obtenido en el primer apartado.
Observaci on: para resolver este problema puede ser util que P(N(0,1) 1.29) = 0.1
2.6) Una compa na telefonica ha realizado un estudio para conocer el n umero de intentos nece-
sarios para conseguir lnea al llamar por telefono a una entidad bancaria. El estudio consiste
en llamar sucesivas veces de forma que, si se consigue lnea se acaba, y si no se consigue se
vuelve a intentar. Finalmente se ha comprobado que:
P(A
k+1
/A
k
) =
k
(k + 1)
k = 1, 2, . . .
donde A
k
= En el k-esimo intento de llamada el telefono comunica.
a) Indica si las siguientes aseveraciones son ciertas o falsas. Justica la respuesta.
1) A
k
y A
k+1
son independientes 2) A
k
y A
k+1
son disjuntos
3) A
k
y A
k+1
son iguales 4) La uni on de A
k
y A
k+1
es el espacio muestral
5) A
k
est a incluido en A
k+1
6) A
k+1
est a incluido en A
k
b) Si P(A
1
) = 0.3, calcula P(A
2
) y P(A
3
)
c) Calcula una expresi on general para la probabilidad de A
k
.
d) Calcula la funci on de densidad de probabilidad de una VA X denida como el n umero
de llamadas que tiene que realizar un usuario para poder establecer comunicaci on con
el banco.
2.7) La altura del agua de un embalse, medida en metros desde el fondo, seguira, idealmente,
una distribuci on exp(1/10). Sin embargo, por motivos de seguridad, hay un canal de desag ue
en la parte superior del embalse, que impide que la profundidad supere los 30 metros.
a) Determina la probabilidad de que se desperdicie agua.
b) Sea Y la VA que mide la altura en metros de agua acumulada en el embalse. Determina
la fdp de Y y su esperanza.
2.8) Una empresa A cubre una lnea de autobuses con un servicio cada hora. Otra empresa B
desea cubrir la misma lnea de forma que haya dos autobuses entre dos consecutivos de la
empresa A. Se supone que un usuario llega a la parada en cualquier instante para tomar
el primer autob us que salga. Si se pretende que el tiempo de espera, por termino medio,
sea lo menor posible; En que instante deben producirse las salidas de los autobuses de la
empresa B?
Universidad de Vigo. Problemas de PyE. Tema 2: Variables aleatorias unidimensionales 2.3
2.9) En un campeonato de tiro al blanco, un concursante dispara a una diana de radio 50 cm.
Si su disparo esta a una distancia del centro menor o igual que 10 cm alcanza la m axima
puntuaci on. Sea X la VA que mide la distancia en centmetros al centro de la diana en un
disparo. La FD de X es:
F(x) = 1 e

1
2
_
x
2
20
2
_
si x 0
a) Calcula la probabilidad de que el tirador acierte en la diana.
b) Se sabe que el tirador ha acertado en la diana; calcula la probabilidad de que alcance
la maxima puntuaci on.
c) El concursante realiza 6 disparos de forma independiente. Calcula la probabilidad de
que alcance la m axima puntacion exactamente tres veces.
2.10) Una sala de ordenadores tiene 10 terminales. El tiempo de uso en horas de un terminal es,
independientemente de los demas, una VA X con FD dada por:
F(x) =
_

_
0 si x < 0
e
x2
1 + e
x2
si x 0
a) Calcula P(X = 0).
b) Sea Y = e
X
. Calcula la FD de Y , indicando claramente el rango de Y .
c) Calcula el n umero medio de terminales que se usan 3 o menos horas.
d) Determina una transformaci on que permita generar muestras aleatorias de X a partir
de una VA U U(0,1).
2.11) La duracion en meses de un componente de un sistema es una VA X con distribuci on
exp(). La empresa responsable del mantenimiento sustituye el componente por otro nuevo
bien cuando se estropea o bien cuando han transcurrido 6 meses desde su puesta en fun-
cionamiento (aunque no este estropeado). Sea Y la VA que mide el tiempo de uso de un
componente.
a) Determina la fdp de Y . Comprueba que es fdp
b) Calcula E(Y )
2.12) Un jugador de golf intenta introducir una pelota en un hoyo situado a una distancia de 40
metros. Para ello la golpea y esta se pone en movimiento con una velocidad de magnitud V
que forma un angulo con la horizontal, siendo una VA U(0, /2). En estas condiciones
supongamos que la distancia horizontal que recorrera la pelota sea L = V
2
sen(2).
a) Asumiendo que V es determinista, calcula la fdp de L indicando su rango.
b) Supon ahora una nueva situacion en la que el jugador dispone de dos palos; el palo
uno, que proporciona una velocidad inicial v
1
= 6.4 m/s y el palo dos, que proporciona
una velocidad inicial v
2
= 7 m/s. Calcula, para cada palo:
-Longitud media recorrida por la pelota.
-Probabilidad de que la pelota quede a una distancia del hoyo menor o igual que 2
metros.
En base a las cantidades calculadas anteriormente, indica que palo elegiras y por que.
Observaci on: Para resolver este problema puede ser util la siguiente expresi on:
_
1

a
2
x
2
dx = arcsen
_
x
a
_
Universidad de Vigo. Problemas de PyE. Tema 2: Variables aleatorias unidimensionales 2.4
SOLUCIONES AL BOLET

IN DE PROBLEMAS
Tema 2: Variables aleatorias unidimensionales
2.1) a) f
X
(x) =
_
k cos(x) si 0 < x < /4
k sen(x) si /4 < x < /2
con k =

2
2
F
X
(x) =
_
k sen(x) si 0 < x < /4
1 k cos(x) si /4 < x < /2
con k =

2
2
b) 0.3535
c) 0.729
2.2) a) C = /10; b)

2/2; c) 5/3 a nos; d) 0.033


2.3) a) 0.038; b) 0.856; c) Geo(0.038)
2.4) a) 0.008; b) 0.761; c) 0.266; d) 0.357
2.5) a) U = 2.42; b) 0.053; c)0.9185
2.6) a) 1)F, 2)F, 3)F, 4)F, 5)F, 6)V
b) P(A
2
) = 0.3/2; P(A
3
) = 0.3/3
c) P(A
k
) = 0.3/k
d) P(X = 1) = 0.7; P(X = k) =
0.3
k(k 1)
con k > 1
2.7) a) e
3
; b) E(Y ) = 9.5
2.8) 1/3 y 2/3 de hora
2.9) a) 0.9561; b) 0.1229; c) 0.0223
2.10) a)
1
e
2
+ 1
b) F
Y
(y) =
y
e
2
+ y
si y 1
c) 7.31
d) g(u) =
_
_
_
0 si u < 0.12
2 + ln
_
u
1 u
_
si u > 0.12
2.11) a) f
Y
(y) = e
y
+ e
6
(y 6) si y (0, 6]
b) (1 e
6
)/
2.12) a) f
L
(l) =
2

v
4
l
2
si l (0, v
2
)
b)
E
1
= 26.08, P
1
= 0.24
E
2
= 31.19, P
2
= 0.0905
Universidad de Vigo. PyE. Practica 3 3.1
PROBABILIDAD Y ESTAD

ISTICA
Practica 3. Variables aleatorias discretas
Objetivos
- Repaso de los conceptos de funci on de densidad y funci on de distribuci on de probabilidad.
- Familiarizaci on con una serie de funciones de densidad de probabilidad de uso com un
asociadas a VA discretas.
- Relacion entre frecuencia relativa y probabilidad.
- Histograma: denici on y par ametros; relaci on con la funci on de densidad de probabilidad;
interpretaci on: importancia del n umero de clases.
- Interpretaci on gr aca en general: inuencia de la escala.
Introducci on
Las rutinas de esta pr actica permiten la visualizacion de una serie de funciones de densi-
dad de probabilidad de uso com un a las que se superpone un histograma obtenido a partir de
una muestra generada con la misma ley de probabilidad. Se pueden elegir los par ametros de la
distribuci on. Tambien se representa la FD y se pueden obtener probabilidades asociadas a la
distribuci on mediante una herramienta de calculo.
Ejecucion
Para entrar en la pr actica teclea estadlab en la ventana de comandos y despues selecciona
Variables Aleatorias. Aparecer a la ventana principal con una serie de botones asociados a
diferentes distribuciones.
Distribuci on Binomial: Bi(n, p) (25)
Recuerda que el n umero de exitos (casos en los que el resultado de un experimento perte-
nece a un suceso determinado), que se obtienen si se realiza un experimento n veces siendo la
probabilidad de exito p igual en todos los casos, sigue una distribucion binomial de par ametros n
y p. En el caso particular en el que n = 1 tenemos la distribuci on de Bernouilli, Ber(p).
Al elegir Histograma se generan muestras de una distribuci on binomial. Cada una de ellas
tomar a valores enteros entre 0 y n. Se representa el histograma de frecuencia relativa de cada
suceso, superpuesto a la funcion de densidad de la binomial.
Que es un histograma?
Un histograma es una representaci on gr aca de las frecuencias observadas de distintos suce-
sos de un experimento. Cada suceso se representa en el histograma mediante una barra. A la vista
de un histograma podemos saber que sucesos ocurren mas y menos a menudo en un experimento
dado. Concretamente el area de una barra indica la frecuencia relativa observada para el suceso
que representa. Al suceso asociado a una barra del histograma se le denomina clase.
A destacar:
- Observese como aumenta el parecido entre el histograma y la fdp teorica a medida que aumen-
tamos el n umero de muestras.
-Observese como la envolvente de esta se parece cada vez m as a una normal si aumentamos n.
Universidad de Vigo. PyE. Practica 3 3.2
-En este caso el n umero de clases no es un parametro por tratarse de una VA discreta nita (cada
clase se corresponde con uno de los valores pertenecientes al rango de la VA).
Cuestiones:
1) Indica si las siguientes variables aleatorias siguen una distribuci on binomial. Si es as indica
cu ales son sus parametros:
a) X: N umero de veces que sale un dos en un dado cuando se lanza cinco veces al aire.
b) X: N umero de intentos de llamada telef onica para conseguir lnea (suponiendo p, la
probabilidad de conseguir lnea, constante en todos los intentos).
c) Y = X
1
+ X
2
+ ... + X
30
; donde X
i
= 0 si llueve el da i-esimo y X
i
= 1 en otro caso,
y P(X
i
= 0) = p para i = 1, 2, ...30.
2) Sea X: N umero de veces que sale un 6 cuando se lanza al aire un dado 10 veces. Indica
si X sigue alguna de estas distribuciones:
a) Bi(6, 0.5); b) Bi(10, 5/6); c) Bi(10, 1/6); d) Bi(6, 1/6)
3) Si X Bi(7,0.3), calcula analticamente:
P(X = 3), P(3 X 5), P(X > 7)
4) Un experimento consiste en lanzar un dado al aire 5 veces y contar el n umero de veces que
ha salido un 2. El experimento se repite 20 veces y se obtienen los siguientes resultados: 1,
0, 1, 1, 0, 0, 2, 0, 0, 2, 0, 3, 0, 0, 0, 0, 1, 1, 0, 1.
a) Representa en un papel el histograma correspondiente a la muestra obtenida. Repre-
senta la fdp te orica superpuesta.
b) Han coincidido las frecuencias relativas con las probabilidades? Por que?
5) Indica si los siguientes enunciados sobre los histogramas que se representan junto con la fdp
de la distribuci on binomial son verdaderos o falsos:
a) El n umero de clases del histograma es n.
b) La altura de una barra del histograma coincide con la frecuencia relativa del suceso
que representa.
6) Sea X una VA con distribucion Bi(2, 0.5)
a) Calcula P(X = 0), P(X = 1) y P(X = 2)
b) Puede existir alguna muestra concreta de X de tama no 90 de forma que el histograma
ajuste perfectamente la fdp?
c) Y con una muestra de tama no 100?
7) Cuanto suma el area del histograma?
8) Cuantas clases tiene el histograma que se representa con la binomial?
Distribuci on Geometrica: Geo(p) (20)
Al elegir Histograma se generan n muestras de una geometrica (n umero de intentos para
conseguir el primer exito). Cada una de ellas tomara valores enteros entre 1 e . Se representa
el histograma de frecuencia relativa de cada suceso, superpuesto a la funcion de densidad de
la geometrica. Evidentemente, la representaci on graca se trunca (no podemos dibujar innitas
clases).
Universidad de Vigo. PyE. Practica 3 3.3
Observese como aumenta el parecido entre el histograma y la fdp te orica a medida que
aumentamos n. En este caso el n umero de clases no es un par ametro por tratarse de una VA
discreta.
Cuestiones:
1) Indica si las siguientes variables aleatorias siguen una distribucion geometrica:
a) X: N umero de intentos de llamada telef onica para conseguir lnea (suponiendo p, la
probabilidad de conseguir lnea, constante en todos los intentos).
b) X: N umero de intentos que necesita un saltador de altura para sobrepasar el list on
si dispone de 3 oportunidades y la probabilidad de sobrepasar el liston es la misma en
todos los intentos.
2) La asociacion espa nola contra la drogodependencia aconseja da tras da a un joven droga-
dicto que acuda a una charla sobre rehabilitacion. En cada ocasion, la probabilidad de que el
muchacho acepte es peque na (0.1), pero la asociaci on seguira insistiendo por siempre. Supo-
niendo que esta probabilidad se mantenga invariable, calcula manualmente la probabilidad
de los siguientes sucesos:
a) Exactamente al cabo de una semana el joven acepta el reto.
b) La asociaci on necesita como mucho 3 das para convencer al muchacho.
3) Indica si los siguientes enunciados sobre los histogramas que se representan junto con la fdp
de la distribuci on geometrica son verdaderos o falsos:
a) Es posible obtener una muestra cuyo histograma se ajuste perfectamente la fdp de una
Geo(0.5) con 125 muestras.
b) Es posible obtener una muestra cuyo histograma se ajuste perfectamente la fdp de una
Geo(0.5) con 1000 muestras.
4) Cuando se representa la FD de una Geo(0.5) se visualiza alg un punto con F(x) = 1?
5) Describe como generaras manualmente una muestra para representar un histograma de una
Geo(0.5).
Distribuci on Poisson: P() (15)
Al elegir Histograma se generan n muestras de una Poisson. Cada una de ellas tomara va-
lores enteros entre 0 e . Se representa el histograma de frecuencia relativa de cada suceso,
superpuesto a la funci on de densidad de la Poisson. Evidentemente, la representaci on gr aca se
trunca (no podemos dibujar innitas clases). El n umero de clases se calcula en torno a la media
() con un radio de cuatro desviaciones tpicas, con una representaci on mnima entre 0 y 10.
Observese como aumenta el parecido entre el histograma y la fdp te orica a medida que
aumentamos n. En este caso el n umero de clases no es un par ametro por tratarse de una VA
discreta.
Cuestiones:
1) Es una distribucion simetrica?
2) A que distribucion se parece cuando se hace grande? (tienes que introducir mediante
teclado el valor de deseado, la barra est a acotada superiormente en 3).
Universidad de Vigo. PyE. Practica 4 4.1
PROBABILIDAD Y ESTAD

ISTICA
Practica 4. Variables aleatorias continuas
Objetivos
- Repaso de los conceptos de funci on de densidad y funci on de distribuci on de probabilidad.
- Familiarizaci on con una serie de funciones de densidad de probabilidad continuas.
- Relacion entre frecuencia relativa y probabilidad.
- Histograma: denici on en el caso continuo y parametros; relaci on con la funci on de densi-
dad de probabilidad; interpretacion: importancia del n umero de clases.
- Familiarizaci on con la distribuci on normal: relaci on entre sus par ametros y la forma de la
distribuci on. La normal estandar (N(0,1)). Estandarizacion de una N(, ). Calculo de probabi-
lidades asociadas a una distribucion normal: empleo de las tablas.
Introducci on
Las rutinas de esta pr actica permiten la visualizaci on de una serie de funciones de densidad
de probabilidad de uso com un a las que se superpone un histograma obtenido a partir de una
muestra generada con la misma ley de probabilidad. Se pueden elegir los parametros de la distri-
buci on y el n umero de clases del histograma. Tambien se representa la FD y se pueden obtener
probabilidades asociadas a la distribucion mediante una herramienta de calculo.
Ejecucion
Para entrar en la pr actica teclea estadlab en la ventana de comandos y despues selecciona
Variables Aleatorias. Aparecer a la ventana principal con una serie de botones asociados a
diferentes distribuciones.
Histograma de una VA continua
Un histograma es una representaci on graca de las frecuencias observadas de distintos su-
cesos de un experimento. Los histogramas que representa el ordenador los obtiene a partir de la
simulaci on de un experimento cuyos resultados siguen una determinada distribuci on (la que se
estudia en cada caso).
Cada suceso se representa en el histograma mediante una barra cuya area representa la fre-
cuencia relativa del suceso que representa. Cuando manejabamos VA discretas, los sucesos eran
los posibles valores de la VA, pero con VA continuas no se puede aplicar la misma idea. Por ello
se dene un intervalo de valores, denominado clase, y se calcula la frecuencia relativa de cada
clase. Si representamos un histograma donde la altura de las barras fuese la frecuencia relativa,
el area total del histograma sera la longitud de cada clase (es una cuenta muy facil, intentala).
Por ello representamos las frecuencias relativas divididas por la longitud de cada clase. De esa
manera, el area total del histograma es una unidad, con lo que visualmente es comparable a la
fdp. Es evidente que seg un como denamos las clases, obtendremos histogramas distintos para
una misma muestra.
A la vista de un histograma podemos saber que sucesos ocurrieron m as y menos a menudo
en un experimento dado.
Distribuci on Normal: N(, ) (30)
Al elegir Histograma se generan n muestras de una normal con los par ametros especi-
cados. Hay dos gr acas distintas, que solo dieren en el n umero de clases empleadas para la
realizaci on del histograma. En ambos casos se superpone la fdp.
Universidad de Vigo. PyE. Practica 4 4.2
Observese el efecto que produce en la curva la variacion del par ametro sigma. Para ello se
pueden comparar dos fdp con el mismo y con distinto .
Cuestiones: Calcula las siguientes probabilidades con ayuda de una tabla. Utilizando el
boton de Calculos de la FD de una normal, comprueba posteriormente que los resultados son
correctos.
a) X N(0,1):
P(X < 1.2)
P(X > 2.36)
F
X
(0.7)
P(X > 2.3)
x tal que P(X x) = 0.8
x tal que P(x X x) = 0.99
/P(1.96 X 1.96) = 1
b) X N(3,2):
P(X < 1.2)
F
X
(0.7)
P(X > 2.3)
x tal que P(X x) = 0.7
Distribuci on Uniforme: U(a, b) (30)
Al elegir Histograma se generan n muestras de una uniforme. Se representa el histograma
de frecuencia relativa (histograma normalizado de tal forma que el area de cada una de sus barras
sea igual a la frecuencia relativa del suceso que representa) superpuesto a la funcion de densidad
de la uniforme. Hay dos gracas distintas, que solo dieren en el n umero de clases empleadas para
la realizaci on del histograma. (Las clases se eligen como intervalos de igual longitud que abarcan
el rango de la VA).
Observa que la distribuci on uniforme representa la generalizaci on de un experimento discreto
con resultados equiprobables al problema continuo (la probabilidad se reparte uniformemente en
todo el rango). A la hora de interpretar una gr aca en la que este presente un histograma habr a que
tener en cuenta:
-la denicion de las clases
-el n umero de muestras empleado (representatividad del histograma).
-las escalas empleadas (como en cualquier otra gr aca).
Antes de empezar con las cuestiones:
- Estudia como cambia el aspecto de la fdp y la FD si se cambian los parametros. Para ello utiliza
como ejemplo valores comprendidos en el rango de las barras deslizantes que aparecen en pantalla.
- Estudia como con distinto n umero de clases podemos manipular el histograma, de tal forma que
su apariencia sea m as o menos similar al de la funci on de densidad que lo genero.
- Comprueba que si se aumenta el n umero de clases, necesitamos un mayor n umero de muestras
para obtener un histograma similar a la funci on de densidad.
Cuestiones:
1) Indica si las siguientes armaciones son verdaderas o falsas (Con X U(a, b) y a < x < b):
a) P(X = x) = f(x)
b) P(X = x) = max{f(x), 0}
c) P(X = x) = 0
Universidad de Vigo. PyE. Practica 4 4.3
d) f(x) es una funci on creciente.
e) F(x) es una funci on no decreciente.
f) F(x) puede ser escalonada.
2) Indica si las siguientes variables aleatorias siguen una distribucion uniforme:
a) X: N umero que sale al lanzar un dado.
b) X: Media obtenida a partir de los n umeros que salen al lanzar dos dados.
c) X: Hora a la que se contesta a una llamada telef onica a una ocina sabiendo que su
horario es de 9:00 a 13:00 horas y que en principio no hay horas a las que sea mas
probable que se produzcan llamadas.
3) Calcula analticamente: P(X = 8), P(7 X 9), P(X > 7) donde X U(7,10).
4) Escribe en la ventana de comandos rand(1,20). Se visualizaran en pantalla 20 muestras
aleatorias de una distribuci on Uniforme (0,1).
a) Con esta informacion representa en un papel un histograma con 4 clases. Representa
la fdp te orica superpuesta.
b) Calcula las probabilidades de los sucesos correspondientes a cada clase.
c) Han coincidido las frecuencias relativas de los sucesos correspondientes a las clases
con sus probabilidades?
d) Podran haber coincidido? Razona la respuesta.
5) Indica si los siguientes enunciados sobre los histogramas que se representan junto con la fdp
de la distribuci on U(a, b) son verdaderos o falsos:
a) La altura de una barra del histograma coincide con la frecuencia relativa del suceso
que representa.
b) Es posible obtener un histograma que ajuste perfectamente la fdp con 125 muestras y
5 clases.
6) Que n umero de clases hace que el histograma coincida siempre exactamente con la funcion
de densidad de la uniforme?
7) Como generaras manualmente una muestra para dibujar un histograma de una U(0,10) si
s olo se denen dos clases?
Distribuci on Exponencial: exp() (15)
Al elegir Histograma se generan n muestras de una exponencial. Se representa el histo-
grama de frecuencia relativa (histograma normalizado de tal forma que el area de cada una de
sus barras sea igual a la frecuencia relativa del suceso que representa) superpuesto a la funci on
de densidad de la exponencial. Hay dos gracas distintas, que s olo dieren en el n umero de clases
empleadas para la realizaci on del histograma. (Las clases se eligen como intervalos de igual lon-
gitud que abarcan el rango de la muestra).
Observese que si la distribuci on uniforme puede considerarse la generalizaci on de un ex-
perimento discreto con todos los resultados equiprobables al problema continuo, la exponencial
tambien puede considerarse una generalizaci on de la geometrica.
Cuestiones:
1) Un fabricante de ordenadores nos dice que el tiempo que pasa desde que compramos un
determinado modelo de ordenador hasta que este tiene una avera, sigue una distribucion
exp(1/5), con el par ametro expresado en a nos.
a) Cual es la probabilidad de que al cabo de 2 a nos todava no hayamos llevado el
ordenador al servicio tecnico?
b) Sabiendo que han pasado 2 a nos sin averas, cual es la probabilidad de que en los
siguientes dos a nos no llevemos el ordenador al servicio tecnico?
Universidad de Vigo. PyE. Practica 5 5.1
PROBABILIDAD Y ESTAD

ISTICA
Practica 5. Esperanzas y transformaciones
Objetivos
- Repaso de los contenidos teoricos de esperanzas y varianzas.
- Estudio de las transformaciones de VA uniformes para conseguir otras VA uniformes o VA
discretas equiprobables.
- La exponencial como distribucion sin memoria.
- Introduccion a la representacion gr aca de funciones con Matlab.
Ejecucion
Algunos de los ejercicios de esta pr actica se har an directamente en la ventana de comandos
de Matlab y otros estan integrados en estadlab, en algunos casos en el m odulo de Esperanzas
y en otros en el m odulo de Transformaciones.
El concepto de esperanza y su interpretaci on frecuencial (25)
En este ejercicio se trata de repasar algunas ideas basicas sobre la esperanzas, entre ellas su
interpretaci on frecuencial, esto es, que la esperanza de una VA se aproxima por el promedio de
las muestras de dicha VA cuando el n umero de muestras considerado es grande. Se encuentra en
el modulo de Esperanzas de estadlab. Se divide la practica en dos experimentos.
Experimento 1
Sea X: Valor obtenido al lanzar un dado.
1) Calcula la esperanza de X. Introduce el valor en el ordenador y pulsa enter para poder
continuar. A continuacion se generan muestras de esta VA (puedes seleccionar el tama no
muestral). Pulsando el boton Representar obtendr as un histograma de frecuencias abso-
lutas y el valor promediado de todas las muestras obtenidas. Si pulsas el bot on Evolucion
de la estimaci on observaras c omo cambia el promedio en funcion del n umero de muestras.
2) Realiza diferentes simulaciones variando el tama no muestral.
Por ejemplo, n = 20, 50, 100, 500, . . . Anota en cada caso el valor del promedio obtenido y
comp aralo con la media teorica. Que ocurre a medida que aumenta el tama no muestral?
Comprueba que el promedio de muchas muestras de X se aproxima mucho su esperanza.
Experimento 2
Sea X una VA con distribucion Geo(p)
1) Calcula la esperanza de X suponiendo que p = 1/4. Introduce el valor en el ordenador y
pulsa enter para poder continuar.
2) Asumiendo p = 1/4, realiza diferentes simulaciones variando el tama no muestral. Por ejem-
plo, n = 20, 50, 100, 500, . . . Anota en cada caso el valor del promedio obtenido y comparalo
con la media te orica. Que ocurre a medida que aumenta el tama no muestral?
3) Repite el apartado anterior para otros valores de p. Por ejemplo p = 1/2 y p = 1/8. Se
sigue manteniendo el parecido entre la media muestral y la media teorica?
Cuestiones:
1) Indica si las siguientes armaciones son verdaderas o falsas:
a) La esperanza de una VA no tiene porque pertenecer a su rango.
b) La esperanza de una VA es siempre mayor o igual que el extremo inferior de su rango.
c) La esperanza de una VA es siempre mayor que el mnimo de los valores obtenidos en
varias realizaciones de dicha VA.
Universidad de Vigo. PyE. Practica 5 5.2
2) Indica si las siguientes armaciones son verdaderas o falsas:
a) La probabilidad de que una unica muestra de una VA sea superior a su esperanza es
de 0.5.
b) La esperanza de una VA es el valor para el que se obtiene el maximo de la fdp.
3) Sea X una VA con fdp: f(x) = x/2 si 0 < x < 2
a) Calcula E(X)
b) Calcula E(X
2
)
c) Calcula E(X
4
)
d) Sea Y = g(X) = 2X
2
1. Calcula E(Y )
e) Sea Y = g(X) = 2X
2
1. Calcula E(Y
2
)
f) Sea Z = g(X) = 1/X. Calcula E(Z)
g) Coinciden E(1/X) y 1/E(X)?
Los conceptos de varianza y desviacion tpica (15)
En este ejercicio se trata de comprobar que la varianza de una VA es un parametro que mide
la dispersi on de la VA con respecto a la esperanza. Se encuentra en el m odulo de Esperanzas de
estadlab.
1) Sea X una VA U(-2,2) e Y una VA U(-4,4).
Obten la esperanza y la varianza de X y de Y . Introduce los valores en el ordenador para
poder continuar. Como puedes ver, ambas tienen la misma esperanza, pero su varianza es
distinta. A continuacion se generar an muestras de ambas VA. Para ello debes seleccionar un
n umero de realizaciones y pulsar el bot on Obtener muestras. Observar as un histograma
de cada una. Fjate que ambos histogramas estan centrados aproximadamente en el mismo
valor. Cu al de los dos histogramas presenta una dispersion mayor?
2) Sea X una VA U(-2,2) e Y una VA U(-1,3).
Selecciona en el ordenador los extremos correspondientes de ambas uniformes. Obten la
esperanza y la varianza de X y de Y . Introduce los valores en el ordenador para poder
continuar. Como puedes ver, ambas comparten la misma varianza, pero su esperanza es
distinta. A continuacion se generar an muestras de ambas VA. Para ello debes seleccionar un
n umero de realizaciones y pulsar el bot on Obtener muestras. Observar as un histograma
de cada una. Fjate que los dos histogramas est an ahora centrados en valores diferentes.
Cu al de los dos histogramas presenta una dispersion mayor?
Cuestiones:
1) Indica si las siguientes armaciones son verdaderas o falsas:
a) La desviacion tpica de una VA es un parametro que no puede tomar valores negativos.
b) Si nos dicen que la esperanza de una distribucion uniforme es 0, ya podemos deducir
el valor de su desviaci on tpica.
c) Para conocer la desviacion tpica de una VA es suciente con conocer su rango.
2) Indica si las siguientes armaciones son verdaderas o falsas:
a) A la desviacion tpica tambien se le conoce con el nombre de varianza.
b) A partir de la fdp de una VA se puede calcular su varianza, pero lo contrario no es
cierto.
3) Sea X una VA con fdp: f(x) = x/2 si 0 < x < 2.(Sugerencia: revisa la cuesti on 3 de la
secci on anterior)
a) Calcula Var(X).
b) Calcula la desviaci on tpica de X.
c) Sea Y = g(X) = 2X
2
1. Calcula Var(Y ).
Universidad de Vigo. PyE. Practica 5 5.3
Transformaciones de VA uniformes (25)
Esta pr actica se realiza directamente desde la ventana de comandos de Matlab, por lo que no
es necesario el software Estadlab. En ella estudiaremos como conseguir, a partir de una VA U(0,1),
muestras de VA con distribuciones uniformes cualesquiera o de VA discretas equiprobables.
1) Sea X una VA U(0,1). Sobre ella realizamos la transformacion:
Y = g(X) = (b a) X + a
siendo a y b n umeros reales, con a < b. Determina la fdp de la VA Y .
2) Sea X U(0,1).
a) Determina una transformaci on g(X) de forma que la VA resultante Y = g(X) tenga
una distribucion U(0,2).
b) Utilizando el comando rand genera 1000 muestras de la VA X y representalas en un
histograma, utilizando el comando hist. Verica su sintaxis con el comando help, pres-
tando especial atenci on a como denir el n umero de clases deseadas en el histograma.
Observa tambien que el histograma representado es de frecuencias absolutas, en lugar
de frecuencias relativas.
c) Transforma las 1000 muestras obtenidas en el apartado anterior para obtener 1000
muestras de una VA Y con distribucion U(0,2). Representa un histograma de Y .
3) Repite los pasos a), b) y c) de la cuesti on 2) para obtener 1000 muestras de una VA U(-3,1)
4) Sea X U(0, n), siendo n un n umero natural. Realizamos la transformaci on Y = g(X) =
Int(X) siendo Int(x) la parte entera de x, es decir, el entero inmediatamente inferior a x.
En Matlab, esta funcion se consigue mediante el comando oor. Determina la funcion de
masa de probabilidad de Y .
5) Se desea simular con ayuda del ordenador el resultado obtenido en el lanzamiento de un
dado. Sea Y la VA que mide el n umero obtenido.
a) Escribe la funcion de masa de probabilidad de Y
b) Determina una transformaci on para obtener la VA Y a partir de una VA X U(0,1)
c) Con ayuda de los comandos rand, oor e hist genera una muestra de tama no 1000
de la VA Y y representa un histograma de la misma.
La exponencial como distribucion sin memoria (15)
A esta practica se accede seleccionando Exponencial condicionada en el modulo de
Transformaciones de estadlab.
En esta practica se estudia la fdp de una exponencial condicionada por dos sucesos concretos
(ver ejemplo 3.2 de los apuntes). Uno de los casos servir a de ilustracion de como la exponencial
es una distribuci on sin memoria.
En la ventana de trabajo se representa la fdp de una exponencial de parametro alfa y dos
versiones condicionadas de la misma. Concretamente los sucesos por los que se condiciona la dis-
tribuci on son: {X > cota} , {X < cota}, donde cota es un valor introducido por el usuario.
Acompa nando a las fdp se representan los histogramas correspondientes, condicionados o
no condicionados, pero en todo caso calculados a partir del mismo conjunto muestral (las mues-
tras que se obtienen de la exponencial). Es decir, para obtener el histograma condicionado por
{X >cota}, se toman de las n muestras obtenidas de la exponencial, s olo aquellas que cumplan
dicha condici on. En las gracas se especican las expresiones de las fdp representadas.
Pulsa el bot on Representar cada vez que desees actualizar las gr acas. Utiliza un tama no
muestral grande y un n umero de clases apropiado para comprobar que se verica la propiedad
bajo estudio. De este modo el histograma ser a muy similar a la densidad te orica.
Universidad de Vigo. PyE. Practica 5 5.4
Cuestiones
1) Calcula la expresi on general para f(x/X <cota)
2) Cual de las dos exponenciales condicionadas resultantes se parece m as a una exponencial?
3) En ocasiones el resultado de la simulacion es tal que alguno de los dos histogramas con-
dicionados no se puede representar, puesto que no se han obtenido muestras mayores o
menores que la cota seleccionada (prueba, por ejemplo, con los valores alfa=0.05 y cota=6).
Concretamente, cual es la probabilidad de que alguno de los histogramas condicionados no
se represente si se ha jado n = 50, = 0.5 y cota=3?
Distribucin normal estndar
Z~N(0,1)
Tabla de la funcin de distribucin:
P(Z!z) = p
En la tabla figuran los valores de
probabilidad acumulada p
en funcin de z.
z 0.00 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09
0.0 0.5000 0.5040 0.5080 0.5120 0.5160 0.5199 0.5239 0.5279 0.5319 0.5359
0.1 0.5398 0.5438 0.5478 0.5517 0.5557 0.5596 0.5636 0.5675 0.5714 0.5753
0.2 0.5793 0.5832 0.5871 0.5910 0.5948 0.5987 0.6026 0.6064 0.6103 0.6141
0.3 0.6179 0.6217 0.6255 0.6293 0.6331 0.6368 0.6406 0.6443 0.6480 0.6517
0.4 0.6554 0.6591 0.6628 0.6664 0.6700 0.6736 0.6772 0.6808 0.6844 0.6879
0.5 0.6915 0.6950 0.6985 0.7019 0.7054 0.7088 0.7123 0.7157 0.7190 0.7224
0.6 0.7257 0.7291 0.7324 0.7357 0.7389 0.7422 0.7454 0.7486 0.7517 0.7549
0.7 0.7580 0.7611 0.7642 0.7673 0.7704 0.7734 0.7764 0.7794 0.7823 0.7852
0.8 0.7881 0.7910 0.7939 0.7967 0.7995 0.8023 0.8051 0.8078 0.8106 0.8133
0.9 0.8159 0.8186 0.8212 0.8238 0.8264 0.8289 0.8315 0.8340 0.8365 0.8389
1.0 0.8413 0.8438 0.8461 0.8485 0.8508 0.8531 0.8554 0.8577 0.8599 0.8621
1.1 0.8643 0.8665 0.8686 0.8708 0.8729 0.8749 0.8770 0.8790 0.8810 0.8830
1.2 0.8849 0.8869 0.8888 0.8907 0.8925 0.8944 0.8962 0.8980 0.8997 0.9015
1.3 0.9032 0.9049 0.9066 0.9082 0.9099 0.9115 0.9131 0.9147 0.9162 0.9177
1.4 0.9192 0.9207 0.9222 0.9236 0.9251 0.9265 0.9279 0.9292 0.9306 0.9319
1.5 0.9332 0.9345 0.9357 0.9370 0.9382 0.9394 0.9406 0.9418 0.9429 0.9441
1.6 0.9452 0.9463 0.9474 0.9484 0.9495 0.9505 0.9515 0.9525 0.9535 0.9545
1.7 0.9554 0.9564 0.9573 0.9582 0.9591 0.9599 0.9608 0.9616 0.9625 0.9633
1.8 0.9641 0.9649 0.9656 0.9664 0.9671 0.9678 0.9686 0.9693 0.9699 0.9706
1.9 0.9713 0.9719 0.9726 0.9732 0.9738 0.9744 0.9750 0.9756 0.9761 0.9767
2.0 0.9772 0.9778 0.9783 0.9788 0.9793 0.9798 0.9803 0.9808 0.9812 0.9817
2.1 0.9821 0.9826 0.9830 0.9834 0.9838 0.9842 0.9846 0.9850 0.9854 0.9857
2.2 0.9861 0.9864 0.9868 0.9871 0.9875 0.9878 0.9881 0.9884 0.9887 0.9890
2.3 0.9893 0.9896 0.9898 0.9901 0.9904 0.9906 0.9909 0.9911 0.9913 0.9916
2.4 0.9918 0.9920 0.9922 0.9925 0.9927 0.9929 0.9931 0.9932 0.9934 0.9936
2.5 0.9938 0.9940 0.9941 0.9943 0.9945 0.9946 0.9948 0.9949 0.9951 0.9952
2.6 0.9953 0.9955 0.9956 0.9957 0.9959 0.9960 0.9961 0.9962 0.9963 0.9964
2.7 0.9965 0.9966 0.9967 0.9968 0.9969 0.9970 0.9971 0.9972 0.9973 0.9974
2.8 0.9974 0.9975 0.9976 0.9977 0.9977 0.9978 0.9979 0.9979 0.9980 0.9981
2.9 0.9981 0.9982 0.9982 0.9983 0.9984 0.9984 0.9985 0.9985 0.9986 0.9986
3.0 0.9987 0.9987 0.9987 0.9988 0.9988 0.9989 0.9989 0.9989 0.9990 0.9990
3.1 0.9990 0.9991 0.9991 0.9991 0.9992 0.9992 0.9992 0.9992 0.9993 0.9993
0.9993 0.9993 0.9994 0.9994 0.9994 0.9994 0.9994 0.9995 0.9995 0.9995 3.2
3.3 0.9995 0.9995 0.9995 0.9996 0.9996 0.9996 0.9996 0.9996 0.9996 0.9997
3.4
3.5
0.9997
0.9998
0.9997
0.9998
0.9997
0.9998
0.9997
0.9998
0.9997
0.9998
0.9997
0.9998
0.9997
0.9998
0.9997
0.9998
0.9997
0.9998
0.9998
0.9998
3.6 0.9998 0.9998 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999
Observaciones: Si X~N(,!), entonces: Z=(X-)/! sigue una distribucin N(0,1)
p=rea










TEMA 3 VECTORES ALEATORIOS
PROBABILIDAD Y ESTADSTICA (PE)
2010/2011
Universidad de Vigo. PyE. Tema 3: Vectores aleatorios 3.1
Tema 3. Vectores aleatorios
1. Introducci on
A menudo en un experimento no se observa una sola variable, sino un conjunto de variables.
Si el comportamiento de cualquiera de estas variables no aporta ninguna informacion sobre el
estado en el que est an las dem as, podramos emplear para cada una de ellas los modelos proba-
bilsticos unidimensionales que hemos estudiado hasta ahora. Sin embargo, es habitual encontrarse
con sistemas fsicos en los cuales existe una cierta relacion de dependencia entre sus variables.
En este caso, las variables aleatorias unidimensionales no proporcionan toda la informaci on pro-
babilstica del sistema. Veamos un ejemplo. Supongamos que queremos estudiar el peso (X) y la
talla (Y ) en una poblaci on. A partir de los modelos probabilsticos que se dispongan para cada
variable por separado (f
X
(x) y f
Y
(y)), podemos calcular, por ejemplo, la probabilidad de que
el peso tome valores entre 60Kg y 70Kg o de que la talla sea superior a 180cm. Sin embargo,
frecuentemente resulta de interes obtener la probabilidad de sucesos mas complejos que involu-
cran simult aneamente a las dos variables. Por ejemplo, nos podra interesar conocer cu al es la
probabilidad de que un individuo de la poblacion presente una talla de entre 140cm y 150cm y
un peso superior a 80 Kg. La probabilidad de una intersecci on de sucesos de este tipo no siempre
se puede calcular conociendo unicamente las fdp unidimensionales de X e Y . De hecho s olo es
posible calcularla de este modo cuando ambas variables son independientes. Este no es el caso
del ejemplo que nos ocupa, donde s existe relaci on entre las VA, puesto que, si un individuo es
m as alto que otro es m as probable que su peso tambien sea mayor. Es m as, valores de un peso
que para una talla determinada pueden ser habituales, pueden ser realmente extra nos para otro
valor de talla. Cuando existe relaci on entre las VA, es decir, cuando el conocer informaci on sobre
el resultado de una de ellas aporta informaci on sobre la otra, es conveniente conocer y cuanticar
esta relaci on de dependencia. Necesitamos pues, una nueva herramienta que tenga en cuenta esta
dependencia y que nos permita calcular la probabilidad de la intersecci on de sucesos relativos a
dos o m as VA. Los vectores aleatorios y las fdp y FD multidimensionales asociadas constituyen
esta nueva herramienta.
2. Funciones de distribucion y de densidad conjuntas
Denici on: Vector Aleatorio:

X = (X
1
, X
2
, . . . , X
n
) es un vector aleatorio n-dimensional si X
i
es una VA i.
2.1. Funcion de distribuci on
Denici on: Funci on de distribuci on de un vector aleatorio: Sea (X
1
, X
2
, . . . , X
n
) un vector
aleatorio. Se dene su FD como:
F(x
1
, x
2
, . . . , x
n
) = P(X
1
x
1
X
2
x
2
. . . X
n
x
n
) = P(X
1
x
1
, X
2
x
2
, . . . , X
n
x
n
)
Observaci on: La notaci on de sucesos separados por comas debe entenderse como una intersecci on.
Observaci on: En el caso de un vector aleatorio bidimensional (X, Y ), la FD sera de la forma:
F
XY
(x, y) = P(X x, Y y)
Universidad de Vigo. PyE. Tema 3: Vectores aleatorios 3.2
Los sucesos como {X x, Y y} son regiones del plano (X, Y ).
Propiedades de la FD de los vectores aleatorios (referidas a 2 dimensiones, aunque f acilmente
generalizables a dimension superior):
1) F(+, +) = P(X +, Y +) = 1
2) F(, y) = P(X , Y y) = 0 y; F(x, ) = P(X x, Y ) = 0 x
3) F(x, y) es no decreciente y continua por la derecha en x y en y, es decir:
F(x
2
, y) F(x
1
, y) x
2
x
1
, y; F(x, y
2
) F(x, y
1
) y
2
y
1
, x
F(x
+
, y) = F(x, y) x, y; F(x, y
+
) = F(x, y) x, y
4) Si x
1
x
2
e y
1
y
2
entonces:
P(x
1
< X x
2
, y
1
< Y y
2
) = F(x
2
, y
2
) + F(x
1
, y
1
) F(x
2
, y
1
) F(x
1
, y
2
)
Teorema: Cualquier funcion que verique las propiedades 1), 2) y 3) y la siguiente condicion:
F(x
2
, y
2
) + F(x
1
, y
1
) F(x
1
, y
2
) F(x
2
, y
1
) 0 x
2
> x
1
, y
2
> y
1
es FD de alg un vector aleatorio bidimensional.
2.2. Funcion de densidad
Denici on: Funci on de densidad de probabilidad de un vector aleatorio:
Sea (X
1
, X
2
, ..., X
n
) un vector aleatorio. Se dene su fdp como:
f(x
1
, x
2
, . . . , x
n
) =

n
F(x
1
, x
2
, . . . , x
n
)
x
1
x
2
. . . x
n
Observaci on: En el caso de un vector aleatorio bidimensional (X, Y ), la fdp sera de la forma:
f(x, y) =

2
F(x, y)
xy
Observaci on: Al igual que en el caso unidimensional, la derivada de la FD no esta siempre
denida. Mas adelante veremos como resolver este problema.
Universidad de Vigo. PyE. Tema 3: Vectores aleatorios 3.3
Propiedades de la fdp de los vectores aleatorios (referidas a 2 dimensiones):
1) f(x, y) 0 x, y
2)
_
+

_
+

f
XY
(x, y)dxdy = 1. Es decir, el volumen bajo la curva es igual a una unidad.
3) F
XY
(x, y) =
_
x

_
y

f
XY
(u, v)dvdu
4) Si D R
2
entonces:
P((X, Y ) D) =
_ _
D
f
XY
(x, y)dxdy
Dada una region D del plano (X, Y ), su probabilidad viene dada por el volumen encerrado
por f(x, y) correspondiente a dicha regi on. Esta propiedad es cierta para pr acticamente
todos los recintos D. Existen algunos que no aparecen en la practica por lo que no seran de
interes.
Teorema: Cualquier funci on que verique las propiedades 1)y 2) es fdp de alg un vector
aleatorio bidimensional.
Observaci on: Si comparamos las propiedades de la FD y de la fdp, se puede observar que
esta ultima es una herramienta m as vers atil para el calculo de probabilidades. Mientras que con la
FD es sencillo calcular probabilidades asociadas a regiones del plano rectangulares (propiedad 4)
de la FD), la fdp permite calcular mediante una integral (propiedad 4) de la fdp) la probabilidad
asociada a una regi on generica D, sea rectangular o no.
2.2.1. Distribuci on uniforme multidimensional
Sea

X = (X
1
, X
2
, . . . , X
n
) un vector aleatorio. Se dice que sigue una distribuci on uniforme
n-dimensional si f(x
1
, x
2
, ..., x
n
) es constante en todo el rango de

X .
En el caso de un vector aleatorio bidimensional (X, Y ) se dice que sigue una distribucion
uniforme si f(x, y) es constante para todo (x, y) perteneciente al rango del vector aleatorio. Por
tanto, el valor de f(x, y) sera igual al cociente entre 1 y el area de la regi on del plano (X, Y )
donde el vector aleatorio este denido.
Universidad de Vigo. PyE. Tema 3: Vectores aleatorios 3.4
A continuaci on compararemos gracamente el caso unidimensional y el bidimensional. En
la siguiente gura se representa la fdp de una VA X U(a, b) y el area correspondiente a la
probabilidad del suceso {x
1
< X x
2
}. Esta fdp es una funci on que depende de una variable y
la probabilidad del intervalo equivale al area de la supercie bajo la curva en dicho intervalo. A
intervalos de igual longitud incluidos en el rango, les corresponde la misma probabilidad.
En la gura siguiente se representa la fdp de una uniforme bidimensional (X, Y ) denida
en la regi on {(x, y)/x (3, 7), y (2, 2)}. En este caso la fdp es una funcion que depende de
dos variables y su representaci on graca es tridimensional.
Por otra parte, los sucesos relativos al vector aleatorio (X, Y ) son regiones del plano, y su
probabilidad viene dada en este caso por el volumen bajo la curva asociado a dichas regiones. A
supercies de igual tama no incluidas en el rango, les corresponde la misma probabilidad.
Universidad de Vigo. PyE. Tema 3: Vectores aleatorios 3.5
Ejercicio 3.1: Sea (X, Y ) un vector aleatorio que sigue una distribuci on uniforme bidimensional y
cuyo rango viene denido por el conjunto {(x, y)/x (3, 7), y (2, 2)}. Calcula la probabilidad
del suceso {4 < X 5, 0 < Y 1}.
3. Marginales. Masas puntuales y lineales
Denici on: FD (fdp) marginal y FD (fdp) conjunta
A la FD (fdp) de un vector aleatorio se le denomina FD (fdp) conjunta. Las FD (fdp)
marginales son las correspondientes a las VA unidimensionales que componen el vector aleatorio.
A partir de la FD (fdp) conjunta siempre se pueden calcular las FD (fdp) marginales. El recproco
en general no es cierto.
Sea (X, Y ) un vector aleatorio. Entonces:
FD marginal de X : F
X
(x) = P(X x) = P(X x, Y +) = F
XY
(x, +)
FD marginal de Y : F
Y
(y) = F
XY
(+, y)
fdp marginal de X : f
X
(x) =
dF
X
(x)
dx
=
F
XY
(x, +)
x
=
_
+

f
XY
(x, y)dy
fdp marginal de Y : f
Y
(y) =
_
+

f
XY
(x, y)dx
Si F(x, y) no es derivable, la funcion f(x, y) no existe tal y como la hemos denido. En
el caso unidimensional se denio f(x) a partir de la funci on impulso (x). Se puede hacer lo
mismo en el caso bidimensional (y multidimensional), aunque la matem atica se complica. Como
consecuencia, optaremos por emplear la funcion de masa de probabilidad para caracterizar las
VA discretas que formen parte un vector aleatorio. Como ya sabemos, emplear la fdp o la funcion
de masa de probabilidad es equivalente y por tanto la eleccion de una u otra es indiferente.
Ejemplo Masas puntuales (Dos VA discretas)
Sea (X, Y ) un vector aleatorio, donde X e Y son VA discretas. Sean R
X
= {x
1
, . . . , x
N
} y
R
Y
= {y
1
, . . . , y
M
}.
La funcion de masa de probabilidad conjunta es P(X = x
i
, Y = y
j
) = p
ij
En este caso se habla de masas puntuales, debido a que el rango del vector aleatorio est a formado
por un conjunto de puntos aislados.
Universidad de Vigo. PyE. Tema 3: Vectores aleatorios 3.6
Evidentemente:
N

i=1
M

j=1
p
ij
= 1
La FD conjunta se puede calcular a partir de la funcion de masa de probabilidad conjunta:
F(x, y) = P(X x, Y y) =

{i/x
i
x}

{j/y
j
y}
p
ij
Las funciones de masa de probabilidad marginales son:
P(X = x
i
) =
M

j=1
p
ij
P(Y = y
j
) =
N

i=1
p
ij
Ejemplo Masas lineales (Una VA discreta y otra VA continua)
Sea (X, Y ) un vector aleatorio, donde X es una VA discreta e Y una VA continua. Sean
R
X
= {x
1
, . . . , x
N
} y R
Y
= (y
a
, y
b
).
El rango conjunto esta formado por una serie de lneas paralelas al eje Y (masas lineales).
No se puede calcular una funci on de masa de probabilidad conjunta, puesto que una de las VA
es continua y cualquiera de los puntos que forman el rango conjunto tienen probabilidad cero.
Para describir adecuadamente esta VA, ser a necesario conocer las probabilidades conjuntas
del tipo P(X = x
i
, y
1
< Y y
2
) o equivalentemente conocer la expresi on de su FD conjunta:
F(x, y) = P(X x, Y y) =

{i/x
i
x}
P(X = x
i
, Y y)
Universidad de Vigo. PyE. Tema 3: Vectores aleatorios 3.7
El vector aleatorio (X, Y ) estara caracterizado mediante una fdp y una FD conjuntas. La
fdp conjunta solamente puede ser no nula en las masas lineales que denen el rango del vector
aleatorio.
La VA X es discreta, y se puede determinar su funci on de masa de probabilidad marginal
o expresar su fdp a partir de la funci on delta:
P(X = x
i
) = P(X = x
i
, < Y < +) =
_
+

f(x
i
, y)dy
f(x) =

i
P(X = x
i
)(x x
i
)
La marginal de Y es una fdp, puesto que Y es continua:
f(y) =
_
+

f(x, y)dx =

i
f(x
i
, y)
4. Distribuciones condicionales. Independencia
En temas anteriores se deni o la probabilidad del suceso A condicionada por el suceso B
como:
P(A/B) =
P(A B)
P(B)
donde P(B) > 0
El hecho de que ocurra el suceso B cambia el espacio de probabilidad original, y por lo
tanto, las condiciones del experimento, por lo que en general P(A/B) = P(A). Las probabilidades
de los sucesos denidos en el ambito de las VA ({X < x
1
}, {x
1
< X x
2
}, etc.), se rigen por los
mismos axiomas que los sucesos denidos en un ambito cualitativo. Por tanto, tiene sentido denir
VA condicionadas y denir su FD y fdp correspondientes. Al condicionar una VA por un suceso,
en general, cambiara su distribucion de probabilidad. Por ejemplo, supongamos que X N(0,1).
Se impone una condicion al experimento de tal modo que se sabe que X > 0. Tendramos que
hablar entonces de una nueva VA X/(X > 0) (X condicionada a que X > 0). Evidentemente la
condici on impuesta afecta a la distribuci on de la VA, ya que en este caso transforma incluso su
rango (X puede tomar cualquier valor real, mientras que X/(X > 0) s olo toma valores positivos).
Denici on: Variable aleatoria condicionada
Sea X una VA y sea M un suceso tal que P(M) > 0. Se dene la VA X/M como la VA que
tiene como FD:
F(x/M) = P(X x/M) =
P(X x, M)
P(M)
Obviamente, si derivamos obtenemos la fdp condiconada f(x/M). Al ser X/M una VA
tendr a sentido tambien hablar de su esperanza. Se dene esperanza condicionada como:
E(X/M) =
_
+

xf(x/M)dx
Aunque las FD condicionadas estaran denidas para cualquier suceso M, son especialmente
interesantes los casos en los que el suceso M est a relacionado con la misma VA (por ejemplo
M = {a < X b}) o con otra VA (por ejemplo M = {Y y}).
Universidad de Vigo. PyE. Tema 3: Vectores aleatorios 3.8
Ejemplo Sea M = {a < X b} con a < b y X VA continua. Aplicando la denici on de FD
condicionada, se obtiene:
F(x/a < X b) =
P(X x, a < X b)
P(a < X b)
=
_

_
0 si x < a
F(x) F(a)
F(b) F(a)
si a x < b
1 si x b
Derivando la expresi on anterior, se obtiene la fdp condicionada:
f(x/a < X b) =
_
_
_
f(x)
F(b) F(a)
si a x < b
0 en otro caso
Observa que la funcion que dene la fdp condicionada es la misma, tan solo aparece reesca-
lada por una constante para que el area bajo la nueva curva siga siendo una unidad.
Ejemplo 3.1: Sea X la VA que mide el n umero de escalones que sube un individuo hasta que
resbala y se cae. La probabilidad de caerse en cualquier escal on es p. Si se supone que la escalera
tiene innitos escalones, calcula:
a) La fdp de X.
b) La fdp de X si el individuo ya ha subido dos pelda nos sin resbalar.
Representa gr acamente ambos resultados y observa sus diferencias y similitudes.
Universidad de Vigo. PyE. Tema 3: Vectores aleatorios 3.9
Ejemplo 3.2: Sea X la VA que mide el n umero de metros que sube un patinador a lo largo
de un plano inclinado hasta que resbala y se cae. Suponiendo que en todo el plano inclinado
la probabilidad de caerse es constante, resulta adecuado modelar X mediante una distribucion
exp().
a) Representa gracamente la fdp de X.
b) Calcula la fdp de X si el patinador ya ha avanzado dos unidades de distancia sin resbalar.
Representala gracamente y comp arala con el resultado anterior.
La FD y la fdp se pueden expresar en funci on de una serie de FD y fdp condicionadas por
un conjunto de sucesos que formen una particion. En el caso de la expresion de la FD se trata de
un caso particular del teorema de las probabilidades totales.
Teorema: Probabilidades totales aplicado a FD
Sea {A
1
, A
2
, ..., A
n
, ...} una particion de . Entonces:
F(x) =

i
F(x/A
i
)P(A
i
)
La demostraci on es trivial, puesto que la expresion anterior es una aplicacion directa del
teorema de las probabilidades totales.
P(X x) =

i
P(X x/A
i
)P(A
i
)
Teorema: Probabilidades totales aplicado a fdp
Sea {A
1
, A
2
, ..., A
n
, ...} una particion de . Entonces: f(x) =

i
f(x/A
i
)P(A
i
)
Este resultado se obtiene sencillamente derivando el teorema correspondiente a la FD.
Teorema: Probabilidades totales aplicado a esperanzas
Sea {A
1
, A
2
, ..., A
n
, ...} una particion de . Entonces: E(X) =

i
E(X/A
i
)P(A
i
)
Universidad de Vigo. PyE. Tema 3: Vectores aleatorios 3.10
4.1. FD y fdp condicionada por sucesos de probabilidad nula
En ocasiones es util usar como particion todos los posibles valores de una VA. Si la VA es
discreta no hay problema, pero si la VA es continua los sucesos del tipo {X = x} tienen proba-
bilidad cero. Por tanto, no se puede aplicar la denicion habitual de probabilidad condicionada a
sucesos como P(A/X = x). Redeniremos la fdp condicionada para este caso concreto.
Denici on Si X es una VA continua se dene:
P(A/X = x) =
P(A)f(x/A)
f(x)
La denici on es an aloga a la del teorema de Bayes para probabilidades, pero al utilizar un
suceso de probabilidad nula({X = 0}) las probabilidades se sustituyen por fdps.
Denici on Si X e Y son VA continuas, se dene la funcion de densidad condicionada de Y
dado el valor {X = x} como:
f
Y
(y/X = x) =
f
XY
(x, y)
f
X
(x)
si f
X
(x) > 0
An alogamente:
f
X
(x/Y = y) =
f
XY
(x, y)
f
Y
(y)
si f
Y
(y) > 0
Como se observa, la fdp conjunta (el numerador de la fracci on) se puede expresar como el
producto de una marginal por una condicionada.
A partir de la denicion de fdp condicionada, se extrapola facilmente la idea de esperanza
condicionada por un suceso de la forma M = {X = x}:
E(Y/M) =
_
+

yf(y/M)dy =
_
+

yf(y/X = x)dy =
_
+

y
f
XY
(x, y)
f
X
(x)
dy
La nueva denici on de probabilidad condicionada permite denir versiones de los teoremas
de Bayes y de las probabilidades totales para el caso de particiones formadas por sucesos del tipo
{X = x} recorriendo todo el rango de X. Se trata, por tanto, de particiones no numerables.
Teorema: Versi on continua del teorema de las probabilidades totales
Sea X una VA continua. Entonces:
a) P(A) =
_
+

P(A/X = x)f(x)dx
b) f
Y
(y) =
_
+

f(y/X = x)f(x)dx
Teorema: Versi on continua del teorema de Bayes
Sean X e Y VA continuas. Entonces:
a) f(x/A) =
P(A/X = x)f
X
(x)
_
+

P(A/X = u)f
X
(u)du
b) f
Y
(y/X = x) =
f
X
(x/Y = y)f
Y
(y)
f
X
(x)
Universidad de Vigo. PyE. Tema 3: Vectores aleatorios 3.11
Analogas entre las versiones continuas y discretas
Version discreta Version continua
Partici on nita o innita numerable Partici on no numerable
{B
1
, . . . , B
n
, . . .} Rango de una VA continua {X = x} x
P(A) =

i
P(A/B
i
)P(B
i
) P(A) =
_
+

P(A/X = x)f
X
(x)dx
Sumatorio nito o innito Integral
Ponderaci on: P(B
i
) Ponderacion: f(x)
4.2. Independencia de VA
El concepto de independencia denido para dos sucesos es generalizable para VA. Recorde-
mos que dos sucesos A y B son independientes si y solo si P(A B) = P(A)P(B).
Denici on: Independencia de VA
Sean X e Y dos VA. Entonces:
X e Y son independientes si los sucesos {X x} e {Y y} son independientes x, y.
Observaci on: Existe un conjunto de deniciones de independencia de VA equivalentes a
la anterior. Por tanto que X e Y sean independientes equivale a cualquiera de las siguientes
condiciones:
En el caso continuo:
F(x, y) = F(x)F(y) x, y
f
XY
(x, y) = f
X
(x)f
Y
(y) x, y
f(x/Y = y) = f
X
(x) x, y
f(y/X = x) = f
Y
(y) x, y
En el caso discreto:
F(x, y) = F(x)F(y) x, y
P(X = x
i
, Y = y
j
) = P(X = x
i
)P(Y = y
j
) x
i
, y
j
P(X = x
i
/Y = y
j
) = P(X = x
i
) x
i
, y
j
P(Y = y
j
/X = x
i
) = P(Y = y
j
) x
i
, y
j
Proposici on: Sean X e Y dos VA independientes. Entonces: {x
1
< X x
2
} e {y
1
< Y y
2
}
son sucesos independientes x
1
< x
2
, y
1
< y
2
.
Universidad de Vigo. PyE. Tema 3: Vectores aleatorios 3.12
Ejercicio 3.2: Sean X exp(1) e Y exp(2) dos VA independientes.
a) Se sabe que Y ha tomado el valor 2. Cu al es la probabilidad de que X tome un valor mayor
que Y ?
b) Calcula una expresion para la probabilidad de que X sea mayor que Y sabiendo que {Y = y}.
c) Calcula la probabilidad de que X sea mayor que Y .
5. Transformaciones de VA bidimensionales
5.1. Dos funciones de dos VA
En la pr actica es habitual encontrar sistemas donde existen dos variables de salida que de-
penden de otras dos variables de entrada. El hecho de que las variables de entrada sean aleatorias,
implica, en general, que las salidas tambien sean aleatorias. Si deseamos expresar un punto en
coordenadas polares y conocemos las coordenadas cartesianas as como su distribucion de proba-
bilidad, nos encontramos ante un problema de esta naturaleza. Lo mismo ocurre en un sistema de
transmisi on de una se nal estereo, donde las se nales que se transmiten son la suma y la diferencia
de los canales izquierdo y derecho. Conceptualmente se trata de un problema similar al de las
transformaciones univariantes. Sin embargo, desde el punto de vista del c alculo es, en general, un
poco mas complicado, puesto que obtener la imagen inversa de una regi on del plano es en general
m as laborioso, y posteriormente calcular su probabilidad requiere manejar una fdp bidimensional.
El problema general planteado es el siguiente: sea (X, Y ) una VA bidimensional con FD o
fdp conocidas. Sobre ella realizamos las transformaciones:
Z = g(X, Y )
W = h(X, Y )
C omo determinar F
ZW
(z, w) o f
ZW
(z, w)?
5.1.1. Calculo de la FD
Por denicion F
ZW
(z, w) = P(Z z, W w). Dado que f
XY
(x, y) es conocida, para poder
calcular esta probabilidad es necesario hallar el suceso equivalente a {Z z, W w} en el plano
(X, Y ). Por tanto:
F
ZW
(z, w) = P(Z z, W w) = P({(x, y)/g(x, y) z, h(x, y) w}) = P({(X, Y ) D
zw
})
Universidad de Vigo. PyE. Tema 3: Vectores aleatorios 3.13
donde D
zw
es, por denici on, la regi on del plano (X, Y ) cuya imagen da lugar a los pares de
(Z, W) que verican {Z z, W w}.
Una vez obtenida la regi on de interes su probabilidad se puede calcular a partir de f
XY
(x, y):
F
ZW
(z, w) = P({(X, Y ) D
ZW
}) =
_ _
D
ZW
f
XY
(x, y) dxdy
Si trasladasemos el problema a dimensi on n, es decir, n funciones de n variables, la solucion
sera an aloga.
5.1.2. Calculo de la fdp en el caso continuo. Teorema fundamental
Sea (X, Y ) una VA bidimensional continua. Sea Z = g(x, y), W = h(x, y), siendo g y h
funciones reales, no constantes, derivables y con derivadas parciales continuas.
Para cada pareja (z, w) sean (x
1
, y
1
), (x
2
, y
2
), . . . , (x
n
, y
n
), . . . las races reales del sistema z =
g(x, y), w = h(x, y). Entonces:
f
ZW
(z, w) =

i
f
XY
(x
i
, y
i
)
|J(x
i
, y
i
)|
=

i
f
XY
(x
i
, y
i
) |J(z, w)|
donde los jacobianos son los siguientes determinantes:
J(x, y) =

z
x
z
y
w
x
w
y

J(z, w) =

x
z
x
w
y
z
y
w

Observaci on: Fjate que la expresi on de f


ZW
es funci on del valor absoluto de los determi-
nantes.
Observaci on:El teorema sera analogo para transformaciones n-dimensionales.
Universidad de Vigo. PyE. Tema 3: Vectores aleatorios 3.14
Ejemplo resuelto 3.1: Sea (R, ) el vector de coordenadas polares de un punto. R y son in-
dependientes, con distribuciones U(, ) y R Ray(). Se denen ahora las coordenadas
cartesianas (X, Y ) como: X = Rcos; Y = Rsen. Calcula la fdp conjunta de (X, Y ) y sus
marginales.
R y son VA independientes con fdp:
f
R
(r) =
r

2
e

r
2
2
2
si r > 0
f

() =
1
2
si (, )
Es una transformaci on sobradamente conocida, con inversa unica:
x = rcos()
y = rsen()
_

_
r =
_
x
2
+ y
2
= atan(y/x) + k con k = 1, 0, 1 en funci on del signo de x e y
Calculamos el jacobiano:
J(r, ) =

cos() rsen()
sen() rcos()

= r
Aplicando el teorema fundamental:
f
XY
(x, y) =
1
r
f
R
(r)f

() =
1
_
x
2
+ y
2
f
R
(
_
x
2
+ y
2
)f

() =
1
2
2
e

x
2
+ y
2
2
2
Es facil comprobar que:
f
XY
(x, y) =
_

_
1

2
e

x
2
2
2
_

_
_

_
1

2
e

y
2
2
2
_

_
= f
X
(x)f
Y
(y)
Siendo X e Y N(0, ) e independientes, pues su fdp conjunta es el producto de las marginales.
Ejemplo 3.3: Sea (X, Y ) una VA bidimensional continua con fdp conjunta conocida. Se denen
Z = aX + bY ; W = cX + dY . Calcula f
ZW
(z, w) asumiendo que el sistema tiene solucion unica.
Universidad de Vigo. PyE. Tema 3: Vectores aleatorios 3.15
5.2. Cambios de dimensi on
En muchos sistemas fsicos es com un que exista una magnitud que es funcion de dos o
m as variables. Por ejemplo, en sistemas de procesado de se nal con multiplexadores electr onicos
(moduladores, demoduladores) es habitual que aparezcan transformaciones del tipo Z = XY .
En un sistema de colas el tiempo total que necesita el usuario para poder hacer uso de un
determinado servicio se calcula como la suma del tiempo de espera m as el tiempo de uso del
servicio propiamente dicho (Z = X + Y ). El problema que se plantea aqu para calcular la
distribuci on de probabilidad de la VA Z es conceptualmente muy similar al de las transformaciones
univariantes y multivariantes abordados anteriormente. En este caso, calcular una probabilidad
asociada a un determinado intervalo de Z consiste en obtener un suceso equivalente en el plano
(X, Y ), es decir, aquel conjunto de puntos del plano que al ser transformados mediante g(X, Y )
dan lugar a un valor de Z perteneciente al intervalo de interes. Adem as de este procedimiento, en
esta secci on veremos que a partir del teorema fundamental para transformaciones multivariantes
se puede denir un metodo para calcular f
Z
(z), basado en denir una VA auxiliar.
5.2.1. Calculo de la FD de Z = g(X, Y )
Por denicion F
Z
(z) = P(Z z). Dado que f
XY
(x, y) es conocida, para poder calcular esta
probabilidad es necesario hallar el suceso equivalente a {Z z} en el plano (X, Y ). Por tanto:
F
Z
(z) = P(Z z) = P({(x, y)/g(x, y) z}) = P({(X, Y ) D
z
}
donde D
z
es, por denicion, la regi on del plano (X, Y ) cuya imagen da lugar a valores de Z que
verican{Z z}.
Una vez obtenida la regi on de interes, su probabilidad se puede calcular a partir de f
XY
(x, y):
F
Z
(z) = P({(X, Y ) D
Z
}) =
_ _
D
Z
f
XY
(x, y) dxdy
Ejemplo 3.4: Sea (X, Y ) una VA bidimensional continua con fdp conjunta conocida. Se dene
Z = max(X, Y ). Calcula F
Z
(z) y f
Z
(z).
Universidad de Vigo. PyE. Tema 3: Vectores aleatorios 3.16
Ejemplo 3.5: Sea (X, Y ) una VA bidimensional continua con fdp conjunta conocida. Se dene
Z = min(X, Y ). Calcula F
Z
(z) y f
Z
(z).
Ejemplo 3.6: Sean X e Y VA independientes con distribuciones exp(
1
) y exp(
2
) respectiva-
mente. Se dene Z = min(X, Y ). Calcula F
Z
(z) y f
Z
(z).
5.2.2. Calculo de la fdp de Z = g(X, Y ). Metodo basado en el teorema fundamental
Si las VA X e Y son continuas es posible utilizar el teorema fundamental para calcular f
Z
(z)
si se dene una VA auxiliar W. A partir de W se construye la VA bidimensional (Z, W), que es
funci on de (X, Y ). El calculo de f
ZW
(z, w) en funci on de f
XY
(x, y) ya lo hemos resuelto con el
teorema fundamental en su version multivariante. Una vez que calculemos f
ZW
(z, w) ya podemos
conocer f
Z
(z), simplemente calculando la fdp marginal correspondiente. A continuacion veremos
esquem aticamente los pasos a seguir:
a) Denicion de una VA auxiliar: W = h(X, Y ). La denicion de esta VA es arbitraria. Eviden-
temente se debe realizar una eleccion que cumpla las hip otesis requeridas para la aplicacion
del teorema fundamental, procurando que simplique los c alculos. Ejemplo: W = X.
b) Aplicacion del teorema fundamental en su versi on multivariante a Z = g(X, Y ), W =
h(X, Y ). Como resultado se obtiene f
ZW
(z, w).
c) Obtencion de f
Z
(z) mediante la marginal de f
ZW
(z, w):
f
Z
(z) =
_
+

f
ZW
(z, w)dw
Universidad de Vigo. PyE. Tema 3: Vectores aleatorios 3.17
Nota: los lmites de integraci on se ponen entre y + con un proposito de generalidad.
Evidentemente, en la pr actica estos lmites habra que modicarlos en funci on de los rangos de
las variables aleatorias que se manejen. En este caso particular, para obtener la marginal de Z,
habr a que determinar, para cada valor de z, el rango de valores que puede tomar W.
Ejemplo 3.7: Sea (X, Y ) una VA bidimensional continua con fdp conjunta conocida. Se dene
Z = X + Y . Calcula f
Z
(z).
Teorema de convolucion. Version continua
Sean X e Y dos VA continuas e independientes. Sea Z=X + Y . Entonces f
Z
= f
X
f
Y
La demostraci on es sencilla. Si particularizamos la expresi on obtenida en el anterior ejemplo
para el caso en el que X e Y son independientes, se verican las siguientes expresiones equivalentes:
f
Z
(z) =
_
+

f
x
(z w)f
Y
(w)dw
f
Z
(z) =
_
+

f
x
(w)f
Y
(z w)dw
que son precisamente las integrales de convoluci on de ambas fdp.
Teorema de convolucion. Version discreta
Si bien el teorema fundamental no es aplicable a VA discretas, el teorema de convoluci on
tambien se verica para este tipo de variables. En este caso se trata de una convolucion discreta:
Sean X e Y dos VA discretas e independientes. Sea Z = X + Y . Entonces:
P(Z = z
n
) =

{k,j/x
k
+y
j
=z
n
}
P(X = x
k
)P(Y = y
j
) =

k
P(X = x
k
)P(Y = z
n
x
k
)
que en el caso de que X e Y tomen valores enteros se transforma en:
P(Z = n) =

k
P(X = k)P(Y = n k)
Teorema fundamental para esperanzas
Bajo las mismas hipotesis del teorema fundamental. Si Z = g(X, Y ) entonces:
E(Z) =
_
+

zf
Z
(z)dz =
_
+

_
+

g(x, y)f
XY
(x, y)dxdy
Universidad de Vigo. PyE. Tema 3: Vectores aleatorios 3.18
El teorema tambien es cierto en el caso discreto:
E(Z) =

j
z
j
P(Z = z
j
) =

k,n
g(x
k
, y
n
)P(X = x
k
, Y = y
n
)
El teorema fundamental para esperanzas nos permite calcular la media de una transforma-
ci on sin necesidad de calcular la fdp de la variable transformada. En particular, se puede armar
entonces que la esperanza es un operador lineal:
E(aX + bY ) = aE(X) + bE(Y )
Ejemplo 3.8: Se sabe que a un ordenador central van llegando procesos para ser ejecutados.
El intervalo de tiempo transcurrido entre dos llegadas consecutivas, independientemente de las
dem as, sigue una distribuci on exp() (con el par ametro referido a minutos). El ordenador se
satura si se producen tres o mas llegadas en menos de un segundo.
a) Calcula la fdp de la VA Z denida como el tiempo que pasa entre tres llegadas consecutivas.
b) Determina la probabilidad de que se sature el ordenador.
Ejemplo 3.9: Sean X e Y dos VA independientes cuyo rango es el conjunto {1, 2, 3, 4}. Ambas
variables pueden tomar cada uno de estos valores de forma equiprobable. Se dene Z = X + Y .
Calcula P(Z = 2) y P(Z = 4).
Universidad de Vigo. PyE. Tema 3: Vectores aleatorios 3.19
6. Correlaci on y regresion
6.1. El coeciente de correlacion
A menudo las VA implicadas en un determinado problema estan interrelacionadas y pre-
sentan una determinada relacion de dependencia. Por ejemplo, en un sistema de colas, el tiempo
de espera est a relacionado con la cantidad de clientes por unidad de tiempo que se incorporan
al sistema. El objetivo de muchos trabajos de investigaci on es precisamente determinar la depen-
dencia que existe entre distintas variables, por ejemplo consumo de tabaco e incidencia de c ancer.
Por tanto, resulta muy util disponer de alg un parametro que mida la dependencia entre VA. En
nuestro caso introduciremos parametros relativos a la dependencia lineal entre dos VA.
Denici on: Se llama covarianza de X e Y :
Cov(X, Y ) =
XY
= E{(X
X
)(Y
Y
)} = E(XY ) E(X)E(Y )
Una relaci on importante entre las varianzas y la covarianza de dos VA viene dada por la
desigualdad de Schwartz:

2
XY

2
X

2
Y
; o, equivalentemente: |
XY
|
X

Y
La covarianza puede ser interesante para estudiar la relacion lineal entre dos VA, pero es facil
comprobar que es un par ametro dependiente de las unidades de medida que utilicemos. Es decir, si
Z = aX +b y W = cY +d, es inmediato que
ZW
= ac
XY
. Sin embargo, resulta evidente que la
relaci on entre las variables X e Y es la misma que la que existe entre Z y W (sup on que las varia-
bles miden longitud y que la transformacion lineal consiste en un cambio de metros a centmetros).
Para eliminar esa dependencia de la escala usada, se dene el coeciente de correlaci on como:

XY
=

XY

Y
par ametro que, independientemente de las unidades, siempre toma valores en el intervalo [-1,1]
(vease desigualdad de Schwartz). Adem as, es una magnitud adimensional.
El coeciente de correlacion mide el grado de dependencia lineal entre dos VA, de forma
que si vale 1 o -1 la dependencia es total. Esta armaci on se discutir a en detalle m as adelante.
Diremos que dos VA son incorreladas si su coeciente de correlacion es nulo (para ello basta
con que su covarianza sea cero); hablaremos de VA ortogonales en el caso de que la esperanza de
su producto sea cero.
Ejercicio 3.3: Demuestra que si X e Y son VA independientes, entonces tambien son incorreladas.
Dos VA independientes son siempre incorreladas, aunque el recproco no es, en general,
cierto; pues el hecho de que no exista dependencia lineal no quiere decir que no pueda existir otro
tipo de dependencia, por ejemplo, polin omica o exponencial. Las condiciones de incorrelaci on e
independencia son equivalentes bajo la hipotesis de normalidad, como se ver a m as adelante.
Universidad de Vigo. PyE. Tema 3: Vectores aleatorios 3.20
Ejercicio 3.4: Demuestra que Var(X + Y ) = Var(X) + Var(Y ) + 2Cov(X, Y )
Por tanto, la varianza de una suma coincide con la suma de las varianzas solo cuando las
variables est an incorreladas, pero puede ser mayor o menor que la suma de las varianzas.
6.2. Regresi on
La teora de la regresi on estudia como estimar una VA Y en funci on de n VA X
1
, . . . , X
n
que
pudieran ser mas facilmente medibles. Para ello se construye

Y = g(X
1
, . . . , X
n
) y se aproxima Y
por

Y . Para elegir la funci on g debemos establecer alg un criterio respecto a su forma o propiedades.
Para que la estimaci on sea buena, la funci on g debe minimizar el error cometido. Al trabajar con
VA se pueden considerar distintos tipos de error; pero la teora de la regresion clasica considera
el error cuadr atico medio:
= E{(Y

Y )
2
}
En esta seccion estudiaremos la predicci on de una VA Y por una unica VA X, aunque los
resultados que obtengamos ser an f acilmente generalizables a dimensiones superiores. Estudiaremos
distintas posibilidades para la forma de la funci on g:
1)

Y = g(X) = a (Estimaci on constante e independiente de X)
En este caso = E{(Y a)
2
} = E(Y
2
) + a
2
2aE(Y ).
Derivando respecto al par ametro a e igualando a cero: 2a 2E(Y ) = 0
de donde se deduce que a = E(Y ). Al ser positiva la segunda derivada concluimos que el valor
que minimiza el error es precisamente E(Y ). Por otro lado, es evidente que el error cuadr atico
medio cometido es = Var(Y ).
2)

Y = g(X) = aX + b (Estimaci on lineal)
Minimizando el error cuadr atico medio se obtienen los siguientes valores (an alogo a 1):
a =

XY

2
X
=

X
; b = E(Y )

X
E(X)
Por lo que la recta general de regresi on toma la siguiente expresi on:

Y = E(Y ) +

Y

X
(X E(X))
Adem as, se puede probar que el error cometido es: =
2
Y
(1
2
)
La pendiente de la recta viene marcada por el signo de . Si = 1 o 1, se ve que el error
cometido es cero y la dependencia lineal entre las dos variables es total. Por otro lado si = 0,
vemos que la recta de regresi on se reduce a la expresi on

Y = E(Y ), es decir, el conocer X no
aporta ninguna informacion lineal sobre Y ; o lo que es lo mismo, las variables son incorreladas.
Universidad de Vigo. PyE. Tema 3: Vectores aleatorios 3.21
3)

Y = g(X) (Estimacion general)
Se puede probar que el estimador es:

Y = E(Y/X) llamado lnea general de regresi on. Evi-
dentemente si X e Y son independientes

Y = E(Y ) es decir, el conocer X no nos aporta nada
para conocer Y . En la pr actica no es f acil conocer esa esperanza condicionada, por lo que, en
general, se utiliza m as la estimaci on lineal mnimo cuadratica.
6.3. Distribuci on normal bidimensional
Todos estos par ametros tienen una especial relevancia cuando trabajemos con distribuciones
normales.
Sea

X = (X, Y )
t
un vector aleatorio y sea = (
1
,
2
)
t
un vector de n umeros reales. Sea la
matriz:
=
_

2
1

12

12

2
2
_
Se dice que

X sigue una distribucion normal 2-dimensional si su fdp es de la forma:

X N
2
( , ) f
XY
(x) = f
XY
(x, y) =
1
2
_
||
exp
_

1
2
(x )
t

1
(x )
_
Al vector se le llama vector de medias y a la matriz se le llama matriz de varianzas-covarianzas.
Si llamamos =
12
/(
1

2
) y hacemos las cuentas del determinante y del producto matricial,
la expresion de la fdp sera:
f(x, y) =
1
2
1

2
_
1
2
exp
_

1
2(1
2
)
_
(x
1
)
2

2
1
+
(y
2
)
2

2
2
2
(x
1
)(y
2
)

2
__
La siguiente gura representa la fdp de una normal bidimensional.
!!
!"
!#
$
#
"
!
!!
!"
!#
$
#
"
!
$
$%#
$%"
$%!
$%&
X
Y
Universidad de Vigo. PyE. Tema 3: Vectores aleatorios 3.22
Propiedades:
1) Las distribuciones marginales de (X, Y ) son tambien normales unidimensionales. En con-
creto X N(
1
,
1
) e Y N(
2
,
2
).
2) Se verica que Cov(X, Y ) =
12
y por tanto el coeciente de correlaci on entre X e Y es .
3) Si = 0 entonces f
XY
(x, y) = f
X
(x)f
Y
(y). Es decir, si dos normales son incorreladas, tam-
bien son independientes. Dado que el recproco es siempre cierto (dos VA independientes
son incorreladas), se concluye que bajo la hip otesis de normalidad, la condici on de indepen-
dientes equivale a la de incorreladas.
4) Si (X, Y ) sigue una distribuci on normal bidimensional, cualquier combinacion lineal de X
e Y , Z = aX + bY , sigue una distribuci on normal unidimensional.
Observaci on: En una normal 2-dimensional las dos marginales son normales monodimensio-
nales, aunque el recproco no es cierto en general, es decir, podra ocurrir que dos VA X e Y sean
normales pero su distribuci on conjunta no lo sea. En el caso en que X e Y sean independientes
(o incorreladas) es evidente que su distribucion conjunta sera normal si X e Y lo son.
Proposici on: Si X N(
1
,
1
) e Y N(
2
,
2
) son VA independientes (o incorreladas)
entonces Z = X + Y sigue una distribuci on normal. En concreto Z N(
1
+
2
,
_

2
1
+
2
2
).
El hecho de que Z sea gaussiana se deduce inmediatamente de la propiedad 4). Para obtener
los par ametros (media y desviaci on tpica) basta con recordar que la esperanza de la suma es la
suma de las esperanzas y que la varianza de la suma de variables incorreladas es la suma de las
varianzas.
EJERCICIOS PROPUESTOS:
Distribuciones conjuntas y marginales. Li. Ejemplos adicionales 4.23. Pag. 192.
Distribuciones conjuntas y marginales. Li. Ejemplos adicionales 4.24. Pag. 194.
Distribuciones conjuntas y marginales. Cao. Problema 5.1, apartados a), b) y c). Pag. 222.
Independencia de VA. Li. Problema 4.8. Pag. 202.
Independencia de VA. Li. Problema 4.10. Pag. 202.
C alculo de F
Z
(z), Z = g(X, Y ). Calcula F
Z
(z) para Z = X+Y . Hazlo buscando la imagen inversa
de {Z z} y calculando su probabilidad a partir de f
XY
(x, y). Comprueba que llegas al mismo
resultado que en el teorema de convolucion.
Teorema convoluci on. C alculo de lmites de integraci on. Ejemplo 3.3-3 de (Stark, 1994). Pag. 130.
Esperanza y esperanza condicionada. Stark. Problema 4.11. Pag. 220.
Esperanza y Correlaci on. Li. Problema 4.15. Pag. 203.
Correlaci on. Stark. Ejemplo 4.3.5. Pag 186.
Covarianza e incorrelaci on. Li. Ejemplos adicionales 4.27. Pag. 196.
Independencia e incorrelacion. Stark. Problema 4.18. Pag. 221
Regresi on. Stark. Problema 4.16. Pag 221
LECTURAS RECOMENDADAS:
Concepto de variable aleatoria. Papoulis. Apartado 4.1
Funciones de distribuci on y densidad. Papoulis. Apartado 4.2
Introducci on a las transformaciones de VA. Apartado 3.1. Stark.
Esperanzas y varianzas. Cao. Captulos 4.6 y 4.7.
INFORMACI

ON Y DOCUMENTACI

ON ADICIONAL:
La documentaci on de este tema se complementa con un boletn de problemas.
Universidad de Vigo. Problemas de PyE. Tema 3: Vectores aleatorios 3.1
PROBLEMAS DE PROBABILIDAD Y ESTAD

ISTICA
Tema 3: Vectores aleatorios
3.1) Una VA bidimensional (X, Y ) tiene como fdp conjunta una uniforme en la region sombreada
en el gr aco, donde D es una constante.
a) Escribe la expresi on correspondiente a la fdp conjunta
de X e Y . Comprueba que es fdp.
b) Calcula P(X < D/2, Y < D/4).
c) Calcula la fdp marginal de X y la de Y . Comprueba
en ambos casos que lo obtenido es efectivamente una
fdp.
3.2) Sea X una VA continua e Y una VA discreta. La funcion de densidad conjunta es:
f
XY
(x, k) =
x
k
e
2x
k!
con x > 0 y k = 0, 1, 2, . . .
a) Obten la fdp marginal de Y .
b) Obten la fdp marginal de X.
c) Calcula la fdp de X condicionada por {Y = 2}.
3.3) Se lanza una moneda al aire 3 veces. La probabilidad de obtener cara en cualquier lanza-
miento es p. Sea X la VA que mide el n umero de caras que se obtienen y sea Y la VA
denida como el n umero de lanzamientos hasta que se obtiene la primera cara. En caso de
que no se obtenga ninguna cara, se le asigna a Y el valor Y = 0. Calcula:
a) Las fdp de las VA X e Y . Comprueba que son fdp y representalas gr acamente para
p = 0.5.
b) Determina el rango de la VA bidimensional (X, Y ).
c) Calcula la funci on de masa de probabilidad de la VA bidimensional (X, Y ).
d) Calcula la probabilidad de que salga m as de una cara sabiendo que en el primer lan-
zamiento ha salido cara. Eval ua el resultado para p = 0.5.
3.4) Sea (X, Y ) una VA bidimensional con funci on de masa de probabilidad dada por:
P(X = k, Y = j) = c p
k
1
p
j
2
con p
1
, p
2
(0, 1); k = 0, 1, 2, . . . ; j = 0, 1, 2, . . .
a) Determina el valor de la constante c.
b) Son las VA X e Y independientes?
c) Calcula P(X Y/Y = n).
d) Calcula P(X = Y ).
3.5) El vector aleatorio bidimensional (X, Y ) sigue una distri-
buci on uniforme sobre la region sombreada de la graca
adjunta. Calcula:
a) La probabilidad de que el producto de ambas variables
X e Y sea negativo.
b) El rango de la variable aleatoria {Y/X = x}.
c) La fdp marginal de X.
Universidad de Vigo. Problemas de PyE. Tema 3: Vectores aleatorios 3.2
3.6) Para realizar una tarea informatica se requieren dos pasos. En primer lugar debemos co-
nectarnos a un ordenador y posteriormente utilizarlo. Sea Y la VA que mide el tiempo
que tardamos en conectarnos al ordenador; sea X la VA que mide el tiempo de uso del
ordenador, y sea Z la VA que mide la proporci on de tiempo de uso del ordenador sobre el
tiempo total que tardamos en concluir la tarea. Suponiendo que las variables X e Y son
independientes e identicamente distribuidas con distribuci on exp(), calcula la fdp de Z.
3.7) Las VA X e Y son independientes y U(0, a). Encuentra la funci on de densidad de |X Y |.
3.8) En un sistema de comunicaciones, por cuestiones de seguridad, cada mensaje se enva si-
mult aneamente por tres canales distintos. Cada canal consta de cuatro elementos (de tipos
A, B, C y D) funcionando a la vez. Se considera que un canal es operativo cuando los
cuatro elementos funcionan correctamente. El tiempo de vida de cada elemento sigue una
distribuci on exp() con = 1/2, 1/4, 1/8 y 1/16 para los elementos de tipo A, B, C y D,
respectivamente. Todos los elementos del sistema funcionan de forma independiente. Se con-
sidera que el sistema est a operativo si lo est an al menos dos de los tres canales. Sea Y la
VA que mide el tiempo total que el sistema esta operativo. Calcula la fdp de Y .
3.9) Los voltajes X
1
y X
2
son dos VA independientes e identicamente distribuidas con fdp:
f(x) = 2x e
x
2
si x > 0
Sea P
i
la potencia correspondiente al voltaje X
i
(P =
X
2
). Calcula la probabilidad de que en la salida del
sistema se tenga una potencia mayor que 3.
3.10) Sea (X, Y ) una VA bidimensional con fdp conjunta dada por:
f(x, y) =
1
2
si 0 < y < x < 2
a) Calcula las fdp marginales de X e Y . Comprueba que efectivamente son fdp.
b) Calcula las esperanzas de X e Y .
c) Calcula la covarianza entre X e Y .
d) Calcula las varianzas de X e Y .
e) Calcula la recta general de regresi on de Y sobre X y el error cuadratico medio cometido.
f) Calcula la lnea general de regresion de Y sobre X y el error cuadratico medio cometido.
g) Se ha observado una valor de x = 1.5, cu ales seran las mejores predicciones (lineal y
no lineal) para Y ?
3.11) Sea (X, Y ) una VA bidimensional con fdp conjunta dada por:
f(x, y) = (x + y) si

0 < x < 1
0 < y < 1
a) Son X e Y independientes?
b) Son X e Y incorreladas?
c) Se realiza la transformacion Z =
X
Y
. Determina la fdp de Z, indicando claramente el
rango de Z.
3.12) Sea (X, Y ) una VA bidimensional con fdp conjunta dada por:
f(x, y) = 4 e
2x
si 0 y x < +
a) Son X e Y independientes? Justica la respuesta.
Sea Z = X + Y
b) Determina E(Z).
c) Determina la fdp de Z, indicando claramente su rango.
Universidad de Vigo. Problemas de PyE. Tema 3: Vectores aleatorios 3.3
SOLUCIONES AL BOLET

IN DE PROBLEMAS
Tema 3: Vectores aleatorios
3.1) a) f
XY
(x, y) =
2
D
2
con 0 < y < x < D
b) 3/16
c) f
X
(x) =
2
D
2
x con 0 < x < D; f
Y
(y) =
2
D
2
(D y) con 0 < y < D
3.2) a) f(y) =
+

k=0

1
2

k+1
(y k)
b) X exp(1)
c) f(x/Y = 2) = 4x
2
e
2x
si x > 0
3.3) a) Si q = 1 p, P(Y = 0) = q
3
, P(Y = 1) = p, P(Y = 2) = qp, P(Y = 3) = q
2
p,
X Bi(3, p)
b) y c) P(X = 0, Y = 0) = q
3
, P(X = 1, Y = 1) = P(X = 1, Y = 2) = P(X = 1, Y = 3) =
pq
2
, P(X = 2, Y = 1) = 2p
2
q, P(X = 2, Y = 2) = p
2
q, P(X = 3, Y = 1) = p
3
c) 2p p
2
(si p = 0.5 vale 0.75)
3.4) a) c = (1p
1
)(1p
2
)
b) Si
c) p
n
1
d)
(1p
1
)(1p
2
)
1 p
1
p
2
3.5) a) 1/2
b) Si x > 0, y (x 1,

1 x
2
); si x < 0, y (1 x,

1 x
2
)
c) f(x) =
2
2 +
(

1 x
2
+ 1 |x|) si 1 < x < 1
3.6) Z U(0,1)
3.7) f(z) =
2
a
2
(a z) 0 < z < a
3.8) f
Y
(y) = 6(1 e
y
)e
2y
y > 0; = 15/16
3.9) 2e
3
e
6
3.10) a) f
X
(x) = x/2 si 0 < x < 2; f
Y
(y) = (2 y)/2 si 0 < y < 2
b) E(X) = 4/3, E(Y ) = 2/3; c) 1/9; d) Var(X) = 2/9, Var(Y ) = 2/9
e) x/2, ecm = 1/6; f) x/2, ecm = 1/6; g) la predicci on es 0.75 en ambos casos.
3.11) a) No
b) No
c) f(z) =

(z + 1)/3 si z (0, 1)
z + 1
3z
3
si z > 1
3.12) a) No
b) E(Z) = 1.5
c) f(z) = 2(e
z
e
2z
) si z > 0
Universidad de Vigo. PyE. Practica 6 6.1
PROBABILIDAD Y ESTAD

ISTICA
Practica 6. Variables aleatorias bidimensionales
Objetivos
- Visualizacion de la fdp de una VA bidimensional.
- Estudio de algunas transformaciones de VA: mnimo de exponenciales independientes,
cambio de coordenadas, suma de VA.
- Revision de los conceptos de covarianza y coeciente de correlaci on, distribuci on normal
bidimensional y recta de regresi on.
Ejecucion
Todos los ejercicios est an integrados en estadlab: en el m odulo de Variables Aleatorias,
en el m odulo de Esperanzas o en el m odulo de Transformaciones.
fdp de VA bidimensionales (15)
En esta pr actica se representan funciones de densidad conjuntas correspondientes a VA bidi-
mensionales denidas a partir de dos VA independientes. Se encuentra en el modulo de Variables
Aleatorias de estadlab.
Antes de empezar con las cuestiones representa las fdp conjuntas que desees dentro de las
opciones que te permite la pr actica. Abre la ventana de c alculos y dene regiones para obtener
su probabilidad. Recuerda que la probabilidad de una regi on del plano XY se obtiene, en gene-
ral, integrando la fdp conjunta en esa region, y por tanto coincide con el volumen bajo la curva
correspondiente a dicha region.
Cuestiones:
1) Sean X e Y dos variables aleatorias independientes con las distribuciones X Bi (8,0.5) e
Y exp(3). Calcula P(5 X 6, 0.4 < Y 1).
Representaci on de funciones con MatLab (15)
Esta pr actica se realiza trabajando directamente sobre la ventana de comandos de Matlab.
- El comando basico para representar una funci on es plot. Su sintaxis m as habitual es
plot(x,y). Si lo ejecutamos en la pantalla se abrir a una ventana gr aca en la que se represen-
tar an gracamente los pares de puntos (x
i
, y
i
) interpolados linealmente. Para que funcione x e y
deben tener la misma longitud. Esta funcion posee muchas opciones distintas relativas al color,
el patron empleado para la representacion, etc. Para consultarlas utiliza el comando help.
El comando hold es util para superponer distintas gr acas compartiendo los mismos ejes
de representaci on (por ejemplo una funcion de densidad de probabilidad con su histograma co-
rrespondiente). Si se escribe hold on en la ventana de comandos, la siguiente gr aca que se haga
con plot se representar a superponiendo la nueva gr aca a las anteriores (hay que tener en cuenta
que tanto plot como hold son comandos que, por defecto, act uan sobre la ultima de las ventanas
gr acas que estuvo activa antes de acceder a la ventana de comandos).
Cuestiones
1) Representa gr acamente la funcion y = x
2
.
2) Representa nuevamente la misma funcion pero ahora s olo para valores de x comprendidos
en el intervalo [0,5]. Hazlo de manera que la interpolaci on lineal de los puntos sea poco
apreciable.
3) Representa gracamente la funci on de densidad de una VA X N(, ). Dene los parame-
tros mediante una variable, y la expresi on de la funci on de densidad escrbela en funci on de
los mismos.
Universidad de Vigo. PyE. Practica 6 6.2
Introducci on a las siguientes practicas
En las rutinas de esta practica relacionadas con transformaciones de variables aleatorias, se
sigue el siguiente esquema:
Se parte de una VA o un conjunto de VA cuya distribucion es conocida (i.e. X exp()).
Se dene una nueva VA como transformacion de las originales (Y = g(X))
Se genera una muestra (x
1
, x
2
, . . . , x
n
) siguiendo la distribuci on de probabilidad de X y
se representa su histograma junto con la fdp te orica (si el tama no muestral es grande el
histograma se ajustar a bien a la fdp).
Se obtiene una muestra de Y aplicando directamente la transformacion sobre la muestra de
X (y
i
= g(x
i
); i = 1, 2, . . . , n).
Mediante la teora de transformaciones de VA se puede calcular cu al es la fdp de Y , y
para vericar que este resultado es correcto, se superpone la fdp calculada al histograma de
la muestra obtenida mediante la transformaci on. Para que esta vericaci on tenga sentido,
el tama no muestral debe ser sucientemente grande en relaci on al n umero de clases. En
algunos casos el programa s olo representa el histograma y la expresi on de la fdp de Y debe
ser calculada analticamente para ser representada posteriormente.
En algunos casos se realizan transformaciones multivariantes o cambios de dimensi on (por ejemplo,
suma de dos VA), pero el planteamiento es analogo.
Suma de dos variables normales independientes (10)
Se encuentra en el m odulo de Transformaciones de estadlab.
- En la ventana de trabajo se muestra la suma de dos variables normales independientes.
Para ello se generan dos muestras de dos VA X N(
1
, s
1
) e Y N(
2
, s
2
) independientes.
En las dos ventanas de la izquierda se representan los histogramas y las fdp correspondientes.
Sumando las muestras obtenidas de X e Y se obtiene una muestra de la VA Z = X + Y , cuyo
histograma se representa en la ventana de la derecha. Con proposito comparativo, en esta ventana
tambien se representan las fdp de las VA X e Y .
- Cada vez que se pulsa el bot on Suma de normales se genera un nuevo conjunto de
muestras de acuerdo con los parametros seleccionados y se refrescan las gracas.
Antes de empezar con las cuestiones estudia c omo afecta el cambio de los par ametros de X
e Y (tanto media como varianza) al histograma de la suma. Cada vez que cambies los parametros
debes pulsar el boton Suma de normales para actualizar las gr acas.
Cuestiones:
1) Que distribuci on de probabilidad sigue X + Y ?
2) Representa la fdp de la suma superpuesta al histograma (lee previamente las observaciones).
Observaciones:
- Para representar la fdp puedes emplear uno de los dos metodos siguientes:
a) Emplear las cajas integradas en la ventana de la pr actica (x, fx).
En la primera caja dene el vector x empleado para la representacion (i.e. (1:0.1:10)).
En la segunda se especica el vector fx (i.e. (sin(x)./x)+5) ). Para efectuar la representaci on
pulsar el bot on plot(x, fx). Si alguno de los vectores esta mal denido se visualizar a un
mensaje de error en la ventana de comandos.
b) Utilizar el comando plot desde la ventana de comandos. Se debe tener en cuenta que el
comando plot act ua sobre la ultima ventana gr aca activa.
Universidad de Vigo. PyE. Practica 6 6.3
- El metodo b) presenta una serie de ventajas en cuanto a la edicion de las expresiones y la
correcci on de errores.
- El bot on Borrar elimina cualquier graca que hayamos superpuesto sobre el histograma.
- Estas observaciones son aplicables en cualquier pr actica en la que se pida la representaci on de
una fdp.
Cambio de coordenadas cartesianas a coordenadas polares (15)
Se encuentra en el modulo de Transformaciones de estadlab. Se accede seleccionando
Cartesianas a Polares en la ventana principal.
Tal y como se vio en el ejemplo resuelto 3.1 de los apuntes, supongamos que tenemos dos VA
normales X e Y independientes, de media cero y varianza com un. Si el vector aleatorio (X, Y )
representa un punto del plano en coordenadas cartesianas, y queremos representar ese mismo
punto en coordenadas polares, sabemos por un ejercicio hecho en teora, que , la fase, es una
uniforme entre y ; y que R, el radio polar, sigue una distribuci on de Rayleigh independiente
de :
f
R
(r) =
r

2
e

r
2
2
2

si r > 0
- En la pr actica se generan n muestras de (X, Y ) con desviaci on tpica . En la ventana
inicial se representan los histogramas y la fdp de X e Y . Esta muestra se transforma para obtener
las coordenadas polares:
R =

X
2
+ Y
2
; = arctan(Y/X)
- Para visualizar los histogramas de las nuevas VA y la fdp de la uniforme se debe pulsar
el bot on Transformacion. Cada vez que se desee generar una nueva muestra se pulsa Coord.
Cartesianas.
Cuestiones:
1) Que efecto produce el parametro sobre la Rayleigh?
2) Es la Rayleigh una distribucion simetrica?
3) Representa la fdp de la Rayleigh superpuesta al histograma.
Mnimo de exponenciales independientes (10)
Se encuentra en el modulo de Transformaciones de estadlab. Se accede seleccionando
Mnimo de Exponenciales en la ventana principal.
- Se trata de comprobar el resultado teorico de que el mnimo de VA X
i
exp(a
i
) inde-
pendientes sigue tambien una distribuci on exponencial (ver ejemplo 3.6 de los apuntes). Se puede
seleccionar el n umero de exponenciales de las que se quiere calcular el mnimo (de 2 a 4) y sus
correspondientes parametros. Para seleccionar una exponencial se marca el cuadro de vericacion
situado al lado del parametro correspondiente a
i
. Al pulsar fdp e Histogramas se genera una
muestra de cada distribucion y se representan los histogramas superpuestos a las fdp correspon-
dientes.
- Al pulsar el bot on Mnimo aparece una nueva ventana en la que se visualiza el histograma
de la VA Y = min{X
1
, . . . , X
k
} donde X
i
son la exponenciales previamente generadas y k es un
valor entre 2 y 4 seg un los par ametros elegidos para la simulacion. La muestra de Y se obtiene
directamente a partir de las muestras obtenidas de las X
i
.
- Utiliza un tama no muestral grande y un n umero de clases apropiado para comprobar que
se verica la propiedad bajo estudio. De este modo el histograma ser a muy similar a la fdp te orica.
Universidad de Vigo. PyE. Practica 6 6.4
Cuestiones
1) Es el histograma de mnimos lo mismo que el mnimo de los histogramas?
2) Que distribuci on de probabilidad sigue Y ?
3) Representa la fdp de Y superpuesta al histograma.
Regresi on en VA normales (30)
A esta practica se accede seleccionando Regresion en VA normales en el modulo de
Esperanzas de estadlab.
En esta practica generaremos muestras de dos VA normales correladas y representaremos
gr acamente sobre esta muestra la recta de regresion que relaciona ambas variables. Variando los
valores del coeciente de correlaci on veremos el efecto del cambio sobre el ajuste.
Sean X N(0,1) e Y N(2,2). Se sabe que el coeciente de correlaci on entre X e Y es 0.5.
1) Calcula la covarianza entre X e Y . Introduce el valor en el ordenador y pulsa el boton
Dibujar para poder continuar. Podr as ver en la parte izquierda de la pantalla la fdp
conjunta o las dos fdp marginales (seg un la opci on elegida). En la parte derecha de la
pantalla se ve una muestra de tama no 1000 de la VA bidimensional (X, Y ).
2) Se puede armar que la relaci on entre X e Y es creciente?
3) Calcula, con papel y bolgrafo, la ecuacion de la recta de regresion de Y sobre X. Teclea
la ecuaci on obtenida en el ordenador y pulsa el boton Representar para ver el resultado.
te parece que la recta ajusta bien?. Si tu respuesta es no, revisa los calculos. Pulsa en
Comprobar para ver la recta correcta.
4) Calcula el error cuadratico medio cometido.
5) Repite los pasos anteriores para un coeciente de correlaci on de -0.75. Se puede armar
que la relaci on entre X e Y es creciente?
6) Repite los pasos anteriores para un coeciente de correlaci on de 0. Se puede armar que
la relacion entre X e Y es creciente?
7) Repite los pasos anteriores para un coeciente de correlaci on de 0.99. Crees que la recta
ajusta ahora mejor que cuando el coeciente de correlaci on vala -0.75? Justica la respuesta.










TEMA 4 ESTIMACIN Y TEOREMAS LMITE
PROBABILIDAD Y ESTADSTICA (PE)
2010/2011
Universidad de Vigo. PyE. Tema 4: Estimacion y teoremas lmite 4.1
Tema 4. Estimacion y teoremas lmite
1. Introducci on
En el mundo de la ingeniera es frecuente encontrase con el problema de medir una deter-
minada magnitud. El resultado de esa medida depende de m ultiples factores, como la precisi on
del sistema de medida que estemos utilizando, la pericia del observador o las condiciones fsicas
bajo las que se realice la medida. De hecho, si repetimos la medici on es f acil que no se obtenga
exactamente el mismo valor. Por ello es recomendable enfocar el problema desde el punto de vista
de la teora de la probabilidad. Suponemos que la magnitud que deseamos medir es una VA X y
que cada medida que hacemos es una valor observado x de la VA X. As, cada medida repetida
ser a un nuevo valor de una VA con la misma distribuci on que la VA X.
Si realizamos varias medidas nos encontraremos entonces con una muestra de valores ob-
servados {x
1
, . . . , x
n
} a partir de los cuales trataremos de estimar el valor de la magnitud que
estamos tratando de medir.
La misma idea se puede aplicar a problemas distintos, como la estimaci on de la intenci on de
voto, la estimaci on de la demanda de ancho de banda en una determinada zona o el dimensionado
de una central telef onica. Todas ellas son variables que se modelan como aleatorias y que se
caracterizan en base a una serie de observaciones muestrales.
2. Muestra y poblacion
El objetivo en este tema es estudiar una caracterstica dada en un conjunto de elementos,
al que llamaremos poblaci on. Normalmente es imposible estudiar esa caracterstica en todos los
elementos, bien por motivos econ omicos, bien por tratarse de una poblaci on continua, o bien
por tratarse de elementos que no existen en el presente pero existiran en el futuro. Para resolver
este problema seleccionamos un subconjunto de elementos, que llamaremos muestra. El n umero
de elementos de la muestra se denomina tama no muestral. Si la muestra es representativa de la
poblaci on, podremos extrapolar la caracterstica bajo estudio de la muestra a la poblaci on, es
decir, lo que ocurra en la muestra ser a similar a lo que ocurra en la poblaci on. Por ello es de suma
importancia el elegir la muestra adecuadamente. Seg un la forma que utilicemos para seleccionar
esa muestra tendremos diversos tipos de muestreo. El m as importante es el muestreo aleatorio
simple.
Diremos que una muestra es aleatoria simple (m.a.s.) si los elementos de la poblacion son
equiprobables y cada elecci on es independiente de las dem as. Una m.a.s. puede ser considerada
como los valores observados de un vector aleatorio n-dimensional (hemos observado esos valo-
res, pero podamos haber obtenido otros) siendo las componentes del vector independientes e
identicamente distribuidas con la misma distribuci on que la poblaci on que estamos muestreando.
Matem aticamente:
Sea

X = (X
1
, . . . , X
n
) el vector aleatorio que representa a la muestra. Las VA X
i
son
independientes y con distribuci on identica a la de la poblaci on que estamos muestreando. Una
vez realizado el muestreo obtenemos un valor de la muestra x = (x
1
, . . . , x
n
) que no es m as que
un valor observado del vector aleatorio

X.
Universidad de Vigo. PyE. Tema 4: Estimacion y teoremas lmite 4.2
3. Estimadores
Tras el problema del muestreo nos encontramos con el problema de extraer informacion de
los datos (inferir) relativa a la poblaci on bajo estudio. Un problema de inferencia estadstica es
aquel en el que tenemos un conjunto de datos, generados de acuerdo a una ley de probabilidad
desconocida, y tratamos de averiguar cu al ha sido el mecanismo que los ha generado.
Nos puede interesar determinar el tipo de distribuci on (normal, uniforme, etc) o estimar
un valor concreto de un parametro (media, varianza, etc) asumiendo conocida la forma de la
distribuci on. En el primer caso hablaremos de inferencia no parametrica y en el segundo de
inferencia parametrica. Los objetivos en ambos casos son bien distintos, y aunque los mecanismos
puedan parecer similares, la informaci on de partida de la que disponemos hace que estos sean
muy diferentes. Este proceso de reconocimiento del mecanismo generador de los datos se llama
estimaci on. Una vez tengamos especicado el modelo subyacente podemos pasar a la toma de
decisiones, tales como predecir futuros valores, o elegir entre opciones que supongan un cierto
riesgo para el decisor.
Supongamos que tenemos una m.a.s. de una variable X de la que conocemos la forma de
su distribucion, pero no el par ametro o par ametros que especican totalmente esta. Tratamos
por tanto de estimar esta caracterstica de la poblaci on. Para ello construimos un estimador o lo
que es lo mismo, una funci on de la muestra que no depende del par ametro a estimar, con la que
tratamos de aproximar el verdadero valor del par ametro.
Denici on: Estimador
Sea un par ametro o un vector de parametros de una distribuci on. Se dice que

es un
estimador de a partir de una m.a.s. (X
1
, . . . , X
n
) si

es una funci on g(X
1
, . . . , X
n
) que aproxima
.
Para una muestra concreta podemos evaluar el estimador, en ese caso obtenemos una
estimaci on.
Ahora bien, podemos pensar en el estimador como en una VA, por ser funci on de la muestra.
Consideraremos as cada elemento de la muestra como un valor observado de una VA, que ha
tomado ese valor de acuerdo a una ley de distribuci on de probabilidad. Como VA que es, cada
estimador tendr a entonces una distribucion, siendo de mucho interes para nosotros el conocimiento
de esta.
Ejemplo: Estimacion de la media.
Supongamos que queremos estimar la media de una poblaci on con varianza
2
, para lo
que obtenemos una muestra (x
1
, . . . , x
n
). El mejor estimador parece ser la media muestral:
= x =
n

i=1
x
i
n
=
X
1
+ . . . + X
n
n
Ejemplo Supongamos que hemos obtenido una muestra concreta: {2, 7, 3, 4, 2}. Si evaluamos el
estimador media muestral, obtenemos una estimaci on:
x =
2 + 7 + 3 + 4 + 2
5
= 3.6
Universidad de Vigo. PyE. Tema 4: Estimacion y teoremas lmite 4.3
El estimador, , es una VA. Determinaremos su media y su varianza:
E( ) = E(g(X
1
, . . . , X
n
)) = E

i=1
X
i
n

=
1
n
n

i=1
E(X
i
) =
1
n
n

i=1
=
Var( ) = Var

i=1
X
i
n

=
1
n
2
n

i=1
Var(X
i
) =
1
n
2
n

i=1

2
=

2
n
Al estudiar estimadores, se plantea el problema de c omo juzgar si ese estimador es bueno
o no. Para resolver esta cuesti on estudiaremos una serie de propiedades que seran de interes en
cualquier estimador.
Diremos que un estimador es centrado o insesgado si se verica que E(

) = .
Se dene el sesgo de

como: sesgo (

) = E(

).
Por otra parte, se dene la ecacia o precision de un estimador como:
Precisi on (

) =
1
Var(

)
Evidentemente, nos interesaran los estimadores con poco o nulo sesgo y con poca varianza,
es decir con mucha precisi on. En el ejemplo anterior, de la estimacion de la media mediante
la media muestral, tenemos un estimador insesgado de precision directamente proporcional al
tama no muestral (cuantos m as datos, m as precision) e inversamente proporcional a la varianza
de la distribuci on muestreada.
Otras propiedades de interes ser an la linealidad, la facilidad de c alculo o la consistencia
(convergencia del estimador al par ametro cuando el tama no muestral tiende a innito).
3.1. Estimaci on de los momentos de una VA
Los momentos de una VA son las esperanzas de las potencias de la VA. As, el momento
no centrado de orden k de una VA X, se dene como m
k
= E(X
k
), y el momento centrado de
orden k de dicha VA se dene como
k
= E{(X E(X))
k
}. Dos ejemplos de estos momentos son
la media (m
1
) y la varianza (
2
).
Para denir estimadores para estos parametros se sigue el siguiente procedimiento:
-Dado que la informaci on que tenemos acerca de la VA X procede de una m.a.s. (x
1
, . . . , x
n
),
se supone entonces que X es una VA discreta que toma unicamente dichos valores con una proba-
bilidad igual a la frecuencia relativa observada (evidentemente se trata solo de una aproximacion
que sera mejor o peor en funcion del tama no de la muestra y de las caractersticas de X).
-Para estimar un momento de X se calcula el momento teorico correspondiente a la VA
discreta denida en el paso anterior.
A los estimadores de los momentos que resultan de aplicar este procedimiento los denomi-
naremos momentos muestrales. De este modo, los momentos muestrales correspondientes a los
momentos no centrados se denen de acuerdo con la siguiente expresion:
m
k
=
1
n
n

i=1
x
k
i
Universidad de Vigo. PyE. Tema 4: Estimacion y teoremas lmite 4.4
Para el caso de la esperanza (el momento no centrado de orden 1), el estimador es precisamente
la media muestral:
m
1
= x =
1
n
n

i=1
x
i
Siguiendo la misma idea, los momentos muestrales correspondientes a los momentos centrados se
calculan mediante la siguiente expresi on:

k
=
1
n
n

i=1
(x
i
x)
k
En el caso concreto de la varianza (momento centrado de orden 2), el momento muestral se
denomina varianza muestral:
S
2
n
=
2
=
1
n
n

i=1
(x
i
x)
2
Con respecto a la varianza se puede probar que:
E(S
2
n
) =
n 1
n

2
con lo que vemos que el estimador presenta un sesgo. Por ello, en la pr actica se utiliza como
estimador de la varianza la cuasi-varianza muestral, dada por:
S
2
n1
=
1
n 1
n

i=1
(x
i
x)
2
=
n
n 1
S
2
n
que es un estimador insesgado pero con mayor varianza que el anterior. Resulta evidente que para
tama nos muestrales grandes los dos estimadores coinciden.
4. Concepto de sucesi on de VA. Convergencia
En muchos problemas de procesado de se nal o imagen, control digital y comunicaciones
disponemos de datos muestreados en un determinado orden temporal; estos datos pueden mo-
delarse como observaciones de una VA que va cambiando de distribucion a lo largo del tiempo.
Estos problemas se solucionan utilizando un modelo probabilstico mas general que el estudiado
hasta ahora: las secuencias aleatorias. En este tema estudiaremos el concepto y las principales
propiedades de estos modelos. Como veremos las secuencias estoc asticas se pueden pensar como
un vector aleatorio innito-dimensional. Si la dimensi on del vector es numerable hablaremos de
procesos en tiempo discreto y en otro caso hablaremos de procesos en tiempo continuo, que ser an
tratados en el pr oximo tema.
Formalmente, diremos que una sucesi on de VA o proceso estoc astico en tiempo discreto es
una familia numerable de variables aleatorias {X
1
, . . . , X
n
, . . . } tal que cualquier subfamilia nita
de ella es una VA n-dimensional. La representaremos por:
{X
n
}

n=1
o {X[n]}

n=1
Para un valor concreto de cada VA tendremos una sucesion de n umeros reales llamada
realizaci on o trayectoria del proceso.
Universidad de Vigo. PyE. Tema 4: Estimacion y teoremas lmite 4.5
En muchas ocasiones es interesante estudiar las propiedades asint oticas de las secuencias
aleatorias, propiedades que, inevitablemente vendr an ligadas a conceptos como lmite o conver-
gencia. Al trabajar con variables aleatorias, tendremos que denir una medida de convergencia
para las sucesiones. Existen distintas formas de medir esta convergencia o distancia entre los
terminos de la sucesion o su lmite, las m as habituales son: en distribucion (convergencia de las
FD), en media cuadratica (la esperanza del cuadrado de la diferencia converge a cero), en proba-
bilidad (o debil) o casi segura (o fuerte). En la bibliografa recomendada de la asignatura puedes
obtener mas informaci on la respecto.
Los distintos tipos de convergencia est an relacionados entre ellos: las convergencias casi
segura y en media cuadratica implican convergencia en probabilidad, mientras que esta implica
convergencia en distribuci on.
5. Leyes de los grandes n umeros
En muchas situaciones nos interesar a estudiar el lmite de alguna funcion de la sucesion tal
como la suma o el promedio. En los temas anteriores hemos visto algunas propiedades de la suma
nita de variables aleatorias:
- La esperanza de la suma es la suma de las esperanzas.
- Si las variables son incorreladas, la varianza de la suma es la suma de las varianzas.
- Si las variables son independientes, la fdp de la suma es el producto de convoluci on de las fdp.
El promedio de VA cobra especial importancia despues de conocer el estimador de una
media. Recordemos que en este caso obtenamos la estimaci on como un promedio de VA, cada
una recogiendo un valor obtenido en el muestreo. Cabe preguntarse entonces si aumentando el
tama no muestral n obtendramos una mejor estimaci on. Desde el punto de vista de una sucesi on
de VA, lo que nos estamos preguntando es por el lmite cuando n de la sucesion. Gracias
a las leyes de los grandes n umeros, veremos que la respuesta es la esperada, el promedio de VA
converge a la media de la VA.
A continuacion enunciaremos algunos resultados relativos a la convergencia de promedios de
VA: las leyes de los grandes n umeros. Existen m ultiples versiones de estos teoremas. En algunos
casos se habla de leyes debiles, cuando la convergencia obtenida es en probabilidad, y en otros
de leyes fuertes, cuando la convergencia es casi segura. Comentaremos una de las versiones, para
ampliar informaci on puedes consultar la bibliografa recomendada en la asignatura.
Leyes fuertes de los grandes n umeros
Teorema: Dada una sucesi on de VA mutuamente independientes, identicamente distribuidas
y con esperanza nita , entonces el promedio de VA converge casi seguro a la media de la
distribuci on.
1
n
n

k=1
X
k

n

Observaci on: Fjate que el promedio de VA es una VA. Sin embargo, el teorema nos dice
que si promediamos una cantidad sucientemente grande de VA podemos aproximar esa VA por
una constante determinista (la media de la distribuci on), es decir, se anula la aleatoriedad.
Observaci on: La importancia pr actica de las leyes de los grandes n umeros radica en que nos
garantiza que promediando una cantidad sucientemente grande de valores observados de una
VA obtenemos una buena estimacion de la media.
Universidad de Vigo. PyE. Tema 4: Estimacion y teoremas lmite 4.6
Como corolario de las leyes de los grandes n umeros se puede concluir el conocido como
teorema de Bernoulli que nos dice lo siguiente:
Dado un espacio de probabilidad : (, F, P) y un suceso A F tal que P(A) = p, entonces:
f
r
(A)
n
p = P(A)
La demostraci on es muy sencilla. Planteemos la repeticion sucesiva e independientemente
del experimento y en la realizaci on n-esima denimos la VA X
n
que toma valor 1 si ocurre el
suceso A y valor 0 en otro caso. Evidentemente: P(X
n
= 1) = p; P(X
n
= 0) = 1 p; E(X
n
) = p y
las VA X
n
son independientes e identicamente distribuidas. Por las leyes de los grandes n umeros:
1
n
n

k=1
X
k

n
p
Dado que el promedio de las VA coincide con la frecuencia relativa del suceso A, se verica
el teorema.
Con este resultado cerramos un camino que habamos iniciado en el primer tema, cuando
habl abamos de las posibles deniciones de probabilidad. En aquel momento dimos una deni-
ci on frecuencial, pero optamos por utilizar una denicion axiom atica. A lo largo de los temas
anteriores hemos ido realizando distintas interpretaciones frecuenciales de diferentes conceptos.
Gracias al teorema de Bernoulli, vemos que las dos deniciones coinciden, por lo que todas las
interpretaciones que hemos hecho dejan de ser simplemente un punto de vista complementario
para pasar a ser una realidad.
6. Teorema central del lmite
Sentemonos delante de un ordenador y procedamos a obtener valores como suma de n ume-
ros generados aleatoriamente de acuerdo a una ley uniforme. Si representamos gr acamente en
un histograma una cantidad sucientemente grande de los valores obtenidos, observaremos que
el histograma se parece a una campana de Gauss. Si en lugar de partir de una distribuci on uni-
forme lo hacemos desde una exponencial, una Rayleigh, una Cauchy o cualquier otra distribuci on
observaremos que el resultado es el mismo. Ello es debido al teorema central del lmite.
El gran uso que la distribucion normal tiene en la ciencia y en la ingeniera es debido, en
parte, al hecho de que el error de medida o el ruido en sistemas de comunicaci on son debidos, a
menudo, a la suma de muchos terminos aleatorios, independientes entre s, con poca importancia
si consideramos cada uno de ellos por separado, pero que sumados producen una desviaci on
apreciable sobre la medida o la se nal. En estas condiciones la distribucion resultante de la suma
de todos estos terminos se aproxima a una distribucion normal. La bondad de esta aproximaci on
depende de distintos elementos, como el tipo de distribuci on de los sumandos y su n umero. En
general, la aproximacion es mejor en torno a la media de la distribuci on, de ah la inclusion del
termino central en la denominaci on del teorema que describe este fenomeno.
Formalmente, el teorema central del lmite (en una de sus m ultiples versiones) nos dice que si
tenemos una sucesi on de VA continuas independientes e identicamente distribuidas, con esperanza
y varianza nitas, entonces su suma es asint oticamente normal; es decir: si X(n) = X
1
+. . . +X
n
entonces:
X(n) E{X(n)}

Var{X(n)}

n
N(0, 1)
Universidad de Vigo. PyE. Tema 4: Estimacion y teoremas lmite 4.7
o, llamando y a la media y desviacion tpica de una cualquiera de las VA:
(X(n) n)

n

n
N(0, 1)
Existen distintas versiones de este teorema, por ejemplo la hipotesis de que las variables sean
identicamente distribuidas puede sustituirse por la de uniformemente acotadas (es decir, existe
un valor que acota todos los posibles valores de todas las VA, es decir, existe un n umero M tal
que |X
n
| < M para todo valor de n).
Ejemplo: La suma de uniformes converge muy r apidamente a una normal. En la siguiente
gr aca se compara la fdp de la suma de 1, 2, 4 u 8 VA uniformes (color negro, trazo discontinuo)
con la fdp de una normal (color rojo, trazo continuo) con los par ametros correspondientes. La fdp
de la suma de uniformes ha sido estandarizada para una mejor comparaci on visual. Observese
que la convergencia es muy r apida, es decir, con un n umero relativamente peque no de sumandos
se obtiene una aproximacion bastante buena.
!! !" # " !
#
#$%
#$"
#$&
#$!
TCL (uniforme)
!! !" # " !
#
#$%
#$"
#$&
#$!
TCL (suma de 2 uniformes)
!! !" # " !
#
#$%
#$"
#$&
TCL (suma de 4 uniformes)
!! !" # " !
#
#$%
#$"
#$&
TCL (suma de 8 uniformes)
Universidad de Vigo. PyE. Tema 4: Estimacion y teoremas lmite 4.8
Ejemplo 4.1: Disponiendo de un generador uniforme de n umeros aleatorios, como simularas de
modo eciente una N(0,1)?
6.1. Version discreta del Teorema central del lmite
Existe una version del teorema para variables discretas que puede enunciarse como sigue:
Si tenemos una sucesi on de VA independientes, bajo las mismas hipotesis del caso continuo,
si X = X
1
+ . . . + X
n
, E(X) = y Var(X) =
2
; para un valor de n sucientemente grande se
verica que:
P(X = k)
1

2
e

(k )
2
2
2
Es decir, f(x) tiende a una sucesion de impulsos cuya envolvente es una normal.
Si aplicamos esta versi on del teorema a una sucesion de VA independientes con distribucion
de Bernoulli (cuya suma es exactamente una distribucion binomial), tendremos el teorema de
DeMoivre-Laplace que nos asegura que una distribuci on binomial X de parametros n y p se
puede aproximar, para valores de n sucientemente grandes, por una normal de media np y
Universidad de Vigo. PyE. Tema 4: Estimacion y teoremas lmite 4.9
varianza np(1p). Es decir:
P(X = k) =

n
k

p
k
(1 p)
nk

2np(1 p)
e

(k np)
2
2np(1 p)
Este resultado es especialmente util para calcular probabilidades acumuladas en una bino-
mial cuando el par ametro n es sucientemente grande.
Ejemplo 4.2: A traves de una lnea telefonica se transmite una serie de 1000 bits (ceros o unos
con igual probabilidad). Aproxima la probabilidad de que el n umero de unos no diera de 500 en
m as de cuatro.
EJERCICIOS PROPUESTOS:
TCL. Stark. Ejemplo 4.7.9. Pag. 217.
Promedio de VA. Stark. Problema 4.23. Pag 222. Problema 4.24. Pag 222
Teorema de DeMoivre-Laplace. Papoulis. 2
a
ed.: Ej. 8.12. Pag. 196. El mismo problema est a en
Papoulis 3
a
ed., ej. 8.16, pag. 216 y en Papoulis 4
a
ed., ej. 7.16, pag. 280.
Propiedades de los estimadores. Cao. Problema propuesto 8.6. Pag. 373.
LECTURAS RECOMENDADAS:
Criterios de convergencia de sucesiones de VA. Stark. Secci on 7.4
Convergencia y teoremas lmite. Papoulis. Secciones 8.4 y 8.5 (2
a
ed.), seccion 8.4 (3
a
ed.) o
secci on 7.4 (4
a
ed.).
Distribuci on gaussiana y teorema central del lmite. Li. Secci on 3.5
Captulo 4. Pe na (1
a
o 2
a
edici on). Muestra y poblacion, estimadores.
INFORMACI

ON Y DOCUMENTACI

ON ADICIONAL:
La documentaci on de este tema se complementa con un boletn de problemas.
Universidad de Vigo. Problemas de PyE. Tema 4: Estimacion y teoremas lmite 4.1
PROBLEMAS DE PROBABILIDAD Y ESTAD

ISTICA
Tema 4: Estimacion y teoremas lmite
4.1) Se desea estimar, mediante la media muestral, la media de una poblacion N(,1). Para
obtener una estimaci on que, con una probabilidad de al menos 0.95, diste de la media
menos de 0.1, que tama no muestral mnimo se debe elegir?
4.2) Unas resistencias R
i
con i = 1, . . . , 12, son VA independientes e identicamente distribuidas
uniformemente en el intervalo (450,550). Usando el teorema central del lmite, determina:
P(5900 R
1
+ . . . + R
12
6100)
4.3) Un experimento consiste en el lanzamiento de una moneda. Determina el menor n umero de
lanzamientos para que la frecuencia relativa del suceso ha salido cara tome valores entre
0.49 y 0.51 con una probabilidad mayor que 0.95.
4.4) Disponemos de n servidores (donde n se supone sucientemente grande) para realizar una
tarea cada uno. El tiempo que el servidor i tarda en ejecutar su tarea es, independientemente
de los dem as, una VA X
i
con distribuci on exp(). Sea Y la VA que mide el tiempo total
para realizar el trabajo. Determina la distribuci on y densidad de Y en los siguientes casos:
a) Consideramos que el trabajo est a concluido cuando terminan todos los servidores.
b) Consideramos que el trabajo est a concluido cuando termina alg un servidor.
c) El sistema trabaja en serie, es decir, un servidor comienza a funcionar cuando acabo el
anterior, y el trabajo esta concluido cuando termina el ultimo servidor.
4.5) Disponemos de tres monedas que tienen probabilidades de obtener cara 0.6, 0.5 y 0.4 res-
pectivamente. El experimento consiste en lanzar simult aneamente las tres monedas.
a) Realizamos 100 veces el experimento.Cu al es la probabilidad de que el n umero total
de caras sea mayor que 180?
b) Cual es el n umero medio de lanzamientos para obtener la primera cara?
4.6) El n umero de personas que acuden a cada clase del laboratorio de PyE es, equiprobablemen-
te, un n umero entre 18 y 22 ambos inclusive. El n umero total de clases previstas a lo largo
del curso es de 250, aunque se sabe por experiencia que, con probabilidad 0.1, este n umero
queda reducido a 240. Sea Y la VA que cuenta el n umero total de asistencias al laboratorio
de PyE a lo largo del curso. Suponiendo independencia entre el n umero de asistencias en
diferentes clases, calcula:
a) Esperanza de Y .
b) Probabilidad de que el n umero total de asistencias sea mayor que 5000.
c) Varianza de Y .
4.7) Un examen tipo test consta de 100 preguntas. Cada pregunta ofrece cuatro posibles res-
puestas: una es correcta, dos son incorrectas y la cuarta es dejar la pregunta en blanco. Un
alumno responde las distintas preguntas de forma independiente y en cada una de ellas tiene
una probabilidad p de conocer la respuesta correcta. Si el alumno desconoce la respuesta,
elige una de las cuatro opciones equiprobablemente. Cada pregunta se eval ua con dos puntos
si se acierta la respuesta, cero puntos si se deja en blanco y se resta un punto si se da una
respuesta incorrecta. El examen se aprueba si se obtienen al menos 100 puntos.
Universidad de Vigo. Problemas de PyE. Tema 4: Estimacion y teoremas lmite 4.2
a) Sea X la VA que cuenta el n umero de puntos obtenidos en una pregunta. Calcula la
esperanza y la varianza de X. Eval ua e interpreta el resultado para p = 1.
b) Suponiendo p = 3/5, calcula la probabilidad de aprobar el examen. Justica la res-
puesta.
Universidad de Vigo. Problemas de PyE. Tema 4: Estimacion y teoremas lmite 4.3
SOLUCIONES AL BOLET

IN DE PROBLEMAS
Tema 4: Estimacion y teoremas lmite
4.1) n = 385
4.2) 0.6826
4.3) 9604
4.4) a) F(y) = (1 e
y
)
n
b) Y exp(n)
c) Y N((n/,

n/)
4.5) a) 0.00021
b) 1.136
4.6) a) 4980
b) 0.45
c) 4098
4.7) a) E(X) = 2p; Var(X) = (8p
2
+ 5p + 3)/2;
con p = 1, X es determinista (siempre acierta la respuesta), y E(X) = 2 y Var(X) = 0.
b) 0.9452
Universidad de Vigo. PyE. Practica 7 7.1
PROBABILIDAD Y ESTAD

ISTICA
Practica 7. Estimaci on y teoremas lmite
Objetivos
Los contenidos de la teora que se revisan durante esta pr actica son los siguientes:
-Teorema de Bernoulli.
-Leyes de los grandes n umeros.
-Teorema Central del Lmite.
Ejecucion
Para entrar en la pr actica teclea estadlab en la ventana de comandos y despues selecciona
Sucesiones.
Teorema de Bernoulli (25)
Se comprueba el teorema de Bernoulli, esto es, el hecho de que la frecuencia relativa de
un suceso converge a su probabilidad cuando el n umero de repeticiones del experimento tiende a
innito.
Se simula un experimento un n umero de veces y se cuenta en cu antas de ellas ocurre un
determinado suceso. Se puede seleccionar tanto el n umero de veces que se realiza el experimento
como la probabilidad del suceso. Ademas se permite mostrar hasta 6 repeticiones, es decir, 6
c alculos distintos de frecuencia relativa.
Pulsa el bot on Representar para actualizar las gr acas.
Observa que todas las repeticiones convergen al mismo sitio, aunque al principio las trayec-
torias sean muy diferentes. Compara las trayectorias obtenidas para Num. de muestras = 25 y
para Num. de muestras = 1000.
Cuestiones:
1) Por que uct ua tanto la frecuencia relativa en los valores bajos de n y en cambio se
estabiliza para valores grandes de n?
2) Que ocurre si asignas un valor extremo (0 o 1) a p? Interpreta los resultados.
3) Dado el experimento: Lanzamiento de un dado representa gr acamente la evoluci on de la
frecuencia relativa del suceso sale un 5 si realizas el experimento 20 veces. Puedes hacer
la representacion sobre el papel o en el ordenador, en cuyo caso debes crear previamente
una nueva ventana graca, tecleando gure en la ventana de comandos. Para simular una
muestra de este experimento puedes repasar lo estudiado en la practica 5 sobre generaci on
de VA discretas equiprobables.
4) Sean X U(-1,3) e Y U(-3,1) VA independientes. Se dene Z = XY . Calcula la proba-
bilidad de que Z sea negativo. Realiza una simulacion para comprobar el resultado empri-
camente, es decir, que te permita, a partir de una muestra de gran tama no, evaluar la
frecuencia relativa del suceso de interes. Recuerda que para generar n umeros aleatorios pue-
des emplear la funcion rand desde la ventana de comandos. Los comandos nd y length
tambien pueden resultar utiles.
Universidad de Vigo. PyE. Practica 7 7.2
Teorema Central del Lmite (20)
Ejemplo 1
En el Ejemplo 1 de esta practica se comprueba como la fdp de la suma de uniformes se
va aproximando a la fdp de una normal a medida que se aumenta el n umero de sumandos. Para
ello se estudia la fdp de la suma tipicada de k1, k2, k3 y k4 uniformes (0,1) (representada en
color verde) y se compara con la fdp de la N(0,1) (representada en color rojo). A la distribucion
que resulta de sumar las uniformes, se le resta su media y se divide por su desviaci on tpica. A
esta operaci on se le denomina tipicaci on o estandarizacion. Como consecuencia se obtiene una
distribuci on de media 0 y desviaci on tpica 1, comparable de este modo con una N(0,1).
Para actualizar las gr acas pulsa el boton Ejemplo 1.
Observa que en esta practica se realiza una comparacion de fdps (en lugar de la comparaci on
entre la fdp y el histograma de una misma VA que se realiz o en pr acticas anteriores).
Cuestiones
1) Supongamos que hemos elegido dos sumandos. Determina el rango de la distribucion de la
suma de dos uniformes tipicada que se representan en la gr aca.
2) C omo se calculara la fdp exacta de la suma de uniformes independientes e identicamente
distribuidas?
Ejemplo 2
En el Ejemplo 2 de esta pr actica se simula la suma de 12 VA U(0,1) independientes y al
resultado se le restan 6 unidades. Seg un el Teorema Central del Lmite la distribucion de la VA
as generada se parecera a la de una N(0,1) (dada la velocidad de convergencia del teorema para
la distribuci on uniforme). En la ventana de trabajo se representan dos gr acas correspondientes
a la simulaci on. A la izquierda se muestra un histograma de la muestra obtenida de la suma de
uniformes y la fdp de una N(0,1). A la derecha se representa la FD emprica (F
n
, ver observacion
posterior) obtenida a partir de la muestra y la FD te orica (F) de una N(0,1). Adem as se representa
el estadstico de Kolmogorov-Smirno: sup |F
n
(x) F(x)|, que representa la diferencia m axima
existente entre la FD emprica y la teorica.
Para actualizar las gr acas pulsa el boton Ejemplo 2.
Que es la FD emprica?:
Dadas n observaciones independientes de una VA, la FD emprica es la FD correspondiente
a una VA discreta que tome esos n valores equiprobablemente. Su apariencia sera escalonada
con saltos de 1/n en cada una de las observaciones. Si alguno de los n valores aparece k veces,
tendr a un peso k/n.
Cuestiones
1) Se han observado los siguientes valores de una VA: {-3, 2, 2, 1 , 4}. Haz una representacion
de la FD emprica desde la ventana de comandos de MatLab (crea una nueva ventana
gr aca utilizando el comando gure). Para ello puede ser util el comando stairs. Para mas
informaci on teclea help stairs.
2) Comprueba empricamente que al aumentar el tama no muestral disminuye el estadstico de
Kolmogorov-Smirno. A que crees que puede ser debido?
Universidad de Vigo. PyE. Practica 7 7.3
Leyes fuertes de los grandes n umeros (15)
Dada una sucesi on de VA independientes e identicamente distribuidas, se comprueba que la
sucesi on construida como la media muestral de las VA anteriores, converge a E(X). Es decir:
E(X
k
) = con k = 1, 2, . . . ;

X
n
=
1
n
n

k=1
X
k
; entonces lm
n

X
n
=
En esta pr actica se realiza una simulaci on donde se obtienen muestras de una VA exponencial
de par ametro (exp()). Tanto el n umero de muestras como el par ametro de la exponencial son
modicables por el usuario. Cada muestra x
k
es una observaci on de la VA X
k
. Se asume que para
n grande se verica:
n

k=1
X
k

n

k=1
x
k
Estudia la evolucion de la media muestral a medida que se aumenta el tama no muestral.
Con esta ley se prueba la bondad de la media muestral como estimador de la media (estimador
eciente).
Cuestiones:
1) En funci on del parametro , cual sera el lmite de la sucesi on? Calcula la varianza del
termino general de la sucesion. C omo crees que afecta el valor de a la velocidad de
convergencia?
2) Bajo las mismas hipotesis (variables independientes e identicamente distribuidas) la Ley
de los Grandes N umeros nos dice que el promedio de variables converge a una constante
determinista (la media), mientras que el Teorema Central del Lmite nos dice que converge
a una VA normal con unos ciertos par ametros. Son contradictorios los resultados? Justica
la respuesta.










TEMA 5 PROCESOS ESTOCSTICOS
PROBABILIDAD Y ESTADSTICA (PE)
2010/2011
Universidad de Vigo. PyE. Tema 5: Procesos estocasticos 5.1
Tema 5. Procesos estocasticos
1. Descripcion de un proceso estocastico
Los procesos estocasticos o procesos aleatorios constituyen una herramienta estadstica que
surge ante la necesidad de modelar el comportamiento de experimentos aleatorios que varan
en el tiempo o que dependen de alguna otra variable determinista. Las sucesiones de variables
aleatorias, denidas en el tema anterior, son un ejemplo de proceso estocastico en el que el conjunto
de instantes de tiempo es innito numerable. Por su parte, los procesos estoc asticos continuos
tambien constituyen una familia innita de VA, pero en este caso no numerable.
Supongamos que estamos estudiando el n umero de llamadas que se producen en una central
telef onica. Para un intervalo de tiempo determinado, por ejemplo una hora, se puede denir la
VA: N umero de llamadas que se producen en una hora. Si consideramos un intervalo mayor,
por ejemplo dos horas, es evidente que el n umero de llamadas observadas tendera a ser superior
y, por tanto, la distribuci on de probabilidad de esta nueva VA sera distinta a la anterior. As para
cada tiempo que jemos tendremos una VA, en principio distinta. En situaciones de este tipo
surge de modo natural la conveniencia de denir una familia de variables aleatorias que dependen
de una variable determinista, es decir, un proceso estoc astico. En este caso concreto, podemos
denir el proceso estocastico X(t) como el n umero de llamadas que se producen en el intervalo
(0, t). As, para cada valor de t que elijamos tendremos una VA diferente.
Habamos denido una VA X como una funci on que a cada posible resultado del experimento
le asigna un n umero real X(). En un proceso estoc astico el resultado del experimento puede
variar con el tiempo, por lo que asignaremos un n umero real como una funci on de ambos X(t, ).
Denici on: Dado un experimento : (, F, P), si suponemos que el resultado del experi-
mento, , se produce en un tiempo t, podemos asignar una funcion de ambos X(t, ) sobre
R. Un proceso estoc astico (PE) es una funcion de dos variables, t y , una determinista y otra
aleatoria, tal que:
a) X(t, ) es una familia de funciones temporales.
b) Si se ja tenemos una funcion temporal X(t) llamada realizacion del proceso.
c) Si se ja t tenemos una VA.
d) Si se jan t y tenemos un n umero real o complejo.
La variable tiene una interpretacion similar en la VA X() y en el PE X(t, ). Para una
VA, representa un resultado del experimento. En el caso del PE X(t, ) tambien lo representa,
con la diferencia de que en este caso el experimento est a denido para los distintos valores de t y el
resultado es en realidad un conjunto de resultados; una funci on temporal que hemos denominado
realizaci on del proceso. Al igual que ocurra con las VA, notaremos un proceso omitiendo la
dependencia con : X(t).
Llamaremos espacio de tiempos T al conjunto de los posibles valores del tiempo en los que
se estudia el proceso y espacio de estados S al conjunto de los posibles valores del proceso. As,
hablaremos de procesos discretos o continuos en el tiempo y de procesos continuos, discretos o
mixtos en el espacio de estados. Para los procesos discretos en el tiempo, dado que podemos
numerar los instantes de tiempo, utilizaremos la siguiente notaci on: X(t
n
) = X[n].
Universidad de Vigo. PyE. Tema 5: Procesos estocasticos 5.2
Ejemplo: Distintas realizaciones del proceso X(t) = Ncos((2/24)t + ) siendo N y VA
con distribuciones P(10) y U(0, 2) respectivamente. En este ejemplo, tanto el espacio de tiempos
como el espacio de estados son continuos.
Ejemplo: El n umero de llamadas que llegan a una central telefonica es un proceso continuo en el
tiempo pero discreto en el espacio de estados. En la graca siguiente se ven 3 realizaciones.
Universidad de Vigo. PyE. Tema 5: Procesos estocasticos 5.3
Ejemplo 5.1: Sea el proceso X(t, ) = at +Y () con a determinista e Y U(0,1). En la notaci on
habitual: X(t) = at + Y . Dibuja una realizaci on del proceso, y clasica los espacios de estados y
de tiempos.
Al estar un PE formado por innitas VA tendr a sentido hablar de la FD o de la fdp conjunta
de un grupo de ellas o de las marginales correspondientes a las VA individuales. Hablaremos
entonces de orden de la FD o de la fdp en funci on del n umero de VA que consideremos. En lo
relativo a la FD, supondremos en todo momento que estamos trabajando con VA reales.
Dado un PE X(t), si jamos un tiempo t = t
0
, tendremos una VA X(t
0
) que tendr a una
FD asociada. Si cambiamos el instante de tiempo tendremos una VA en principio, distinta a
X(t
0
), con una FD diferente. En este sentido, la FD depende del tiempo, por lo que denimos la
FD de primer orden del proceso X(t) como:
F
X
(x; t) = P(X(t) x)
Desde el punto de vista frecuencial podemos interpretar la FD de primer orden de la siguiente
forma: supongamos que realizamos el experimento n veces, en cada una de ellas observamos una
funci on temporal X(t); con lo que obtenemos n realizaciones. As, la aproximaci on frecuencial de
F(x; t) sera el n umero de trayectorias que toman valores menores o iguales que x en el punto t,
dividido por n.
Derivando respecto a x tendremos la fdp de primer orden.
Si jamos dos instantes de tiempo, tendremos dos VA del proceso, X(t
1
) y X(t
2
). Podemos
denir la FD de segundo orden como:
F
X
(x
1
, x
2
; t
1
, t
2
) = P(X(t
1
) x
1
, X(t
2
) x
2
)
Calculando las derivadas parciales respecto a x
1
y x
2
obtendramos la fdp de segundo orden. Los
conceptos de marginal y distribuci on o densidad condicionada son an alogos a los denidos para
VA bidimensionales. As, por ejemplo:
F(x
1
; t
1
) = F(x
1
, +; t
1
, t
2
)
f(x
1
; t
1
) =

f(x
1
, x
2
; t
1
, t
2
)dx
2
f(x
1
; t
1
/X(t
2
) = x
2
) =
f(x
1
, x
2
; t
1
, t
2
)
f(x
2
; t
2
)
Universidad de Vigo. PyE. Tema 5: Procesos estocasticos 5.4
Ejemplo: Realizacion de un proceso continuo en el tiempo con fdp de primer orden gaussiana.
Hablaremos en general de FD de orden n como:
F(x
1
, . . . , x
n
; t
1
, . . . , t
n
) = P(X(t
1
) x
1
, . . . , X(t
n
) x
n
)
Calculando las derivadas parciales obtendramos la fdp de orden n. Evidentemente una FD
o una fdp de orden n determina todas las FD o fdp de orden inferior, pues son las marginales de
esta.
Para determinar estadsticamente un PE, necesitaramos conocer la FD o la fdp de orden
n, para cualquier valor de n y para cualquier valor de t
1
, . . . , t
n
. Esto es, en la pr actica, realmente
difcil, por lo que se estudiar an una serie de parametros y propiedades de los PE, que, si bien no
los determinan completamente, nos permiten obtener mucha informaci on acerca de ellos.
Un proceso bidimensional consiste en dos procesos X(t) e Y (t) y queda estadsticamente
determinado si conocemos la FD o fdp conjunta de las VA X(t
1
), . . . , X(t
n
); Y (t

1
), . . . , Y (t

m
) para
cualquier n y m; y para todo t
1
, . . . , t
n
; t

1
, . . . , t

m
Un proceso complejo Z(t) = X(t) + jY (t) es una familia de funciones complejas y esta es-
tadsticamente determinado en funci on del proceso bidimensional X(t), Y (t).
Universidad de Vigo. PyE. Tema 5: Procesos estocasticos 5.5
Ejemplo 5.2: Sea el proceso X(t, ) = at +Y con a determinista e Y U(0,1). Determina la fdp
de primer orden.
2. Estadsticos de un proceso estocastico
Denici on: Llamaremos media de un PE a:
E{X(t)} =
X
(t) =

xf(x; t)dx
Para cada valor de t distinto tenemos, en principio, una VA diferente; por lo que tendre-
mos tambien una media distinta. Por ello la media de un proceso es, en general, una funcion
dependiente del tiempo.
Denici on: Llamaremos autocorrelaci on de un PE a:
R
X
(t
1
, t
2
) = E{X(t
1
)X(t
2
)} =

x
1
x
2
f(x
1
, x
2
; t
1
, t
2
)dx
1
dx
2
Si t
1
= t
2
, tenemos la potencia media del proceso: R
X
(t, t) = E{X
2
(t)}.
Denici on: Se dene correlaci on cruzada entre los procesos X(t) e Y (t) como:
R
XY
(t
1
, t
2
) = E{X(t
1
)Y (t
2
)} =

xyf
XY
(x, y; t
1
, t
2
)dxdy
Denici on: Llamaremos autocovarianza de un PE a:
C
X
(t
1
, t
2
) = E{[X(t
1
)
X
(t
1
)][X(t
2
)
X
(t
2
)]} = R
X
(t
1
, t
2
)
X
(t
1
)
X
(t
2
)
Un caso particular es la funci on de varianzas (t
1
= t
2
):
C
X
(t, t) = E{[X(t)
X
(t)]
2
} = R
X
(t, t)
2
X
(t) = E{X
2
(t)}
2
X
(t) = Var{X(t)}
Observa que, al igual que la media, la varianza depende, en general, del instante de tiempo
t considerado.
Denici on: Se dene covarianza cruzada entre los procesos X(t) e Y (t) como:
C
XY
(t
1
, t
2
) = E{[X(t
1
)
X
(t
1
)][Y (t
2
)
Y
(t
2
)]} = R
XY
(t
1
, t
2
)
X
(t
1
)
Y
(t
2
)
Universidad de Vigo. PyE. Tema 5: Procesos estocasticos 5.6
Estos estadsticos son, en general, funciones que dependen de uno o m as instantes de tiempo.
Observaci on: Los conceptos de covarianza y correlacion ya haban sido utilizados en la seccion de VA.
As como la idea de covarianza es una extension logica de aquella denicion, no ocurre lo mismo con la correlacion.
De todas formas, tanto la covarianza, como la correlacion o el coeciente de correlacion son estadsticos directa-
mente relacionados, cuyo objetivo es proporcionar una medida de dependencia lineal entre VA. De hecho, es facil
demostrar que son equivalentes si las medias son cero y las desviaciones tpicas una unidad, es decir, si las variables
estuviesen tipicadas. Esa transformacion no supone mas que un cambio de escala para reducir la correlacion al
intervalo (-1,1), de tal forma que toda la informacion de la relacion lineal entre las dos se nales esta contenida en
la esperanza del producto, que es precisamente como se ha denido la correlacion cruzada o la autocorrelacion.
En procesado de se nal se suele usar mas esta que la funcion de coecientes de correlacion por ser mas sencilla
de calcular y por estar directamente relacionada con la potencia de la salida en un sistema lineal invariante en
el tiempo. As, si X(t) e Y (t) representan la entrada y la salida de un sistema lineal, la potencia media en la
salida E{Y
2
(t)} no es solo funcion de la potencia media en la entrada E{X
2
(t)}, sino que necesitamos conocer
E{[X(t
1
) + X(t
2
)]
2
}, que claramente se calcula a partir de la potencia media en los tiempos t
1
y t
2
y a partir de
la autocorrelacion de X en t
1
, t
2
.
Ejemplo 5.3: Sea el proceso X(t) = at +Y con a determinista e Y U(0,1). Calcula la esperanza,
la varianza, la autocorrelacion y la autocovarianza.
A continuacion generalizamos los conceptos, ya estudiados en VA, de independencia, inco-
rrelaci on y ortogonalidad para PE.
Denici on: Dos procesos X(t) e Y (t) son independientes si su fdp conjunta de cualquier
orden se puede descomponer como el producto de dos fdp marginales, una conteniendo terminos
s olo dependientes del proceso X(t) y la otra dependientes de Y (t).
Universidad de Vigo. PyE. Tema 5: Procesos estocasticos 5.7
Denici on: Dos procesos X(t) e Y (t) son incorrelados si C
XY
(t
1
, t
2
) = 0 para cualquier valor
de t
1
y t
2
.
Denici on: Dos procesos X(t) e Y (t) son ortogonales si R
XY
(t
1
, t
2
) = 0 para cualquier valor
de t
1
y t
2
.
Observaci on: Para los procesos discretos en el tiempo utilizaremos la siguiente notacion:

X
[n] = E(X[n])
R
X
[n
1
, n
2
] = E{X[n
1
]X[n
2
]}
C
X
[n
1
, n
2
] = R
X
[n
1
, n
2
]
X
[n
1
]
X
[n
2
]
3. Estacionariedad
Uno de los objetivos fundamentales de los modelos estocasticos es la prediccion. Para ello,
bas andonos en la historia del proceso, trataremos de conjeturar su comportamiento futuro. Para
poder hacer esto, necesitamos que las condiciones futuras sean an alogas a las pasadas. Esta
propiedad se conoce con el nombre de estacionariedad. De modo general, podramos decir que un
PE es estacionario si sus propiedades estadsticas son invariantes ante una traslacion de tiempo.
Esto implica que el mecanismo fsico subyacente que genera el experimento no cambia con el
tiempo.
En la practica existen muchos fen omenos fsicos cuyo comportamiento se puede modelar
mediante un PE estacionario. Como comprobaremos al analizar sus propiedades, una de las ven-
tajas de estos procesos es que son m as sencillos de caracterizar, pues algunos de sus estadsticos
no dependen del tiempo.
Formalmente, diremos que un proceso X(t) es estacionario (en sentido estricto) si sus pro-
piedades estadsticas no varan al trasladar el origen de tiempos; es decir, X(t) y X(t +) tienen
las mismas propiedades estadsticas . Expresandolo en terminos de la fdp:
X(t) es estacionario f(x
1
, . . . , x
n
; t
1
, . . . , t
n
) = f(x
1
, . . . , x
n
; t
1
+, . . . , t
n
+) n; t
1
, . . . , t
n
;
Diremos que dos procesos X(t) e Y (t) son conjuntamente estacionarios si sus propiedades
estadsticas conjuntas son identicas a las de X(t + ) e Y (t + ) .
Las principales propiedades de los procesos estacionarios son:
1) f(x; t) = f(x; t + )
Por tanto podemos conseguir cualquier valor de t eligiendo el adecuado; es decir, la fdp de
primer orden no depende del tiempo, y por tanto, parametros como la media o la varianza,
que se calculan exclusivamente a partir de la fdp de primer orden, no dependen del tiempo.
2) f(x
1
, x
2
; t
1
, t
2
) = f(x
1
, x
2
; t
1
+ , t
2
+ ) t
1
, t
2
;
En particular si = t
1
tenemos que f(x
1
, x
2
; t
1
, t
2
) = f(x
1
, x
2
; ) con = t
2
t
1
; es decir, la
fdp de segundo orden no depende de los instantes temporales que consideremos, sino de la
distancia entre ellos; en particular, los parametros que dependan s olo de la fdp de segundo
orden, como la autocorrelacion o la autocovarianza, dependen s olo de la distancia temporal
entre los instantes considerados, independientemente de d onde esten situados.
Universidad de Vigo. PyE. Tema 5: Procesos estocasticos 5.8
Vericar que un proceso es estacionario en sentido estricto es, en general, imposible, pues
implica estudiar innitas fdp. Por ello estudiaremos otros tipos de estacionariedad.
Denici on: Un proceso es estacionario de orden k si la condici on de estacionariedad estricta
se cumple para todas las fdp de orden n con n k.
Denici on: Un proceso es estacionario en sentido amplio (debilmente estacionario) si se cum-
plen las siguientes condiciones:
1) E{X(t)} = (la media es independiente del tiempo)
2) R
X
(t
1
, t
2
) = R
X
() con = t
2
t
1
(la autocorrelaci on es solo funcion de la distancia temporal
entre los instantes considerados)
Evidentemente, si un proceso es estacionario de orden dos, tambien lo es en sentido amplio.
Este tipo de estacionariedad (la debil) es la m as frecuentemente utilizada en la practica, pues
se basa en par ametros que son f acilmente estimables a partir de una muestra del proceso. Otros
tipos de estacionariedad que podran denirse son: asint otica, en un intervalo o peri odica.
Algunas propiedades de la correlaci on de procesos estacionarios son:
Si X(t) e Y (t) son PE estacionarios en sentido amplio, se verica:
1) La potencia media del proceso, E{X
2
(t)}, no depende de t, ya que:
R
X
(0) = E{X(t)X(t)} = E{X
2
(t)}
2) La varianza del proceso, Var{X(t)}, no depende de t ya que:
Var{X(t)} = C
X
(t, t) = E{[X(t)
X
(t)]
2
} = R
X
(t, t)
2
X
(t) = R
X
(0)
2
3) R
XY
() = R
Y X
() ya que:
R
XY
() = E{X(t)Y (t )} = E{X( + )Y ()} = R
Y X
() siendo = t.
4) R
X
() = R
X
() ya que:
Haciendo X = Y en la propiedad anterior se obtiene el resultado.
Ruido blanco
El termino ruido se emplea en el mundo de las telecomunicaciones para hacer referencia
a se nales indeseables que constituyen una interferencia en un sistema de comunicaci on. En la
pr actica el modelo que se emplea habitualmente para estas interferencias es el que se conoce
como ruido blanco, que viene dado por la siguiente denicion:
Denici on: Un proceso X(t) es ruido blanco si C
X
(t
1
, t
2
) = 0 t
1
= t
2
; o lo que es lo
mismo, las variables X(t
1
) y X(t
2
) est an incorreladas. La autocovarianza del ruido blanco se
puede expresar equivalentemente como:
C
X
(t
1
, t
2
) = q(t
1
)(t
1
t
2
) con q(t) 0
Diremos que el proceso es ruido blanco en sentido estricto si las variables X(t
1
) y X(t
2
) son
independientes. A menudo la distribuci on que se emplea para modelar el ruido en cada instante es
Universidad de Vigo. PyE. Tema 5: Procesos estocasticos 5.9
la distribuci on gaussiana, en cuyo caso las deniciones de ruido blanco y ruido blanco en sentido
estricto son equivalentes.
Observaci on: Generalmente se asume que el ruido blanco tiene media cero, por lo que su
funci on de autocorrelaci on coincide con su autocovarianza. Adem as, tambien es habitual consi-
derar que la varianza del proceso es constante, con lo cual el ruido blanco constituye un proceso
estacionario en sentido amplio. Tal y como se deduce de su denicion, el ruido blanco en sentido
estricto presenta un valor en cada instante de tiempo que no depende de cu al haya sido su valor
en los instantes precedentes y que no ejerce ninguna inuencia en sus valores futuros.
Los PE se pueden estudiar tambien en el dominio de la frecuencia. Concretamente para un PE estacionario
se dene la densidad espectral de potencia como la transformada de Fourier de su funcion de autocorrelacion.
Si aplicamos esta expresion a la funcion de autocorrelacion del ruido blanco de media cero, se obtiene que su
espectro viene dado por una constante, es decir, se trata de un espectro plano, cuya magnitud es com un a todas
las frecuencias. El nombre de ruido blanco contrasta de este modo con el termino ruido coloreado, que es aquel
cuyo espectro presenta magnitudes distintas para diferentes frecuencias.
4. Ejemplo
Sea X(t) = A cos(t+) donde es una VA U(, ) con A y deterministas. Determina:
a) Funci on de densidad de primer orden
b) E{X(t)}
c) R
X
(t
1
, t
2
)
d) Estudia la estacionariedad en sentido amplio
a) Fijado un instante de tiempo t, tenemos que X(t) = g() = A cos(t + ). Aplicaremos el
teorema fundamental para determinar la fdp.
Para cada x (A, A), tenemos dos inversas:
1
y
2
.
g

() = A sen(t + ) = A

1 cos
2
(t + )) =

A
2
x
2
Por el teorema fundamental:
f(x; t) =
1/2

A
2
x
2
+
1/2

A
2
x
2
=
1

A
2
x
2
si x (A, A)
Universidad de Vigo. PyE. Tema 5: Procesos estocasticos 5.10
b)
E{X(t)} = E{g()} =

g()f()d =

A cos(t + )
2
d =
A
2
sen(t + )

= 0
Por tanto
X
(t) = 0 t X(t) es estacionario en media
c)
R
X
(t
1
, t
2
) = E{X(t
1
)X(t
2
)} = E{A cos(t
1
+ )A cos(t
2
+ )} =
= A
2
E{cos(t
1
+ )cos(t
2
+ )}

=

=
A
2
2
E{cos((t
1
+ t
2
) + 2) + cos((t
1
t
2
))} =
=
A
2
2

cos((t
1
+ t
2
) + 2)
2
d +

cos((t
1
t
2
))
2
d

=
=
A
2
2

1
2
sen((t
1
+ t
2
) + 2)
2

+ cos((t
1
t
2
))

=
=
A
2
2
cos((t
1
t
2
)) =
A
2
2
cos(()) =
A
2
2
cos() con = t
2
t
1
cos(a)cos(b) =
1
2
{cos(a + b) + cos(a b)}
d) Ya habamos visto que era estacionario en media, tambien lo es en autocorrelacion, pues
esta s olo es funci on de , la distancia entre los dos instantes de tiempo estudiados, por ello
es estacionario en sentido amplio.
EJERCICIOS PROPUESTOS:
FD de un PE. Li. Problema 6.2. Pag. 301.
FD y esperanza de un PE. Papoulis. 2
a
ed.: Prob. 9.1. Pag. 258. 3
a
ed.: Prob. 10.1. Pag. 340. 4
a
ed.: Prob. 9.1. Pag. 430.
Estadsticos de un PE. Li. Problema 6.5. Pag. 301.
Correlaci on de la suma y la diferencia. Li. Problema 6.32. Pag. 305.
Estacionariedad y autocorrelacion. Li. Problemas de autoevaluaci on 6.3. Pag. 310.
Estacionariedad y autocovarianza. Papoulis. 3
a
ed.: Problema 10.10. Pag. 340. 4
a
ed.: Problema
9.10. Pag. 430.
Correlaci on cruzada. Li. Ejemplos adicionales 6.24. Apartados a), b) y c). Pag. 298.
LECTURAS RECOMENDADAS:
Stark: Introducci on y apartado 8.19
Li: Apartados 6.1 y 6.3.
INFORMACI

ON Y DOCUMENTACI

ON ADICIONAL:
La documentaci on de este tema se complementa con un boletn de problemas.
Universidad de Vigo. Problemas de PyE. Tema 5: Procesos estocasticos 5.1
PROBLEMAS DE PROBABILIDAD Y ESTAD

ISTICA
Tema 5: Procesos estocasticos
5.1) Sea U una VA U(0,1). A partir de ella se construye el proceso X(t) = e
Ut
, con t > 0
a) Representa una realizaci on de X(t).
b) Para cada valor de t, determina el rango de la VA X(t).
c) Calcula E{X(t)} y R
X
(t
1
, t
2
).
d) Estudia la estacionariedad en sentido amplio del proceso X(t).
e) Calcula la funci on de distribuci on de primer orden F(x; t).
5.2) Se sabe que el n umero de llegadas a una cola en un intervalo de tiempo de longitud t sigue
una distribuci on P(t). Ademas, el n umero de llegadas que se producen en un intervalo
I
1
es independiente del que se producen en un intervalo de tiempo I
2
siempre que ambos
intervalos no se solapen. Sea X(t) el proceso estoc astico que cuenta el n umero de llegadas que
se producen en el intervalo de tiempo [0, t], con t > 0. Calcula la media, la autocorrelaci on
y estudia la estacionariedad, en sentido amplio, del proceso X(t).
5.3) Sea el proceso X(t) = U
2
+ t, donde U es una VA U(-1,2) y t > 0.
a) Representa una realizaci on del proceso X(t).
b) Determina, en funci on de t, el rango de X(t).
c) Calcula la fdp de primer orden de X(t). Es X(t) estacionario de orden 1?
d) Calcula la autocorrelaci on del proceso X(t).
5.4) Sea X[n] el proceso estocastico dado, de forma recursiva, por:
X[0] = 0
X[n] =

X[n 1] + 1 con probabilidad p


X[n 1] con probabilidad q = 1 p
con n = 1, 2 . . .
a) Determina la fdp de primer orden y la media del proceso.
b) Calcula la autocorrelaci on entre los instantes n
1
y n
2
con 0 < n
1
< n
2
.
5.5) Sea X[k] Ber(p) para k = 0, 1; ambas independientes. Se dene el siguiente proceso
estocastico:
Y (t) = X[0] + X[1] cos

t
2

con 0 t
a) Representa todas las posibles realizaciones del proceso Y (t).
b) Calcula la fdp de primer orden del proceso Y (t).
c) Calcula E{Y (t)}.
d) Se sabe que Y (0) = 1. Calcula la probabilidad de que X[0] = 1.
5.6) Consideremos el siguiente proceso estoc astico:
Y [n] =
X[n] + X[n 1]
2
Determina media, autocorrelacion y estudia la estacionariedad, en sentido amplio, del pro-
ceso Y [n] en los siguientes casos:
a) {X[n]} es una sucesi on de VA independientes e identicamente distribuidas.
b) X[n] es un proceso estacionario en sentido amplio.
Universidad de Vigo. Problemas de PyE. Tema 5: Procesos estocasticos 5.2
5.7) Sean X(t) e Y (t), con t > 0, dos PE independientes con fdp de primer orden U(t, t) en
ambos casos. A partir de ellos se construye el PE Z(t) = X(t) + Y (t).
a) Representa gr acamente una realizaci on del PE X(t).
b) Calcula la E{Z(t)} y Var{Z(t)}.
c) Determina el rango de Z(t).
d) Determina f(z; t).
e) Estudia la estacionariedad en sentido amplio de Z(t).
5.8) Sean X e Y dos VA independientes con distribuciones X U(0,1) e Y Ber(p). A partir
de ellas se construye el PE: Z(t) = X + tY con t > 0
a) Determina E{Z(t)}.
b) Calcula R
Z
(t
1
, t
2
).
c) Determina, en funci on de t, el rango de la VA Z(t) .
d) Determina la funci on de distribuci on de primer orden de Z(t) para t > 1.
5.9) Sea X[n] un PE en tiempo discreto cuya fdp de primer orden es Ber(p) para todo n entero,
n 0. Por otra parte, X[n] y X[m] son independientes para todo n = m. Se dene:
Y [n] = X[n]X[n 1] con n = 1, 2, 3, . . .
a) Indica si las siguientes gracas son fragmentos hasta n = 6 de posibles realizaciones
de Y [n]. Justica tus respuestas.
b) Calcula la esperanza de Y [n]. Es el proceso estacionario en media?
c) Calcula la fdp de orden uno de Y [n].
d) Calcula la autocorrelaci on R
Y
[n, m]. Es estacionario en autocorrelacion?
e) Son Y [n] e Y [m] independientes n = m? Justica tu respuesta matematicamente.
Universidad de Vigo. Problemas de PyE. Tema 5: Procesos estocasticos 5.3
SOLUCIONES AL BOLET

IN DE PROBLEMAS
Tema 5: Procesos estocasticos
5.1) a)
b) (e
t
, 1)
c) E{X(t)} = (1 e
t
)/t; R
X
(t
1
, t
2
) = (1 e
(t
1
+t
2
)
)/(t
1
+ t
2
)
d) No estacionario
e) (t + ln(x))/t si x (e
t
, 1)
5.2) E{X(t)} = t; R
X
(t
1
, t
2
) = t
1
(1 + t
2
); No es estacionario
5.3) a)
b) (t, 4 + t)
c) No es estacionario de orden 1
d) f(x; t) =

1
6

x t
si x (1 + t, 4 + t)
1
3

x t
si x (t, 1 + t)
e) R
X
(t
1
, t
2
) =
11
5
+ t
1
t
2
+ t
1
+ t
2
5.4) a) X
n
Bi(n, p); E(X
n
) = np
b) R
X
[n
1
, n
2
] = n
2
n
1
p
2
+ n
1
p(1 p)
5.5) a)
b) P(Y (t) = 0) = (1p)
2
; P(Y (t) = 1) = p(1p); P(Y (t) = cos(t/2)) = (1p)p; P(Y (t) =
1 + cos(t/2)) = p
2
c) p + p cos(t/2)
d) 0.5
5.6) a) E{Y [n]} =
X
; R
Y
[n
1
, n
2
] =

2
X
si n
1
= n
2
y |n
1
n
2
| = 1
E(X
2
) +
2
X
2
si n
1
= n
2
E(X
2
) + 3
2
X
4
si |n
1
n
2
| = 1
; es estacionario
b) E{Y [n]} =
X
; R
Y
[n
1
, n
2
] =
1
4
{2R
X
[] + R
X
[ + 1] + R
X
[ 1]}, con = n
2
n
1
; es
estacionario
5.7) a)
b) E{Z(t)} = 0; Var{Z(t)} = 2t
2
/3
c) (2t, 2t)
d) f(z, t) =
1
4t
2
(2t |z|)
e) No es estacionario
5.8) a) E{Z(t)} = 0.5 + tp
b) R
Z
(t
1
, t
2
) =
1
3
+
p
2
(t
1
+ t
2
) + t
1
t
2
p
c) Rango de Z(t) = (0, 1) (t, t + 1)
Universidad de Vigo. Problemas de PyE. Tema 5: Procesos estocasticos 5.4
d) F(z; t) =

0 si z < 0
z(1 p) si z [0, 1)
(1 p) si z [1, t)
(1 p) + (z t)p si z [t, t + 1)
1 si z t + 1
5.9) a) La realizacion 1 y la 3 son posibles realizaciones, la 2 no lo es.
b) p
2
c) Y [n] Ber(p
2
)
d) R
Y
[n, m] =

p
2
si n = m
p
3
si |n m| = 1
p
4
en otro caso
e) No son independientes
Universidad de Vigo. PyE. Practica 8 8.1
PROBABILIDAD Y ESTAD

ISTICA
Practica 8. Procesos estocasticos
Objetivos
En esta pr actica se revisan contenidos te oricos del tema de procesos estocasticos.
Ejecucion
Para entrar en la pr actica teclea estadlab en la ventana de comandos y despues selecciona
Estocasticos.
Procesos estocasticos. Realizaci on, media y autocorrelacion (30)
Se accede seleccionando Media y autocorrelacion en la ventana principal.
En esta practica se analiza el siguiente proceso estocastico (similar al del apartado 4 de los
apuntes): X(t) = Ncos(t + ); donde:
N: Amplitud; es una VA Poisson().
: fase; es una VA U(0, 2). N y son independientes.
: Frecuencia de la se nal; es una constante determinista; = 2/T donde T es el perodo.
t: Tiempo; es una variable determinista (jado t = t
0
, X(t
0
) es una VA).
En la ventana inicial se representan distintas realizaciones del proceso.
Cada vez que se pulsa el bot on Realizaciones se actualizan las gracas y aparecen en
pantalla el n umero de realizaciones deseado. Al pulsar en Estadsticos aparecen otras represen-
taciones:
-La esperanza y la autocorrelacion del proceso.
-La evoluci on de:

T
0
=
1
2T
0

T
0
T
0
x(t)dt =
1
2T
0

T
0
T
0
n cos(t +)
a medida que se aumenta el intervalo de integracion. El lmite de esta funcion cuando T
0
tiende
a innito, si existe, se denomina media temporal. x(t) es una de las realizaciones obtenidas del
proceso y por tanto n y representan en la expresi on anterior los valores concretos que han
tomado las VA N y en dicha realizaci on.
Cuestiones:
1) Que diferencias se observan de unas realizaciones a otras?
2) Puede la amplitud de una realizaci on valer 2.5?
3) Puedes predecir el valor que toma una realizaci on en cualquier instante de tiempo si sola-
mente conoces la evoluci on de la misma en un intervalo de tiempo?
4) Calcula la media estadstica del proceso. Es el proceso estacionario en media?
5) Calcula la autocorrelaci on del proceso. Es el proceso estacionario en autocorrelacion?
Procesos estocasticos. Modulaci on BPSK (20)
Se accede seleccionando Modulacion BPSK en la ventana principal.
Un metodo b asico para la modulacion de datos binarios es la modulacion BPSK. La se nal
modulada consiste en una portadora cosenoidal cuya fase vara seg un sea el bit transmitido 0 o 1.
Es decir, la forma que tiene el receptor de saber si lo que se ha transmitido es un 0 o un 1, es
Universidad de Vigo. PyE. Practica 8 8.2
observar la fase de la se nal recibida. Si B[n] es la secuencia binaria que se desea transmitir, la
se nal modulada ser a el siguiente proceso estoc astico:
X(t) = cos((2/T)t +(t))
(t) = [k] para kT t < (k + 1)T
[k] =

+/2 si B[k] = 1
/2 si B[k] = 0
En general los parametros del coseno se pueden variar para que cada bit abarque en la se nal
transmitida el n umero de perodos que consideremos necesario. En nuestro caso utilizaremos un
ciclo de se nal por cada bit transmitido.
En esta pr actica se simula un sistema de modulaci on BPSK y se puede observar como
evoluciona la se nal modulada en funci on de la secuencia binaria que genera el transmisor.
La simulaci on consiste en obtener una realizacion del proceso X(t). Para que comience
pulsa Empezar simulaci on. En la ventana se observar a secuencialmente como se genera la
se nal modulada a partir de la secuencia binaria. Se puede realizar el n umero de simulaciones que
se desee.
Contesta a las preguntas incluidas en la ventana de trabajo.
Cuestiones
1) Puedes predecir el valor que toma una realizaci on en cualquier instante de tiempo si sola-
mente conoces la evolucion de la misma en un intervalo de tiempo? Establece una compa-
raci on entre este proceso y el anterior.
2) Calcula la esperanza del proceso X(t) si P(B[k] = 1) = P(B[k] = 0) = 0.5 Es el proceso
estacionario en media?
N umero de llamadas que llegan a una central telefonica. (20)
A esta pr actica se accede pulsando Llamadas a una centralita en la ventana principal.
Se simula el proceso X(t) denido como el n umero de llamadas que llegan a una central
telef onica en un intervalo de tiempo t. Las llamadas se producen de forma independiente, y el
tiempo entre dos llamadas consecutivas sigue una exponencial de parametro . En estas condi-
ciones el proceso resultante tiene un distribuci on de Poisson. Concretamente X(t) P(t).
Para que comience la simulaci on, que consiste en obtener una realizaci on del proceso X(t),
pulsa Simulaci on paso a paso. En la ventana se representa el n umero de llamadas que se van
produciendo en funci on del tiempo (hasta t = 15 segundos). El valor empleado para el par ametro
es = 0.5. Se puede realizar el n umero de simulaciones que se desee.
A medida que se van realizando simulaciones, se rellena una tabla con la frecuencia relativa
de distintos sucesos asociados al experimento. Concretamente indica el porcentaje de realizaciones
en las que el n umero de llamadas en 10 segundos fue menor o igual que el valor indicado en cada
la de la tabla. Fija el n umero de realizaciones que desees y pulsa en Continuar Simulacion
para obtener la tabla resultante.
Pulsa el bot on Reiniciar para borrar todas las gr acas e inicializar la tabla.
Contesta la pregunta incluida en la ventana de trabajo.
Cuestiones:
1) Clasica el espacio de estados y el espacio de tiempos del proceso.
2) Es el proceso estacionario en media?
3) Calcula la probabilidad de que al cabo de 10 segundos se hayan producido 2 o menos
llamadas. Estima esta misma probabilidad a partir de la tabla incluida en la ventana de
trabajo y compara los resultados.
Universidad de Vigo. PyE. Practica 8 8.3
La autocorrelaci on como funci on de dos instantes de tiempo. Estacio-
nariedad. (opcional))
A esta pr actica se accede pulsando Estacionariedad en la ventana principal.
En el ordenador se representan gracamente las funciones de autocorrelaci on de tres procesos
distintos. La gr aca resultante es tridimensional, ya que en general, si el proceso no es estacio-
nario en autocorrelacion, la autocorrelacion es funcion de dos instantes de tiempo (R
X
(t
1
, t
2
) =
E{X(t
1
)X(t
2
)}). Tambien se representa una graca de contornos de autocorrelacion constante,
esto es, en el plano t
1
t
2
se muestran los puntos con igual autocorrelacion unidos por una lnea.
Uno de los procesos utilizados como ejemplo es el Proceso 2: X(t) = tY con Y exp(0.5).
Cuestiones:
1) Proceso 2. Calcula su funci on de autocorrelaci on Es estacionario en autocorrelaci on?

Das könnte Ihnen auch gefallen