Sie sind auf Seite 1von 42

Captulo 1

Variable aleatoria n-dimensional


1.1.

Introduccin

Una variable aleatoria n-dimensional X = (X1 ; : : : ; Xn ) es un vector de variables


aleatorias unidimensionales X1 ; : : : ; Xn . Tambin utilizaremos el trmino vector aleatorio
para este concepto. En otros textos se utilizan tambin las expresiones variable aleatoria
multivariante, multidimensional o pluridimensional.
Supongamos que en un examen mdico se registra, para cada paciente, la edad, el peso,
la altura, el permetro torcico, la tensin arterial, y otras cantidades obtenidas mediante
un anlisis de sangre. Tambin puede haber datos cualitativos, como la respuesta a si fuma
o no. Si estamos interesados solo en uno de los valores, por ejemplo la altura, consideramos
la correspondiente variable unidimensional.
En la prctica, se supone que hay una distribucin de probabilidad subyacente a esa
variable, la altura en el ejemplo. En la asignatura Azar y Probabilidad se estudian
distintos posibles tipos para esa distribucin de probabilidad (normal por ejemplo), y se
realizan distintos clculos. En las asignaturas Estimacin I y IIse estudiar el problema
prctico de analizar el tipo al que podra corresponder esa distribucin subyacente (es
realmente normal?, y qu podemos decir sobre los valores de los parmetros?); para llo, se
dispone de los datos de algunos pacientes (que quiz podramos considerar como obtenidos
al azar de un colectivo de pacientes potenciales).
1

1. Variable aleatoria n-dimensional

Si estamos interesados en dos o mas de los valores del examen mdico, y sus interrelaciones, consideraremos el correspondiente vector aleatorio. Suponemos que hay una
distribucin de probabilidad subyacente a este vector. En esta asignatura vamos a estudiar
distintas cuestiones referidas a vectores aleatorios, como continuacin y ampliacin de la
asignatura Azar y Probabilidad, donde se estudiaban el caso unidimensional y los elementos bsicos del caso bidimensional. En las asignaturas Estimacin I y II se estudia
el problema prctico de analizar propiedades de la distribucin subyacente en unos pocos
casos no unidimensionales, y en otras muchas asignaturas de la carrera se profundiza en
estos estudios multidimensionales.
Con formulacin matemtica, una v.a. n-dimensional X = (X1 ; : : : ; Xn ) es una funcin
X:

! Rn
! ! X (!) = (X1 (!) ; : : : ; Xn (!))

denida sobre un espacio muestral

y que toma valores en el conjunto Rn de n-uplas de

nmeros reales (vectores reales n-dimensionales). Los fundamentos matemticos del asunto
involucran la nocin de -lgebra, que no estudiamos aqu puesto que no tiene inters en
las aplicaciones prcticas.
En la mayor parte de las ocasiones solo estamos interesados en la distribucin de probabilidad de X sobre Rn . El espacio muestral
tomarse del modo cannico, con
de

es habitualmente un articio terico, y suele

= Rn , y X la identidad. Con llo, nos desentendemos

, con la excepcin de un ejemplo mas adelante (el de las caras y las rachas), donde la

eleccin que se hace de

sirve para entender mejor la resolucin del problema.

Lo que importa entonces del problema, el elemento inicial a partir del cual trabajaremos,
es la distribucin de X, que se puede especicar mediante una funcin de distribucin. El
inters de la funcin de distribucin es principalmente matemtico, porque caracteriza la
distribucin, como en el caso unidimensional (hay una distribucin para cada funcin de
distribucin y viceversa). Sin embargo, suele ser mas til trabajar a partir de funciones de
masa o de densidad, en los casos discreto o continuo.
2

1.2 Distribucin de una variable aleatoria bidimensional

La distribucin de probabilidad de X = (X1 ; : : : ; Xn ) (distribucin conjunta) no queda especicada en general solamente a partir de las distribuciones de X1 ; : : : ; Xn (distribuciones marginales), sino que tambin deben ser tenidas en cuenta las relaciones entre
variables (distribuciones condicionadas).

Las ideas bsicas del caso n-dimensional son las mismas que las del caso bidimensional.
Comenzamos repasando las nociones de distribucin conjunta y distribuciones marginales
y condicionadas en el caso bidimensional, y despus explicamos cmo se generalizan estas
nociones para el caso n-dimensional.
Estudiamos tambin los momentos bidimensionales (para pares de variables). Los principales son los de orden 1 y 2, que son los momentos unidimensionales ya conocidos, y
adems la covarianza (momento central), propiamente bidimensional.

Muchos resultados sern presentados sin demostracin. Solo se incluirn demostraciones


que sean sencillas y que sirvan para ilustrar los conceptos que se estn estudiando.

El soporte de una distribucin es el mnimo conjunto cerrado en el que est concentrada


toda la probabilidad.

Para la denicin de conceptos nuevos se utiliza la letra cursiva y se omite el encabezamiento Denicin, lo que hace la exposicin mas gil. Entonces, los textos escritos en
cursiva sern el nombre de conceptos que se est deniendo. (Tambin se utiliza la cursiva
para frmulas y expresiones matemticas). Cuando el nombre de un concepto que se dene,
en cursiva, incluye algn trmino entre parntesis, se quiere indicar que ese trmino suele
ser omitido (y sobreentendido).

1.2.

Distribucin de una variable aleatoria bidimensional

La distribucin de una v.a. bidimensional expresa la estructura de probabilidad de


la variable, de un modo similar al caso unidimensional. sto es, nos informa sobre la
probabilidad con la que la v.a. toma sus distintos valores.
3

1. Variable aleatoria n-dimensional

Esta distribucin se puede expresar mediante la funcin de distribucin conjunta o,


alternativamente, mediante la funcin de masa en el caso discreto, o la funcin de densidad
en el caso continuo. Otra posibilidad es dar su nombre, en caso de ser una distribucin
conocida; por ejemplo, es equivalente decir que una v.a. unidimensional X
3x

- tiene funcin de densidad f (x) = 3 e


- tiene funcin de distribucin F (x) = 1

, o que
e

3x

, o que

- tiene distribucin exponencial con parmetro 3, denotado por X

1.2.1.

Exp(3).

Distribucin conjunta

Consideremos una variable aleatoria bidimensional (X; Y ). No la llamamos (X1 ; X2 )


para evitar los subndices. Por supuesto, aqu X es una v.a. unidimensional, y no un vector
aleatorio como en el apartado anterior.
La funcin de distribucin (conjunta) de (X; Y ) viene dada por
F (x; y) = P fX

x; Y

yg

para x; y 2 R .

(1.1)

La funcin de distribucin tiene importancia desde un punto de vista matemtico, porque


caracteriza la distribucin P de la v.a. (X; Y ), pero desde un punto de vista prctico suele
ser mas til considerar la funcin de masa, en el caso discreto, o la funcin de densidad,
en el caso continuo.
La variable (X; Y ) es discreta si tiene soporte nito o numerable, esto es, si existe
D

R2 nito o numerable tal que


P f(X; Y ) 2 Dg = 1 .

(1.2)

La funcin de masa (conjunta) de una variable discreta (X; Y ) viene dada por
pxy = P fX = x; Y = yg para (x; y) 2 D .

(1.3)

Tambin es habitual expresar la funcin de masa pxy como f (x; y).


Ejemplo 1. Se lanzan una moneda y un dado equilibrados. Consideremos la variable X,
que vale 1 si sale cara en la moneda y 0 si sale cruz, y la variable Y resultado del dado,
4

1.2 Distribucin de una variable aleatoria bidimensional

de 1 a 6. Puesto que la moneda y el dado estn equilibrados, los doce resultados posibles
(x; y), con x 2 f0; 1g, y 2 f1; : : : ; 6g, son equiprobables, y por tanto la funcin de masa
conjunta viene dada por
1
para (x; y) 2 f0; 1g
12

pxy = P fX = x; Y = yg =

f1; : : : ; 6g .

(1.4)

Ejemplo 2. Consideremos el experimento aleatorio consistente en lanzar tres monedas


equilibradas. Consideremos la variable X nmero de caras, y la variable Y nmero de
rachas de caras y cruces. Asociado al experimento aleatorio podemos considerar el espacio
muestral

de todos los posibles resultados de los tres lanzamientos, que son equiprobables.

Haciendo un recuento de los distintos valores que puede tomar (X; Y ), a partir de la tabla
que sigue a continuacin, se obtiene la funcin de masa conjunta, que se presenta en la
segunda tabla, con los valores pxy = P fX = x; Y = yg para x = 0,1,2,3, y = 1,2,3.
!

xxx

xxc

xcx

xcc

cxx

cxc

ccx

ccc

X(!)

Y (!)

(1.5)

1=8

1=8

2=8

2=8

1=8

1=8

(1.6)

La variable (X; Y ) es (absolutamente) continua si existe una funcin no negativa


f : R2 ! R ,

(1.7)

llamada funcin de densidad (conjunta) de (X; Y ), tal que


F (x; y) =

x
1

f (u; v)dvdu .
1

(1.8)

1. Variable aleatoria n-dimensional

Propiedades de la funcin de densidad conjunta


1.- Se verica que
F (1; 1) =

1
1

f (x; y) dy dx = 1 .

2.- Cualquier funcin f : R2 ! R no negativa con


de alguna variable bidimensional continua.

RR

(1.9)

f = 1 es la funcin de densidad

3.- Si f es continua en (x; y) se verica que


d2 F (x; y)
= f (x; y) .
dxdy

(1.10)

R2 medible se tiene que

4.- Para B

P f(X; Y ) 2 Bg =

ZZ

f (x; y)dydx .

(1.11)

Ejemplo 3. Comprueba que la siguiente funcin es la funcin de densidad de alguna


variable bidimensional continua. Calcula la probabilidad P Y > X +

1
2

f (x; y) = 1 si 0 < x; y < 1.

(1.12)

Aqu 0 < x; y < 1 signica 0 < x < 1 y 0 < y < 1; se sobreentiende que f (x; y) es nula en
otro caso. Utilizaremos este tipo de notacin simplicada durante todo el curso.
Solucin: Utilizamos la propiedad 2 de la funcin de densidad conjunta. La funcin
f (x; y) toma los valores 1 0, y por tanto f es no negativa. Comprobamos que la integral
de f vale 1:
ZZ
Z
f=

1
1

f (x; y) dy dx =

1Z 1

1dydx =

Se tiene que
P

1
Y >X+
2

ZZ

yj10 dx =

1dx = 1 .

(1.13)

f (x; y)dydx ,

(1.14)

con B = (x; y) : y > x +


P

1
2

, y por tanto
Z 1Z 1
Z 1
2
2
1
( 12
Y >X+
=
1dydx =
1
2
0
x+
0
2

x)dx =

1
= 00 125 .
8

(1.15)

(Para obtener los lmites de integracin es muy conveniente hacer un dibujo representando
el soporte de (X; Y ), que es el cuadrado unidad [0; 1]2 , y el conjunto B).

1.2 Distribucin de una variable aleatoria bidimensional

Ejemplo 4. Comprueba que la siguiente funcin es una funcin de densidad y clcula la


funcin de distribucin. Calcula la probabilidad P fX + Y < 1g.
(x+y)

f (x; y) = e

si x; y > 0 .

(1.16)

Solucin: La exponencial es siempre positiva, y por tanto f (x; y)

0. La integral vale

1:
ZZ

f=
=

1Z 1

Z0 1

(x+y)

dydx =

1
dx
0

1
0

1Z 1

Z0 1

dydx =

e0

dx =

dydx

(1.17)

dx

(1.18)

e0

= 0

= e0 = 1 .

(1.19)

La funcin de distribucin, para x; y > 0, es


Z x Z y
Z xZ y
F (x; y) =
f (u; v)dvdu =
e
1
1
0
0
Z x
=
e u (1 e y )du = (1 e x )(1

(u+v)

dvdu

(1.20)

).

(1.21)

Si x < 0 y < 0 entonces F (x; y) = 0.


Se tiene que
P fX + Y < 1g =

ZZ

f (x; y)dydx ,

(1.22)

con B = f(x; y) : x + y < 1g, y por tanto


Z 1Z 1 x
Z 1
Z 1
P fX + Y < 1g =
e (x+y) dydx =
e x
0
0
0
0
Z 1
Z 1
=
e x 1 e (1 x) dx =
e x
0

dydx =

2e

dx = 1

1 x
dx
0

= 00 264 .

Ejemplo 5. Comprueba que la siguiente funcin es una funcin de densidad. Calcula la


probabilidad P Y > 2X 2 .
f (x; y) = 6y si 0 < y < x < 1 .
Solucin: Puesto que y > 0 en el soporte, se tiene que f (x; y) = 6y
vale 1:

ZZ

f=

1Z x

6ydydx =

3x2 dx = 1

(1.23)
0. La integral

(1.24)

1. Variable aleatoria n-dimensional

P Y > 2X 2 =

ZZ

f (x; y)dydx ,

(1.25)

con B = (x; y) : y > 2x2 . La densidad es nula fuera del tringulo


S = f(x; y) : 0 < y < x < 1g ,

(1.26)

y por tanto la integral sobre B en (1.25) coincide con la integral sobre


B\S =

(x; y) : 0 < x <

1
, 2x2 < y < x
2

(1.27)

donde f (x; y) = 6y (conviene hacer un dibujo para obtener B \ S), y por tanto
P Y > 2X

1
2

6ydydx =

2x2

1
2

3(x2

4x4 )dx =

1
= 00 05 .
20

(1.28)

Aunque stos son los casos mas frecuentes, tambin se pueden considerar otros casos,
en los que una de las variables X o Y es discreta y la otra continua, o en los que que las
variables tienen distribucin singular, o mixta.

1.2.2.

Distribuciones marginales

Son las distribuciones unidimensionales de las componentes X e Y de (X; Y ).


Si (X; Y ) es discreta (o continua), as lo son tanto X como Y .
Las funciones de distribucin (marginales) de X y de Y se obtienen del siguiente modo
a partir de la funcin de distribucin conjunta:
F1 (x) = P fX

xg = F (x; 1) y

(1.29)

F2 (y) = P fY

yg = F (1; y) .

(1.30)

Las funciones de masa (marginales) de X y de Y se obtienen del siguiente modo a partir


de la funcin de masa conjunta:
px: = P fX = xg =
p:y = P fY = yg =
8

pxy y

(1.31)

pxy .

(1.32)

X
x

1.2 Distribucin de una variable aleatoria bidimensional

Ejemplo 6. Consideremos la variable (X; Y ) del ejemplo 2. Las distribuciones marginales


(funcin de masa) se obtienen sumando las y columnas en la tabla (1.6):
X

p:y

1=8

1=8

2=8

2=8

2=8

4=8

1=8

1=8

2=8

px:

1=8

3=8

3=8

1=8

(1.33)

y de este modo

Obsrvese que X

1
2
3 C
B 0
@
A , Y
1=8 3=8 3=8 1=8
B(3; 1=2) (binomial).

2
3 C
B 1
@
A .
2=8 4=8 2=8

(1.34)

Las funciones de densidad (marginales) de X y de Y se obtienen del siguiente modo:


Z
dF (x; 1)
=
dx
Z
dF (1; y)
0
f2 (y) = F2 (y) =
=
dy

f1 (x) = F10 (x) =

1
1
1

f (x; y)dy y

(1.35)

f (x; y)dx .

(1.36)

Ejemplo 7. Es sencillo obtener las funciones de densidad marginales en los ejemplos 3, 4


y 5. Son las siguientes.
Ejemplo 3:
f1 (x) = 1 si 0 < x < 1

(1.37)

f2 (y) = 1 si 0 < y < 1

(1.38)

Ejemplo 4:
f1 (x) = e

si x > 0

(1.39)

f2 (y) = e

si y > 0

(1.40)

1. Variable aleatoria n-dimensional

Ejemplo 5:

1.2.3.

f1 (x) = 3x2 si 0 < x < 1

(1.41)

f2 (y) = 6y(1

(1.42)

y) si 0 < y < 1

Distribuciones condicionadas

Las distribuciones condicionadas muestran la relacin entre X e Y y se obtienen a


partir de la distribucin conjunta y las marginales.
En primer lugar, podemos calcular probabilidades condicionadas considerando sucesos
en funcin de X e Y , del tipo U = fX 2 Ag , V = fY 2 Bg :
P fY 2 B=X 2 Ag = P (V =U ) =

P (U \ V )
P fX 2 A; Y 2 Bg
=
,
P (U )
P fX 2 Ag

(1.43)

si P fX 2 Ag > 0 . El numerador se obtiene, en el caso discreto como la suma de la funcin


de masa sobre los (x; y) 2 D \ (A
de densidad sobre A

B) , y en el caso continuo como la integral de la funcin

B. El denominador se obtiene a partir de la distribucin marginal

de X. Tambin se puede considerar P fX 2 A=Y 2 Bg .


Las distribuciones condicionadas estn referidas a probabilidades condicionadas del tipo
anterior siendo A unitario y jo.
En el caso discreto, si P fX = xg > 0 la distribucin de Y condicionada a X = x se
dene mediante el correspondiente espacio de probabilidad condicionada. Para x jo con
P fX = xg > 0 la funcin de masa (condicionada) de Y condicionada a, o dado que, o
sabiendo que, X = x , viene dada por
P fY = y=X = xg =

pxy
px:

para y tal que (x; y) 2 D .

(1.44)

Para y jo con P fY = yg > 0 la funcin de masa de X condicionada a Y = y, viene


dada por
P fX = x=Y = yg =

pxy
p:y

para x tal que (x; y) 2 D .


10

(1.45)

1.2 Distribucin de una variable aleatoria bidimensional

Ejemplo 8. Consideremos la variable (X; Y ) de los ejemplos 2 y 6. En la columna de la


siguiente tabla correspondiente a X = x se presenta la distribucin condicionada
P fY = y=X = xg =

pxy
para y = 1; 2; 3,
px:

y la suma de probabilidades condicionadas, que vale 1.


X

2=3

2=3

1=3

1=3

De este modo, por ejemplo


0
1
3 C
B 2
(Y =X = 2) @
A , (Y =X = 0)
2=3 1=3

(1.46)

1 (distribucin degenerada en el 1).


(1.47)

En la la de la siguiente tabla correspondiente a Y = y se presenta la distribucin condicionada P fX = x=Y = yg =

pxy
p:y

para x = 0; 1; 2; 3, y la suma de probabilidades condi-

cionadas, que vale 1.


X

De este modo, por ejemplo


(X=Y = 1)

1=2

1=2

1=2

1=2

1=2

1=2

3 C
B 0
@
A , (X=Y = 2)
1=2 1=2

(1.48)

2 C
B 1
@
A .
1=2 1=2

(1.49)

En el caso continuo no podemos considerar directamente A = fxg , unitario, en (1.43),


puesto que P fX = xg = 0 . Pero podemos considerar A = (x
cuando " tiende a cero.
11

"; x + ") y tomar el lmite

1. Variable aleatoria n-dimensional

Para cada punto x en el que f1 es continua y f1 (x) > 0 se puede denir una distribucin
de esta manera. Se obtiene que la correspondiente funcin de densidad de Y condicionada
a X = x viene dada por
fY =X (y=x) =

f (x; y)
.
f1 (x)

(1.50)

f (x; y)
.
f2 (y)

(1.51)

Tambin, para y con f2 (y) > 0 y continua


fX=Y (x=y) =

Ejemplo 9. Es sencillo obtener las funciones de densidad condicionadas en los ejemplos


3, 4 y 5. Son las siguientes (vase el ejemplo 7).
Ejemplo 3:
- Para 0 < x < 1, f (y=x) = 1 si 0 < y < 1 .

(1.52)

- Para 0 < y < 1, f (x=y) = 1 si 0 < x < 1 .

(1.53)

Por tanto, para 0 < x < 1 se tiene que (Y =X = x)


que (X=Y = y)

U (0; 1) , y para 0 < y < 1 se tiene

U (0; 1).

Ejemplo 4:
- Para x > 0, f (y=x) = e

si y > 0 .

(1.54)

- Para y > 0, f (x=y) = e

si x > 0 .

(1.55)

Por tanto, para x > 0 se tiene que (Y =X = x)


(X=Y = y)

Exp(1), y para y > 0 se tiene que

Exp(1).

Ejemplo 5:
2y
si y 2 (0; x) .
x2
1
- Para 0 < y < 1, f (x=y) =
si x 2 (y; 1) .
1 y

- Para 0 < x < 1, f (y=x) =

Obsrvese que (X=Y = y)

(1.56)
(1.57)

U (y; 1) para 0 < y < 1.

Ejemplo 10. Calcula la probabilidad P Y > 14 =X =


5.
12

1
2

para la distribucin del ejemplo

1.2 Distribucin de una variable aleatoria bidimensional

Solucin: A partir de la expresin (1.56) se obtiene


f (y=x = 21 ) = 8y si y 2 (0; 12 ) .

(1.58)

Por tanto
P Y >

1.2.4.

1
4 =X

1
2

1
1
4

f (y=x =

1
2 )dy

1
2
1
4

8ydy =

3
= 00 75 .
4

(1.59)

Variables aleatorias independientes

Se dice que las variables X e Y son independientes si los sucesos expresados en funcin
de X son independientes de los sucesos expresados en funcin de Y , esto es, si se tiene que
P fX 2 A; Y 2 Bg = P fX 2 AgP fY 2 Bg para todo A; B

R medibles.

(1.60)

Una condicin equivalente es la siguiente:


F (x; y) = F1 (x)F2 (y) para todo x; y 2 R .

(1.61)

Si (X; Y ) es discreta tambin la siguiente es una condicin equivalente de independencia:


pxy = px: p:y

para todo x; y .

(1.62)

Si (X; Y ) es continua tambin la siguiente es una condicin equivalente de independencia:


f (x; y) = f1 (x)f2 (y) para todo (x; y) donde f es continua.

(1.63)

El hecho de que bajo independencia una variable no aporta informacin sobre la otra se
traduce en que las funciones de masa o densidad condicionadas coinciden con las marginales
(vlido para los casos discreto y continuo). En el caso continuo, bajo independencia se tiene
que
f (y=x) = f (y) para todo (x; y) donde f es continua,

(1.64)

f (x=y) = f (x) para todo (x; y) donde f es continua..

(1.65)

13

1. Variable aleatoria n-dimensional

Una condicin necesaria y suciente para la independencia es, que el soporte se exprese como un producto cartesiano y que f (x; y) se pueda expresar como un producto
de funciones, f (x; y) = h1 (x)h2 (y) para todo (x; y) donde f es continua. A partir de
este resultado, se hace innecesario el clculo de las funciones de densidad marginales para
estudiar la independencia.
Ejemplo 11. Es sencillo comprobar en los ejemplos 1, 3 y 4 que X e Y son independientes.
En el ejemplo 2 no hay independencia; para comprobarlo es suciente observar que
p0: p;1 6= p01 ,
puesto que (1=8)(2=8) 6= 1=8. En el ejemplo 5 tampoco se da la independencia, puesto que
el soporte no es un producto cartesiano.

Ejemplo 12. En la siguiente tabla se presenta la funcin de masa conjunta de una variable
discreta (X; Y ) y las distribuciones marginales. Se comprueba que pi: p:j = pij para todo
i; j, y entonces X e Y son independientes.
X

1.3.

p:y

00 3

00 12

00 18

00 6

00 2

00 08

00 12

00 4

px:

00 5

00 2

00 3

(1.66)

Generalizacin al caso n-dimensional

Consideremos una variable aleatoria n-dimensional


X = (X1 ; : : : ; Xn ) .
14

(1.67)

1.3 Generalizacin al caso n-dimensional

1.3.1.

Distribucin conjunta

La funcin de distribucin (conjunta) de X viene dada por


F (x1 ; : : : ; xn ) = P fX1

x1 ; : : : ; Xn

xn g para x1 ; : : : ; xn 2 R .

(1.68)
Rn

La variable X es discreta si tiene soporte nito o numerable, esto es, si existe D


nito o numerable tal que
P fX 2 Dg = 1 .

(1.69)

La funcin de masa (conjunta) de una v.a. discreta X = (X1 ; : : : ; Xn ) viene dada por
f (x1 ; : : : ; xn ) = P fX1 = x1 ; : : : ; Xn = xn g para (x1 ; : : : ; xn ) 2 D .

(1.70)

La variable X es (absolutamente) continua si existe una funcin no negativa


f : Rn ! R ,

(1.71)

llamada funcin de densidad (conjunta) tal que


F (x1 ; : : : ; xn ) =

x1
1

xn

f (x1 ; : : : ; xn )dxn

dx1 .

(1.72)

Propiedades de la funcin de densidad de una v.a. n-dimensional


1.- Se verica que
F (1; : : : ; 1) =

1
1

f (x1 ; : : : ; xn )dxn

2.- Cualquier funcin f : Rn ! R no negativa con


densidad de alguna variable n-dimensional continua.

dx1 = 1 .
R

(1.73)

f = 1 es la funcin de

3.- Si f es continua en (x1 ; : : : ; xn ) se verica que


dn F (x1 ; : : : ; xn )
= f (x1 ; : : : ; xn ) .
dx1
dxn
4.- Para B

(1.74)

Rn medible se tiene que


P fX 2 Bg =

f (x1 ; : : : ; xn )dxn

15

dx1 .

(1.75)

1. Variable aleatoria n-dimensional

1.3.2.

Distribuciones marginales

En este caso n-dimensional podemos considerar distribuciones marginales m-dimensionales,


con m = 1; 2; : : : ; n

1. El modo de obtenerlas es eliminando argumentos cmo se haca

en el caso bidimensional.
Por ejemplo, si consideramos X = (X1 ; X2 ; X3 ; X4 ; X5 ) , con n = 5, la funcin de
distribucin (marginal ) de (X2 ; X5 ), y la funcin de masa o densidad (marginales), en los
casos discreto o continuo, se obtiene a partir de la conjunta del siguiente modo:
F2;5 (x2 ; x5 ) = F (1; x2 ; 1; 1; x5 ) .

(1.76)

(1.77)

f2;5 (i2 ; i5 ) =

f (i1 ; : : : ; i5 )

i1 ;i3 ;i4

f2;5 (x2 ; x5 ) =

1.3.3.

1
1

1
1

f (x1 ; x2 ; x3 ; x4 ; x5 )dx4 dx3 dx1

(1.78)

Distribuciones condicionadas

Podemos considerar distribuciones condicionadas para cualquier subconjunto de las


variables del vector condicionadas a que el resto toman ciertos valores dados. Se obtienen
a partir de la distribucin conjunta y las marginales.
En el caso discreto el problema se reduce a considerar el correspondiente espacio de
probabilidad condicionada. En el caso continuo se obtienen como lmite; por ejemplo, si
n = 5, la funcin de densidad condicionada de (X1 ; X3 ; X4 ) condicionada a que (X2 ; X5 ) =
(x2 ; x5 ) es la siguiente:
f (x1 ; x3 ; x4 =x2 ; x5 ) = fX1 ;X3 ;X4 =X2 ;X5 (x1 ; x3 ; x4 =x2 ; x5 ) =

f (x1 ; x2 ; x3 ; x4 ; x5 )
.
f2;5 (x2 ; x5 )

(1.79)

x2 y x5 son jos y x1 ; x3 ; x4 son los argumentos de la funcin.


Una propiedad til es la siguiente:
f (x1 ; : : : ; xn ) = f (x1 )f (x2 =x1 )f (x3 =x1 ; x2 )

f (xn =x1 ; : : : ; xn

Ejemplo 13. Sea X una variable con funcin de densidad f1 (x) = e

1)

(1.80)

si x > 0, y

supongamos que para cada valor x > 0 la distribucin de (Y; Z) condicionada a que X = x
16

1.3 Generalizacin al caso n-dimensional

tiene funcin de densidad


f (y; z=x) = x2 e

x(y+z)

si y; z > 0.

(1.81)

Calcula:
a) La funcin de densidad marginal del par (Y; Z).
b) P fY + Z < 4g.
c) La distribucin condicionada de (X=Y = y; Z = z).
d) P fX < 1=Y = 1; Z = 4g.
Solucin: Calculamos en primer lugar la funcin de densidad conjunta de (X; Y; Z).
Puesto que f (y; z=x) = f (x; y; z)=f1 (x), se tiene que
x(1+y+z)

f (x; y; z) = f1 (x)f (y; z=x) = x2 e

si x; y; z > 0 .

(1.82)

a)
f23 (y; z) =

f (x; y; z)dx =

x2 e

x(1+y+z)

dx =

2
(1 + y + z)3

si y; z > 0 . (1.83)

b) A partir de la funcin de densidad de (Y; Z) calculada en el apartado a se obtiene


P fY + Z < 4g =

4
1

4 y

f23 (y; z)dzdy =


1

4Z 4 y
0

2
16
dzdy =
= 00 64 .
3
(1 + y + z)
25
(1.84)

c) La funcin de densidad de (X=Y = y; Z = z), para y; z > 0, es


f (x=y; z) =

f (x; y; z)
1
= (1 + y + z)3 x2 e
f23 (y; z)
2

x(1+y+z)

si x > 0 .

(1.85)

d) La funcin de densidad de (X=Y = 1; Z = 4) es


f (x=y = 1; z = 4) = 108x2 e

6x

si x > 0 ,

(1.86)

y por tanto
P fX < 1=Y = 1; Z = 4g =

f (x=y = 1; z = 4)dx =
1

108x2 e

6x

dx = 00 938 .

17

(1.87)

1. Variable aleatoria n-dimensional

1.3.4.

Independencia

Se dice que X1 ; : : : ; Xn son (mutuamente o completamente) independientes si


P fX1 2 B1 ; : : : ; Xn 2 Bn g = P fX1 2 B1 g
para todo B1 ; : : : ; Bn

P fXn 2 Bn g

(1.88)

R medibles.

(1.89)

Fn (xn ) para x1 ; : : : ; xn 2 R .

(1.90)

Una condicin equivalente es que


F (x1 ; : : : ; xn ) = F1 (x1 )

En los casos discreto o continuo tambin son condiciones equivalentes que la funcin de
masa o densidad conjunta coincida con el producto de las marginales unidimensionales.
Un resultado til es el siguiente: si X1 ; : : : ; Xn son independientes y h1 ; : : : ; hn son
funciones reales de variable real entonces h1 (X1 ); : : : ; hn (Xn ) son variables aleatorias independientes (funciones de v.a independientes son independientes).
Tambin podemos considerar independencia en el caso de que las Xi tengan dimensin
mayor que 1. En particular, se tiene que (U; V ) es independiente de (Z; T ) si y solo si tanto
U como V son independientes de tanto Z como T .
Se dice que X1 ; : : : ; Xn son independientes dos a dos si Xi y Xj son independientes
para todo i; j con i 6= j. La independencia implica la independencia dos a dos.

1.4.

Cambios de variable. Distribucin del mnimo y del


mximo

Consideremos una v.a. n-dimensional X = (X1 ; : : : ; Xn ) y una aplicacin


h : Rn ! Rm ,

(1.91)

h = (h1 ; : : : ; hm ) .

(1.92)

Consideremos la v.a. m-dimensional Y = h(X). El paso de la v.a. X a la v.a. Y , mediante


h, se denomina cambio de variable. El estudio de la distribucin de Y obtenida a partir de
la distribucin de X y de h se realiza de distintas maneras. Por ejemplo, hay un teorema
18

1.4 Cambios de variable. Distribucin del mnimo y del mximo

de cambio de variable para el caso n = m que es ampliacin del teorema de cambio de


variable unidimensional (n = m = 1); no lo estudiamos.
El modo general de obtener la distribucin de Y , que se concreta de distintas maneras
Rm se tiene que

segn el caso considerado, es a partir de la siguiente relacin: para A


P fY 2 Ag = P fh(X) 2 Ag = P fX 2 h
siendo B = h

(A)g = P fX 2 Bg ,

(1.93)

Rn .

1 (A)

Resolvemos el problema en un ejemplo concreto, que luego utilizaremos, y despus


estudiamos la distribucin del mximo y el mnimo.
Ejemplo 14. Consideremos una v.a. con funcin de densidad f (x; y) = 4xy si 0 < x; y < 1.
Determina la distribucin de Z = XY (la funcin de distribucin y la funcin de densidad).
Solucin: La obtenemos de un modo directo (tambin se podra utilizar el teorema
de cambio de variable). La funcin de distribucin de Z es, para 0 < z < 1:
FZ (z) = P fZ

zg = P fXY

zg = 1

1Z 1

4xydydx = 1

z=x

ydydx

z=x

(1.94)
=1

=1

1
1
2

1
1
2

(z=x)2 dx = 1

z2

z 2 =x dx

(1.95)

z 2 (0

log z)

= z2

2z 2 log z = z 2 (1

2 log z)

(1.96)

De aqu se obtiene la funcin de densidad:


fZ (z) = FZ0 (z) = 2z (1

2 log z)

2z =

4z log z

para 0 < z < 1 .

(1.97)

Consideremos variables aleatorias X1 ; : : : ; Xn independientes e identicamente distribuidas


(vaiid). Sea F su funcin de distribucin. Consideremos las variables
Y = m n fX1 ; : : : ; Xn g ,

(1.98)

Z = max fX1 ; : : : ; Xn g .

(1.99)

19

1. Variable aleatoria n-dimensional

Vamos a expresar la funcin de distribucin de Y , de Z y de (Y; Z) en trminos de F .


Tambin obtendremos las funciones de densidad en el caso continuo.

La funcin de distribucin de Z es
GZ (z) = P fZ

zg = P fmax fX1 ; : : : ; Xn g

= (indep:) P fX1

zg

P fXn

zg = P fX1

zg = F (z)

(n

z; : : : ; Xn

zg

F (z) = [F (z)]n .

(1.100)
(1.101)

Si las variables X1 ; : : : ; Xn son continuas, con funcin de densidad f = F 0 , entonces la


funcin de densidad de Z viene dada por
gZ (z) = G0Z (z) =

d
[F (z)]n = n [F (z)]n
dz

F 0 (z) = n [F (z)]n

f (z) .

(1.102)

P fm n fX1 ; : : : ; Xn g > yg

(1.103)

La funcin de distribucin de Y es
GY (y) = P fY

yg = 1

P fY > yg = 1
indep:

=1

P fX1 > y; : : : ; Xn > yg = 1

=1

(1

F (y))

(n

(1

F (y)) = 1

P fX1 > yg

[1

P fXn > yg

F (y)]n .

(1.104)
(1.105)

Si las variables X1 ; : : : ; Xn son continuas la funcin de densidad de Y viene dada por


gY (y) = G0Y (y) =
= n [1

d
(1
dy

F (y)]n

F (y)]n ) = 0

[1

F (y)]n

n [1

d
(1
dy

F (y))

f (y) .

(1.106)
(1.107)

La funcin de distribucin de (Y; Z) es (para y < z)


GY;Z (y; z) = P fY
= P fZ

y; Z
zg

zg = P fZ
P fy < X1

= (indep:) P fZ
= [F (z)]n

[F (z)

zg

zg

P fY > y; Z

z; : : : ; y < Xn

P fy < X1

F (y)]n .
20

zg

zg

(1.108)

zg
P fy < Xn

(1.109)
zg

(1.110)
(1.111)

1.4 Cambios de variable. Distribucin del mnimo y del mximo

Si las variables X1 ; : : : ; Xn son continuas la funcin de densidad de (Y; Z) viene dada por
d d
d d
GY;Z (y; z) =
([F (z)]n [F (z) F (y)]n )
dz dy
dz dy
d
=
(0 n [F (z) F (y)]n 1 (0 f (y)))
dz
d
= n(n 1) [F (z) F (y)]n 2 (F (z) F (y))f (y)
dz

gY;Z (y; z) =

= n(n

1) [F (z)

F (y)]n

f (y)f (z) si y < z .

(1.112)
(1.113)
(1.114)
(1.115)

En el resto del captulo estudiamos distintas cuestiones referidas a esperanzas para


variables aleatorias n-dimensionales.
En primer lugar, consideraremos funciones de vectores aleatorios. Presentaremos un
resultado que permite clcular su esperanza sin necesidad de obtener su distribucin. A
partir de este resultado se obtiene por ejemplo la importante propiedad de que la esperanza
de una suma de variables aleatorias coincide con la suma de las esperanzas.
Deniremos el vector de esperanzas de un vector aleatorio, que tiene una interpretacin
fsica similar a la del caso unidimensional, como centro de masas.
Los momentos expresan ciertas caractersticas (ciertos aspectos) de las v.a. mediante un
valor numrico. Deniremos los momentos de una v.a. bidimensional (X; Y ). Los principales
son, las esperanzas y las varianzas de las distribuciones marginales (unidimensionales), y la
covarianza, que es un momento propiamente bidimensional, que involucra la distribucin
conjunta de (X; Y ).
stos son los momentos que se consideran habitualmente, incluso para una v.a. ndimensional, para la que se consideran momentos bidimensionales para cada par de componentes (en la matriz de covarianzas).
Estudiaremos la funcin caracterstica (se usa este trmino porque esta funcin caracteriza la distribucin). Sirve por ejemplo para el clculo de momentos y para el estudio de
la propiedad de reproductividad. La reproductividad es til para el manejo de algunas
distribuciones importantes en estadstica.
21

1. Variable aleatoria n-dimensional

Por ltimo, introduciremos la nocin de esperanza condicionada, basada en la esperanza de la distribucin condicionada, y obtendremos algunas propiedades. Es una herramienta muy til en algunas ocasiones.

1.5.

Esperanza de funciones de variables n-dimensionales

La esperanza de una v.a. unidimensional Z es la integral de la variable respecto de su


R
distribucin, zdF (z), que en los casos discreto y continuo se expresa como
E[Z] =

z pz , y

(1.116)

E[Z] =

zf (z)dz ,

(1.117)

siendo pz = P fZ = zg la funcin de masa y f (z) la funcin de densidad, en el caso de que


la suma o la integral sean absolutamente convergentes (E[jZj] < 1). En algunos casos,
como por ejemplo para la distribucin de Cauchy, no se da la convergencia absoluta, y
entonces no existe la esperanza. Denotamos la esperanza tambin sin corchetes: EZ. La
esperanza de Z coincide con el centro de gravedad de una distribucin de masas que fuera
proporcional a la distribucin de probabilidad de Z sobre la recta.
Para calcular la esperanza de un funcin de una v.a. no es necesario obtener la distribucin de la funcin (cambio de variable), sino que se puede obtener a partir de la
distribucin de la v.a. directamente. En este apartado, enunciamos este resultado y obtenemos algunas consecuencias (en los corolarios). Por claridad en la exposicin, en primer
lugar recordamos el resultado para el caso unidimensional continuo, despus lo enunciamos
para el caso bidimensional, y nalmente para todo n.
Sea X una v.a. unidimensional continua con funcin de densidad f y consideremos una
funcin h : R ! R medible. (La medibilidad de h es un requisito matemtico que se cumple
en todos los casos de inters prctico). Se tiene que Z = h(X) es una v.a. unidimensional.
Si Z es continua con funcin de densidad g, se tiene por (1.117) que
E[h(X)] = E[Z] =
22

1
1

zg(z)dz .

(1.118)

1.5 Esperanza de funciones de variables n-dimensionales

Sin embargo, es innecesario calcular g para calcular E[h(X)]: se tiene que


E[h(X)] =

h(x)f (x)dx .

(1.119)

Este resultado se generaliza para funciones h : Rn ! R de v.a. n-dimensionales.


Proposicin 15. (n = 2) Si (X; Y ) una v.a. bidimensional y h : R2 ! R es medible,
entonces Z = h(X; Y ) es una v.a. unidimensional. Su esperanza se puede calcular del
siguiente modo:
a) Si (X; Y ) es discreta con funcin de masa pxy se verica que
E[Z] =

h(x; y)pxy

(1.120)

(x;y)2D

b) Si (X; Y ) es continua con funcin de densidad f (x; y) se verica que


E[Z] =

1
1

h(x; y)f (x; y)dydx

(1.121)

Ejemplo 16. Consideremos una v.a. con funcin de densidad f (x; y) = 4xy si 0 < x; y < 1.
Calcula la esperanza de XY , de un modo directo y utilizando la proposicin 15.
Solucin: Para un clculo directo necesitamos obtener la funcin de densidad de la
variable aleatoria unidimensional Z = XY . Se calcul en el ejemplo 14, obtenindose
g(z) =

4z log z si 0 < z < 1. La esperanza (integrando por partes y teniendo en cuenta

que l mz!0 z 3 log z = 0) es


E[XY ] = EZ =

zg(z)dz =

z 2 log zdz =

4
.
9

(1.122)

Utilizando la proposicin 15 con h(x; y) = xy obtenemos


E[XY ] =

1
1

h(x; y)f (x; y)dydx = 4

1Z 1
0

x2 y 2 dydx =

4
.
9

(1.123)

En este ejemplo, el segundo mtodo, en (1.123), es muy conveniente, puesto que requiere
muchos menos clculos. El primer mtodo requiere calcular la funcin de densidad de
Z = XY , integrar por partes, y calcular un lmite.

23

1. Variable aleatoria n-dimensional

Proposicin 17. Sea X = (X1 ; : : : ; Xn ) una v.a. n-dimensional y h : Rn ! R medible.


Entonces Z = h(X) = h(X1 ; : : : ; Xn ) es una v.a. unidimensional. En los casos discreto o
continuo se tiene que

E[Z] =
E[Z] =

h(x1 ; : : : ; xn )f (x1 ; : : : ; xn ) ,

(x1 ;:::;xn )2D


Z 1
1

h(x1 ; : : : ; xn )f (x1 ; : : : ; xn )dxn

(1.124)
dx1 .

(1.125)

En el siguiente corolario se presenta una propiedad muy til, que se utiliza frecuentemente en probabilidad y estadstica.

Corolario 18. Consideremos una v.a. n-dimensional (X1 ; : : : ; Xn ) y sean a1 ; : : : ; an , b


nmeros reales. Se tiene que

E[a1 X1 +

+ an Xn + b] = a1 E[X1 ] +

+ an E[Xn ] + b .

(1.126)

En el siguiente corolario se requiere independencia, a diferencia de lo que ocurre con el


corolario anterior, en el que no hay restricciones sobre (X1 ; : : : ; Xn ).

Corolario 19. Consideremos una v.a. n-dimensional (X1 ; : : : ; Xn ). Si X1 ; : : : ; Xn son independientes se tiene que

E[X1

Xn ] = E[X1 ]

E[Xn ] .

(1.127)

En el siguiente ejercicio se pide comprobar los corolarios en el caso bidimensional.

Ejercicio 20. Sea (X; Y ) una v.a. bidimensional y a; b; c nmeros reales.

a) Comprueba que E[aX + bY + c] = aE[X] + bE[Y ] + c .


b) Comprueba que, si X e Y son independientes, se tiene que E[XY ] = E[X]E[Y ]
.
Solucin: Suponemos que (X; Y ) es continua con funcin de densidad f .
24

1.6 Vector de esperanzas de una variable aleatoria n-dimensional

a) Consideramos la funcin h(X; Y ) = aX + bY + c y aplicamos la proposicin 15b:


Z 1Z 1
E[aX + bY + c] =
h(x; y)f (x; y)dydx
1
1
Z 1Z 1
=
(ax + by + c)f (x; y)dydx
1
1
Z 1Z
Z 1Z 1
Z 1Z 1
=a
xf (x; y)dydx + b
yf (x; y)dxdy + c
1
1
1
1
1
Z 1
Z 1
Z 1
Z 1
y
f (x; y)dx dy + c
x
f (x; y)dy dx + b
=a
1
1
1
1
Z 1
Z 1
yf2 (y)dy + c = aE[X] + bE[Y ] + c
xf1 (x)dx + b
=a

(1.128)
(1.129)
1

f (x; y)dydx (1.130)

(1.131)
(1.132)

b) Por la independencia entre X e Y se tiene que f (x; y) = f1 (x)f2 (y). Consideramos la funcin h(X; Y ) = XY y aplicamos la proposicin 15b:
E[XY ] =

h(x; y)f (x; y)dydx =


xyf1 (x)f2 (y)dydx
1
1
1
1
Z 1
Z 1
Z 1
=
xf1 (x)
yf2 (y)dy dx =
xf1 (x) (EY ) dx
1
1
1
Z 1
xf1 (x)dx = (EY ) (EX)
= (EY )

(1.133)
(1.134)
(1.135)

Si (X; Y ) es discreta, el resultado se demuestra igual que en el caso continuo, pero


sustituyendo la funcin de densidad por la funcin de masa, integrales por sumatorios, y
aplicando la proposicin 15a.

Denotamos la traspuesta de una matriz M como M 0 . Tambin para los vectores (que
se pueden considerar como matrices con una sola la o columna).

1.6.

Vector de esperanzas de una variable aleatoria n-dimensional

Consideremos una v.a. n-dimensional


X = (X1 ; : : : ; Xn )0 .

(1.136)

Se denomina vector de esperanzas (o vector de medias) de X, y se denota por E[X], a


E[X] = (E[X1 ]; : : : ; E[Xn ])0 .
25

(1.137)

1. Variable aleatoria n-dimensional

Se verica que E[X] coincide con el centro de masas de un objeto n-dimensional cuya
distribucin de masas fuera proporcional a la distribucin de probabilidad de X.

1.7.

Momentos de una variable aleatoria bidimensional

Los momentos son las esperanzas de las siguientes funciones de (X; Y ):


h1 (X; Y ) = X i Y j

EX)i (Y

h2 (X; Y ) = (X

EY )j ,

(1.138)

con i; j naturales.
Para i; j naturales se dene
ij

y decimos que

ij

= E[X i Y j ] ,

(1.139)

es un momento (respecto del origen) de orden i + j de la variable (X; Y ).

Los momentos de orden 1 son

10

= E[X] y

01

ciones marginales. De los momentos de orden 2,


momentos marginales, y

11

= E[Y ], las esperanzas de las distribu-

20

= E[X 2 ] y

02

= E[Y 2 ] son tambin

= E[XY ] es un momento que involucra las dos componentes

X e Y de la variable (X; Y ).
Para i; j naturales se dene
ij

y decimos que

ij

= E[(X

EX)i (Y

EY )j ] ,

(1.140)

es un momento central, o respecto de la media, de orden i + j de la

variable (X; Y ).
Los momentos centrales de orden 1 son nulos. De los momentos de orden 2,
son las varianzas V [X] y V [Y ] de las distribuciones marginales, y

11

20

02

es un momento pro-

piamente bidimensional que se denomina covarianza de (X; Y ) y se denota por Cov(X; Y ):


Cov(X; Y ) = E[(X

EX)(Y

EY )] .

(1.141)

Ejemplo 21. Consideremos el experimento aleatorio consistente en lanzar tres monedas


equilibradas, y consideremos la variable X nmero de caras, y la variable Y nmero de
rachas de caras y cruces. Calcula los momentos de orden 1 y 2 de (X; Y ). (En ejemplos
anteriores se obtuvo la distribucin conjunta y las marginales de (X; Y )).
26

1.7 Momentos de una variable aleatoria bidimensional

Solucin: Puesto que X

B(3; 1=2), tenemos que


1
3
=
2
2

EX = 3

V [X] = 3

1
2

1
2

3
,
4

(1.142)

sin necesidad de hacer ms clculos. Los otros momentos son:


E [Y ] =

3
X

yp:y = 2 , E Y 2 =

y=1

3
X

9
, V [Y ] = E Y 2
2

y 2 p:y =

y=1

Cov(X; Y ) = E[(X

EX)(Y

EY )] =

3 X
3
X

x=0 y=1

3
2

(y

(EY )2 =

1
,y
2

2) pxy = 0 .

Ejemplo 22. Consideremos una v.a. con funcin de densidad


f (x; y) = x + y
Clcula los momentos

ij .

si 0 < x; y < 1 .

(1.143)

Calcula las esperanzas y varianzas marginales y la covarianza.

Solucin: Utilizando la proposicin 1 con h(x; y) = xi y j obtenemos


ij

= E[X Y ] =

1Z 1

xi y j (x + y)dydx =

1
1
+
.
(i + 2)(j + 1) (i + 1)(j + 2)

Vamos a expresar todos los momentos pedidos en trminos de los


EX =
Puesto que EX 2 =

20

5
12

10

ij .

7
.
12

(1.144)

Se tiene que
(1.145)

, se tiene que

h
V X = V (X

i
EX)2 = EX 2

(EX)2 =

11
.
144

(1.146)

La distribucin de (X; Y ) es la misma que la de (Y; X), puesto que f (x; y) = f (y; x) para
todo (x; y) 2 R2 , y por tanto los momentos de X son los mismos que los de Y . Entonces,
EY = EX =
Finalmente, se obtiene E[XY ] =

11

7
12

y VY =VX =

11
144

(1.147)

1
.
144

(1.148)

= 13 , y de aqu

Cov(X; Y ) = E[XY ]
27

(EX)(EY ) =

1. Variable aleatoria n-dimensional

En los exmenes debern resaltarse los resultados nales obtenidos, por ejemplo como se
hace aqu.

Los momentos ms utilizados son los de orden 1 y 2. Las esperanzas EX y EY son


caractersticas de posicin de la v.a. (de las distribuciones marginales), las varianzas V [X]
y V [Y ] son caractersticas de dispersin, y Cov(X; Y ), combinada con las anteriores a
traves del coeciente de correlacin
=p

Cov(X; Y )
p
,
V [X] V [Y ]

(1.149)

proporciona una medida del grado de dependencia lineal entre las variables X e Y .
A las esperanzas EX y EY se las llama tambin medias (poblacionales), y se suelen
denotar por
y

2
2

2
X

y
2
Y ),

Y ).

Las varianzas V [X] y V [Y ] se suelen denotar por

y a sus raices cuadradas

se las denomina desviaciones tpicas

(poblacionales). La covarianza (poblacional) Cov(X; Y ) se suele denotar por


coeciente de correlacin se expresa entonces como

2
1

12
1 2

12

XY .

El

Tambin se utilizan en algunas aplicaciones momentos de orden superior. Por ejemplo,


el coeciente de asimetra y el de aplastamiento involucran momentos (unidimensionales)
de rdenes 3 y 4.

1.8.

Propiedades de la covarianza

La covarianza

12

= Cov(X; Y ) =

11

es una cantidad muy usada en el anlisis de v.a.

bidimensionales. Las siguiente propiedades son muy tiles:


1.- Si X e Y son independientes se tiene que Cov(X; Y ) = 0. (El recproco no es
cierto: vase el ejemplo 21).
2.- Cov(X; Y ) = E[XY ]
establece que V [X] = E X 2

(EX)(EY ) (anloga a la propiedad de la varianza que

(EX)2 ).

3.- Cov(X; Y ) = Cov(Y; X).


4.- Cov(X; X) = V [X].
28

1.8 Propiedades de la covarianza

5.- Cov(aX + b; cY + d) = Cov(aX; cY ) = acCov(X; Y ) (anloga a la propiedad


de la varianza que establece que V [aX + b] = V [aX] = a2 V [X]).
6.- Cov(X; Y )2

V [X]V [Y ], con igualdad si y solo si el soporte de (X; Y ) est

contenido en una recta del plano (desigualdad de Cauchy-Schwartz).


7.- Para una variable (X1 ; : : : ; Xn ; Y1 ; : : : Ym ) se verica que
Cov(a1 X1 +

+ an Xn ; b1 Y1 +

+ bm Ym ) =

n X
m
X

ai bj Cov(Xi ; Yj ) ,

(1.150)

i=1 j=1

y en particular, para una variable (X1 ; : : : ; Xn ),


V [a1 X1 +

+ an Xn ] =

n
X
i=1

siendo

i;j ;; i<j

el sumatorio

a2i V [Xi ] + 2

ai aj Cov(Xi ; Xj ) ,

(1.151)

i;j ;; i<j

Pn

j=2

Pj

1
i=1

. De aqu obtenemos tambin la siguiente

propiedad: si X1 ; :::; Xn son independientes se tiene que


" n
#
n
X
X
V
ai Xi =
a2i V [Xi ] .
i=1

(1.152)

i=1

En particular (n = 2), se tiene


V [a1 X1 + a2 X2 ] = a21 V [X1 ] + a22 V [X2 ] + 2a1 a2 Cov(X1 ; X2 ) ,

(1.153)

y V [a1 X1 + a2 X2 ] = a21 V [X1 ] + a22 V [X2 ] si X1 ; X2 son independientes.


Ejercicio 23. Demuestra las propiedades 1-5 (es trivial o sencillo en todos los casos).
Ejemplo 24. Consideremos una v.a. X = (X1 ; X2 ) con
2
1

= V [X1 ] = 1,

2
2

= V [X2 ] = 5 y

12

= Cov(X1 ; X2 ) =

= EX1 =

3,

= EX2 = 5,

2. Determina los momentos de

primer y segundo orden de Y = (Y1 ; Y2 ; Y3 ), con Y1 = 2X1 + 3X2 + 2 , Y2 = X1


Y3 = X2 .
Solucin:
EY1 = E [2X1 + 3X2 + 2] = 2E [X1 ] + 3E [X2 ] + 2 = 11 ,
EY2 = E [X1

4X2 ] = E [X1 ]

EY3 = E [X2 ] = 5 ,
29

4E [X2 ] =

23 ,

4X2 ,

1. Variable aleatoria n-dimensional

V [Y1 ] = V [2X1 + 3X2 + 2] = V [2X1 + 3X2 ]


= 22 V [X1 ] + 32 V [X2 ] + 2 2 3 Cov (X1 ; X2 ) = 25 ,
V [Y2 ] = V [X1

4X2 ] = V [X1 ] + ( 4)2 V [X2 ] + 2 1 ( 4) Cov (X1 ; X2 ) = 97 ,

V [Y3 ] = V [X2 ] = 5 ,

Cov (Y1 ; Y2 ) = Cov (2X1 + 3X2 + 2; X1


= Cov (2X1 + 3X2 ; X1

4X2 )

4X2 )

= 2 1 Cov (X1 ; X1 ) + 2 ( 4) Cov (X1 ; X2 )


+ 3 1 Cov (X2 ; X1 ) + 3 ( 4) Cov (X2 ; X2 )
= 2 V [X1 ]

5 Cov (X1 ; X2 )

12 V [X2 ] =

48 ,

Cov (Y1 ; Y3 ) = Cov (2X1 + 3X2 + 2; X2 ) = Cov (2X1 + 3X2 ; X2 )


= 2 1 Cov (X1 ; X2 ) + 3 1 Cov (X2 ; X2 )
= 2 Cov (X1 ; X2 ) + 3 V [X2 ] = 11 , y

Cov (Y2 ; Y3 ) = Cov (X1

4X2 ; X2 ) = Cov (X1 ; X2 )

= Cov (X1 ; X2 )

4 V [X2 ] =

4 Cov (X2 ; X2 )

22 .

Ejemplo 25. La covarianza en el ejemplo 21 se puede calcular tambin utilizando la


P3 P3
propiedad 2 de la covarianza: se obtiene E[XY ] =
x=0
y=1 xypxy = 3 , y entonces

Cov(X; Y ) = E[XY ]

1.9.

(EX)(EY ) = 3

3
2

2 = 0.

Matriz de covarianzas

Los clculos que se han realizado en el ejemplo 24 pueden ser expresados mediante
matrices, como veremos en el ejemplo 26.
30

1.9 Matriz de covarianzas

El clculo matricial es potente, til y sencillo. Es indispensable por ejemplo para el


propsito prctico de analizar la estructura de conjuntos de datos multidimensionales. Ya
en el ejemplo 24, con variables con pocas componentes, 2 y 3, el clculo es laborioso. La
expresin matricial en el ejemplo 26 ordena todas esas operaciones, y es la adecuada para
la programacin informtica de los clculos.
Vamos a denir la matriz de covarianzas de una variable multidimensional como el conjunto ordenado de covarianzas entre las componentes (algunas de las cuales son varianzas).
Tambin se dene la matriz de covarianzas entre dos variables multidimensionales como el
conjunto ordenado de las covarianzas entre las componentes de las variables.
Se denomina matriz de (varianzas-)covarianzas de una variable aleatoria n-dimensional
X = (X1 ; : : : ; Xn )0 a la matriz n n , que denotaremos por

=(

ij )i;j=1;:::;n ,

cuyo elemento

(i; j) es
ij

Obsrvese que

= Cov(Xi ; Xj ) .

es simtrica puesto que

este modo

6
6
6
6
=6
6
6
4

Tengase en cuenta que el smbolo

ij

2
1

12

12

2
2

..
.

..
.

1n

2n

ji .

Se tiene que

1n
2n

..

(1.154)

..
.
2
n

ii

= V [Xi ] =

2
i,

y de

7
7
7
7
7 .
7
7
5

(1.155)

lo estamos usando con dos signicados diferentes: para

denotar esta matriz y, ms grande, como sumatorio.


Se dice que X1 ; : : : ; Xn estn incorreladas si cualquier par de ellas lo est, esto es, si
es una matriz diagonal.
Para una v.a. X unidimensional se tiene que
E[aX + b] = aE[X] + b

V [aX + b] = a2 V [X] .

(1.156)

La esperanza (vector de esperanzas) y la varianza (matriz de covarianzas) que hemos


denido en este tema para una v.a. n-dimensional, satisfacen propiedades matriciales anlogas.
31

1. Variable aleatoria n-dimensional

Consideremos una v.a. n-dimensional X = (X1 ; : : : ; Xn )0 (expresada por tanto como


vector columna). Denotamos por

= E[X] al vector de esperanzas de X, y por

matriz de covarianzas. Consideremos m natural, una matriz A, m

a la

n, un vector b, m

1,

y sea
Y = AX + b .

(1.157)

Y = (Y1 ; : : : ; Ym )0 es una v.a. m-dimensional y se verica que su vector de esperanzas y


matriz de covarianzas se pueden expresar en funcin de los de X del siguiente modo:
Y

=A

+b y

=A

XA

(1.158)

(1.159)

Ejemplo 26. Consideremos una


(X1 ; X2 )0 con vector de esperanzas X = ( 3; 5)0
0 v.a. X = 1
2 C
B 1
y matriz de covarianzas X = @
A. Determina el vector de esperanzas y la matriz
2 5
de covarianzas de Y = (Y1 ; Y2 ; Y3 )0 , con Y1 = 2X1 + 3X2 + 2 ,
0
B 2 3
B
Solucin: Se tiene que Y = AX + b , con A = B
4
B 1
@
0 1
tanto
0
1
0
11
B
C
B 25
B
C
B
0
B 23 C y
B 48
Y = A X + b =B
Y = A XA = B
C
@
A
@
5
11

Y2 = X1
1

4X2 , Y3 = X2 .
0 1
C
B 2 C
C
B C
C y b = B 0 C , y por
C
B C
A
@ A
0
48
97
22

1
11 C
C
22 C
C .
A
5

(1.160)

Obsrvese que los datos de este ejemplo son los mismos que los del ejemplo 24, pero
aqu expresados matricialmente. Los resultados obtenidos para los momentos de primer
y segundo orden son, por supuesto, los mismos en ambos ejemplos. El mtodo matricial
es mas rpido para realizar las operaciones (que son bsicamente las mismas con ambos
mtodos) porque las realiza de un modo sistemtico.

Para v.a.s multidimensionales Y , Z, denotamos por Cov(Y; Z) a la matriz de covarianzas entre las componentes de Y y las componentes de Z, cuyo elemento (i; j) es Cov(Yi ; Zj ).
32

1.10 El coeciente de correlacin. Matriz de correlaciones

Consideramos el caso en que Y y Z son transformadas lineales de X. Sea A es una


matriz m

n y B una matriz p

n, con m; p

1. Sean Y = AX y Z = BX, que son

variables aleatorias m-dimensional y p-dimensional respectivamente. Se tiene que


Cov(Y; Z) = Cov(AX; BX) = A
que es una matriz m

(1.161)

p. En particular,
Cov(AX; X) = A

Obsrvese que V [X] = Cov(X; X) =

1.10.

XB

(1.162)

X.

El coeciente de correlacin. Matriz de correlaciones

Proposicin 27. El coeciente de correlacin

entre X e Y para una v.a. bidimensional

(X; Y ),
12

1 2

satisface las siguientes propiedades:


a) Se tiene que j j

1, esto es,

Cov(X; Y )
p
,
=p
V [X] V [Y ]

(1.163)

1, con igualdad si y solo si el soporte de

(X; Y ) est contenido en una recta del plano, o sea, si Y = a + bX para algn a y b.
b) Se tiene que

(aX + b; cY + d) = (X; Y ), con a; c > 0.

Demostracin
a) Es inmediato a partir de la desigualdad de Cauchy-Schwartz.
b) Se tiene que
Cov (aX + b; cY + d)
(1.164)
(aX + b) (cY + d)
E [(aX + b E [aX + b]) (cY + d E [cY + d])]
=r h
ir h
i
2
E (aX + b E [aX + b])
E (cY + d E [cY + d])2

(aX + b; cY + d) =

(1.165)

=r

acE [(X E [X]) (Y E [Y ])]


h
ir
h
i = (X; Y ) .
2
2
2
2
a E (X E [X])
c E (Y E [Y ])
33

(1.166)

1. Variable aleatoria n-dimensional

Consideremos una variable aleatoria n-dimensional X = (X1 ; : : : ; Xn ). Para i; j =


1; : : : ; n, sea

ij

= (Xi ; Yj ) el coeciente de correlacin entre Xi e Yj ,


ij

ij

i j

Se denomina matriz de correlaciones de la v.a. n-dimensional X a la matriz n


elemento (i; j) es

ij .

La llamamos C, C = (

ij )i;j=1;:::;n .

Obsrvese que C es simtrica, puesto que


este modo

6
6
6
6
C=6
6
6
4

12

12

..
.

1
..
.

1n

2n

n cuyo

ij

ji .

Se tiene que

1n

2n

..

..
.
1

7
7
7
7
7 .
7
7
5

ii

ii
i i

= 1, y de

(1.167)

X1 ; : : : ; Xn estn incorreladas si C es la matriz identidad.

Si X1 ; : : : ; Xn son independientes se verica que estn incorreladas. El recproco no es


cierto en general.

1.11.

Funcin caracterstica. Reproductividad

En este apartado i es la unidad imaginaria, con i2 =

1.

La funcin caracterstica de una v.a. (X; Y ) es la funcin


h
i
'(t; u) = E ei(tX+uY ) ,

(1.168)

con argumentos reales y valores complejos. Siempre existe puesto que ei(tx+uy) tiene mdulo
1 en el plano complejo y por tanto est acotado.
'(t; u) caracteriza la distribucin conjunta de (X; Y ).
Los momentos

kl

= E[X k Y l ] , si existen, se obtienen a partir de la funcin caracters-

tica del siguiente modo:


kl

1
ik+l

dk+l '(t; u)
dtk dul
34

.
t;u=0

(1.169)

1.11 Funcin caracterstica. Reproductividad

Se verica que la funcin caracterstica (marginal) de X, y de Y , es


'1 (t) = '(t; 0) , y '2 (u) = '(0; u) .

(1.170)

Si X e Y son independientes se tiene que


'(t; u) = '1 (t)'2 (u) .

(1.171)

Si X e Y son independientes, la funcin caracterstica, unidimensional, de X + Y es


'X+Y (t) = E[eit(X+Y ) ] = 'X (t)'Y (t) = '1 (t)'2 (t) .

(1.172)

Este ltimo resultado permite estudiar una til propiedad que verican algunos tipos
de distribuciones, la reproductividad.
Se dice que una familia paramtrica de distribuciones, con parmetro , es reproductiva
respecto de , si la distribucin de la suma de dos variables independientes X e Y de esa
familia pertenece a la familia, siendo el valor del parmetro para X + Y la suma de los
valores para X y para Y .
Ejemplo 28. La distribucin de Poisson P( ) es reproductiva. La funcin caracterstica
h it i
it
(f.c.) es '(t) = e (e 1) = e(e 1) . Si X
P( 1 ) , Y
P( 2 ) y son independientes,
entonces, por (1.172), la f.c. de X + Y es
h it
'X+Y (t) = 'X (t)'Y (t) = e(e
que es la f.c. de una P(

2 ),

1)

it

e(e

1)

y por tanto X + Y

h it
= e(e
P(

1)

1+ 2

2 ),

(1.173)

con lo que queda

comprobado que la distribucin de Poisson P( ) es reproductiva, respecto de su parmetro,


.
La distribucin binomial B(n; p) es reproductiva respecto de n.
La f.c. es '(t) = (peit +(1

p))n . Si X

B(n1 ; p) , Y

B(n2 ; p) (con p igual en ambos

casos) y son independientes, entonces, por (1.172), la f.c. de X + Y es


'X+Y (t) = 'X (t)'Y (t) = (peit +(1

p))n1 (peit +(1

p))n2 = (peit +(1

p))n1 +n2 ,
(1.174)

35

1. Variable aleatoria n-dimensional

que es la f.c. de una B(n1 + n2 ; p), y por tanto X + Y

B(n1 + n2 ; p).

La distribucin normal N ( ; ) es reproductiva respecto de


'(t) = eit

t2

2 =2

. Si X

N(

1;

1 ),

con

=(

1;

2
1 ),

N(

= ( ;

2;

2 ),

con

t2

2
2 =2)

2 ).
2

La f.c. es

=(

2;

2
2 ),

y son independientes, entonces, por (1.172), la f.c. de X + Y es

'X+Y (t) = 'X (t)'Y (t) = exp(it

t2 (

2
1

= exp(it(

que es la f.c. de una N (


con

2;

2)

= (E[X + Y ]; V [X + Y ]) = (

t2
+

2
1 =2) exp(it 2

2
2 )=2)

(1.176)

2
1

2
2 ),

y por tanto X + Y

2;

2
1

2
2)

(1.175)

N(

2;

2
1

2
2 ),

Es sencillo comprobar que la distribucin gamma es reproductiva respecto del parmetro


p.

Puesto que la distribucin binomial es reproductiva, y la distribucin de Bernoulli es


una binomial B (1; p), podemos expresar una v.a. binomial como suma de v.a. de Bernoulli.
Para i = 1; : : : ; n consideremos la v.a. Zi que vale 1 si ocurre el suceso A en la i-sima
repeticin y que vale 0 en caso contrario (si ocurre Ac ). Las variables Z1 ; : : : ; Zn son i.i.d.
P
con distribucin B(1; p). Entonces, la v.a. X = ni=1 Zi , que es el nmero de veces que
ocurre A en las n repeticiones, tiene distribucin B(n; p).

La funcin caracterstica de una v.a. n-dimensional X = (X1 ; : : : ; Xn ) es


'(t) = '(t1 ; : : : ; tn ) = E[ei(t1 X1 +

1.12.

+tn Xn )

] = E[eitX ] , para t = (t1 ; : : : ; tn ) 2 Rn .

Esperanza y varianza condicionadas

Consideremos una v.a. bidimensional (X; Y ). Podemos considerar la esperanza de las


distribuciones condicionadas: si

P fX = xg > 0 f1 (x) > 0 ,


36

(1.177)

1.12 Esperanza y varianza condicionadas

en los casos discreto o continuo, se dene


E[Y =X = x] =

X
y

E[Y =X = x] =

y P fY = y=X = xg , o

y f (y=x)dy

(1.178)
(1.179)

Para cada valor de x que verique (1.177) hay un valor E[Y =X = x], y por tanto podemos
considerar la funcin h : R ! R dada por
h(x) = E[Y =X = x] .

(1.180)

Se denomina esperanza condicionada de Y condicionada con X (o dada X) a la variable


aleatoria transformada de X por h . Se denota por E[Y =X]:
E[Y =X] = h(X) .

(1.181)

La v.a. h(X) = E[Y =X] toma los valores h(x) = E[Y =X = x], para x en el soporte de X.
Igualmente se dene E[X=Y ], que es funcin de Y .
Ejemplo 29. Consideremos la variable (X; Y ) = (no de caras, no de rachas) en tres lanzamientos de una moneda. Determina la distribucin de E[Y =X].
Solucin: En ejemplos anteriores se obtuvieron las distribuciones condicionadas (Y =X = x)
y la distribucin marginal de X para este caso. En la tabla se presentan las probabilidades
condicionadas P fY = y=X = xg =

pxy
px: :

Se tiene que
X

2=3

2=3

1=3

1=3

(1.182)

1
2
3 C
B 0
@
A .
1=8 3=8 3=8 1=8
37

(1.183)

1. Variable aleatoria n-dimensional

Puesto que (Y =X = 0)
Puesto que (Y =X = 1)

1,
0 se tiene que
1E [Y =X = 0] = 1.
3 C
B 2
@
A, se tiene que E [Y =X = 1] = 2 23 + 3 13 =
2=3 1=3

Igualmente, E [Y =X = 2] =

7
3

7
3

y E [Y =X = 3] = 1.

Por tanto, E [Y =X = x] solo toma los valores 1 (para x = 0 y 3) y

7
3

(para x = 1 y 2),

con lo cual:
1
1 1
+ = ,
8 8
4
3 3
3
= P fX = 1g + P fX = 2g = + = .
8 8
4

P fE [Y =X] = 1g = P fX = 0g + P fX = 3g =
P E [Y =X] =

7
3

Podemos expresar el resultado obtenido del siguiente modo:


0
1
B 1 7=3 C
E [Y =X] @
A
1=4 3=4

(1.184)
(1.185)

(1.186)

Ejemplo 30. Consideremos una v.a. continua con funcin de densidad


f (x; y) = 6y si 0 < y < x < 1 .

(1.187)

Determina E [Y =X = 00 5], E [Y =X] y E [X=Y ].


Solucin: En un ejemplo anterior se obtuvieron las funciones de densidad condicionadas.
Para 0 < x < 1 se tiene que f (y=x) =
E [Y =X = x] =

yf (y=x)dy =

2y
x2

si y 2 (0; x), y entonces


2
2y 2
dy = 2
2
x
x

y 2 dy =

2
2 x3
= x.
2
x 3
3

(1.188)

Por tanto, E [Y =X = 00 5] = 23 00 5 = 00 333 y E [Y =X] = 32 X .


Para 0 < y < 1,

f (x=y) =

1
1 y

que E [X=Y = y] = E [U (y; 1)] =

si x 2 (y; 1) , esto es, (X=Y = y)

y+1
2 ,

U (y; 1). Se tiene

y por tanto

E [X=Y ] =

Y +1
.
2

(1.189)

En este ejemplo ambas esperanzas condicionadas son funciones lineales. En otros casos
pueden serlo ambas (como aqu), solo una de ellas, o ninguna.

38

1.12 Esperanza y varianza condicionadas

Propiedades de la esperanza condicionada


1.- Si X e Y son independientes entonces E[Y =X]

E[Y ] (distribucin degenerada).

2.- E[aX + bY + c=Z] = aE[X=Z] + bE[Y =Z] + c .


3.- Si Y es no negativa entonces E[Y =X] tambin lo es.
4.- Si g; t : R ! R son funciones medibles se tiene que E[g(X)t(Y )=X] = g(X)E[t(Y )=X].
Se dene la varianza condicionada V [Y =X] del mismo modo que E[Y =X], pero ahora
a partir de la varianza (en vez de la esperanza) de la distribucin condicionada: se dene
V [Y =X] = u(X), siendo u(x) = V [Y =X = x] la varianza de la correspondiente distribucin
condicionada. Se verica que
V [Y =X] = E[Y 2 =X]

E[Y =X]2 .

(1.190)

El uso de esperanzas y varianzas condicionadas proporciona un mtodo para el clculo de esperanzas y varianzas marginales, alternativo al clculo directo, que en algunas
ocasiones resulta muy conveniente: se verica que
E [Y ] = E [E [Y =X]] y

(1.191)

V [Y ] = E [V [Y =X]] + V [E [Y =X]] .

(1.192)

Demostramos (1.191) en el caso continuo. Sea h(x) = E[Y =X = x]. Se tiene que
Z 1
Z 1
E[E[Y =X]] = E[h(X)] =
h(x) f1 (x)dx =
E[Y =X = x] f1 (x)dx
(1.193)
1
1
Z 1 Z 1
Z 1 Z 1
=
yf (y=x)dy f1 (x)dx =
yf1 (x)f (y=x)dy dx (1.194)
1
1
1
1
Z 1Z 1
Z 1 Z 1
=
yf (x; y)dydx =
yf (x; y)dx dy
(1.195)
1
1
1
1
Z 1
Z 1
Z 1
=
y
f (x; y)dx dy =
yf2 (y)dy = E[Y ] .
(1.196)
1

Ejemplo 31. Comprueba (1.191) para la v.a. (X; Y ) del ejemplo de las caras y las rachas.
Solucin: En el ejemplo 21 se obtuvo EY = 2. En el ejemplo 29 se obtuvo
0
1
B 1 7=3 C
E [Y =X] @
A ,
1=4 3=4
39

(1.197)

1. Variable aleatoria n-dimensional

con lo cual E [E [Y =X]] = 1: 14 +

73
34

=2.

Ejemplo 32. Consideremos una v.a. con funcin de densidad


f (x; y) =

1
1

si 0 < x < y < 1 .

(1.198)

Calcula la esperanza de Y de un modo directo y mediante el uso de la esperanza condicionada. Calcula la varianza de Y .
Solucin: En este ejemplo, el clculo directo de EY requiere muchas operaciones, en
contraste con la mayor simplicidad del clculo de E[E[Y =X]].
R1
- Clculo directo: Consiste en obtener 1 yf2 (y)dy. Se calcula en primer lugar la
funcin de densidad de Y (ejercicio), que es f2 (y) =
integrar por partes, con u = log(1

log(1

y) si 0 < y < 1. Hay que

y) y dv = ydy ; al sustituir el lmite de integracin

y = 1 se obtiene una indeterminacin (1

1), que se resuelve considerando y = 1

"

y tomando el lmite cuando " # 0; adems, hay que utilizar integracin por cambio de
variable, con t = 1
EY =

=
=
=
=
=

y:

yf2 (y)dy =

lm

"!0+

lm

"!0+

lm

"!0+

lm

"!0+

lm

"!0+

y log(1

y2
log(1
2

1 "

y)
0

y)dy
Z

1 "

(1.199)

1
y2
dy
2 1 y

Z
1 1
1
log " +
(1 t)2 dt
2
2 "
t
Z 1
2
(1 ")
1
log " +
(t 2 + t 1 )dt
2
2 "
(1 ")2
1 1
"2
log " +
2 + log 1
2
2 2
2
2
2
"
2"
3 "
3
log "
+" = .
2
4
4
4
(1

")2

(1.200)
(1.201)
(1.202)
2" + log "

(1.203)
(1.204)

- Uso de esperanza condicionada: se comprueba con unas pocas operaciones sencillas que X

U (0; 1) y que (Y =X = x)

U (x; 1), y por tanto

E [Y =X = x] = E [U (x; 1)] =
40

x+1
.
2

(1.205)

1.12 Esperanza y varianza condicionadas

De aqu se obtiene:
X +1
1
1
= (EX + 1) = (E [U (0; 1)] + 1)
2
2
2

EY = E[E[Y =X]] = E
=

1
2

1
+1
2

(1.206)

3
.
4

(1.207)

- Para el clculo de V [Y ] tambin es muy conveniente utilizar condicionamiento.


Lo hacemos slo de este modo. Puesto que (Y =X = x)
E[Y =X = x] = E[U (x; 1)] =
De aqu se obtiene E[Y =X] =

X+1
2

x+1
2

y V [Y =X = x] = V [U (x; 1)] =

y V [Y =X] =

(1 X)2
12 ,

(1

V [Y ] = E[V [Y =X]] + V [E[Y =X]] = E


=

1
V [1
12

1
( 1)2 V [X] + (1
12

1
V [U (0; 1)] + (1
12

1
12

X])2 +

X] + (E[1

1
+ (1
12

1 2
)
2

U (x; 1) se tiene que

E[X])2 +

(El clculo directo consiste en obtener


Z 1
3 2
log(1 y)dy =
y
4
0

1
2

x)2
.
12

y por tanto

X)2
+V
12

X +1
2

(1.208)

1
2

V [X + 1]
1
2

(1.209)

E[U (0; 1)])2 +


+

(1

V [X]
1
2

(1.210)

V [U (0; 1)]

(1.211)

1
7
=
12
144

y log(1

Ejemplo 33. Consideremos una v.a. (X; Y ) con X

(1.212)

y)dy

3
4

).

P( ) y (Y =X = x)

(1.213)

B(x; p).

Calcula la esperanza y la varianza de Y .


Solucin: En la hoja de problemas se obtiene que Y

P( p) en este caso, y por tanto

se tiene que EY = E [P( p)] = p y que V [Y ] = E [P( p)] = p. Si no dispusiramos


de ese resultado, para el clculo de la esperanza y la varianza de Y es mas rpido utilizar
condicionamiento que obtener la distribucin de (X; Y ). Lo hacemos aqu de ese modo. Se
tiene que E[Y =X = x] = E[B(x; p)] = xp, y por tanto
EY = E[E[Y =X]] = E[pX] = pE[X] = pE[P( )] = p .
41

(1.214)

1. Variable aleatoria n-dimensional

Se tiene que V [Y =X = x] = V [B(x; p)] = xp(1

p), y entonces

V [Y ] = E[V [Y =X]] + V [E[Y =X]] = E[p(1

p)X] + V [pX]

p)E[P( )] + p2 V [P( )] = p(1

= p(1

(1.215)

p) + p2 = p

(1.216)

Ejemplo 34. Modelizamos los ingresos obtenidos en una tienda, por venta al pblico, del
siguiente modo. Supongamos que el nmero diario de clientes es una v.a. N , y que el gasto
de los clientes en la tienda son v.a.i.i.d. X1 ; : : : ; XN , tambin independientes de N . Expresa
la esperanza y la varianza del ingreso total diario Z en trminos de la esperanza y varianza
de N y de las Xi .
Solucin: Se tiene que
Z=

N
X

Xi .

(1.217)

i=1

Sea

= EXi ,

= V [Xi ], m = EN , t2 = V [N ] La esperanza y la varianza de Z se

obtienen condicionando adecuadamente y aplicando (1.191) y (1.192). Puesto que


"N
#
" n
#
X
X
E[Z=N = n] = E
(1.218)
Xi = N = n = E
Xi = N = n
=E

"

i=1

n
X

Xi

i=1

i=1

n
X

EXi = nEXi = n

(1.219)

i=1

(la primera igualdad en (1.219) por ser las Xi independientes de N ), se tiene que
EZ = E[E[Z=N ]] = E[ N ] = E[N ] = m ,
Puesto que
V [Z=N = n] = V
=

n
X

"

n
X

Xi = N = n = V

i=1

V Xi +

i=1

Cov(Xi ; Xj ) =

"

n
X

Xi

i=1

n
X

V Xi + 0 = n

(1.220)
2

(1.221)

i=1

i6=j

se tiene que
V [Z] = E[V [Z=N ]] + V [E[Z=N ]] = E[N
=

E[N ] +

V [N ] = m

42

+ t2

] + V [ N]

(1.222)
(1.223)

Das könnte Ihnen auch gefallen