Beruflich Dokumente
Kultur Dokumente
Introduccin
Si estamos interesados en dos o mas de los valores del examen mdico, y sus interrelaciones, consideraremos el correspondiente vector aleatorio. Suponemos que hay una
distribucin de probabilidad subyacente a este vector. En esta asignatura vamos a estudiar
distintas cuestiones referidas a vectores aleatorios, como continuacin y ampliacin de la
asignatura Azar y Probabilidad, donde se estudiaban el caso unidimensional y los elementos bsicos del caso bidimensional. En las asignaturas Estimacin I y II se estudia
el problema prctico de analizar propiedades de la distribucin subyacente en unos pocos
casos no unidimensionales, y en otras muchas asignaturas de la carrera se profundiza en
estos estudios multidimensionales.
Con formulacin matemtica, una v.a. n-dimensional X = (X1 ; : : : ; Xn ) es una funcin
X:
! Rn
! ! X (!) = (X1 (!) ; : : : ; Xn (!))
nmeros reales (vectores reales n-dimensionales). Los fundamentos matemticos del asunto
involucran la nocin de -lgebra, que no estudiamos aqu puesto que no tiene inters en
las aplicaciones prcticas.
En la mayor parte de las ocasiones solo estamos interesados en la distribucin de probabilidad de X sobre Rn . El espacio muestral
tomarse del modo cannico, con
de
, con la excepcin de un ejemplo mas adelante (el de las caras y las rachas), donde la
Lo que importa entonces del problema, el elemento inicial a partir del cual trabajaremos,
es la distribucin de X, que se puede especicar mediante una funcin de distribucin. El
inters de la funcin de distribucin es principalmente matemtico, porque caracteriza la
distribucin, como en el caso unidimensional (hay una distribucin para cada funcin de
distribucin y viceversa). Sin embargo, suele ser mas til trabajar a partir de funciones de
masa o de densidad, en los casos discreto o continuo.
2
La distribucin de probabilidad de X = (X1 ; : : : ; Xn ) (distribucin conjunta) no queda especicada en general solamente a partir de las distribuciones de X1 ; : : : ; Xn (distribuciones marginales), sino que tambin deben ser tenidas en cuenta las relaciones entre
variables (distribuciones condicionadas).
Las ideas bsicas del caso n-dimensional son las mismas que las del caso bidimensional.
Comenzamos repasando las nociones de distribucin conjunta y distribuciones marginales
y condicionadas en el caso bidimensional, y despus explicamos cmo se generalizan estas
nociones para el caso n-dimensional.
Estudiamos tambin los momentos bidimensionales (para pares de variables). Los principales son los de orden 1 y 2, que son los momentos unidimensionales ya conocidos, y
adems la covarianza (momento central), propiamente bidimensional.
Para la denicin de conceptos nuevos se utiliza la letra cursiva y se omite el encabezamiento Denicin, lo que hace la exposicin mas gil. Entonces, los textos escritos en
cursiva sern el nombre de conceptos que se est deniendo. (Tambin se utiliza la cursiva
para frmulas y expresiones matemticas). Cuando el nombre de un concepto que se dene,
en cursiva, incluye algn trmino entre parntesis, se quiere indicar que ese trmino suele
ser omitido (y sobreentendido).
1.2.
, o que
e
3x
, o que
1.2.1.
Exp(3).
Distribucin conjunta
x; Y
yg
para x; y 2 R .
(1.1)
(1.2)
La funcin de masa (conjunta) de una variable discreta (X; Y ) viene dada por
pxy = P fX = x; Y = yg para (x; y) 2 D .
(1.3)
de 1 a 6. Puesto que la moneda y el dado estn equilibrados, los doce resultados posibles
(x; y), con x 2 f0; 1g, y 2 f1; : : : ; 6g, son equiprobables, y por tanto la funcin de masa
conjunta viene dada por
1
para (x; y) 2 f0; 1g
12
pxy = P fX = x; Y = yg =
f1; : : : ; 6g .
(1.4)
de todos los posibles resultados de los tres lanzamientos, que son equiprobables.
Haciendo un recuento de los distintos valores que puede tomar (X; Y ), a partir de la tabla
que sigue a continuacin, se obtiene la funcin de masa conjunta, que se presenta en la
segunda tabla, con los valores pxy = P fX = x; Y = yg para x = 0,1,2,3, y = 1,2,3.
!
xxx
xxc
xcx
xcc
cxx
cxc
ccx
ccc
X(!)
Y (!)
(1.5)
1=8
1=8
2=8
2=8
1=8
1=8
(1.6)
(1.7)
x
1
f (u; v)dvdu .
1
(1.8)
1
1
f (x; y) dy dx = 1 .
RR
(1.9)
f = 1 es la funcin de densidad
(1.10)
4.- Para B
P f(X; Y ) 2 Bg =
ZZ
f (x; y)dydx .
(1.11)
1
2
(1.12)
Aqu 0 < x; y < 1 signica 0 < x < 1 y 0 < y < 1; se sobreentiende que f (x; y) es nula en
otro caso. Utilizaremos este tipo de notacin simplicada durante todo el curso.
Solucin: Utilizamos la propiedad 2 de la funcin de densidad conjunta. La funcin
f (x; y) toma los valores 1 0, y por tanto f es no negativa. Comprobamos que la integral
de f vale 1:
ZZ
Z
f=
1
1
f (x; y) dy dx =
1Z 1
1dydx =
Se tiene que
P
1
Y >X+
2
ZZ
yj10 dx =
1dx = 1 .
(1.13)
f (x; y)dydx ,
(1.14)
1
2
, y por tanto
Z 1Z 1
Z 1
2
2
1
( 12
Y >X+
=
1dydx =
1
2
0
x+
0
2
x)dx =
1
= 00 125 .
8
(1.15)
(Para obtener los lmites de integracin es muy conveniente hacer un dibujo representando
el soporte de (X; Y ), que es el cuadrado unidad [0; 1]2 , y el conjunto B).
f (x; y) = e
si x; y > 0 .
(1.16)
0. La integral vale
1:
ZZ
f=
=
1Z 1
Z0 1
(x+y)
dydx =
1
dx
0
1
0
1Z 1
Z0 1
dydx =
e0
dx =
dydx
(1.17)
dx
(1.18)
e0
= 0
= e0 = 1 .
(1.19)
(u+v)
dvdu
(1.20)
).
(1.21)
ZZ
f (x; y)dydx ,
(1.22)
dydx =
2e
dx = 1
1 x
dx
0
= 00 264 .
ZZ
f=
1Z x
6ydydx =
3x2 dx = 1
(1.23)
0. La integral
(1.24)
P Y > 2X 2 =
ZZ
f (x; y)dydx ,
(1.25)
(1.26)
1
, 2x2 < y < x
2
(1.27)
donde f (x; y) = 6y (conviene hacer un dibujo para obtener B \ S), y por tanto
P Y > 2X
1
2
6ydydx =
2x2
1
2
3(x2
4x4 )dx =
1
= 00 05 .
20
(1.28)
Aunque stos son los casos mas frecuentes, tambin se pueden considerar otros casos,
en los que una de las variables X o Y es discreta y la otra continua, o en los que que las
variables tienen distribucin singular, o mixta.
1.2.2.
Distribuciones marginales
xg = F (x; 1) y
(1.29)
F2 (y) = P fY
yg = F (1; y) .
(1.30)
pxy y
(1.31)
pxy .
(1.32)
X
x
p:y
1=8
1=8
2=8
2=8
2=8
4=8
1=8
1=8
2=8
px:
1=8
3=8
3=8
1=8
(1.33)
y de este modo
Obsrvese que X
1
2
3 C
B 0
@
A , Y
1=8 3=8 3=8 1=8
B(3; 1=2) (binomial).
2
3 C
B 1
@
A .
2=8 4=8 2=8
(1.34)
1
1
1
f (x; y)dy y
(1.35)
f (x; y)dx .
(1.36)
(1.37)
(1.38)
Ejemplo 4:
f1 (x) = e
si x > 0
(1.39)
f2 (y) = e
si y > 0
(1.40)
Ejemplo 5:
1.2.3.
(1.41)
f2 (y) = 6y(1
(1.42)
y) si 0 < y < 1
Distribuciones condicionadas
P (U \ V )
P fX 2 A; Y 2 Bg
=
,
P (U )
P fX 2 Ag
(1.43)
pxy
px:
(1.44)
pxy
p:y
(1.45)
pxy
para y = 1; 2; 3,
px:
2=3
2=3
1=3
1=3
(1.46)
pxy
p:y
1=2
1=2
1=2
1=2
1=2
1=2
3 C
B 0
@
A , (X=Y = 2)
1=2 1=2
(1.48)
2 C
B 1
@
A .
1=2 1=2
(1.49)
Para cada punto x en el que f1 es continua y f1 (x) > 0 se puede denir una distribucin
de esta manera. Se obtiene que la correspondiente funcin de densidad de Y condicionada
a X = x viene dada por
fY =X (y=x) =
f (x; y)
.
f1 (x)
(1.50)
f (x; y)
.
f2 (y)
(1.51)
(1.52)
(1.53)
U (0; 1).
Ejemplo 4:
- Para x > 0, f (y=x) = e
si y > 0 .
(1.54)
si x > 0 .
(1.55)
Exp(1).
Ejemplo 5:
2y
si y 2 (0; x) .
x2
1
- Para 0 < y < 1, f (x=y) =
si x 2 (y; 1) .
1 y
(1.56)
(1.57)
1
2
(1.58)
Por tanto
P Y >
1.2.4.
1
4 =X
1
2
1
1
4
f (y=x =
1
2 )dy
1
2
1
4
8ydy =
3
= 00 75 .
4
(1.59)
Se dice que las variables X e Y son independientes si los sucesos expresados en funcin
de X son independientes de los sucesos expresados en funcin de Y , esto es, si se tiene que
P fX 2 A; Y 2 Bg = P fX 2 AgP fY 2 Bg para todo A; B
R medibles.
(1.60)
(1.61)
para todo x; y .
(1.62)
(1.63)
El hecho de que bajo independencia una variable no aporta informacin sobre la otra se
traduce en que las funciones de masa o densidad condicionadas coinciden con las marginales
(vlido para los casos discreto y continuo). En el caso continuo, bajo independencia se tiene
que
f (y=x) = f (y) para todo (x; y) donde f es continua,
(1.64)
(1.65)
13
Una condicin necesaria y suciente para la independencia es, que el soporte se exprese como un producto cartesiano y que f (x; y) se pueda expresar como un producto
de funciones, f (x; y) = h1 (x)h2 (y) para todo (x; y) donde f es continua. A partir de
este resultado, se hace innecesario el clculo de las funciones de densidad marginales para
estudiar la independencia.
Ejemplo 11. Es sencillo comprobar en los ejemplos 1, 3 y 4 que X e Y son independientes.
En el ejemplo 2 no hay independencia; para comprobarlo es suciente observar que
p0: p;1 6= p01 ,
puesto que (1=8)(2=8) 6= 1=8. En el ejemplo 5 tampoco se da la independencia, puesto que
el soporte no es un producto cartesiano.
Ejemplo 12. En la siguiente tabla se presenta la funcin de masa conjunta de una variable
discreta (X; Y ) y las distribuciones marginales. Se comprueba que pi: p:j = pij para todo
i; j, y entonces X e Y son independientes.
X
1.3.
p:y
00 3
00 12
00 18
00 6
00 2
00 08
00 12
00 4
px:
00 5
00 2
00 3
(1.66)
(1.67)
1.3.1.
Distribucin conjunta
x1 ; : : : ; Xn
xn g para x1 ; : : : ; xn 2 R .
(1.68)
Rn
(1.69)
La funcin de masa (conjunta) de una v.a. discreta X = (X1 ; : : : ; Xn ) viene dada por
f (x1 ; : : : ; xn ) = P fX1 = x1 ; : : : ; Xn = xn g para (x1 ; : : : ; xn ) 2 D .
(1.70)
(1.71)
x1
1
xn
f (x1 ; : : : ; xn )dxn
dx1 .
(1.72)
1
1
f (x1 ; : : : ; xn )dxn
dx1 = 1 .
R
(1.73)
f = 1 es la funcin de
(1.74)
f (x1 ; : : : ; xn )dxn
15
dx1 .
(1.75)
1.3.2.
Distribuciones marginales
en el caso bidimensional.
Por ejemplo, si consideramos X = (X1 ; X2 ; X3 ; X4 ; X5 ) , con n = 5, la funcin de
distribucin (marginal ) de (X2 ; X5 ), y la funcin de masa o densidad (marginales), en los
casos discreto o continuo, se obtiene a partir de la conjunta del siguiente modo:
F2;5 (x2 ; x5 ) = F (1; x2 ; 1; 1; x5 ) .
(1.76)
(1.77)
f2;5 (i2 ; i5 ) =
f (i1 ; : : : ; i5 )
i1 ;i3 ;i4
f2;5 (x2 ; x5 ) =
1.3.3.
1
1
1
1
(1.78)
Distribuciones condicionadas
f (x1 ; x2 ; x3 ; x4 ; x5 )
.
f2;5 (x2 ; x5 )
(1.79)
f (xn =x1 ; : : : ; xn
1)
(1.80)
si x > 0, y
supongamos que para cada valor x > 0 la distribucin de (Y; Z) condicionada a que X = x
16
x(y+z)
si y; z > 0.
(1.81)
Calcula:
a) La funcin de densidad marginal del par (Y; Z).
b) P fY + Z < 4g.
c) La distribucin condicionada de (X=Y = y; Z = z).
d) P fX < 1=Y = 1; Z = 4g.
Solucin: Calculamos en primer lugar la funcin de densidad conjunta de (X; Y; Z).
Puesto que f (y; z=x) = f (x; y; z)=f1 (x), se tiene que
x(1+y+z)
si x; y; z > 0 .
(1.82)
a)
f23 (y; z) =
f (x; y; z)dx =
x2 e
x(1+y+z)
dx =
2
(1 + y + z)3
si y; z > 0 . (1.83)
4
1
4 y
4Z 4 y
0
2
16
dzdy =
= 00 64 .
3
(1 + y + z)
25
(1.84)
f (x; y; z)
1
= (1 + y + z)3 x2 e
f23 (y; z)
2
x(1+y+z)
si x > 0 .
(1.85)
6x
si x > 0 ,
(1.86)
y por tanto
P fX < 1=Y = 1; Z = 4g =
f (x=y = 1; z = 4)dx =
1
108x2 e
6x
dx = 00 938 .
17
(1.87)
1.3.4.
Independencia
P fXn 2 Bn g
(1.88)
R medibles.
(1.89)
Fn (xn ) para x1 ; : : : ; xn 2 R .
(1.90)
En los casos discreto o continuo tambin son condiciones equivalentes que la funcin de
masa o densidad conjunta coincida con el producto de las marginales unidimensionales.
Un resultado til es el siguiente: si X1 ; : : : ; Xn son independientes y h1 ; : : : ; hn son
funciones reales de variable real entonces h1 (X1 ); : : : ; hn (Xn ) son variables aleatorias independientes (funciones de v.a independientes son independientes).
Tambin podemos considerar independencia en el caso de que las Xi tengan dimensin
mayor que 1. En particular, se tiene que (U; V ) es independiente de (Z; T ) si y solo si tanto
U como V son independientes de tanto Z como T .
Se dice que X1 ; : : : ; Xn son independientes dos a dos si Xi y Xj son independientes
para todo i; j con i 6= j. La independencia implica la independencia dos a dos.
1.4.
(1.91)
h = (h1 ; : : : ; hm ) .
(1.92)
(A)g = P fX 2 Bg ,
(1.93)
Rn .
1 (A)
zg = P fXY
zg = 1
1Z 1
4xydydx = 1
z=x
ydydx
z=x
(1.94)
=1
=1
1
1
2
1
1
2
(z=x)2 dx = 1
z2
z 2 =x dx
(1.95)
z 2 (0
log z)
= z2
2z 2 log z = z 2 (1
2 log z)
(1.96)
2 log z)
2z =
4z log z
(1.97)
(1.98)
Z = max fX1 ; : : : ; Xn g .
(1.99)
19
La funcin de distribucin de Z es
GZ (z) = P fZ
zg = P fmax fX1 ; : : : ; Xn g
= (indep:) P fX1
zg
P fXn
zg = P fX1
zg = F (z)
(n
z; : : : ; Xn
zg
F (z) = [F (z)]n .
(1.100)
(1.101)
d
[F (z)]n = n [F (z)]n
dz
F 0 (z) = n [F (z)]n
f (z) .
(1.102)
P fm n fX1 ; : : : ; Xn g > yg
(1.103)
La funcin de distribucin de Y es
GY (y) = P fY
yg = 1
P fY > yg = 1
indep:
=1
=1
(1
F (y))
(n
(1
F (y)) = 1
P fX1 > yg
[1
P fXn > yg
F (y)]n .
(1.104)
(1.105)
d
(1
dy
F (y)]n
F (y)]n ) = 0
[1
F (y)]n
n [1
d
(1
dy
F (y))
f (y) .
(1.106)
(1.107)
y; Z
zg
zg = P fZ
P fy < X1
= (indep:) P fZ
= [F (z)]n
[F (z)
zg
zg
P fY > y; Z
z; : : : ; y < Xn
P fy < X1
F (y)]n .
20
zg
zg
(1.108)
zg
P fy < Xn
(1.109)
zg
(1.110)
(1.111)
Si las variables X1 ; : : : ; Xn son continuas la funcin de densidad de (Y; Z) viene dada por
d d
d d
GY;Z (y; z) =
([F (z)]n [F (z) F (y)]n )
dz dy
dz dy
d
=
(0 n [F (z) F (y)]n 1 (0 f (y)))
dz
d
= n(n 1) [F (z) F (y)]n 2 (F (z) F (y))f (y)
dz
gY;Z (y; z) =
= n(n
1) [F (z)
F (y)]n
(1.112)
(1.113)
(1.114)
(1.115)
Por ltimo, introduciremos la nocin de esperanza condicionada, basada en la esperanza de la distribucin condicionada, y obtendremos algunas propiedades. Es una herramienta muy til en algunas ocasiones.
1.5.
z pz , y
(1.116)
E[Z] =
zf (z)dz ,
(1.117)
1
1
zg(z)dz .
(1.118)
h(x)f (x)dx .
(1.119)
h(x; y)pxy
(1.120)
(x;y)2D
1
1
(1.121)
Ejemplo 16. Consideremos una v.a. con funcin de densidad f (x; y) = 4xy si 0 < x; y < 1.
Calcula la esperanza de XY , de un modo directo y utilizando la proposicin 15.
Solucin: Para un clculo directo necesitamos obtener la funcin de densidad de la
variable aleatoria unidimensional Z = XY . Se calcul en el ejemplo 14, obtenindose
g(z) =
zg(z)dz =
z 2 log zdz =
4
.
9
(1.122)
1
1
1Z 1
0
x2 y 2 dydx =
4
.
9
(1.123)
En este ejemplo, el segundo mtodo, en (1.123), es muy conveniente, puesto que requiere
muchos menos clculos. El primer mtodo requiere calcular la funcin de densidad de
Z = XY , integrar por partes, y calcular un lmite.
23
E[Z] =
E[Z] =
h(x1 ; : : : ; xn )f (x1 ; : : : ; xn ) ,
(1.124)
dx1 .
(1.125)
En el siguiente corolario se presenta una propiedad muy til, que se utiliza frecuentemente en probabilidad y estadstica.
E[a1 X1 +
+ an Xn + b] = a1 E[X1 ] +
+ an E[Xn ] + b .
(1.126)
Corolario 19. Consideremos una v.a. n-dimensional (X1 ; : : : ; Xn ). Si X1 ; : : : ; Xn son independientes se tiene que
E[X1
Xn ] = E[X1 ]
E[Xn ] .
(1.127)
(1.128)
(1.129)
1
(1.131)
(1.132)
b) Por la independencia entre X e Y se tiene que f (x; y) = f1 (x)f2 (y). Consideramos la funcin h(X; Y ) = XY y aplicamos la proposicin 15b:
E[XY ] =
(1.133)
(1.134)
(1.135)
Denotamos la traspuesta de una matriz M como M 0 . Tambin para los vectores (que
se pueden considerar como matrices con una sola la o columna).
1.6.
(1.136)
(1.137)
Se verica que E[X] coincide con el centro de masas de un objeto n-dimensional cuya
distribucin de masas fuera proporcional a la distribucin de probabilidad de X.
1.7.
EX)i (Y
h2 (X; Y ) = (X
EY )j ,
(1.138)
con i; j naturales.
Para i; j naturales se dene
ij
y decimos que
ij
= E[X i Y j ] ,
(1.139)
10
= E[X] y
01
11
20
= E[X 2 ] y
02
X e Y de la variable (X; Y ).
Para i; j naturales se dene
ij
y decimos que
ij
= E[(X
EX)i (Y
EY )j ] ,
(1.140)
variable (X; Y ).
Los momentos centrales de orden 1 son nulos. De los momentos de orden 2,
son las varianzas V [X] y V [Y ] de las distribuciones marginales, y
11
20
02
es un momento pro-
EX)(Y
EY )] .
(1.141)
EX = 3
V [X] = 3
1
2
1
2
3
,
4
(1.142)
3
X
yp:y = 2 , E Y 2 =
y=1
3
X
9
, V [Y ] = E Y 2
2
y 2 p:y =
y=1
Cov(X; Y ) = E[(X
EX)(Y
EY )] =
3 X
3
X
x=0 y=1
3
2
(y
(EY )2 =
1
,y
2
2) pxy = 0 .
ij .
si 0 < x; y < 1 .
(1.143)
= E[X Y ] =
1Z 1
xi y j (x + y)dydx =
1
1
+
.
(i + 2)(j + 1) (i + 1)(j + 2)
20
5
12
10
ij .
7
.
12
(1.144)
Se tiene que
(1.145)
, se tiene que
h
V X = V (X
i
EX)2 = EX 2
(EX)2 =
11
.
144
(1.146)
La distribucin de (X; Y ) es la misma que la de (Y; X), puesto que f (x; y) = f (y; x) para
todo (x; y) 2 R2 , y por tanto los momentos de X son los mismos que los de Y . Entonces,
EY = EX =
Finalmente, se obtiene E[XY ] =
11
7
12
y VY =VX =
11
144
(1.147)
1
.
144
(1.148)
= 13 , y de aqu
Cov(X; Y ) = E[XY ]
27
(EX)(EY ) =
En los exmenes debern resaltarse los resultados nales obtenidos, por ejemplo como se
hace aqu.
Cov(X; Y )
p
,
V [X] V [Y ]
(1.149)
proporciona una medida del grado de dependencia lineal entre las variables X e Y .
A las esperanzas EX y EY se las llama tambin medias (poblacionales), y se suelen
denotar por
y
2
2
2
X
y
2
Y ),
Y ).
2
1
12
1 2
12
XY .
El
1.8.
Propiedades de la covarianza
La covarianza
12
= Cov(X; Y ) =
11
(EX)2 ).
+ an Xn ; b1 Y1 +
+ bm Ym ) =
n X
m
X
ai bj Cov(Xi ; Yj ) ,
(1.150)
i=1 j=1
+ an Xn ] =
n
X
i=1
siendo
i;j ;; i<j
el sumatorio
a2i V [Xi ] + 2
ai aj Cov(Xi ; Xj ) ,
(1.151)
i;j ;; i<j
Pn
j=2
Pj
1
i=1
(1.152)
i=1
(1.153)
= V [X1 ] = 1,
2
2
= V [X2 ] = 5 y
12
= Cov(X1 ; X2 ) =
= EX1 =
3,
= EX2 = 5,
4X2 ] = E [X1 ]
EY3 = E [X2 ] = 5 ,
29
4E [X2 ] =
23 ,
4X2 ,
V [Y3 ] = V [X2 ] = 5 ,
4X2 )
4X2 )
5 Cov (X1 ; X2 )
12 V [X2 ] =
48 ,
= Cov (X1 ; X2 )
4 V [X2 ] =
4 Cov (X2 ; X2 )
22 .
Cov(X; Y ) = E[XY ]
1.9.
(EX)(EY ) = 3
3
2
2 = 0.
Matriz de covarianzas
Los clculos que se han realizado en el ejemplo 24 pueden ser expresados mediante
matrices, como veremos en el ejemplo 26.
30
=(
ij )i;j=1;:::;n ,
cuyo elemento
(i; j) es
ij
Obsrvese que
= Cov(Xi ; Xj ) .
este modo
6
6
6
6
=6
6
6
4
ij
2
1
12
12
2
2
..
.
..
.
1n
2n
ji .
Se tiene que
1n
2n
..
(1.154)
..
.
2
n
ii
= V [Xi ] =
2
i,
y de
7
7
7
7
7 .
7
7
5
(1.155)
V [aX + b] = a2 V [X] .
(1.156)
a la
n, un vector b, m
1,
y sea
Y = AX + b .
(1.157)
=A
+b y
=A
XA
(1.158)
(1.159)
Y2 = X1
1
4X2 , Y3 = X2 .
0 1
C
B 2 C
C
B C
C y b = B 0 C , y por
C
B C
A
@ A
0
48
97
22
1
11 C
C
22 C
C .
A
5
(1.160)
Obsrvese que los datos de este ejemplo son los mismos que los del ejemplo 24, pero
aqu expresados matricialmente. Los resultados obtenidos para los momentos de primer
y segundo orden son, por supuesto, los mismos en ambos ejemplos. El mtodo matricial
es mas rpido para realizar las operaciones (que son bsicamente las mismas con ambos
mtodos) porque las realiza de un modo sistemtico.
Para v.a.s multidimensionales Y , Z, denotamos por Cov(Y; Z) a la matriz de covarianzas entre las componentes de Y y las componentes de Z, cuyo elemento (i; j) es Cov(Yi ; Zj ).
32
n y B una matriz p
n, con m; p
(1.161)
p. En particular,
Cov(AX; X) = A
1.10.
XB
(1.162)
X.
(X; Y ),
12
1 2
1, esto es,
Cov(X; Y )
p
,
=p
V [X] V [Y ]
(1.163)
(X; Y ) est contenido en una recta del plano, o sea, si Y = a + bX para algn a y b.
b) Se tiene que
Demostracin
a) Es inmediato a partir de la desigualdad de Cauchy-Schwartz.
b) Se tiene que
Cov (aX + b; cY + d)
(1.164)
(aX + b) (cY + d)
E [(aX + b E [aX + b]) (cY + d E [cY + d])]
=r h
ir h
i
2
E (aX + b E [aX + b])
E (cY + d E [cY + d])2
(aX + b; cY + d) =
(1.165)
=r
(1.166)
ij
ij
i j
ij .
La llamamos C, C = (
ij )i;j=1;:::;n .
6
6
6
6
C=6
6
6
4
12
12
..
.
1
..
.
1n
2n
n cuyo
ij
ji .
Se tiene que
1n
2n
..
..
.
1
7
7
7
7
7 .
7
7
5
ii
ii
i i
= 1, y de
(1.167)
1.11.
1.
(1.168)
con argumentos reales y valores complejos. Siempre existe puesto que ei(tx+uy) tiene mdulo
1 en el plano complejo y por tanto est acotado.
'(t; u) caracteriza la distribucin conjunta de (X; Y ).
Los momentos
kl
1
ik+l
dk+l '(t; u)
dtk dul
34
.
t;u=0
(1.169)
(1.170)
(1.171)
(1.172)
Este ltimo resultado permite estudiar una til propiedad que verican algunos tipos
de distribuciones, la reproductividad.
Se dice que una familia paramtrica de distribuciones, con parmetro , es reproductiva
respecto de , si la distribucin de la suma de dos variables independientes X e Y de esa
familia pertenece a la familia, siendo el valor del parmetro para X + Y la suma de los
valores para X y para Y .
Ejemplo 28. La distribucin de Poisson P( ) es reproductiva. La funcin caracterstica
h it i
it
(f.c.) es '(t) = e (e 1) = e(e 1) . Si X
P( 1 ) , Y
P( 2 ) y son independientes,
entonces, por (1.172), la f.c. de X + Y es
h it
'X+Y (t) = 'X (t)'Y (t) = e(e
que es la f.c. de una P(
2 ),
1)
it
e(e
1)
y por tanto X + Y
h it
= e(e
P(
1)
1+ 2
2 ),
(1.173)
p))n . Si X
B(n1 ; p) , Y
p))n1 +n2 ,
(1.174)
35
B(n1 + n2 ; p).
t2
2 =2
. Si X
N(
1;
1 ),
con
=(
1;
2
1 ),
N(
= ( ;
2;
2 ),
con
t2
2
2 =2)
2 ).
2
La f.c. es
=(
2;
2
2 ),
t2 (
2
1
= exp(it(
2;
2)
= (E[X + Y ]; V [X + Y ]) = (
t2
+
2
1 =2) exp(it 2
2
2 )=2)
(1.176)
2
1
2
2 ),
y por tanto X + Y
2;
2
1
2
2)
(1.175)
N(
2;
2
1
2
2 ),
1.12.
+tn Xn )
(1.177)
X
y
E[Y =X = x] =
y P fY = y=X = xg , o
y f (y=x)dy
(1.178)
(1.179)
Para cada valor de x que verique (1.177) hay un valor E[Y =X = x], y por tanto podemos
considerar la funcin h : R ! R dada por
h(x) = E[Y =X = x] .
(1.180)
(1.181)
La v.a. h(X) = E[Y =X] toma los valores h(x) = E[Y =X = x], para x en el soporte de X.
Igualmente se dene E[X=Y ], que es funcin de Y .
Ejemplo 29. Consideremos la variable (X; Y ) = (no de caras, no de rachas) en tres lanzamientos de una moneda. Determina la distribucin de E[Y =X].
Solucin: En ejemplos anteriores se obtuvieron las distribuciones condicionadas (Y =X = x)
y la distribucin marginal de X para este caso. En la tabla se presentan las probabilidades
condicionadas P fY = y=X = xg =
pxy
px: :
Se tiene que
X
2=3
2=3
1=3
1=3
(1.182)
1
2
3 C
B 0
@
A .
1=8 3=8 3=8 1=8
37
(1.183)
Puesto que (Y =X = 0)
Puesto que (Y =X = 1)
1,
0 se tiene que
1E [Y =X = 0] = 1.
3 C
B 2
@
A, se tiene que E [Y =X = 1] = 2 23 + 3 13 =
2=3 1=3
Igualmente, E [Y =X = 2] =
7
3
7
3
y E [Y =X = 3] = 1.
7
3
(para x = 1 y 2),
con lo cual:
1
1 1
+ = ,
8 8
4
3 3
3
= P fX = 1g + P fX = 2g = + = .
8 8
4
P fE [Y =X] = 1g = P fX = 0g + P fX = 3g =
P E [Y =X] =
7
3
(1.184)
(1.185)
(1.186)
(1.187)
yf (y=x)dy =
2y
x2
y 2 dy =
2
2 x3
= x.
2
x 3
3
(1.188)
f (x=y) =
1
1 y
y+1
2 ,
y por tanto
E [X=Y ] =
Y +1
.
2
(1.189)
En este ejemplo ambas esperanzas condicionadas son funciones lineales. En otros casos
pueden serlo ambas (como aqu), solo una de ellas, o ninguna.
38
E[Y =X]2 .
(1.190)
El uso de esperanzas y varianzas condicionadas proporciona un mtodo para el clculo de esperanzas y varianzas marginales, alternativo al clculo directo, que en algunas
ocasiones resulta muy conveniente: se verica que
E [Y ] = E [E [Y =X]] y
(1.191)
V [Y ] = E [V [Y =X]] + V [E [Y =X]] .
(1.192)
Demostramos (1.191) en el caso continuo. Sea h(x) = E[Y =X = x]. Se tiene que
Z 1
Z 1
E[E[Y =X]] = E[h(X)] =
h(x) f1 (x)dx =
E[Y =X = x] f1 (x)dx
(1.193)
1
1
Z 1 Z 1
Z 1 Z 1
=
yf (y=x)dy f1 (x)dx =
yf1 (x)f (y=x)dy dx (1.194)
1
1
1
1
Z 1Z 1
Z 1 Z 1
=
yf (x; y)dydx =
yf (x; y)dx dy
(1.195)
1
1
1
1
Z 1
Z 1
Z 1
=
y
f (x; y)dx dy =
yf2 (y)dy = E[Y ] .
(1.196)
1
Ejemplo 31. Comprueba (1.191) para la v.a. (X; Y ) del ejemplo de las caras y las rachas.
Solucin: En el ejemplo 21 se obtuvo EY = 2. En el ejemplo 29 se obtuvo
0
1
B 1 7=3 C
E [Y =X] @
A ,
1=4 3=4
39
(1.197)
73
34
=2.
1
1
(1.198)
Calcula la esperanza de Y de un modo directo y mediante el uso de la esperanza condicionada. Calcula la varianza de Y .
Solucin: En este ejemplo, el clculo directo de EY requiere muchas operaciones, en
contraste con la mayor simplicidad del clculo de E[E[Y =X]].
R1
- Clculo directo: Consiste en obtener 1 yf2 (y)dy. Se calcula en primer lugar la
funcin de densidad de Y (ejercicio), que es f2 (y) =
integrar por partes, con u = log(1
log(1
"
y tomando el lmite cuando " # 0; adems, hay que utilizar integracin por cambio de
variable, con t = 1
EY =
=
=
=
=
=
y:
yf2 (y)dy =
lm
"!0+
lm
"!0+
lm
"!0+
lm
"!0+
lm
"!0+
y log(1
y2
log(1
2
1 "
y)
0
y)dy
Z
1 "
(1.199)
1
y2
dy
2 1 y
Z
1 1
1
log " +
(1 t)2 dt
2
2 "
t
Z 1
2
(1 ")
1
log " +
(t 2 + t 1 )dt
2
2 "
(1 ")2
1 1
"2
log " +
2 + log 1
2
2 2
2
2
2
"
2"
3 "
3
log "
+" = .
2
4
4
4
(1
")2
(1.200)
(1.201)
(1.202)
2" + log "
(1.203)
(1.204)
- Uso de esperanza condicionada: se comprueba con unas pocas operaciones sencillas que X
U (0; 1) y que (Y =X = x)
E [Y =X = x] = E [U (x; 1)] =
40
x+1
.
2
(1.205)
De aqu se obtiene:
X +1
1
1
= (EX + 1) = (E [U (0; 1)] + 1)
2
2
2
EY = E[E[Y =X]] = E
=
1
2
1
+1
2
(1.206)
3
.
4
(1.207)
X+1
2
x+1
2
y V [Y =X = x] = V [U (x; 1)] =
y V [Y =X] =
(1 X)2
12 ,
(1
1
V [1
12
1
( 1)2 V [X] + (1
12
1
V [U (0; 1)] + (1
12
1
12
X])2 +
X] + (E[1
1
+ (1
12
1 2
)
2
E[X])2 +
1
2
x)2
.
12
y por tanto
X)2
+V
12
X +1
2
(1.208)
1
2
V [X + 1]
1
2
(1.209)
(1
V [X]
1
2
(1.210)
V [U (0; 1)]
(1.211)
1
7
=
12
144
y log(1
(1.212)
y)dy
3
4
).
P( ) y (Y =X = x)
(1.213)
B(x; p).
(1.214)
p), y entonces
p)X] + V [pX]
= p(1
(1.215)
p) + p2 = p
(1.216)
Ejemplo 34. Modelizamos los ingresos obtenidos en una tienda, por venta al pblico, del
siguiente modo. Supongamos que el nmero diario de clientes es una v.a. N , y que el gasto
de los clientes en la tienda son v.a.i.i.d. X1 ; : : : ; XN , tambin independientes de N . Expresa
la esperanza y la varianza del ingreso total diario Z en trminos de la esperanza y varianza
de N y de las Xi .
Solucin: Se tiene que
Z=
N
X
Xi .
(1.217)
i=1
Sea
= EXi ,
"
i=1
n
X
Xi
i=1
i=1
n
X
EXi = nEXi = n
(1.219)
i=1
(la primera igualdad en (1.219) por ser las Xi independientes de N ), se tiene que
EZ = E[E[Z=N ]] = E[ N ] = E[N ] = m ,
Puesto que
V [Z=N = n] = V
=
n
X
"
n
X
Xi = N = n = V
i=1
V Xi +
i=1
Cov(Xi ; Xj ) =
"
n
X
Xi
i=1
n
X
V Xi + 0 = n
(1.220)
2
(1.221)
i=1
i6=j
se tiene que
V [Z] = E[V [Z=N ]] + V [E[Z=N ]] = E[N
=
E[N ] +
V [N ] = m
42
+ t2
] + V [ N]
(1.222)
(1.223)