Sie sind auf Seite 1von 22

VECTORES ALEATORIOS

1 Introducción

En la vida real es muy frecuente enfrentarnos a problemas en los que nos interesa
analizar varias caracterı́sticas simultáneamente, como por ejemplo la velocidad
de transmisión de un mensaje y la proporción de errores. De esta forma seremos
capaces de estudiar no solo el comportamiento de cada variable por separado,
sino las relaciones que pudieran existir entre ellas. En consecuencia el objetivo
principal de este tema es elaborar un modelo matemático que permita analizar
experimentos aleatorios en los que cada resultado experimental A tiene asociados
p valores numéricos. Estos modelos serán la base para la construcción de los
modelos inferenciales necesarios en este contexto para extrapolar los resultados
de una muestra a la población.

2 Vectores aleatorios

El concepto de vector aleatorio nace como una generalización natural de la noción


de variable aleatoria, al considerar simultáneamente el comportamiento aleatorio
de varias caracterı́sticas asociadas a un experimento.

Definición 2.1 (Vector aleatorio.) Dado un un espacio probabilı́stico (E, A, P )


y el espacio probabilizable (Rp , β) con β σ-álgebra de Borel en Rp , se dice que una
aplicación x = (x1 . . . , xp )t
x : E −→ Rp
es un vector aleatorio si es medible, es decir x−1 (B) ∈ A ∀B ∈ β, por tanto
cada una de sus componentes xi , i = 1, . . . p es una variable aleatoria.

Veamos algunos ejemplos sencillos de vectores aleatorios.


El vector (x1 , x2 ) representa la temperatura máxima que puede alcanzar una
resistencia y el tiempo que tarda en alcanzarla. (En el caso bidimensional es más
frecuente utilizar la notación (X,Y).)

1
2 2 VECTORES ALEATORIOS

Los componentes del vector (x1 , x2 , x3 , x4 , x5 , x6 )t representan, respectiva-


mente, la edad, peso, estatura, sexo, colesterol y triglicéridos de una persona.

Definición 2.2 (Probabilidad inducida.) Dado un vector aleatorio x defini-


do sobre (E, A, P ), se denomina probabilidad inducida por el vector a la aplicación
Px : β −→ Rp definida por:

Px (B) = P [x−1 (B)] ∀B ∈ β

(Rp , β, Px ) es el espacio probabilı́stico inducido por x.


La distribución de probabilidad inducida por un vector aleatorio se puede
caracterizar mediante la función de distribución.

Definición 2.3 (Función de distribución.) Dado el vector aleatorio x se de-


nomina función de distribución asociada, a la función F : Rp −→ R definida
por:
F (a) = P [x1 ≤ a1 , . . . , xp ≤ ap ]

Las propiedades más importantes de las funciones de distribución son:

1. F (−∞, a2 , . . . , ap ) = · · · = F (−∞, · · · − ∞, ai , −∞, · · · − ∞) = 0.

2. F (∞, . . . , ∞) = 1.

3. F es continua por la derecha respecto de cada variable.

4. F es no decreciente respecto a cada variable.

5. En el caso bidimensional dados hi > 0 se verifica que


\
P ((a1 < x1 ≤ a1 + h1 ) (a2 < x2 ≤ a2 + h2 )) =

= F (a1 + h1 , a2 + h2 ) − F (a1 , a2 + h2 ) − F (a1 + h1 , a2 ) + F (a1 , a2 ) ≥ 0


Mientras que en el caso p-dimensional se tendrı́a la expresión:
Xp
F (a1 +h1 , . . . , ap +hp )− F (a1 +h1 , . . . , ai−1 +hi−1 , ai , ai+1 +hi+1 , . . . , ap +hp )
i=1
p
X
+ F (a1 +h1 , . . . , ai−1 +hi−1 , ai , ai+1 +hi+1 , . . . , aj−1 +hj−1 , aj , aj+1 +hj+1 , . . . , ap +hp )
i,j=1,i6=j

+ . . . , +(−1)p F (a1 , . . . , ap ) ≥ 0

Los vectores aleatorios se pueden clasificar teniendo en cuenta el tipo de las


variables aleatorias que lo componen.
3

3 Vectores aleatorios discretos

La idea intuitiva asociada a un vector aleatorio discreto es que cada una de sus
componentes sean v. a. discretas.

Definición 3.1 (Vector aleatorio discreto) Sea x un vector aleatorio defini-


do sobre (E, A, P ) y S = {a ∈ Rp /P (a) > 0}, se dice que x es discreto si se
cumple que:

1. S 6= ∅

2. El cardinal de S es a lo sumo infinito numerable.


X
3. P (a) = 1.
a∈S
P
4. P [x ∈ B] = a∈B∩S P (a).

Al conjunto S se le llama conjunto soporte del vector x.


En este caso la función de distribución es discontinua y viene dada por la
expresión: X
F (x) = P (a)
a∈Sx

con Sx = {a ∈ Rp /a ≤ x}.

4 Vectores aleatorios continuos

En los vectores aleatorios continuos cada componente es una v. a. de tipo


continuo y análogamente al caso unidimensional para caracterizar su distribución
es conveniente emplear la función de densidad.

Definición 4.1 (Función de densidad) Una función f : Rp −→ R se dice que


es función de densidad si verifica las condiciones:

1. f (x) ≥ 0 ∀x ∈ Rp
R R∞ R∞
2. Rp f (x) dx = −∞ . . . −∞ f (x) dx = 1

Definición 4.2 (Vector aleatorio continuo) Un vector aleatorio x se dice que


es continuo si su función de distribución se puede expresar como:
Z x1 Z xp
F (x) = ... f (y)dy ∀x ∈ Rp
−∞ −∞
4 5 DISTRIBUCIONES MARGINALES

donde f es una función de densidad en Rp .

El conjunto Sx = {a ∈ Rp /f (a) > 0} se denomina conjunto soporte de x.


Las propiedades más importantes de los vectores continuos son:

1. La función de distribución es continua.

2. En los puntos de continuidad de la función de densidad se cumple que:


∂ p F (x)
f (x) =
∂x1 . . . ∂xp
3. S = {a ∈ Rp /Px (a) > 0} = ∅, es decir, P (a) = 0 ∀a ∈ Rp
R
4. P [x ∈ B] = B f (x)dx

5 Distribuciones marginales

Las componentes de los vectores aleatorios son v. a. y resulta en muchos casos


de interés de estudiar el comportamiento de cada una de esas variables por se-
parado o de grupos de las mismas. Para abordar este problemas se definen las
distribuciones marginales.

Definición 5.1 (Distribuciones marginales) Sea x un vector aleatorio con


función de distribución F(x), entonces cada una de sus componentes, xi son
variables aleatorias unidimensionales con las siguientes funciones de distribución
marginal para la componente xi

Fi (xi ) = F (+∞, · · · + ∞, xi , +∞, · · · + ∞)

También se puede hablar de distribuciones marginales de un subvector , ası́


si x = (x1 , x2 )se define la función de distribución marginal de x1 como F1 (x1 ) =
F (x1 , +∞, · · · + ∞)

Si el vector es continuo se tiene las función de densidad marginal de la compo-


R
nente xi , fi (xi ) = Rp−1 f (a1 , . . . ai−1 , xi , ai+1 , . . . an )da1 . . . dai−1 dai+1 , . . . dan
Mientras que si x es discreto las expresiones para las distribución de proba-
bilidad marginal de la componente xi son:
X
Pi (xi ) = P (y)
y∈S,yi =xi

Análogamente se tendrı́an las distribuciones de los subvectores.


5

6 Distribuciones condicionadas

En muchos problemas reales puede interesa estudiar el comportamiento de una


variable teniendo cierta información complementaria sobre el experimento. Por
ejemplo sea (X, Y) un vector aleatorio cuyas componentes representan, respecti-
vamente, las intensidades de las señales enviadas y recibidas a través de un canal
de información. Un aspecto fundamental es este tipo de problemas es conocer
el comportamiento de la señal recibida Y condicionada a que se ha enviado una
señal (X=x), es decir, analizar la distribución de (Y / X=x). Otro problema muy
interesante es el complementario del anterior, o sea, estudiar la señal que se envió
cuando se conoce la señal recibida (X/ Y=y).
Cuando el suceso que condiciona tiene una probabilidad estrictamente posi-
tiva el problema se reduce a utilizar la probabilidad condicionada para calcular
la distribución de (x2 /x1 = a).

P (x1 = a, x2 ≤ b)
Fx2 /x1 =a (b) =
P (x1 = a)
En el caso que esta función sea absolutamente continua se puede considerar la
función de densidad condicionada de (x2 /x1 = a) que será

¯
∂ p2 (Fx2 /x1 =a (x2 )) ¯
fx2 /x1 =a (b) = ¯
∂x2 ¯
b
en los puntos de continuidad de la función de distribución
Sin embargo cuando el vector x1 es de tipo continuo, el suceso (x1 = a) tiene
siempre una probabilidad igual a cero, y no se puede emplear el método anterior.
En este caso se define la función de densidad condicionada.

Definición 6.1 (Función de densidad condicionada) Dado el vector alea-


torio ( x1 , x2 ) la función de densidad de x2 condicionada a (x1 = a), se define
como una función no negativa fx2 /x1 =a , que satisface:
Z
Fx2 /x1 =a (b) = fx2 /x1 =a (t) dt ∀x2 ∈ Rp2
{t∈Rp2 /t≤b}

El siguiente resultado nos permite calcular la función de densidad condicio-


nada en el caso de trabajar con vectores aleatorios continuos.

Proposición 6.1 Dado un vector aleatorio ( x1 , x2 ) cuya función de densidad


es f( x1 , x2 ) se verifica que en todo punto de continuidad de f en el que fx2 (b) >0,
6 7 MOMENTOS

la función de densidad de (x1 /x2 = b) existe y vale:


f (a, b)
fx1 /x2 =b (a) =
fx2 (b)

Definición 6.2 (Independencia de vectores aleatorios) Dado el vector alea-


torio x=(x1 , x2 ) se dice que x1 y x2 son independientes cuando se verifica que:
Fx (a, b) = Fx1 (a) Fx2 (b) ∀(a , b) ∈ Rp

Si trabajamos con la función de densidad esta condición es equivalente a:


fx (a, b) = fx1 (a) fx2 (b) ∀(a , b) ∈ Rp

Cuando las variables son discretas la independencia equivales a:


Px (a, b) = Px1 (a) Px2 (b) ∀(a , b) ∈ Rp

Una propiedad muy interesante es que si x1 y x2 son independientes entonces


nuevas variables aleatorias g(x1 ) y h( x2 ), obtenidas como transformaciones de
las anteriores, también los son.
También es interesante hacer notar que si dos vectores x1 y x2 son inde-
pendientes no quiere decir que las componentes de x1 lo sean. Es decir en el
caso multidimensional pueden aparecer muchos tipos de independencia como la
independencia condicional

Definición 6.3 (Independencia condicional ) Dado el vector aleatorio x=(x1 , x2 , x3 )


se dice que x1 y x2 son condicionalmente independientes dado x3 cuando se ve-
rifica que x1 /x3 y x2 /x3 son independientes.

7 Momentos

En este apartado se da la definición de momento para poder describir de manera


resumida el comportamiento de los vectores aleatorios.

Definición 7.1 (Momentos respecto al origen) Dado una vector aleatorio


p-dimensional continuo x se denomina momento respecto al origen de orden
(r1 , . . . , rp ), si existe, al valor dado por la expresión:
Z
r1 rp r
ar1 ,...,rp (x) = E(x1 . . . xp ) = xr11 . . . xpp f (x)dx
Rp

donde f(x) es la función de densidad.


Análogamente se definirı́a para el caso discreto.
7

Los momentos respecto al origen más importantes son los orden uno que
permiten definir el vector esperanza del vector aleatorio.

Definición 7.2 (Vector esperanza) Dado un vector aleatorio p-dimensional


x se denomina vector esperanza, E(x), al vector µ de componentes (µ1 , . . . , µp )t
definidas por : Z ∞
µi = x fxi (x) dx
−∞

Es inmediato comprobar que:

µi = E(xi ) = a0...,0,1i ,0,...,0 (x)

.
Cuando se trabaja con una función g(x) la esperanza de la nueva variable
aleatoria se puede calcular mediante la expresión:
Z
E[g(x)] = g(x) f (x) dx
Rp

Entre las propiedades más importantes del vector esperanza, si existe, se


encuentran:

1 Linealidad para transformaciones y=Ax+b, siendo A una matriz (n,p):


E[ y]=A E[x]+b.
R R
2 E[g1 (x1 )] = Rp g1 (x1 ) f (x)dx = Rp1 g1 (x1 ) f1 (x1 )dx1 .

3 Linealidad E[a1 g1 (x) + a2 g2 (x)] = a1 E[g1 (x)] + a2 E[g2 (x)] , siendo ai ∈ R

Otros momentos muy importantes son los centrados respecto al vector de


medias. La expresiones que aparecen a continuación se refieren al caso continuo,
ya que el caso discreto se desarrolla de manera análoga a la realizada hasta este
momento.

Definición 7.3 (Momentos centrados) Dado una vector aleatorio p-dimensional


continuo x se denomina momento centrado de orden (r1 , . . . , rp ), si existe, al va-
lor dado por la expresión:
Z
mr1 ,...,rp (x) = (x1 − µ1 )r1 . . . (xp − µp )rp f (x)dx
Rp

donde f(x) es la función de densidad.


8 7 MOMENTOS

Los momentos centrados de orden dos para una de las componentes ri = 2,


cero para el resto, rj = 0 si j 6= i), dan lugar a las varianzas de cada componente
xi , que se va a denotar por σii .

V ar(xi ) = σii = E(xi − µi )2 = m0...,0,2i ,0,...,0 (x)

El momento centrado de orden (0 . . . , 0, 1i , 0, . . . , 0, 1j , 0, . . . , 0) se denomina


covarianza entre la componentes xi , xj , y se va a denotar por σij , tiene una gran
importancia porque nos permite estudiar si las componentes están relacionadas
linealmente.

Definición 7.4 (Matriz de Varianzas-Covarianzas) Dado un vector aleato-


rio x se define su matriz de varianzas-covarianzas, si existe, como:
 
σ11 . . . σ1p
 .. 
Σ = E[(x − µ) (x − µ)t ] =  ... ..
. . 
σp1 . . . σpp

Entre sus propiedades destacan:

• Las matrices de varianzas-covarianzas son siempre matrices simétricas y


semidefinidas positivas

• Σ = E[x xt ] − µ µt

• Var (at x)=at Σa

• Var(Ax+b)= A Σ At

También se pueden definir matrices de varianzas-covarianzas entre dos vec-


tores aleatorios definidos sobre el mismo espacio probabilı́stico,

Definición 7.5 Dado un vector aleatorio p-dimensional, x, y otro q-dimensional,


y, se define su matriz de varianzas-covarianzas, si existe, como:
 
σx1 ,y1 . . . σx1 ,yq
 .. .. .. 
Cov(x, y) = E[(x − µx ) (y − µy )t ] =  . . . 
σxp ,y1 ... σxp ,yq

Entre sus propiedades destacan:

• Σ=Cov(x,x)
9

• Cov(x,y)= (Cov(y,x))t

• Cov(Ax,By)= A Cov(x,y) Bt

• Cov(x1 +x2 ,y)= Cov(x1 ,y) + Cov(x2 ,y)

• Si los vectores tienen la misma dimensión


Var(x+y)=Σx+y = Var(x)+ Cov(x,y)+ Cov(y,x)+ Var(y)

• Si x e y son dos vectores aleatorios independientes entonces Cov(x,y)= 0,


pero el recı́proco no tiene porque ser cierto.

Lema 7.1 (Desigualdad de Cauchy-Schwartz) Dado un vector aleatorio (X,


Y) en el que existen los momentos centrados de orden dos, se verifica que:

E 2 [X Y ] ≤ E(X 2 ) E(Y 2 )

además la igualdad se alcanza si y solo si existen dos números reales α y β, con


al menos uno de ellos distinto de cero, tales que P [α X + β Y = 0] = 1.

Definición 7.6 (Coeficiente de correlación de Pearson) Dadas dos compo-


nentes xi , xj de un vector aleatorio x se denomina coeficiente de correlación de
Pearson entre esas componentes , ρij a la expresión:
σij
ρij = √
σii σjj

Las propiedades más importantes del Coeficiente de correlación de Pearson


son:

1. −1 ≤ ρij ≤ 1.

2. ρij alcanza los extremos si y solo si xj es una función lineal de xi , o al reves.

3. Si ρij =0, se dice que xi e xj son linealmente independientes, pero en general


la independencia lineal no implica la independencia estadı́stica.

4. Si xi e xj son independientes entonces son linealmente independientes.

Definición 7.7 (Matriz de correlación de Pearson) Dado un vector aleato-


rio x se denomina matriz de correlación entre sus componentes a:
10 7 MOMENTOS

 
1 ... ρ1p
 .. .. .. 
R= . . . 
ρp1 ... 1

Ejemplo 1.(Continuación)
La correlación de Pearson entre X e Y es:
Cov(X , Y ) −1
ρ = =
σX σY 11
por lo tanto tienen una relación lineal muy pequeña.
Ejemplo.
Sea X una v. a. con distribución U(-1, 1), y definimos la variable Y=X2 . Com-
probar que X e Y son linealmente independientes pero no son independientes.
R1 1
E(X) = −1 x dx = 0.
2
R1 1
E(X.Y) = E(X. X2 ) = E(X3 ) = −1 x3 dx = 0.
2
Cov(X, Y) = E(X.Y) - E(X) E(Y) = 0 ⇐⇒ ρ = 0
por lo tanto X e Y son linealmente independientes pero no independientes puesto
que Y = X2 .

Definición 7.8 (Función generatriz de momentos) Dado un vector aleato-


rio x p-dimensional la función generatriz de momentos,si existe, se define como:
Z
tt x t
gx (t) = E(e ) = et x f (x) dx
Rp

Entre las propiedades más interesantes de la función generatriz de momentos


están las siguientes:

1. g(0)=1

2. g cuando existe caracteriza la distribución.

3. Los vectores aleatorias x,y son independientes si y solo si la función genera-


triz de momentos conjunta es igual al producto de las funciones generatrices
de las marginales.

gx,y (t1 , t2 ) = gx (t1 ) gy (t2 ) ∀(t1 , t2 ) ∈ entorno de 0 ∈ Rp+q

4. Si x,y son vectores aleatorios independientes entonces la función generatriz


de x+y verifica:
gx+y (t) = gx (t) gy (t)
11

Definición 7.9 (Función caracterı́stica ) Dado un vector aleatorio x p-dimensional


la función caracterı́stica se define como:
Z
t t
φx (t) = E(eit x ) = eit x f (x) dx
Rp

Esta función existe siempre y caracteriza totalmente la distribución del vec-


tor aleatorio x. Presenta unas propiedades análogas a la función generatriz de
momentos.
Relacionada con la función caracterı́stica tienen gran importancia el siguien-
te Teorema

Teorema 7.2 (Teorema de Cramer- Wald) La distribución de un vector alea-


torio p-dimansional x está completamente determinada por el conocimiento del
comportamiento de todas las variables unidimensionales que se puedan formar
como combinación lineal de sus componentes.

8 Momentos Condicionados

Estos momentos juegan un papel importante en el manejo de las distribucio-


nes multivariantes , sobre todo cuando se imponen condiciones a algunas de sus
componentes.

Definición 8.1 (Esperanza condicionada ) Dado un vector aleatorio x p-dimensional


del que se consideran la partición (x1 , x2 ) se define la esperanza del vector x1 con-
dicionada por el valor x2 de la segunda componente como
Z
E[x1 /x2 ] = x1 fx1 /x2 (x1 )dx1
Rp1

En general esta expresión será una función del valor de x2 . Obsérvese que se hace
un abuso de notación cuando x1 tienen dimensión mayor que 1, ya que en este caso
habrı́a que tener un vector esperanza , cuyas componentes son las integrales de
las correspondientes componentes de x1 . Por otro lado si considero x2 un vector
aleatorio entonces la esperanza condicionada también será un vector aleatorio.
Por tanto podrá hablarse de su esperanza, que verifica el siguiente resultado, si
todas las esperanzas existen

E[x1 ] = E[E[x1 /x2 ]]


12 9 FUNCIÓN DE UN VECTOR ALEATORIO

La curva o superficie que a cada valor de x2 le hace corresponder E[x1 /x2 ]


se llama la curva o superficie general de regresión de x1 sobre x2 . En el caso de
que esta superficie sea lineal se tiene la regresión lineal.

Definición 8.2 (Varianza condicionada ) Dado un vector aleatorio x p-dimensional


del que se consideran la partición (x1 , x2 ) se define la varianza del vector x1 con-
dicionada por el valor x2 como V [x1 /x2 ] = V1|2 como la matriz de varianzas
respecto a la distribución condicionada (x1 /x2 )

En el caso bidimensional (x1 , x2 ) se verifica que

E(xi ) = E[E(xi /xj )]

V ar(xi ) = E[V ar(xi /xj )] + V ar[E(xi /xj )]

9 Función de un vector aleatorio

En este apartado estudiaremos algunos métodos que nos permiten calcular la


distribución de probabilidad de funciones de un vector aleatorio.
El método más general consiste en obtener directamente la función de distribución
del nuevo vector aleatorio. Dado y = g(x), entonces

Fy (y) = P (y ≤ y) = P [ x ∈ Rp / g(x) ≤ y]

Veamos algunos ejemplos sencillos en los que g es una función de R2 en R,


es decir Z es una variable aleatoria.
Ejemplo
Sea (X, Y)un vector aleatorio continuo cuya función de densidad vale:
(
1 si 0 < x < 1 ; 0 < y < 1
f (x , y) =
0 en el resto

Y
Calcular la distribución de la variable Z = .
X
El conjunto soporte de Z es SZ = (0 , ∞).
Y
P (Z ≤ z) = P ( ≤ z) = P (Y ≤ z X)
X
Cuando 0 < z < 1 la función de distribución vale:
Z 1 Z zx Z 1Z zx
z
F (z) = f (x , y) dx dy = dx dy =
0 0 0 0 2
13

Cuando z > 1 la función de distribución vale:


Z 1/z Z zx Z 1 Z 1
1 1 1
F (z) = dx dy + dx dy = + (1 − ) = 1 −
0 0 1/z 0 2z z 2z

Por lo tanto la función de distribución es:




 0 si z ≤ 0
 z
F (z) = si 0 < z ≤ 1 ,
 2

 1− 1 si z > 1
2z

Cuando la función g verifique ciertas condiciones de regularidad es posible


calcular directamente la función de densidad del vector aleatorio transformado.

Proposición 9.1 Dado un vector aleatorio continuo x con función de densidad


f(x), sea z=g(x) una transformación que verifica en el conjunto soporte Sx las
siguientes condiciones :

1. La función g:Rp −→ Rp es biyectiva,salvo un conjunto de Lebesgue de me-


dida nula. es decir existen las transformaciones

zi = gi (x), i = 1, . . . p

xi = hi (z), i = 1, . . . p

2. Todas las transformaciones son continuas.

3. Existen y son continuas las derivadas parciales

∂x ∂z
,
∂z ∂x
¯ ¯
¯ ∂(x) ¯
¯
J = ¯ ¯
∂(z) ¯
es distinto de cero en el recorrido de la transformación.

Entonces se cumple que


(
fx [h(z)] |J| si z ∈ Sz
fz (z) =
0 en el resto
14 10 EJEMPLOS

Corolario 9.1 Si el conjunto soporte S se puede expresar como una unión finita
de conjuntos disjuntos Si i = 1 . . . n, en cada uno de los cuales la función g
es biyectiva y verifica las condiciones del teorema anterior, con inversas: hSi y
Jacobianos: Ji entonces
 n
 X
 fx [hSi (z)] |Ji | si z ∈ Sz
fz (z) =


i=1
0 en el resto

Las trasformaciones lineales y=Ax+b donde A es una matriz no singular,


es decir, det(A)6=0, son transformaciones biyectivas, su inversa es

x = A−1 (y − b)t

y el jacobiano de la transformación inversa vale J=det(A−1 ).


Aplicando el teorema anterior la función de densidad de y es:

fy (y) = fx [A−1 (y-b)t ] × |det(A−1 )|

10 Ejemplos

Ejemplo 1.
• Calcula el valor de c para que f(x, y) sea función de densidad.
(
c (x + y) si 0 < x < 1 ; 0 < y < 1
f (x, y) =
0 en el resto

1. La función f(x, y) ≥0.


Tomando c>0 se verifica la primera condición.
R∞ R∞
2. −∞ −∞ f (x , y) dx dy = 1.
Z ∞ Z ∞ Z 1Z 1
f (x , y) dx dy = c (x + y)dx dy
−∞ −∞ 0 0
Z 1
1
= c ( + y) dy = c
0 2
Por lo tanto el valor que buscamos es c=1.

• Calcula la probabilidad de que P[ X≤ 0,5 ; Y≤ 0,75].


Z 0,5 Z 0,75
P [ X ≤ 0, 5 ; Y ≤ 0, 75] = f (x , y) dy dx
−∞ −∞
15

Z 0,5 Z 0,75 Z 0,5


3x 9 15
= (x + y) dy dx = ( + ) dx =
0 0 0 4 32 64
• Calcula las distribuciones marginales de X e Y.

1. La marginal de la variable X es:



Z ∞  R1 1
f1 (x) = f (x , y) dy = 0 (x + y) dy = x + 2 si 0 < x < 1
−∞  0 en el resto

2. La marginal de la variable Y es:



Z ∞  R1 1
f2 (y) = f (x , y) dx = 0 (x + y) dx = y + 2 si 0 < y < 1
−∞  0 en el resto

• Calcula las distribuciones condicionadas de (Y/X=x), (X/Y=y), E(Y/X=x)


y E(X/Y=y).

1
1. Como la marginal f1 (x) = x + la función de densidad de (Y/X=x) será:
2

f (x, y)  2(x + y)
si 0 < y < 1
fY /X (y/x) = = 2x + 1
f1 (x)  0 en el resto

Z ∞ Z 1
2(x + y) 3x + 2
E(Y /X = x) = y fY /X (y/x) dy = y dy =
−∞ 0 2x + 1 6x + 3

1
2. Como la marginal f2 (y) = y + la función de densidad de (X/Y=y) será:
2

f (x, y)  2(x + y) si 0 < x < 1
fX/Y (x/y) = = 2y + 1
f2 (y) 
0 en el resto

Z ∞ Z 1
2(x + y) 3y + 2
E(X/Y = y) = y fX/Y (x/y) dx = x dx =
−∞ 0 2y + 1 6y + 3

• Estudia la independencia de X e Y.
La densidad conjunta es:
(
(x + y) si 0 < x < 1 ; 0 < y < 1
f (x, y) =
0 en el resto
16 10 EJEMPLOS

y las densidades marginales son:



 1
x+ si 0 < x < 1
f1 (x) = 2
 0 en el resto

 1
y+ si 0 < y < 1
f2 (y) = 2
 0 en el resto

Entonces f (x , y) 6= f1 (x) f2 (y) y por lo tanto X e Y no son independientes.


• Calcula el vector de medias y la matriz de varianzas covarianzas de (X,
Y).

1. En primer lugar vamos a obtener el vector de medias.

Z ∞ Z 1
1 7
E(X) = x f1 (x) dx = x (x + ) dx =
−∞ 0 2 12
Z ∞ Z 1
1 7
E(Y ) = y f2 (y) dy = y (y + ) dy =
−∞ 0 2 12

2. Para calcular la matriz de varianzas-covarianzas necesitamos obtener las


varianzas y la covarianza.

Z ∞ Z 1
2 2 1 5
E(X ) = x f1 (x) dx = x2 (x + ) dx =
−∞ 0 2 12
y la varianza de X es
11
V ar(X) = E(X 2 ) − E 2 (X) =
144

Z ∞ Z 1
1 5
E(Y 2 ) = y 2 f2 (y) dx = y 2 (y + ) dy =
−∞ 0 2 12
y la varianza de Y es
11
V ar(Y ) = E(Y 2 ) − E 2 (Y ) =
144

Para obtener la covarianza calculamos primero el momento de orden (1, 1)


Z ∞ Z ∞ Z 1Z 1
E(X Y ) = x y f (x , y) dy dx = x y (x + y) dy dx
−∞ −∞ 0 0
17

Z 1
x2 x 1
= ( + ) dx =
0 2 3 3
−1
Cov(X , Y ) = E(X Y ) − E(X) E(Y ) =
144
La matriz de varianzas-covarianzas es :
à !
1 11 −1
Σ =
144 −1 11

• La correlación de Pearson entre X e Y es:


Cov(X , Y ) −1
ρ = =
σX σY 11
por lo tanto tienen una relación lineal muy pequeña.
Ejemplo 2.
• Comprueba que f(x, y) es función de densidad.

 2
 3 si 0 < x ≤ 1 ; 0 < y < x
4
f (x, y) = 3 si 1 < x < 2 ; 0 < y < 2 − x

 0 en el resto

1. La primera condición f(x, y)≥0 se comprueba de forma inmediata.


R∞ R∞
2. −∞ −∞ f (x , y) dx dy = 1.
Z ∞ Z ∞ Z 1Z x Z 2 Z 2−x
2 4
f (x , y) dx dy = dy dx + dy dx
−∞ −∞ 0 0 3 1 0 3
Z 1 Z 2
2x 4(2 − x) 1 2
= dx + dx = + = 1
0 3 1 3 3 3

• Calcula la probabilidad de que P[ X≤ 1,5 ; Y≤ 0,5].


Z 0,5 Z 1,5
P [ X ≤ 1, 5 ; Y ≤ 0, 5] = f (x , y) dy dx
−∞ −∞
Z 0,5 Z x Z 1 Z 0,5 Z 1,5 Z 0,5
2 2 4
= dy dx + dy dx + dy dx
0 0 3 0,5 0 3 1 0 3
1 2 4 7
= + + =
12 12 12 12
• Calcula las distribuciones marginales de X e Y.
18 10 EJEMPLOS

1. La marginal de la variable X es:


 R
 x 2 2x
Z ∞ 
 dy = si 0 < x ≤ 1
 0 3 3
f1 (x) = f (x , y) dy = R 2−x 4 4(2 − x)
−∞ 
 0 3 dy = 3
si 1 < x < 2


0 en el resto

2. La marginal de la variable Y es:


( R R 2−y
1 2 4
y 3 dx + 1 3 dx = 2(1 − y) si 0 < y < 1
f2 (y) =
0 en el resto

• Calcular las distribuciones condicionadas de (X/Y=y) e (Y/X=x) .

1. Teniendo en cuenta la expresión de f2 (y), la densidad de (X/Y=y) es:




 2/3 1

 = si 0 < x ≤ 1
2(1 − y) 3(1 − y)
f (x, y)  4/3 2
fX/Y (x/y) = = si 1 < x < 2
f2 (y) 

 2(1 − y) 3(1 − y)

0 en el resto
cuando el valor de y, que condiciona, pertenezca al intervalo (0, 1).

2. Para calcular la densidad de (Y/X=x)hemos de tener en cuenta que f1 (x),


cambia de expresión dependiendo del valor de x.
Para 0 < x ≤ 1 se tiene:

2/3 1
f (x, y)  = si 0 < y < 2 − x
fY /X (y/x) = 2x/3 x
f1 (x) 
0 en el resto
Para 1 < x < 2 se tiene:

4/3 1
f (x, y)  = si 0 < y < 2 − x
fY /X (y/x) = 4(2 − x)/3 2−x
f1 (x) 
0 en el resto

• Calcula el vector de medias y la matriz de varianzas covarianzas de (X,


Y).

1. El vector de medias de (X, Y) es

Z ∞ Z 1 Z 2
2x 4(2 − x) 10
E(X) = x f1 (x) dx = x dx + x dx =
−∞ 0 3 1 3 9
Z ∞ Z 1
1
E(Y ) = y f2 (y) dy = y 2 (1 − y) dy =
−∞ 0 3
19

2.
Z ∞ Z 1 Z 2
2x 4(2 − x) 25
E(X 2 ) = x2 f1 (x) dx = x2 dx + x2 dx =
−∞ 0 3 1 3 18

La varianza de X es
25
V ar(X) = E(X 2 ) − [E(X)]2 =
162

Z ∞ Z 1
1
E(Y 2 ) = y 2 f2 (y) dy = y 2 2 (1 − y) dy =
−∞ 0 6
La varianza de Y es
1
V ar(Y ) = E(Y 2 ) − [E(Y )]2 =
18
El momento de orden (1, 1)
Z ∞Z ∞ Z 1Z x Z 2 Z 2−x
2 4 13
E(X Y ) = x y f (x , y) dy dx = x y dy dx + xy dy dx =
−∞ −∞ 0 0 3 1 0 3 36
13 10 1 1
Cov(X , Y ) = E(X Y ) − E(X) E(Y ) = − × =
36 9 3 108
La matriz de varianzas-covarianzas es :
à !
25 −1
Σ = 162 108
−1 1
108 18

Ejemplo 3.
Sea (X, Y) un vector aleatorio discreto con la siguiente distribución de probabi-
lidad
X\Y 0 1 2 3
3 2 1
1 0 8 8 8
1 1
2 8 0 0 8

Calcular las distribuciones marginales de X e Y.

1. La v. a. marginal X toma los valores 1, 2 y sus probabilidades son:


3
X 3 2 1 3
P1 (X = 1) = P (1 , y) = 0 + + + =
8 8 8 4
y=0

3
X 1 1 1
P (1 X = 2) = P (2 , y) = + 0 +0 + =
8 8 4
y=0
20 10 EJEMPLOS

2. La v. a. marginal Y toma los valores 0,1,2, 3 con probabilidades:


2
X 1 1
P2 (Y = 0) = P (x , 0) = 0 + =
8 8
x=1

2
X 3 3
P2 (Y = 1) = P (x , 1) = +0 =
8 8
x=1
2
X 2 2
P2 (Y = 2) = P (x , 2) = +0 =
8 8
x=1
2
X 1 1 2
P2 (Y = 3) = P (x , 3) = + =
8 8 8
x=1

Ejemplo 4.
Sea (X, Y) un vector aleatorio continuo cuya función de densidad vale:
(
2 si 0 < x ≤ y < 1
f (x , y) =
0 en el resto

Calcular las distribuciones marginales de X e Y.

1. La v. a. marginal X tiene como conjunto soporte SX =(0, 1) y su función


de densidad es:
Z ∞ ( R
1
f1 (x) = f (x , y) dy = x 2 dy = 2 − 2x si 0 < x < 1
−∞ 0 en el resto

2. La v. a. marginal Y tiene el mismo conjunto soporte SY =(0, 1) y su función


de densidad es:
Z ∞ ( R
y
f2 (y) = f (x , y) dx = 0 2 dx = 2y si 0 < y < 1
−∞ 0 en el resto

• Calcular las distribuciones condicionadas de (Y/X=x) y (X/Y=y).

1. La función de densidad de (Y/X=x) será:


f (x, y) 2 1
fY /X (y/x) = = = si 0 < x ≤ y < 1
f (x) 2y y

2. La función de densidad de (X/Y=y) será:


f (x, y) 2 1
fX/Y (x/y) = = = si 0 < x ≤ y < 1
f (y) 2 − 2x 1−x
21

Ejemplo 5.

Sea (X, Y) un vector aleatorio cuya función de densidad es:


(
1 si 0 < x < 1 ; 0 < y < 1
f (x , y) =
0 en el resto

Estudia si la independencia de X e Y.
Calcularemos en primer lugar las distribuciones marginales de X e Y.
(
1 si 0 < x < 1
f1 (x) =
0 en el resto
(
1 si 0 < y < 1
f2 (y) =
0 en el resto

Como f (x , y) = f1 (x)f2 (y) ∀(x , y) ∈ R2 entonces X e Y son independien-


tes.
Ejemplo 6.
Sea (X, Y) un vector aleatorio continuo cuya función de densidad vale:
(
2x si 0 < x < 1 ; 0 < y < 1
f (x , y) =
0 en el resto

Calcular la distribución de la variable (U, V)=(X+Y, X-Y).


Las funciones g y h están definidas de la siguiente formas:

u = g1 (x, y) = x + y v = g2 (x, y) = x − y

u+v u−v
x = h1 (u, v) = y = h2 (u, v) =
2 2
El conjunto soporte de (U, V) se calcula teniendo en cuenta el soporte de (X, Y)
y la transformación realizada.
Como u=x+y, es evidente que 0 < u < 2; por otra parte tenemos

u+v
0 < x < 1 ⇐⇒ 0 < < 1 ⇐⇒ 0 < u + v < 2 ⇐⇒ −u < v < 2 − u
2
u−v
0 < y < 1 ⇐⇒ 0 < < 1 ⇐⇒ −2 < −u + v < 0 ⇐⇒ u − 2 < v < 2 − u
2
es decir,
0 < u < 2 ; M ax(u − 2 , −u) < v < min(u , 2 − u)
22 10 EJEMPLOS

Si u∈ (0, 1] =⇒ Max(u-2, -u)=-u ; min(u, 2-u)=u.


Si u∈ (1, 2) =⇒ Max(u-2, -u)=u-2 ; min(u, 2-u)=2-u.

Por lo tanto

SU V = {(u , v) ∈ R2 / 0 < u < 1 − u < v < u 1 < u < 2 u − 2 < v < 2 − u}

d(x , y) 1
El jacobiano de la transformación inversa vale J = = −
d(u , v) 2
y la función de densidad de (U, V) se calcula a partir de la expresión
u+v u−v
f (u , v) = f [ , ] × |J|
2 2
es decir,

 u+v

 si 0 < u ≤ 1 ; −u < v < u
 2
f (u , v) = u+v
 si 1 < u < 2 ; u − 2 < v < 2 − u

 2
 0 en el resto

El vector aleatorio (U, V) del ejemplo anterior con U=X+Y, V=X-Y, es un


caso particular de las transformaciones del tipo

U = a11 X + a12 Y ; V = a21 X + a22 Y


que se pueden representar en forma matricial como

(U , V )t = A (X , Y )t

Das könnte Ihnen auch gefallen