Sie sind auf Seite 1von 9

Ejemplo con las dos primeras preguntas del tema 9

9.1. Distribución normal bidimensional.

Un vector aleatorio (ξ ; η ) sigue una distribución normal bidimensional, o


bivariante, si su función de densidad conjunta es igual a

1  x − µ  2  x − µ1  y − µ 2   y − µ 2  
2
−  1
 − 2 ρ    +   
f ( x; i ) =
1
e
(
2 1− ρ 2 )  σ 1 

  
 σ 1  σ 2   σ 2  

2
2π σ1σ 2 1 − ρ

siendo el campo de variación de las variables aleatorias unidimensionales ξ y η el eje


real, -∞ < x < ∞ y -∞ < y < ∞.

La expresión

 x − µ  2 x − µ1  y − µ 2   y − µ2
2
1
 1  − 2 ρ 

( )
Q( x; y ) = −    +  
2  σ 
2 1 − ρ  1   σ 1  σ 2   σ2  

es la forma cuadrática del exponente de la función y es conveniente expresarla


matricialmente

 1 ρ 

Q( x; y ) = [ x − µ 1 y − µ2]

 σ1 1− ρ 2
2
( ) −
( 
)
σ 1σ 2 1 − ρ 2   x − µ 1 
  = X − µ ′R X − µ .
[ ] [ ]
 ρ 1 x − µ2 
−
 σ 1σ 2 1 − ρ
2
( ) 2
(
σ 2 1− ρ 2 
 )
La matriz R de la forma cuadrática Q(x;y) y, por tanto ésta, es definida no
negativa. Esto supone que puede ser definida positiva o semidefinida positiva.
Establecer esta distinción es fundamental a la hora de analizar la distribución normal
bidimensional, pues, en el primer caso, conduce a una distribución normal no singular y
en el segundo sí, ya que aquí, al poder ser Q(x;y) = 0, implica que una variable aleatoria
es función lineal de la otra.

9.2. Distribución normal bidimensional no singular.

9.2.1. Significado estadístico de las constantes de la forma cuadrática.

La función de densidad conjunta, y su forma cuadrática Q(x;y), dependen de


cinco parámetros: µ 1, µ 2, σ 1, σ 2, ρ ; el significado estadístico lo determinamos
mediante la función característica conjunta de (ξ ;η ) cuya expresión es

i ( µ 1 t1 + µ 2 t 2 ) − (
1 2 2 2 2
t1 σ 1 + t 2 σ 2 + 2 ρ σ1σ 2 t1t 2 )
ϕ ( t1; t 2 ) = e 2

Por las propiedades de la función característica sabemos que ϕ (t1;0) es la


función característica de la distribución marginal de la variable aleatoria ξ , y que
ϕ (0;t2) lo es de la variable η . Haciendo alternativamente en ϕ (t1;t2), t2 = 0 y t1 = 0,
tenemos, respectivamente,

1
iµ1t1 − t12σ 12
ϕ( )
t1;0 = e 2
1
iµ 2 t 2 − t 22σ 22
ϕ( 0; t 2 ) =e 2

La primera función característica corresponde a una variable normal


unidimensional con media µ 1 y desviación típica σ 1, N(µ 1;σ 1), y la segunda a una
normal con media µ 2 y desviación típica σ 2, N(µ 2;σ 2), obteniéndose por consiguiente
las dos funciones de densidad marginal.

9.2.2. Las distribuciones marginales.

Las distribuciones marginales son aquellas derivadas de una bidimensional


cuyas funciones de densidad son:
2
1  x − µ1 
−  
1 2 σ
f1 ( x ) = e  1 
σ 1 2π
2
1  y −µ2 
−  
1 2 σ
f 2 ( y) = e  2 
σ 2 2π

El parámetro ρ es el coeficiente de correlación lineal de las variables ξ y η .


Para comprobarlo recurrimos a la propiedad de la función característica que permite
obtener los momentos con respecto al origen:

1  ∂ h + k ϕ ( t ;t ) 
α hk = 1 2
 
i h + k  ∂ h t1∂ k t 2  t = t = 0
1 2

La covarianza de las variables aleatorias, cov(ξ ;η ), es igual a α 11-µ 1µ 2, y el


momento mixto α 11 es, según la expresión deducida de la función característica,

1  ∂ 2ϕ ( t1; t 2 ) 
α11 =  
i 2  ∂t1∂t 2  t =t =0
1 2

Hallamos, en primer lugar, la derivada de la función característica conjunta


respecto a t1
i ( µ1t1 + µ 2 t 2 ) − (t12σ 12 + t 22σ 22 + 2 ρ σ1σ 2 t1t 2 )
1
∂ϕ ( t1; t 2 )
∂t1
(
= iu1 − t1σ12 − ρ σ1σ 2 t 2 e ) 2

y la segunda derivada con respecto a t2

i ( µ1t1 + µ 2 t 2 ) − ( t12σ 12 + t 22σ 22 + 2 ρ σ1σ 2 t1t 2 )


1
∂ 2ϕ ( t1; t 2 )
= − ρ σ1σ 2 e 2 +
∂t1∂t 2
(
1 2 2 2 2
)
( )(
+ iµ1 − t1σ 12 − ρ σ1σ 2 t 2 iµ 2 − t 2σ 22 − ρ σ1σ 2 t1 ⋅ e ) i ( µ 1 t1 + µ 2 t 2 ) −
2
t1 σ 1 + t 2 σ 2 + 2 ρ σ1σ 2 t1t 2

Si particularizamos la segunda derivada para t1 = t2 = 0 queda

 ∂ 2ϕ ( t1; t 2 ) 
  = i 2 ρ σ1σ 2 + i 2 µ1µ 2
 ∂t ∂ t
1 2   t =t = 0
0 2

por tanto,

α 11 = ρ σ 1σ 2 + µ 1µ 2 y cov(ξ ;η ) = ρ σ 1σ 2 + µ 1µ 2 - µ 1µ 2 =
ρ σ 1σ 2

siendo ρ el coeficiente de correlación lineal de las variables ξ y η . El campo de


variación del coeficiente de correlación es el intervalo [-1;1], sin embargo cuando, como
en lo que llevamos visto, la matriz R es no singular se verifica que |R| ≠ 0, es decir,

σ 12σ 22 − ρ 2σ 12σ 22 > 0

y esta desigualdad se cumple si y sólo si ρ 2 < 1, o |ρ | < 1, lo que conduce a que el


campo admisible de variación de ρ , cuando R es definida positiva, no sea el intervalo
cerrado
[-1,1] sino el abierto (-1;1), en otras palabras, el coeficiente de correlación no puede ser
|ρ | = 1, pues de tomar uno de estos valores la matriz R deja de ser definitiva positiva.

Si invertimos la matriz R y la denominamos Σ , R-1 = Σ , resulta igual a

 σ2 ρ σ1σ 2   V ( ξ ) cov ( ξ ;η ) 
Σ= 1 =
2  cov ( ξ ;η )
 ρ σ1σ 2 σ 2   V (η ) 

denominándose Σ matriz de covarianzas siendo, por tanto, R = Σ -1.

9.2.3. Distribuciones condicionales.

La función de densidad condicional de η dado ξ , f(y/x), es


1  x − µ  2  x − µ 1  y − µ 2   y −µ2 
2
−  1
 − 2 ρ    +   
1
e
(
2 1− ρ 2 ) 

 σ 1   σ 1  σ 2   σ2  

f ( x; y ) 2π σ1σ 2 1 − ρ
2
f ( y / x) = =
f1 ( x ) 1  x − µ1 
2
−  
1 2  σ 1 
e
σ 1 2π
operando llegamos a la expresión del exponente
2
1  x − µ  2  x − µ 1  y − µ 2   y − µ2 
2
1  x − µ1 
−  1
 − 2 ρ    +    +   =
(
2 1− ρ 2
)  σ 1   σ 1  σ 2   σ2   2  σ 1 
2
1   x − µ1   y − µ 2 
=−  ρ   −   =
(
2 1− ρ 2 )   σ 1   σ 2 
 ρ σ2 ( x − µ1 ) −σ 1 ( y − µ 2 ) 
2
1
=−  =
(
2 1− ρ 2
) 
 σ 1σ 2 
2
1   σ2 
=−  y −  µ 2 + ρ ( x − µ1 )  ,
(
2σ 22 1− ρ 2 )   σ1 

por lo cual la función de densidad condicional de η dado ξ es


2
1   σ2 
−  y −  µ 2 + ρ ( x − µ 1 )  
e 2σ 2 (1− ρ )
1 2 2 σ
f ( y / x) =   1  
σ 2 1 − ρ 2 2π

función de densidad de una variable aleatoria normal

 σ 
N  µ 2 + ρ 2 ( x − µ1 );σ 2 1 − ρ 2 
 σ1 

La esperanza de esta distribución condicional

σ
E [η / ξ = x ] = µ 2 + ρ 2 ( x − µ1 )
σ1

recibe el nombre de regresión de η /ξ

De forma análoga obtenemos la función de densidad condicional de ξ respecto


a η , f(x/y)

2
1   σ1 
−  x −  µ 1 + ρ ( y − µ 2 ) 
e 2σ 1 (1− ρ )
1 2 2 σ2
f ( x / y) =    
σ 1 1 − ρ 2 2π

que es
 σ 
N  µ1 + ρ 1 ( y − µ 2 );σ 1 1 − ρ 2 
 σ2 

La esperanza de esta distribución condicional ξ /η

σ
E [ ξ / η = y ] = µ1 + ρ 1 ( y − µ 2 )
σ2

es la regresión de ξ /η .

Hemos visto que si una variable aleatoria sigue la distribución normal


bidimensional, sus distribuciones marginales y condicionales son normales
unidimensionales, no siendo necesariamente cierto el recíproco, es decir, si dos
variables son normales, su distribución conjunta no tiene por qué serlo.

EJEMPLO

Tenemos la función de densidad conjunta bidimensional


−1
1 4 2,4   x +1 
− [ x +1 y −2] 
1 2 2,4 9 
 y −2 
 
f ( x; y ) = e
12 0,6π

La matriz de la forma cuadrática es la matriz Σ -1.

De la forma cuadrática deducimos los valores de las medias, varianzas,


covarianzas y coeficiente de correlación:

µ1 = −1; µ 2 = 2; σ 12 = 4; σ 22 = 9; cov( ξ ;η ) = 2,4;

cov (ξ ;η ) 2,4
ρ= = = 0,4
σ 1σ 2 2⋅3

Distribuciones marginales: la variable ξ es N(-1;2) y η N(2;3).

Distribuciones condicionales:

- De η /ξ
(
N 0,6 x +2,5;3 0,84 . )
- De ξ /η
2 
N  ( 0,4 y − 2,3);2 0,84 .
 3 

9.2.4. Independencia.
Si las variables aleatorias ξ y η son independientes, el coeficiente de
correlación lineal es nulo, ρ = 0, convirtiéndose la función de densidad conjunta en

1  x − µ1   y − µ 2
2 2

−   +  
1 2  σ 1   σ 2  
f ( x; y ) = e  
2π σ1σ 2

que no es otra cosa que el producto de las funciones de densidad marginales. Esta
conclusión no es sino el cumplimiento de la condición de independencia de dos
variables aleatorias continuas,

f(x;y) = f1(x) ⋅ f2(y)

Mientras que siempre que dos variables aleatorias son independientes, su coeficiente de
correlación es cero, por serlo la covarianza, el recíproco no es cierto salvo cuando
la distribución conjunta de las dos variables es normal.

Si las variables aleatorias ξ y η son N(0;1) e independientes, por la


independencia el coeficiente de correlación es nulo (ρ = 0), y la función de densidad
conjunta de la variable aleatoria bidimensional (ξ ; η ) tiene por expresión

x2 +y2
1 −
f ( x; y ) = e 2

siendo la matriz R de la forma cuadrática correspondiente y su inversa Σ

1 0 1 0
R = ; Σ=
0 1
 0 1

9.2.5. Propiedades de la distribución normal bidimensional (Teoremas)

TEOREMA

Si una variable aleatoria es normal bidemensional y se define una variable


ω = aξ + bη , esta nueva variable es normal unidimensional. Para demostrarlo
calculamos la función característica de ω
[ ] [
ϕ ω ( t ) = E e iωt = E e i ( aξ + bη ) t = ]
= E [e ( ξ η )
i a + b t − i ( aµ 1 + bµ 2 ) t + i ( aµ 1 + bµ 2 ) t
]=
[ ]
= e i ( aµ 1 + bµ 2 ) t E e i[ a ( ξ − µ 1 ) t + b(η − µ 2 ) t ] =

i ( aµ 1 + bµ 2 ) t 2
1
(
− t 2 a 2σ 12 + b 2σ 22 + 2 abρ σ1σ 2 )
=e e =
1
(
i ( aµ 1 + bµ 2 ) t − t 2 a 2σ 12 + b 2σ 22 + 2abρ σ1σ 2
2
)
=e

resultando la función característica de una distribución normal unidimensional

N
aµ1 +bµ2 ; a 2σ12 +b 2σ22 +2ab ρσ1σ2 

 

EJEMPLO

Partiendo de la función de densidad conjunta del ejemplo de la página 465


definimos la variable aleatoria ω = - ξ + 2η . Su función de densidad, unidimensional,
es
(
N 5; )
30 ,4 , ya que

E [ω ] = aµ1 + bµ 2 = ( − 1)( − 1) + 2 ⋅ 2 = 5

V (ω ) = a 2σ 12 + 2ab cov (ξ ;η ) + b 2σ 22 =
= a 2σ12 + 2ab ρ σ1σ 2 + b 2σ 22 = 30,4

TEOREMA

Consideremos n variables aleatorias, η 1, η 2, ..., η n, independientes N(µ j;σ j).

Definimos dos variables ω y ψ , combinaciones lineales de las primeras,

n n
ω= Σ a jη j ; ψ = Σ b jη j
j =1 j =1

no siendo todas las constantes aj y bj iguales a cero. La función de densidad conjunta de


las nuevas variables es normal bidimensional.

Hallamos, primero, las esperanzas de las nuevas variables ω y ψ

 n 
[ ]
n n
µω = E [ω] = E  Σ a jη j  = Σ a j E η j = Σ a j µ j
 j =1  i =1 j =1
n
µψ = E [ψ ] = Σ b j µ j
j =1

y a continuación, las varianzas


 n  n n
2
σω  j =1  j =1 j =1
( )
= V  Σ a jη j  = Σ a 2j V η j = Σ a 2j σ 2j
 
n
σψ2 = Σ b 2j σ 2j
j =1

recordemos que las variables η j son independientes.

Por último, hallamos la covarianza de ω y ψ

   
cov (ω; ψ ) = E ω − E [ω]  ψ − E [ψ ]  =

 
   

 n n  n n 
= E  Σ a jη j − Σ a j µ j  Σ b jη j − Σ b j µ j  =
 j =1
 j =1 
  j =1 j =1 

 n  n 
( ) (
= E  Σ η j − µ j a j  Σ η j − µ j b j  = )

 j =1 
 j =1 

 
 n n n 
j =1
( 2
) j = 1 k =1
( )
= E  Σ η j − µ j a j b j + Σ Σ η j − µ j (ηk − µk ) a j bk  =
 
 j ≠k 
n n n
( ) (
= Σ a j b j η j − µ j 2 + Σ Σ a j bk E η j − µ j (ηk − µk )
j =1 j =1 k =1
)
j ≠k

la esperanza del doble producto es nula por ser las variables η j y η k independientes,
resultando

n
cov (ω ; ψ ) = Σ a j b j σ 2j
j =1

EJEMPLO

Tenemos tres variables aleatorias independientes η 1 ditribuidas N(i;i) y


definimos dos nuevas variables ω y ψ cuya función de densidad conjunta calculamos.
Las variables son:

ω = η 1 + 2η 2 + 3η 3
ψ = -η 1 + 4η 2 - 5η 3

E[ω ] = 1⋅ 1 + 2⋅ 2 + 3⋅ 3 = 14
E[ψ ] = -1⋅ 1 + 4⋅ 2 - 5⋅ 3 = -8
V(ω ) = 1⋅ 1 + 4⋅ 4 + 9⋅ 9 = 98
V(ψ ) = 1⋅ 1 + 16⋅ 4 + 25⋅ 9 = 290
cov (ω ;ψ ) = -1⋅ 1 + 8⋅ 4 - 15⋅ 9 = -104
ρ = -0,617

La expresión de la función de densidad conjunta resulta

−1
1  98 −104  u −14 
1 − [ u −14 v +8 ]    
−104 298  v +18 
f ( u; v ) = e 1, 2386

265 ,336 π

A continuación expresamos la función de densidad conjunta de dos maneras


distintas, forma en que pueden presentarse

 u −14 2  u −14  v +8   v +8  
2
−0 ,8074   +1, 234 
 
 +  
1 
 98

  98

 290



 290

 
f (u; v ) = e  
265 ,336 π
f (u; v ) = 0,0012 e −0 , 000088 [149 u +104 uv +49 v −3340 u −672 v +20692 ]
2 2

9.3. Distribución normal bidimensional singular.


Fin del ejemplo

Das könnte Ihnen auch gefallen