Sie sind auf Seite 1von 64

Distribuciones de probabilidad

bidimensionales o conjuntas
Si disponemos de dos variables aleatorias podemos
definir distribuciones bidimensionales de forma
semejante al caso unidimensional. Para el caso
discreto tendremos:

. y) x, Y P(X p(x, y) = = =
. 0 ) , ( , 1 ) , ( > =

y x p y x p
x y
Con:
1
Podemos encontrar la probabilidad marginal de
la variable aleatoria X sumando sobre todos los
posibles valores de la variable aleatoria Y:
y x p (x) p
y
X
= ) , (
Igualmente, podemos encontrar probabilidad
marginal de la variable aleatoria Y sumando
sobre todos los posibles valores de la variable
aleatoria Y:
y x p (y) p
x
Y
= ) , (
2
Y la funcin de probabilidad condicional de Y dado X = x es:
Funcin de probabilidad condicional
La funcin de probabilidad condicional de X dado Y = y es:
(y) p
p(x,y)
p(x|y)
Y
=
(x) p
p(x,y)
p(y|x)
X
=
3
Nota: El punto 2 lo veremos ms adelante.
9
La definicin para dos variables aleatorias continuas es
semejante: F(x,y) = P(X s x, Ys y).
La densidad de probabilidad f(x,y) se obtiene derivando la
funcin de probabilidad con respecto a sus argumentos:
} }


=
>
1 ) , (
, 0 ) , (
dxdy y x f
y x f
Por supuesto:
) , (
) , ( ) , (
2 2
y x f
x y
y x F
y x
y x F
=
c c
c
=
c c
c
10
}


= dx y x f y f
Y
) , ( ) (
}


= dy y x f x f
X
) , ( ) (
Las densidades de probabilidad marginales y las
probabilidades condicionales se definen de forma
semejante al caso bidimensional discreto sin ms que
sustituir sumatorios por integrales. As:
(y) f
f(x,y)
f(x|y)
Y
=
(x) f
f(x,y)
f(y|x)
X
=
11
Ausencia de relacin de cualquier tipo entre dos v.a.
Recuerda que dos sucesos, A y B, son independientes si tener informacin sobre uno
de ellos no influye en el clculo de prob. del otro, es decir:


O equivalentemente, A y B son independientes si y solo si:
) ( ) | ( A P B A P =

P(AB) =P(B)P(A)
Independencia
De manera similar se puede definir el concepto de independencia entre v.a.
Sean X e Y dos v.a. (continuas o discretas). X e Y son independientes si y solo si la
distribucin de una ellas condicionada por la otra es igual a la marginal de la primera,




Como en el caso de sucesos, esta definicin implica que X e Y son indep. si su
distribucin conjunta se puede calcular como el producto de las marginales, es decir:

) ( ) ( ) ( ) (
| |
y f y f x f x f
Y X Y X Y X
= =

f
XY
(x, y) = f
X
(x) f
Y
(y)
(y) P (x) P P(x, y)
Y X
=
Distribuciones bidimensionales
e independencia
Los sucesos aleatorios {X = x} e {Y = y} son independientes
si:
Y entonces, dos variables aleatorias sern independientes
si la relacin anterior se cumple para todos los posibles
pares (x,y).
(y) p p(y|x) (x) p p(x|y)
Y X
= = y
Podremos entonces escribir:
13
El teorema de Bayes se expresa como:
(x) p
(y) p(x|y) p
p(y|x)
y p
(x) p(y|x) p
p(x|y)
X
Y
Y
X
=
=
) (
14
15
paralelo
16
17
18
19
20
21
22
23
24
25
Cuando construimos modelos, bsicamente estamos
relacionando variables con argumentos del tipo: Un
aumento en la variable X est asociado a un
aumento (descenso) de la variable Y.
Algunos ejemplos
Existe una relacin positiva entre el flujo de inmigrantes a
un pas y la renta per capita del pas de acogida.
Existe una relacin positiva entre la nota obtenida en
probabilidad y la de estadstica.
Existe una relacin negativa entre la tasa de fecundidad y la
tasa de participacin femenina.
No parece que exista ninguna relacin entre el volumen de
lluvias en Islandia y la nota del parcial de probabilidad.


Relaciones entre variables
Las relaciones entre v.a. pueden
ser de muy distinto tipo: positivas
o negativas (si cuando crece la
una la otra tambin lo hace y
viceversa), lineales o no lineales,
etc.

Tambin puede ocurrir que no
exista ninguna relacin entre dos
v.a.: cuando esto ocurre diremos
que dos v.a. son independientes.

Vamos a describir a continuacin
cmo de lineal es la relacin que
existe entre dos variables: para
ello definimos la covarianza y la
correlacin
X
Y
Relacin lineal
positiva
X
Y
Relacin no-lineal
X
Y
Sin relacin
La covarianza mide la manera en que dos variables
aleatorias X e Y varan juntas. En particular mide el
tipo de relacin lineal entre las variables aleatorias.

Un valor positivo se interpreta como existencia de
relacin lineal positiva entre las v.a. X e Y.
Un valor negativo, apunta a la existencia de una
relacin lineal negativa entre las v.a. X e Y.



Covarianza
( ) ) )( ( ) , ( Cov v = Y X E Y X
( ) ( ) Y E X E = = v Con:
28
Un valor igual a cero se interpreta como
ausencia de relacin lineal.
Pero, ojo: Esto NO es igual a decir que las v.a.
son independientes.
X
Y
Las variables No tienen ningn tipo de
relacin, es decir son INDEPENDIENTES
X
Y
O de manera ms general, tienen algn
tipo de relacin que no es lineal.
Se cumple que:
( ) v = Y X E Y X ) , ( Cov
Si X e Y son variables independientes, su covarianza
es cero. Observa que en este caso:
( ) ( ) ( ) 0 ) , cov( = = = = v v v v Y E X E Y X E Y X
Puesto que X e Y son variables independientes
Si la covarianza de X e Y es cero, no necesariamente
X e Y son variables independientes.
30
Nota: Aqu est el punto 2 que nos quedaba pendiente.
Propiedades de la covarianza
Si a y b son constantes:
( )
( )
( ) Y X ab bY aX
X Y Y X
X X X
, cov ) , cov(
, cov ) , cov(
var ) , cov(
=
=
=
32
( ) ( ) ) , ( Cov 2 Var Var ) ( Var
2 2
Y X ab Y b X a bY aX + + = +
Nota:




Otro ejemplo: El equipo X y el equipo Y se enfrentan en un
campeonato. Supn que la distribucin de probabilidad
conjunta del nmero de goles que obtienen es:
Y
0 1 2
0 .10 0.08 .04
X 1 .08 .30 .10
2 .07 .03 .20

Existe alguna relacin lineal entre el nmero de goles
marcados por uno y otro equipo? En caso afirmativo, se
trata de una relacin estrecha?



Calculemos la correlacin entre X e Y.
Para ello tenemos que calcular Cov(X,Y) = E(XY) - E(X)E(Y)
Calculemos E(XY). Para ello calcularemos la funcin de masa de
probabilidad de la variable aleatoria Z = XY:
XY 0 1 2 4
0.37 0.30 0.13 0.20
P(X=2,Y=2)
P(X=1,Y=2) + P(X=1,Y=2) P(X=1,Y=1)
E(XY) = 0*0.37 + 1*0.30 + 2*0.13 + 4*0.20 = 1.36
E(X)=1.08; E(Y)=1.09
Por tanto, Cov (X,Y) = 1.36 - 1.08*1.09 = 0.18
Existe una relacin lineal positiva entre los goles que marca uno
y otro equipo por partido. Para cuantificar la fuerza de la
relacin hay que calcular el coeficiente de correlacin.
35


Var(X) = 0.51, Desviacin tip: 0.71
Var(Y) = 0.58, Desviacin tip.: 0.76

Por tanto,
CORR(X,Y) = 0.18/(0.71*0.76) = 0.33
El coeficiente de correlacin est lejano de cero lo que
confirma que existe una relacin lineal positiva significativa
entre los goles marcados por X e Y.
Por otra parte, este valor tambin est lejano a 1 por lo
que se puede deducir que esta relacin lineal no es muy
intensa que digamos...
En nuestro ltimo ejemplo:
El coeficiente de correlacin


Imagina que la v. a. X = beneficio (medido en millones de
euros) de la empresa X e Y = beneficio en millones de
euros de la empresa Y. Y que sabemos que la
covarianza entre ambas variables aleatorias es:
Cov(X,Y) = -1.8
Si expresramos lo mismo en euros, en vez de en
millones de euros, tendramos:
Cov(X*1.000.000,Y*1.000.000)=1000.000.000.000*(-1.8)
La covarianza depende de las unidades en que medimos
las variables. Por tanto, NO podemos utilizarla para
medir la intensidad de la relacin lineal.



El coeficiente de correlacin estandariza la covarianza de
manera que no dependa de las unidades en que estamos
midiendo.
Definicin:

Es fcil ver que esta medida ya no depende de las unidades.
En el ejemplo anterior:
y x
Y X
o o

) , ( Cov
Y) (X, =
) ( ) (
) , cov(
10 10
10 * 10
) 10 ( ) 10 (
) 10 , 10 cov(
) 10 , 10 (
6 * 2 6 * 2
6 6
6 6
6 6
6 6
Y Var X Var
Y X
Y Var X Var
Y X
Y X
=
=
1


Propiedades del coeficiente de correlacin
No depende de las unidades
Siempre est entre 1 y 1.
Este resultado deriva de la conocida desigualdad de
Schwartz. Para toda v.a Z y V,

Llamando: Z = X-E(X) y V = Y-E(Y) y tomando races
cuadradas:
) ( ) ( )] ( [
2 2 2
V E Z E ZV E s
y x y x
Y X o o o o s s ) , cov(


CORR(X,Y) = 1. Existe una relacin lineal
exacta entre X e Y, y la pendiente de la
recta es positiva:
0< CORR(X,Y) <1, relacin lineal + entre X
e Y, ms intensa cuanto ms cercana a
1.
CORR(X,Y) = 0, ausencia de relacin lineal.
-1< CORR(X,Y) <0, relacin lineal (-) entre
X e Y, ms intensa cuanto ms cercana
a -1
CORR(X,Y) = -1, existe una relacin lineal
(-) exacta entre X e Y.



Interpretacin
41
Resumen del formulario:
42
43
44
Son normales
45
Si f(x,y) es una funcin de densidad no normal bidimensional, entonces
no necesariamente fx(x) y fy(y) no son normales:
46
47
48
49
50
51
Transformacin de variables
aleatorias bidimensionales
Dada una variable bidimensional (X, Y), con funcin densidad
de probabilidad conjunta f(x, y) y una transformacin biunvoca:

U = u(X, Y), V = v(X, Y)

la funcin de densidad de probabilidad conjunta de la nueva
variable aleatoria bidimensional (U, V) ser:

g(u, v) = f(x(u,v), y(u,v)) |J|

con:
1
c
c
c
c
c
c
c
c
=
c
c
c
c
c
c
c
c
=
y
v
x
v
y
u
x
u
v
y
u
y
v
x
u
x
J
52
Ejemplo de transformacin bidimensional
Sean x,y dos nmeros aleatorios generados por distribuciones
normales tipificadas N(0,1). Si son independientes, su distribucin
sobre un plano ser:

)
`

+
=
|
|
.
|

\
|

|
|
.
|

\
|
=
2
) (
2
1
2
2
1
2
2
1
) , (
2 2 2 2
y x
Exp
y
Exp
x
Exp y x P
t
t t
x = 1 e
y
y = ln ( 1 x )
x = 1 e
y
y = ln ( 1 x )
x = 1 e
y
y = ln ( 1 x )
x = 1 e
y
y = ln ( 1 x )
Hagamos una transformacin a coordenadas polares (R,).
Con d = R
2
= x
2
+ y
2
:
) 2 / (
2
1
2
1
) , (
) , (
) , (
) , ( d Exp y x P
d
y x
d P =
c
c
=
t u
u
que es equivalente al producto de una distribucin exponencial de
vida media 2, y una distribucin uniforme definida en el intervalo
[0,2].
(Press et al., Numerical Recipes)
54
Transformacin de Box-Mller:
Cmo conseguir una distribucin normal bidimensional
a partir de una uniforme?
demuestra que nos llevan a dos nmeros aleatorios x,y
cuya probabilidad sigue una distribucin normal.

Puesto que las transformaciones dependen de funciones
trigonomtricas, no son muy eficientes para el clculo
computacional.

2
1
2
2
ln 2
u
u R
t u =
=
) sin(2 ln 2 sin
) cos(2 ln 2 cos
2 1
2 1
u u R y
u u R x
t u
t u
= =
= =
(Press et al., Numerical Recipes)
Sean dos nmeros aleatorios u
1
, u
2
derivados de una
distribucin uniforme. Se realizan las transformaciones:
61
x = 1 e
y
y = ln ( 1 x )
x = 1 e
y
y = ln ( 1 x )
x = 1 e
y
y = ln ( 1 x )
x = 1 e
y
y = ln ( 1 x )
Para hacer el algoritmo de Box-Mller
ms rpido se definen las variables:
v
1
=2u
1
1
v
2
=2u
2
1
Se generan nmeros hasta que
(v
1
,v
2
) se encuentre dentro del
crculo de radio R = 1.
2 / 1
2 / 1
ln 2

ln 2
|
.
|

\
|

=
|
.
|

\
|

=
d
d
y
d
d
x
2
1
v
v
2 / 1
2 2
2 / 1
1 1
) (
sin
) (
cos
2
2
2
1
2
2
2
1
v v
v v
v v
v v
+
= =
+
= =
R
R
u
u
v
1

v
2

R

(1,1)
(1,1) (1,1)
(1,1)
para d 1.
(Press et al., Numerical Recipes)
Estas transformaciones modificadas
son ms eficientes en el clculo.
62
63
64

Das könnte Ihnen auch gefallen