Beruflich Dokumente
Kultur Dokumente
1 Introducción
En la vida real es muy frecuente enfrentarnos a problemas en los que nos interesa
analizar varias caracterı́sticas simultáneamente, como por ejemplo la velocidad
de transmisión de un mensaje y la proporción de errores. De esta forma seremos
capaces de estudiar no solo el comportamiento de cada variable por separado,
sino las relaciones que pudieran existir entre ellas. En consecuencia el objetivo
principal de este tema es elaborar un modelo matemático que permita analizar
experimentos aleatorios en los que cada resultado experimental A tiene asociados
p valores numéricos. Estos modelos serán la base para la construcción de los
modelos inferenciales necesarios en este contexto para extrapolar los resultados
de una muestra a la población.
2 Vectores aleatorios
1
2 2 VECTORES ALEATORIOS
2. F (∞, . . . , ∞) = 1.
+ . . . , +(−1)p F (a1 , . . . , ap ) ≥ 0
La idea intuitiva asociada a un vector aleatorio discreto es que cada una de sus
componentes sean v. a. discretas.
1. S 6= ∅
con Sx = {a ∈ Rp /a ≤ x}.
1. f (x) ≥ 0 ∀x ∈ Rp
R R∞ R∞
2. Rp f (x) dx = −∞ . . . −∞ f (x) dx = 1
5 Distribuciones marginales
6 Distribuciones condicionadas
P (x1 = a, x2 ≤ b)
Fx2 /x1 =a (b) =
P (x1 = a)
En el caso que esta función sea absolutamente continua se puede considerar la
función de densidad condicionada de (x2 /x1 = a) que será
¯
∂ p2 (Fx2 /x1 =a (x2 )) ¯
fx2 /x1 =a (b) = ¯
∂x2 ¯
b
en los puntos de continuidad de la función de distribución
Sin embargo cuando el vector x1 es de tipo continuo, el suceso (x1 = a) tiene
siempre una probabilidad igual a cero, y no se puede emplear el método anterior.
En este caso se define la función de densidad condicionada.
7 Momentos
Los momentos respecto al origen más importantes son los orden uno que
permiten definir el vector esperanza del vector aleatorio.
.
Cuando se trabaja con una función g(x) la esperanza de la nueva variable
aleatoria se puede calcular mediante la expresión:
Z
E[g(x)] = g(x) f (x) dx
Rp
• Σ = E[x xt ] − µ µt
• Var(Ax+b)= A Σ At
• Σ=Cov(x,x)
9
• Cov(x,y)= (Cov(y,x))t
• Cov(Ax,By)= A Cov(x,y) Bt
E 2 [X Y ] ≤ E(X 2 ) E(Y 2 )
1. −1 ≤ ρij ≤ 1.
1 ... ρ1p
.. .. ..
R= . . .
ρp1 ... 1
Ejemplo 1.(Continuación)
La correlación de Pearson entre X e Y es:
Cov(X , Y ) −1
ρ = =
σX σY 11
por lo tanto tienen una relación lineal muy pequeña.
Ejemplo.
Sea X una v. a. con distribución U(-1, 1), y definimos la variable Y=X2 . Com-
probar que X e Y son linealmente independientes pero no son independientes.
R1 1
E(X) = −1 x dx = 0.
2
R1 1
E(X.Y) = E(X. X2 ) = E(X3 ) = −1 x3 dx = 0.
2
Cov(X, Y) = E(X.Y) - E(X) E(Y) = 0 ⇐⇒ ρ = 0
por lo tanto X e Y son linealmente independientes pero no independientes puesto
que Y = X2 .
1. g(0)=1
8 Momentos Condicionados
En general esta expresión será una función del valor de x2 . Obsérvese que se hace
un abuso de notación cuando x1 tienen dimensión mayor que 1, ya que en este caso
habrı́a que tener un vector esperanza , cuyas componentes son las integrales de
las correspondientes componentes de x1 . Por otro lado si considero x2 un vector
aleatorio entonces la esperanza condicionada también será un vector aleatorio.
Por tanto podrá hablarse de su esperanza, que verifica el siguiente resultado, si
todas las esperanzas existen
Fy (y) = P (y ≤ y) = P [ x ∈ Rp / g(x) ≤ y]
Y
Calcular la distribución de la variable Z = .
X
El conjunto soporte de Z es SZ = (0 , ∞).
Y
P (Z ≤ z) = P ( ≤ z) = P (Y ≤ z X)
X
Cuando 0 < z < 1 la función de distribución vale:
Z 1 Z zx Z 1Z zx
z
F (z) = f (x , y) dx dy = dx dy =
0 0 0 0 2
13
zi = gi (x), i = 1, . . . p
xi = hi (z), i = 1, . . . p
∂x ∂z
,
∂z ∂x
¯ ¯
¯ ∂(x) ¯
¯
J = ¯ ¯
∂(z) ¯
es distinto de cero en el recorrido de la transformación.
Corolario 9.1 Si el conjunto soporte S se puede expresar como una unión finita
de conjuntos disjuntos Si i = 1 . . . n, en cada uno de los cuales la función g
es biyectiva y verifica las condiciones del teorema anterior, con inversas: hSi y
Jacobianos: Ji entonces
n
X
fx [hSi (z)] |Ji | si z ∈ Sz
fz (z) =
i=1
0 en el resto
x = A−1 (y − b)t
10 Ejemplos
Ejemplo 1.
• Calcula el valor de c para que f(x, y) sea función de densidad.
(
c (x + y) si 0 < x < 1 ; 0 < y < 1
f (x, y) =
0 en el resto
1
1. Como la marginal f1 (x) = x + la función de densidad de (Y/X=x) será:
2
f (x, y) 2(x + y)
si 0 < y < 1
fY /X (y/x) = = 2x + 1
f1 (x) 0 en el resto
Z ∞ Z 1
2(x + y) 3x + 2
E(Y /X = x) = y fY /X (y/x) dy = y dy =
−∞ 0 2x + 1 6x + 3
1
2. Como la marginal f2 (y) = y + la función de densidad de (X/Y=y) será:
2
f (x, y) 2(x + y) si 0 < x < 1
fX/Y (x/y) = = 2y + 1
f2 (y)
0 en el resto
Z ∞ Z 1
2(x + y) 3y + 2
E(X/Y = y) = y fX/Y (x/y) dx = x dx =
−∞ 0 2y + 1 6y + 3
• Estudia la independencia de X e Y.
La densidad conjunta es:
(
(x + y) si 0 < x < 1 ; 0 < y < 1
f (x, y) =
0 en el resto
16 10 EJEMPLOS
Z ∞ Z 1
1 7
E(X) = x f1 (x) dx = x (x + ) dx =
−∞ 0 2 12
Z ∞ Z 1
1 7
E(Y ) = y f2 (y) dy = y (y + ) dy =
−∞ 0 2 12
Z ∞ Z 1
2 2 1 5
E(X ) = x f1 (x) dx = x2 (x + ) dx =
−∞ 0 2 12
y la varianza de X es
11
V ar(X) = E(X 2 ) − E 2 (X) =
144
Z ∞ Z 1
1 5
E(Y 2 ) = y 2 f2 (y) dx = y 2 (y + ) dy =
−∞ 0 2 12
y la varianza de Y es
11
V ar(Y ) = E(Y 2 ) − E 2 (Y ) =
144
Z 1
x2 x 1
= ( + ) dx =
0 2 3 3
−1
Cov(X , Y ) = E(X Y ) − E(X) E(Y ) =
144
La matriz de varianzas-covarianzas es :
à !
1 11 −1
Σ =
144 −1 11
Z ∞ Z 1 Z 2
2x 4(2 − x) 10
E(X) = x f1 (x) dx = x dx + x dx =
−∞ 0 3 1 3 9
Z ∞ Z 1
1
E(Y ) = y f2 (y) dy = y 2 (1 − y) dy =
−∞ 0 3
19
2.
Z ∞ Z 1 Z 2
2x 4(2 − x) 25
E(X 2 ) = x2 f1 (x) dx = x2 dx + x2 dx =
−∞ 0 3 1 3 18
La varianza de X es
25
V ar(X) = E(X 2 ) − [E(X)]2 =
162
Z ∞ Z 1
1
E(Y 2 ) = y 2 f2 (y) dy = y 2 2 (1 − y) dy =
−∞ 0 6
La varianza de Y es
1
V ar(Y ) = E(Y 2 ) − [E(Y )]2 =
18
El momento de orden (1, 1)
Z ∞Z ∞ Z 1Z x Z 2 Z 2−x
2 4 13
E(X Y ) = x y f (x , y) dy dx = x y dy dx + xy dy dx =
−∞ −∞ 0 0 3 1 0 3 36
13 10 1 1
Cov(X , Y ) = E(X Y ) − E(X) E(Y ) = − × =
36 9 3 108
La matriz de varianzas-covarianzas es :
à !
25 −1
Σ = 162 108
−1 1
108 18
Ejemplo 3.
Sea (X, Y) un vector aleatorio discreto con la siguiente distribución de probabi-
lidad
X\Y 0 1 2 3
3 2 1
1 0 8 8 8
1 1
2 8 0 0 8
3
X 1 1 1
P (1 X = 2) = P (2 , y) = + 0 +0 + =
8 8 4
y=0
20 10 EJEMPLOS
2
X 3 3
P2 (Y = 1) = P (x , 1) = +0 =
8 8
x=1
2
X 2 2
P2 (Y = 2) = P (x , 2) = +0 =
8 8
x=1
2
X 1 1 2
P2 (Y = 3) = P (x , 3) = + =
8 8 8
x=1
Ejemplo 4.
Sea (X, Y) un vector aleatorio continuo cuya función de densidad vale:
(
2 si 0 < x ≤ y < 1
f (x , y) =
0 en el resto
Ejemplo 5.
Estudia si la independencia de X e Y.
Calcularemos en primer lugar las distribuciones marginales de X e Y.
(
1 si 0 < x < 1
f1 (x) =
0 en el resto
(
1 si 0 < y < 1
f2 (y) =
0 en el resto
u = g1 (x, y) = x + y v = g2 (x, y) = x − y
u+v u−v
x = h1 (u, v) = y = h2 (u, v) =
2 2
El conjunto soporte de (U, V) se calcula teniendo en cuenta el soporte de (X, Y)
y la transformación realizada.
Como u=x+y, es evidente que 0 < u < 2; por otra parte tenemos
u+v
0 < x < 1 ⇐⇒ 0 < < 1 ⇐⇒ 0 < u + v < 2 ⇐⇒ −u < v < 2 − u
2
u−v
0 < y < 1 ⇐⇒ 0 < < 1 ⇐⇒ −2 < −u + v < 0 ⇐⇒ u − 2 < v < 2 − u
2
es decir,
0 < u < 2 ; M ax(u − 2 , −u) < v < min(u , 2 − u)
22 10 EJEMPLOS
Por lo tanto
d(x , y) 1
El jacobiano de la transformación inversa vale J = = −
d(u , v) 2
y la función de densidad de (U, V) se calcula a partir de la expresión
u+v u−v
f (u , v) = f [ , ] × |J|
2 2
es decir,
u+v
si 0 < u ≤ 1 ; −u < v < u
2
f (u , v) = u+v
si 1 < u < 2 ; u − 2 < v < 2 − u
2
0 en el resto
(U , V )t = A (X , Y )t