Sie sind auf Seite 1von 4

Teorema de cambio de variable

Teorema: Sean ( X , Y ) y (U , V ) vectores aleatorios. Continuos, tales que

U = h1 ( X , Y )
o sea (U , V ) = h( X , Y ) = (h1 ( X , Y ), h2 ( X , Y ) )
V = h2 ( X , Y )

donde la función h : R 2 → R 2 satisface:

• {
h tiene derivadas parciales continuas en B = ( x, y ) ∈ R 2 / f XY ( x, y ) > 0 . }
• h es biyectiva de B en h(B)
• J h ( x, y ) ≠ 0 en B, donde
⎛ ∂h1 ( x, y ) ∂h1 ( x, y ) ⎞
⎜ ⎟
∂x ∂y
J h ( x , y ) = det⎜ ⎟
⎜ ∂h2 ( x, y ) ∂h2 ( x, y ) ⎟
⎜ ∂x ∂y ⎟
⎝ ⎠
Entonces, el vector aleatorio (U ,V ) tiene densidad

f UV (u, v) = f XY (h −1 (u , v)) J I h ( B ) (u , v)
h −1

Ejemplos:

1) Sean X e Y v.a. independientes con distribución exponencial de parámetro λ . Hemos


demostrado que U = X + Y tiene distribución Gamma de parámetros 2 y λ . Lo demostraremos
ahora usando el Teorema de cambio de variable. Para ello completamos la función U = X + Y, de
manera de obtener una función h : R 2 → R 2 que satisfaga las condiciones requeridas. Sea, por
ejemplo,

⎧ h1 ( x, y ) = u = x + y ⎧ x = g1 (u , v) = u − v
⎨ entonces ⎨
⎩ h2 ( x , y ) = v = y ⎩ y = g 2 (u , v) = v

El jacobiano de la inversa de h, que llamamos g, es

⎛ 1 − 1⎞
J = det⎜⎜ ⎟⎟ = 1
h− 1 ⎝0 1 ⎠
Entonces
f UV (u , v) = f XY (u − v, v) I ( 0,∞ ) (u − v) I ( 0,∞ ) (v)

f UV (u , v) = λ e − λ ( u −v ) λ e − λ v I ( v ,∞ ) (u ) I ( 0,∞ ) (v)

Debemos obtener la densidad marginal de U y para ello integramos respecto de v. Si


u ≤ 0, f U (u ) = 0 , sea entonces u > 0,
u u
-λu
f U (u ) = ∫ λ e −λ (u −v )
λe −λ v
dv = λ e 2
∫ dv = λ
2
e -λu u
0 0

Luego, f U (u ) = λ 2 e -λ u u I ( 0,∞ ) (u ) y queda demostrado que X+Y ~ G(2, λ ).

2) Sean X e Y v.a. independientes con distribución Normal standard y sean U = X+Y y V = X-Y.
Hallemos la densidad conjunta del v.a. (U,V).

⎧ u+v
⎧u = x + y ⎪x= 2
⎨ ⎨
⎩v = x − y ⎪ y=
u-v
⎩ 2

Entonces
⎛1 / 2 1 / 2 ⎞
J = det⎜⎜ ⎟⎟ = −1 / 2 .
h− 1 ⎝1 / 2 − 1 / 2 ⎠

⎛u +v⎞ ⎛u −v⎞1
f UV (u, v) = f XY (h −1 (u , v)) J I h ( B ) (u, v) = f X ⎜ ⎟ fY ⎜ ⎟
h −1
⎝ 2 ⎠ ⎝ 2 ⎠2

2 2 1 ⎛ u 2 + 2uv + v 2 + u 2 − 2uv + v 2 ⎞ 1 ⎛ u 2 +v2 ⎞


1 ⎛ u +v ⎞
− ⎜
1 ⎛ u −v ⎞
− ⎜ − ⎜ ⎟ − ⎜ ⎟
1 ⎟ 1 ⎟ 1 1 2⎜ 4 ⎟ 1 2⎜ 2 ⎟
f UV ( u , v ) = e 2⎝ 2 ⎠
e 2⎝ 2 ⎠
= e ⎝ ⎠
= e ⎝ ⎠

2π 2π 2 4π 4π

2 2
1⎛ u ⎞ 1⎛ v ⎞
− ⎜⎜ ⎟ − ⎜⎜ ⎟
1 2 ⎝ 2 ⎟⎠ 1 2 ⎝ 2 ⎟⎠
f UV ( u , v ) = e e
2π 2 2π 2

Por lo tanto U y V son v.a. independientes con distribución N(0,2).

3) (Extensión a dimensión mayor que 2). Sean X1, X2 y X3 v.a. independientes con distribución
N(0,1), hallar la distribución conjunta de (U,V,W) siendo

⎧U = X 1 + X 2 + X 3

⎨V = X 1 − X 2
⎪W = X − X
⎩ 1 3

Observar que

⎧ u+v+w
⎪ x1 =
⎧u = x1 + x 2 + x3 ⎪⎪
3
⎪ u − 2v + w
⎨ v = x1 − x 2 ⎨ x2 =
⎪w = x − x ⎪ 3
⎩ 1 3
⎪x = u + v − 2w
⎪⎩ 3
3
y, entonces

⎛1 / 3 1 / 3 1/ 3 ⎞
⎜ ⎟ 1
J h −1 = det⎜1 / 3 − 2 / 3 1 / 3 ⎟ = .
⎜1 / 3 1 / 3 − 2 / 3 ⎟ 3
⎝ ⎠

⎛ u + v + w u − 2v + w u + v − 2 w ⎞ 1
f UVW (u , v, w) = f X1 X 2 X 3 ⎜ , , ⎟
⎝ 3 3 3 ⎠3

2 2
1 ⎛ u +v+ w ⎞2 1 ⎛ u − 2v + w ⎞ 1 ⎛ u +v−2 w ⎞
1 1 − ⎜ ⎟ 1 − ⎜ ⎟⎟ 1 − ⎜ ⎟⎟
2 ⎜⎝ 2 ⎜⎝
f UVW ( u , v , w ) = e 2⎝ 3 ⎠
e 3 ⎠
e 3 ⎠
3 2π 2π 2π

Desarrollando se obtiene:
2 1 ⎛ 2 v 2 + 2 w 2 − 2 vw ⎞⎟
1 ⎛ u ⎞⎟
− ⎜⎜ − ⎜
1 2 ⎝ 3 ⎟⎠ 1 1 2⎜ 3 ⎟
f UVW ( u , v , w ) = e e ⎝ ⎠
.
2π 3 2π 3

Se observa, en particular, que U = X1+X2+X3 ~ N(0,3).

Algunos resultados importantes:

1) Si X 1 ~ N ( μ1 ,σ 12 ) y X 2 ~ N ( μ 2 ,σ 22 ) son v.a. independientes, entonces

aX 1 + bX 2 ~ N ( aμ1 + bμ 2 , a 2σ 12 + b 2σ 22 )

2) Si X 1 ,..., X n son v.a. independientes e idénticamente distribuidas, X i ~ N ( 0,1 ) y a ∈ R n es


un vector tal que a = 1 , entonces

∑a X
i =1
i i ~ N ( 0,1 )

Dem: Sea B una matriz ortogonal de dimensión n × n, cuya primer columna es el vector a y sea
X = (X 1 , X 2 ,..., X n )' . Definiendo

Y = B' X (1)

n
su primera componente es Y1 = ∑ a i X i .
i =1

El jacobiano de la transformación (1) J = det( B ) =1 pues la matriz B es ortogonal. Entonces:


1 2 1 2
1 − By 1 − y
fY ( y ) = f X ( By) = e 2
= e 2

( 2π )
n
( 2π )
n

y por lo tanto las componentes del vector Y son v.a. independientes con distribución N(0,1).
Hemos demostrado entonces que Y1, que es la primera componente, tiene distribución Normal
standard.

3) Teorema: Sean X 1 ,..., X n v.a. independientes e idénticamente distribuidas, X i ~ N ( μ ,σ 2 ) ,


entonces

1 n ⎛ σ2 ⎞ n( X − μ )
i) X = ∑ i ⎜⎜ μ , n
n i =1
X ~ N ⎟⎟ ⇒
σ
~ N ( 0 ,1 )
⎝ ⎠

( n − 1 )s 2
ii) ~ χ n2−1 siendo s 2 =
1 n
∑ (X i − X )2
σ2 n − 1 i =1

iii) X y s 2 son v.a. independientes

n( X − μ )
iv) ~ t n −1
s

Dem: No la haremos pero también se basa en hallar una transformación ortogonal adecuada. Este
Teorema lo verán nuevamente en Estadística Teórica.

Das könnte Ihnen auch gefallen