Beruflich Dokumente
Kultur Dokumente
Escuela de Ingeniera
/ Apunte de Probabilidades .
Por Sebastin Soto Rojas (spsoto@uc.cl)
Estos apuntes se encuentran basados en el texto Mathematical Statistics and Data Analysis de
John Rice (3a edicin, Duxbury Advanced Series) y se dejan a disposicin de todos aquellos
quienes deseen repasar estos tpicos para su preparacin en el curso IEE2513 Comunicaciones e
ICS2123 Modelos Estocsticos.
ndice
1. Probabilidad 3
1.1. Introduccin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2. Espacios muestrales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.3. Medidas de probabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.4. Cmputo de probabilidades: mtodos de conteo . . . . . . . . . . . . . . . . . . . . 5
1.5. Probabilidad condicional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.6. Independencia estadstica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2. Variables aleatorias 9
2.1. Variables aleatorias discretas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.2. Variables aleatorias continuas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.3. Funciones de variables aleatorias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
3. Distribuciones conjuntas 18
3.1. Introduccin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
3.2. Variables aleatorias discretas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
3.3. Variables aleatorias continuas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
3.4. Variables aleatorias independientes . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
3.5. Distribuciones condicionales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
3.6. Funciones de variables aleatorias distribuidas conjuntamente . . . . . . . . . . . . . 22
3.7. Valores extremos y estadsticos de orden . . . . . . . . . . . . . . . . . . . . . . . . 24
1
4. Valores esperados 26
6.1. Distribucin 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
6.3. Distribucin F . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
2
1. Probabilidad
1.1. Introduccin
Primero se analizar la teora de probabilidades como modelos matemticos para fenmenos alea-
torios. Luego se analizar la estadstica, preocupada de procedimientos para analizar datos, parti-
cularmente aquellos con un carcter aleatorio, por lo que es un requisito comprender antes proba-
bilidades.
Definicin:
Para una situacin que ocurre de forma aleatoria, una realizacin se conoce como experimento.
El conjunto de todos los posibles resultados del experimento se conoce como espacio muestral
y se denota por , as como un elemento se denota por .
Cuando nos interesamos por subconjuntos en particular de , estos se conocen como eventos.
Se pueden aplicar las definiciones de teora de conjuntos en el espacio muestral as como sus
eventos, incluyendo unin, interseccin, complemento y resta. Tambin puede considerarse
el evento vaco.
Dos eventos se dicen disjuntos si A1 A2 = .
Un conjunto {A1 , A2 , . . . , An } se dice mutuamente excluyente si para cada i, k se tiene que:
Ai Ak = i 6= k
3
1.3. Medidas de probabilidad
Proposicin:
2. P () = 0. Se deduce pues = c .
B = A (B Ac )
A B = A\B B\A (A B)
P (A B) = P (A\B) + P (B\A) + P (A B)
4
1.4. Cmputo de probabilidades: mtodos de conteo
Para espacios muestrales finitos las probabilidades son especialmente fciles de calcular, enume-
rando y contando los eventos favorables, de modo que:
nmeros de formas que A puede ocurrir
P (A) =
nmero total de ocurrencias
En algunos ejemplos es fcil contar el nmero de ocurrencias y calcular las probabilidades, pero
para situaciones ms complejas se deben desarrollar formas de contar las ocurrencias.
1.4.2. Permutaciones
Supongamos ahora que el muestreo se realiza con reemplazo. La primera muestra puede ser escogida
de n formas, la segunda de n 1 formas, la tercera de n 2 formas y as sucesivamente hasta la
rsima iteracin con n r + 1 formas, probando as la sigueinte proposicin:
Proposicin: Para un conjunto de tamao n y una muestra de tamao r, existen nr muestras
ordenadas con remplazo y n (n 1) (n 2) (n r + 1) muestras ordenadas sin reemplazo.
Corolario: Existen n! formas de ordenar n elementos distintos.
5
1.4.3. Combinaciones
Si ahora no estamos interesados en obtener muestras de forma ordenada, si no que ms bien de los
elementos obtenidos sin importar el orden en que se obtuvieron, estamos interesados en calcular
el nmero de combinaciones. Si r objetos son tomados de un conjunto de n objetos sin reemplazo
y sin importar el orden, cuntas combinaciones son posibles?
n
Definicin: Los nmeros k
, conocidos como coeficientes binomiales, ocurren en la expansin:
n
X
n n
(a + b) = ak bnk
k=0
k
lo cual puede interpretarse como la suma total de conjuntos posibles, de todos los tamaos, sin
importar el orden, en un conjunto de n elementos: es la suma de combinaciones de 0 elementos,
de 1 elemento, de 2 elementos y as hasta los n elementos.
n3
formas de escoger la tercera. De acuerdo al principio de multiplicacin, el total vendr
dado por:
n n n1 n n1 n2 n n1 nr1 n! (nn1 )!
=
(
(nn1 )! n1 ! (
(n((n(1 (
(
(
n1 n2 n3 nr n2 )! n2 !
(((
(n n(1 (
( ( (
nr1 )!
(((
0! nr !
6
Es decir,
n n n1 n n1 n2 n n1 nr1 n!
=
n1 n2 n3 nr n1 ! n2 ! nr !
n
Definicin: Los nmeros n1 nr
se conocen como coeficientes multinomiales y ocurren en la
expansin:
n
X n
(x1 + x2 + + xr ) = xn1 1 xn2 2 xnr r
n1 n2 nr
donde n1 , . . . , nr son tales que n1 + + nr = n.
Definicin: Sean A y B dos eventos tales que P (B) 6= 0, se define la probabilidad condicional de
A dado B como:
P (A B)
P (A|B) =
P (B)
La idea de esta definicin es que, dado que ocurri el evento B, el espacio relevante es en realidad
B en vez de , y la probabilidad condicional es una medida de probabilidad con respecto al espacio
en B.
Dado esto, se deduce la ley de multiplicacin, que nos permite calcular P (A B) dado P (A|B) y
P (B). Si A y B son eventos y P (B) 6= 0, entonces:
P (A B) = P (A|B) P (B)
Sn
Teorema: (Regla de Bayes) Sea A y B1 , . . . , Bn eventos donde Bi es disjunto, i=1 Bi = y
P (Bi ) > 0 para todo i. Entonces,
P (A|Bj ) P (Bj )
P (Bj |A) =
X
n
P (A|Bi ) P (Bi )
i=1
7
1.6. Independencia estadstica
8
2. Variables aleatorias
Definicin:
Una variable aleatoria es bsicamente un nmero aleatorio. En general, una variable aleatoria
es una funcin de a los nmeros reales. Como el resultado del experimento en es aleatorio,
el nmero producido por la funcin es asimismo aleatorio.
Una variable aleatoria discreta es una variable aleatoria que puede tomar un nmero finito
o a lo ms contable de valores.
P (X = a) ; P (X a) ; P (X > a)
P
1. Existe una funcin p (xi ) = P (X = xi ) y p (xi ) = 1. Esta funcin se conoce como la
funcin de probabilidad de masa o la funcin frecuencia de la variable aleatoria X.
P (X = xi Y = yj ) = P (X = xi ) P (Y = y : j)
9
2.1.2. La distribucin binomial
Supongamos que se realizan n experimentos o pruebas donde cada experimento resulta en xito
con probabilidad p y en falla con probabilidad 1 p. El nmero total de xitos, X, es una variable
aleatoria binomial con parmetros n y p.
Se tiene que:
n k
X Binomial (n, p) p (k) = P (X = k) = p (1 p)nk
k
donde
pk (1 p)nk
es la probabilidad de que ocurran k xitos y n k fallas, tal como se espera y
n n
k
cuenta las k
formas o secuencias sobre las cuales se puede obtener los k xitos.
Se observa entonces que si X1 , . . . , Xn son variables Bernoulli independientes entre ellas, todas con
probabilidad de xito p, entonces
Y = X1 + X2 + + Xn Binomial (n, p)
X Geomtrica(p) P (X = k) = (1 p)k1 p
Puede notarse que estas probabilidades suman uno cuando se suman todos los casos posibles
hasta infinito:
X X p
(1 p)k1 p = p (1 p)k = =1
k=1 k=0
1 (1 p)
Se observa que la distribucin binomial negativa puede expresarse como la suma de r variables
aleatorias geomtricas.
10
2.1.4. La distribucin hipergeomtrica
Suponiendo un conjunto de n elementos de dos tipos exclusivamente, habiendo r del primer tipo
y n r del segundo tipo. Si X denota el nmero de intentos del primer tipo m, sin reemplazo,
entonces X es una variable aleatoria hipergeomtrica:
r nr
k mk
X H.G.(r, n, m) P (X = k) =
n
m
donde kr denota las formas de obtener los k elementos del primer tipo en el grupo, mk
nr
las formas
n
de obtener los m k elementos del segundo tipo y m , el denominador, toma en consideracin las
n
m
formas de obtener un grupo de m elementos sobre el total de n elementos.
*1
1 n e
k
k
n! 1 *
*
= n
lm 1
k n
1
p
k! (n
k)! n
n
np=
De esta forma,
k
X Poisson () P (X = k) = e
k!
Nuevamente, puede notarse que las probabilidades suman 1:
X k
F () = e = e e = 1
k=0
k!
La distribucin Poisson peude ser utilizada para aproximar distribuciones binomiales en que n es
grande y p pequeo, lo cual a su vez sugiere cmo aparecen estas distribuciones en la prctica. Si
X es una variable aleatoria que equivale al nmero de veces que un evento ocurre en un intervalo
de tiempo dado.
11
que cuando ocurre un evento en el subintervalo es independiente de lo que ocurre en los prximos
subintervalos, entonces la variable X es prcticamente una variable binomial, con los subintervalos
consistiendo en los intentos, y por el resultado anterior X tiene casi una distribucin Poisson.
La distribucin Poisson tiene importancia terica y prctica fundamnetal. Puede ser utilizada en
muchas reas, incluyendo las siguientes:
Radioactividad. Para modelar el nmero de partculas alfa emitidas por una fuente radio-
activa durante cierto perodo de tiempo.
En muchas aplicaciones es de inters estudiar variables aleatorias que pueden tomar un continuo
de valores en vez de un conjunto contable de estos.
12
Definicin:
Una variable aleatoria continua es una variable aleatoria en la cual X puede tomar el valor
de cualquier nmero real.
Si X es una variable aleatoria con funcin de densidad f , entonces para todo a < b la
probabilidad de que X est en el intervalo (a, b) viene dada por:
b
P (a < X < b) = f (x)dx
a
Una consecuencia de la definicin anterior es que la probabilidad de que una variable continua
tome un valor en particular es cero, i.e.
c
P (X = c) = f (x) dx = 0
c
Para un pequeo , si f es continua en x, entonces de acuerdo al teorema del valor medio integral
se tiene que:
x+/2
P x X x+ = f (t) dt f (x)
2 2 x/2
13
2.2.1. La distribucin uniforme
Respondiendo a la pregunta escoge un nmero al azar entre 0 y 1, se tiene una variable aleatoria
cuya distribucin es la uniforme entre [0, 1]. La densidad viene dada por:
(
1, si 0 x 1,
f (x) =
0, en otro caso.
De este modo la integral en todo R es 1 y asigna una densidad de probabilidad igual para cada
nmero. En general, para el intervalo [a, b] la funcin de densidad es:
(
1/(b a), si a x b,
X Uniforme(a, b) f (x) =
0, en otro caso.
donde > 0 es el nico parmetro al igual que en la distribucin Poisson. La distribucin acumu-
lada viene dada por: (
x
1 ex , si x 0,
F (x) = f (x)dx =
0, si x < 0.
El despeje de la mediana es directo:
1 log 2
1 e = =
2
La distribucin exponencial se usa para modelar tiempos de vida o tiempos de espera, reemplazando
x por t en dicho contexto.
14
Relacin con el proceso Poisson. Supongamos que un evento ocurre en el tiempo como un
proceso Poisson con parmetro en un instante t0 . Sea T el tiempo para la prxima ocurrencia
del evento. Entonces,
P (T > t) = P (sin eventos en [t0 , t0 + t])
Como el nmero de eventos en el intervalo (t0 , t0 + t), de largo t, sigue una distribucin Poisson
con parmetro t, la probabilidad es et y por lo tanto T sigue una distribucin de parmetro.
Si el siguiente evento ocurre en un tiempo t1 , la distribucin para la siguiente ocurrencia sigue
siendo exponencial e independiente de la distancia de tiempo entre los eventos.
La distribucin Gamma tiene como densidad a una funcin que depende de dos parmetros, y
:
1 t
T Gamma (, ) g (t) = t e , t0
()
Para t < 0, g (t) = 0. Se define la funcin Gamma como:
4
(x) = ux1 eu du, x>0
0
Si = 1 se recupera la densidad exponencial. Este parmetro se denomina parmetro de forma y
se denomina parmetro de escala.
La distribucin beta es til para modelar variables que se encuentran restringidas al intervalo [0, 1]:
(a + b) a1
X B (a, b) f (x) = u (1 u)b1 ; 0u1
(a) (b)
Si a = b = 1 se recupera la distribucin uniforme.
15
2.3. Funciones de variables aleatorias
Supongamos que una variable aleatoria X tiene una funcin densidad f (x). Surge la pregunta:
cul es la funcin de densidad de Y = g(X) para una funcin g dada? A modo de ejemplo, X
puede ver la velocidad de una partcula de masa m y estamos interesados en obtener la funcin de
densidad probabilstica para su energa cintica, Y = 21 mX 2 .
FY (y) = P (Y y)
= P (aX + b y)
yb
= P X
a
yb
= FX
a
Luego,
d yb 1 yb
fY (y) = FX = fX
dy a a a
Es decir, "
2 #
1 1 y b a
fY (y) = exp
a 2 2 a
Se sigue que X N , 2 Y N a + b, a2 2 .
Esta proposicin es til para encontrar probabilidades de la distribucin normal. Supongamos que
X N (, 2 ) y se desea buscar P (x0 < X < x1 ) para algunos nmeros x0 y x1 . Se tiene que:
x0 X x1
P (x0 < X < x1 ) = P < <
Se sigue que Z = (X ) / N (0, 1), para la cual est calculada numricamente en la tabla su
distribucin de probabilidad. Luego,
x1 x0
P (x0 < X < x1 ) =
16
2.3.2. La distribucin 2
Es comn que dado Z N (0, 1) se desee encontrar la densidad de X = Z 2 . En este caso, se tiene
que:
FX (x) = P (X x)
= P xZ x
= x x
Derivando, y utilizando la regla de la cadena:
1 1 1
fX (x) = x + x = x
2 x 2 x x
donde se us el hecho de que la distribucin estndar es simtrica con respecto al origen. De esta
forma,
1
X 2 fX (x) = ex/2 , x 0
2x
1
Se puede observar que esta es una funcin gamma con = = 2
y se conoce como distribucin
2 con un grado de libertad.
Observando estos ejemplos, se observan ciertas etapas bsicas en cada caso: calcular la cdf de la
variable transformada y luego diferenciar con respecto a la variable para encontrar la densidad.
Proposicin: Sea X una variable aleatoria continua con densidad f (x) y sea Y = g (X) donde
g es una funcin diferenciable y estrictamente montona en un intervalo I. Supongamos que f (x)
si x no est en I. Luego, Y tiene la funcin de densidad
dg 1
fY (y) = fX g 1 (y) (y)
dy
Para las siguientes proposiciones, considrese una variable aleatoria cualquiera X con densidad f
y distribucin acumulada F .
Proposicin:
Estas proposiciones son tiles para generar nmeros pseudoaleatorios dada una cdf. Los compu-
tadores suelen traer rutinas para generar nmeros pseudoaleatorios con distribucin uniforme en
[0, 1]. Se dicen pseudoaleatorios porque son generados de acuerdo a cierta regla o algoritmo que
no son en realidad aleatorios pero para los propsitos de modelacin logran serlo. La segunda pro-
posicin plantea que basta aplicar F 1 para a los nmeros uniformemente aleatorios para obtener
los resultados.
17
3. Distribuciones conjuntas
3.1. Introduccin
Esto puede comprenderse observando la siguiente figura, donde se sustraen ambos recuadros de
los extremos y luego se le suma el externo para recuperar lo perdido por la sustraccin de los
Chapter 3 recuadros
Joint Distributions
de los extremos:
y y
b y2
y1
x x
a x1 x2
G U R E 3.1 F (a, b) gives the probability of the F I G U R E 3.2 The probability of the shaded
aded rectangle. Figurarectangle
3.1: Probabilidad buscada from
can be found by subtracting marcada
the en gris.
probability of the (semi-infinite) rectangle having
the upper-right corner (x2 , y2 ) the probabilities of
the (x1 , y2 ) and (x2 , y1 ) rectangles, and then adding
Este mismo razonamiento puede back extenderse
in the probability a nof variables aleatorias:
the (x1 , y1 ) rectangle.
F (x1 , . . . , xn ) = P (X1 x1 , X2 x2 , . . . , Xn xn )
The probability that (X, Y ) belongs to a set A, for a large enough class of sets
for practical purposes, can be determined by taking limits of intersections and unions
of rectangles. In general, if X 1 , . . . , X n are jointly distributed random variables, their
joint cdf is
18
F(x1 , x2 , . . . , xn ) = P(X 1 x1 , X 2 x2 , . . . , X n xn )
3.2. Variables aleatorias discretas
Para encontrar la funcin de frecuencia de Y se suma sobre todos los x, por lo cual py se conoce
como la funcin de frecuencia marginal de Y . De forma anloga,
4
X
pX (x) = p (x, yi )
i
Definicin: Supongamos que X e Y son variables aleatorias con una cdf conjunta F (x, y), se
define su funcin de densidad conjunta como como la funcin continua a tramos f (x, y) que es
nonegativa y tal que
f (x, y) dxdy = 1
R2
19
Se sigue del Teorema Fundamental del Clculo que:
2F 2F
f (x, y) = (x, y) = (x, y)
xy yx
De forma anloga al caso univariable, se sigue que:
FX (x) = P (X x) = lm F (x, y)
y
x
= f (u, y) dydu
P (X A Y B) = P (X A) P (Y B)
Se puede demostrar asimismo que si g y h son funciones, entonces g (X) y h (Y ) son independientes
tambin.
20
3.5. Distribuciones condicionales
Ejemplo Supongamos que el contador de partculas es imperfecto e independientemente
detecta cada partcula entrante con probabilidad p. Si la distribucin del n-
mero entrante de partculas en una unidad de tiempo distribuye Poisson con
parmetro , cul es la distribucin del nmero de partculas contadas?
Solucin:
21
Es decir, X Poisson (p).
3.6.1. Sumas
Sean X e y variables aleatorias discretas tomando valores en los enteros y teniendo una funcin de
frecuencia conjunta p (x, y) y sea Z = X + Y. Para encontrar la funcin frecuencia de Z, notamos
que Z = z cuando X = x e Y = z x, donde x es un entero. La probabilidad de que Z = z es por
lo tanto la suma sobre todos los x de estas probabilidades conjuntas, es decir,
X
pZ (z) = p (x, z x)
x=
22
3.6.2. Cocientes
Consideremos ahora el caso del cociente entre dos variables continuas aleatorias. La derivacin es
similar a la deducida para la suma de dichas variables. Supongamos que X e Y son continuas con
una densidad conjunta f y sea Z = Y /X, entonces FZ (z) = P (Z z) . Si X > 0, entonces es
equivalente a buscar y xz, si X < 0, a buscar y xz. Luego,
0 xz
FZ (z) = f (x, y) dydx + f (x, y) dydx
xz 0
Ejemplo Suponiendo que X e Y son variables independientes que distribuyen normal
estndar. Calculemos la distribucin de Z = Y /X.
Solucin:
Haciendo u = x2 du = 2x dx:
1 1
eu(1+z )/2 du =
2
fZ (z) =
2 0 (z 2+ 1)
Esta funcin de densidad se conoce como densidad de Cauchy y est definida para todo z.
23
3.6.3. Caso general
Para el caso general, suponemos que X e Y son variables aleatorias continuas distribuidas conjun-
tamente y que X e Y son mapeados en U y V bajo la transformacin:
u = g1 (x, y)
v = g2 (x, y)
De acuerdo al Teorema de la Funcin Inversa, de existir la inversa, deber cumplirse que:
(g1 , g2 ) g1 g2 g2 g1
= 6= 0
(x, y) x y x y
Esto lleva directamente al siguiente resultado, que puede ser demostrado mediante lo aprendido
del teorema de sustitucin de integrales dobles en el curso de clculo en varias variables:
Proposicin: Bajo los supuestos mencionados anteriormente, la distribucin conjunta de U y V
es: 1
(g1 , g2 )
fU V (u, v) = fXY (h1 (u, v) , h2 (u, v))
(x, y)
para (u, v) tal que u = g1 (x, y) y v = g2 (x, y) para algunos (x, y) y cero en otro caso.
El resultado es extendible a Rn de forma similar, obteniendo as que:
1
(g1 , . . . , gn )
fY1 YN (y1 , . . . , yn ) = fX1 Xn (x1 , . . . , xn )
(x1 , . . . , xn )
Sean X1 , X2 , . . . , Xn variables independientes y aleatorias con una cdf comn F y densidad f (iid.,
independientes e idnticamente distribuidas). Sea U el mximo de Xi y V el mnimo. Las cdfs de
U y V , y por lo tanto sus densidades, sern calculadas.
24
Ahora asumamos los mismos supuestos, ordenamos los Xi y denotamos esta lista por:
Estos resultados se conocen como estadsticos de orden. Debe notarse de inmediato que no necesa-
riamente X1 = X(1) . Se nota aqu que X(1) es el mnimo, X(2) el mximo y si n = 2m + 1, entonces
X(m+1) es la mediana de Xi .
n!
fk (x) = f (x) F k1 (x) [1 F (x)]nk
(k 1)! (n k)!
25
4. Valores esperados
El concepto de valor esperado de una variable aleatoria recuerda la nocin de promedio ponderado.
Los posibles valores de una variable aleatoria son ponderados por sus probabilidades, tal como se
especifica en la siguiente definicin:
Definicin: Sea X una variable aleatoria discreta con funcin de frecuencia p (x), el valor esperado
o promedio de X, denotado por E (X), es:
4
X
E (x) = xi p (xi )
i
Tambin suele denotarse por X y puede entenderse como el centro de masa de la funcin
frecuencia.
Bajo esta definicin, calculemos el promedio de cada una de las distribuciones discretas enunciadas
en el captulo 2.
E (X) = p 1 + (1 p) 0 = p
Finalmente,
E (X) = np
26
Geomtrica. Se tiene que:
X
X
k1
E (X) = k (1 p) p=p k (1 p)k1
k=1 k=1
d X
= p (1 p)k
dp k=0
d 1 d 1
= p = p
dp 1 (1 p) dp p
Finalmente,
1
E (X) =
p
Es decir, si la probabilidad es 10 % de ocurrencia de un error, entonces tras 10 inspecciones
se espera que aparezca un artculo defectuoso.
Binomial negativa. Se tiene que
X X
k1 r kr (k 1)!
E (X) = k p (1 p) = k pr (1 p)kr
k=r
r1 k=r
(r 1)! (k r)!
pr X
= (k r + 1) (k r + 2) (k 1) k (1 p)kr
(r 1)! k=r
r X
pr r d k pr dr 1
= (1) (1 p) =
(r 1)! dpr k=0 (r 1)! dpr p
pr r!
= (1)2r r+1
(r 1)! p
Finalmente,
r
E (X) =
p
Finalmente,
E (X) =
Entonces el parmetro de la distribucin Poisson puede interpretarse como la cuenta pro-
medio de ocurrencias.
27
En el caso discreto, es razonable e intuitivo que se reemplaza la suma por la integracin. Se tiene
entonces la siguiente definicin:
Bajo esta definicin se puede calcular la esperanza para diversas distribuciones continuas:
1. Uniforme. Mediante esta definicin, podemos realizar los mismos clculos para las diversas
densidades:
b
x 1 b 2 a2 a+b
E (X) = dx = =
a (b a) ba 2 2
Lo cual es un resultado razonable considerando que es el centro de masa de la funcin
densidad.
28
Es decir,
E (x) =
Demostracin:
Se probar para el caso continuo, considerando que es anlogo para el caso con sumatoria. Sepa-
rando integrales, se tiene que:
t
E (X) = xp (x) dx + xp (x) dx xp (x) dx t p (x) dx = tP (X t)
t t t
29
2. Si X es continua con funcin de densidad f (x), entonces:
E (Y ) = g (x) f (x) dx
siempre que |g(x)|f (x)dx < .
Se puede demostrar exactamente el mismo resultado para funciones de varias variables. De aqu
se nota de inmediato que E [g (x)] 6= g [E (X)].
E [g (X) h (Y )] = E [g (X)] E [h (Y )]
Teorema:
PSi X1 , . . . , Xn son variables aleatorias conjuntas con esperanzas E (Xi ) e Y es la funcin
n
Y = a + i=1 bi Xi , entonces:
X n
E (Y ) = a + bi E (Xi )
i=1
Se introducir el concepto de desviacin estndar de una variable aleatoria, la cual indica cun
dispersa est la distribucin de probabilidad respecto a su esperanza. Primero se definir la varianza
de una variable aleatoria y luego la desviacin estndar en trminos de la varianza.
Definicin: Si X es una variable aleatoria con valor esperado E (x) = , entonces la varianza de
X es
4
Var (X) = 2 (X) = E (X )2
Asimismo, se define la desviacin estndar como:
p
(X) = Var (X)
donde se usa esta medida para hacer coincidir las unidades de medicin de la variable.
30
y en el caso continuo:
Var (X) = (x )2 f (x) dx
Teorema: Si Var (X) existe e Y = a+bX, entonces Var (Y ) = b2 Var (X) y por lo tanto Y = |b|X .
Demostracin:
Se tiene que:
Var (Y ) = E (Y Y )2
= E (a + bX a bX )2
= E b2 (X X )2
= b2 E (X X )2
Finalmente,
Var (Y ) = b2 Var (X)
Se tiene que:
Var (X) = E (X )2 = E X 2 2X + 2
= E X 2 2 E (X) +2
| {z }
Finalmente,
Var (X) = E X 2 2
Considerando la descripcin dada de la varianza como indicacin de qu tan dispersos estn los va-
lores de una variable aleatoria, existe una famosa desigualdad para entregar un aspecto cuantitativo
de este indicador:
Teorema: (Desigualdad de Chebyshev) Sea X una variable aleatoria con media y varianza 2 ,
entonces para cualquier t > 0:
2
P (|X | > t) 2
t
Este teorema plantea que si 2 es muy pequeo, entonces hay una alta probabilidad de X no se
desve mucho de . Otra interpretacin puede hacerse haciendo t = k:
1
P (|X | > k)
k2
31
Es decir, la probabilidad de que X se aleje una distancia k (o k veces la desviacin) de la media
es menor a 1/k 2 , donde a medida que se aumenta k disminuye la probabilidad.
Demostracin:
P (|X | ) > 0
P (|X | ) 0
Los valores de las constantes fsicas no son conocidas con precisin pero deben ser determinadas
mediante procedimientos experimentales. Operaciones tan sencillas como pesar un objeto, deter-
minar un voltaje o medir un intervalo de tiempo son en realidad bastante complicadas cuando se
toman en cuenta todos los detalles y posibles fuentes de error.
Una distincin realizada usualmente es aquella entre error aleatorio y error sistemtico, donde
el primero puede producir errores en las mediciones sin cambiar deliberadamente variables en el
experimento, mientras que el segundo puede producirse en cada medicin, como consecuencia de la
mala calibracin de instrumentos o errores asociados con la teora detrs del mtodo de medicin.
Si el valor real que se desea medir se denota por x0 , entonces la medida X se modela como:
X = x0 + +
E (X) = x0 +
y que
Var (X) = 2
donde se llama comnmente el sesgo del procedimiento de medicin. Los dos factores afectando
el tamao del error son el sesgo y el tamao de la varianza, 2 . Una medicin perfecta (e ideal)
debiese entregar = 0 y 2 = 0.
Definicin: Una medida del tamao del error total de medicin que se usa comnmente es el
error cuadrtico medio (MSE, por sus trminos en ingls mean squared error), el cual se define
como:
MSE (X, x0 ) = E (X x0 )2
32
El error cuadrtico medio, que es la desviacin cuadrtica esperada de X con respecto a x0 , puede
ser descompuesta en el sesgo y la varianza.
Teorema: MSE = 2 + 2 .
Demostracin:
E (X x0 )2 = Var (X x0 ) + [E (X x0 )]2
= Var (X) + 2
= 2 + 2
siempre que esta esperanza exista. De aqu se sigue que Var (X) = Cov (X, X).
Realizando una expansin de trminos, se puede encontrar una expresin equivalente para la co-
varianza:
Cov (X, Y ) = E (XY ) X Y
De aqu se puede notar que si X e Y son independientes, entonces E (XY ) = E (X) E (Y ) = X Y
y por lo tanto la covarianza es cero (pero la expresin recproca no es verdadera).
33
3. Cov (X, Y + Z) = Cov (X, Y ) + Cov (X, Z).
4. CoV (aW + bX, cY + dZ) = ac Cov (W, Y ) + ad Cov (W, Z) + bc Cov (X, Y ) + bd Cov (X, Z).
Pn Pm
Teorema: Si U = a + i=1 bi Xi y V = c + j=1 dj Yj , entonces:
X
n X
m
Cov (U, V ) = bi dj Cov (Xi , Yj )
i=1 j=1
Corolario:
!
X
n X
n X
n
1. Var a + bi X i = bi bj Cov (Xi , Xj ).
i=1 i=1 j=1
!
X
n X
n
2. Var Xi = Var (Xi ) si Xi son independientes.
i=1 i=1
Cov (X, Y ) XY
= p =
Var (X) Var (Y ) X Y
Puede notarse que el cociente ser adimensional. Se sigue de forma sencilla que ante transforma-
ciones lineales de X e Y el cociente de correlacin no cambia. Como no depende de las unidades de
medicin y no discrimina las transformaciones lineales que se le puedan efectuar a las variables, el
cociente de correlacin es en muchos casos una medida til de asociacin, ms que la covarianza.
Demostracin:
34
de donde se observa que 1. Similarmente, se puede demostrar que:
X Y
0 Var = 2 (1 ) 1
X Y
para alguna constante c. Por lo tanto, P (Y = a + bX) = 1 para algunos a y b, y de forma anloga
para = 1.
Ejemplo La distribucin normal bivariada, de parmetros X , Y , X , Y y tiene como
funcin de densidad:
" #!
1 1 (x X )2 (y Y )2 2 (x X ) (y Y )
f (x, y) = exp 2
+ 2
2 (1 2 )
p
2X Y 1 2 X Y X Y
Solucin:
35
a:
X Y 2 v2 /2 X Y 2 v2 /2
Cov (X, Y ) = v e dv = 2 v e dv
146 Chapter 4 Expected Values 2 2 0
X Y t 2 3
= 2 F
As in Example in Section 3.3, we
2t eusedt Xofcompleting
the=technique Y the square to
2as 0
rewrite this expression 2
" #" $ % &
X Y
2 1 2
! v exp(v /2) 2u exp 2(11 2 )1(u v) du dv
22 3 =
2 1 =
X Y
X Y
2 2
2 2
The inner integral is the mean of an N [v, (1 )] random variable, lacking only
Finalmente, the normalizing constant [2(1 2 )]1/2 , and we thus have
"
Cov (X,
Y X
) =Y 2 v 2 /2
Cov(X, Y ) = X v Ye dv = X Y
2
Esto implica que elascoeficiente de correlacin es (coincidente con el parmetro dela distri-
was to be shown.
bucin) para la distribucin normal bivariada.
The correlation coefficient measures the strength of the linear relationship
between X and Y (compare with Figure 3.9). Correlation also affects the appearance
El coeficiente de correlacin mide la fuerza de una relacin lineal entre X e Y . La correlacin
of a scatterplot, which is constructed by generating n independent pairs (X i , Yi ),
tambin afecta a la apariencia
where i = del
1, . grfico
. . , n, anddeplotting
muestras en el Figure
the points. plano4.7coordenado, construido
shows scatterplots of 100 al generar
pares de variables independientes (Xi , Ybivariate
pairs of pseudorandom i ). En la siguiente
normal randomfigura sefor
variables puede observar
various values of el
. coeficiente
Note that the
de correlacin para distintos clouds
tipos de ofvariables
points are aleatorias
roughly elliptical
con inciertos
shape. grados de independencia:
y y
3 3
2 2
1 1
0 0
!1 !1
!2 !2
!3 x !3 x
!2 !1 0 1 2 3 4 !2 !1 0 1 2 3 4
(a) (b)
y y
4 4
3 3
2 2
1 1
0 0
!1 !1
!2 !2
!3 x !3 x
!2 !1 0 1 2 3 4 !2 !1 0 1 2 3 4
(c) (d)
36
4.4. Esperanza condicional y prediccin
4.4.1. Definiciones
Siempre asociada a una distribucin condicional hay asociada una esperanza condicional.
Teorema: E (Y ) = E [E (Y |X)].
Demostracin:
lo cual es cierto pues es la definicin de esperanza. El tercer paso se dio utilizando la ley de
probabilidades totales.
37
Ejemplo Consideremos las sumas del tipo
X
N
T = Xi
i=1
donde N es una variable aleatoria con esperanza finita y Xi son variables alea-
torias que son independientes de N y tienen esperanza comn X . Calcular
E (T ).
Solucin:
Se tiene que:
E (T ) = E [E (T |N )]
Se tiene que E (T |N = n) = nX E (T |N ) = N X . Entonces,
E (T ) = E (N X ) = N X
Ejemplo Continuando el ejemplo anterior, asumamos tambin que Xi son variables inde-
pendientes con la misma media X y varianza X2
. Calcular Var (T ).
Solucin:
Se tiene que:
Var (T ) = Var [E (T |N )] + E [Var (T |N )]
Se tiene que E (T |N ) = N X y
!
X
N
Var (T |N ) = Var Xi
i=1
Como las variables son independientes, desaparecen los trminos asociados a las covarianzas,
de modo que: !
XN XN
2 2
Var (T |N ) = Var Xi = X = N X
i=1 i=1
Luego, reemplazando,
2
Var (T ) = Var (N X ) + E N X
= 2X Var (N ) + X
2
N
38
4.4.2. Prediccin
En esa seccin se trata el problema de predecir el valor de una variable aleatoria a partir de otra,
tal como se podra desear, por ejemplo, al medir una variable fsica utilizando un instrumento.
Asumamos que las mediciones deben medirse a travs de un instrumento que produce una respuesta
X, relacionada con Y de cierta forma pero corrompida por ruido aleatorio. Y y X tienen una
distribucin conjunta, y deseamos predecir la variable Y a partir de la respuesta del instrumento
X.
Partamos de la situacin trivial: deseamos predecir Y por una constante c, donde el mejor valor
de c debe ser obtenido a partir de la medicin de la efectividad de la prediccin. Una medicin
ampliamente utilizada es el error cuadrtico medio:
MSE = E (Y c)2
El problema consiste en encontrar c que minimice el MSE. Denotemos E (Y ) por y observemos
que:
E (Y c)2 = Var (Y c) + E2 (Y c)
= Var (Y ) + ( c)2
El primer trmino es constante y el segundo se minimiza tomando = c.
Consideremos ahora el problema de predecir Y por una funcin h (X) de modo de minimizar
MSE = E2 [Y h (X)]. Se tiene entonces que:
E2 [Y h (X)] = E E (Y h(X))2 |X
La esperanza de adentro se minimiza haciendo h(x) = E (Y |X = x) de acuerdo al resultado obte-
nido en la parte anterior. Entonces,
h (X) = E (Y |X)
Definicin: La funcin generadora de momentos de una variable aleatoria X es M (t) = E etX
si esta est definida. En el caso discreto,
X
M (t) = etx p (X) ,
x
y en el caso continuo
M (t) = etx f (x) dx.
39
Proposicin: Si la funcin generadora de momentos existe en un intervalo abierto conteniendo al
cero, entonces
M (r) (0) = E (X r )
donde (r) representa r veces la derivacin con respecto a t.
Demostracin:
= f (x) xr etx dx
Haciendo t = 0:
(r) 4
M (0) = xr f (x) dx = E (X r )
Demostracin:
Se tiene que:
MY (t) = E etY
= E eat+btX
= eat E ebtX
= eat MX (bt)
Por induccin esta propiedad puede extenderse a la suma de una cantidad arbitraria de variables
aleatorias independientes. Esta propiedad es muy til en las funciones generadoras de momentos.
40
4.5.1. Clculo de funciones generadoras de momentos
= e(e 1)
t
M 00 (t) = et e(e 1) + 2 e2t e(e 1) M 00 (t) = E X 2 = 2 +
t t
Notamos que:
(x )2 x2 2x + 2 2 2 tx
tx =
2 2 2 2
x 2 ( + 2 t) x + (2 + 2 2 t + 4 t2 ) (2 2 t + 4 t2 )
2
=
2 2
2
(x 2 t) t (2 + t 2 )
= +
2 2 2
Es decir,
t 2+t 2
( ) (x2 t)
2
t 2+t 2
( )
1
M (t) = e 2 e 2 2 dx = e 2
2
De aqu:
M (0) = 1
M 0 (0) = E (X) =
M 00 (0) = + 2 Var (X) = 2
Se puede haber obtenido el mismo resultado notando que Y = + X y calculando el
resultado para la distribucin normal estndar, mucho ms sencilla de calcular.
41
Distribucin Gamma. Por definicin:
tx 1 x
M (t) = e x e dx = x1 ex(t) dx
0 () ()
|0 {z }
()/(t)
Luego,
M (t) =
t
Se puede demostrar as que:
M 0 (0) = E (X) =
( + 1)
M 00 (0) = E X 2 = 2
Var (X) = 2
Es decir, X + Y Poisson ( + ) .
= e(+)t+t ( + )/2
2 2 /2 2 2 /2 2 2 2
MX+Y (t) = et+t et+t
Es decir, X + Y N + , 2 + 2
42
5. Teoremas de los lmites
Es habitual pensar que si una moneda se lanza muchas veces y se calcula la proporcin entre
caras y sellos, la proporcin ser cercana a 1/2. John Kerrich, un matemtico sudafricano prob
esta creencia empricamente mientras fue un prisionero de la Segunda Guerra mundial. Lanz la
moneda 10.000 veces y observ 5.067 caras.
La ley de nmeros grandes es una formulacin matemtica de esta creencia. Los lanzamientos
sucesivos de monedas son modelados como intentos aleatorios independientes. La variable aleatoria
Xi toma el valor 0 o 1 de acuerdo a los resultados del intento isimo en una cara o un sello, y la
proporcin de caras y sellos en n intentos es:
1X
n
Xn = Xi
n i=1
La ley de nmeros grandes plantea que X n tiende a 1/2 tal como se plantea en el siguiente teorema:
Demostracin:
Primero encontramos E X n y Var X n :
1X
n
E Xn = E (Xi ) =
n i=1
1 X
n
2
Var X n = 2 Var (Xi ) =
n i=1 n
43
Haciendo n se cumple el teorema del sndwich y por lo tanto:
lm P |X n | > = 0
n
lm P (|Zn | > ) = 0
n
para todo > 0 y donde es un escalar, entonces se dice que Zn converge en probabilidad a .
Ejemplo Integracin Monte Carlo. Supongamos que se desea calcular
1
I (f ) = f (x) dx
0
Solucin:
El mtodo ms comn es aproximar la integral mediante una suma y otro mtodo es el mtodo
de Monte Carlo. Se generan variables aleatorias uniformes en [0, 1] X1 , X2 , . . . , Xn para calcular
1X
n
I (f ) = f (Xi )
n i=1
Por la ley de nmeros grandes, esto debe ser cercano a E [f (X)] que en este caso no es ms
que 1
E [f (X)] = f (x) dx = I (f )
0
Ejemplo Mediciones repetitivas. Supongamos que repetidas mediciones no sesgadas
X
1 , X2 , . . . , Xn se hacen sobre una cantidad. Si n es grande, entonces de acuerdo
a la ley de nmeros grandes se tendr que X ser cercano a , pero qu tan
cercano depende del error de medicin 2 , tal como se pudo observar en la
medicin del teorema?
Solucin:
44
puede ser estimado de los datos para estimar la precisin de X. Primero, notamos que
1X 2
n
Xi E X 2
n i=1
g (Zn ) g ()
1X 2
n
2
lm Xi X = E X 2 E2 (X) = Var (X)
n n
i=1
1X r
n
lm Xi = E (X r )
n n
i=1
En muchas ocasiones deseamos calcular P (a < X < b) pero no sabemos la cdf X precisamente y
se puede hacer en ocasiones aproximando FX mediante un argumento asinttico. El teorema del
lmite ms famoso en teora de probabilidades es el teorema del lmite central. Antes de examinarlo,
se desarrollar terminologa introductoria, teora y ejemplos.
lm Fn (x) = F (x)
n
45
Nos enfocaremos ahora en el teorema del lmite central, el cual se preocupa de la propiedad
asinttica de sumas de variables aleatorias. Si X1 , X2 , . . . , Xn es una sucesin de variables aleatorias
independientes con media y varianza 2 y si
X
n
Sn = Xi
i=1
Sabemos por la ley de nmeros grandes que Sn /n converge en probabilidad a . Esto se sigue por
el hecho de que:
Sn 1 2
Var = 2 Var (Sn ) = 0
n n n
El teorema del lmite central se preocupa no del hecho de que Sn /n converge a este cociente si no
cmo Sn /n flucta cerca de . Para analizar estas situaciones estandarizaremos:
Sn n
Zn =
n
donde Zn tiene esperanza 0 y varianza 1, como es fcil de notar:
1 n n
E (Zn ) = [E (Sn ) n] = =0
n n
Var (Sn )
Var (Zn ) = =1
n 2
El teorema del lmite central plantea que la distribucin de Zn converge a la distribucin normal
estndar.
Teorema. (Teorema del lmite central) Sean X1 , X2 , . . . , Xn una secuencia de variables aleatorias
independientes teniendo cada una de ellas media 0 y varianza 2 y la funcin de distribucin comn
F y la funcin generadora de momentos M definida en una vecindad de cero. Sea
X
n
Sn = Xi
i=1
Entonces,
Sn
lm P x = (x) ; < x <
n n
Se suele usar la notacin
para indicar la tendencia asinttica. En otras palabras, el teorema
enuncia que:
Sn
N (0, 1)
n
Demostracin:
Sea Zn = Sn /( n). Demostraremos que la funcin generadora de momentos de Zn tiende a la fun-
cin generadora de momentos de la distribucin normal. Con ello, por unicidad de la transformada
inversa de Laplace, habremos demostrado que ambas distribuciones en el lmite son iguales.
46
Se tiene por propiedades de la funcin generadora de momentos que:
n n t
MSn (t) = M (t) MZn (t) = M
n
Luego, M (s) puede expandirse en Taylor en torno al origen con un polinomio de orden 2. Este es
el hecho central de la demostracin:
s2 00
M (s) M (0) + sM 0 (0) + M (0)
2
Como M (0) = f (x)dx = 1, M 0 (0) = 0 y M 00 (0) = 2 , entoncess cuando n t/( n) 0
y por lo tanto:
2
t 1 2 t
M = 1+ + n
n 2 n
t2
= 1+ + n
2n
n
donde 0 cuando n . Reemplazando, se tendr que:
t /n 2
2
n
t2
MZn (t) 1+
2n
2
donde et /2 es la funcin generadora de momentos de la distribucin normal estndar, justo como
que sera demostrar y concluyendo as la demostracin del teorema. Notar que este teorema exige
que exista como mnimo la segunda derivada de la funcin generadora de momentos.
Ejemplo Como la distribucin uniforme en [0, 1] tiene media 1/2 y varianza 1/12, la suma
de 12 variables aleatorias uniformes, menos 6, tiene media 0 y varianza 1. La
distribucin de esta suma es muy cercana a la normal, tan cercana que fue uno
de los algoritmos iniciales para generar nmeros aleatorios normales antes de
que existieran algoritmos ms sofisticados.
Solucin:
La siguiente figura muestra un histograma con 1000 de dichas sumas de 12 nmeros aleatorios
entre 0 y 1. El ajuste a la distribucin normal es sorprendentemente correcto, especialmente
considerando que 12 es un nmero pequeo para considerar que n tiende a infinito:
47
ically, but we will content ourselves with a simple demonstration. Figure 5.1 shows
a histogram of 1000 such sums with a superimposed normal density function. The fit
is surprisingly good, especially considering that 12 is not usually regarded as a large
value of n.
250
200
150
Count
100
50
0
!4 !2 0 2 4 6
Value
Ejemplo La suma de n variables exponenciales aleatorias con parmetro = 1 sigue una
distribucin gamma con =1 y = n. La siguiente figura muestra la cdf de
la funcin gamma estandarizada y la cdf de la funcin normal estandarizada a
medida que n aumenta. Se comprueba cmo a medida que se aumenta n (y por
lo tanto ) las distribuciones comienzan a parecerse.
Solucin:
48
exponential density is quite skewed; therefore, a good approximation of a standardized
gamma by a standardized normal would not be expected for small n. Figure 5.2 shows
the cdfs of the standard normal and standardized gamma distributions for increasing
values of n. Note how the approximation improves as n increases.
1.0
.8
Cumulative probability
.6
.4
.2
0
!3 !2 !1 0 1 2 3
x
I G U R E 5.2 The standard normal cdf (solid line) and the cdf s of standardized
Figura 5.2: Lnea slida:Fgamma
distribucin normal estndar. Lneas punteadas largas: = 5.
distributions with = 5 (long dashes), = 10 (short dashes), and = 30 (dots).
Lneas punteadas cortas: = 10. Puntos: = 30.
Let us now consider some applications of the central limit theorem.
49
1X
n
donde como X = Xi entonces n X / ( n) N
(0, 1). De esta forma,
n i=1
c X c c n c n
P |X | < c = P < <
/ n / n / n
50
6. Distribuciones derivadas de la distribucin normal
En este captulo se estudian tres distribuciones derivadas de la distribucin normal. Estas distri-
buciones ocurren en diversos problemas estadsticos.
6.1. Distribucin 2
X N (0, 1) X 2 21
2
X (X )2
X N , N (0, 1) 21
2
Tal como dedujimos en el captulo 4, la suma de variables Gamma con mismo parmetro de escala
distribuye Gamma con el mismo parmetro de escala y la suma de sus parmetros de forma.
Entonces, 2n = ( = 1/2, = n/2) y por lo tanto la funcin de densidad es:
1
X 2n f (v) = v (n/2)1 ev/2 ; v0
2n/2 (n/2)
M (t) = (1 2t)n/2
Definicin:
p Si Z N (0, 1) y U 2n y Z y U son independientes, entonces la distribucin de
Z/ U/n se denomina la distribucin t-student con n grados de libertad. En otras palabras,
Z
p t (n)
U/n
51
Se puede demostrar con los procedimientos ya demostrados en el captulo 3 que la funcin de
densidad de esta distribucin es:
(n+1)/2
[(n + 1) /2] t2
X t (n) f (t) = 1+ ; < t <
n (n/2) n
Se observa con facilidad que la distribucin es simtrica en torno a cero. Asimismo, se puede notar
que cuando n la distribucin tiende a ser la distribucin normal estndar. En otras palabras,
Z
p N
(0, 1)
U/n
En efecto, para 20 o 30 grados de libertad las distribuciones ya son muy similares. En la siguiente
figura se muestran algunas distribuciones t, donde puede notarse como las colas de la distribucin
a los extremos tienden a alivianarse (hacerse ms planas e inclinadas a cero) a medida que los
grados de libertad aumentan.
194 Chapter 6 Distributions Derived from the Normal Distribution
.4
.3
Density
.2
.1
0
!3 !2 !1 0 1 2 3
x
DEFINITION
Let U and V be independent chi-square random variables with m and n degrees
of freedom, respectively. The distribution of
U/m
6.3. Distribucin F W =
V /n
is called the F distribution with m and n degrees of freedom and is denoted by
Definicin: Sean U y V variables . 2 de m y n grados de libertad respectivamente. La distribucin
Fm,n
de
U/m
W =
P R O P O S I T I O N B V /n
se denomina distribucin F conThe
mdensity
y n grados
functionde is given ybyse denota Fm,n .
libertad
of W
![(m + n)/2] ! m "m/2 m/21 ! m "(m+n)/2
f (w) = w 1+ w , w0
!(m/2)!(n/2) n n
52
Proof
W is the ratio of two independent random variables, and its density follows from
La funcin de densidad viene dada por:
Se puede observar que el cuadrado de una variable tn distribuye F1,n . La esperanza existe para
n > 2 y es igual a E (W ) = n/ (n 2).
53
Anexo 1: Distribuciones
Distribuciones
n
x nx
Binomial p (1 p) x = 0, . . . , n n, p X = n p
x
2 = n p (1 p)
X
x1
Geometrica p (1 p) x = 1, 2, . . . p X = 1/p
2 = (1 p)/p2
X
x 1
r xr
Binomial-Negativa p (1 p) x = r, r + 1, . . . r, p X = r/p
r1
2 = r (1 p)/p2
X
( t)x e t
Poisson x = 0, 1, . . . X = t
x!
2 = t
X
x
Exponencial e x 0 X = 1/
2 = 1/ 2
X
k k1 x
Gamma x e x 0 k, X = k/
(k)
2 = k/ 2
X
k k1 (x)
Gamma Trasladada (x ) e x k, , X = k/ +
(k)
2 = k/ 2
X
" !2 #
1 1 x
Normal exp < x < , X =
2 2
2 = 2
X
" !2 #
1 1 ln x 1 2
Log-Normal exp x 0 , X = exp +
2 ( x) 2 22
2 = 2
X e
1
X
1
Uniforme a x b a, b X = (a + b)/2
(b a)
2 = (b a)2 /12
X
1 (x a)q1 (b x)r1 q
Beta a x b q, r X = a + (b a)
B(q, r) (b a)q+r1 q+r
2 = q r (ba)2
X
(q+r)2 (q+r+1)
m N m
x nx
Hipergeometrica max{0, n + m N } x mn{n, m} N, m, n X = n m
N N
n
2 =
X N n n m 1 m
N 1 N N
kp 0.00 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09 t0.90 t0.95 t0.975 t0.99
0.0 0.5000 0.5040 0.5080 0.5120 0.5160 0.5199 0.5239 0.5279 0.5319 0.5359 1 3.078 6.314 12.706 31.821
0.1 0.5398 0.5438 0.5478 0.5517 0.5557 0.5596 0.5636 0.5675 0.5714 0.5753 2 1.886 2.920 4.303 6.965
0.2 0.5793 0.5832 0.5871 0.5910 0.5948 0.5987 0.6026 0.6064 0.6103 0.6141 3 1.638 2.353 3.182 4.541
0.3 0.6179 0.6217 0.6255 0.6293 0.6331 0.6368 0.6406 0.6443 0.6480 0.6517 4 1.533 2.132 2.776 3.747
0.4 0.6554 0.6591 0.6628 0.6664 0.6700 0.6736 0.6772 0.6808 0.6844 0.6879 5 1.476 2.015 2.571 3.365
0.5 0.6915 0.6950 0.6985 0.7019 0.7054 0.7088 0.7123 0.7157 0.7190 0.7224 6 1.440 1.943 2.447 3.143
0.6 0.7257 0.7291 0.7324 0.7357 0.7389 0.7422 0.7454 0.7486 0.7517 0.7549 7 1.415 1.895 2.365 2.998
0.7 0.7580 0.7611 0.7642 0.7673 0.7704 0.7734 0.7764 0.7794 0.7823 0.7852 8 1.397 1.860 2.306 2.896
0.8 0.7881 0.7910 0.7939 0.7967 0.7995 0.8023 0.8051 0.8078 0.8106 0.8133 9 1.383 1.833 2.262 2.821
0.9 0.8159 0.8186 0.8212 0.8238 0.8264 0.8289 0.8315 0.8340 0.8365 0.8389 10 1.372 1.812 2.228 2.764
1.0 0.8413 0.8438 0.8461 0.8485 0.8508 0.8531 0.8554 0.8577 0.8599 0.8621 11 1.363 1.796 2.201 2.718
1.1 0.8643 0.8665 0.8686 0.8708 0.8729 0.8749 0.8770 0.8790 0.8810 0.8830 12 1.356 1.782 2.179 2.681
1.2 0.8849 0.8869 0.8888 0.8907 0.8925 0.8944 0.8962 0.8980 0.8997 0.9015 13 1.350 1.771 2.160 2.650
1.3 0.9032 0.9049 0.9066 0.9082 0.9099 0.9115 0.9131 0.9147 0.9162 0.9177 14 1.345 1.761 2.145 2.624
1.4 0.9192 0.9207 0.9222 0.9236 0.9251 0.9265 0.9279 0.9292 0.9306 0.9319 15 1.341 1.753 2.131 2.602
1.5 0.9332 0.9345 0.9357 0.9370 0.9382 0.9394 0.9406 0.9418 0.9429 0.9441 16 1.337 1.746 2.120 2.583
1.6 0.9452 0.9463 0.9474 0.9484 0.9495 0.9505 0.9515 0.9525 0.9535 0.9545 17 1.333 1.740 2.110 2.567
1.7 0.9554 0.9564 0.9573 0.9582 0.9591 0.9599 0.9608 0.9616 0.9625 0.9633 18 1.330 1.734 2.101 2.552
1.8 0.9641 0.9649 0.9656 0.9664 0.9671 0.9678 0.9686 0.9693 0.9699 0.9706 19 1.328 1.729 2.093 2.539
1.9 0.9713 0.9719 0.9726 0.9732 0.9738 0.9744 0.9750 0.9756 0.9761 0.9767 20 1.325 1.725 2.086 2.528
2.0 0.9772 0.9778 0.9783 0.9788 0.9793 0.9798 0.9803 0.9808 0.9812 0.9817 21 1.323 1.721 2.080 2.518
2.1 0.9821 0.9826 0.9830 0.9834 0.9838 0.9842 0.9846 0.9850 0.9854 0.9857 22 1.321 1.717 2.074 2.508
2.2 0.9861 0.9864 0.9868 0.9871 0.9875 0.9878 0.9881 0.9884 0.9887 0.9890 23 1.319 1.714 2.069 2.500
2.3 0.9893 0.9896 0.9898 0.9901 0.9904 0.9906 0.9909 0.9911 0.9913 0.9916 24 1.318 1.711 2.064 2.492
2.4 0.9918 0.9920 0.9922 0.9925 0.9927 0.9929 0.9931 0.9932 0.9934 0.9936 25 1.316 1.708 2.060 2.485
2.5 0.9938 0.9940 0.9941 0.9943 0.9945 0.9946 0.9948 0.9949 0.9951 0.9952 26 1.315 1.706 2.056 2.479
2.6 0.9953 0.9955 0.9956 0.9957 0.9959 0.9960 0.9961 0.9962 0.9963 0.9964 27 1.314 1.703 2.052 2.473
2.7 0.9965 0.9966 0.9967 0.9968 0.9969 0.9970 0.9971 0.9972 0.9973 0.9974 28 1.313 1.701 2.048 2.467
2.8 0.9974 0.9975 0.9976 0.9977 0.9977 0.9978 0.9979 0.9979 0.9980 0.9981 29 1.311 1.699 2.045 2.462
2.9 0.9981 0.9982 0.9982 0.9983 0.9984 0.9984 0.9985 0.9985 0.9986 0.9986 30 1.310 1.697 2.042 2.457
3.0 0.9987 0.9987 0.9987 0.9988 0.9988 0.9989 0.9989 0.9989 0.9990 0.9990 1.282 1.645 1.960 2.326
Distribucion Chi-Cuadrado cp ()
55
1