Sie sind auf Seite 1von 38

ESTADSTICA

CAPITULO 5
Funcin de Distribucin Especiales

Universidad de Chile
Economa & Negocios
FUNCIONES DE DISTRIBUCION ESPECIALES.
1. INTRODUCCIN.
En este captulo se define y exponen varias distribuciones especiales que son muy
utilizadas en aplicaciones de probabilidad estadstica. Las distribuciones que se
presentarn aqu incluyen distribuciones discretas y continuas de tipo univariante,
bivariante y multivariante. Las distribuciones discretas univariantes son la binomial, de
Bernoulli y de Poisson. Las distribuciones continuas univariantes son la normal, gamma,
exponencial y beta. Otras distribuciones continuas univariantes son la lognormal, de
Weibull y de Pareto. Tambin se exponen la distribucin discreta multivariante
denominada distribucin multinomial y la distribucin continua bivariante denominada
distribucin normal bivariante.
Es muy importante, a pesar de que no se a discutido con detalle, tener claro que las
estructuras de las funciones de distribuciones se encuentran definidas por una familia
especifica de funciones, como por ejemplo, exponenciales, cuadrticas (polinomios),
logartmicas, cncavas o convexas, pero la forma definitiva, la que representa el
comportamiento final de una poblacin por medio de sus frecuencias depende de los
parmetros que la constituyen. Un ejemplo claro de este punto, es el hecho que una
lnea recta, es una familia de posibles funciones que pueden ser oblicuas, verticales,
horizonales, etc., sin embargo, el grado de inclinacin y contacto con el o los ejes
depender de los valores que tomen su pendiente o intercepto.
Un ejemplo de lo mencionado en el prrafo anterior, es: Supongamos que una funcin
de distribucin de probabilidad des esta definida por la siguiente estructura.
Ax B a x b
f ( x)
0

(1.1)

Adems, por efecto de simplificacin, supongamos que esta funcin es efectivamente una
funcin de distribucin de probabilidades, por lo tanto, sabemos que el rea bajo la curva
dentro del dominio de f ( x) debe ser igual a 1. Ahora, nuestro inters radica en el hecho
de que la funcin de la ecuacin (1.1) es una recta, pero la constitucin final de ella
depender de sus parmetros A (pendiente) y B (intercepto), por lo que para diferentes
combinaciones de estos valores, tendremos diferentes distribuciones de probabilidades
finales. Esto quiere decir, que al ser la funcin de distribucin el reflejo del
comportamiento poblacional, entonces sus caracterstica poblaciones (parmetros)
perimitiran diferencias una poblacin de otra cuando estas pertenezcan a la misma

Autor: Pablo Tapia G.

Pagina 1

ESTADSTICA

CAPITULO 5
Funcin de Distribucin Especiales

familia, ya sea porque una tiene mayor pendiente que la otra o porque una se desfasa ms
que la otra.
Es por esta razn que muchas de las funciones que veremos a continuacin se describirn
bajo la premisa de valores paramtricos conocidos, por ejemplo en nuestro caso de la
lnea recta, la funcin ser denotada como:
f ( x / A, B ) Ax B

x [ a, b]

(1.2)

La cual deberemos interpretar como la funcin de distribucin que se encuentra


restringida a una estructura (familia de rectas) y valores paramtricos determinsticos
(valor conocidos), lo cual nos permitir realizar operaciones numricas para variadas
aplicaciones.
Se describir brevemente como cada una de estas distribuciones aparecen en problemas
aplicados y se demostrar porque cada una podra ser un modelo de probabilidad
apropiado para algunos experimentos. Para cada distribucin se presentar la funcin de
distribucin y se expondr algunas de las propiedades bsicas de la distribucin.
2. FUNCIONES DE DISTRIBUCIN DE VARIABLE DISCRETA
2.1. Distribucin de Bernoulli.
Un experimento de un tipo particularmente sencillo es aquel en el que hay solamente
dos resultados posibles, tales como cara y cruz, xito o fracaso, defectuoso o no
defectuoso. Es conveniente designar los dos resultados posibles de dicho experimento
como 0 y 1. La siguiente definicin se puede aplicar entonces a cualquier experimento de
este tipo.
Se dice que una variable aleatoria X tiene una distribucin de Bernoulli con parmetro
p tal que (0 p 1) si X puede tomar nicamente los valores 0 y 1 y las probabilidades
son
Pr( X 1) p

Pr( X 0) 1 p

(1.3)

Definicin 1. Entonces, la funcin de distribucin de probabilidad de X se escribe


como sigue:
f ( x / p) p x (1 p )1 x

x 0,1

(1.4)

Para verificar que esta funcin de distribucin f ( x / p) realmente representa la


distribucin de Bernoulli dada por las probabilidades (1.3), simplemente es necesario
observar que f ( x 1 / p) p y f ( x 0 / p) 1 p .

Autor: Pablo Tapia G.

Pagina 2

ESTADSTICA

CAPITULO 5
Funcin de Distribucin Especiales

Propiedad 1. Si X tiene una distribucin de Bernoulli con parmetro p , entonces se


debe cumplir que:
1.i. E ( X ) p
1.ii. E ( X 2 ) p
1.iii. var( X ) p(1 p)
1.iv. (t ) E (exp(tX )) pe t q
2.2. Distribucin Binomial.
Definicin 2. Una variable aleatoria X tiene una distribucin Binomial con parmetros
T y p si X tiene una distribucin discreta cuya funcin corresponde a:
T
f ( x / p) p x (1 p)T x
x

x 0,1, 2,..., T

(1.5)

En esta distribucin, T debe ser un entero positivo y p debe pertenecer al intervalo


cerrado 0 p 1 , adems el termino que encabeza la funcin de la ecuacin (1.5)
corresponde al nmero de combinaciones que son posible de realizar con los valores
enteros de T y x .
La distribucin Binomial tiene una importancia fundamental en probabilidad y estadstica
debido al siguiente resultado. Supngase que el resultado de un experimento puede ser
xito o fracaso, que el experimento se realiza independientemente T veces y que la
probabilidad de xito en cualquier realizacin es p . Si X denota el nmero total de
xitos en las T realizaciones, entonces X tiene una distribucin Binomial con
parmetros T y p . Este resultado se puede enunciar como sigue:
Si las variables aleatorias X 1 ,..., X T constituyen T pruebas de Bernuolli con parmetro
p y si X X 1 X T , entonces X tiene una distribucin Binomial con parmetro T
y p.
Cuando X se representa como la suma de T pruebas de Bernoulli de esta forma, se
pueden deducir fcilmente los valores de la media, la varianza y la funcin generatriz de
momentos de X .
Propiedad 2. Si X tiene una distribucin de Binomial con parmetros T y p , tal que
X X 1 X T , donde X i por si solas siguen un experimento de Bernuilli con
parmetro p , entonces se debe cumplir que:
2.i. E ( X ) Tp
2.ii. var( X ) Tp (1 p)

Autor: Pablo Tapia G.

Pagina 3

ESTADSTICA

CAPITULO 5
Funcin de Distribucin Especiales

2.iii. (t ) E (exp(tX )) ( pe t q ) T
Demostracin
Para efecto de desarrollo se demostraran las propiedades 2.i y 2.ii, mientras que la 2.iii
quedar propuesta para el lector.
En este caso corresponde a que el valor esperado de Binomial se describe como:
E ( X ) Tx 0 Tx xp x (1 p )T x

Donde omitimos el trmino correspondiente a x 0 , que es cero, y descomponemos la


combinatoria en su factorial, y posteriormente factorizamos algunos trminos
E ( X ) Tx 1

T!
x !(T x )!

T 1)!
xp x (1 p)T x TpTx 1 ( x (1)!(
p x 1 (1 p )T x
T x )!

(1.6)

Ahora si reemplazamos y x 1 y N T 1 , entonces la ecuacin (1.6) se puede reducir


a:
N 1) 1)!
E ( X ) Tp Ny 111 (( y 1) ((1)!((
p ( y 1) 1 (1 p )( N 1) ( y 1) Tp Ny 0
N 1) ( y 1))!

N!
y !( N y )!

p y (1 p) N y (1.7)

Sin embargo, la sumatoria del lado derecho de la ecuacin (1.7) es igual a 1, por
definicin de funcin de distribucin de probabilidad, as que la expresin anterior se
reduce a:
E ( X ) Tp

Para encontrar la expresin para la varianza, usaremos el hecho de que


E ( X 2 ) E ( X ( X 1)) E ( X ) , de esta manera tenemos que determinar primero el
trmino E ( X ( X 1)) , ya que el segundo se encuentra en el prrafo anterior. Repetimos
para todo propsito los pasos antes usados y obtenemos as.
E ( X ( X 1)) Tx 0 Tx x( x 1) p x (1 p )T x

E ( X ( X 1)) Tx 2

T (T 1)(T 2)!
x ( x 1)( x 2)!(T x )!

T 2)!
xp x (1 p )T x T (T 1) p 2 Tx 1 ( x (2)!(
p x 2 (1 p)T x
T x )!

E ( X ( X 1)) T (T 1) p 2 Tx 2 Tx 22 p x 2 (1 p )T x

Y, al hacer y x 2 y T N 2 , esto se vuelve


E ( X ( X 1)) T (T 1) p 2 Ny 0 Ny p y (1 p ) N y T (T 1) p 2

Autor: Pablo Tapia G.

Pagina 4

ESTADSTICA

CAPITULO 5
Funcin de Distribucin Especiales

Entonces, tenemos que


E ( X 2 ) T (T 1) p 2 Tp

Por lo tanto, la varianza corresponde a:


var( X ) E ( X 2 ) E 2 ( X ) T (T 1) p 2 Tp T 2 p 2 Tp 2 Tp Tp(1 p )

Con lo cual se demuestra la varianza para una distribucin Binomial.


2.3. Distribucin de Poisson
Definicin 3. Sea X una variable aleatoria con una distribucin discreta y supngase
que el valor de X debe ser un entero no negativo. Se dice que X tiene una distribucin
de Poisson con media ( 0) si la funcin de distribucin de probabilidad de X es la
siguiente:
f (x / )

x e

x 0,1,2,...,

x!

(1.8)

Est claro que f ( x / ) es positiva para todos los valores de x . Para verificar que la
funcin f ( x / ) definida por la ecuacin (1.8) satisface los requisitos de toda funcin de
distribucin, se debe demostrar que x 0 f ( x / ) 1 . Se sabe de clculo que para todo
nmero real ,
e

x 0

x
x!

lim

x 0

(1.9)

x!

Por tanto,
e

x 0

f ( x / ) e

x 0

x!

e e 1

(1.10)

Media y Varianza. Se ha afirmado que la distribucin cuya funcin de distribucin de


probabilidades est dada por la ecuacin (1.8) se denomina distribucin de Poisson con
media . Para justificar esta definicin, se debe demostrar que es, de hecho, la media
de esta distribucin. La media E ( X ) est dada por la siguiente serie infinita:
E( X )

x 0

xf ( x / )

x 0

e x

x!

x 1

e x

x!

e x 1

x 1 ( x 1)!

(1.11)

Por lo tanto, de la ecuacin (1.11) se concluye que E ( X ) .

Autor: Pablo Tapia G.

Pagina 5

ESTADSTICA

CAPITULO 5
Funcin de Distribucin Especiales

La varianza de la distribucin de Poisson se puede determinar mediante una tcnica


anloga a la que se acaba de describir. Se empezar por considerar la siguiente esperanza:
E[ X ( X 1)] x 0 x( x 1) f ( x / ) x 0 x ( x 1) e

x!

2 x 0

e x 2
( x 2)!

(1.12)

Por otro lado sabemos que


E[ X ( X 1)] E ( X 2 ) E ( X ) E ( X 2 ) 2

Entonces, se puede concluir que:


E ( X 2 ) 2

(1.13)

De esta forma de la ecuacin (1.10) y (1.13) se puede determinar que la varianza de esta
variable corresponde a:
var( X ) E ( X 2 ) [ E ( X )] 2

(1.14)

Funcin Generatriz de momentos. Para la funcin de distribucin Poisson se tiene


que la funcin generatriz de momentos corresponde a:
(t ) E ( e tX )

x 0

e tx f ( x / ) e

( e t ) x
exp[ (e t 1)]
x 0
x!

(1.15)

A modo de mejorar la compresin del comportamiento poblacional por medio de una


funcin de distribucin de probabilidad, se presentan los siguientes ejemplos.
Ejemplo 1. Encuentre la probabilidad de sacar 5 caras y 7 cruces en 12 lanzamientos de
una moneda equilibrada.
Respuesta
Al sustituir x 5 , T 12 y p 12 en la frmula de la distribucin Binomial, obtenemos
que la funcin de distribucin de probabilidades en este caso es:
f ( x / p, T ) Tx p x (1 p )T x

1 5
1 7
f (5 / 12 ,12) 12
5 ( 2 ) (1 2 )

Pero:


12
5

12!
5!7!

89101112
123 45

891112
13 4

8911
1

Autor: Pablo Tapia G.

8 9 11 792

Pagina 6

ESTADSTICA

CAPITULO 5
Funcin de Distribucin Especiales

Que reemplazando en la expresin anterior tenemos que:


f (5 / 12 ,12) 792( 12 )5 ( 12 )7 792( 12 )12

792 396 198 99


11 10
0.1933
212
2
2
512

El lector debe tener presente que el resultado puede quedar expresado como 99 sobre
512, ms que 0.1933, de hecho para una decisin practica y bsicamente se pudo
aproximar a 1 de cada 5 casos, con lo cual habra sido posible sacar conclusiones sin
perdida de generalidad.
Ejemplo 2. Encuentre la probabilidad de que siete de 10 personas se recuperarn de una
enfermedad tropical si podemos suponer que la recuperacin son eventos independientes
y la probabilidad de que cualquiera de ellos se recuperar de la enfermedad es 0.80.
Respuesta
Al sustituir x 7 , n 10 y p 0.8 en la frmula para la distribucin Binomial,
obtenemos.
4 7 1 3
f (7 / 0.8,10) 10
7 (5) (5)

10!
7!3!

( 54 )7 ( 15 )3

8910
1 23

4 3 10 5410 0.20
7

Entonces, podemos concluir que si lo eventos son independientes, entonces, la


recuperacin de 7 personas de 10 es slo del 20%.
Ejemplo 3. La distribucin de Poisson ha resultado ser muy til en problemas de lneas
de espera o colas. Los clientes llegan a una maquina fotocopiadora a una tasa media de
dos cada cinco minutos. En la prctica, se pueden representar los procesos de llegada de
esta clase mediante una distribucin de Poisson. Asumiendo que ste es el caso,
representaremos por X el nmero de llegadas de clientes en un perodo de cinco
minutos, con lo cual X tiene distribucin de Pocin con media 2 , y la funcin de
probabilidad
Pr( X x / 2) f ( x / 2)

2 x e 2
x!

x 0,1, 2,...,

Entonces, la probabilidad para el nmero de llegadas en un perodo de cinco minutos


son:
Pr( X 0 / 2)

2 0 e 2
0,1353
0!

Pr( X 1/ 2)

21 e 2
0, 2707
1!

Autor: Pablo Tapia G.

Pagina 7

ESTADSTICA

CAPITULO 5
Funcin de Distribucin Especiales

Pr( X 2 / 2)

22 e 2
0, 2707
2!

Y as sucesivamente. Por lo tanto, la probabilidad de que se produzcan ms de dos


llegadas en un perodo de cinco minutos es:
Pr( X 2 / 2) 1 i2 0 Pr( X i / 2) 0,3233

Como hemos visto, la distribucin de Poisson aparece de manera natural para


representar el nmero de ocurrencias de un suceso en un perodo de tiempo.
3. FUNCIONES DE DISTRIBUCIN DE VARIABLE CONTINUA
3.1. Distribucin Uniforme.
Cunado la densidad de probabilidad se distribuye en forma constante, es decir, que cada
uno de los elementos contenidos en esta poblacin tiene exactamente la misma
probabilidad de ocurrencia, se dice que la distribucin es uniforme, es decir:
Definicin 4. Una variable aleatoria tiene un distribucin uniforme y se conoce como
una variable aleatoria uniforme continua si y slo si su densidad de probabilidad est dada
por
f ( x / a, b)

1
ba

a xb

(1.16)

Los parmetros a y b de esta densidad de probabilidad son constantes reales, con a b .


Propiedad 4. Si X es una variable aleatoria que tiene una distribucin de Uniforme
con parmetros a y b , respectivamente, entonces se debe cumplir que:
4.i. E ( X ) 12 (a b)
4.ii. var( X ) 121 (b a) 2
3.2. Distribucin Exponencial.
Esta distribucin resulta de gran utilidad para atacar problemas de listas de espera y
colas. Cuando el tiempo de servicio a un cliente es aleatorio, esta incertidumbre puede
representarse a menudo mediante una distribucin exponencial. La distribucin
exponencial difiere de la normal en dos caractersticas bsicas: Se restringe a variables
aleatorias que pueden tomar valores positivos nicamente, y su funcin de densidad no
es simtrica alrededor de la media.

Autor: Pablo Tapia G.

Pagina 8

ESTADSTICA

CAPITULO 5
Funcin de Distribucin Especiales

Definicin 5. Si la variable aleatoria X no puede tomar valores negativos y tiene


funcin de densidad igual a
f (x / )

e x

x0

(1.17)

Donde es cualquier nmero positivo, entonces se dice que X sigue una distribucin
exponencial
Propiedad 5. Si X tiene una distribucin de exponencial con parmetro , entonces
se debe cumplir que:
5.i. E (X )
5.ii. var( X ) 2
5.iii. (t ) E (exp(tX )) (1 t ) 1
Aunque el lector debe tener presente que la funcin de distribucin de probabilidades
exponencial puede presentarse tambin de la siguiente forma:
f ( x / ) e x

x 0, 0

Esta forma, como podr darse cuenta el leedor es igual a la de la exponencial, para ello
slo deberamos imponer que 1 y recuperaramos la misma funcin definida en la
ecuacin (1.17). Sin embargo, en una buena parte de la literatura se utiliza esta ultima
expresin de la funcin exponencial y que en este caso la esperanza y varianza seran 1
y 2 , respectivamente.
Ejemplo 4. En una cierta localidad de la autopista 78, el nmero de autos que exceden
el lmite de velocidad en ms de 10 Kilmetros por hora en media hora es una variable
aleatoria que tiene una distribucin de Poisson con 8.4 . Cul es la probabilidad de
que el tiempo de espera entre autos que exceden el lmite de velocidad en ms de 10
Km/Hr sea menor a 5 minutos?
Respuesta
Al usar media hora como la unidad de tiempo, tenemos que lamba puede ser equivalente
a el inverso de beta. Por consiguiente, el tiempo de espera es una variable aleatoria que
tiene una distribucin exponencial con 8.41 y, puesto que 5 minutos es 16 de la unidad
de tiempo, encontraremos que la probabilidad deseada es:

Domf

x2

1/ 6

x1

f ( x / )dx 1e x / dx

8.4e8.4 x dx e8.4 x

Autor: Pablo Tapia G.

1/ 6
0

e 1.4 1 0.75

Pagina 9

ESTADSTICA

CAPITULO 5
Funcin de Distribucin Especiales

Ejemplo 5. Suponga que posee una muestra X t Tt1 independiente e idnticamente


distribuidas de una poblacin que posee distribucin exponencial con parmetro .
Determine el valor esperado y la varianza del promedio de esta muestra.
Respuesta
En este caso debemos recordar que la muestra al ser independientes, entonces cada una
de sus componentes son independientes, esto quiere decir que no existe covarianza entre
las observaciones que en este caso son la muestra de variables aleatorias. Por otro lado el
que sean idnticamente distribuidas quiere decir que cada una da la variables aleatorias
que constituyen la muestra tienen los mismos parmetros, que en este caso
correspondera a la esperanza y varianza, que en mucha de la literatura disponible es
interpretado como pertenecientes a la misma poblacin, lo cual puede ser cierto slo si
la poblacin sobre la cual se extrajo la muestra es constante en forma transversal (entre
los individuos) y longitudinalmente (a travs del tiempo).
Para efecto de nuestro problema supondremos que nuestra poblacin es constante para
todos los efectos, es decir, que nuestro clculo queda como:
E ( xT ) E (T 1Ti 1 xi ) T 1 E (Ti 1 xi )

Claramente los trminos que no tienen comportamiento aleatoria no sufren cambio con
la funcin esperanza, lo que hace poder sacarlo de esta, sin embargo, no debemos olvidar
que la esperanza es un operador lineal, por lo tanto, el valor esperado de la suma de
variables aleatorias es la suma de los valores esperados por separado, es decir,
E ( xT ) T 1Ti 1 E ( xi )

Pero, todos los xs tienen el mismo valor esperado, recuerde que son idnticamente
distribuidos, por lo tanto, tenemos que:
E ( xT ) T 1Ti 1 T 1T

Ahora con respecto a la varianza tenemos algo un poco ms complicado, ya que esta no
es lineal, sin embargo, puede tener un comportamiento parecido al lineal si las variables
sean independientes, para entender mejor este concepto, vamos a realizar el siguiente
procedimiento, recordemos que la varianza de la suma de dos variables aleatorias
corresponde a:
var( X Y ) var( X ) var(Y ) 2 cov( X , Y )

Pero si las variables son independientes entonces su covarianza (grado de dependencia


lineal) debe ser igual a cero, por lo que la varianza de la suma se convierte en:

Autor: Pablo Tapia G.

Pagina 10

ESTADSTICA

CAPITULO 5
Funcin de Distribucin Especiales
var( X Y ) var( X ) var(Y )

De esta forma podemos ver que cuando se suman variables independientes, entonces es
posible afirmar que es igual a la suma de las varianzas por separado. Entonces, para
nuestro problema tenemos
var( xT ) var(T 1Ti 1 xi ) T 2 var(Ti 1 xi )
var( xT ) T 2 Ti 1 var( xi ) T 2 Ti 1 2 T 1 2

3.3. Distribucin Normal.


La distribucin normal, que estudiaremos en esta seccin, es de muchas maneras, la
piedra angular de la teora estadstica moderna. Se investig por primera vez en el siglo
XIX cuando los cientficos observaron un grado asombroso de regularidad en los errores
de medicin. Encontramos que los patrones (distribuciones) que observaban se podran
aproximar cercanamente por curvas continuas, a los que se referan como curvas
normales de errores y las atribuan a las leyes del azar. Abraham de Moivre (16671745), Pierre Laplace (1749-1827) y Kart Gauss (1777-1855) estudiaron por primera
vez las propiedades matemticas de estas curvas normales.
Ahora introduciremos una distribucin continua que posee caractersticas especiales. De
manera que el lector pueda apreciar en forma intuitiva esta distribucin, veremos un
ejemplo en el cual supondremos que un grupo de estudiantes rinde una examen. Se
espera que una gran parte de las notas obtenidas se concentran alrededor de la media.
Adems se espera que el nmero de notas obtenidas en rangos de longitud fija ir
descendiendo al alejarnos de la media. Si la nota promedio en el examen ha sido de 4.5,
esperamos encontrar, por ejemplo, ms estudiantes en el rango 4.0-5.0 que en el rango
6.0-7.0. Estas condiciones sugieren una distribucin con una cima en la media y que va
descendiendo gradualmente en los extremos. Una distribucin con estas propiedades es
la distribucin normal, cuyo comportamiento se puede apreciar en la figura 1. Como
puede verse, la funcin de densidad tiene forma de campana.

Figura 1. Funcin de densidad de una distribucin normal.


Definicin 6. Una variable aleatoria X tiene una distribucin normal y se conoce
como una variable aleatoria normal si y slo si su densidad de probabilidad est dada por

Autor: Pablo Tapia G.

Pagina 11

ESTADSTICA

CAPITULO 5
Funcin de Distribucin Especiales

f ( x / , 2 )

1
2 2

exp 21 2 ( x ) 2

x IR

(1.18)

Propiedad 6. Si X tiene una distribucin de normal con parmetros y 2 ,


respectivamente, entonces se debe cumplir que:
6.i. E (X )
6.ii. var( X ) 2
6.iii. (t ) E (exp(tX )) ( t 12 2 t 2 )

t IR

Queda propuesto para el lector demostrar estas propiedades.


De estas propiedades puede concluirse que dadas la media y la varianza de una variable
aleatoria normal, queda determinada la distribucin especfica dentro de la familia de
distribuciones normales. Esto permite el uso de la siguiente notacin.
Si la variable aleatoria X sigue una distribucin
varianza 2 , escribiremos
X

normal con media y

N ( , 2 )

Ahora, la media proporciona una medida de posicin central, mientras que la varianza da
una medida de dispersin alrededor de la media. Luego los valores que toman los
parmetros y 2 tienen diferentes efectos en la funcin de densidad de una variable
aleatoria normal. La figura 2 muestra la funcin de densidad de dos distribuciones
normales con varianza comn pero diferentes medias. Puede verse, que incrementar la
media, dejando constante la varianza, traslada la funcin de densidad pero no altera su
forma. En la figura 3 las funciones de densidad representadas corresponden a variables
aleatorias normales con media comn pero diferentes varianzas. Ambas son simtricas
alrededor de la media comn, pero la que tiene mayor varianza es ms dispersa.

Figura 2. Funciones de densidad de dos distribuciones normales


con medias 0 1 .

Autor: Pablo Tapia G.

Pagina 12

ESTADSTICA

CAPITULO 5
Funcin de Distribucin Especiales

Figura 3. Funciones de densidad de dos distribuciones normales


con varianzas 12 02 ; ambas distribuciones tienen media .
Un problema importante en la prctica es determinar probabilidades de una distribucin
normal especfica. Como primer paso, introduciremos la funcin de distribucin
acumulada.
Supongamos que X es una variable aleatoria normal con media y varianza 2 , es
decir, X N ( , 2 ) . Entonces, la funcin de distribucin acumulada F ( x0 ) es:
x0

2 2

F ( x0 )

exp 21 2 ( x ) 2 dx

Esto corresponde al rea bajo la curva de la funcin de distribucin de probabilidad a la


izquierda de x0 , como se ilustra en la figura 4. Como ocurre para cualquier densidad de
probabilidad, el rea total por debajo de la curva es 1, es decir, F () 1 .

Figura 4. El rea sombreada es la probabilidad de que X sea


menor o igual que x0 para una variable aleatoria X N ( , 2 ) .
No hay una expresin algebraica simple para calcular la funcin de distribucin
acumulada de una variable aleatoria distribuida normalmente. Cualquier probabilidad
puede obtenerse a partir de la funcin de distribucin acumulada. Sin embargo, sigue
habiendo una dificultad, porque no existe una frmula conveniente para determinar la
funcin de distribucin acumulada. En principio, podran obtenerse las probabilidades de
cualquier distribucin normal mediante mtodos numricos utilizando un computador.
No obstante, sera demasiado tedioso tener que hacer esta operacin para cada
distribucin normal. Afortunadamente, las probabilidades de cualquier distribucin

Autor: Pablo Tapia G.

Pagina 13

ESTADSTICA

CAPITULO 5
Funcin de Distribucin Especiales

normal pueden expresarse en trminos de la probabilidad de una normal determinada,


para la cual ya se han calculado y tabulado las probabilidades. Se introduce a continuacin
esta distribucin normal particular que se utiliza con este fin.
Distribucin Normal Estndar. La distribucin normal con media 0 y varianza igual
a 1 se llama distribucin normal tipificada o tambin distribucin normal estndar. La
funcin de distribucin tipificada usualmente se denota por el smbolo y la funcin
acumulada por el smbolo . Entonces,
( z / 0,1)

1
2

1
exp z 2
2

z0

z0

( z0 ) ( z / 0,1)dz

z IR

exp 12 z 2 dz

(1.19)
(1.20)

Es habitual en la literatura referirse a una variable aleatoria con distribucin de


probabilidades normal con la letra Z , esto con el simple objetivo de diferenciar ms
fcilmente entre una variable aleatoria normal cualquiera de una estndar.
La funcin de distribucin acumulada de una variable aleatoria normal estndar est
tabulada en el apndice de este documento. En esta tabla se ven valores de
( z ) Pr( Z z ) 1

Por ejemplo podemos notar que:


(0, 74) Pr( Z 0.74) 0, 2296

Figura 5. Funcin de densidad de la variable aleatoria normal


estndar, donde las reas achuradas son iguales.
Sin embargo, los valores positivos de esta misma probabilidad se podra obtener a partir
de la simetra del problema. Esto quiere decir que Pr( Z 0.74) Pr( Z 0.74) , que en
trminos de la funcin acumulada normal estndar es:
1

Tngase presente que Pr( Z z ) Pr( Z z ) , para efecto de variables continuas.

Autor: Pablo Tapia G.

Pagina 14

ESTADSTICA

CAPITULO 5
Funcin de Distribucin Especiales

(0, 74) 1 (0, 74)

Este ltimo resultado se puede observar en forma intuitiva en la figura 5.


Ejemplo 6. Supongamos que Z es una variable aleatoria normal estndar, hallar
Pr(0.5 Z 1.23) .
Respuesta
La probabilidad que se pide es:
Pr( 0.5 Z 1.23) Pr( Z 1.23) Pr( Z 0.5) (1.23) (0.5)

Utilizando la tabla del apndice, se obtiene que:


Pr( 0.5 Z 1.23) 0.8907 0.3085 0.5822

A continuacin mostraremos cmo pueden expresarse probabilidades de cualquier


variable aleatoria normal en trminos de probabilidades de la variable aleatoria normal
estndar.
Supongamos que la variable aleatoria discreta2 X , tiene una probabilidad p de ser igual
a x0 , ( Pr( X x0 ) p ), por otro lado, tenemos dos escalares que son a y b (constantes
arbitrarias), entonces, analicemos lo siguiente:
Para una variable aleatoria Y X a , quisiramos determinar la probabilidad definida
por Pr(Y x0 a) , la cual se puede ser representada como Pr( X a x0 a) , pero esta
ltima probabilidad se puede interpretar equivalentemente como
Pr( X a x0 a ) Pr( X x0 , a a )

Esto es interpretado como la probabilidad de que X x0 y de que a a , pero las


constantes y la variables aleatoria son independientes entre si, por lo tanto, esta
probabilidad conjunta se puede reescribir de la siguiente forma
Pr( X a x0 a ) Pr( X x0 ) Pr(a a )

Pero Pr(a a) es uno, ya que una constante nunca cambia de posicin por lo que se
tiene certeza absoluta de su valor, por esta razn, al reemplazar los valores tenemos que:

Esto es simplemente para simplificar el clculo, sin embargo, el lector podr extender este ejercicio a
variables aleatorias continuas, cambiando solamente el signo de desigualdad.

Autor: Pablo Tapia G.

Pagina 15

ESTADSTICA

CAPITULO 5
Funcin de Distribucin Especiales
Pr( X a x0 a) p 1 p

Por lo tanto, podemos concluir que:


Pr( X x0 ) Pr( X a x0 a )

(1.21)

Sin embargo, esta expresin puede ser fcilmente extensible a una variable aleatoria
continua, como:
Pr( X x0 ) Pr( X a x0 a )

(1.22)

Donde el smbolo , representa cualquiera de las siguientes signos de desigualdad,


,, , .
Entonces, el lector podr ahora fcilmente demostrar que
Pr( X x0 ) Pr(bX bx0 )

(1.23)

Siempre y cuando b sea un nmero constante y positivo estricto.


Ejemplo 7. Sea X una variable aleatoria normal con media y varianza 2 . Entonces,
si definimos la variable Z X , como:
ZX

La probabilidad Pr( X x) , puede ser representada como la probabilidad de una variable


aleatoria normal estndar?
Respuesta
En este como ya nos podemos imaginar X y Z X , tiene un comportamiento de una
variable aleatoria normal, pero si utilizamos las ecuaciones (1.22) y (1.23), podemos
realizar las siguientes operaciones sin cambiar la probabilidad.
x0
X x0

Pr( X x0 ) Pr
Pr Z X

Sabemos que Z X tiene comportamiento normal, pero todava no podemos afirmar que
esta normalidad viene de una distribucin estndar. Para determinar ello es necesario
determinar el valor esperado (media) y la varianza de esta variable aleatoria. Es decir,
E[ 1 ( X )] 1 E[ X ] 1[ E ( X ) E ( )]

Autor: Pablo Tapia G.

Pagina 16

ESTADSTICA

CAPITULO 5
Funcin de Distribucin Especiales

Pero, si X es una variable aleatoria normal con media , entonces, E ( X ) , y el


valor esperado de una constante es la misma constante, E ( ) , por lo tanto, podemos
concluir que la media de Z X es cero.
Bueno, ahora veamos que pasa con la varianza de Z X .
var[ 1 ( X )] 2 var[ X ] 2 [var( X ) var( )]

Sin embargo, la varianza de X es 2 y la varianza de una constante es cero, ya que las


constantes no tienen volatilidad, esto nos lleva a que la varianza de Z X es uno.
De esta forma es fcil darse cuenta que la transformacin al pasar de X a Z X , es
simplemente modificar el comportamiento normal cualquiera de X a una normal
estndar. Este proceso de conoce como estandarizacin o tipificacin de variables
aleatorias normal, donde la base terica se conoce con el nombre de Teorema Central
del Lmite (este un caso particular de este teorema).
Ejemplo 8. El rendimiento promedio de la PSU3 2005 fue de 395 ptos. y una desviacin
estndar de 168 ptos. Se le solicita que determine el nmero aproximado de alumnos
que superaron los 670 ptos, si el nmero total de quienes la rindieron fue de 120.000,
adems puede suponer que esta poblacin sigue un comportamiento normal.
Respuesta
El lector debe tener presente que es muy frecuente encontrarse con problemas que
suponen normalidad, que como ejercicio matemtico es una buena forma de simplificar
la resolucin del problema, sin embargo, no es tan simple darse este supuesto en
problemas cotidianos, de hecho hacerlo sin la ms mnima fundamentacin terica, es
una exageracin que resta confiabilidad a los resultados y por ende a las conclusiones.
Bajo el supuesto de comportamiento normal y de que la probabilidad representa una
frecuencia relativa, tenemos que la fracciones de alumnos que supera los 670 ptos. se
representa con la siguiente probabilidad, Pr( X 670) , donde X corresponden a los
puntos obtenidos por cualquier alumno dentro de los que rindieron la prueba.
Entonces, como calcular esta probabilidad con una integral es prcticamente imposible,
entonces, utilizaremos las ecuaciones (1.22) y (1.23), para determinar el valor de esta
probabilidad, es decir,
395
Pr( X 670) Pr( X168

670 395
168

) Pr( Z X

670 395
168

) Pr( Z X 1.64)

PSU, Prueba de Seleccin Universitaria, la cual se aplica en Chile desde el 2003 y rinden todos los
alumnos que hallan cursado su enseanza media.

Autor: Pablo Tapia G.

Pagina 17

ESTADSTICA

CAPITULO 5
Funcin de Distribucin Especiales

Pero, si deseamos utilizar la tabla normal estndar que se encuentra en el apndice, es


necesario modificar el signo de desigualdad, es decir,
Pr( Z X 1.64) 1 Pr( Z X 1.64)

Que de la tabla, obtenemos que:


Pr( Z X 1.64) 1 0.9495 0.0505

De esta forma podemos concluir que aproximadamente el 5% de los alumnos que


rindieron la PSU, superaron los 670 ptos., es decir, unos 6.000 alumnos.
Ahora si quisiramos discutir este resultado, podramos hacer nfasis en el hecho de que
no todos los alumnos rindieron la PSU, por lo tanto, existe un porcentaje de individuos
que no participaron en el proceso, quienes posiblemente podran haber modificado este
resultado, no siendo un 5%, sin que una cifra posiblemente menor.
3.4. Distribucin Normal Bivariada.
Supngase que Z 1 y Z 2 son variables aleatorias independientes cada una de las cuales
tiene una distribucin normal tipificada. Entonces la funcin de distribucin de
probabilidad conjunta g ( z1 , z2 ) de Z 1 y Z 2 para cualquiera valores de z1 y z2 est dada
por la ecuacin
g ( z1 , z 2 )

1
2

exp 12 ( z12 z 22 )

(1.24)

Para cualesquiera constantes 1 , 2 , 1 , 2 y tales que i , i 0


i 1,2 y 1 1 , se define ahora dos nuevas variables aleatorias X 1 y X 2 como
sigue:
X 1 1 Z 1 1
X 2 1 [ Z 1 (1 2 ) 1 2 Z 2 ] 2

(1.25)

Se deducir ahora la funcin de distribucin de probabilidad conjunta f ( x1 , x 2 ) X 1 y


X2.
La transformacin de Z 1 y Z 2 a X 1 y X 2 es una transformacin lineal y se verificar
que el determinante de la matriz de coeficientes de Z 1 y Z 2 tiene el valor
(1 2 )1 2 1 2 . Por tanto, el jacobiano J de la transformacin inversa de X 1 y X 2
a Z 1 y Z 2 es
J 1 [(1 2 )1 2 1 2 ] 1

Autor: Pablo Tapia G.

(1.26)

Pagina 18

ESTADSTICA

CAPITULO 5
Funcin de Distribucin Especiales

Puesto que J 0 , el valor de J es igual al valor de J . Si se resuelven las relaciones


(1.25) para Z 1 y Z 2 , en funcin de X 1 y X 2 , entonces la funcin de distribucin de
probabilidad conjunta f ( x1 , x 2 ) se puede obtener reemplazando z1 y z 2 en la ecuacin
(1.24) por sus expresiones en funcin de x1 y x 2 y multiplicando luego por J . Se
puede demostrar que el resultado para x1 y x 2 es:
f ( x1 , x 2 )

x 2
1

1
1

exp


2 12
2

2 (1 ) 1 2
1

2(1 )
1

x 1 x 2 2 )

2 1
1 2
2
x 2 )

2
2

(1.27)

Cuando la funcin de distribucin conjunta de dos variables aleatorias X 1 y X 2 es de la


forma de la ecuacin (1.27) se dice que X 1 y X 2 tienen una distribucin normal
bivariante. Las medias y las varianzas de la distribucin normal bivariante especificada
por la ecuacin (1.27) se pueden deducir fcilmente de las definiciones de la ecuacin
(1.25). Puesto que Z 1 y Z 2 son independientes y cada una tiene media 0 y varianza 1,
resulta que
E( X i ) i
cov( X 1 , X 2 ) 1 2

var( X i ) i2

(X1, X 2 )

i 1,2
cov( X 1 , X 2 )

1 2

Ha resultado conveniente introducir la distribucin normal bivariante como la


distribucin conjunta de ciertas combinaciones lineales de variables aleatorias
independientes que tienen distribucin normal tipificada. Debe subrayarse, sin embargo,
que la distribucin normal bivariante aparece directa y naturalmente en muchos
problemas prcticos. Por ejemplo, para muchas poblaciones, la distribucin conjunta de
dos caractersticas fsicas como las estaturas y pesos de los individuos de una poblacin
ser aproximadamente una distribucin normal bivariante. Para otras poblaciones, la
distribucin conjunta de las calificaciones de los individuos de la poblacin en dos
pruebas relacionadas ser aproximadamente una distribucin normal bivariante.

Autor: Pablo Tapia G.

Pagina 19

ESTADSTICA

CAPITULO 5
Funcin de Distribucin Especiales

1.3.5. Distribucin Gamma.


Algunas de las variables aleatorias que veremos siguen una distribucin de la forma:
f ( x / , ) kx 1 e x

x IR

(1.28)

Donde 0 , 0 y k debe ser tal que el rea total bajo la curva sea igual a 1. Para
evaluar k , primero hacemos la substitucin y x , lo cual nos da

kx 1e x dx k

( )

y 1e y dy

(1.29)

(1.30)

y 1e y dy

Que se trata en detalle en muchos de los textos de clculo avanzado. Al integrar por
parte y asumiendo que es un parmetro, encontramos que la funcin gamma satisface
la frmula recursiva.
( ) ( 1) ( 1)

(1.31)

Para 1 , y puesto que


(1)

e y dy 1

Se sigue por la aplicacin repetida de la frmula recursiva que ( ) ( 1)! donde


es un entero positivo. Tambin, un valor especial importante es ( 12 ) .
Regresamos ahora al problema de evaluar k , igualamos la integral obtenida a 1, y
obtenemos

kx 1e x dx k ( ) 1

Y por tanto
k

( )

(1.32)

Esto nos lleva a al siguiente definicin de la distribucin gamma.

Autor: Pablo Tapia G.

Pagina 20

ESTADSTICA

CAPITULO 5
Funcin de Distribucin Especiales

Definicin 7. Una variable aleatoria X tiene una distribucin gamma y se conoce


como una variable aleatoria gamma si y slo si su densidad de probabilidad est dada por
f (x / , )

( )

x 1 e x

x IR

(1.33)

Propiedad 7. Si X tiene una distribucin gamma con parmetros y ,


respectivamente, entonces se debe cumplir que:
7.i. E ( X )
7.ii. var( X ) 2
7.iii. (t ) E (exp(tX )) (1 t )

t 1

3.6. Distribucin Beta.


La densidad uniforme f ( x) 1 para 0 x 1 y f ( x) 0 en cualquier otra parte es un
caso especial de la distribucin beta, la cual se define de la siguiente manera.
Definicin 8. Una variable aleatoria X tiene una distribucin beta y se conoce como
una variable aleatoria Beta si y slo si su densidad de probabilidad est dada por
f (x / , )

( ) 1
x (1 x ) 1
( )( )

0, 0

(1.34)

Donde 0 y 0 .
En aos recientes, la distribucin beta ha encontrado aplicaciones importantes en la
inferencia bayesiana, donde los parmetros se consideran como variables aleatorias, y hay
necesidad de una densidad de probabilidad bastante flexible para el parmetro de la
distribucin binomial, el cual slo toma valores distintos a cero en el intervalo desde 0
hasta 1. Con flexible queremos decir que la densidad de probabilidad puede tomar una
gran variedad de formas diferentes.
No demostraremos aqu que el rea total bajo la curva de la distribucin beta, como la de
cualquier densidad de probabilidad, es igual a 1, pero en la demostracin del teorema
que sigue, nos valdremos del hecho que

( ) 1
x (1 x) 1 dx 1
0 ( ) ( )
1

(1.35)

Y por tanto que

Autor: Pablo Tapia G.

Pagina 21

ESTADSTICA

CAPITULO 5
Funcin de Distribucin Especiales

x 1 (1 x) 1 dx

( )
B ( , )
( )( )

(1.36)

Esta integral define la funcin beta, cuyos valores se denotan por B( , ) . En cualquier
libro de texto avanzado se puede encontrar un anlisis detallado de funcin beta.
Propiedad 8. Si X tiene una distribucin Beta con parmetros y ,
respectivamente, entonces se debe cumplir que:
8.i. E ( X )

8.ii. var( X )

( ) ( 1)
2

Autor: Pablo Tapia G.

Pagina 22

ESTADSTICA

CAPITULO 5
Funcin de Distribucin Especiales

4. DISTRIBUCIONES CONDICIONADAS (CASO BIVARIANTE)


Considerar y utilizar distribuiciones condicionales juega un papel fundamental en la
modelizacin para un proceso de toma de decisiones. Vamos a considerar algunos
resultados generales para una distribucin bivariante.
En una distribucin bivarainte, hay una distribucin condicional sobre y para cada valor
de x. Las densidades condicionales son
f ( y | x)

f ( x, y )

f ( x, y )dy

f ( x, y )
f x ( x)

f ( x | y)

f ( x, y )

f ( x, y )dx

f ( x, y )
f y ( y)

(1.37)

De la ecuacin (1.37) se deduce que, si x e y son independientes, entonces se cumple


que f ( y | x) f y ( y ) y f ( x | y ) f x ( x) .
La interpretacin es que si las variables son independientes, las probabilidades de los
sucesos relacionados con una variable no estn relacionadas con la otra. La definicin de
densidades condicionales tiene como implicancia el siguiente resultado importante:
f ( x, y ) f ( y | x ) f x ( x ) f ( x | y ) f y ( y )

(1.38)

4.1. Media Condicional.


Una media condicional es la media de la distribucin condicional y se define por:
yf ( y | x)dy si y es continua

E (Y | x) y
si y es discreta
y yf ( y | x )

(1.39)

A la funcin de media condicional E[Y | x] se le denomina regresin de Y sobre x . Por


ello una variable aleatoria Y siempre se puede escribir como:
Y E[Y | x] (Y E[Y | x]) E[Y | x]

Donde contiene el efecto estocstico de la variable.


4.2. Varianza Condicional.
La varianza condicional es la varianza de la distribucin condicional:
V [Y | x] E[(Y E[Y | x]) 2 | x] E[Y 2 | x] ( E[Y | x]) 2

Autor: Pablo Tapia G.

(1.40)

Pagina 23

ESTADSTICA

CAPITULO 5
Funcin de Distribucin Especiales

A la varianza condicional se la denomina funcin cedstica y, como la regresin, es


generalmente, una funcin de x . Sin embargo, a diferencia de la funcin de la media
condicional, lo habitual es que la varianza condicional no vare con x . Esto no implica,
sin embargo, que V [Y | x] sea igual a V (Y ) , que, en general, no ser el caso. Implica,
solamente, que la varianza condicional es una constante. El caso en que la varianza
condicional no vara con x se denomina homocedasticidad (varianza igual, o
constante).
4.3. Relacin entre Momentos Condicionales y Marginales.
En los siguientes teoremas se presentan algunos resultados tiles sobre los momentos de
una distribucin condicional:
Teorema 1. Ley de las esperanzas iteradas.
Este concepto consiste en calcular el promedio general como el promedio de los
promedios parciales, es decir,
E[Y ] Ex[ E[Y | x ]]

(1.41)

Donde la notacin Ex [] indica la esperanza sobre los valores de x .


Teorema 2. Los momentos de una combinacin lineal de variables.
Si E[Y | X ] a bX , donde ahora X podra se una variable aleatoria, entonces
a E[Y ] bE[ x]

cov( X , Y )
V[X ]

(1.42)

Cuya demostracin queda propuesta para al lector.


Teorema 3. Descomposicin de la varianza.
En una distribucin conjunta
V [Y ] Vx ( E[Y | x]) E x [V (Y | x)]

(1.43)

La notacin V x [] indica la varianza sobre la distribucin de x . Esto indica que en una


distribucin bivariante, la varianza de Y se descompone en la varianza de la funcin
media condicional (intervarianza) ms la varianza esperada alrededor de la media
condicional (intravarianza).

Autor: Pablo Tapia G.

Pagina 24

ESTADSTICA

CAPITULO 5
Funcin de Distribucin Especiales

Teorema 4. Varianza residual de una regresin.


En cualquier distribucin bivariante,
E x [V (Y | x)] V [Y ] Vx ( E[Y | x ])

(1.44)

En promedio, condicionar reduce la varianza de la variable sujeta al condicionamiento.


Por ejemplo, si Y es homocedstica, se cumple siempre que la varianza de la(s)
distribucin(es) condicional(es) es menor o igual a la varianza marginal de Y .
Teorema 5. Regresin lineal y homocedasticidad.
En una distribucin bivariante, si E[Y | x] a bx y si V [Y | x] es una constante, entonces
2
V [Y | X ] V [Y ](1 Corr 2 [Y , X ]) y2 (1 xy
)

La prueba se obtiene directamente utilizando los teoremas 2 y 4.


Ejemplo 9. En su estudio 1984, Hausman et al. (1984) sugiere que la distribucin
POISSON es un modelo razonable para la distribucin del nmero de patentes ( P )
concedidas a las empresas en un determinado ao:
f (P | )

P e
P!

P 0,1,2,...

Sin embargo, se sabe que cuanto ms se invierte ( R ) en investigacin y desarrollo


(I&D), mayor es, en promedio, el nmero de patentes recibidas. Esta interaccin
debera afectar a la distribucin de P . Cmo se distribuye R entre las empresas es una
cuestin colateral, que puede ser o no de inters. Pero en lo que estamos interesados es
en cmo interactuan R y el nmero medio de patentes. Como el valor medio de las
patentes recibidas es lambda, supongamos que la distribucin previa de P es condicional
en R y especificamos que:
a bR E[ P | R]

Esperariamos que b fuese positiva. Por tanto,


f ( P | R)

(a bR ) P e ( a bR )
,
P!

P 0,1,2,...

Que capta el efecto que buscbamos. Observar un gran nmero de patentes puede
reflejar un valor alto del proceso POISSON, o bien puede que se derive de un valor
inusualmente alto de R .

Autor: Pablo Tapia G.

Pagina 25

ESTADSTICA

CAPITULO 5
Funcin de Distribucin Especiales

La distribucin POISSON ilustra una trampa que a veces se da en la especificacin de un


modelo economtrico. En una distribucin POISSON, la media es igual a la varianza. No
hemos descartado la posibilidad de que a bR pueda ser negativo para algunos valores de
a y b . No slo es ste un parmetro en cualquier caso invlido para la distribucin de
POISSON, sino que adems, permite una varianza negativa. Esto es un error comn de
especificacin.
Ahora supongamos que R es una fraccin constante del tamao de la empresa, y que
esta variable sigue una distribucin lognormal. As, R tambin seguir una distribucin
lognormal4. Supongamos que 0 y 1 . Entonces
y V [ R] 4,65

E[ R] e 1,65

Supongamos tambin que a 1 y b 2 . Entonces.


E[ P | R] 1 2 R
E[ P ] ER [ E[ P | R ]] ER [1 2 R ] 1 2 ER [ R ] 4,30
VR [ E[ P | R ]] VR [1 2 R] 4VR [ R ] 18,6
V [ P | R] 1 2 R
ER [V [ P | R ]] ER [1 2 R ] 1 2 ER [ R ] 4,30

De esta manera se puede concluir que


V [ P ] VR [ E[ P | R ]] ER [V [ P | R]] 18,6 4,30 22,9

Ntese que V [P] es apreciablemente mayor que E[V [ P | R]] .

Cuando se modelan distribuciones de tamao, tales como la distribucin del tamao de las
empresas en una industria o la distribucin de la renta en un pas, la distribucin lognormal
(LN), que representamos por LN [ , 2 ] es especialmente til.
f (x | , 2 )

1
2 x

Una variable lognormal X tiene E[ X ] e

exp 12 [(ln x ) / ] 2

12 2

y V [ X ] e2 (e 1) la relacin en las
2

distribuciones normal y lognormal es que si Y ~ LN [ , 2 ] , entonces ln(Y ) ~ N [ , 2 ] , por lo


tanto se puede concluir que Y r ~ LN [r , r 2 2 ] .

Autor: Pablo Tapia G.

Pagina 26

ESTADSTICA

CAPITULO 5
Funcin de Distribucin Especiales

4.4. El Anlisis de la Varianza.


El resultado de descomposicin de la varianza implica que en una distribucin bivariante,
la variacin de Y surge por dos motivos:
1. Variacin porque E[Y | x] vara con x :
Intervarianza Varianza de regresin V x ( E[Y | x])

2. Variacin porque, en cada distribucin condicional, Y vara alrededor de la


media condicional.
Intravarianza Varianza residual E x (V [Y | x])

Por tanto,
V [Y ] Varianza de regresin Varianza residual

Cuando analicemos una regresin, habitualmente estaremos interesados en cul de las


dos partes de la varianza total, V [Y ] , es mayor. Por ejemplo, en la relacin patentesI&D, cul explica ms la varianza del nmero de patentes recibidas? variaciones en la
cantidad de I&D (varianza de regresin) o la variacin aleatoria en las patentes recibidas
dentro de la distribucin POISSON (varianza residual)? Una medida natural es el
coeficiente
Coeficiente de Determinacin CoD

Varianza de Regrersin
Varianza Total

Ejemplo 10. Anlisis de la varianza en un modelo de POISSON. Utilizando el ejemplo


anterior tenemos que.
CoD

18,6
0,812
22,9

Esto nos indica que aproximadamente el 81% de la varianza es explicada por la varianza
de la regresin.
En el contexto de una regresin lineal, el coeficiente de determinacin surge de otra
relacin que subraya la interpretacin del coeficiente de correlacin.
Si E[Y | x] a bx , entonces el coeficiente de determinacin CoD 2 , donde 2 es la
correlacin al cuadrado entre x e Y . Podemos concluir que el coeficiente de

Autor: Pablo Tapia G.

Pagina 27

ESTADSTICA

CAPITULO 5
Funcin de Distribucin Especiales

correlacin (al cuadrado), es una medida de la proporcin de la varianza de Y que se


explica por la variacin de la media de Y , dado x . En este sentido la correlacin puede
ser interpretada como una medida de asociacin lineal entre dos variables.
5. TEORA DE CONVERGENCIA EN PROBABILIDADES.
5.1. La Ley Dbil de los Grandes Nmeros.
Al discutir convergencia en probabilidad fue demostrado que cuando el tamao de la
muestra llega a ser grande, la media muestral se acerca a la media poblacional. Esto se
conoce como la ley dbil de los grandes nmeros (WLLN, del ingles Weak Law of Large
Numbers) , lo cual se sostiene bajo una variedad de supuestos.
Teorema 6. Kinchin
Sea X T , T 1 una sucesin de variables aleatoria independiente e idnticamente distribuidas
(IID) con media finita , y sea X T T 1Ti 1 X i , entonces
lim Pr[ X T ] 0

(1.45)

lim Pr[ X T ] 1

(1.46)

O equivalentemente
T

En otras palabras, plim X T = .


Teorema 7. Chebyshev
Sea X T una sucesin de variables aleatoria independientes con media finita T , y
varianza T2 , y sea T T 1Ti 1i . Si las varianzas son igualmente acotadas, esto es,
p

T2 c , entonces ( X T T ) 0 .

Demostracin
Se sabe que var( X T ) T 2 Ti 1 i2 T 1c . Por la desigualdad de Chebyshev5,

La desigualdad de Chebyshev. Si xT es una variable aleatoria y cT y son constantes, entonces

Pr( xT cT ) 2 E[( xT cT ) 2 ]

Autor: Pablo Tapia G.

Pagina 28

ESTADSTICA

CAPITULO 5
Funcin de Distribucin Especiales

Pr[ X T T ]

var( X T )

c
T 2

(1.47)

En este caso tenemos que cuando T tiende a infinito el lado derecho de la ecuacin
(1.47) converge a cero y como la probabilidad no puede ser negativa, entonces se
demuestra que el trmino descrito converge el cero.
Teorema 8. Markovs
Sea X T una sucesin de variables aleatoria con media finita T , y sea X T T 1Ti 1 X i y
p

T T 1Ti 1 i . Si las var( X T ) 0 cuando T , entonces ( X T T ) 0 6.

Teorema 9. Kolmogorovs
Sea X T T 1Ti 1 X i y T T 1Ti 1i , y adems se define ZT X T T . Una condicin
p

necesaria y suficiente para que se cumpla WLLN, debe ocurrir que ZT 0 y que
lim E[ ZT2 /(1 ZT2 )] 0 .
T
5.2. La Ley Fuerte de los Grandes Nmeros
La WLLN indic que bajo ciertas condiciones la media muestral converge en
probabilidad a la media poblacional. Sin embargo, podemos en efecto hacer una
derivacin ms fuerte, la cual se puede indica como que la media muestral converge
almost surely a la media poblacional. Esto se conoce como la ley fuerte de los grandes
nmeros (SLLN que en ingles quiere decir Strong Law of Large Numbers), las bases de
estos resultados que se presentan a continuacin los cuales se apoyan en la dependencia
de las observaciones, su heterocedasticidad y momentos.
Teorema 10.
a.s.

Si las X t s son IID y E ( X t ) , entonces ( X T ) 0 .

Para la demostracin se puede utilizar la desigualdad de Markov. Sea y T una variable


aleatoria que toma valores no negativos y una constante positiva, entonces,
Pr( y T ) 1 E ( y T )

Autor: Pablo Tapia G.

Pagina 29

ESTADSTICA

CAPITULO 5
Funcin de Distribucin Especiales

Teorema 11.
Si las X t s son independientes ( E ( X t ) t ) con varianza finita ( var( X t ) t2 ), y si
a.s.

T1[ T12 var( X T )] , entonces ( X T T ) 0 .

Teorema 12.
a.s.

Si las X t s son IID, entonces una condicin necesaria y suficiente para ( X T T ) 0 es


que E X i i para todo i .
5.3. Teorema Central del Lmite.
Quizs el teorema ms importante de la teora de las grandes muestras es el teorema
central del lmite, el cual indica que, bajo condiciones absolutamente generales (e
intuitivamente razonable), la media de sucesiones de variables aleatorias (tales como la
media muestral), converge a una distribucin normal aunque la distribucin original no
lo sea. As aunque no supiramos cual es la distribucin estadstica de la poblacin a la
cual pertenece la muestra, si se cuenta con una muestra lo suficientemente grande
podremos aproximar bastante bien la distribucin muestral por una distribucin normal.
En los casos que se cumple este teorema se simplifica enormemente la inferencia
estadstica.
Teorema 13. Convergencia en Distribucin
Suponga que X T ( n 1 ) es una sucesin de variables aleatorias con f.d.a FT ( x) , y
d

X T X con una f.d.a. FX ( x) , entonces para cualquier funcin continua g () ,

lim g ( x)dFT ( x) g ( x)dF ( x)

(1.48)

En el caso de una variable aleatoria continua, se tiene que:

lim g ( x) fT ( x)dx g ( x) f ( x)dx

(1.49)

Teorema 14. (TLC)


Sea X 1 , X 2 ,..., X T una sucesin de variables aleatorias, ST corresponde a la suma de la
serie ( Ti1 X i ) y X T es la media de la serie ST / T . La media estandarizada se define como
ZT

XT E( XT )
var( X T )

ST E ( ST )
var( ST )

Autor: Pablo Tapia G.

(1.50)

Pagina 30

ESTADSTICA

CAPITULO 5
Funcin de Distribucin Especiales

Donde se ha definido que ZT N (0,1) .


Algunos de los TLC ms conocidos corresponden a:
Teorema de Moivres: La sucesin de observaciones son independientes de variables de
Bernoulli (Este es el primer caso histricamente establecido).
Este caso es utilizado frecuentemente en la literatura aplicada, claro, no siempre
bajo las condiciones que comprenden este tipo de procedimientos. Para que
podamos ver con ms detalle este comentario, supongamos que contamos con una
muestra de variables aleatoria de Bernoulli independientes e idnticamente
distribuidas, es decir, que cada una de las observaciones posee el mismo valor
esperado p y varianza p(1 p) , donde p representa la probabilidad de que la
variable aleatoria sea igual a 1. Por lo tanto, el promedio de esta muestra tiene
distribucin Binomial7, con valor esperado y varianza igual a:
var( X T ) T 1 p(1 p)

E( XT ) p

Ahora utilizando el teorema de Chebyshev tenemos que:


Pr( X T p )

var( X T )

p(1 p )
2T

Por lo tanto, si aplicamos el lmite de T tendiendo a infinito, nos queda que:


lim Pr( X T p ) lim

p(1 p)
0
2T

Pero, como la probabilidad no puede ser negativa, entonces se puede concluir


que:
lim Pr( X T p ) 0

Entonces, el promedio de la muestra converge en probabilidad a p , as que por la


ley dbil de los grades nmeros converge en distribucin a una normal, es decir,
XT p
var( X T )

T ( X T p)
p (1 p )

N (0,1)

Se debe notar que en el promedio de variables aleatoria Bernoulli se pierde el orden en que salieron los
ceros y unos, por lo tanto, la distribucin de este promedio es la distribucin conjunta de variables
aleatorias Bernoulli sin orden, que corresponde a la descripcin de la distribucin de una Binomial.

Autor: Pablo Tapia G.

Pagina 31

ESTADSTICA

CAPITULO 5
Funcin de Distribucin Especiales

Sin embargo, el lector debe notar que esto se cumplir siempre y cuando el
nmero de observaciones sea sustancialmente grande, es decir que con 30 50
observaciones posiblemente no pudramos concluir lo mismo.
Teorema de Lindberg-Levy: La sucesin utilizada son IID con varianza finita.
Teorema Liapounov: Las X s son independientes con E ( X i ) i , var( X i ) i2 ,
2
E[ X i i
] i ( 0 ), y
(Ti1 i ) 2
0
T (T 2 ) 2
i 1 i
lim

Teorema Lindberg-Feller: Las X s son independientes con E ( X i ) i , var( X i ) i2 ,


sT2 Ti 1 i2 , ST Ti 1 X i , y para 0
lim

1
sT2

i 1

x i ST

( x i ) 2 dFi ( x) 0

Teorema 15.
D
Distribucin lmite normal de una funcin. Si T ( z T )
N [0, 2 ] y si g ( z T ) es
una funcin continua que no dependen de T , entonces
D
T [ g ( z T ) g ( )]
N [0, ( g ( )) 2 2 ]

(1.43)

Ntese que la media y la varianza de la distribucin lmite, son la media y la varianza de


la aproximacin lineal:
g ( z T ) g ( ) g ( )( z T )

(1.44)

Estos resultados sugieren que los momentos de la distribucin lmite son los lmites
ordinarios de los momentos de la distribucin de la muestra finita. Esto es casi siempre
cierto, pero no necesariamente tiene por que ser as. Es posible construir ejemplos en los
que los momentos para muestras finitas ni siquiera existen, mientras que los momentos
de la distribucin lmite estn bien definidos. Incluso en esos casos, generalmente es
posible encontrar la media y la varianza de la distribucin lmite.
Las distribuciones lmite, as como los lmites en probabilidades, pueden simplificar de
manera importante el anlisis de algn problema concreto. Algunos resultados en los que
se combinan ambos tipos de convergencia se presentan a continuacin.

Autor: Pablo Tapia G.

Pagina 32

ESTADSTICA

CAPITULO 5
Funcin de Distribucin Especiales

APNDICE: TABLA
I. DISTRIBUCIN NORMAL ESTANDAR.
Forma funcional:

Pr( Z z0 ) ( z0 )

1
exp s 2 ds
2
2
1

z0

Forma grfica:

Grfico I. Representacin de la probabilidad en una distribucin normal estndar


Tabla 1. Funcin de Distribucin Acumulada de la Distribucin Normal Estndar.
-3,5
-3,4
-3,3
-3,2
-3,1
-3,0
-2,9
-2,8
-2,7
-2,6
-2,5
-2,4
-2,3
-2,2
-2,1
-2,0
-1,9
-1,8
-1,7
-1,6
-1,5
-1,4
-1,3
-1,2
-1,1
-1,0
-0,9
-0,8

0,00
0,0002
0,0003
0,0005
0,0007
0,0010
0,0013
0,0019
0,0026
0,0035
0,0047
0,0062
0,0082
0,0107
0,0139
0,0179
0,0228
0,0287
0,0359
0,0446
0,0548
0,0668
0,0808
0,0968
0,1151
0,1357
0,1587
0,1841
0,2119

0,01
0,0002
0,0003
0,0005
0,0007
0,0009
0,0013
0,0018
0,0025
0,0034
0,0045
0,0060
0,0080
0,0104
0,0136
0,0174
0,0222
0,0281
0,0351
0,0436
0,0537
0,0655
0,0793
0,0951
0,1131
0,1335
0,1562
0,1814
0,2090

0,02
0,0002
0,0003
0,0005
0,0006
0,0009
0,0013
0,0018
0,0024
0,0033
0,0044
0,0059
0,0078
0,0102
0,0132
0,0170
0,0217
0,0274
0,0344
0,0427
0,0526
0,0643
0,0778
0,0934
0,1112
0,1314
0,1539
0,1788
0,2061

0,03
0,0002
0,0003
0,0004
0,0006
0,0009
0,0012
0,0017
0,0023
0,0032
0,0043
0,0057
0,0075
0,0099
0,0129
0,0166
0,0212
0,0268
0,0336
0,0418
0,0516
0,0630
0,0764
0,0918
0,1093
0,1292
0,1515
0,1762
0,2033

0,04
0,0002
0,0003
0,0004
0,0006
0,0008
0,0012
0,0016
0,0023
0,0031
0,0041
0,0055
0,0073
0,0096
0,0125
0,0162
0,0207
0,0262
0,0329
0,0409
0,0505
0,0618
0,0749
0,0901
0,1075
0,1271
0,1492
0,1736
0,2005

0,05
0,0002
0,0003
0,0004
0,0006
0,0008
0,0011
0,0016
0,0022
0,0030
0,0040
0,0054
0,0071
0,0094
0,0122
0,0158
0,0202
0,0256
0,0322
0,0401
0,0495
0,0606
0,0735
0,0885
0,1056
0,1251
0,1469
0,1711
0,1977

Autor: Pablo Tapia G.

0,06
0,0002
0,0003
0,0004
0,0006
0,0008
0,0011
0,0015
0,0021
0,0029
0,0039
0,0052
0,0069
0,0091
0,0119
0,0154
0,0197
0,0250
0,0314
0,0392
0,0485
0,0594
0,0721
0,0869
0,1038
0,1230
0,1446
0,1685
0,1949

0,07
0,0002
0,0003
0,0004
0,0005
0,0008
0,0011
0,0015
0,0021
0,0028
0,0038
0,0051
0,0068
0,0089
0,0116
0,0150
0,0192
0,0244
0,0307
0,0384
0,0475
0,0582
0,0708
0,0853
0,1020
0,1210
0,1423
0,1660
0,1922

0,08
0,0002
0,0003
0,0004
0,0005
0,0007
0,0010
0,0014
0,0020
0,0027
0,0037
0,0049
0,0066
0,0087
0,0113
0,0146
0,0188
0,0239
0,0301
0,0375
0,0465
0,0571
0,0694
0,0838
0,1003
0,1190
0,1401
0,1635
0,1894

0,09
0,0002
0,0002
0,0003
0,0005
0,0007
0,0010
0,0014
0,0019
0,0026
0,0036
0,0048
0,0064
0,0084
0,0110
0,0143
0,0183
0,0233
0,0294
0,0367
0,0455
0,0559
0,0681
0,0823
0,0985
0,1170
0,1379
0,1611
0,1867

Pagina 33

ESTADSTICA

CAPITULO 5
Funcin de Distribucin Especiales

-0,7
-0,6
-0,5
-0,4
-0,3
-0,2
-0,1
0,0
0,0
0,1
0,2
0,3
0,4
0,5
0,6
0,7
0,8
0,9
1,0
1,1
1,2
1,3
1,4
1,5
1,6
1,7
1,8
1,9
2,0
2,1
2,2
2,3
2,4
2,5
2,6
2,7
2,8
2,9
3,0
3,1
3,2
3,3
3,4
3,5

0,00
0,2420
0,2743
0,3085
0,3446
0,3821
0,4207
0,4602
0,5000
0,5000
0,5398
0,5793
0,6179
0,6554
0,6915
0,7257
0,7580
0,7881
0,8159
0,8413
0,8643
0,8849
0,9032
0,9192
0,9332
0,9452
0,9554
0,9641
0,9713
0,9772
0,9821
0,9861
0,9893
0,9918
0,9938
0,9953
0,9965
0,9974
0,9981
0,9987
0,9990
0,9993
0,9995
0,9997
0,9998

0,01
0,2389
0,2709
0,3050
0,3409
0,3783
0,4168
0,4562
0,4960
0,5040
0,5438
0,5832
0,6217
0,6591
0,6950
0,7291
0,7611
0,7910
0,8186
0,8438
0,8665
0,8869
0,9049
0,9207
0,9345
0,9463
0,9564
0,9649
0,9719
0,9778
0,9826
0,9864
0,9896
0,9920
0,9940
0,9955
0,9966
0,9975
0,9982
0,9987
0,9991
0,9993
0,9995
0,9997
0,9998

0,02
0,2358
0,2676
0,3015
0,3372
0,3745
0,4129
0,4522
0,4920
0,5080
0,5478
0,5871
0,6255
0,6628
0,6985
0,7324
0,7642
0,7939
0,8212
0,8461
0,8686
0,8888
0,9066
0,9222
0,9357
0,9474
0,9573
0,9656
0,9726
0,9783
0,9830
0,9868
0,9898
0,9922
0,9941
0,9956
0,9967
0,9976
0,9982
0,9987
0,9991
0,9994
0,9995
0,9997
0,9998

0,03
0,2327
0,2643
0,2981
0,3336
0,3707
0,4090
0,4483
0,4880
0,5120
0,5517
0,5910
0,6293
0,6664
0,7019
0,7357
0,7673
0,7967
0,8238
0,8485
0,8708
0,8907
0,9082
0,9236
0,9370
0,9484
0,9582
0,9664
0,9732
0,9788
0,9834
0,9871
0,9901
0,9925
0,9943
0,9957
0,9968
0,9977
0,9983
0,9988
0,9991
0,9994
0,9996
0,9997
0,9998

0,04
0,2296
0,2611
0,2946
0,3300
0,3669
0,4052
0,4443
0,4840
0,5160
0,5557
0,5948
0,6331
0,6700
0,7054
0,7389
0,7704
0,7995
0,8264
0,8508
0,8729
0,8925
0,9099
0,9251
0,9382
0,9495
0,9591
0,9671
0,9738
0,9793
0,9838
0,9875
0,9904
0,9927
0,9945
0,9959
0,9969
0,9977
0,9984
0,9988
0,9992
0,9994
0,9996
0,9997
0,9998

0,05
0,2266
0,2578
0,2912
0,3264
0,3632
0,4013
0,4404
0,4801
0,5199
0,5596
0,5987
0,6368
0,6736
0,7088
0,7422
0,7734
0,8023
0,8289
0,8531
0,8749
0,8944
0,9115
0,9265
0,9394
0,9505
0,9599
0,9678
0,9744
0,9798
0,9842
0,9878
0,9906
0,9929
0,9946
0,9960
0,9970
0,9978
0,9984
0,9989
0,9992
0,9994
0,9996
0,9997
0,9998

Autor: Pablo Tapia G.

0,06
0,2236
0,2546
0,2877
0,3228
0,3594
0,3974
0,4364
0,4761
0,5239
0,5636
0,6026
0,6406
0,6772
0,7123
0,7454
0,7764
0,8051
0,8315
0,8554
0,8770
0,8962
0,9131
0,9279
0,9406
0,9515
0,9608
0,9686
0,9750
0,9803
0,9846
0,9881
0,9909
0,9931
0,9948
0,9961
0,9971
0,9979
0,9985
0,9989
0,9992
0,9994
0,9996
0,9997
0,9998

0,07
0,2206
0,2514
0,2843
0,3192
0,3557
0,3936
0,4325
0,4721
0,5279
0,5675
0,6064
0,6443
0,6808
0,7157
0,7486
0,7794
0,8078
0,8340
0,8577
0,8790
0,8980
0,9147
0,9292
0,9418
0,9525
0,9616
0,9693
0,9756
0,9808
0,9850
0,9884
0,9911
0,9932
0,9949
0,9962
0,9972
0,9979
0,9985
0,9989
0,9992
0,9995
0,9996
0,9997
0,9998

0,08
0,2177
0,2483
0,2810
0,3156
0,3520
0,3897
0,4286
0,4681
0,5319
0,5714
0,6103
0,6480
0,6844
0,7190
0,7517
0,7823
0,8106
0,8365
0,8599
0,8810
0,8997
0,9162
0,9306
0,9429
0,9535
0,9625
0,9699
0,9761
0,9812
0,9854
0,9887
0,9913
0,9934
0,9951
0,9963
0,9973
0,9980
0,9986
0,9990
0,9993
0,9995
0,9996
0,9997
0,9998

0,09
0,2148
0,2451
0,2776
0,3121
0,3483
0,3859
0,4247
0,4641
0,5359
0,5753
0,6141
0,6517
0,6879
0,7224
0,7549
0,7852
0,8133
0,8389
0,8621
0,8830
0,9015
0,9177
0,9319
0,9441
0,9545
0,9633
0,9706
0,9767
0,9817
0,9857
0,9890
0,9916
0,9936
0,9952
0,9964
0,9974
0,9981
0,9986
0,9990
0,9993
0,9995
0,9997
0,9998
0,9998

Pagina 34

ESTADSTICA

CAPITULO 5
Funcin de Distribucin Especiales

APNDICE: USO
II. USO DE TABLA NORMAL PARA CLCULO DE PROBABILIDAD Y
TEOREMA CENTRAL DEL LMITE
2.1. Simetra de la Normal
Suponga una distribucin normal estndar, la cual representaremos por medio de la
siguiente figura.

Figura a. Representacin del rango que el 90% ms probable.


Adems intentaremos determinar el valor de zo o el rango de valores que tiene un 90%
de probabilidades sobre el total de valores, para ello recordaremos lo siguiente.
Pr( Z z ) ( z ) ( s )ds
z

Y que
z2

z2

z2

Pr( z1 Z z2 ) ( s )ds ( s )ds ( s )ds Pr( Z z2 ) Pr( Z z1 )


z1

Por lo tanto, ceidos a nuestro problema debe ocurrir que


Pr( z1 Z z2 ) 0.9

Pero como la distribucin normal estndar es simtrica con respecto a cero, tenemos
z2 z1 , de esta forma las probabilidades antes mencionadas se pueden descomponer de
la siguiente forma:
Pr( z1 Z z2 ) Pr( Z z2 ) Pr( Z z1 ) 0.9
Pr( Z z2 ) 0,95

Pr( Z z1 ) 0.5

Autor: Pablo Tapia G.

Pagina 35

ESTADSTICA

CAPITULO 5
Funcin de Distribucin Especiales

Claramente se puede apreciar que la resta genera el valor 0.9, que interpretaremos como
el conjunto de valores que posee un 90% de representatividad.
Ahora podemos calcular cada probabilidad por separado, y encontrar que son iguales en
modulo, por lo tanto, primero determinaremos el valor de z2 .
Clculo de z2 , en base a Pr( Z z2 ) 0,95 . Primero debemos tener presente que en la
tabla aparecen una primera columna y una primera fila que se encuentra oscurecidas en
el cuadro a.

Cuadro a. Representacin de la tabla normal estndar, para valores de z positivos.


Esta primera columna representa el valor de z con un decimal (el primero), mientras
que el segundo decimal corresponde al de la primera fila. Por lo tanto, nosotros
buscamos la probabilidad de 0.95, la cual se encuentra marcada por un circulo en el
cuadro a. Pero, al extender una flecha en forma horizontal encontramos el nmero 1,6
que corresponderan al valor de z2 hasta el primer decimal, sin embargo, al extender
una flecha en forma vertical, nos encontramos con el valor 0,05 que representa el
segundo decimal de z2 , esto nos dice que el valor completo de z2 es 1,65.

Cuadro b. Representacin de la tabla normal estndar para valores de z negativo.


En forma anloga a la anterior pero utilizando el cuadro b, es posible determinar el valor
de z1 . Si consideramos la misma aproximacin que antes, z1 es igual -1,65.
Este ltimo resultado concuerda con el hecho de que la distribucin normal estndar es
simtrica.

Autor: Pablo Tapia G.

Pagina 36

ESTADSTICA

CAPITULO 5
Funcin de Distribucin Especiales

Entonces, podemos concluir que el rango que tiene un 90% de representatividad en una
distribucin normal se encuentra dentro [1, 65;1, 65] .
2.2. Otro tipo de clculo por medio de la tabla estndar.
Suponga que cuenta con una muestra aleatoria de tamao N obtenida de una poblacin
que posee una distribucin normal con media y varianza 2 , la cual informa que el
40% de las observaciones son menores a 20 y el 45% son menores a 35. Estime en forma
aproximada el valor de la media y de la varianza.
Para poder realizar este clculo debemos suponer que la muestra es lo suficientemente
grande como para ser representativa de la poblacin, por lo tanto, el enunciado anterior
se puede expresar en trminos estadsticos como:
Pr( X 20) 0, 40

y que Pr( X 35) 0, 45

Tambin sabemos que las probabilidades de variables normales pueden ser llevada a una
normal estndar, es decir,
Pr[ 1 ( X ) 1 (20 )] 0, 40

Sin embargo, al hacer este cambio hemos igualado la probabilidad de una normal
cualquiera a la probabilidad de una normal estndar. De esta manera para la probabilidad
de 0.4 el valor de eje ( z ) se encuentra aproximadamente en el valor de -0.25, segn se
muestra en el crculo del cuadro c.

Cuadro c. Tabla de distribucin normal estndar.


Esto quiere decir que Pr( Z 0, 25) 0, 4 , por lo tanto, al igualar estas dos
probabilidades tenemos que:
1

(20 ) 0, 25

Autor: Pablo Tapia G.

Pagina 37

ESTADSTICA

CAPITULO 5
Funcin de Distribucin Especiales

De la cual se desprende nuestra primera ecuacin 0, 25 20 , pero se hace necesaria


una segunda ecuacin, ya que tenemos dos incgnitas. Esta segunda ecuacin la podemos
generar de la segunda probabilidad, de manera que:
Pr[ 1 ( X ) 1 (35 )] 0, 45

Pero, tal como podr percibir el lector, la probabilidad de 0.45, se encuentra


aproximadamente a la misma distancia entre dos valores, por lo tanto, se puede tomar el
punto medio como referencia, lo cual en algunos casos no sera muy preciso, sin
embargo, tambin se podra recurrir a una extrapolacin considerando una recta entre
dos puntos, es decir,
Recuerde que la recta que pasa por dos puntos, ( x1 , y1 ) y ( x2 , y2 ) , es:
y

y2 y1
( x x1 ) y1
x2 x1

Por lo tanto, de la tabla sabemos que para un valor de eje igual a -0,12 la probabilidad
acumulada es 0.4522, mientras que para un valor de eje igual -0,13 la probabilidad
acumulada respectiva es igual 0.4483 (ver cifras encerradas en un cuadrado, en el
cuadro c), que al ser utilizado como puntos, hace que la recta quede expresada como
y

0,13 0,12
( x 0, 4522) 0,12
0, 4483 0, 4522

Entonces, podemos concluir que para una probabilidad acumulada de 0.45, el valor de
eje corresponde a -0,126.
De esta forma al igual las probabilidades tenemos nuestra segunda ecuacin, es decir,
1

(35 ) 0,126

0,126 35

Con lo cual podemos construir el siguiente sistema de ecuaciones


0, 25 20
0,126 35

Que una vez resuelto nos entrega que un valor aproximado de la media es 50.24 y para
la desviacin estndar es 120.97, con lo cual podemos sealar que la varianza
corresponde a 14633.74.

Autor: Pablo Tapia G.

Pagina 38

Das könnte Ihnen auch gefallen