Beruflich Dokumente
Kultur Dokumente
Estadstica Matemtica
J.A. Caballero
c Universidad de Crdoba 4 de junio de 2013
ndice general
Contents
Preface
1.3. Combinatoria . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.3.1. Variaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.3.2. Variaciones con Repeticin . . . . . . . . . . . . . . . . . . . . 13
1.3.3. Permutaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.3.4. Combinaciones . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.3.5. Combinatoria en R . . . . . . . . . . . . . . . . . . . . . . . . 16
1.4. Concepto de Variable Aleatoria . . . . . . . . . . . . . . . . . . . . . 20
1.5. Distribucin de Probabilidad de una V.A. . . . . . . . . . . . . . . . 21
1.6. La Funcin de Distribucin de una V.A. . . . . . . . . . . . . . . . . 21
1.7. Variables Aleatorias Discretas . . . . . . . . . . . . . . . . . . . . . . 22
i
NDICE GENERAL
ii
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
1.8.2. Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
1.8.3. Binomial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
1.8.4. Muestreo con-sin Reemplazamiento . . . . . . . . . . . . . . . 25
1.8.5. Hipergeomtrica . . . . . . . . . . . . . . . . . . . . . . . . . . 25
1.8.6. Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
1.8.7. Relacin entre los Modelos Discretos . . . . . . . . . . . . . . 28
1.9. Variables Aleatorias Continuas . . . . . . . . . . . . . . . . . . . . . . 29
1.10. El Concepto de V.A. Continua . . . . . . . . . . . . . . . . . . . . . . 29
1.11. Modelos de V. A. Continuas . . . . . . . . . . . . . . . . . . . . . . . 32
1.11.1. Uniforme
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
1.11.2. Normal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
1.11.3. Gamma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
1.11.4. Exponencial . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
1.11.5. Chi-Cuadrado . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
1.11.6. F-Snedecor . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
1.11.7. t-Student . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
1.12. Otras Distribuciones . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
1.12.1. Breit-Wigner . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
2. Muestreo y Estimacin
39
NDICE GENERAL
iii
. . . . . . . . . . . . . 49
55
61
4.1. Introduccin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
4.2. Regresin Lineal Simple . . . . . . . . . . . . . . . . . . . . . . . . . 62
4.2.1. Estimacin de los Coeficientes del modelo . . . . . . . . . . . 63
4.2.2. Estimacin del Error Tpico de la Regresin . . . . . . . . . . 66
4.3. Tests de Hiptesis para los Coeficientes del Modelo . . . . . . . . . . 68
4.3.1. Tests sobre la Pendiente . . . . . . . . . . . . . . . . . . . . . 68
4.3.2. Test sobre la Ordenada en el Origen
. . . . . . . . . . . . . . 69
NDICE GENERAL
iv
81
ndice de figuras
1.1. La variacin (Ana, Paco, Luis) interpretada como una aplicacin biyectiva
12
. . . . . . . . . . . . . . . . . . . . . . 33
2.1.
. . . . . . . . . . . . . . . . . . . . 53
vi
NDICE DE FIGURAS
ndice de cuadros
vii
viii
NDICE DE CUADROS
Prlogo
Este libro pretende ser una ayuda para los alumnos de primero de Fsicas de
la Facultad de Ciencias de la Universidad de Crdoba. En concreto para hacerles
mas fcil seguir la parte, denominada Probabilidad y Estadstica, de la asignatura
de Mtodos Matemticos I.
NDICE DE CUADROS
Captulo 1
Variables A. y sus Distribuciones
Captulo donde veremos contenidos necesarios para entender el resto de la materia.
1.1.
1.1.1.
Experimentos Aleatorios
Un experimento o un fenmeno se dice aleatorio si tiene las siguientes caracteristicas: Se conocen todos los posibles resultados del experimento pero no se puede
predecir su resultado, adems se puede repetir bajo las mismas condiciones iniciales.
En todo caso el experimento debe ser claramente explicitado, es decir su formulacin
no puede dar lugar a ambiguedad. Un resultado concreto de una experiencia aleatoria se denomina suceso. Cuando estudiamos una experimento aleatorio necesitamos
trabajar con sus resultados, es decir con los sucesos. Si pudieramos trabajar, en lugar
de con sucesos, con nmeros sera mas cmodo. Eso se consigue con el concepto de
variable aleatoria, que modela los sucesos en el conjunto de los nmeros reales. El
concepto de variable aleatoria sirve para modelizar los resultados de un experimento
aleatorio por medio de los nmeros reales.
3
1.1.2.
Espacio Muestral
Una clase no vaca A se dice que es un -campo o una -lgebra, si es cerrada para uniones
numerables, para complementarios y contiene al vaco.
1.1.3.
Un espacio de probabilidad est formado por una terna (, A, P ) cuyos elementos son el espacio muestral, es decir la pareja (, A), y P es una funcin especial
que se denomina una Probabilidad y se define as,
Una funcin de conjuntos, P : A R es una Probabilidad, si verifica los
axiomas de Kolmogorov:
1. P () = 1
2. A A
3. P (
es
i=1 Ai ) =
P (A) 0
P (Ai )
si
Ai Aj = i 6= j
1=1
1.1.4.
. En un espacio muestral finito y si todos los n-sucesos elementales son equidefine una probabilidad en el espacio muestral. La
probables, entonces P (A) = #(A)
n
regla de Laplace expresa que la funcin de probabilidad en un suceso toma de valor el
cociente entre el nmero de resultados favorables a su realizacin y el total de casos
posibles, es decir la frecuencia relativa del suceso.
La definicin de Laplace adolece de las siguientes dificultades: 1) Excluye a los
nmeros irracionales, 2) Solo admite n finito y 3) Solo considera sucesos elementales
equiprobables.
1.1.5.
r
6
(6r)
6
1.1.6.
Propiedades de la Probabilidad
A partir de los axiomas que debe verificar una Probabilidad se pueden deducir
toda una serie de propiedades. Veamos las bsicas:
Propiedad 1.1.4 Si A, B A con A B, entonces P (A) P (B)
En palabras, la anterior propiedad viene a decir que, si un suceso B es mayor
que otro A, en el sentido de que al realizarse A se realiza B, entonces la probabilidad
de B es mayor o igual que la de A.
Propiedad 1.1.5 Si A, B A entonces P (A
B) = P (A) + P (B) P (A
B)
1.2.
Probabilidad Condicionada
Con frecuencia tener informacin acerca de un suceso puede afectar a las probabilidades de otro, por ejemplo cal es la probabilidad de que llueva maana si
hoy ha llovido?. La nocin de probabilidad condicionada, ayuda a saber si el conocimiento de la ocurrencia de un determinado suceso puede afectar a las probabilidades
de otros.
Supongamos que (, B, P) es un espacio de probabilidad y en l sean A, B dos
sucesos tal que P (B) > 0, definimos:
Definicin 1.2.1 Se llama probabilidad condicionada del suceso A dado que ocuy se representa
rri el B, o probabildiad de A condicionada a B, al cociente P P(AB)
(B)
por P (A|B):
P (A B)
P (A|B) =
P (B)
En realidad la definicin proporciona una nueva funcin de probabilidad; induce
un nuevo espacio de probabilidad como expresa el siguiente teorema.
Teorema 1.2.2 Dado un suceso B de un espacio de probabilidad (, B, P) tal que
P (B) > 0. La funcin P (|B) = PP(B)
es una probabilidad sobre el -algebra B ,
(B)
formada por los conjuntos de la forma A B, con A B.
Si observais la frmula de la definicin de la probabilidad condicional, permite
expresar la probabilidad de la ocurrencia simultnea de los sucesos A y B de la forma
P (A B) = P (B) P (A|B). Es posible generalizar ese resultado:
Teorema 1.2.3 (Regla de la Multiplicacin) Si A1 , A2 , A3 , . . . es una sucesin
numerable de sucesos verificando P (A1 ) > 0, P (A1 A2 ) > 0, P (A1 A2 A3 ) > 0, . . .
entonces
P (A1 A2 An ) = P (A1 )P (A2 |A1 )P (A3 |A1 A2 ) P (An |A1 A2 . . .An1 )
En ocasiones la ocurrencia de un suceso B no altera la probabilidad de que ocurra otro suceso A, es decir P (A|B) = P (A). Entonces se dice que A es independiente
de B.
Definicin 1.2.4 (Independencia Estadstica) El suceso A es independiente
de B si P (A|B) = P (A).
En el caso de que sea A independiente de B la frmula P (A B) = P (B)
P (A|B) se convierte en P (A B) = P (B) P (A) resultado que se puede usar como
una definicin equivalente de independencia, o como propiedad:
Ai = ,
Ai Aj = ,
P (Ai ) > 0 i, j
i=i
X
i=1
P (B|Ai ) P (Ai )
i 6= j
10
Ai = ,
Ai Aj = ,
P (Ai ) > 0 i, j
i 6= j
i=i
1
4
P ({f }) =
1
4
P ({g}) = 0
Ejercicio 1.2.14 La compaia de Cervezas Alcazaba, envasa en botellas una cerveza especial en cada una de sus cuatro factorias situadas en Crdoba, Granada, Sevilla
y Madrid. Las factorias primera y segunda producen, respectivamente, el 35 % y el
25 % del total de la produccin; en tanto que la tercera y cuarta producen, cada una,
y el 20 %. La experiencia nos dice que la primera de las factorias produce un 8 % de
envasados defectuosos, la segunda el 6 %, la tercera y cuarta el 5 %. Tomamos una
botella al azar, (a)Cal es la probabilidad de que sea defectuosa?, (b) Tomamos la
botella y observamos que es defectuosa cal es la probabilidad de que proceda de la
factoria de Crdoba?.
Ejercicio 1.2.15 Consideremos una prueba que se realiza en la sangre para detectar una cierta enfermedad. La prueba d positiva en el 97 % de las veces que la
enfermadad est presente, y d un falso positivo en el 0,4 % de los casos. Supongamos que el 0,5 % de la poblacin actual tienen la enfermedad. Si se elige al azar a
una persona, se le realiza la prueba y d positivo, cal es la probabilidad de que
est enfermo?.
1.3. COMBINATORIA
1.3.
11
Combinatoria
1.3.1.
Variaciones
n!
= n (n 1) (n 2) ... (n r + 1)
(n r)!
12
Ejemplo 1.3.2 Con los elementos del conjunto A = {x, y, z, t, i}, las variaciones
de 3 de sus elementos que se pueden obtener es V5,3 = 5 4 3
> prod(5:3)
[1] 60
Ejemplo 1.3.3 Si un conjunto A tiene #(A) = 32 las variaciones de sus elementos,
tomados de 7 en 7 que se pueden obtener es V32,7 = 32 31 30 29 28 27 26
> prod(32:26)
[1] 16963914240
Proposicin 1.3.5 Si A es un conjunto con n elementos y B otro con r, con r n.
Entonces el nmero de aplicaciones inyectivas que se pueden establecer de B en A
es Vn,r
Corolario 1.3.6 Dado un conjuto A con n elementos, cualquier variacin de sus
elementos tomados de r en r, puede ser interpretada como una aplicacin inyectiva
del conjunto I = {1, 2, 3, ..., r} en A
As dado el conjunto de alumnos A = {P aco, Luis, Ana, P epe} la variacin
(Ana, Paco, Luis) puedes ser interpretada
Figura 1.1: La variacin (Ana, Paco, Luis) interpretada como una aplicacin biyectiva
1.3. COMBINATORIA
1.3.2.
13
Definicin 1.3.7 Variaciones con Repeticin Dado un conjunto A con n elementos se llaman Variaciones con repeticin de esos n elementos tomados de r en
r, con r n, a cada una de las agrupaciones ordenadas que podemos formar con r
de ellos, repetidos o no. De manera que, una Variacin con repeticin se diferencia
de otra, o por tener al menos un elemento distinto o por tenerlos en orden diferente.
Ejemplo 1.3.4 Dado el conjunto A = {3, 7, 12} las variaciones con repeticin de
sus elementos, tomados de 2 en 2, son {3, 3}{3, 7}{3, 12}{7, 3}{7, 7}{7, 12}{12, 3}
{12, 7}{12, 12}
Proposicin 1.3.8 El nmero de Variaciones con repeticin de n elementos tomados de r en r, que simbolizaremos por V Rn,r V Rnr es V Rn,r = V Rnr = nr
Ejemplo 1.3.5 Con los elementos del conjunto A = {x, y, z, t, i}, las variaciones
con repeticin de 3 de sus elementos que se pueden obtener es V R5,3 = V R53 = 53
> 5^3
[1] 125
Ejemplo 1.3.6 Si un conjunto A tiene #(A) = 32 las variaciones de sus elementos,
7
tomados de 7 en 7 que se pueden obtener es V R32,7 = V R32
= 327
> 32^7
[1] 34359738368
Proposicin 1.3.9 Si A es un conjunto con n elementos y B otro con m, con
n m. Entonces el nmero de aplicaciones que se pueden establecer de A en B es
V Rn,m = V Rnm
Corolario 1.3.10 Dado un conjuto A con n elementos, cualquier variacin de sus
elementos con repeticin de r, puede ser interpretada como una aplicacin del conjunto I = {1, 2, 3, ..., r} en A
As dado el conjunto de alumnos A = {P aco, Luis, Ana, P epe} la variacin
con repeticin de 3 (Ana, Ana, Ana) puedes ser interpretada
14
Figura 1.2: La repeticin (Ana, Ana, Ana) interpretada como una aplicacin
1.3.3.
Permutaciones
1.3. COMBINATORIA
15
Proposicin 1.3.13 Sean dos conjunto A y B tales que #(A) = #(B) = n entonces el nmero de aplicaciones biyectivas de A en B es Pn = n!
Corolario 1.3.14 Cada forma de ordenar todos los elementos de un conjunto A,
es decir cada permutacin de los elementos de A, puede ser interpretada como la
imagen de una aplicacin biyectiva del conjunto {1, 2, 3, ..., n} en el conjunto A
As dado el conjunto de alumnos A = {P aco, Luis, Ana, P epe} la permutacin
{ Ana, Luis, Paco, Pepe} puede ser interpretada
Figura 1.3: La permutacin {Ana, Luis, Paco, Pepe} interpretada como una aplicacin biyectiva
1.3.4.
Combinaciones
16
1.3.5.
Combinatoria en R
1.3. COMBINATORIA
17
8
C17
Si queremos
conocer el valor de un nmero combinatorio, por ejemplo C17,8 =
17
= 8
> choose(17,8)
[1] 24310
Para calcular el nmero de Variaciones en R no hay una funcin directa, las
n,r
por lo que Vn,r = Vnr = Cn,r r!
calculamos usando la relacin Cn,r = Cnr = nr = Vr!
Para el anterior conjunto A formado por A={x, y, z, t, v } el nmero de
variaciones de los elementos de A tomados de 3 en 3 es V5,3 = V53 = C5,3 3!
> choose(5,3)*factorial(3)
[1] 60
En los prrafos anteriores hemos indicado como calcular el nmero de Permutaciones, Combinaciones y el de Variaciones. A continuacin veremos como obtenerlas. Para ello necesitamos instalar algn paquete adicional.
Instalacin de Paquetes
R es la versin GNU ( http://www.gnu.og ) de un lenguaje de programacin,
orientado a objetos, denominado S. Se distribuye bajo licencia GNU GPL.
18
Cuando se instala R se instalan el Sistema Base y adems una serie de paquetes adicionales, cuya cantidad puede variar de una versin a otra. En la actualidad
la versin base no tiene la posibilidad de obtener las Combinaciones ni las Permutaciones ni las Variaciones. Existen en CRAN un par de paquetes con los que se
pueden obtener. Son los paquetes combinat y el paquete gtools. Si deseamos ver el
listado de paquetes disponibles consultar en http://cran.r-project.org/web/packages/
En el mismo enlace anterior se puede consultar la documentacin sobre cada
uno de los paquetes. Lo que obviamente hay que hacer para informarse de que funcin
y como trabaja es la que necesitamos.
Ejemplo 1.3.8 Para el conjunto B formado por B={x,z,t} vamos a obtener las
permutaciones de los elementos de B que ya sabemos son un total de 3! = 3 2 1 = 6
> install.packages("combinat")
> library(combinat)
> B<-c("x","z","t")
> permn(B)
[[1]]
[1] "x" "z" "t"
[[2]]
[1] "x" "t" "z"
[[3]]
[1] "t" "x" "z"
[[4]]
[1] "t" "z" "x"
[[5]]
[1] "z" "t" "x"
[[6]]
[1] "z" "x" "t"
Observad que, adems de instalar el paquete install.packages(combinat")
necesitamos cargarlo con el mandato library(combinat")
Se nos ha creado el objeto permn(B) que es un vector de seis componentes.
Si deseamos ver la tercera de ella, basta:
1.3. COMBINATORIA
19
> permn(B)[3]
[[1]]
[1] "t" "x" "z"
Ejemplo 1.3.9 Para el conjunto H formado por H={m,j,17,k} vamos a obtener las
combinaciones de los elementos de H que ya sabemos son un total de C4,3 = C43 =
V4,3
4
= 3! = 4
3
> combn(H,3)
[,1] [,2]
[1,] "m" "m"
[2,] "j" "j"
[3,] "17" "k"
[,3]
"m"
"17"
"k"
[,4]
"j"
"17"
"k"
El mandato combn(H,3) crea una matriz. Por ello nos muestra una matriz
de 3 filas y cuatro columnas. Las combinaciones aparecen como las columnas de esa
matriz. Si deseamos tomar una de ellas, por ejemplo la tercera, basta:
> combn(H,3)[,3]
[1] "m" "17" "k"
Observad que no h asido necesario volver a cargar, puesto que ya lo estaba, el paquete.
Ejercicio 1.3.23 Considera el conjunto formado por los alumnos de nuestra clase:
Cuantos grupos de 4 podemos formar?
De cuantas formas podemos elegir dos representantes de la clase?
De cuatas formas podemos elegir un delegado y un subdelegado?
Ejercicio 1.3.24 Si en una clase de 23 alumnos, 9 son mujeres. Si elegimos al
azar dos alumnos Cual es la probabilidad de que ambos sean mujeres?
Ejercicio 1.3.25 Si rellenamos una quiniela de futbol con un signo doble en una
columna y otro triple en otra, que probabilidad tenemos de acertar un pleno?
Ejercicio 1.3.26 Cuanto aumenta nuestra probabilidad de ganar un pleno de la
primitiva, si en lugar de jugar una sola apuesta, jugamos diez apuestas?
20
1.4.
1.5.
21
PX (B) = P (X 1 (B)) 0
2. PX (R) = P (X 1 (R)) = P () = 1
3. P
Dada {i Bi } ,Bi Bj 6= , i 6 j : PX (i Bi ) = P (X 1 (i Bi )) = P (i X 1 (Bi )) =
1
(i Bi ))
i P (X
Definicin. Dado un espacio de probabilidad (, A, P ) y sobre su espacio muestral
una v.a. X, sta induce un nuevo espacio de probabilidad (R, B, PX ) que se llama
Espacio de Probabilidad Inducido por la v.a. X
1.6.
22
1.7.
P [X = x] si x Soporte
0
en otro caso
P
xn D
pX (xn ) = 1
1.8.
23
1.8.1.
Uniforme
Una variable aleatoria discreta que toma sus valores en un conjunto finito D,
se llama Uniforme y lo notaremos X U (D) si su f.m.p. es
pX (x) =
1
,
#(D)
xD
1.8.2.
Bernoulli
px (1 p)(1x) , si x = 0, 1
0, en otro caso
Probar, como ejercicio, que verifica las propiedades de una f.m.p.; es claro que
su soporte es {0, 1} en donde toma, respectivamente, las probabilidades 1 p y p.
En muchos contextos los valores 0 y 1 del soporte se asocian con sucesos "fracaso
"xito", o al revs dependiendo de a cual de ellos deba asignarsele la probabilidad p.
2
Ejemplo 13. El ciclo de un semforo es 15seg. verde, 5seg. mbar y 55seg. rojo.
Supongamos que las condiciones de trfico son tales que la llegada al semforo es
una experiencia aleatoria, que es igualmente probable llegar en cualquier momento
al semforo, que es un "xito"si est en verde y "fracaso.en cualquiera de las otras
dos. Expresar la f.m.p. de la v.a. X nmero de xitos en un ensayo.
Observacin. Una v.a. de Bernoulli con p =
1
2
24
1.8.3.
Binomial
Sean n Z + y p [0, 1], diremos que una v.a. es una Binomial de parmetros
n y p, y lo notaremos X B(n, p) si su f.m.p. es
n x
p (1 p)nx , si x = 0, 1, . . . , n
x
pX (x) = P (X = x) =
0,
en otro caso
Probar, como ejercicio, que verifica las propiedades de una f.m.p.
Ejemplo 14. Volvamos al ejemplo del semforo y consideremos 25 llegadas, sin relacin entre ellas, describir la f.m.p. de la v.a. nmero de xitos en las 25 llegadas.
Observacin. Una v.a. Binomial puede describirse como la repeticin de un nmero
finito de pruebas tipo Bernoulli, que son independientes, y con igual parmetro p.
Ejemplo 15. Una empresa suministra los fusibles en paquetes de 10 unidades. Elegimos al azar uno de esos paquetes y anotamos el nmero de fusibles no aptos.
Identificar la variable aleatoria y dar sus posibles valores.
Ejemplo 16. Supongamos que una moneda est desequilibrada de tal forma que al
lanzarla es doblemente probable que salga cara a que salga cruz. Supongamos la
experiencia aleatoria lanzar esa moneda tres veces y anotamos el nmero de caras
obtenidas. Determinar la funcin de probabilidad de la v.a. asociada a la experiencia.
Calcular la probabilidad de que el nmero de caras obtenidas sea como mximo 2.
Ejemplo 17. Un sistema consta de cinco componentes, al menos tres de ellos deben
estar en buen estado para que el sistema funcione correctamente. Los componentes funcionan independientemente unos de los otros. Cada uno de ellos tiene una
1
probabilidad p = e 2 de funcionar correctamente al menos 500 dias. Calcular la
probabilidad de que el sistema funcione correctamente al menos 500 dias.
Ejemplo 18. Tenemos un cristal con dos tipos de impurezas, una de ellas absorbe
un fotn sin liberar un electrn y la otra libera un electrn cuando absorbe un fotn.
Hay el mismo nmero de impurezas de cada tipo, pero las zonas de absorcin de las
del primer tipo es 99 veces mas grande que las del segundo tipo. Las dimensiones del
cristal son las necesarias para absorber todos los fotones. Se lanzan sobre el cristal
200 fotones, cal es la probabilidad de que al menos tres electrones sean liberados?.
Ejemplo 19. Se sabe que un 5 % de las particulas "lanzadas.atraviesan una zona de
campo magntico, cuantas particulas debemos lanzar para que la probabilidad de
25
1.8.4.
1.8.5.
Hipergeomtrica
(
pX (x) = P (X = x) =
a
(xa)(Nnx
)
si max(0, n (N a)) x mn(n, a)
N
(n)
0
en otro caso
26
27
basta observar que la v.a. X "nmero de marcadas que hay en la recaptura.es una
( a )( N a )
X H(N, n, a) por lo que pX (x0 ) = P (X = x0 ) = x0 Nnx0 que, al ser N desco(n)
nocido, es una funcin que depende de N .
f (N ) =
a
x0
N a
nx0
N
n
si obtenemos su mximo este se encuentra para N = a xn0 por lo que ese valor es una
estimacin del tamao de la poblacin.
1.8.6.
Poisson
pX (x) = P (X = x) =
e x! , si x = 0, 1, 2, . . .
0,
en otro caso
Veamos algunos casos tpicos que pueden ser modelados por una variable aleatoria de Poisson.
Ejemplo 24. La compaia de software microSOL tiene un linea telefnica de ayuda
al cliente para sus 100,000 clientes. Supongamos que por trmino medio los clientes
que llaman durante una hora es 20. La v.a. X nmero de clientes que llaman durante
una hora admite un modelo de Poisson.
Ejemplo 25. Consideremos una fuente radiactiva: una masa de 12gr. de un material
radiactivo homogneo, emitiendo por trmino medio 10 partculas en un tiempo t. La
v.a. X nmero de partculas emitidas en ese periodo de tiempo t admite un modelo
de Poisson.
Ejemplo 26. Supongamos que una impresora de alta velocidad comete errores aleatorios en la impresin, haciendo por trmino medio 2 errores por pgina. La v.a. X
nmero de errores por pgina admite un modelo de Poisson.
Propiedad. (Frmula de recursin) Si P [X = k] es la probabilidad de Poisson con
28
1.8.7.
Pretendemos mostrar que determinados modelos de variables aleatorias discretas que hemos visto, "tienden.en un sentido que precisaremos mas adelante a otros
tal como esquematizamos,
BernoulliBinomial Pretendemos indicar en esta relacin algo que ya hemos dicho: que el modelo binomial se puede considerar como la repeticin, en determinadas
condiciones, del modelo de Bernoulli.
BinomialPoisson Si X B(n, p), entonces puede ser aproximadamente modelada por una variable aleatoria de Poisson Y P() con = n p.
lm np = > 0. Entonces, si es P la
Teorema. Si X B(n, p), si se verifica que n
p0
x
x!
29
pX (x) = P (X = x) =
a
x
N n
nx
N
n
nx
,
N a
n
N
1.9.
Sin mucho esfuerzo podemos detectar experiencias aleatorias con cuyos resultados no es posible definir una variable aleatoria discreta. Es decir una v.a. que toma
valores diferentes con probabilidades no nulas en un conjunto discreto de valores.
Por ejemplo la duracin de una vlvula electrica, la radiacin solar diaria en un
mes concreto, el tiempo de trabajo de una CPU en un da. Si con estas experiencias
definimos una v.a. debera de tomar valores en un intervalo de nmeros reales. Ese
tipo de v.a. reciben el nombre de continuas y en este tema pretendemos ver algunas
distribuciones de probabilidad de v.a. de esa clase.
1.10.
La definicin formal de v.a. continua se hace a partir de la Funcin de Distribucin. Sea un espacio de probabilidad (, A, P ) y sobre l definida una v.a. X,
consideremos su Funcin de Distribucin F , decimos,
30
Definicin. La variable aleatoria X se llama Continua si su Funcin de Distribucin F es absolutamente continua.Al ser la funcin absolutamente continua significa
que es continua y posee derivada, salvo quizas un conjunto de medida nula. (Cualquier intervalo finito contiene, como mximo, un numero finito de puntos donde no
es derivable). Por ello tiene sentido escribir:
d
F (x)
= f (x), f
dx
Z+
f (t)dtpor lo que
f (t)dt = P [X +] = P [x ] = F (+).
31
Z
P (B) =
f (x)dx
BDR
En particular
Z
P (a X b) = P (a < X < b) =
f (x)dx
a
0 si x < 0
x si x [0, 1]
F (x) =
1 si x > 1
Dibujar su grfica y determinar su funcin de densidad.
Ejemplo 29. Sea la funcin
f (x) =
3x2 si 0 x 1
0
en otro caso
k exp3x si x > 0
0
si x 0
6x(1 x) si x (0, 1)
0
si x 6 (0, 1)
32
x
1
x exp 3
9
si x > 0
si 0 x 0
1.11.
Modelos de V. A. Continuas
1.11.1.
Uniforme
1.11.2.
1
ba
a<x<b
Normal
33
1 x 2
1
f (x) = e 2 ( ) , < x <
2
Figura 1.4:
Las caracteristicas de la curva (dominio, simetrias, asintotas, inflexiones, extremo absoluto ) se observan en la grfica y pueden probarse por los mtodos habituales del anlisis.
Podes intentar probar que la f , antes definida, es una funcin de densidad.
Tipificar: La siguiente propiedad es el fundamento para una operacin muy frecuente
en el trabajo con v.a. normales.
Propiedad.- Si X es una v.a. que sigue una ley normal N (, ) entonces la nueva
sigue una ley normal N (0, 1)
v.a. que se construye definiendo Z = X
Consecuencia.- La grfica de la funcin de densidad de la normal tipificada es similar, salvo quizs una dilatacin y una traslacin, a la de una normal no tipificada.
Consecuencia.- La Normal Tpica o normal N (0, 1) tiene de funcin de densidad
1 z2
(z) = e 2
2
< z <
34
Zz
(t)dt =
1 t2
e 2 dt
2
Notaciones.- Es usual notar una v.a. Normal tipificada por la letra Z, as como
reservar las letras y respectivamente, para la funcin de densidad y la funcin
de distribucin de la normal tipificada. Puesto que la funcin de densidad de la
N (0, 1) es simtrica respecto el eje de ordenadas es
(z) = 1 (z)
mayor peso. Si el peso P es una v.a. tal que P N (5,5, 1,6) , determinar a partir
de que peso tenemos que seleccionar,
Propiedad.
35
Ejemplo 37.- Supongamos que la estatura de un animal macho elegido aleatoriamente de una poblacin homognea de adultos sigue una ley normal de media 1,40 y
desviacin tpica 3 y supongamos que la estatura de un animal hembra elegido aleatoriamente de una poblacin homognea de adultos sigue una ley normal de media
1,60 y desviacin tpica 4. Si elegimos al azar un macho y una hembra, encontrar la
probabilidad de cada uno de los siguientes sucesos: a) La estatura de la hembra es
superior a la del macho ; b) Sus estaturas difieren en menos de 3cm. ; c) La media
de la estaturas es superior a 1,80. Como consecuencia se puede extraer la siguiente,
Propiedad. Si X1 , X2 , , Xn son v.a. i.i.d. normales con media y varianza 2
entonces,
X
1.11.3.
N (0, 1)
Gamma
Esta v.a. puede modelar el tiempo de espera hasta observad la r-esima ocurrencia de un suceso cuando ocurren al azar con promedio por unidad de tiempo.
Una v.a. continua X cuya funcin de densidad es
(x)r1 ex , x > 0
(r)
f (x) =
xr1 ex dx
>0
36
1.11.4.
Exponencial
x>0
1.11.5.
Chi-Cuadrado
f (x) =
n
n
1
x 2 1 e 2
n
2 ( 2 )
n
2
para x > 0, n Z
37
1.11.6.
F-Snedecor
U
m
V
n
X1
n
X2
m
se
1.11.7.
t-Student
N (0, 1) , lo que podra ser utilizado para inferir sobre , si fuese conocida. Una
solucin lgica es sustituir por la desviacin tpica s de la muestra. En ese caso, la
esa v.a. fue resuelto por Willian Gosset en 1908, trabajador de una cervecera. Por
motivos laborales escondi sus trabajos bajo el seudnimo de Student. Por ello
(1 + ) 2
f (x) = n
n
( 2 ) n
para x R, n Z +
38
La siguiente propiedad indica que el cuadrado de una v.a. t-Student es una v.a.
F-Snedecor.
Propiedad. Si X t(n) entonces X 2 F (1, n)
1.12.
Otras Distribuciones
1.12.1.
Breit-Wigner
1
2
(E E0 )2 + ( 2 )2
Captulo 2
Muestreo y Estimacin
2.1.
Estimacin y Contrastes
2.2.
Estimacin de Parmetros
Supongamos que un experimento nos ha proporcionado unos datos y que, estamos seguros esos datos, pueden considerarse realizaciones de una variable aleatoria
X de la que conocemos la forma de la funcin de densidad f , pero desconocemos un
parmetro que interviene en su formulacin. Y pretendemos estimarlo. Ejemplo [7],
supongamos que tenemos ciertos datos de una distribucin angular, consistente en
un conjunto de valores cos i para cada interacin entre particulas, en donde i es el
angulo que, las particulas observadas, forman con una determinada direccin. Supongamos que es correcto suponer que la densidad de esa distribucin es de la forma
y = f (cos ) = N (1 + ab cos2 ), donde N es una constante, (en ocasiones conocida
por Constante de Normalizacin)
de forma que la funcin f sea una funcin de
R
densidad, es decir que la f (cos ) d cos = 1. La estimacin de parmetros busca
estimar los valores de a y b de acuerdo con los datos que poseemos.
Formalmente el problema de la estimacin de parmetros consiste en: sea una
39
40
2.3.
Mxima Verosimilitud
Este mtodo comienza por extraer una m.a.s. (X1 , X2 , X3 , . . . , Xn ). Con ella
se forma la denominada funcin de densidad conjunta de la muestra:
f (x1 , x2 , x3 , . . . , xn ; ) =
n
Y
f (xi , )
i=1
2.3.1.
Funcin de verosimilitud
Observar que la funcin de densidad conjunta es, para una muestra concreta, solo funcin del parmetro , por lo que tiene sentido la siguiente definicin.
Llamamos funcin de verosimilitud, a la funcin L del parmetro
L() = f (x1 , x2 , x3 , . . . , xn ; ) =
n
Y
f (xi , )
i=1
Insistimos: la funcin de verosimilitud es, para una muestra concreta, solo funcin
del parmetro .
2.3.2.
Ideado por Gauss y desarrollado por Fisher, consiste en elegir para estimar
. Siendo el valor que maximiza la funcin de mxima verosimilitud, es decir
n
Y
i=1
>
f (xi , )
n
Y
f (xi , ) ,
i=1
En consecuencia tal extremo puede no existir y puede, caso de existir, no ser nico.
2.3.3.
41
Ecuacin de Verosimilitud
d2
L() < 0
d 2
(1)
2.3.4.
(2)
Ecuacin Log-Verosimilitud
d X
ln f (xi , ) = 0
d i=1
(3)
L(p) = L(X1 , X2 , . . . , Xn ; p) =
n
Y
f (xi , p) =
i=1
ln L(p) = (
n
X
i=1
xi ln p + (n
n
Y
pxi (1 p)1xi = p
Pn
i=1 xi
P
n n
i=1 xi
(1 p)
i=1
n
X
i=1
xi ) ln(1 p)
d
ln L(p) = 0
dp
P
P
X 1
X
1
(1 p) xi p(n xi )
(
xi ) + (n
xi )
(1) = 0
=0
p
1p
p(1 p)
42
(n
Xi )(1 p)2 =
i
2
dp
P
P
(1)(1 p)2 ( Xi ) (n Xi )p2
=
< 0 , p (0, 1) , xi = 0, 1 i
p2 (1 p)2
Ejemplo 2.3.2 Sea X P(). Su funcin masa de probabilidad es f (x, ) =
x
P (X = x) = e x! con x = 0, 1, 2, . . . y > 0 desconocido, que vamos a estimar por
el mtodo de mxima verosimilitud.
Dada la muestra (X1 , X2 , . . . , Xn ) la funcin de verosimilitud es
L() =
n
Y
f (xi , ) =
i=1
n
Y
e xi
i=1
xi !
y el
ln L() = n + (
n
X
i=1
Xi ) ln ln(
n
Y
xi !)
i=1
por lo que
Pn
xi
d
ln L() = n + i=1
d
Pn
x
i
= i=1 , queda verificar que en efecto es un
si igualamos a cero tenemos que
n
mximo.
Ahora ilustramos el mtodo con ejemplos (ver p.e. [9] ) donde el parmetro
desconocido es un vector y en consecuencia hay que estimar sus componentes. Supongamos que tenemos n datos que procedentes de una distribucin normal, de la
que desconocemos su media y varianza.
Ejemplo 2.3.3 Deseamos estimar la media y la varianza suponiendo que los datos
siguen una distribucin es Normal.
~ con ~ = (, 2 ) IR2 . La funcin
Sea X N (, ). Es decir X N ()
~ = 1 e 1 ( x )2 , dada una muestra {Xi }n la funcin de
de densidad es f (x, )
i=1
2
Qn 2 1 1 xi 2
1 P
2
(x
)
1
i
~
~ =
2
verosimilitud es L() = i=1 2 e 2 ( ) = (2)n e 2
luego ln L()
P
n ln( 2) 21 2 ni=1 (xi )2
d
ln L(~ ) = 0
d~
d
ln L(~ ) = 0 21 2
d
d
ln L(~ ) = 0 2n2
d 2
Pn
2(xi )(1)
i=1
Pn
(x )2
+ i=124i
=0
43
=0
Resolviendo obtenemos
Pn
(2.1)
(2.2)
xi
= i=1
n
Pn
2
2
i=1 (xi )
=
n
2.4.
44
2.4.1.
Estimador insesgado
2.4.2.
Estimador consistente
2.4.3.
45
2.4.4.
Pn
2
i=1 (Yi Y )
2n
Pn
)2
i=1 (Yi Y
i 2
12 (
xi 2
)
i
12 (
xi
i
la funcin de verosimilitud es
L() =
n
Y
i=1
i 2
)2
46
la funcin logverosimilitud es
ln L() =
n
X
i=1
1
1 (xi )2
1
ln 2 ln i2
2
2
2
i2
n
X
i=1
n
P
xi
=0
i2
i=1
n
P
i=1
xi
i2
1
i2
Ejemplo 2.4.2 Para una poblacin que sigue una ley binomial con n = 5 y parmetro p desconocido. Es decir X 7 B(5, p). Imaginemos que tenemos un valor
observado de Xi = 4 queremos dibujar la funcin de verosimilitud, as como la
log-verosimilitud. A la vista de ella indicar cal sera el valor ms verosimil para p
Ejemplo 2.4.3 De [9] Supongamos que hemos hecho una serie de n medidas de
la misma cantidad X1 , X2 , . . . , Xn cada medida posee una varianza conocida i2 ,
diferente para cada una de las medidas. Supongamos que las medidas se distribuyen
con ley normal. Encontrar el E.M.V. de la cantidad y la varianza del estimador.
Ejemplo 2.4.4 Generar 50 datos de una ley de Cauchy con parmetro de forma
= 0 y de escala = 1. A partir de esos datos, y suponiendo que sabemos proceden
de una poblacin de Cauchy con parmetro desconocido y conocido = 1.
Estimar mediante mxima verosmilitud el parmetro .
Una v.a. se dice que sigue una ley de Cauchy estandard si su funcin de den1
sidad es f (x) = 1 1+x
R.
2 con soporte en toda la recta real I
Una v.a. se dice que sigue una Ley de Cauchy con parmetro de forma y de
escala si su funcin de densidad es f, (x) = 1 f ( x
) siendo f la densidad de la
Cauchy estandard.
Para generar la muestra, es decir los 50 datos aleatorios procedentes de una
Cauchy(0, 1)
> n<-50
> set.seed(73)
> muestra<-rcauchy(n)
47
48
> logverosimil<-function(theta,x){
+ sum(-dcauchy(x,location=theta[1],sacle=theta[2],log=TRUE))
+ }
Observar que, al ser theta un vector, theta[1] se refiere a su primera componente y theta[2] a su segunda.
>
>
>
>
theta.inicial<-c(median(muestra),IQR(muestra)/2)
resultado<-nlm(logverosimil, theta.inicial, x=muestra)
theta.hat<-resultado$estimate
theta.hat
2.5.
49
Definicin 2.5.2 (Intervalo de Confianza) Sea un nmero real tal que 0 <
< 1, un intervalo aleatorio I(X), como el anteriormente definido, se denomina
Intervalo de Confianza al nivel 1 si:
P T1 (X1 , X2 , . . . , Xn ) T2 (X1 , X2 , . . . , Xn ) 1
2.5.1.
Vamos a ver solo una situacin muy concreta de las variadas que existen. El
caso de estimacin por intervalos del parmetro media de una poblacin.
I.C. para la Media de una poblacin Normal con varianza Conocida.
Si sabemos que X 7 N (, 2 ) con 2 conocida, a partir de una muestra
{X}ni=1 se tiene el siguiente I.C. a nivel 1 (es equivalente decir con probabilidad
1 o tambin con error ):
(2.3)
z1 , X
+ z1
X
2
2
n
n
en donde z1 2 es el cuantil 1
de la N (0, 1).
50
>
>
>
>
>
>
>
#
>
#
>
>
>
(2.4)
en donde t1 2 es el cuantil 1
de la t[n 1].
51
> airquality$Ozone
> n<-length(na.omit(airquality$Ozone))
> alfa<-0.07
> radio<-qt(1-alfa/2,n-1)*sqrt(var(airquality$Ozone, na.rm=TRUE))/sqrt(n)
> ExtSupIntervalo<-mean(airquality$Ozone,na.rm=TRUE)+radio
> ExtInfIntervalo<-mean(airquality$Ozone,na.rm=TRUE)-radio
> ExtInfIntervalo
[1] 36.52755
> ExtSupIntervalo
[1] 47.73107
En definitiva el I.C, calculado, con esos datos, es el (36,52755, 47,73107)
que contiene a la media de la v.a. Normal, con una probabilidad del 0,97. Pero no
aseguramos que la contenga. Nuestro resultado es en probabilidad. Ahora el I.C.
es mas preciso (mas chico) pero con menor probabilidad.
I.C. para la Media de una poblacin con una Ley cualquiera y con varianza
finita.
Este es el caso mas general, sabemos que X 7 L(, 2 ). Donde es desconocido todo, la Ley L que sigue, la media que tiene y la varianza 2 que tiene. En
ese caso, a partir de una muestra {X}ni=1 de tamao n 100 un I.C. aproximado
a nivel 1 (es equivalente decir con probabilidad 1 o tambin con error )
para la media de la poblacin es:
+ z1 S
z1 S , X
X
2
2
n
n
(2.5)
en donde z1 2 es el cuantil 1
de la N (0, 1).
52
Ejemplo 2.5.3 Sigamos con los datos del ejemplo anterior. Vamos a suponer que
esos datos proceden de una v.a. con Ley Desconocida, de media desconocida y
varianza desconocida. Queremos calcular un I.C. para la media de esa v.a. con un
error = 0,04, o tambin se puede decir con probabilidad 0,96
> data(airquality)
> airquality$Ozone
> n<-length(na.omit((airquality$Ozone))
> alfa<-0.04
> radio<-qnorm(1-alfa/2)*sqrt(var(airquality$Ozone, na.rm=TRUE))/sqrt(n)
> ExtInfIntervalo<-mean(airquality$Ozone,na.rm=TRUE)-radio
> ExtSupIntervalo<-mean(airquality$Ozone,na.rm=TRUE)+radio
> ExtInfIntervalo
[1] 35.83899
> ExtSupIntervalo
[1] 48.41963
2.5.2.
Figura 2.1:
53
54
Captulo 3
Test de Hiptesis
3.1.
Test de Hiptesis
56
3.2.
Hiptesis H1 : { 1 }
puede ocurrir que H1 sea la negacin de H0 pero no siempre tiene porque ser as.
Un Test de Hiptesis para contrastar H0 , llamada hiptesis nula,
contra H1 , llamada hiptesis alternativa, se caracteriza por una particin del
espacio muestral R en dos regiones R = R0 R1 de manera que si {xi }N
i=1 es una
muestra de X :
Si {xi }N
i=1 R0 se decide aceptar H0
Si {xi }N
i=1 R1 se rechaza H0 ( aceptando la alternativa H1 )
La asignacin de la muestra a una regin se hace segn los valores que toma
un estadstico para la muestra. Por lo tanto es una asignacin en probabilidad. Ese
estadstico se llama el Estadstico del Test de Hiptesis.
A la regin R1 que implica el rechazo de H0 , se le llama Regin Crtica del
Test.
3.2.1.
Tipos de Errores
En relacin con la decisin adoptada en un test de hiptesis se pueden cometer dos tipos de errores al aceptar o rechazar H0 :
Error de tipo I (eI ) : Rechazar H0 cuando es Cierta
Error de tipo II (eII ) : Aceptar H0 cuando es Falsa
El siguiente cuadro muestra las cuatro situaciones posibles:
3.3. EL P-VALUE
57
XXX
XXX
acepto
XXX
verdad
XXX
H0
H1
H0
H1
Correcto
eII
eI
Correcto
3.3.
El P-Value
58
Si P = 0,001 =
59
para = 0,07
elegimos H1
3.4.
3.4.1.
N (0, 1)
estadistico que resuelve el test es U = (Xa)
60
3.4.2.
Se trata de contrastar las medias de las poblaciones de las que proceden dos
muestras. La forma ms usual del test es {H0 : 1 = 2 } frente a {H1 : 1 6= 2 }
En 2 Poblaciones Normales de Igual Varianza (Two-Sample T-test) el estadistico
Y )
(X
que resuelve el test es U = q
t(n1 +n2 2) en donde n1 y n2 son los tamaos
1
1
sp
s2p
n1
+n
3.4.3.
2()()
Captulo 4
Regresin
4.1.
Introduccin
62
CAPTULO 4. REGRESIN
mera columna que contiene los valores de la variable cantidad de humo arrojada. De
igual manera podemos ver la segunda columna GradosF que contiene los valores de
la variable temperatura, meddas en grados Fahtrenheit.
Mediante un anlisis de regresin lineal puede ser abordado el objetivo siguiente: Determinar si la variable X "GradosF"puede ser usada para predecir los valores
de la variable Y Humo".
Pero deseamos trabajar con grados centigrados, por ello vamos a derivar una
variable nueva "GradosC.en la que aparezcan las temperaturas en grados Centgrados.
Para ello recordamos la relacin entre las escalas en grados centigrados y fahrenheit:
(T F 32)
Tc
= (21232)
.
100
GradosC<-100*(GradosF-32)/180
Volvamos al objetivo de determinar si la variable GradosC puede ser usada
para pronosticar los valores de la variable CHumo, mediante un modelo de regresin
lineal simple. Vamos a dibujar un diagrama de puntos con ellos. Por la sencilla razn
de que un modelo de regresin lineal simple es admisible si los datos se ajustan a
una linea recta de pendiente distinta de cero, entonces el primer paso en este estudio
de Regresin debera de ser representarlos. Ello nos puede proporcionar una primera
informacin de si tiene sentido plantearse ese modelo.
plot(GradosC,CHumo)
Si quereis ver un ejemplo en donde, al hacer el diagrama de puntos, de inmediato se observa que no tiene sentido un modelo de regresin lineal simple, cargar
de la libreria MASS un archivo de nombre mcycle que contiene una serie de datos
de una experiencia, para validar el uso de casco, en donde se simula un choque de
una moto.
library(MASS)
data(mcycle)
attach(mcycle)
plot(mcycle)
4.2.
63
variable de prediccin, ya que con ella se pretende predecir los valores que tomara
la variable dependiente Y , que recibe el nombre de variable respuesta. El simbolo
nota a una variable aleatoria llamada Error. Si llamamos y = + x , el modelo
implica que cada dato (x, y) puede ser obtenido de la forma y = y + , es decir cada
valor de la variable respuesta se puede expresar a partir de y mas un valor de la
variable error, es usual llamar a ese valor Error o Residuo. Segn eso, para cada
xi la diferencia entre el valor observado yi y el que se obtiene yi al sustituir en la
ecuacin de regresin lineal se llama Error o Residuo ei
i)
ei = yi yi = yi (
+ x
; i = 1, 2, . . . ,n
; V [Y |x0 ] = V ( + x0 + ) = 2
4.2.1.
Los coeficientes del modelo de regresin son desconocidos y deben ser estimados
a partir de una muestra. El mtodo de los mnimos cuadrados puede ser usado para
64
CAPTULO 4. REGRESIN
estimarlos. El mtodo consiste en tomar aquellos valores de esos coeficientes tal que
hacen mnima la suma de los cuadrados de los Residuos:
S(, ) =
n
X
yi (+xi )
2
i=1
y=
+ x
SXX =
siendo:
SXY
donde =
SXX
n
P
(xi x)2
i=1
,
= y x
SXY =
n
P
(xi x)(yi y)
i=1
Los coeficientes del modelo que han sido estimados por el mtodo de los mnimos cuadrados, poseen buenas propiedades: 1) Son insesgados; 2) Son de mnima
varianza.
El mandato de R para hacer un aregresin lineal es lm (linear models).
lm(y~x, data)
El primer argumento de este comando es una expresin y x en la que se indica
la variable respuesta o dependiente (y) y cul es la variable regresora o independiente (x). El segundo argumento, llamado data especifica cul es el fichero en el que
se encuentran las variables. Si las variables las hemos tomado con attach no es
necesario poner el argumento data.
lm(CHumo~GradosC)
Call:
lm(formula = CHumo ~ GradosC)
Coefficients:
(Intercept)
11.0685
GradosC
-0.1437
65
summary(regresion)
Call:
lm(formula = CHumo ~ GradosC)
Residuals:
Min
1Q Median
-1.6789 -0.5291 -0.1221
3Q
0.7988
Max
1.3457
Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) 11.06847
0.28052 39.458 < 2e-16 ***
GradosC
-0.14369
0.01894 -7.586 1.05e-07 ***
--Signif. codes: 0 *** 0.001 ** 0.01 * 0.05 . 0.1 1
Residual standard error: 0.8901 on 23 degrees of freedom
Multiple R-squared: 0.7144,Adjusted R-squared: 0.702
F-statistic: 57.54 on 1 and 23 DF, p-value: 1.055e-07
Los coeficientes (obtenidos por el mtodo de mnimos cuadrados) de la recta
de regresin lineal que predice la variable CHumo en funcin de la variable GradosC
vienen en la columna Estimate de la tabla Coefficients de la salida anterior.
tambin pueden ser obtenidos mediante:
coefficients(regresion)
(Intercept)
GradosC
11.0684711 -0.1436916
De forma anloga se pueden obtener los residuos o errores
residuals(regresion)
1
2
3
4
5
6
0.17496361 -0.12207708 1.34573449 -0.52906210 0.54849250 0.79879656
7
8
9
10
11
12
-1.32373449 0.99987151 -0.15910065 0.10716060 -1.67893790 0.87405997
13
14
15
16
17
18
0.50019701 -0.93168736 1.05299358 -0.17129764 1.20085225 0.07501926
19
20
21
22
23
24
-1.20498074 1.20424838 -0.18734048 -0.51494219 -1.20262955 -0.59671091
25
-0.25988864
66
CAPTULO 4. REGRESIN
4.2.2.
Para realizar contrastes sobre los coeficientes estimados del modelo es necesario, previamente, estimar la varianza 2 de los errores. Pero para estimar la varianza
2 de los errores, deberiamos disponer de gran cantidad de observaciones para al menos un valor x0 de X. Esta situacin ideal rara vez se d, por lo que no nos queda
mas remedio que estimar 2 a partir de todos los residuos. Lo que no deja de ser
una contradicin, ya que ellos son dependientes del modelo. Una estimacin de 2
es
n
n
X
X
SSE
= M SE siendo SSE =
e2i =
(yi yi )2
2 =
n2
i=1
i=1
67
summary(regresion)
Call:
lm(formula = CHumo ~ GradosC)
Residuals:
Min
1Q Median
-1.6789 -0.5291 -0.1221
3Q
0.7988
Max
1.3457
Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) 11.06847
0.28052 39.458 < 2e-16 ***
GradosC
-0.14369
0.01894 -7.586 1.05e-07 ***
--Signif. codes: 0 *** 0.001 ** 0.01 * 0.05 . 0.1 1
Residual standard error: 0.8901 on 23 degrees of freedom
Multiple R-squared: 0.7144,Adjusted R-squared: 0.702
F-statistic: 57.54 on 1 and 23 DF, p-value: 1.055e-07
68
CAPTULO 4. REGRESIN
4.3.
Hemos dicho que los estimadores de los coeficientes del modelo son insesgados
y de mnima varianza. En concreto:
E
=
h
x2 i
2 1
+
;
V
=
n SXX
E =
2
V =
SXX
4.3.1.
La hiptesis sobre la relacin lineal, una de las bsicas para la validez del
modelo, puede ser contrastada con dos pruebas. Bien con un test t sobre la pendiente
o bien con un test F sobre la pendiente. Generalmente los paquetes estadsticos dan
uno u otro, pocos dan ambos.
69
3Q
0.7988
Max
1.3457
Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) 11.06847
0.28052 39.458 < 2e-16 ***
GradosC
-0.14369
0.01894 -7.586 1.05e-07 ***
--Signif. codes: 0 *** 0.001 ** 0.01 * 0.05 . 0.1 1
Residual standard error: 0.8901 on 23 degrees of freedom
Multiple R-squared: 0.7144,Adjusted R-squared: 0.702
F-statistic: 57.54 on 1 and 23 DF, p-value: 1.055e-07
La linea que comienza con,
GradosC
-0.14369
0.01894
nos d el valor de la pendiente, su error tpico, el valor del estadstico del test y,
lo importante, el p-valor. Observar que d un p-valor= 1,05e 07 muy pequeo, lo
que recordemos es una evidencia muy fuerte en contra de H0 : = 0. Por tanto es
aceptable suponer linealidad.
4.3.2.
H1 : 6= 0 .
70
CAPTULO 4. REGRESIN
3Q
0.7988
Max
1.3457
Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) 11.06847
0.28052 39.458 < 2e-16 ***
GradosC
-0.14369
0.01894 -7.586 1.05e-07 ***
--Signif. codes: 0 *** 0.001 ** 0.01 * 0.05 . 0.1 1
Residual standard error: 0.8901 on 23 degrees of freedom
Multiple R-squared: 0.7144,Adjusted R-squared: 0.702
F-statistic: 57.54 on 1 and 23 DF, p-value: 1.055e-07
la linea que comienza con:
(Intercept) 11.06847
0.28052
39.458
4.4.
71
Los intervalos de confianza para los parmetros y se obtienen con el comando confint. Que tiene un argumento, level que permite elegir el nivel de confianza
(si no se indica toma el valor por defecto que es 0.95):
confint(regresion)
2.5 %
97.5 %
(Intercept) 10.4881806 11.6487616
GradosC
-0.1828771 -0.1045062
confint(regresion,level=0.9)
5 %
95 %
(Intercept) 10.5877036 11.5492386
GradosC
-0.1761566 -0.1112267
4.5.
Para un valor dado de X = x0 , la E Y |x0 = + x0 es lo que esperamos
obtener de respuesta en promedio para el valor de X = x0 . Una estimacin puntual
0.
de dicha media es y0 =
+ x
Es posible calcular un intervalo de confianza para la E Y |x0 . Con los intervalos de confianza para todos los posibles valores del rango de X obtendremos, al
dibujar los extremos de esos intervalos, unas lineas, entre la de regresin que se
conocen con el nombre de bandas de confianza.
El mandato que nos proporciona estos intervalos es
predict(regresion,interval="confidence")
4.6.
72
CAPTULO 4. REGRESIN
0 . Pero y0 es una
Para un valor de X = x0 una prediccin de Y es y0 =
+ x
estimacin de los valores y0 que puede tomar la Y |X = x0 .
Para un x0 es posible calcular el intervalo de prediccin. Y si eso lo hacemos
para cualquier x0 obtenemos el intervalo de prediccin, y dibujamos los extremos
obtendremos dos lineas, entre elllas estar la recta de regresin, que se denominan
lineas de prediccin.
Em nadato de R que nos permite obtener esos inetrvalos es
predict(regresion,interval="prediction")
Notas:
1) Los intervalos que se deducen de (5) y (6) toman su radio menor, cuando
es x = x0 y van aumentando cuando lo hace |
x x0 |
2) Interesa notar la diferencia con el resultado del apartado anterior: En el
apartado anterior el intervalo obtenido es una previsin para una media, para un parmetro. En este apartado se trata de hacer una previsin para una
observacin, para un valor de Y .
3) Las lineas de prediccin forman una franja ms ancha que la determinada
por las bandas de confianza. Debido a que las primeras se generan con un
intervalo que tienen, igual centro, pero radio mayor que el intervalo que genera
a las segundas.
4) Si retomamos juntas las notas 1) y 3) concluimos que las inferencias en
regresin lineal es tanto ms buena cuanto ms cerca se haga del centroide de
la nube de puntos.
Para pintar todo.
plot(GradosC,CHumo)
lines(GradosC,fitted(lm(CHumo~GradosC)),col=2)
ic1<-predict(regresion,interval="confidence")
ic2<-predict(regresion,interval="prediction")
lines(GradosC, ic1[, 2], lty = 2)
lines(GradosC, ic1[, 3], lty = 2)
lines(GradosC, ic2[, 2], lty = 2,col="blue")
lines(GradosC, ic2[, 3], lty = 2,col="blue")
4.7.
73
4.8.
El modelo de regresin lineal hace unas suposiciones que son necesarias verificar:
(1) La relacin entre X e Y es lineal.
(2) Para cada valor de X los errores N (0, 2 )
LO que implica tres hiptesis:
a)Los errores son normales.
b)Los errores tienen de media cero.
c)Los errores tienen igual varianza.
(3) Los errores NO estn correlacionados.
74
CAPTULO 4. REGRESIN
Adems de las anteriores hay otra genrica: se supone que la muestra es alea-
toria.
Una planificacin correcta de la experiencia puede asegurarnos la ltima de
las hiptesis, la aleatoriedad. Ms dificil es verificar las hiptesis contenidas en (2).
Si dispusieramos de muchas observaciones para cada valor de X, un test de Normalidad (p.e. DAgostino, o Shapiro-Wilks, o Stephens) puede verificarnos la (2-a)
; un test de Bartlett puede verificarnos la homogeneidad de varianzas. Usualmente
no se disponen de varias observaciones para cada valor de X por lo que hay que
recurrir a otras alternativas. Una de las metodologias ms empleadas es el Anlisis
de Residuos.
4.9.
Anlisis de Residuos
Standardized Residuals
En el modelo los errores tienen de media cero y su varianza puede ser estimada
E
= M SE ; algunas veces se trabaja con ellos tipificados, reciben el nombre
por
= SS
n2
de standardized residuals es decir Errores Tipificados, para ello se hace
ei
di =
, i = 1, 2, . . . , n
M SE
2
Los grficos de Residuos o de los Residuos tipificados ayudan a detectar deficiencias del modelo. Se espera que en general, para un modelo correcto, los residuos
standarizados estn la mayora entre 2 y 2. La opcin StandardizedResiduals
permite sacar una lista con ellos.
Los residuos tipificados pueden tambin ayudar a detectar No Normalidad si
recordamos que en una Normal tpica el 68 % de los valores deben estar entre 1 y
+1 ; el 95 % debe estar entre 2 y +2 ; el 99,7 % debe estar entre 3 y +3. Si la
muestra es pequea estos valores deben ser sustituidos por los de una t(n 2)
Normal Probability Plot:
Consiste en dibujar en el eje de abcisas los residuos tipificados y ordenados y
en el eje de ordenadas los valores esperados para los anteriores. La base terica es
que si los residuos tipificados N (0, 1) entonces la nube de puntos
d[i] , E d[i]
estn aproximadamente en linea recta
Observar que
(i 12 )
E d[i] F 1 [
] ,
n
i = 1, 2, . . . , n
4.10. AUTOCORRELACIN
75
Las E d[i] se denominan Expected Normal Values o tambin Rankits. Algunas
veces el grfico se hace en lugar de con los residuos tipificados, con los residuos. Hay
que tener cuidado con ello.
Al fin y al cabo un Normal Probability Plot es una prueba grfica de normalidad. Es preferible hacer directamente una prueba o test de Normalidad.
Plot de Residuos frente a Predicciones:
Un grfico de los residuos ei frente a sus correspondientes yi puede ser usado
para detectar: Homogeneidad de las varianzas; Linealidad; Puntos aislados.
Plot de Residuos frente a X:
Cumple un papel similar al anterior grfico.
4.10.
Autocorrelacin
Recordemos que otra hiptesis del modelo es que los errores estn NO correlacionados. A veces suele fallar. Sobretodo en datos de tipo temporal. El problema se
conoce con el nombre de Autocorrelacin cuando es posible aceptar un oden natural,
y su presencia hace que el modelo de regresin lineal posea serios inconvenientes:
Los coeficientes son insesgados pero no de mnima varianza.
Si la autocorrelacin es positiva,M SE sobreestima a 2 , se obtiene una falsa
impresin de buen ajuste (intervalos pequeos , etc.)
La causa ms comn de la aparicin de este problema es que se ha omitido
una variable regresora.
Plot de Residuos frente Tiempo: Este grfico ayuda a detectar la autocorrelacin.
Si hay autocorrelacin positiva los residuos de igual signo ocurren en cluster.
Si hay autocorrelacin negativa los residuos cambian de signo muy rapidamente.
Test para detectar Autocorrelacin: Existen algunos test para tratar de
detectar autocorrelacin. El ms conocido es el Test de Durbin-Watson: El test supone que los errores responden a lo que se denomina un modelo Autoregresivo de
Primer Orden:
t = t1 + at
at N (0, 2 )
:||<1
76
CAPTULO 4. REGRESIN
(et et1 )2
i=2
n
P
i=2
n
P
e2t
et et1
i=2
n
P
i=2
e2t1
4.11.
El Coeficiente de Determinacin
4.12.
El Coeficiente de Correlacin
77
(n 2)r2
t(n 2)
1 r2
78
CAPTULO 4. REGRESIN
s
H0 : XY.Z = 0 , H1 : XY.Z 6= 0 para ello
4.13.
2
(n 3)rXY.Z
t(n 3)
2
1 rXY.Z
Datos Aislados
Un anlisis de residuos puede no detectar valores aislados, si usamos el criterio de llamar as slo a los que tienen residuos grandes. Puede haber datos con
residuo nulo y que estn muy separados del resto. Conviene pues distinguir entre
valores aislados en la direccin del eje "X.o en la del eje "Y", o que lo estn en ambos sentidos. Lo que importa es ver si esos valores ejercen gran influencia sobre el
modelo, en el sentido de que ste cambie sustancialmente, cuando en su elaboracin
si-o-no se toman esos valores. Ello supone hacer un doble trabajo, primero hacemos
el anlisis de regresin con esos puntos aislados y despues sin ellos.
Leverage : Es una medda para determinar si un punto es aislado en la direccin
del eje "X", se nota por hi y se define
hi =
(xi x)2
1
+P
n
n
(xi x)2
i=1
4.14.
Diagnostico de la Regresion
Es corriente hacer un diagnostico de una regresin tomando para ello los valores de:
4.15. TRANSFORMACIONES
79
4.15.
Transformaciones
La hiptesis de que existe relacin lineal entre X e Y puede ser desechada por
un test de falta de ajuste o un test sobre la pendiente o simplemente observando la
nube de puntos y los grficos de residuos.
Sin embargo el modelo de regresin lineal es tan simple que muchos se empean
en aplicarlo an cuando fallen algunas de las hiptesis necesarias para aplicar el
modelo. Si la que falla es la linealidad, una posible salida es aplicar un cambio de
escala o un cambio de variable al objeto de que tras de l no falle la linealidad.
El problema no es simple pues hay que decidir dos cosas: Qu cambio hacer?
y Arreglando la linealidad haremos que fallen otras de las hiptesis?
Lo ideal, como siempre, sera hacer un cambio de manera que todas las hiptesis
necesarias para el modelo lineal salieran beneficiadas. Fundamentalmente:
Se logra aspecto lineal.
Se mejora la normalidad.
Se mejora la homogeneidad de las varianzas.
Generalmente las dos ltimas se consiguen conjuntamente con lo que se llaman
Transformaciones estabilizadoras de la Varianza.
En cuanto a la primera se consigue conociendo curvas planas. Los casos ms
frecuentes son:
Si la nube de puntos parece ajustarse a una parbola y = ax2 + b entonces el
cambio z = x2 hace que la nube se ajuste a la recta y = az + b.
Si la nube de puntos parece ajustarse a una hiprbola y = a x1 + b entonces el
cambio z = x1 hace que la nube se ajuste a la recta y = az + b.
80
CAPTULO 4. REGRESIN
4.16.
Demostraciones
Bibliografa
[1] Feller, W. An Introduction to Probability Theory and Its Applications
Vol.I, Wiley, New York 1968.
[2] Gutierrez R., Martinez A., Rodriguez C. Curso Bsico de Probabilidad Ed.
Pirmide, California 1986.
[3] Gutierrez R., Martinez A., Rodriguez C. Inferencia Estadstica Ed. Pirmide, California 1986.
[4] Halmos, P.R. Measure Theory Springer Verlag, New York 1974.
[5] Horgan J., Probability with R Wiley-Blackwell, California 1986.
[6] Love, M. Probability Theory. Springer Verlag, New York 1973.
[7] Louis Lyons, Statistics for Nuclear and Particle Physicists Cambridge
University Press 1996.
[8] Martin A., Luna J. Bioestadstica Ed. Norma, California 1986.
[9] B.P. Roe Probability and Statistics in Experimental Physics SpringerVerlag, New York 1998.
[10] Rohatgi, V.K. An Introduction to Probability. Theory and Mathematical Statistics Wiley, xxx 1976.
[11] Savage L.J. The foundations of statistics Dover publications, New York
1972.
81
ndice alfabtico
Axionas de Kolmogorov de Probabilidad,
5
Cardinal, 11
Combinaciones, 15
Combinatoria en R, 16
Espacio Muestral, 4
Experimentos Aleatorios, 3
Factorial de un nmero, 11
Frecuencias y Probabilidad, 6
Instalacin de Paquetes, 17
Muestra sin Reemplazamiento, 16
Nmero Combinatorio, 16
Permutaciones, 14
Probabilidad Condicionada, 7
Probabilidad Emprica, 6
Probabilidad Terica, 6
Propiedades de la Probabilidad, 7
Regla de la Multiplicacin, 8
Regla de Laplace, 5
Sucesos Indepemdientes, 8
Sucesos Seguro, Imposible, Simple, Compuesto, Incompatible, Contrario,
Complementario, 4
Teorema de Bayes, 10
Teorema de La Probabilidad Total, 9
Variable Aleatoria, 20
Variaciones, 11
Variaciones con Repeticion, 13
82