Beruflich Dokumente
Kultur Dokumente
Clase 3
El Modelo Lineal
Clase 3
Asuntos de la clase 3
La regresin lineal mltiple Estimacin de los parmetros Propiedades estadsticas de los estimadores Inferencia Seleccin de modelos
II-1
II-2
Clase 3
Clase 3
As, el modelo de regresin lineal mltipla es un modelo en el cual los parmetros aparecen linealmente en la ecuacin, que se vuelve
- Ahora estudiaremos el modelo que expresa la relacin de dependencia entre un carcter respuesta y y algunos regresores, o sea
donde las componentes xj del vector x solo son funcin de las componentes zh del vector z sin parmetros a estimar. Empezando de los regresores z, hay libertad de transformarlos a condicin que ningn parmetro a estimar entre en las transformaciones. Los vectores $ y x tienen la misma dimensin k mientras la dimensin de z puede ser cualquiera.
Lima, 3/5/2010 D:\Lavori in corso\Lima\Corso pucp\Lezioni\Clase 3.wpd II-4
II-3
Clase 3
Clase 3
- se hace la hiptesis que les errores son errores experimentales aleatorios independientes y que por cada xi se tiene la misma distribucin con media 0 y varianza F2; as que se puede escribir
o, igualmente,
Lima, 3/5/2010 D:\Lavori in corso\Lima\Corso pucp\Lezioni\Clase 3.wpd II-6
Clase 3
Clase 3
Modelo geomtrico
- Se quiere estimar los parmetros del modelo lineal. - Se hicieron n observaciones, con n >> k, del carcter respuesta yi correspondiendo a valores prefijos de los regresores xi1 , xi2, ..., xik. - Cada yi en el espacio n es una componente del vector respuesta y. - Los valores xij son componentes de k vectores xj de dimensin n, cada uno compuesto con los n valores observados por el j-simo factor; - los valores xij son tambin componentes de n vectores xi de dimensin k, conjuntos de valores de todos los regresores en la i-sima observacin. - Se trata de una matriz X con n filas y k columnas. - Los trminos de error gi se pueden representar con un vector g con n componentes.
Lima, 3/5/2010 D:\Lavori in corso\Lima\Corso pucp\Lezioni\Clase 3.wpd II-8
- un error experimental siempre existe, pero esto puede depender de la influencia sobre el carcter y de otros factores que no estn includos en los regresores xj, as que el modelo es un abreviado del modelo
con otros regresores. Como los xil son desconocidos, si h es grande el teorema del lmite central asegura la normalidad.
Lima, 3/5/2010 D:\Lavori in corso\Lima\Corso pucp\Lezioni\Clase 3.wpd II-7
Clase 3
Clase 3
Ejemplo de una respuesta y dos regresores: plan de regresin En forma vectorial, el modelo se escribe
- En la mayora de los modelos es importante guardar un parmetro correspondiente a un trmino constante. - A este parmetro, normalmente $1, se asocia en X el primero vector columna x1 = (1, 1, ...1), as que en lugar de k regresores en realidad se tienen k-1.
II-9
II-10
Clase 3
Clase 3
- Las k columnas de la matriz X como vector del espacio n generan un sub-espacio S d n, cuya dimensin es a lo ms k < n. - A este espacio se lo llama espacio solucin, de regresin, de los parmetro, o de estimacin. - Su dimensin es k solo si los regresores son linealmente independientes y en este caso se dice que el sistema es de rango completo. - Resulta que el vector 0 = X$ es un vector del sub-espacio S, es decir que se quiere estimar el vector y en n para un vector 0 de S. - Por esto se busca, en estas condiciones, cual es la mejor estimacin posible, o sea cual es el mejor estimador de y para un vector de S, como combinacin lineal de vectores-columnas de X.
- Desde el punto de vista geomtrico, el espacio n es Euclidiano, o sea tiene un producto escalar entre vectores v y w
- una distancia Euclidiana entre puntos dada de la norma del vector que junta los dos puntos. Si O es la origen y P, Q dos puntos, entonces
II-11
II-12
Clase 3
Clase 3
- Esto permite, dados v, w, de construir la proyeccin ortogonal de v sobre w como el vector colineal a w
- y su complemento ortogonal
- Esta definicin se basa sobre la definicin de ortogonalidad: A dos vectores v , w se llaman ortogonales si <v , w> = 0. - Dado un espacio S de dimensin k, siempre se puede construir una base compuesta por vectores ortogonales. - Un vector v es ortogonal a un subespacio S si el es ortogonal a todos los vectores de una base de S. - por tanto (teorema de Pitgoras)
II-13
II-14
Clase 3
Clase 3
La solucin de mnimos cuadrados se encuentra para la proyeccin ortogonal de y sobre el espacio S generado para :
II-15
II-16
Clase 3
Clase 3
- Teorema. El punto
- Geomtricamente la solucin dada para la proyeccin siempre existe y es nica. - Esta se consigue empleando el operador ortogonal de proyeccin sobre S, S. - Como dado cualquier vector y , el vector y - Sy, es ortogonal a cada vector de S, - cada vector de n se encuentra compartido en dos componentes y = Sy + (y - Sy) - el espacio tambin resulta compartido como suma directa de subespacios ortogonales: - Si se escribe y - Sy = (I - S)y = Szy = Sy resulta por tanto y = Sy r (y - Sy) = Sy r Sy.
Lima, 3/5/2010 D:\Lavori in corso\Lima\Corso pucp\Lezioni\Clase 3.wpd II-17
- el espacio tambin resulta compartido como suma directa de subespacios ortogonales: S r Sz - Cada proyector ortogonal es idempotente, o sea " = y por tanto " = " ( I - ) = - " = 0 . - En el caso, n = S r Sz, donde Sz es el complemento ortogonal de S en n , la proyeccin ortogonal de y en S es con . - Sz se llama el espacio de los errores o de los residuos. - Teorema. Un proyector ortogonal es representado para una matriz A idempotente y simtrica.
Lima, 3/5/2010 D:\Lavori in corso\Lima\Corso pucp\Lezioni\Clase 3.wpd II-18
, donde resulta
Clase 3
Clase 3
simplemente sera - se consigue cuando el segundo trmino es cero, o sea cuando - Se puede calcular considerando que ortogonal a cada vector de S, donde desde Resulta Si hay dependencia, los parmetros no son unvocamente definidos, la matriz no es directamente invertible, pero se hace recurso a su inversa generalizada.
II-19 Lima, 3/5/2010 D:\Lavori in corso\Lima\Corso pucp\Lezioni\Clase 3.wpd II-20
. Tcnicamente, para conseguir directamente la solucin, hay que invertir la matriz XX, como en el caso de rango completo. Pero esto no siempre es posible, dependiendo si entre los xj hay dependencia lineal (caso incompleto, rango < k).
0 Sz, porque as e es .
Clase 3
Clase 3
Normalmente, los programas no hacen distincin entre las dos situaciones porque fueron realizados de manera de tratar sin dificultad ambas condiciones. En nuestro estudio, nos limitaremos al caso de rango completo, pero precisando que: 1) la solucin siempre existe y siempre es nica en cualquier situacin, porque siempre se trata de una proyeccin ortogonal; 2) adems su expresin algbrica en el caso de rango no completo puede no ser nica, y por esto hay que utilizar tcnicas especficas.
En el caso de rango completo, como dim S = k, la matriz X'X es invertible y por tanto la solucin es
donde
Es evidente que la matriz = X(X'X)-1X' es simtrica e idempotente, y como se encuentra en S, es la proyeccin ortogonal de y sobre S. En consecuencia, el vector e = y - = (I - )y = y es la proyeccin ortogonal de y sobre el espacio de residuos Sz que entonces tiene dimensin n - k.
Lima, 3/5/2010 D:\Lavori in corso\Lima\Corso pucp\Lezioni\Clase 3.wpd II-22
II-21
Clase 3
Clase 3
SSr = Se consiguen los resultados siguientes: es el estimador de mnimos cuadrados de $, que minimiza la distancia entre y y su estimador en el espacio de los regresores S; Proyeccin ortogonal de y sobre S es el vector de los valores ajustados para la regresin: como proyeccin ortogonal de y sobre S, es el punto de S ms cercano de y; e proyeccin ortogonal de y sobre Sz es el vector de los residuos, ortogonal a ;
, que vale
y que puede verse tambin como el producto escalar SSe = e'e es la norma del vector e, y resulta y que puede ver tambin como el producto escalar y'e. Como y son simtricos e idempotentes, resultan
II-23
II-24
Clase 3
Clase 3
Hay que observar que los estimadores de los parmetros tienen una covarianza entre ellos, dependiendo de las relaciones lineales entre regresores. y, considerando que V(y) = F2 I resulta
II-25
II-26
Clase 3
Clase 3
En el caso mltiple, siempre vale Teorema (Gauss). Dados n conjuntos de observaciones, dispuestas en forma de matriz (X, y), cuyos X son valores previamente elegidos y los y medidas correspondientes e independientes para las cuales E(y| X ) = X$, V(y|X) = F2I ; sea la estimacin de mnimos cuadrados de $. Si , donde a' = (a1 , a2 , ..., an ) es un vector de constantes, entonces entre todos los estimadores insesgados y lineal en y de J, la estimacin de mnimos cuadrados Por tanto, cada y es la de varianza mnima. entre todos los estimadores insesgados y lineales en pues, segn las ecuaciones normales,
II-27 Lima, 3/5/2010 D:\Lavori in corso\Lima\Corso pucp\Lezioni\Clase 3.wpd
, de donde
II-28
Clase 3
Clase 3
Se ha compartido la suma de cuadrados de las observaciones en dos: - una parte SSr debido a la regresin de y sobre X - la otra, SSe , debido al error. Por tanto: contiene la informacin sobre el modelo 0 = X$, - e solo contiene la informacin sobre el error, - e'e debe informar sobre F2.
Lima, 3/5/2010 D:\Lavori in corso\Lima\Corso pucp\Lezioni\Clase 3.wpd II-29
II-30
Clase 3
Clase 3
Los elementos de esta particin se representan en una tabla de anlisis de varianza como sigue, para testar H0: $ = 0: Fuente Grados de Sumas de Cuadrados Esperanza de los libertad cuadrados medios cuadrados medios (DF) (SS) (MS) E(MS) k n-k n SSr SSe SSt SSr / k SSe / (n - k) F2
Como por la regresin simple, para testar la hiptesis $ = $0 , se hace una translacin del origen de 0 a 00 = X$0 con la tabla de anlisis de varianza correspondiente: Fuente Grados de libertad (DF) k n-k-1 n-1 Sumas de cuadrados (SS) SSr(z)= SSe(z) = SSe SSt(z) Cuadrados Esperanza de medios (MS) los cuadrados medios E(MS) SSr(z) / k SSe / (n - k-1) F2
Los grados de libertad son efectivamente las dimensiones de los espacios: - el espacio de los estimadores S tiene k dimensiones, - el espacio de los residuos tiene dimensin n - k.
Lima, 3/5/2010 D:\Lavori in corso\Lima\Corso pucp\Lezioni\Clase 3.wpd II-31
II-32
Clase 3
Inferencia
Clase 3
Inferencia
Inferencia
Para hacer inferencia, es necesario imponer una hiptesis sobre la distribucin de y con respecto a X. Si se supone que la distribucin sea multinormal, o sea normal por cada valor de X, se aplican los resultados que siguen, sino hay que conocer resultados parecidos por la distribucin que interesa o se hace recurso a mtodo de remuestreo (Manly, 2007). Se analiza aqu los resultados ms importantes relativos a las muestras de una distribucin normal multivariada, que servirn a los test estadsticos. Para una lectura ms detallada y referencias se puede ver Guttman (1982).
Lima, 3/5/2010 D:\Lavori in corso\Lima\Corso pucp\Lezioni\Clase 3.wpd II-33
Definicin. Se dice que el vector aleatorio y 0 n, tiene una distribucin normal si su funcin de densidad py(y) es
donde la matriz E -1 es simtrica definida positiva y : tiene componentes finitas. Entonces se escribe y = N(:, E), con E(y) = : y V(y) = E. Teorema. Si y = N(:, E ) y G es diagonal, su componentes yi de y son estadsticamente independientes.
II-34
Clase 3
Inferencia
Clase 3
Inferencia
Teorema. Sea un vector aleatorio y = N(:, E ), con E = P'P y Q y considere la forma cuadrtica centrada
Teorema. Una condicin necesaria y suficiente por que Q tenga una ley de distribucin de chi-cuadrado con k < n grados de libertad es que P'GP sea idempotente y de rango k. Si G =F2I la condicin deviene en que G sea idempotente de rango k. Teorema de Craig. Sea un vector aleatorio y = N(:, E ) y las dos formas cuadrticas
donde la matriz G es simtrica y real. Entonces la ley de distribucin de Q es una combinacin lineal de n variables aleatorias independientes de ley chi-cuadrado con 1 grado de libertad
II-35
Clase 3
Inferencia
Clase 3
Inferencia
Teorema de Cochran. Sea y = N(0, 1) una variable aleatoria y sean n observaciones de y independientes, formando un vector aleatorio y = N(0, I). Sea por otro lado
donde Qi = y' Ai y es una forma cuadrtica de rango rg(Ai ) = ni , y Ai es una matriz simtrica nn, i = 1, ..., k. Entonces las siguiente condiciones son equivalentes: 1) Q1, Q2 , ..., Qn son estadsticamente independientes; 2) Q1, Q2 , ..., Qn tienen individualmente distribuciones de chi-cuadrado; 3) n1 + n2 + ... + nk = n.
Lima, 3/5/2010 D:\Lavori in corso\Lima\Corso pucp\Lezioni\Clase 3.wpd II-37
Teorema. Sea el vector aleatorio y = N(:, E ) y considere su distribucin de y condicional A(y - :) = 0 donde A es una matriz kn, k<n, rg(A) = k. Entonces la distribucin condicional de y es tal que
II-38
Clase 3
Inferencia
Clase 3
Inferencia
En consecuencia resulta
II-40
Clase 3
Inferencia
Clase 3
Inferencia
es distribuido normalmente con promedio $ y varianza F2(X'X)-1 , por tanto cada tiene una distribucin normal donde cii es elemento diagonal de (X'X)-1. Entonces su desvo estndar es
II-41
II-42
Clase 3
Inferencia
Clase 3
Inferencia
Resulta entonces por la estimacin de Para el tema de la varianza, su intervalo de confianza es dado por estndar se deriva la condicin del test
, , resulta su desvo
II-43
II-44
Clase 3
Inferencia
Clase 3
Inferencia
De manera anloga resulta que el desvo estndar del predictor , y por tanto su intervalo de confianza resulta
vale
Particin de la regresin
En un estudio, puede resultar que el inters este concentrado solo sobre algunos parmetros. Esto significa que se consideran dos conjuntos de k1 + k2 = k regresores separados, X1 y X2, y por esto el modelo puede escribir como
II-46
Clase 3
Inferencia
Clase 3
Inferencia
En el caso ortogonal bajo la condicin X1 X2 = la matriz X'X toma la Si solo se esta interesado en los $2, los $1 se llaman parmetros de fastidio. Tiene que distinguir en el anlisis dos casos: si los dos conjuntos de regresores son ortogonales o sea X1' X2 = , o no. En el caso no ortogonal, hay que ortogonalizar X2. Como se puede escribir X2 = X21 + X2B1, con las columnas de X21 regresin de la columna correspondiente sobre X1 y la matriz X2B1 formada por los residuos, se estudiar el modelo forma y entonces
En consecuencia la estimacin de $ se puede dividir en dos partes independientes, por lo que resulta
II-47
II-48
Clase 3
Inferencia
Clase 3
Inferencia
con varianza
Entonces, la proyeccin sobre S es la suma de las dos proyecciones sobre los espacios S1 y S2 generados respectivamente para X1 y X2. En consecuencia
es cero.
II-49
Clase 3
Inferencia
Clase 3
Inferencia
Fuente
X1
SSX1 / k1 SSX2 / k2
F2
X2
k2 n - k1- k2 n
SSX2 = y'S2 y
Error Total
II-51
II-52
Clase 3
Inferencia
Clase 3
Inferencia
Si el inters solo est concentrado sobre $2 se puede borrar la primera linea y cambiar la ltima, de manera que se obtiene:
Fuente
Esta tabla muestra que cuando el inters esta limitado a $2 , la suma de cuadrados total es la suma de cuadrados de los residuos de la regresin de y sobre X1. Esto sugiere proceder en dos etapas: 1) Calcular la regresin de y sobre X1 2) Calcular la regresin de e1 sobre X2. Se puede observar que, cuando se incluy X2 en el modelo la suma de cuadrados de la regresin aument y la suma de cuadrados de los residuos disminuy en la misma cantidad, as que siempre se puede escribir
X2
Error Total
F2
n - k1
y'(I - S1) y
II-53
II-54
Clase 3
Inferencia
Clase 3
Inferencia
donde 1 = (1, 1, ..., 1)' tiene dimensin n 1, y donde el inters se centra sobre los parmetros $1 , $2, $k-1. Se puede observar que, si estos no son todos cero, resulta $0 = y el promedio de los yi, que no es de inters, mientras que interesan los otros factores. Se vuelve as al modelo
Clase 3
Inferencia
Clase 3
Inferencia
y que
Sobre la base del teorema de Gauss, es un estimador insesgado de varianza mnima lineal en y. Se verifica fcilmente que las varianzas de los parmetros valen
as que
Lima, 3/5/2010 D:\Lavori in corso\Lima\Corso pucp\Lezioni\Clase 3.wpd II-57
Clase 3
Inferencia
Clase 3
Inferencia
Se sigue el proceso haciendo la regresin de y sobre 1 para calcular los residuos. Esto nos deja
correspondiendo a centrar y, o sea eliminar el promedio. Por tanto se hace la regresin de e0 sobre X1B 0 para obtener tabla de anlisis de varianza . Resulta entonces la
II-59
II-60
Clase 3
Inferencia
Clase 3
Inferencia
Siguiendo esta tabla se puede definir el coeficiente de determinacin de la misma manera que en la regresin simple:
Se puede mostrar que su raz cuadrada es el coeficiente de correlacin mltiple entre y y X1, o sea entre y y :
II-61
II-62
Clase 3
Inferencia
Clase 3
Inferencia
y el vector que se puede llamar vector residual del modelo. Este informa sobre el desvo entre la esperanza verdadera y la supuesta. Su cuadrado es
n-m n
MSW = SSW / (n - m)
F2
II-64
Clase 3
Inferencia
Clase 3
Seleccin de modelos
Seleccin de modelos
Para testar el ajuste del modelo, se puede rechazar la hiptesis de linealidad a nivel de probabilidad B si Para seleccionar entre modelos diferentes, resulta conveniente utilizar matrices que sintetizan las relaciones entre el conjunto de variables. Ya sabemos que el coeficiente de correlacin r(x,y), resultando del clculo de los residuos de una regresin lineal, informa sobre la intensidad de la relacin lineal entre las variables mismas. En particular, resulta cero en el caso que ninguna parte de SSy sea explicada para una recta de regresin sobre x y 1 en el caso de relacin funcional perfecta positiva o negativa.
Lima, 3/5/2010 D:\Lavori in corso\Lima\Corso pucp\Lezioni\Clase 3.wpd II-65 Lima, 3/5/2010 D:\Lavori in corso\Lima\Corso pucp\Lezioni\Clase 3.wpd II-66
Clase 3
Seleccin de modelos
Clase 3
Seleccin de modelos
En el caso de una tabla de datos X con p variables en columna,, se usa sintetizar este conjunto a travs de matrizes (simtricas y semi-definidas positivas). Especficamente, se introducen la matriz de varianzacovarianza Resulta
y la matriz de correlacin
Lima, 3/5/2010 D:\Lavori in corso\Lima\Corso pucp\Lezioni\Clase 3.wpd II-67 Lima, 3/5/2010 D:\Lavori in corso\Lima\Corso pucp\Lezioni\Clase 3.wpd II-68
Clase 3
Seleccin de modelos
Clase 3
Seleccin de modelos
A veces puede ser til saber como se pueden calcular de manera sinttica dichas matrices.
la matriz de varianza-covarianza resulta del centrado de los datos alrededor de su promedio dividido por n - 1, o sea, definiendo el vector de los promedios
II-69
II-70
Clase 3
Seleccin de modelos
Clase 3
Seleccin de modelos
II-71
Clase 3
Seleccin de modelos
Clase 3
Seleccin de modelos
Suponiendo a todas las variables centradas, su clculo se basa sobre la hiptesis que el efecto de z sobre x1 y x2 se manifiesta para relaciones del Existe una estadstica que permite calcular este vnculo entre x1 y x2 bajo z constante de manera sencilla, tambin con muestras pequeas, bajo una hiptesis de linealidad de los vnculos. Se trata del coeficiente de correlacin parcial entre x1 y x2, que se escribe como: tipo: donde son los residuos. Entonces, en funcin de los residuos,
II-73
II-74
Clase 3
Seleccin de modelos
Clase 3
Seleccin de modelos
Caso general
Anlogamente se construyen las matrizes de varianza-covarianza parcial V(X|Z) y de correlacin parcial C(X|Z) entre p variables x1, x2, ..., xp suponiendo fijas q variables z1, z2, ..., zq. Por esto resulta el sistema
II-75
II-76
Clase 3
Seleccin de modelos
Clase 3
Seleccin de modelos
y por tanto V(X|Z) y C(X|Z) van ser respectivamente la matriz de varianza-covarianza y de correlacin entre las variables residuos: g1, g2, ..., gp
Como para la i-esima variable, el ajuste de mnimos cuadrados entre xk y las z1, z2, ..., zq se escribe:
con ei el vector de los residuos. Para todos los p ajustes, se puede construir Sean X la matriz cuyas lineas representan las observaciones y cuyas columnas corresponden a las p variables xi y Z la matriz cuyas columnas representan las q variables zj.
Lima, 3/5/2010 D:\Lavori in corso\Lima\Corso pucp\Lezioni\Clase 3.wpd II-77
la matriz de los parmetros, y la matriz E de los residuos, as que el sistema se puede escribir compactamente por
II-78
Clase 3
Seleccin de modelos
Clase 3
Seleccin de modelos
y por tanto se
y substituyendo
para
se obtiene
Con esta notacin, la matriz de varianza-covarianza parcial entre X con Z constante se puede escribir:
con
Lima, 3/5/2010 D:\Lavori in corso\Lima\Corso pucp\Lezioni\Clase 3.wpd II-79
.
II-80
Clase 3
Seleccin de modelos
Clase 3
Seleccin de modelos
Resulta
Tcnicas de regresin
La matriz de correlaciones parciales se calcula fcilmente empezando con la de V(X | Z) como se calcul la matriz de correlacin ordinaria: tomando se obtiene Supongamos que para modelar y, variable que explicar o criterio, se dispone de p predictores x1 , x2 , ... xp. En vez de explicar y con todas las p variables explicativas, se puede intentar de explicar y solo con un sub-conjunto de q variables extradas de las p disponibles, de manera de conseguir una explicacin casi igualmente satisfactoria de y.
II-81
II-82
Clase 3
Seleccin de modelos
Clase 3
Seleccin de modelos
Existen muchas razones para esta operacin: - reducir el numero de predictores, - seleccionarlos entre un numero demasiado grande, - obtener frmulas ms estables pero con buena capacidad de prediccin. Considerando tambin que - aumentando los predictores el coeficiente de correlacin mltipla siempre aumenta, - tambin aumenta la varianza de los estimadores; - aumentando los predictores aumenta el riesgo de collinealidad y por consecuencia la instabilidad de los parmetros.
Lima, 3/5/2010 D:\Lavori in corso\Lima\Corso pucp\Lezioni\Clase 3.wpd II-83
Clase 3
Seleccin de modelos
Clase 3
Seleccin de modelos
Clase 3
Seleccin de modelos
Clase 3
Seleccin de modelos
como el ratio entre la suma de cuadrados de la regresin de los residuos con una nueva variable xs y el promedio de cuadrados de los errores y se testa con la F de Fisher a nivel B, con 1 y n - s - 1 grados de libertad.
El proceso es il siguiente: 1) se define previamente un valor de probabilidad B (.10, .05, ...) 2) se estima el trmino constante $0 3) se selecciona la variable cuyo coeficiente de correlacin con y sea ms grande en valor absoluto, digamos x1 , a condicin que su F de entrada sea significativa 4) se selecciona como variable siguiente en el modelo la variable cuya correlacin parcial con y, bajo los efectos conocidos de los predictores ya en el modelo, es ms grande, a condicin que su F de entrada sea significativa 5) Se repite 4) hasta que no hay ms variables con F de entrada significativa.
Lima, 3/5/2010 D:\Lavori in corso\Lima\Corso pucp\Lezioni\Clase 3.wpd II-88
II-87
Clase 3
Seleccin de modelos
Clase 3
Seleccin de modelos
La seleccin para atrs busca un buen modelo empezando con todas las p variables y quitando un predictor paso a paso. Para eligir el predictor a quitar, se utiliza F de salida, FS, o sea
II-90
Clase 3
Seleccin de modelos
Clase 3
Seleccin de modelos
II-91
Clase 3
Seleccin de modelos
Clase 3
Seleccin de modelos
Entonces, se procede de esta manera: 1) se definen previamente dos valores de probabilidad, BE > BS 2) iterativamente ... 3) se testa si entre las variables no incluidas en el modelo hay que tienen una FE significativa a nivel BE y si hay se incluye la que tiene el valor mas grande 3) se testa si entre las variables en el modelo hay que tienen una FS no significativa a nivel BS y si hay se queda la que tiene el valor mas pequeo 4) Se repite desde 2) hasta que no hay ms variables con FE o FS significativas.
Lima, 3/5/2010 D:\Lavori in corso\Lima\Corso pucp\Lezioni\Clase 3.wpd II-93
Debe considerarse siempre que: el orden de entrada o de salida de una variable en el modelo no implica su importancia relativa o absoluta con respecto de las otras alguna variable importante puede ser quedada porque entraron otras cuya calidad explicativa global resulte mejor. los tres mtodos no producen el mismo modelo de regresin y por esto se sugiere de emplearlos todos juntos no hay razn porque exista un acuerdo entre los mtodos paso a paso y lo de todas las regresiones, porque el vnculo dado para la iteratividad de los procesos no implica un mejor modelo posible.
II-94