Sie sind auf Seite 1von 17

MARCO METODOLGICO La investigacin como tal busca la aplicacin de ecuaciones estructurales simultaneas, pero antes de eso se debe dar

un estado del arte acerca del anlisis factorial, el anlisis por correspondencia, el escalamiento ptimo, las regresiones categricas, y as poder construir el modelo de ecuaciones lineales simultaneas que define la apreciacin del usuario con respecto la calidad de servicio. En un comienzo se hablar del anlisis factorial.

2. ANLISIS FACTORIAL Esta es una tcnica la cual busca crear grupos de variables las cuales tengan correlacin entre s pero que no tengan correlacin con los otros grupos de variables, como tal, su objetivo es reducir el nmero de variables subyacente, tambin conocidas como no observables, dimensiones o factores, y analizar la causalidad existente entre estas y los grupos de variables observables en los modelos, estas variables se obtienen a travs de diversos pasos, en primera instancia se buscan los autovalores de la matriz varianzas y covarianza, est tcnica como tal tiene 4 fases , la cual puede ser descrita de la siguiente manera: a- El clculo de la matriz que permita estimar la variabilidad de las variables. Con dicha matriz se lograra obtener los autovalores, los cuales indicaran que tanto en trminos porcentuales la dimensin subyacente explica la varianza del modelo en cuestin, adems con la matriz de correlacin se podr analizar las posibles causalidades del modelo para pares de variables, de tal manera, que si las correlaciones parciales son menores a 0.5 indica que el anlisis factorial puede no ser tan buena idea. Adems de lo anterior se tiene tambin el anlisis del determinante de la matriz, el cual si se acerca a cero su valor, pues este indica que las variables estn linealmente relacionadas. Siguiendo con las ideas relacionada a la matriz de correlacin tambin hay que hablar acerca de la inversa de la matriz de correlacin la cual est estrechamente relacionada con la matriz anti-imagen, antes de cualquier otra explicacin hay que estacar que la condicin para que la matriz inversa tenga algn valor es que el determinante sea

cercano a 0, lo cual como ya se ha dicho anteriormente implica que si hay relaciones lineales en el modelo que en cuestin se est desarrollando.
b- Obtener la cantidad ptima de factores.

Esto se refiere a la cantidad de autovalores que sea lo suficiente para que explique la mayor parte de la varianza.
c- La rotacin de las soluciones para facilitar las interpretaciones.

Esta busca la transformacin ortogonal adecuada para buscar los componentes principales que maximicen la varianza, sean independientes entre s, y por tanto cada componente sea ms sencillo de interpretar, como tal existen dos tipos de rotaciones con diferentes tcnicas cada una, uno es el mtodo de la rotacin oblicua, y el otro es el mtodo de la rotacin ortogonal, ambas sern explicadas brevemente en apartados posteriores. d- La estimacin de las puntuaciones factoriales Al estimar las puntuaciones factoriales, se est estimando la carga que cada variable tiene sobre cada factor, dimensin o variable subyacente, con lo cual se puede estimar los grupos de variables que tienen causalidad entre s pero que son completamente independientes de las dems variables explicativas, subyacente y de los grupos. 2.1- Anlisis de la Matriz de variabilidad 2.1.1 Medida De Adecuacin Muestras Keisser Meyer Olkin Este es un ndice que est basado en la relacin o la magnitud existente entre el ndice de correlacin observado y el ndice de correlacin parcial, este viene expresado por la siguiente frmula:

Donde el ndice y implica que la variable r es la correlacin simple entre las variables i y j, y los ndices m e y indican la correlacin parcial, ya que se elimina el

efecto de las correlaciones de las restantes m variables, por otra parte, este ndice de KMO es adecuado mientras su valor se aproxime a 1 y as el anlisis factorial sera adecuado.

2.1.2 Test De Esfericidad De Barlett

Continuando con el anlisis de los ndices que se realizan a la matriz de correlaciones tenemos a este ndice de esfericidad de barlett el cual contrasta bajo la hiptesis de normalidad multivariante si la correlacin de variables observadas es la matriz de identidad, donde si llegar a suceder esto, significara que las intercorrelaciones entre las variables no existen. El test de Esfericidad de Barlett viene dado por la siguiente expresin:

(2.2) En la anterior expresin algebraica la constante n viene representando el nmero de individuos de la muestra y las lambdas representan los autovalores de la matriz de correlaciones.

2.2 Extraccin de la Cantidad de Factores ptimos Una de las principales cosas en las cuales hay que estar consiente a la hora de aplicar el anlisis factorial, es que este es posible si y solo si hay evidencias fuerte de intercorrelaciones entre las variables, una vez comprobado esto, el investigador en cuestin puede estar seguro que el anlisis factorial es una tcnica aplicable y recomendable, por consiguiente se puede pensar en el modelo en cuestin como un Modelo Factorial Ortogonal (PAPER ANALISIS FACTORIAL PDF), es decir, un modelo matricial, donde tendramos un vector X de variables observables con P componentes, media y varianza . Ahora una vez aceptado el modelo, se debe estar claro que el vector de las variables observadas X es dependiente del vector de las variables no observadas F, el cual es conocido como el vector de los factores comunes (estos factores comunes son las variables

subyacentes), y los p valores de variaciones 1 2 3,.,n que son llamados errores o factores especficos (tambin son variables no observables)(debo citar anlisis factorial pdf), de tal manera que el modelo de anlisis factorial tiene la siguiente forma:

Donde la notacin matricial se entiende con la siguiente ecuacin (2.4*), en dicha ecuacin al coeficiente otra observacin es que se conoce como carga n-esima de la variable factor n-esima, de , es decir, los factores especficos o errores, estn asociados

tal manera que a dicho coeficiente se le denomina como la matriz de carga factoriales, nicamente con las variables Xi, en otras palabras, los factores especficos o errores solo se relacionan con las variables observadas.

Algo particular del modelo factorial expresado en trminos matriciales en la ecuacin 2.4, es que este es incierto cuando se consideran las variables no observables y se termina partiendo de las variables observadas, pero si se hacen algunos supuesto en el modelo se puede obtener una relacin de covarianza entre las variables no observables F (matriz de puntuaciones factoriales) y , dichos supuestos seran los siguientes:

La esperanza de los factores comunes es cero, y su covarianza es igual a una matriz identidad, aparte de lo anterior hay otros supuesto, pero estos son con respecto a los factores especficos los cuales son anlogos a los supuestos de los factores comunes, y estos son los siguientes: (2.7)

Siguiendo con el orden de los supuestos del modelo factorial, tambin se tiene el supuesto de que las variables y F son independientes y por tanto, su covarianza

, una vez teniendo en claro los anteriores supuestos, ya se tiene construido El Modelo Factorial Ortogonal, ahora podemos entrar a analizar la estructura de la covarianza del modelo factorial:

Dado que los factores comunes y especficos son independientes tal como se estableci en 2.8, la estructura de covarianza queda de la siguiente manera:

De esta manera, se tiene que el modelo factorial es lineal en sus factores comunes, con lo cual se puede cumplir con la estructura de covarianza descrita en la ecuacin 2.9, avanzando en las explicaciones se tiene que tomar en cuenta que las sumas al cuadrado de las cargas factoriales del n-esimo factor comn (hi al cuadrado es la comunalidad o varianza explicada por los factores comunes, ms adelante se ver la relacin entre Hi y los pares ordenados de autovalores y autovectores) da lo que se conoce como la n-esima comunalidad de los factores comunes n-esimo, estos dicen una parte de la varianza del

modelo factorial, esta varianza se conoce como varianza especifica(en otras palabras es la varianza especfica para cada factor comn por lo cual se dice que es parte de la varianza), por consiguiente, se puede decir que la suma de las cargas factoriales de un factor comn y la varianza de las variables observadas ( o tambin llamadas respuestas) vendran a representarse de la siguiente manera:

As que los pasos siguientes es utilizar las observaciones mustrales y estimar a la matriz de covarianza poblacional a travs de la matriz covarianza muestral, recordando que si los elementos de esta o de la matriz de correlacin son cercanos a cero, esto implicara que el anlisis factorial no es el adecuado y es aqu cuando se ve la importancia de los factores especficos puesto que con ellos se puede determinar la importancia de los factores comunes.

3- EXTRACION DE FACTORES Ahora debe seleccionarse el mtodo adecuado para la extraccin de los factores, la forma matricial del modelo matricial ya se ha expuesto anteriormente en la ecuacin 2.4, uno de los objetivos primordiales es calcular a la matriz de cargas factoriales representada por , esta matriz es de vital importancia dado que si es una matriz con las caractersticas

adecuadas, puesta implicara que explica a las variables observadas X, una vez obtenida esta, se puede encontrar una de las identidades ms importantes del anlisis factorial:

En la anterior expresin se puede apreciar que la variable R en este caso es la matriz de correlacin de las variables observadas y es la matriz diagonal de las especifidades, ahora aqu pueden surgir dos problemas el primero: es un problema de grados de libertad es necesario que el numero de ecuaciones sea igual o mayor que el

nmero parmetros a estimar; y el segundo es el problema de unicidad, es decir las soluciones para alfa no son nicas, ya que cualquier transformacin ortogonal es una solucin posible, sin embargo si tenemos una solucin ortogonal T :

Si se busca otra solucin ortogonal a

esta sera diferente a la planteada en la y

igualdad anterior, de tal manera que si T es una matriz ortogonal entonces F*=TF donde

es la matriz de carga factorial rotada por la matriz ortogonal y F* es la

matriz de factores comunes (puntuaciones factoriales) rotada por la matriz ortogonal, donde al calcular las matrices de correlaciones y la matriz de variables observadas R y X siguen verificando las igualdades.

Dado lo anterior, se puede decir que el modelo es nico, en otras palabras se puede realizar rotaciones ortogonales sobre las cargas factoriales sin alterar el modelo. Una vez dicho esto se puede proceder a hablar de los diferentes mtodos de extraccin de factores.

3.1- Mtodo de Componentes Principales (Pendiente por paper anlisis factorial protegido) El objetivo principal del mtodo de componentes principales es estimar la matriz de varianza muestral de factores especficos (o errores) , inicialmente la matriz de varianza y covarianza (comnmente se usa la matriz de correlacin) tiene pares de autovalores y autovectores (i , ei ) con 1 2 .... p 0 , la cual se descompone de la siguiente manera;
= e e` + e
1 1 1 2 2

e`2 + ..... +p e p e` p

(3.5)

e1 `, 2 e2 ,....., 1

p e p

1e1 2 e2 ] .. .. e p p

(3.6)

Al tener tantos factores como variables y al tener i =0 para todo i, se lograr mantener la estructura de covarianza del modelo factorial (el producto cruzado igual a cero y por tanto independencia entre los factores), adems el j-esimo elemento de la matriz de carga esta dado por el producto de los autovalores y los autovectores

j e j , con lo cual

la estructura de la matriz de varianza est dada por las cargas factoriales al cuadrado y quedara de la siguiente manera;
= `+0 = ` (3.7)

Donde hay que resaltar, que adems de ser el factor escalar , i , las cargas factoriales son el j-esimo coeficientes de los componentes principal de la poblacin. Ahora retomando el anlisis anterior, se debe decir que, la ecuacin 3.7 representa el anlisis factorial de , el cual es exacto, pero es ineficiente dado que hay tantas variables como

factores comunes y siempre lo que interesa es reducir la dimensin del anlisis y ver cules son los autovalores (es decir son preferibles los modelos con pocos factores comunes) que mas explican la varianza y que ms se relacionan con cierto grupo de variables, retomemos algunas de las ecuaciones que se han hecho, y que son relevantes para construir otras identidades:

= [

e1 `, 2 e 2 ,....., 1

p e p

1e1 2 e2 ] .. + .. pep

= ` +

(3.8)

La anterior igualdad es anloga a la ecuacin 3.3, es decir, es una matriz covarianza ortogonal (se puede usar tambin a la matriz correlacin), adems de lo anterior la ecuacin 3.8 dice que lo relevante son las cargas factoriales y no los factores especficos si nulo, sin embargo se puede observar a es como la matriz de varianza de los factores

especficos o errores, que ya se ha descrito anteriormente en la ecuacin 2.8, calcularla es cuestin de hacer un despeje pero en este caso se buscar a su estimador muestral y esto se logra con la siguiente ecuacin;
2 = S ` (3.9) j =1 m

Es de notar que los valores de matriz de varianza de factores especficos o errores vienen determinadas por la diagonal principal de la matriz S=+2. Adems analizando la ecuacin 3.9 se debe hacer notar que S es la matriz de la varianza muestral y las comunalidades mustrales vienen expresada por la suma de las cargas factoriales mustrales al cuadrado y estas vienen expresadas segn el producto de los autovalores y autovectores en la ecuacin debajo de la 3.10.1 (3.10) F=

e1 `, 2 e2 ,....., 1

p e p

(3.10.1)

Ahora es tiempo de realizar estas aplicaciones al conjunto de de variables observadas:

xj

x j1 x j2 x = .. .. x jp

x j 1 x j1 x j1 x j 2 x j2 x j2 .. = . . . . . . . . .. . . . . . . . . x x x jp j p j p

(3.11)

Cuando las observaciones estn en medidas diferentes es preferible usar la varianza muestral y estandarizar las observaciones

Zj

x j1 x j1 S12 x x j2 j2 S2 2 = ........ ........ x jp x jp 2 Spp

(3.12)

Una vez realizada esta estandarizacin se logra evitar el problema de la existencia de variables con varianza grande y su influencia sobre el clculo de la carga factorial, la estimacin de los parmetro de componentes principales es realizada a travs de los clculos de la ecuacin 3.8, cuando aplicamos la matriz de covarianza S o la matriz de

correlacin R, y estas estn en trminos de los autovalores y autovectores dando as la carga factoriales mustrales o estimadas que se especificaron en la ecuacin 3.10.1 . Retomando al clculo de la matriz de factores especficos o errores i es de aclarar aparte de lo que se dijo de los valores de la diagonal principal, que los valores fuera diagonal principal no son idnticos a lo de la ecuacin 3.8 que en este caso en trminos mustrales sera de la siguiente forma: S = + 2 (3.13) De tal manera que hi=2 siendo la carga factorial para un factor comn y esta carga factorial est definida por un autovalor y un autovector

1e1 y de igual manera si

es para 2 factores comunes se dara dos pares de autovectores y autovalores y as sucesivamente, de tal manera que, la determinacin de los factores comunes no es de manera a priori, este debe realizar segn los autovalores estimados, el criterio de decisin se debe tomar segn lo que se conoce como la matriz residual la cual es la siguiente: Matriz Residual= (S ( + `)) 2 2p (3.14) Por consiguiente un valor pequeo de los autovalores es un buen criterio para no tomar un factor comn, as que de esta manera, el investigador puede discriminar y tomar decisiones para la reduccin de dimensiones. Los primeros autovalores sern los de mayor valor implicando una mayor varianza explicada dado la carga factorial de dicho factor comn, tomando en cuenta al autovalor entre la suma de las varianzas mustrales, dando como resultado la proporcin que nos dice cuanto la varianza que explica el factor comn: 2/S para el anlisis de la matriz de la varianza muestral 2/S para el anlisis de la matriz de correlacin 3.2- Mtodo de los Ejes Principales Es un algoritmo iterativo, este tiene su centro en la anterior identidad fundamental que se sealo, es decir:

Donde R que antes era la matriz de correlaciones poblacionales ahora es la matriz de correlaciones mustrales, como se dijo anteriormente es un mtodo iterativo en el sentido que se sustituye el valor de matriz de factores especficos matrices de cargas factoriales anlisis factorial pur) por una estimacin de las

, donde la identidad 3.algo siempre se respeta: (cita de la

Se parte de una estimacin inicial de las matrices de variables especficas en el paso i-esimo del algoritmo se verifica que: (cita de la anlisis factorial pur)

El calcula de la matriz de carga factorial componentes principales a la expresin:

se obtiene a travs del mtodo de

Paso siguiente se estima a la matriz de especificidades

a travs de la ecuacin

anterior, este procedimiento se realiza hasta que exista un ligero cambio. Este mtodo tiene la ventaja de estar basado en el anlisis factorial por lo que sus estimaciones son ms eficientes que el mtodo de componentes principales, pero tiene las desventaja que no se asegura la convergencia para muestras pequeas.

3.3- MTODO DE MXIMA VEROSIMILITUD

Este mtodo se puede realizar este mtodo si se asume que los factores especficos y los factores comunes tienen distribucin normal conjunta y as conseguir las cargas factoriales y la varianza especficas, entonces se puede retomar la ecuacin 2.4:

Dicha ecuacin son las observaciones o las variables observadas del modelo, de esta forma la funcin de mxima verosimilitud viene definida por:

Donde la anterior expresin depende de las cargas factoriales en , ya que esta es igual a: = + , dada esa igualdad la funcin de verosimilitud depende de las cargas factoriales y de los factores especficos, pero la matriz de carga factoriales aun no est bien definida, ya que cualquier transformacin ortogonal es aceptable, por lo cual es preferible definir a la matriz de carga factoriales bajo las siguientes condiciones de unicidad: L-1L= (3.19) Matriz diagonal

Ahora si regresamos a la ecuacin 2.18 a travs del mtodo de mxima verosimilitud se puede conseguir estimaciones para L y , as que si suponemos al vector X, como un conjunto de variables aleatorias con distribucin normal, de tal manera que (,) son parmetros normales, con = + , con lo cual se pueden encontrar a los estimadores de los paramtros dado el mtodo de mxima verosimilitud, los cuales sern los cuales estn condicionados a la matriz diagonal que establecen las condiciones de unicidad para la matriz de carga factoriales L, donde las comunalidad estimadas a travs del mtodo de mxima verosimilitud seran:

Por tanto la proporcin de la varianza va estar determinada por el cociente entre de las hi mustrales entre la suma de la varianza mustrales obteniendo as la varianza explicada por cada factor comn. 4- ROTACIN DE FACTORES Es claro que la matriz de cargas factoriales es de vital importancia para realizar los anlisis correspondientes, de tal manera que la rotaciones de los factores que se realicen deben ser aquellos que no cambie el peso de las comunalidades (se debe recordar que al hablar de comunalidad se hace referencia a la varianza explicada de cada factor) y esto se

logra cuando dichos factores son ortogonales. As que si retomamos las explicaciones de la seccin de extraccin de factores debemos decir que rara vez algunas de las tcnicas de extraccin de factores aseguran (tomando en cuenta las matrices de cargas factoriales) que los ejes factoriales sean ortogonales entre s. Por consiguiente, esta es la razn principal por la cual en el anlisis factorial se tiene que hablar rotacin de factores, estos mtodos logran que los factores que resulten de las transformaciones a la matriz de cargas factoriales sean de mejor interpretacin, teniendo en cuenta que la matriz de carga factoriales debe cumplir con ciertas caractersticas muy importantes que son las siguientes:
1- Los factores deben ser unos de pesos altos y otros pesos bajos

2- Cada variable en el modelo no debe estar saturada ms que en un factor 3- La distribucin de los factores entre las variables debe ser diferentes, es decir, deben tener distribuciones de los pesos bajas y altas que no coincidan. Con las anteriores caractersticas se estara logrando que cada factor est relacionado o correlacionado con un grupo de variables, pero con otros grupos no, permitindose conocer las interrelaciones en el modelo, y adems se lograra reducir los factores comunes, el tamao de la dimensin y dar una interpretacin ms adecuada a cada uno de los factores segn su grupo de variables. Sabiendo lo anterior, ahora se puede hablar de los tipos de rotaciones de factores.

4.1 Rotacin Ortogonal y Rotacin Oblicua

Rotacin Ortogonal En la rotacin ortogonal la rotacin de los ejes mantiene la independencia entre los factores, es decir, se mantiene la incorrelacin entre los factores hay una perpendicularidad entre los ejes, de tal manera, que obtendramos de la rotacin ortogonal, una matriz

ortogonal, lo cual se demostrara si la matriz ortogonal T al multiplicarse por su transpuesta da como resultado la matriz identidad I, si su determinante es 1 o -1, y si la transpuesta de la matriz es igual a su inversa, con todo ello los ejes de los factores seran perpendiculares y por lo tanto ortogonales, con lo cual se hace una rotacin de la matriz F (matriz de factores comunes) tal como se muestra analticamente en las ecuaciones 4.2 y 4.1.

Una vez realizado esto, se obtendra a la matriz de factores comunes, dado la matriz ortogonal, definida por la variable G y a la matriz de cargas factoriales ortogonalizada la cual llamaremos B en la ecuacin 4.3, recordando las caracterstica que deben tener la matriz de carga factoriales (ecuacin ya definida en apartados anteriores), esto es precisamente lo que se busca, que la nueva matriz de carga factoriales tenga muchos valores nulos y poco valores cercanos a la unidad

Rotacin Oblicua A contrario de la anterior rotacin, aqu no se impone el requisito de la rotacin ortogonal, que implica que la rotacin sea ortogonal, en la rotacin oblicua es suficiente con que la matriz T de rotacin sea nicamente no singular. As los factores rotados no tienen por qu ser ortogonales, de tal manera que, las correlaciones pueden ser distintas a cero. La rotacin oblicua puede usarse si hay alta probabilidad de que los factores muestren una fuerte correlacin. Hay que estar muy claro que las interpretaciones de las rotaciones con este mtodo son distintas al de la rotacin ortogonal, ya que el significado de los factores pueden tender a ser los mismos. Dado las implicaciones anteriores, en esta investigacin se tomar como mtodo de rotacin a la rotacin ortogonal y a sus tcnicas de clculo de matrices de rotacin que se empezarn a explicar en el siguiente apartado

4.2 Mtodo Varimax Este mtodo trata de hacer transformaciones las cuales minimicen el nmero de variables con cargas altas, es decir, busca mejorar la interpretacin de los factores, en otras palabras este mtodo busca maximizar las varianzas de las cargas factoriales al cuadrado de cada factor, se lograra que algunas de las varianzas de algunos factores se aproximen a 1 a la vez que otras se acerquen a cero (citar a anlisis factorial pur) los ejes se obtienen maximizando la suma de las varianzas de las cargas factoriales al cuadrado de los K factores del modelo (como muestra la ecuacin 4.3). Por otra parte, para evitar que la variable con mayor comunalidad tenga ms peso que las otras, se utiliza frecuentemente la tcnica de Normalizacin de Kaiser la cual consiste en dividir cada carga factorial al cuadrado por la comunalidad correspondiente (como muestra la ecuacin 4.3). Continuando con las anteriores ideas acerca del mtodo Varimax, este es ampliamente usado dado que es una tcnica que hace que a travs de la rotacin de los ejes de los factores se mantengan ortogonales entre s, con lo cual se logra que cada factor tenga interpretaciones diferentes.

De tal manera que con este mtodo tenemos los factores que explican la mayor varianza posible, son combinaciones lineales con el conjunto de factores comunes y variables observadas, y bajo las caractersticas de ortogonalidad entre las dimensiones se puede asegurar que cada una tiene interpretaciones diferentes, por lo tanto, se tiene un instrumento radicalmente til.

4.3 Mtodo Quartimax

El mtodo Quartimax tiene como objetivo identificar cuales variables tienen mayor correlacin con algunos de los factores, su metodologa es maximizar la varianza al cuadrado de las cargas factoriales de cada variable en los factores , con lo cual se puede denotar la relacin de cada variable con algn factor, este mtodo es mas informativo si hay muchos factores calculados, comparando este mtodo con el Varimax, se puede decir que el primer factor es el que tiene ponderaciones ms alta, pero por otra parte, los siguientes factores mostrarn menores ponderaciones que los del ya mencionado Varimax.

Mtodo Equamax Este mtodo busca maximizar la media de los criterios anteriores. Suele tener un comportamiento similar a uno de los dos mtodos anteriores.

Das könnte Ihnen auch gefallen