Analisis Factorial
Enviado por aguiiimar • 23 de Junio de 2014 • 2.416 Palabras (10 Páginas) • 306 Visitas
ANALISIS FACTORIAL
El análisis factorial (AF) es una técnica de análisis multivariante que se utiliza para el estudio e interpretación de las correlaciones entre un grupo de variables. Parte de la idea de que dichas correlaciones no son aleatorias sino que se deben a la existencia de factores comunes entre ellas. El objetivo del AF es la identificación y cuantificación de dichos factores comunes.
Por ejemplo, hay fenómenos como estilo de vida, imagen de un producto, actitudes de compra, nivel socioeconómico, que es necesario conocer pero que no se pueden medir con una sola pregunta, porque se trata de fenómenos complejos que se manifiestan en infinidad de situaciones, sentimientos, comportamientos y opiniones concretas. Estos fenómenos son el resultado de la medición de un conjunto de características. El AF nos permitirá combinar preguntas de manera que podamos obtener nuevas variables o factores que no son directamente medibles pero que tienen un significado.
Se trata de una técnica adecuada para el caso de variables continuas altamente correlacionadas.
Modelo Matemático del Análisis Factorial
El modelo matemático del AF supone que cada una de las p variables observadas es función de un número m factores comunes (m < p) más un factor específico o único. Tanto los factores comunes como los específicos no son observables y su determinación e interpretación es el resultado del AF.
Analíticamente, supondremos un total de p variables observables tipificadas y la existencia de m factores comunes. El modelo se define de la siguiente forma:
X1 = l11 F1 l12 F2 l1m Fm e1
X2 = l21 F1 l22 F2 l2m Fm e2
...
Xp = lp1 F1 lp2 F2 lpm Fm ep
que podemos expresar de forma matricial como: X = Lf e
donde:
• X es el vector de las variables originales.
• L es la matriz factorial. Recoge las cargas factoriales ó (saturaciones).
• lih es la correlación entre la variable j y el factor h.
• f es el vector de factores comunes.
• e es el vector de factores únicos.
Como tanto los factores comunes como los específicos son variables hipotéticas, supondremos, para simplificar el problema, que:
1. Los factores comunes son variables con media cero y varianza 1. Además se suponen incorrelacionados entre sí.
2. Los factores únicos son variables con media cero. Sus varianzas pueden ser distintas. Se supone que están incorrelacionados entre sí. De lo contrario la información contenida en ellos estaría en los factores comunes.
3. Los factores comunes y los factores únicos están incorrelacionados entre si Esta hipótesis nos permite realizar inferencias que permitan distinguir entre los factores comunes y los específicos.
Basándonos en el modelo y en las hipótesis formuladas, podemos demostrar que la varianza (información contenida en una variable) de cada variable se puede descomponer en:
• aquella parte de la variabilidad que viene explicada por una serie de factores comunes con el resto de variables que llamaremos comunalidad de la variable
• y la parte de la variabilidad que es propia a cada variable y que, por tanto, es no común con el resto de variables. A esta parte se le llama factor único o especificidad de la variable.
Var(xj ) = 1 = l 2j1 Var(F1 ) l 2j2 Var(F2 ) ... l 2jm Var(Fm ) Var(ej ) = l 2j1 l 2j2 l 2jm Var(ej )
donde:
• l 2jh representa la proporción de varianza total de la variable Xj explicada por el factor h.
• h 2j = l 2j1 l 2j2 ... l 2jm es la comunalidad de la variable Xj y representa la proporción de varianza que los distintos factores en su conjunto explican de la variable Xj. Es, por tanto, la parcela de esa variable que entra en contacto con el resto de variables. Varía entre 0 (los factores no explican nada de la variable) y 1 (los factores explican el 100% de la variable).
• Var(ej ) es lo que llamamos especificidad y representa la contribución del factor único a la variabilidad total de Xj.
• l 21h l 22h ... l 2ph = gh es lo que se llama eigenvalue (autovalor) y representa la capacidad del factor h para explicar la varianza total de las variables. Si las variables originales estuviesen tipificadas, la varianza total sería igual a p y gh/p representaría el porcentaje de varianza total atribuible al factor h.
El objetivo del AF será, por tanto, obtener los factores comunes de modo que expliquen una buena parte de la variabilidad total de las variables.
¿Cuándo es adecuado realizar un AF?
Un AF resultará adecuado cuando existan altas correlaciones entre las variables, que es cuando podemos suponer que se explican por factores comunes. El análisis de la matriz de correlaciones será pues el primer paso a dar. Analíticamente, podemos comprobar el grado de correlación con las siguientes pruebas o test:
• Test de esfericidad de Bartlett.
Es necesario suponer la normalidad de las variables. Contrasta la H0 de que la matriz de correlaciones es una matriz identidad (incorrelación lineal entre las variables). Si, como resultado del contraste, no pudiésemos rechazar esta H0, y el tamaño de la muestra fuese razonablemente grande, deberíamos reconsiderar la realización de un AF, ya que las variables no están correlacionadas.
El estadístico de contraste del test de Bartlett es:
B = - ( n - 1 - (2p 5)/6 ) ln | R* |
bajo la hipótesis nula resulta X 2(p2 - p)/2
donde:
o p es el número de variables y
o | R* | es el determinante de la matriz de correlaciones muestrales.
• Indice KMO (Kaiser-Meyer-Olkin) de adecuación de la muestra.
KMO se calcula como:
donde:
o rji - coeficiente de correlación observada entre las variables j e i.
o aji - coeficiente de correlación parcial entre las variables j e i.
Estos coeficientes miden la correlación existente entre las variables j e i, una vez eliminada la influencia que las restantes variables ejercen sobre ellas. Estos efectos pueden interpretarse como los efectos correspondientes a los factores comunes, y por tanto, al eliminarlos, aji - representará la correlación entre los factores únicos de las dos variables, que teóricamente tendría que ser nula. Si hubiese correlación entre las variables (en cuyo caso resultaría apropiado un AF), estos coeficientes deberían estar próximos a 0, lo que arrojaría un KMO próximo a 1. Por el contrario, valores del KMO próximos a 0 desaconsejarían el AF.
Está comúnmente aceptado que:
o Si KMO < 0.5 no resultaría aceptable para hacer un AF.
o Si 0.5 < KMO < 0.6 grado de correlación medio, y habría aceptación media.
o Si KMO
...