Detección de los multicolinealidad
Enviado por Sarai Rodriguez • 15 de Junio de 2017 • Apuntes • 1.280 Palabras (6 Páginas) • 317 Visitas
Detección de los multicolinealidad
La pregunta clave después de conocer las características y consecuencias de la multicolinealidad es ¿Cómo conocer la presencia de multicolinealidad en cualquier situación dada, en especial en modelos con más de dos variables explicativas? Kmenta da una advertencia muy útil:
- La multicolinealidad es cuestión de grado y no de clase y la distinción resaltante no es la ausencia o presencia de la multicolinealidad, sino sus diferentes grados.
- La multicolinealidad es una característica de la muestra y no de la población.
Por lo tanto no es necesario llevar pruebas sobre la multicolinealidad, pero si se desea, se puede medir su grado en cualquier muestra.
La multicolinealidad no se puede detectar por un solo método o medir su fuerza, sino que se tienen unas reglas que son sumamente prácticas. Dentro de las cuales tenemos:
- Una elevada por pocas razones t significativa. Si es alta o sea mayor que 0.8, la prueba F, rechazará la hipótesis que los coeficientes parciales de pendiente, son iguales a cero, pero las pruebas t individual mostrarán que ningún coeficiente parcial de pendiente son estadísticamente diferentes de cero. [pic 1][pic 2]
- Alta correlación entre pajeras de regresoras. Esta regla consiste en observar el coeficiente de correlación de orden cero o entre dos regresoras. Si este es alto o sea mayor que 0.8, la multicolinealidad es un problema grave. LA desventaja con este criterio es que, aunque las altas correlaciones de orden cero puedan sugerir la presencia de multicolinealidad, no es necesario que dichas correlaciones sean alta para tener multicolinealidad. Para apreciar esta relación, supongamos este modelo de cuatro variables:
Copia las formulas y una medio explicación que sale, lee esa parte en el libro
No es difícil ver que (10.72) se satisface con = 0.5, = -0.5, que son valores muy altos. [pic 3][pic 4]
Por lo tanto donde hay más de dos variables explicativas, la correlación simple u orden cero, no proporciona una guía infalible sobre la presencia de multicolinealidad. Sin embargo si hay solo dos variables explicativas, es suficiente para la correlación de orden cero.
- Examen de las correlaciones parciales. Debido al problema anterior de correlaciones de orden cero, Farrar y Glauber sugieren que deben observar, los coeficientes de correlación parcial.
En la regresión de Y sobre , y , si se encuentra que es muy elevada pero , y son comparativamente bajas, esto puede sugerir que las variables , y están muy intercorrelacionadas y que por lo menos una de estas variables es superflua. [pic 5][pic 6][pic 7][pic 8][pic 9][pic 10][pic 11][pic 12][pic 13][pic 14]
Si bien puede ser útil un estudio de correlaciones parciales, nada garantiza que proporcionen una guía infalible sobre multicolinealidad, pues puede suceder que tanto como todas las correlaciones parciales sean lo bastante altas. Sin embargo, C. Robert Wichers mostró que la prueba de correlación parcial de Farrar-Glauber es ineficaz en el sentido de que una determinada correlación puede ser compatible con diferentes patrones de multicolinealidad. [pic 15]
- Regresiones auxiliares. Como la multicolinealidad surge porque una o más de las regresoras son combinaciones lineales exactas o aproximadas de las demás regresoras, una manera de determinar de determinar como una variable X está relacionada con el resto de las variables X es realizar la regresión de cada variable obre el resto de las otras variables X y calcular , que se designa . A cada una de estas regresiones se le llama regresión auxiliar, auxiliar a la regresión principal de Y sobre las de X. [pic 16][pic 17][pic 18]
= Copia el resto [pic 19]
En la ecuación anterior: n= tamaño de la muestra k= número de variables explicativas incluyendo el intercepto y = coeficiente de determinación en regresión de la variable sobre la variable X restantes.[pic 20][pic 21]
...