Multicolinealidad, Heteroscedasticidad Y Autocorrelación
Enviado por karlapf • 16 de Junio de 2013 • 771 Palabras (4 Páginas) • 3.786 Visitas
MULTICOLINEALIDAD:
a) La multicolinealidad es la existencia de una relación lineal “perfecta” o exacta entre algunas o todas las variables explicativas de un modelo de regresión.
b) Es una situación en la que se presenta una fuerte correlación entre variables explicativas del modelo. La correlación ha de ser fuerte, ya que siempre existirá correlación entre dos variables explicativas en un modelo, es decir, la no correlación de dos variables es un proceso idílico, que sólo se podría encontrar en condiciones de laboratorio.
c) CONSECUENCIAS:
• Los estimadores MCO son Insesgados y Consistentes pero tienen varianzas grandes.
• Los intervalos de confianza son mas amplios.
• El modelo suele ser significativo (R2 elevado) pero las variables individualmente no lo son (debido a que al ser grande la varianza el estadístico t" de contraste es menor llevándonos a concluir que una variable es irrelevante cuando en realidad no lo es)
• Dificultad en la interpretación de los parámetros.
• Los estimadores MCO y sus errores estándar son sensibles a pequeños cambios en la información.
causas:
• Restricciones en el modelo o en la población objeto de muestreo
• Especificación del modelo
• Un modelo sobredeterminado
• Cuando los errores estándar de los estimadores son grandes, las pruebas t tienden a arrojar como resultado que los parámetros estimados no son estadísticamente diferente de cero.
• Esto ocurre a pesar de que la prueba F indica que el modelo en su conjunto explica bien la variable dependiente.
• Los estimadores son muy sensibles a la adición o substracción de observaciones.
• A pesar de la dificultad para determinarlos efectos individuales, se podrían realizar buenas predicciones usando el modelo en su conjunto.
d)
1. Una R^2 elevada pero pocas razones t significativas
2. Altas correlaciones entre parejas de regresores
3. Examen de las correlaciones parciales
4. Regresiones auxiliares
5. Valores propios e índice de condición
6. Factores de tolerancia y de inflación de varianza
Mediante las siguientes pruebas:
• Prueba Farrar-Glauber
• Prueba factor inflación de la varianza
• Regresiones Auxiliares
• Medida Thiel < 1
e)
• Información a priori.
• Combinación de información de corte transversal y de series de tiempo.
• Eliminación de una(s) variable(s) y el sesgo de especificación.
• Transformación de variables.
• Datos nuevos o adicionales.
• Reducción de la colinealidad en las regresiones polinominales.
• Aumentar el tamaño muestral puede reducir un problema de colinealidad aproximada.
• Si se suprimen variables que están correladas con otras, la pérdida de capacidad explicativa será pequeña y la colinealidad se reducirá.
• Trabajar con las series logaritmizadas.
• Utilizar datos de corte transversal.
• Desestacionalizar las series y quitarles la tendencia.
HETEROSCEDASTISISDAD:
a) En estadística se dice que un modelo de regresión lineal presenta heteroscedasticidad o heteroscedasticidad cuando la varianza
...