MULTICOLINEALIDAD
Enviado por yukilili • 4 de Marzo de 2015 • 1.092 Palabras (5 Páginas) • 758 Visitas
MULTICOLINEALIDAD
1. Colinealidad perfecta
Una de las suposiciones del modelo de regresión múltiple es que no hay una relación lineal exacta entre cualquiera de las variables independientes en el modelo. Si existe dicha relación lineal, decimos que las variables independientes son perfectamente colímales o que existe la colinealidad perfecta. Supóngase, por ejemplo, que el modelo del promedio de calificaciones del capítulo 1 consistió en las siguientes tres variables independientes:
X2 = ingreso familiar, miles de dólares
X3 = promedio de horas de estudio por día
X4 = promedio de horas de estudio por semana
Las variables X3 y X4 son perfectamente colineales debido a que X4 = 7X3 para todos y cada uno de los estudiantes que se investigaron. Cada parámetro tiene un sentido perfecto si sólo aparece una de las variables colineales en el modelo. Cuando aparecen ambas, nos enfrentamos con un problema imposible. El coeficiente de la variable X3 es un coeficiente de regresión parcial que mide el cambio en Y asociado con un cambio unitario en X3 con todas las otras variables constantes.
En vista de que es imposible mantener constantes todas las otras variables, no podemos interpretar (o incluso definir) el coeficiente de regresión.9 La colinealidad perfecta es fácil de descubrir debido a que será imposible calcular las estimaciones de mínimos cuadrados de los parámetros. (Con la colinealidad, el sistema de ecuaciones que se resolverá contiene dos o más ecuaciones que no son independientes.)
2. Los efectos de la multicolinealidad
A menudo, en la práctica, nos enfrentamos con el problema más difícil de tener variables independientes con un alto grado de multicolinealidad. La multicolinealidad surge cuando dos o más variables (o combinaciones de variables) están altamente (pero no perfectamente) correlacionadas entre sí. Supóngase que dos variables están relacionadas de esta manera. Entonces, será posible obtener las estimaciones de mínimos cuadrados de los coeficientes de regresión, pero la interpretación de estos coeficientes será bastante difícil. Se interpreta que el coeficiente de regresión de la primera de las dos variables, altamente correlacionadas mide el cambio en Y y que es debido a un cambio en la variable en cuestión, siendo iguales otras cosas. En el momento en que ocurre un cambio dado en una variable, es probable que se observe en su pareja correspondiente altamente correlacionada, un cambio de una forma predeciblemente similar. Por tanto, la presencia de multicolinealidad implica que habrá muy pocos datos en la muestra para darle a uno confianza respecto a dicha interpretación.
No nos sorprende que las distribuciones de los parámetros de regresión estimados sean bastante sensibles a la correlación entre variables independientes, y también a la magnitud del error estándar de la regresión. (Recuérdese que en el modelo de dos variables, la varianza estimada de Esta sensibilidad se muestra en forma de errores estándar muy altos para el parámetro de regresión. Esto puede verse si examinamos las fórmulas para las varianzas de los parámetros estimados dadas en las ecuaciones (4.6) y (4.7). Ambos denominadores incluyen el término 1 - r2. . Cuando X2 y X3 no están correlacionadas en la muestra, r = 0 y las fórmulas son esencialmente idénticas. Sin embargo, cuando r se vuelve alta (cercana a 1) en valor absoluto, la multicolinealidad está presente, con el resultado de que las varianzas estimadas tanto de se vuelve muy grande. Esto nos dice que aunque
...