CAPITULO 5 MULTICOLINEALIDAD
Enviado por wellshinostroza • 24 de Junio de 2015 • 2.380 Palabras (10 Páginas) • 331 Visitas
CAPITULO 5
MULTICOLINEALIDAD
5.1 NATURALEZA DEL PROBLEMA
La multicolinealidad implica la existencia de una relación lineal exacta entre algunas y/o la totalidad de las variables explicativas. Esta última es la denominada multicolinealidad perfecta.
Asumiendo el siguiente modelo:
[5.1]
Donde:
Estrictamente, multicolinealidad perfecta implica que:
[5.2]
El caso más sencillo de multicolinealidad es aquel en la que dos de las variables explicativas están perfectamente correlacionadas. Es decir, se tiene por ejemplo que:
[5.3]
La multicolinealidad, es un problema, por que tiene implicancias negativas en la estimación de los parámetros de un determinado modelo. Esto quiere decir que si existe Multicolinealidad perfecta la estimación de los parámetros correspondientes no será posible. Por ejemplo, dado el siguiente modelo:
[5.4]
Si se cumple que,
[5.5]
Reemplazando [5.5] en [5.4] se tiene,
[5.6]
En la anterior relación, sólo es estimable. Es decir, no es posible separar la influencia lineal de las variables exógenas sobre la variable endógena, de modo que es imposible estimar los parámetros separados de y .
Efectivamente, es posible mostrar que existen problemas de estimación utilizando las fórmulas convencionales de estimación de los parámetros de la relación [5.4]. Según el modelo lineal general se tiene:
[5.7]
Utilizando [5.5]
Reemplazando en [5.7]
[5.8]
Obsérvese que
Por tanto, no es posible calcular y simultáneamente ya que existe dentro de las ecuaciones normales una redundante. Es decir, existe una ecuación normal que se deduce de la otra ecuación normal. De la relación [5.8] se tiene:
Nótese que la primera ecuación se deduce de la primera ecuación multiplicándolo por . Así sólo tenemos una ecuación normal linealmente independiente y dos parámetros por estimar lo cual matemáticamente resulta imposible.
En la práctica, sin embargo, el problema de multicolinealidad se presenta en todos los grados. Normalmente, lo que encontramos es multicolinealidad menos perfecta. Es decir, existe alguna relación lineal no exacta entre las variables exógenas de la forma siguiente:
En este caso la estimación correspondiente de los parámetros si es posible. Aún cuando esta estimación sea posible la implicancia de la multicolinealidad es fundamentalmente que los parámetros estimados tendrán varianzas grandes. Por ejemplo, para el modelo dado por [6.4] su varianza es:
En estas fórmulas dadas, si existe una relación lineal entre las variables exógenas de forma que es cercano a uno es fácil percibir que las varianzas de los coeficientes de regresión serán grandes.
5.2 CONSECUENCIAS
Por un lado, en presencia de multiocolinealidad aun cuando los coeficientes de regresión tienen varianzas grandes es necesario destacar que no se viola las propiedades estadísticas deseables de los estimadores obtenidos mediante el método de mínimos cuadrados ordinarios.
Por otro lado, es posible teóricamente mantener el criterio de que en un modelo poblacional, las variables explicativas no se encuentran linealmente relacionadas y posteriormente encontrar para una muestra determinada, que si lo están. Por tanto, la multicolinealidad se reduciría fundamentalmente a un problema muestral.
De modo que frente a un problema de multicolinealidad en la práctica nos enfrentamos a las siguientes consecuencias:
a) Variancias y covariancias grandes para los estimadores mínimos cuadráticos.
b) Intervalos de confianza sustancialmente amplias
c) "t" de student no significativas.
d) Valor elevado de R2 con "t" de student no significativas.
e) Alto grado de sensibilidad de los estimadores mínimo cuadráticos y sus errores estándar ante cambios pequeños en los datos.
5.3 DETECCION
En general, es complicado identificar el grado de multicolinealidad, en especial en aquellos modelos en el que están involucrados más de dos variables exógenas. Por ello es que solo se cuenta con algunas reglas generales que implican un síntoma de multicolinealidad, como las siguientes:
a) Un R2 alto pero pocas "t" de student significativas.
b) Altas correlaciones de orden cero entre las variables exógenas.
c) Coeficientes de determinación múltiple elevados y coeficientes de correlación parcial bajos.
d) Determinante de la matriz de correlación de las variables exógenas aproximadamente igual a cero.
e) Alta sensibilidad de los coeficientes parciales de regresión y de sus errores estándar frente a algunos cambios no sustanciales en los valores numéricos de alguna variable exógena.
En algunos casos, conviene realizar regresiones auxiliares entre las variables exógenas. Así podemos calcular el coeficiente de determinación, , y realizar una prueba de hipótesis de significancia global. Por ejemplo, si estamos frente a un modelo de 4 variables exógenas ( , , y ) debemos adoptar el siguiente procedimiento:
Efectuar la regresión
Calcular el coeficiente de regresión múltiple:
Determinar el estadístico
El cual posee distribución con k-2 y N-k+1 grados de libertad.
Realizar la prueba de hipótesis:
Si (de tablas) excede al a un nivel de significancia escogido, se dice que es colineal con , y
Si (de tablas) no excede al a un nivel de significancia escogido, se dice que no es colineal con , y . En este caso debemos retener la variable en el modelo especificado.
f) Existen otras reglas generales más sofisticadas, como por ejemplo, el de valores característicos e índice de condición, que aparentemente es el mejor instrumento de diágnóstico del problema de multicolinealidad.
5.4 MEDIDAS REMEDIALES
Puesto que el problema de multicolinealidad
...