ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

Multicolinealidad


Enviado por   •  7 de Octubre de 2013  •  1.370 Palabras (6 Páginas)  •  1.038 Visitas

Página 1 de 6

Multicolinealidad

Naturaleza de la multicolinealidad: Originalmente el término de multicolinealidad significó la existencia de una relación perfecta o exacta entre las variables explicativas de un modelo de regresión. En la actualidad se incluye en la multicolinealidad el término de error estocástico. La multicolinealidad así referida se refiere solamente a relaciones lineales entre variables x. No elimina las relaciones no lineales existentes entre ellas.

Se supone que en un modelo clásico de regresión lineal no hay multicolinealidad debido a que, si la multicolinealidad es perfecta los coeficientes de la regresión de las variables son indeterminados y sus errores estándar son infinitos. Si la multicolinealidad es menos que perfecta los coeficientes de regresión poseen grandes errores estándar, lo que hace que los coeficientes no pueden ser estimados con gran precisión.

Causas de la multicolinealidad:

Las principales causas que producen multicolinealidad en un modelo son:

Relación causal entre variables explicativas del modelo.

Escasa variabilidad en las observaciones de las variables independientes.

Reducido tamaño de la muestra.

En definitiva, la multicolinealidad suele ser un problema muestral que se presenta normalmente en datos con el perfil de series temporales. Así, por ejemplo, la edad y la experiencia suelen presentar una alta relación ya que ambas evolucionan conjuntamente: a mayor edad se presupone mayor experiencia. Por tal motivo será difícil separar el efecto de cada una sobre la variable dependiente y que se produzca multicolinealidad debido a la relación causal ´existente entre dichas variables (series temporales).

3. Consecuencias

Las consecuencias de un cierto nivel de multicolinealidad pueden ser las siguientes [1]:

Cuanto más grande sea la correlación, más próximo a cero será el determinante de la matriz X’X, lo cual incrementará las varianzas y covarianzas del vector de los parámetros estimados.

Los estimadores MCO presentan varianzas y covarianzas grandes que hacen difícil la estimación precisa.

Los intervalos de confianza tienden a ser mucho más amplios, lo que hace más posible aceptar una hipótesis nula de cero.

La razón t de uno o más coef tienden a ser no significativas.

El R 2 puede ser muy alto.

Los estimadores MCO y sus errores estándar pueden ser sensibles a pequeños cambios en la información.

Cumplimiento de una de las hipótesis básicas del modelo uniecuacional múltiple: la matriz ´ X no es de rango completo por columnas, esto es, rg(X) < k. El incumplimiento de dicha hipótesis no permite invertir la matriz X^tX, por loque el sistema normal

X^tX • β = X^ty.

Es compatible indeterminado, es decir, es imposible obtener una solución

Única para (β ) ̂(hay infinitas). ¿Qué hacer ante esta situación? Evidentemente no se podrán estimar los coeficientes de las variables independientes, sin embargo, si se podrá estimar una combinación lineal de los mismos. Y en tal caso no tenemos garantizado ´que se puedan recuperar a partir de estas las estimaciones de los parámetros originales.

La multicolinealidad aproximada hace referencia a la existencia de una relación

Lineal aproximada entre dos o más variables independientes. En este caso, no se incumplirá la hipótesis básica de que la matriz ´ X sea completa por columnas (rg(X) = k), por lo que se podrá invertir ´ X^t X y obtener los estimadores por mínimos cuadrados ordinarios. Sin embargo, el determinante de X^t X será muy próximo a cero, por lo que ´ (X^t X)−1

Tendera a tener valores altos.

En consecuencia, cuando existe un problema de multicolinealidad no perfecta se presentan los siguientes problemas:

las varianzas de los estimadores son muy grandes.

al efectuar contrastes de significación individual no se rechazar la hipótesis nula, mientras que al realizar contrastes conjuntos si.

los coeficientes estimados serán muy sensibles ante peque ´ nos cambios en los datos.

Un coeficiente de determinación elevado.

Detección de la multicolinealidad:

Basarse en los síntomas enumerados anteriormente para la detección de la multicolinealidad no es un procedimiento fiable ya que es subjetivo. Por tal motivo, para la detección de la multicolinealidad usaremos los métodos:

Numero de condición.

Factor de agrandamiento de la varianza.

El numero de condición, k(X), se define como la raíz cuadrada del cociente entre el autovalor mas grande

...

Descargar como (para miembros actualizados) txt (9 Kb)
Leer 5 páginas más »
Disponible sólo en Clubensayos.com