Econometria
Enviado por famigigafore • 10 de Noviembre de 2013 • 966 Palabras (4 Páginas) • 276 Visitas
Multicolinealidad
Saltar a: navegación, búsqueda
Commons-emblem-question book orange.svg
Este artículo o sección necesita referencias que aparezcan en una publicación acreditada, como revistas especializadas, monografías, prensa diaria o páginas de Internet fidedignas.
Puedes añadirlas así o avisar al autor principal del artículo en su página de discusión pegando: {{subst:Aviso referencias|Multicolinealidad}} ~~~~
El proceso o término de multicolinealidad en Econometría es una situación en la que se presenta una fuerte correlación entre variables explicativas del modelo. La correlación ha de ser fuerte, ya que siempre existirá correlación entre dos variables explicativas en un modelo, es decir, la no correlación de dos variables es un proceso idílico, que sólo se podría encontrar en condiciones de laboratorio.
Índice
1 Clases de colinealidad
1.1 Multicolinealidad exacta
1.2 Multicolinealidad aproximada
2 Colinealidad exacta, efectos y soluciones
3 Colinealidad aproximada, efectos y soluciones
4 Detección de la colinealidad
5 Solución de la colinealidad
Clases de colinealidad
Multicolinealidad exacta
Afirmamos que hay colinealidad exacta, cuando una o más variables, son una combinación lineal de otra, es decir, existe un coeficiente de determinación entre estas dos variables de 1. Esto provoca que la Matriz X'X tenga determinante 0, y sea singular (no invertible).
TAMBIEN PODEMOS AFIRMAR QUE EXISTE MULTICOLINEALIDAD EXACTA CUANDO LA AUTOCORRELACION ES MAYOR A 0.9
Multicolinealidad aproximada
Afirmamos que hay colinealidad aproximada, cuando una o más variables, no son exactamente una combinación lineal de la otra, pero existe un coeficiente de determinación entre estas variables muy cercano al uno y por lo tanto:
|X'X| \simeq 0
Colinealidad exacta, efectos y soluciones
Se da cuando el rango es menor al número de columnas: Rg(X)= r < k \
Ordenamos las variables explicativas del modelo de manera que:
X = [X_r|X_{s=k-r}] \longleftrightarrow Rg(X_r) = r \
Teniendo en cuenta que:
X_s = X_rM \longleftrightarrow X = X_r[I_r|M]= X_rZ \longleftrightarrow Z = [I_r|M]
Sustituimos en el Modelo:
X = X_rZ \rightarrow Y= X_rZ \beta + u \leftarrow Y = X \beta + u \
Y llamamos a Z \beta = \vartheta
y si reescribimos el modelo tenemos:
Y = X_r \vartheta + u
Cuando hay colinealidad exacta no podemos estimar los parámetros del modelo, lo que estimamos son combinaciones lineales de ellos que reciben el nombre de funciones estimables. Siendo en nuestro caso particular \vartheta nuestra función estimable.
Ejemplo de como operar con funciones estimables:
X = \begin{pmatrix} 1 & 4 & 8 \\ 1 & 2 & 4 \\ 1 & 5 & 10 \\1 & 7 & 14 \\ 1 & 9 & 18 \\ 1 & 12 & 24 \\ 1 & 13 & 26 \\ 1 & 1 & 2 \end{pmatrix}
Como se puede ver, la tercera columna es el doble de la segunda, de manera que la matriz X'X es singular y en consecuencia no podríamos obtener el estimador MCO.
De manera que en virtud de lo visto anteriormente tenemos:
X_r = \begin{pmatrix} 1 & 4 \\ 1 & 2 \\ 1 & 5 \\1 & 7 \\ 1 & 9 \\ 1 & 12 \\ 1 & 13 \\ 1 & 1\end{pmatrix} X_s = \begin{pmatrix} 8 \\ 4 \\ 10 \\ 14
...