Apuntes personales de econometria
Enviado por JAIRO ESTEBAN ZENTENO PULIDO • 1 de Enero de 2020 • Apuntes • 1.699 Palabras (7 Páginas) • 119 Visitas
Ante esta situación (multicolinealidad) ́usted recibe tres recomendaciones para enfrentar su posible problema: ¿Cu ́ales son los pro y centro de estas opciones? ¿Cuál o cuáles son. Preferibles y en que ́circunstancias?1) Quedarse con los resultados MCO, reconociendo. posibles limitaciones. Pro: Se cumplen los supuestos Gauss-Markov.Contra: altas varianzas de. los estimadores. Es útil en modelos predictivos.2) Estimar el modelo, imponiendo retornos. Constantes a escala en la función de produccion.Pro: la varianza del estimador disminuye. Contra: se obtendrá ́ un menor R2Dependiendo si la restricción ́ está alineada con los datos y. la multicolinealidad es muy severa, puede es una buena opción para obtener mejores. estimadores.3) Eliminar una de las variables explicativas y estimar el modelo. Pro: disminuye. la varianza del estimador y el error cuadrático medio Contra: el estimador que queda en la. Regresión absorbe el efecto de la variable omitada, siendo un estimador sesgado No es tan. Buena opción ya que se violan el supuesto de Gauss-Markov.__________________________________________________________________________________________________________________________________________R°2 limitaciones: solo es adecuado si el modelo tiene constante, en caso contrario deja de estar acotado entre 0 y 1, si toma valores negativos la interpretación deja de tener sentido,-no se puede utilizar para comparar la capacidad de ajuste entre modelos que no presentan la misma variable endógena ej. Comparar yi con ln (yi).- no se debe utilizar para comparar la capacidad del ajuste de modelos que aun teniendo la misma variable endógena tendrán distinto número de variables exógenas. Esta limitación se debe a que el r°2 no tiene en cuenta la perdida de grados de libertad que se produce al añadir variables exógenas,-no penaliza la inclusión de variables explicativas no significativas, es decir, si al modelo se le añaden n variables explicativas que guardan poca relación con la variable Y, EL R°2_____________________________
Para solucionar las limitaciones del r°2 corregido utilizamos el r°2 corregido: limitaciones: no acota entre 0 y 1,- tiende a la sobreparametrizacion, nótese que el r°2 corregido no se puede interpretar como la proporción de las variaciones de Yi explicadas por el modelo__________________________________________________________________________________________________________________________
La suma de cuadrados de residuos con restricción siempre es mayor que la suma de cuadrados de residuos sin restricción, esto a su vez hace que el r°2 con restricción sea menor que el r°2 sin restricción_______
Multicolinealidad: (varianza alta) es un problema de la muestra y no de especificación del modelo,-al no controlar las variables explicativas experimentales, estas pueden estar correlacionadas,- ello hace difícil discernir cual es el efecto individual de cada uno de ellos,- si se satisfacen los supuestos de gauss-markov los estimadores siguen siendo meli(mejor estimador lineal e insesgado) aun con presencia de multicolinealidad.- la multicolinealidad no destruye la propiedad de la varianza minina, pero no significa que la varianza de un estimador mco es pequeña.- en presencia de multicolinealidad tenemos varianzas grandes esto genera: 1. Los estimadores mco presentan varianzas y covarianzas altas. 2. Los intervalos de confianza tienden a ser mucho más amplios, lo que hace más posible aceptar una hipótesis nula
Bei-bi/√varAii varianza alta: t obs menor, los test tienden a concluir que los coeficientes no son significativos,-los estimadores mco y sus errores estándar pueden ser sensibles a pequeños cambios en la información, los estimadores serán muy dependientes entre si.-si comparamos una variable por ejemplo experiencia, la educación deja de ser significativas porque están muy correlacionadas____________________________________________________________________________________________________________________________________________
Como se detecta: 1-altas correlaciones entre pareja de regresores a través de matrices de correlación entre las variables independientes. Si las correlaciones son significativas y altas, digamos que 0,8, entonces es muy probable que tengamos colinealidad. Esto es una condición suficiente pero no necesaria para la existencia de la multicolinealidad ya que esta puede existir aun con correlaciones bajas.-2. La presencia de r°2 altos y t-student poco significativos: este es un síntoma clásico de multicolinealidad, este diagnóstico es demasiado fuerte, en el sentido de que la multicolinealidad se considera dañina, cuando la totalidad de las influencias de las variables explicativas sobre Y no pueden separarse.-3.regresores auxiliares: si r°2 de la regresión auxiliar es mayor que r°2 global hay multicolinealidad.4. Como se demuestra? FIV. El fiv muestra como la varianza de un estimador es inflado por la multicolinealidad. Como regla práctica, si el fiv de una variable es superior a 10, se dice que esa variable es altamente colineal
Var(Be)=o°2xfiv/Ex°2ij, hay que considerar que un fiv alto, puede no necesariamente ocasionar errores estándar altos. ¿Qué podemos hacer en presencia de multicolinealidad? Lo importante no es si existe o no colinealidad, sino la severidad de esta, la multicolinealidad es un problema de muestra.1. Información a priori puede venir de trabajos empíricos anteriores o de la teoría relevante que soporta el campo de estudio.2.eliminar regresores o agruparlos en un nuevo índice reduciendo el número de parámetros, pero esto puede llevar a sesgos de especificación.3. Incluir información externa a los datos, en lo posible aumentar n.4. Transformación de variables por ejemplo aplicar logaritmos_____________________________________________________________________________________________________________
...