Heterocedasticidad Autocorrelación
Enviado por rodmark • 21 de Septiembre de 2018 • Apuntes • 1.998 Palabras (8 Páginas) • 259 Visitas
Tema 5: Heterocedasticidad
Tema 6: Autocorrelación
[pic 1]
- Introducción.
- Revisión de las propiedades del estimador MCO.
- Implicaciones en la inferencia. Alternativas robustas.
- Detección: gráficos de residuos y contrastes.
- Heterocedasticidad: contraste de White.
- Autocorrelación: contraste de Durbin-Watson.
- Ejemplos.
[pic 2][pic 3][pic 4][pic 5][pic 6]
Introducción: [pic 7]
Hipótesis básicas sobre el término de perturbación: condicionando en X
[pic 8] Media condicionada igual a cero. [pic 9] Homocedasticidad = varianza constante [pic 10] No autocorrelación[pic 11]
Matricialmente para el vector de perturbaciones:[pic 12][pic 13]
[pic 14]
Introducción:[pic 15]
Si relajamos la hipótesis básica de varianza constante:
[pic 16] Heterocedasticidad = varianza cambia con t Si relajamos la hipótesis básica de no autocorrelación:
[pic 17] Autocorrelación
Matricialmente para el vector de perturbaciones en general:
[pic 18]
[pic 19]
Introducción:[pic 20]
- En el caso de que solamente haya heterocedasticidad la matriz será diagonal:
[pic 21]
- En el caso de que haya autocorrelación entonces la matriz no será diagonal ya que tendrá elementos fuera de la diagonal distintas de cero que serán las covarianzas entre perturbaciones.
[pic 22]
Homocedasticidad vs Heterocedasticidad[pic 23]
[pic 24]
La dispersión de las posibles realizaciones de la variable dependiente, esto es su varianza, en un caso se mantiene constante a medida que la variable X aumenta, en cambio en el otro gráfico aumenta a su vez.
[pic 25]
Homocedasticidad vs Heterocedasticidad[pic 26][pic 27]
En el caso 2 la varianza del término de error crece a medida que la variable X aumenta. Mayor dispersión de las realizaciones de los errores a mayor valor de X.
[pic 28][pic 29]
Ejemplo de autocorrelación positiva[pic 30][pic 31]
Agrupación de realizaciones del mismo signo seguidas.[pic 32]
[pic 33]
Ejemplo de autocorrelación negativa[pic 34]
[pic 35][pic 36][pic 37]
Realizaciones consecutivas que alternan el signo.
[pic 38]
Un posible modelo para la autocorrelación[pic 39][pic 40]
[pic 41]
La autocorrelación o correlación en el tiempo entre perturbaciones depende del parámetro .[pic 42]
Autocorrelación de orden uno positiva. En este caso la correlación entre perturbaciones es siempre positiva y disminuye a medida que se distancian en el tiempo.[pic 43]
[pic 44] Autocorrelación de orden uno negativa. En este caso la correlación entre perturbaciones separadas “s” periodos pasa de ser positiva cuando “s” es par a negativa cuando “s” es impar y también disminuye a medida que se distancian en el tiempo.
[pic 45]
Propiedades del estimador MCO.[pic 46]
[pic 47]
- Condicionando a X sigue siendo un estimador lineal ya que es una función en las variables aleatorias Y o u.
- Sigue siendo insesgado si E (u \ X)=0.
[pic 48]
- Pero ya NO ES EFICIENTE dentro de la clase de estimadores lineales e insesgados. Existen otros dentro de esa clase con menor varianza (MCG).
[pic 49]
Propiedades del estimador MCO.[pic 50]
- La expresión de su matriz de varianzas y covarianzas cambia. Ahora tenemos la siguiente expresión:
[pic 51]
- Por lo tanto el estimador usual de esta matriz de varianzas y covarianzas
[pic 52]
NO ES ADECUADO. Estará sesgado.
[pic 53]
Consecuencias para la inferencia[pic 54]
- La inferencia o contrastes de hipótesis sobre los coeficientes utilizando los estadísticos t y F derivados bajo el supuesto de homocedasticidad y no autocorrelación no son adecuados.
- Si se quiere realizar inferencia válida utilizando por ejemplo el estadístico t basado en el estimador MCO de los coeficientes se tiene que utilizar un estimador de su matriz de varianzas y covarianzas robusto a la existencia de heterocedasticidad o autocorrelación. Veremos en gretl como obtenerlo.
- En ese caso, el estadístico t basado en las desviaciones típicas robustas tiene una distribución bajo la hipótesis nula que se puede aproximar a una N(0,1) para muestras grandes. Por lo tanto, si el tamaño muestral es razonable, la decisión del contraste utilizando el valor muestral del estadístico y compararlo con el valor crítico en esa distribución será adecuado.
[pic 55]
Detección de heterocedasticidad: Contraste de White[pic 56][pic 57][pic 58][pic 59][pic 60]
[pic 61][pic 62][pic 63]
Detección de heterocedasticidad: Contraste de White[pic 64][pic 65][pic 66]
...