ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

AUTOCORRELACION


Enviado por   •  28 de Mayo de 2014  •  1.877 Palabras (8 Páginas)  •  331 Visitas

Página 1 de 8

AUTOCORRELACIÓN

La autocorrelación se puede definir como la correlación entre miembros de series de observaciones ordenadas en el tiempo (información de series de tiempo) o en el espacio (información de corte de transversal). El modelo de regresión lineal supone que no debe existir autocorrelación en los errores , es decir, el término de perturbación relacionado con una observación cualquiera no debería estar influenciado por el término de perturbación relacionado con cualquier otra observación.

para todo

Causas de la Autocorrelación

Algunas de las causas son las siguientes :

Trabajo con datos de serie temporal: cuando se trabaja con datos de corte longitudinal (p.e.: una variable explicativa cuyas observaciones correspondan a valores obtenidos en instantes temporales sucesivos), resulta bastante frecuente que el término de perturbación en un instante dado siga una tendencia marcada por los términos de perturbación asociados a instantes anteriores. Este hecho da lugar a la aparición de autocorrelación en el modelo.

Especificación errónea en la parte determinista del modelo (autocorrelación espuria):

1. Omisión de variables relevantes: en tal caso, las variables omitidas pasan a formar parte del término de error y, por tanto, si hay correlación entre distintas observaciones de las variables omitidas, también la habrá entre distintos valores de los términos de perturbación.

2. Especificación incorrecta de la forma funcional del modelo: si usamos un modelo inadecuado para describir las observaciones (p.e.: un modelo lineal cuando en realidad se debería usar un modelo cuadrático), notaremos que los residuos muestran comportamientos no aleatorios (i.e.: están correlacionados).

Transformaciones de los datos: determinadas transformaciones del modelo original podrían causar la aparición de autocorrelación en el término de perturbación del modelo transformado (incluso cuando el modelo original no presentase problemas de autocorrelación).

Trabajo con modelos dinámicos: cuando se trabaja con series temporales suele ser habitual considerar modelos de regresión que incluyan no sólo los valores actuales sino también los valores retardados (pasados) de las variables explicativas. Es el caso de un modelo de retardos distribuidos de orden s o RD(s):

Otro tipo de modelo dinámico que presentaría problemas de autocorrelación sería aquel que incluyese entre sus variables explicativas uno o más valores retardados de la variable dependiente. Este otro tipo de modelo dinámico se conoce como modelo autorregresivo de orden s o AR(s):

Otra causa común de la autocorrelación es la existencia de tendencias y ciclos en los datos. Es decir, la mayoría de las variables económicas no son estacionarias en media. Esto significa que si la variable endógena del modelo tiene una tendencia creciente o presenta un comportamiento cíclico que no es explicado por las exógenas, el término de error recogerá ese ciclo o tendencia.

Consecuencias de la Autocorrelación:

La consecuencia más grave de la autocorrelación de las perturbaciones es que la estimación MCO deja de ser eficiente y la inferencia estadística también se verá afectada. Las consecuencias dependen del tipo de autocorrelación (positiva o negativa):

1. Cuando se tiene autocorrelación positiva, la matriz de varianza y covarianza de los residuos esta subestimada, si el tipo de autocorrelación es negativa, se tiene una sobrestimación de la misma.

2. Cuando se tiene autocorrelación positiva, la matriz de varianza y covarianza de los coeficientes (betas) esta subestimada, si el tipo de autocorrelación es negativa, se tiene una sobrestimación de la misma.

3. Cuando se tiene autocorrelación positiva, los intervalos de confianza son angostos, si el tipo de autocorrelación es negativa, se tienen intervalos de confianza más amplios.

4. Cuando se tiene autocorrelación positiva, se tiende a cometer error tipo I (rechazar la hipótesis nula cuando es verdadera), si el tipo de autocorrelación es negativa, se tiende a cometer error tipo II (no rechazar la hipótesis nula cuando es falsa).

5. Los son lineales, insesgados, pero ineficientes (no tienen varianza mínima).

6. Las pruebas y pierden validez.

Detección de la Autocorrelación:

Para analizar la posible presencia de autocorrelación en el modelo se suele recurrir a dos técnicas complementarias: (1) el análisis gráfico de los residuos (obtenidos al realizar la regresión por MCO), y (2) los contrastes de hipótesis específicos (test de Durbin-Watson, test h de Durbin, test de Breusch-Godfrey, test Q de Box-Pierce, etc.).

Análisis Gráfico:

Al realizar la regresión por MCO, se pueden graficar los residuos (o, alternativamente, los residuos estandarizados, es simplemente dividir por el error estandar de la estimación ) frente al tiempo. Dado que los residuos MCO son estimadores consistentes de los términos de perturbación, si se aprecian en el gráfico anterior patrones de comportamiento sistemático (no aleatorio) podremos afirmar que los términos de perturbación presentan algún tipo de autocorrelación.

Contrastes:

Test de Durbin-Watson

Es la prueba mas conocida para detectar correlación serial; permite contrastar si el término de perturbación está autocorrelacionado. Dicha prueba presenta algunos supuestos:

Es válido para autocorrelación serial de 1° orden en los residuos, no aplica para modelos con variable dependiente rezagada como variable explicativa, las variables explicativas son no estocásticas (son fijas en muestreo repetido), el modelo de regresión lineal debe incluir el intercepto, y no hay observaciones faltantes en los datos.

Una vez hallado DW, es posible usar su valor para estimar el coeficiente de autocorrelación simple mediante la expresión:

El estadístico DW es un valor comprendido entre 0 y 4. Como se observa en el siguiente gráfico, para valores de DW cercanos a 2 no rechazaremos la hipótesis nula, por el contrario, para valores de DW alejados de 2, sí rechazaremos la hipótesis nula

Tabla de decisión:

, se rechaza , existe autocorrelación positiva.

, se rechaza , existe autocorrelación negativa.

, no se rechaza , no existe autocorrelación.

o , el contraste no es concluyente.

Los pasos a seguir de este contraste son:

1. Estimación por mínimos cuadrados ordinarios (MCO) del modelo de regresión.

2. Cálculo de los residuos MCO.

3. Obtención del estadístico d (experimental) de Durbin-Watson.

4. Búsqueda de los niveles críticos del contraste.

5. Aplicación de la regla de decisión.

Un inconveniente que presenta este contraste

...

Descargar como (para miembros actualizados) txt (14 Kb)
Leer 7 páginas más »
Disponible sólo en Clubensayos.com