ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

CAPITULO 5 BROOKS - ECONOMETRIA (TRADUCIDO)


Enviado por   •  9 de Octubre de 2021  •  Apuntes  •  14.425 Palabras (58 Páginas)  •  103 Visitas

Página 1 de 58

CAPITULO 5

HIPÓTESIS CLÁSICAS DEL MODELO DE REGRESIÓN LINEAL Y PRUEBAS DE DIAGNÓSTICO

En este capítulo, usted aprenderá cómo

  • Describir los pasos involucrados en la prueba de residuos de regresión para heteroscedasticidad y autocorrelación
  • Explicar el impacto de la heteroscedasticidad o autocorrelación en la optimalidad de los mínimos cuadrados ordinarios (OLS) parámetro y estimación de error estándar
  • Distinguir entre las pruebas de Durbin-Watson y Breusch-Godfrey para la autocorrelación
  • Destacar las ventajas y desventajas de los modelos dinámicos
  • Probar si la forma funcional del modelo empleado es apropiada
  • Determinar si la distribución residual de una regresión difiere significativamente de la normalidad
  • Investigar si los parámetros del modelo son estables
  • Evaluar diferentes filosofías de cómo construir un modelo econométrico
  • Realizar pruebas de diagnóstico en EViews

5.1 INTRODUCCION

Recordemos que se hicieron cinco supuestos relacionados con el modelo clásico de regresión lineal (RMCC). Estos fueron requeridos para mostrar que la técnica de estimación, mínimos cuadrados ordinarios (OLS), tenía un número de propiedades deseables, y también para que las pruebas de hipótesis con respecto a las estimaciones de coeficientes podrían válidamente realizarse. Concretamente, se supuso que:

[pic 1]

Estos supuestos se estudiarán más a fondo, en particular teniendo en cuenta lo siguiente:

  • ¿Cómo se pueden detectar las violaciones de los supuestos?
  • ¿Cuáles son las causas más probables de las violaciones en la práctica?
  • ¿Cuáles son las consecuencias para el modelo si una suposición es violada pero este hecho es ignorado y el investigador procede independientemente?

La respuesta a la última de estas preguntas es que, en general, el modelo podría encontrar cualquier combinación de tres problemas:

  • las estimaciones de coeficientes (βˆs) son incorrectas
  • los errores estándar asociados son incorrectos
  • las distribuciones que se supusieron para las estadísticas de prueba son inadecuadas.

Se adoptará entonces un enfoque pragmático para resolver los problemas asociados con el uso de modelos en los que los datos no apoyen uno o más de los supuestos. Tales soluciones suelen operar de tal manera que:

  • los supuestos ya no se incumplen, o
  • los problemas se desvían, de modo que se utilizan técnicas alternativas que siguen siendo válidas.

5.2 DISTRIBUCIONES ESTADÍSTICAS PARA PRUEBAS DE DIAGNÓSTICO

El texto a continuación discute varias pruebas diagnósticas de regresión (subespecialización) que se basan en el cálculo de una estadística de prueba. Estas pruebas se pueden construir de varias maneras, y el enfoque preciso para construir la estadística de prueba determinará la distribución que se supone que la estadística de prueba sigue. Dos enfoques particulares son de uso común y sus resultados son dados por los paquetes estadísticos: el multiplicador de Lagrange (LM) y la prueba de Wald. En el capítulo 8 figuran más detalles sobre estos procedimientos. Por ahora, todo lo que los lectores necesitan saber es que las estadísticas de pruebas de LM en el contexto de las pruebas de diagnóstico presentadas aquí siguen una distribución χ2 con grados de libertad iguales al número de restricciones puestas en el modelo, y denotado m. La versión de Wald de la prueba sigue una distribución F con (m, T-k) grados de libertad. Asintóticamente, estas dos pruebas son equivalentes, aunque sus resultados difieren un poco en muestras pequeñas. Son equivalentes a medida que el tamaño de la muestra aumenta hacia el infinito ya que hay una relación directa entre las distribuciones χ2- y F-. Asintóticamente, una variable F tenderá hacia una variable χ2 dividida por sus grados de libertad

[pic 2]

Los paquetes informáticos suelen presentar resultados utilizando ambos métodos, aunque sólo uno de los dos se ilustrará para cada prueba a continuación. Generalmente dan la misma conclusión, aunque si no lo hacen, la versión F- se considera preferible para muestras finitas, ya que es sensible al tamaño de la muestra (uno de sus parámetros de grados de libertad depende del tamaño de la muestra) de una manera que la versión χ2- no lo es.

[pic 3]Efecto de ninguna intercepción en una línea de regresión

5.3. SUPUESTO 1: [pic 4]

La primera hipótesis necesaria es que el valor medio de los errores es cero. De hecho, si un término constante se incluye en la ecuación de regresión, esta suposición nunca será violada. Pero, ¿y si la teoría financiera sugiere que, para una aplicación particular, no debería haber intercepción para que la línea de regresión sea forzada a través del origen? Si la regresión no incluía una intercepción, y el valor medio de los errores no era cero, podrían surgir varias consecuencias indeseables. En primer lugar, R2, definido como ESS/TSS puede ser negativo, lo que implica que la media muestral, y, "explica' más de la variación en y que las variables explicativas. En segundo lugar, y más fundamentalmente, una regresión sin parámetro de intersección podría conducir a sesgos potencialmente graves en las estimaciones del coeficiente de pendiente. Para ver esto, considere la figura 5.1

La línea sólida muestra la regresión estimada incluyendo un término constante, mientras que la línea de puntos muestra el efecto de suprimir (i.e. ajuste a cero) el término constante. El efecto es que la línea estimada en este caso es forzada a través del origen, por lo que la estimación del coeficiente de pendiente (ˆβ) es parcial. Además, R2 y R2 suelen carecer de sentido en ese contexto. Esto surge porque el valor medio de la variable dependiente, y, no será igual a la media de los valores ajustados del modelo, i.e. la media de ˆy si no hay constante en la regresión.

5.4. HIPÓTESIS 2: [pic 5]

Se ha asumido hasta ahora que la varianza de los errores es constante, σ2 - esto se conoce como la suposición de homoscedasticidad. Si los errores no tienen una varianza constante, se dice que son heteroscedastic. Para considerar una ilustración de la heteroscedasticidad, supongamos que se ha estimado una regresión y se han calculado los residuos, ˆut , y luego se han trazado contra una de las variables explicativas, x2t , como se muestra en la figura 5.2.

[pic 6]Ilustración gráfica de la heteroscedasticidad

...

Descargar como (para miembros actualizados) txt (89 Kb) pdf (916 Kb) docx (1 Mb)
Leer 57 páginas más »
Disponible sólo en Clubensayos.com