Regresion lineal Simple
Enviado por German7 • 15 de Enero de 2014 • 745 Palabras (3 Páginas) • 290 Visitas
El modelo de regresión lineal[editar · editar código]
El modelo lineal relaciona la variable dependiente Y con K variables explicativas X_k (k = 1,...K), o cualquier transformación de éstas, que generan un hiperplano de parámetros \beta_k desconocidos:
(2) Y = \sum \beta_k X_k + \varepsilon
donde \varepsilon es la perturbación aleatoria que recoge todos aquellos factores de la realidad no controlables u observables y que por tanto se asocian con el azar, y es la que confiere al modelo su carácter estocástico. En el caso más sencillo, con una sola variable explicativa, el hiperplano es una recta:
(3) Y = \beta_1 + \beta_2 X_2 + \varepsilon
El problema de la regresión consiste en elegir unos valores determinados para los parámetros desconocidos \beta_k, de modo que la ecuación quede completamente especificada. Para ello se necesita un conjunto de observaciones. En una observación cualquiera i-ésima (i= 1,... I) se registra el comportamiento simultáneo de la variable dependiente y las variables explicativas (las perturbaciones aleatorias se suponen no observables).
(4) Y_i = \sum \beta_k X_{ki} + \varepsilon_i
Los valores escogidos como estimadores de los parámetros, \hat{\beta_k}, son los coeficientes de regresión, sin que se pueda garantizar que coinciden con parámetros reales del proceso generador. Por tanto, en
(5) Y_i = \sum \hat{\beta_k} X_{ki} + \hat{\varepsilon_i}
Los valores \hat{\varepsilon_i} son por su parte estimaciones de la perturbación aleatoria o errores.
Hipótesis modelo de regresión lineal clásico[editar · editar código]
1. Esperanza matemática nula.
E(\varepsilon_i) = 0
Para cada valor de X la perturbación tomará distintos valores de forma aleatoria, pero no tomará sistemáticamente valores positivos o negativos, sino que se supone que tomará algunos valores mayores que cero y otros menores, de tal forma que su valor esperado sea cero.
2. Homocedasticidad
Var(\varepsilon_t) = E(\varepsilon_t - E \varepsilon_t)^2 = E \varepsilon_t^2 = \sigma^2 para todo t
Todos los términos de la perturbación tienen la misma varianza que es desconocida. La dispersión de cada \varepsilon_t en torno a su valor esperado es siempre la misma.
3. Incorrelación. Cov(\varepsilon_t,\varepsilon_s ) = (\varepsilon_t - E \varepsilon_t) (\varepsilon_s - E \varepsilon_s) = E \varepsilon_t \varepsilon_s = 0 para todo t,s con t distinto de s
Las covarianzas entre las distintas pertubaciones son nulas, lo que quiere decir que no están correlacionadas o autocorrelacionadas. Esto implica que el valor de la perturbación para cualquier observación muestral no viene influenciado por los valores de la perturbación correspondientes a otras observaciones muestrales.
4. Regresores no estocásticos.
5. No existen relaciones lineales exactas
...