Regresion Y Correlacion
Enviado por tedddrunker • 28 de Noviembre de 2013 • 1.183 Palabras (5 Páginas) • 207 Visitas
5.3 Regresión y correlación
REGRESIÓN
La regresión estadística o regresión a la media es la tendencia de una medición extrema a presentarse más cercana a la media en una segunda medición. La regresión se utiliza para predecir una medida basándonos en el conocimiento de otra.
MODELOS DE REGRESIÓN
En estadística la regresión lineal o ajuste lineal es un método matemático que modeliza la relación entre una variable dependiente Y, las variables independientes Xi y un término aleatorio ε. Este modelo puede ser expresado como:
Y_t = \beta_0 + \beta_1 X_1 + \beta_2 X_2 + \cdots +\beta_p X_p + \varepsilon
Y_t: variable dependiente, explicada o regresando.
X_1, X_2, \cdots, X_p : variables explicativas, independientes o regresores.
\beta_0,\beta_1,\beta_2,\cdots ,\beta_p : parámetros, miden la influencia que las variables explicativas tienen sobre el regresando.
donde \beta_0 es la intersección o término "constante", las \beta_i \ (i > 0) son los parámetros respectivos a cada variable independiente, y p es el número de parámetros independientes a tener en cuenta en la regresión. La regresión lineal puede ser contrastada con la regresión no lineal.
El modelo lineal relaciona la variable dependiente Y con K variables explicativas X_k (k = 1,...K), o cualquier transformación de éstas, que generan un hiperplano de parámetros \beta_k desconocidos:
Y = \sum \beta_k X_k + \varepsilon
donde \varepsilon es la perturbación aleatoria que recoge todos aquellos factores de la realidad no controlables u observables y que por tanto se asocian con el azar, y es la que confiere al modelo su carácter estocástico. En el caso más sencillo, con una sola variable explicativa, el hiperplano es una recta:
Y = \beta_1 + \beta_2 X_2 + \varepsilon
El problema de la regresión consiste en elegir unos valores determinados para los parámetros desconocidos \beta_k, de modo que la ecuación quede completamente especificada. Para ello se necesita un conjunto de observaciones. En una observación cualquiera i-ésima (i= 1,... I) se registra el comportamiento simultáneo de la variable dependiente y las variables explicativas (las perturbaciones aleatorias se suponen no observables).
Y_i = \sum \beta_k X_{ki} + \varepsilon_i
Los valores escogidos como estimadores de los parámetros, \hat{\beta_k}, son los coeficientes de regresión, sin que se pueda garantizar que coinciden con parámetros reales del proceso generador. Por tanto, en
Y_i = \sum \hat{\beta_k} X_{ki} + \hat{\varepsilon_i}
Los valores \hat{\varepsilon_i} son por su parte estimaciones de la perturbación aleatoria o errores.
En estadística, la regresión no lineal es un problema de inferencia para un modelo tipo:
y = f(x,\theta) + \varepsilon
basado en datos multidimensionales x,y, donde f es alguna función no lineal respecto a algunos parámetros desconocidos θ. Como mínimo, se pretende obtener los valores de los parámetros asociados con la mejor curva de ajuste (habitualmente, con el método de los mínimos cuadrados). Con el fin de determinar si el modelo es adecuado, puede ser necesario utilizar conceptos de inferencia estadística tales como intervalos de confianza para los parámetros así como pruebas de bondad de ajuste.
El objetivo de la regresión no lineal se puede clarificar al considerar el caso de la regresión polinomial, la cual es mejor no tratar como un caso de regresión no lineal. Cuando la función f toma la forma:
f(x) = a x^2 + bx + c
la función f es no lineal en función de x pero lineal en función de los parámetros desconocidos a, b, yc. Este es el sentido del término "lineal" en el contexto de la regresión estadística. Los procedimientos computacionales para la regresión polinomial son procedimientos de regresión lineal (múltiple), en este caso con dos variables predictoras x y x^2. Sin embargo, en ocasiones se sugiere que la regresión no lineal es necesaria para ajustar polinomios. Las consecuencias prácticas de esta mala interpretación
...