REGRESION LINEAL SIMPLE Y MULTIPLE
Enviado por danahel • 24 de Mayo de 2013 • 4.078 Palabras (17 Páginas) • 808 Visitas
INSTITUTO TECNOLOGICO DE LAS CHOAPAS
MATERIA: ESTADISTICA INFERENCIAL 2
ALUMNO: MIGUEL ANGEL ISIDRO ANTONIO
CATEDRATICO: RAUL RAMOS URGELL
SEMESTRE: 4
GRUPO: C
TRABAJO: INVESTIGACION DE LA UNIDAD 1
(REGRESION LINEAL SIMPLE Y MULTIPLE)
UNIDAD 1
REGRESION LINEAL SIMPLE Y MULTIPLIQUE
INTRODUCCION
Los análisis de regresión pueden ser de varios tipos, según el número de variables independientes de la función.
Si el número de variables independientes es una la regresión es simple y si el número de variables independientes es mayor que una la regresión es múltiple.
Otra característica que se debe tener en cuenta en la clasificación de de la regresión es la función, si la dependencia funcional de la variable respuesta respecto a las variables independientes es lineal, la regresión es lineal, y si la función es no lineal, la regresión es no lineal.
En estadística la regresión lineal o ajuste lineal es un método matemático que modela la relación entre una variable dependiente Y, las variables independientes Xi y un término aleatorio ε.
El término regresión fue utilizado por primera vez en el estudio de variables antropométricas (medidas del hombre): al comparar la estatura de padres e hijos, resultó que los hijos cuyos padres tenían una estatura muy superior al valor medio tendían a igualarse a éste, mientras que aquellos cuyos padres eran muy bajos tendían a reducir su diferencia respecto a la estatura media; es decir, "regresaban" al promedio.
El término lineal se emplea para distinguirlo del resto de técnicas de regresión, que emplean modelos basados en cualquier clase de función matemática.
1.1.-REGRESION LINEAL SIMPLE
Es un método matemático que modela la relación entre una variable dependiente Y, las variables independientes Xi y un término aleatorio ε. Este modelo puede ser expresado como:
: Variable dependiente, explicada o regresando.
: Variables explicativas, independientes o regreso res.
: Parámetros, miden la influencia que las variables explicativas tienen sobre el regresando.
Donde es la intersección o término "constante", las son los parámetros respectivos a cada variable independiente, y es el número de parámetros independientes a tener en cuenta en la regresión. La regresión lineal puede ser contrastada con la regresión no lineal.
Regresión lineal simple
Sólo se maneja una variable independiente, por lo que sólo cuenta con dos parámetros. Son de la forma:
Donde es el error asociado a la medición del valor y siguen los supuestos de modo que (media cero, varianza constante e igual a un y con ).
Análisis
Dado el modelo de regresión simple, si se calcula la esperanza (valor esperado) del valor Y, se obtiene:
Derivando respecto a y e igualando a cero, se obtiene:
Obteniendo dos ecuaciones denominadas ecuaciones normales que generan la siguiente solución para ambos parámetros:
La interpretación del parámetro es que un incremento en Xi de una unidad, Yi incrementará en
Regresión lineal múltiple
La regresión lineal nos permite trabajar con una variable a nivel de intervalo o razón, así también se puede comprender la relación de dos o más variables y nos permitirá relacionar mediante ecuaciones, una variable en relación a otras variables llamándose Regresión múltiple. Constantemente en la práctica de la investigación estadística, se encuentran variables que de alguna manera están relacionados entre sí, por lo que es posible que una de las variables pueda relacionarse matemáticamente en función de otra u otras variables.
Maneja varias variables independientes. Cuenta con varios parámetros. Se expresan de la forma:
Donde es el error asociado a la medición del valor y siguen los supuestos de modo que (media cero, varianza constante e igual a un y con ).
1.1.1.-PRUEBA DE HIPOTESIS EN LA REGRESION LINEAL SIMPLE
Para realizar un análisis de regresión lineal múltiple se hacen las siguientes consideraciones sobre los datos:
a) Linealidad: los valores de la variable dependiente están generados por el siguiente modelo lineal:
UBXY+=*
b) Homocedasticidad: todas las perturbaciones tienen las misma varianza:
2)(σ=iuV
c) Independencia: las perturbaciones aleatorias son independientes entre sí:
jiuuEji≠∀=⋅,0)
d) Normalidad: la distribución de la perturbación aleatoria tiene distribución normal: ,0(2σNU)
e) Las variables explicativas Xk se obtienen sin errores de medida.
Si admitimos que los datos presentan estas hipótesis entonces el teorema de Gauss-Markov establece que el método de estimación de mínimos cuadrados va a producir estimadores óptimos, en el sentido que los parámetros estimados van a estar centrados y van a ser de mínima varianza.
1.1.2.-CALIDAD DEL AJUSTE EN REGRESION LINEAL SIMPLE
El ajuste de un modelo de regresión requiere de varias suposiciones. La estimación de los parámetros del modelo requiere la suposición de que los errores son variables aleatorias no correlacionadas con media 0 y varianza constante. Las pruebas de hipótesis y la estimación del intervalo requieren que los errores se distribuyan normalmente. Además se debe suponer que el orden del modelo es correcto, esto es, si ajustamos un polinomio de primer orden, entonces estamos suponiendo que el fenómeno se comporta en realidad en un modo de primer orden. Así que un analista siempre debe considerar dudosa la validez de estas suposiciones y conducir los análisis para examinar la adecuación del modelo que se ha considerado en forma tentativa. En esta sección analizamos métodos útiles
Un Análisis residual es la diferencia entre el valor observado y el valor estimado por la línea de regresión, El residual puede ser considerado como el error aleatorio observado.
Una
...