Estadistica. Regresión lineal múltiple
Enviado por Pineda Linares Elohim • 24 de Octubre de 2020 • Documentos de Investigación • 3.529 Palabras (15 Páginas) • 143 Visitas
[pic 1][pic 2]
[pic 3][pic 4][pic 5][pic 6][pic 7]
Tecnológico de Estudios Superiores
Tianguistenco
Ingeniería ambiental
“Unidad 1.2 y 1.3”
Alumno:
Pineda Linares Elohim
Materia:
Diseño de experimentos ambientales
Grupo: 5302 Tercer semestre
Tianguistenco, Estado de México, Octubre 1 del 2020.
Pág. |
INDICE
Unidad 1.2 Regresión lineal multiple3
1.2.1 Estimación de parámetros4
1.2.2 Prueba de significancia.5
1.2.3 Prueba de coeficientes individuales.6
1.2.4 Medidas de adecuación del modelo de regresión (análisis residual, coeficiente de determinación, coeficiente de correlación)7
1.2.5 Estimación del intervalo de predicción9
Unidad 1.3 Paquete computacional para la solución de problemas.10
Unidad 1.2
Regresión lineal múltiple
En la regresión lineal múltiple vamos a utilizar más de una variable explicativa; esto nos va a ofrecer la ventaja de utilizar más información en la construcción del modelo y, consecuentemente, realizar estimaciones más precisas. Al tener más de una variable explicativa (no se debe de emplear el término independiente) surgirán algunas diferencias con el modelo de regresión lineal simple.
Una cuestión de gran interés será responder a la siguiente pregunta: de un vasto conjunto de variables explicativas: cuáles son las que más influyen en la variable dependiente Y. (Gómez, 2010).[pic 8]
En definitiva, y al igual que en regresión lineal simple, vamos a considerar que los valores de la variable dependiente Y han sido generados por una combinación lineal de los valores de una o más variables explicativas y un término aleatorio:
[pic 9]
Año | [pic 10] | [pic 11] |
1995 | 349 | 388 |
1996 | 368 | 408 |
1997 | 288 | 433 |
1998 | 414 | 465 |
1999 | 444 | 498 |
2000 | 484 | 538 |
2001 | 518 | 574 |
2002 | 550 | 614 |
2003 | 586 | 656 |
2004 | 635 | 699 |
2005 | 686 | 748 |
Los coeficientes son elegidos de forma que la suma de cuadrados entre los valores observados y los pronosticados sea mínima, es decir, que se va a minimizar la varianza residual. Esta ecuación recibe el nombre de hiperplano, pues cuando tenemos dos variables explicativas, con tres variables explicativas tendríamos un espacio de tres dimensiones, y así sucesivamente.
Usando los siguientes datos, consumo nacional () y renta nacional () en España para el periodo 1995-2005 a precios corrientes ( euros), obtenga las estimaciones por MCO, así como las sumas de cuadrados total.[pic 12][pic 13][pic 14]
A partir de la información muestral se tiene que: .[pic 15]
Por lo que la estimación del modelo por MCO se obtiene a partir de:
[pic 16]
Por tanto, el modelo estimado queda: . La suma de cuadrados explicada se obtiene a partir de la expresión: 125862′ 7334. (Gómez, 2010).[pic 17][pic 18]
1.2.1 Estimación de parámetros
Sea la muestra aleatoria: independientes, Cada uno de los coeficientes representa el efecto de la variable independiente sobre la variable explicada. Es decir, el valor estimado indica la variación que experimenta la variable dependiente cuando la variable independiente varía en una unidad y todas las demás permanecen constantes.[pic 19][pic 20][pic 21][pic 22][pic 23]
Propiedades
- Las estimaciones de los parámetros vienen dadas por la expresión (siendo X' la matriz transpuesta del diseño)[pic 24]
- El vector de observaciones Y se distribuye según una normal multivariante de media y de matriz de varianzas y covarianzas es decir, .[pic 25][pic 26][pic 27]
- es combinación lineal de las componentes del vector Y, por lo que se distribuye según una variable aleatoria normal, donde su media y matriz de varianzas y covarianzas será:[pic 28]
- es un estimador insesgado de [pic 29][pic 30]
- [pic 31]
- Con el ajuste de mínimos cuadrados: donde son los elementos de la diagonal principal . Análogamente, la covarianza entre será [pic 32][pic 33][pic 34][pic 35][pic 36][pic 37]
- La estimación de la varianza residual se hace mediante pudiéndose comprobar que el estimador es insesgado: . De forma que estimaremos la varianza de mediante . Se demuestra que . [pic 38][pic 39][pic 40][pic 41][pic 42][pic 43]
1.2.2 Prueba de significancia.
La prueba individual de un coeficiente de regresión puede ser útil para determinar si:
- Se incluye otra variable de regresión.
- Se elimina una o más variables de regresión presentes en el modelo.
La adición de variables de regresión en el modelo implica que: la incrementa, la disminuya, pero se debe decidir si el incremento en la es tan significativo que justifique la inclusión de otra variable de regresión en el modelo, ya que la inclusión de variables que no deberían ser incluidas puede aumentar la .[pic 44][pic 45][pic 46][pic 47]
La hipótesis para probar la significancia de cualquier coeficiente de regresión es: . Si la hipótesis nula no es rechazada, es un indicador de que la variable de regresión puede ser eliminada del modelo.[pic 48]
...