ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

Estadistica. Regresión lineal múltiple


Enviado por   •  24 de Octubre de 2020  •  Documentos de Investigación  •  3.529 Palabras (15 Páginas)  •  143 Visitas

Página 1 de 15

[pic 1][pic 2]


[pic 3][pic 4][pic 5][pic 6][pic 7]

Tecnológico de Estudios Superiores

Tianguistenco

 Ingeniería ambiental

 “Unidad 1.2 y 1.3”

Alumno:                                    

Pineda Linares Elohim

Materia:

 Diseño de experimentos ambientales

Grupo: 5302       Tercer semestre

   Tianguistenco, Estado de México, Octubre 1 del 2020.

Pág.

INDICE

Unidad 1.2 Regresión lineal multiple3

1.2.1 Estimación de parámetros4

1.2.2 Prueba de significancia.5

          1.2.3 Prueba de coeficientes individuales.6

            1.2.4 Medidas de adecuación del modelo de regresión (análisis residual, coeficiente de determinación, coeficiente de correlación)7

       1.2.5 Estimación del intervalo de predicción9

         Unidad 1.3 Paquete computacional para la solución de problemas.10

Unidad 1.2

Regresión lineal múltiple

En la regresión lineal múltiple vamos a utilizar más de una variable explicativa; esto nos va a ofrecer la ventaja de utilizar más información en la construcción del modelo y, consecuentemente, realizar estimaciones más precisas. Al tener más de una variable explicativa (no se debe de emplear el término independiente) surgirán algunas diferencias con el modelo de regresión lineal simple.

Una cuestión de gran interés será responder a la siguiente pregunta: de un vasto conjunto de variables explicativas:  cuáles son las que más influyen en la variable dependiente Y. (Gómez, 2010).[pic 8]

En definitiva, y al igual que en regresión lineal simple, vamos a considerar que los valores de la variable dependiente Y han sido generados por una combinación lineal de los valores de una o más variables explicativas y un término aleatorio:

[pic 9]

Año

[pic 10]

[pic 11]

1995

349

388

1996

368

408

1997

288

433

1998

414

465

1999

444

498

2000

484

538

2001

518

574

2002

550

614

2003

586

656

2004

635

699

2005

686

748

Los coeficientes son elegidos de forma que la suma de cuadrados entre los valores observados y los pronosticados sea mínima, es decir, que se va a minimizar la varianza residual. Esta ecuación recibe el nombre de hiperplano, pues cuando tenemos dos variables explicativas, con tres variables explicativas tendríamos un espacio de tres dimensiones, y así sucesivamente.

Usando los siguientes datos, consumo nacional () y renta nacional () en España para el periodo 1995-2005 a precios corrientes ( euros), obtenga las estimaciones por MCO, así como las sumas de cuadrados total.[pic 12][pic 13][pic 14]

A partir de la información muestral se tiene que: .[pic 15]

Por lo que la estimación del modelo por MCO se obtiene a partir de:

[pic 16]

Por tanto, el modelo estimado queda: . La suma de cuadrados explicada se obtiene a partir de la expresión: 125862′ 7334. (Gómez, 2010).[pic 17][pic 18]

1.2.1 Estimación de parámetros

Sea la muestra aleatoria: independientes,                      Cada uno de los coeficientes  representa el efecto de la variable independiente sobre la variable explicada. Es decir, el valor estimado  indica la variación que experimenta la variable dependiente cuando la variable independiente  varía en una unidad y todas las demás permanecen constantes.[pic 19][pic 20][pic 21][pic 22][pic 23]

Propiedades

  1. Las estimaciones de los parámetros vienen dadas por la expresión                                                  (siendo X' la matriz transpuesta del diseño)[pic 24]
  2. El vector de observaciones Y se distribuye según una normal multivariante de media  y de matriz de varianzas y covarianzas  es decir,  .[pic 25][pic 26][pic 27]
  3.  es combinación lineal de las componentes del vector Y, por lo que se distribuye según una variable aleatoria normal, donde su media y matriz de varianzas y covarianzas será:[pic 28]
  •  es un estimador insesgado de  [pic 29][pic 30]
  •  [pic 31]
  • Con el ajuste de mínimos cuadrados:    donde  son los elementos de la diagonal principal . Análogamente, la covarianza entre  será [pic 32][pic 33][pic 34][pic 35][pic 36][pic 37]
  • La estimación de la varianza residual  se hace mediante  pudiéndose comprobar que el estimador es insesgado: . De forma que estimaremos la varianza de  mediante . Se demuestra que . [pic 38][pic 39][pic 40][pic 41][pic 42][pic 43]

1.2.2 Prueba de significancia.

La prueba individual de un coeficiente de regresión puede ser útil para determinar si:

  1. Se incluye otra variable de regresión.
  2. Se elimina una o más variables de regresión presentes en el modelo.

La adición de variables de regresión en el modelo implica que: la  incrementa, la  disminuya, pero se debe decidir si el incremento en la  es tan significativo que justifique la inclusión de otra variable de regresión en el modelo, ya que la inclusión de variables que no deberían ser incluidas puede aumentar la .[pic 44][pic 45][pic 46][pic 47]

La hipótesis para probar la significancia de cualquier coeficiente de regresión es: .  Si la hipótesis nula no es rechazada, es un indicador de que la variable de regresión puede ser eliminada del modelo.[pic 48]

...

Descargar como (para miembros actualizados) txt (18 Kb) pdf (231 Kb) docx (599 Kb)
Leer 14 páginas más »
Disponible sólo en Clubensayos.com