Habia Una Vez Un Barco Chiquito
Enviado por cristhian3012 • 7 de Julio de 2015 • 1.640 Palabras (7 Páginas) • 291 Visitas
Tema 13. Inferencias en modelos de regresión múltiple y predicción
Explicación
Anteriormente se utilizó el modelo de regresión lineal simple para analizar cómo una variable cuantitativa (la variable dependiente Y) es afectada por otra variable cuantitativa (la variable independiente X). En general, se prefiere incluir tantas variables independientes que demuestren afectar significativamente la variable dependiente. La principal ventaja de la regresión múltiple es que nos permite utilizar más información disponible para estimar la variable dependiente. Además, en la regresión múltiple se puede observar cada una de las variables independientes y probar si contribuyen de manera significativa a la forma en que la regresión describe los datos. La regresión múltiple permitirá también ajustar tanto curvas como rectas. Las curvas de ajuste son una técnica de modelado que se puede utilizar en la regresión múltiple para aumentar la precisión de nuestras ecuaciones de estimación.
Como ejemplo, uno de los problemas más fuertes que tienen que afrontar los administradores es el ausentismo de los empleados o trabajadores, pues esto hace que decrezca la productividad de un grupo operacional, el personal de oficina, una planta manufacturera y otros, y disminuye también la calidad del producto.
Por consiguiente, los administradores de negocios tratan de identificar las causas del ausentismo de los empleados para poder tomar medidas para controlarlo o reducirlo. El análisis de regresión es un método para determinar variables que están relacionadas con el ausentismo de los trabajadores. El primer paso sería definir una medida Y para el ausentismo de los empleados; por ejemplo, el número de inasistencias por mes. El siguiente paso sería definir un conjunto de variables independientes que podrían estar relacionadas con Y. Finalmente, se relaciona Y con las variables independientes utilizando un modelo de regresión múltiple, y se ajusta el modelo al conjunto de datos.
Si la ecuación de predicción por mínimos cuadrados resultante proporciona un buen ajuste de los datos, es decir, si permite predecir una medida Y del ausentismo con un pequeño error de predicción, se concluirá que al menos una de las variables independientes aporta información para predecir Y.
Pronóstico para la variable dependiente Y
Una vez ajustado el modelo de regresión a los datos, se puede pronosticar el peso promedio de peso final y desarrollar intervalos de confianza y de predicción estimados con la suposición de que el modelo de regresión ajustado es adecuado. Supóngase que se desea predecir el peso promedio final cuando X1, el peso inicial, es de 35 kilogramos y X2, los alimentos consumidos, es igual a 280 kilogramos.
Solución:
Si se utiliza la ecuación de regresión múltiple:
Ŷ = -22.1377 + 1.4420 X1 + 0.2110X2
Con X1 = 35 y X2=280, se tiene:
Ŷ = -22.1377 + 1.4420 (35) + 0.2110(280)
Y así:
Ŷ = 87.55
Por lo tanto, se estima que el peso final en promedio será de 87.55 cuando el peso inicial es de 35 kg y la cantidad de alimentos consumidos sea de 280 Kg.
Inferencias en modelos de regresión múltiple
La evaluación del modelo se puede hacer en tres formas:
Error estándar de la estimación
Recuérdese que σε es la desviación estándar de la variable del error e y que, debido a que es un parámetro poblacional, es necesario estimar su valor por medio del uso de Sε. En regresión múltiple, el error estándar de la estimación se define como sigue:
En donde:
n = número de observaciones
k = número de variables independientes en la función de regresión
SCE = suma de cuadrados del error
CME = cuadrado medio del error
Ejemplo
Volviendo al ejemplo anterior, en donde se realizó un experimento para determinar si el peso de un animal puede predecirse después de un periodo dado, con base en el peso inicial del animal y en la cantidad de alimento consumida por este, se registraron los siguientes datos, medidos en kilogramos:
Peso
final
Y
Peso
inicial
X1
Alimentos
consumidos
X2
95
42
272
77
33
226
80
33
259
100
45
292
97
39
311
70
36
183
50
32
173
80
41
236
92
40
230
94
38
235
A continuación puede verse parte de la salida de Excel:
Análisis de varianza
Grados de libertad
Suma de cuadrados
Cuadrados
medios
F
Regresión
2
1738.3393
869.1696
15.13
Residuos (error)
7
402.1607
57.4515
Total
9
2140.5000
Coeficiente de determinación
El coeficiente de determinación es dado por:
Y representa la razón de la variación de la respuesta Y explicada por su relación con las X. Para el ejemplo anterior se tiene que el coeficiente de determinación es:
En este caso, el 81.21% de la variación en el peso final se explica por X1 (peso inicial) y X2 (alimentos consumidos). En la práctica, 0 ≤ R2 ≤ 1, y el valor de R2 debe interpretarse en relación con los extremos, 0 y 1.
El coeficiente de determinación R2 siempre se puede incrementar al agregar una variable independiente X adicional a la función de regresión, aun si la variable adicional es no-significativa (no importante). Por esta razón, algunos analistas prefieren calcular el valor de R2, ajustado al número de términos en la función de regresión. El coeficiente de determinación ajustado se da
...