ANOVA Formato de Prácticas
Enviado por Rocketdeo • 6 de Enero de 2017 • Apuntes • 1.227 Palabras (5 Páginas) • 251 Visitas
Formato de Prácticas
Hoja ___de___
Cuatrimestre: | 7IPOI-G1 | Práctica N° | VI | |
Asignatura: | Estadística Aplicada a la Ingeniería | Unidad: | II | |
Profesor: | MCII Juan Reséndiz Ríos | Tema(s): | Regresión Lineal Múltiple | |
Alumno(s) | David González Sampayo José Alfredo Sánchez Chávez | |||
Fecha de elaboración: | 25 de Octubre del 2016 |
Nombre de la práctica: | Practica VI |
Objetivo: | Conocer a través de una práctica el análisis de varianza. |
Material:
Descripción:
Una vez que se tenga cumplidos los puntos anteriores, se inician los pasos para resolver un problema:
- Creación y/o comprensión del problema a resolver.
- Análisis e identificación de variables que inciden en el problema.
- Marco teórico.
- Esquematización o modelación matemática.
- Resolución matemática o aplicación de algoritmo
- Interpretación de resultados.
- Conclusiones
- Creación y/o comprensión del problema a resolver.
Las dimensiones del cubito de plástico inyectado de juguete de la empresa el Juguete S.A. de C.V dependen del proceso de la maquinaria. Los datos se muestran en la siguiente tabla.
Use una significancia del 5%
[pic 1]
- Análisis e identificación de variables que inciden en el problema.
- Dimensión en mm
- Presión en (kg/ cm^2)
- Velocidad (mm/s)
- Marco teórico.
Regresión lineal Múltiple
Se puede descomponer la variación de la variable Y de dos componentes: uno la variación de Y alrededor de los valores predichos por la regresión y otro con la variación de los valores predichos alrededor de la media. Si el modelo lineal no es adecuado, ambos estimadores estimarían la varianza de Y y si es adecuado no. Comparando ambos estimadores con la prueba de la F se contrasta lo adecuado del modelo. Para este ejemplo.
[pic 2]
Obsérvese que, a diferencia de la Regresión Lineal Simple, este contraste no es equivalente al realizado sobre los coeficientes.
Se define también el coeficiente de determinación como el cociente entre la suma de cuadrados de la regresión y la suma de cuadrados total (R2 = SSR/SST) y a su raíz cuadrada (R) se le denomina coeficiente de correlación múltiple.
[pic 3]
Además de esta prueba global del modelo basado en el análisis de la varianza, se pueden plantear pruebas parciales sobre si una variable, o un grupo de variables, añadidas a un modelo previo lo mejoran.
Se tiene un modelo
[pic 4]
Y se añade una nueva variable X*, con el primer modelo se tiene una SSR(Y,X1,...,Xk) y con el nuevo otra SSR(Y,X1,...,Xk,X*), la diferencia entre ambas será lo que ha mejorado la suma de cuadrados por añadir la variable X* y tendrá 1 grado de libertad.
SSR(Y,X*|X1,...,Xk) = SSR(Y,X1,...,Xk,X*) - SSR(Y,X1,...,Xk) = SSE(Y,X1,...,Xk) - SSE(Y,X1,...,Xk,X*)
Y el cociente
[pic 5]
Llamado F parcial, tendrá una distribución F con 1 y n-(k+2) grados de libertad en la hipótesis nula de que la nueva variable X* no mejore el modelo. Evidentemente este contraste es totalmente equivalente a contrastar que el coeficiente a* de la nueva variable es cero con la prueba basada en la t.
Del mismo modo, si al modelo original se le añaden p variables X1*,...,Xp*, se puede definir
SSR(Y,X1*,...,Xp*|X1,...,Xk) = SSR(Y,X1,...,Xk,X1*,...,Xp*) - SSR(Y,X1,...,Xk) = SSE(Y,X1,...,Xk) - SSE(Y,X1,...,Xk,X1*,...,Xp*)
Que tiene p grados de libertad, y el cociente
[pic 6]
Se distribuye como una Fp,n-(k+p+1) en la hipótesis nula de que las nuevas p variables X1*, ..., Xp* no mejoren el modelo con respecto a las k variables originales y permite contrastar dicha hipótesis[1].
Ejemplo:
Con los datos del ejemplo anterior, realizar el contraste de la F parcial para añadir la variable ejercicio a un modelo que sólo contenga la edad y las grasas consumidas.
La tabla de anova correspondiente al modelo con EDAD y GRASAS es
[pic 7]
Por lo tanto, comparando esta tabla con la del modelo completo
SSR(COLEST,EJERC|GRASAS,EDAD) =
SSR(COLEST,GRASAS,EDAD,EJERC) - SSR(COLEST,GRASAS,EDAD) = 49275,94 - 48940,18 = 335,76
por tanto Fpar=335,76/3381,83=0,099
que se distribuye como una F1,16. Como F0,05(1,16) = 4,49 no se puede rechazar la hipótesis de que EJERC no mejora el modelo. Obsérvese que esta Fpar es exactamente el cuadrado del valor de t correspondiente al coeficiente de EJERC en el modelo con las tres variables independientes[2].
...