Multicolinealidad
Enviado por ChrisIvanCA • 13 de Enero de 2015 • 1.096 Palabras (5 Páginas) • 391 Visitas
La multicolinealidad
Objetivo:
Comprendes y aprender a interpretar los conceptos estadísticos otorgados a través de los métodos de regresión múltiple y sobre la multicolinealidad.
Procedimiento:
• Indagar en fuentes confiables de información
• Comprender y analizar temas
• Interpretar y ejemplificar los modelos de regresión
• Realizar diferentes maneras en donde se utilicen dichos modelos
• Realizar una conclusión personal
• Verificar datos relevantes
Resultados:
“Tema 13 Inferencias en modelos de regresión múltiple y predicción”
Con el ajuste del modelo de regresión se pueden obtener el pronóstico y desarrollar intervalos de confianza y de predicción estimados con la suposición de que el modelo de regresión ajustado es adecuado para cualquier posible modelo que se requiera analizar.
Inferencias en modelos de regresión múltiple
La evaluación del modelo se puede hacer de tres formas diferentes las cuales son:
o Por medio del error estándar de la estimación.
En donde:
n = número de observaciones
k = número de variables independientes en la función de regresión
SCE = suma de cuadrados del error
CME = cuadrado medio del error
Recuérdese que σε es la desviación estándar de la variable del error e y que, debido a que es un parámetro poblacional.
o El coeficiente de determinación.
El coeficiente de determinación es dado por:
Y representa la razón de la variación de la respuesta Y explicada por su relación con las X. Para el ejemplo anterior se tiene que el coeficiente de determinación es:
• La prueba de F del análisis de varianza.
• Significancia de la regresión.
En la tabla siguiente se muestra el análisis de varianza utilizado en la descomposición de la variación total (Suma de cuadrados totales, SCT) en sus partes explicada (Suma de cuadrados de regresión, SCR) y no explicada (Suma de cuadrados del error, SCE):
En donde:
n = número de observaciones
k = número de variables independientes en la función de regresión
• Prueba de hipótesis
1. Establecimiento de hipótesis
H0 : β1 = β2 = ... βk = 0 (Las variables independientes no afectan a Y)
En oposición a:
Ha : βi ≠ 0 (Al menos una variable X afecta a Y)
2. Estadística de prueba
3. Regla de decisión
Rechazar H0 si Fcalculada es mayor que Fteórica:
En donde:
gl regresión = grados de libertad de regresión
gl error = grados de libertad del error
α = nivel de significancia
4. Conclusión
Existen dos posibilidades:
a. Si Fcalculada es mayor que Fteórica, se rechaza H0 (Existe evidencia de que al menos una X afecta a Y).
b. Si Fcalculada es menor que Fteórica, no se rechaza H0 (No existe evidencia de alguna X afecte a Y).
Con esta prueba de hipótesis podemos concluir si aceptamos diferentes propuestas en varios modelos de regresión múltiple
“Uso de la tabla de F”
Es la tabla de F está integrada de la siguiente forma: la primera hilera tiene los grados de libertad, df1, del numerador, mientras que en la primera columna están los grados de libertad del denominador, df2. La tabla de F proporciona valores de Fdf1df2(α) para a = 0.25, 0.10, 0.05, 0.025, 0.01, 0.005 y 0.001, los cuales se pueden leer en la segunda columna.
Pruebas de sobre los coeficientes individuales de regresión.
Con frecuencia se tiene interés en probar hipótesis acerca de los coeficientes individuales de regresión. Tales pruebas serían útiles para determinar el valor
...