ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

Multicolinealidad


Enviado por   •  13 de Enero de 2015  •  1.096 Palabras (5 Páginas)  •  387 Visitas

Página 1 de 5

La multicolinealidad

Objetivo:

Comprendes y aprender a interpretar los conceptos estadísticos otorgados a través de los métodos de regresión múltiple y sobre la multicolinealidad.

Procedimiento:

• Indagar en fuentes confiables de información

• Comprender y analizar temas

• Interpretar y ejemplificar los modelos de regresión

• Realizar diferentes maneras en donde se utilicen dichos modelos

• Realizar una conclusión personal

• Verificar datos relevantes

Resultados:

“Tema 13 Inferencias en modelos de regresión múltiple y predicción”

Con el ajuste del modelo de regresión se pueden obtener el pronóstico y desarrollar intervalos de confianza y de predicción estimados con la suposición de que el modelo de regresión ajustado es adecuado para cualquier posible modelo que se requiera analizar.

Inferencias en modelos de regresión múltiple

La evaluación del modelo se puede hacer de tres formas diferentes las cuales son:

o Por medio del error estándar de la estimación.

En donde:

n = número de observaciones

k = número de variables independientes en la función de regresión

SCE = suma de cuadrados del error

CME = cuadrado medio del error

Recuérdese que σε es la desviación estándar de la variable del error e y que, debido a que es un parámetro poblacional.

o El coeficiente de determinación.

El coeficiente de determinación es dado por:

Y representa la razón de la variación de la respuesta Y explicada por su relación con las X. Para el ejemplo anterior se tiene que el coeficiente de determinación es:

• La prueba de F del análisis de varianza.

• Significancia de la regresión.

En la tabla siguiente se muestra el análisis de varianza utilizado en la descomposición de la variación total (Suma de cuadrados totales, SCT) en sus partes explicada (Suma de cuadrados de regresión, SCR) y no explicada (Suma de cuadrados del error, SCE):

En donde:

n = número de observaciones

k = número de variables independientes en la función de regresión

• Prueba de hipótesis

1. Establecimiento de hipótesis

H0 : β1 = β2 = ... βk = 0 (Las variables independientes no afectan a Y)

En oposición a:

Ha : βi ≠ 0 (Al menos una variable X afecta a Y)

2. Estadística de prueba

3. Regla de decisión

Rechazar H0 si Fcalculada es mayor que Fteórica:

En donde:

gl regresión = grados de libertad de regresión

gl error = grados de libertad del error

α = nivel de significancia

4. Conclusión

Existen dos posibilidades:

a. Si Fcalculada es mayor que Fteórica, se rechaza H0 (Existe evidencia de que al menos una X afecta a Y).

b. Si Fcalculada es menor que Fteórica, no se rechaza H0 (No existe evidencia de alguna X afecte a Y).

Con esta prueba de hipótesis podemos concluir si aceptamos diferentes propuestas en varios modelos de regresión múltiple

“Uso de la tabla de F”

Es la tabla de F está integrada de la siguiente forma: la primera hilera tiene los grados de libertad, df1, del numerador, mientras que en la primera columna están los grados de libertad del denominador, df2. La tabla de F proporciona valores de Fdf1df2(α) para a = 0.25, 0.10, 0.05, 0.025, 0.01, 0.005 y 0.001, los cuales se pueden leer en la segunda columna.

Pruebas de sobre los coeficientes individuales de regresión.

Con frecuencia se tiene interés en probar hipótesis acerca de los coeficientes individuales de regresión. Tales pruebas serían útiles para determinar el valor

...

Descargar como (para miembros actualizados) txt (7 Kb)
Leer 4 páginas más »
Disponible sólo en Clubensayos.com