ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

Estadística Inferencial


Enviado por   •  26 de Noviembre de 2013  •  1.337 Palabras (6 Páginas)  •  268 Visitas

Página 1 de 6

2.4 Pruebas de hipótesis para los coeficientes de regresión

H0 : = 0 (equivale a plantear que no hay relación entre Y y Xi )

H1 : 0 (equivale a plantear que sí hay relación entre Y y Xi )

Si se acepta la de hipótesis nula, se está aceptando que no hay relación entre Y y Xi , por lo tanto, ésta variable se debe sacar del modelo.

La estadística de trabajo se resuelve suponiendo que la hipótesis nula (H0 ) es verdadera. Dicha estadística de trabajo es:

Regla de decisión

Si el número de observaciones es mayor que 30, los valores de Z se hallan en la distribución normal. Si el número de observaciones es menor o igual a 30 , los valores de Z se hallan en la distribución t con n-k-1 grados de libertad. Siendo k el número de variables independientes en el modelo.

Regla de decisión, prueba de hipótesis para

Si < T < se acepta la hipótesis nula, en caso contrario se rechaza (figura 4.6).

Una vez elegidas las variables independientes que realmente influyen en el comportamiento de Y, se pueden construir intervalos de confianza para cada uno de los coeficientes de regresión poblacional ( )

Este intervalo nos proporciona, con una confiabilidad del (1- )%, los valores dentro de los cuales variará Y si Xi varía en una unidad y las demás variables permanecen constantes. El intervalo se construye así:

Como en el caso de la prueba de hipótesis, si n ³ 30 los valores de Z se hallan en la distribución normal, y si n < 30 los valores de Z se hallan en la distribución t con n-k-1 grados de libertad.

A menudo el experimentador desea probar hipótesis que se refieren a los parámetros del modelo de regresión lineal múltiple. Esto requiere la suposición adicional de que los errores sean NID(0,σ2). Una consecuencia directa de esta suposición es que las observaciones yj son .

Consideremos probar si la regresión es significativa. En la regresión lineal múltiple esto se logra probando las hipótesis:

Al menos una i (1-55)

El rechazo de H0 en esta ecuación implica que al menos una variable en el modelo contribuye significativamente al ajuste. El procedimiento para probar la Ecuación 1-55 es una generalización del procedimiento usado para probar la regresión lineal simple. La suma total de cuadrados Syyse descompone en la suma de cuadrados de regresión y en la suma de cuadrados del error:

Y si H0:βi = 0 es verdadera, ~ , en donde el número de grados de libertad para χ2 es igual al número de variables de regresión en el modelo. También se puede mostrar que ~ y que SSE y SSR son independientes. Por lo tanto el procedimiento para probarH0:βi = 0 consiste en calcular:

(1-56)

Y rechazar H0 si F0 > Fα,k,n-k-1. Usualmente el procedimiento se resume en una tabla de análisis de variancia como la que aparece en la Tabla 1-9.

A continuación, se obtiene la fórmula para calcular la suma de cuadrados de regresión SSR.

2.5 Correlación lineal múltiple

Correlación múltiple

Una correlación múltiple (R) es el coeficiente de correlación entre una variable criterio (Y) y la combinación linear de las variables llamadas predictoras (X) que también se pueden denominar, y es más claro, variables independientes. El término predictor es habitual aunque según la finalidad que se busque puede resultar ambiguo (podemos estar explicando más que

prediciendo).

La combinación linear es la suma algebraica de

...

Descargar como (para miembros actualizados) txt (7 Kb)
Leer 5 páginas más »
Disponible sólo en Clubensayos.com