UNIDAD 1,2,3
Enviado por ABRIANI • 20 de Mayo de 2014 • 2.674 Palabras (11 Páginas) • 348 Visitas
INDICE
UNIDAD 1
• 1.1.1 _ PRUEBA DE LA HIPOTESIS EN LA REGRESION LINEAL SIMPLE
• 1.1.2 _CALIDAD DEL AJUSTE DE LA REGRESION LINEAL SIMPLE
• 1.1.3 _ESTIMACION Y PREDICCION DEL INTERVALO REGRESION LINEAL SIMPLE
INTRODUCCION
La estadística inferencial es una parte de la estadística que comprende los métodos y procedimientos que por medio de la inducción determina propiedades de una población estadística, a partir de una pequeña parte de la misma.
Si sabemos que existe una relación entre una variable denominada dependiente y otras denominadas independientes (como por ejemplo las existentes entre: la experiencia profesional de los trabajadores y sus respectivos sueldos, las estaturas y pesos de personas, la producción agraria y la cantidad de fertilizantes utilizados, etc.), puede darse el problema de que la dependiente asuma múltiples valores para una combinación de valores de las independientes.
La dependencia a la que hacemos referencia es relacional matemática y no necesariamente de causalidad. Así, para un mismo número de unidades producidas, pueden existir niveles de costo, que varían empresa a empresa.
Si se da ese tipo de relaciones, se suele recurrir a los estudios de regresión en los cuales se obtiene una nueva relación pero de un tipo especial denominado función, en la cual la variable independiente se asocia con un indicador de tendencia central de la variable dependiente. Cabe recordar que en términos generales, una función es un tipo de relación en la cual para cada valor de la variable independiente le corresponde uno y sólo un valor de la variable dependiente.
DEDICATORIA
CON AMOR Y APRECIO PARA MI MADRE QUE CON SUS CONSEJOS HE PODIDO RECORRER ESTE CAMINO LLENO DE TROPIEZOS, A MI ESPOSO QUE CON ESFUERZO A LUCHADO JUNTO CONMIGO PARA PODER LLEGAR HASTA DONDE ESTOY CON AMOR GRACIAS.
DESARROLLO DEL TEMA
Hipótesis modelo de regresión lineal clásico
Una parte importante de la evaluación de la suficiencia del modelo de regresión lineal simple es la prueba de hipótesis estadística en torno a los parámetros del modelo y la construcción de ciertos intervalos de confianza. Para probar la hipótesis con respecto a la pendiente y la ordenada al origen del modelo de regresión, debemos de hacer la suposición adicional de que la componente del error “ej” se distribuye normalmente. Por consiguiente, las suposiciones completas son que los errores son NIP (0, 2). Después analizaremos como pueden verificarse estas suposiciones mediante el ANÁLISIS RESIDUAL.
Supóngase que deseamos probar la hipótesis de que la pendiente es igual a una constante, digamos , las hipótesis apropiadas son:
EC. 16
Donde hemos supuesto una alternativa de dos lados (bilateral). Como resultado de la suposición de normalidad, el estadístico es:
EC. 17
Sigue la distribución t con n-2 grados de libertad bajo
Rechazaríamos H0 sí: EC. 18
Donde se calcula a partir de la EC. 17 puede emplearse un procedimiento similar para probar la hipótesis respecto a la ordenada al origen. Para probar
EC. 19
Usaríamos el estadístico:
EC. 20
Y se rechaza la hipótesis nula si ; un caso especial muy importante de la hipótesis de la ecuación es:
EC. 21
Esta hipótesis se relaciona con la significación de la regresión. El procedimiento de prueba para puede desarrollarse a partir de desplazamientos. El primer planteamiento se inicio con la siguiente división.
+ EC. 22
Las dos componentes Syy miden, respectivamente, el tamaño de la variabilidad en la “yj,” explicada por la línea de regresión y la variación residual dejada sin explicar por la línea de regresión, solemos llamar a:
n
SSE = ∑ (Yj – j)2 la suma de los cuadrados del error,
j =1
n
SSR = ∑ (Yj – Yj)2 la suma de regresión de cuadrados.
j =1
Por consiguiente la EC. 22 puede escribirse como: Syy = SSR + SSE EC. 23
Al comparar la EC. 23 con la EC. 15, notaremos que la suma de regresión de cuadrados SSR es :
SSR = 1Sxy EC. 24
Syy tiene n-1 grados de libertad, y SSR y SSE tiene 1 y n-2 grados de libertad respectivamente. Podemos mostrar que:
E SSE = σ2
(n-2) y E(SSR)= σ2 + β12Sxx
Y que SSE y SSR son independientes. Por tanto, si Ho: β1 = 0; es verdadera, entonces el estadístico:
SSR
F0 = 1 = MSR EC. 25
SSE MSE
(n-2)
Sigue la distribución F1, n-2, y rechazaríamos H0 si F0 >
El procedimiento de prueba suele arreglarse en una tabla de análisis de varianza, tal como la tabla 1.
Análisis de varianza para probar la significancia de la regresión:
Fuente de Variación Suma de cuadrados Grados de Libertad Media cuadrática F0
Regresión SSR = 1Sxy
1 MSR MSR / MSE
Error Residual SSE = Syy - 1Sxy
n-2 MSE
Total de Grados Syy n-1
La prueba para la significancia de la regresión puede desarrollarse también a partir de la EC. 17 con B1,0 = 0, digamos:
EC. 26
Al elevar al cuadrado ambos lados de la Ec. 26, obtenemos:
t02 = 12Sxx = 1Sxy = MSR EC. 27
MSE MSE MSE
Nótese que t02 en la Ec. 27 es idéntico a F0 en la EC. 25, es cierto en general, que el cuadrado de una variable aleatoria t con f grados de libertad es una variable aleatoria F, con uno y f grados de libertad en el numerador y el denominador, respectivamente.
...