Chayo_master
Enviado por elias1992 • 3 de Diciembre de 2013 • 4.884 Palabras (20 Páginas) • 234 Visitas
Introducción:
En la industria con mucha frecuencia es necesario resolver problemas que implican conjuntos de variables, cuando se sabe que existe alguna relación inherente entre ellas. A partir de lo anterior, es necesario establecer modelos que expliquen dicha relación. Cuando, simultáneamente, contemplamos dos variables continuas, aunque por extensión se pueden emplear para variables discretas cuantitativas, surgen preguntas y problemas específicos. Esencialmente, se emplearán estadísticos descriptivos y técnicas de estimación para contestar esas preguntas, y técnicas de contraste de hipótesis específicos para resolver dichos problemas. La mayoría de estos métodos están encuadrados en las técnicas regresión y correlación
En forma más especifica el análisis de correlación y regresión comprende el análisis de los datos muéstrales para saber qué es y cómo se relacionan entre sí dos o más variables en una población.
5.1 REGRESIÓN LINEAL SIMPLE
Es un método matemático que modela la relación entre una variable dependiente Y, las variables independientes Xi y un término aleatorio ε. Este modelo puede ser expresado como:
: variable dependiente, explicada o regresando.
: Variables explicativas, independientes o regresores.
: Parámetros, miden la influencia que las variables explicativas tienen sobre el regresando.
Donde es la intersección o término "constante", las son los parámetros respectivos a cada variable independiente, y es el número de parámetros independientes a tener en cuenta en la regresión. La regresión lineal puede ser contrastada con la regresión no lineal.
El análisis de regresión es una técnica estadística para investigar la relación funcional entre dos o más variables, ajustando algún modelo matemático. La regresión lineal simple utiliza una sola variable de regresión y el caso más Sencillo es el modelo de línea recta. Supóngase que se tiene un conjunto de n pares de observaciones (x, i, y, i), se busca encontrar una recta que describa de la mejor manera cada uno de esos pares observados.
Se considera que la variable X es la variable independiente o regresiva y se mide sin error, mientras que Y es la variable respuesta para cada valor específico x i de X; y además Y es una variable aleatoria con alguna función de densidad para cada nivel de X.
Si la recta de regresión es: Y = β0 + β1 X
Cada valor y i observado para un x i puede considerarse como el valor esperado de Y dado xi más un error:
Modelo lineal simple: y =
β + β x + ε
Los εi se suponen errores aleatorios con distribución normal, media cero y varianza σ2; β0y β1 son constantes desconocidas (parámetros del modelo de regresión)
* Método de Mínimos Cuadrados para obtener estimadores de β0 y β1
Consiste en determinar aquellos estimadores de β0 y β1 que minimizan la suma de cuadrados de los errores εi; es decir, los estimadores y de β0 y β1 respectivamente deben ser tales que:
Sea mínima.
* Estimación de intervalos de confianza en torno a la línea de regresión: BANDAS DE CONFIANZA
Estimación de la respuesta media para un x0 específico:
yˆ0 tiene distribución normal, por lo que:
tiene distribución T de Student con n-2 grados de libertad, por lo que los límites de confianza superior e inferior para la respuesta media dado x0 están dados por:
Graficando los límites de confianza superior e inferior de para cada punto xi de X pueden dibujarse las bandas de confianza para la recta de regresión. Puede observarse que la amplitud del intervalo de confianza es mínima cuando mientras que es mayor en los extremos de los valores observados de X. x = x
5.1.1 prueba de hipótesis en regresión lineal simple
Una hipótesis estadística es una afirmación sobre los valores de los parámetros de una población o proceso que es subceptible de probarse a partir de la información contenida en una muestra representativa que es obtenida de la población
En cualquier análisis de regresión no basta hacer los cálculos que se
Explicaron antes, sino que es necesario evaluar qué tan bien el modelo (la línea recta) explica la relación entre X y Y. Una primera forma de hacer esto es probar una serie hipótesis sobre el modelo. Para ello es necesario suponer una distribución de probabilidad para el término de error,Ƹi es usualmente suponer normalidad: Ƹi se distribuye en forma normal, independiente, con media cero y varianza σ².
Si β1=0 entonces E(Y)= β0(una constante) y no dependería de X, o sea, no habría relación entre X y Y.
H0:β1=0
H1:β1≠0
El estadístico de prueba es:
Si la hipótesis nula es verdadera él estadístico (1.10) tiene una distribución
t- Student con n-2 grado de libertad. Se rechaza H0 si el valor absoluto si el valor absoluto de este estadístico es mayor que el correspondiente valor crítico obtenido de tablas, es decir, se rechaza H0 si:
En caso contrario no se rechaza H0No rechazar que β=0 en el caso del modelo de regresión lineal simple, implica que no existe una relación lineal significativa entre X y Y ; por tanto, no existe relación entre estas variables o ésta es de otro tipo. La suma de cuadrados de los residuos o Suma de cuadrados del error del ajuste de un modelo y está dada por:
Para llevar a cabo la prueba de hipótesis utilizamos la tabla de ANOVA.
Tenemos tres fuentes de variación.
EJEMPLO:
H0:β1=0
H1:β1≠0
SSR= (1.14165) (596.4)=680.88
SST=24,811-(491)210= 702.90
ANOVA | | | | | |
Fuente | gl | SS | MS | F |
F(crit) |
regresión | 1 | 680.88 | 680.88 | 247.40 | 5.32 |
error | 8 | 22.02 | 2.75 | | |
total | 9 | 702.90 | | | |
Como F >F(critica) se rechaza H0. La relación entre los ingresos y los gastos es significativa a un nivel de significancia de .05
5.1.2 calidad de ajuste en la regresión lineal simple.
En la sección anterior estudiamos pruebas de hipótesis para verificar que hay una relación significativa entre X y Y; sin embargo, no hemos visto si tal relación permite hacer estimaciones con una precisión aceptable. Por ejemplo, es de interés saber qué tanta de la variabilidad presente en Y fue explicada por el modelo, además si se cumplen los supuestos
...