Estadisticas
Enviado por SofiaWork • 25 de Febrero de 2015 • 1.797 Palabras (8 Páginas) • 196 Visitas
La regresión es un método de análisis de los datos de la realidad económica que sirve para poner en evidencia las relaciones que existen entre diversas variables.
REGRESIÓN LINEAL
Una línea recta denominado regresión lineal, que se usa en el laboratorio en varias situaciones:
Para calcular la velocidad en una experiencia de movimiento rectilíneo.
Para calcular la constante elástica de un muelle, colocando pesasen un platillo que cuelga de su extremo libre y midiendo la deformación del muelle.
En estadística la regresión lineal o ajuste lineal es un método matemático que modeliza la relación entre una variable dependiente Y, las variables independientes Xi y un término a2leatorio ε. Este modelo puede ser expresado como:
Y= β_0+ β_1 X_1+β_2 X_2+⋯+ β_P X_P+ ε
β_0 es la intersección o término "constante"
Las β_1 son los parámetros respectivos a cada variable independiente.
P es el número de parámetros independientes a tener en cuenta en la regresión. La regresión lineal puede ser contrastada con la regresión no lineal.
AJUSTE DE CURVAS
El ajuste de curvas consiste en encontrar una curva que contenga una serie de puntos y que posiblemente cumpla una serie de restricciones adicionales. Esta sección es una introducción tanto a la interpolación (cuando se espera un ajuste exacto a determinadas restricciones) y al ajuste de curvas/análisis de regresión (cuando se permite una aproximación).
Empecemos con una ecuación polinómica de primer grado:
y=ax+b
Esta línea tiene pendiente a. Sabemos que habrá una línea conectando dos puntos cualesquiera. Por tanto, una ecuación polinómica de primer grado es un ajuste perfecto entre dos puntos.
Si aumentamos el orden de la ecuación a la de un polinomio de segundo grado, obtenemos:
y=ax^2+bx+c
Esto se ajustará exactamente a tres puntos. Si aumentamos el orden de la ecuación a la de un polinomio de tercer grado, obtenemos:
y=ax^3+bx^3+cx+d Que se ajustará a cuatro puntos.
AJUSTE DE CURVAS POR MÍNIMOS CUADRADOS
El objetivo en esta sección es determinar una fórmula y = ƒ(x) que relacione las variables. Generalmente se dispone de un conjunto de variables previamente establecidas, y lo que hay que hallar son los valores más adecuados de unos coeficientes o de unos parámetros para estas fórmulas. Aunque existen muchas funciones que se pueden usar, suele ocurrir que existe un modelo matemático subyacente, basado en la situación física que se esté estudiando y determina la forma de la función salvo algunos coeficientes.
Si la relación entre xi e yi para 1 i n, es lineal, entonces la función que mejor se ajusta a los datos es una línea de aproximación de la forma:
y=ax+b
Una forma para encontrar la recta “óptima” es el método de los mínimos cuadrados y consiste en hallar el valor de las constantes a y b de tal manera que reduzcan al mínimo la suma de los cuadrados de los errores entre los valores validados y los valores y(xi) = axi + b en la línea de aproximación.
∑_(i=1)^n▒〖(y_i-ax_i-b)^2 〗
F(a,b)=∑_(i=1)^n▒〖(y_i-ax_i-b)^2 〗
RECTAS DE REGRECION
La recta de regresión es la que mejor se ajusta a la nube de puntos.
La recta de regresión pasa por el punto llamado centro de gravedad.
Recta de regresión de Y sobre X
La recta de regresión de Y sobre X se utiliza para estimar los valores de la Y a partir de los de la X.
La pendiente de la recta es el cociente entre la covarianza y la varianza de la variable X.
y-y ̅=σ_xy/(σ_x^2 ) (x- x ̅ )
Recta de regresión de X sobre Y
La recta de regresión de X sobre Y se utiliza para estimar los valores de la X a partir de los de la Y.
La pendiente de la recta es el cociente entre la covarianza y la varianza de la variable Y.
x-x ̅=σ_xy/(σ_y^2 ) (y- y ̅ )
Si la correlación es nula, r = 0, las rectas de regresión son perpendiculares entre sí, y sus ecuaciones son:
y =
x =
COEFICIENTE DE REGRESIÓN
Para determinar el valor del coeficiente de regresión de una manera fácil y exacta es utilizando el método de los Mínimos Cuadrados de dos maneras:
1.- Forma Directa
De la ecuación de la recta:
Y=a_0+a_1 x
Si a_0 y a_1 , se obtienen a partir de las ecuaciones normales:
∑▒y= a_0 N+a_1 ∑▒x
∑▒xy= a_0 ∑▒x+a_1 ∑▒x^2
Aplicando normales Y sobre X tenemos:
El Coeficiente de Regresión es
De la misma manera la recta de regresión de "X" sobre "Y" será dada de la siguiente manera:
Dónde: y se obtienen a partir de las ecuaciones normales:
Aplicando normales X sobre Y tenemos:
El coeficiente de Regresión es: b_1
Regresión Múltiple
Dispone de una ecuación con dos variables independientes adicionales:
Se puede ampliar para cualquier número "m" de variables independientes:
Para poder resolver y obtener y en una ecuación de regresión múltiple el cálculo se presenta muy tediosa porque se tiene atender 3 ecuaciones que se generan por el método de mínimo de cuadrados:
LIMITE DE CONFIANZA
En estadística, se llama a un par o varios pares de números entre los cuales se estima que estará cierto valor desconocido con una determinada probabilidad de acierto. Formalmente, estos números determinan un intervalo, que se calcula
...