Análisis De Regresión Múltiple
Enviado por Velgrand • 14 de Noviembre de 2014 • 1.686 Palabras (7 Páginas) • 446 Visitas
ANALISIS DE REGRESION MULTIPLE
REGRESIÓN MÚLTIPLE
El análisis de regresión lineal múltiple, a diferencia del simple, se aproxima más a situaciones de análisis real puesto que los fenómenos, hechos y procesos sociales, por definición, son complejos y, en consecuencia, deben ser explicados en la medida de lo posible por la serie de variables que, directa e indirectamente, participan en su concreción. Al aplicar el análisis de regresión múltiple lo más frecuente es que tanto la variable dependiente como las independientes sean variables continuas medidas en escala de intervalo o razón.
El Análisis de Regresión Lineal Múltiple nos permite establecer la relación que se produce entre una variable dependiente Y; y un conjunto de variables independientes (X1, X2,...XK), el objetivo no solo es la estimación sino, la inferencia del problema.
En este caso la variable dependiente se ve afectada por los cambios que se le hagan a las variables independientes en conjunto.
La anotación matemática del modelo o ecuación de regresión lineal múltiple es la que sigue:
Y = a + b1x1 + b2x2 +... + bnxn + u
En donde:
Y : Es la variable a predecir
a, b1x1, b2x2... bnxn: Son parámetros desconocidos a estimar
Hay dos dificultades básicas a que nos enfrentamos al estimar un modelo de regresión múltiple:
Una es la interpretación de los efectos de una de las variables explicativas separadamente de las demás.
Por otro lado, la posibilidad de que la variable endógena se determine simultáneamente con alguna de las variables explicativas es indudablemente mayor cuantas más variables explicativas se incluyen en el modelo.
La razón por la que trabajamos en muchas ocasiones con modelos de regresión múltiple es sencillamente, porque hay más de una variable con capacidad explicativa significativa sobre la evolución de la variable endógena.
APLICACIONES DE LA REGRESIÓN MÚLTIPLE
Es cierto que la regresión múltiple se utiliza para la predicción de respuestas a partir de variables explicativas. Pero no es ésta realmente la aplicación que se le suele dar en investigación. Los usos que con mayor frecuencia encontraremos en las publicaciones son los siguientes:
Identificación de Variables Explicativas.- Nos ayuda a crear un modelo donde se seleccionen las variables que puedan influir en la respuesta, descartando aquellas que no aporten información.
Detección de Interacciones entre variable independientes que afectan a la variable respuesta.- Un ejemplo clásico es el de estudiar la respuesta de un paciente al alcohol y a un barbitúrico, y observar que cuando se ingieren ambos, el efecto es mucho mayor del esperado como suma de los dos.
Identificación de Variables Confusoras.- Es un problema difícil el de su detección, pero de interés en investigación no experimental, ya que el investigador frecuentemente no tiene control sobre las variables independientes.
1.2. MODELO CON DOS VARIABLES INDEPENDIENTES. CASO GENERAL
y = B0 + B1x1 + B2x2 + u
B0 es el término constante. representa el punto donde el plano corta al eje Y (ahora la relación entre las dos variables independientes y Y está representada por un plano).
B1 representa el cambio esperado en Y por cada incremento unitario en X1, siempre y cuando X2 permanezca constante.
B2 representa el cambio esperado en Y por cada incremento unitario en X2, siempre y cuando X1 permanezca constante.
1.3. MODELO CON K VARIABLES INDEPENDIENTES
y = B0 + B1x1 + B2x2 + • • • + Bkxk + u
k + 1 parámetros.
B0 es el término constante.
B_j mide el efecto sobre y de un cambio en x_j, manteniendo otros factores constantes (parámetros de pendiente).
u: otros factores que afectan y no son x_1,x_2 ,...,x_k.
REGRESIÓN MÚLTIPLE: PROBLEMA DE INFERENCIA
2.1. PRUEBA DE SIGNIFICANCIA
La prueba de significancia del modelo nos permite determinar estadísticamente si las variables independientes (en conjunto) tienen efecto o no sobre la variable dependiente.
Para realizar esta prueba se requiere descomponer la suma total de cuadrados, representada por Syy, en dos componentes: SSR y SSE
Syy = SSR + SSE
Donde:
Syy es la suma total de cuadrados
SSR es la suma de cuadrados de la regresión
SSE es la suma de cuadrados del error
Las ecuaciones apropiadas para calcular las expresiones anteriores son:
SSE=Syy-SSR
Partimos de las hipótesis:
Utilizamos la tabla de análisis de varianza:
Fuente de Variación Suma de cuadrados Grados
de libertad Media de cuadrados Estadístico de prueba
Regresión SSR K MSR=SSR/k
Error SSE n – k-1 MSE=SSE/n-k-1
Total Syy n – 1
El estadístico de prueba F0 tiene una distribución F (Fisher) con v1 = k y v2 = n -k-1 grados de libertad en el numerador y el denominador, respectivamente.
En este caso, si el estadístico de prueba es mayor que el valor de tablas F_(α,k n-k-1), se rechaza la hipótesis nula; concluiremos que la variable independie.nte está relacionada con al menos una de las variables independientes.
PRUEBAS SOBRE COEFICIENTES INDIVIDUALES
Las hipótesis sobre los parámetros del modelo son equivalentes a las realizadas para regresión lineal simple, pero ahora son más necesarias porque en regresión múltiple tenemos más parámetros en el modelo; sin embargo, por lo general es necesario evaluar su verdadera contribución a la explicación de la respuesta.
El modelo poblacional, bajo modelo lineal clásico puede escribirse como:
y = β0 + β1x1 + β2x2 + ••• + βkxk + u.
Y se supone que este modelo satisface los supuestos del MLC. Se sabe que MCO produce estimadores insesgados de las B_j. En este trabajo se estudia cómo probar hipótesis acerca de una B_jen particular. Para una comprensión completa de las pruebas de hipótesis, hay que recordar que las B_j son características desconocidas de la población, que nunca se conocerán con certeza. Aun así pueden hacerse hipótesis acerca del valor de B_j y después usar la inferencia estadística para probarlas.
En la mayoría de las aplicaciones, el interés primordial es contrastar la hipótesis nula:
H0: βj = 0.
Significado: como βj mide el efecto parcial de xj sobre (el valor esperado de) y, después de controlar por todas las otras variables independientes, H0 significa que, una vez que se ha
...