REGRESIÓN LINEAL MÚLTIPLE
Enviado por deiz • 12 de Mayo de 2013 • 2.272 Palabras (10 Páginas) • 569 Visitas
REGRESIÓN LINEAL MÚLTIPLE
La regresión lineal múltiple estima los coeficientes de la ecuación lineal, con una o más variables independientes, que mejor prediga el valor de la variable dependiente. Por ejemplo, se puede intentar predecir el total de facturación lograda por servicios prestados en una IPS cada mes (la variable dependiente) a partir de variables independientes tales como: Tipo de servicio, edad, frecuencia del servicio, tipo de usuario y los años de antigüedad en el sistema del usuario.
Métodos de selección de variables en el análisis de regresión lineal
La selección del método permite especificar cómo se introducen las variables independientes en el análisis. Utilizando distintos métodos se pueden construir diversos modelos de regresión a partir del mismo conjunto de variables.
Para introducir las variables del bloque en un sólo paso seleccione Introducir. Para eliminar las variables del bloque en un solo paso, seleccione Eliminar. La selección de variables Hacia adelante introduce las variables del bloque una a una basándose en los criterios de entrada . La eliminación de variables Hacia atrás introduce todas las variables del bloque en un único paso y después las elimina una a una basándose en los criterios de salida . La entrada y salida de variables mediante Pasos sucesivos examina las variables del bloque en cada paso para introducirlas o excluirlas . Se trata de un procedimiento hacia adelante por pasos.
Los valores de significación de los resultados se basan en el ajuste de un único modelo. Por ello, estos valores no suele ser válidos cuando se emplea un método por pasos (Pasos sucesivos, Hacia adelante o Hacia atrás).
Todas las variables deben superar el criterio de tolerancia para que puedan ser introducidas en la ecuación, independientemente del método de entrada especificado. El nivel de tolerancia por defecto es 0,0001. Tampoco se introduce una variable si esto provoca que la tolerancia de otra ya presente en el modelo se sitúe por debajo del criterio de tolerancia.
Todas las variables independientes seleccionadas se añaden a un mismo modelo de regresión. Sin embargo, puede especificar distintos métodos de introducción para diferentes subconjuntos de variables. Por ejemplo, puede introducir en el modelo de regresión un bloque de variables que utilice la selección por pasos sucesivos, y un segundo bloque que emplee la selección hacia adelante. Para añadir al modelo de regresión un segundo bloque de variables, pulse en Siguiente.
Regresión lineal: Consideraciones sobre los datos
Datos. Las variables dependiente e independientes deben ser cuantitativas. Las variables categóricas, como la religión, estudios principales o el lugar de residencia, han de recodificarse como variables binarias (dummy) o como otros tipos de variables de contraste.
Supuestos. Para cada valor de la variable independiente, la distribución de la variable dependiente debe ser normal. La varianza de distribución de la variable dependiente debe ser constante para todos los valores de la variable independiente. La relación entre la variable dependiente y cada variable independiente debe ser lineal y todas las observaciones deben ser independientes.
Estadísticos. Para cada variable: número de casos válidos, media y desviación típica. Para cada modelo: coeficientes de regresión, matriz de correlaciones, correlaciones parciales y semiparciales, R múltiple, R cuadrado, R cuadrado corregida, cambio en R cuadrado, error típico de la estimación, tabla de análisis de la varianza, valores pronosticados y residuos. Además, intervalos de confianza al 95% para cada coeficiente de regresión, matriz de varianza-covarianza, factor de inflación de la varianza, tolerancia, prueba de Durbin-Watson, medidas de distancia (Mahalanobis, Cook y valores de influencia), DfBeta, DfAjuste, intervalos de predicción y diagnósticos por caso. Diagramas: diagramas de dispersión, gráficos parciales, histogramas y gráficos de probabilidad normal.
Gráficos. Los gráficos pueden ayudar a validar los supuestos de normalidad, linealidad e igualdad de las varianzas. También son útiles para detectar valores atípicos, observaciones poco usuales y casos de influencia. Tras guardarlos como nuevas variables, dispondrá en el Editor de datos de los valores pronosticados, los residuos y otros valores diagnósticos, con los cuales podrá poder crear gráficos respecto a las variables independientes. Se encuentran disponibles los siguientes gráficos:
Diagramas de dispersión. Puede representar cualquier combinación por parejas de la lista siguiente: la variable dependiente, los valores pronosticados tipificados, los residuos tipificados, los residuos eliminados, los valores pronosticados corregidos, los residuos estudentizados o los residuos eliminados estudentizados. Represente los residuos tipificados frente a los valores pronosticados tipificados para contrastar la linealidad y la igualdad de las varianzas.
Generar todos los gráficos parciales. Muestra los diagramas de dispersión de los residuos de cada variable independiente y los residuos de la variable dependiente cuando se regresan ambas variables por separado sobre las restantes variables independientes. En la ecuación debe haber al menos dos variables independientes para que se generen los gráficos parciales.
Gráficos de residuos tipificados. Puede obtener histogramas de los residuos tipificados y gráficos de probabilidad normal que comparen la distribución de los residuos tipificados con una distribución normal.
METODOS DEPENDIENTES
ANALISIS DE REGRESION LINEAL MÚLTIPLE
Conceptualmente, el FIVi (Factor de incremento de la varianza) es la proporción de variabilidad de la iésima variable, que explican el resto de las variables independientes.
La tolerancia de una variable es la proporción de variabilidad de la variable, que no se explica por el resto de las variables independientes.
La tolerancia y el FIV son muy útiles en la construcción de modelos de regresión. Si construimos un modelo paso a paso entrando las variables de una en una, es útil conocer la tolerancia o el FIV de las variables independientes ya entradas en la ecuación. De esta manera, las variables con mayor tolerancia son las que mayor información aportarán al modelo.
Además de la tolerancia y el FIV, debemos estudiar la matriz de correlaciones. Altas correlaciones entre las variables implicadas en el modelo deben considerarse como indicios de colinealidad.
Puede ocurrir que, aun siendo pequeñas las correlaciones entre las variables exista colinealidad.
...