ALTERNATIVAS DE PARA MODELOS LINEALES DE PROBABILIDAD
Enviado por karladebora • 31 de Agosto de 2014 • 1.504 Palabras (7 Páginas) • 455 Visitas
ALTERNATIVAS DE PARA MODELOS LINEALES DE PROBABILIDAD
Consideremos el siguiente modelo:
Y = x β + ε ,
modelo de este tipo de ecuaciones en donde la variable independiente es dicotómica y es función de las variables explicativas xi se denomina Modelo lineal de probabilidad.
La distribución de la muestra en este tipo de modelos se caracteriza por mostrar una nube de puntos de tal forma que las observaciones muéstrales se dividen en dos subgrupos. Uno de los cuales es el formado por las observaciones en las que ocurrió el hecho objetivo de estudio, es decir cuando Yi = 1, y el otro, por los puntos muéstrales en los que no ocurrió, es decir, Yi = 0 .
El modelo lineal de probabilidad, se puede interpretar en términos probabilísticos, en el sentido de que un valor concreto de la recta de regresión mide la probabilidad de que ocurra el hecho objetivo de estudio. Es decir, Yiˆ se puede considerar como la estimación de la probabilidad de que ocurra el hecho objetivo de estudio Yi = 1 siguiendo el siguiente criterio: Valores próximos a cero se corresponde con una baja probabilidad de ocurrencia del hecho estudiado (menor cuanto más próximos a cero); mientras que a valores próximos a uno se les asigna una probabilidad elevada de ocurrencia (mayor cuanto más próximos a uno).
Como punto de partida, hay que recordar que un R-cuadrado no pseudo-es una estadística generada en mínimos cuadrados ordinarios (OLS) de regresión que se utiliza a menudo como una medida de bondad de ajuste. En OLS,
donde N es el número de observaciones en el modelo, y es la variable dependiente, y -bar es la media de las Y los valores, y y HAT es el valor predicho por el modelo. El numerador de la relación es la suma de las diferencias al cuadrado entre los reales Y valores y los predichos Y valores. El denominador de la razón es la suma de las diferencias al cuadrado entre los actuales Y los valores y su media.
Existen varios enfoques para pensar en R-cuadrado en OLS. Estos diferentes enfoques conducen a diversos cálculos de los pseudo-R al cuadrado con regresiones de las variables de resultado categóricas.
seudo R-Squared Fórmula Descripción
Efron de
Espejos de Efron enfoques 1 y 3 de la lista anterior - los residuos del modelo se elevan al cuadrado, suman y dividen por la variabilidad total de la variable dependiente, y esta R-cuadrado también es igual a la correlación al cuadrado entre los valores pronosticados y los valores reales .
Al considerar Efron, recuerde que los residuos del modelo de una regresión logística no son comparables a los de MCO. La variable dependiente en una regresión logística no es continua y el valor pronosticado (una probabilidad) es. En OLS, los valores predichos y los valores reales son tanto continua y en la misma escala, de manera que sus diferencias se interpretan fácilmente.
McFadden de
M completo = Modelo con predictores
M intercepción = Modelo sin predictores
Espejos de McFadden enfoques 1 y 2 de la lista anterior. El logaritmo de verosimilitud del modelo de intercepto es tratado como una suma total de cuadrados, y el logaritmo de verosimilitud del modelo completo se trata como la suma de errores cuadrados (como en el enfoque 1).
La relación de las probabilidades sugiere el nivel de mejora sobre el modelo de intercepto ofrecido por el modelo completo (como en el enfoque 2).
Una probabilidad cae entre 0 y 1, por lo que el registro de un riesgo es menor que o igual a cero. Si un modelo tiene una probabilidad muy baja, entonces el registro de la probabilidad tendrá una magnitud mayor que el registro de un modelo más probable. Por lo tanto, una pequeña proporción de probabilidades de registro indica que el modelo completo es un mucho mejor ajuste que el modelo de intercepción.
Si se comparan dos modelos en los mismos datos, de McFadden sería mayor para el modelo con la mayor probabilidad.
De McFadden (ajustado)
Espejos ajustados de McFadden del R-cuadrado en OLS penalizando un modelo para la inclusión de demasiados predictores ajustados.
Si los predictores en el modelo son efectivos, entonces la pena será pequeña en relación con la información agregada de los predictores. Sin embargo, si un modelo contiene predictores que no aportan suficiente para el modelo, entonces la pena se hace notable y la R-cuadrado ajustado puede disminuir con la adición de un predictor, incluso si los aumentos-R
...