ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

Datos De Econometría.


Enviado por   •  19 de Junio de 2015  •  2.454 Palabras (10 Páginas)  •  237 Visitas

Página 1 de 10

R^2 (COEFICIENTE DE DETERMINACIÓN)

La predicción depende de la relación entre las variables. Si dos variables no covarían, no podremos hacer predicciones válidas, y si la intensidad de la covariación es moderada, las predicciones no serán demasiado buenas. En consecuencia, hay que disponer de alguna medida de la capacidad de la ecuación de Regresión para obtener predicciones buenas (en el sentido de que sean lo menos erróneas posible).

Esta medida es el Coeficiente de Determinación, que es el cuadrado del coeficiente de correlación de Pearson, y da la proporción de variación de la variable Y que es explicada por la variable X (variable predictora o explicativa). Si la proporción es igual a 0, significa que la variable predictora tiene NULA capacidad predictiva de la variable a predecir (Y). Cuanto mayor sea la proporción, mejor será la predicción. Si llegara a ser igual a 1 la variable predictora explicaría TODA la variación de Y, y las predicciones NO tendrían error.

R^2 AJUSTADA

Como alternativa al uso de como medida de la idoneidad de un modelo, es común que se informe el coeficiente de determinación múltiple ajustado, denotado por esta dado por

Se observa que toma en cuenta ("ajusta por") tanto el tamaño de la muestra como el número de parámetros del modelo. siempre es menor que y lo que es más importante, no puede "forzarse" hacia con sólo agregar más y más variables independientes al modelo. Por ello, algunos analistas prefieren el valor más conservador de cuando deben elegir una medida de la idoneidad de un modelo.

Tomando en cuenta

La estadística y son medidas descriptivas, y no debemos depender únicamente de sus valores para decidir si un modelo es útil o no para predecir la variable respuesta

ERROR ESTÁNDAR DE LA REGRESIÓN.

En el cálculo de los estimadores analizados, es posible que encontremos una pequeña diferencia si éstos se calculan a partir de varias fórmulas, por lo tanto, existe la necesidad de calcular el margen de error que pueda ocurrir en su determinación. Para el caso de las ecuaciones de las rectas de regresión, resulta importante cómo decidir el grado de confiabilidad de la ecuación de estimación desarrollada.

El error estándar de estimación mide la variabilidad o dispersión de los valores observados alrededor de las rectas de regresión.

El error estándar de estimación se calcula mediante la siguiente fórmula:

Donde:

LOG DE VEROSIMILITUD.

Muchos procedimientos estadísticos suponen que los datos siguen algún tipo de modelo matemático que se define mediante una ecuación, en la que se desconoce alguno de sus parámetros, siendo éstos calculados o estimados a partir de la información obtenida en un estudio bien diseñado para tal fin. Existen diferentes procedimientos para estimar los coeficientes de un modelo de regresión, o para estimar los parámetros de una distribución de probabilidad. De entre esos procedimientos probablemente el más versátil, ya que se puede aplicar en gran cantidad de situaciones, y por ello uno de los más empleados se conoce con el nombre de "método de máxima verosimilitud"

El método de máxima verosimilitud se utiliza por ejemplo para estimar los coeficientes de un modelo logístico de regresión, en el que se calcula la probabilidad de que ocurra un determinado suceso mediante la siguiente ecuación:

donde p es la probabilidad de que ocurra el suceso de interés y xi son los posibles factores (factores de riesgo) que se piensa que están relacionados con la probabilidad de que el suceso se produzca.

Si la muestra es aleatoria y las observaciones son independientes entre sí, la probabilidad de que un sujeto de la muestra experimente el suceso es independiente de lo que le ocurra a cualquier otro, por lo que la probabilidad conjunta se calcula como el producto de las probabilidades individuales y de esa forma obtenemos la función de verosimilitud, que tiene en cuenta todos los datos de forma global, y será función únicamente de los coeficientes. De igual manera que antes se calculará la derivada de esa función, se iguala a cero y se obtienen los valores de los coeficientes que maximizan esa función.

Al combinar observaciones independientes, se observa que en el cálculo de la función de verosimilitud interviene el producto de las probabilidades individuales, por lo que habitualmente interesa tomar logaritmos, ya que éstos transforman los productos en sumas y los cocientes en restas. Así habitualmente veremos en las salidas de los programas de ordenador el término Log-likehood, que no es más que el logaritmo de la verosimilitud. Al tratarse de productos de probabilidades la función de verosimilitud será siempre menor que 1 y por tanto su logaritmo será negativo.

La función de verosimilitud nos permite comparar modelos, por ejemplo dos modelos en el que en uno de ellos se incluye una variable adicional con respecto al primer modelo. Las diferencias en la función de verosimilitud se alteran arbitrariamente con la escala de medida, por lo que la forma adecuada de compararlas es mediante cocientes. De ahí que cuando se comparan modelos que han sido estimados mediante este procedimiento se hable de cociente de verosimilitud (likelihood ratio).

Cuando se trata de la estimación de modelos resulta de utilidad el concepto de modelo saturado. Un modelo se denomina saturado cuando utiliza tantos parámetros como observaciones hemos efectuado y por tanto se ajusta perfectamente a los datos. Podemos comparar el modelo actualmente estimado con ese modelo teórico perfecto mediante la expresión:

El método de máxima verosimilitud es un procedimiento que permite estimar los parámetros de un modelo probabilístico, o los coeficientes de un modelo matemático, de tal manera que sean los más probables a partir de los datos obtenidos. También hemos visto que por ello nos permite comparar diferentes modelos, incluyendo o no variables en el mismo.

Hay que tener bien claro que en el método además de intervenir la información aportada por los datos, se está postulando un modelo matemático para éstos, como puede ser por ejemplo el modelo logístico o un modelo de supervivencia, y que los parámetros estimados se calculan considerando la información aportada por los datos de acuerdo a ese modelo. Si el modelo propuesto no fuera adecuado el método tampoco lo será. Quiere esto decir que la razón de verosimilitud no nos proporciona información suficiente en cuanto a la bondad de ajuste, que habrá que verificar convenientemente por otros métodos.

ESTADÍSTICO F

Prueba de Fisher

R. A. Fisher, quien

...

Descargar como (para miembros actualizados) txt (15 Kb)
Leer 9 páginas más »
Disponible sólo en Clubensayos.com