El Busqueda
Enviado por lulujavierydiego • 13 de Julio de 2011 • 3.463 Palabras (14 Páginas) • 725 Visitas
República Bolivariana de Venezuela
Ministerio del Poder Popular para la Defensa
Universidad Nacional Experimental Politécnica
De la Fuerza Armada
Núcleo Caracas, Sede Chuao
Ingeniería de sistema
Sección “G”
ESTIMACION DE PARAMETROS
Profesor: alumnos:
Abreu Lourdes
Arellano Arelis
Estimación de Parámetros
· Criterios para estimados.
· Estimados de Max-verosimilitud.
· Método de mínimos cuadrados.
Ley de Correlación.
Intervalos de Confianza.
· Distribución T de Student.
· Distribución Chi-cuadrado.
Introducción
Muchos procedimientos estadísticos suponen que los datos siguen algún tipo de modelo matemático que se define mediante una ecuación, en la que se desconoce alguno de sus parámetros, siendo éstos calculados o estimados a partir de la información obtenida en un estudio bien diseñado para tal fin. Existen diferentes procedimientos para estimar los coeficientes de un modelo de regresión, o para estimar los parámetros de una distribución de probabilidad. De entre esos procedimientos probablemente el más versátil, ya que se puede aplicar en gran cantidad de situaciones, y por ello uno de los más empleado se conoce con el nombre de "método de máxima verosimilitud" .Aunque para aquellos que tiene una formación estadística este método es perfectamente conocido y comprendido, sin embargo muchos de los usuarios de los programas estadísticos, que están habituados a calcular modelos de regresión logística, o modelos de supervivencia de riesgo proporcional o de Cox, modelos de Poisson, y muchos otros, desconocen cómo se efectúa la estimación de los coeficientes de esos modelos, por lo que nos parece adecuado dedicar una de éstas páginas mensuales a describir su filosofía e interpretación. Por otro lado, no es infrecuente que empleemos técnicas de forma habitual y mecánica, sin conocer en qué se sustentan y en última instancia en qué consisten realmente: no me cabe ninguna duda que casi todo el mundo tiene claro qué es una distribución de probabilidad normal, pero ¿cuánta gente que utiliza la t de Student sabe qué es realmente eso?
Podemos considerar que el método de máxima verosimilitud, abreviado a menudo como MLE, tal y como hoy lo conocemos e interpretamos fue propuesto por Fisher (1890-1962), aunque ya de una forma mucho más artificiosa fue inicialmente atisbado por Bernoulli (1700-1782), cuyo planteamiento fue revisado y modificado por su coetáneo y amigo el gran matemático
· Estimación de modelos por el método de máxima verosimilitud
El método de máxima verosimilitud se utiliza por ejemplo para estimar los coeficientes de un modelo logístico de regresión, en el que se calcula la probabilidad de que ocurra un determinado suceso mediante la siguiente ecuación:

Donde p es la probabilidad de que ocurra el suceso de interés y xi son los posibles factores (factores de riesgo) que se piensa que están relacionados con la probabilidad de que el suceso se produzca.
Ahora a partir de los datos de la muestra, para los que hemos observado si se ha producido o no el suceso, y a partir de los valores de los factores de riesgo en cada caso de la muestra, se trata de estimar los valores de los coeficientes bi en el modelo para cada factor de riesgo, lo que entre otras cosas nos permite calibrar el efecto de esos factores en la probabilidad de que el suceso ocurra. Si denominamos de forma compacta a esos coeficientes con la letra b (vector de valores), y dado que los valores de los factores x son conocidos para cada sujeto, la probabilidad p es función de los coeficientes b, y lo representamos como p=f(b).
Si p es la probabilidad de que ocurra el suceso, la de que NO ocurra será 1-p, y entonces en los sujetos en los que ocurrió el suceso vendrá dada por p(xi), mientras que para un sujeto en el que NO ocurre el suceso, se calcula como 1-p(xi). Siendo ambas expresiones función de b.
Si la muestra es aleatoria y las observaciones son independientes entre sí, la probabilidad de que un sujeto de la muestra experimente el suceso es independiente de lo que le ocurra a cualquier otro, por lo que la probabilidad conjunta se calcula como el producto de las probabilidades individuales y de esa forma obtenemos la función de verosimilitud, que tiene en cuenta todos los datos de forma global, y será función únicamente de los coeficientes. De igual manera que antes se calculará la derivada de esa función, se iguala a cero y se obtienen los valores de los coeficientes que maximizan esa función. Aunque esto que se dice fácil, al menos en el modelo logístico, es algo más complicado de efectuar que de narrar.
· Interpretación de los resultados en el método de máxima verosimilitud
Al combinar observaciones independientes, hemos visto que en el cálculo de la función de verosimilitud interviene el producto de las probabilidades individuales, por lo que habitualmente interesa tomar logaritmos, ya que éstos transforman los productos en sumas y los cocientes en restas. Así habitualmente veremos en las salidas de los programas de ordenador el término Log-likehood, que no es más que el logaritmo de la verosimilitud. Al tratarse de productos de probabilidades la función de verosimilitud será siempre menor que 1 y por tanto su logaritmo será negativo.
La función de verosimilitud nos permite comparar modelos, por ejemplo dos modelos en el que en uno de ellos se incluye una variable adicional con respecto al primer modelo. Las diferencias en la función de verosimilitud se alteran arbitrariamente con la escala de medida, por lo que la forma adecuada de compararlas es mediante cocientes. De ahí que cuando se comparan modelos que han sido estimados mediante este procedimiento se hable de cociente de verosimilitud (likelihood ratio).
Cuando se trata de la estimación de modelos resulta de utilidad el concepto de modelo saturado. Un modelo se denomina saturado cuando utiliza tantos parámetros como observaciones hemos efectuado y por tanto se ajusta perfectamente a los datos. Podemos comparar el modelo actualmente
...