A estimación por máxima verosimilitud fue usada en casos especiales por C. F. Gauss
Enviado por carlosbenjaminls • 14 de Diciembre de 2017 • Resumen • 399 Palabras (2 Páginas) • 266 Visitas
[pic 1]
Ronald Fisher en 1913
La estimación por máxima verosimilitud fue usada en casos especiales por C. F. Gauss pero su forma general para propósitos de estadística la expuso Fisher (1890-1962) aproximadamente por 1922. Aunque fue introducido por primera vez por Bernoulli (1700-1782), cuyo planteamiento fue revisado y modificado por su coetáneo y amigo, el gran matemático, Euler (1707-1783).
Esta idea fue de gran importancia en el desarrollo de la teoría estadística moderna.
En estadística, la estimación por máxima verosimilitud (conocida también como EMV y, en ocasiones, MLE Maximun Likelihood Estimators) es un método habitual para ajustar un modelo y encontrar sus parámetros.
Definición: Dada una muestra aleatoria de una r.v. que depende de un parámetro ; el estimador de máxima verosimilitud de , llamado , es el valor de que maximiza a , donde L es la función de verosimilitud, la densidad conjunta de la muestra que explicaremos a continuación.[pic 2][pic 3][pic 4][pic 5][pic 6][pic 7]
Entonces para encontrar un EMV de que será realizamos:[pic 8][pic 9]
1) Calculamos la función de verosimilitud que es la densidad conjunta de la muestra[pic 10]
[pic 11]
Donde es la densidad (si es continua) o la distribución probabilística (si es discreta)[pic 12]
No necesariamente representará un solo número real, puede suceder que la r.v dependa de dos o mas valores paramétricos (como en la distribución normal). En tal caso puede representar un vector [pic 13][pic 14][pic 15]
2) Hallamos un máximo de . Si es necesario previamente se aplica Ln(L) ya que es una función creciente y ésta tiene un máximo precisamente en los puntos en que L tiene un máximo.[pic 16]
Luego resolvemos la derivada igualada a cero (condición de máximo) y se obtiene [pic 17][pic 18]
Ejemplo: Usando una muestra encontrar una EMV del parámetro de una r.v. [pic 19][pic 20][pic 21][pic 22]
Densidad: donde [pic 23][pic 24]
[pic 25]
[pic 26]
[pic 27]
Propiedades:
- Los MLE pueden ser sesgados, es decir, el valor esperado no coincide con el parámetro. Pero se puede corregir multiplicando por una constante.
[pic 28]
- Consistencia o convergencia
[pic 29]
Bajo condiciones muy generales, los EMV son convergentes, es decir, si los tamaños de muestra sobre los cuales se basan son grandes, el EMV será “próximo” al valor del parámetro que se estima.
Propiedad asintótica
[pic 30]
Esta propiedad es mucho mas fuerte que la primera, dado que la esta propiedad ahora nos describe cual es la condición probabilística de para un n grande.[pic 31]
...