Estimacion De Parametros
Enviado por axel_606 • 16 de Diciembre de 2012 • 3.622 Palabras (15 Páginas) • 716 Visitas
ESTIMACIÓN DE PARÁMETROS
El estudio de poblaciones estadísticas supone en general el conocimiento de la función de probabilidad que gobierna el comportamiento aleatorio de la variable de interés. En muchos casos sabemos o presumimos conocer la familia distribucional de una población. Sabemos por ejemplo que la población es aproximadamente normal; pero desconocemos la media y la varianza poblacionales. Sabemos que la variable de interés es binomial pero desconocemos la probabilidad de éxito poblacional o el número de pruebas de Bernoulli. Sabemos que se trata de un proceso de Poisson pero desconocemos el número de eventos raros por intervalos. Presumimos que la variable es exponencial pero desconocemos el parámetro que precisa la distribución exponencial poblacional.
Lógicamente en todas estas situaciones la función de probabilidad de la variable en estudio se concreta determinando los parámetros poblacionales correspondientes y para lograrlo se utilizan los denominados métodos de estimación de parámetros.
La estimación de uno o varios parámetros poblacionales desconocidos es posible construyendo funciones de probabilidad de variables aleatorias muestrales, mas conocidos como estimadores muestrales.
Dichos estimadores garantizaran un cálculo o una aproximación satisfactoria del parámetro poblacional desconocido siempre que cumplan propiedades de: insesgamiento o máxima simetría, varianza mínima o máxima concentración de los datos alrededor del parámetro estimado y máxima probabilidad.
Estimación puntual
Cuando en una población con familia distribucional conocida queremos estimar el verdadero valor del parámetro poblacional utilizando como lente para determinarlo al estimador muestral ; procedemos a seleccionar una muestra de tamaño n de dicha población, calculamos a partir de ella un valor y afirmamos entonces que es una estimación puntual de con un error, por exceso o defecto, de valor k.
K depende en general de la variable aleatoria muestral y de su desviación . En los casos de muestras grandes, cuando los valores de la muestra corresponden a variables aleatorias estadísticamente independientes (iid) y por lo tanto se dan las condiciones del TLC, se tiene que:
¿Pero como escoger el estimador que mejor precisa el parámetro ?
Hay dos métodos generales: el método de momentos y el método de máxima verosimilitud.
Método de máxima verosimilitud
El método de estimación de máxima verosimilitud permite, en el caso de un parámetro o n vector de parámetros poblacionales desconocidos, determinar el estimador o vector de estimadores que maximizan la función de probabilidad conjunta de una muestra de n v.a. seleccionadas de la población en estudio.
Sea la fdp de una población en la cual queremos determinar .
Sea x1,x2,….,xn una muestra de v.a. iid seleccionadas de dicha población, a la función de probabilidad conjunta L( ) de las n v.a. de la muestra la llamaremos funcion de verosimilitud muestral, es decir:
L ( )=L(x1,x2,….,xn; )
Pero como las v.a. son independientes tenemos: L( ) = f(x1, ) f(x2, )….f (xn, ). Es decir:
L ( )=
Estimador de máxima verosimilitud -EMV-
El EMV del parámetro es siempre que L( ) sea el valor de máxima probabilidad de la función de verosimilitud L es decir:
es el EMV de si y solo si L( ) es máximo
En la expresión L( )= la función de verosimilitud varia con el parámetro y para el proceso de optimización se considera que las xi son constantes luego de haber determinado la muestra aleatoria.
Observe que como la función logaritmo natural es siempre creciente el EMV de L( ) también optimiza a Ln (L( )) y podemos definir:
l( )=Ln (L( ))= Ln ( )=
y optimizar así: . Si maximiza a l( ) es claro que y <0.
Ejemplo: Considere una población Bernoulli, calcule el EMV para la probabilidad de éxito poblacional p.
Sabemos que f(x,p)=px(1-p)1-x, x=0,1. De esta manera
L (p)=
L (p)=
Y empleando la funcion logaritmo natural se tiene que:
Observe que y .
Y ademas que .
Así si entonces L(p)=(1-p)n que es máximo en p = 0
Y si entonces L(p)=pn que es máximo en p = 1
Por lo tanto es el EMV para p Bernoulli
Ejemplo: Considere una población Poisson y calcule el EMV para la tasa poblacional de sucesos raros
Sabemos que para x = 0,1,2,…
L( )=
como es constante
Observe que , ya que y .
Ejemplo: Considere una función Pareto y calcule EMV para si la fda es
con y
con α conocido y β desconocido.
Primero f(x,β)= ya que F, la fda, es la función integral de f, la fdp.
f(x,β) = αβ β x-(β+1)
La función de verosimilitud es
Aplicando logaritmo natural,
Si α fuese desconocido se podría estimar como el mínimo muestral
=min (x1,x2,…,xn)
observe que .
Ejercicios
Hallar el EMV para
a) λ si f(x,λ)=λ e-λx, x>0.
b) α si f(x,α)=(α+1)xα, 0<x<1
calcule α si
(x1=0.3, x2=0.5, x3=0.7, x4=0.62, x5=0.7,x6=0.3, x7=0.4, x8=0.55, x9=0.60,x10=0.65)
c) Si una población es lognormal, halle EMV para μ si conoce σ2.
d) σ2 si conoce μ.
e) μ y σ2 son desconocidos.
Estimación Por Intervalos
Estamos en una población conocida y desconocemos pero queremos hallar un intervalo de valores que contenga a θ, además conocemos o podemos estimarla con un error pequeño. Para ello seleccionaremos una muestra aleatoria . El Teorema Del Límite Central permite afirmar que
y podemos afirmar con un nivel α que P(-z <Z< z )=1-α
Equivalentemente, P =1-α
P ( )=1-α
Sustituyendo E ( )= ,
Al efectuar la estimación puntual afirmamos con confianza al , que la diferencia absoluta entre el parámetro θ y el valor muestral está acotada por
Denominado intervalo Z para θ, es decir,
θ Є con confianza 1-α.
Intervalo para la proporción p en una población Binomial
Seleccionamos una muestra aleatoria conformada
...