ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

Estimación De Parámetros


Enviado por   •  23 de Octubre de 2013  •  7.363 Palabras (30 Páginas)  •  431 Visitas

Página 1 de 30

ESTIMACIÓN DE PARÁMETROS

El estudio de poblaciones estadísticas supone en general el conocimiento de la función de probabilidad que gobierna el comportamiento aleatorio de la variable de interés. En muchos casos sabemos o presumimos conocer la familia distribucional de una población. Sabemos por ejemplo que la población es aproximadamente normal; pero desconocemos la media y la varianza poblacionales. Sabemos que la variable de interés es binomial pero desconocemos la probabilidad de éxito poblacional o el número de pruebas de Bernoulli. Sabemos que se trata de un proceso de Poisson pero desconocemos el número de eventos raros por intervalos. Presumimos que la variable es exponencial pero desconocemos el parámetro que precisa la distribución exponencial poblacional.

Lógicamente en todas estas situaciones la función de probabilidad de la variable en estudio se concreta determinando los parámetros poblacionales correspondientes y para lograrlo se utilizan los denominados métodos de estimación de parámetros.

La estimación de uno o varios parámetros poblacionales desconocidos es posible construyendo funciones de probabilidad de variables aleatorias muestrales, mas conocidos como estimadores muestrales.

Dichos estimadores garantizaran un cálculo o una aproximación satisfactoria del parámetro poblacional desconocido siempre que cumplan propiedades de: insesgamiento o máxima simetría, varianza mínima o máxima concentración de los datos alrededor del parámetro estimado y máxima probabilidad.

Estimación puntual

Cuando en una población con familia distribucional conocida queremos estimar el verdadero valor del parámetro poblacional utilizando como lente para determinarlo al estimador muestral ; procedemos a seleccionar una muestra de tamaño n de dicha población, calculamos a partir de ella un valor y afirmamos entonces que es una estimación puntual de con un error, por exceso o defecto, de valor k.

K depende en general de la variable aleatoria muestral y de su desviación . En los casos de muestras grandes, cuando los valores de la muestra corresponden a variables aleatorias estadísticamente independientes (iid) y por lo tanto se dan las condiciones del TLC, se tiene que:

¿Pero como escoger el estimador que mejor precisa el parámetro ?

Hay dos métodos generales: el método de momentos y el método de máxima verosimilitud.

Método de máxima verosimilitud

El método de estimación de máxima verosimilitud permite, en el caso de un parámetro o n vector de parámetros poblacionales desconocidos, determinar el estimador o vector de estimadores que maximizan la función de probabilidad conjunta de una muestra de n v.a. seleccionadas de la población en estudio.

Sea la fdp de una población en la cual queremos determinar .

Sea x1,x2,….,xn una muestra de v.a. iid seleccionadas de dicha población, a la función de probabilidad conjunta L( ) de las n v.a. de la muestra la llamaremos funcion de verosimilitud muestral, es decir:

L ( )=L(x1,x2,….,xn; )

Pero como las v.a. son independientes tenemos: L( ) = f(x1, ) f(x2, )….f (xn, ). Es decir:

L ( )=

Estimador de máxima verosimilitud -EMV-

El EMV del parámetro es siempre que L( ) sea el valor de máxima probabilidad de la función de verosimilitud L es decir:

es el EMV de si y solo si L( ) es máximo

En la expresión L( )= la función de verosimilitud varia con el parámetro y para el proceso de optimización se considera que las xi son constantes luego de haber determinado la muestra aleatoria.

Observe que como la función logaritmo natural es siempre creciente el EMV de L( ) también optimiza a Ln (L( )) y podemos definir:

l( )=Ln (L( ))= Ln ( )=

y optimizar así: . Si maximiza a l( ) es claro que y <0.

Ejemplo: Considere una población Bernoulli, calcule el EMV para la probabilidad de éxito poblacional p.

Sabemos que f(x,p)=px(1-p)1-x, x=0,1. De esta manera

L (p)=

L (p)=

Y empleando la funcion logaritmo natural se tiene que:

Observe que y .

Y ademas que .

Así si entonces L(p)=(1-p)n que es máximo en p = 0

Y si entonces L(p)=pn que es máximo en p = 1

Por lo tanto es el EMV para p Bernoulli

Ejemplo: Considere una población Poisson y calcule el EMV para la tasa poblacional de sucesos raros

Sabemos que para x = 0,1,2,…

L( )=

como es constante

Observe que , ya que y .

Ejemplo: Considere una función Pareto y calcule EMV para si la fda es

con y

con α conocido y β desconocido.

Primero f(x,β)= ya que F, la fda, es la función integral de f, la fdp.

f(x,β) = αβ β x-(β+1)

La función de verosimilitud es

Aplicando logaritmo natural,

Si α fuese desconocido se podría estimar como el mínimo muestral

=min (x1,x2,…,xn)

observe que .

Ejercicios

Hallar el EMV para

a) λ si f(x,λ)=λ e-λx, x>0.

b) α si f(x,α)=(α+1)xα, 0<x<1

calcule α si

(x1=0.3, x2=0.5, x3=0.7, x4=0.62, x5=0.7,x6=0.3, x7=0.4, x8=0.55, x9=0.60,x10=0.65)

c) Si una población es lognormal, halle EMV para μ si conoce σ2.

d) σ2 si conoce μ.

e) μ y σ2 son desconocidos.

Estimación Por Intervalos

Estamos en una población conocida y desconocemos pero queremos hallar un intervalo de valores que contenga a θ, además conocemos o podemos estimarla con un error pequeño. Para ello seleccionaremos una muestra aleatoria . El Teorema Del Límite Central permite afirmar que

y podemos afirmar con un nivel α que P(-z <Z< z )=1-α

Equivalentemente, P =1-α

P ( )=1-α

Sustituyendo E ( )= ,

Al efectuar la estimación puntual afirmamos con confianza al , que la diferencia absoluta entre el parámetro θ y el valor muestral está acotada por

Denominado intervalo Z para θ, es decir,

θ Є con confianza 1-α.

Intervalo para la proporción p en una población Binomial

Seleccionamos una muestra aleatoria conformada

...

Descargar como (para miembros actualizados) txt (48 Kb)
Leer 29 páginas más »
Disponible sólo en Clubensayos.com