ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

Error Muestral


Enviado por   •  30 de Marzo de 2014  •  3.826 Palabras (16 Páginas)  •  282 Visitas

Página 1 de 16

República Bolivariana de Venezuela

Ministerio del P.P para la Defensa

Universidad Nacional Experimental de la

Fuerza Armada Bolivariana

“UNEFA”

Aguasay- Edo. Monagas

Profesor: Bachilleres:

Carlos Centeno Guzmán Milagros

Vallenilla Leandro

Bastardo Jesús

Administración

Sección: “U”

Marzo, 2014.

Introducción.

A menudo necesitamos estudiar las propiedades de una determinada población, pero nos encontramos con el inconveniente de que ésta es demasiado numerosa como para analizar a todos los individuos que la componen. Por tal motivo, recurrimos a extraer una muestra de la misma y a utilizar la información obtenida para hacer inferencias sobre toda la población. Estas estimaciones serán válidas sólo si la muestra tomada es “representativa” de la población.

Así, el muestreo es una técnica que utilizaremos para inferir algo respecto de una población mediante la selección de una muestra de esa población. En este math-block veremos, entre otras cosas, cómo es posible estimar la media de la población a partir de la distribución que siguen las medias de las diferentes muestras obtenidas.

En muchos casos, el muestreo es la única manera de poder obtener alguna conclusión de una población, entre otras causas, por el coste económico y el tiempo empleado que supondría estudiar a todos los miembros de una población.

1. Estimador.

Un estimador es una regla que establece cómo calcular una estimación basada en las mediciones contenidas en una muestra estadística.

Estimación puntual de un parámetro de la población o del proceso.

Consiste en la estimación del valor del parámetro mediante un sólo valor, obtenido de una fórmula determinada. Por ejemplo, si se pretende estimar la talla media de un determinado grupo de individuos, puede extraerse una muestra y ofrecer como estimación puntual la talla media de los individuos. Lo más importante de un estimador, es que sea un estimador eficiente. Es decir, que sea insesgado (ausencia de sesgos) y estable en el muestreo o eficiente (varianza mínima) Estimación puntual Sea X una variable poblacional con distribución Fθ, siendo θ desconocido. El problema de estimación puntual consiste en, seleccionada una muestra X1, Xn, encontrar el estadístico T(X1, Xn) que mejor estime el parámetro θ. Una vez observada o realizada la muestra, con valores x1, xn, se obtiene la estimación puntual de θ, T(x1, xn) = ˆ θ . Vemos a continuación dos métodos para obtener la estimación puntual de un parámetro: método de los momentos y método de máxima verosimilitud. Método de los momentos: consiste en igualar momentos poblacionales a momentos muéstrales. Deberemos tener tantas igualdades como parámetros a estimar. Momento poblacional de orden r αr = E (Xr ) Momento muestral de orden r ar = Xn i=1 Xr i n Método de máxima verosimilitud: consiste en tomar como valor del parámetro aquel que maximice la probabilidad de que ocurra la muestra observada. Si X1, ..., Xn es una muestra seleccionada de una población con distribución Fθ o densidad fθ(x), la probabilidad de que ocurra una realización x1, ..., xn viene dada por: Lθ(x1, ..., xn) = Yn i=1 fθ(xi ) A Lθ(x1, ..., xn) se le llama función de verosimilitud.(credibilidad de la muestra observada). Buscamos entonces el valor de θ que maximice la función de verosimilud, y al valor obtenido se le llama estimación por máxima verosimilitud de θ. Nota: si la variable X es discreta, en lugar de fe(xi ) consideramos la función masa de probabilidad pθ(xi ). Ejemplo 7.1: Sea X → N (µ, σ), con µ desconocido. Seleccionada una m.a.s. X1,..., Xn, con realización x1,..., xn, estimamos el parámetro µ por ambos métodos. Según el método de los momentos: E(X) = Xn i=1 Xi n = − X, y al ser µ = E(X) se obtiene que ˆ µ = − x. Por el método de máxima verosimilitud: Lµ(x1,..., xn) = Yn i=1 fµ(xi ) = = Yn i=1 1 √ 2πσ e −(xi−µ) 2 2σ.

2. Identificar los estimadores puntuales de uso mas frecuente.

 Sesgo

Se denomina sesgo de un estimador a la diferencia entre la esperanza (o valor esperado) del estimador y el verdadero valor del parámetro a estimar. Es deseable que un estimador sea insesgado o centrado, es decir, que su sesgo sea nulo por ser su esperanza igual al parámetro que se desea estimar.

Por ejemplo, si se desea estimar la media de una población, la media aritmética de la muestra es un estimador insesgado de la misma, ya que su esperanza (valor esperado) es igual a la media de la población.

En efecto, si una muestra X=(X1,X2,...,Xn)t procede de una población de media μ, quiere decir que:

Para cualquier i=1...n

La media aritmética o media presupuestal,

, con lo que, al aplicar las propiedades de linealidad de la esperanza matemática se tiene que:

 Eficiencia

Diremos que un estimador es más eficiente o más preciso que otro estimador, si la varianza del primero es menor que la del segundo. Por ejemplo, si y son ambos estimadores de y

Diremos que es más eficiente que . Un estimador es más eficiente (más preciso), por tanto, cuanto menor es su varianza.

La eficiencia de los estimadores está limitada por las características de la distribución de probabilidad de la muestra de la que proceden. El teorema de Cramér-Rao determina que la varianza de un estimador insesgado de un parámetro es, como mínimo,

Donde es la función de densidad de probabilidad de la muestra en función del parámetro , (denominada función de verosimilitud). Si un estimador insesgado alcanza esta cota mínima, entonces

...

Descargar como (para miembros actualizados) txt (22 Kb)
Leer 15 páginas más »
Disponible sólo en Clubensayos.com