Teoria De La Estimacion
Enviado por lissys • 29 de Septiembre de 2013 • 7.680 Palabras (31 Páginas) • 563 Visitas
INDICE
1 Teoría de la Estimación
1.1 Introducción a la Teoría de la Estimación
1.2 Propiedades de los Estimadores
1.3 Estimación Puntual
1.4 Estimación por Intervalos
1.4.1 Intervalos de Confianza para la Media con varianza conocida y con Varianza desconocida
1.4.2 Intervalos de Confianza para Proporciones
1.4.3 Intervalos de Confianza para una Varianza
1.5 Determinación del tamaño de una muestra para medias, y Proporciones
1.1 INTRODUCCION
ESTIMACION
El objetivo principal de la estadística inferencial es la estimación, esto es que mediante el estudio de una muestra de una población se quiere generalizar las conclusiones al total de la misma. Como vimos en la sección anterior, los estadísticos varían mucho dentro de sus distribuciones muestrales, y mientras menor sea el error estándar de un estadístico, más cercanos serán unos de otros sus valores.
Existen dos tipos de estimaciones para parámetros; puntuales y por intervalo. Una estimación puntual es un único valor estadístico y se usa para estimar un parámetro. El estadístico usado se denomina estimador.
Una estimación por intervalo es un rango, generalmente de ancho finito, que se espera que contenga el parámetro.
1.2 PROPIEDADES DE LOS ESTIMADORES
Propiedades de un Buen Estimador
Insesgado.- Se dice que un estimador puntual es un estimador insesgado de si , para todo valor posible de . En otras palabras, un estimador insesgado es aquel para el cual la media de la distribución muestral es el parámetro estimado. Si se usa la media muestral para estimar la media poblacional , se sabe que la , por lo tanto la media es un estimador insesgado.
Eficiente o con varianza mínima.- Suponga que 1 y 2 son dos estimadores insesgados de . Entonces, aun cuando la distribución de cada estimador esté centrada en el valor verdadero de , las dispersiones de las distribuciones alrededor del valor verdadero pueden ser diferentes.
Entre todos los estimadores de que son insesgados, seleccione al que tenga varianza mínima. El resultante recibe el nombre de estimador insesgado con varianza mínima (MVUE, minimum variance unbiased estimator) de .
En otras palabras, la eficiencia se refiere al tamaño de error estándar de la estadística. Si comparamos dos estadísticas de una muestra del mismo tamaño y tratamos de decidir cual de ellas es un estimador mas eficiente, escogeríamos la estadística que tuviera el menor error estándar, o la menor desviación estándar de la distribución de muestreo.
Tiene sentido pensar que un estimador con un error estándar menor tendrá una mayor oportunidad de producir una estimación mas cercana al parámetro de población que se esta considerando.
Como se puede observar las dos distribuciones tienen un mismo valor en el parámetro sólo que la distribución muestral de medias tiene una menor varianza, por lo que la media se convierte en un estimador eficiente e insesgado.
Coherencia.- Una estadística es un estimador coherente de un parámetro de población, si al aumentar el tamaño de la muestra se tiene casi la certeza de que el valor de la estadística se aproxima bastante al valor del parámetro de la población. Si un estimador es coherente se vuelve más confiable si tenemos tamaños de muestras más grandes.
Suficiencia.- Un estimador es suficiente si utiliza una cantidad de la información contenida de la muestra que ningún otro estimador podría extraer información adicional de la muestra sobre el parámetro de la población que se está estimando.
Es decir se pretende que al extraer la muestra el estadístico calculado contenga toda la información de esa muestra. Por ejemplo, cuando se calcula la media de la muestra, se necesitan todos los datos. Cuando se calcula la mediana de una muestra sólo se utiliza a un dato o a dos. Esto es solo el dato o los datos del centro son los que van a representar la muestra. Con esto se deduce que si utilizamos a todos los datos de la muestra como es en el caso de la media, la varianza, desviación estándar, etc; se tendrá un estimador suficiente.
1.3 ESTIMACION PUNTUAL
La inferencia estadística está casi siempre concentrada en obtener algún tipo de conclusión acerca de uno o más parámetros (características poblacionales). Para hacerlo, se requiere que un investigador obtenga datos muestrales de cada una de las poblaciones en estudio. Entonces, las conclusiones pueden estar basadas en los valores calculados de varias cantidades muestrales. Po ejemplo, representamos con (parámetro) el verdadero promedio de resistencia a la ruptura de conexiones de alambres utilizados para unir obleas de semiconductores. Podría tomarse una muestra aleatoria de 10 conexiones para determinar la resistencia a la ruptura de cada una, y la media muestral de la resistencia a la ruptura se podía emplear para sacar una conclusión acerca del valor de . De forma similar, si es la varianza de la distribución de resistencia a la ruptura, el valor de la varianza muestral s2 se podría utilizar para inferir algo acerca de .
Cuando se analizan conceptos generales y métodos de inferencia es conveniente tener un símbolo genérico para el parámetro de interés. Se utilizará la letra griega para este propósito. El objetivo de la estimación puntual es seleccionar sólo un número, basados en datos de la muestra, que represente el valor más razonable de .
Una muestra aleatoria de 3 baterías para calculadora podría presentar duraciones observadas en horas de x1=5.0, x2=6.4 y x3=5.9. El valor calculado de la duración media muestral es = 5.77, y es razonable considerar 5.77 como el valor más adecuado de .
Una estimación puntual de un parámetro es un sólo número que se puede considerar como el valor más razonable de . La estimación puntual se obtiene al seleccionar una estadística apropiada y calcular su valor a partir de datos de la muestra dada. La estadística seleccionada se llama estimador puntual de .
El símbolo (theta sombrero) suele utilizarse para representar el estimador de y la estimación puntual resultante de una muestra dada. Entonces se lee como "el
...