ESTIMACIÓN ESTADÍSTICA
Enviado por Karina1281 • 17 de Abril de 2013 • 3.131 Palabras (13 Páginas) • 383 Visitas
ESTIMACIÓN ESTADÍSTICA
BREVE RESUMEN.
Lo que hemos estudiado hasta ahora son herramientas para desarrollar la estadística inferencial que permite conocer características de la población a partir de la información contenida en una muestra.
Se vieron las formas en que pueden describirse un conjunto de datos. Los métodos gráficos, básicamente la tabla de frecuencias relativas y el histograma, y las medidas descriptivas numéricas: media, varianza, desviación estándar. La estadística inferencial busca describir la población con estos gráficos y medidas descriptivas numéricas a partir de conocer como son para la muestra.
Se estudió el concepto de probabilidad que provee de un método para medir que tan buena es la inferencia. Además permite razonar de la población a la muestra, pues si se conoce la distribución de probabilidad (teórica) de una variable aleatoria es posible saber como va a ser aproximadamente la distribución de frecuencias relativas si se obtiene una muestra de los valores de esta variable, o la probabilidad de obtener un resultado particular. Se estudiaron dos tipos de distribución de probabilidad, las discretas y las continuas.
Por último se vieron las distribuciones muestrales que nos dicen como se distribuyen los valores de las estadísticas (que son las medidas descriptivas numéricas obtenidas de una muestra) al tomar diferentes muestras del mismo tamaño. En este tema vimos parte de la importancia que tiene la distribución normal ya que muchas estadísticas tienen distribución de muestreo aproximadamente normal cuando el tamaño de la muestra es grande. Las estadísticas se usan para aproximar los parámetros y conocer las distribuciones muestrales de las estadísticas permite evaluar que tan confiable o buena es la aproximación.
Hay dos formas de realizar inferencias acerca de un parámetro poblacional: podemos estimar su valor (que es lo que vamos a ver esta clase), o bien, probar una hipótesis acerca de su valor (esto lo vamos a estudiar la próxima clase).
TIPOS DE ESTIMADORES
Los procedimientos de estimación pueden dividirse en dos tipos:
Estimación puntual: la estimación se representa mediante un solo número.
Estimación por intervalo: la estimación se representa mediante dos números que determinan un intervalo sobre la recta.
Ejemplo. Se quiere estimar la altura media de los alumnos de un determinado curso. Se puede dar la estimación diciendo que la altura media es de 1.65 m (estimación puntual) o bien decir que la altura media estará entre 1.6 m y 1.7 m (estimación por intervalo).
Un estimador es una regla que expresa cómo calcular la estimación, basándose en la información de la muestra y se enuncia, en general, mediante una fórmula.
Un estimador puntual utiliza los datos de la muestra para obtener un número que estima el valor del parámetro.
Un estimador por intervalo utiliza los datos de la muestra para obtener dos valores numéricos entre los cuales se supone que está el valor del parámetro estimado.
ESTIMACIÓN PUNTUAL CON MUESTRAS GRANDES
Se pueden usar distintos estimadores para estimar un mismo parámetro. Por ejemplo para estimar la media poblacional se puede usar la media muestral, la mediana, la moda, el promedio entre el valor más chico y más grande de la muestra, etc..
Cada estimador obtenido de muestras de tamaño fijo n, varía con cada muestra que se toma. Por lo tanto, los estimadores son variables aleatorias y pueden considerarse sus distribuciones muestrales (similar a los estadísticos que se estudiaron la clase pasada).
La distribuciones de muestreo de los estimadores se usan para compararlos y decidir cual de todos es el mejor. Se prefiere un estimador que tenga una distribución muestral cuya media coincida con el parámetro que se desea estimar y cuya extensión o dispersión (medida con la variancia) sea lo menor posible.
Notación. Si denota un parámetro entonces denotará la estadística correspondiente.
Como dijimos anteriormente, se prefiere una estadística que tenga una distribución muestral cuya media coincida con el parámetro que se desea estimar. Un estimador de este tipo se llama insesgado.
Si es un estimador de un parámetro y si la media de la distribución de es , es decir,
E( ) = ,
entonces se dice que es un estimador insesgado. De otra manera, se llama sesgado.
En la figura 6.2., p. 198, aparecen las distribuciones muestrales de dos estimadores , el primero insesgado, E( ) = y el segundo sesgado, E( ) > . Si se calcula una vez lo más probable es que se encuentre cerca de la media E( ). Entonces en el primer caso lo más probable es que se encuentre cerca de y en el segundo que sea más grande que .
Se prefiere una estadística que además tenga una distribución muestral cuya extensión o dispersión (medida con la variancia) sea lo menor posible. Nota: Para simplificar se habla de variancia del estimador para referirnos a la variancia de la distribución muestral del estimador.
En la figura 6.3, p. 199, aparecen las distribuciones muestrales de dos estimadores insesgados , E( ) = . Si se calcula una vez , en ambos casos, lo más probable es que se encuentre cerca de la media E( ). Pero como la desviación estándar del primero es menor que la del segundo, es más probable que en el primer caso se encuentre más cerca de la media que en el segundo caso.
En base a lo anterior se elige de todas las estadísticas disponibles aquella con el menor sesgo y variancia posible. Más aún, el mejor estimador posible es aquel que es insesgado y que de todos los insesgados tiene la menor variancia, a este estimador se lo llama estimador insesgado de menor variancia (EIMV).
En este curso definiremos poblaciones y los parámetros de interés y se dirá en cada caso cual es el estimador adecuado, su media y su desviación estándar.
Ejemplos de estimadores insesgados.
Media muestral (estimador insesgado de la media poblacional )
Si se seleccionan muestras aleatorias de n mediciones de una población con media
...