Muestreon Y Estimacion
Enviado por ValeriaGM • 26 de Junio de 2015 • 3.314 Palabras (14 Páginas) • 154 Visitas
MUESTREO
Muestra Aleatoria de tamaño n es una colección de n variables aleatorias, todas con la misma distribución y todas independientes. La colección de donde extraemos la muestra aleatoria, se denomina Población. Nuestra intención al tomar una muestra, es la de hacer Inferencia. Este término lo usamos en estadística para denotar al procedimiento con el que hacemos afirmaciones acerca de valores generales de la población mediante los números que observamos en la muestra.
A un valor calculado con los datos de una muestra es el Estadístico. Al valor del parámetro en la población es el Estimador. Y es Estimador Puntual cuando se estima el parámetro poblacional a partir de un valor único).
Características probabilísticas de un estimador. Cuando se tiene una fórmula para estimar y se aplica a una muestra aleatoria, el resultado es aleatorio, es decir los estimadores son variables aleatorias. Por ejemplo si se recibe un embarque de objetos que pueden estar listos para usarse ó defectuosos. Podemos seleccionar, al azar, algunos de ellos para darnos una idea de la proporción de defectuosos en el embarque. El parámetro de interés es la proporción de defectuosos en toda la población, pero lo que observamos es la proporción de defectuosos en la muestra.
Valor esperado de un estimador y sesgo. El valor esperado de un estimador nos da un valor alrededor del cual es muy probable que se encuentre el valor del estimador. Para poner un ejemplo, si supiéramos que el valor esperado de un estadístico es 4, esto significaría que al tomar una muestra: No creemos que el valor de la estadística vaya a ser 4, pero tampoco creemos que el valor de la estadística vaya a estar lejos de 4.
Ya que es muy probable que el valor del estimador esté cerca de su valor esperado, una propiedad muy deseable es que ese valor esperado del estimador coincida con el del parámetro que se pretende estimar. Al menos, quisiéramos que el valor esperado no difiera mucho del parámetro estimado. Por esa razón es importante la cantidad que, técnicamente llamamos sesgo.
Convención, para efectos del estudio de ahora en adelante se presentan la siguiente convención, representan, el parámetro que estamos midiendo y el valor obtenido en la medida o muestreado, respectivamente
El sesgo es la diferencia entre el valor esperado del estimador y el parámetro que estima. ,
Si el sesgo 0, se dice que el estimador es insesgado y ésta es una característica buena para un estimador. Un estimador que es insesgado tiene una alta probabilidad de tomar un valor cercano al valor del parámetro.
Varianza de un estimador. Otra propiedad importante de un estimador es su varianza. La importancia de la desviación estándar es que nos permite darle un sentido numérico a la cercanía del valor del estimador a su valor esperado. Entre menor sea la desviación estándar de un estimador, será más probable que su valor en una muestra específica se encuentre mas cerca del valor esperado.
Para aclarar esto, considere dos estimadores T1 y T2, suponga que ambos son insesgados y suponga que la varianza de T1 es menor que la de T2, lo cual quiere decir que los valores de T1 son más probables que los de T2. O sea que vamos a encontrar a T1 más cerca del valor del parámetro que a T2. Esto hace que nuestras preferencias estén con T1.
Cuando un estimador tiene una varianza menor que otro decimos que el estimador es más eficiente.
La distribución de probabilidad de un estadístico. Quizá el resultado más importante para la estadística es el Teorema del Límite Central. Este resultado nos indica que, para el estadístico promedio de la muestra
- el valor esperado es la media de la población.
- la varianza es igual a la de la población dividida por el número de elementos de la muestra.
- la distribución de probabilidad es la normal.
Este teorema es muy importante porque permite calcular probabilidades acerca de dónde se encuentra el valor promedio muestra. Es sólo cuestión de usar la tabla normal teniendo cuidado al estandarizar de usar la desviación estándar adecuada que es la de la población dividida por la raíz cuadrada del número de elementos de la muestra.
Estimación del error de una medida directa. La estimación del error de una medida tiene siempre una componente subjetiva. En efecto, nadie mejor que un observador experimentado para saber con buena aproximación cuál es el grado de confianza que le merece la medida que acaba de tomar. No existe un conjunto de reglas bien fundadas e inalterables que permitan determinar el error de una medida en todos los casos imaginables.
Muchas veces es tan importante consignar cómo se ha obtenido un error como su propio valor. Sin embargo, la aplicación de algunos métodos estadísticos permite objetivar en gran medida la estimación de errores aleatorios. La estadística permite obtener los parámetros de una población (en este caso el conjunto de todas las medidas que es posible tomar de una magnitud), a partir de una muestra (el número limitado de medidas que podemos tomar).
Mejor valor de un conjunto de medidas. Supongamos que medimos una magnitud un número n de veces. Debido a la existencia de errores aleatorios, las n medidas serán en general diferentes. El método más razonable para determinar el mejor valor de estas medidas es tomar el valor medio. En efecto, si los errores son debidos al azar, tan probable es que ocurran por defecto como por exceso, y al hacer la media se compensarán, por lo menos parcialmente, y este es el valor que deberá darse como resultado de las medidas.
Tipos de estimación estadística. Un problema importante de la inferencia estadística es la estimación de parámetros de la población, brevemente parámetros (tales como la media y la variación de la población), de los correspondientes estadísticos muéstrales, o simplemente estadísticos (tales como la media y la variación de la muestra).
Estimaciones sin sesgo. Si la media de las dispersiones de muestreo con un estadístico es igual que la del correspondiente parámetro de la población, el estadístico se llamara estimador sin sesgo o insesgado del parámetro; si no, si no se llama estimador sesgado. Los correspondientes valores de tal estadístico se llaman estimación sin sesgo, y estimación con sesgo respectivamente.
Ejemplo, la media de las distribuciones de muestreo de medias o , media de la población. Por lo tanto, la media muestral es una estimación sin sesgo de la media de la población.
Ejemplo, las medias de las distribuciones de muestreo de las variables son
...