Estimaciones
Enviado por federico_121 • 26 de Octubre de 2012 • 544 Palabras (3 Páginas) • 360 Visitas
ESTIMACIONES
En inferencia estadística se llama estimación al conjunto de técnicas que permiten dar un valor aproximado de un parámetro de una población a partir de los datos proporcionados por unamuestra. Por ejemplo, una estimación de la media de una determinada característica de una población de tamaño N podría ser la media de esa misma característica para una muestra de tamaño n.1
La estimación se divide en tres grandes bloques, cada uno de los cuales tiene distintos métodos que se usan en función de las características y propósitos del estudio:
Estimación puntual:2
Método de los momentos;
Método de la máxima verosimilitud;
Método de los mínimos cuadrados;
Estimación por intervalos.
Estimación bayesiana.
Estimador
Un estimador de un parámetro poblacional es una función de los datos muestrales, también llamado estadístico. En pocas palabras, es una fórmula que depende de los valores obtenidos de una muestra, para realizar estimaciones.3
Formalmente, si θ es un parámetro poblacional, se dice que es un estimador puntual de θ si , donde son las variables aleatorias que integran unamuestra aleatoria de tamaño n de la población en cuestión.
Por ejemplo, un estimador de la media poblacional, μ, puede ser la media muestral, , según la siguiente fórmula:
donde (x1, x2, ..., xn) sería el conjunto de de datos de la muestra.
El estimador es una variable aleatoria que asigna a cada posible valor de la muestra un valor numérico. Como tal, tiene sentido calcular su esperanza, su varianza y otras características propias de las variables aleatorias.
[editar]Estimador insesgado
Por supuesto, cualquier función de la muestra, con la definición anterior, podría ser un estimador, pero es deseable que las estimaciones que surjan a partir de un estimador "se parezcan", en cierto modo, al parámetro que se desea estimar.
Con este propósito, se dice que un estimador de un parámetro θ es insesgado si su esperanza es el propio θ.
[editar]Estimador eficiente
Un estimador de un parámetro θ es eficiente si su varianza es mínima. Esto hace que haya menos variabilidad entre las distintas estimaciones que podemos obtener (cada muestra dará una estimación diferente). De esta forma, la estimación será más fiable. Hay una cota mínima dentro de las varianzas que se puede obtener para cualquier estimador con un sesgo determinado. Esta cota se llama cota de Cramér-Rao. Si la varianza de un estimador es igual a esta cota, sabremos que su varianza es mínima, y por tanto, estaremos seguros de que es eficiente. Sin embargo, no siempre esta cota es alcanzable, por lo que no siempre podremos saber si el estimador que hemos utilizado es el más eficiente de todos.
...