Estimacion
Enviado por sandyyeguez • 13 de Noviembre de 2014 • 3.430 Palabras (14 Páginas) • 151 Visitas
República Bolivariana de Venezuela
Ministerio del Poder Popular para la Educación Universitaria
Universidad Nacional Experimentar “Simón Rodríguez”
Núcleo Barcelona. Extensión Cumaná -Aulas Marigüitar
Dra. Mirian Balestrini
ESTIMACIÓN
Facilitador: Participante:
Juan Echenique Frontado Roraima
C.I: 19.239.180
Sección “T
Marigüitar, octubre de 2014.
INTRODUCCIÓN
Como tomadores de decisiones, en ocasiones, nos veremos forzados, a confiar en nuestros presentimientos. Sin embargo, en otras situaciones, en las cuales se tenga disponible información podamos aplicar los conceptos de la estadística, La diferencia entre la estadística muestral y el correspondiente parámetro de la población se suele llamar error de estimación. Solo conoceríamos dicho error si se conociera el parámetro poblacional que por lo general se desconoce. La única forma de tener alguna certeza al respecto es hacer todas las observaciones posibles del total de la población; en la mayoría de las aplicaciones prácticas es imposible o impracticable.
En este tema se analizan las formas adecuadas para el establecimiento del conocimiento numérico o abstracto de un parámetro de una población, y que evidentemente nos es desconocido, partiendo, claro está, de la información suministrada por la muestra. También se estudiaran los problemas de estimación, la cual se define como el proceso por el que llegamos a la obtención y análisis de los estimadores. La estimación se divide en estimación puntual y estimación por intervalos.
TEORIA DE LA ESTIMACION:
Se ocupará, dentro del marco de la perspectiva clásica, de estudiar las características deseables de los estimadores permitiéndonos escoger aquel estimador que reúna más propiedades ventajosas para que realicemos buenas estimaciones.
ESTIMACIÓN Y ESTIMADOR:
En inferencia estadística se llama estimación al conjunto de técnicas que permiten dar un valor aproximado de un parámetro de una población a partir de los datos proporcionados por una muestra. Por ejemplo, una estimación de la media de una determinada característica de una población de tamaño N podría ser la media de esa misma característica para una muestra de tamaño n. Un estimador es una regla que establece cómo calcular una estimación basada en las mediciones contenidas en una muestra estadística.
CLASES DE ESTIMACIÓN:
Estimaciones de punto y estimaciones de intervalo
Una estimación de un parámetro de la población dada por un solo número se llama una estimación de punto del parámetro. Una estimación de un parámetro de la población dada por dos puntos, entre los cuales se pueden considerar encajado al parámetro, se llama una estimación del intervalo del parámetro.
Las estimaciones de intervalo que indican la precisión de una estimación y son por tanto preferibles a las estimaciones de punto
Ejemplo:
Si decimos que una distancia sé a medido como 5.28 metros (m), estamos dando una estimación de punto. Por otra parte, si decimos que la distancia es 5.28 ± 0.03 m, (ósea, que está entre 5.25 y 5.31 m), estamos dando una estimación de intervalo. El margen de error o la percepción de una estimación nos informan su fiabilidad.
ESTIMADORES Y PROPIEDADES DESEABLES DE LOS ESTIMADORES
Consideraremos criterios adicionales para seleccionar estimadores. Las propiedades deseables que ha de tener un estimador para considerarse adecuado son las siguientes:
Ausencia de sesgo: Se dice que un estimador es insesgado (o centrado) si la esperanza del estimador coincide con el parámetro a estimar. . En caso contrario se dice que es sesgado y a la cantidad se la denomina sesgo.
La propiedad es importante ya que los posibles valores del estimador fluctúan alrededor del verdadero parámetro. Por ejemplo, si utilizamos la media muestral como estimador de la media poblacional en una distribución normal, se trata de un estimador insesgado ya que la esperanza de su distribución muestral es la media poblacional m. El hecho de que además, tenga distribución normal, es importante en la práctica, ya que aunque la media muestral y la poblacional no coinciden exactamente, los valores de aquella fluctúan de forma simétrica alrededor de esta, son valores próximos con probabilidad alta y la dispersión disminuye cuando aumenta el tamaño muestral.
Consistencia: Se dice que un estimador es consistente si se aproxima cada vez más al verdadero valor del parámetro a medida que se aumenta el tamaño muestral. Más formalmente, un estimador es consistente si cuando , para . O dicho de otra forma la distribución del estimador se concentra más alrededor del verdadero parámetro cuando el tamaño muestral aumenta.
La media muestral es un estimador consistente de la media poblacional en una distribución normal, ya que, la varianza de la misma tiende a cero para , de forma que la distribución se concentra alrededor del verdadero valor m cuando n crece.
Eficiencia: Es claro que un estimador será tanto mejor cuanto menor sea su varianza, ya que se concentra más alrededor del verdadero valor del parámetro. Se dice que un estimador insesgado es eficiente si tiene varianza mínima.
Una cota inferior para la varianza viene dada por la denominada cota de Cramer-Rao.
Sea X1, X2, ... , Xn. una muestra aleatoria simple de una distribución con densidad f(x; q). Sujeto a ciertas condiciones de regularidad en la función de densidad, cualquier estimador insesgado verifica que
A la cantidad se la denomina cantidad de información de Fisher asociada a una muestra aleatoria simple de tamaño n.
METODOS DE ESTIMACION
Método de los Momentos: Consiste en igualar los momentos muestrales y los poblacionales. Prácticamente no se usa en la investigación actual.
Método de los Mínimos Cuadrados: Consiste en minimizar la suma de cuadrados de los errores (diferencias entre valores observados y esperados tras suponer que las observaciones se obtienen como la suma de una parte sistemática o controlada y una parte aleatoria no controlada
...