Estimaciòn Puntual
Enviado por Anix.Mendieta • 6 de Marzo de 2012 • 1.494 Palabras (6 Páginas) • 1.194 Visitas
ESTIMACIÓN PUNTUAL
Si a partir de las observaciones de una muestra se calcula un solo valor como estimación de un parámetro de la población desconocido, el procedimientose denomina estimación puntual.
Un estimador puntual T de un parámetro es cualquier estadística que nos permita a partir de los datos muestrales obtener valores aproximados del parámetro .
Para indicar que T es un estimador del parámetro escribimos =T .
Con esto queremos decir que empleamos la expresión dada mediante T para obtener valores próximos al valor del parámetro.
Es muy probable que haya error cuando un parámetro es estimado. Es cierto que si el número de observaciones al azar se hace suficientemente grande, éstas proporcionarían un valor que casi sería semejante al parámetro; pero a menudo hay limitaciones de tiempo y de recursos y se tendrá que trabajar con unas cuántas observaciones. Para poder utilizar la información que se tenga de la mejor forma posible, se necesita identificar las estadísticas que sean “buenos” estimadores. Hay cuatro criterios que se suelen aplicar para determinar si una estadística es un buen estimador: Insesgamiento, eficiencia, consistencia y suficiencia
PROPIEDADES DE UN ESTIMADOR
Existe una propiedad que comprende conjuntamente las propiedades de insesgamiento y eficiencia. Se trata del error cuadrático medio.
Sea T un estimador del parámetro . El error cuadrático medio de T, denotado ECM(T), se define como el valor esperado de (T- )2 .
ECM(T) = E[(T- )2]
¿Cuál es la información que nos proporciona el error cuadrático medio?
Nos referimos al promedio de los cuadrados de las observaciones. Si éste es pequeño, debemos aceptar que hay una tendencia para que los valores (T- ) sean pequeños, y así lo será también la diferencia (T- ), lo que quiere decir que T tiende a producir respuestas numéricas próximas al parámetro . El poder que tenga T para producir valores próximos a depende de dos condiciones básicas. Una es la “fuerza” o intensidad con la que tiende a dar esos valores (insesgamiento) y la otra es la “fuerza” que tenga para no permitir que se aparte de del camino que lo conduce a (eficiencia). Esta dos condiciones matemáticamente quedan establecidas y precisadas en el teorema siguiente:
TEOREMA
Si T es un estimador del parámetro , ECM(T) = V[T] – [ -E(T)]2
Demostración:
ECM(T) = E[(T- )2] = E[T2 - 2 T + 2] = E(T2)-E(2 T)+E( 2) = E(T2) -2 E(T) + E( 2) = E(T2) – [E(T)]2 + [E(T)]2 - 2 E(T) + 2 = (E(T2) –[E(T)]2) + ([E(T)]2 - 2 E(T) + 2) = V(T) + [ - E(T)]2.
De esta expresión deducimos que el error cuadrático medio sera pequeño en la medida que lo sea su varianza y lo mismo ocurra con [ -E(T)]2, es decir -E(T).
El valor pequeño de la varianza quiere decir que T presenta poca variabilidad; el hecho de que -E(T) sea pequeño quiere decir que E(T) tiende al valor a medida que el experimento se repite, lo que indica que T tiende a dar valores próximos al parámetro.
La diferencia -E(T) se llama sesgo del estimador.
Estudiaremos un ejemplo que nos muestra como las dos propiedades anteriores pueden no ser suficientes para determinar el mejor estimador:
Ejemplo:
Sea X1, X2, ..., Xn una muestra aleatoria de una población de media desconocida y varianza =81. Consideremos T1= yT2= como estimadores de la media, si obtenemos el error cuadrático medio para el primer estimador utilizando el teorema anterior obtenemos haciendo lo mismo para el segundo estimador obtenemos .
Supongamos que tenemos que escoger uno de los dos estimadores. Para ello debemos tomar aquel que tenga menor error cuadrático medio. Trabajando con las fórmulas podemos observar que va a depender del valor de la media.
En este ejemplo observamos que para escoger el mejor estimador tendríamos que saber cuál es el verdadero valor de la media poblacional. Pero nosotros pretendemos es contar con criterios que garanticen una buena selección del estimador, sin importar el valor particular del parámetro objeto de estudio.
Para precisar estos criterios estudiaremos el error cuadrático medio en sus partes y así iniciamos el estudio de la diferencia - E(T).
Se dice que una estadística T es un estimador insesgado de , si se cumple que E(T)= para cualquier valor de .
Volviendo al ejemplo anterior tendríamos que la media muestral es un estimador insesgado de la media de la población mientras queT2no lo es.
También podemos decir que un estimador insesgadoes aquel que tiene sesgo igual a cero.
TEOREMA:
Sea X1, X2, ..., Xn una muestra aleatoria de cierta distribución de media y varianza . Entonces:
a)T1= es un estimador insesgado de .
b)T2=S2 es un estimador insesgado de .
La propiedad de insesgamiento nos garantiza que las estimaciones que hagamos con el estimador se encuentran alrededor del parámetro en cuestión, de esto
...