Intervalos De Confianza, Estadistica
Enviado por EduardoBC • 17 de Junio de 2014 • 1.072 Palabras (5 Páginas) • 621 Visitas
Intervalos de confianza
En estadística, se llama a un par o varios pares de números entre los cuales se estima que estará cierto valor desconocido con una determinada probabilidad de acierto. Formalmente, estos números determinan un intervalo, que se calcula a partir de datos de una muestra, y el valor desconocido es un parámetro poblacional. La probabilidad de éxito en la estimación se representa con 1 - α y se denomina nivel de confianza. En estas circunstancias, α es el llamado error aleatorio o nivel de significación, esto es, una medida de las posibilidades de fallar en la estimación mediante tal intervalo.
El nivel de confianza y la amplitud del intervalo varían conjuntamente, de forma que un intervalo más amplio tendrá más probabilidad de acierto (mayor nivel de confianza), mientras que para un intervalo más pequeño, que ofrece una estimación más precisa, aumenta su probabilidad de error.
Para la construcción de un determinado intervalo de confianza es necesario conocer la distribución teórica que sigue el parámetro a estimar, θ. Es habitual que el parámetro presente una distribución normal. También pueden construirse intervalos de confianza con la desigualdad de Chebyshev.
En definitiva, un intervalo de confianza al 1 - α por ciento para la estimación de un parámetro poblacional θ que sigue una determinada distribución de probabilidad, es una expresión del tipo [θ1, θ2] tal que P[θ1 ≤ θ ≤ θ2] = 1 - α, donde P es la función de distribución de probabilidad de θ.
Intervalos de significancia.
En estadística, un resultado es estadísticamente significativo cuando no es probable que haya sido debido al azar. Una "diferencia estadísticamente significativa" solamente significa que hay evidencias estadísticas de que hay una diferencia; no significa que la diferencia sea grande, importante, o significativa en el sentido estricto de la palabra.
El nivel de significación de un test es un concepto estadístico asociado a la verificación de una hipótesis. En pocas palabras, se define como la probabilidad de tomar la decisión de rechazar la hipótesis nula cuando ésta es verdadera (decisión conocida como error de tipo I, o "falso positivo"). La decisión se toma a menudo utilizando el valor P (o p-valor): si el valor P es inferior al nivel de significación, entonces la hipótesis nula es rechazada. Cuanto menor sea el valor P, más significativo será el resultado.
En otros términos, el nivel de significación de un contraste de hipótesis es una probabilidad P tal que la probabilidad de tomar la decisión de rechazar la hipótesis nula - cuando ésta es verdadera - no es mayor que P.
Factor de corrección por continuidad
Nota: al realizar la aproximación se hace un pequeño ajuste ya que debido a que la normal es una distribución continua, la probabilidad de que la variable aleatoria sea exactamente igual a un valor específico es cero. Este ajuste se denomina
factor de corrección.
El factor de corrección de continuidad es el ajuste de media unidad de medida para mejorar la exactitud cuándo a una distribución discreta se le aplica una distribución continua. Casos que pueden surgir:1) Para la probabilidad de que por lo menos X ocurran, use el área por encima de(X ± 0,5).2) Para la de que más de X sucedan, utilice el área por arriba de (X + 0,5).3) Para la de que X o menos ocurran, aplique el área por debajo de (X + 0,5).4) Para la de que menos de X sucedan, emplee el área situada por debajo de (X ±0,5).La
...