Resumen Inferencia Estadistica
Enviado por ALEXANDRA BEATRIZ ROZAS SAAVEDRA • 5 de Octubre de 2020 • Resumen • 497 Palabras (2 Páginas) • 184 Visitas
Estadísticos de localización central
[pic 1] Media empírica o promedio [pic 2]
[pic 3]Mediana [pic 4]
[pic 5]Percentil [pic 6]
[pic 7]Rango intercuartilico [pic 8]
[pic 9]Varianza [pic 10]
[pic 11]Desviación estándar [pic 12]
[pic 13]Coeficiente de varianza de Pearson [pic 14]
Funciones de probabilidad
Función de distribución acumulada [pic 15]
Esperanza matemática [pic 16]
Varianza matemática [pic 17]
- Muestra aleatoria
Sus mediciones deben ser repeticiones de un mismo experimento y ser independientes unas de otras, asi se puede obtener la densidad conjunta la cual es la multiplicación de todas las densidades marginales:
[pic 18]
- Parametro
Es el escalar o vector que identifica a una distribución particular
- Estadistico
Es una función de las variables de la muestra como lo es la media, la varianza, etc.
DISTRIBUCIONES
- Distribución de la media empírica
Teorema central del limite [pic 19]
Para aquellos datos no normales tendremos este teorema, donde la idea es encontrar todos los promedios de las muestras, por consifuiente la media de estos promedios distribuirá normal
[pic 20]
- Distribución de la varianza muestral
[pic 21]
Notar que: [pic 22]
Estimadores
Estimadores puntuales
Es un estadístico, donde la idea es construir una función de los datos para asi estimar el valor del parámetro desconocido, donde al escoger un estadístico debemos tener en cuenta las propiedades que posee, estas son:
- Insesgados: la distribución esta centrada en el parámetro.
[pic 23]
- Consistentes: Es cuando el estimador converge en probabilidad a , que nos permite calcular o aproximar la probabilidad cuando las muestras son muy grandes. (se puede usar teorema del sándwich) [pic 24]
[pic 25]
Otra opción es que es consistente T es insesgado para y V(T) tiende a 0[pic 26][pic 27]
- Eficientes: Si la varianza del estimar 1 es menor que el 2, donde a menor varianza menor es la eficiencia. Ojo, aquí lo primero es calcular la insesgaez ya que al determinar la eficiencia nos conviene saber la insesgadez.
[pic 28]
- Sesgo de un estimador: Es la diferencia entre el valor esperado del estimador y el parámetro.
[pic 29]
- Error cuadrático Medio: Esto nos permite saber si el sesgo es positivo o negativo, lo que nos permite saber que tan lejos esta del 0. Entre mas pequeño es el error, mejor es el estimador.
[pic 30]
Estimadores por intervalos
En lugar de presentar solo un valor, se presenta un intervalo de confianza
ESTIMADORES VEROSIMILES
Máxima verosimilitud
La idea es encontrar un estimador que maximice la probabilidad de ocurrencia de la muestra, para eso necesitamos:
- Función de verosimilitud: es parecida a la densidad conjunta pero en función de [pic 31]
[pic 32]
Notar que es mejor maximizar la función log- verosimilitud
[pic 33]
Para encontrar este máximo lo mejor es aplicar la derivada
...