Resumen De Probabilidad Y Estadistica
Enviado por lizbethjesus • 19 de Octubre de 2014 • 2.027 Palabras (9 Páginas) • 275 Visitas
MEDIDAS DE FORMA
Medidas de concentración
Las medidas de concentración tratan de poner de relieve el mayor o menor grado de igualdad en el reparto del total de los valores de la variable, son por tanto indicadores del grado de distribución de la variable Para este fin, están concebidos los estudios sobre concentración
Denominamos concentración a la mayor o menor equidad en el reparto de la suma total de los valores de la variable considerada (renta, salarios, etc.)
ASIMETRÍA
Es una medida de forma de una distribución que permite identificar y describir la manera como los datos tiende a reunirse de acuerdo con la frecuencia con que se hallen dentro de la distribución. Permite identificar las características de la distribución de datos sin necesidad de generar el gráfico.
TIPOS DE ASIMETRÍA
La asimetría presenta las siguientes formas:
Asimetría Negativa o a la Izquierda.- Se da cuando en una distribución la minoría de los datos está en la parte izquierda de la media. Este tipo de distribución presenta un alargamiento o sesgo hacia la izquierda, es decir, la distribución de los datos tiene a la izquierda una cola más larga que a la derecha. También se dice que una distribución es simétrica a la izquierda o tiene sesgo negativo cuando el valor de la media aritmética es menor que la mediana y éste valor de la mediana a su vez es menor que la moda, en símbolos
Nota: Sesgo es el grado de asimetría de una distribución, es decir, cuánto se aparta de la simetría.
Simétrica.- Se da cuando en una distribución se distribuyen aproximadamente la misma cantidad de los datos a ambos lados de la media aritmética. No tiene alargamiento o sesgo. Se representa por una curva normal en forma de campana llamada campana de Gauss. También se dice que una distribución es simétrica cuando su media aritmética, su mediana y su moda son iguales, en símbolos Md=Mo
Asimetría Positiva o a la Derecha.- Se da cuando en una distribución la minoría de los datos está en la parte derecha de la media aritmética. Este tipo de distribución presenta un alargamiento o sesgo hacia la derecha, es decir, la distribución de los datos tiene a la derecha una cola más larga que a la izquierda.
MEDIDAS DE ASIMETRÍA
Donde:
= media aritmética.
Md = Mediana.
s = desviación típica o estándar.
CURTOSIS O APUNTAMIENTO
La curtosis mide el grado de agudeza o achatamiento de una distribución con relación a la distribución normal, es decir, mide cuán puntiaguda es una distribución.
TIPOS DE CURTOSIS
La curtosis determina el grado de concentración que presentan los valores en la región central de la distribución. Así puede ser:
Leptocúrtica.- Existe una gran concentración.
Mesocúrtica.- Existe una concentración normal.
Platicúrtica.- Existe una baja concentración.
MEDIDAS DE CURTOSIS
Medida de Fisher
Para datos sin agrupar se emplea la siguiente fórmula:
Para datos agrupados en tablas de frecuencias se emplea la siguiente fórmula:
Para datos agrupados en intervalos se emplea la siguiente fórmula:
MOMENTOS
Los momentos son una forma de generalizar toda la teoría relativa a los parámetros estadísticos y guardan relación con una buena parte de ellos.
Dada una distribución de datos estadísticos x1, x2, ..., xn, se define el momento central o momento centrado de orden k como
Para variables continuas la definición cambia sumas discretas por integrales (suma continua), aunque la definición es, esencialmente, la misma.
De esta definición y las propiedades de los parámetros implicados que se han visto más arriba.
MEDIDAS DE RELACION
Medidas de relación son aquellas medidas que RELACIONAN (es decir, comparan) dos datos o dos grupos de datos. Por ejemplo, son medidas de relación las medidas de centralización, o las medidas de dispersión.
COEFICIENTE DE CORRELACIÓN
Dado dos variables, la correlación permite hacer estimaciones del valor de una de ellas conociendo el valor de la otra variable.
Los coeficientes de correlación son medidas que indican la situación relativa de los mismos sucesos respecto a las dos variables, es decir, son la expresión numérica que nos indica el grado de relación existente entre las 2 variables y en qué medida se relacionan. Son números que varían entre los límites +1 y -1. Su magnitud indica el grado de asociación entre las variables; el valor r = 0 indica que no existe relación entre las variables; los valores ( 1 son indicadores de una correlación perfecta positiva (al crecer o decrecer X, crece o decrece Y) o negativa (Al crecer o decrecer X, decrece o crece Y).
RECTA DE REGRESIÓN
La recta de regresión es la que mejor se ajusta a la nube de puntos.
La recta de regresión pasa por el punto llamado centro de gravedad.
Recta de regresión de Y sobre X
La recta de regresión de Y sobre X se utiliza para estimar los valores de la Y a partir de los de la X.
La pendiente de la recta es el cociente entre la covarianza y la varianza de la variable X.
Recta de regresión de X sobre Y
La recta de regresión de X sobre Y se utiliza para estimar los valores de la X a partir de los de la Y.
La pendiente de la recta es el cociente entre la covarianza y la varianza de la variable Y.
Si la correlación es nula, r = 0, las rectas de regresión son perpendiculares entre sí, y sus eucaciones son:
y =
x =
ERROR ESTÁNDAR
. El error estándar de la media mide la diferencia que puede existir entre la media verdadera y la estadística que se informa. En términos más generales, podemos hablar del "error estándar de la estimación" cada vez que se informa una cantidad estadística estimada. Cuando se calcula un dato estadístico único, es posible calcular el error estándar de la estimación. En general, cuanto mayor sea el tamaño de la muestra, menor será el error estándar de una cantidad estimada.
Para ver cómo funciona esto, analicemos una media muestral. A partir de una muestra de tamaño n, se calculan la media muestral y la desviación estándar. En realidad hay
...