Medidas De Dispersión
Enviado por r7obertode • 27 de Agosto de 2011 • 1.199 Palabras (5 Páginas) • 2.987 Visitas
Medidas de dispersión
Las medidas de dispersión, también llamadas medidas de variabilidad, muestran la variabilidad de una distribución, indicando por medio de un número, si las diferentes puntuaciones de una variable están muy alejadas de la mediana media. Cuanto mayor sea ese valor, mayor será la variabilidad, cuanto menor sea, más homogénea será a la mediana media. Así se sabe si todos los casos son parecidos o varían mucho entre ellos.
Para calcular la variabilidad que una distribución tiene respecto de su media, se calcula la media de las desviaciones de las puntuaciones respecto a la media aritmética. Pero la suma de las desviaciones es siempre cero, así que se adoptan dos clases de estrategias para salvar este problema. Una es tomando las desviaciones en valor absoluto (Desviación media) y otra es tomando las desviaciones al cuadrado (Varianza).
Desviación media
La desviación media es la media de las diferencias en valor absoluto de los valores a la media.
Este valor estadístico no es de mucha utilidad en estadística debido a que no es fácil manipular dicha función al no ser derivable.
Siendo más formales, la desviación media debería llamarse desviación absoluta respecto a la media, para evitar confusiones con otra medida de dispersión, la desviación absoluta respecto a la mediana, DM, cuya fórmula es la misma, sustituyendo la media aritmética por la mediana M. Pero tal precisión no es relevante, porque la desviación absoluta respecto a la mediana es de uso todavía menos frecuente.
La desviación absoluta respecto a la media, Dm, la desviación absoluta respecto a la mediana, DM, y la desviación típica, σ, de un mismo conjunto de valores verifican la desigualdad:
Siempre ocurre que
donde el Rango es igual a
Rango = valor máximo − valor mínimo
Dm = 0 cuando los datos son exactamente iguales (e iguales a la media aritmética)
justo sólo hay dos valores en los datos, :a,b, y hay exactamente la mitad de datos igual a :a y :b.
Desviación estándar
La desviación estándar o desviación típica (σ) es una medida de centralización o dispersión para variables de razón (ratio o cociente) y de intervalo, de gran utilidad en la estadística descriptiva.
Se define como la raíz cuadrada de la varianza. Junto con este valor, la desviación típica es una medida (cuadrática) que informa de la media de distancias que tienen los datos respecto de su media aritmética, expresada en las mismas unidades que la variable.
Para conocer con detalle un conjunto de datos, no basta con conocer las medidas de tendencia central, sino que necesitamos conocer también la desviación que representan los datos en su distribución respecto de la media aritmética de dicha distribución, con objeto de tener una visión de los mismos más acorde con la realidad al momento de describirlos e interpretarlos para la toma de decisiones.
La desviación estándar es una medida del grado de dispersión de los datos con respecto al valor promedio. Dicho de otra manera, la desviación estándar es simplemente el "promedio" o variación esperada con respecto a la media aritmética.
Por ejemplo, las tres muestras (0, 0, 14, 14), (0, 6, 8, 14) y (6, 6, 8, 8) cada una tiene una media de 7. Sus desviaciones estándar muestrales son 8,08, 5,77 y 1,15, respectivamente. La tercera muestra tiene una desviación mucho menor que las otras dos porque sus valores están más cerca de 7.
La desviación estándar puede ser interpretada como una medida de incertidumbre. La desviación estándar de un grupo repetido de medidasnos da la precisión de éstas. Cuando se va a determinar si un grupo de medidas está de acuerdo con el modelo teórico, la desviación estándar de esas medidas es de vital importancia: si la media de las medidas está demasiado alejada de la predicción (con la distancia medida en desviaciones estándar),
...