El coeficiente de correlación de Рearson
Enviado por polluelo095 • 27 de Mayo de 2014 • Trabajo • 363 Palabras (2 Páginas) • 226 Visitas
Coeficiente de correlación de Pearson
Saltar a: navegación, búsqueda
Ejemplos de diagramas de dispersión con diferentes valores del coeficiente de correlación (ρ)
En estadística, el coeficiente de correlación de Pearson es una medida de la relación lineal entre dos variables aleatorias cuantitativas. A diferencia de la covarianza, la correlación de Pearson es independiente de la escala de medida de las variables.
De manera menos formal, podemos definir el coeficiente de correlación de Pearson como un índice que puede utilizarse para medir el grado de relación de dos variables siempre y cuando ambas sean cuantitativas.
Índice [ocultar]
1 Definición 1.1 Interpretación
2 Véase también
3 Enlaces externos
Definición[editar]
En el caso de que se esté estudiando dos variables aleatorias x e y sobre una población estadística; el coeficiente de correlación de Pearson se simboliza con la letra \rho_{x,y}, siendo la expresión que nos permite calcularlo:
\rho_{X,Y}={\sigma_{XY} \over \sigma_X \sigma_Y} ={E[(X-\mu_X)(Y-\mu_Y)] \over \sigma_X\sigma_Y},
Donde:
\sigma_{XY} es la covarianza de (X,Y)
\sigma_{X} es la desviación típica de la variable X
\sigma_{Y} es la desviación típica de la variable Y
De manera análoga podemos calcular este coeficiente sobre un estadístico muestral, denotado como r_{xy} a:
r_{xy}=\frac{\sum x_iy_i-n \bar{x} \bar{y}}{n s_x s_y}=\frac{n\sum x_iy_i-\sum x_i\sum y_i} {\sqrt{n\sum x_i^2-(\sum x_i)^2}~\sqrt{n\sum y_i^2-(\sum y_i)^2}}.
Interpretación[editar]
Varios grupos de puntos (x, y), con el coeficiente de correlación para cada grupo. Nótese que la correlación refleja la no linealidad y la dirección de la relación lineal. En la figura del centro, la varianza de y es nula, por lo que la correlación es indeterminada.
El valor del índice de correlación varía en el intervalo [-1,1]:
Si r = 1, existe una correlación positiva perfecta. El índice indica una dependencia total entre las dos variables denominada relación directa: cuando una de ellas aumenta, la otra también lo hace en proporción constante.
Si 0 < r < 1, existe una correlación positiva.
Si r = 0, no existe relación lineal. Pero esto no necesariamente implica que las variables son independientes: pueden existir todavía relaciones no lineales entre las dos variables.
Si -1 < r < 0, existe una correlación negativa.
Si r = -1, existe una correlación negativa perfecta. El índice indica una dependencia total entre las dos variables llamada relación inversa: cuando una de ellas aumenta, la otra disminuye en proporción constante
...