Coeficiente de correlación
Enviado por eduardosa96 • 25 de Octubre de 2012 • 1.763 Palabras (8 Páginas) • 370 Visitas
Coeficiente de correlación
La correlación es la medida de asociación entre variables. En probabilidad y estadística, la correlación indica la fuerza y la dirección de una relación lineal entre dos variables aleatorias. Se considera que dos variables cuantitativas están correlacionadas cuando los valores de una de ellas varían sistemáticamente con respecto a los valores homónimos de la otra: si tenemos dos variables (A y B) existe correlación si al aumentar los valores de A lo hacen también los de B y viceversa.”
El coeficiente de correlación sirve para medir la correlación entre 2 variables. La ventaja que tiene este coeficiente sobre otras herramientas para medir la correlación, como puede ser la covarianza, es que los resultados del coeficiente de correlación están acotados entre -1 y +1. Esta característica nos permite comparar diferentes correlaciones de una manera más estandarizada.
Como he mencionado antes, el coeficiente de correlación tiene un valor acotado entre -1 y +1. Los valores cercanos a cero indican que no hay asociación entre las variables. Valores cercanos a uno indican una asociación fuerte, mientras que los valores cercanos a menos uno indican una asociación fuerte pero inversa.
El coeficiente de correlación puede resultar útil a la hora de buscar valores o sectores en los que podamos mejorar nuestra diversificación. Eso sí, siempre hay que analizar la lógica detrás del valor del coeficiente y analizar si su valor se adecúa a las características de la empresa que hay detrás que esa cifra.
Definición del Sesgo o exactitud
Sesgo es la diferencia entre el promedio observado de las mediciones y el valor verdadero (patrón). Ajustar equipo si es > 10% en su caso utilizar factores de corrección
El coeficiente de SESGO determina el grado de asimetría (alargamiento de la distribución hacia la izquierda o hacia la derecha). Para determinar el sesgo de una distribución de frecuencias se utiliza el :
Otras expresiones que se utilizan para el sesgo son:Donde:
= media aritmética.
s = desviación típica o estándar.
Pero si existen dos o más modas se utilizara otra formula: Si la asimetría es NORMAL se aplicara la curtosis : si y solo si la asimetría es normal.
Si el coeficiente de sesgo tiene un valor positivo se dice que la distribución es SESGADA a DERECHA o que tiene SESGO POSITIVO.
Si el coeficiente de sesgo tiene un valor negativo se dice que la distribución es SESGADA a IZQUIERDA o que tiene SESGO NEGATIVO.
Si el coeficiente de sesgo tiene un valor 0 se dice que la distribución es INSESGADA o que tiene SESGO 0.
Ya que el sesgo es el grado de asimetría o falta de asimetría, de una distribución, si el polígono de frecuencias visualizado de una distribución tiene una cola más larga a la derecha del máximo central que a la izquierda, se dice que la distribución esta sesgada a la derecha o que tiene sesgo positivo(asimetría positiva) y si al contrario se dice que tiene sesgo (asimetría negativa) en la asimetría encontramos si es:
a)asimetricamente + = cuando el sesgo es mayor a 0
b)normal = cuando el sesgo = 0
c)simetricamente - cuando el sesgo es menor a 0
Recta regresiva
Las rectas de regresión son las rectas que mejor se ajustan a la nube de puntos (o también llamado diagrama de dispersión) generada por una distribución binomial. Matemáticamente, son posibles dos rectas de máximo ajuste.
• Representamos en un gráfico los pares de valores de una distribución bidimensional: la variable "x" en el eje horizontal o eje de abscisa, y la variable "y" en el eje vertical, o eje de ordenada. Vemos que la nube de puntos sigue una tendencia lineal:
• Una recta viene definida por la siguiente fórmula:
• y = a + bx
• Donde "y" sería la variable dependiente, es decir, aquella que viene definida a partir de la otra variable "x" (variable independiente). Para definir la recta hay que determinar los valores de los parámetros "a" y "b":
• El parámetro "a" es el valor que toma la variable dependiente "y", cuando la variable independiente "x" vale 0, y es el punto donde la recta cruza el eje vertical.
• El parámetro "b" determina la pendiente de la recta, su grado de inclinación.
• La regresión lineal nos permite calcular el valor de estos dos parámetros, definiendo la recta que mejor se ajusta a esta nube de puntos.
• El parámetro "b" viene determinado por la siguiente fórmula:
• Es la covarianza de las dos variables, dividida por la varianza de la variable "x".
• El parámetro "a" viene determinado por:
• a = ym - (b * xm)
• Es la media de la variable "y", menos la media de la variable "x" multiplicada por el parámetro "b" que hemos calculado.
La condición de que la suma de los cuadrados de las diferencias verticales (yi - yr )2 podría sustituirse por la de la suma de los cuadrados de las diferencias horizontales ( xi - xr )2 . En este caso obtendríamos la recta de regresión de X sobre Y. Es decir, en realidad hay dos rectas de regresión, la de Y sobre X, que es la que hemos calculado y la de X sobre Y. Intercambiando los papeles de X e Y obtenemos las dos ecuaciones
Recta de Regresión de Y sobre X
Recta
...