Que Es Covarianza Simple Y Multiple
Enviado por Maddie20 • 22 de Noviembre de 2014 • 1.196 Palabras (5 Páginas) • 794 Visitas
Análisis de covarianza
Existen muchas situaciones en las que deseamos estudiar una respuesta (Y, variable dependiente) en función de uno o más tratamientos (factor/es) y de una o más variables x (regresores). Es decir, nos interesa combinar en el mismo modelo un ANOVA y una regresión.
En el análisis de covarianza tenemos tres objectivos importantes:
1. Comparar las medias de Y para cada tratamiento en un valor común de x.
2. Comparar la reclación entre la Y y la x en cada tratamiento.
3. Aumentar la precisión (disminuir el CME).
El modelo para datos provenientes de un DCA con una covariable es
En este modelo representa el efecto del tratamiento i para un valor dado de x y es el incremento promedio de las Y de un tratamiento específico cuando x aumenta en una unidad. Observar que la interpretación de los parámetros es análoga a la que hicimos en regresión múltiple. Los supuestos que realizamos acerca de los son los mismos que realizamos en modelos de ANOVA y regresión: independencia, normalidad y homogeneidad de varianzas. Además, como en todo modelo de regresión, requerimos que el modelo sea el correcto. En particular necesitamos asumir que la relación entre las Y y las x es lineal, que la pendiente es la misma en todos los tratamientos (es decir, no existe interacción entre la covariable y el tratamiento) y que los tratamientos no afectan a la covariable. Para las pruebas de hipótesis vamos a usar, como siempre hacemos en regresión múltiple, las pruebas de tipo III.
Consideremos el siguiente ejemplo. Se estudia el efecto de cuatro dietas sobre el peso final de cerdos, y se registra el peso inicial de los mismos. Se usaron 6 animales por dieta, en un DCA.
data dietas;
input dieta pesoinic pesofin;
datalines;
1 5.0 17.0
1 7.0 21.0
1 5.0 18.0
1 4.0 11.0
1 3.0 6.0
1 6.0 23.0
2 7.0 24.0
2 7.0 26.0
2 8.0 23.0
2 6.0 23.0
2 5.0 18.0
2 9.0 30.0
3 5.0 20.0
3 4.0 13.0
3 3.0 14.0
3 7.0 22.0
3 6.0 23.0
3 5.0 16.0
4 10.0 30.0
4 9.0 28.0
4 8.0 22.0
4 7.0 20.0
4 11.0 31.0
4 9.0 25.0
proc gplot;
plot pesofin*pesoinic=dieta;
El modelo que estamos usando es el descripto anteriormente, que en este ejemplo es:
Animales de la dieta 1:
Animales de la dieta 2:
Animales de la dieta 3:
Animales de la dieta 4:
Podemos ver que en cada caso el modelo corresponde a una línea recta con intercepto diferente y la misma pendiente . Es decir, tenemos líneas paralelas. Si graficamos estos datos podemos ver que el modelo es razonable:
Para comparar las medias de las distintas dietas vemos que tenemos dos opciones: comparamos cada media de Y sin tener en cuenta las x, o comparamos las medias de Y estimadas en cierto valor común de x. La primera opción es lo que haríamos si usamos un modelo sin la covariable, y podríamos tener el problema que la dieta que tenía los animales más pesados nos daría mayores pesos finales no porque fuese mejor sino porque el azar hizo que tuviera los animales de mayor peso inicial (En el ejemplo la dieta 4 tenía los animales más pesados inicialmente, y sus pesos finales también estuvieron entre los más altos).
Una comparación más razonable es aquella que compara las dietas a un nivel común de x (por ejemplo en ). Esta comparación la realiza una prueba “parcial” (tipo III), ya que compara algunos efectos en el modelo “ajustando” por todos los otros términos del modelo (en este caso la covariable). ¿Cómo calculamos el valor de media de Y cuando ? Para eso usamos la fórmula de regresión, reemplazando por :
Animales de la dieta 1:
Animales de la dieta 2:
Animales de la dieta 3:
Animales de la dieta 4:
Éstas son las “medias ajustadas”, que en SAS se denominan “least squares means”. La prueba de tipo III prueba la igualdad de medias ajustadas, o lo que es lo mismo, la igualdad de los . Debemos observar que debido a que las líneas son paralelas, da lo mismo comparar en o en cualquier otro valor de x: siempre estaremos comparando igualdad de (se puede probar que en se logra la prueba más eficiente).
Otra prueba de interés es la relacionada a la regresión lineal: (es decir, nos interesa saber si la covariable explica parte de la variabilidad de la Y en un modelo que tiene los efectos de tratamiento).
...