ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

Patologia


Enviado por   •  1 de Octubre de 2014  •  1.424 Palabras (6 Páginas)  •  220 Visitas

Página 1 de 6

Análisis de la varianza

El análisis de la varianza (o Anova: Analysis of variance) es un método para comparar dos o más medias, que es necesario porque cuando se quiere comparar más de dos medias es incorrecto utilizar repetidamente el contraste basado en la t de Student. por dos motivos:

En primer lugar, y como se realizarían simultánea e independientemente varios contrastes de hipótesis, la probabilidad de encontrar alguno significativo por azar aumentaría. En cada contraste se rechaza la H0 si lat supera el nivel crítico, para lo que, en la hipótesis nula, hay una probabilidad a. Si se realizan m contrastes independientes, la probabilidad de que, en la hipótesis nula, ningún estadístico supere el valor crítico es (1 - a)m, por lo tanto, la probabilidad de que alguno lo supere es 1 - (1 - a)m, que para valores de a próximos a 0 es aproximadamente igual a a m. Una primera solución, denominada método de Bonferroni, consiste en bajar el valor de a, usando en su lugara/m, aunque resulta un método muy conservador.

Por otro lado, en cada comparación la hipótesis nula es que las dos muestras provienen de la misma población, por lo tanto, cuando se hayan realizado todas las comparaciones, la hipótesis nula es que todas las muestras provienen de la misma población y, sin embargo, para cada comparación, la estimación de la varianza necesaria para el contraste es distinta, pues se ha hecho en base a muestras distintas.

El método que resuelve ambos problemas es el anova, aunque es algo más que esto: es un método que permite comparar varias medias en diversas situaciones; muy ligado, por tanto, al diseño de experimentos y, de alguna manera, es la base del análisis multivariante. (V. Abraira, A. Pérez de Vargas, 2005)

Análisis de regresión

El análisis de regresión consiste en emplear métodos que permitan determinar la mejor relación funcional entre dos o más variables concomitantes (o relacionadas). El análisis de correlación estudia el grado de asociación de dos o más variables.

Análisis de Regresión: Una relación funcional matemáticamente hablando, está dada por:

Y = f(x1,...,xn; θ1,...,θm)

Donde:

Y: Variable respuesta (o dependiente)

xi : La i-ésima variable independiente (i=1,..,n)

θj : El j-ésimo parámetro en la función (j=1,..,m)

f: La función; para elegir una relación funcional particular como la representativa de la población bajo investigación, usualmente se procede:

1) Una consideración analítica del fenómeno que nos ocupa, y 2) Un examen de diagramas de dispersión.

Una vez decidido el tipo de función matemática que mejor se ajusta (o representa nuestro concepto de la relación exacta que existe entre las variables) se presenta el problema de elegir una expresión particular de esta familia de funciones; es decir, se ha postulado una cierta función como término del verdadero estado en la población y ahora es necesario estimar los parámetros de esta función (ajuste de curvas). Como los valores de los parámetros no se pueden determinar sin errores por que los valores observados de la variable dependiente no concuerdan con los valores esperados, entonces la ecuación general replanteada, estadísticamente, sería:

Y = f(x1,...xn;θ1,...,θm) + ε

Donde ε representa el error cometido en el intento de observar la característica en estudio, en la cual muchos factores contribuyen al valor que asume ε.

Regresión Lineal Simple

Cuando la relación funcional entre las variables dependientes (Y) e independiente (X) es: Una línea recta, se tiene una regresión lineal simple, dada por la ecuación

Y = ßo + ß1X + ε

Donde:

ßo : El valor de la ordenada donde la línea de regresión se intersecta al eje Y.

ß1 : El coeficiente de regresión poblacional (pendiente de la línea recta)

ε : El error. Suposiciones de la regresión lineal

1. Los valores de la variable independiente X son "fijos".

2. La variable X se mide sin error (se desprecia el error de medición en X)

3. Existe una sub-población de valores Y normalmente distribuido para cada valor de X.

4. Las variancias de las subpoblaciones de Y son todas iguales.

5. Todas las medias de las subpoblaciones de Y están sobre la misma recta.

6. Los valores de Y están normalmente distribuidos y son estadísticamente

Independientes. Los supuestos del 3 al 6 equivalen a decir que los errores son aleatorios, que se distribuyen normalmente con media cero y variancia σ². (V. Abraira, A. Pérez de Vargas,

...

Descargar como (para miembros actualizados) txt (9 Kb)
Leer 5 páginas más »
Disponible sólo en Clubensayos.com