Bondades y Ventajas de la Comparación de Medias Usando la Prueba t
Enviado por aromerod • 12 de Noviembre de 2016 • Ensayo • 1.759 Palabras (8 Páginas) • 550 Visitas
Bondades y Ventajas de la Comparación de Medias Usando la Prueba t
Adrián Romero
La comparación es una necesidad natural de los seres humanos y de las instituciones de toda índole. La comparación es indispensable en nuestra vida diaria, personal y profesional; de hecho a cada momento y en todo lugar las personas toman decisiones basados en un análisis de comparación. Por ejemplo, piense en su lugar de trabajo y/o estudio, ¿Cómo llegó ahí, caminó, uso bicicleta, transporte público o auto propio? Supongamos que la respuesta fue auto propio, debemos de preguntarnos por qué la respuesta fue esa, muy probablemente haya comparado el tiempo que le tomaría cada una de las opciones, fue así que en base a su experiencia determinó que el menor tiempo promedio lo obtiene movilizándose en su auto propio. A continuación la interrogante es que camino ha de seguir, dado que cuenta con múltiples opciones sin embargo según su experiencia sabe que en promedio en tiempo que demora en ciertas vías en mayor por lo que luego de comparar optó por un camino.
Así como usted comparó tiempos promedio de las rutas A, B y C; las compañías comparan constantemente para la toma de decisiones; comparan los tiempos promedio de atención, comparan el costo promedio del lote de piezas fabricadas, el promedio de unidades fabricadas, el número promedio créditos colocados y así podríamos continuar. Como vemos la comparación de promedios es esencial y al ser así es relevante realizar correctamente esta tarea. En ese sentido, detallaremos en las siguientes líneas las bondades de la prueba de comparación de medias usando la prueba t. El presente ensayo busca demostrar que la prueba t es una de las técnicas más recomendables para la comparación de medias de dos muestras.
Primeramente, la prueba t de comparación de medias es muy versátil, no solo permite comparar si las medias de dos poblaciones son diferentes una de otra sino que además evaluar estadísticamente si existe una diferencia puntual planteada a priori. Por ejemplo, si se sospecha que el tiempo promedio de atención de dos call centers es diferente pero además que el Call Center A atiende las llamadas en dos minutos menos el Call Center B, entonces bastará con modificar la hipótesis planteada y nula trayendo al primer factor de la igualdad la diferencia de medias según se convenga y en el segundo factor reemplazar el cero por el valor dos. Adicionalmente se puede hacer una modificación en las hipótesis modificando la igualdad por una desigualdad y así probar la diferencia de las medias es mayor o menor a una diferencia propuesta. En ese sentido, la prueba t nos permite en la práctica saber si estadísticamente una dieta en evaluación recude mínimamente 5 kilos en un mes, permitirá saber si el tiempo que demora una entrega por carretera es el mismo que por vía marítima, las posibilidades son infinitas.
No es usual que usa prueba estadística tenga esa versatilidad, por ejemplo sería inaudito pensar que alguien quiera probar si un conjunto de datos se ajusta a una distribución Chi-cuadrado empleando la prueba de Kruskal-Wallis o Anderson-Darling, que están especializadas en probar si un conjunto de datos se ajusta a la distribución normal (Guillen, Cerna, Valenzuela y Landeros 2012). Ilustremos lo dicho con la prueba de comparación de Mann-Whitney, equivalente no paramétrico de la prueba t de Student, que permite probar la hipótesis alterna empleando las desigualdades a fin de probar si una media es mayor o menor mas no permite probar si la diferencia de dichas medias es una cantidad pre supuesta con anticipación. En esto radica la versatilidad de la prueba t.
El teorema del límite central según Montgomery (2004) si y1,y2,…,yn es la sucesión de n variables aleatorias independientes que tienen una distribución idéntica con E(yi)=μ y V(yi)=σ2 (ambas finitas) y x= y1+y2+…+yn entonces zn=x-nμ/√(nσ2) tiene una distribución N(0,1) aproximada en el sentido de que, si Fn(z) es la función de distribución de zn y ϕ(z) es la función de la distribución de la variable aleatoria N(0,1), entonces limn→∞[Fn(z)/ϕ(z)]=1.
Este resultado establece en esencia que la suma de n variables aleatorias independientes que tienen una distribución idéntica sigue una distribución aproximadamente normal. En muchos casos esta aproximación es adecuada para valores muy pequeños de n, digamos n<10, mientras que en otros casos necesitamos un valor grande de n, digamos n>100. Frecuentemente se considera que el error de un experimento surge de una manera aditiva de varias fuentes independientes; por consiguiente, la distribución normal se convierte en un modelo recomendable para el error experimental combinado.
Lo mencionado resulta relevante pues nos lleva a mencionar la tendencia de la distribución t a la distribución normal estándar o Z, gracias al teorema del límite central pues como demuestra Montgomery estadísticamente la distribución t se confunde con la distribución normal estándar. De hecho mientras más de hecho mientras más grande el tamaño de muestra mejor será la próxima aproximación a la distribución normal estándar. Por extensión si a una variable con distribución normal XA le restamos una variable con distribución normal XB la variable resultante de la diferencia d tendrá distribución normal como indican Juan, Sedano, Vila y López (2003); así d= XA- XB ~ N(μA-μB , σd) lo que permite la aplicación de otras técnicas estadísticas basadas en esta distribución, por ejemplo obtener un intervalo de confianza. Montgomery (2004), comenta que <> (p. 40).
...