PRUEBAS ESTADISTICAS Ensayos gratis y Trabajos

Las Pruebas Estadísticas

LAS PRUEBAS ESTADÍSTICAS Cuando se analizan datos medidos por una variable cuantitativa continua, las pruebas estadísticas de estimación y contraste frecuentemente empleadas se basan en suponer que se ha obtenido una muestra aleatoria de una distrib ...

Palabras: 1174Páginas: 5Leer Ensayo

LAS PRUEBAS ESTADÍSTICAS

LAS PRUEBAS ESTADÍSTICAS Cuando se analizan datos medidos por una variable cuantitativa continua, las pruebas estadísticas de estimación y contraste frecuentemente empleadas se basan en suponer que se ha obtenido una muestra aleatoria de una distribución de probabilidad de tipo normal o de Gauss. Pero en muchas ocasiones esta suposición no resulta válida, y en otras la sospecha de que no sea adecuada no resulta fácil de comprobar, por tratarse de muestras pequeñas. En estos casos disponemos de dos posibles mecanismos: • Los datos se pueden transformar de tal manera que sigan una distribución normal. • O bien se puede acudir a pruebas estadísticas que no se basan en ninguna suposición en cuanto a la distribución de probabilidad a partir de la que fueron obtenidos los datos, y por ello se denominan pruebas no paramétricas (distribución free), mientras que las pruebas que suponen una distribución de probabilidad determinada para los datos se denominan pruebas paramétricas. 1) PRUEBAS NO PARAMÉTRICAS Las pruebas estadísticas no paramétricas son las que, a pesar de basarse en determinadas suposiciones, no parten de la base de que los datos analizados adoptan una distribución normal. Es decir, es una técnica estadística que no presupone ninguna distribución de probabilidad teórica de la distribución de nuestros datos. Se denominan pruebas no paramétricas aquellas que no presuponen una distribución de probabilidad para los datos, por ello se conocen también como de distribución libre (free distribution). En la mayor parte de ellas los resultados estadísticos se derivan únicamente a partir de procedimientos de ordenación y recuento, por lo que su base lógica es de fácil comprensión. Cuando trabajamos con muestras pequeñas (n < 10) en las que se desconoce si es válido suponer la normalidad de los datos, conviene utilizar pruebas no paramétricas, al menos para corroborar los resultados obtenidos a partir de la utilización de la teoría basada en la normal. En estos casos se emplea como parámetro de centralización la mediana, que es aquel punto para el que el valor de X está el 50% de las veces por debajo y el 50% por encima. Las pruebas no paramétricas no requieren asumir normalidad de la población y en su mayoría se basan en el ordenamiento de los datos, la población tiene que ser continua. El parámetro que se usa para hacer las pruebas estadísticas es la Mediana y no la Media. En otras palabras, son técnicas estadísticas que no presuponen ningún modelo probabilístico teórico. Son menos potentes que las técnicas paramétricas, aunque tienen la ventaja que se pueden aplicar más fácilmente. 2) PRUEBAS PARAMÉTRICAS Las pruebas estadísticas paramétricas, como la de la “t” de Student o el análisis de la varianza (ANOVA), se basan en que se supone una forma determinada de la distribución de valores, generalmente la distribución normal, en la población de la que se obtiene la muestra experimental. En contraposición de la técnicas no paramétricas, las técnicas paramétricas si presuponen una distribución teórica de probabilidad subyacente para la distribución de los datos. Por lo tanto son más potentes que las no paramétricas. Dentro de las pruebas paramétricas, las más habituales se basan en la distribución de probabilidad normal, y al estimar los parámetros del modelo se supone que los datos constituyen una muestra aleatoria de esa distribución, por lo que la elección del estimador y el cálculo de la precisión de la estimación, elementos básicos para construir intervalos de confianza y contrastar hipótesis, dependen del modelo probabilístico supuesto. Cuando un procedimiento estadístico es poco sensible a alteraciones en el modelo probabilístico supuesto, es decir que los resultados obtenidos son aproximadamente válidos cuando éste varía, se dice que es un procedimiento robusto. 3) ANÁLISIS DE LA VARIANZA (ANOVA) ANOVA son siglas para el análisis de la Variación (ANalysis Of VAriance). Es un conjunto de técnicas estadísticas para conocer el modo en que el valor medio de una variable es afectado por diferentes tipos de clasificaciones de los datos. Un ANOVA segrega diversas fuentes de la variación vistas en resultados experimentales. Con el análisis de la varianza se pueden ajustar las estimaciones del efecto de un tratamiento según otros factores como sexo, edad, gravedad, etc. Dicho de otro modo, es una técnica estadística que sirve para decidir o determinar si las diferencias que existen entre las medias de tres o más grupos (niveles de clasificación) son estadísticamente significativas. Las técnicas de ANOVA se basan en la partición de la varianza para establecer si la varianza explicada por los grupos formados es suficientemente mayor que la varianza residual o no explicada. El análisis de la varianza (ANOVA) es una técnica estadística de contraste de hipótesis. Tradicionalmente estas técnicas, conjuntamente con las técnicas de regresión lineal múltiple, de las que prácticamente son una extensión natural, marcan el comienzo de las técnicas multivariantes. Con estas técnicas se manejan simultáneamente más de dos variables, y la complejidad del aparato matemático se incrementa proporcionalmente con el número de variables en juego. El análisis de la varianza de un factor es el modelo más simple: una única variable nominal independiente, con tres o más niveles, explica una variable dependiente continua. Otra alternativa, que aparentemente es más lógica e intuitiva, consiste en comparar, en todas las posibles combinaciones de dos en dos, las medias de todos los subgrupos formados. En el ANOVA se comparan medias, no varianzas: medias de los subgrupos o estratos originados por los factores de clasificación estudiados. Un ANOVA entonces prueba si la variación asociada a una fuente explicada es grande concerniente a la variación inexplicada. Si ese cociente (la estadística F de Fisher) es tan grande que la probabilidad que ocurrió por casualidad es baja (por ejemplo, P<=0.05), podemos concluir (en ese nivel de la probabilidad) que esa fuente de la variación tenía un efecto significativo. CONDICIONES GENERALES DE APLICACIÓN A- Independencia de los errores Los errores experimentales han de ser independientes Se consigue si los sujetos son asignados aleatoriamente. Es decir, se consigue esta condición si los elementos de los diversos grupos han sido elegidos por muestreo aleatorio B- Normalidad Se supone que los errores experimentales se distribuyen normalmente. Lo que supone que cada una de las puntuaciones yi.i se distribuirá normalmente. Para comprobarlo se puede aplicar un test de ajuste a la distribución normal como el de Kolmogov-Smirnov. C- Homogeneidad de varianzas (Homoscedasticidad) La varianza de los subgrupos ha de ser homogénea σ21 = σ22 = .....= σ2k ya que están debidas al error. Se comprobarán mediante los test de: Razón de varianzas (máx. /min), C de Cochran y el test de Barlett-Box. 4) ANÁLISIS DE LA COVARIANZA (ANCOVA) Método de análisis estadístico que es una extensión del análisis de la varianza, que permite ajustar los estimadores del efecto de un tratamiento según posibles covariables y factores. Es una técnica estadística que combina ANOVA (pues compara medias entre grupos) y análisis de regresión (ajusta las comparaciones de las medias entres los grupos por variables continuas o covariables) 5) ANÁLISIS DE REGRESIÓN En un conjunto de datos sobre la variable dependiente y sobre una o más variables independientes, x1, x2, x3,...., consiste en determinar el modelo matemático más ajustado que describa y como una función de las “x” o para predecir y a partir de las “x”. Los tipos más corrientes son el modelo lineal y el modelo logístico. ...

Palabras: 1174Páginas: 5Leer Ensayo

Pruebas Estadisticas

Pruebas estadísticas: Cuando se analizan datos medidos por una variable cuantitativa continua, las pruebas estadísticas de estimación y contraste frecuentemente empleadas se basan en suponer que se ha obtenido una muestra aleatoria de una distribución ...

Palabras: 913Páginas: 4Leer Ensayo

PRUEBAS ESTADÍSTICAS PARA MEDIR LA SIGNIFICANCIA DEL MODELO Y DE LOS PARÁMETROS

PRUEBAS ESTADÍSTICAS PARA MEDIR LA SIGNIFICANCIA DEL MODELO Y DE LOS PARÁMETROS • La prueba “t” de student es utilizada para medir la significancia estadística de los parámetros del modelo, es decir los betas. El estadístico “t” (t-stati ...

Palabras: 605Páginas: 3Leer Ensayo

Pruebas Estadisticas

Cuando se analizan datos medidos por una variable cuantitativa continua, las pruebas estadísticas de estimación y contraste frecuentemente empleadas se basan en suponer que se ha obtenido una muestra aleatoria de una distribución de probabilidad de tip ...

Palabras: 1205Páginas: 5Leer Ensayo

PRUEBAS ESTADISTICAS

ÍNDICE I. TEMA A TRATAR...MEN TEÓRICO IV. METODOLOGÍA DEL MUESTREO V. DESARROLLO EXPERIM...ESO EXPERIMENTAL c. DATOS OBTENIDOS VI. MANEJO ESTADÍSTICO DE DATOS ...IOS GENERAL...EMA A TRATAR Este proyecto está oriento a analizar los ch ...

Palabras: 1973Páginas: 8Leer Ensayo