La incertidumbre absoluta
Enviado por William Camilo Prieto Cadena • 27 de Octubre de 2015 • Informe • 389 Palabras (2 Páginas) • 1.685 Visitas
Incertidumbre absoluta: es una medida que depende de muchos factores tales como las características del objeto, las condiciones ambientales… en la gtc 51 se define la incertidumbre como parámetro asociado con el resultado de una medición que caracteriza la dispersión de los valores
En caso de una sola medida un criterio alternativo para establecer la incertidumbre es la tolerancia, que es un intervalo dentro del caul el fabricante garantiza 99.6 % la confianza del mismo, es un estimativo del error
Conocer la incertidumbre es importante para saber hasta dónde se puede confiar en una medida, se debe determinar siempre estadísticamente
Incertidumbre relativa: el coeficiente entre la incertidumbre absoluta y el valor medido, se da en porcentaje
Exactitud: Indica la situación del valor medido respecto al valor esperado
Error absoluto: diferencia de un valor con otro
Error relativo: Es la relación entre el error absoluto y el valor aceptado
Precisión: Es Una medida cuantiaba de la respetabilidad de una serie de medidas, informa sobre la concordancia
Errores en las medidas: se clasifican en
- Errores sistemáticos: tienen magnitud constante, presentan el mismo signo, se determinan probando métodos independientes se agrupan en errores instrumentales y de método
- Errores instrumentales: Se originan en imperfecciones de los instrumentos de medida
- Errores de método :el método utilizado para la actividad es inapropiado y complicado por lo general se relaciona impurezas en sustancias , reacciones secundarias etc.
- Errores personales :errores causados generalmente por falta de cuidado
- Errores aleatorios :pequeñas variaciones cuyas causas no se pueden predecir
Estadística: en química se utiliza la estadística para comunicar valores de gran confianza para esto se utilizan métodos como:
Histograma: Es una gráfica de barras donde la altura de las barras representa el número de veces que aparecen valores de la propiedad dentro de un rango seleccionado
Curva de gauss
Desviación estándar : La desviación estándar (DS/DE), también llamada desviación típica, es una medida de dispersión usada en estadística que nos dice cuánto tienden a alejarse los valores concretos del promedio en una distribución.
Coeficiente de variación: se obtiene de dividir la desviación estándar sobre el promedio y es expresdo como porcentaje
Cifras significativas : Es todo digito que se expresa en una medida y que tiene significado físico , dependen de los instrumentos de medida
...