Vocabulario Internacional de Metrología
Enviado por yashiroo • 16 de Noviembre de 2011 • 617 Palabras (3 Páginas) • 564 Visitas
La medida de cualquier magnitud posee naturaleza aleatoria al existir siempre una variabilidad inevitable que confiere dicho carácter a las indicaciones del instrumento cuando se realizan sucesivas mediciones del mensurando, siempre en las mismas condiciones de referencia. El orden de significación de la variabilidad, para un determinado nivel de control de las magnitudes de influencia, depende esencialmente del grado de definición del mensurando y de la sensibilidad del instrumento de medida empleado. Puesto que el resultado de medir un mensurando es una variable aleatoria, el mensurando debe caracterizarse en la forma habitual empleada con las variables aleatorias, utilizando un parámetro de centrado y otro de dispersión. Ese parámetro de dispersión como veremos más adelante será la precisión.
A veces no es posible efectuar las medidas con las magnitudes de influencia controladas en el entorno de los valores de referencia. En este caso hay que aplicar correcciones a los valores indicados o brutos para que el resultado de la medición corresponda al que se habría obtenido si se hubiese trabajado con aquellas magnitudes en sus valores de referencia. La introducción de correcciones incrementa la complejidad de las medidas pues no siempre se conoce la relación funcional que existe entre el resultado de la medida y los valores de las magnitudes de influencia. Además de las correcciones indicadas, la exigencia de la trazabilidad impone la utilización de instrumentos calibrados lo que determina la incorporación de las correcciones de calibración. La calibración del instrumento se efectúa midiendo patrones de referencia al objeto de comprobar si las indicaciones de la escala se ajustan a los valores de las correspondientes unidades del SI.
De todos los razonamientos anteriores se observa que no es posible obtener valores exactos como resultado de las medidas. La única forma de conseguirlo sería la de introducir exactamente todas las correcciones necesarias en el tiempo y en el espacio, lo cual no es posible debido a la imperfección de los medios y del conocimiento, y por otro lado los medios necesarios para obtener una medida exacta no se justificarían desde el punto de vista práctico de la metrología industrial. De ahí que se origine un bucle al admitir que toda medida debe ser corregida (al menos con la corrección de calibración del instrumento de medida), lo que obliga a medir nuevas magnitudes que, a su vez, habrán de ser corregidas hasta alcanzar los niveles metrológicos más elevados, no puede agotarse en la práctica y debe cortarse en algún punto, lo que supone dejar sin corregir algo que debiera haberse corregido, es decir, una corrección residual.
La correción residual es desconocida pero existe la posiblidad de acotarla. De ahí una primera definición de incertidumbre:
La incertidumbre de la medida es una cota superior del valor
...