El proceso de medición
Enviado por oldpunk • 11 de Septiembre de 2012 • Informe • 864 Palabras (4 Páginas) • 603 Visitas
medida
La medición es un proceso básico de la ciencia que consiste en comparar un patrón seleccionado con el objeto o fenómeno cuya magnitud física se desea medir para ver cuántas veces el patrón está contenido en esa magnitud.
Es determinar la dimensión de la magnitud de una variable en relación con una unidad de medida preestablecida y convencional.
Se conocen algunos sistemas convencionales para establecer las unidades de medida: El Sistema Internacional y el Sistema Inglés.
Definición 2
Es comparar la cantidad desconocida que queremos determinar y una cantidad conocida de la misma magnitud, que elegimos como unidad. Teniendo como punto de referencia dos cosas: un objeto (lo que se quiere medir) y una unidad de medida ya establecida ya sea en Sistema Inglés, Sistema Internacional, o una unidad arbitraria.
Al resultado de medir lo llamamos Medida.
Cuando medimos algo se debe hacer con gran cuidado, para evitar alterar el sistema que observamos. Por otro lado, no hemos de perder de vista que las medidas se realizan con algún tipo de error, debido a imperfecciones del instrumental o a limitaciones del medidor, errores experimentales, por eso, se ha de realizar la medida de forma que la alteración producida sea mucho menor que el error experimental que pueda cometerse.
Precisión
En ingeniería, ciencia, industria y estadística, se denomina precisión a la capacidad de un instrumento de dar el mismo resultado en mediciones diferentes realizadas en las mismas condiciones. Esta cualidad debe evaluarse a corto plazo. No debe confundirse con exactitud ni con reproducibilidad.
La precisión refleja la proximidad de distintas medidas entre si, y es función exclusiva de los errores accidentales.1
Es un parámetro relevante, especialmente en la investigación de fenómenos físicos, ámbito en el cual los resultados se expresan como un número más una indicación del error máximo estimado para la magnitud. Es decir, se indica una zona dentro de la cual está comprendido el verdadero valor de la magnitud.2
En informática, se denomina asi mismo es precisión al número de bits usados para representar un valor. En general, en un sistema computacional la precisión está dada por el valor del dígito menos significativo de una palabra digital que representa un número con una escala y en un tipo de dato definido. Visto desde otra perspectiva, equivale a la diferencia entre dos valores sucesivos representables en el tipo de dato y escala del número.
Del latín praecisĭo, la precisión es la necesidad y obligación de exactitud y concisión a la hora de ejecutar algo. Para la ingeniería y la estadística, sin embargo, precisión y exactitud no son conceptos sinónimos.
La precisión, en este sentido, es la dispersión del conjunto de valores que se obtiene a partir de las mediciones repetidas de una magnitud: a menor dispersión,
...