Teoría De Errores
Enviado por tumejormaestro • 5 de Junio de 2015 • 6.425 Palabras (26 Páginas) • 188 Visitas
1 1– Introducción
Una magnitud física es un atributo de un cuerpo, un fenómeno o una sustancia, que
puede determinarse cuantitativamente, es decir, es un atributo susceptible de ser medido.
Ejemplos de magnitudes son la longitud, la masa, la potencia, la velocidad, etc. A la magnitud
de un objeto específico que estamos interesado en medir, la llamamos mesurando. Por
ejemplo, si estamos interesado en medir la longitud de una barra, esa longitud específica será
el mesurando
Para establecer el valor de un mesurando tenemos que usar instrumentos de medición
y un método de medición. Asimismo es necesario definir unidades de medición. Por
ejemplo, si deseamos medir el largo de una mesa, el instrumento de medición será una regla.
Si hemos elegido el Sistema Internacional de Unidades (SI), la unidad será el metro y la regla
a usar deberá estar calibrada en esa unidad (o submúltiplos). El método de medición consistirá
en determinar cuantas veces la regla y fracciones de ella entran en la longitud buscada.
En ciencias e ingeniería, el concepto de error tiene un significado diferente del uso habitual
de este término. Coloquialmente, es usual el empleo del término error como análogo o equivalente
a equivocación. En ciencia e ingeniería, el error, como veremos en lo que sigue, está más
bien asociado al concepto de incerteza en la determinación del resultado de una medición.
Más precisamente, lo que procuramos en toda medición es conocer las cotas (o límites probabilísticos)
de estas incertezas. Gráficamente, buscamos establecer un intervalo
x x x x x como el de la Figura 1.1, donde con cierta probabilidad, podamos decir
que se encuentra el mejor valor de la magnitud x. Este mejor valor x es el más representativo
de nuestra medición y al semiancho x lo denominamo la incerteza o error absoluto de la
medición.
Teoría de errores -
Incertezas de medición
En todo proceso de medición existen limitaciones dadas por los instrumentos usados, el
método de medición, el observador (u observadores) que realizan la medición. Asimismo, el
mismo proceso de medición introduce errores o incertezas. Por ejemplo, cuando usamos un
termómetro para medir una temperatura, parte del calor del objeto fluye al termómetro (o
viceversa), de modo que el resultado de la medición es un valor modificado del original debido
a la inevitable interacción que debimos realizar. Es claro que esta interacción podrá o no
ser significativa: Si estamos midiendo la temperatura de un metro cúbico de agua, la cantidad
de calor transferida al termómetro puede no ser significativa, pero si lo será si el volumen en
cuestión es de una pequeña fracción del mililitro.
Tanto los instrumentos que usamos para medir como las magnitudes mismas son fuente de
incertezas al momento de medir. Los instrumentos tienen una precisión finita, por lo que, para
un dado instrumento, siempre existe una variación mínima de la magnitud que puede detectar.
Esta mínima cantidad se denomina la apreciación nominal del instrumento. Por ejemplo, con
una regla graduada en milímetros, no podemos detectar variaciones menores que una fracción
del milímetro.
A su vez, las magnitudes a medir no están definidas con infinita precisión. Imaginemos que
queremos medir el largo de una mesa. Es posible que al usar instrumentos cada vez más precisos
empecemos a notar las irregularidades típicas del corte de los bordes o, al ir aun más allá,
finalmente detectemos la naturaleza atómica o molecular del material que la constituye. Es
claro que en ese punto la longitud dejará de estar bien definida. En la práctica, es posible que
mucho antes de estos casos límites, la falta de paralelismo en sus bordes haga que el concepto
de la “longitud de la mesa” comience a hacerse cada vez menos definido, y a esta limitación
intrínseca la denominamos denomina incerteza intrínseca o falta de definición de la magnitud
en cuestión.
Otro ejemplo sería el caso en que se cuenta la cantidad de partículas alfa emitidas por una
fuente radioactiva en 5 segundos. Sucesivas mediciones arrojarán diversos resultados (similares,
pero en general distintos). En este caso, de nuevo, estamos frente a una manifestación de
una incerteza intrínseca asociada a esta magnitud “número de partículas emitidas en 5 s”, más
que al error de los instrumentos o del observador.
x
x x x x x
Física re-Creativa – S. Gil y E. Rodríguez 3
1.2 – Algunos conceptos básicos
Otra fuente de error que se origina en los instrumentos además de la precisión es la
exactitud de los mismos. Como vimos, la precisión de un instrumento o un método de medición
está asociada a la sensibilidad o menor variación de la magnitud que se pueda detectar
con dicho instrumento o método. Así, decimos que un tornillo micrométrico (con una apreciación
nominal de 10 m) es más preciso que una regla graduada en milímetros; o que un cronómetro
es más preciso que un reloj común, etc.
La exactitud de un instrumento o método de medición está asociada a la calidad de la
calibración del mismo. Imaginemos que el cronómetro que usamos es capaz de determinar la
centésima de segundo pero adelanta dos minutos por hora, mientras que un reloj de pulsera
común no lo hace. En este caso decimos que el cronómetro es todavía más preciso que el
reloj común, pero menos exacto. La exactitud es una medida de la calidad de la calibración
de nuestro instrumento respecto de patrones de medida aceptados internacionalmente. En
general los instrumentos vienen calibrados, pero dentro de ciertos limites. Es deseable que la
calibración de un instrumento sea tan buena como la apreciación del mismo. La Figura 1.2
ilustra de modo esquemático estos dos conceptos.
Figura 1.2. Esta figura ilustra de modo esquemático los conceptos de precisión y
exactitud. Los centros de los círculos indican la posición del “verdadero valor” del mesurando
y las cruces los valores de varias determinaciones del centro. La dispersión de
los puntos da una idea de la precisión, mientras que su centro efectivo (centroide) está
asociado a la exactitud. a) es una determinación precisa pero inexacta, mientras d) es
más exacta pero imprecisa;
...