Teoria De Errores
Enviado por edgar_avatar • 1 de Febrero de 2012 • 1.037 Palabras (5 Páginas) • 773 Visitas
Teoría de errores
--
Un error es una incertidumbre en el resultado de una medida. Se define como la diferencia entre el valor real Vr y una aproximación a este valor Va:
e = Vr – Va
Existen diferentes tipos errores, cada uno se puede expresar en forma absoluta o en forma relativa.
Tipos de errores
Error de redondeo:
Se originan al realizar los cálculos que todo método numérico o analítico requieren y son debidos a la imposibilidad de tomar todas las cifras que resultan de operaciones aritméticas como los productos y los cocientes, teniendo que retener en cada operación el número de cifras que permita el instrumento de cálculo que se este utilizando.
Existen dos tipos de errores de redondeo:
* Error de redondeo inferior: se desprecian los dígitos que no se pueden conservar dentro de la memoria correspondiente.
* Error de redondeo superior: este caso tiene dos alternativas según el signo del número en particular:
para números positivos, el último dígito que se puede conservar en la localización de memoria incrementa en una unidad si el primer dígito despreciado es mayor o igual a 5.
para números negativos, el último dígito que se puede conservar en la localización de la memoria se reduce en una unidad si el primer dígito despreciado es mayor o igual a 5.
Error por truncamiento:
Existen muchos procesos que requieren la ejecución de un numero infinito de instrucciones para hallar la solución exacta de un determinado problema. Puesto que es totalmente imposible realizar infinitas instrucciones, el proceso debe truncarse. En consecuencia, no se halla la solución exacta que se pretendía encontrar, sino una aproximación a la misma. Al error producido por la finalización prematura de un proceso se le denomina error de truncamiento. Un ejemplo del error generado por este tipo de acciones es el desarrollo en serie de Taylo r. Este es independiente de la manera de realizar los cálculos. Solo depende del método numérico empleado.
Error numérico total:
Se entiende como la suma de los errores de redondeo y truncamiento introducidos en el cálculo. Mientras más cálculos se tengan que realiza para obtener un resultado, el error de redondeo se irá incrementando.
Pero por otro lado, el error de truncamiento se puede minimizar al incluir más términos en la ecuación, disminuir el paso o proseguir la iteración (o sea mayor número de cálculos y seguramente mayor error de redondeo).
Errores humanos:
Son los errores por negligencia o equivocación. Las computadoras pueden dar números erróneos po r su funcionamiento. Actualmente las computadoras son muy exactas y el error es atribuido a los hombres. Se pueden evitar con un buen conocimiento de los principios fundamentales y con la posesión de métodos y el diseño de la solución del problema. Los errores humanos por negligencia son prácticamente inevitables pero se pueden minimizar.
Error inherente:
En muchas ocasiones, los datos con que se inician los cálculos contienen un cierto error debido a que se han obtenido mediante la medida experimental de una determinada magnitud física. Así por ejemplo, el diámetro de la sección de una varilla de acero presentará un error según se haya medido con una cinta métrica o con un pie de rey. A este tipo de error se le denomina error inherente.
Error absoluto:
Es la diferencia
...