TEORÍA DEL ERROR .
Enviado por VDKR • 30 de Enero de 2017 • Apuntes • 715 Palabras (3 Páginas) • 266 Visitas
TEORÍA DEL ERROR
Un error es la duda en el resultado de una medida o calculo. El error es la diferencia entre el valor real y el absoluto.
Existen diversos tipos de errores los cuales se expresan de forma absoluta y/o real.
Tipos de errores.
Error de redondeo: Este es el resultado de los cálculos que algunos métodos numéricos necesitan al no poder utilizar todas las cifras de los números obtenidos de operaciones aritméticas teniendo que restringir en cada operación el número de cifras que permita el instrumento a utilizar.
Error por truncamiento: Hay diversos procesos que necesitan un número infinito de instrucciones para encontrar la solución exacta de cualquier problema. Ya que esto es completamente imposible realizar infinitas instrucciones, es necesario truncar el proceso. Por lo tanto no se encontrara una solución exacta, pero si una aproximación. A este error producido por el proceso incompleto se le conoce como error por truncamiento.
Error numérico total: Es conocido por la suma de los errores de redondeo y truncamientos en el cálculo. El error de redondeo aumentara realizando más cálculos para obtener un resultado. Por otro lado, al incluir más términos a la ecuación el truncamiento se minimizara.
Errores humanos: Son producidos por la equivocación. Las computadoras pueden tener errores por funcionamiento aunque hoy día son muy exactas por lo que su error es atribuido a los hombres. Con el conocimiento adecuado y su buena manipulación estos errores pueden evitarse.
Error inherente: En ocasiones los errores se generan por los datos iniciales por la manera en que estos se obtienen con medidas experimentales de una determinada magnitud física.
Error absoluto: Es la diferencia entre el valor exacto y su valor calculado o redondeado. Error absoluto = [exacto – calculado]. El error absoluto no es negativo.
Error relativo: Es el error absoluto dividido entre un numero positivo adecuado. Por lo general el divisor puede ser la magnitud del valor exacto, calculado o redondeado, o el promedio de estas dos cantidades. Por lo general se usa el valor exacto.
Conceptos
Cifra significativa.- lo podemos definir como aquella que aporta información no ambigua ni superflua acerca de una determinada medida experimental, son cifras significativas de un numero vienen determinadas por su error. Son cifras que ocupan una posición igual o superior al orden o posición de error.
Cuando se emplea un número en un cálculo, debe haber seguridad de que pueda usarse con confianza. El concepto de cifras significativas tiene dos implicaciones importantes en el estudio de los métodos numéricos.
1.- Los métodos numéricos obtienen resultados aproximados. Por lo tanto, se debe desarrollar criterios para especificar qué tan precisos son los resultados obtenidos.
2.- Aunque ciertos números representan número específicos, no se pueden expresar exactamente con un número finito de cifras.
...