Tipos De Errores En Metodos Numericos
Enviado por ManuelCH • 12 de Octubre de 2014 • 1.316 Palabras (6 Páginas) • 541 Visitas
DEFINICIÓN DE ERRORES.
Los errores numéricos se generan con el uso de aproximaciones para representar las operaciones y cantidades matemáticas.
Esto ocurre cuando tienes pocas interacciones, al tener muchos el error baja, debido a que los métodos numéricos no son exactos sino simples a aproximaciones a un valor numérico, para que fueran exactos necesitarías un numero de iteraciones infinitas lo cual no es posible, además de cuál es el método que vas a utilizar. Cada uno tiene su nivel de error, y sirve para diferentes cosas
Esto incluye errores de truncamiento que resultan de representar aproximadamente un procedimiento matemático exacto, y los errores de redondeo, que resultan de presentar aproximadamente números exactos.
Para los tipos de errores, la relación entre el resultado exacto o verdadero y el aproximado está dado por:
Valor verdadero = valor aproximado + error.
Se encuentra que el error numérico es igual a la diferencia entre el valor verdadero y el valor aproximado esto es:
Ev = valor verdadero - valor aproximado
Donde Ev se usa para redondear el valor exacto del error. Se incluye el subíndice v para dar a entender que se trata del "verdadero" error.
Un defecto es que muchas veces no se toma en consideración el orden de magnitud del valor que se está probando. Por ejemplo, un error de un centímetro es mucho más significativo si se está midiendo un remache que un puente. Una manera de medir las magnitudes de las cantidades que se están evaluando es normalizar el error respecto al valor verdadero, como en:
Error relativo fraccional = error / valor verdadero
Donde:
Error = valor verdadero - valor aproximado.
El error relativo también se puede multiplicar por el 100% para expresarlo como Ev = (error verdadero/ valor verdadero) 100; Donde Ev denota el error relativo porcentual. El subíndice v significa la normalización del error al valor verdadero.
Para los métodos numéricos el valor verdadero únicamente se conocerá cuando se habla de funciones que se pueden resolver analíticamente. Sin embargo, en aplicaciones reales, no se conoce la respuesta verdadera. En estos casos, normalizar el error es una alternativa usando la mejor estimación posible del valor verdadero, esto es a la aproximación misma, como:
Ea = (error aproximado/ valor aproximado) 100
Donde el subíndice a significa que el error está normalizado a un valor aproximado. Uno de los retos a que se enfrentas los métodos numéricos es el de determinar estimaciones del error en ausencia de conocimiento de los valores verdaderos. El error se calcula como la diferencia entre la aproximación previa y la actual. Por lo tanto, el error relativo porcentual está dado por:
Ea =abs( ((aproximación actual- aproximación previa)/ aproximación actual) 100)
Si se cumple la relación anterior, entonces se considera que el resultado obtenido está dentro del nivel aceptable, es decir, aun error previamente fijado(Es):Abs(Ea) < >
Precisión
es la cantidad de cifras que se utilizan para representar un número. Por ejemplo:
3.141592 Tiene una precisión de 7 dígitos (6 dígitos decimales)
3.141592654 Tiene una precisión de 10 dígitos (9 dígitos decimales)
3.1415 Tiene una precisión de 5 dígitos (4 dígitos decimales)
También se habla de la precisión de un aparato para indicar el número máximo de cifras que puede manejar, por ejemplo, existen calculadoras con una precisión de 9 dígitos, otras de 10 dígitos, etc.
Exactitud
Es una medida de que tanto se acerca un resultado a la solución, por ejemplo, si una de las raíces de una ecuación es 2.55, el resultado 2.479 es más exacto que el resultado 2.7. Sin embargo 2.479 es menos exacto que 2.6.
Error Absoluto:
Es la diferencia entre el valor de la medida y el valor tomado como
...