HISTORIA DE LOS MÉTODOS NUMÉRICOS
Enviado por JaqueTC • 20 de Octubre de 2021 • Apuntes • 1.183 Palabras (5 Páginas) • 120 Visitas
HISTORIA DE LOS MÉTODOS NUMÉRICOS
Los métodos numéricos son técnicas mediante las cuales es posible formular problemas matemáticos de tal forma que puedan resolverse usando operaciones aritméticas. Antes de la computadora, los ingenieros solo contaban con 3 métodos para la solución de los problemas:
1. Métodos Analíticos: se limitan a problemas de modelos lineales y procesos largos.
2. Procedimientos Gráficos: los resultados no son muy precisos.
3. Calculadoras y reglas de cálculo: presentan aproximaciones y su procedimiento es lento y tedioso.
Con el alto costo de las computadoras, a los ingenieros se les limitaba su uso para la solución de problemas. En la actualidad, con los avances de éstas, se aumentó el desarrollo de los métodos numéricos y casi todo ingeniero cuenta con una.
Razones de aplicación de los métodos numéricos
Los métodos numéricos, junto con las computadoras, brindan una solución más aproximada y con un menor error que otros métodos (analítico, grafico, calculadoras y reglas de cálculos).
Los métodos numéricos pueden ser definidos como la matemática numérica, en donde a través de un modelo matemático se resuelve un problema en la práctica de ingeniería.
Un modelo matemático puede ser definido como una formulación o una ecuación que expresa las características esenciales de un sistema físico o un proceso en términos matemáticos.
CONCEPTOS
Cifras significativas: se trata del número de dígitos que ofrecen con más certeza un estimado. Los métodos numéricos dan resultados aproximados, por lo tanto, se deben desarrollar criterios para especificar qué tan confiables son los resultados.
Exactitud: se refiere a que tan cercano está el valor calculado o medido del valor de referencia, o real.
Sesgo (inexactitud): se define como una desviación sistemática del valor verdadero. Su ocurrencia puede ser neutralizada, controlada o minimizada, sin embargo, en ocasiones es imposible controlarlo, por lo que se debe tener en consideración.
Precisión: se refiere a que tan cercanos se encuentran entre sí los diversos valores calculados o medidos.
Incertidumbre (imprecisión): se refiere a la magnitud de dispersión de los datos. Puede ocasionarse por falta de información o errores cuantificables en los datos.
Aproximación: es la representación inexacta de algo, que es lo suficientemente cercana para resultar de utilidad.
Errores: puede ser una acción, concepto o cosa realizada de manera equivocada o desacertada.
Errores humanos: son errores por negligencia o equivocación. Los tipos de estos errores son de Lectura, Transmisión, Transcripción y Programación.
Serie de Taylor: es una ecuación en la cual se puede encontrar la solución de una función lo suficientemente aproximada al valor real; mientras más operaciones tenga la serie, más exacto será el resultado.
Algoritmos: se trata de una serie de operaciones organizadas lógica y ordenadamente que, por medio de una sucesión de pasos, permiten solucionar un determinado problema.
ERRORES
Los errores se definen como la diferencia entre el valor real y una aproximación de dicho valor: E = Vr - Va
Vr: Valor real Va: Valor aproximado
Existen diferentes tipos de errores:
Error Absoluto: Es una diferencia entre el valor exacto y su valor calculado o redondeado (exacto - calculado) cuyo resultado no puede ser negativo. Cuando hay una colección o suma de errores estos incrementan juntos sin reducirse puesto que el redondeo y otros errores rara vez están en la misma dirección y es posible que una suma de errores pueda dar 0. Por defecto es correcto decir que los errores, en especial el redondeo, están estadísticamente distribuidos.
Error Relativo: Es el error absoluto dividido entre un número positivo adecuado. El divisor puede ser: la magnitud del número exacto, la magnitud del número del valor calculado o el promedio de estos dos números. (exacto - calculado) / (exacto)
Error Porcentual: Es un error numérico expresado por el valor que arroja un error relativo posteriormente multiplicado por 100.
ERP = ER * 100
Errores de redondeo: Son debido a la imposibilidad de tomar todas las cifras que resultan de operaciones aritmética. Se produce cuando se usan números que tienen un límite de cifras significativas para representar números exactos. Existen dos tipos de errores de redondeo:
...