CALCULO NUMERICO Y SUS CONCEPTOS BASICOS
Enviado por Raymond Fagundez • 4 de Agosto de 2020 • Tarea • 1.630 Palabras (7 Páginas) • 379 Visitas
Republica Bolivariana de venezuela[pic 1]
Ministerio del Poder Popular para la Defensa
Universidad Nacional Experimental Politécnica de la
Fuerza Armada Nacional Bolivariana
UNEFA-núcleo Vargas
Ingeniería Mecánica Calculo Numérico
CALCULO NUMERICO Y SUS CONCEPTOS BASICOS
INTEGRANTES:
Velásquez Padilla, Estefanía Isabel
Profesor:
María Blequett
Catia la mar 31/03/2020
INDICE
Introducción………………………………………………………………… 3
1. Defina Cálculo Numérico………………………………………………. 4
2. Definición de conceptos………………………………………………... 4
2.1. Precisión………………………………………………………………. 4
2.2. Imprecisión……………………………………………………………. 5
2.3. Exactitud………………………………………………………………. 5
2.4. Interacciones…………………………………………………………. 5
2.5. Inexactitud……………………………………………………………. 5
3. Según su naturaleza como se puede clasificar los métodos……… 6
numéricos?
4. ¿Qué es método numérico?............................................................ 6
5. ¿Qué es un algoritmo matemático?................................................ 7
6. ¿Qué es un error en métodos numéricos?..................................... 7
Conclusión………………………………………………………………… 8
Referencias Bibliográficas………………………………………………. 9
INTRODUCCION
La mayoría de los problemas a los que se enfrenta el ingeniero son de naturaleza continua. En la búsqueda de su solución no es fácil disponer de métodos analíticos o exactos, que permitan el análisis, validación y verificación de los modelos, tanto matemáticos como computacionales, que los representan. Además, casi todos estos modelos involucran temas como derivación, integración, sistemas de ecuaciones no lineales, sistemas de ecuaciones diferenciales, etc, cuya solución implica la utilización de procesos iterativos que generalmente no se pueden resolver en un número finito de pasos.
Los métodos numéricos son una opción importante que ayuda a enfrentar y resolver los problemas del mundo real. Estos métodos son técnicas que permiten resolver problemas utilizando simples operaciones aritméticas (+, -, * y /) por medio de su principal herramienta: el computador digital. Se caracterizan por la cantidad de cálculos repetitivos que deben realizarse para finalmente converger a una solución lo suficientemente aproximada "o cercana" del problema; por esta razón, es fundamental conocer las ventajas y limitaciones, de los diferentes métodos, en relación a temas como error, exactitud, precisión, estabilidad, a fin de utilizar el método más apropiado en cada situación particular.
1. Defina Cálculo Numérico.
El Cálculo Numérico es conocido como Análisis Numérico, y la definen como una de las ramas de las matemáticas que se encarga de analizar los métodos numéricos de resolución de problemas; que es el proceso de operación de un problema con el fin de obtener un resultado teniendo presente realizar un número finito de operaciones lógicas y algebraicas elementales previos.
El desarrollo del Análisis numérico siempre ha estado de la mano a la rápida evolución que los mismos ordenadores han ido experimentando desde su primera participación. Así mismo, se debe tener presente que los ordenadores son herramientas imprescindibles para la elaboración de diversos métodos de análisis numéricos, debido a que proponer de manera rápida algoritmos y cálculos con unas simples programaciones y datos generados. Es por ello que a continuación se plasmaran de manera simple y entendible algunos de los conceptos básicos que componen el cálculo numérico.
2. Definir los conceptos:
2.1. Precisión:
Es la dispersión de un conjunto de valores obtenidos de las mediciones repetitivas de una magnitud. Cuanto menor sea la dispersión, mayor será la precisión. Una medida normal de la variabilidad es la famosa desviación estándar de las mediciones anteriormente halladas y la precisión se puede calcular como una función de estas. Es por ello que se debe resaltar que la automatización de diferentes pruebas puede lograr generar un aumento de precisión. Esto es debido a que, con la automatización, se produce una disminución de los errores manuales o su corrección inmediata. No se debe confundir nunca la resolución con la precisión.
2.2. Imprecisión
La imprecisión es una falta de aceptación o exactitud, por lo que normalmente llegan a hacer una medida, donde el valor va siempre acompañado de una mayor o menor incertidumbre o error a causa de los instrumentos de la medida, más o menos perfectos. Así como de la propia definición de la magnitud que se mide. En consiguiente, las medidas que se lleguen a usar tienen siempre una precisión limitada. Por lo que, para que la medida llegue a ser la correcta se ha de procurar que la precisión del aparato sea del mismo orden que la precisión de definición de la magnitud. Lo que nos llega a decir que no se puede lograr obtener un resultado con mayor precisión que la de los datos empleados en el cálculo.
...