Introduccion Alos Metodos Numericos
Enviado por winoO • 29 de Agosto de 2011 • 1.776 Palabras (8 Páginas) • 2.825 Visitas
Unidad 1: Introducción de los métodos numéricos
Los métodos numéricos son técnicas mediante las cuales es posible formular problemas matemáticos de tal forma que puedan resolverse usando operaciones aritméticas. Hay muchos tipos de métodos numéricos, y comparten una característica común: invariablemente se deben realizar un buen número de tediosos cálculos aritméticos.
Los métodos numéricos son herramientas muy poderosas para a solución de problemas. Pueden manejar sistemas de ecuaciones grandes, no linealidades y geometrías complicadas, comunes en la ingeniería. También es posible que se utilice software disponible comercialmente que contenga métodos numéricos. El uso inteligente de estos programas depende del conocimiento de la teoría básica de estos métodos; además hay muchos problemas que no pueden plantearse al emplear programas hechos, conociendo bien los métodos numéricos se puede diseñar programas propios y así no comprar software costoso. Al mismo tiempo se aprende a conocer y controlar los errores de aproximación que son inseparables de los cálculos numéricos a gran escala.
Los métodos numéricos son un medio para reforzar la comprensión de las matemáticas, porque profundizan en los temas que de otro modo resultarían obscuros, esto aumenta su capacidad de comprensión y entendimiento en la materia.
1.1 Importancia de los métodos numéricos
Los métodos numéricos son técnicas mediante las cuales es posible formular problemas matemáticos de tal forma que puedan resolverse usando operaciones aritméticas.
El análisis numérico trata de diseñar métodos para “ aproximar” de una manera eficiente las soluciones de problemas expresados matemáticamente.
El objetivo principal del análisis numérico es encontrar soluciones “aproximadas” a problemas complejos utilizando sólo las operaciones más simples de la aritmética. Se requiere de una secuencia de operaciones algebraicas y lógicas que producen la aproximación al problema matemático.
Los métodos numéricos pueden ser aplicados para resolver procedimientos matemáticos en:
• Cálculo de derivadas
• Integrales
• Ecuaciones diferenciales
• Operaciones con matrices
• Interpolaciones
• Ajuste de curvas
• Polinomios
Los métodos numéricos se aplican en áreas como:
Ingeniería Industrial, Ingeniería Química, Ingeniería Civil, Ingeniería Mecánica, Ingeniería eléctrica, etc...
1.2 Conceptos básicos: cifra significativa, precisión, exactitud, incertidumbre y sesgo.
Los valores o cifras significativas permiten determinar la confianza de un valor numérico, su importancia en los MN radica primero en que dado que éstos son técnicas iterativas, se puede establecer como criterio de parada el hecho de que una solución alcance determinado número de cifras significativas; y segundo, se utilizan para decidir la precisión de un método numérico. Por ejemplo, el número 2.820 x 10^3 posee cuatro dígitos significativos.
EXACTITUD Y PRECISIÓN.
La exactitud de una medición hace referencia a su cercanía al valor que pretende medir. La precisión está asociada al número de cifras decimales utilizadas para expresar lo medido. Un instrumento inexacto nos entrega resultados sesgados, “desplazados”; uno impreciso, resultados “ambiguos”, “difusos”. Así, por ejemplo, una pesa es exacta si nos entrega el peso correcto, sin agregarle ni quitarle. Asimismo, es más precisa en la medida que el aparato usado es capaz de detectar diferencias de peso más pequeñas. La exactitud y precisión exigibles a una medición, dependerán de los objetivos del estudio que la utiliza. La precisión de un resultado estadístico debe estar de acuerdo con la precisión de los datos originales y con las exigencias propias del proyecto que los usa. Es fácil cometer el error de responder usando más decimales que los contenidos en las mediciones iniciales, aumentando artificialmente la precisión por la propia capacidad de cálculo de los computadores.
Por otra parte, es de suma importancia cuidar que, durante el proceso de cálculo intermedio, no se pierda precisión innecesariamente. Es importante mantener el máximo posible de decimales, pues esto ayuda a controlar la aparición y propagación de errores numéricos que invaliden los resultados. Estos son errores de precisión y exactitud ajenos al proceso de medición inicial y son introducidos típicamente por los métodos numéricos usados y por la aritmética del computador que tiene una precisión finita para representar interiormente a los números. El último tema mencionado en el párrafo anterior, es un tema complejo que no se discutirá mayormente, pero es importante mencionarlo y mostrar un ejemplo ilustrativo para entender su alcance.
Exactitud y precisión
La precisión se refiere 1) al número de cifras significativas que representan una cantidad 2) la extensión en las lecturas repetidas de un instrumento que mide alguna propiedad física.
.Por ejemplo:
Cuando se hacen algunos disparos en un lugar de tiro al blanco la precisión se refiere a la magnitud del esparcimiento de las balas.
La exactitud se refiere a la aproximación de un numero o de una medida al valor verdadero que se supone representa.
La inexactitud (conocida como sesgo) se define como un alejamiento sistemático de la verdad.
Exactitud.- Indica qué tan cercano es un valor calculado respecto al valor verdadero.
Precisión.- Considerando que los métodos numéricos son técnicas iterativas, expresa qué tan cercana es una aproximación o una estimación a un valor, respecto a las aproximaciones o iteraciones anteriores del mismo.
Inexactitud.- También se le conoce como sesgo. Es un alejamiento sistemático del valor verdadero a calcular.
Imprecisión.- También se le conoce como incertidumbre. Se refiere al grado de alejamiento
...