ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

CONCEPTOS BÁSICOS DE METODOS NUMERICOS


Enviado por   •  21 de Mayo de 2014  •  2.857 Palabras (12 Páginas)  •  992 Visitas

Página 1 de 12

Conceptos básicos

1.1 Uso de los métodos numéricos

Definición de Métodos numéricos

Los métodos numéricos son técnicas median Los métodos numéricos son técnicas mediante las cuales es posible formular problemas matemáticos de tal forma que puedan resolverse usando operaciones aritméticas. Hay muchos tipos de métodos numéricos, y comparten una característica común: invariablemente se deben realizar un buen número de tediosos cálculos aritméticos.

Los métodos numéricos son herramientas muy poderosas para a solución de problemas. Pueden manejar sistemas de ecuaciones grandes, no linealidades y geometrías complicadas, comunes en la ingeniería. También es posible que se utilice software disponible comercialmente que contenga métodos numéricos. El uso inteligente de estos programas depende del conocimiento de la teoría básica de estos métodos; además hay muchos problemas que no pueden plantearse al emplear programas hechos, conociendo bien los métodos numéricos se puede diseñar programas propios y así no comprar software costoso. Al mismo tiempo se aprende a conocer y controlar los errores de aproximación que son inseparables de los cálculos numéricos a gran escala.

Los métodos numéricos son un medio para reforzar la comprensión de las matemáticas, porque profundizan en los temas que de otro modo resultarían obscuros, esto aumenta su capacidad de comprensión y entendimiento en la materia.

Los métodos numéricos nos vuelven aptos para entender esquemas numéricos a fin de resolver problemas matemáticos, de ingeniería y científicos en una computadora, reducir esquemas numéricos básicos, escribir programas y resolverlos en una computadora y usar correctamente el software existente para dichos métodos y no solo aumenta nuestra habilidad para el uso de computadoras sino que también amplia la pericia matemática y la comprensi6n de los principios científicos básicos.

Los métodos numéricos son adecuados para la solución de problemas comunes de ingeniería, ciencias y administración, utilizando computadoras electrónicas.

En el proceso de solución de problemas por medio de computadoras se requieren los pasos siguientes.

- Especificación del problema. Con esto se indica que se debe identificar perfectamente el problema y sus limitaciones, las variables que intervienen y los resultados deseados.

- Análisis. es la formulación de la solución del problema denominada también algoritmo, de manera que se tenga una serie de pasos que resuelvan el problema y que sean susceptibles de ejecutarse en la computadora.

- Programación. Este paso consiste en traducir el método de análisis o algoritmo de solución expresándole como una serie detallada de operaciones.

- Verificación. Es la prueba exhaustiva del programa para eliminar todos los errores que tenga de manera que efectúe lo que desea los resultados de prueba se comparan con soluciones conocidas de problemas ya resueltos.

- Documentación. Consiste en preparar un instructivo del programa de manera que cualquier persona pueda conocer y utilizar el programa.

- Producción. Es la última etapa en la que solo se proporcionan datos de entrada del programa obteniéndose las soluciones correspondientes.

De lo antes expuesto se puede concluir que es necesario un conocimiento completo del problema, y de los campos de las matemáticas relacionados con el que es precisamente el objeto de los métodos numéricos para computadora.

1.2 Análisis del error

Con el auge cada vez mayor de la informática es evidente que los sistemas computacionales se han perfeccionado. En actualidad los dispositivos digitales (computadoras y calculadoras) pueden realizar un gran número de operaciones sin cometer “errores”, es decir trabajan lo más exacto posible. Pero a pesar de toda esta “perfección” al trabajar con estos sistemas o dispositivos, suele resultar que dichos procesos u operaciones den una respuesta equivocada, lo cual puede obedecer a errores de tipo humanos (fórmulas incorrectas, errores de lógica en los programas, tipográficos, etc.), errores subyacentes al diseño del método(truncamiento de fórmulas (series)) y errores inherentes al funcionamiento del dispositivo digital (Aritmética finita).

Cada vez que se apliquen métodos numéricos es pertinente procurar la minimización de los errores que se pueden presentar. Así que se debe conocer porque se presentan, que tanto se pueden tolerar y que tan buena son las aproximaciones que se obtengan.

Sobre Análisis de Errores.

Cifras significativas. Se le llaman cifras significativas de un número a aquellas que pueden ser utilizadas con confiabilidad, para estimar una medida. Por ejemplo en la figura Adjunta se observa una regla milimetrada con la cual se mide la longitud de un alfiler. Con una simple inspección se puede observar que la longitud del alfiler esta comprendida entre 27 y 28 milímetros, es decir que se tiene confianza en dos dígitos (27). Si se quisiera estimar el tercer digito, se podría subdividir mentalmente el espacio entre el milímetro 27 y el milímetro 28. Así la medida podría ser: 27.4 mm, 27.5 mm, 27.6 mm, etcétera, dependiendo de quien tome la medida, resultando en cualquier caso un medida de esa longitud con 3 cifras significativas.

En algunos casos el método anteriormente mencionado puede conducir a confusiones. Por ejemplo los números 0.3485, 0.0345, 0.000345 tienen tres cifras significativas (la primera cifra significativa es el digito no nulo más a la izquierda del número); los ceros en este caso no son cifras significativas, ya que solo se utilizan para ubicar el punto decimal. En ciertas ocasiones en las que se concluyen ceros en números muy grandes, no es claro cuantos son significativos. El número 9350000 puede tener tres (3), cuatro (4), cinco(5), seis (6), siete(7) cifras significativas, dependiendo de si los ceros se conocen con exactitud. Para evitar este problema es conveniente utilizar la notación científica. De este modo 9.35*106 y 9.3500*106, señala que el número tiene tres (3) y cinco (5) cifras significativas respectivamente.

Existen dos razones, por las cuales el concepto de cifras significativas reviste de importancia en el estudio de los métodos numéricos:

1. los métodos numéricos obtienen resultados aproximados. Por lo tanto se debe contar con criterio que permitan especificar que tan precisos son los resultados obtenidos. Una manera de asegurarlos es en términos de cifras significativas. Así se pude establecer que la aproximación es aceptable siempre

...

Descargar como (para miembros actualizados) txt (18 Kb)
Leer 11 páginas más »
Disponible sólo en Clubensayos.com