ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

Unidad 1 Metodos Numericos


Enviado por   •  20 de Noviembre de 2012  •  2.930 Palabras (12 Páginas)  •  651 Visitas

Página 1 de 12

UNIDAD I.- Teoría de los errores

1.1.- IMPORTANCIA DE LOS MÉTODOS NUMÉRICOS.

Los métodos numéricos son técnicas mediante las cuales es posible formular problemas matemáticos de tal forma que puedan resolverse usando operaciones aritméticas. Hay muchos tipos de métodos numéricos, y comparten una característica común: invariablemente se deben realizar un buen número de tediosos cálculos aritméticos.

Los métodos numéricos son herramientas muy poderosas para a solución de problemas. Pueden manejar sistemas de ecuaciones grandes, no linealidades y geometrías complicadas, comunes en la ingeniería. También es posible que se utilice software disponible comercialmente que contenga métodos numéricos. El uso inteligente de estos programas depende del conocimiento de la teoría básica de estos métodos; además hay muchos problemas que no pueden plantearse al emplear programas hechos, conociendo bien los métodos numéricos se puede diseñar programas propios y así no comprar software costoso. Al mismo tiempo se aprende a conocer y controlar los errores de aproximación que son inseparables de los cálculos numéricos a gran escala.

Los métodos numéricos son un medio para reforzar la comprensión de las matemáticas, porque profundizan en los temas que de otro modo resultarían obscuros, esto aumenta su capacidad de comprensión y entendimiento en la materia.

1.2.- CONCEPTOS BÁSICOS, CIFRAS SIGNIFICATIVAS, PRECISION, EXACTITUD E INCERTIDUMBRE.

Cifras significativas.

Cuando se emplea un número en un cálculo, debe haber seguridad de que pueda usarse con confianza. El concepto de cifras significativas tiene dos implicaciones importantes en el estudio de los métodos numéricos.

1.- Los métodos numéricos obtienen resultados aproximados. Por lo tanto, se debe desarrollar criterios para especificar que tan precisos son los resultados obtenidos.

2.- Aunque ciertos números representan número específicos, no se pueden expresar exactamente con un número finito de cifras.

Exactitud y Precisión.

EXACTITUD:

La exactitud de una medición hace referencia a su cercanía al valor que pretende medir.

Indica qué tan cercano es un valor calculado respecto al valor verdadero.

La exactitud se refiere a que tan cercano está el valor calculado o medido del valor verdadero.

PRECISION:

Precisión.- Considerando que los métodos numéricos son técnicas iterativas, expresa qué tan cercana es una aproximación o una estimación a un valor, respecto a las aproximaciones o iteraciones anteriores del mismo.

La precisión está asociada al número de cifras decimales utilizados para expresar lo medido.

Así, por ejemplo, una pesa es exacta si nos entrega el peso correcto, sin agregarle ni quitarle. Asimismo, es más precisa en la medida que el aparato usado es capaz de detectar diferencias de peso más pequeñas.

La precisión se refiere:

1) Al número de cifras significativas que representan una cantidad

2) La extensión

en las lecturas repetidas de un instrumento que mide alguna propiedad física. Por ejemplo:

Cuando se hacen algunos disparos en un lugar de tiro al blanco la precisión se refiere a la magnitud del esparcimiento de las balas.

La exactitud y precisión exigibles a una medición, dependerán de los objetivos del estudio que la utiliza.

La precisión de un resultado estadístico debe estar de acuerdo con la precisión de los datos originales y con las exigencias propias del proyecto que los usa.

Es fácil cometer el error de responder usando más decimales que los contenidos en las mediciones iniciales, aumentando artificialmente la precisión por la propia capacidad de cálculo de los computadores.

Por otra parte, es de suma importancia cuidar que, durante el proceso de cálculo intermedio, no se pierda precisión innecesariamente. Es importante mantener el máximo posible de decimales, pues esto ayuda a controlar la aparición y propagación de errores numéricos que invaliden los resultados.

Estos son errores de precisión y exactitud ajenos al proceso de medición inicial y son introducidos típicamente por los métodos numéricos usados y por la aritmética del computador que tiene una precisión finita para representar interiormente a los números.

INSERTIDUMBRE

(Incertidumbre y sesgo). Llamamos incertidumbre o imprecisión a la falta de precisión, y sesgo o inexactitud, a la falta sistemática de exactitud, ya sea por debajo o bien por arriba de la cantidad exacta.

El manejo de la incertidumbre o imprecisión puede realizarse mediante distribuciones

de probabilidad, en tanto que el manejo de la inexactitud, mediante rangos o intervalos.

Ejemplo:

Supongamos que un profesor debe iniciar siempre sus clases a las 7:00 am. Si existe incertidumbre, podría iniciar con una distribución normal con media de 7:05 y desviación estándar de 1 minuto, lo cual indica que el 99.7% de las veces iniciaría en el intervalo [7:02, 7:08]. Por otro lado, si existe (solamente) sesgo, entonces empezaría sistemáticamente (por ejemplo) a las 7:07.

1.3.-TIPOS DE ERRORES

El concepto de error es consustancial con el cálculo numérico. En todos los problemas es fundamental hacer un seguimiento de los errores cometidos a fin de poder estimar el grado de aproximación de la solución que se obtiene.

Los errores asociados a todo cálculo numérico tienen su origen en dos grandes factores:

* Aquellos que son inherentes a la formulación del problema.

* Los que son consecuencia del método empleado para encontrar la solución del problema.

Dentro del grupo de los primeros, se incluyen aquellos en los que la definición matemática del problema es sólo una aproximación a la situación física real. Estos errores son normalmente despreciables; por ejemplo, el que se comete al obviar los efectos relativistas en la solución de un problema de

...

Descargar como (para miembros actualizados)  txt (18.5 Kb)  
Leer 11 páginas más »
Disponible sólo en Clubensayos.com