TEORIA DE ERRORES
Enviado por ISLUAN • 7 de Julio de 2011 • 2.504 Palabras (11 Páginas) • 1.617 Visitas
UNIDAD 1: TEORIA DE ERRORES
1.1. IMPORTANCIA DE LOS MÉTODOS NUMÉRICOS
La simulación y el modelado matemático, moverán el siglo XXI, así como el vapor movió el siglo XIX. William H. Press. Autor de Numerical Recipes.
Gran parte de la tecnología actual depende de la solución de modelos matemáticos, desde la programación empotrada de una calculadora científica y el cálculo estructural de un edificio multinivel con estructuras de acero, hasta el diseño y simulación de aeronaves y vuelos espaciales. La solución de un modelo matemático relativamente sencillo puede obtenerse de manera analítica. Sin embargo, para la gran mayoría de los modelos matemáticos del mundo real, las soluciones analíticas pueden no existir o ser extremadamente complejas, por lo cual se recurre a métodos numéricos que aproximen las soluciones dentro de ciertos márgenes de tolerancia.
El análisis de los métodos numéricos nos permite realizar estimaciones tanto de la eficiencia o complejidad de los algoritmos asociados, así como de la confiabilidad de los resultados numéricos obtenidos durante su aplicación.
Los métodos numéricos son herramientas muy poderosas para a solución de problemas. Pueden manejar sistemas de ecuaciones grandes, no linealidades y geometrías complicadas, comunes en la ingeniería. También es posible que se utilice software disponible comercialmente que contenga métodos numéricos. El uso inteligente de estos programas depende del conocimiento de la teoría básica de estos métodos; además hay muchos problemas que no pueden plantearse al emplear programas hechos, conociendo bien los métodos numéricos se puede diseñar programas propios y así no comprar software costoso. Al mismo tiempo se aprende a conocer y controlar los errores de aproximación que son inseparables de los cálculos numéricos a gran escala.
Los métodos numéricos son un medio para reforzar la comprensión de las matemáticas, porque profundizan en los temas que de otro modo resultarían obscuros, esto aumenta su capacidad de comprensión y entendimiento en la materia.
Entre las disciplinas que hacen uso intensivo de los métodos numéricos podemos mencionar:
Análisis Estadístico
Matemáticas financieras
Análisis de elemento finito
Análisis estructural
Química computacional
Investigación de operaciones
Electromagnetismo computacional
Mecánica computacional
Procesamiento de imágenes
Procesamiento de señales
Simulación por computadora
Computación multi-escala
Meteorología
Debido a la gran variedad de aplicaciones y especialidades atendidas por los métodos numéricos, podemos encontrar en la literatura términos asociados como los siguientes:
Matemáticas numéricas
Algoritmos numéricos
Computación científica
Análisis numérico
Matemáticas algorítmicas
Matemáticas computacionales
Teoría de la aproximación: Esta disciplina matemática, forma la base teórica de gran parte de los métodos numéricos.
1.2 CONCEPTOS BÁSICOS
CIFRAS SIGNIFICATIVAS
Cuando se emplea un número en un cálculo, debe haber seguridad de que pueda usarse con confianza. El concepto de cifras significativas tiene dos implicaciones importantes en el estudio de los métodos numéricos.
1.- Los métodos numéricos obtienen resultados aproximados. Por lo tanto, se debe desarrollar criterios para especificar que tan precisos son los resultados obtenidos.
2.- Aunque ciertos números representan número específicos, no se pueden expresar exactamente con un número finito de cifras.
La noción intuitiva de cifras significativas de un número está directamente relacionada con la precisión de los instrumentos o procesos que lo generan.
Cifras significativas: El número de cifras significativas de un número x corresponde al número de cifras en la mantisa de su representación en notación científica.
Ejemplo:
Ya que 0.00123 = 1.23*10^−3, decimos que 0.00123 tiene tres cifras significativas.
PRECISION Y EXACTITUD
La precisión se refiere a cuánto concuerdan dos o más mediciones de una misma cantidad.
Ejemplo: Todos los lanzamientos de las flechas concuerdan en un punto que no es la posición exacta
Hay precisión en los lanzamientos pero no exactitud.
La exactitud indica cuán cerca está una medición del valor real de la cantidad medida.
Ejemplo. Todas las flechas alcanzan el centro que es la posición exacta de los lanzamientos.
Hay exactitud y precisión en el lanzamiento.
En la figura siguiente no hay precisión ni exactitud en los lanzamientos.
Vamos a ver un ejemplo para explicar estos conceptos: Supóngase que solicitamos a tres estudiantes determinar la masa de un cilindro de aluminio cuya masa real es de 3.00 g. ( ver la gráfica siguiente)
Estudiante #1 Estudiante #2 Estudiante#3
2.65 2.87 3.01
2.76 2.86 3.00
2.68 2.87 2.99
INCERTIDUMBRE Y SESGO
En el análisis de datos numéricos generalmente podemos tener errores que tienen que ver con la falta ya sea de precisión o de exactitud.
La inexactitud se define como un alejamiento sistemático de la verdad. La imprecisión, sobre el otro lado, se refiere a la magnitud del esparcimiento de los valores.
Llamamos incertidumbre o imprecisión a la falta de precisión, y sesgo o inexactitud, a la falta sistemática de exactitud, ya sea por debajo o bien por arriba de la cantidad exacta.
El manejo de la incertidumbre o imprecisión puede realizarse mediante distribuciones de probabilidad, en tanto que el manejo de la inexactitud, mediante rangos o intervalos.
Ejemplo: Supongamos que un profesor debe iniciar siempre sus clases a las 7:00 am. Si existe incertidumbre, podría iniciar con una distribución normal con media de 7 : 05 y desviación estándar de 1 minuto, lo cual indica que el 99.7% de las veces iniciaría en el intervalo [7 : 02, 7 : 08]. Por otro lado, si existe (solamente) sesgo, entonces empezaría sistemáticamente (por ejemplo) a las 7 : 07.
1.3 TIPOS DE ERRORES
1.3.1 DEFINICION DE ERROR: ERROR ABSOLUTO Y RELATIVO.
Error de concepto: inexactitud o equivocación al producir en la mente una idea sobre algo.
Error de apreciación: es una inexactitud o equivocación al percibir con los sentidos
...