Metodos De Separacion Y Cuantificacion
Enviado por • 8 de Octubre de 2013 • 1.098 Palabras (5 Páginas) • 920 Visitas
Unidad 1. Introducción a los métodos numéricos
1.1. Importancia de los métodos numéricos
La ciencia y la tecnología describen los fenómenos reales mediante modelos matemáticos. El estudio de estos modelos permite un conocimiento más profundo del fenómeno, así como de su evolución futura. La matemática aplicada es la rama de las matemáticas que se dedica a buscar y aplicar las herramientas más adecuadas a los problemas basados en estos modelos. Desafortunadamente, no siempre es posible aplicar métodos analíticos clásicos por diferentes razones:
• No se adecúan al modelo concreto.
• Su aplicación resulta excesivamente compleja.
• La solución formal es tan complicada que hace imposible cualquier interpretación posterior.
• Simplemente no existen métodos analíticos capaces de proporcionar soluciones al problema.
En estos casos son útiles las técnicas numéricas, que mediante una labor de cálculo más o menos intensa, conducen a soluciones aproximadas que son siempre numérica. El importante esfuerzo de cálculo que implica la mayoría de estos métodos hace que su uso esté íntimamente ligado al empleo de computadores. De hecho, sin el desarrollo que se ha producido en el campo de la informática resultaría difícilmente imaginable el nivel actual de utilización de las técnicas numéricas en ámbitos cada día más diversos
1.2. Algunos conceptos básicos: precisión, exactitud, cifra significativa, incertidumbre y sesgo.
La precisión
La precisión se refiere a qué tan cercano está un valor individual medido o calculado respecto a los otros. Por ejemplo, los números “2.1” y “2.10” de un cálculo realizado implican un distinto nivel de precisión. La primera cifra sugiere que el cálculo se realizó con una precisión de sólo décimas de unidad; la segunda cifra (“2.10”) se obtuvo con una mayor precisión porque se introdujo hasta centésimas. Por tanto, el empleo de ceros en un número tendrá que ser manejado con cuidado y las implicaciones deben ser comprensibles.
Exactitud
Existen dos tipos de números, los exactos y los aproximados. Los números exactos son precisos al número exacto de cifras presentados, de la misma forma que sabemos que existen 12 manzanas en una docena y no 12.1.
Sin embargo, en los métodos numéricos obtienen resultados aproximados. Por lo tanto, se debe desarrollar criterios para especificar que tan precisos son los resultados obtenidos.
Cifras significativas
Es posible determinar la precisión de una lectura mediante el número de cifras significativas (dígitos) presentes.
Las cifras significativas son aquellos enteros (de 0 al 9) que pueden suponerse como precisos para los cálculos se realice. El resultado de esto es que:
1) Todos los números distintos de cero se consideran significativos. Por ejemplo el numero “376” tiene tres cifras significativas.
2) Los ceros los serán únicamente en ciertos casos. Por ejemplo, los ceros en el numero “1005” se consideran significativos debido a que definen el tamaño del número y a que están rodeados de números distintos de ceros (el “1” y el “5”). Sin embargo, para el número “0.064”, los dos ceros no se consideran significativos debido a que solo se emplean para definir la ubicación del punto decimal y no para la precisión de la lectura. Para el número “0.4020”, el cero a la izquierda del punto decimal no es significativo, pero los otros dos ceros sí lo son ya que definen la magnitud del número y la precisión de la cuarta posición de
...