ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

Metodos De Separacion Y Cuantificacion


Enviado por   •  8 de Octubre de 2013  •  1.098 Palabras (5 Páginas)  •  899 Visitas

Página 1 de 5

Unidad 1. Introducción a los métodos numéricos

1.1. Importancia de los métodos numéricos

La ciencia y la tecnología describen los fenómenos reales mediante modelos matemáticos. El estudio de estos modelos permite un conocimiento más profundo del fenómeno, así como de su evolución futura. La matemática aplicada es la rama de las matemáticas que se dedica a buscar y aplicar las herramientas más adecuadas a los problemas basados en estos modelos. Desafortunadamente, no siempre es posible aplicar métodos analíticos clásicos por diferentes razones:

• No se adecúan al modelo concreto.

• Su aplicación resulta excesivamente compleja.

• La solución formal es tan complicada que hace imposible cualquier interpretación posterior.

• Simplemente no existen métodos analíticos capaces de proporcionar soluciones al problema.

En estos casos son útiles las técnicas numéricas, que mediante una labor de cálculo más o menos intensa, conducen a soluciones aproximadas que son siempre numérica. El importante esfuerzo de cálculo que implica la mayoría de estos métodos hace que su uso esté íntimamente ligado al empleo de computadores. De hecho, sin el desarrollo que se ha producido en el campo de la informática resultaría difícilmente imaginable el nivel actual de utilización de las técnicas numéricas en ámbitos cada día más diversos

1.2. Algunos conceptos básicos: precisión, exactitud, cifra significativa, incertidumbre y sesgo.

La precisión

La precisión se refiere a qué tan cercano está un valor individual medido o calculado respecto a los otros. Por ejemplo, los números “2.1” y “2.10” de un cálculo realizado implican un distinto nivel de precisión. La primera cifra sugiere que el cálculo se realizó con una precisión de sólo décimas de unidad; la segunda cifra (“2.10”) se obtuvo con una mayor precisión porque se introdujo hasta centésimas. Por tanto, el empleo de ceros en un número tendrá que ser manejado con cuidado y las implicaciones deben ser comprensibles.

Exactitud

Existen dos tipos de números, los exactos y los aproximados. Los números exactos son precisos al número exacto de cifras presentados, de la misma forma que sabemos que existen 12 manzanas en una docena y no 12.1.

Sin embargo, en los métodos numéricos obtienen resultados aproximados. Por lo tanto, se debe desarrollar criterios para especificar que tan precisos son los resultados obtenidos.

Cifras significativas

Es posible determinar la precisión de una lectura mediante el número de cifras significativas (dígitos) presentes.

Las cifras significativas son aquellos enteros (de 0 al 9) que pueden suponerse como precisos para los cálculos se realice. El resultado de esto es que:

1) Todos los números distintos de cero se consideran significativos. Por ejemplo el numero “376” tiene tres cifras significativas.

2) Los ceros los serán únicamente en ciertos casos. Por ejemplo, los ceros en el numero “1005” se consideran significativos debido a que definen el tamaño del número y a que están rodeados de números distintos de ceros (el “1” y el “5”). Sin embargo, para el número “0.064”, los dos ceros no se consideran significativos debido a que solo se emplean para definir la ubicación del punto decimal y no para la precisión de la lectura. Para el número “0.4020”, el cero a la izquierda del punto decimal no es significativo, pero los otros dos ceros sí lo son ya que definen la magnitud del número y la precisión de la cuarta posición de la lectura.

Incertidumbre y sesgo.

Se le conoce como incertidumbre al grado de alejamiento entre sí, a las diversas aproximaciones a un valor verdadero. Es por ello que la incertidumbre también se le conoce como imprecisión.

Los métodos numéricos deben ser lo suficientemente exactos o sin sesgos (es decir, sin diferencia entre el valor esperado de un estimador y el verdadero valor) para que cumplan los requisitos de un problema particular de ingeniería.

1.3 Tipos de errores.

Los errores numéricos se generan con el uso de aproximaciones para representar las operaciones y cantidades matemáticas.

Errores de redondeo

Este tipo de errores se deben a que las computadoras solo guardan un número finito de cifras significativas durante un cálculo. Por ejemplo: si solo se guardan siete cifras significativas, la computadora puede almacenar y usar p como p = 3.141 592 y generando un error de redondeo.

Esta técnica de retener solo los primeros números se le llamo "Truncamiento" en el ambiente de computación de preferencia se le llamara de corte para distinguirlo de los errores de truncamiento discutidos. Un corte ignora los términos restantes de la representación decimal completa. Por ejemplo: el octavo numero significativo en este caso es 6. Por lo tanto p se representa de manera exacta como 3.141593 que como 3.141592 obtenido mediante un corte, ya que el valor esta mas cercano del valor verdadero. Esto se puede visualizar de la siguiente forma: si p se aproxima por p = 3.141593, el error de redondeo se reduce a; Eu = 0.000 000 035........

Errores de truncamiento

Los errores de truncamiento son aquellos que resultan al usar una aproximación en lugar de un procedimiento matemático exacto.

dv = D u = u(t-1) – v(t)

dt D t t-1 - t

Se introdujo un error de truncamiento en la solución numérica ya que la ecuación de diferencias solo se aproxima el valor verdadero de la derivada.

Error numérico total

El error numérico total es la suma de los errores de redondeo y de truncamiento. (Los errores de truncamiento decrecen conforme él numero de cálculos aumenta, por lo que se encara el siguiente problema: la estrategia de disminuir un componente del error total lleva al incremento del otro).

Errores por equivocación, de planteamiento o incertidumbre en los datos

En los primeros años de la computación, los resultados numéricos erróneos fueron atribuidos algunas veces al mal funcionamiento de la computadora misma. Hoy en día, esta fuente de error es muy improbable y la mayor parte de las equivocaciones se pueden atribuir a errores humanos.

Errores de formulación

Los errores de formulación o de modelamiento degeneran en lo que se podría considerar como un modelo matemático incompleto. Un ejemplo de un error de formulación imperceptible es el hacho de que la segunda Ley de Newton no explica los efectos relativistas.

1.5 Métodos iterativos

El método de Gauss y sus variantes se conocen con el nombre de métodos directos: se ejecutan a través de un número finito de pasos y dan lugar a una solución que sería exacta si no fuese por los errores de redondeo.

Por contra, un método indirecto da lugar a una sucesión de vectores que idealmente converge a la solución. El cálculo se detiene cuando se cuenta con una solución aproximada con cierto grado de precisión especificado de antemano o después de cierto número de iteraciones. Los métodos indirectos son casi siempre iterativos: para obtener la sucesión mencionada se utiliza repetidamente un proceso sencillo.

...

Descargar como  txt (7 Kb)  
Leer 4 páginas más »
txt