ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

Introducción histórica de los métodos numéricos. Necesidad de la aplicación de los métodos numéricos en la ingeniería


Enviado por   •  2 de Septiembre de 2015  •  Apuntes  •  2.078 Palabras (9 Páginas)  •  141 Visitas

Página 1 de 9

                                 [pic 1][pic 2]

Universidad Nacional Autónoma De México

Facultad de Ingeniería

Análisis Numérico

Beristaín León Jesus

Grupo:

Investigación: Tema 1

Introducción histórica de los métodos numéricos. Necesidad de la aplicación de los métodos numéricos en la ingeniería

Un método numérico es un procedimiento mediante el cual se obtiene, casi siempre de manera aproximada, la solución de ciertos problemas realizando cálculos puramente aritméticos y lógicos (operaciones aritméticas elementales, cálculo de funciones, consulta de una tabla de valores, cálculo preposicional, etc.).

A partir del año 2600 A.C. los sumerios escribieron tablas de multiplicar en tablillas de arcilla y realizaron ejercicios geométricos y problemas de división. Las trazas más antiguas de los numerales babilónicos se remontan también a este periodo.

Entre los años 2000 y 1600 A.C. ya se utilizaba la interpolación. En 1700 A.C. los babilonios idearon un sistema de numeración posicional (las cifras valían según su posición dentro del número) y sexagesimal (en base 60 cada unidad grande está formada por 60 unidades más pequeñas).

Para el año 1000 A.C los mayas eran grandes astrónomos, midieron el tiempo e hicieron calendarios. De esta manera dedujeron que el mes lunar tenía 29,5302 días, el valor que aceptamos hoy en día es de 29,53059.

En el año 540 A.C. Pitágoras presento su teorema: “en un triángulo rectángulo la suma de los cuadrados de los lados más cortas equivale al cuadrado del lado más largo”.

Para el año 250 A.C. Arquímedes de “Eureka”, el volumen del agua derramada es el mismo que el volumen del cuerpo sumergido determino el número PI: 3.14159.

En 1642 Pascal diseño y construyo la primera calculadora del mundo de la que existe constancia. Era una pequeña caja de madera bastante incomoda que tenía en la tapa una hilera de discos numerados, con los agujeros para introducir los dedos y hacerlos girar.

En el año 1670 el filósofo y matemático alemán Gottfried  Wilhelm Leibniz perfecciono la maquina construida por Pascal e invento una que también podía multiplicar y dividir.

El primer estudio de la teoría matemática encerrada en la resolución numérica de ecuaciones diferenciales se debe a Dahlquist que escribió su tesis en el año 1956, la cual fue publicada en 1959. Fue el primero en escribir una teoría para explicar conceptos como estabilidad o el orden alcanzable.

Von Neumann y Morgenstern utiliza probabilidades objetivas, suponiendo que todos los agentes tenían la misma distribución de probabilidad, para su conveniencia. Sin embargo, ellos mencionaron que una teoría de la probabilidad subjetiva se podría proporcionar, y esta tarea fue completada por Johann Pfanzagl en 1967.

Los métodos numéricos son de gran importancia en el área de la ingeniería, porque haciendo uso de estos es posible simplificar en gran medida la resolución de problemas que se pueden presentar día tras día en el ámbito laboral y de esta manera tener un buen control dentro de la industria ingenieril. En la actualidad es algo fundamental tener conocimientos de dichos métodos, ya que gracias a estos el índice de error cometido se reduce en gran medida.

Conceptos de aproximación numérica y error. Tipos de error.

La aproximación numérica se entiende como una cifra X# que representa a un número cuyo valor exacto es X. En la medida en que la cifra X# se acerca más al valor exacto X, será una mejor aproximación de ese número. Por ejemplo: 3.1416 es una aproximación numérica a PI.

El error de aproximación o error numérico es una medida del ajuste de la medida o cálculo de una magnitud con respecto al valor real o teórico que dicha magnitud tiene. Un aspecto importante de los errores de aproximación es su estabilidad numérica. Dicha estabilidad se refiere a como dentro de un algoritmo de análisis numérico el error de aproximación es propagada dentro del propio algoritmo.

El concepto de error es consustancial con el cálculo numérico. En todos los problemas es fundamental hacer un seguimiento de los errores cometidos a fin de poder estimar el grado de aproximación de la solución que se obtiene. Los errores asociados a la mayoría de los cálculos numéricos tienen su origen en dos grandes factores:

  • Aquellos que son inherentes a la formulación del problema.
  • Los que son consecuencia del método empleado para encontrar la solución del problema.

Dentro del grupo de los primeros, se incluyen aquellos en los que la definición matemática del problema es solo una aproximación a la situación física real. Estos errores son normalmente despreciables. En aquellos casos en que estos errores no son realmente despreciables, nuestra solución será poco precisa independientemente de la precisión empleada para encontrar las soluciones numéricas. Otra fuente de este tipo de errores tiene su origen en la imprecisión de los datos físicos: constantes físicas y datos empíricos.

El error causado por resolver el problema no como se ha formulado, sino mediante algún tipo de aproximación. Generalmente está causado por la sustitución de un infinito o un infinitesimal por una aproximación finita. Por ejemplo: El cálculo de una función elemental empleando solo n términos de los finitos que constituyen la expansión en serie de Taylor.

Denominaremos a este error, en todas sus formas, como error por truncamiento, ya que resulta de truncar un proceso infinito para obtener un proceso finito.

Otra fuente de error de importancia es aquella que tiene su origen en el hecho de que los cálculos aritméticos no pueden realizarse con precisión ilimitada. Muchos números requieren infinitos decimales para ser representados correctamente, sin embargo, para operar con ellos es necesario redondearlos. Incluso en el caso en que un número pueda representarse exactamente, algunas operaciones aritméticas pueden dar lugar a la aparición de errores. El error que se introduce al redondear un número se denomina error de redondeo.

El error absoluto es la diferencia entre el valor de la medida y el valor tomado como exacto. Puede ser positivo o negativo, según si la medida es superior al valor real o inferior, aunque suele emplearse el valor absoluto para omitir el signo. Puede tener las mismas unidades que la medida.

El error relativo es el cociente entre el error absoluto y el valor exacto. Si se multiplica por 100 se obtiene el tanto por ciento de error. Al igual que el error absoluto puede ser positivo o negativo, aunque se emplea de la misma manera el valor absoluto, y no presenta unidades.

...

Descargar como (para miembros actualizados) txt (13 Kb) pdf (238 Kb) docx (107 Kb)
Leer 8 páginas más »
Disponible sólo en Clubensayos.com