Investigacion conseptos basicos de metodos numericos
Enviado por Manuel Ruiz • 10 de Septiembre de 2021 • Documentos de Investigación • 869 Palabras (4 Páginas) • 90 Visitas
[pic 1]
INSTITUTO TECNOLÓGICO SUPERIOR DE CIUDAD CONSTITUCIÓN.
Ingeniería en Sistemas Computacionales.
Métodos Numéricos.
Américo Antonio León Barrón.
Manuel Eduardo Ruiz García.
Investigación Tema 1.[pic 2]
Al inicio de la materia de métodos numéricos, se necesitan conocer algunos conceptos básicos y familiarizarse con ellos, ya que se estarán mencionando e utilizando durante la materia, tenemos que indagar cuales son estos conceptos básicos y también saber que son y para que se utilizan, es por eso que vamos a realizar esta investigación para tener las bases de la materia lo más firmes posibles. Los métodos numéricos son técnicas con las cuales podemos formular problemas matemáticos adaptándolos para que se puedan resolver con operaciones aritméticas. Aunque hay varios métodos numéricos todos comparten la característica de contar con estos conceptos básicos que queremos conocer, para facilitar el entendimiento de dichos métodos.
[pic 3]
CONCEPTOS BÁSICOS DE MÉTODOS NUMÉRICOS
Cifras significativas
El concepto de cifras o dígitos significativos se ha desarrollado para designar formalmente la confiabilidad de un valor numérico. Las cifras significativas de un número son aquellas que pueden utilizarse en forma confiable. Se trata del número de dígitos que se ofrecen con certeza, más uno estimado. Estos se usan con frecuencia para referirse a una cantidad de lo que estamos seguros, ya que afirmar que estamos seguros de que un auto pudiera viajar a 48.8642138 km/h.
El uso de éstas considera que el último dígito de aproximación es incierto, por ejemplo, al determinar el volumen de un líquido con una probeta cuya resolución es de 1 ml, implica una escala de incertidumbre de 0,5 ml. Así se puede decir que el volumen de 6 ml será realmente de 5,5 ml a 6,5 ml. El volumen anterior se representará entonces como (6,0 ± 0,5) ml. En caso de determinar valores más próximos se tendrían que utilizar otros instrumentos de mayor resolución, por ejemplo, una probeta de divisiones más finas y así obtener (6,0 ± 0,1) ml o algo más satisfactorio según la resolución requerida.[pic 4]
Precisión, Exactitud, Inexactitud e Incertidumbre
Precisión es la cantidad de cifras que se utilizan para representar un número. La precisión se refiere a qué tan cercanos se encuentran, unos de otros, diversos valores calculados o medidos. En si precisión es cuando un instrumento te da siempre la misma medida, un ejemplo: cuando haces un experimento varias veces, y los datos obtenidos caen dentro de un pequeño rango de valores se dice que el método utilizado es reproducible, es decir, que es preciso.
Los errores en cálculos y medidas se pueden caracterizar con respecto a su exactitud y su precisión. La exactitud se refiere a qué tan cercano está el valor calculado o medido del valor verdadero. En términos estadísticos, la exactitud está relacionada con el sesgo de una estimación. Cuanto menor es el sesgo más exacto es una estimación. En sí, se refiere a qué tan cercana está esa medición de la realidad, un ejemplo: el valor obtenido en un experimento es muy cercano al valor verdadero. Lo que no te dice es que sea reproducible ese valor verdadero.
La inexactitud (conocida también como sesgo) se define como una desviación sistemática del valor verdadero. Es el alejamiento de un valor con respecto a una medida de tendencia central (que puede ser la media) Cuando tienes un grupo de datos, estos pueden ser representados por valores promedio) como el promedio de calificaciones de todos los alumnos de un examen. Existe sesgo cuando la ocurrencia de un error no aparece como un hecho aleatorio (al azar) advirtiéndose que este ocurre en forma sistemática.
...