ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

La matriz de importancia para los programas de computación


Enviado por   •  5 de Diciembre de 2012  •  Trabajo  •  2.045 Palabras (9 Páginas)  •  692 Visitas

Página 1 de 9

INTRODUCCION:

Las matrices sugeridas por varios matemáticos entre los años de 1850-1853 y en 1858 se dieron a conocer como un sistema de ecuación lineal con incógnitas, estas matrices también son utilizadas por otras ciencias como la geometría, estadística, informática y economía. Actualmente son de gran esencialidad para los programas computarizados ya que permiten la introducción de datos ordenados en filas y columnas y resolver problemas de una marera rápida y eficaz.

Por consiguiente tenemos varios tipos de matrices para resolver problemas matemáticos según la necesidad del usuario o en dado caso el problema que requiera el uso o aplicación de las matices, como por ejemplo la matriz fila que consiste en formar y resolver la ecuación dentro de una misma fila sin tener que usar otro producto matemático.

Igualmente las operaciones con matrices de sumas, restas, multiplicación y división se realizan con la combinación de matrices en filas y columnas pero con la diferencia que para sumar o restar, multiplicar y dividir se necesitan más de un producto matemático es decir más de una matriz.

Y por ultimo estas matrices en el área contable de las empresas facilitan el buen manejo de las operaciones diarias de la entidad ya que por medio de estos programas realizados con matrices se puede obtener los estados financieros en poco tiempo y de esta manera poder tomar decisiones importantes dentro de la organización.

INICIO DE LAS MATRICES:

Las matrices aparecen por primera vez hacia el año 1850, introducidas por J.J. Sylvester. El desarrollo inicial de la teoría se debe al matemático W.R. Hamilton en 1853. En 1858, A. Cayley introduce la notación matricial como una forma abreviada de escribir un sistema de ecuaciones lineales con incógnitas.

Las matrices se utilizan en el cálculo numérico, en la resolución de sistemas de ecuaciones lineales, de las ecuaciones diferenciales y de las derivadas parciales. Además de su utilidad para el estudio de sistemas de ecuaciones lineales, las matrices aparecen de forma natural en geometría, estadística, economía, informática, física, etc.

La utilización de matrices (arrays) constituye actualmente una parte esencial de los lenguajes de programación, ya que la mayoría de los datos se introducen en los ordenadores como tablas organizadas en filas y columnas: hojas de cálculo, bases de datos.

TIPOS DE MATRICES:

Matriz fila:

Una matriz fila está constituida por una sola fila.

Matriz columna:

La matriz columna tiene una sola columna

Matriz rectangular:

La matriz rectangular tiene distinto número de filas que de columnas, siendo su dimensión mxn.

Matriz cuadrada:

La matriz cuadrada tiene el mismo número de filas que de columnas.

Los elementos de la forma A constituyen la diagonal principal.

La diagonal secundaria la forman los elementos.

Matriz nula:

En una matriz nula todos los elementos son ceros.

Matriz triangular superior:

En una matriz triangular superior los elementos situados por debajo de la diagonal principal son ceros.

Matriz triangular inferior:

En una matriz triangular inferior los elementos situados por encima de la diagonal principal son ceros.

Matriz diagonal:

En una matriz diagonal todos los elementos situados por encima y por debajo de la diagonal principal son nulos.

Matriz escalar:

Una matriz escalar es una matriz diagonal en la que los elementos de la diagonal principal son iguales.

Matriz identidad o unidad:

Una matriz identidad es una matriz diagonal en la que los elementos de la diagonal principal son iguales a 1.

Matriz traspuesta:

Dada una matriz A, se llama matriz traspuesta de A, a la matriz que se obtiene cambiando ordenadamente las filas por las columnas

(At)t = A

(A + B)t = At + Bt

(α •A)t = α• At

(A • B)t = Bt • At

Matriz regular:

Una matriz regular es una matriz cuadrada que tiene inversa.

Matriz singular.

Una matriz singular no tiene matriz inversa.

Matriz idempotente:

Una matriz, A, es idempotente si:

A2 = A.

Matriz involutiva:

Una matriz, A, es involutiva si:

A2 = I.

Matriz simétrica:

Una matriz simétrica es una matriz cuadrada que verifica:

A = At.

Matriz antisimétrica o hemisimétrica:

Una matriz antisimétrica o hemisimétrica es una matriz cuadrada que verifica:

A = -At.

Matriz ortogonal:

Una matriz es ortogonal si verifica que:

A•At = I.

OPERACIONES CON MATRICES:

Suma y resta de matrices:

Para poder sumar o restar matrices, éstas deben tener el mismo número de filas y de columnas. Es decir, si una matriz es de orden 3 ð 2 y otra de 3 ð 3, no se pueden sumar ni restar. Esto es así ya que, tanto para la suma como para la resta, se suman o se restan los términos que ocupan el mismo lugar en las matrices.

Ejemplo:

Para sumar o restar más de dos matrices se procede igual. No necesariamente para poder sumar o restar matrices, éstas tienen que ser cuadradas.

Ejemplo:

División de matrices:

La división de matrices se define como el producto del numerador multiplicado por la matriz inversa del denominador. Es decir, sean las matrices A y B tal que A/B = AB-1:

Si una matriz está dividida entre un escalar, todos los términos de la matriz quedarán divididos por ese escalar.

Ejemplo:

Matrices invertibles:

Se dice que una matriz cuadrada A es invertible, si existe una matriz B con la propiedad de que

AB = BA = I

Siendo I la matriz identidad. Denominamos a la matriz B la inversa de A y la denotamos por A-1.

Ejemplo:

Puesto que AB = BA = I, A y B son invertibles, siendo cada una la inversa de la otra.

SISTEMAS DE ECUACIONES LINEALES:

En matemáticas y álgebra lineal, un sistema de ecuaciones lineales, también conocido como sistema lineal de ecuaciones o simplemente sistema lineal, es un conjunto de ecuaciones lineales

...

Descargar como (para miembros actualizados) txt (12 Kb)
Leer 8 páginas más »
Disponible sólo en Clubensayos.com