ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

Antecedentes De La Informatica Univer Milenium


Enviado por   •  20 de Mayo de 2012  •  3.307 Palabras (14 Páginas)  •  652 Visitas

Página 1 de 14

UNIVER MILENIUM

Examen de Herramientas Tecnológicas

Primer Parcial

Profesora: LC Edén Colín Beltrán

Presenta:

22 de Octubre de 2010

Índice

Índice 2

Historia de la informática 3

Windows 7 10

Tabla 1. Requisitos de hardware. 11

Comentario 17

Bibliografía 18

Historia de la informática

Aunque la computadora es considerada un invento relativamente reciente, desde los primeros avances en la antigüedad en materia de matemáticas, física, lógica, electrónica, mecánica, cálculo, etc. la humanidad fue conformando los principios para la creación de la computadora que hoy conocemos.

En primera instancia, debemos considerar al ábaco como la primera calculadora en inventarse. Este instrumento en sí mismo tiene su propia historia, ya que diversas civilizaciones tenían su propia versión adaptada a su sistema de numeración, ya sea decimal, sexagesimal, vigesimal, etc.; se cree que los primeros en inventarlo fueron los babilonios, pero los chinos lo perfeccionaron haciéndolo más sofisticado. Los chinos también inventaron el primer mecanismo de engranajes conocido en utilizar un diferencial, mecanismo que posteriormente se utilizó en las primeras computadoras análogas. Esta misma cultura fue la primera en utilizar los números negativos.

Así mismo, los hindúes fueron los primeros en utilizar el cero, incluyéndolo en sus cálculos con el ábaco, y formaron un sistema de numeración binaria. De igual manera, cuando formularon la gramática del sánscrito lo hicieron de un modo tan técnico y sistematizado, que sirve como base para lenguajes de programación, pues también son los inventores de los logaritmos.

Posteriormente, los árabes y persas inician los estudios del álgebra y la criptografía, inventan el astrolabio mecánico, que se considera el antecesor del reloj mecánico actual; e incluso desarrollan una flauta automática que según los historiadores puede ser la primera máquina programable, así como lo que es considerado un robot rudimentario.

Ya en la edad media, las computadoras análogas eran simples, pero para la época eran sobresalientes, algunas respondían a preguntas filosóficas, otras predecían eventos astronómicos basándose en interpolaciones lineales, gracias a esto siguieron desarrollando calculadoras ahora mecánicas y análogamente siguieron los avances en los logaritmos.

Siglos más tarde, matemáticos como Leibniz participaron en la elaboración de calculadoras más complejas, a él además de sus estudios en el cálculo diferencial, se le reconoce en perfeccionamiento del código binario.

Con este antecedente, Charles Babbage diseño el primer prototipo de la máquina diferencial, su primera computadora mecánica, que tabulaba funciones polinomiales, logrando aproximaciones logarítmicas y trigonométricas. Posteriormente, ideó un sistema de tarjetas perforadas que permitía a la máquina almacenar resultados intermedios para cálculos más complejos. Ésta máquina sin embargo no pudo ser perfeccionada hasta más tarde, debido al retraso en la metalurgia en la época y el costo que este proyecto implicaba.

A mediados del siglo XIX, se desarrolla el álgebra booleana que se utiliza en el diseño y cómputo binario. Posteriormente, a finales del mismo siglo, Herman Hollerith desarrolló una perforadora, lectora y tabuladora de tarjetas, con el fin de simplificar la organización de la información en el último censo en Estados Unidos de ese siglo. Fundó la Hollerith Tabulating Company que posteriormente se convertiría en IBM.

A principios del siglo XX, se inventan los tubos de vacío y una década más tarde, la elaboración de circuitos eléctricos comienza a perfeccionarse. Las máquinas ahora son programables, funcionan con código binario y se forman compañías como Hewlett-Packard Company. Las calculadoras ahora son capaces de resolver ecuaciones diferenciales, lineales y hacer cálculos con números complejos. El concepto de algoritmo es formalizado.

En 1944, se construyó en la Universidad de Harvard, la Mark I, la primera computadora digital programable, mientras que al año siguiente en Alemania se conformó el primer leguaje de programación de alto nivel. Con el invento de los transistores en 1947, los circuitos que conformaban las computadoras poco a poco se fueron simplificando.

Las primeras máquinas ocupaban habitaciones enteras, consumían mucha energía eléctrica y necesitaban de grandes sistemas de ventilación. También para ese entonces se sustituyeron a los tubos de vacío por una memoria. IBM es la compañía líder en el ramo. En 1952 se desarrolla el primer compilador en la historia; los datos procesados ya no eran únicamente numéricos.

IBM empieza la construcción industrial de computadoras y se estima que en el año 1953 existían 100 en todo el mundo, se fabrican con transistores y memorias de núcleo. Un año después inicia el desarrollo del lenguaje de programación de alto nivel FORTRAN, que se termina en 1957. Esa misma década se llevó a cabo la primera conferencia de inteligencia artificial y ya se utilizan las impresoras de punto.

Mientras la comunidad científica trabaja con FORTRAN, la comunidad empresarial empieza a trabajar con otro lenguaje, el COBOL. Trabajadores de Texas Instruments e Intel trabajan por separado en los circuitos integrados hacia el final de la década. Con esto las computadoras de segunda generación, contrario a lo que se creía en la época, son más pequeñas. A las computadoras de la década de los cincuenta se les conoció como la primera generación.

Entre los años de 1958 y 1964, las computadoras de segunda generación aparecieron, estando presentes incluso en la guerra fría. Las computadoras son más poderosas, mejor diseñadas y ya cuentan con memoria virtual. El M.I.T. (por sus

...

Descargar como (para miembros actualizados)  txt (21.9 Kb)  
Leer 13 páginas más »
Disponible sólo en Clubensayos.com