ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

Concepcion Pc


Enviado por   •  11 de Octubre de 2015  •  Apuntes  •  1.399 Palabras (6 Páginas)  •  133 Visitas

Página 1 de 6

UNIVERSIDAD TECNICA PARTICULAR DE LOJA[pic 1]

Sistemas Informáticos y Computación

Arquitectura de Computadores

Carolina Jaramillo Valdivieso                                         Paralelo A

08/10/2015                                                                        Christian Emanuel Loján Herrera

Tema: A su criterio mencione y argumente, como ha evolucionado el pensamiento sobre la concepción de la máquina de computo, desde el primitivo  ábaco concebido como una máquina para llevar una cuenta hasta los modernos computadores de propósito general concebidos como verdaderos sistemas monousuario capaces de desarrollar una variedad de tareas al mismo tiempo. 

Evolución de la concepción de la máquina de cómputo.

Las computadoras realmente entraron como grandes invenciones en las dos últimas décadas del siglo 20, pero su historia se remonta a más de 2500 años en el ábaco: una calculadora sencilla a partir de granos y alambres, que todavía se utiliza en algunas partes del mundo hoy en día como China. La diferencia entre un antiguo ábaco y una computadora moderna parece inmensa, pero el principio de “realizar repetidos cálculos más rápidamente que el cerebro humano” es exactamente la misma. Próximamente en el año 1617, el matemático escocés John Napier desarrolló la idea de logaritmos. Él utilizó los registros de transformar problema de multiplicación al problema de suma.

Luego, en 1642 Blaise Pascal inventó la primera calculadora mecánica práctica, la Pascalina, para ayudar a su padre-recaudador de impuestos hacer sus sumas. La máquina tenía una serie de enclavamiento que podrían sumar y restar números decimales.

Ni el ábaco, ni las calculadoras mecánicas construidas realmente calificaban como computadoras. Una calculadora es un dispositivo que se creó con el objetivo de hacer que sea más rápido y más fácil para la gente a hacer sumas, pero necesita un operador humano. Una computadora, por el contrario, es una máquina que puede funcionar de forma automática, sin ningún tipo de ayuda humana, siguiendo una serie de instrucciones almacenadas llamadas de un programa. Las calculadoras evolucionaron en las computadoras cuando las personas idearon formas de hacer calculadoras programables totalmente automáticas. La primera persona que intento esto fue Charles Babbage, sus máquinas tenían entrada, una memoria, un procesador y una salida. Babbage tenía la idea que su máquina sería utilizada por el ejército para compilar las tablas que ayudaron a sus artilleros de los cañones de fuego con mayor precisión. Hacia el final del siglo 19 el estadístico estadounidense Herman Hollerith construyó una de las primeras máquinas de calcular prácticos del mundo, que él llamó un tabulador, para ayudar a compilar los datos del censo lo cual fue un verdadero éxito. En 1925 Vannevar Bush hizo la primera de una serie de artilugios como calculadoras analógicas, en 1945 una de las contribuciones de guerra finales de Bush fue esbozar  una idea para un dispositivo de memoria de almacenamiento y uso compartido llamada Memex que más tarde inspirará Tim Berners-Lee para inventar la World Wide Web.

Los primeros ordenadores modernos

Los años de la Segunda Guerra Mundial fueron un período crucial en la historia de la informática, cuando poderosas computadoras gigantescas comenzaron a aparecer. Justo antes del estallido de la guerra, en 1938, el ingeniero alemán Konrad Zuse construyó su Z1, la primera computadora programable binaria del mundo, con el fin de tomar decisiones simples.

La mayoría de las máquinas desarrolladas por estas fechas estaban destinadas para fines militares. Al igual que los motores mecánicos no integrados de Babbage, que fueron diseñados para calcular las tablas de tiro de artillería y masticar a través de las otras tareas complejas que eran entonces la cantidad de matemáticos militares o como el caso de Alan Turing para ayudar descifrar códigos alemanes secretos.

Posteriormente, necesidades militares estaban conduciendo el desarrollo de máquinas como el ENIAC, pero el tamaño de los tubos de vacío ahora se había convertido en un verdadero problema.

La solución apareció en 1947 gracias a tres físicos que trabajan en Bell Telephone Laboratories, John Bardeen, Walter Brattain y William Shockley fueron ayudando a Bell a desarrollar nuevas tecnologías para el sistema telefónico público, por lo que las señales eléctricas que realizan llamadas telefónicas podrían ser amplificadas más fácilmente y llevado más lejos. Al igual que los tubos de vacío, transistores podrían ser utilizados como amplificadores o como interruptores. Aunque transistores eran un gran avance en los tubos de vacío, un problema clave se mantuvo. Las máquinas que utilizan miles de transistores aún tenían que ser cableado mano para conectar todos estos componentes juntos. Ese proceso fue laborioso, costoso y propenso a errores. La conclusión lógica de todo esto miniaturización fue que, algún día, alguien sería capaz de “poner” o “grabar” un equipo completo en un chip. Uno de los ingenieros de Intel, Marciano se dio cuenta de que en lugar de hacer una serie de fichas de especialistas para una gama de calculadoras, él podría hacer un chip que podría ser programado para trabajar en todos ellos. Así nació el propósito general, solo ordenador chip o microprocesador y que provocó la siguiente fase de la revolución informática. En 1974, Intel lanzó un microprocesador popular conocido como el 8080. En 1981 IBM lanzo el primer Personal Computer. El PC fue muy bien recibido gracias a las facilidades que brindada a las personas para solucionar diferentes clases de problemas.

...

Descargar como (para miembros actualizados) txt (8 Kb) pdf (124 Kb) docx (21 Kb)
Leer 5 páginas más »
Disponible sólo en Clubensayos.com