LA INFORMATICA
Enviado por solrac_zerep • 10 de Noviembre de 2012 • 1.290 Palabras (6 Páginas) • 319 Visitas
♣ Definición de Informática:
Es una contracción de las palabras information y automatik (información automática). Se puede entender como aquella disciplina encargada del estudio de métodos, procesos, técnicas, desarrollos y su utilización en ordenadores (computadoras), con el fin de almacenar, procesar y transmitir información y datos en formato digital.
♣ Importancia de la informática:
La informática es importante porque gran parte de nuestra sociedad se ha desarrollado al amparo de las nuevas tecnologías y porque en la actualidad, forma parte no digamos esencial, si no primordial de la cotidianidad de las personas, porque con todos y cada uno de los programas que nos ofrece, nos está permitiendo, una comunicación mucho más avanzada que en los tiempos de nuestros antepasados, ya que nos es más fácil estar comunicados unos con otros, sin necesidad de trasladarnos de un lugar a otro, con un simple clic, estamos hablando a pesar de la distancia que nos separe en ese momento.
♣ Origen y evolución de la informática:
El origen de la informática está dado por el ábaco chino, éste era una tablilla dividida en columnas en la cual la primera, contando desde la derecha, correspondía a las unidades, la siguiente a la de las decenas, y así sucesivamente. A través de sus movimientos se podía realizar operaciones de adición y sustracción.
Otro de los hechos importantes en la evolución de la informática lo situamos en el siglo XVII, donde el científico francés Blas Pascal inventó una máquina calculadora. Ésta sólo servía para hacer sumas y restas, pero este dispositivo sirvió como base para que el alemán Leibnitz, en el siglo XVIII, desarrollara una máquina que, además de realizar operaciones de adición y sustracción, podía efectuar operaciones de producto y cociente. Ya en el siglo XIX se comercializaron las primeras máquinas de calcular. En este siglo el matemático inglés Babbage desarrolló lo que se llamó "Máquina Analítica", la cual podía realizar cualquier operación matemática y hasta podía usar funciones auxiliares, sin embargo seguía teniendo la limitación de ser mecánica.
Recién en el primer tercio del siglo XX, con el desarrollo de la electrónica, se empiezan a solucionar los problemas técnicos que acarreaban estas máquinas, reemplazándose los sistemas de engranaje y varillas por impulsos eléctricos.
Con el desarrollo de la segunda guerra mundial se construye el primer ordenador, el cual fue llamado Mark I y su funcionamiento se basaba en interruptores mecánicos.
En 1944 se construyó el primer ordenador con fines prácticos que se denominó Eniac.
En 1951 son desarrollados el Univac I y el Univac II (se puede decir que es el punto de partida en el surgimiento de los verdaderos ordenadores, que serán de acceso común a la gente).
El mundo, desde fines del siglo XX, se halla desarrollando una revolución tecnológica basada en la Informática, la que encuentra su principal impulso en el acceso libre y en la capacidad de procesamiento de información sobre prácticamente todos los temas y sectores.
Estamos viviendo un cambio hacia lo que ya se conoce como la Sociedad de la Información, de la cual la informática es la infraestructura fundamental.
♣ Generaciones de la informática:
1° Generación: se desarrolla entre 1940 y 1952. Es la época de los ordenadores que funcionaban a válvulas y el uso era exclusivo para el ámbito científico/militar. Para poder programarlos había que modificar directamente los valores de los circuitos de las máquinas.
2° Generación: va desde 1952 a 1964. Ésta surge cuando se sustituye la válvula por el transistor. En esta generación aparecen los primeros ordenadores comerciales, los cuales ya tenían una programación previa que serían los sistemas operativos. Éstos interpretaban instrucciones en lenguaje de programación (Cobol, Fortran), de esta manera, el programador escribía sus programas en esos lenguajes y el ordenador era capaz de traducirlo al lenguaje máquina.
3° Generación: se dio entre 1964 y 1971. Es la generación en la cual se comienzan a utilizar los circuitos integrados; esto permitió por un lado abaratar costos y por el otro aumentar la capacidad de procesamiento reduciendo el tamaño físico de las máquinas y un mejoramiento en los lenguajes de programación.
4° Generación: se desarrolla entre los años 1971 y 1981. Esta fase de evolución se caracterizó por la integración de los componentes electrónicos, y esto dio lugar a la aparición del microprocesador,
...