Trabajo de Investigación sobre la Informática
Enviado por Edward Gavidia • 20 de Enero de 2022 • Trabajo • 2.342 Palabras (10 Páginas) • 710 Visitas
República Bolivariana de Venezuela[pic 1]
Universidad Nacional Experimental Marítima del Caribe
Vicerrectorado Académico
Escuela de Ciencias Sociales
Unidad Curricular: Informática
Sección INGM-A
Informática
Estudiantes
Gavidia Edward 28444677
Guilarte Franger 29521591
Malavé Luisangel 29606370
Docente
Niurka Cedeño
Índice
- Introducción a la informática………………………..1
- Evolución de la informática………………………….2
- Programas y lenguajes de programación………….3
- Algoritmos………………………………………….... 4
- Diagrama de flujo de datos…………………………6
- Pseudocódigos………………………………………6
- Conclusión……………………………………………8
- Bibliografía……………………………………………9
Introducción
El presente trabajo tiene como objetivo dar a conocer diversos temas del área de la informática, se abarcará términos básicos que servirán de ayuda para familiarizarte con la informática que no es nada más que un sistema de automatización de procesos a través de diferentes tipos de dispositivos. Así mismo, el trabajo posee una breve explicación de la evolución que ha tenido la informática a lo largo del tiempo y tendrás conceptos básicos tales como pueden ser el Hardware y Software que son cosas básicas del mismo.
La informática ha ido cambiando rápidamente la sociedad actual debido a su rápido crecimiento y expansión. Sin embargo, el público solo los entiende superficialmente. Una cosa importante para adentrarse en el asombroso mundo de la informática es dejar de tener que preocuparse por esa extraña pantalla, el complicado teclado y esos misteriosos discos, para poder comprender lo práctico, útil y sencillo que son en la vida diaria como nuestros aliados.
Si no fuera por el desarrollo de las computadoras, no habría un mundo de alta tecnología. Toda la sociedad utiliza estos tipos y tamaños de máquinas para almacenar y procesar datos. Con la ayuda de la tecnología de automatización, los equipos informáticos abrieron una nueva era en la fabricación e hicieron posible mejorar los sistemas de comunicación modernos. Son herramientas esenciales en casi todos los campos de la investigación y la tecnología de aplicación.
Introducción a la informática
A continuación, presentaremos diferentes conceptos básicos útiles para comprender la informática y sus componentes:
Sociedad de la Información: Se conoce como el estado de desarrollo social que se caracteriza por la capacidad de sus integrantes para obtener y compartir cualquier información, instantáneamente, desde el lugar que quiera y de la forma que desee. También es conocida como grupo de humanos cuyas acciones de desarrollo y supervivencia esté basado principalmente en conocimientos mediatizados por las nuevas tecnologías de información y comunicación.
Informática y ofimática: La informática se podría decir que es la unión de conocimientos técnicos y científicos que permiten el manejo automático de información por medio de ordenadores, los cuales se conocen como un aparato electrónico con una memoria de gran capacidad que tiene métodos ordenados de tratamiento de la información, capaz de resolver problemas aritméticos y lógicos, gracias a la utilización de programas instalados en ella. Conociendo que es la informática se puede entender que la ofimática es aquella la cual brindar elementos que simplifiquen, posibiliten, auxilien y mejoren en cuanto a la organización de las actividades que realizan un grupo.
Hardware y software: El software es la parte intangible del computador, mientras que el hardware es la parte física, cada uno cumple una función diferente y a la vez que importante, el hardware no puede funcionar sin el software ya que es el que le manda que hacer o por donde él se guía, además el hardware es de salida y el software es de entrada.
Unidades de medida: Toda, absolutamente toda la información que maneja un ordenador es sistema binario son (0 ó 1). Estos ceros o unos se manejan por operaciones lógicas o aritméticas. La unidad más pequeña que se conoce en un ordenador corresponde a un dígito binario (bit), que es la abreviatura de la palabra inglesa Binary Digit. Al conjunto de 8 bits se le denomina byte, por lo tanto, cada carácter (letra, número, o símbolo del teclado) está representado por un byte, que a su vez está constituido por 8 bits. Estas unidades de medida resultan muy pequeñas, por lo que se utilizan múltiplos del byte. Así se habla de Kilobyte, Megabyte, Gigabyte, etc.
Evolución de la informática
- El primer instrumento que se utilizó para el cálculo fue el ábaco. Lo inventaron los chinos y lo utilizaron los romanos hasta el siglo IV a. C.
- En 1645, Blaise Pascal construyó una máquina para sumas y restas que estaba compuesta de ruedas dentadas que al girar permitían obtener el resultado de la operación. Lastimosamente no supuso un éxito comercial por su elevado coste.
- En 1675, Von Leibniz construyó otra capaz de realizar las cuatro operaciones básicas.
- El primer precedente de los ordenadores apareció en 1837, cuando Charles Babbage inició los esquemas de una máquina controlada por relojes, para evaluar polinomios. Sin embargo, no llegó a construirse estando él vivo, ya que no contó con el respaldo económico del Gobierno. Lo que sí se consiguió cien años después de muerto.
- La primera máquina capaz de hacer cálculos la construyó Herman Hollerith. Era de tipo electromecánico. Estas máquinas se fueron perfeccionando hasta llegar a la construcción del MARK-I por Howard H. Aiken, basándose en la idea de la máquina analítica de Charles Babbage. Tenía 760.000 ruedas y 800 kilómetros de cable.
- En este periodo de (1946–1955) los ordenadores eran construidos a base de válvulas de vacío y relés electromagnéticos. El procesador era secuencial. Las tarjetas perforadas introducían los datos. Al comienzo de esta época se construyó el ENIAC que utilizaba alrededor de 19.000 válvulas de vacío y 1.500 relés. Ocupaba una gran habitación y solo trabajaba con veinte números de diez dígitos.
- (1955–1964) Aparece el transistor sustituyendo las válvulas de vacío. Los transistores son mucho más pequeños, desprenden menos calor y se averían menos. Por ello, los ordenadores han ido reduciendo su tamaño. En este periodo se construyó el UNIVAC 1100.
- (1964–1970) Comienzan a utilizarse los circuitos integrados, formados por miles de transistores conectados entre sí e insertados en un solo chip. Los ordenadores, que ya permiten ejecutar varios programas a la vez, reducen aún más su tamaño y aumenta su velocidad de cálculo. Comienza a estandarizarse los programas para crear software (aplicaciones para empresas, primeros videojuegos).
- De (1971-1981) estuvo presente el reemplazo de las memorias con núcleos magnéticos, por las de chips de silicio. Colocación de muchos más componentes en un Chip: producto de la microminiaturización de los circuitos electrónicos. Además, Texas Instruments inicia la fabricación de microprocesadores y lanza la primera calculadora de bolsillo. El tamaño reducido del microprocesador de chips hizo posible la creación de las computadoras personales (PC), que dará lugar a la quinta generación de ordenadores.
- En 1981, la empresa IBM construyó el primer ordenador personal y revolucionó el mercado informático. La utilización de circuitos con mayor nivel de integración, la bajada de precios y el continuo aumento de prestaciones y servicios generalizan la difusión del ordenador.
Programas y Lenguajes de Programación
Los programas serian una serie compleja de algoritmos ordenados y codificados mediante un lenguaje de programación para su posterior ejecución en un computador. Los programas se presentan como herramientas para mejorar tu desempeño o para mero entretenimiento de su usuario, ya que los programas son muy variados y hay de todo tipo y para cada necesidad. Los programas tienen un lenguaje el cual se sería el lenguaje de programación, que en si es un sistema estructurado de comunicación, el cual está conformado por conjuntos de símbolos, palabras claves, reglas semánticas y sintácticas que permiten el entendimiento entre un programador y una máquina. El lenguaje de programación obedece a un conjunto de reglas que permiten expresar las instrucciones que serán interpretadas por el programador y el lenguaje informático comprende otros lenguajes que dan formato a un texto, pero no son programación en sí mismos. No todos los lenguajes informáticos son de programación, pero todos los lenguajes de programación son a la vez informáticos.
...