Informatica Basica
Enviado por hercy • 4 de Julio de 2014 • 4.396 Palabras (18 Páginas) • 263 Visitas
CONCEPTOS INFORMÁTICOS BÁSICOS:
Informática:
Def 1: Se define como la ciencia que estudia el tratamiento lógico, racional y automático de la
información.
Def 2: Ciencia que estudia la recogida, organización, transformación y transmisión de la
información de una forma lógica y racional, empleando para ello medios humanos, mecánicos y
electrónicos.
Características: Flexibilidad y rápidez.
La informática trabaja según los siguientes pasos: primero la entrada de unos datos,
después el procesamiento de estos y por último la salida de los resultados obtenidos con ese
procesamiento.
Aunque el primer ordenador data de 1945, la informática surge en 1962 a partir de la
unión de las voces de INFORmación y autoMATICA, lo cual es lógico, pues los primeros
ordenadores solo estaban concebidos para el cálculo y no para el tratamiento de la
información.
El término informática nace en Francia (INFORMATIQUE) en 1962 y llega a España en
1968. En los países anglosajones se traduce por Computer Sciencie.
Sistema informático: Conjunto formado por uno o varios ordenadores y sus periféricos, que
ejecutan aplicaciones informáticas, y que son controlados por personal especializado.
Hardware y Software
Hardware:
Elementos físicos (o material) del sistema computador, ya sean eléctricos, electrónicos,
mecánicos o magnéticos: teclado, monitor, disqueteras, disquetes, impresoras,... Representa la
fuerza.
Software:
Todo lo que no tiene cualidades físicas, como los datos o programas. Representa la
inteligencia.
“El hardware es lo que golpeamos cuando el software se cuelga”.
Ordenador o computador:
Máquina compuesta de elementos físicos de tipo electrónico, capaz de realizar una
gran variedad de trabajos a gran velocidad y con gran precisión, siempre que reciba las
instrucciones adecuadas. Es un sistema que bajo el control de un programa almacenado capta
o acepta datos de entrada, los procesa y produce unos resultados.
ENTRADA (DATOS) PROCESO SALIDA (RESULTADOS)
Auxiliar administrativo febrero de 2001 Teoría. Tema 101
Página 3 de 18 Weberia
Def 2: Máquina que acepta unos datos de entrada, efectúa con ellos operaciones lógicas y
matemáticas, y proporciona la información resultante a través de un medio de salida; todo ello
sin intervención de un operador humano y bajo el control de un programa de instrucciones
previamente almacenado.
La calculadora es una máquina capaz de efectuar operaciones matemáticas bajo el
control directo del usuario ? no enlaza automáticamente las operaciones que realiza, objetivo
que se cubre con el programa almacenado en el caso del computador.
Programa:
Conjunto de órdenes que se dan a una computadora para realizar un proceso
determinado. Al conjunto de uno o varios programas que realizan un determinado trabajo
completo se le denomina Aplicación Informática.
Magnitudes analógicas y digitales
Magnitudes analógicas: Magnitudes obtenidas de una variación continua, es decir, sin saltos
bruscos en los valores en un intervalo de tiempo determinado (por ejemplo la medición de la
temperatura).
Magnitudes discretas: Magnitudes que varían a lo largo del tiempo tomando valores
definidos, nunca toman valores intermedios, varían «a saltos».
Señales digitales: son un caso concreto de las magnitudes discretas. Son muy importantes,
ya que son la base del funcionamiento de los ordenadores. Una señal digital es una señal
discreta que sólo posee dos valores (0 y 1).
Comunicación y codificación
Comunicación puede definirse como la transmisión de información entre diversas entidades
organizada según ciertas reglas básicas.
Para que cualquier tipo de comunicación pueda efectuarse debe existir:
?? Un emisor que origina la comunicación.
?? Un mensaje, codificado y transmitido por el emisor.
?? Un medio o canal por el cual viaja el mensaje.
?? Un receptor que recibe el mensaje, lo decodifica y lo analiza.
Codificación: Adaptación del mensaje al medio y al receptor.
En el mundo de los ordenadores, la información se codifica y el sistema más básico se
denomina SISTEMA BINARIO (matemáticamente hablando, es un sistema de numeración),
basado en las señales digitales.
El sistema binario
Auxiliar administrativo febrero de 2001 Teoría. Tema 101
Página 4 de 18 Weberia
Las señales digitales son la base de la comunicación entre ordenadores. Para codificar las
señales digitales se utiliza un sistema denominado binario (el 0 y el 1 donde el 0 es ausencia
de corriente).
El sistema binario es el equivalente de los ordenadores a nuestro sistema de numeración.
Nuestros diez dígitos (base diez o decimal) se convierten en dos (base dos o binario).
Con un único símbolo del sistema decimal podemos expresar 10 valores distintos (0 al 9) ?
con un símbolo en binario solo dos (0 y 1) ? La cantidad mínima de información que podemos
representar con el sistema binario se denomina BIT, de Binary Digit (dígito binario) ? es la
unidad básica de la informática.
Correspondencia entre sistema binario (base 2),
decimal (base 10) y hexadecimal (base 16):
Suma en sistema binario:
1102 + 1012 = 10112
Misma suma en decimal:
610 + 5 10 = 1110
Misma suma en hexadecimal:
616 + 516 = B16
Binario:
Con el sistema binario podemos representar cualquier número.
Por ejemplo, el número 499:
499 2
1 249 2
1 124 2
0 62 2
0 31 2
1 15 2
1 7 2
1 3 2
1 1
en binario es 00000001 11110011. Para facilitar el manejo de la información representada con
el sistema binario se agrupan las cadenas de bits en grupos. La asociación más importante es
la que engloba 8 bits denominada octeto o byte.
Byte: Agrupación de 8 bits que se trata como una única unidad de información. Ver tabla en
capacidad de información de los periféricos de almacenamiento en hardware.
Cuando se agrupan en 4 se denomina NIBBLE (sin utilidad práctica).
Decimal Binario Hexadec
0 0 0
1 1 1
2 10 2
3 11 3
4 100 4
5 101 5
6 110 6
7 111 7
8 1000 8
9 1001 9
10 1010 A
11 1011 B
12 1100 C
13 1101 D
14 1110 E
15 1111 F
Auxiliar
...