Computacion
Enviado por duleysyadays • 28 de Octubre de 2012 • 3.301 Palabras (14 Páginas) • 314 Visitas
Tucupido, 18 de Octubre del 2012
ORGANIZACIÓN BÁSICA Y DISEÑO DEL COMPUTADOR
La organización de un computador parte de la manera como el hombre se ha ido ordenando, ella puede recibir diversos nombres. Ente ellos termino computadora proviene del Ingles (Computer) que significa “maquina de computar o calcular. También del término francés ordinateur procede de la denominación de Ordenador, que se refiere a la tarea de poner en orden la información.
• Definición de Computador:
Es una máquina capaz de efectuar una secuencia de operaciones mediante un programa, de tal manera, que se realice un procesamiento sobre un conjunto de datos de entrada, obteniéndose un conjunto de datos de salida, formada en un sistema de procesadores interconectados, memorias y dispositivos de entrada/salida que permiten efectuar rápidamente cualquier operación que se le asigne.
• Diseño de un computador:
Las computadoras están estructuradas según un modelo básico de funcionamiento que describe la interacción que se realiza entre los elementos que la componen, estos son Hardware, software y el elemento humano.
• Organización Básica:
-Elemento Físico (Hardware): Hard (duro) y Ware (equipo). Constituye todo el equipo duro del computador, la parte tangible o perceptible.
-Elemento Lógico (Software): Soft (suave) y Ware (equipo). Constituye la parte imperceptible o intangible. Está formado por los programas del computador, siendo el principal el del sistema.
-Elemento Humano (Personal informático): Sistema de Cómputo.
ORGANIZACIÓN Y ARQUITECTURA DE UNA COMPUTADORA
La arquitectura de una computadora es el conjunto de registros e instrucciones que debe conocer un programador para utilizarla. La organización de una computadora se define mediante sus registros internos, la estructura de temporización y control y la secuencia de micro-operaciones que ejecuta sobre los datos almacenados en sus registros.
CÓDIGOS DE INSTRUCCIÓN
Es la forma de cómo ejecutar una acción específica, estos códigos se almacenan en la memoria, que también guarda los resultados. Una instrucción se puede ver como una cadena de bits que se agrupan en campos con tamaños diferentes, es decir, es un código binario que especifica una secuencia de micro-operaciones para la computadora.
Los códigos de instrucción es un código de bits que instruye a la computadora sobre como ejecutar una operación específica, por lo general se divide en partes y cada uno tiene interpretación propia, estos junto con los datos se almacenan en la memoria y especifica además, los registros o palabras de memoria en donde se va a encontrar los operandos, donde se va a almacenar el resultado.
La computadora lee cada instrucción de la memoria y la coloca en un registro de control. Entonces el control interpreta el código binario de la instrucción y proceda a ejecutarlo mediante una secuencia de micro-operaciones. La parte más básica de un código de instrucción es su operación.
TIPOS DE INSTRUCCIONES
Las instrucciones que es capaz de realizar la UCP se denominan instrucciones máquina. El lenguaje que se utiliza para su codificación es el lenguaje máquina y, de acuerdo con su función, se clasifican en:
• Instrucciones de transferencia de datos. Transfieren datos.
• Instrucciones aritméticas, lógicas y de comparación. Operaciones.
• Instrucciones de transferencia de control. Secuencia de ejecución.
•Instrucciones de gobierno. Controlan estado CPU.
EL CÓDIGO DE OPERACIÓN
Es un grupo de bits que define las operaciones como sumar, multiplicar, desplazar o complementar. Un código de operación se denomina macroinstrucción, porque específica un conjunto de micro-operaciones. Asimismo, las instrucciones se forman por dos campos:
Código de operación (CO), que indica qué operación se debe realizar por el procesador. Operandos, relativos a los datos, que son necesarios para realizar su misión.
En función de esto tenemos, los siguientes tipos de instrucciones:
-Instrucciones de tres operandos: Constan en primer lugar de código de operacional que siguen tres operandos, de los cuales, los dos primeros son las direcciones de los argumentos que hay que operar y el tercero es la dirección donde se depositará el resultado. Este formato se adoptó en algunos de los primeros computadores, en los que la capacidad de la memoria era pequeña y por tanto bastaba con pocos bits para los campos de dirección. De no ser así, la longitud del formato resulta ser excesivamente grande.
-Instrucciones de dos operandos: Contienen el código de operación y dos operandos, de los que uno de ellos actúa, además, como receptor del resultado de la operación. En las máquinas que utilizan instrucciones con dos direcciones el resultado puede depositarse en el lugar que inicialmente ocupaba uno de los operandos.
-Instrucciones de un solo operando: Se utilizan generalmente en máquinas cuya arquitectura funciona con filosofía de acumulador. El acumulador de la UAL contiene previamente el primer argumento de la operación, el segundo es el contenido en la propia instrucción, y después de ser operados ambos por el circuito operacional, el resultado queda depositado de nuevo en el acumulador.
-Instrucciones sin operandos: Una pila está formada por datos almacenados en orden consecutivo en la memoria, existiendo un registro especial, denominado puntero de pila, que nos indica la dirección del último dato introducido en ella. Cuando se saca un dato de la misma, el puntero de la pila decrece apuntando al dato que está a continuación en la pila hacia lo que llamaremos fondo de la misma y que será aquel dato que se introdujo en primer lugar.
MÉTODOS DE DIRECCIONAMIENTO
Un modo de direccionamiento de una instrucción es el modo que se utiliza en la misma para indicar la posición de memoria en que está el dato o datos intervinientes en la instrucción.
Los programas utilizan normalmente varios modos de direccionamiento.
Algunas arquitecturas no permiten la utilización de determinados modos de direccionamiento. Cada modo puede combinarse con los demás, de manera que el número de modos de direccionamiento disponible en teoría es limitado.
Los modos de direccionamiento pueden clasificarse de la siguiente forma:
*Inmediato: Se dice que el direccionamiento es inmediato cuando la instrucción contiene el dato que hay que utilizar, no siendo necesario ningún acceso a la memoria.
*Directo: La instrucción contiene la dirección de la memoria central donde se encuentra situado el dato. Esto hace necesario un acceso a memoria para trasladar el dato hasta la unidad aritmético-lógica o
...