Diferencias entre Arquitecturas RISC y CISC
Enviado por diegog20x • 28 de Octubre de 2013 • 579 Palabras (3 Páginas) • 574 Visitas
Diferencias entre Arquitecturas RISC y CISC.
CISC (Complex Instruction Set Computer) Computadoras con un conjunto de instrucciones complejo.
RISC (Reduced Instruction Set Computer) Computadoras con un conjunto de instrucciones reducido.
La arquitectura CISC se refiere a los micorprocesadores tradicionales que operan con grupos grandes de instrucciones de procesador (lenguaje de maquina). Los microprocesadores INTEL 80xxx estan dentro de esta categoria (incluido el PENTIUM). Los procesadores CISC tienen un set de instrucciones complejas por naturaleza que requieren varios a muchos ciclos para completarse.
La arquitectura RISC a diferencia de los CISC tiene un set de instrucciones simples requeriendo uno o pocos ciclos de ejecucion. Estas instrucciones pueden ser utilizadas mas eficientemente que la de los procesadores CISC con el diseño de software apropiado, resultando en operaciones mas rapidas.
VON NEWMAN
La arquitectura de von Neumann es una familia de arquitecturas de computadoras que utilizan el mismo dispositivo de almacenamiento tanto para las instrucciones como para los datos (a diferencia de la arquitectura Harvard).
La mayoría de computadoras modernas están basadas en esta arquitectura, aunque pueden incluir otros dispositivos adicionales, (por ejemplo, para gestionar las interrupciones de dispositivos externos como ratón, teclado, etc).
Arquitectura Harvard
Originalmente, el término Arquitectura Harvard hacía referencia a las arquitecturas de computadoras que utilizaban dispositivos de almacenamiento físicamente separados para las instrucciones y para los datos (en oposición a la Arquitectura de von Neumann). El término proviene de la computadora Harvard Mark I, que almacenaba las instrucciones en cintas perforadas y los datos en interruptores.
Todas las computadoras constan principalmente de dos partes, la CPU que procesa los datos, y la memoria que guarda los datos. Cuando hablamos de memoria manejamos dos parámetros, los datos en sí, y el lugar donde se encuentran almacenados (o dirección). Los dos son importantes para la CPU, pues muchas instrucciones frecuentes se traducen a algo así como "coge los datos de ésta dirección y añádelos a los datos de ésta otra dirección", sin saber en realidad qué es lo que contienen los datos.
En los últimos años la velocidad de las CPUs ha aumentado mucho en comparación a la de las memorias con las que trabaja, así que se debe poner mucha atención en reducir el número de veces que se accede a ella para mantener el rendimiento. Si, por ejemplo, cada instrucción ejecutada en la CPU requiere un acceso a la memoria, no se gana nada incrementando la velocidad de la CPU (este problema es conocido como limitación de memoria).
Se puede fabricar memoria mucho más rápida, pero a costa de un precio muy alto.
...