ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

Computación En Paralelo


Enviado por   •  24 de Noviembre de 2013  •  2.561 Palabras (11 Páginas)  •  505 Visitas

Página 1 de 11

Introducción

La computación Paralela, es muy importante actualmente, al permitir mejorar la velocidad en la solución de grandes problemas, de modo que se mejora el rendimiento de computo.

La computación paralela es una forma de cómputo en la que muchas instrucciones se ejecutan simultáneamente, operando sobre el principio de que problemas grandes, a menudo se pueden dividir en unos más pequeños, que luego son resueltos simultáneamente (en paralelo). Hay varias formas diferentes de computación paralela: paralelismo a nivel de bit, paralelismo a nivel de instrucción, paralelismo de datos y paralelismo de tareas.

Las computadoras paralelas pueden clasificarse según el nivel de paralelismo que admite su hardware: equipos con procesadores multinúcleo y multi-procesador que tienen múltiples elementos de procesamiento dentro de una sola máquina y los clústeres, MPPS y grids que utilizan varios equipos para trabajar en la misma tarea. Muchas veces, para acelerar la tareas específicas, se utilizan arquitecturas especializadas de computación en paralelo junto a procesadores tradicionales.

Procesamiento paralelo

Es un proceso empleado para acelerar el tiempo de ejecución de un programa dividiéndolo en múltiples trozos que se ejecutaran al mismo tiempo, cada uno en su propios procesadores.

El procesamiento en paralelo se basa principalmente en multiprocesadores fuertemente acoplados que cooperan para la realización de los procesos.

Sus características son:

•posee dos o más procesadores de uso general similares y de capacidades comparables.

•todos los procesadores comparten el acceso a una memoria global

•también puede utilizarse algunas memorias locales (privadas como la cache).

El procesamiento paralelo implica una serie de dificultades a nivel programación de software la ventaja de el procesamiento en paralelo es ejecuta procesos en donde cada procesador se encargar de uno u otro y aceleran de esta forma el calculo

4.1 Aspectos básicos de la computación paralela

La computación paralela es el uso simultáneo de múltiples recursos computacionales para resolver un problema computacional.

Los aspectos a considerar son:

• -Diseño de computadores paralelos. Escalabilidad y comunicaciones

• -Diseño de algoritmos eficientes. No hay ganancia si los algoritmos no se diseñan adecuadamente-Métodos para evaluar los algoritmos paralelos. ¿Cómo de rápido se puede resolver un problema usando una maquina paralela? ¿Con que eficiencia se usan esos procesadores?

• -Lenguajes para computadores paralelos, flexibles para permitir una implementación eficiente y que sean fáciles de programar.

• -Herramientas para la programación paralela

• -Programas paralelos portables

4.2 Tipos de computación paralela

La computación paralela o procesamiento en paralelo consiste en acelerar la ejecución de un programa mediante su descomposición en fragmentos que pueden ejecutarse de forma simultánea, cada uno en su propia unidad de proceso

En este sentido se habla de mayor o menor grado de paralismo en la medida en que un algoritmo sea más o menos divisible en partes independientes con igual coste computacional

Entre las interacciones hay que considerar dos siguientes:-la transferencia de datos.

-la sincronización de los cálculos de los diferentes procesadores

4.2.1 Taxonomía de las arquitecturas paralelas

Las diferentes posibilidades existentes para desarrollar sistemas paralelos hacen que una clasificación definitiva sea complicada, y seguramente estéril. En primer lugar las características básicas del modelo secuencial, con el fin de delimitar los aspectos básicos que son comunes o diferentes de los sistemas paralelos.

Una clasificación clásica propuesta por flynn que se basa en el flujo de instrucciones y en el flujo de datos, es decir el mecanismo de control utilizado.

4.2.2 Arquitectura de los computadores secuenciales

Los computadores secuenciales, también denominados computadores serie, se basan en la arquitectura de J. Von Neumann. En este modelo se considera una única secuencia de instrucciones que tratan una única secuencia de datos. Por ello se conocen como computadores sisd.

4.2.2.1 Taxonomía de Flynn

La taxonomía de Flynn es una clasificación de arquitecturas de computadores propuesta por Michael J. Flynn en 1972.

Las cuatro clasificaciones definidas por Flynn se basan en el número de instrucciones concurrentes (control) y en los flujos de datos disponibles en la arquitectura:

• Una instrucción, un dato (SISD)

Computador secuencial que no explota el paralelismo en las instrucciones ni en flujos de datos. Ejemplos de arquitecturas SISD son las máquinas con uni-procesador omonoprocesador tradicionales como el PC o los antiguos mainframe.

• Múltiples instrucciones, un dato (MISD)

Poco común debido al hecho de que la efectividad de los múltiples flujos de instrucciones suele precisar de múltiples flujos de datos. Sin embargo, este tipo se usa en situaciones de paralelismo redundante, como por ejemplo en navegación aérea, donde se necesitan varios sistemas de respaldo en caso de que uno falle. También se han propuesto algunas arquitecturas teóricas que hacen uso de MISD, pero ninguna llegó a producirse en masa.

• Una instrucción, múltiples datos (SIMD)

Un computador que explota varios flujos de datos dentro de un único flujo de instrucciones para realizar operaciones que pueden ser paralelizadas de manera natural. Por ejemplo, un procesador vectorial.

• Múltiples instrucciones, múltiples datos (MIMD)

Varios procesadores autónomos que ejecutan simultáneamente instrucciones diferentes sobre datos diferentes. Los sistemas distribuidos suelen clasificarse como arquitecturas MIMD; bien sea explotando un único espacio compartido de memoria, o uno distribuido.

4.2.2.2 Organización del espacio de direcciones de memoria

El intercambio de información entre procesadores depende del sistema de almacenamiento que se disponga.

Sistemas de memoria compartida o multiprocesadores

Se caracterizan por compartir físicamente la memoria, es decir todos acceden al mismo espacio de direcciones. En esta arquitectura a la memoria es igualmente accesible por todos los procesadores a través de la red de interconexión.

Sistemas de memoria distribuida o multicomputadores

En estos sistemas cada procesador dispone de su propia

...

Descargar como (para miembros actualizados) txt (18 Kb)
Leer 10 páginas más »
Disponible sólo en Clubensayos.com