ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

Pasado, Presente y Futuro de los Sistemas de Información Distribuidos


Enviado por   •  15 de Noviembre de 2018  •  Informe  •  1.875 Palabras (8 Páginas)  •  109 Visitas

Página 1 de 8

Pasado, Presente y Futuro de los Sistemas de Información Distribuidos

La disciplina de los sistemas de información distribuidos, surge en la década de los 90, en la época que comienza el “boom de internet” cuando los ingenieros encargados de desarrollar y mantener los sistemas de información de una empresa se ven en la necesidad de ampliar la cobertura de su sistema, dando con esto la posibilidad de que tanto el personal interno como el externo de la empresa cuenten con este servicio.

Sucede un cambio radical y de un momento a otro se pasa de una mentalidad centralizada, donde prevalecía la confidencialidad y sistemas de información basados en Intranet, a una mentalidad totalmente opuesta, descentralizada y basada en Internet. Esto se ve influenciado por la caída de los equipos de hardware y materiales de comunicación, con esto en poco tiempo surgiría una nueva tecnología con el objetivo de mantener sistemas de información descentralizados, distribuidos y abiertos que funcionen sobre web.

Los sistemas de información históricamente han estado relacionada con la disciplina que analiza, diseña, desarrolla, implanta y mantiene el sistema informático de una empresa. Mientras que los sistemas distribuidos históricamente ha estado relacionada con el paradigma de la programación distribuida, como algoritmos distribuidos, modelos para la implementación abstracta de memoria compartida distribuida, sistemas de archivos y sistemas de gestión de bases de datos distribuidos, comunicación y paso de mensajes entre procesos concurrentes, sincronización, seguridad, y tolerancia a fallos, entre otros factores.

La evolución de los sistemas tecnológicos de última generación tienes que estar al pendiente de demandas de los profesionales de desarrollo de software, organizaciones y empresas. El crecimiento de internet y la gran variedad de información que se encuentra en la red a dado lugar a una nueva realidad, la convergencia de estas dos disciplinas.

El proceso de desarrollo de sistemas de información ha evolucionado en muy poco tiempo pasando de ser un modelo centralizado a ser un modelo descentralizado abierto y distribuido. Este sistema solía estar localizado en un mismo espacio geográfico, desde aquí, el equipo humano de profesionales, que tradicionalmente estaba compuesto por las categorías de analistas y programadores de sistemas, elaboraba las aplicaciones del sistema de información haciendo uso de conocimientos y prácticas tradicionales del proceso de ingeniería del software.

A mediados de los 80 comienza la explosión de PCs (servicio de comunicación personal) la masiva presencia de equipos de bajo coste, permitiría a los ingenieros desarrollar grandes aplicaciones desglosadas en módulos software que podían estar ubicados en distintos ordenadores, dando lugar ahora a un nuevo enfoque en el desarrollo de sistemas de información. Al inicio estos bloques software funcionaban como elementos de computo interdependientes, luego los ingenieros vieron la necesidad de disponer nuevas técnicas para la comunicación y transferencia de datos entre los elementos de cómputo.

Dieron comienzo a la elaboración de nuevas tecnologías para la programación distribuida de aplicaciones, teniendo como primer resultado la técnica RPC (Remote Procedure Call), esta permite a los desarrolladores de software diseñar sus aplicaciones mediante módulos comunicantes, como si fuesen un conjunto de procesos cooperativos independientes. Esta técnica empezó a utilizarse de manera masiva, provocando dos problemas. Por un lado, se empezó a echar en falta un modelo distribuido estándar que sirviera un modelo distribuido de guía para los ingenieros en la elaboración de sus aplicaciones distribuidas. Debido a la rápida utilización de la técnica RPC, se empezó a dar forma a todo un entorno de computación distribuida sin la elaboración de un marco teórico que lo sustentase. Esto dio lugar a la aparición del primer modelo de distribución en 1994, conocido con el nombre de DCE (Distributed Computation Environment), el modelo contaba con normas y pautas que los ingenieros de sistema de información debían acatar para desarrollar sus sistemas, el modelo DCE destacó por ser un modelo cliente/servidor basado en el lenguaje C y que inicialmente funcionaba para plataformas Unix2.

La nueva mentalidad de construir aplicaciones divididas en partes comunicantes y residentes en distintos ambientes de computo fue un gran paso en el campo programación distribuida. Las antiguas aplicaciones del sistema no dejaron de funcionar, pero los ingenieros se vieron en la necesidad de integrar las partes existentes del sistema con las nuevas diseñadas. Apareciendo dos nuevos conceptos, sistemas heredaros (legacy systems) que hace referencia a la integración de partes software existentes con las del sistema actual. El concepto de wrapper que son porciones de códigos especialmente diseñados para encapsular y dar funcionalidad a otras partes del sistema ya existentes o el concepto de glue, que son porciones de código cuyo efecto sirve para unir distintas partes envueltas y funcionando con wrappers.

El concepto más importante es el componente surge ante la necesidad de reutilizar partes o módulos software existentes que podían ser utilizadas para la generación de nuevas extensiones de las aplicaciones, incluso para la generación de completas aplicaciones.

Siendo uno de los puntos más importantes dentro de los sistemas de información distribuidos (SID) Por un lado está el desarrollo de software basado en reutilización, donde las aplicaciones se construyen a partir de otras partes software ya existente y accesible en repositorios conocidos. Por otro lado está el desarrollo de software para reutilización, donde se ponen en práctica procesos de ingeniería para la elaboración de eficientes partes software que luego pueden ser utilizadas para la construcción de aplicaciones.

Aparecen nuevos modelos de distribución, como CORBA, DCOM o EJB, con esto el modelo DCE, empieza a ser visto por los ingenieros de sistemas como un modelo difícil y costoso de llevar a la práctica

La Object Management Organization (OMG) empezó a desarrollar un modelo para la distribución y localización dinámica de objetos en tiempo de ejecución, el modelo CORBA (Common Object Request Broker Architecture).

La presencia de distintos modelos de objetos distribuidos dentro de la empresa, tenía una gran influencia por los intereses de la industria y la fuerte evolución de nuevas tecnologías esto hacia que los ingenieros de sistemas tuvieran que hacer grandes procesos de ingeniería de requisitos para seleccionar

...

Descargar como (para miembros actualizados) txt (13 Kb) pdf (57 Kb) docx (16 Kb)
Leer 7 páginas más »
Disponible sólo en Clubensayos.com