ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

DESARROLLO E IMPLEMENTACIÓN DE UNA RED DONDE SE UTILICE LOS DIFERENTES CÓDIGOS DE DETECCIÓN DE ERRORES

Natalia ParedesInforme2 de Abril de 2019

2.867 Palabras (12 Páginas)114 Visitas

Página 1 de 12

REDES TELEMÁTICAS I

DESARROLLO E IMPLEMENTACIÓN DE UNA RED DONDE SE UTILICE LOS DIFERENTES CÓDIGOS DE DETECCIÓN DE ERRORES

 

 [pic 1]

 

 

PRESENTADO A:

Mag. VÍCTOR HUGO RUIZ GUACHETA

 

 

PRESENTADO POR:  

BRAYAM DAVID OTERO POMEO

NATALIA PAREDES ORDOÑEZ

NATALIA SOFIA QUIÑONES CASTILLO

 

 

 

 

 

 

 

 

 

 

 

 

FACULTAD DE INGENIERÍA ELECTRÓNICA Y TELECOMUNICACIONES

ÉNFASIS I

POPAYÁN, 2019

TABLA DE CONTENIDO

 

  1. INTRODUCCIÓN
  2. OBJETIVOS
  3. MARCO TEÓRICO
  4. CAPTURA DE REQUERIMIENTOS
  1.  DEFINICIÓN DE LOS REQUERIMIENTOS
  2.  IDENTIFICACIÓN DE LOS CASOS DE USO
  1. ANÁLISIS Y DISEÑO
  1.  DENTIFICACIÓN DE CLASES ATRIBUTOS Y OPERACIONES
  2.  ELABORACIÓN DE DIAGRAMAS DE CLASES
  3.  ELABORACIÓN DE DIAGRAMAS DE SECUENCIA
  1. BIBLIOGRAFÍA

  1. INTRODUCCIÓN

La transmisión es el proceso de envío y propagación de una señal de información analógica o digital sobre un medio de transmisión físico punto-a-punto o punto-a-multipunto, ya sea por cable, fibra óptica o inalámbricamente.

En el proceso de transmisión de datos se presentan problemas, como la pérdida de información por la existencia de efectos magnéticos, disipación de niveles de energía, entre otros factores. Los sistemas de comunicación deben tener mecanismos para detectar y corregir errores, estas técnicas se basan siempre en la idea de añadir cierta información redundante a la información que se desea enviar. A partir de ella el receptor puede determinar, de forma bastante fiable, si los bits recibidos corresponden realmente a los enviados.

En el presente trabajo se hace énfasis en tres tipos de detección de errores, los cuales ayudan a que la red sea más eficiente y trabaje correctamente.

  1. OBJETIVOS

2.1 Objetivo general:

Diseñar una red que cumpla con al menos tres códigos de detección de errores.

2.2 Objetivos específicos:

  • Comprender la necesidad de proteger la información frente a errores del canal.
  • Conocer y comprender el concepto y la interpretación de los bits de paridad para la detección de errores en datos binarios.
  • Comprender el principio de funcionamiento de los diferentes códigos de detección de errores.

  1. MARCO TEÓRICO

Se entiende por transmisión de datos al movimiento de información codificada de un punto a uno o más puntos, a través de un canal como: par trenzado, fibra óptica, los canales de comunicación inalámbrica y medios de almacenamiento. Los datos se representan como una señal electromagnética, una señal de tensión eléctrica, ondas radioeléctricas, microondas o infrarrojos.

En la transmisión de datos cuanto mayor es la trama que se transmite, mayor es la probabilidad de que contenga algún error. Un error es toda alteración que hace que un mensaje recibido no sea una réplica fiel del mensaje transmitido, estos errores pueden ser provocados por fenómenos físicos, como: el movimiento de electrones a gran velocidad dentro de los cables de cobre. La distorsión, atenuación, limitación del ancho de banda, ruido, interferencia, etc., influyen en el deterioro de una señal eléctrica al viajar por el canal de comunicaciones. Si la señal transporta datos digitales, los cambios pueden modificar el significado de los datos. Los errores posibles son:

  • Error de bit: Este término significa que únicamente un bit de una unidad de datos determinada (byte, carácter, paquete, etc.) cambia de 0 a 1 o de 1 a 0.
  • Error de ráfaga: Significa que dos o más bits de la unidad de datos han sido alterados. Es importante notar que los errores de ráfaga no implican que se afecten bits consecutivos. La siguiente figura muestra un ejemplo de error de ráfaga: En este caso, la longitud de la ráfaga sería 5, porque es la distancia en bits desde el primer bit erróneo hasta el último, donde dentro de la ráfaga puede haber bits correctos y/o erróneos.

 [pic 2][pic 3]

 

 

 

 

En todos los sistemas de transmisión en algún momento habrá ruido durante la transmisión independientemente de cómo haya sido el diseño del sistema.

La detección de errores se basa en el siguiente principio: Dada una secuencia, se añaden bits adicionales por parte del transmisor para formar un código que tenga capacidad de detectar errores. Este código se calculará en función de los otros símbolos que se vayan a transmitir. El receptor realizará el mismo cálculo y comparará los dos resultados. Se detecta un error si y sólo si, los dos resultados no coinciden.

Al añadir información redundante a una secuencia de datos, es posible (hasta cierto punto) detectar errores en recepción y, eventualmente, corregirlos. Todo código de detección y/o corrección tiene limitaciones en cuanto al número y tipo de errores detectables y/o corregibles. Existe un compromiso técnico entre el volumen de información redundante y la capacidad de corrección.

Códigos de bloque lineal: En la codificación de información la cual es provista por una fuente de información, en la cual la información es una secuencia binaria, se seguirá un procedimiento para su proceso hasta el destino. En el caso de los códigos de bloque lineal la información será segmentada en una palabra de código de longitud “n” bits, a partir de un mensaje de “k” bits, en donde k

Códigos Hamming: Es un método general propuesto por R. W Hamming en el que si se añaden junto al mensaje bits detectores y correctores de error y si esos bits se pueden ordenar de modo que diferentes bits de error producen diferentes resultados, entonces los bits erróneos podrían ser identificados. Hamming también estudió los problemas que surgían al cambiar dos o más bits a la vez y describió esto como "distancia", ahora llamada distancia de Hamming en su honor, y que fue explicada anteriormente.

Hamming estaba interesado en solucionar simultáneamente dos problemas:

- Aumentar la distancia tanto como sea posible.

- Aumentar al máximo los bits de información.

Durante los años 40 desarrolló varios esquemas de codificación que mejoraron notablemente los códigos existentes. La clave de todos sus sistemas era intercalar entre los bits de datos los de paridad. Hoy en día, el código de Hamming se refiere al (7.4) que Hamming introdujo en 1950. El código de Hamming agrega tres bits adicionales de comprobación por cada cuatro bits de datos del mensaje. El algoritmo de Hamming (7.4) puede corregir cualquier error de un solo bit, y detecta todos los errores de dos bits. Para un ambiente en el que el ruido pueda cambiar como máximo 2 bits de 7, el código Hamming (7.4) es generalmente el de pérdida mínima. El medio tendría que ser muy ruidoso para que se perdieran más de 2 bits de cada 7 (casi el 45% de los bits transmitidos), y habría que considerar seriamente cambiar a un medio de transmisión más fiable [1].

Proceso de codificación: En dicho proceso se acondicionan los mensajes de la fuente para poder ser enviados por el canal hacia el destino. El acondicionamiento de los mensajes consta de agregar redundancia, con el fin de detectar el error y si el tipo de codificación lo permite, corregirlo. Lo que se manda por el canal después del proceso de codificación se llama palabra código (c), los cuales tienen una redundancia (b), diferente para cada mensaje y varía según el tipo de codificación; concatenado con el mensaje.

...

Descargar como (para miembros actualizados) txt (18 Kb) pdf (507 Kb) docx (1 Mb)
Leer 11 páginas más »
Disponible sólo en Clubensayos.com