ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

Ensayo Sobre RED WAN


Enviado por   •  21 de Mayo de 2013  •  2.073 Palabras (9 Páginas)  •  523 Visitas

Página 1 de 9

Resumen En este pequeño ensayo de seguridad informática hablaremos de cómo es que surge la idea la teoría de la información que fue planteada por Claude E. Shannon, también mencionaremos los conceptos básicos de seguridad informática, la importancia de tener algún tipo de protección en caso de sufrir un ataque o descuido al dejar visible información importante. Hablaremos de las funciones, responsabilidades del manejo de la información y clasificación de sus atributos.

Introducción Hoy en día todos manejamos cierto tipo de información importante y como bien sabemos al estar conectados a la red, corremos el riesgo de sufrir un ataque cibernético, en donde podemos ser víctimas de plagio de nuestros documentos y archivos personales. Es por eso que la seguridad informática nos brinda herramientas para protección de los mismos como son antivirus, firewalls, encriptación de documentos etc. 1.1 Introducción a la teoría de la información.

Fue iniciada por Claude E. Shannon a través de un artículo publicado en el Bell System Technical Journal en 1948, titulado Una teoría matemática de la comunicación.

La teoría de la información es conocida como una serie de las leyes para relacionar determinado orden de fenómenos relacionados con la comunicación de la información entre su origen y su destino a través de un canal.

La teoría de la información también abarca todas las restantes formas de transmisión y almacenamiento de información, incluyendo la televisión y los impulsos eléctricos que se transmiten en las computadoras y en la grabación óptica de datos e imágenes.

La idea es garantizar que el transporte masivo de datos no sea en modo alguno una merma de la calidad, incluso si los datos se comprimen de alguna manera. Idealmente, los datos se pueden restaurar a su forma original al llegar a su destino. La facilidad de codificación y descodificación, así como la velocidad de transmisión. Es por esto que se dice que el mensaje tiene muchos sentidos, y el destinatario extrae el sentido que debe atribuirle al mensaje, siempre y cuando haya un mismo código en común.

Origen de la teoría de la información: En 1948 shannon “una teoría matemática sobre comunicación” Fue iniciada por Claude E. Shannon a través de un artículo publicado en el Bell System Technical Journal en 1948, titulado Una teoría matemática de la comunicación En este desarrolla gran parte de lo que es la teoría de la información Medida de la cantidad de información Tratamiento matemático de la información

1929 L. Szilar Información – Paradoja Física

1928 Hartlye: Método de comparación de los distintos métodos de transmisores de la

información.

Información

La información es un conjunto de datos o mensajes inteligibles creados con un lenguaje de

representación y que se deben proteger de las amenazas, mediante su transmisión o

almacenamiento, con técnicas criptográficas.

La teoría de información mide la cantidad de información que contiene un mensaje a través

del número medio de bits necesario para codificar todos los posibles mensajes con un

codificador óptimo.

1.2 Conceptos básicos de la seguridad informática.

Los conceptos básicos de la información son los siguientes:

Fuentes de Información: Es un objeto, que produce a su salida un evento; esta salida es

seleccionada aleatoriamente de acuerdo a una probabilidad de distribución.

Las fuentes de información pueden clasificarse en fuentes con memoria y fuentes sin memoria.

Una fuente sin memoria pude especificarse por: la lista de símbolos, la probabilidad de

ocurrencia de los símbolos, y la rata de generación de los símbolos de la fuente.

Contenido de Información de Fuentes discretas sin memoria:

La cantidad de información de un mensaje, es inversamente proporcional a la probabilidad

de ocurrencia.

Si un evento es conocido, la información aportada es cero, de hecho su probabilidad de

ocurrencia es uno.

La probabilidad de un mensaje siempre estará en un valor entre cero y uno.

La información contenida en eventos independientes debería sumarse.

Entropía de una Fuente de Información:

Es un parámetro que nos permite determinar el contenido promedio de información de una fuente

o un mensaje en particular.

En un proceso de comunicación, transmitimos usualmente secuencias largas de símbolos, y

estamos más interesados en el contenido promedio de información que la fuente produce,

que en la información contenida en cada símbolo. Luego:

HX  EI x  P x I x Px  P x bit simbolo i

m

i

i

m

i

i i i ( ) ( ) log ( ) /

1

2

1

 

 

   

Rata de Información:

Si la fuente emite símbolos a una rata r (símbolos/segundo), la rata o velocidad de emisión

de información de la fuente puede expresarse como:

Por lo anterior podemos decir que el contenido de información de cualquier mensaje es igual al mínimo número de dígitos que se requieren para codificarlo. La entropía es igual al mínimo número de dígitos por mensaje o símbolo, en promedio, necesarios para codificarlo.

Mensaje Un mensaje es un conjunto de ceros y unos. Un archivo, un paquete de datos que viaja por una red y cualquier cosa que tenga una representación binaria puede considerarse un mensaje.

...

Descargar como (para miembros actualizados)  txt (13.8 Kb)  
Leer 8 páginas más »
Disponible sólo en Clubensayos.com