Ensayo Teoria de la informacion
Enviado por Javier Orlando Camacho Rosas • 20 de Noviembre de 2017 • Ensayo • 583 Palabras (3 Páginas) • 87 Visitas
Teoría de la información y las telecomunicaciones
Javier Orlando Camacho Rosas
Abril 2017.
Fundación Universitaria Unipanamericana.
Bogotá D.C.
Teoría de la información y las telecomunicaciones
*Miguel Ángel Beltran Vargas
Introducción
La teoría de la información es la ciencia que trata la información como un recurso que puede ser medido es una propuesta teórica presentada por Claude E. Shannon y Warren Weaver a finales de la década de los años 1940, en este documento vamos a revisar cómo se realiza la medición de la información sobre que unidades y técnicas para tener un dato correcto sobre la longitud de la información.
Abstract
Information theory is the science that treats information as a resource that can be measured is a theoretical proposal presented by Claude E. Shannon and Warren Weaver in the late 1940s, in this document we will review how Performs the measurement of the information on which units and techniques to have a correct data on the length of the information.
Teoría de la información
La teoría de Shannon postula arbitrariamente que el valor de la información es uno. Esta unidad de información recibe el nombre de bit. Para que el valor de la información sea un bit, todas las alternativas deben ser igual de probables y estar disponibles. Es importante saber si la fuente de información tiene el mismo grado de libertad para elegir cualquier posibilidad o si se halla bajo alguna influencia que la induce a una cierta elección. La cantidad de información crece cuando todas las alternativas son igual de probables o cuanto mayor sea el número de alternativas. Pero en la práctica comunicativa real no todas las alternativas son igualmente probables, lo cual constituye un tipo de proceso estocástico denominado Mark off.
La teoría de la información se ocupa la descripción matemática y evaluación de los métodos y transmisión , la información se mide con respecto al código binario que solo trata de 1 y 0 pero hay que tener en cuenta que se debe formar una secuencia que permita diferenciar correctamente los mensajes sin prestarse a malas interpretaciones, después de lograr generar un código que sea único y no se puedan presentar más de 1 probabilidad en el mensaje se puede proceder a realizar la medición de la L de la información.
L=CANTIDAD BITS. PROBABILIDAD 1+ CANTIDAD DE BITS. PROBABILIDAD 2…
De esta forma se puede medir la longitud de la información, de esta forma es posible transmitir el mismo tipo de información, con una cantidad menor de información según como se ordene el código correspondiente.
Ejercicio propuesto
Determine el porcentaje de ahorro en la transmisión de un código con respecto a otro
MENSAJE | CODIGO A | PROBABILIDAD A | CODIGO B | PROBABILIDAD B |
S1 | 000 | 1/3 | 00 | 1/2 |
S2 | 001 | 1/3 | 0100 | 1/4 |
S3 | 010 | 1/15 | 0001 | 1/18 |
S4 | 011 | 1/15 | 1010 | 1/18 |
S5 | 111 | 1/5 | 100 | 5/36 |
...