ENSAYO: TEORIA DE LA INFORMACION Y LA ERA DIGITAL
Enviado por irestrepo24 • 27 de Noviembre de 2013 • 1.716 Palabras (7 Páginas) • 259 Visitas
ENSAYO: TEORIA DE LA INFORMACION Y LA ERA DIGITAL
Por: Ismael Restrepo
Cabe señalar en este ensayo que la Teoría de la Información es uno del los pocos campos científicos que tienen su principio identificado en el artículo de Claude E. Shannon publicado en 1948 y a su vez este autor resalta los aportes de sus anteriores pioneros. Una vez leído este articulo se puede conocer la manera de como estos autores y sus aportes manifiestan los conceptos que dan el mayor énfasis a uno de los descubrimientos más importantes, que revolucionó la comunicación, siendo la visión de Shannon la unificadora de esta revolución. Dicha visión a una gran cantidad de investigaciones de la comunicación, que ahora se definen como el campo de la Teoría de la Información.
Partiendo de un concepto clave como la definición del límite de la capacidad de un canal, comparado con la Ley de Moore, los límites de Shannon se puede considerar una profecía autocumplida. Siendo un punto de referencia que nos dice lo que se puede hacer, y lo que queda por hacer – y que nos obliga a lograrlo. En otras palabras dichas por él. El les dijo que se podía hacer, así que la gente trató de hacerlo.
En el desarrollo de este articulo se expone cómo el área de la codificación, en particular, se desarrolla para llegar a este límite. Al darse cuenta de que ni siquiera estábamos cerca fue lo que motivo el interés en la investigación de las comunicaciones. La Teoría de la Comunicación con tal no fue el trabajo de una sola persona, más bien fue el resultado de las contribuciones realizadas por muchas personas distintas, de diferentes orígenes, que tomaron sus ideas y se expandieron sobre ellos. De hecho, la diversidad y las direcciones de sus perspectivas e intereses en forma de la dirección de la Teoría de la Información.
Como todo principio los inicios de esta investigación fueron principalmente teóricos y las aplicaciones no eran tangibles, para apoyar el anterior comentario deseo citar la frase en el artículo dicha por Christensen “dice que el dilema del innovador es que no se puede obtener apoyo para sus nuevas ideas, porque no siempre se puede garantizar un beneficio final”, pero gracias a la perseverancia y al constante interés por la innovación e investigación, dio a lugar a las múltiples tecnología de la comunicación que hoy conocemos.
La Visión unificadora de Shannon tomando trabajos e investigaciones realizadas por pioneros en el campo de la comunicaciones de su época, sus grandes contribuciones y la constancia de saber lo lejos que estábamos de alcanzar los limites propuestos, fue lo que generó el interés de investigar más las comunicaciones, llegando a contribuciones cruciales a través del tiempo, tomando esas ideas y expandiéndose dando como resultados a lo que hoy conocemos como “Teoría de la Información”.
Inicialmente las investigaciones que surgieron a raíz de la publicación de Shannon, fueron teóricas, con aplicaciones prácticas poco percibidas. Inicios con amplia variedad, utilizando la teoría de Shannon para muchas soluciones a los problemas de la época, campos como la Biología y tan diversos como la anatomía, el bienestar animal.
“Teoría Matemática de la Comunicación” de Shannon.
Esta teoría fue publicada en 1948, Shannon manifestó en su teoría que la información podría ser cuantificada con precisión y demostró que se podía trabajar con una unidad básica, esencial en todos los medios de comunicación como las señales telefónicas, textos, ondas de radio, e imágenes, esencialmente cada modo de comunicación, podrían ser codificados en bit. Esto fue un gran aporte en las comunicaciones para su época. La respuesta está en los conceptos innovadores que contiene la Teoría Matemática de la Comunicación. Conceptos influyeron con un gran impacto para ayudar a cambiar el mundo.
La Teoría Matemática de la Comunicación, tiene cuatro conceptos importantes en el postulado de Shannon. Tener conocimiento de cada uno de estos conceptos es esencial para comprender el impacto de la teoría de la información.
Concepto de Capacidad de un Canal y el Teorema de Codificación de un Canal con Ruido.
“La capacidad de un canal de comunicación, es la cantidad máxima de información que puede transportar dicho canal de forma fiable, es decir, con una probabilidad de error tan pequeña como se quiera.
El más relevante de los resultados de Shannon fue el concepto de que cada canal de comunicación posee un límite de velocidad, medido en dígitos binarios por segundo: esto es a lo que le podemos llamar el famoso límite de Shannon, ejemplificada por la fórmula para la capacidad de un Gaussiano Blanco Canal de ruido:
Pues algo para comentar es que la mala noticia sobre la matemáticamente que es imposible conseguir un error de comunicación libre por encima del límite. No importa cuán sofisticado un esquema de corrección de errores que utiliza, no importa lo mucho que puede comprimir los datos, no se puede hacer que el canal sea más rápido que el límite sin perder alguna información. Pero no todo es malo, la buena noticia es que por debajo del límite que estableció Shannon, es posible transmitir información con error cero, esto lo demostró matemáticamente cuando había forma de codificar la información para permitir que uno pueda llegar hasta el límite
...