Teorema de Shannon-Hartley
Enviado por vizard00 • 13 de Octubre de 2013 • Informe • 3.430 Palabras (14 Páginas) • 685 Visitas
Teorema de Shannon-Hartley
En teoría de la información, el teorema de Shannon-Hartley es una aplicación del teorema de codificación para canales con ruido. Un caso muy frecuente es el de un canal de comunicación analógico continuo en el tiempo que presenta un ruido gausiano.
•
El teorema establece la capacidad del canal de Shannon, una cota superior que establece la máxima cantidad de datos digitales que pueden ser transmitidos sin error (esto es,información) sobre dicho enlace de comunicaciones con un ancho de banda específico y que está sometido a la presencia de la interferencia del ruido.
En las hipótesis de partida, para la correcta aplicación del teorema, se asume una limitación en la potencia de la señal y, además, que el proceso del ruido gausiano es caracterizado por una potencia conocida o una densidad espectral de potencia.
La ley debe su nombre a Claude Shannon y Ralph Hartley.
Declaración del teorema
Considerando todas las posibles técnicas de codificación de niveles múltiples y polifásicas, el teorema de Shannon-Hartley indica que la capacidad del canal C es:1
donde:
• es el ancho de banda del canal.
• es la capacidad del canal (tasa de bits de información bit/s)
• es la potencia de la señal útil, que puede estar expresada en vatios, milivatios, etc., (W, mW, etc.)
• es la potencia del ruido presente en el canal, (mW, W, etc.) que trata de enmascarar a la señal útil.
[editar]Desarrollo histórico
A finales de los años 20, Harry Nyquist y Ralph Hartley desarrollaron una serie de ideas fundamentales relacionadas con la transmisión de la información, de manera particular, en el contexto del telégrafo como sistema de comunicaciones. En aquellos años, estos conceptos eran avances de gran alcance de carácter individual, pero no formaban parte delcorpus de una teoría exhaustiva.
Fue en los años 40, cuando Claude Shannon desarrolló el concepto de capacidad de un canal basándose, en parte, en las ideas que ya habían propuesto Nyquist y Hartley y formulando, después, una teoría completa sobre la información y la transmisión de esta, a través de canales.
[Tasa de Nyquist
En 1927, Nyquist determinó que el número de pulsos independientes que podían pasar a través de un canal de telégrafo, por unidad de tiempo, estaba limitado a dos veces el ancho de banda del canal.
donde es la frecuencia del pulso (en pulsos por segundo) y es el ancho de banda (en hercios). La cantidad se llamó, más adelante, tasa de Nyquist, y transmitiendo a esta tasa de pulsos límite de pulsos por segundo se le denominó señalización a la tasa de Nyquist.
Nyquist publicó sus resultados en 1928 como parte de su artículo "Certain topics in Telegraph Transmission Theory".
]Ley de Hartley
Durante ese mismo año, Hartley formuló una manera de cuantificar la información y su tasa de transmisión a través de un canal de comunicaciones. Este método, conocido más adelante como ley de Hartley, se convirtió en un importante precursor para la sofisticada noción de capacidad de un canal, formulada por Shannon.
Hartley indicó que el número máximo de pulsos distintos que se pueden transmitir y recibir, de manera fiable, sobre un canal de comunicaciones está limitado por el rango dinámico de la amplitud de la señal y de la precisión con la cuál el receptor puede distinguir distintos niveles de amplitud.
De manera específica, si la amplitud de la señal transmitida se restringe al rango de , y la precisión del receptor es +/- , entonces el número máximos de pulsos distintos M está dado por:
Tomando la información para ser el logaritmo del número de los mensajes distintos que podrían ser enviados, Hartley después construyó una medida de la información proporcional al ancho de banda del canal y a la duración de su uso. A veces sólo se habla de dicha proporcionalidad cuando se cita a la ley de Hartley.
Posteriormente, Hartley combinó la observación de Nyquist,2 y su propia cuantificación de la calidad o ruido de un canal en términos del número de niveles de pulso que podían ser distinguidos, de manera fiable y denotados por , para llegar a una medida cuantitativa de la tasa de información que se puede obtener.
La ley de Hartley se explica, cuantitativamente, de manera usual, como la tasa de información alcanzable de bits por segundo, :
Hartley no resolvió, de manera precisa cómo el parámetro debe depender de las estadísticas de ruido del canal, o cómo la comunicación podía ser fiable incluso cuando los pulsos individuales correspondientes a símbolos no se pudieran distinguir, de manera fiable, de los niveles de ; con las estadísticas del ruido gaussiano.
Los diseñadores de sistemas tienen que elegir un valor muy conservador de para alcanzar la mínima tasa de error.
El concepto de una capacidad libre de errores aguardó hasta que Claude Shannon investigó sobre las observaciones de Hartley con respecto a la medida logarítmica de la información y las observaciones de Nyquist sobre el efecto de las limitaciones del ancho de banda del canal.
El resultado de la tasa de Hartley se puede ver como la capacidad de un canal sin errores de símbolos por segundo. Algunos autores se refieren a ello como capacidad. Pero ese supuesto canal, libre de errores, es un canal ideal, y el resultado es, necesariamente, menor que la capacidad de Shannon de un canal con ruido de ancho de banda , que es el resultado Hartley-Shannon que se estimó más adelante.
Teorema de codificación de canales con ruido y capacidad
El desarrollo de la teoría de la información de Claude Shannon durante la Segunda Guerra Mundial estimuló el siguiente gran paso para entender qué cantidad de información se podría comunicar, sin errores y de manera fiable, a través de canales con ruido gausiano de fondo.
Fundamentado sobre las ideas de Hartley, el teorema de Shannon de la codificación de canales con ruido (1948) describe la máxima eficiencia posible de los métodos de corrección de errores versus los niveles de interferencia de ruido y corrupción de datos. La prueba del teorema muestra que un código corrector de errores construido aleatoriamente es, esencialmente, igual de bueno que el mejor código posible. El teorema se prueba con la estadística de tales códigos aleatorios.
El teorema de Shannon demuestra cómo calcular la capacidad de un canal sobre una descripción estadística del canal y establece que, dado un canal con ruido con capacidad e información transmitida en una tasa , entonces si
existe una técnica de codificación
...