ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

Leyes De Snell Y Shannon


Enviado por   •  23 de Octubre de 2011  •  1.084 Palabras (5 Páginas)  •  1.073 Visitas

Página 1 de 5

Antecedentes

Ley de Hartley

Hartley indicó que el número máximo de pulsos distintos que se pueden transmitir y recibir, de manera fiable, sobre un canal de comunicaciones está limitado por el rango dinámico de la amplitud de la señal y de la precisión con la cual el receptor puede distinguir distintos niveles de amplitud.

De manera específica, si la amplitud de la señal transmitida se restringe al rango de [ − A... + A] voltios, y la precisión del receptor es +/- ΔV voltios, entonces el número máximos de pulsos distintos M está dado por:

La ley de Hartley se explica, cuantitativamente, de manera usual, como la tasa de información alcanzable de R bits por segundo, (b / s):

Hartley no resolvió, de manera precisa cómo el parámetro M debe depender de las estadísticas de ruido del canal, o cómo la comunicación podía ser fiable incluso cuando los pulsos individuales correspondientes a símbolos no se pudieran distinguir, de manera fiable, de los niveles de M; con las estadísticas del ruido gaussiano.

Ruido gaussiano

El ruido gaussiano es el ruido cuya densidad de probabilidad responde a una distribución normal

Distribución de Gauss

La gráfica de su función de densidad tiene una forma acampanada y es simétrica respecto de un determinado parámetro. Esta curva se conoce como campana de Gauss.

La importancia de esta distribución radica en que permite modelar numerosos fenómenos naturales, sociales y psicológicos. Mientras que los mecanismos que subyacen a gran parte de este tipo de fenómenos son desconocidos, por la enorme cantidad de variables incontrolables que en ellos intervienen, el uso del modelo normal puede justificarse asumiendo que cada observación se obtiene como la suma de unas pocas causas independientes.

Un ejemplo de la campana de Gauss es como se muestra en la imagen

Ley de Shannon y Hartley

Este teorema establece cual es la capacidad del canal, para un canal con ancho de banda finito y una señal continua que sufre un ruido gaussiano.

Esta Ley junto con el teorema fundamental, tiene 2 implicaciones importantes.

Expresa la forma óptima absoluta con que se puede obtener una velocidad de información segura, dados los parámetros del canal.

En caso de una velocidad de información específica, expresa que se puede reducir la potencia de la señal , siempre y cuando se incremente el ancho de banda.

La Ley de Hartley-Shannon especifica el intercambio ancho de banda- relación señal a ruido (o potencia), óptimo y además implica que es posible la compresión del ancho de banda.

La capacidad de canal se simboliza con “C” y sus unidades son [bits / segundo] . El teorema fundamental define de manera implícita a la capacidad de canal como la velocidad máxima a la cual el canal surte de información segura al destino.

Se define a la capacidad de canal como:

C=B log_2⁡(1+S/N)

Donde

B = ancho de banda del canal

S = potencia de la señal transmitida

N = potencia de la señal ruido

Ejemplo: Supóngase que se desea transmitir datos digitales a 30000 bits / segundo. De acuerdo con la teoría, se podría emplear un canal que tenga B = 30 KHz y S/N=1, porque :

C = 30000 log ( 1 + 1 ) = 30000 [ bits / segundo ]

En forma alterna, se puede reducir el ancho de banda a B = 3 KHz, si la potencia se incrementa en un factor de 1000, o sea S/N = 30 dB.

En forma incidental, los últimos parámetros son típicos de circuitos telefónicos de voz normales ; pero cuando se emplean para señales digitales, la velocidad de datos es normalmente de 4800 bits / segundo o menor, indicando un considerable espacio

...

Descargar como (para miembros actualizados)  txt (7.1 Kb)  
Leer 4 páginas más »
Disponible sólo en Clubensayos.com