Capacidad
Enviado por luissiha • 15 de Marzo de 2014 • 811 Palabras (4 Páginas) • 270 Visitas
Existen dos definiciones equivalentes entre sí del concepto de capacidad de un canal, una es para canales de tiempo continuo y la otra es para canales de tiempo discreto.
Definición para canales discretos[editar]
Comm Channel.svg
Un canal discreto (sin memoria) está definido por:
el alfabeto de entrada, X \,, que es el conjunto de símbolos X = \{ x_1, x_2 \ldots x_n \} \, que pueden ser transmitidos por el canal
el alfabeto de salida, Y \,, que es el conjunto de símbolos Y = \{ y_1, y_2 \ldots y_m \} \, que pueden ser recibidos a la salida del canal
las relaciones estadísticas entre los símbolos de entrada x_i \, y los de salida y_i \,, esta información viene definida por la matriz de probabilidades condicionadas del canal (p_{ij}) \, donde p_{ij} = p(y_j|x_i) \,
Se define la entropía de entrada, entropía de salida y entropía de entrada condicionada por la salida como
H(X) = \sum_{i=1}^n p(x_i) \log \frac{1}{p(x_i)} \,H(Y) = \sum_{j=1}^m p(y_j) \log \frac{1}{p(y_j)} \,H(X|Y) = \sum_{j=1}^m p(y_j) \sum_{i=1}^m p(x_i, y_j) \log \frac{1}{p(x_i|y_j)} \,
La información mutua entre la entrada y la salida del canal la denotamos por I(X, Y) \, y es una medida de lo que el conocimiento de la entrada reduce la incertidumbre sobre la salida y viveversa
I(X, Y) = H(Y) - H(Y|X) = H(X) - H(X|Y) \,
Esta información mutua I(X, Y) \, depende de la distribución de probabilidad de la entrada p(x_i) \,. Para una determinada distribución de entrada, I(X, Y) \, alcanza un máximo, este máximo es precisamente lo que se conoce como la capacidad del canal
C = \max_{p(x_i)} I(X, Y)
Definición para canales continuos[editar]
La definición de capacidad para canales continuos es un poco diferente y exige utilizar el Teorema del muestreo y algunos otros conceptos de teoría de la señal, además de los conceptos puramente estadísticos vistos en el apartado anterior.
Ampliando los estudios del físico Harry Nyquist, compañero en los Laboratorios Bell, Claude Shannon demostró en 1949 que la capacidad teórica máxima de un canal de comunicaciones limitado en banda con ruido AWGN (ruido blanco aditivo gausiano) responde a la ecuación:
C = B \log_2 \left(1 + \mbox{SNR}\right) \, bits/s (bps)
La ecuación anterior muestra que la capacidad de un canal está limitada por su ancho de banda (B) y por su relación señal/ruido (\mbox{SNR}). En términos de eficiencia espectral resulta:
E_{max} = \frac{C}{B} = \log_2 \left(1 + \mbox{SNR}\right) \, bps/Hz
es decir, la eficiencia espectral máxima depende de la calidad del canal (de su nivel de ruido).
Bit físico vs bit de información[editar]
En la ecuación de capacidad, el término "bit" no se refieren a un bit "físico" (por ejemplo un "0"
...