Beruflich Dokumente
Kultur Dokumente
Comunicaciones II
Limitaciones:
H( f ) (t)sinc(
h t/T)
T 1
0 f 2T T 0 T 2T t
1 1
2T 2T
2S 2009 - I. Zamora Uni VII-Conf 18: Codificacin de 4
Canal
Canal Discreto Sin Memoria (DMC)
En la conferencia #4 estudiamos las fuentes discretas sin memoria
(DMS) generadoras de informacin y la manera como se cuantificaba
la cantidad de informacin. En esta ocasin estudiamos el aspecto de
la transmisin de esa informacin a su destino a travs de un canal
discreto sin memoria. Un adelanto de este estudio se plante
rpidamente en la conferencia #2 (Canal Simtrico Binario).
Fuente Discreta x2 x1 x0 x1 x2
DMS estudiada en
de Informacin
Conferencia #10
X
Fuente
Discreta de x2 x1 x0 x1 x2 Canal DMS y2 y1 y0 y1 y2 Destino
P Y / X
de Informacin
Informacin
X Y
LX Alfabeto
Fuente
DMC que estudiaremos
en esta conferencia
Alfabeto
Destino LY
2S 2009 - I. Zamora Uni VII-Conf 18: Codificacin de 5
Canal
Canal Discreto Sin Memoria (DMC)
Un canal discreto sin memoria es un modelo estadstico con una
entrada X y una salida Y que es una versin ruidosa de X.
X e Y son variables aleatorias.
L X { x0 , x1 ,..., x J 1 } Alfabeto Fuente de J smbolos
Muestras del
Muestras del alfabeto destino
alfabeto fuente Matriz de probabilidades
que caracterizan el canal
x0 y0
x1 P( Y X ) y1
LX X p( y k x j ) Y LY
x J-1 y K-1
2S 2009 - I. Zamora Uni VII-Conf 18: Codificacin de 6
Canal
Canal Discreto Sin Memoria (DMC)
Las probabilidades de ocurrencia de cada smbolo para LX y LY son:
J 1
P(Y yk ) p(yk ) para toda k p(x
j 0
j ) 1 Para toda j
K 1
P(X x j ) p(x j ) para toda j p(y
k 0
k ) 1 Para toda k
p(yk ) P(Y yk )
J 1
P(X xk )P(Y yk X x j )
j 0
J 1
p(x j )p(yk x j ) para k 0 ,1 ,...,K-1
j 0
0 0
p(y1 x0 ) p
p(y1 x0 ) p
1 1
p(x1 ) 1 / 2 p(y1 x1 ) 1 p 1
p(y1 ) p(x j )p(y1 x j )
j 0
Esta misma cantidad es una variable aleatoria que toma los valores
H(X|Y=y0), H(X|Y=y1),, H(X|Y=yK-1) con probabilidades p(y0), p(y1), ,p(yK-1),
respectivamente. La media de la entropa H(X|Y=yk) sobre el alfabeto de
salida Y est dado por:
K 1
H ( X Y ) H ( X Y yk ) p( yk ) H(X|Y) es la entropa condicional que
k 1 representa la cantidad de
incertidumbre que queda acerca de
K 1 J 1 1 la entrada del canal despus de que
p(x j yk )p( yk ) log2 se ha observado la salida del canal.
k 1 j 0 p(x j yk )
K 1 J 1 1
p(x j , yk ) log2 donde:
k 1 j 0 p(x j y k
) p( x j , yk ) p( yk ) p( x j yk )
2S 2009 - I. Zamora Uni VII-Conf 18: Codificacin de 11
Canal
Informacin Mutua
Sabemos que H(X) representa nuestra incertidumbre en torno a la
entrada del canal antes de observar la salida del mismo, y H(X|Y)
representa nuestra incertidumbre con respecto a la entrada del canal
despus de observar la salida de ste, se puede concluir que la
diferencia H(X)- H(X|Y) debe representar nuestra incertidumbre en torno a
la entrada del canal que se resuelve al observar la salida del mismo.
I ( X ,Y) H ( X ) H ( X Y )
I ( Y , X) H ( Y ) H ( Y X )
H ( X ,Y )
H( X Y ) I ( X ,Y ) H(Y X )
H( X ) H(Y )
La capacidad del canal C se mide en bits por uso del canal o bits por
transmisin. Advierta que la capacidad de canal C es una funcin
exclusiva de las probabilidades de transicin p(yk,xj), las cuales definen el
canal. El clculo de C implica la maximizacin de la informacin mutua
I(X,Y) sobre J variables sujeta dos restricciones:
J 1
p( x j ) 0 para toda j y p(x
j 0
j ) 1
C 1 p log2 p (1 p) log2 (1 p)
1 H( p )
Xk Yk
Seal Seal
transmitida recibida
Para el modelo de canal con ruido AWGN
Ruido Nk
AWGN Yk X k N k , k 1,2 ,..., K
Modelo de canal
con ruido AWGN Muestra de ruido
gaussiana con media
cero y varianza:
2X S E[X k2 ]
2S 2009 - I. Zamora Uni VII-Conf 18: Codificacin de 18
Canal
Teorema de la Capacidad de Informacin
La capacidad de informacin del canal bajo las condiciones anteriores es:
C mx { I ( X k ,Yk ) : E [ X k2 ] S }
f Xk ( x )
2 2
De los resultados anteriores y con base en la definicin de la capacidad de
informacin tenemos que:
1 X2 1 S
C log 2 1 2 log 2 1 Bits por transmisin
2 N 2 N 0 BWtx
1 S S
C log 2 1 2 BWtx C BWtx log 2 1 Bits por
segundos
2 N 0 BWtx N 0 BWtx
C/W [bits/s/Hz]
Region no
alcanzable
Regin prctica
SNR [bits/s/Hz]
2S 2009 - I. Zamora Uni VII-Conf 18: Codificacin de 22
Canal
Ejemplo 2
S Eb Rb EbC
Eb 2C / BWtx 1
N0 CBWtx
2S 2009 - I. Zamora Uni VII-Conf 18: Codificacin de 24
Canal
Fronteras e Implicaciones del 3er Teorema de
Shannon
El diagrama de la
relacin Rb/BW en
funcin de Eb/N0 recibe el
nombre de diagrama de
eficiencia de ancho de
banda.
Eb Eb
lim log10 2 0.693 1.6 dB Lmite de Shannon para un
canal AWGN
N0 W
N0
Regin
Prctical
Region No
alcanzable