Sie sind auf Seite 1von 15

Kap.

III
Diskrete Kanle Die Stelle des Kanals in einer bertragung ist in der unteren Abbildung erlutert: am Eingang des Kanals sind die von der Quelle abgegeben n Symbole [X] mit den Wahrscheinlichkeiten [ Px ] und am Ausgang des Kanals, wegen den Strungen, erscheinen m Symbole [Y] mit den Wahrscheinlichkeiten [Py ]
[X] [Y]

Kanal

N
[ X ] = [ x 1 , x 2 ,..., x n ] [ Px ] = [ p( x 1 ), p( x 2 ),...p( x n )]

Am Eingang ist: Am Ausgang ist:

[Y] = [y 1 , y 2 ,..., y m ] [Py ] = [p(y1 ), p(y 2 ),..., p(y m )]

Fr einen diskreten Kanal sind n und m sind endliche Zahlen Fr einen kontinuierlichen Kanal sind n und m unendliche Zahlen Fr einen diskret/kontinuierlichen Kanal ist n endlich und m unendlich. Fr einen kontinuierlich/diskreten Kanal ist n unendlich und m endlich Fr einen zeitdiskreten Kanal nimmt t diskrete Werte an: t = kT Takt Fr einen zeitkontinuierlichen Kanal nimmt t kontinuierliche Werte an
B B

Fr einen Gedchtnislosen Kanal hngt die Transformation x i y j nicht ab von den vorhergehenden Transformationen. Fr einen Kanal mit Gedchtnis hngt die Transformation x i y j von den vorhergehenden Transformationen ab. Fr einen stationren Kanal, hngt die Wahrscheinlichkeitsverteilung nicht von dem Zeitursprung ab: p ( x i t 1 ) = p( x i t 2 ) i = 1, n

1. Entropie am Eigang und am Ausgang des Kanals; Verbundentropie1.


[ X ] = [ x 1 , x 2 ,..., x n ] [ Px ] = [ p( x 1 ), p( x 2 ),... p( x n )]

i =1

p( x i ) = 1

m [ Y ] = [ y 1 , y 2 ,..., y m ] p( y j ) = 1 [ Py ] = [ p( y 1 ), p( y 2 ),..., p( y m )] j =1

Die Entropie am Eingang des Kanals ist:


H ( X ) = p( x i ) log p( x i ) bit / Symbol
i =1 n

Die Entropie am Ausgang des Kanals ist: m H ( Y ) = p( y j ) log p( y j ) bit / Symbol


j =1

Es wird das Verbund Feld definiert:


x1 y 1 x1y 2 x2y 2 ... xny 2 ... ... ... ... x1y m x2y m ... xny m
B B B B

[X Y] =

x 2y1 ... xn y1

x1 y 1 x1 y 1 heisst dass zur selben Zeit x 1 am Eingang und y 1 am

Ausgang des Kanals sich ereignen. Die entsprechenden Wahrscheinlichkeiten sind:


p( x1 , y 1 ) p(x , y ) 2 1 P ( X, Y ) = ... p(x n , y 1 ) p( x1 , y 2 ) p(x 2 , y 2 ) ... p(x n , y 2 ) ... ... ... ... p(x1 , y m ) p(x 2 , y m ) ... p(x n , y m )

Man kann die Eingangs- und Ausgangswahrscheinlichkeiten folgends ableiten: p( x i ) = P {x i y 1 x i y 2 K x i y m } wobei:


p(x i ) = p x i y j
j =1 m

i = 1, n ;

( ) { p (y ) = p(x y )
n j i =1 i j

p y j = P x1y j x 2 y j K x n y j j = 1, m

wobei:

Es besteht ebenfalls die Beziehung:

i =1 j =1

p xi , y j = 1
n m

n m

Die Verbundentropie ist:


H ( X , Y ) = p x i , y j log p x i y j
i =1 j =1

2. Bedingte Entropien Man kann zwei bedingte Entropien definieren, die quivokation H ( X / Y ) und die Irrelevanz H ( Y / X )
H ( X / Y ) ist die mittlere Ungewissheit ber X wenn Y bekannt ist

x1 o Lo Lo
Die
p(x i /yj )
B B B B

o y1 Empfngt man y j , so ist die Ungewissheit


B B

i o L Kanals von dem Ausdruck: o y j U ( x i / x j ) = log p (x i / y j ) gegeben.


B B

ber das

Symbol x am Eingang des

xi o Lo

o L mittlere Ungewissheit ber X nach Empfang von y j ist : n oL


B B B

H X / y j = p x i / y j log p x i / y j ,
i =1

j = 1, m

Durch Mittelung ber alle Symbole Y erhlt man die quivokation als mittlere Ungewissheit ber X wenn Y bekannt ist:
H ( X / Y ) = p y j H X / y j = p y j p x i / y j log p x i / y j , oder:
j =1 j =1 i =1 m

( ) (

m n

( ) (

H ( X / Y ) = p x i , y j log p x i / y j
j =1 i =1

m n

p ( x 1 / y 1 ) ... p ( x n / y 1 ) P (X / Y ) = ... ... ... p ( x 1 / y m ) ... p ( x n / y m )

p(x
i =1

/ y j ) = 1 j = 1, m

H (Y / X ) oder Irrelevanz ist ein Mass der mittleren Ungewissheit ber

den Ausgang wenn der Eingang bekannt ist. Sendet man aus das Symbol x i, so kann man mit verschiedenen Wahrscheinlichkeiten die Symbole y j erhalten. Die Ungewissheit ber y j und ber Y sind unten angegeben:
B B B B B B

x1 o Lo Lo xi o Lo
n
B B

o y1 oL
p(yj /x i )
B B

U(y j / x i ) = log p(y j / x i ) H(Y / x i ) = p(y j / x i )log p(y j / x i )


j=1 m

o yj oL oL

Durch Mittelung ber alle Symbole X erhlt man die Irrelevanz:

H (Y / X ) = p ( x i ) H (Y / x i ) = p ( x i ) p y j / x i log p y j / x i =
i =1 i =1 j =1

n m

= p (xi , y j )log p ( y j / xi )
i =1 j =1

n m

Die Strungsmatrix des Kanals ist:


p(y 1 / x 1 ) ... p (y m / x 1 ) P [Y / X ] = ... ... ... p(y 1 / x n ) ... p (y m / x n )

Die Strungsmatrix ist eine stochastische Matrix:


p y j / x i = 1 pentru i = 1, n
j =1 m

Fr einen Strungsfreien Kanal ist


p(y j / x i ) = 1 pentru j = i so dass die Strungsmatrix eine Einheitsmatrix wird. Beziehungen zwischen den eigenen und bedingten Entropien Allgemein gilt: H ( X ) H ( X / Y ) Die eigene Entropie ist immer grsser als die bedingte, da zustzliches Wissen die Entropie verringert. Es gibt zwei extremale Flle: Ungestrter Kanal: H ( X ) > H ( X / Y ) = H (Y / X ) = 0 Sehr gestrter Kanal: H ( X ) = H ( X / Y ) H (Y ) = H (Y / X ) Beziehungen zwischen den Entropien
H (X / Y ) H (X ) H (Y / X ) H (Y ) H ( X , Y ) = H ( X ) + H (Y / X ) = H (Y ) + H ( X / Y )
p y j / x i = 1 pentru j = i

Die ersten zwei sind schon bekannt, die dritte wird weiter folgendermassen bewiesen:

p x i , y j = p y j / x i p(x i ) = p x i / y j p y j

) ( )

H ( X , Y ) = p x i , y j log p x i y j
i =1 j =1

n m

p y j / x i p( x i ) log p( x i ) p y j / x i = p( x i ) log p( x i )
i =1 j =1 i =1

n m

)]

i =1

p( x i ) p y j / x i log p y j / x i = H ( X ) + H (Y / X )
j =1

Auf derselben Weise kann man zeigen dass:


H ( X , Y ) = H (Y ) + H ( X / Y )

Fr strungsfreie Kanle (SFK) sind die bedingten Entropien gleich Null, so dass:
H ( X ,Y ) = H ( X ) = H (Y )

Fr stark gestrte Kanle (SGK) gilt:


H ( X ,Y ) = H ( X ) + H (Y )

Die oberen Beziehungen fr normale, strungsfreie und stark gestrte Kanle sind mit Hilfe von Venn Diagrammen in der unteren Abbildung veranschaulicht. SFK SGK

H(X/Y)

H(Y/X I(X,Y) H(Y) H(X)= H(Y)= H(X,Y)= I(X,Y) H(X)=H(X/Y) I(X,Y)=0 H(Y)=H(Y/X)

H(X)

3. Transinformation Die Transinformation oder die bertragene Information ist als Mittelwert der mutuellen Information i ( x i , y j ) ber das Verbundfeld definiert:
I ( X , Y ) = p( x i , y j ) i x i , y j = p x i y j log
i =1 j =1 i =1 j =1 n m n m n m

n m

p( x i , y j ) p( x i ) p( y j )
n m i =1 j =1

i =1 j =1

p( x i , y j ) log p( x i , y j ) p( x i , y j ) log p( x i ) p( x i , y j ) log p( y j ) =


i =1 j =1

= H ( X ,Y ) + H ( X ) + H ( Y ) = H ( X ) H ( X / Y ) = H ( Y ) H ( Y / X )

Transinformation ist positiv, mindestens Null: I ( X , Y ) 0


U

Kanalkapazitt

Die Kapazitt des Kanalks ist definiert als der maximale Wert der Transinformation:
C = max{ I ( X , Y )} = max[ H ( X ) H ( X / Y )] = max[ H ( Y ) H ( Y / X )
def

Die Maximierung wird in Verhltnis zu p(x i ) gemacht und man erhlt die sogenannte Sekundrquelle, welche Symbole liefert mit den optimalen Wahrscheinlichkeiten p(x oi ). So wird die Transinformation maximal und man sagt das die Quelle statistisch zum Kanal angepasst ist.
B B B B

Sekundarquelle secundara Q

I(X,Y)
Quellencodierer

Kanal
p(x oi )
B B

p(x i )
B B

o =optim

o
4. Kenngrssen des diskreten Kanals Kapazitt des Kanals ist: C = max I ( X, Y) (bit/Symbol) Informationsfluss (Bitrate
Ct = C

max I ( X , Y )

Ct =

max I ( X , Y )

(bit/s)

= i poi wobei poi die optimale Wahrscheinlichkeit ist.

Absolute Redundanz: Rc = C I ( X ,Y ) (bit/Symbol)


Rc I ( X ,Y ) ( %) = 1 C C I ( X ,Y ) (%) Kanaleffizienz: c = C Soll I ( X , Y ) C c 0 , c 100% und nhert sich dem

def

Relative Redundanz: c =

optimalen Fall c = 0, c = 100% . 5. Modelle fr diskrete Kanle Gleichmssiger Kanal eingangsseits : jede Linie der Strmatrixist gebildet aus demselben Wahrscheinlichkeitssatz, die Ordnung der bedingten Wahrscheinlichkeiten ist aber verschieden in den Linien Gleichmssiger Kanal ausgangsseits : jede Spalte der Strmatrixist gebildet aus demselben
U U U U

Wahrscheinlichkeitssatz, die Ordnung der bedingten Wahrscheinlichkeiten ist aber verschieden in den Spalten Symmetrischer Kanal : Ist der Kanal gleichmssig sowohl eingangsseits wie auch ausgangsseits.
U U

p 1 p n 1 p P (Y / X ) = n 1 1 p ... ... p p n 1 n 1

p n 1 p ... n 1 mit 0 p 1 ... ... ... 1 p ...

Fr symmetrische Kanle ist der mittlere Fehler unabhngig von den Eingangswahrscheinlichkeiten:
H ( Y / X ) = p( x k ) p( y j / x k ) log p( y j / x k ) =
k =1 j =1 n p p log ] p( x k ) = n 1 n 1 k =1 = ( 1 p ) log( 1 p ) p log p + p log( n 1 ) = const . n n

= [( 1 p ) log( 1 p ) + ( n 1)

Die Kapazitt des Kanals kann folglich einfacher ausgerechnet werden: Die initiale Form:
C = max{ I ( X , Y )} = max[ H ( X ) H ( X / Y )] = max[ H ( Y ) H ( Y / X )
def

geht ber in: C = max[H (Y )] H (Y / X) ; Nimmt man: p( x1 ) = p( x 2 ) = ... = p( x n ) = 1 / n , so folgt: p( y 1 ) = p( y 2 ) = ... = p( y n ) = 1 / n so dass max H ( Y )] = log n und man erhlt fr die Kapazitt des Kanals:
C sim = log n + ( 1 p ) log( 1 p ) + p log p p log( n 1)

Binrer symmetrischer Kanal : hat zwei Eigangssymbole und zwei Ausgangssymbole; Die Strmatrix und der entsprechende bergangsgraph sind weiter angegeben:
U U

1- p
p (y 1 / x 1 ) P [Y / X ] = p (y 1 / x 2 ) p (y 2 / x 1 ) p(y 2 / x 2 )

x1
B

y1
B

p x2
B

p y2
B

1- p

x
1 p P [Y / X ] = p p 1 p

1 0
y 1 0

t Schwelle t

Die Kapazitt des Kanals ist:


C = max I ( X , Y ) = max[ H ( Y ) H ( Y / X )]

Der mittlere Fehler ist:


H ( Y / X ) = p( x i ) p( y j / x i ) log p( y j / x i )
i =1 j =1

Es ergibt weiter:
H ( Y / X ) = [ p( x1 ) + p( x 2 )] [ p log p + ( 1 p ) log( 1 p )] = = [ p log p + ( 1 p ) log( 1 p )]

Es ist klar dass der mittlere Fehler nicht von den Eingangswahrscheinlichkeiten abhngt, sondern nur von den Eigenschaften des Kanals. Man hat fr p ( y 1 ) = p( y 2 ) = 1 / 2 und p( x1 ) = p( x 2 ) = 1 / 2
C = max H ( Y ) + [ p log p + ( 1 p ) log( 1 p )] = 1 + [ p log p + ( 1 p ) log( 1 p )] = 1 H ( p ) da H ( Y ) = 1

Bemerkung: Der Ausdruck kann auch aus der Formel der Kapazitt C sim fr n = 2 abgeleitet werden.
B B

Besondere Situationen: SFK: p = 0 C = 1 SGK: p = 1 / 2 C = 0 Invertierender Kanal: p = 1 C = 1


x1
B

o o

oy 1
B

x1
B

o
1/2

o
1/2 y2
B

x1
B

o
1 1

y1
B

x2
B

y2
B

x2
B

x2
B

o
IK

y2
B

SFK

SGK

H(p)

C(p) p

0
U

0.5

Binrer Kanal mit Fehler und Auslschung: Der Kanal ist durch den bergangsgraph und die Strmatrix folgends angedeutet:

x1 X

1-p-q q p q

y1
p

y3 y2

(auslschung Y )

x2
1-p-q

p q 1 p q P ( Y / X) = 1 p q q p

Die Kapazitt des Kanals ist:


C = 1 q + p log p ( 1 q ) log( 1 q ) + ( 1 p q ) log( 1 p q ) fr p( x1 ) = p( x 2 ) = 1 2

Falls die Auslschungsrate wchst, (p/q0), so verringert sich die Fehlerwahrscheinlichkeit p und der Kanal wird ein Kanal mit Auslschung.
U

Binrer Kanal mit Auslschung: Der Kanal ist durch den bergangsgraph und die Strmatrix y1 folgends angedeutet: 1 q x1 q X y 3 (ausloschung ) Y q 1 q 0 q P ( Y / X) = x2 0 1 q q 1 q y2

C = 1 q

6. Die Kapazitt diskreter Kanle Allgemeiner gedchtnisloser Kanal Die Kapazitt C ist laut Definition
C = sup I ( X ; Y ) = sup [ H ( X ) H ( X / Y )] = sup [ H ( Y ) H ( Y / X )],
P( X ) P( X ) P( X )

Wobei:
i =1

p( x i ) 1 = 0 , p( x i ) 0 , i

Es muss der Maximalwert der Funktion bestimmt werden.

= I(X, Y) [ p(x i ) 1]
i =1

Es wird das Gleichungssystem gelst:


=0 p ( x i )

p(x
i =1

) =1
m

nach Durchfhrung der Rechnungen erhlt man:


[ C + ln p0 ( y j ) ] p( y j / x i ) = H ( Y / x i )
j =1

i = 1, n

p 0 ( y j ) = p 0 ( x i ) p( y j x i )
i =1
m

j = 1, m

p( y j ) = 1
j =1

Es ist ein System mit n+m+1 Gleichungen und n+m+1 Unbekannten: p( x 1 ),..., p( x n ), p( y1 ),..., p( y m ) und C Ein einfachere Lsung bnesteht fr n = m, wobei:
p( y 1 / x1 ) ... p( y n / x1 ) p11 ... p1n P( Y / X ) = = p( y 1 / x n ) ... p( y n / x n ) pn1 ... pnn

[P( Y / X )]1 = Q =
Mit:
q ji = Pij P(Y / X ) ,

q11 q1n

... q n1 ... q nn

Wobei P ij der Kofaktor des Elementes p(yi /x i ) ist:


B B B B B B

es folgt:
C = log 2
j =1 n

q ji H ( Y / x i ) i =1
= n

; ; ;

p0 ( y j ) = 2

2
n

q ji H ( Y / x i ) i =1
= n

p0 ( x i ) = 2 C q ij 2
j =1 n

1q jk H ( Y / x k ) k=
=

H ( Y / x i ) = p( y j / x i ) log p( y j / x i )
j =1

Allgemeiner binrer Kanal (n=m=2); Der Graph ist:

x 1 o p 11 p 12
B B B B

y1 po 21
B B B

x2 o
B

p 22
B

o y2
B

Die Strmatrix ist:


p11 P(Y / X ) = p 21

p12 p 22

Die Kapazitt des Kanals wird zu:


C = log[ 2 q11H ( Y / x1 )q12H ( Y / x 2 ) + 2 q21H ( Y / x1 )q22H ( Y / x 2 ) ] = log[ 2Q1 + 2Q2 ] p0 ( x1 ) = 2 C [ q11 2Q1 + q12 2Q2 ] p0 ( x 2 ) = 2 C [ q 21 2Q1 + q 22 2Q2 ] Q1 = q11H ( Y / x 1 ) q12 H ( Y / x 2 ) Q 2 = q 21H ( Y / x 1 ) q 22 H ( Y / x 2 )

Die Kapazitt des Kanals hat den hchsten Wert wenn: p 11 = p 22 = 1 p 12 = p 21 = 0 (Strungsfreier Kanal) oder wenn: p 11 = p 22 = 0 p 12 = p 21 = 1 (Invertierender Kanal)
B B B B B B B B B B B B B B B B

q11 =

p22

; q12 =

p21

; q 21 =

p12

; q 22 =

p11

= p11 p22 p12 p21 1- p

Symetrischer binrer Kanal: Der Graph ist:

x o x

p 1- p

oy oy

Die Strmatrix ist: p12 1 p p p [ P ( Y / X )] = 11 = ; 1 p p 21 p 22 p


q [Q ] = 11 q 21 1 p q 12 1 2p = q 22 p 1 2p p 1 2p 1 p 1 2p

wobei : q 11 = q 22

q 12 = q 21 ; es folgt :

H ( Y / x 1 ) = H ( Y / x 2 ) = p log p (1 p) log(1 p); Die Kapazitaet des Kanals ist : C = log( 2 Q + 2 Q ) = log[ 2 2 H ( Y / x ) ] = 1 H ( Y / x 1 ) =
1 2 1

= 1 + p log p + (1 p) log(1 p) = 1 H ( p) Weil besteht:


Q1 = q11H ( Y / x1 ) q12H ( Y / x 2 ) = = H ( Y / x 1 )[ q11 + q12 ] = H ( Y / x1 ) Q2 = q 21H ( Y / x1 ) q 22H ( Y / x 2 ) = = H ( Y / x 2 )[ q 21 + q 22 ] = H ( Y / x 2 )

7. Beispiele diskreter Kanle

ANALOG

DIGITAL

Telefonabonnent

A/D T A/D

RS DVZ

DVZ digitales lokales Netz

DVZ

A/D AVZ analoges lokales Netz

A/D ISDN

A/D analog-digital Wandler, T Terminal, RS Rechensystem, (A/D)VZ Vermittlungszentrale

- ISDN Kanle - Integrated Services Digital Networks Integriert Daten- und Telefonbertragung (siehe Abb.)

Die ISDN Schnittstelle arbeitet in einem Netz mit einer Bitrate von 144 Kbit/s, welches ein Multiplex folgender Kanle ist: A. 4 kHz analoger Telefonkanal B. 2 Digitale Kanle von 64 Kbit/s fr digitale Sprache und Datenpakete C. Digitaler Kanal von 8 oder 16 kBit/s fr Daten D. Digitaler Kanal von 16 kBit/s fr Kontrol und Signalisierung E. Digitaler Kanal von 64 kBit/s fr innere Signalisierung H. Digitale Kanle von 384 Kbit/s (H0), 1536 Kbit/s (H11), 1920 Kbit/s (H12) mit hohen Bitraten - LAN Netze - Local Area Network Lokale Rechnernetze mit: a. Koaxialkabel, 1 10 Mbit/s b. Glasfaser, > 100 Mbit/s 8. Diskrete Kanle mit Einschrnkungen Laut Definition, sind in solchen Kanlen, durch Einschrnkungen gewisse Symbolfolgen am Eingang des Kanals nicht erlaubt. Beispiele: - Binrer Kanal mit RL (Run Length) Einschrnkungen: dadurch wird die Anzahl der identischen hintereinanderfolgenden Symbolen einer Datensequenz begrenzt. Es wird auf dieser Weise eine minimale Rate der bergnge von 1 zu 0 gesichert, so dass die Bitsyncronisation des Empfngers erfolgen kann durch Gewinnung der in diesen bergngen enthaltenen Information. - Binrer Kanal mit RLL (Run Length Limited) Einschrnkungen: RLL (x, t) Einschrnkung begrenzt zu x die Anzahl hintereinanderfolgenden Symbolen 1 oder 0 in einer Datensequenz der Dauer t; RLL (r, s) Einschrnkung verlangt dass nach einem Symbol 1 oder 0 wenigstens r aber nicht mehr als s komplementre Symbole folgen Kennzeichnung diskreter Kanle mit Einschrnkungen Ein Model solcher Kanle beruht auf endlichen sequenziellen Automaten, fr welche ein Satz erlaubter Zustnde definiert wird:

S = { S0 , S1 ,..., SN 1 } ; nach jedem Taktimpuls wird ein neues Symbol

bertragen und der Zustand des Automaten wechselt zu einem neuen Zustand, abhngig von dem bertragenen Symbol und dem gewesenen Zustand Die Folge der Zustnde kann dargestellt werden mit Hilfe von: - Zustandsdiagrammen: gerichtete Graphen, wobei die erlaubten Zustnde durch Bogen verbundene Knoten sind; auf jeden Bogen wird das bertragene Symbol welches einer gewissen Zustandsnderung entspricht eingetragen; - Trellisdiagrammen: in welcher die Zeitfolge der Symbole und der Zustnde lngs einer Folge von Taktimpulsen dargestellt ist. Beispiel: Der RLL(1,2) Kanal kann Symbole 0,1 und 00, 11 liefern und hat zufolge vier Zustnde: S 0 = 0, S 1 = 1, S 2 = 00, S 3 = 11. - Das Zustandsdiagramm ist durch den unteren Graphen angegebenen
B B B B B B B B

0 0
S2
B

S1
B

0 1

S0
B

S3
B

- Das Trellisdiagramm ist im unteren Bild angegebenen und eine konkrete Folge von Zustnden ist rot angezeigt

00 S 2 1 S1 0 S0 11 S3

o o o o

o o o o

o o o o

o o o o

o o o o

o o o o

o o o o

Aus diesen Diagrammen knnen auch folgende Matrixen ausgerechnet werden: - Die Matrix der Zustandsbergnge B , deren Elemente b ij der Anzahl der Bogen gleich ist welche den bergang aus dem Zustand S i im Zustand S j ermglichen. Fr den oberen Beispiel des RLL(1,2) Kanals hat man:
B B B B B B

b00 b 10 B= b 20 b30

b01 b11 b 21 b31

b02 b12 b22 b32

b03 0 b13 1 = b23 0 b33 1

1 1 0 0 0 1 1 0 0 0 0 0

Diese Matrix kann fr zwei Schritte ausgerechnet werden, sie ist dann B 2 und hat als Elemente b ij (2) , gegeben von der Anzahl der Bogen welche den bergang aus dem Zustand S i im Zustand S j in zwei Schritten ermglichen. Eine Verallgemeinerung fr m Schritte fhrt zur Matrix B m welche Schrittweise ausgerechnet werden kann. - Die erweiterte Matrix der Zustandsbergnge B(x) zieht in Betracht die Dauer der Symbole: jedes Element b ij (x) der Matrix wird von der Beziehung gegeben: t , wobei t ij,h die Dauer des Symbols in der bij ( x ) = x
P P B PB P B B B B P P B B

ij , h

Stelle h welches im Zustand i erscheint und zum Zustand j fhrt. Fr x = 1geht B(x) in B ber. Fr unser Beispiel haben die Symbole 0 und 1 dieselbe Dauer, nmlich eine Taktperiode; man hat folglich:
b00 ( x ) b 10 B( x ) = b20 b30 b03 0 b13 x 1 = b23 0 b33 x 1 x 1 0 x 1 0 x 1 0 0 0 0 x 1 0 0

b01 b11

b02 b12

b21 b22 b31 b32

- Die Kapazitt des Kanals mit Einschrnkungen und Symbole gleicher Dauer ist C = log wo der hchste positive Eigenwert der Matrix B ist und aus der Gleichung:
det[ B I ] = 0

ausgerechnet werden kann. Es folgt:


1 det 0 1 1 1 0 1 0 0 0 1 =0 0

4 2 2 1 = 0

max = 1,6
C = log max = 0,66 (bit/Symbol)

Das könnte Ihnen auch gefallen