Beruflich Dokumente
Kultur Dokumente
( Tronc commun )
lité
éor ica
m
abi
ie d tio
b
e la n
Pro
Phys
ique Théorie ue
Statistiq
de
l’Information
M
é ath
le xit que ém
mp mi ati
Co orith
Economie
qu
Alg e
2
Théorie de l'information
Probabilité, mathématique et statistique
Entropie, Séquence aléatoire longue,
Entropie relative Test d’hypothèse,
information mutuelle Probabilité des événements rares
Economie
Investissement optimal à la bourse, calcul du risque et du gain.
Complexité Algorithmique
Entropie, Complexité de Kolmogorov :
Description minimale plus petite longueur du programme
Binaire capable de faire le calcul
Physique
Entropie, Deuxième loi de la
Entropie relative thermodynamique
3
Théorie de l'information
Théorie de la Communication
Côté Source
Compression illimitée d’une source d’information
Côté Canal
Augmenter Augmenter
le débit de transmission la probabilité d’erreur
4
Théorie de l'information
Shannon 1948
Les limites de la communication
Source Canal de
Récepteur
d’Information transmission
5
Théorie de l'information
,
G N h,
A le g jet,..
W i
y
Ra lti-tra Canal de
Mu
transmission
7
Théorie de l'information
Notion d’Information
Attendu Probable
Inattendu improbable
Inversement
Info (événement) Prob (événement)
proportionnelle
1
I (x) ~
Pr (x)
8
Théorie de l'information
Mesure de l’Information
§ 1 ·
I ( x) f ¨¨ ¸¸
© Pr( x) ¹
f(x) est une fonction croissante de x
f ~ fonction logarithme :
I ( x) lbPr( x)
9
Théorie de l'information
Probabilité et Information
1/p
lb (1/p)
10
Théorie de l'information
Mesure de l’Information Moyenne
ª § 1 ·º
E X « lb ¨¨ ¸¸ »
¬ © Pr( x ) ¹¼
§ 1 ·
¦ Pr x lb ¨¨ Pr( x ) ¸¸
x X © ¹
¦ Pr x lb Pr x = Entropie de la source
x X
Def : Entropie d’une source discrète H(X) est la valeur moyenne d’information
fournie par cette source
H (X ) ¦ Pr x lb Pr x
x X
11
Théorie de l'information
Propriétés de l’Entropie
L’Entropie est toujours positive
1
H(X ) t 0 puisque 0 d p( x) d 1 1 d df
p( x)
Changement de variable
H b ( X ) log b (a ).H a X
12
Théorie de l'information
Exemple 1
Source binaire X : 0 et 1
Pr(x=0) = p; Pr(x=1) = q=1-p
H( X ) p lb ( p) q lb (q)
p lb ( p) (1 p) lb (1 p)
def H( p)
13
Théorie de l'information
Exemple 2
1 §1· 1 §1·
H (X ) lb ¨ ¸ lb ¨ ¸
2 ©2¹ 4 ©4¹
§ 1 § 1 ··
H (X ) 4 * ¨¨ lb ¨ ¸ ¸¸ 1 §1· 1 §1·
© 4 © 4 ¹¹ lb ¨ ¸ lb ¨ ¸
8 ©8¹ 8 ©8¹
H (X ) 2bits 7
H (X ) bits 1,75 bits
4
14
Théorie de l'information
Entropie = nombre moyen de questions à poser pour connaître le résultat de
chaque tirage
Stratégie
Q1 - Est-ce que x € {a, b} ? Q1 - Est-ce que x = a ?
oui non
Q2 oui, Q2 non,
Q2 est-ce que x = b ?
est-ce que x = a ? est-ce que x = c ?
oui non
Q2 est-ce que x = c ?
15
Théorie de l'information
(X,Y) Pr(X,Y)
Entropie conjointe
H X ,Y ¦ ¦ px, y lb p( x, y)
x X yY
H X , Y E p ( x , y ) >lb p ( x, y ) @
16
Théorie de l'information
Entropie Conditionnelle
H Y X ¦ px H Y X x
x X
¦ p x ¦ p y x lb p ( y x)
x X yY
¦ ¦ p ( y, x)lb p ( y x)
x X yY
E lb p (Y X )
p( x, y )
Attention H Y X z ¦ ¦ p ( y x ) lb p ( y x )
x X yY
X
Exemple Y x1 x2 x3 x4
26
Alphabet avec 26 lettres § 1 · § 1 ·
équiprobable
H ( X 26 ) ¦ lb¨© 26 ¸¹
i 1
lb¨ ¸
© 26 ¹
4,7 [bit ]
19
Théorie de l'information
La règle de chaîne
20
Théorie de l'information
A quoi ça sert ???
Codage de source
sans distorsion
H ( X ) d L d H ( X ) 1
n
xi est un mot de code de la source X
l(xi) est la longueur du mot xi
L ¦ p( x ) l (x )
i 1
i i
§ 1 ·
Il suffit d’avoir l ( xi ) lb¨¨ ¸¸ or l(xi) est entier !!!
© p ( x )
i ¹
21
Théorie de l'information
Entropie relative
L’entropie relative D(p||q) entre deux distributions de probabilité (p, q)
est une mesure de « la distance » ces deux distributions
Distance de Kullback-Leibler
§ p( x) ·
D p q ¦ p( x) lb¨¨ q( x) ¸¸
x X © ¹ X,p Y,q
§ p ( x) ·
E p lb¨¨ ¸¸
© q ( x ) ¹
p p
§1· §1·
D(p||q) t 0 ¦X p lb¨¨ p ¸¸ t ¦X p lb¨¨ q ¸¸
© ¹ © ¹ H(X) H(X)+D(p||q)
Si p = q D(p||q)=0
Mais D(p||q) = D(q||p)
22
Théorie de l'information
Si
p = p(x,y) probabilité conjointe
q = p(x).p(y) probabilité produite
§ p ( x, y ) ·
D p ( x, y ) p ( x ) p ( y ) ¦¦ p ( x, y ) lb¨¨ ¸¸
x X yY © p ( x) p( y ) ¹
§ p ( x, y ) ·
E p ( x , y ) lb¨¨ ¸¸
© p( x) p ( y ) ¹
Information Mutuelle
Quantité moyenne d’information qu’une variable livre sur une autre
(X,Y)
§ p ( x, y ) ·
I ( X ;Y ) ¦ ¦ p( x, y)lb¨¨ p( x) p( y) ¸¸ X Y
xX yY © ¹
23
Théorie de l'information
I(X;Y)
H(X,Y)
Information mutuelle Entropie H(Y)
§ p ( x, y ) ·
I ( X ;Y ) ¦ p( x, y) lb¨¨ p( x) p( y) ¸¸ H(X)
X ,Y © ¹
§ p( x y) ·
¦ p ( x, y ) lb¨¨ ¸ H(X|Y) H(Y|X)
¸
X ,Y © p( x) ¹
§ 1 ·
¦X p( x) lb¨¨ p( x) ¸¸ ¦ p ( x, y ) lb p ( x y )
© ¹ X ,Y
§ 1 · § 1 ·
¦ p( x) lb¨¨ ¸¸ ¦ p ( x, y ) lb¨ ¸
X © p ( x) ¹ X ,Y
¨ p( x y) ¸
© ¹
I(X;Y)
H (X ) H (X Y)
Entropie
H ( X 1 , X 2 , X 3 ,.., X n ) H ( X 1 ) H ( X 2 X 1 ) H ( X 3 X 1 , X 2 ) .. H ( X n X 1 , X 2 ,.., X n 1 )
n
H ( X 1 , X 2 , X 3 ,.., X n ) ¦ H (X
i 1
i X 1 ,.., X i 1 )
Entropie Relative
D p ( x , y ) q ( x, y ) D p ( x ) q ( x ) D p ( y x ) q ( y x )
Information Mutuelle
n
I ( X 1 , X 2 , X 3 ,.., X n ; Y ) ¦ I ( X ; Y X ,.., X
i 1
i 1 i 1 )
25
Théorie de l'information
p(X,Y)
X Y p(X).p(Y)
p(X).p(Y|X)
C max I ( X ; Y )
p( x)
26
Théorie de l'information
Quelques exemples simples
0 0 P(0|0) = 1, p(0|1) = 0
1 1 P(1|1) = 1, p(1|0) = 0
b P(b|0) = 1 , p(b|1) = 0
1 c P(c|0) = 0 , p(c|1) = 1
d P(d|0) = 0 , p(d|1) = 1
C = 1 [bit/transmission] ([bit/channel use]) avec p(0) = p(1) = 1/2
27
Théorie de l'information
Canal bruité
1 1/2
a C = 1 [bit/transmission]
1/2
2 b
1/2 C = max I(X;Y) = max[H(Y)-H(Y|X)]
1/2 = max [H(Y)] - 1 = lb(4)-1 = 1
3 c
1/2
Pour N entrées C = lb(N/2) [bit/transmission]
4 1/2
1/2
d
1/2
28
Théorie de l'information
Canal binaire symétrique I (X;Y) H(Y) H(Y X)
1-p
0 0 H(Y) ¦p(x)H(Y X x)
p
H(Y) ¦p(x)H( p)
p
1
1-p
1 H(Y) H( p)
p : Probabilité d’erreur d 1 H( p)
Si p(0) = p(1) = ½
C = 1-H(p) bits/transmission
29
Théorie de l'information
D max( H (Y )) H (D )
p( x)
e
D Soit E l’événement {Y= e }
1 1-D 1
H(Y) = H(Y,E)=H(E)+H(Y|E)
Alphabet d’entrée : {0, 1}
Alphabet de sortie : {0, e, 1} Soit p = Pr(X=1)
H(Y) = H((1-p)(1- D), D, p(1- D))
= H(D) + (1- D)H(p)
Donc C max( H (Y )) H (D )
p( x)
max(1 D ) H ( p ) H (D ) H (D )
p( x)
max(1 D ) H ( p )
p( x)
(1 D ) H ( p )
30
Théorie de l'information
Canal symétrique
• Canal Symétrique :
les lignes de la matrice sont obtenues les unes des autres à une permutation près
les colonnes de la matrice sont obtenues les unes des autres à une permutation près
Exemple
§ 0.3 0.2 0.5 ·
¨ ¸
p y x ¨ 0.5 0.3 0.2 ¸
¨ 0.2 0.5 0.3 ¸
© ¹
• Canal faiblement symétrique:
Les lignes se déduisent les unes des autres à une permutation près
Les sommes des colonnes sont égales
Exemple
§1 / 3 1 / 6 1 / 6 ·
p y x ¨¨ ¸¸
© 1 / 3 1 / 2 3 / 6 ¹
31
Théorie de l'information
Cette capacité est atteinte avec une distribution uniforme de l’alphabet de l’entrée.
Démonstration
C = max I(X;I) = H(Y) – H(Y|X)
p(x)
H Y X ¦ p( x) H (Y X x)
H(Y) d lb(|Y|) x X
½
° °
¦ p ( x)® ¦ p( y x) lb( y x))¾
x X ° yY °
¯ m H (r ) x o¿
H(r)¦ p ( x)
xX
H (r )
32
Théorie de l'information
Il reste à démontrer qu’une distribution équiprobable à l’entrée
donne une distribution équiprobable à la sortie
DONC
maximise H(Y)
p( y) ¦ p ( x) p ( y x)
x X
1
X
¦ p ( y x)
yY
= somme de colonne : constante par définition
c
X
= constante
33
Théorie de l'information
Canal Q-aire
§q p .... p p ·
¨ ¸
¨p q .... p p ¸
p y x ¨. . . ¸
¨ ¸
¨. . . ¸
¨p p .... p q ¸¹
©
Capacité :
CQ aire lb(Q) H (q) (Q 1). p.lb(Q 1)
34
Théorie de l'information
Propriétés de la capacité d’un canal
• C t 0 puisque I(X;Y) t 0
• C d lb(|Y|)
35
Théorie de l'information
N est un bruit blanc additif gaussien, Le bruit gaussien est MODELISE par
Densité spectrale de puissance ) : Une variable aléatoire gaussienne N de
) = E[NN*] Moyenne nulle
Puissance du bruit blanc gaussien : Variance N0 = )
PN = B. E[NN*]
N N ~ Norm(0,N0)
X Y
X est un signal à bande limitée B,
Transmis durant la période T, t.q Y=X+N
B = 1/T
Puissance du signal
X et N sont indépendants
T
* E[XN*] = 0
³ X (t ) X (t ) dt
t 0
PX
T E[YY*] = E[XX*]+E[NN*]
B/2
*
PX B. ³ X ( f ) X ( f ) df
f B/ 2
PY = PX + PN
36
Théorie de l'information
Courbe de Gauss
N0 = 2.V ²
x x0 x2
1 29 2
Pr( x d x0 )
2SV 2 ³
x f
e dx erf(x0)
f x2
1 29 2
Pr( x ! x0 ) ³e
2SV 2 x x0
dx
erfc(x0)
1 Pr( x d x0 )
37
Théorie de l'information
Exemple de signaux
S = sign(randn(1,100))
N = randn(1,1000)
N0
38
Théorie de l'information
Capacité du canal gaussien BGA
§ yx2 · 1 § 2 Es ·
p y x
1
exp¨ ¸ C AWGN lb¨1 ¸
2SV 2 ¨
© 2V 2
¸
¹ 2 ¨© N 0 ¸¹
39
Théorie de l'information
40
Théorie de l'information
Théorème de codage canal (Shannon 1948)
Pour un canal stationnaire causal de capacité C, Canal
les données transmises peuvent être reçues avec une Récepteur
fiabilité arbitrairement petite Probabilité d’erreur (Pe)
tant que le débit de transmission Taux de codage (R)
reste inférieur à la capacité. Canal (C)
Eb = REs
Eb Es
X Codage canal (R) Décodage canal Y
C
1 § 2 REb ·
C AWGN lb¨1 ¸
2 ¨© N 0 ¸¹
41
Théorie de l'information
Cas limite : R = C
1 § 2CEb ·
C AWGN lb¨1 ¸
2 ¨© N 0 ¸¹
Eb 2 2C 1
N0 2C Zone permise
Eb
lim ln(2) 1.59[dB]
C o0 N
0
Interprétation
42
Théorie de l'information
Capacité canal AWGN sans codage vs avec codage
43
Théorie de l'information
Et si on dépassait ??
Gallager (1968) :
Pour un canal stationnaire causal de capacité C,
Pour un code de taux R et longueur de mot N,
Pour un décodage optimal (à maximum de vraisemblance)
la probabilité d’erreur par mot peut être majorée par
Pe d cst.e N . E ( R )
44
Théorie de l'information
Canal BSC
N N
X Modulation Modulation
Y X Y
binaire binaire
§ § 2 REb ··
C 1 H ¨ erfc¨¨ ¸¸
¸¸
¨
© © N0 ¹¹
45
Théorie de l'information
Cutoff Rate
2
§M M xi x j · § xi x j
2
·
¨ ¸ Si constellation ¨ 1 M M ¸
R0 lb¨ ¦¦ p ( xi ) p ( xi )e 4 N 0 ¸ R0 lb¨ 2 ¦¦ e 4 N0
¸
¨i1 j 1
©
¸
¹ équiprobable ¨p i 1 j 1 ¸
© ¹
46
Théorie de l'information
CutOff Rate Capacité
Es/No
47
Théorie de l'information
§ P ·
C Wlb¨¨1 ¸¸
© WN 0 ¹
Exemple : UMTS
W = 3.84 [MHz]
modulaiton binaire : 1 [bits/symbole réel]
débit maximal W*lb(2) = 3.84 [Mega bit/sec]
§ P ·
C2 W . lb¨¨1 2 ¸¸
R2, single user
© WN 0 ¹
• utilisateur virtuel (1 & 2) doit satisfaire
R1
R1, single user C
§ P P · 1
C1&2 W . lb¨¨1 1 2 ¸¸
© WN 0 ¹
Zone de capacité dans un
schéma d’accès multiple
non coopératif
49
Théorie de l'information
MIMO capacité
M antennes
N antennes
émission
réception
§ ª P º·
C lb¨¨ det « I M HH *T » ¸¸
© ¬ N ¼¹
50
Théorie de l'information
Codage source-canal conjoint
Codage Codage
Source Source
Info canal
(compression)
D=Ds+Dc :
Débit limité sur le canal
Compromis entre
Ds compression sans dégradation de la source.
Dc protection convenable des données
51
Théorie de l'information
Plan
• Mesure de l’Information
• Information Mutuelle
52
Théorie de l'information
Codage Source
Codage Canal
Codage Source
• Théorie de l'information
• Hypothèse sur la source / le canal
• Entropie d'une source
• Codage entropique /capacité d'un canal
• Mesure de l'information
• Sources discrètes
• Codage source : généralités et exemples
• Codes de Fano et Huffman
• Distorsion / Compression de l'information
Schéma de communication
Codage Codage Modulation
Source Source
Modulation
canal Binaire signal
Info (compression)
Canal de
transmission
Codage Source
• Théorie de l'information
• Hypothèse sur la source / le canal
• Entropie d'une source
• Codage entropique /capacité d'un canal
• Mesure de l'information
• Sources discrètes
• Codage source : généralités et exemples
• Codes de Fano et Huffman
• Distorsion / Compression de l'information
Codage Source
• Théorie de l'information
• Hypothèse sur la source / le canal
• Entropie d'une source
• Codage entropique /capacité d'un canal
• Mesure de l'information
• Sources discrètes
• Codage source : généralités et exemples
• Codes de Fano et Huffman
• Distorsion / Compression de l'information
Codage Source
• Théorie de l'information
• Hypothèse sur la source / le canal
• Entropie d'une source
• Codage entropique /capacité d'un canal
• Mesure de l'information
• Sources discrètes
• Codage source : généralités et exemples
• Codes de Fano et Huffman
• Distorsion / Compression de l'information
Exemples (2/6)
• Exemple 3
Exemples (4/6)
Exemples (6/6)
Optimisation du codage
Codage Source
• Théorie de l'information
• Hypothèse sur la source / le canal
• Entropie d'une source
• Codage entropique /capacité d'un canal
• Mesure de l'information
• Sources discrètes
• Codage source : généralités et exemples
• Codes de Fano et Huffman
• Distorsion / Compression de l'information
Codage Source
• Théorie de l'information
• Hypothèse sur la source / le canal
• Entropie d'une source
• Codage entropique /capacité d'un canal
• Mesure de l'information
• Sources discrètes
• Codage source : généralités et exemples
• Codes de Fano et Huffman
• Distorsion / Compression de l'information
• Application:
– codage de source pour les sources continues (compression du signal).
– Transmission d'information à débit supérieur à la capacité du canal.
Codage
Source Source Codage Modulation Modulation
Info (compression) canal Binaire signal
Canal de
transmission
Décodage Démodulation
Info Décodage Démodulation
Source Signal
reçue canal Binaire
(expansion) et filtrage
Codage Canal
• Classification des codes
• Codes détecteurs / correcteurs d'erreurs
• Codes linéaires
• Code de Hamming
• Codes cycliques
• Cyclic Redundancy Check
• Borne de Singleton
• Codes de Reed-Solomon
• Codes Convolutifs / Algorithme de Viterbi
• Poinçonnage
• Turbo-Codes
• Codage joint Source-Canal
Codage Canal
• Classification des codes
• Codes détecteurs / correcteurs d'erreurs
• Codes linéaires
• Code de Hamming
• Codes cycliques
• Cyclic Redundancy Check
• Borne de Singleton
• Codes de Reed-Solomon
• Codes Convolutifs / Algorithme de Viterbi
• Poinçonnage
• Turbo-Codes
• Codage joint Source-Canal
n 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16
m 0 0 1 1 2 3 4 4 5 6 7 8 9 10 11 11
k 1 2 2 3 3 3 3 4 4 4 4 4 4 4 4 5
Codage Canal
• Classification des codes
• Codes détecteurs / correcteurs d'erreurs
• Codes linéaires
• Code de Hamming
• Codes cycliques
• Cyclic Redundancy Check
• Borne de Singleton
• Codes de Reed-Solomon
• Codes Convolutifs / Algorithme de Viterbi
• Poinçonnage
• Turbo-Codes
• Codage joint Source-Canal
Codage Canal
• Classification des codes
• Codes détecteurs / correcteurs d'erreurs
• Codes linéaires
• Code de Hamming
• Codes cycliques
• Cyclic Redundancy Check
• Borne de Singleton
• Codes de Reed-Solomon
• Codes Convolutifs / Algorithme de Viterbi
• Poinçonnage
• Turbo-Codes
• Codage joint Source-Canal
• Avec les codes linéaires, on impose plus de structure: les mots du code
doivent former un espace vectoriel, d'où restriction du nombre de codes
disponibles, mais traitement du codage/décodage de manière efficace
avec les matrices génératrices et de parité.
Codage Canal
• Classification des codes
• Codes détecteurs / correcteurs d'erreurs
• Codes linéaires
• Code de Hamming
• Codes cycliques
• Cyclic Redundancy Check
• Borne de Singleton
• Codes de Reed-Solomon
• Codes Convolutifs / Algorithme de Viterbi
• Poinçonnage
• Turbo-Codes
• Codage joint Source-Canal
Codage Canal
• Classification des codes
• Codes détecteurs / correcteurs d'erreurs
• Codes linéaires
• Code de Hamming
• Codes cycliques
• Cyclic Redundancy Check
• Borne de Singleton
• Codes de Reed-Solomon
• Codes Convolutifs / Algorithme de Viterbi
• Poinçonnage
• Turbo-Codes
• Codage joint Source-Canal
Codage Canal
• Classification des codes
• Codes détecteurs / correcteurs d'erreurs
• Codes linéaires
• Code de Hamming
• Codes cycliques
• Cyclic Redundancy Check
• Borne de Singleton
• Codes de Reed-Solomon
• Codes Convolutifs / Algorithme de Viterbi
• Poinçonnage
• Turbo-Codes
• Codage joint Source-Canal
• Les m premiers bits correspondent au message, les 2.e suivants aux bits
de parité.
• Vérifier l'absence d'erreur est facile en utilisant le polynôme de parité
h(x) tel que h(x).g(x)=xn-1.
Codage Canal
• Classification des codes
• Codes détecteurs / correcteurs d'erreurs
• Codes linéaires
• Code de Hamming
• Codes cycliques
• Cyclic Redundancy Check
• Borne de Singleton
• Codes de Reed-Solomon
• Codes Convolutifs / Algorithme de Viterbi
• Poinçonnage
• Turbo-Codes
• Codage joint Source-Canal
Poinçonnage (1/2)
• On peut représenter le code comme une matrice de
dimension:
[nb bits codés/branche x nb de transitions].
• Le principe du poinçonnage est de supprimer des bits dans
cette matrice.
• Permet d'atteindre tout type de taux de codage.
• En pratique : matrices de poinçonnage obtenues par
simulation/optimisation.
Codage Canal
• Classification des codes
• Codes détecteurs / correcteurs d'erreurs
• Codes linéaires
• Code de Hamming
• Codes cycliques
• Cyclic Redundancy Check
• Borne de Singleton
• Codes de Reed-Solomon
• Codes Convolutifs / Algorithme de Viterbi
• Poinçonnage
• Turbo-Codes
• Codage joint Source-Canal
TurboCodes (2/3)
• Décodeurs parallèle et série
1,00E-01
1,00E-02
1,00E-03
1,00E-04
1,00E-05
1,00E-06
0 1 2 3 4 5 6
Sans codage Code convolutif Turbo code
Codage Canal
• Classification des codes
• Codes détecteurs / correcteurs d'erreurs
• Codes linéaires
• Code de Hamming
• Codes cycliques
• Cyclic Redundancy Check
• Borne de Singleton
• Codes de Reed-Solomon
• Codes Convolutifs / Algorithme de Viterbi
• Poinçonnage
• Turbo-Codes
• Codage joint Source-Canal
• 32è
Asilomar
Conference
on Signals,
Systems
and
Computers.
Modulations numériques
• Signaux bande de base-bande étroite : bases théoriques
• Schéma de communication
• Codes en lignes
• Généralités sur les modulations numériques
• Modulation par Déplacement d'Amplitude (MDA)
• Modulation par Déplacement de Phase (MDP)
• Modulation d'amplitude sur deux porteuses en quadrature (QAM)
• Modulation par Déplacement de Fréquence (MDF)
Modulations Numériques 2
ESME-Sudria 2005/2006
Signaux à bande étroite
Modulations Numériques 3
ESME-Sudria 2005/2006
Modulations Numériques 4
ESME-Sudria 2005/2006
Signal analytique / enveloppe complexe / composantes en
phase et en quadrature (2/4)
Modulations Numériques 5
ESME-Sudria 2005/2006
Modulations Numériques 6
ESME-Sudria 2005/2006
Signal analytique / enveloppe complexe / composantes en
phase et en quadrature (4/4)
Modulations Numériques 7
ESME-Sudria 2005/2006
Filtre de Hilbert
• Application à un sinusoïde:
Modulations Numériques 8
ESME-Sudria 2005/2006
Modulations numériques
• Signaux bande de base-bande étroite : bases théoriques
• Schéma de communication
• Codes en lignes
• Généralités sur les modulations numériques
• Modulation par Déplacement d'Amplitude (MDA)
• Modulation par Déplacement de Phase (MDP)
• Modulation d'amplitude sur deux porteuses en quadrature (QAM)
• Modulation par Déplacement de Fréquence (MDF)
Modulations Numériques 9
ESME-Sudria 2005/2006
Schéma de communication
Codage
Source Source Codage Modulation Modulation
Info (compression) canal Binaire signal
Canal de
transmission
Décodage
Info Décodage Démodulation Démodulation
Source
reçue canal Binaire signal/filtrage
(expansion)
Modulations Numériques 10
ESME-Sudria 2005/2006
Chaîne d'émission
SOURCE CODAGE
MODULATION FILTRAGE
NUMERIQUE M - AIRE
ONDE PORTEUSE
Modulations numériques
• Signaux bande de base-bande étroite : bases théoriques
• Schéma de communication
• Codes en lignes
• Généralités sur les modulations numériques
• Modulation par Déplacement d'Amplitude (MDA)
• Modulation par Déplacement de Phase (MDP)
• Modulation d'amplitude sur deux porteuses en quadrature (QAM)
• Modulation par Déplacement de Fréquence (MDF)
Modulations Numériques 12
ESME-Sudria 2005/2006
Codes en ligne (1/5)
• Codes à 2 niveaux
Modulations Numériques 13
ESME-Sudria 2005/2006
Modulations Numériques 14
ESME-Sudria 2005/2006
Codes en ligne (3/5)
Modulations Numériques 15
ESME-Sudria 2005/2006
Modulations Numériques 16
ESME-Sudria 2005/2006
Codes en ligne (5/5)
Modulations Numériques 17
ESME-Sudria 2005/2006
Modulations numériques
• Signaux bande de base-bande étroite : bases théoriques
• Schéma de communication
• Codes en lignes
• Généralités sur les modulations numériques
• Modulation par Déplacement d'Amplitude (MDA)
• Modulation par Déplacement de Phase (MDP)
• Modulation d'amplitude sur deux porteuses en quadrature (QAM)
• Modulation par Déplacement de Fréquence (MDF)
Modulations Numériques 18
ESME-Sudria 2005/2006
Modulations numériques : généralités
Modulations Numériques 19
ESME-Sudria 2005/2006
Modulations Numériques 20
ESME-Sudria 2005/2006
Définitions et appellations (2/2)
Modulations Numériques 21
ESME-Sudria 2005/2006
Principes
• Signal modulant:
• Signal modulé:
Modulations Numériques 22
ESME-Sudria 2005/2006
Modulateur
Modulations Numériques 23
ESME-Sudria 2005/2006
Représentations
Modulations Numériques 24
ESME-Sudria 2005/2006
Modulations numériques
• Signaux bande de base-bande étroite : bases théoriques
• Schéma de communication
• Codes en lignes
• Généralités sur les modulations numériques
• Modulation par Déplacement d'Amplitude (MDA)
• Modulation par Déplacement de Phase (MDP)
• Modulation d'amplitude sur deux porteuses en quadrature (QAM)
• Modulation par Déplacement de Fréquence (MDF)
Modulations Numériques 25
ESME-Sudria 2005/2006
MDA / ASK
Modulations Numériques 26
ESME-Sudria 2005/2006
MDA M-ETATS (1/3)
Modulations Numériques 27
ESME-Sudria 2005/2006
Modulations Numériques 28
ESME-Sudria 2005/2006
MDA M-ETATS (3/3)
Modulations Numériques 29
ESME-Sudria 2005/2006
• Probabilité d'erreur:
Modulations Numériques 30
ESME-Sudria 2005/2006
MDA M-ETATS : Conclusion
• Lorsque M augmente:
Modulations Numériques 31
ESME-Sudria 2005/2006
Modulations numériques
• Signaux bande de base-bande étroite : bases théoriques
• Schéma de communication
• Codes en lignes
• Généralités sur les modulations numériques
• Modulation par Déplacement d'Amplitude (MDA)
• Modulation par Déplacement de Phase (MDP)
• Modulation d'amplitude sur deux porteuses en quadrature (QAM)
• Modulation par Déplacement de Fréquence (MDF)
Modulations Numériques 32
ESME-Sudria 2005/2006
MDP / PSK (1/2)
Modulations Numériques 33
ESME-Sudria 2005/2006
Modulations Numériques 34
ESME-Sudria 2005/2006
Exemple 1 : MDP2 / BPSK (1/2)
Modulations Numériques 35
ESME-Sudria 2005/2006
Modulations Numériques 36
ESME-Sudria 2005/2006
Exemple 2 : MDP4 / QPSK (1/3)
Modulations Numériques 37
ESME-Sudria 2005/2006
Modulations Numériques 38
ESME-Sudria 2005/2006
Exemple 2 : MDP4 / QPSK (3/3)
Modulations Numériques 39
ESME-Sudria 2005/2006
Modulations Numériques 40
ESME-Sudria 2005/2006
Exemple 2 : MDP4 / QPSK
La modulation étape par étape
Modulations Numériques 41
ESME-Sudria 2005/2006
Modulations Numériques 42
ESME-Sudria 2005/2006
Généralisation aux M-MDP
Modulations Numériques 43
ESME-Sudria 2005/2006
Performances
• Efficacité spectrale
• Probabilité d'erreur:
Modulations Numériques 45
ESME-Sudria 2005/2006
Modulations Numériques 46
ESME-Sudria 2005/2006
Modulation d'amplitude sur 2 porteuses
en quadrature : QAM (2/3)
Modulations Numériques 47
ESME-Sudria 2005/2006
Modulations Numériques 48
ESME-Sudria 2005/2006
Modulations numériques
• Signaux bande de base-bande étroite : bases théoriques
• Schéma de communication
• Codes en lignes
• Généralités sur les modulations numériques
• Modulation par Déplacement d'Amplitude (MDA)
• Modulation par Déplacement de Phase (MDP)
• Modulation d'amplitude sur deux porteuses en quadrature (QAM)
• Modulation par Déplacement de Fréquence (MDF)
Modulations Numériques 49
ESME-Sudria 2005/2006
Modulations Numériques 50
ESME-Sudria 2005/2006
MDF / FSK (2/)
• Signal modulé:
Modulations Numériques 51
ESME-Sudria 2005/2006
• Signal modulé:
Modulations Numériques 52
ESME-Sudria 2005/2006
MDF / FSK : MDF binaire à phase continue
Modulations Numériques 53
ESME-Sudria 2005/2006
Modulations Numériques 54
ESME-Sudria 2005/2006
MSK (1/6)
• MDF générée de la
manière suivante:
Modulations Numériques 55
ESME-Sudria 2005/2006
MSK (2/6)
• Ecriture du signal • Signal MSK interprété
MSK: comme une forme de FSK:
Modulations Numériques 56
ESME-Sudria 2005/2006
MSK (3/6)
• Pourquoi "Minimum" Shift-Keying
Modulations Numériques 57
ESME-Sudria 2005/2006
MSK (4/6)
Modulations Numériques 58
ESME-Sudria 2005/2006
MSK (5/6)
• GMSK : un filtre gaussien précède g1(t) et g2(t) et réduit la
largeur de bande:
Modulations Numériques 59
ESME-Sudria 2005/2006
MSK (6/6)
• GMSK : "coherent receiver" - détection cohérente:
Modulations Numériques 60
ESME-Sudria 2005/2006
Émission – Réception :
les enjeux
S
N, IE
G ,
AW leigh jet,..
ay t ra
R lti- Canal de
Mu
transmission
v(t) r(t)
x(t) Mise en forme Canal Récepteur
g(t) c(t)
v(t ) x(t )
g (t )
Filtrage linaire
r (t ) v(t )
c(t ) x(t )
g (t )
c(t )
Emission-Réception 3
1- g(t) = G(t)
T
Signal transmis : peigne de Dirac
t
x(t ) ¦ a G t kT
k
k
T
3A
A
-A
t
-3A
Emission-Réception 4
2- g(t) = 3T(t)
Caractéristique du g(t) :
1 - à bande limitée en fréquence
2 - réalisable
Emission-Réception 5
§ ·
v(t ) ¨¨ ¦ ak G (t kT ) ¸¸
g (t )
© k ¹
¦ a g (t kT )
k
k
En temps
a0 =A
0 t 0 L
L
T T
a2 = -A
Emission-Réception 6
En Fréquence
G(f) X(f)
W/2
f 1/T
f
-W/2 -1/T 0
W=1/T W=1/T
Emission-Réception 7
v(t ) ¦ a g (t kT )
k
k
v(t) a1=3A v0 a0 g 0
1- L d T v1 a1 g 0
a0 =A
vk ak g 0
0 L t
T T
a2 = -A
a1=3A
v(t)
2- L > T
v0 a0 g 0
a0 =A
v1 a1 g 0 a0 g1
IES
0 L t vk ak g 0 ¦a g
nzk
n k n
T T a2 = -A
Emission-Réception 8
Le diagramme de l’œil
Emission-Réception 9
Emission-Réception 10
Diagramme de l’œil sans IES
Emission-Réception 11
Emission-Réception 12
Diagramme de l’œil avec IES
L’œil commence à
se fermer
Emission-Réception 13
Sensibilité
à l’instant de L’interférence
l’échantillonnage Entre symboles
IES
Distorsion
lié au bruit
Distorsion
lié au passage
par zéro
Distorsion
du maximum
de g(t)
Emission-Réception 14
Conception du filtre de mise en forme à l’émission
vk ak g 0 ¦a g
nzk
n k n
vt kT ak g t 0 ¦ a g t n (k n)T
nzk
1 (ou ak ) k 0
vt kT { vk ®
¯ 0 k z0
Théorème de Nyquist:
La condition nécessaire et suffisante pour satisfaire la condition de non IES est que la
Transformé de Fourier de v(t) satisfait
f
¦V f m / T
m f
T avec
TF
v(t ) o V( f )
Emission-Réception 15
Démo de Nyquist
v ( kT ) ¦ ³ X ( f ) exp( 2iSf
m f ( 2 m 1) / 2 T
kT )df
f 1 / 2T
¦ ³ X ( f m / T ) exp( 2iSf
m f 1 / 2 T
kT )df
1 / 2T f
ª º
³ « ¦ X ( f m / T ) » exp( 2iSf kT )df
1 / 2 T ¬ m f ¼
1 / 2T
³ B ( f ) exp( 2iSf
1 / 2 T
kT )df
Emission-Réception 16
Il est claire que B(f) est une fonction périodique de période 1/T,
avec 1 / 2T
bn T ³ B( f ) exp(2iSfkT )df
1 / 2T
bn = v(nT)
Donc, la condition nécessaire et suffisante devient :
T k 0
bk ®
¯0 k z0
f
f
Ce qui donne
B( f ) ¦b
m f
k exp(2iS fkT ) T ¦V ( f M / T )
m f
T
Emission-Réception 17
1- 1/T >W f
¦V f m / T
m f
f
-1/T 0 1/T
W
Emission-Réception 18
2- 1/T = W
f
-2/T -1/T 1/T 2/T
W
Le seul filtre qui satisfait Nyquist est une porte en fréquence DONC un SINC en temps
TF
f
t W
2/T
PROBLEME :
Décroissance lente (en 1/t ) Erreur sur l’instant d’échantillonnage
des lobes secondaires engendre une suite divergente d’interférence !!!
Emission-Réception 19
3- 1/T < W f
¦V f m / T
m f
f
-1/T 0 1/T
W
Les réplicats du filtre se chevauchent en fréquences, pour satisfaire Nyquist, il faut que la somme soit
égale à T
1 E
°T 0d f d
2T
°
°T ª § ST § 1 E · ·º 1 E 1 E E : roll-of
G f ® «1 cos¨¨ ¨ f ¸ ¸¸» d f d
°2 ¬ © E © 2T ¹ ¹¼ 2T 2T
° 1 E
°¯0 f !
2T
Emission-Réception 20
sinʌt/T cosSEt / T
g (t )
ʌt/T 1 4E 2t 2 / T 2
g(t)
Cos-Sur(f) E=0
T
E=0.5
E=1
E=0 E=1 E=0.5
t f
1/4T 1/2T 3/4T 1/2T
2T
Les réplicats du filtre cosinus surélevé se chevauchent en fréquences, Mais la somme soit est égale à T,
La décroissance des lobes secondaires est en 1/t3
Emission-Réception 21
Exemple du GSM : le filtre de mise en forme est le GMSK (Gaussian Minimum Shift Keying)
Le filtre de mise en forme génère de l’Interférence entre Symboles à l’émission IES !!! Donc il faut égaliser
Emission-Réception 22
Récepteur Optimal en AWGN
Modèle discret
Temps discret Temps continue Temps discret
v(t) r(t)
x(t) Mise en forme Canal Récepteur
g(t) c(t)
y (t ) ¦ a pt kT
k
k
Emission-Réception 23
Canal AWGN
n(t)
v(t) r(t) Démodulateur y(t)
x(t) Mise en forme
g(t) h(t)
T
v(t ) x(t )
g (t ) n(t) : bruit blanc gaussien additif
MODÉLISÉ
r (t ) v(t ) n(t ) par un processus gaussien de
Moyenne nulle (centré)
y (t ) v(t )
h(t ) Densité spectrale de puissance N0
y (T ) v(t ) h(t ) (t T)
Le but intelligent est de maximiser le rapport signal sur bruit à la sortie de l’échantillonneur
Emission-Réception 24
Le chantier …
SNR
> @
E qs (T )
2
E>q (T ) @
2
n
Emission-Réception 25
Côté Bruit
T T
>
E qn T
2
@ ³ ³ E>n(t )n(W )h(T t )h(T W )dtdW @
0 0
T T
T
N 0 ³ h 2 (T t )dt
0
Emission-Réception 26
Côté Signal
T T
>
E qs T
2
@ ³ ³ E>v(W )h(T W )dW @
2
0 0
T T
³ >
³ E h(W )v(T W )dW
2
@
0 0
T T
0 0
T T
>
E x(T )
2
@ ³ ³ h(W ) g (T W )dW 2
0 0
T T
³ h(W ) g (T W )dW
2
Es ³
0 0
2 2 2
Théorème de Cauchy-Schwartz : §f · §f · §f ·
¨ ³ f1 (t ) f 2 (t )dt ¸ d ¨ ³ f1 (t )dt ¸ ¨ ³ f 2 (t )dt ¸
¨ ¸ ¨ ¸ ¨ ¸
© f ¹ © f ¹ © f ¹
avec égalité si :
f1 (t ) C onst f 2 (t )
Emission-Réception 27
Ce qui donne :
³ h(W ) g (T W )dW d ³ h
2 2
(W )dt.³ g 2 (T W )dW
avec égalité si
h(t ) C onst g (T t )
Donc :
SNR
> @
E qs (T )
2
Es ³ h(W ) g (T W )dW
2
E
d s
³ h(W )dW ³ g (T W )dW
2 2
E>q (T ) @ N0
2
n
N 0 ³ h 2 (T W )dW ³h
2
(T W )dW
Emission-Réception 28
Exemple 1 :
h(t) h(T-t)
1 1
T T
t t
T 2T 3T 4T T 2T 3T 4T
h(t) h(T-t)
1/T
t
T 2T 3T 4T
Maximiser la convolution au
moment d’échantillonnage T
Emission-Réception 29
Problème :
Optimisation conjointe des deux filtres émission/réception
Contraintes :
1- Maximiser le rapport Signal sur Bruit à la sortie du filtre
2- Réponse totale p(t) satisfait, a priori, le critère de Nyquist (pour annuler l’IES)
Solutions:
Emission-Réception 30
Solution 1 : le filtre de Cosinus Surélevé (IEI free)
Le filtre global
émission Réception
Emission-Réception 31
Emission-Réception 32
Filtre d’émission/réception en UMTS
n h(n)
0 39 -1
1 38 0.0
2 37 2.0
3 36 3.0
4 35 2.0
5 34 -1.0
6 33 -5.0
7 32 -5.0
8 31 -1.0
9 30 6.0
10 29 12.0
11 28 11.0
12 27 0.0
13 26 -15.0
14 25 -25.0
15 24 -18.0
16 23 10.0
17 22 56.0
18 21 102.0
19 20 132.0
Emission-Réception 33
IES = 0 IES z 0
1 n 0 1 n 0,1
g (nT ) ® g (nT ) ®
¯0 n z 0 ¯0 ailleurs
2 jSf
1 § · 2 jWSf § Sf ·
° ¨1 e W ¸ e cos¨ ¸ f W
Pour T=1/W : G( f ) ¨ ¸ W
®W © ¹ ©W ¹
°
¯0 ailleurs
ª § 1 ·º
g (t ) sinc2 S Wt sinc «2S ¨Wt ¸»
¬ © 2 ¹¼
Emission-Réception 34
Exemple d’un filtre avec IES contrôlée
En temps En fréquence
1/w
T W
Emission-Réception 35
Où en sommes-nous ????
Filtrage adapté
T
x(t) Mise en forme Canal Démodulateur
g(t) c(t) h(t)
De telle manière à
annuler l’IES
APRES échantillonnage
Emission-Réception 36
Canal AWGN
n(t)
T
x(t) Mise en forme Démodulateur
g(t) h(t)
Emission-Réception 37
Filtrage adapté
n(t)
T
Mise en forme Canal Démodulateur
x(t)
g(t) c(t) h(t)
Canal IES,
Canal à distortion,
Canal multi-échos,
Canal multi-trajets,
Canal méchant,
Canal ….
.
.
Emission-Réception 38
Canal de propagation avec IES
Modèle du canal :
L
filtrage linaire « discret »
c(t ) ¦ c G t W
k 1
k k
=
Ck : coefficients du canal
Wk : retards des échos
x(t)
C2
C4
C1 C3
=
t t t
0 W1 W2 W3 0 W1 W2 W3
t
Emission-Réception 39
C2
L C4
C3
c(t ) ¦ c G t W
k k
C1
k 1 t
0 W1 W2 W3
T
Retard de T
b1 b2 b3 b4 b5
z(t)
Emission-Réception 40
Même technique …..
Filtrage adapté
n(t)
T
Mise en forme Canal Démodulateur
x(t) Détecteur
g(t) c(t) h(t) ‘égaliseur’
Filtrage adapté
De telle manière à
annuler l’IES
après
n(t)
Canal égaliseur
xk yk
ck qk
Emission-Réception 41
Pourquoi « égalisation » ?
f
W
f
W
xk
Canal
zk
ck
Emission-Réception 43
Signal reçu
L 1
YN C N .( N L 1) . X N L 1 N N yk ¦c x k k L
n 0
1
X C .(Y N ) X H .(Y N )
1
H #C
Emission-Réception 45
. optimaux
.
Classification par rapport au critère choisi
Emission-Réception 46
Les détecteurs (égaliseurs)
Y C. X N Y C. X N Y C. X N
Emission-Réception 47
k
Après passage Y ( z) ¦y z k
par l’égaliseur H(z)
qk ¦h y
j
j k j ¦ hn nk j
j
Q( z ) X ( z ).C ( z ).H ( z ) H ( z ) N ( z )
1 si k 0
IES nulle qk ® Inversion de C(z)
¯0 si k z 0
1
H ZF ( z )
C ( z)
Emission-Réception 48
Égaliseur linéaire : Le Zero Forcing (ZF)
Matriciellement parlant … Q H .Y
H .C. X N
H .C X H N
H inv C
N0 : densité spectrale
du bruit blanc gaussien
additif
f
W
Emission-Réception 49
Inconvénients di ZF :
Le ZF
respecte le critère de Nyquist : annulation de l’IES
Emission-Réception 50
Égaliseur linéaire : MMSE (Minimum Mean Squared Error)
r( f ) x( f ).c( f ) n( f )
y( f ) h( f ).r ( f )
h( f ). x( f ).c( f ) n( f )
h( f ).x( f ).c( f ) h( f ).n( f )
Emission-Réception 51
>
E e( f )
2
@ >
E h( f ).c( f ) 1x(h) h( f )n( f )
2
@
En minimisant l’erreur quadratique moyenne, on obtient :
c* ( f ) E x N0 =E[n(f)n*(f)]
h( f )
c ( f )c * ( f ) E x N 0
Es =E[x(f)x*(f)]
Remarques ZF
N0 c* ( f ) E x
h( f ) o Filtre adapté
N0 MMSE
Ex
C(f) h( f ) o Zero forcing f
c( f ) N 0 W
Emission-Réception 52
Égaliseur linéaire : MMSE (représentation en filtrage linéaire FIR)
¦h r
j 0
j k j
T
h .r
ek y k xk
La forme quadratique :
Emission-Réception 53
> @
E ek2 >
E h T rk a k @
2
> @ > @
E a k2 2 h T E >rk a k @ h T E rk rkT h
E >a @ 2 h
2
k
T
p h T Rh
Avec
R : > @
E rk rkT Es c k cTk V n2 Matrice d’autocorrélation du signal reçu
> @
wE ek2
0 2Rh - 2p 0
wh
h R -1p
Filtre de Wiener
h > @
E r r E>rk ak @
T
k k
Emission-Réception 54
Égaliseur linéaire : Filtrage adaptatif
L’erreur instantanée :
ek2 h T
rk a k
2
a k2 2 h T rk a k h T rk rkT h
Son gradient :
> @
h ek2 2rk rkT h - 2rk ak
2rk ak rkT h 2rk ek
Le calcul direct de la matrice d’auocorrélation R et du filtre p peut être remplacé par :
R rk rkT p rk ak
Emission-Réception 55
Les étapes :
yk h Tk rk
ek ak y k
h k 1 h k Eek rk
Problèmes :
• Les performances ne sont pas toujours bonnes
• sensibilité à la variable ȕ
• convergence lente si le canal est de longueur élevé
Emission-Réception 56
Égaliseur nonlinéaire : DFE
Nouvelle approche :
fk
nk
xk,, - xk,,
ak, ck hk ak,
Emission-Réception 57
ck
hk f k Gk
c ( z ) h( z ) f ( z ) 1
2- MMSE - DFE
ek y k xk
>ck
hk f k G k @
ak hk
nk
La forme quadratique :
> @ ³ C ( f ) H ( f ) F ( f ) 1 E df ³ H ( f )
E ek2
2
x
2
N 0 df
2
Il faut donc minimiser :
³ H( f ) N 0 df Min
Sous la contrainte : C( f )H ( f ) F ( f ) 1
Emission-Réception 58
Égaliseur nonlinéaire : Maximum de Vraisemblance (Viterbi)
xk,,
ak, D D D D
c0 c1 c2 c3
rk,
Emission-Réception 59
max Pr r X
X F
Où F est l’ensemble de toutes les réalisations d’une longueur donnée issues du canal
L’algorithme de Viterbi (Add, compare, select) réduit énormément le nombre des calculs.
2
1 § r -qk ·
Pr r X exp ¨ ¸
S N 0 N / 2 ¨
© N0 ¸
¹
avec
qk hk
a k
Emission-Réception 60
Exemple
hk G k 0.5G k 1
Modèle de Markov pour la machine d’état :
xk=ak, xk-1=ak-1,
Z-1 (1,1)
(0,0)
h(xk, xk-1)=xk + 0.5 xk-1 0 1 (1,1,5)
(0,0,5)
k=0 k=1 k=2 k=3 …. (nouvel état, nouvelle sortie)
Ȍ=0
Ȍ=0 (0,0)
Ȍ=1
(1,1) (0,0,5)
Ȍ=1
Emission-Réception (1,1,5) 61
Cet algorithme calcul la probabilité d’avoir émis ak sachant toute la séquence reçue r
Pr ak r
Pr ak , r Pr r ak Pr ak
MAP Pr ak r
Pr r Pr r
La probabilité de la
Séquence reçue est
Commune aux deux
Le MV est équivalent au MAP égaliseurs
Si
Tous les symboles sont équiprobables à l’émission
Emission-Réception 62
Problématique de l’accès multiple
L’IES traité jusqu’à maintenant provenait du canal en tant qu’un filtre linéaire.
Source Canal
IES
Info à IES
Source Canal
Info 2 sans IES
Interférence entre
Source Canal Utilisateurs (MUI)
Info 1 sans IES
Source Canal
Info 3 sans IES
Emission-Réception 63
Donc:
Presque les
Égalisation élimination d’interférence
mêmes techniques !!
Emission-Réception 64
Le canal
radio-mobile
S
N, IE
G ,
AW leigh jet,..
ay t ra
R lti- Canal de
Mu
transmission
Canal de
propagation
mesures
Modèle du canal
Paramètres du modèle
pour les simulations!!
le canal radio-mobile 3
le canal radio-mobile 4
Forme d’onde
C=f.O
le canal radio-mobile 5
Forme d’onde
Modèle pour signal à bande étroite
f
f0
Si W << f0 le canal est considéré constant sur W
Application : OFDM
le canal radio-mobile 6
Forme d’onde
PR : puissance reçue
PT : puissance transmise
GR : gain de l’antenne à la réception
GT : gain de l’antenne à l’émission
O : longueur de l’onde transmise
d : distance émetteur-récepteur
le canal radio-mobile 7
Forme d’onde
d(t) : distance
a : exposant de perte
=2 distance libre
=4 réflecteur idéal
= 2.7 ; 3.5 cellule urbaine
ment
nne
=3;5 cellule urbaine, masquage
= 1.6 ; 1.8 bâtiments avec trajet direct iro
=4;6 bâtiments, sans trajet direct env
=2;3 usine
=… ….
le canal radio-mobile 8
Modèle de propagation à grande échelle
§d · § f ·
L 10J log10 ¨¨ ¸¸ 10n log10 ¨¨ ¸¸ f hm , hb D 0 [dB]
© d0 ¹ © f0 ¹
le canal radio-mobile 9
L [dB]
mrV
10log10(d)
1 § g m 2 ·
P( g ) exp¨¨ 2
¸
¸
2SV 2
© 2V ¹
le canal radio-mobile 10
Modèle de propagation à court terme : canal à évanouissement ( fading )
L(t ) D (t ) exp jI (t )
D § D2 ·
D (t ) x (t ) y (t )
2 2
Pr(D ) exp¨¨ 2 ¸¸
V2 © 2V ¹
° x(t ) ~ N (0, V x2 )
où ® , circulaire si V x Vy
°̄ y (t ) ~ N (0, V y )
2
le canal radio-mobile 12
D(t) : variable de Rice (variable de Chi non-centrée du deuxième ordre)
D § D 2 s § Ds · ·
Pr(D ) exp¨¨ I 0 ¨ 2 ¸ ¸¸
V2 © 2V 2
© V ¹¹
D (t ) x 2 (t ) y 2 (t )
° x(t ) ~ N (mx , V x2 )
où ® , circulaire si V x V y , s2 mx2 m y2
°̄ y (t ) ~ N (m y , V y )
2
13
S(f), C(f)
BD
f
W
L’évanouissement est un processus aléatoire variable en temps
modélisé
par un signal en bande étroite (filtre passe bas) par rapport à la bande du signal
le canal radio-mobile 14
Modélisation fréquentielle de l’évanouissement
2
V
Spectre de Doppler C( f ) ; 0 f fD
S f D
2
f 2
Bande de Doppler BD 2 fD
f
-fD fD Signal
« Fabrication » d’information
le canal radio-mobile 15
Évanouissement Évanouissement
rapide lent
le canal radio-mobile 16
Modèle du Canal multi-trajet
Canal
t évanouissement t
Signal transmis seuillage Signal reçu
W0 t
W1
W2
le canal radio-mobile 17
Canal
t Évanouissement
t = t0 W0 W1 W2 W3 t
(t0)
Canal
t Évanouissement t
t = t0+D (t0+D)
W0 W1 W2W3 W4
Canal
t Évanouissement t
W0 W1 W2W3 W4
t = t0 +ȕ (t0 +ȕ)
Canal
t Évanouissement t
W0 W1 W2W3
t = t0+G (t0+G )
le canal radio-mobile 18
Modèle du Canal multi-trajet
L 1
c(W ; t ) ¦D n (t )e 2iS fc W n (t )
G (t W n (t )) Pn >
E D n (t )
2
@
n 0
le canal radio-mobile 19
c(W ; t )
W t
???
le canal radio-mobile 20
W
1- Temps
>
) c W 1 ,W 2 ; 't E c* (W 1 ; t )c(W 2 ; t 't ) @
Généralement, pour les canaux radio-mobile,
) c W 1 ,W 2 ; 't ) c W 1 ; 't G W 1 W 2
) c W ;0 ) c W
le canal radio-mobile 21
) c W
W
Tm Tm
Définition
Tm est appelé « l’étalement du canal » (multipath spread)
le canal radio-mobile 22
W
2- Fréquence
f
C f , t ³ cW , t exp 2iS f IJ dW
f
>
) C f1 , f 2 ; 't E C * ( f1 ; t )C ( f 2 ; t 't ) @
TF
cW , t C f , t
TF
) c W 1 ,W 2 ; 't ) C f1 , f 2 ; 't ) C 'f ; 't
le canal radio-mobile 23
W
) C 'f ; 't L’auto-corrélation entre deux sinusoides à l’entrée
)C(' f ) ) c W
TF(W)
W
Tm Tm
'f c
le canal radio-mobile 24
t
Doppler : variation relative au temps
Émetteur
fixe s (t ) A cos(2Sf c t )
Observateur fixe
Déphasage :
d
d
I 2S
émetteur
mobile
Oc
Observateur
fixe
le canal radio-mobile 25
t
d
I 2S
Oc
§ d ·
s (t ) A cos ¨¨ 2Sf c t 2S ¸¸
© Oc ¹
§ ·
¨ vt ¸
s (t ) A cos ¨ 2Sf c t 2S
¨ c ¸¸
© fc ¹
§ v ·
s (t ) A cos ¨ 2Sf c t 2Sf c t ¸ A cos 2S f c f D t
© c ¹
Fréquence de Doppler :
v
fD fc
c
le canal radio-mobile 26
t
Transformée de Fourier selon la variable t
TF(t) f
) C 'f ; 't S C 'f ; O ³ ) 'f ; 't exp(2iSO 't )d ('t )
C
f
)C('t) SC O
'f 0
TF(t)
't c BD
1
Temps de cohérence 't c | Bande de Doppler
't c BD BD
le canal radio-mobile 27
t
Transformée de Fourier selon la variable 't
f
SC W ; O ³ ) W ; 't exp(2iSO 't )d ('t )
c
f
le canal radio-mobile 28
Récapitulation : Propriétés statistiques du modèle du canal
) c W ; 't TF ( W, 't )
SC 'f ; O
) C W ; 't 0
TF ( W )
Dispersion temporelle
Tm
SC 'f 0; O
Bande de Doppler
) C 'f ; 't BD~1/Tc
TF ( W )
TF ( 't )
le canal radio-mobile 29
le canal radio-mobile 30
Performance sur canal à évanouissment
r (t ) D (t ) s (t ) n(t )
§ 2J b ·
Pr(J b ) Q¨¨ ¸
¸
© N0 ¹
avec
Jb D (t ) s(t ) 2 Es .D (t )
2
SNR
le canal radio-mobile 32
Exercices Communications Numériques
CALCUL D’ENTROPIES
Exercice 1
On considère un couple de variables aléatoires I et J dépendantes l’une de l’autre. Ces
variables peuvent respectivement prendre les valeurs i {A, B, C} et j {D, E, F, G}.
Démontrer la formule suivante :
H(i,j) d H(i) + H(j)
Dans quel cas a-t-on égalité ?
NB : on peut utiliser la relation loge(x) d x-1.
Exercice 2
On considère un couple de variables aléatoires I et J dépendantes l’une de l’autre. Ces
variables peuvent respectivement prendre les valeurs i ^A, B, C` et j ^D, E , F , G` selon les
probabilités suivantes :
A B C
p(i) 1/2 1/3 1/6
p(j|i) D 1/4 3/10 1/6
E 1/4 1/5 1/2
F 1/4 1/5 1/6
G 1/4 3/10 1/6
Calculer les entropies simples H(I) et H(J), conditionnelles H(I|J) et H(J|I), jointe H(I,J) ainsi
que l’information mutuelle I(I,J).
Exercice 3
Calculer la capacité, en bits par symbole transmis des canaux suivants :
(1)- Canal binaire sans perte.
(2)- Canal ternaire sans perte.
(3)- Canal binaire bruité symétrique pour lequel la probabilité d’erreur sur un symbole est de
10%.
Exercice 4
On considère le canal dont les alphabets d'entrée et de sortie comportent 5 symboles notés
{0, 1, 2, 3, 4} et dont les probabilités de transition sont définies par:
1 2 si i j r 1 mod 5
Pr^Y i X j` ® .
¯0 sinon
Calculer la capacité de ce canal.
1/7
CODAGE SOURCE
Exercice 5
Soit une source qui émet 4 symboles x1,…,x4 et 4 codes C1,…,C4 tels que :
x p(x) C1 C2 C3 C4
x1 0.5 0 0 0 0
x2 0.25 0 1 10 01
x3 0.125 1 00 110 011
x4 0.125 10 11 111 0111
Exercice 6
On considère une source binaire Markovienne de mémoire 1, caractérisée par les probabilités
de transitions suivantes :
Méthodes à considérer :
(a) codage de Fano sur les symboles de la source 1 par 1.
(b) codage de Huffman sur les symboles de la source 1 par 1.
(c) codage de Fano sur les symboles de la source 3 par 3.
NB : pour calculer la probabilité d’apparition de chacun des 8 triplets possibles de
symboles, on utilise les probabilités conditionnelles.
(d) codage de Huffman sur les symboles de la source 3 par 3.
Exercice 7
On considère le code linéaire dont la matrice génératrice est :
§ 10 0 0 1 1 ·
G ¨¨ 0 10 10 1 ¸¸
© 0 0 1 1 10 ¹
(1)- Lister tous les mots code de ce code.
(2)- Quelle est la capacité de détection, de correction et de détection/correction de ce code ?
2/7
(3)- Quelle est la matrice de parité ?
(4)- On veut transmettre le message 011 mais il y a une erreur de transmission sur le 5è bit.
Quel message reçoit-on ? Comment peut-on corriger cette erreur ?
(5)- On veut étendre ce code en y adjoignant un bit de parité. Que deviennent la matrice
génératrice / les mots code / la matrice de parité / la capacité détectrice/correctrice du code ?
Quelle est la redondance de ce code ?
Exercice 8
Combien d’erreurs peut-on détecter et/ou corriger en utilisant les codes suivants ?
Parmi ces codes lesquels sont linéaires et/ou cycliques ?
Pour les codes linéaires, donner leurs matrices génératrices et de parité. Pour les codes
cycliques, donner leurs polynômes générateurs et de parité.
(1)- C = 00, 01, 10, 11.
(2)- C = 000, 111.
(3)- C = 000, 100, 101, 011.
(4)- C = 01010, 10101, 11111, 00000.
Exercice 9
Soit le code linéaire de matrice génératrice :
§ 1 0 1 1·
¨ ¸
G ¨ I3 1 1 0 1¸ .
¨ 1 1 1 0 ¸¹
©
(1) Déterminer la matrice de contrôle de parité.
(2) On suppose qu’après transmission il y a une erreur en position i. Déterminer le syndrome
correspondant. En déduire que l’on peut corriger une erreur.
(3) On suppose qu’il y a 2 erreurs en position i et j. Déterminer le syndrome correspondant.
Peut-on corriger 2 erreurs ? Peut-on détecter 2 erreurs ?
CODAGE CONVOLUTIF
Exercice 10
On considère le codeur de caractéristiques : K = 3, r = ½ de la figure suivante :
g1(X)
T T
g2(X)
Ce codeur est utilisé sur un canal binaire symétrique. On suppose que l’état initial est 00. A la
sortie du canal, la séquence reçue est la suivante : Z = (11000010110000).
Déterminer le chemin le plus probable dans le treillis et déterminer les 5 premiers bits
d’information.
3/7
MODULATIONS NUMERIQUES
Exercice 11
Pour une ligne de téléphone, avec une modulation 16-QAM rectangulaire, avec une porteuse à
1800Hz, un taux de transmission symbole de R=2400Hz et un taux binaire de 9600b/s.
-3 -1 1 3
-1
-3
Trouver :
(1)- la bande de fréquence utilisée pour un filtrage idéal de Nyquist
(2)- La bande de fréquence utilisée pour un filtrage RC, avec D = 0.3 (largeur de bande en
excès).
Exercice 12
On considère la constellation 8QAM donnée dans la figure suivante :
1+3
-1-3 -1 1 1+3
-1
-1-3
(1)- Quelles sont les coordonnées des symboles (dans l’espace du signal) quand tous les
symboles ont la même probabilité ?
(2)- Trouver la probabilité d’erreur en utilisant l’approximation venant de la borne d’union.
(3)- Est-ce que cette configuration a une meilleure probabilité d’erreur que la constellation
suivante ? Pourquoi ?
-3 -1 1 3
-1
Exercice 13
Si le critère de performance principal d’un système est la probabilité d’erreur bit, lequel de ces
2 schémas de modulation serait choisi pour un canal AWGN ? Pourquoi ?
(a) FSK non cohérent avec bruité Eb/N0 = 13dB.
(b) PSK cohérent avec Eb/N0 = 8dB.
4/7
Exercice 14
Pour transmettre un débit binaire de 2Mbits/s, on utilise une modulation MIA à 4 états. La
probabilité d’erreur par bit est de 10-5. On désire, en conservant une modulation de type MIA,
doubler le débit binaire, sur ce même canal (et donc avec la même bande), sans toucher à la
probabilité d’erreur par bit.
(1)- Quelle doit être la nouvelle valeur de la taille de l’alphabet de modulation ?
(2)- De combien de dB faut-il augmenter la puissance nécessaire a l’émission ?
M 2 4 8 16
Eb/N0 (dB) 9.6 13.6 18 22.9
Exercice 15
On considère un système de transmission de données à un taux RB = 9600bits/seconde, et qui
nécessite une probabilité d’erreur bit n’excédant pas PB = 10-3, sur un canal gaussien additif
(canal AWGN).
On demande de concevoir le système, en choisissant le schéma de modulation parmi :
- une modulation M-PSK, à détection cohérente.
- une modulation M-FSK orthogonale, à détection non cohérente.
Le système ainsi conçu doit respecter à la fois le taux de transmission et la probabilité d’erreur
maximale, tout en maximisant l’efficacité spectrale K RS WS , où WS désigne la largeur de
bande.
Expliquer votre choix de modulation dans les situations suivantes :
(1)- La largeur de bande maximale allouable pour la transmission est BW = 5000Hz, et le
rapport signal-à-bruit disponible en dB est EB/N0 = 12 dB.
(2)- BW = 40 kHz et EB/N0 = 7dB.
ANNEXE 1 :
M=2 M>2
M-PSK § 2EB · 1 § 2 log 2 ( M ) E B §S · ·¸
PB Q¨¨ ¸
¸ PB u 2Q¨¨ sin ¨ ¸¸
© N 0 ¹ log 2 ( M ) © N0 ©M ¹¹
M-FSK 1 § 1 EB · M § log 2 ( M ) E B ·
PB exp¨¨ ¸¸ PB exp¨¨ ¸¸
2 © 2 N0 ¹ 4 © 2 N0 ¹
ANNEXE 2 :
f
1 t 2 2
On définit la fonction d’erreur Q ( z )
2S
³e
z
dt , avec les propriétés suivantes :
5/7
ISI ET FILTRAGE ADAPTE
Exercice 16
Quelle est la largeur de bande minimale théorique nécessaire à une communication avec un
taux de transmission de 10Mbits/s et pour un signal 16-niveaux PAM sans ISI ?
Quel facteur de roll-off doit avoir le filtre si la largeur de bande permise est de 1.375MHz ?
Exercice 17
On considère une source binaire, indépendante, équirépartie, dont le débit est de 10000 bits/s.
Le signal émis a pour expression :
s(t ) ¦ a k h(t kT ) ,
k
où les ak sont une suite de symboles à valeurs dans l’alphabet {-3, -1, +1, +3}. T désigne
l’intervalle de temps entre 2 symboles consécutifs. La fonction h(t) est un signal réel,
d’énergie finie, dont la transformée de Fourier H(f) est nulle à l’extérieur de la bande de
fréquence [-B, B]. On donne W = 3000Hz. Le bruit est issu d’un processus blanc, gaussien,
centré, de densité spectrale de puissance N0/2.
On note z(t) = s(t) + b(t) le signal reçu.
6/7
(3)- Donner la fonction de transfert du filtre de réception qui minimise la probabilité d’erreur.
On note P(f) la cascade constituée par le filtre d’émission H(f) et le filtre de réception, et p(t)
la transformée de Fourier inverse.
(4)- A quelle condition sur p(t) a-t-on absence d’interférences entre symboles à la sortie de
l’échantillonneur?
(5)- On utilise pour P(f) une fonction en cosinus surélevé. Quelle valeur du roll-off faut-il
choisir ?
(6)- Calculer en fonction de p(t) l’énergie moyenne Es par symbole.
(7)- En déduire l’énergie moyenne Eb par bit.
(8)- Montrer que la variance du bruit a la sortie de l’échantillonneur est égale a N0 p(0)/2.
(9)- Indiquer la règle de l’organe de décision.
(10)- Déterminer l’expression de la probabilité d’erreur par symbole, en fonction de Eb et N0.
(11)- En déduire la probabilité d’erreur par bit.
(12)- Y a-t-il des raies spectrales dans le signal émis ? Justifier la réponse.
7/7
BIBLIOGRAPHIE :
1. D. Ventre. Communications analogiques. Collection Pédagogique de
Télécommunications. Ellipses, 91.
2. G. Battail. Théorie de l’information. Collection Pédagogique de
Télécommunications. Masson 97.
3. M. Joindot et A. Glavieux. Introduction aux communications Numériques.
Collection Pédagogique de Télécommunications. Ellipses, 95.
4. Collectif d’auteurs/ direction Geneviève Baudoin. Radiocommunications
numériques 1- Principes, modélisation et simulation. Collection EEA- Série
Principes Electroniques. Dunod.
5. J.J. Brossier. Signal et Communication Numérique. Hermès, 97.
6. Proakis. Digital Communications (4ème edition). McGraw Hill, 2000.
7. S. Lin and D.J. Costello. Error Control Coding : Fundamentals and Applications.
Prentice Hall, 1983
8. The Error Correcting Codes (ECC) Page : http://www.eccpage.com