Sie sind auf Seite 1von 31

Chapitre 3

Rcepteur optimal
3.1 Introduction
Le signal obtenu en sortie de canal, r (t), rsultant de la transmission dun signal s
i
(t) parmi N
possibles est une version dforme, dphase ou retarde et perturbe par un bruit, du signal mis.
Le problme du rcepteur (pris ici au sens large) est de dmoduler le signal reu en un vecteur r,
et de dcider de laffectation de ce vecteur lun des mots de lalphabet de dpart (dcision).
Figure 3.1 Structure dune chane dmission-rception
La dcision doit tre prise au vu, ou avec les connaissances des probabilits dmission et de
transition, de contraintes sur les probabilits de fausse alarme (Pfa) ou de mauvaise dtection (Pmd).
Il sagit donc dlaborer une rgle de dcision, et une structure du rcepteur, auquel on devra associer
des performances. Sauf indication contraire, nous supposerons dans la suite quun symbole est mis
toutes les T secondes, le canal est parfait (les signaux ne sont pas distordus), le bruit est additif, et
gaussien. Dans la plus grande partie de ce chapitre, nous supposerons que les paramtres des signaux
reus et en particulier la frquence et la phase, sont connus ou estims au niveau du rcepteur
(voir le chapitre sur la synchronisation) Les rcepteurs correspondant sont alors appels rcepteurs
cohrents.
Nous dbuterons en 3.2 par lintroduction de quelques outils mathmatiques, notamment sur les
problmes de reprsentation des signaux et prsenterons la notion de ltre adapt. Nous aborderons
ensuite en 3.3 les fondements de la thorie de la dtection. Les stratgies baysienne et de Neyman-
Pearson permettent alors dlaborer des rgles de dcision, et nalement les oprations effectuer
au niveau du rcepteur, cest--dire conduisent la structure du rcepteur. Nous indiquerons que ces
approches peuvent tre quivalentes llaboration dun rcepteur minimisant la probabilit derreur.
Nous expliquerons en 3.4 comment on peut tendre la mthodologie prsente en 3.3 la dtection
de signaux temps continu, qui sont les signaux observs en pratique en entre dun rcepteur. Nous
aborderons alors en 3.5 le problme de la comunication binaire en prsence de bruit blanc et tablirons
alors la structure du rcepteur et les performances des modulations binaires, en terme de probabilit
derreur. En utilisant la mme dmarche, nous tendrons ensuite ces rsultats au cas de communica-
tions M-aires, section 3.6, o il sagit de dtecter un symbole parmi M possibles. nouveau, nous
donnerons la structure du rcepteur optimal puis nous discuterons des performances dans quelques
cas particuliers. Jusque l, nous aurons suppos, implicitement, que les signaux sont sans mmoire.
Dans le cas ou les symboles sont interdpendants, le rcepteur peut tirer parti de cette dpendance,
ce qui conduit dtecter une squence de symboles. La dtection au sens du maximum de vraisem-
blance dune squence de symboles sera aborde en 3.7 et nous permettra notamment de prsenter
lalgorithme de Viterbi. Enn, nous aborderons en 3.8 le cas dune phase inconnue en rception, qui
conduit un rcepteur non cohrent, puis nous terminerons en traitant le cas de la rception dun
signal issu dun canal de Rayleigh.
3.2 Outils
On dcrit ici diffrentes mthodes de caractrisation et de reprsentation des signaux. Lide sous-
jacente est de trouver une bonne reprsentation pour le problme trait, qui rend parfois la solution de
celui-ci trs simple. Dautre part, on prsentera la notion de ltre adapt, ltre qui est construit an
de maximiser le rapport signal--bruit. Ce type de ltre est rencontr dans la plupart des rcepteurs.
3.2.1 Reprsentation de signaux dterministes
On considre un signal x(t) dni sur [0, T]. On peut reprsenter x(t) sur une base de fonctions

i
(t) par
x(t) =

i=1
x
i

i
(t),
o les
i
(t) sont un ensemble de fonctions orthonormes. On peut par exemple choisir

i
(t) =
_
1
T
_
1
2

2m
(t) =
_
2
T
_
1
2
cos
_
2
T
mt
_

2m+1
(t) =
_
2
T
_
1
2
sin
_
2
T
mt
_
Lorsque lon tronque le dveloppement un ordre N, lerreur de reprsentation est e
N
(t) =
x(t)
N

i=1
x
i

i
(t). La minimisation de lnergie de lerreur
_
T
0
e
N
(t)
2
dt conduit alors choisir les
coefcients x
i
comme
x
i
=
_
T
0
x(t)
i
(t) dt.
Lorsque lnergie de lerreur tend vers 0 avec N, lensemble des
i
(t) reprsente un ensemble
orthonorm complet.
Deux mthodes sont possibles pour gnrer les coefcients x
i
. La premire mthode consiste
multiplier x(t) par chacune des
i
(t) puis intgrer sur une dure T. Il sagit du produit scalaire entre
x(t) et
i
(t). On parle galement dune opration de corrlation (x
i
rsulte de lintercorrlation entre
x(t) et
i
(t), prise pour un retard nul).
Figure 3.2 Calcul des coefcients par corrlation.
La seconde mthode consiste passer le signal x(t) dans un ensemble de ltres de rponse impul-
sionnelle h
i
(t) =
i
(T t) et conserver la sortie au temps T.
_
T
0
x(t) h
i
(T t) dt =
_
T
0
x(t)
i
(t) dt = x
i
Figure 3.3 Calcul des coefcients par ltrage.
Ce type de reprsentation permet de considrer un signal comme un point dun espace N-dimensionnel
(N ventuellement inni).
3.2.2 Reprsentation des signaux alatoires
Nous avons vu dans la section prcdente 3.2.1 quil est possible de reprsenter un signal d-
terministe, par un dveloppement en srie. On peut tendre cette ide aux processus alatoires sur
[0, T] :
x(t) = lim
N
N

i=1
x
i

i
(t) t [0, T]
avec
x
i
=
_
T
0
x(t)
i
(t) dt
La limite utilise devra tre une limite en moyenne quadratique, ce qui signie que
lim
N
E
_
_
_
x(t)
N

i=1
x
i

i
(t)
_
2
_
_
= 0, t [0, T]
Les coefcients x
i
sont des variables alatoires. En recherchant une dcomposition qui conduise
des coefcients dcorrls, cest--dire tels que
E
_
(x
i
m
i
) (x
j
m
j
)
_
=
i

ij
,
avec m
i
= E [x
i
], on obtient la condition suivante sur les fonctions de base
i
(t)

i

i
(t) =
_
T
0
C
x
(t, u)
i
(u) du
o le noyau C
x
(t, u) de cette quation intgrale est une fonction de covariance, dnie non ngative
et symtrique : C
x
(t, u) = E
x
_
(X (t) m
x
(t)) (X (u) m
x
(u))
_
. Les fonctions de base
i
(t)
sont dtermines en rsolvant lquation intgrale prcdente et lon peut alors dvelopper un signal
alatoire sur cette base de fonctions, ce dveloppement, appel dveloppement de Kahunen-Love,
tant optimal en moyenne quadratique.
3.2.3 Filtrage adapt
Considrons simplement pour le moment le modle
y(t) = x(t) + b(t).
Lapproche habituelle consiste rechercher minimiser leffet du bruit dobservation. On cherche
alors construire un ltre h(t) tel que le rapport signal--bruit en sortie soit maximal, un instant T,
appel instant de dcision. Cet instant T devra tre dni pour que lobservation ait t effectue et
que le ltre ait agi.
Notons z(t) la sortie du ltre de rponse impulsionnelle h(t). On a alors
z(t) = (h y)(t) = (h x)(t) + (h b)(t).
On crit ainsi la sortie comme la somme de la sortie non-bruite et de la contribution du bruit. Le
rapport signal--bruit vaut ainsi
(t) =
[(h x)(t)[
2
E[[(h B)(t, )[
2
]]
,
o le numrateur reprsente la puissance instantane de la sortie non bruite et le dnominateur la
puissance lie au bruit. On value ce rapport signal--bruit linstant de dcision T.
(T) =
[(h x)(T)[
2
E[[(h B)(t, )[
2
]]
.
En dveloppant les produits de convolution, on obtient
(T) =
[
_
+

h(u)x(T u)du[
2
E
_
[
_
+

h(u)b(t u)du[
2
]
_
.
En ce qui concerne tout dabord le dnominateur, il sagit l de la puissance dun signal alatoire la
sortie dun ltre, et lon a donc
E
_
[(h b)(t)[
2
]
_
=
_
+

S
b

b
(f)df =
2
_
+

[H(f)[
2
df,
o
2
est la puissance du bruit dentre.
Lingalit de Schwartz permet de majorer le numrateur :
[
_
+

h(u)x(T u)du[
2

_
+

[h(u)[
2
du
_
+

[x

(T u)[
2
du,
avec galit lorsque les vecteurs h(u) et x

(T u) sont colinaires. Lgalit de Parseval-Plancherel,


qui exprime la conservation du produit scalaire entrane que
_
+

[h(u)[
2
du =
_
+

[H(f)[
2
df.
On en dduit donc que le rapport signal--bruit est major selon
(T)
_
+

[x

(T u)[
2
du

2
=
E
x

2
,
o E
x
est lnergie du signal x(t). Lgalit est atteinte lorsque h(u) et x

(T u) sont colinaires,
cest--dire
h(u) = kx

(T u),
o k est une constante arbitraire. Le ltre optimal maximisant le rapport signal--bruit en sortie,
linstant T, est ainsi le ltre dont la rponse impulsionnelle est la copie retourne et dcale dans le
temps du signal que lon cherche retrouver. En ce sens, le ltre est adapt au signal.
La relation de ltrage de y(t, ) avec une copie retourne quivaut en fait effectuer une
intercorrlation (au sens dterministe). En effet,
z(t) =
_
+

h(u)y(t u)du =
_
+

(T u)y(t u)du
=
_
+

(T + v)y(t + v)dv =
_
+

(T t + v)y(v)dv,
soit
z(t) = R
yx
(T t).
Le rcepteur optimal consiste donc calculer lintercorrlation entre le signal reu y(t) et le signal
attendu x(t). On parle alors souvent de rcepteur corrlation.
Dans le domaine frquentiel, la fonction de transfert du ltre adapt, la transforme de Fourier de
h(u) vaut simplement
H(f) = TFh(u) = TFkx

(T u) = kX(f)

e
j2fT
,
cest--dire le conjugu de la transforme de Fourier du signal dintrt, un facteur et une phase
prs. Ainsi, la portion non bruite du signal de sortie est
(h x)(t) = TF
1
kX(f)

e
j2fT
X(f) = kTF
1
[X(f)[
2
e
j2fT
,
et linstant T,
(h x)(T) = k
_
+

[X(f)[
2
df = kE
x
.
3.3 Fondements
3.3.1 Modlisation
Le problme central est de choisir lun des mots de lalphabet dmission (lensemble des mots
codes c
i
issus du codeur de canal) partir du signal reu r. La rgle de dcision habituelle consiste
effectuer une partition de lensemble des mots de rception.
Figure 3.4 Partition de lensemble des signaux reus
On note Z lensemble de tous les mots r susceptibles dtre reus, et on note Z
i
lensemble de tous
les mots r reus tel que c
i
soit dcid. Cest lensemble dcodeur associ c
i
. Le problme est alors
de trouver la meilleure partition possible, au sens dun critre dnir, de lensemble des signaux
reus Z.
Dans le schma prcdent, il y aura erreur ds que le signal reu r nappartient pas Z
i
, alors que
c
i
a t mis :
P (erreur [ c
i
) = P
_
r Z
i
[ c
i
_
,
= 1 P (r Z
i
[ c
i
) .
En moyenne, la probabilit derreur au dcodage vaut
P (erreur) =
N

i=1
P (c
i
) P (erreur [ c
i
)
soit P (erreur) =
N

i=1

j=i
P (dcider c
j
[ c
i
mis) .
Lorsque les symboles mis sont quiprobables, on obtient
P (erreur) =
1
N
N

i=1
P (erreur [ c
i
)
Construction de la partition :
On distingue en gnral deux rgles, selon que lon considre les probabilits a priori ou non (ou
que lon prend une loi uniforme pour la source). La probabilit a posteriori est obtenue en appliquant
la rgle de Bayes :
P (c
i
[ r) =
P (c
i
) P (r [ c
i
)
P (r)
La probabilit P (c
i
[ r) est la probabilit a posteriori, cest--dire la probabilit de c
i
connaissant
lobservation r. La probabilit P (r [ c
i
) est la vraisemblance de lobservation, cest--dire la proba-
bilit dobserver r lorsque c
i
est mis.
1. rgle du maximum a posteriori
Z
i
=
_
r / P (c
i
[ r) = max
K
P (c
K
[ r)
_
cette partition dpend la fois de la loi dentre P (c
i
) et des probabilits de transition P (r [ c
i
),
(cest dire du canal).
2. rgle du maximum de vraisemblance
Z
i
=
_
r / P (r [ c
i
) = max
K
P (r [ c
K
)
_
Lorsque P (c
i
) est uniforme, maximiser P (c
K
[ r) est quivalent maximiser P (r [ c
K
), et
les deux rgles sont alors quivalentes.
On considre les quatre espaces suivants et leurs relations :
Figure 3.5 Espaces de signaux pour une chane de transmission.
Ces diffrents espaces sont des espaces de fonctions/variables certaines ou alatoires, de dimen-
sion nie ou innie.
Les passages de M S et de R D sont gnralement des applications certaines, alors que le canal
(passage de S R) est alatoire et caractris par une distribution de probabilit conditionnelle.
3.3.2 Stratgie baysienne-Notions de cot
On dnit un cot C (s, D), qui reprsente la pnalit ou la perte associe lvnement
conjoint (s mis, Dcision D prise). Le cot attach lvnement conjoint reprsente donc en
quelque sorte le prix payer pour chacune des dcisions. An de privilgier les bonnes dcisions,
on attachera alors un cot important aux mauvaises dcisions et un cot nul, ou ngatif aux bonnes
dcisions. Notons que certaines mauvaises dcisions peuvent tre plus graves que dautres ; on
pourra ordonner ces dcisions en jouant sur les cots associs. Lorsque les cots sont xs, on pourra
chercher minimiser le cot moyen dune dcision, cest--dire la moyenne des cots pondre par
les probabilits de chacun des vnements conjoints : cest la stratgie baysienne.
La stratgie baysienne consiste minimiser le cot moyen. On parle alors de la minimisation du
risque baysien.
R =
E
D,s
[C (s, D)] .
Examinons tout dabord comment ceci se traduit dans le cas binaire : la source peut mettre deux
messages s
0
et s
1
, et il sagit de dcider quel message a t mis au vu de lobservation r. La stratgie
doit alors amener trouver la meilleure partition de lensemble des observations possibles Z en deux
sous ensembles, auxquels on associe des dcisions D
0
et D
1
.
Figure 3.6 Partition des observations et dcisions.
On note C
ij
le cot associ la dcision D
i
(on dcide que s
i
est mis), lorsque lhypothse H
j
est vraie (s
j
a t mis).
La stratgie baysienne consiste trouver la partition Z
0
, Z
1
tel que le risque baysien R soit
minimal. Ici, le risque baysien sexprime alors, en fonction des probabilits de transition et des
rgions de dcisions, comme :
R = P (H
0
) C
10
+P (H
1
) C
11
+
_
Z
0
P (H
1
) (C
01
C
11
) p (r [H
1
) P (H
0
) (C
10
C
00
) p (r [H
0
) dr
Les deux premiers termes de R sont des termes constants. Lintgrale reprsente le cot contrl
par les points assigns Z
0
. En supposant que le cot associ une mauvaise dcision est plus impor-
tant que celui associ une bonne dcision, on note que lintgrande est constitu par la diffrence de
deux termes positifs.
Comme on veut trouver une partition de Z qui permette de minimiser le risque baysien, il faut
que tous les points r tels que
P (H
0
) (C
10
C
00
) p (r [H
0
) > P (H
1
) (C
01
C
11
) p (r [H
1
)
soient assigns lensemble Z
0
(et donc la dcision D
0
), car ils contribuent alors rendre lintgrale
ngative. En suivant la mme ide, tous les points r tels que lingalit prcdente ne soit pas vrie
doivent tre exclus de Z
0
, cest--dire affects Z
1
(dcision D
1
). Ceci nous permet donc de dnir
la partition Z
0
/Z
1
qui minimise le risque baysien. Ceci scrit
P (H
0
) (C
10
C
00
) p (r [H
0
)
H
0
)

H
1
P (H1) (C
01
C
11
) p (r [H
1
)
Plus classiquement, on crit le test du rapport de vraisemblance (Likelihood Ratio Test)
p (r [H
1
)
p (r [H
0
)
H
1
)

H
0
P (H
0
)
P (H1)

(C
10
C
00
)
(C
01
C
11
)
ou encore
(r)
H
0
)

H
1
.
Il est important de noter que
le rapport de vraisemblance (r) ne dpend que des probabilits de transition p (r [H
i
), cest-
-dire du canal, et non des cots et des probabilits a priori,
le rapport de vraisemblance, comme rapport de deux distributions, est une quantit monodi-
mensionnelle,
le seuil ne dpend que des cots et des probabilits a priori,
le rapport de vraisemblance, comme rapport de deux fonctions dune variable alatoire est
lui-mme une variable alatoire. Les performances du test sont alors lies aux carctristiques
statistiques de (r).
Limplantation du dtecteur consiste donc calculer le rapport de vraisemblance (r), puis
comparer ce rapport un seuil .
Figure 3.7 Structure dun dtecteur maximum de vraisemblance.
On utilise souvent le logarithme du rapport de vraisemblance, l(r) et le test devient alors
l(r) = log ((r))
H
1
)

H
0
log .
En gnral, on prend simplement C
00
= C
11
= 0, pour les bonnes dcisions, et C
01
= C
10
= 1
pour les mauvaises dcisions. Si en outre les deux hypothses sont quiprobables, le test peut scrire
p (r [H
1
)
H
1
)

H
0
p (r [H
0
) ,
qui est simplement la rgle du maximum de vraisemblance.
Lien avec la probabilit derreur
Lorsque
_
C
00
= C
11
= 0
C
01
= C
10
= 1
et si les probabilits a priori sont quiprobables, alors le risque est simplement
R = C
01
P (D
0
[H
1
) + C
10
P (D
1
[H
0
)
= P (D
0
[H
1
) + P (D
1
[H
0
) = P (erreur) .
Ainsi, dans ce cas particulier, la minimisation du risque baysien R est quivalente la minimisation
de la probabilit derreur.
Exemple : dtection dun signal constant dans du bruit blanc gaussien.
Le problme est le suivant : sous H
1
, la sortie de la source est une constante m; sous H
0
, la
sortie de la source est zro. Avant lobservation, cette sortie est perturbe par un bruit blanc additif
gaussien centr et de variance
2
. Le signal reu est chantillonn sur une dure T et on obtient ainsi
N chantillons.
H
0
: r (t) = b (t) r = b
H
1
: r (t) = m + b (t) r = m+ b
La distribution de probabilit de b est
p (b) =
N

i=1
p (b
i
) =
N

i=1
1

2
exp
_

b
2
i
2
2
_
Par consquent,
p (r [H
0
) = p (b) =
N

i=1
1

2
exp
_

r
2
i
2
2
_
p (r [H
1
) = p (b + m) =
N

i=1
1

2
exp
_

(r
i
m)
2
2
2
_
Le test du rapport de vraisemblance fournit alors
(r) =
p (r [H
1
0)
p (r [H
0
)
=
N

i=1
exp
_

1
2
2
_
(r
i
m)
2
r
2
i
_
_
En prenant le logarithme, il vient
log (r)
H
1
)

H
0
log () ,
soit
N

i=1
r
i
H
1
)

H
0

2
m
log () +
Nm
2
Le rcepteur ne fait donc quadditionner les observations et les compare un seuil... Lorsque =1,
le test est simplement :
1
N
N

i=1
r
i
H
1
)

H
0
m
2
,
cest--dire quon calcule la moyenne arithmtique des observations, et quon dcide que le signal m
est prsent si cette moyenne arithmtique est suprieure m/2, et absent dans le cas contraire. Le test
fournit alors un rsultat remarquablement conforme lintuition.
3.3.3 Stratgie de Neyman-Pearson
La stratgie de Neyman-Pearson est essentiellement dnie dans le cas binaire. On considre deux
types derreur :
Lerreur de fausse alarme : = P
fa
= P (D
1
[H
0
) =
_
Z
1
p (r [H
0
) dr,
Lerreur de mauvaise dtection : = P
md
= P (D
0
[H
1
) =
_
Z
0
p (r [H
1
) dr,
La probabilit P (D
1
[H
1
) = 1 est appele la puissance du test. La stratgie consiste se xer
une probabilit maximale de fausse alarme, et, cette probabilit tant xe, maximiser la puissance
du test, cest--dire minimiser la probabilit de mauvaise dtection.
Ceci conduit un test du type rapport de vraisemblance,
p (r [H
1
)
p (r [H
0
)
H
1
)

H
0
.
o le paramtre de Lagrange est dtermin an de satisfaire la contrainte :
P
fa
=
_

p ([H
0
) d =P
r
( > [H
0
)
La stratgie de Neyman-Pearson conduit donc la mme structure de rcepteur que la stratgie bay-
sienne : seul change le seuil de dcision, qui est ici x par la probabilit de fausse alarme.
Exemple : dtection dun signal constant dans un bruit additif blanc gaussien (suite)
Nous avions obtenu le test suivant :
N

i=1
r
i
H
1
)

H
0

2
m
log () +
Nm
2
Dans la stratgie de Neyman-Pearson, seul change ici le seuil , = , qui est x par la probabilit
de fausse alarme.
Comme somme de variables gaussiennes indpendantes et de mme variance,

r
i
est elle mme
une variable gaussienne, de variance N
2
. On pose maintenant l (r) =
1

N
N

i=1
r
i
. Il sagit l dune
variable gaussienne norme (de variance unit). Le test devient alors
l (r)
H
1
)

H
0
=

Nm
log () +

Nm
2
,
Sous H
0
, chaque r
i
tant centr, l(r) est de moyenne nulle. Sous H
1
, les r
i
sont de moyenne m et la
moyenne de l(r) vaut
m

. La probabilit de fausse alarme est donc


P
fa
=
_

p (l [H
0
) dl =
1

2
_

exp
_

l
2
2
_
dl = Q() ,
o lon a utilis la fonction Q dnie par
Q(x)

=
1

2
_
+
x
e

y
2
2
dy.
On rencontre galement la fonction erf, ( error function ),
erf(x) =
2

_
x
0
e
y
2
dy,
et sa fonction complmentaire erfc
erfc(x) = 1 erfc(x) =
2

_
+
x
e
y
2
dy,
avec les relations suivantes :
Q(x) =
1
2
erfc(
x

2
),
erfc(x) = 2Q(

2x).
Les fonctions Q, erf et erfc sont tabules.
probabilit de fausse alarme xe, on dduit des tables la valeur de , et par suite celle de .
La probabilit de dtection vaut
P
d
=
_
+

p (l [H
1
) dl =
_
+

2
exp
_
_

1
2
_
l
m

_
2
_
_
dl = Q
_

m

_
,
et la probabilit de mauvaise dtection vaut P
md
= 1 P
d
.
3.3.4 Observation vectorielle - Cas gaussien gnral
On considre maintenant le problme de dtection binaire
H
0
: r N (m
0
,
0
)
H
1
: r N (m
1
,
1
)
o il sagit de dcider entre deux signaux gaussiens de moyennes respectives m
0
et m
1
, et de matrices
de covariances
0
et
1
.
Le rapport de vraisemblance est, comme prcdemment
(r) =
p (r [H
1
)
p (r [H
0
)
or p (r [H
i
) =
1

(2)
N
det
i
exp
1
2
(r m
i
)
t

1
i
(r m
i
), o det dsigne le dterminant. Alors
l(r) = log (r) =
1
2
_
(r m
0
)
t

1
0
(r m
0
) (r m
1
)
t

1
1
(r m
1
)
_
H
1
)

H
0
log () +
1
2
log
_
det
1
det
0
_
.
Nous pouvons maintenant examiner le problme de la dtection de deux signaux certains, connus, s
0
et s
1
, partir dune observation bruite.
H
0
: r = s
0
+ b N (s
0
,
b
)
H
1
: r = s
1
+ b N (s
1
,
b
)
Compte tenu des rsultats prcdents, on obtient alors
l (r) =
1
2
_
(r s
0
)
t

1
b
(r s
0
) (r s
1
)
t

1
b
(r s
1
)
_
=
1
2
_
2r
t

1
b
(s
1
s
0
) s
t
1

1
b
s
1
+ s
t
0

1
b
s
0
_
)

log
Il vient donc
r
t

1
b
(s
1
s
0
)
H
1
)

H
0
log +
1
2
_
s
t
1

1
b
s
1
s
t
0

1
b
s
0
_
.
Cas particuliers :
Si le bruit dobservation est blanc, on a
b
=
2
1, o 1 est la matrice identit. Si dautre part on
a = 1, alors
r
t
(s
1
s
0
)
H
1
)

H
0
1
2
_
s
t
1
s
1
s
t
0
s
0
_
.
Si les deux signaux possdent la mme nergie E
s
= s
t
1
s
1
= s
t
0
s
0
, on obtient le simple test
r
t
s
1
H
1
)

H
0
r
t
s
0
,
qui consiste comparer les produits scalaires entre les observations r et les deux signaux attendus s
0
et s
1
.
Enn, dans le cas ou lon cherche dtecter un seul signal s
1
dans du bruit blanc (s
0
= 0), le test
obtenu consiste comparer le rsultat du produit scalaire la moiti de lnergie
r
t
s
1
H
1
)

H
0
1
2
s
t
1
s
1
.
3.3.5 Test M hypothses
Nous avons prsent prcdemment le cas de la dcision entre deux hypothses, ce qui correspond
nalement ltude de signaux binaires. On peut gnraliser ceci au test M hypothses, cest--dire
par exemple au problme daffectation dun symbole reu un point dune constellation. on a ainsi
un problme de dtection dun signal parmi M :
H
0
: r = s
0
+ b
H
1
: r = s
1
+ b
.
.
.
.
.
.
.
.
.
H
M1
: r = s
M1
+ b
ces hypothses correspondent M
2
ventualits (D
i
, H
j
), auxquelles on associe les cots C
ij
. La
minimisation du cot moyen, cest--dire du risque baysien, conduit diviser lespace dobservation
Z en M sous-espaces Z
i
, tels que r Z
i
Dcision D
i
. Ltude prcise conduit ici simplement
au fait quil faut tester les hypothses deux deux. En dnissant les rapports de vraisemblance

1|0
(r)
D
=
p
r|H
1
p
r|H
0
,
2|0
(r)
D
=
p
r|H
2
p
r|H
0
, . . .
M1|0
(r)
D
=
p
r|H
M1
p
r|H
0
,
on a accs lensemble des rapports de vraisemblance, puisque

i|j
(r)
D
=
p
r|H
i
p
r|H
j
=

i|0

j|0
.
On effectue ensuite tous les tests

i|j
(r)
H
i
(ou H
k
,k=i,j)

)
H
j
(ou H
k
,k=i,j)
p
j
p
i
,
qui permettent de tester une hypothse (mais une seule) contre une autre. En collectant lensemble
des rsultats, on obtiendra alors la dcision.
Pour illustrer ceci, considrons simplement le cas dune constellation quatre tats m
0
, m
1
, m
2
, m
3
=
1 + j, 1 + j, 1 j, 1 j, cest--dire quun symbole mis a
k
est susceptible de prendre lune
quelconque de ces quatre valeurs (hypothses). Le signal reu, r, est entch par un bruit additif b,
que lon supposera gaussien de variance
2
. Dans ce cas, lun des tests scrit simplement

i|j
(r) = e
1
2
2
((rm
j
)
2
(rm
i
)
2
)
H
j
(ou H
k
,k=i,j)

)
H
i
(ou H
k
,k=i,j)
p
j
p
i
,
ce qui fournit simplement, en prenant le log et en supposant que les probabilits a priori sont uni-
formes (p
i
= p
j
),
(r m
j
)
2
H
j
(ou H
k
,k=i,j)

)
H
i
(ou H
k
,k=i,j)
(r m
i
)
2
.
Ainsi, le test revient simplement slectionner le point de la constellation qui est le plus proche, au
sens dune distance euclidienne habituelle, du signal reu... Si lon reprend lexemple de la constel-
lation 4 tats, tester m
0
contre m
1
revient affecter les points du demi-plan droit m
0
prf-
rentiellement m
1
, tester m
0
contre m
2
revient affecter les points du demi-plan suprieur m
0
prfrentiellement m
2
, et tester m
0
contre m
3
revient affecter les points du demi-plan suprieur
la diagonale principale m
0
prfrentiellement m
3
. Finalement, ceci revient alors affecter les
points m
0
sils appartiennent au quart de plan suprieur droit. Par symtrie, la stratgie de dcision
consiste alors tout simplement affecter la valeur reue ltat du quart de plan correspondant.
Bien entendu, les rsultats prcdents sont plus gnraux et sappliquer des constellations ou
des tests plus labors, en prenant en compte dautres statistques de bruit.
3.4 Dtection de signaux temps continu
Nous navons considr pour le moment que la dtection de constantes, ou de signaux temps
discrets, reprsents sous la forme de vecteurs. Linformation est vhicule, le long du canal, par des
signaux analogiques temps continu, et il convient donc de sintresser au problme de la dtection
des signaux temps continu. Ceci nous amnera en fait prsenter la structure gnrale dun r-
cepteur. Pour passer lanalyse de signaux temps continu, sans perdre linvestissement thorique
prcdent, nous allons utiliser les mthodes de reprsentation des signaux alatoires prsentes au
dbut de ce chapitre, qui nous permettront de nous ramener au cas vectoriel. Pour introduire cette
dmarche, nous dbuterons par le problme de dtection dun signal dans du bruit.
3.4.1 Reprsentation
Les deux hypothses sont
H
0
: r (t) = b (t)
H
1
: r (t) = s (t) + b (t)
o s (t) est un signal certain, dnergie E
s
=
_
T
0
[s (t)[
2
dt, et b (t) un signal alatoire, centr, gaussien,
de fonction de corrlation
b
(t, u).
On choisit comme base de reprsentation les
i
(t) (fonctions propres) de
b
(t, u), dnis par
_
T
0

i
(t)
b
(t, u) dt =
i

i
(u) pour u [0, T], et o les coefcients b
i
du dveloppement de b(t)
sont dcorrls : E [b
i
b
j
] =
i

ij
. Lutilisation de la transforme de Kahunen-Love permet ici de
traiter sans difcult le cas dun bruit color.
Dans ces conditions, les signaux dintrt peuvent sexprimer laide des dveloppements en srie
suivants :
_

_
s (t) =

i=1
s
i

i
(t) avec s
i
=
_
T
0
s (t)
i
(t) dt,
b (t) =

b
i

i
(t) avec b
i
=
_
T
0
b (t)
i
(t) dt,
r (t) =

i=1
r
i

i
(t) avec r
i
=
_
T
0
r (t)
i
(t) dt.
Le bruit b (t) tant gaussien, on peut connatre r[ H
0
et r[ H
1
...
Par proprits du dveloppement de Kahunhen-Love, et en tenant compte du fait que b(t) est par
hypothse gaussien centr, les variables alatoires b
i
sont gaussiennes dans leur ensemble, centres et
dcorrles. On dduit de ceci les distributions de r
i
[ H
0
et r
i
[ H
1
:
les r
i
[ H
0
sont des variables alatoires gaussiennes centres, non corrles,
les r
i
[ H
1
sont gaussiennes, non corrles, de valeurs moyennes E [ r
i
[ H
1
] = s
i
3.4.2 Troncature
On peut tronquer les dveloppements lordre N (on sait que le dveloppement de KL converge
en moyenne quadratique). On obtient alors les dveloppements suivants :
r
N
(t) =
N

i=1
r
i

i
(t) s
N
(t) =
N

i=1
s
i

i
(t) b
N
(t) =
N

i=1
b
i

i
(t)
Sur la base
i
, i = 1..N, les diffrents signaux pourront simplement tre reprsents par les
composantes du dveloppement, cest--dire par un vecteur.
Sous lhypothse H
0
: r (t) est reprsent par r
N
(t), i.e. par les r
i
pour i = 1 N,
r[ H
0
= [r
1
, r
2
, . . . r
N
]
T
= [b
1
, b
2
, . . . b
N
]
T
,
et sous H
1
:
r[ H
1
= [r
1
, r
2
, . . . r
N
]
T
= [s
1
, s
2
, . . . s
N
]
T
+ [b
1
, b
2
, . . . b
N
]
T
= s +b.
3.4.3 Stratgie baysienne
Nous pouvons maintenant appliquer les rsultats obtenus prcdemment : le problme est simple-
ment la dtection dun signal certain s dans un bruit gaussien b, avec p
r|H
0
une densit gaussienne
centre de matrice de corrlation
b
, et p
r|H
1
gaussienne de moyenne s et de mme matrice de corr-
lation.
La matrice de corrlation est diagonale, par proprit de dcorrlation du dveloppement de
Kahunen-Love :

b
=
_

1
0
.
.
.
0
N
_

_
.
On a alors :
l (r) = r
T

1
b
s
H
1
)

H
0
log +
1
2
s
T

1
b
s
or, la matrice diagonale
b
est particulirement simple inverser, et

1
b
=
_

_
1

1
0
.
.
.
0
1

N
_

_
.
On obtient alors nalement
l (r) =
N

i=1
r
i
s
i

i
H
1
)

H
0
log +
1
2
N

i=1
s
2
i

i
3.4.4 Retour au continu
Comme on sait que le dveloppement de Kahunen-Love converge, on peut faire tendre N vers
linni.
On ne peut en gnral pas revenir une expression simple en fonction des signaux temps continu
initiaux, et lexception notable du bruit additif blanc gaussien, le traitement doit passer soit par
un blanchiment pralable, soit par lemploi effectif dune dcomposion de type Kahunhen-Love.
Dimportants rsultats sont cependant obtenus lorsque le bruit additif est blanc gaussien.
Cas du bruit blanc
Dans le cas du bruit blanc, toutes les valeurs propres sont gales, et on a
i
=
N
0
2
i. Le test du
log-rapport de vraisemblance scrit alors
l =
2
N
0

i=1
r
i
s
i
)

log +
1
N
0

i=1
s
2
i
,
ou
l

r
i
s
i
)

log +

s
2
i
.
En remplaant r
i
par son expression,
l

i=1
_
T
0
r (t)
i
(t) s
i
dt =
_
T
0
r (t)

s
i

i
(t) dt
=
_
T
0
r (t) s (t) dt,
on arrive alors :
_
T
0
r (t) s (t) dt
H
1
)

H
0
N
0
2
log +
1
2
_
T
0
s (t) s (t) dt.
Le rcepteur optimal consiste ainsi calculer le produit scalaire entre s(t) et r(t), cest--dire
aussi lintercorrlation entre r(t) et s(t), pour un retard nul, et comparer le rsultat un seuil qui
fait intervenir lnergie du signal.
Figure 3.8 Rcepteur optimal pour la dtection dun signal noy dans du bruit.
Cette opration peut galement sinterprter comme un ltrage particulier, un ltrage adapt,
prsent dans la section 3.2.3, au signal attendu s(t), avec chantillonnage et prise de dcision au
temps T. On parlera alors de manire quivalente de rcepteur corrlation ou de rcepteur ltre
adapt.
Pour caractriser le rcepteur, il nous faut maintenant chercher tablir quelles sont les perfor-
mances du rcepteur optimal, cest--dire les probabilits derreur, de dtection, de fausse alarme,
etc... Pour cel, il suft de connatre les deux distributions de probabilit p
l |H
0
(l) et p
l |H
1
(l). La
variable l tant gaussienne, il suft alors de connatre la moyenne et la variance. On a
l[ H
0
=
_
T
0
b (t) s (t) dt soit E [ l[ H
0
] = 0
l[ H
1
=
_
T
0
s (t)s (t) + s (t) b (t) dt soit E [ l[ H
1
] = E
s
puis
Var [ l[ H
0
] = Var [ l[ H
1
] = E [ l
2
[ H
0
]
= E
_
_ _
T
0
b (t) s (t) b (u) s (u) dtdu
_
=
N
0
2
_
T
0
(s (t))
2
dt =
N
0
2
.E
s
,
en utilisant le fait que b(t) est un bruit blanc de fonction dautocorrlation R
bb
() =
N
0
2
(t ).
On dnit lindice de performance comme
d
2
=
E [ l[ H
1
] E [ l[ H
0
]
2
Var (l[ H
0
)
=
2E
2
s
N
0
E
s
=
2E
s
N
0
.
Il sagit l aussi de la valeur du rapport signal--bruit en sortie dun ltre adapt. Les variables l[H
0
et l[H
1
tant respectivement deux variables gaussiennes,
l[ H
0
= N
_
0,
N
0
2
E
s
_
,
l[ H
1
= N
_
E
s
,
N
0
2
E
s
_
,
la probabilit de fausse alarme sexprime comme
P
fa
=
1

2
_
+
_
N
0
2Es
log +
1
2
_
2Es
N
0
exp
_

l
2
2
_
dl

= Q
_

N
0
2E
s
log +
1
2

2E
s
N
0
_
On trouvera enn :
P
fa
= Q
_
log
_
N
0
2Es
+
1
2
_
2Es
N
0
_
P
d
= Q
_
log
_
N
0
2Es

1
2
_
2Es
N
0
_
On pourra noter que les probabilits P
fa
et P
d
ne dpendent que du rapport signal--bruit
2Es
N
0
. Dautre
part, la minimisation du risque baysien dans le cas du signal blanc gaussien revient maximiser le
rapport signal--bruit et retrouver la notion de ltre adapt.
3.5 Communication binaire en prsence de bruit blanc.
La dmarche ayant t conduite dans le cas de la dtection dun signal temps continu noy dans
du bruit, nous pouvons maintenant aborder le problme de la dtection de deux signaux certains s
0
(t)
et s
1
(t) , connus, noys dans un bruit blanc b(t). Ce problme comprend la dtection des niveaux
dans un train binaire, mais aussi la dtection dune frquence parmi deux (BFSK) ou dun tat de
phase parmi deux (BPSK). videmment, nous tendrons ensuite ces rsultats au cas M hypothses.
Le problme est cependant pour le moment de dterminer, au vu de lobservation r(t), laquelle des
deux hypothses suivantes est vraie.
H
0
: r (t) = s
0
(t) + b (t)
H
1
: r (t) = s
1
(t) + b (t)
_

_
t [0, T]
On supposera ici que s
0
et s
1
ont mme nergie E
s
(ceci nest pas limitatif, et on traiterait de faon
analogue la dtection de deux signaux dnergies diffrentes) :
_
T
0
[s
0
[
2
dt = [s
1
(t)[
2
dt = E
s
.
On ne suppose pas ncessairement que les signaux soient orthogonaux, et on dnit le coefcient de
corrlation, pour des signaux certains rels, comme
=
1
E
s
_
T
0
s
0
(t) s
1
(t) dt [0, 1]
An de pouvoir traiter ce problme de dtection/dcision, nous devons, comme prcdemment, re-
chercher une bonne base de reprsentation, sur laquelle on sait mener facilement les calculs. Le
construction de la base de dcomposition repose ici sur une procdure dorthonormalisation de Gram-
Schmidt :
(t) =
_

1
(t) =
s
0
(t)

Es

2
(t) =
s
1
(t)s
0
(t)

Es(1
2
)

3
(t) = . . .
.
.
.
_

_
,
qui permet de construire des fonctions de base
i
orthonormales, en enlevant la partie corrle, puis
en normalisant lnergie.
Aprs cette dcomposition, seules les composantes r
1
et r
2
du dveloppement de r(t) portent lin-
formation, puisque les autres composantes sont dnies comme la projection de r(t) sur des fonctions

i
, i ,= 1, 2 qui sont justement orthogonales aux signaux dintrt s
0
(t) et s
1
(t) :
r(t) =

i
r
i

i
(t), avec r
i
=
_
T
0
r(t)
i
(t)dt.
Sous les deux hypothses, r = [r
1
, r
2
, . . . , r
N
]
T
est un vecteur gaussien, qui sera caractris par
la connaissance des moyennes et variances. En notant que les composantes sont dcorrles (par
lorthonormalisation et parce que le bruit additif est blanc), il sufra de connatre, pour lhypothse
H
0
par exemple,
_

_
E [ r
1
[ H
0
]
E [ r
2
[ H
0
]
Var [ r
1,2
[ H
0
]
et de mme pour lhypothse H
1
. Il suft ensuite dcrire le test du rapport de vraisemblance (en ayant
tronqu la dcomposition un ordre N), puis en faisant tendre N vers linni, trouver lexpression
continue du test. Tous calculs faits, le rsultat est ici
l =
_
T
0
r (t) . [s
1
(t) s
0
(t)] dt
H
1
)

H
0
N
0
2
log .
Ce dernier rsultat est indpendant du fait que les signaux recherchs soient orthogonaux ou non :
nalement, que les signaux soient orthogonaux ou non, le rcepteur est le mme, et il faut corrler
r(t) avec s
1
(t) dune part, et r(t) avec s
0
(t) dautre part. De manire quivalente, on construit deux
ltres adapts, pour les signaux attendus s
0
(t) et s
1
(t). Que les signaux soit ou non orthogonaux, la
structure du rcepteur optimal est inchange, mais les performances sont affectes par lventuelle
corrlation des signaux.
Dans le cas o = 1, le test devient
l =
_
T
0
r (t) s
1
(t) dt
H
1
)

H
0
_
T
0
r (t) s
2
(t) dt
Figure 3.9 Rcepteur optimal dans le cas binaire.
et le rcepteur optimal a la structure reprsente sur la gure 3.9 :
Le choix des signaux inue sur les performances du rcepteur. Les performances peuvent alors
fournir un guide pour le choix des signaux, cest--dire nalement pour le choix dune mthode de
modulation, en gardant toutefois lesprit que dautres critres de choix entrent en jeu, comme la
bande occupe, la complexit de ralisation, etc...
Comme prcdemment, on introduit lindice de performance
d
2
=
[E [ l[ H
1
] E [ l[ H
0
]]
2
Var [l[H
0
]
.
Sous chacune des deux hypothses, le log rapport de vraisemblance (qui est une variable gaussienne,
comme intgrale dune variable gaussienne), vaut :
l[ H
0
=
_
T
0
[s
0
(t) + b (t)] [s
1
(t) s
0
(t)]dt,
l[ H
1
=
_
T
0
[s
1
(t) + b (t)] [s
1
(t) s
0
(t)]dt.
On en dduit les moyennes :
E [ l[ H
0
] = E
s
E
s
= E
s
( 1) ,
E [ l[ H
1
] = E
s
(1 ) .
Les variances valent quant--elles
Var [ l[ H
0
] = Var (l[ H
1
) = E
__ _
b (t) (s
1
(t) s
0
(t)) b (u) (s
1
(u) s
0
(u)) dtdu
_
= N
0
E
s
(1 )
Finalement, lindice de performance sexprime en fonction du rapport signal--bruit et du coefcient
de corrlation :
d
2
=
[2E
s
(1 )]
2
N
0
E
s
(1 )
=
4E
s
N
0
(1 ) .
On peut ensuite facilement, cf 3.3.3, calculer les diffrentes probabilits, pour obtenir :
P
fa
= Q
_
log
d
+
d
2
_
,
P
d
= Q
_
log
d

d
2
_
,
et dans le cas o =1, la probabilit derreur vaut
Pr(erreur) = Q
_
d
2
_
= Q
_

E
s
N
0
(1 )
_
, (1)
et le meilleur choix, qui minimise la probabilit derreur, la probabilit de fausse alarme et maximise
la probabilit de dtection, consiste rechercher deux signaux s
0
(t) et s
1
(t) tels que = -1.
Interprtation en terme de distance :
Dans le cas de la dtection binaire avec bruit blanc additif gaussien, on peut facilement interprter
la probabilit derreur comme tant lie la distance euclidienne entre les deux signaux dintrt
s
0
(t) et s
1
(t), normalise par la variance du bruit additif. En effet, si les probabilits dmission des
deux signaux sont gales, la frontire de dcision est constitue par la bissectrice perpendiculaire
la droite rejoignant les points s
0
et s
1
, coordonnes de s
0
(t) et s
1
(t) dans la base de reprsentation.
Ainsi, lorsque le signal s
0
(t) (ou s
1
(t)) est mis, une erreur est commise lorsque le signal reu est
plus proche de s
1
(t) (rciproquement s
0
(t)) que de s
0
(t) (rciproquement s
1
(t)). Comme le bruit est
blanc gaussien de variance N
0
/2, la probabilit de cet vnement est donne par
Pr(erreur[ s
0
mis) = Pr([[r s
1
[[ < [[r s
0
[[ [ s
0
mis) =
1
_
2N
0
/2
_
+
d/2
exp
_
u
2
2N
0
/2
_
du,
o d

dsigne la distance euclidienne entre s


0
et s
1
. Les probabilits derreur si s
0
(t) et si s
1
(t) sont
gales, et comme les deux messages sont quiprobables, la probabilit derreur totale est gale
lexpression prcdente. En effectuant le changement de variable v = u/
_
N
0
/2, on obtient alors
Pr(erreur) =
1

2
_
+
1
2
d

N
0
/2
exp
_
v
2
2
_
dv,
et par dnition de la fonction Q,
Pr(erreur) = Q
_
_
1
2
d

_
N
0
/2
_
_
= Q(
d

2N
0
), (2)
ou le terme apparassant dans la fonction Qest bien la demi-distance d

/2, normalise par lcart type


du bruit
_
N
0
/2. On peut enn facilement calculer la valeur de d

:
d
2

=
_
T
0
(s
1
(t) s
0
(t))
2
dt = 2E
s
(1 ),
et lon retrouve alors lexpression (1).
Exemples :
Considrons deux modulations classiques dans le cas binaire : la modulation de frquence (FSK)
et la modulation de phase (PSK).
Dans le cas de la modulation FSK, linformation est code laide de deux frquences : on
associe au niveau 1 une frquence
1
et au niveau 0 une frquence
0
, de sorte que
s
1
(t) =

2E
s
T
cos(2
1
t),
s
0
(t) =

2E
s
T
cos(2
0
t).
Les deux signaux sont orthogonaux si T (
1

0
) est soit entier, soit >> 1, et dans ce cas
= 0. Lindice de performances vaut alors d
2
= 4E
s
/N
0
, et la probabilit derreur
Pr(erreur) = Q
_

E
s
N
0
_
. (3)
Dans la cas de la PSK, linformation est code en phase. On peut obtenir un coefcient de
corrlation de -1 en prenant un dphasage de , avec
s
1
(t) = sqrt
2E
s
T
cos(2
0
t) (
1
= )
s
0
(t) =

2E
s
T
cos(2
0
t) (
0
= 0)
Lindice de performance vaut alors d
2
= 8E
s
/N
0
, et la probabilit derreur est
Pr(erreur) = Q
_

2E
s
N
0
_
. (4)
Notons que cette PSK est ici quivalente une modulation ASK dans laquelle on prendrait une
amplitude 1 pour reprsenter le signal (le 1 logique) et une amplitude -1 pour le 0 logique.
Dans le cas binaire, avec bruit blanc gaussien additif, si le critre de choix est la probabilit
derreur, le meilleur choix est ainsi obtenu pour une modulation PSK avec un dphasage de .
3.6 Communication M-aire (M hypothses)
En utilisant la mme dmarche que prcdemment, on peut tendre les rsultats au cas M-hypothses.
Ce sera par exemple le cas dune modulation QAM M tats, ou dun codage en frquence (M fr-
quences pour coder M messages). On considre ainsi
H
i
: r
i
(t) = s
i
(t) + b (t) t [0, T] ,
o les signaux s
i
sont certains. Comme dans le cas binaire, on obtient quil faut comparer les produits
scalaires de signal reu r(t) avec chacun des signaux sources s
i
(t),
l
i
=
_
T
0
r(t)s
i
(t)dt
et prendre une dcision en faveur du signal (de lhypothse) associ au plus grand produit scalaire. Le
rcepteur optimal baysien consiste donc calculer lintercorrlation, ou le ltre adapt, sur M voies
et retenir lhypothse correspondant la plus grande valeur de sortie, voir la gure 3.10.
Figure 3.10 Structure du rcepteur optimal baysien : autocorrlation ou ltrage adapt sur chacune
des voies puis comparaison.
Lvaluation de la probabilit derreur est quant--elle un peu plus ardue. Nous traiterons tout
dabord le cas de signaux orthogonaux, qui peuvent par exemple correspondre une M-FSK (avec
des frquences orthogonales), puis nous traiterons le cas des M-PSK, et enn nous donnerons le
rsultat pour des modulations QAM.
Probabilit derreur pour des signaux orthogonaux
En supposant que les diffrentes hypothses H
i
sont quiprobables et que les cots sont tels que
C
ij
= 1, C
ii
= 0, la probabilit derreur scrit
Pr(erreur) =

i=j

p
j
p (Dcider H
i
[H
j
ralis)
=

j
p
j

i=j
p (Dcider H
i
[H
j
ralis) =

j
p
j
p (erreur[H
j
).
Les diffrentes hypothses tant quiprobables, on a p
j
=
1
M
, et il est assez vident, par symtrie du
problme, que p(e) = p (e[ H
j
) quelque soit j. Considrons par exemple lhypothse H
1
:
p (e[ H
1
) = 1 p (l
1
> l
j
j ,= 1/H
1
)
= 1 p (l
1
> l
2
) .p (l
1
> l
3
) ...p (l
1
> l
M
)
= 1

j=1
p (l
1
> l
j
[H
1
)
La probabilit de non erreur si H
1
est la probabilit p (l
1
suprieur tous les l
j
, l
j
,= l
1
[H
1
), soit
P (non erreur sous H
1
) =
+
_

p (l
1
[H
1
)
l
1
_

p(l
2
[H
1
)
l
1
_

l
1
_

...
l
1
_

p (l
M
[H
1
)
(M1) fois
dl
1
dl
2
. . . dl
M
(5)
Ici les produits scalaires l
1
, l
j
conduisent
l
1
=
_
T
0
r (t) s
1
(t) dt
l
j
=
_
T
0
r (t) s
j
(t) dt

l
1/H
1
=
_
T
0
[s
1
(t) + b (t)] s
1
(t) dt,
l
j/H
=
_
T
0
[s
1
(t) + b (t)] s
j
(t) dt.
En utilisant lorthogonalit des signaux, les moyennes sont donnes par
E [l
j
[H
1
] = 0 pour j ,= 1
= E
s
pour j = 1.
An dvaluer la probabilit de non erreur, ou derreur, si H
1
, il nous faut connatre p (l
j
[H
1
), j =
1 . . . M. Or les l
j
[H
1
, pour j = 1 . . . M sont des variables gaussiennes dont les variances valent :
Var l
1

H
1
=
N
0
2
E
s
,
Var l
j

H
1
=
N
0
2
E
s
.
Toutes les variables l
j
[H
1
pour j ,= 1 sont ainsi des variables de mme loi, et pour allger un peu les
relations, on pose
2
=
N
0
2
E
s
. Ainsi, la probabilit (5) scrit
P (non erreur [H
1
) =
_
+

_
l
1

_
l
1

p (l
1
/H
1
) p (l
2
/H
1
) ...p (l
M
/H
1
) dl
=
_
+

p (l
1
/H
1
)
_
_
l
1

p (l
j
/H
1
) dl
j
_
M1
,

gaussienne gaussienne
non centre centre
=
_
+

2
e

1
2
(
l
1
Es

2
)
2
_
_
l
1

2
e

1
2
l
2
j

2
dl
j
_
M1
dl
1
.
Finalement, en posant y = l
j
/ et x = l
1
/, on obtient la probabilit derreur :
Pr(erreur) = 1
_
+

2
exp
_

1
2
_
x

2E
s
N
0
__
2
_
_
x

2
e

y
2
2
dy
_
M1
dx (6)
o on a pos x = l
1
/. Cette relation nadmet pas de solution analytique, et doit tre value num-
riquement.
Borne dunion
On peut cependant obtenir une borne suprieur simple pour cette probabilit derreur. Donnons
tout dabord une formulation gnrale de cette borne, pour le problme de la dtection parmi M
signaux, non ncessairement orthogonaux. Rappelons que la probabilit derreur pour la dtection
entre deux signaux s
i
(t) et s
j
(t) de mme nergie E
s
est donne par (1), et si lon note d
ij
lindice de
performance et
ij
le coefcient de corrlation correspondant, on a
Pr(erreur) = Q
_
d
ij
2
_
= Q
_

E
s
N
0
(1
ij
)
_
.
On peut voir le dtecteur pour les M signaux comme effectuant M1 dcisions binaires entre la voie
contenant le signal, disons s
i
(t), et les autres voies. On aura alors erreur sur la dtection si lune au
moins des dcisions binaires est errone. Notons A
k
, pour k = 1..M 1 lvnement correspondant
une dcision binaire errone. Alors la probabilit derreur pour la dtection du signal s
i
(t) parmi
M est gale la probabilit de lunion (du ou logique) des M 1 vnements. Or on sait que
la probabilit de lunion de M 1 vnements est toujours infrieure la somme des probabilits
lmentaires : Pr(

M1
k=1
A
k
)

M1
k=1
Pr(A
k
). Ainsi,
Pr(erreur[s
i
(t) mis)
M

j = 1
j ,= i
Q
_
d
ij
2
_
pour i = 1, 2, . . . M.
La probabilit derreur symbole est alors la moyenne de cette expression pour les M symboles, et
Pr(erreur) =
M

i=1
p
i
Pr(erreur[s
i
(t) mis)

i=1
M

j = 1
j ,= i
p
i
Q
_
d
ij
2
_
,
(7)
o les p
i
sont les probabilits dmission des diffrents signaux s
i
(t). Notons (ceci nous sera utile
pour tablir la probabilit derreur pour les M-PSK), que dans le cas dune constellation circulaire
symtrique, Pr(erreur[s
i
(t) mis) est la mme pour tout i, et
Pr(erreur)
M

j = 1
j ,= i
Q
_
d
ij
2
_
=
M

j = 1
j ,= i
Q(
d

ij

2N
0
) pour tout i, (8)
o d

ij
est la distance euclidienne entre les signaux s
i
(t) et s
j
(t), comme nous lavions utilise en (2).
Revenons maintenant au cas des signaux orthogonaux de mme nergie. Dans ce cas,
ij
= 0, et
tous les indices d
ij
sont gaux. partir de (7), on obtient alors pour (6) la borne suprieure simple
suivante :
Pr(erreur) (M 1)Q
_
d
2
_
= (M 1)Q
_

E
s
N
0
_
.
Application : transmission de digits binaires.
titre dapplication, considrons le cas dune transmission de digits binaires, et tudions lvolu-
tion de la probabilit derreur lorsque M crot. Les niveaux 0, 1 mis par la source sont quiprobables
et mis tous les T. La puissance disponible lmission est donne, et xe P. On forme ensuite
des symboles en associant plusieurs digits binaires. On considrera par ailleurs que les signaux s
i
(t)
associs chacun des symboles sont orthogonaux.
1. Transmission binaire s
0
, s
1
, lnergie par signal est E
s
= TP,
2. pour M = 4 (groupes de 2) E
s
= 2TP,
3. pour M = 8 (groupes de 3 digits binaires) E
s
= 3TP,
4. pour M = 2
K
(groupes de K = log
2
M digits binaires) E
s
= K TP = log
2
(M) TP.
Ainsi, lnergie associe chacun des signaux mis est lie la puissance disponible et la dure
dmission de la source. La probabilit derreur est donne par la relation (6), avec
2
=
N
0
2
E
s
=
N
0
2
log
2
(M) TP ; et il vient donc
Pr(erreur) = 1
_
+

1
_
2 log
2
exp
1
2
_
_
x

2TP log
2
(M)
N
0
_
_
2 _
_
x

2
e

y
2
2
dy
_
M1
dx,
et aprs un changement de variable,
Pr(erreur) = 1
1

2
_
+

exp
_

y
2
2
_
_
_
_
y+
_
2TP log
2
M
N
0

2
e

t
2
2
dt
_
_
M1
dy
En fonction de M, on peut enn montrer que
lim
M
(M 1) log
_
_
_
y+
_
2TP log
2
M
N
0

2
e

t
2
2
dt
_
_
=
_
si
TP
N
0
< log
2
,
0 sinon.
On en dduit que Pr(erreur) 1 si
TP
N
0
< log
2
, et que Pr(erreur) 0 si
TP
N
0
> log
2
.
Ainsi, en dessous dun certain dbit 1/T, on peut garantir une probabilit derreur aussi faible
que lon veut. Par contre, lorsque le taux dmission est suprieur ce seuil, il nest pas possible de
transmettre sans erreur, et la probabilit derreur tend mme vers 1. Ceci nest autre que le second
thorme de Shannon, qui indique quon peut esprer transmettre de linformation sans erreur en
dessous dun certain dbit maximum, et qua contrario la probabilit derreur devient trs importante,
quelques soient les moyens mis en uvre, ds que lon dpasse ce seuil.
Probabilit derreur pour une modulation M-PSK
Dans la section prcdente, nous avons tudi la probabilit derreur pour la transmission de
M signaux orthogonaux. videmment, les signaux utiliss dans une modulation PSK ne sont pas
orthogonaux entre eux, et il nous faudrait donc reprendre le calcul dans ce cas de gure. Pour des
corrlations arbitraires
ij
entre les signaux s
i
(t)et s
j
(t), pour i, j = 1..M, on peut tablir, voir [1,
pages 381-383], que la probabilit derreur sexprime comme
Pr(erreur) = 1
1
M
exp
_

E
s
N
0
__
+

exp
_
x
2E
s
N
0
_

_
d
dx
_
x

. . .
_
x

. .
(M1) fois
1

(2)
M
det()
exp
_

1
2
y
T

1
y
_
dy
_

_
dx,
ce qui nest pas prcisment une expression trs sympathique manipuler. On peut cependant facile-
ment trouver une borne suprieure, en utilisant la borne dunion prsente dans la section prcdente,
dans laquelle on utilise lexpression (1) de la probabilit derreur pour la dtection binaire de deux si-
gnaux de corrlation quelconque. Dans la mesure ou cette dernire probabilit derreur est elle-mme
majore par la probabilit derreur pour les deux signaux de corrlation maximum, on obtient alors
Pr(erreur) (M 1)Q
_

E
s
N
0
(1
max
)
_
,
o
max
est le plus grand des coefcients de corrlation.
Dans le cas des modulations PSK, on peut obtenir une expression simple en utilisant la borne
dunion tablie en (8) et reproduite ci-dessous :
Pr(erreur)
M

j = 1
j ,= i
Q
_
d
ij
2
_
=
M

j = 1
j ,= i
Q(
d

ij

2N
0
) pour tout i, (9)
La constellation dune M-PSK est circulaire, et si les signaux sont dnergie E
s
, la distance entre un
point de la constellation et lun de ses deux plus proches voisins est donne par
d

= 2
_
E
s
sin
_

M
_
.
Si lon suppose que le rapport signal--bruit est sufsamment grand pour que les erreurs soient essen-
tiellement des la confusion entre deux voisins, la somme en (9) se rduit deux termes, et il reste
simplement
Pr(erreur) 2Q
_

2E
s
N
0
sin
_

M
_
_
= 2Q
_
_

2kE
b
N
0
sin
_

M
_
_
_
,
avec E
b
lnergie bit et k = log
2
M. Cette approximation de la probabilit derreur se rvle bonne
pour tout M 4, trs proche de la vraie probabilit derreur si le rapport signal--bruit est lev.
Pour une modulation QAM, on obtient la probabilit derreur suivante, cf [3, pages 369-373] :
Pr(erreur) 1
_
_
1 2Q
_
_

_
3

E
s
(M 1)N
0
_
_
_
_
2
,
o

E
s
est lnergie symbole moyenne. Pour les probabilits derreur correspondant dautres shmas
de modulations, on pourra se reporter [2] ou [3].
3.7 Dtection maximum de vraisemblance dune
squence de symboles
Lorsque les signaux sont sans mmoire, les dtecteurs prcdents, qui procdent symbole par
symbole, sont optimaux au sens de la probabilit derreur. Cependant, lorsque le signal prsente une
mmoire, cest--dire lorsque les symboles cods successifs sont interdpendants, le rcepteur devrait
tirer parti de cette dpendance. Par exemple, pour une modulation phase continue (CPM), les phases
successives ne sont pas indpendantes. Ainsi, pour une modulation MSK, qui est une modulation
phase continue dindice 1/2, on ne peut passer dune phase nulle qu une phase de /2 ou de
3/2. En quelque sorte, les hypothses de dtection considrer chaque instant dpendent de ltat
antrieur. On peut bien entendu traiter la dtection des signaux avec mmoire symbole par symbole
sans se proccuper de la dpendance intersymboles, ce qui mnerait pour la MSK dcider chaque
instant entre les 4 tats de phase 0, /2, , 3/2, mais il est clair que la prise en compte de la
dpendance intersymboles doit permettre damliorer les performances. On cherche ainsi dtecter
une squence de symboles.
Comme dans la prsentation de [2], considrons un signal NRZ encod diffrentiellement, cest--
dire que le signal de sortie de lencodeur, b
k
, ne change dtat que lorsque lentre a
k
de lencodeur est
un 1 . Ainsi, on a b
k
= a
k
+b
k1
, o laddition est une addition modulo 2. Notons S
0
et S
1
les deux
tats possibles de b
k
, auxquels on pourra associer deux niveaux damplitude, deux signaux diffrents
s
0
(t) et s
1
(t), etc. La gure 3.11 donne ainsi le diagramme en treillis pour un NRZ diffrentiel, o les
changements dtat sont provoqus par a
k
= 1.
Figure 3.11 Diagramme en treillis pour un NRZ diffrentiel
Supposons ici que lon associe les niveaux s
0
= s
1
= A aux deux tats. Pour le k
e
symbole,
lobservation est alors de la forme
r
k
= A+ b
k
,
en sortie du ltre adapt de rception, avec b
k
un bruit blanc additif gaussien de variance
2
b
. Les
densits de probabilit conditionnelles aux deux hypothses scrivent alors
p(r
k
[s
0,1
) =
1
_
2
2
b
exp
_
(r
k
A)
2
2
2
b
_
.
Considrons une squence de symboles de longueur K, et notons s
(n)
la n
e
parmi les 2
K
squences
possibles. Alors, la densit de probabilit conditionnelle de la squence dobservation r
1
, r
2
, . . . , r
K
si la squence s
(n)
a t mise, est
p(r
1
, r
2
, . . . , r
K
[s
(n)
) =
K

k=1
1
_
2
2
b
exp
_
_
_
(r
k
s
(n)
k
)
2
2
2
b
_
_
_
=
_
_
1
_
2
2
b
_
_
K
exp
_

1
2
2
b
K

k=1
(r
k
s
(n)
k
)
2
_
,
o s
(n)
k
= A. Ainsi, on peut rechercher la squence s
(n)
telle que la densit conditionnelle prc-
dente, la vraisemblance, soit maximale. On obtient alors un dtecteur de squence au maximum de
vraisemblance. En prenant le logarithme, on voit que la recherche de la solution au maximum de
vraisemblance correspond la minimisation de la mtrique
K

k=1
(r
k
s
(n)
k
)
2
.
Il sagit donc de retenir la squence associe la mtrique (ici une distance euclidienne) la plus
faible, parmi les 2
K
squences possibles. Il est possible de rduire cette complexit en utilisant une
recherche squentielle des squences sur le treillis. Lalgorithme de recherche correspondant sappelle
lalgorithme de Viterbi. Cet algorithme peut tre employ ds que lon a une recherche de solution au
maximum de vraisemblance pour une squence de donnes non indpendantes. On le rencontre ainsi
galement dans le contexte de lgalisation (voir le chapitre sur lgalisation) et pour le dcodage des
codes convolutifs (voir le chapitre sur le codage canal).
Dans le cas de notre exemple du NRZ diffrentiel, chaque noeud du treillis, correspondant un
instant de dcision multiple de la priode symbole, est atteint par deux chemins entrants , et
deux chemins partent de chaque noeud. Pour les deux chemins entrants, on peut calculer la mtrique
cumule. Considrons ainsi que lon soit ltape i et que lon considre un noeud sur ltat S
0
.
Alors, pour le premier chemin atteignant S
0,i
, on a D
1
(i) = D
1
(i 1) +(r
i
A)
2
, o D
1
(i 1) est la
mtrique du premier chemin entrant ; et pour le second chemin, on a D
2
(i) = D
2
(i 1) + (r
i
A)
2
.
Lalgorithme de Viterbi consiste alors comparer ces deux mtriques au noeud i et ne retenir que
le chemin correspondant la mtrique la plus faible. En effet, le chemin cart correspond forcment
une squence (partielle) de vraisemblance plus faible, et la prolongation de ce chemin amnera
toujours une vraisemblance plus faible que la prolongation de lautre chemin. Le chemin conserv
est appel chemin survivant. Les mmes oprations sont effectues pour les chemins entrant dans S
1,i
,
le noeud sur S
1
ltape i, et lon obtient un survivant. Les deux survivants sont alors prolongs dans
le treillis jusquaux tats suivants ltape i + 1. Ainsi, le nombre de chemins explorer, parmi les
2
K
, est divis par deux chaque tape, ce qui explique la popularit de cet algorithme. Ce processus
est poursuivi jusqu i = K, et lon retient alors le chemin de mtrique la plus faible, cest--dire de
vraisemblance la plus grande. Enn, en notant les transitions sur le chemin retenu, on reconstruit la
squence de symboles.
Notons quen gnral, on sarrange pour dbuter dun tat connu et terminer le treillis sur un tat
connu. Cela correspond par exemple avoir ajout quelques bits 0 en dbut et en n de squence
(bits de terminaison tail bits), qui imposent ltat S
0
en dbut et n de squence, et permet dviter
des ambiguits. Lorsque deux chemins entrant en un noeud ont mme mtrique, ces chemins ne
sont pas distinguables (sont quivalents) en terme de vraisemblance, et on peut tout simplement nen
retenir quun par tirage alatoire (pile ou face).
Daprs ce qui prcde, on voit quil faut attendre la n du treillis avant de prendre une dcision
sur la squence, et par consquent sur les symboles individuels. Il sen suit donc un retard de dcision
qui est considrable. En pratique, si on appellle L la mmoire du signal, cest--dire le nombre de
symboles prcdents dont dpend le symbole courant (L = 1 pour le NRZ diffrentiel), on saperoit
quavec une probabilit trs leve, toutes les squences survivantes en i sont identiques jusqu
i 5L. On peut donc prendre les dcisions avec un retard de 5L, sans attendre la n du treillis.
Revenons maintenant au cas des modulations phase continue. Ces modulations sont caractri-
ses par un nombre ni dtats de phase, le nombre exact dtat dpendant la fois de lindice de
modulation et de la largeur (en nombre de symboles) de limpulsion de mise en forme. Les tran-
sitions entre les diffrents tats de phase sont gouvernes par un teillis de phase. On peut mon-
trer que la log-vraisemblance de lobservation r(t) conditionnellement une squence de symboles
s = [s
1
, s
2
, . . . s
K
], est proportionnelle
M
K
(s) =
_
(K+1)T

r(t) cos[2f
0
t +(t; s)]dt = M
K1
(s) +
_
(K+1)T
KT
r(t) cos[2f
0
t +(t; s) +
K
]dt,
o (t; s) dpend de la squence de symboles et de limpulsion quand
K
ne dpend que de la squence
de symboles prcdents, et o M
K1
(s) est la mtrique jusquen KT. Compte tenu de ce qui prcde,
on voit que lon peut appliquer lalgorithme de Viterbi an de reconstituer la squence des tats de
phase et par suite la squenc de symboles. Pour cel, il faut utiliser la mtrique prcdente, cest--dire
en n de compte calculer un produit scalaire avec une fonction des tats de phase.
Pour terminer cette section, on notera que lalgorithme de Viterbi permet dobtenir dexcellentes
performances, mais que son emploi est typiquement limit par le nombre dtats. En effet, si on a une
mmoire de longueur L avec une modulation binaire, on obtient 2
L
tats, ce qui devient prohibitif ds
que L est suprieur 9 ou 10.
3.8 Dtection de signaux de phase inconnue, ou
paramtres inconnus.
Les signaux reus sont non seulement bruits, mais il peuvent tre imparfaitement connus : la
phase, le rythme ou la frquence des signaux reus peuvent tre mal connus, en raison de la propa-
gation ou de la dsynchronisation de lmetteur et du rcepteur. Il sagit donc de dtecter la prsence
de signaux qui sont eux mme imparfaitement caractriss : on considrera par exemple le cas dune
dtection binaire
r (t) = s
0
(t, ) + b (t)
r (t) = s
1
(t, ) + b (t),
o le paramtre est inconnu.
Comme classiquement, on formule le rapport de vraisemblance
(r) = lim
N
p (r[ H
1
)
p (r[ H
0
)
,
o lon dnit les distributions p (r[ H
0
) et p (r[ H
1
) comme les distributions marginales
_

_
p (r[ H
0
) =
_

p (r[ H
0
, ) p ([ H
0
)d,
p (r[ H
1
) =
_

p (r[ H
1
, ) p ([ H
1
)d.
On dit quon intgre le paramtre de nuisance hors du problme. Le problme est alors rsolu,
si lon se donne des les distributions a priori p ([ H
0
) et p ([ H
1
), et si les distributions marginales
sont calculables.
Une autre possibilit souvent utilise est de construire un rapport de vraisemblance conditionnel :

(r) =
p (r[ H
1
, )
p (r[ H
0
, )
On retient alors dans un premier temps la valeur de comme largument du maximum du rapport
de vraisemblance :

= argmax

(r), puis il reste rsoudre un problme classique, avec =


connu. Le problme a alors t scind en deux tapes : dabord une tape destimation du paramtre,
puis une tape de dtection.
Rcepteurs pour un signal phase inconnue
Pour illustrer le problme de la dtection dun signal paramtres inconnus et fournir le rcepteur
correspondant un cas particulier important, considrons maintenant le problme de la dtection dun
signal sinusodal dont la phase est inconnue.
H
1
r (t) = cos (2f
0
t + (t) + ) + b (t)
H
0
r (t) = b (t)
Aprs dcomposition sur une bonne base, on peut crire le rapport de vraisemblance, puis faire tendre
N vers linni pour obtenir lexpression continue. Cette dmarche ayant dj t rpte plusieurs
reprises, on peut donner ici directement le rsultat. On a en outre introduit une loi a priori p

() sur
le paramtre , et on a exprim les lois marginales.
(r) =
_

() d exp
_
2
N
0
_
T
0
r (t) s
0
(t, ) dt
4
N
0
_
T
0
s
0
(t, )
2
dt
_
Le signal s
0
(t, ) = cos (2f
0
t + (t) + ) peut tre exprim comme
cos (wt + (t) + ) = cos (wt + (t)) cos sin (wt + ) sin
On peut alors dcomposer r (t) s
0
(t, ) sous la forme L
C
cos L
S
sin , avec
L
C
=
_
T
0
r (t) cos [wt + (t)]dt
L
S
=
_
T
0
r (t) sin [wt + (t)] dt
et le rapport de vraisemblance devient alors ( une constante prs) :

(r) =
_

() exp
_
2
N
0
(L
C
cos L
S
sin )
_
d.
Il nous reste maintenant spcier la distribution a priori. On peut prendre une famille de densits
indexe par un paramtre L
m
:
p

(, L
m
) =
exp (L
m
cos )
2I
0
(L
m
)
o I
0
est la fonction de Bessel de 1re espce. Pour cette famille paramtre, on a en particulier
L
m
= 0 p

() =
1
2
L
m
p

() = ()
Le rapport de vraisemblance devient alors

(r (t)) =
_

exp
__
L
m
+
2L
C
N
0
_
cos
2L
S
N
0
sin
_
1
2I
0
(Lm)
d
=
1
I
0
(Lm)
.I
0
_
_
_
L
m
+
2L
C
N
0
_
2
+
_
2Ls
N
0
_
2
_1
2
_
et
log

(r) = log I
0
_
_
_
_
L
m
+
2L
C
N
0
_
2
+ (L
s
)
2
_1
2
_
_
H
1
>
<
H
0
log +
2E
s
N
0
+ log I
0
(L
m
) .
En tenant compte du fait que
I
0
(x) 1 +
x
2
4
(x << 1) ,
cest--dire log (I
0
(x))
x
2
4
,
il vient
_
L
C
+
N
0
2
L
m
_
2
+ L
2
s
>
<
,
et on en dduit le rcepteur optimal : un schma de dmodulation non cohrente typique, qui consiste
dmoduler par deux signaux en quadrature, intgrer puis lever au carr an de faire disparatre la
dpendance en la phase inconnue : Dans ce dernier schma, on peut remplacer la partie dmodulation
Figure 3.12 Rcepteur optimal non cohrent dans le cas de la dtection dun signal dans du bruit.
et intgration (le calcul de corrlation) par un ltre adapt suivi dun chantillonnage au temps T pour
obtenir un rcepteur quivalent ltres adapts.
Ce type de rsultat stend des modulations plus dtats ; dans le cas dune modulation M-
FSK avec une incertitude sur la phase de rception, on trouverait ainsi un rcepteur constitu par M
voies o lon calcule les produits scalaires du signal reu avec les composantes en quadrature de la
frquence attendue, intgration et lvation au carr ; cest--dire simplement le rcepteur lmentaire
prcdent, rpliqu pour les M frquences potentielles. Enn, la dcision est prise en faveur de la voie
fournissant la plus grande valeur.
Lorsque L
m
= 0, le test se rduit
L
C
2
+ L
2
s
>
<
,
et lon doit calculer L
C
2
+ L
2
s
, ou, de manire quivalente,
_
L
C
2
+ L
2
s
. Ceci peut tre ralis en
employant un ltre passe-bande isolant le signal recherch suivi par un dtecteur denveloppe. En
effet, si lon prend h(t) = cos (2f
0
t + (t)), alors le signal de sortie vaut
(h r)(t) =
_
T
0
h(t )r() d =
_
T
0
cos (2f
0
(t ) + (t )) r() d
= L
C
cos (2f
0
t + (t ) ()) L
s
sin (2f
0
t + (t ) ()) .
Lenveloppe de la sortie du ltre est alors proportionnelle la racine carre du test. Il suft donc
dutiliser un dtecteur denveloppe aprs la dmodulation (un seuil zro suivi par un ltrage passe-
bas par exemple). Lenveloppe tant insensible la phase du signal reu, ce dispositif permet ainsi la
dtection. Si le signal mis comportait en outre une modulation damplitude a(t), cest--dire quil
serait de la forme a(t) cos (2f
0
t + (t)), alors on devrait utiliser un ltre passe-bande de rponse
impulsionnelle h(t) = b(t) cos (2f
0
t + (t)), cf [1, pages 341-343] et dans ce cas lenveloppe de
sortie est la racine du test
_
L
C
2
+ L
2
s
linstant T, si on choisit b(t) = a(T t) et (t) = (T t).
Ceci peut alors tre interprt comme la combinaison dune dmodulation dune part et un ltrage
adapt dautre part. Cette opration, suivie par la dtection denveloppe et chantillonnage linstant
T est parfois appele ltre adapt non cohrent.
Rcepteur pour un signal amplitude et phase inconnue
Pour conclure ce chapitre, nous nous intresserons au cas dun signal issu dun canal de Rayleigh.
En labsence de bruit dobservation, le signal recueilli a la forme
r(t) = a(t) cos (2f
0
t + (t)) ,
o lenveloppe a(t) varie continment et a une densit de probabilit de Rayleigh, et o la phase est
distribue uniformment entre 0 et 2. Lorsque lon a un fading lent, on peut considrer que a(t)
et (t) sont constants sur chaque dure symbole, et si on sintresse simplement un problme de
dtection, on a
H
1
r (t) = a cos (2f
0
t + ) + b (t) ,
H
0
r (t) = b (t) ,
o a est une variable alatoire de Rayleigh et une variable alatoire uniforme. On peut crire la
partie signal en fonction des composantes en quadrature :
a cos (2f
0
t + ) = a
1
cos (2f
0
t) + a
2
sin (2f
0
t) = a
1
s
1
(t) + a
2
s
2
(t),
o a
1
et a
2
sont deux variables alatoires gaussiennes indpendantes, centres et de mme variance
2
.
De plus, les deux composantes sont orthogonales. On obtient alors pour le rapport de vraisemblance
(r(t)) =
_ _
p
a
1
(A
1
)p
a
2
(A
2
) exp
_
2
N
0
_
T
0
r(t) (A
1
s
1
(t) + A
2
s
2
(t)) dt

1
N
0
_
T
0
2

i=1
2

j=1
A
i
A
j
s
i
(t)s
j
(t) dt
_
_
dA
1
dA
2
.
En dnissant alors
L
i
=
_
T
0
r(t)s
i
(t) dt,
et en utilisant lorthogonalit entre s
1
et s
2
, on obtient
L
2
1
_

2
a
1

2
a
1
+ N
0
/2
_
+ L
2
2
_

2
a
2

2
a
2
+ N
0
/2
_
>
<
.
En se souvenant enn que
2
a
1
=
2
a
2
=
2
, et en notant que L
1
et L
2
ne sont rien dautre que les
fonctions L
C
et L
s
introduites prcdemment, on obtient nalement
L
C
2
+ L
2
s
>
<

,
qui est le mme test que celui obtenu pour le cas dune phase alatoire, et lon adoptera donc les
mmes structures de rcepteur. Bien entendu, les performances seront dgrades par rapport au cas
ou seule la phase est inconnue, mais ltude de cette question sort du cadre de ce texte, et lon pourra
se reporter [1].
3.9 Conclusions
Dans ce chapitre, nous avons tch de prsenter des outils et une mthodologie pour comprendre
ou concevoir une rcepteur de communication numrique. Nous avons notamment donn la dmarche
qui permet dtablir une structure de rcepteur et les moyens de qualier celui-ci en calculant ses per-
formances. Ces points ont t dvelopps dans quelques cas particuliers. videmment, nous navons
pu aborder lensemble des shmas de modulation et des scnarios caractrisant une chane de trans-
mission ; mais nous pensons que notre prsentation constitue une bonne base pour une exploration
plus approfondie, dbutant par exemple par les ouvrages cits en bibliographie. En outre, il faut gar-
der lesprit que les rcepteurs prsents ici correspondent presque un cas idal, puisque en pratique
le problme de la rception est souvent compliqu par la prsence dinterfrence entre symboles, qui
ncessitera un dispositif dgalisation, et par des problmes de synchronisation entre lmetteur et le
rcepteur. Nous abordons maintenant ces derniers points dans les deux chapitres suivants.
Bibliographie
[1] Van Trees H. L. Detection, Estimation and Modulation Theory, New York, Wiley, 1968.
[2] Proakis J. G. Digital Communications, 4
e
dition, New York, Mc Graw-Hill, 2000.
[3] Haykin S. Communication Systems, 4
e
dition, New York, John Wiley and Sons, 2001.
31

Das könnte Ihnen auch gefallen