You are on page 1of 6

CODAGE /DECODAGE

I. Introduction
Le codage consiste à rendre les messages émis par la source compatibles avec le canal. La
conversion du message émis par une source discrète sans mémoire (SDSM) est appelée
codage source.

L’objectif du codage source est de modérer le débit d’information moyen du canal en


réduisant la redondance des informations émises par la source.

Exemples : code binaire, DCB, ASCII, ….

Codage de la
SDSM
SDSM source Suite binaire 01

[S]=[s1, s2, …., sN] [X]=[x1, x2, …., xM]

Un mot-code est un ensemble d’éléments binaires pris dans [X] et correspondant à un


symbole de la source [S].

II. Classification des codes


Soit la source [S] = [s1s2 s3 s4] et les codes :

Code 1 2 3 4 5 6

S1 00 00 0 0 0 1

S2 01 01 1 10 01 01

S3 00 10 00 110 011 001

S4 11 11 11 111 0111 0001

 Un code est de longueur fixe si tous les mots-code ont même longueur.

Il sera de longueur variable dans le cas contraire.

Les codes (1) et (2) sont de longueur fixe ; et les codes (3), (4), (5) et (6) de longueur variable.

1
 Un code est univoque si chaque mot-code est distinct de tous les autres.

Les codes (2) à (6) sont univoques.

 Un code est sans préfixe si aucun mot ne peut être formé à partir d’un autre

par addition des symboles (aucun mot n’est le préfixe d’un autre).

Les codes (2), (4) et (6) sont sans préfixe.

III. Code à décodage unique


C’est un code qui permet de restituer dans son intégralité et sans ambiguïté une séquence de
symboles d’entrée à partir de la séquence des codes binaires qui leurs sont associés.

Exemple : le code (3) n’est pas à décodage unique puisque 1001 peut correspondre à s2s1s1 s2
ou à s2s3s2.

Une condition suffisante pour qu’un code soit à décodage unique est qu’aucun de ses mots ne
soit le préfixe d’un autre.

Exemples :

 les codes (2), (4) et(6) sont à décodage unique.


 Soit
A codé 0 ; B codé 11 ; C codé100 et D codé 101

Formons le message BACDBAD  110 100 10 1110101

 Aucune ambiguïté à la lecture du code.

IV. Code instantané


La condition nécessaire et suffisante pour qu’un code soit instantané est qu’aucun mot- code
ne soit le préfixe d’un autre mot-code (condition du préfixe).

On dit qu’il est irréductible.

Code instantané  à décodage unique. La réciproque étant fausse.

Codes à décodage unique

Codes
instantanés

2
V. Construction des codes linéaires irréductibles
Les codes binaires instantanés peuvent être construits à l’aide de l’algorithme :

Soit [S] l’ensemble des messages de la source. On divise [S] en deux sous ensemble S0 et S1 :

s1,s2,….,sk , sk+1, sk+2,….,sN

S0 S1

S0 codé 0 et S1 codé 1.

On refait la même opération avec S0 et S1

 S0 divisé en S00 (codé 00) et S01 (codé 01) et,

S1 divisé en S10 (codé 10) et S11 (codé 11).

On continue cette opération jusqu’à ce que de chaque sous ensemble il n’en reste qu’un seul
élément sj auquel correspondra un mot-code.

111

1 0 110

1 101

1 0 0

100
1 011

0 1 0

0 010

1 001

0 000

Prenons comme exemple la représentation du code (4) ci-dessus :

S1

S2
S3

3
Autres codes :
Code BCD

Le code binaire est mieux adapté pour les circuits numériques, mais il est pénible de
traduire un nombre binaire en décimal surtout quand on a un grand nombre de bits.

 Le code BCD s’impose

Principe : chaque chiffre du nombre décimal est codé en un nombre binaire pur de quatre
bits.

Exemple :

729 10 0111 0010 1001  BCD

7 2 9

11710 0001 0001 0110

1 1 7

 Ce code devient trop couteux (bits supplémentaire  composants supplémentaires


donc couts suplémentaires)

Ce code est utilisé dans les calculatrices et exploité par de nombreux afficheurs (car
permet de traduire facilement le binaire en décimal).

Code ASCII

Adapté par la plupart des constructeurs des ordinateurs comme standard (communication
entre clavier et unité centrale ou entre unité centrale et écran).

ASCII standard

 Représentation des caractères sur 7 bits.


 permet de coder 27=128 caractères.

ASCII entendu

ASCII standard entendu à 8 bits.

Pour pouvoir coder plus de caractères.

Ce code attribue les valeurs de 0 à 255 aux différents symboles.

4
VI. Efficacité du codage
Longueur moyenne d’un mot-code :

Efficacité du codage  efficacité de la transmission pour les canaux sans bruit.

Augmenter l’efficacité revient à minimiser le cout.

On appelle longueur moyenne d’un mot code :

̅=

Les pi étant les probabilités d’apparition des symboles si.

Si ̅ représente le cout moyen par message, ou montre que : ̅ = .̅


Le cout moyen est égal à la longueur d’un mot-code.

L’efficacité de la transmission ne peut être définie que si on connait ̅


min.

Avant d’aller plus loin, rappelons ici la définition de l’entropie de la source :

( ) = −∑ .
Cette quantité, notion essentielle de la théorie de l’information, représente ou mesure la
certitude sur l’information émise par la source S.

L’information moyenne /lettre de l’alphabet de la source est définie par la quantité :

( )
̅ .

Par ailleurs la valeur maximale de l’entropie de l’alphabet code est donnée par la valeur
log , étant le nombre de mots-code.

La théorie de l’information de Shanon stipule que l’information moyenne /lettre de l’alphabet


de la source ne peut dépasser la valeur maximale de l’entropie de l’alphabet code, ie :

( )
≤ .
̅
Capacité du code : c’est la valeur maximale de l’entropie de l’alphabet du code :

= .
L’efficacité du code est définie par le rapport de la longueur moyenne minimale et la longueur
moyenne d’un mot-code

5
̅
min
= ≤ 1.
̅

Quand approche 1, on dit que le code est efficace.

Pour un mot-code binaire (logn=1) :

̅ = ( ).
D’où l’efficacité du code est :

( )
= .
̅

Enfin on définit la redondance du code par : = 1− .


Exemple :

Soit une source dont l’alphabet est : [S]=[s1 s2 s3 s4], et les probabilités :

[P]=[1/2, 1/4, 1/8, 1/8]


On considère l’alphabet du code formé de deux symboles :

[x]=[0, 1]
Supposons les codages suivants :

Code 1 S1  00

S0  01

S3  10

S4  11

Code 2 S1  0

S2  10

S3  110

S4  111

 Calculer l’entropie de la source H(S).


 Donner le graphe du code.
 Donner la longueur moyenne des mot-code.
 Déduire l’efficacité et la redondance du code.