Sie sind auf Seite 1von 32

I-La Logique Floue :

I.1-Introduction :
Depuis longtemps l'homme cherche à maîtriser les incertitudes et les imperfections inhérentes à
sa nature. La première réelle manifestation de la volonté de formaliser la prise en compte des
connaissances incertaines fut le développement de la théorie des probabilités à partir du XVII
siècle. Mais les probabilités ne peuvent maîtriser les incertitudes psychologiques et linguistiques.
On a donc assisté aux développements des théories de probabilité subjective (dans les années
50) puis de l'évidence (dans les années60).Puis la Logique Floue est apparue en 1965 à Berkeley
dans le laboratoire de Lotfi Zadeh avec la théorie des sous -ensembles flous puis en 1978 avec la
théorie des possibilités. Ces deux théories constituent aujourd'hui ce que l'on appelle Logique
Floue. La Logique Floue permet la formalisation des imprécisions dues à une connaissance
globale d'un système très complexe et l'expression du comportement d'un système par des mots.
Elle permet donc la standardisation de la description d'un système et du traitement de données
aussi bien numériques qu'exprimées symboliquement par des qualifications linguistiques.

I.2-Logique floue vs logique classique :


Dans la logique classique, les variables gérées sont Booléennes. C'est à dire qu'elles ne prennent
que deux valeurs 0 ou 1. La logique floue a pour but de raisonner à partir de connaissances
imparfaites qui opposent résistance à la logique classique. Pour cela la logique floue se propose
de remplacer les variables booléennes par des variables flous.

I.3.Théorie de la logique floue :


I.3.1.Les sous-ensembles flous :
La logique floue repose sur la théorie des ensembles flous, qui Sont une généralisation de la
théorie des ensembles classiques. Par abus de langage, suivant les us de la littérature, nous
utiliserons indifféremment les termes sous-ensembles flous et ensembles flous. Les ensembles
classiques sont également appelés ensembles nets, par opposition à flou, et de même la logique
classique est également appelée logique booléenne ou binaire.

Figure III.1 : Fonction d'appartenance caractérisant un ensemble classique (a) et d’un ensemble
floue (b).
I.3.2.Les opérations de base sur les sous-ensembles flous :
La théorie mathématique sur les sous-ensembles flous définit de nombreuses opérations sur ces
sous-ensembles et sur les fonctions d'appartenances qui rendent ces notions utilisables. Nous ne
présentons ici que les opérations de base de cette théorie. Si A et B sont deux sous-ensembles
flous et µ (A) et µ(B) leur fonction d'appartenance, on définit :

 Le complémentaire de A, par la fonction d'appartenance : µ(A)=1-µ (A)

Figure III.2 : Fonction d’appartenances.

 Le sous-ensemble A et B, par la fonction d'appartenance :


(A ∩B)=min (µ(A), µ(B))
Figure III.3: Intersection des fonctions D’appartenances

 Le sous-ensemble A ou B, A ⋃ B, par la fonction d'appartenance : (A⋃B)=max (µ(A), µ(B))

Figure III.4: Union des fonctions d’appartenances


Ces définitions sont celles qui sont les plus communément utilisées mais parfois, pour certains
cas, d'autres sont plus appropriées. Par exemple, l'intersection peut être définie par le produit
des fonctions d'appartenance et l'union par la moyenne arithmétique des fonctions
d'appartenance. Ces différentes techniques de calcul engendrent une énorme capacité
d'adaptation des raisonnements flous.

I.3.3.Les variables linguistiques :


Le concept des variables linguistiques joue un rôle important dans le domaine de la logique floue.
Une variable linguistique comme son nom le suggère, est une variable définie à base de mots ou
des phrases au lieu des nombres. En effet, la description d’une certaine situation, d’un
phénomène ou d’un procédé contient en général des expressions floues comme :″quelque,
beaucoup, souvent, chaud, froid, rapide, lent, grand, petit …etc.″. Ce genre d’expressions forme
ce qu’on appelle des variables linguistiques de la logique floue.
Figure III.5: Variable linguistique «par exemple la description de la qualité du service »

I.4.Les étapes de la logique floue :


I.4.1.Fuzzification :
A. définition des fonctions d’appartenance :
Un ensemble flou est défini par sa fonction d’appartenance qui correspond à la notion de
fonction caractéristique en logique classique, elle permet de mesurer le degré d’appartenance
d’un élément à l’ensemble flou. En toute généralité, une fonction d’appartenance d’un ensemble
flou est désignée par 𝜇𝐴 (𝑥). L’argument 𝑥 se rapporte à la variable caractérisée, alors que
l’indice 𝐴 indique l’ensemble concerné.
Les fonctions d’appartenance peuvent avoir différentes formes :

a)Fonction d’appartenance triangulaire (Figure III.6.a) :

b) Fonction d’appartenance trapézoïdale (Figure III.6.b) :


c) Fonction d’appartenance gaussienne (Figure III.6.c) :

La Figure (III.6) représente les formes de ces trois types de fonctions d’appartenance.

Figure III.6: Différentes formes de la fonction d’appartenance

B. variable linguistique :
Le concept de fonction d'appartenance vu précédemment nous permettra de définir des
systèmes flous en langage naturel, la fonction d'appartenance faisant le lien entre logique floue
et variable linguistique. Cela est déjà expliquer précédemment.

I.5.Les règles floues :


A. Inférence floue :
Les règles floues permettent de déduire des connaissances concernant l’état du système en fonction des
qualifications linguistiques fournies par l’étape de Fuzzification. Ces connaissances sont également des
qualifications linguistiques.

Habituellement, les règles floues sont déduites des expériences acquises par les opérateurs ou les experts.
Ces connaissances sont traduites en règles simples pouvant être utilisées dans un processus d’inférence
floue. Par exemple, si un expert exprime la règle «si la température de l’eau est chaude, il faut ajouter de
l’eau froide», le système utilisera une règle du genre «si p alors q ».

B. Traitement numérique de l’inférence :


Lors du réglage par logique floue, on a fourni une valeur de commande pour un ensemble de variables
physiques d’entrée .Par exemple pour la règle :

Si l’on considère que est de degré d’appartenance de et est celui de


et en combinant ces deux valeurs, on obtient la valeur à affecter à l’ensemble flou de sortie

Il existe plusieurs possibilités pour réaliser les opérateurs qui combinent les valeurs d’entrée et les valeurs
de sortie, C’est ce qu’on appelle la méthode d’inférence .les méthodes les plus utilisées sont :

Méthode d’inférence MAX-MIN.


Méthode d’inférence MAX-PROD.
Méthode d’inférence SOMME-PROD.
La méthode qu’on va utiliser est la méthode d’inférence MAX-MIN.

Méthode d'inférence Max-Min

Cette méthode réalise l'opérateur "ET" par la fonction "Min", la conclusion "ALORS" de chaque règle par la
fonction "Min" et la liaison entre toutes les règles (opérateur "OU») par la fonction Max.

La dénomination de cette méthode, dite Max-Min ou "implication de Mamdani", est due à la façon de
réaliser les opérateurs ALORS et OU de l'inférence.

Figure III.7: Exemple d'inférence Max-Min

I.6.Défuzzification :
Cette étape consiste à réaliser l’opération inverse de la fuzzification, c'est-à-dire, obtenir une
valeur physique de la sortie à partir de la surface obtenue. Plusieurs méthodes de défuzzification
existent. Comme pour tous les opérateurs flous, le concepteur du système ou doit choisir parmi
plusieurs définitions possibles de défuzzification.
Les plus utilisées sont :

 Méthode du maximum.
 Méthode de la moyenne des maximums.
 Méthode du centre de gravité.
La méthode du centre de gravité est la plus utilisée. Cette méthode consiste à trouver le centre
de gravité de la surface obtenue. L’abscisse du centre de gravité de la sortie peut se déterminer à
l’aide de la relation générale:

L’intégrale au dénominateur donne la surface, tandis que l’intégrale au numérateur correspond


au moment de la surface.

Figure III.8: Défuzzification par le centre de gravité.

II-Fondement des Réseaux de Neurones

II.1-Introduction :
Les réseaux de neurones artificiels constituent l'une des approches d’intelligence artificielle dont
le développement se fait à travers les méthodes par lesquelles l'homme essaye toujours d’imiter
la nature et de reproduire des modes de raisonnement et de comportement qui lui sont propre.
Nous présentons donc dans un état de l'art de ces réseaux de neurones. D'abord, nous
rappellerons la définition et les propriétés des réseaux de neurones, avant de décrire les
architectures neuronales les plus utilisées, à savoir les modèles statiques et dynamiques. Nous
poursuivrons en exposant les différents types d'apprentissage, ainsi que les domaines
d’applications.
II.2-Neurone et le réseau de neurones :
La figure I.1 montre un schéma comportant la structure générale d'un neurone artificiel.

Figure I.1 : Neurone artificiel.

Un neurone artificiel est considéré comme un élément élémentaire de traitement de


l’information, Il reçoit les entrées et produit un résultat à la sortie.

x1, x2, ..., xn ; sont les entrées externes. y est la sortie. w1, w2, ..., wn sont les poids associés à
chaque connexion. X est le vecteur d'entrée, W' est le vecteur poids, θ est appelé le biais.
La fonction φ est appelée fonction d'activation, c'est une fonction non linéaire. Différentes
fonctions d'activation peuvent être utilisées, parmi lesquelles on peut citer : fonction signe,
sigmoïde, tangente hyperbolique, Gaussienne.et le choix d'un type de fonction dépend de
l'application.
Les réseaux de neurones artificiels sont des combinaisons de fonctions élémentaires appelées
neurones formels, ou simplement neurones associés en couches et fonctionnant en parallèle.
Chaque processeur élémentaire calcule une sortie unique sur la base des informations qu'il
reçoit. Toute structure hiérarchique de réseaux est évidemment un réseau.

II .3-Propriétés des réseaux de neurones :


Les réseaux de neurones artificiels possèdent une propriété fondamentale qui justifient l'intérêt
croissant qui leur est accordé et que sont capable d’intervenir dans des domaines très divers, et
qui les distingue des techniques classiques de traitement des données.

- Les réseaux de neurones sont des approximateurs universels : Cette propriété peut
être énoncée comme suit: Toute fonction bornée suffisamment régulière peut être approchée
uniformément, avec bonne précision, dans un domaine fini de l'espace de ses variables, par un
réseau de neurones qui comporte une couche de neurones cachée en nombre fini, possédant
tous la même fonction d'activation et un neurone de sortie linéaire .

Parcimonie : Lors de la modélisation d’un processus à partir de ses données, on cherche


toujours à obtenir les résultats les plus satisfaisants possibles avec un nombre minimum de
paramètres. On dit que l'on cherche l'approximation la plus parcimonieuse. Pour obtenir un
modèle non linéaire de précision donnée, un RN a besoin de moins de paramètres ajustables que
les méthodes de régression classiques (par exemple la régression polynomiale). Or le nombre de
données nécessaires pour ajuster le modèle est directement lié au nombre de ses paramètres.

II .4-Architecture de réseaux de neurones :


Selon la topologie de connexion des neurones, on peut les classer en deux grandes catégories:
réseaux non bouclés (statique ou feed-forward) et réseaux bouclés (dynamique, feed -back ou
récurrent).

II.4.1- Réseaux statiques "feed-forward " :


Un réseau de neurones non bouclé (appelé aussi statique) est représenté comme un graphe dont
les noeuds sont les neurones. L'information circule des entrées vers les sorties sans retour en
arrière (Figure I.2). Ce type de réseaux est utilisé pour effectuer des taches d'approximation de
fonction non linéaire, de la classification ou de la modélisation de processus statiques non
linéaires.

Figure: I.2 : Exemple d'un réseau de neurones non bouclé.

II.4.1.1- Réseaux multicouches (ou Perceptron Multi Couche PMC ) :


C'est le réseau de neurones statique le plus utilisé. Les neurones sont arrangés par couche. Les
neurones de la première couche reçoivent le vecteur d'entrée, ils calculent leurs sorties qui sont
transmises aux neurones de la seconde couche qui calculent eux même leurs sorties et ainsi de
suite de couche en couche jusqu'à celle de sortie. Chaque neurone dans la couche cachée est
connecté à tous les neurones de la couche précédente et de la couche suivante, et il n'y a pas de
connexions entre les cellules d'une même couche.
Il peut résoudre des problèmes non linéairement séparables et il suit un apprentissage supervisé
avec la règle de correction de l'erreur.

Figure I.3 : Perceptron Multi Couche PMC.

La sortie du réseau a pour expression :

Avec :
f et g  : les fonctions de transfert, des couches cachées et de sorties respectivement.

Y  : sortie du réseau.

X  : vecteur des entrées.

W : matrice des poids de connexions liant la couche d’entrée à la couche cachée.

W0 : vecteur des biais des cellules de la couche cachée.

Z : matrice des poids des connexions liant la couche cachée à la couche de sortie.

Z0 : vecteur des biais des cellules de la couche de sortie.

II.4.2- Réseau récurrents "Feed-back" :


Un réseau bouclé (récurrent), régi par une ou plusieurs équations différentielles, résulte de la
composition des fonctions réalisées par chacun des neurones et des retards associés à chacune
des connexions. Ces réseaux sont utilisés pour effectuer des taches de modélisation des systèmes
dynamiques, de commande de processus ou de filtrage.
Le comportement dynamique d'un réseau de neurones bouclé peut être décrit par une
représentation d'état paramétrée par les coefficients C, représentée sur la figure.
Avec :
I(k) : est le vecteur des entrées externes.
S(k) : Le vecteur des variables d'état.
Y(k) : le vecteur des sorties.
ψ (., .; C) et ξ (., .; C) : représentent les fonctions réalisées par le réseau de neurones statiques
de la forme canonique interconnectés avec les coefficients C.
Nerand a démontré dans ses articles que : tout réseau de neurones bouclé aussi complexe soit-il
peut être mis sous une forme canonique comportant un réseau de neurones non bouclé dont
certaines sorties (les variables d'état) sont ramenées aux entrées par des bouclages de retard
unité .

Figure I.4 : Forme canonique d'un réseau de neurones bouclé

II.5- Algorithmes d’apprentissage :


La fonction de coût peut être minimisée avec tout algorithme reposant sur le calcul du gradient,
quasi-newtonien, ou autre. Le gradient est calculé avec l'algorithme de rétropropagation. On
procède donc de la même manière que pour un réseau non bouclé, à ceci près que les
paramètres des différentes copies doivent être identiques (poids partagés). L’apprentissage d’un
réseau de neurones récurrent s’effectue alors de la façon suivante :
1-initialisation des paramètres du réseau
2-propagation à travers le réseau déplié temporellement
3-calcul du gradient de la fonction de coût (en tenant compte des poids partagés)
4-mise à jour des paramètres du réseau, puis retour à l’étape 2 pour une nouvelle itération.

II.6-Domaines d'application :
Les grands domaines d'application des réseaux de neurones découlent naturellement des
propriétés énoncées précédemment. Nous présentons dans les sections suivantes quelques
exemples pour montrer le vaste étendu de leur applicabilité.

II.6.1- La régression non linéaire, ou modélisation de données statiques :


Une immense variété de phénomènes statiques peut être caractérisée par une relation
déterministe entre des causes et des effets ; les réseaux de neurones sont de bons candidats
pour modéliser de telles relations à partir d'observations expérimentales, sous réserve que celles-
ci soient suffisamment nombreuses et représentatives.

II.6.2- La modélisation de processus dynamiques non linéaires :


Modéliser un processus consiste à déterminer un ensemble d'équations mathématiques qui
décrivent le comportement dynamique du processus, c'est-à-dire l'évolution de ses sorties en
fonction de l'évolution de ses entrées. Ce problème peut être avantageusement résolu par un
réseau de neurones, si le phénomène que l'on désire modéliser est non linéaire.

II.6.3- La commande de processus :


La commande d’un processus consiste à concevoir un système comprenant un organe qui calcule
la commande à appliquer au processus pour assurer un comportement dynamique spécifié par
des cahiers de charges: régulation au voisinage d'un point de fonctionnement, poursuite d’une
trajectoire de consigne, commande optimale…. L'ensemble commande /rocessus peut donc être
considéré comme un système qui réalise une fonction (non linéaire) qu'un réseau de neurone
peut approcher.
II.6.4- La classification :
Une autre grande catégorie de problème industriel consiste à attribuer de façon automatique un
objet à une classe, parmi d’autres classes possibles. Et en raison de leur propriété
d'approximateurs universels, les réseaux de neurones sont capables d'estimer de manière précise
la probabilité d'appartenance d'un objet inconnu à une classe parmi plusieurs possibles.
Citons également les applications en diagnostic de panne, contrôle de qualité, analyse du signal,
élimination du bruit, reconnaissance de formes (bruits, images, paroles etc.)Dans le cadre de
notre travail, nous nous somme intéressés à un champ d'application particulier: le diagnostic de
pannes.

III - LA COMBINAISON DES RESEAUX NEURONAUX ET DE LA LOGIQUE FLOUE


:
III.1-Introduction :
Les réseaux de neurones et la logique floue sont deux concepts totalement inspirés du
raisonnement humain. Bien que ces deux modèles numériques soient différents du point de vue
structure, ils possèdent de nombreux points communs. En effet, l’utilisation de ces deux
techniques ne nécessite pas de modèle mathématique bien défini car la résolution se base sur
les valeurs numériques des entrées et des sorties pour les réseaux neuronaux et sur la logique du
système dans le cas de la logique floue. De plus, les résultats sont généralement incertains. En
revanche ces deux techniques peuvent accomplir des tâches complémentaires. La logique floue
fournit des connaissances avec un certain degré d’incertitude (ou d’exactitude) et les réseaux de
neurones peuvent modéliser et reproduire l’apprentissage humain, d’où l’idée de combiner ces
deux techniques pour créer un système artificiel intelligent qui résout les problèmes de manière
proche de celle de l’être humain.
Les méthodes des réseaux de neurones peuvent être fusionnées à l’intérieur des systèmes flous.
Ceci permet de les adapter à de nouvelles situations et de nouvelles règles, lors du
fonctionnement en temps réel. De même, les techniques de la logique floue peuvent être
introduites dans les réseaux neuronaux afin de perfectionner et d’améliorer l’expressivité et la
flexibilité du réseau. Ces combinaisons sont appelées les systèmes hybrides : neuro-flous (fuzzy-
neuro systems) . De telles combinaisons permettent non seulement de s’approcher davantage de
la structure de la pensée humaine mais aussi d’obtenir un champ d’utilisation plus large et
d’utiliser les avantages de chaque technique, à savoir la simplicité des connaissances floues d’une
part et l’habilité d’apprentissage des réseaux de neurones de l’autre. L'utilisation des réseaux
hybrides permet, en plus, de diminuer le temps d'apprentissage par la possibilité d'introduire de
la connaissance à priori dans le système d’aide au diagnostic. Le choix de la façon d’intégration de
ces deux techniques est crucial. Différentes architectures sont ainsi proposées.

III.2-LES DIFFERENTES STRUCTURES DES SYSTEMES HYBRIDES :


La manière de combiner les réseaux neuronaux avec la logique floue dépend essentiellement du
domaine d’application. Globalement, deux grandes catégories prédominent : les réseaux de
neurones flous où les opérateurs de la logique floue sont introduits dans le neurone lui-même et
les systèmes neuro-flous où soit des réseaux neuronaux interviennent localement dans un
système flou et inversement (systèmes séparés), soit que l’architecture des réseaux de neurones
est inspirée du raisonnement flou (systèmes fusionnés).

III.2.1-Les réseaux de neurones flous :


Ces réseaux sont des réseaux neuronaux dont l’élément de base est un opérateur flou qui est
souvent appelé le neurone flou (fuzzy-neuron) .

III.2.1.1-Le neurone flou :


Un neurone flou (NF) est un système mathématique flou qui possède la même architecture que son
homologue le neurone formel. La différence est que quelques-uns uns ou tous ses paramètres sont décrits
par la logique floue. Selon la fonction d’entrée (h) du neurone ou sa fonction de sortie (g), plusieurs
variétés existent. Chacune possède ses propres particularités. Suivant la nature des entrées et leurs poids,
les neurones flous peuvent être classés en :

- entrées non floues (booléennes) et poids flous ;


- entrées floues et poids non flous ;
- entrées floues et poids flous.

L’étape la plus importante dans la modélisation d’un neurone flou est la fuzzification des
synapses (dendrites) d’entrée et la définition des fonctions d’appartenance de chacun des sous-
ensembles de l’espace de travail. Dans une fuzzification neuronale ‘Neuronal fuzzification’,
chaque neurone peut être vu comme la représentation d’une valeur linguistique. Sa sortie peut
être associée à une fonction d’appartenance. En d’autres termes, la sortie exprime le degré
d’appartenance de l’entrée à une certaine catégorie linguistique. La sortie du neurone possède
une valeur comprise entre 0 et 1.
Le comportement du neurone flou est déterminé par les opérateurs d’agrégation choisis, et par
la fonction d’entrée utilisée.

III.2.1.1.1-Le neurone flou de type ‘max.’ (Max fuzzy neuron) :


Le neurone flou est de type ‘max’ lorsque sa fonction d’agrégation floue d’entrée (h) ‘aggregation
function’ prend le maximum des valeurs d’entrées pondérées. C’est une implémentation de la
fonction logique OU. Sa fonction d’entrée est donnée par la relation : h(x 1…xn) = max (xiwi) où xi
est une entrée et wi son poids.
Ce neurone est également appelé(le neurone flou max-min) lorsque, la fonction minimum
remplace la multiplication de l’entrée et de son poids. Son entrée totale ‘E’ est donnée par :
E = max (min (w i, x i)) pour i = 1 … n (n étant le nombre d’entrées).

III.2.1.1.2-Le neurone flou de type ‘min’ (Min fuzzy neuron) :


Le neurone flou est de type ‘min’ lorsque sa fonction d’entrée (h) prend la valeur minimale des
entrées pondérées. C’est une implémentation de la fonction logique ET. Elle est décrite par
l’équation : h(x1…xn) = min (xiWi).
Ce neurone est également appelé le neurone flou min-max lorsque, la fonction maximum
remplace la multiplication de l’entrée par son poids. Son entrée totale ‘E’ est donnée par : E =
max (min (w i, x i)) pour i = 1 … n (n étant le nombre d’entrées).

III.2.1.1.3-Le neurone flou de type produit-somme (product-sum fuzzy neuron) :


La fonction d’entrée (h) de ce neurone flou est la somme algébrique des produits arithmétiques
des entrées et de leurs poids respectifs. La valeur de l’entrée totale du neurone est alors donnée
par la relation de récurrence suivante :

III.2.1.1.4-Le neurone flou de Kwan et Cai :


Les entrées sont introduites avec leur poids. Le neurone possède plusieurs sorties (y i) dont les
valeurs varient entre 0 et 1. Elle représente le degré d’appartenance du vecteur d’entrée à
chaque sous-ensemble flou. Les valeurs d’entrées sont une représentation des variables
linguistiques alors que les sorties expriment le degré d’appartenance à des descriptions telles que
grand, petit, moyen. Les sorties sont ensuite transférées vers d’autres neurones (Fig.26).
Fig.26 : Architecture du neurone flou de Kwan et Cai.

L’expression mathématique du neurone flou est donnée par la relation :

avec:
h : est un opérateur flou. Il remplace la somme dans un neurone formel.
f: est une fonction d’activation.
θ: est le seuil d’activation.

gj : (j = 1 … m) sont les m fonctions de sorties

III.2.1.1.5-Le neurone flou compétitif :


Dans ce neurone le seuil d’activation de la fonction de sortie (g) est variable. La sortie de ce
neurone est unique, elle est donnée par la relation :

avec :
 = f (c1, c2 … ck), t est la fonction de seuillage et les ci sont des variables compétitives du
neurone flou.
g : est la fonction de sortie du neurone.
A = f (h (xi wij)), A est la valeur de sortie de la fonction d’activation f et h est une fonction
d’agrégation floue d’entrée.

III.2.1.1.6-Le neurone flou de Eiji Uchinot et Takeshi Yamakawat :


Ce modèle a été proposé en 1992. Les poids des entrées sont déterminés à partir des fonctions
d’inférences floues (Fig.27 et 28) :

Fig.27 : Architecture du neurone flou de E.Uchinot et T.Yamakawat.

Fig.28 : Fonction d’activation d’une entrée synaptique.

La sortie du neurone est obtenue par la somme des différentes fonctions de synapses :
L’adaptation des poids subit elle aussi l’inférence floue : si xi est A ij alors le poids est Wij où Aij est
le sous-ensemble flou dont la fonction d’appartenance est ij(xi) et Wij est le poids attribué à
l’entrée.

III.2.1.2-La connexion des neurones flous :


Les neurones flous sont organisés en réseaux qui accomplissent des tâches. Plusieurs
architectures ont été proposées dans la littérature. Parmi ces architectures, il y a :

III.2.1.2.1-La structure de Pedrycz :


C’est un réseau de neurones flous de trois couches. Le type de neurones flous change d’une
couche à l’autre. Deux possibilités sont envisageables. Soit la couche cachée est constituée de
neurones de type ‘max’ et la couche de sortie est formée à partir d’un seul neurone flou de type
‘min’ (Fig.29) ou bien la couche cachée contient des neurones flous de type ‘max’ et le neurone
flou de la couche de sortie est de type ‘min’. (Fig.30)

Fig.29 : Réseaux de Pedrycz de type max-min.

Fig. 30 : Réseaux de Pedrycz de type min-max.


III.2.1.2.2-L’apprentissage et l’adaptation des réseaux de Pedrycz :
L’apprentissage des neurones flous implique le changement des relations floues entre les
synapses d’entrées et la sortie en agissant sur le poids des entrées. L’adaptation suit en général,
la méthode de descente de gradient (Fig.31).

Fig.31 : Schéma d’apprentissage et d’adaptation d’un réseau Pedrycz.

Théoriquement, les neurones flous peuvent être introduits dans n’importe quelle structure de
réseaux neuronaux (les réseaux multicouches à apprentissage supervisé, les réseaux bayésiens,
les réseaux compétitifs à apprentissage non supervisé, la carte auto-organisatrice de Kohonen …).
D’où les structures de Kwan-Cai, les réseaux ART flous (Fuzzy ART), et les cartes floues (Fuzzy
ARTMap)

III.2.2-Les systèmes neuro-flous :


L’apport des méthodes neuronales dans des systèmes flous, a pour but d’extraire ou d’identifier
les règles floues et les fonctions d’appartenances. Cette introduction permet en plus d’adapter
les systèmes flous aux changements physiques des systèmes et de leur environnement. La
stratégie d’appui neuronal consiste à identifier certains paramètres des systèmes flous et à
utiliser les réseaux neuronaux pour les générer et les ajuster.
L’introduction de la logique floue dans les réseaux neuronaux permet de résoudre les problèmes
liés à la taille de la base de données, à l’initialisation des poids et à leur adaptation.
Deux grandes approches de la combinaison neuro-floue sont proposées : les systèmes séparés et
les systèmes fusionnés.

III.2.2.1-Les systèmes séparés :


III.2.2.1.1-Les modèles coopératifs (cooperative models) : Dans les systèmes
coopératifs, l’un des deux systèmes (flou ou neuronal) intervient une seule fois pour effectuer
une tache spécifique. Les résultats obtenus sont injectés et utilisés par le second système.
Réseaux de neurones pour la détermination des fonctions d’appartenance :
La détermination des fonctions d’appartenance des systèmes flous est d’une importance
primordiale pour leur conception. La démarche de la fuzzification est souvent subjective et
dépend en grande partie de l’expérience requise. Donc cette fonction peut être vue comme étant
une récolte de données et de classification de problèmes. De là, les RNA peuvent être utilisés
pour générer les fonctions d’appartenance des sous-ensembles flous. Une fois déterminés, les
résultats sont transférés au système flou pour une éventuelle résolution du problème (Fig.32).

Fig.32 : Schéma des modèles coopératifs:


L’algorithme proposé par ADELI et HUNG et qui porte leur nom reste le plus connu chez
l’ensemble des chercheurs du domaine.
Cet algorithme comporte deux étapes. La première est celle de la classification. Un réseau de
neurone est utilisé pour classer les données en différentes catégories. Les réseaux utilisés sont les
réseaux non supervisés (généralement une carte auto-organisatrice de KOHONEN de topologie
plane). Le nombre de neurones d’entrée est égal au nombre d’exemples d’entrée dans chaque
phase d’apprentissage alors que le nombre de neurones de sortie est égal au nombre des
catégories déterminées.
La deuxième étape est l’étape de la fuzzification. Les fonctions d’appartenance sont évaluées
pour chaque exemple d’entraînement à partir des valeurs d’entrées classées sous différentes
catégories.
Le principe de l’algorithme :
Soit à identifier un système de ‘M’entrées et de ‘N’ sous-ensembles de sortie. L’algorithme
commence par un réseau (noté RN (M.1)) de ‘M’entrées et d’une seule sortie. A la fin de
l’apprentissage les ‘N’ sorties doivent être déterminées. C'est-à-dire le réseau s’écrit RN (M.N). Le
premier exemple d’apprentissage appartient à la première catégorie. Ensuite, le second exemple
d’apprentissage est soumis au test suivant :
Si la sortie est classée dans la première catégorie, alors le neurone qui représente cette catégorie
est actif ;
Sinon, cette sortie est classée comme étant une nouvelle catégorie et un nouveau neurone sera
ajouté à la couche de sortie.
Cette procédure est reproduite pour tous les exemples de la base de données.

III.2.2.1.2-Les modèles compétitifs (competitive models) :


Dans les systèmes compétitifs, l’un des deux systèmes (flou ou neuronal) intervient
continuellement pour effectuer une tache spécifique. Les résultats obtenus sont injectés et
utilisés par le second système.
Réseaux de neurones pour la détermination des règles floues :
Il est extrêmement difficile de formuler les règles floues "si alors" ou de les extraire des systèmes
physiques lorsque les variables d'entrée sont soit supérieures à trois ou bien indirectement
mesurées. La difficulté est aussi rencontrée lorsque leur environnement change de manière
permanente. Les modèles compétitifs présentent une bonne solution à ce genre de problèmes.
Dans ce type de structures, les RNA assistent et aident continuellement les systèmes flous pour
déterminer les fonctions d'appartenance et les règles floues (Fig.33).

Fig.33 : Schéma des modèles compétitifs.


L’une des méthodes proposées pour introduire et ajuster ces règles est la méthode de Hayashi,
Nomura et Wakami. Elle a été proposée lors de la conférence internationale IFSA’91 qui s’est
déroulée à Bruxelles. Cette méthode utilise exclusivement une fonction d’appartenance
triangulaire et se base sur l’apprentissage supervisé en utilisant la méthode de la descente du
gradient.

III.2.2.2-Les structures fusionnées (fused systems) :


Dans ces modèles, les opérations concernant le raisonnement flou sont réalisées à partir des
architectures neuronales adaptées. Ces architectures sont les systèmes neuro-flous les plus
utilisés par l'ensemble des chercheurs. Un système neuro-flou fusionné est un réseau de
neurones topographiquement (ou topologiquement) équivalent à un système flou.
Il existe un grand nombre de structures. Chacune possède des caractéristiques bien déterminées
et est orientée vers un domaine d'application spécifique. Par exemple, l'architecture Falcon,
proposée en 1991 par C.T Lin et C.S.G Lee, est utilisée pour le contrôle, l’architecture ANFIS,
proposée en 1993 par J.S.R Jang, est spécifique à l’approximation des fonctions et l’architecture
NEFClass est dédiée à la classification.
Les systèmes neuro-flous de classifications (NEuro Fuzzy CLASScification) NEFClass :
Les systèmes NEFClass sont souvent appelés les réseaux perceptrons flous de trois couches (three
layers fuzzy perceptron networks). Les neurones de la couche d’entrées représentent les
caractéristiques des entrées, ceux de la couche cachée représentent les règles floues alors que
les neurones de la couche de sortie donnent les différentes classes. Dans un système NEFClass la
connexion entre la couche d’entrée et la couche cachée se fait par le biais des poids flous alors
que la couche cachée et la couche de sortie sont reliées par des poids booléens (Fig.34).

Fig.34 : Architecture d’un système NEFClass.


Ce modèle a surtout été utilisé par des chercheurs allemands pour le diagnostic et le suivi des
différentes structures industrielles comme les turbines des centrales électriques.

IV -NOTIONS GENERALES SUR LA TRANSFORMEE EN ONDELETTE :


IV.1-Introduction :
La transformée en ondelette (TO) est une méthode récente de traitement des signaux. Cette
technique à une bonne propriété de localisation en temps et en fréquence. Nous présentons
quelques notions et définitions de base sur la transformée de Fourrier puis la transformée en
ondelette

IV.2-Historique :
Le point de départ de la théorie des ondelettes est marqué par les travaux de Jean Morlet vers
1983. En effet, il a inventé les fonctions dites d’ondelettes pour traiter les signaux sismiques dans
le cadre de son travail de géophysicien. Dès lors, les travaux de recherche se sont multipliés pour
élaborer la théorie des ondelettes. On peut citer Alex Grosmann et Yves Meyer pour leurs
contributions capitales aux fondements mathématiques des ondelettes. Une excellente
introduction au sujet des ondelettes est présentée par Hubbard (1995).
La meilleure façon d’introduire les ondelettes est de passer par l’analyse de Fourier. En effet, la
transformée de Fourier est une décomposition d’un signal dans une base sinusoïdale. Chaque
sinusoïde correspond à une fréquence donnée et pondérée par des coefficients, dits coefficients
de Fourier. Par analogie, la transformée en ondelettes est une décomposition dans les bases
d’ondelettes Daubechies (1992) ; Cohen (1992); Meyer (1993).

Aujourd’hui, les ondelettes sont utilisées dans divers domaines d’application : traitement de
parole et d’image, analyse biomédical, traitement des signaux vibratoires et autres.

IV.3-Transformée de Fourier :
Au 19ème siècle (1822), le mathématicien français J. Fourier, a prouvé que n'importe quelle
fonction périodique peut être exprimée comme une somme infinie de fonctions exponentielles
complexes périodiques.
La transformation de Fourier TF(f) associée à un signal S(t) s’écrit comme suit :

La transformée de Fourier inverse est donnée par :

F : est la fréquence du terme sinusoïdal.


S(t) : Le signal représentatif dans le domaine (amplitude-temps).
X(f) : Le signal représentatif dans le domaine (amplitude-fréquence).
Malgré que la transformée de Fourier reste la plus utilisée dans le traitement de différents types
de signaux stationnaires mais a plusieurs inconvénients :
Elle permet de connaître les différentes fréquences existantes dans un signal, mais ne permet pas
de savoir à quels instants ces fréquences ont été émises.
-Elle ne permet pas l'étude de signaux dont la fréquence varie dans le temps, (signaux non
stationnaires).
-Elle donne une information globale et non locale.
Si le signal contient N points, sa TF nécessitera un nombre d’opérations égal à N*N.
Pour localiser dans le temps des fréquences d’un signal s(t), nous utilisons la « Transformée de
Fourier Fenêtrée ». Elle permet de donner une représentation « Temps – Fréquence » du signal.

IV.3.1-Transformée de Fourrier Fenêtrée :


En 1940, D. Gabor a présenté la première forme de représentation « Temps – Fréquence » appelée
Transformée de Fourrier Fenêtrée (TFF). Sa technique consiste à découper le signal en différentes plages
de longueur fixe.

Chaque plage est étudiée séparément des autres par l’analyse traditionnelle de Fourier, juxtaposant les
résultats sous la forme d’une représentation « temps – fréquence » ou « spectrogramme ». C’est un outil
de base pour l’analyse des signaux non-stationnaires.

La TFF consiste en la décomposition du signal S(t) suivant une famille de fonction qui dérivent toutes
d’une même « fonction fenêtre » g(t) par :

Translation en temps (paramètre b)

Modulation en fréquence (paramètre a)

La fonction g est multipliée par une fonction sinusoïdale de fréquence a

Où le terme b localise une fenêtre d’analyse. Cette transformation s’écrit :

C (a, b) est la transformée de Fourrier fenêtrée du signal s (t) sur une fenêtre de largeur b, selon
une fréquence a.
Cette transformation a quelque inconvénient majeur:
On ne peut pas savoir quelle fréquence existe à un instant donné.
Une fois que la fonction g est choisie, la résolution en temps et en fréquence, donnée par les
variables a et b, est fixe.
Si le signal est composé de phénomènes dont les échelles de temps sont différentes, elle ne
permet pas de les analyser simultanément avec une bonne résolution en temps et en fréquence.
Donc la taille fixe de la fenêtre est un gros inconvénient. L’outil idéal serait une fenêtre qui
s’adapte aux variations de fréquence dans le signal à analyser. Cet outil existe, il s’agit de
l’analyse par ondelettes.

IV.4- Théorie des ondelettes :


IV.4.1-Définition d’une Ondelette :
Une ondelette est une fonction élémentaire, à valeurs réelles ou complexes, très concentrée à la
fois en temps et en fréquence et satisfait les conditions suivantes :
Pour ε > 0

Où est la transformée de Fourier de Ψ.


L’ondelette est considérée comme une forme d’onde avec une durée effective limitée et une
valeur moyenne nulle. Pour décomposer un signal S(t) sur des fonctions d'ondelettes, il faut
commencer avec une seule fonction bien localisée et bien oscillante Ψ(t) appelée ondelette
mère.

La mère des ondelettes va engendrer les autres ondelettes de la famille par dilatation
et par translation dans le temps.

Avec a,b ∈ R, a≠ 0.

-L'ondelette mère Ψ(t) permet de déduire toutes les fonctions de la famille d'ondelettes.
-le paramètre (b) positionne l'ondelette sur l'axe du temps.
-le paramètre (a) contrôle la fréquence de l'ondelette (contraction : haute fréquence, dilatation:
basse fréquence).

 Si ≪ 1, l'ondelette devient très concentrée de l'ondelette mère Ѱ(𝑡𝑡) et le


contenu fréquentiel tournera vers les hautes fréquences du plan d'analyse.
 Si ≫ 1, l'ondelette est très large et le contenu fréquentiel se déplacera vers
les basses fréquences du plan d'analyse.

 Si on fait varier le paramètre de dilatation (a), l'ondelette garde le même nombre


d'oscillation.
IV.4.2-Transformée en ondelette :
Le développement des théories de traitement des signaux sous-jacentes à la transformée en
ondelette a débuté au milieu du siècle dernier avec les recherches de Gabor; toutefois, le concept
d'ondelette ne fut introduit véritablement que durant les années 1980, par les travaux
notamment de Morlet, Meyer, Daubechies et Mallat. L'appropriation des résultats des travaux de
ces mathématiciens par les ingénieurs et chercheurs en quête de méthodes de traitement de
signal toujours plus efficaces a entraîné l’éclosion ou l'amélioration de nombreuses applications
dont plusieurs sont destinées à l'analyse des signaux vibratoires.

Fig.1.1 : Représentation temporelle vers ondelettes.


La transformation en ondelettes permet d’appliquer une analyse multi-résolution sur le signal
étudié, La TO d’un signal S(t) est la famille C (a,b) coefficients d’ondelettes qui dépend des deux
paramètres a et b où a est l’échelle et b est le facteur de position à analyser Suivant les besoins
de l’analyse du signal S(t) les paramètres (a,b) peuvent être utilisés de façon continue ou
discrète.

IV.4.2.1-Ondelette Mère :
L’analyse en ondelette est réalisée au moyen d’une fonction Ѱ(t) appelée ondelette de base (ou
ondelette mère) qui permet de spécifier les caractéristiques de signal que l’on souhaite détecter.
La TO permet de représenter n’importe quel signal par une base d’ondelettes qui ne sont que des
versions dilatées et translatées de l’ondelette mère tel que :

 : Représente l’ondelette fille

b : Facteur de translation.

a : Facteur d’échelle.

Ѱ(t) : Ondelette mére.

: Facteur de normalisation de l’énergie afin que le signal transformé ait la même énergie à
tous les échelles (a≠0).
Notons que Ѱ(t) est dite ondelette si :

𝑐Ѱ est la constante d’admissibilité (condition) et Ѱ(w) la transformée de fourier de Ѱ(t).


Une caractéristique de l’ondelette dilatée est d’être plus diffuse dans le temps et donc d’avoir un
spectre plus concentré autour de sa fréquence centrale.

IV.4.2.2-La transformée en ondelette continue (TOC) :


La transformée en ondelette continue (TOC) utilise des translations et des dilatations de la
fonction ondelette mére durent tout l’intervalle temporel de maniére continue.Les coefficients
d’ondelettes continue sont définie par :

Le scalogramme, défini par le carré du module de la transformée en ondelettes continues, est :

La TO a la capacité de changer la taille de la fenétre à différentes résolutions de temps fréquence.


Grace au changement d’échelle (en utilisent le facture d’échelle a les fonctions de base
d’ondelette peuvent etre etirées ou comprimées dans la fenétre d’analyse. Ceci aide à isoler des
discontinuités du signal parce que de courtes fonctions de base sont de base employées pour
obtenir l’information détaillée de fréquence tandis que de longues fonctions de base sont
employées pour recherche l’information approximative de fréquence du signal.
La translation (en utilisent le facture de translation b) est l’opération de glissement de l’ondelette
tout au long du signal. C’est la technique similaire à celle de la TFCT.
La transformée en ondelette inversée est :

 : représente l’ondelette fille

 : Constant d’admissibilité (condition).


La transformée en ondelette continue se déroule selon les étapes suivantes :
1. Prendre une ondelette et la comparer à une section au début du signal original.
2. Calculer le coefficient CWTx(a,b).
3. Translater l’ondelette à droite et répéter l’ètape 1 et 2 sur tout le signal.
4. Dilaté ou compresser l’ondelette et répéter l’étape 1 à 3.
5. Répéter les étapes 1 à 4 pour toutes les échelles choisies.
Quand l’ondelette est dilatée, l’analyse explore les composantes du signal qui oscillent plus
lentement.
Quand elle est contractée, l’analyse explore les oscillations rapides comme celles contenues dans
une discontinuité du signal. Par ce changement d’échelle (contraction-dilatation), la transformée
en ondelette amène à une décomposition temporelle du signal.

Fig.2.2 : Principe de la Transformée en ondelette Continue.

IV.4.2.3Transformée en ondelette discrète :


La transformée en ondelette discrète (TOD) est produite pour surmonter le problème de la TOC.
En effet il est évident que la TOC ne peut etre manuellement calculée en utilisent les équations
analytiques, le calcul intégral, est, c’est donc aux ordinateurs de calculer cette transformées. Il
devient donc nécessaire de discrétiser les transformées. La TOD, contrairement à la TOC, fournit
suffisament d’information, tant pour l’analyse que pour la reconstruction du signal original, en un
temps de calcul notablement réduit.
la TOD translate et dilate l’ondelette selon des valeurs discrètes des facteurs d’échelle et de
translation telles que :

Les coefficients de la TOD sont définie par :

Avec :
Dans la majorité des cas, on utilise a0 = 2 et b0 = 2 l’on obtient la transformée en ondelette
discrète dyadique, le signal original x(t) peut etre reconstruit à partir des coefficients obtenus par
la transformée en ondelette discrète et il est donné par l’équation suivante :

Dans la transformée en ondelette discrète, on parle souvent d’approximation et de détail.


L’approximation corréspend à la haut échelle, c'est-à-dire aux composantes de basse fréquence
du signal .les détails sont à basses échelles c’est les composantes de hautes fréquences. Notons
qu’approximation et détail émergent comme deux signaux lorsque le signal original traverse deux
filtres complémentaires.

IV.4.2.4-Familles des ondelettes :


Avant de détailler quelques familles des ondelettes usuelles, nous dressons dans le tableau
suivant (Tab.1.1) la liste de quelque unes de ces familles, avec les abréviations associés.

Nom des familles des ondelettes Abréviations


Ondelette de Haar Haar
Ondelettes de Daubechies Db
Ondelettes Symlets Sym
Ondelettes Coiflets Coif
Ondelettes biorthogonales Bior
Ondelette de Meyer Meyr
Ondelettes gaussiennes Gaus
Ondelettes gaussiennes complexes Cgau
Chapeau mexicain Mexh
Ondelette de Morlet Morl
Ondelette de Morlet complexe Cmor
Ondelettes de Shannon complexes Shan

Tab.1.1 : Familles des ondelettes

IV.4.2.5-Divers applications des ondelettes dans la détection des défauts :


Les domaines d’application de la décomposition en ondelettes sont vaste est se résument comme
suit :

 Elle est utilisée à des fins de détection des signaux transitoires.


 Elle est utilisée dans les domaines de détection des contours dans les images, dans la
compression et le traitement de la parole.
 Détection des paramètres des signaux électro-physiologiques tels que les paramètres du
signal électrocardiogramme ECG (complexe QRS, l’onde P, l’onde S …) aussi l’analyse de
l’EEG, ou bien l’EMG.

IV.5-Avantages et inconvénients de la transformée en ondelettes :


Les avantages qu’offrent la transformée en ondelettes (TO) dans l’analyse temps-échelle sont les
suivants :

 Travailler en sous bandes avec la possibilité de séparer les composantes du bruit du reste
du signal,
 la transformée en ondelettes offre une grande aptitude à prendre en charge plusieurs
traitements numériques du signal de façon quasi simultanée (fenêtrage, débruitage,
détection, filtrage et reconstitution du signal),
Les inconvénients de la transformée en ondelettes sont les suivants :

 Les ondelettes n’existent pas à un instant spécifique ou à une fréquence spécifique. Elles
sont bien localisées dans le temps en fréquence mais pas avec une grande précision,
 Elle nécessite un bon choix d’ondelette mère analysante pour les différentes applications.
En effet, le choix de l'ondelette utilisée pour la décomposition temps-échelle est le point
le plus important et très difficile.

Das könnte Ihnen auch gefallen