Beruflich Dokumente
Kultur Dokumente
I.1-Introduction :
Depuis longtemps l'homme cherche à maîtriser les incertitudes et les imperfections inhérentes à
sa nature. La première réelle manifestation de la volonté de formaliser la prise en compte des
connaissances incertaines fut le développement de la théorie des probabilités à partir du XVII
siècle. Mais les probabilités ne peuvent maîtriser les incertitudes psychologiques et linguistiques.
On a donc assisté aux développements des théories de probabilité subjective (dans les années
50) puis de l'évidence (dans les années60).Puis la Logique Floue est apparue en 1965 à Berkeley
dans le laboratoire de Lotfi Zadeh avec la théorie des sous -ensembles flous puis en 1978 avec la
théorie des possibilités. Ces deux théories constituent aujourd'hui ce que l'on appelle Logique
Floue. La Logique Floue permet la formalisation des imprécisions dues à une connaissance
globale d'un système très complexe et l'expression du comportement d'un système par des mots.
Elle permet donc la standardisation de la description d'un système et du traitement de données
aussi bien numériques qu'exprimées symboliquement par des qualifications linguistiques.
Figure III.1 : Fonction d'appartenance caractérisant un ensemble classique (a) et d’un ensemble
floue (b).
I.3.2.Les opérations de base sur les sous-ensembles flous :
La théorie mathématique sur les sous-ensembles flous définit de nombreuses opérations sur ces
sous-ensembles et sur les fonctions d'appartenances qui rendent ces notions utilisables. Nous ne
présentons ici que les opérations de base de cette théorie. Si A et B sont deux sous-ensembles
flous et µ (A) et µ(B) leur fonction d'appartenance, on définit :
La Figure (III.6) représente les formes de ces trois types de fonctions d’appartenance.
B. variable linguistique :
Le concept de fonction d'appartenance vu précédemment nous permettra de définir des
systèmes flous en langage naturel, la fonction d'appartenance faisant le lien entre logique floue
et variable linguistique. Cela est déjà expliquer précédemment.
Habituellement, les règles floues sont déduites des expériences acquises par les opérateurs ou les experts.
Ces connaissances sont traduites en règles simples pouvant être utilisées dans un processus d’inférence
floue. Par exemple, si un expert exprime la règle «si la température de l’eau est chaude, il faut ajouter de
l’eau froide», le système utilisera une règle du genre «si p alors q ».
Il existe plusieurs possibilités pour réaliser les opérateurs qui combinent les valeurs d’entrée et les valeurs
de sortie, C’est ce qu’on appelle la méthode d’inférence .les méthodes les plus utilisées sont :
Cette méthode réalise l'opérateur "ET" par la fonction "Min", la conclusion "ALORS" de chaque règle par la
fonction "Min" et la liaison entre toutes les règles (opérateur "OU») par la fonction Max.
La dénomination de cette méthode, dite Max-Min ou "implication de Mamdani", est due à la façon de
réaliser les opérateurs ALORS et OU de l'inférence.
I.6.Défuzzification :
Cette étape consiste à réaliser l’opération inverse de la fuzzification, c'est-à-dire, obtenir une
valeur physique de la sortie à partir de la surface obtenue. Plusieurs méthodes de défuzzification
existent. Comme pour tous les opérateurs flous, le concepteur du système ou doit choisir parmi
plusieurs définitions possibles de défuzzification.
Les plus utilisées sont :
Méthode du maximum.
Méthode de la moyenne des maximums.
Méthode du centre de gravité.
La méthode du centre de gravité est la plus utilisée. Cette méthode consiste à trouver le centre
de gravité de la surface obtenue. L’abscisse du centre de gravité de la sortie peut se déterminer à
l’aide de la relation générale:
II.1-Introduction :
Les réseaux de neurones artificiels constituent l'une des approches d’intelligence artificielle dont
le développement se fait à travers les méthodes par lesquelles l'homme essaye toujours d’imiter
la nature et de reproduire des modes de raisonnement et de comportement qui lui sont propre.
Nous présentons donc dans un état de l'art de ces réseaux de neurones. D'abord, nous
rappellerons la définition et les propriétés des réseaux de neurones, avant de décrire les
architectures neuronales les plus utilisées, à savoir les modèles statiques et dynamiques. Nous
poursuivrons en exposant les différents types d'apprentissage, ainsi que les domaines
d’applications.
II.2-Neurone et le réseau de neurones :
La figure I.1 montre un schéma comportant la structure générale d'un neurone artificiel.
x1, x2, ..., xn ; sont les entrées externes. y est la sortie. w1, w2, ..., wn sont les poids associés à
chaque connexion. X est le vecteur d'entrée, W' est le vecteur poids, θ est appelé le biais.
La fonction φ est appelée fonction d'activation, c'est une fonction non linéaire. Différentes
fonctions d'activation peuvent être utilisées, parmi lesquelles on peut citer : fonction signe,
sigmoïde, tangente hyperbolique, Gaussienne.et le choix d'un type de fonction dépend de
l'application.
Les réseaux de neurones artificiels sont des combinaisons de fonctions élémentaires appelées
neurones formels, ou simplement neurones associés en couches et fonctionnant en parallèle.
Chaque processeur élémentaire calcule une sortie unique sur la base des informations qu'il
reçoit. Toute structure hiérarchique de réseaux est évidemment un réseau.
- Les réseaux de neurones sont des approximateurs universels : Cette propriété peut
être énoncée comme suit: Toute fonction bornée suffisamment régulière peut être approchée
uniformément, avec bonne précision, dans un domaine fini de l'espace de ses variables, par un
réseau de neurones qui comporte une couche de neurones cachée en nombre fini, possédant
tous la même fonction d'activation et un neurone de sortie linéaire .
Avec :
f et g : les fonctions de transfert, des couches cachées et de sorties respectivement.
Y : sortie du réseau.
Z : matrice des poids des connexions liant la couche cachée à la couche de sortie.
II.6-Domaines d'application :
Les grands domaines d'application des réseaux de neurones découlent naturellement des
propriétés énoncées précédemment. Nous présentons dans les sections suivantes quelques
exemples pour montrer le vaste étendu de leur applicabilité.
L’étape la plus importante dans la modélisation d’un neurone flou est la fuzzification des
synapses (dendrites) d’entrée et la définition des fonctions d’appartenance de chacun des sous-
ensembles de l’espace de travail. Dans une fuzzification neuronale ‘Neuronal fuzzification’,
chaque neurone peut être vu comme la représentation d’une valeur linguistique. Sa sortie peut
être associée à une fonction d’appartenance. En d’autres termes, la sortie exprime le degré
d’appartenance de l’entrée à une certaine catégorie linguistique. La sortie du neurone possède
une valeur comprise entre 0 et 1.
Le comportement du neurone flou est déterminé par les opérateurs d’agrégation choisis, et par
la fonction d’entrée utilisée.
avec:
h : est un opérateur flou. Il remplace la somme dans un neurone formel.
f: est une fonction d’activation.
θ: est le seuil d’activation.
avec :
= f (c1, c2 … ck), t est la fonction de seuillage et les ci sont des variables compétitives du
neurone flou.
g : est la fonction de sortie du neurone.
A = f (h (xi wij)), A est la valeur de sortie de la fonction d’activation f et h est une fonction
d’agrégation floue d’entrée.
La sortie du neurone est obtenue par la somme des différentes fonctions de synapses :
L’adaptation des poids subit elle aussi l’inférence floue : si xi est A ij alors le poids est Wij où Aij est
le sous-ensemble flou dont la fonction d’appartenance est ij(xi) et Wij est le poids attribué à
l’entrée.
Théoriquement, les neurones flous peuvent être introduits dans n’importe quelle structure de
réseaux neuronaux (les réseaux multicouches à apprentissage supervisé, les réseaux bayésiens,
les réseaux compétitifs à apprentissage non supervisé, la carte auto-organisatrice de Kohonen …).
D’où les structures de Kwan-Cai, les réseaux ART flous (Fuzzy ART), et les cartes floues (Fuzzy
ARTMap)
IV.2-Historique :
Le point de départ de la théorie des ondelettes est marqué par les travaux de Jean Morlet vers
1983. En effet, il a inventé les fonctions dites d’ondelettes pour traiter les signaux sismiques dans
le cadre de son travail de géophysicien. Dès lors, les travaux de recherche se sont multipliés pour
élaborer la théorie des ondelettes. On peut citer Alex Grosmann et Yves Meyer pour leurs
contributions capitales aux fondements mathématiques des ondelettes. Une excellente
introduction au sujet des ondelettes est présentée par Hubbard (1995).
La meilleure façon d’introduire les ondelettes est de passer par l’analyse de Fourier. En effet, la
transformée de Fourier est une décomposition d’un signal dans une base sinusoïdale. Chaque
sinusoïde correspond à une fréquence donnée et pondérée par des coefficients, dits coefficients
de Fourier. Par analogie, la transformée en ondelettes est une décomposition dans les bases
d’ondelettes Daubechies (1992) ; Cohen (1992); Meyer (1993).
Aujourd’hui, les ondelettes sont utilisées dans divers domaines d’application : traitement de
parole et d’image, analyse biomédical, traitement des signaux vibratoires et autres.
IV.3-Transformée de Fourier :
Au 19ème siècle (1822), le mathématicien français J. Fourier, a prouvé que n'importe quelle
fonction périodique peut être exprimée comme une somme infinie de fonctions exponentielles
complexes périodiques.
La transformation de Fourier TF(f) associée à un signal S(t) s’écrit comme suit :
Chaque plage est étudiée séparément des autres par l’analyse traditionnelle de Fourier, juxtaposant les
résultats sous la forme d’une représentation « temps – fréquence » ou « spectrogramme ». C’est un outil
de base pour l’analyse des signaux non-stationnaires.
La TFF consiste en la décomposition du signal S(t) suivant une famille de fonction qui dérivent toutes
d’une même « fonction fenêtre » g(t) par :
C (a, b) est la transformée de Fourrier fenêtrée du signal s (t) sur une fenêtre de largeur b, selon
une fréquence a.
Cette transformation a quelque inconvénient majeur:
On ne peut pas savoir quelle fréquence existe à un instant donné.
Une fois que la fonction g est choisie, la résolution en temps et en fréquence, donnée par les
variables a et b, est fixe.
Si le signal est composé de phénomènes dont les échelles de temps sont différentes, elle ne
permet pas de les analyser simultanément avec une bonne résolution en temps et en fréquence.
Donc la taille fixe de la fenêtre est un gros inconvénient. L’outil idéal serait une fenêtre qui
s’adapte aux variations de fréquence dans le signal à analyser. Cet outil existe, il s’agit de
l’analyse par ondelettes.
La mère des ondelettes va engendrer les autres ondelettes de la famille par dilatation
et par translation dans le temps.
Avec a,b ∈ R, a≠ 0.
-L'ondelette mère Ψ(t) permet de déduire toutes les fonctions de la famille d'ondelettes.
-le paramètre (b) positionne l'ondelette sur l'axe du temps.
-le paramètre (a) contrôle la fréquence de l'ondelette (contraction : haute fréquence, dilatation:
basse fréquence).
IV.4.2.1-Ondelette Mère :
L’analyse en ondelette est réalisée au moyen d’une fonction Ѱ(t) appelée ondelette de base (ou
ondelette mère) qui permet de spécifier les caractéristiques de signal que l’on souhaite détecter.
La TO permet de représenter n’importe quel signal par une base d’ondelettes qui ne sont que des
versions dilatées et translatées de l’ondelette mère tel que :
b : Facteur de translation.
a : Facteur d’échelle.
: Facteur de normalisation de l’énergie afin que le signal transformé ait la même énergie à
tous les échelles (a≠0).
Notons que Ѱ(t) est dite ondelette si :
Avec :
Dans la majorité des cas, on utilise a0 = 2 et b0 = 2 l’on obtient la transformée en ondelette
discrète dyadique, le signal original x(t) peut etre reconstruit à partir des coefficients obtenus par
la transformée en ondelette discrète et il est donné par l’équation suivante :
Travailler en sous bandes avec la possibilité de séparer les composantes du bruit du reste
du signal,
la transformée en ondelettes offre une grande aptitude à prendre en charge plusieurs
traitements numériques du signal de façon quasi simultanée (fenêtrage, débruitage,
détection, filtrage et reconstitution du signal),
Les inconvénients de la transformée en ondelettes sont les suivants :
Les ondelettes n’existent pas à un instant spécifique ou à une fréquence spécifique. Elles
sont bien localisées dans le temps en fréquence mais pas avec une grande précision,
Elle nécessite un bon choix d’ondelette mère analysante pour les différentes applications.
En effet, le choix de l'ondelette utilisée pour la décomposition temps-échelle est le point
le plus important et très difficile.