Beruflich Dokumente
Kultur Dokumente
Richard Lepage
M.Sc.A. ingnierie
M.Sc. Ocanographie
tudiant au doctorat en Ingnierie
@2010
Plan de la discussion
Historique et concepts.
Conclusion.
wi xi
w0 x0
w1 x1
sgn(S )
w2 x 2
i 0
Y
On associe un poids
chacune des entres xi.
Lensemble des entres-poids
est ensuite appliqu un
sommateur
suivi
dun
comparateur.
Y 0
1
Fonction dactivation
de la sortie Yj
ax by c
w1 x1 w2 x2
w0
w2
w1
x
w2
w0
x1
x,
x2
ou
mx
S=1
S=0
B (x2)
S(y)
S=0
x1
0.35
sgn(S )
x2
w2
w0
.3
x0
sgn(S )
ET logique
A (x1)
B (x2)
S(y)
wi xi
x1
w1
0.35
w2
0.35
i 1
sgn(S )
x2
Les poids w1 et w2
sont lis la pente
de la droite tandis
que w0 et w2 sont
lis lordonne
lorigine de la
droite.
0.35
Y 0
x2
S=1
i 1
w1
A(x1)
x1
wi xi
x1
OU logique
x2
w0
x0
Ncessit
dun
algorithme pour
automatiser
le
processus
de
modification des
poids.
.5
1
d ( i ), dw i
x ( i )d ( i )
w0
w0 dw0 , w i
w i dw i pour i
1..n
Lobjectif premier
du Perceptron a t
de modliser la
perception visuelle.
Entres
x1
w1
0.1
sgn(S )
w2
x2
w0
.3
x0
err
d (i )
xn
0 .1
Sortie dsire
Entres
sgn(S )
wn
xn
Modification des
biais et des
poids du rseau
selon lerreur
produite entre la
sortie dsire et
la sortie du
rseau
wn 1
Sortie dsire
w0
.3
x0
err
x1
XOR logique
A(x1)
B(x2)
S=0
S=1
S=0
x1
S=1
w1
0.1
sgn(S )
x2
w2
w0
.3
x0
err
wji
x1
y1
z1
x
wkj
x2
y2
z2
w ji
xi
wkj
k 1
yj
zk
f ' ( net j ) x i
y3
x4
Couche d'entre
t k - z k f ' (netk ) y j
Couche cache
Couche de sortie
Fonctions dactivations
1
1 e
XOR logique
S=1
S=0
D2
D1
S=0
x1
S=1
A(x1)
B(x2)
Couche N
x1
w11,1
y1
w12,1
w21,1
o
x2
w21,1
w12, 2
y2
Noeuds de sortie
Couche N-1
Le rseau MLP deux
entres permet de sparer
les deux classes du
problme XOR.
Couche 1
Couche 0
Rseau N-couches
Noeuds cachs
Branchements wi,j
Noeuds dentre
9
Le pas dapprentissage
La vitesse dapprentissage
La capacit de gnralisation du rseau
Les fonctions dactivations des couches caches
Comment y remdier?
Avantages:
Le rseau atteint une prcision trs leve au niveau de la reconnaissance
et la base dexemple na pas besoin dtre trs grande.
Dsavantage:
On perd en gnralit car les formes sont reconnues dune manire trop
exacte. Si une forme proche de la cible est prsente au rseau, celle-ci ne
sera peut-tre pas reconnue. On ajoutera un bruit blanc au donnes pour
permettre une meilleure gnralisation.
11
Avantages:
Le rseau atteint une prcision trs leve au niveau de la reconnaissance
et la gnralisation est trs bonne.
Dsavantage:
La base dexemple se devra dtre trs volumineuse et le temps
dapprentissage augmentera pour chaque nouvel exemple ajout au rseau
12
lors dun nouvel apprentissage.
wnj ,i
n
j
wnj ,i
f ( h nj ) xin
2
n
j
n
j
n
j
f ( h nj )
(new)
wnj ,i (old )
n
j
(old )
wnj ,i
n
j
13
w(new)
wkj
w(old )
0<
<1
yj
w convergera vers
2
w
14
Mthode de Newton
Par lutilisation de la srie de Taylor
E (w)
E ( w0 ) ( w w0 )
E = fonction derreur ( 2)
o H = matrice Hessienne
2
E
wi w j
H ij
1
( w w0 ) 2 H
2
E ( w0 )
E ( w)
1
2
Yj d j
o Y j
wij xi
i 1
et
E ( w0 ) H ( w w0 )
w0
E ( w0 )
( Mthode de Newton)
15
J ( w) J ( w)
J ( w) E
( JJ
I ) JE
J = Matrice Jacobienne
E = Toutes les erreurs
I = Matrice identit
= Taux dapprentissage
Avantages:
wConvergence trs rapide et gnralisation trs bonne.
wMthode la plus utilise jusqu maintenant.
Dsavantages:
Il ne faut pas que le nombre de poids constituant le rseau soit plus
grand que 200 car cette mthode devient inefficace en terme de
rapidit de calcul.
17
18
Nouvelles tendances:
Combinaison de plusieurs types de rseaux pour la rsolution de problmes dans
un cadre plus spcifique.
Entre(s)
Rseau de Kohonen
Rseau MLP
Sortie(s)
Rseau MLP
Entre(s)
Sortie(s)
Logique floue
19
x1
Entres
x2
20
c: centre;
r: rayon;
f ( x)
w j h j ( x)
j 1
h( x ) exp
( x c) 2
r2
h( x )
RBF gausienne
RBF quadratique
r 2 ( x c) 2
r
21
2.
3.
4.
5.
6.
7.
8.
Vecteurs dapprentissage
Fonction gaussienne
(x,y)
Le rseau apprentissage
comptitif
de
Kohonen
(spcialisation du neurone )
sapproche le plus du type
de structure observ dans le
cerveau.
La rgle dapprentissage
modifie les poids du
neurone 1 de faon le
rapprocher
du patron
prsent au rseau.
Poids
du
rseau
I1
I2
W1
0.6
0.4
W2
0.4
0.6
Patron 1
1.0
0.0
Patron 2
0.8
0.2
Patron 3
0.0
1.0
Patron 4
0.2
0.8
i1
w1,1
e1
w2,1
w1, 2
i2
Couche
dentre
w2, 2
e2
Couche de
comptition
Le rseau SOM est parfaitement adapt pour lanalyse des donnes (regroupement
sous forme de nuage de donnes).
24
w1,1
w2,1
e1
e2
w1, 2
e9
w2, 2
e10
25
LES APPLICATIONS
26
27
Sortie dsire o:
Si (x1,x2) est dans un cercle
de rayon 1 centr lorigine
Alors
o=1
Sinon
o=0
Class 1
Class 0
-1
-2
-3
-3
-2
-1
28
S
TF = 'logsig';
TF = 'logsig';
BTF = 'traingd';
BLF = 'learngd';
PF = 'mse';
net.trainParam.epochs =
net.trainParam.goal =
net = train(net,x,o);
commande dapprentissage
y = sim(net,x);
netout = y>
Structure du rseau
Noeud de sortie (Sigmoide)
x1
Noeuds dentres
x2
Unit de seuil
Couche cache (pour sortie binaire)
(sigmoide)
30
Class 1
Class 0
-1
-2
-3
-3
-2
-1
Le rseau calculera la valeur des poids et des biais qui ajustera les
droites de sparation selon la sortie dsire.
31
10
10
10
-1
-2
10
10
-3
0.5
1
20000 Epochs
1.5
2
x 10
10
-1
-2
-3
Class 1
Class 0
10
10
10
0.5
1
20000 Epochs
10
Levenberg-Marquardt
Backpropagation
Training-Blue Goal-Black
10
Training-Blue Goal-Black
Training-Blue Goal-Black
10
Descente de gradient
avec terme dinertie
1.5
2
x 10
-1
-2
-3
Class 1
Class 0
-1
-1
-2
-2
10
Class 1
Class 0
-1
-2
-3
-3
-1
-2
-3
4
10 Epochs
-3
-3
-2
-1
-3
-2
-1
Image originale
en couleurs
Niveau de gris
Filtre Sobel
Rehaussement de contraste
Linarisation de lobjet
Segmentation de limage
33
Allongement et orientation
de la forme
34
On peut ajouter un bruit blanc aux formes qui sont prsentes lors de
lapprentissage du rseau pour amliorer la gnralisation. On utilise un
algorithme dapprentissage de type Levenberg-Marquard qui est le plus
adquat pour le rseau MLP.
36
Signal analyser
Patrons de signaux
Signal analyser
en temps rel
Passage dune
fentre de 10
chantillons par
intervalle dun
chantillon.
Processus de
reconnaissance
selon les 10
patrons appris par
le rseau MLP
Dcision sur la
commande de
lappareil (sortie [0.1
1.0])
37
y1
Contrle de la
machine usiner
[0.1 1.0]
10 chantillons
prsents
lentre
du
rseau selon une
fentre glissante
y10
38
40
Modle Mamdani
(interprtabilit)
Modle TSK (Takagi-Sugeno-Kang)
(Prcision)
41
Mthode du maximum
43
Variables linguistiques
Rgles dinfrence
Fonctions membres
44
45
Le rseau neuro-flou
Le rseau neuro-flou a t propos par J. S. R. Jang. Cest la combinaison dun rseau de neurones
artificielles associ un systme de logique floue. Cette combinaison sapproche du raisonnement
humain (logique floue) dot de lapprentissage connexionniste (rseau de neurones formels).
47
CONCLUSION
Des recherches intensives sont en cours pour appliquer les rseaux SOM
(auto-organisateur) dans le secteur de lindustrie. La comprhension des
rseaux SOM permettra dapprocher le comportement du cerveau humain
en hybridation avec la logique floue.
49