Sie sind auf Seite 1von 29

Ministère de l’Enseignement Supérieur et de la Recherche Scientifique

Université A.Mira Bejaia


Faculté de Technologie
Département d’Electronique

Mini projet

Thème

Présenté par : Promoteur :


OURTEMACHE Hacene Dr W.GUENOUNOU

BENHAMOUCHE Mourad

Année universitaire 2009/2010


Introduction générale

Introduction générale

Les réseaux de neurones artificiels présente une alternative prometteuse pour de


nombreux domaines ; à savoir la reconnaissance de formes, le traitement d’images, le control
industriel et l’identification [1]. S’inspirant des règles de la génétique, les techniques
neuronales interviennent dans un contexte où les outils courants ont atteint leurs limites.

Grace à leurs propriétés d’approximation universelle, les réseaux de neurones on vu


leur champ d’application s’étaler à de nouvelles classe de problèmes, réputés de complexe
avec succès. Les études antérieures ont montré qu’avec un réseau neuronal à une seule couche
cachée et un nombre suffisant de neurones cachés on peut identifier n’importe quel système
avec n’importe quelle précision [2].

Dans ce travail, les réseaux de neurones sont utilisés pour la modélisation d’une
machine asynchrone commandée en tension.
Le mémoire est organisé en trois chapitres :
Le premier chapitre est consacré à la présentation du modèle neuronal, l’architecture du
réseau et au processus d’apprentissage effectué par celui-ci.

Le deuxième chapitre traite la mise en équation de la machine en présentant la transformation


de Park, et la simulation en boucle ouverte.

Le troisième chapitre est consacré à l’application des réseaux de neurones à la machine


asynchrone, en simulant la sortie du réseau neuronal et la sortie de la machine.

Une conclusion générale clôture le mémoire.

1
Chapitre I Réseaux de neurones

I.1 Introduction

Les réseaux de neurones, fabriqués de structures cellulaires artificielles, constituent


une approche permettant d’aborder sous des angles nouveaux les problèmes de perception, de
mémoire, d’apprentissage et de raisonnement. Grâce à leur traitement parallèle de
l’information et à leurs mécanismes inspirés des cellules nerveuses (neurones), ils infèrent des
propriétés émergentes permettant de solutionner des problèmes complexes.

I.2 Histoire
La première application concrète des réseaux de neurones artificiels est survenue vers
la fin des années 1950 avec l’invention du réseau dit «perceptron» par Frank Rosenblatt.
Rosenblatt et ses collègues ont construit un réseau et démontré ses habilités à reconnaitre des
formes. Vers la fin des années 1960, un livre publié par Marvin Minsky et Seymour Papert sur
les réseaux de neurones. Ces deux auteurs ont démontré les limitations des réseaux
développés par Rosenblatt et Widrow-Hoff. Dans les années 1980, ils ont inventés
l’algorithme de rétropropagation des erreurs. C’est ce nouveau développement, généralement
attribué à David Rumelhart et James McClelland, mais aussi découvert plus ou moins en
même temps par Paul Werbos et par Yann LeCun, qui a littéralement ressuscité le domaine
des réseaux de neurones. Depuis ce temps, c’est un domaine où bouillonne constamment de
nouvelles théories, de nouvelles structures et de nouveaux algorithmes.
I.3 Application
Les réseaux de neurones servent aujourd’hui à toutes sortes d’applications dans divers
domaines. Par exemple, on a développé un autopilote pour avion, ou encore un système de
guidage pour automobile, on a conçu des systèmes de lecture automatique de chèques
bancaires et d’adresses postales, on produit des systèmes de traitement du signal pour
différentes applications militaires, un système pour la synthèse de la parole, des réseaux sont
aussi utilisés pour bâtir des systèmes de vision par ordinateur, pour faire des prévisions sur les
marchés monétaires, pour évaluer le risque financier ou en assurance, pour différents
processus manufacturiers, pour le diagnostic médical, pour l’exploration pétrolière ou gazière,
en robotique, en télécommunication etc...

I.4 Modèle de neurone et réseau


I.4.1 Modèle d’un neurone
Le modèle mathématique d’un neurone artificiel est illustré à la figure 1. Un neurone
est essentiellement constitué d’un intégrateur qui effectue la somme pondérée de ses entrées.
Le résultat 𝑛 de cette somme est ensuite transformé par une fonction de transfert 𝑓 qui produit
la sortie 𝑎 du neurone. Les 𝑅 entrées du neurone correspond au vecteur p = [𝑝1 𝑝2 … 𝑝𝑅 ]𝑇 ,
alors que w = [𝑤1,1 𝑤1,2 … 𝑤1,𝑅 ]𝑇 représente le vecteur des poids du neurone. La sortie 𝑛 de
l’intégrateur est donnée par l’équation suivante :
𝑅
𝑛= 𝑗 =1 𝑤1,𝑗 𝑝𝑗 − 𝑏 (1.1)

Que l’on peut aussi écrire sous forme matricielle :

2
Chapitre I Réseaux de neurones

𝑛 = wT p – 𝑏 (1.2)
Cette sortie correspond à une somme pondérée des poids et des entrées moins le biais 𝑏 du
neurone. Le biais 𝑏 s’appelle aussi le seuil d’activation. Lorsque le niveau d’activation atteint
ou dépasse le seuil, alors l’argument de 𝑓 devient positif (ou nul). Sinon, il est négatif.

Figure 1.1. Modèle d’un neurone artificiel.

On peut faire un parallèle entre ce modèle mathématique et certaines informations que


l’on connait à propos du neurone biologique. Ce dernier possède trois principales
composantes : les dendrites, le corps cellulaire et l’axone (figure 2). Les dendrites forment un
maillage de récepteurs nerveux qui permettent d’acheminer vers le corps du neurone des
signaux électriques en provenance d’autres neurones. Celui-ci agit comme une espèce
d’intégrateur en accumulant des charges électriques. Lorsque le neurone devient suffisamment
excité (lorsque la charge accumulée dépasse un certain seuil), par un processus
électrochimique, il engendre un potentiel électrique qui se propage à travers son axone pour
éventuellement venir exciter d’autres neurones. Le point de contact entre l’axone d’un
neurone et la dendrite d’un autre neurone s’appelle la synapse.

Figure 1.2. Schéma d’un neurone biologique.

Un autre facteur limitatif dans le modèle que nous nous sommes donnés concerne son
caractère discret. En effet, pour pouvoir simuler un réseau de neurones, nous allons rendre le
temps discret dans nos équations. Autrement dit, nous allons supposer que tous les neurones

3
Chapitre I Réseaux de neurones

sont synchrones, c’est-à-dire qu’à chaque temps 𝑡, ils vont simultanément calculer leur
somme pondérée et produire une sortie 𝑎 𝑡 = 𝑓 𝑛 𝑡 .
On ajoutant la fonction d’activation 𝑓 pour obtenir la sortie du neurone :

𝑎 = 𝑓 𝑛 = 𝑓(wT p – 𝑏) (1.3)

En remplaçant wT par une matrice W = wT d’une seule ligne, on obtient une forme générale

𝑎 = 𝑓(W p−𝑏) (1.4)

L’équation 4.4 nous amène à introduire un schéma de notre modèle plus compact que celui
de la figure 4.1. La figure 4.3 illustre celui-ci. On y représente les 𝑅 entrées comme un
rectangle. De ce rectangle sort le vecteur p. Ce vecteur est multiplié par une matrice W qui
contient les poids synaptique. Finalement, la sortie du neurone est calculée par la fonction
d’activation 𝑓.

Figure 1.3. Représentation matricielle du modèle d’un neurone artificiel.

I.4.2 Fonction de transfert

Différentes fonctions de transfert pouvant être utilisées comme fonction d’activation


du neurone sont énumérées au tableau ci-dessous. Les trois les plus utilisées sont les fonctions
« seuil », « linéaire », et « sigmoïde ».

4
Chapitre I Réseaux de neurones

Nom de la fonction Relation d’entrée/sortie Icône Nom Matlab


seuil 𝑎 = 0 𝑠𝑖 𝑛 < 0 hardlim
𝑎=1 𝑠𝑖 𝑛 ≥ 0
Seuil symétrique 𝑎 = −1 𝑠𝑖 𝑛 < 0 hardlims
𝑎=1 𝑠𝑖 𝑛 ≥ 0
linéaire 𝑎=𝑛 purelin

Sigmoïde 1 Logsig
𝑎=
1 + 𝑒𝑥𝑝−𝑛

Tableau 1.1. Fonctions de transfert 𝑎 = 𝑓 𝑛 .


La figure 4.4 illustre ces fonctions :

(a) (b) (c)

Figure 1.4. Fonction de transfert : (a) du neurone « seuil » ; (b) du neurone « linéaire » ; (c)
du neurone « sigmoïde ».

I.4.3- Architecture de réseau


Un réseau de neurones est un maillage de plusieurs neurones, généralement organisé
en couches. Pour construire une couche de 𝑆 neurones, il s’agit simplement de les assembler
comme à la figure 4.5. Les 𝑆 neurones d’une même couche sont tous branchés aux 𝑅 entrées.
L’ensemble des poids d’une couche forme une matrice W de dimension 𝑆 ∗ 𝑅 :

𝑤1,1 ⋯ 𝑤1,𝑅
⋮ ⋱ ⋮
𝑤𝑆,1 ⋯ 𝑤𝑆,𝑅

5
Chapitre I Réseaux de neurones

Figure 1.5. Couche de 𝑆 neurones.

Pour construire un réseau il ne suffit plus que de combiner des couches comme à la
figure 1.6. Cet exemple comporte 𝑅 entrées et trois couches de neurones. Chaque couche
possède sa propre matrice de poids Wk , où k est l’indice de couche. Les vecteurs bk, nk et ak
sont associés à la couche k.
Les réseaux multicouches sont beaucoup plus puissants que les réseaux simples à une
seule couche. En utilisant deux couches (une couche cachée et une couche de sortie), à
condition d’employer une fonction d’activation sigmoïde sur la couche cachée, on peut
entrainer un réseau à produire une approximation de la plupart des fonctions, avec une
précision arbitraire (cela peut cependant requérir un grand nombre de neurones sur la couche
cachée). Sauf dans de rares cas, les réseaux de neurones artificiels exploitent deux ou trois
couches.

Figure 1.6. Représentation matricielle d’un réseau de trois couches.

6
Chapitre I Réseaux de neurones

I.5 processus d’apprentissage


Parmi les propriétés désirables pour un réseau de neurones, la plus fondamentale est
surement la capacité d’apprendre de son environnement, d’améliorer sa performance à travers
un processus d’apprentissage. Mais qu’est-ce donc que l’apprentissage ?

L’apprentissage est un processus dynamique et itératif permettant de modifier les paramètres


d’un réseau en réaction avec les stimuli qu’il reçoit de son environnement.
Le type d’apprentissage est déterminé par la manière dont les changements de paramètre
surviennent.
Cette définition implique qu’un réseau se doit d’être stimulé par un environnement,
qu’il subisse des changements en réaction avec cette stimulation, et que ceux-ci provoquent
dans le futur une réponse nouvelle vis-à-vis de l’environnement. Ainsi, le réseau peut
s’améliorer avec le temps.
L’apprentissage se traduit par une modification de l’efficacité synaptique, c’est-à-dire
par un changement dans la valeur des poids qui relient les neurones d’une couche à l’autre.
Soit le poids 𝑤𝑖,𝑗 reliant le neurone 𝑖 à son entrée 𝑗.Au temps 𝑡, un changement ∆𝑤𝑖,𝑗 (𝑡) peut
s’exprimer par :
∆𝑤𝑖,𝑗 𝑡 = 𝑤𝑖,𝑗 𝑡 + 1 − 𝑤𝑖,𝑗 𝑡 (1.5)

Nous allons voir un apprentissage utilisé pour effectuer des taches d’apprentissage tel que
l’approximation des fonctions et la commande appelé apprentissage « supervisé ». Ce type
d’apprentissage est basé sur la correction de l’erreur.

I.5.1 Correction de l’erreur

Soit 𝑎𝑖 (𝑡) la sortie que l’on obtient pour le neurone 𝑖 au temps 𝑡. Cette sortie résulte
d’un stimulus 𝑝(𝑡) que l’on applique aux entrées du réseau dont un des neurones correspond
au neurone 𝑖. Soit 𝑑𝑖 (𝑡) la sortie que l’on désire obtenir pour ce même neurone 𝑖 au temps 𝑡.
Alors, 𝑎𝑖 (𝑡) et 𝑑𝑖 (𝑡) seront généralement différents et il est naturel de calculer l’erreur 𝑒𝑖 (𝑡)
entre ce qu’on obtient et ce qu’on voudrait obtenir :
𝑒𝑖 𝑡 = 𝑑𝑖 𝑡 − 𝑎𝑖 𝑡 (1.6)

et de chercher un moyen de réduire autant que possible cette erreur. Sous forme vectorielle,
on obtient :

𝑒 𝑡 = 𝑑 𝑡 − 𝑎(𝑡) (1.7)

Avec 𝑒 𝑡 = [ 𝑒1 𝑡 𝑒2 𝑡 … 𝑒𝑖 𝑡 … 𝑒𝑠 𝑡 ] désigne le vecteur des erreurs observé sur les 𝑆


neurones de sortie. L’apprentissage par correction des erreurs consiste à minimiser un indice
de performance 𝐹 basé sur les signaux d’erreur 𝑒𝑖 𝑡 , dans le but de faire converger les sorties
du réseau avec ce qu’on voudrait qu’elles soient. Un critère très populaire est la somme des
erreurs quadratiques :

7
Chapitre I Réseaux de neurones

𝐹 𝑒 𝑡 = 𝑒𝑖2 (𝑡) (1.8)


𝑖=1
Pour minimiser 𝐹 𝑒 𝑡 = 𝐹 𝑤 𝑡 = 𝐹(𝑡), nous allons commencer par choisir des poids
initiaux (𝑡 = 0) au hasard, puis nous allons les modifier de la manière suivante :

𝑤 𝑡 + 1 = 𝑤 𝑡 + 𝑛𝑋(𝑡) (1.9)

Où le vecteur 𝑋 𝑡 désigne la direction dans laquelle nous allons chercher le minimum et 𝑛


est une constante positive déterminant l’amplitude du pas dans cette direction (la vitesse
d’apprentissage).
L’objectif est de faire en sorte que 𝐹 𝑡 + 1 < 𝐹(𝑡), donc on doit choisir la direction 𝑋 pour
que la condition précédente soit vérifiée.
Considérons la série de Taylor de 1er ordre autour de 𝑤(𝑡) :

𝐹 𝑡 + 1 = 𝐹 𝑡 + ∇𝐹 𝑡 𝑇 ∆𝑤(𝑡) (1.10)

Où ∇𝐹(𝑡) désigne le gradient de F par rapport à ses paramètres (les poids) au temps 𝑡. Or,
pour que 𝐹 𝑡 + 1 < 𝐹(𝑡), il faut que la condition suivante soit respectée :

∇𝐹 𝑡 𝑇 ∆𝑤 𝑡 = 𝑛∇𝐹 𝑡 𝑇 𝑋 𝑡 < 0 (1.11)

Donc,
𝑋 𝑡 = −∇𝐹(𝑡) (1.12)

Ce qui engendre la règle dite « descente du gradient » :

−𝑛∇𝐹 𝑡 = ∆𝑤(𝑡) (1.13)

I.5.2 L’apprentissage supervisé

L’apprentissage dit superviser est caractérisé par la présence d’un «professeur» qui
possède une connaissance approfondie de l’environnement dans lequel évolue le réseau de
neurones. En pratique, les connaissances de ce professeur prennent la forme d’un ensemble de
𝑄 couples de vecteurs d’entrée et de sortie que nous noterons
𝑝1 , 𝑑1 , 𝑝2 , 𝑑2 … , 𝑝𝑄 , 𝑑𝑄 , où 𝑝𝑖 désigne un stimulus et 𝑑𝑖 la cible pour ce stimulus.
L’apprentissage supervisé est illustré d’une manière conceptuelle à la figure 5.1.
L’environnement est inconnu du réseau. Celui-ci produit un stimulus 𝑝 qui est acheminé à la
fois au professeur et au réseau. Grace à ses connaissances intrinsèques, le professeur produit
une sortie désirée 𝑑(𝑡) pour ce stimulus. On suppose que cette réponse est optimale. Elle est
ensuite comparée (par soustraction) avec la sortie du réseau pour produire un signal d’erreur
𝑒(𝑡) qui est réinjecté dans le réseau pour modifier son comportement via une procédure
itérative qui, éventuellement, lui permet de simuler la réponse du professeur. Autrement dit, la
connaissance de l’environnement par le professeur est graduellement transférée vers le réseau
jusqu’à l’atteinte d’un certain critère d’arrêt. Par la suite, on peut éliminer le professeur et
laisser le réseau fonctionner de façon autonome.

8
Chapitre I Réseaux de neurones

Figure 1.7 apprentissage supervisé.

I.6 La rétropropagation des erreurs


Cette méthode consiste à minimiser un indice de performance F basé sur l’erreur
quadratique moyenne. On peut propager vers l’avant un vecteur 𝑝(𝑡) pour obtenir une sortie
𝑎(𝑡). Ceci nous permet de calculer l’erreur entre la sortie désirée et la sortie du réseau.

I.7 Exemple illustratif (approximation d’une fonction)


La tache d’approximation consiste à concevoir un réseau de neurone capable
d’associer les éléments des couples entrée-sortie. Ce problème peut être résolu à l’aide d’un
apprentissage supervisé.
On a introduit 10 neurones dans la couche cachée et 1 neurone dans la couche de
sortie. La fonction de transfert dans la couche cachée est sigmoide et dans la couche de sortie
est linaire. Le réseau est créé avec la fonction « newff » (feed-forward). C’est un réseau
multicouche avec un apprentissage par rétropropagation, cette commande crée le réseau et
initialise ces poids.
En prenant une fonction à deux entrées, on peut la simuler avec et sans entrainement et
voir l’erreur avant et après apprentissage. Z = X .* exp(-X.^2 - Y.^2);

0.5

-0.5
2
1 2
0 1
0
-1 -1
-2 -2
fonction à entrainée

Figure 1.8 fonction à entrainée

9
Chapitre I Réseaux de neurones

0.1

0.05

-0.05

-0.1
2
1 2
0 1
0
-1 -1
-2 -2

Figure 1.9 erreur avant apprentissage.

1.5

0.5

-0.5

-1

-1.5
2
1 2
0 1
0
-1 -1
-2 -2
erreur après apprentissage

Figure 1.10 erreur après apprentissage.

On remarque d’après les figures que l’erreur a diminuée après l’entrainement du réseau.
La figure ci-dessous montre l’évolution de l’indice de performance en fonction du nombre
d’itération.

10
Chapitre I Réseaux de neurones

0
Performance is 3.87326e-005, Goal is 0
10

-1
10

-2
10
Training-Blue

-3
10

-4
10

-5
10
0 2 4 6 8 10 12 14 16 18 20
20 Epochs

Figure 1.10 Evolution de l’indice de performance

Le réseau a bien appris la fonction en modifiant ses poids c'est-à-dire qu’il a optimisé
l’indice de performance afin que sa sortie converge vers la sortie désirée.

11
Chapitre II modélisation de la machine asynchrone

II.1 modélisation de la machine asynchrone

Le comportement électrique d’un système ne peut être étudié que s’il est possible de
le définir par un modèle mathématique, c’est ce qu’on appelle la modélisation, c’est pour ça
que c’est une étape indispensable pour concevoir des systèmes de commande performants

Généralement la transformation de Park est utilisée pour modéliser les machines


alternatives. En décrivant la machine tournante dans un référentiel adéquat, les équations de
la machine sont simplifiées. Cela rend leur étude et leurs exploitations plus aisées et permet
l’étude des régimes transitoires. Un certain nombre d’hypothèses simplificatrices peuvent
être adoptées, pour une mise en équations particulièrement simple.

II.1.1 définition et principe de fonctionnement


Une machine asynchrone est une machine a induction, sans collecteur et dont une
partie des enroulements est reliée au réseau, l’autre travaillant par induction.
Elle est constituée de deux parties principales :
 une fixe appelée « STATOR ».
 une mobile appelée « «ROTOR ».

Ces deux parties sont séparée par un espace appelé « entrefer ».

Le « STATOR »et le « ROTOR » sont des circuits composés d’enroulements formants


des spires électromagnétiques. Sièges d’un champ magnétique.

Le « STATOR »représente le circuit récepteur triphasé, il permet de créer un champ


magnétique dans l’enceinte de la machine.

Ce champ évolue à la fréquence de la source d’alimentation triphasée.

Le « ROTOR » est un circuit fermé sur lui-même il se trouve immergé dans le champ
magnétique tournant créé par le « STATOR », il est alors, le siège des courants induits de
Foucault tentent alors s’opposer à la cause qui leur à donner naissance, soit une rotation.

11
Chapitre II modélisation de la machine asynchrone

Figure 2.1 Représentation shématique de la machine asynchrone

II.1.2 problèmes posés


Dans la machine asynchrone le courant statorique sert à la fois à générer le flux et le
couple, le découplage naturel de la machine à courant continus n’existe plus.

D’autre part, on peut connaitre les variables internes du rotor qu’à travers le stator.

L’inaccessibilité du rotor nous amènera à modifier l’équation vectorielle rotorique


pour exprimer les grandeurs rotoriques à travers leurs actions sur le stator.

II.1.3 hypothèses simplificatrices


La modélisation s’appuie sur un certain nombre d’hypothèses :
 entrefer d’épaisseur uniforme et d’effet d’encochages négligé.
 Perte magnétique négligeable.
 Distribution spatiale et sinusoïdale des forces magnétomotrices.

II.1.4 Equation de la MAS

a) Equation en tension

𝑑 Ø
Stator: 𝑉𝑠 = 𝑅𝑠 𝐼𝑠 + (2.1)
𝑑𝑡

𝑑 Ø𝑟
Rotor: 𝑉𝑟 = 𝑅𝑟 𝐼𝑟 + (2.2)
𝑑𝑡

𝑇
Avec : Ø𝑠 = Ø𝑠𝑎 Ø𝑠𝑏 Ø𝑠𝑐 (2.3)

12
Chapitre II modélisation de la machine asynchrone

𝑇
Ø𝑟 = Ø𝑟𝑎 Ø𝑟𝑏 Ø𝑟𝑐 (2.4)
𝑇
𝐼𝑠 = 𝐼𝑠𝑎 𝐼𝑠𝑏 𝐼𝑠𝑐 (2.5)
𝑇
𝐼𝑟 = 𝐼𝑟𝑎 𝐼𝑟𝑏 𝐼𝑟𝑐 (2.6)

1 0 0
𝑅𝑠 = 𝑅𝑠 ∗ 0 1 0 (2.7)
0 0 1
1 0 0
𝑅𝑟 = 𝑅𝑟 ∗ 0 1 0 (2.8)
0 0 1
𝑅𝑠 , 𝑅𝑟 : Résistances par phase du stator et du rotor

𝑉𝑠 , 𝑉𝑟 : Vecteurs de phases statoriques et rotoriques.

Ø𝑠 , Ø𝑟 : Vecteurs des flux statoriques et rotoriques.

𝐼𝑠 , 𝐼𝑟 : Vecteurs des courants par phases statoriques et rotoriques.

b) Equation de flux

Stator: Ø𝑠 = 𝐿𝑠𝑠 𝐼𝑠 + 𝑀𝑠𝑟 𝐼𝑟 (2.9)


𝑇
Rotor: Ø𝑟 = 𝐿𝑟𝑟 𝐼𝑟 + 𝑀𝑟𝑠 𝐼𝑠 (2.10)

Les matrices 𝐿𝑠𝑠 , 𝐿𝑟𝑟 et 𝑀𝑠𝑟 sont définies par :

𝑙𝑠 𝑚𝑠 𝑚𝑠
𝐿𝑠𝑠 = 𝑚𝑠 𝑙𝑠 𝑚𝑠 (2.11)
𝑚𝑠 𝑚𝑠 𝑙𝑠
𝑙𝑟 𝑚𝑟 𝑚𝑟
𝐿𝑟𝑟 = 𝑚𝑟 𝑙𝑟 𝑚𝑟 (2.12)
𝑚𝑟 𝑚𝑟 𝑙𝑟
cos 𝛼 cos 𝛼 + 2𝜋/3 cos 𝛼 − 2𝜋/3
𝑀𝑠𝑟 = 𝑀𝑠𝑟 ∗ cos 𝛼 − 2𝜋/3 cos 𝛼 cos 𝛼 + 2𝜋/3 (2.13)
cos 𝛼 + 2𝜋/3 cos 𝛼 − 2𝜋/3 cos 𝛼

ls, lr : inductances propres, statoriques et rotoriques, d’une phase ;

ms, mr : inductances mutuelles entre phases, statoriques et rotoriques ;

𝑀𝑠𝑟 : Maximum de l’inductance mutuelle entre une phase de stator et la phase correspondante
du rotor ;

𝛼 ∶Angle entre l’axe rotorique et l’axe statorique correspondant.

c) Equation mécanique

13
Chapitre II modélisation de la machine asynchrone

Le second principe de la dynamique nous donne :


𝑑 Ω
𝐽 =𝐶𝑒 − 𝐶𝑟 − 𝐹Ω (2.14)
𝑑𝑡

𝐽 : Moment d’inertie de l’ensemble des éléments tournants ;

Ω : vitesse angulaire du rotor ;

𝐶𝑟 : Couple résistant ;

𝐹 : Coefficient de frottement visqueux ;

Le couple magnétique est donné par la formule :

1 𝑇 𝑑 𝑀𝑠𝑟
𝐶𝑒 = 2 𝐼𝑠 𝐼𝑟 (2.15)
𝑑𝛼

II.2 transformation de Park

Pour simplifier la présentation dans les équations précédentes, on introduit la


transformation de Park, obtenue à l’aide de la matrice P, qui consiste à passer d’un
enroulement triphasé à un enroulement biphasé

Le changement de variables relatif aux courants, aux tensions et aux flux est donné par
la transformation :

𝑋𝑑 𝑋𝑎
𝑋𝑞 = 𝑃 𝑋𝑏 (2.16)
𝑋0 𝑋𝑐

𝑋𝑎 𝑋𝑑
𝑋𝑏 = 𝑃 −1 𝑋𝑞 (2.17)
𝑋0𝑐 𝑋0

P est une matrice définit comme suit :

cos 𝜃 cos 𝜃 − 2𝜋/3 cos 𝜃 + 2𝜋/3


2 − sin 𝜃 − sin 𝜃 − 2𝜋/3 sin 𝜃 + 2𝜋/3
𝑃𝜃= (2.18)
3 1 1 1
2 2 2

« X » : tension courant ou flux ;

« O » : indice de l’axe homopolaire ;

14
Chapitre II modélisation de la machine asynchrone

𝜃 = 𝜃𝑠 : Lorsqu’il s’agit des grandeurs statoriques ;

𝜃 = 𝜃𝑟 : Lorsqu’il s’agit des grandeurs rotoriques ;

L’application de la transformation de Park donne lieu aux équations :

𝑉𝑠𝑑 𝑅𝑠 0 𝐼𝑠𝑑 𝑑 Ø𝑠𝑑 0 −𝑤𝑠 Ø𝑠𝑑


𝑉𝑠𝑞 = 0 𝑅𝑠 𝐼𝑠𝑞 +𝑑𝑡 Ø𝑠𝑞 + 𝑤𝑠 0 Ø𝑠𝑞
(2.19)

𝑉𝑟𝑑 𝑅𝑟 0 𝐼𝑠𝑑 𝑑 Ø𝑟𝑑 0 −𝑤𝑟 Ø𝑠𝑑


𝑉𝑟𝑞 = 0 𝐼
𝑟 𝑠𝑞
+𝑑𝑡 Ø +
𝑟𝑞 𝑤𝑟 0 Ø𝑠𝑞 (2.20)

Ø𝑠𝑑 𝐿 𝑀𝑠𝑟 𝐼𝑠𝑑


= 𝑠 (2.21)
Ø𝑟𝑑 𝑀𝑠𝑟 𝐿𝑟 𝐼𝑟𝑑

Ø𝑠𝑞 𝐿 𝑀𝑠𝑟 𝐼𝑠𝑞


= 𝑠 (2.22)
Ø𝑟𝑑 𝑀𝑠𝑟 𝐿𝑟 𝐼𝑟𝑞

𝐶𝑒 = 𝑃.𝑀 𝑠𝑟 Ø𝑟𝑑 𝐼𝑠𝑞 − Ø𝑟𝑞 𝐼𝑠𝑑 (2.23)


𝐿𝑟

Avec :

𝐿𝑠 = 𝑙𝑠 − 𝑚𝑠 ∶ Inductances propres cyclique du stator.

𝐿𝑟 = 𝑙𝑟 − 𝑚𝑟 ∶ Inductances propres cyclique du rotor.


3
𝑀𝑠𝑟 = 2 𝑚𝑠𝑟 ∶ Inductance mutuelle cyclique entre stator et rotor.

𝑃 ∶ Nombres de paire de pôles de la machines.

II.2.1 Choix du système d’axe de référence

Il existe plusieurs possibilités concernant l’orientation de repère d et q qui dépendent


des objectifs de l’application

 Référentiel lié au stator :( 𝜃𝑠 =0),


𝑑𝜃𝑟
Il se traduit par la condition : 𝜃𝑟 = −𝛼, = −𝜔 (2.24)
𝑑𝑡
 Référentiel lié au rotor :( 𝜃𝑟 =0),
𝑑𝜃𝑠
Il se traduit par la condition : 𝜃𝑠 = 𝛼, =ω (2.25)
𝑑𝑡
 Référentiel lié au champ tournant,

Il se traduit par la condition 𝜃𝑠 − 𝜃𝑟 = 𝛼 𝑒𝑡 ωs- ωr= ω

Ce référentiel est le seul qui n’introduit pas de simplification dans la formation des
équations, il est cependant, la solution pour réaliser le pilotage vectoriel du fait que les
grandeurs de réglage deviennent continues dans ce référentiel. Il permet aussi d’obtenir une
expression scalaire du couple électromagnétique en analogie avec le couple des machines à
courant continu.

15
Chapitre II modélisation de la machine asynchrone

Dans ces conditions, le modèle de la machine asynchrone devient :


𝑑Ø𝑠𝑑
𝑉𝑠𝑑 = 𝑅𝑠 𝐼𝑠𝑑 + – ωs Ø𝑠𝑞 (2.26)
𝑑𝑡

𝑑Ø𝑠𝑞
𝑉𝑠𝑞 = 𝑅𝑠 𝐼𝑠𝑞+ – ωs Ø𝑠𝑑 (2.27)
𝑑𝑡

𝑑Ø𝑟𝑑
0 = 𝑅𝑟 𝐼𝑟𝑑 + – ωr Ø𝑟𝑞
𝑑𝑡

𝑑Ø𝑟𝑞
0 = 𝑅𝑟 𝐼𝑟𝑞 + – ωr Ø𝑟𝑑 (2.28)
𝑑𝑡

II.2.1 Expression du couple magnétique

𝐶𝑒 = 𝑃.𝑀 𝐼𝑟𝑑 𝐼𝑠𝑞 − 𝐼𝑟𝑞 𝐼𝑠𝑑 (2.29)

𝐶𝑒 = 𝑃. 𝑀 Ø𝑟𝑑 𝐼𝑠𝑞 − Ø𝑟𝑞 𝐼𝑠𝑑 (2.30)


𝐿𝑟

II.2.3 Equation mécanique

ω=PΩ (2.31)

𝐽 𝑑𝜔 𝑓
𝐶𝑒 − 𝐶𝑟 = 𝑃 +𝑃ω (2.32)
𝑑𝑡

II.3 Simulation de la machine alimentée directement sur le réseau

Le but de la simulation est de valider le modèle de la machine asynchrone.

16
Chapitre II modélisation de la machine asynchrone

Figure 2.2 Modèle Simulink de la machine asynchrone avec TP et TPI

II.3.1 Création du bloc de simulation

La modélisation de la machine asynchrone est basée sur les équations obtenues avec la
transformation de Park que nous rappelons ci-dessous

𝑑Ø𝑠𝑑
𝑉𝑠𝑑 = 𝑅𝑠 𝐼𝑠𝑑 + – ωs Ø𝑠𝑞 (2.33)
𝑑𝑡

𝑑Ø𝑠𝑞
𝑉𝑠𝑞 = 𝑅𝑠 𝐼𝑠𝑞+ – ωs Ø𝑠𝑑 (2.34)
𝑑𝑡

𝑑Ø𝑟𝑑
0 = 𝑅𝑟 𝐼𝑟𝑑 + – ωr Ø𝑟𝑞 (2.35)
𝑑𝑡

𝑑Ø𝑟𝑞
0 = 𝑅𝑟 𝐼𝑟𝑞 + – ωr Ø𝑟𝑑 (2.36)
𝑑𝑡

Ø𝑠𝑑 = 𝐿𝑠 𝐼𝑠𝑑 + 𝑀 𝐼𝑟𝑑 (2.37)

Ø𝑠𝑞 = 𝐿𝑠 𝐼𝑠𝑞 + 𝑀 𝐼𝑟𝑞 (2.38)

Ø𝑟𝑑 = 𝐿𝑟 𝐼𝑟𝑑 + 𝑀 𝐼𝑠𝑑 (2.39)

Ø𝑟𝑞 = 𝐿𝑟 𝐼𝑟𝑞 + 𝑀 𝐼𝑠𝑞 (2.40)

L’expression du couple est :

𝐶𝑒 = 𝑃. 𝑀 Ø𝑟𝑑 𝐼𝑠𝑞 − Ø𝑟𝑞 𝐼𝑠𝑑 (2.41)


𝐿𝑟

𝑉𝑠𝑑 , 𝑉𝑠𝑞 et ωs grandeurs de commande

𝐼𝑠𝑑 , 𝐼𝑠𝑞 grandeurs de contrôle mesurable

Ø𝑟𝑑 , Ø𝑟𝑞 grandeurs de contrôle non mesurable

En remplaçant les équations précédentes par :

Ø𝑠𝑑 = 𝐿𝑠 𝐼𝑠𝑑 + 𝑀 𝐼𝑟𝑑 (2.42)

Ø𝑠𝑞 = 𝐿𝑠 𝐼𝑠𝑞 + 𝑀 𝐼𝑟𝑞 (2.43)

Ø𝑟𝑑 −𝑀 𝐼𝑠𝑑
𝐼𝑟𝑑 = (2.44)
𝐿𝑟

Ø𝑟𝑞 −𝑀 𝐼𝑠𝑞
𝐼𝑟𝑞 = (2.45)
𝐿𝑟

𝑀2 𝐿𝑟
Avec 𝜎 = 1 − (coefficient de Blondel), 𝑇𝑟 =
𝐿𝑠 𝐿 𝑟 𝑅𝑟

On trouve :

17
Chapitre II modélisation de la machine asynchrone

𝑀.𝑆 𝑀
𝑉𝑠𝑑 = (𝑅𝑠 + 𝜎𝐿𝑠 . 𝑆) 𝐼𝑠𝑑 – 𝜔𝑠 𝜎𝐿𝑠 𝐼𝑠𝑞 + Ø𝑟𝑑 – ωs 𝐿 Ø𝑟𝑞 (2.46)
𝐿𝑟 𝑟

𝑀.𝑆 𝑀
𝑉𝑠𝑞 = (𝑅𝑠 + 𝜎𝐿𝑠 . 𝑆) 𝐼𝑠𝑞 – 𝜔𝑠 𝜎𝐿𝑠 𝐼𝑠𝑑 + Ø𝑟𝑞 – ωs 𝐿 Ø𝑟𝑑 (2.47)
𝐿𝑟 𝑟

Ø𝑟𝑑 1 + 𝑇𝑟 . 𝑆 = 𝑀 𝐼𝑠𝑑 +𝑇𝑟 𝜔𝑟 Ø𝑟𝑞 (2.48)


Ø𝑟𝑞 1 + 𝑇𝑟 . 𝑆 = 𝑀 𝐼𝑠𝑞 – 𝑇𝑟 𝜔𝑟 Ø𝑟𝑑 (2.49)

A partir de ces équations, on réalise le modèle de la machine :

Figure 2.3 Modèle Simulink de la machine asynchrone

A partir de ces équations, on réalise le modèle de la machine :

On alimente la machine asynchrone par une tension triphasée sinusoïdale, et on crée


un bloc qui représente la transformation de Park (figure 2.4) et un bloc de transformation
inverse de Park (figure 2.5).

On rappelle que la matrice de Park s’écrit :

cos 𝜃 cos 𝜃 − 2𝜋/3 cos 𝜃 + 2𝜋/3


𝑋𝑠𝑑 𝑋𝑠𝑎
2 − sin 𝜃 − sin 𝜃 − 2𝜋/3 sin 𝜃 + 2𝜋/3
𝑋𝑠𝑞 = 𝑋𝑠𝑏 , θ = 𝜃𝑠 (2.50)
3 1 1 1
𝑋𝑠0 𝑋𝑠𝑐
2 2 2

18
Chapitre II modélisation de la machine asynchrone

La transformation de Park inverse est :

1
cos 𝜃 − sin 𝜃 2
𝑋𝑠𝑎 𝑋𝑠𝑑
2 2𝜋 2𝜋 1
𝑋𝑠𝑏 = cos 𝜃 − − sin 𝜃 − 𝑋𝑠𝑞 , θ = 𝜃𝑠 (2.51)
3 3 3 2
𝑋𝑠𝑐 𝑋𝑠0
2𝜋 2𝜋 1
cos 𝜃 + − sin 𝜃 +
3 3 2

Figure 2.4 Bloc Simulink de la transformation de Park inverse

On applique la source de tension à l’instant t=0 s, et à t=2.5 s on applique un couple


résistant de 20N.m égal au couple de la machine.

19
Chapitre II modélisation de la machine asynchrone

II.3.2 Résultats de simulation

On applique la source de tension à l’instant t=0 s, et à t=2.5 s on applique un couple


résistant de 20N.m égal au couple de la machine.

Réponse de la vitesse
350

300

250
vitesse (m/s)

200

150

100

50

0
0 1 2 3 4 5 6 7 8 9 10
temps (s)

Figure 2.5 Réponse de la MAS : Vitesse

Réponse du couple
35

30

25

20
couple (N.m)

15

10

-5

-10
0 1 2 3 4 5 6 7 8 9 10
temps (s)

Figure 2.7 Réponse de la MAS : couple

20
Chapitre II modélisation de la machine asynchrone

Réponse du courant
40

30

20

10
courant (A)

-10

-20

-30

-40
0 1 2 3 4 5 6 7 8 9 10
temps (s)

Figure 2.8 Réponse de la MAS : courant

II.3.3 Commentaires

On remarque sur la figure (2-6) qu’en appliquant directement la tension alternative


aux bornes de machine asynchrone, l’apparition d’un couple transitoire de 32(N.m) environ et
pour la figure (2-7)

On remarque que la vitesse passe de 320 (m/s) à 280 (m/s), après avoir appliqué un
couple résistant de 20 (N.m).

Concernant le courant de phase (2-8), on remarque qu’il est environ 35(A) lors du
démarrage, de 4(A) En régime permanant et de11(A) Apres application du couple résistant

On peut conclure à ce niveau que la machine asynchrone simulée présente un


comportement très proche de la machine réelle

21
Chapitre III application à la machine asynchrone

III.1 Modélisation par réseaux de neurones

Les réseaux de neurones sont considérés comme des approximateurs universels. Il a


été démontré qu’un réseau de neurones avec une structure convenable peut approximer
n’importe quelle correspondance entre espace d’entrée et espace de sortie. L’entrainement
n’exige que les données entrées/sorties.

Le principe de la modélisation neuronale consiste à placer un réseau neuronal en


parallèle avec le système et l’entrainer pour émuler le comportement dynamique de ce
dernier.

Il existe deux types d’identification :

Identification série-parallèle

Dans cette structure (figure 3.1), le réseau est placé en parallèle avec le système. En plus des
valeurs du signal de commande, le réseau reçoit les valeurs passé de système à modéliser.

Figure 3.1 identification série-parallèle

Identification parallèle

Dans cette structure (figure 3.2), le réseau est complètement en parallèle avec le
système. En plus des valeurs du signal de commande, le réseau reçoit les valeurs passé de sa
propre sortie.

22
Chapitre III application à la machine asynchrone

Figure 3.2 identification parallèle

III.2 Modélisation de la machine asynchrone

Dans ce qui suit nous allons s’intéresser à l’identification de la machine asynchrone


par réseau de neurones. La figure 3.3 illustre le schéma de principe d’identification. Le réseau
reçoit par ses entrées les trois tensions triphasées appliquées à la machine ainsi que la vitesse
de rotation du rotor décalée d’une période d’échantillonnage. Il s’agit de la structure
d’identification série- parallèle.

L’erreur entre la vitesse réelle de la machine et celle du réseau neuronal permet


d’ajuster les poids de connexions lors de la phase d’apprentissage. Le réseau comporte une
seule couche cachée à 10 neurones et une couche d’entrée de 4 neurones. Un seul neurone
constitue la couche de sortie. La fonction de transfert de la couche cachée est une fonction
sigmoide, tendis que la fonction de transfert de la couche de sortie est linéaire.

Figure 3.3 principe d’identification.

23
Chapitre III application à la machine asynchrone

La séquence d’apprentissage est obtenue à partir du modèle de la machine en appliquant les


tensions sur un intervalle [0 :10] seconde.

III.2.1 Résultat de simulation

erreur après apprentissage


100

50

-50

-100

-150
0 200 400 600 800 1000 1200

Figure 3.4 évolution de l’erreur après apprentissage.

320

300

280
vitesse [rad/s]

260

240

sortie réseaux neurones


220 sortie machine asynchrone

200

0 0.5 1 1.5 2 2.5 3 3.5


temps [s]

Figure 3.5 Sorties de la machine asynchrone et du réseau de neurones.

24
Chapitre III application à la machine asynchrone

III.2.2 Commentaire

On remarque d’après la figure 3.4 que l’erreur diminue au fil de la séquence d’apprentissage
cela montre que le réseau de neurone a bien assimilé la sortie qui est la vitesse de rotation de
la machine.

Dans la figure 3.5 la vitesse de la machine et du réseau sont presque identique, ce qui
démontre l’efficacité du réseau à apprendre de son environnement.

III.2.3 influence des paramètres du réseau de neurone sur l’erreur quadratique :

La modification du nombre de neurone ou la modification du nombre de couche cachée


entraine la modification de l’erreur.

La performance du réseau est élevée en augmentant le nombre de neurone dans la couche


cachée ou en ajoutant une autre couche cachée au réseau, c'est-à-dire l’indice de performance
est minimisé dans plus en plus.

Mais remarquons qu’un excès dans le nombre de neurone peut détériorer le réseau c'est-à-dire
qu’il peut perdre ces performance.

25
Conclusion générale

Conclusion générale

Le travail présenté dans ce mini projet a porté sur la modélisation de la machine


asynchrone et cela à l’aide d’un outil qui est le réseau de neurone.

Nous avons commencé par s’initier au monde des réseaux de neurones en exposant
leurs principales caractéristiques. Ce qui leurs a permis de s’intégrer dans plusieurs domaines
tel que la reconnaissance de forme, la classification et la modélisation.

La modélisation de la machine par la transformation de Park nous a permis de


remplacer les variables alternatives par des grandeurs évoluant continument ainsi on a pu
simuler le comportement de la machine asynchrone en boucle ouverte.

Dans le cas des réseaux neurones nous avons optés pour l’algorithme de
rétropropagation, ce dernier permet l’apprentissage de l’ensemble des paramètres du réseau a
partir d’un jeu de donné entré-sortie

Pour l’application on a testé les performances de l’algorithme pour la modélisation de


la machine asynchrone, les résultats obtenus sont très satisfaisants et montre l’influence du
nombre de couche cachées et du nombre de neurones dans chaque couche.

L’étude s’est limité théoriquement, cependant on à montré par simulation l’intérêt des
réseaux neurones pour la modélisation des machines alternatives.

26
Références bibliographiques

Recherche bibliographique

[1 ] Renders J.M. « Algorithme génétique et réseaux de neurones ».


Hermes Science Publications, 1995.

[2]Hornik K. Stinchcombe M. et White H. «Multilayer feedforwardnetworks are universal


approximators». Neural Networks, vol. 2, n 5, pp. 359-366, 1989.

[3] J.Gognat . « Modélisation et simulation d’une commande vectorielle sous le logiciel


Matlab » stage DEES Génie électrique, Aix Marseille III, 1999.

[4] I.Salim et M.Ali. « La commande multimodèle par les réseaux de neurones artificiels
d’un bioprocédé » Mémoire de fin d’étude.UAM de Bejaia, promotion 2002.

[5] JEAN PIERRE CARRON, JEAN PAUL HAUTIER. « Modélisation et commande de


la machine asynchrone » Ed Téchnip 1995-Paris.

[6] I.abdelhakim et Y.nadjib. « La commande supervisée de la machine asynchrone à


résistance rotorique variable » Mémoire de fin d’étude.UAM de Bejaia, promotion 2003.

[7] MARC PARIZEAU. « Réseaux de neurones » université Laval, 2004.

[8] LOTFI BAGHLI . « Contribution à la commande de la machine asynchrone, utilisation


de la logique floue, des réseaux de neurones, et des algorithme génétique » Thèse doctorat,
université Henri Poincaré, Nancy-I.