Sie sind auf Seite 1von 17

8.

Programmation non linéaire sous contraintes :

Le premier chapitre présente quelques exemples des contraintes survenant lors de


l’optimisation problèmes. Les contraintes sont classées comme étant des contraintes
d'inégalité ou des contraintes d'égalité, et linéaires ou non linéaires. Le chapitre 7 décrit la
méthode du simplexe pour résoudre des problèmes avec des fonctions objectives linéaires
soumises à des contraintes linéaires.

Ce chapitre traite de problèmes plus difficiles impliquant la minimisation (ou la


maximisation) d’une fonction objectif non linéaire soumise à des contraintes linéaires ou
non linéaires.

Les contraintes d’inégalité de ce problème peuvent être transformées en contraintes


d’égalité, comme expliqué à la section 8.4. Nous nous intéressons donc tout d’abord aux
problèmes contraintes d'égalité.

8.1 Méthode de substitution directe :

Une méthode permettant de gérer une ou deux contraintes d’égalité linéaires ou non
linéaires est de résoudre explicitement pour une variable et éliminer cette variable du
problème formulation. Ceci se fait par substitution directe dans les équations de fonction
objectif et de contrainte du problème. Dans de nombreux problèmes, l'élimination d'une
seule contrainte d'égalité est souvent supérieure à une approche dans laquelle la contrainte
est conservée et une procédure d'optimisation contrainte est exécutée.

Par exemple, nous souhaitons minimiser la fonction objectif suivante soumise à une seule
contrainte d'égalité

On peut éliminer 𝑥1 et 𝑥2 sans aucune difficulté, pour une résolution en 𝑥1 :

En substituant dans la fonction objectif, on retrouve :


La contrainte du problème initial a maintenant été éliminée, et f(𝒙𝟐 ) est une fonction non
contrainte avec 1 degré de liberté (une variable indépendante).
Les contraintes d'élimination des variables constituent l'idée principale de la méthode
généralisée du gradient réduit, comme indiqué à la section 8.7. Nous pouvons maintenant
minimiser la fonction objectif (8.4) en définissant la première dérivée égale à zéro et en
résolvant la valeur optimale de x2:

Un paraboloïde est une infinité de parabole et chaque parabole a son propre minimum. Le
minimum du paraboloïde n’est que l’un des minimums de tous les parables. Cependant et
en tenant compte de la contrainte h(x) représentée par le plan ci-dessus, on prendra le
minimum de la parabole générée par l’intersection du plan représentant h(x) et du
paraboloïde.

Une fois 𝑥2∗ obtenue, 𝑥1∗ peut être directement déduit via la contrainte :
L’interprétation géométrique du problème précédent nécessite de visualiser la
fonction objectif comme la surface d'un paraboloïde dans un espace tridimensionnel,
comme montré sur la figure 8.1. La projection de l'intersection du paraboloïde et du plan
représentant la contrainte sur le f (𝑥2 ) = 𝑥2 plan est une parabole. Nous avons ensuite
trouver le minimum de la parabole résultante. La procédure d'élimination décrite plus tôt
équivaut à projeter le lieu de l'intersection sur l'axe des 𝑥2 . Le lieu de l'intersection pourrait
également être projeté sur l'axe des 𝑥1 (en éliminant 𝑥2 ). Allons-nous obtenir le même
résultat pour x * comme dans le premier cas?
Dans les problèmes où il y a n variables et m contraintes d’égalité, on pourrait tenter
d'éliminer m variables par substitution directe. Si toutes les contraintes d'égalité peuvent
être supprimées et qu’il n’existe aucune contrainte d’inégalité, la fonction objectif peut être
ensuite différenciés par rapport à chacune des variables restantes (n - m) et les dérivés sont
égale à zéro. Alternativement, un code informatique pour les personnes non contraintes
l'optimisation peut être utilisée pour obtenir x *. Si la fonction objectif est convexe (comme
dans l'exemple précédent) et que les contraintes forment une région convexe, alors tout
point fixe est un minimum global. Malheureusement, très peu de problèmes dans la
pratique sont modélisés sous cette forme simple ou permettent même l'élimination de
toutes les contraintes d'égalité.

En conséquence, dans ce chapitre, nous aborderons cinq approches majeures pour résoudre
les problèmes de programmation non linéaire avec contraintes.

1. Solution analytique en résolvant les conditions de premier ordre nécessaires à


l'optimalité (Section 8.2)
2. Pénalité et méthodes de barrière (section 8.4)
3. Programmation linéaire successive (Section 8.5)
4. Programmation quadratique successive (section 8.6)
5. Pente réduite généralisée (section 8.7)

La première de ces méthodes ne convient généralement que pour de petits problèmes avec
quelques variables, mais elle peut générer beaucoup d’informations utiles et d’éclairages s’il
est applicable. Les autres sont des approches numériques, qui doivent être implémentées
sur un ordinateur.

8.2 Conditions du premier ordre nécessaires pour un extremum local :

En guise d'introduction à ce sujet, considérons l'exemple suivant.

Exemple 8.1 : Interprétation graphique d’un problème d’optimisation sous contrainte :


Ce problème est illustré graphiquement à la figure E8. la. Sa région réalisable est un cercle
de rayon égal à 1. Les contours de l’objectif linéaire 𝑥1 + 𝑥2 sont des lignes parallèles au
contour tracé sur la figure. Le contour de la valeur la plus basse qui entre en contact avec le
cercle le touche au point x * = (-0,707, -0,707), qui est le minimum global. Vous pouvez
résoudre ce problème de manière analytique en tant que problème sans contraintes en
substituant 𝑥1 ou 𝑥2 en utilisant la contrainte.
Certaines relations impliquant les gradients de f et h sont maintenues à x * si x * est un
minimum local. Ces gradients sont :

et sont illustrés à la figure E8.lb. Le gradient de la fonction objectif f(x *) est orthogonal au
plan tangent de la contrainte en x *. En général, h(x *) est toujours orthogonal à ce plan
tangent, d'où f(x *) et h(x *) sont colinéaires, c'est-à-dire qu'ils se situent sur la même
ligne mais dans des directions opposées. Cela signifie que les deux vecteurs doivent être des
multiples les uns des autres;

avec 𝜆∗ = -1/1.414 est appelé le multiplicateur de Lagrange pour la contrainte h = 0


La relation dans l'équation (a) doit tenir compte de tout optimum local de toute PNL à
égalité contrainte comportant des fonctions lisses. Pour s’assurer de cette hypothèse,
considérons le point non optimal 𝑥1 de la figure E8. lb. , f(𝒙𝟏 ) n'est pas orthogonal au plan
tangent de la contrainte en 𝒙𝟏 , il a donc une projection non nulle sur le plan. Le négatif de
ce gradient projeté est également non nul, ce qui indique que le fait de descendre le long du
cercle réduit (améliore) la fonction objectif. À un optimum local, aucun mouvement petit ou
incrémentiel le long de la contrainte (le cercle dans ce problème) ne s'éloigne de l'optimum
améliorer la valeur de la fonction objectif, le gradient projeté doit donc être nul.

Cela ne peut se produire que lorsque f(𝒙∗ ) est orthogonal au plan tangent.

La relation (a) de l’exemple 8.1 peut être réécrite comme suit:

avec 𝜆∗ = 0,707. On introduit maintenant une nouvelle fonction L (x, 𝜆) appelée fonction de
Lagrange :

L’équation devient :

donc le gradient de la fonction lagrangienne par rapport à x, évalué à (x *, 𝜆 * ) est zéro.


Équation (8.7), plus la condition de faisabilité :

h( x*) = 0

qui constitue une condition de premier ordre nécessaire pour l’optimalité. Le scalaire 𝜆 est
le multiplicateur de Lagrange.

Utilisation des conditions nécessaires pour trouver l’optimum :

Les conditions nécessaires de premier ordre (8.7) et (8.8) peuvent être utilisées pour trouver
une solution optimale. Supposons que x * et 𝜆 * sont inconnus. La fonction lagrangienne
pour le problème dans l'exemple 8.1 est

En fixant les premières dérivées partielles de L par rapport à x à zéro, on obtient :


La condition de faisabilité est de :

𝑥12 + 𝑥22 − 1 = 0

Les conditions nécessaires du premier ordre pour résoudre ce problème, les équations (8.9)
- (8.1 l), consistent en trois équations à trois inconnues (x *, 𝜆 * ) En résolvant les équations
(8.9) - (8.10) pour 𝑥1 𝑒𝑡 𝑥2 .
−1
𝑥1 = 𝑥2 = 2𝜆

ce qui montre que 𝑥1 et 𝑥2 sont égaux à l'extremum. Équation de substitution (8.12) dans
l'équation (8.1 1);

Le signe moins correspond au minimum et le signe plus au maximum.

Exemple 8.2 :

Considérons le problème introduit plus haut :

Solution :
Soit
En appliquant les conditions nécessaires (8.11) et (8.12)

En subsituant,

𝜆 3𝜆
𝑥1 = − 4 et 𝑥2 = − 10

D’où l’équation devient

𝜆∗ = −4,286
𝑥1 = 1,071
𝑥2 = 1,286

Optimisation avec Contraintes d’égalité :

Dans de nombreux problèmes, on désire identifier le point x maximisant ou minimisant une


fonction f , non pas parmi tous les x appartenant au domaine de définition de f mais
seulement parmi ceux qui vérifient une ou plusieurs contraintes du type gk(x) = 0 pour tout k
∈ {1,2,..., ℓ}. Très souvent, ce sont ces contraintes qui donnent du sens au problème; sans
contrainte il n’y aurait aucune solution optimale.
Si les fonctions f,g1,g2,….,gl définissent le problème d’optimisation avec contraintes
d’égalité P sont différentiables dans un voisinage de la solution x* de P , et si la matrice
G⋆ = (∇g1(x⋆) ∇g2(x⋆) ··· ∇gℓ(x⋆))
Est de rang maximal, si les gradient des contraintes sont linéairement indépendants en x*,
alors il existe λ ⋆ = (λ1⋆,λ2⋆,...,λℓ⋆)∈ Rl tel que (x⋆, λ ⋆) est un point stationnaire du
Lagrangien :
L(x, λ) = f(x)− ℓ ∑ λk gk (x)
Avec : λ=(λ1, λ1,…., λl) ; Les coefficients λ1, λ2, . . . , λℓ introduits dans l’énoncé ci-dessus
sont appelés les multiplicateurs de Lagrange.
L’analyse indique une solution optimale change lorsque le changement de données de problème.
Ces données incluent tous les paramètres apparaissant dans l'objectif ou des fonctions de
contrainte, ou du côté droit des contraintes. Les multiplicateurs fournissent des informations utiles
sur les modifications, tout comme faire pour les programmes linéaires.

Application :

Déterminons la distance de l’origine du plan à la courbe d’équation cartésienne :


x2y=16
2
Le tracé de la courbe x y=16 permet de se rendre compte de l’existence de deux points
symétriques par rapport `a l’axe OY et correspondant à la distance minimale recherchée.

Le problème peut être exprimé comme suit, puisqu’il est équivalent de minimiser la
distance considéré ou son carré,
Min f(x,y)= x2+y2
Et g(x,y)=x2y-16=0

Formons le Lagrangien :
L(x,y, λ)=f(x,y)- λg(x,y)
=x2+y2- λ(x2y-16)
Et recherchons les points stationnaires :

La solution x = 0 vérifiant la première équation ne pouvant être retenue, on tire de cette


équation la relation λ = 1/y. De la troisième équation, on déduit x2 = 16/y. Injectant ces
expressions dans la deuxième équation, il vient :

Dans l’application de la méthode des multiplicateurs de Lagrange, il convient d’être attentif


à la signification précise de l’énoncé. D’une part, il faut se garder de penser que tous les
points stationnaires du Lagrangien correspondent à des valeurs extrémales du problème
d’optimisation P. D’autre part, les hypothèses du théorème ne doivent pas être oubliées. En
toute généralité, la solution du problème d’optimisation P, si elle existe, appartient à l’une
des trois catégories suivantes:
i. les points stationnaires du Lagrangien;
ii. les points ou le Lagrangien n’est pas différentiable;
iii. les points ou l’hypothèse de qualification des contraintes n’est pas vérifiée.

Les conditions de Kuhn-Tucker :

Si on considère un programme d’optimisation convexe noté :

Ou x=(x1,x2,…..,xn) est élément de Rn et g est une fonction de Rn dans Rm :

On suppose que les fonctions f et g sont continument différentiables. Le lagrangien associé


à ce programme est la fonction :

Les coefficients λ s’appellent les coefficients de Kuhn-Tucker. Il y en a autant que de


contraintes. Le coefficient λj est associé `a la contrainte gj (x) ≤ bj . Les conditions de Kuhn-
Tucker sont des conditions nécessaires qui sont réalisées à l’optimum du problème. Elles
s’écrivent vectoriellement de la manière suivante :

On peut les expliciter, pour chaque variable xi (i = 1, . . . , n) et pour chaque coefficient λj (j =


1, . . . , m), de la manière suivante :

On peut remarquer, en décrivant directement L par rapport à λj , que la condition ∂L/ ∂λj ≥
0 est simplement la contrainte gj (x) ≤ bj .
Les conditions x.∇xL = 0 et λ.∇ λ L = 0 sont appelées relations d’exclusion. En toute
généralité, les conditions de Kuhn-Tucker sont des conditions nécessaires, autrement dit, si
on est en un point optimum, elles sont toujours réalisées. Mais elles ne sont pas forcément
suffisantes : autrement dit, ce n’est pas parce qu’elles sont réalisées en un point (x, λ) que
ce point est obligatoirement un optimum. Néanmoins, il existe des situations ou on peut
affirmer qu’elles sont effectivement suffisantes : c’est le cas en particulier lorsque la
fonction f est concave et les fonctions gj sont convexes. C’est pourquoi on s’intéresse à
l’optimisation convexe. En résumé, dans le cas ou f est concave et les g sont convexes, les
conditions de Kuhn-Tucker sont des conditions nécessaires et suffisantes d’optimalité. Dans
cette situation, un point est optimal si et seulement si les conditions sont toutes réalisées. Si
jamais une seule des conditions n’était pas réalisée, le point ne pourrait pas être une
solution optimale du problème. Noter que dans le cas d’une minimisation, la condition
suffisante ci-dessus est inversée : la fonction f est convexe et les fonctions gj sont concaves.
Dans le cas de la programmation linéaire, ces conditions sont réalisées car une fonction
linéaire est à la fois convexe et concave.

8-2-3-Problème non linéaire avec contraintes d’égalité et d’inégalité :


Minimiser : f (x) (a)
Avec les contraintes :
hi (x) = bi , i = 1, . . . , m (b)
gj(x) 5 cj , j= 1, ...,r (c)
On définit les multiplicateurs de Lagrange λi associés aux égalités (b) et uj aux inégalités
(c)et la fonction lagrangienne L(x, λ,u) tel que :

Sachant que si x * est un minimum local du problème donc il existe des vecteurs de
multiplicateurs de Lagrange λ * et u *, tels que x * est un point stationnaire de la fonction L
(x, λ *, u *), c'est-à-dire x* vérifié :

Et :

Multiplicateurs de Lagrange et analyse de sensibilité :

A chaque itération, les algorithmes PNL estiment la variables x ainsi que des multiplicateurs
de Lagrange λ et u. L’algorithme s'arrête lorsque toutes les contraintes et les conditions de
Kuhn-Tucker KTC sont satisfaites dans les tolérances spécifiées.

Dans le problème non linéaire précédent soit V * (b, c) la valeur optimale de l'objectif f au
minimum local, considéré en fonction des contraintes b et c.
On a :

C’est-à-dire que les multiplicateurs de Lagrange fournissent le taux de variation de la valeur


de l’objectif optimal en respectant la variation de la contrainte. Les multiplicateurs de
Lagrange sont très utiles pour analyser la sensibilité des paramètres dans les problèmes
avec des contraintes multiples.

La convexité des problèmes de programmation :

La KTC comprend à la fois les conditions nécessaires et suffisantes pour optimiser les
problèmes convexes. Dans notre problème si l’objectif f(x) et les fonctions de contrainte
d'inégalité gj sont convexes, et les fonctions de contrainte d'égalité hj sont linéaires, la
région réalisable du problème est convexe et toute minimum est un minimum global.
Autrement :
 x * est une solution réalisable,
 tout les fonctions du problème ont des dérivées premières continues en x *,
 les gradients des contraintes actives en x * sont indépendantes,
x * est optimal si et seulement si les KTC sont satisfaites à x *.

Considérations pratiques :

Beaucoup de problèmes réels ne satisfont pas ces hypothèses de convexité, il est souvent
difficile de dire si une contrainte d'inégalité ou une fonction objective est convexe ou non.
Par conséquent, il est souvent incertain si un point satisfaisant les KTC est un optimum local
ou global.

Pour les problèmes avec quelques variables, nous pouvons parfois trouver toutes les
solutions analytiquement et choisissez celui qui a la meilleure valeur de la fonction
objective.
Autrement, la plupart des algorithmes numériques se terminent lorsque les KTC sont
satisfaits à un peu de tolérance. L’utilisateur spécifie généralement deux tolérances
distinctes : une tolérance de faisabilité εf et une tolérance d’optimalité εo.

Un point x est faisable si :

Et :

Et x optimal si :

Les conditions du second ordre nécessaires et suffisantes pour l'optimalité :

Les conditions nécessaires à Kuhn-Tucker sont satisfaites pour tous minimum local ou
maximum. Si (x *, h *, u *) est un point de Kuhn-Tucker pour le problème, et les conditions
de suffisance de second ordre sont satisfaites à ce point, l'optimalité est garantie.
Les conditions d’optimalité de second ordre impliquent :
pour tous les vecteurs non nuls y tels que :

où J (x *) est la matrice dont les lignes sont les gradients des contraintes qui sont actif à x *.
L’équation définit un ensemble de vecteurs y orthogonaux au gradient des contraintes
actives. Ces vecteurs constituent le plan tangent à la contraintes actives. Par conséquent la
matrice hessienne lagrangienne est positive pour tous les vecteurs y de ce plan tangent. Si le
signe ">" est remplacé par ">=", alors les conditions précédentes plus les KTC sont les
conditions de second ordre nécessaires pour un minimum local.
Si aucune contrainte active ne se produit (x * est donc un point stationnaire non contraint),
alors ces conditions doivent être valable pour tous les vecteurs y, et les multiplicateurs A *
et u * sont nuls . Par conséquent la condition que si la matrice hessienne de la fonction
objectif, évaluée à x *, est défini positive et x * est un point stationnaire, alors x * est un
minimum local sans contrainte est réduite.

8-3-PROGRAMMATION QUADRATIQUE :

Le problème de la programmation quadratique (QP) est un problème d’optimisation dans la


fonction objective quadratique de n variables est minimisée sous m contraintes d'inégalité
ou d'égalité linéaires.
En notation matricielle, le problème de programmation quadratique est :

Minimiser :

Où :
 c est un vecteur de coefficients constants,
 A est une matrice (m X n) ,
 et Q est une matrice symétrique.
 Le vecteur x pouvant contenir des variables de jeu, les contraintes d’égalité peuvent
contenir des contraintes qui étaient à l'origine des inégalités mais qui ont été
converties aux égalités en insérant des jeu .

-Si les contraintes d'égalité sont indépendantes, alors les KTC sont les conditions nécessaires
pour une solution optimale du QP.
-De plus si Q est semi-défini positif, la fonction objectif QP est convexe.
-La région réalisable d’un QP étant définie par des contraintes linéaires, elle est toujours
convexe, le QP est alors un problème de programmation convexe, et toute solution locale
est une solution globale. En outre, les KTC constituent les conditions suffisantes pour un
minimum, et une solution répondant à ces conditions produit l'optimum global.
-Si Q n'est pas positivement défini, le problème peut avoir une solution sans bornes ou des
minima locaux.

Pour écrire les KTC, commencez par la fonction lagrangienne :


et égalez le gradient de L à zéro (notez que λT (Ax - b) =(Ax - b) Tλ = (xTAT - bT) λ et uTx = xTu)

Ensuite, les KTC se réduit avec les équations suivantes :

(1)
(2)
(3)
(4)

Où ui et A sont les multiplicateurs de Lagrange.


Si Q est semi-défini positif alors tout ensemble des variables (x *, u *, A *) satisfaisant les
KTC est une solution optimale au problème.
Certains solveurs de QP utilisent ces KTC directement en trouvant une solution répondant
aux équations. Ils sont linéaires sauf pour la dernière condition, ce qui est appelé une
condition de jeu complémentaire.
Le relâchement complémentaire implique qu'au moins une variable de chaque paire de
variables (ui, xi) doit être égale à zéro. D'où une solution réalisant les KTC peut être trouvée
en commençant par une solution complémentaire infaisable aux contraintes linéaires 1 et 3
et en utilisant des opérations de pivot LP.
Minimiser la somme des infaisabilités tout en maintenant la complémentarité. Parce que
(1)et (2) ont respectivement n et m contraintes, l’effet est à peu près équivalent à la
résolution d’un LP avec (n + m) rangées.

8-4-Méthodes de pénalisation, barrières et le Lagrangien augmenté :

La pénalisation est un concept simple qui permet de transformer un problème


d’optimisation avec contraintes en un problème ou en une suite de problèmes
d’optimisation sans contrainte.
D’un point de vue théorique, une approche par pénalisation peut être utilisée pour étudier
un problème d’optimisation dont les contraintes sont difficiles à prendre en compte, alors
que le problème pénalisé a des propriétés mieux comprises ou plus simples à mettre en
évidence.
Soit le problème d’optimisation :
Minimiser f(x), g(x) ≤ 0 pour minimiser: P (f, g, h, r)
P (f,g,h,r) est appelée la fonction de pénalisation et r est le paramètre de pénalisation
positif. Une fois que la fonction de pénalisation est formulée, elle est minimisée pour
une série de valeurs croissantes de r afin d’approcher l’optimum du problème formulé
sous contrainte.
On considère l’exemple suivant :
f (x) = (x-1)² + (x-2)²
h (x)= x1 + x2 -4 = 0
La fonction objective non contrainte est :
r (x1 + x2 -4)² est le terme de pénalisation
On considère ensuite une série de problèmes de minimisation où la fonction P(x,r) doit
être minimisée pour une série de valeurs de r tendant vers l’infini. Pour des valeurs très
grandes de r, le terme de pénalisation augmente aussi. Dans ce cas, les valeurs de xi
répondent aux contraintes d’égalité. Pour f approche la valeur de P, il faut que le produit
de r et h² tende vers 0.
L’optimum contraint est x* = (1,5, 2,5) et le minimum non contraint est le point (1,2). Ce
point est aussi le minimum de la fonction P(x, 0). Les points minimums pour r=1, 10,
100, 1000 se trouvent au centre des contours elliptiques. Notons aussi que les contours
de P(x,r) ont tendance à se confondre au voisinage de x1 + x2 =4.

Ce regroupement autour des contours de P(x,r) est montré par le numéro de


conditionnement de la matrice hessienne de P. Pour un r grand, le rapport des valeurs
propres est grand, 𝜵²P est alors dite mal conditionnée.
Le conditionnement de la matrice hessienne de la fonction objective est important
pour mesurer la difficulté dans l’optimisation contrainte. La méthode de Newton est
utilisée pour minimiser une fonction par la résolution d’équations linéaires.
Considérons la fonction de pénalisation exacte L1, càd que toute solution de L1
minimise notre problème d’optimisation formulé ci-dessous,
où w1 et w2 sont des fonctions positives. La somme des contraintes dites
inadmissibles représentent la fonction objectif dans première étape de l’algorithme
de simplex vu dans le chapitre précédent.
Soit x* le minimum local du problème (Px) :
Minimiser f(x)
hi (x) = bi, i = 1, . . . , m
gj(x) 5 cj, j= 1,..., r
Et soit (𝝀*, u*) le vecteur des multiplicateurs optimaux correspondant à x* qui
satisfait la condition de Kuhn-Tucker. Alors si

Donc x* est un minimum local de P1(x, w1, w2). Si toute fonction w est supérieure
à la valeur absolue du multiplicateur optimal correspondant, alors le problème peut
être résolu par une seule minimalisation de P1.
Donc, si P1 est exacte alors P2 le carré de la fonction de pénalisation :

ne l’est pas, car cela ne fera que rendre plus petite une inadmissibilité. Alors le
paramètre de pénalisation r doit accroître.
Lagrangien augmenté :
Le Lagrangien augmenté est une fonction de pénalisation exacte utilisée pour des problèmes
ayant des contraintes d’égalité mais peut aussi utilisé pour les problèmes de contraintes en
inégalité. La fonction du Lagrangien augmenté est :

𝝀j sont les multiplicateurs de Lagrange, AL est le Lagrangien L plus le terme de


pénalisation au carré. Soient x* le minimum local du problème et (x*, 𝝀*)
satisfaisant la condition Kuhn Tucker.
Le gradient d’AL est

Comme x* existe, alors hj (x*)=0 :


x* est un point stationnaire pour AL(x*, 𝝀*, r), quelque soit la valeur de r. Si 𝜵²AL
est définie positive alors x* est un minimum local.
Il est à noter que les points stationnaires ne sont pas tous des minimums.

La méthode de barrières :
La méthode de barrières est similaire à la méthode des pénalités. Elle part d’une
solution admissible et tente de l’empêcher de sortir de la région admissible.
Considérons l’exemple suivant :

La fonction des barrières est : B(x,r) = f(x) –r ln(g(x)). Cette fonction est définie à
l’intérieur de la région admissible où g(x) est positive.
Si x s’approche de la limite des contraintes, g(x) tend vers 0 et –r ln (g(x)) tend vers
l’infini. Lorsque r approche zéro, x1(r) et x2(r) convergent vers des valeurs optimales
1,5 et 2,5 et la valeur de la contrainte tend vers 0. Si x(r) est minimum intérieur non
contraint de B(x,r) alors tant que r tend vers 0, le terme de barrières a un poids
décroissant, donc x(r) tend vers les limites de la région admissible si la solution
contrainte se trouve sur cette limite. Pour des valeurs croissantes de r, x(r) s’éloigne de
la limite contrainte.
La méthode des barrières n’est pas directement applicable à des problèmes d’égalité
de contraintes mais ces dernières peuvent être fusionnées en utilisant un terme de
pénalisation et un autre terme de barrières pour les contraintes d’inégalité.

Das könnte Ihnen auch gefallen