Beruflich Dokumente
Kultur Dokumente
Une méthode permettant de gérer une ou deux contraintes d’égalité linéaires ou non
linéaires est de résoudre explicitement pour une variable et éliminer cette variable du
problème formulation. Ceci se fait par substitution directe dans les équations de fonction
objectif et de contrainte du problème. Dans de nombreux problèmes, l'élimination d'une
seule contrainte d'égalité est souvent supérieure à une approche dans laquelle la contrainte
est conservée et une procédure d'optimisation contrainte est exécutée.
Par exemple, nous souhaitons minimiser la fonction objectif suivante soumise à une seule
contrainte d'égalité
Un paraboloïde est une infinité de parabole et chaque parabole a son propre minimum. Le
minimum du paraboloïde n’est que l’un des minimums de tous les parables. Cependant et
en tenant compte de la contrainte h(x) représentée par le plan ci-dessus, on prendra le
minimum de la parabole générée par l’intersection du plan représentant h(x) et du
paraboloïde.
Une fois 𝑥2∗ obtenue, 𝑥1∗ peut être directement déduit via la contrainte :
L’interprétation géométrique du problème précédent nécessite de visualiser la
fonction objectif comme la surface d'un paraboloïde dans un espace tridimensionnel,
comme montré sur la figure 8.1. La projection de l'intersection du paraboloïde et du plan
représentant la contrainte sur le f (𝑥2 ) = 𝑥2 plan est une parabole. Nous avons ensuite
trouver le minimum de la parabole résultante. La procédure d'élimination décrite plus tôt
équivaut à projeter le lieu de l'intersection sur l'axe des 𝑥2 . Le lieu de l'intersection pourrait
également être projeté sur l'axe des 𝑥1 (en éliminant 𝑥2 ). Allons-nous obtenir le même
résultat pour x * comme dans le premier cas?
Dans les problèmes où il y a n variables et m contraintes d’égalité, on pourrait tenter
d'éliminer m variables par substitution directe. Si toutes les contraintes d'égalité peuvent
être supprimées et qu’il n’existe aucune contrainte d’inégalité, la fonction objectif peut être
ensuite différenciés par rapport à chacune des variables restantes (n - m) et les dérivés sont
égale à zéro. Alternativement, un code informatique pour les personnes non contraintes
l'optimisation peut être utilisée pour obtenir x *. Si la fonction objectif est convexe (comme
dans l'exemple précédent) et que les contraintes forment une région convexe, alors tout
point fixe est un minimum global. Malheureusement, très peu de problèmes dans la
pratique sont modélisés sous cette forme simple ou permettent même l'élimination de
toutes les contraintes d'égalité.
En conséquence, dans ce chapitre, nous aborderons cinq approches majeures pour résoudre
les problèmes de programmation non linéaire avec contraintes.
La première de ces méthodes ne convient généralement que pour de petits problèmes avec
quelques variables, mais elle peut générer beaucoup d’informations utiles et d’éclairages s’il
est applicable. Les autres sont des approches numériques, qui doivent être implémentées
sur un ordinateur.
et sont illustrés à la figure E8.lb. Le gradient de la fonction objectif f(x *) est orthogonal au
plan tangent de la contrainte en x *. En général, h(x *) est toujours orthogonal à ce plan
tangent, d'où f(x *) et h(x *) sont colinéaires, c'est-à-dire qu'ils se situent sur la même
ligne mais dans des directions opposées. Cela signifie que les deux vecteurs doivent être des
multiples les uns des autres;
Cela ne peut se produire que lorsque f(𝒙∗ ) est orthogonal au plan tangent.
avec 𝜆∗ = 0,707. On introduit maintenant une nouvelle fonction L (x, 𝜆) appelée fonction de
Lagrange :
L’équation devient :
h( x*) = 0
qui constitue une condition de premier ordre nécessaire pour l’optimalité. Le scalaire 𝜆 est
le multiplicateur de Lagrange.
Les conditions nécessaires de premier ordre (8.7) et (8.8) peuvent être utilisées pour trouver
une solution optimale. Supposons que x * et 𝜆 * sont inconnus. La fonction lagrangienne
pour le problème dans l'exemple 8.1 est
𝑥12 + 𝑥22 − 1 = 0
Les conditions nécessaires du premier ordre pour résoudre ce problème, les équations (8.9)
- (8.1 l), consistent en trois équations à trois inconnues (x *, 𝜆 * ) En résolvant les équations
(8.9) - (8.10) pour 𝑥1 𝑒𝑡 𝑥2 .
−1
𝑥1 = 𝑥2 = 2𝜆
ce qui montre que 𝑥1 et 𝑥2 sont égaux à l'extremum. Équation de substitution (8.12) dans
l'équation (8.1 1);
Exemple 8.2 :
Solution :
Soit
En appliquant les conditions nécessaires (8.11) et (8.12)
En subsituant,
𝜆 3𝜆
𝑥1 = − 4 et 𝑥2 = − 10
𝜆∗ = −4,286
𝑥1 = 1,071
𝑥2 = 1,286
Application :
Le problème peut être exprimé comme suit, puisqu’il est équivalent de minimiser la
distance considéré ou son carré,
Min f(x,y)= x2+y2
Et g(x,y)=x2y-16=0
Formons le Lagrangien :
L(x,y, λ)=f(x,y)- λg(x,y)
=x2+y2- λ(x2y-16)
Et recherchons les points stationnaires :
On peut remarquer, en décrivant directement L par rapport à λj , que la condition ∂L/ ∂λj ≥
0 est simplement la contrainte gj (x) ≤ bj .
Les conditions x.∇xL = 0 et λ.∇ λ L = 0 sont appelées relations d’exclusion. En toute
généralité, les conditions de Kuhn-Tucker sont des conditions nécessaires, autrement dit, si
on est en un point optimum, elles sont toujours réalisées. Mais elles ne sont pas forcément
suffisantes : autrement dit, ce n’est pas parce qu’elles sont réalisées en un point (x, λ) que
ce point est obligatoirement un optimum. Néanmoins, il existe des situations ou on peut
affirmer qu’elles sont effectivement suffisantes : c’est le cas en particulier lorsque la
fonction f est concave et les fonctions gj sont convexes. C’est pourquoi on s’intéresse à
l’optimisation convexe. En résumé, dans le cas ou f est concave et les g sont convexes, les
conditions de Kuhn-Tucker sont des conditions nécessaires et suffisantes d’optimalité. Dans
cette situation, un point est optimal si et seulement si les conditions sont toutes réalisées. Si
jamais une seule des conditions n’était pas réalisée, le point ne pourrait pas être une
solution optimale du problème. Noter que dans le cas d’une minimisation, la condition
suffisante ci-dessus est inversée : la fonction f est convexe et les fonctions gj sont concaves.
Dans le cas de la programmation linéaire, ces conditions sont réalisées car une fonction
linéaire est à la fois convexe et concave.
Sachant que si x * est un minimum local du problème donc il existe des vecteurs de
multiplicateurs de Lagrange λ * et u *, tels que x * est un point stationnaire de la fonction L
(x, λ *, u *), c'est-à-dire x* vérifié :
Et :
A chaque itération, les algorithmes PNL estiment la variables x ainsi que des multiplicateurs
de Lagrange λ et u. L’algorithme s'arrête lorsque toutes les contraintes et les conditions de
Kuhn-Tucker KTC sont satisfaites dans les tolérances spécifiées.
Dans le problème non linéaire précédent soit V * (b, c) la valeur optimale de l'objectif f au
minimum local, considéré en fonction des contraintes b et c.
On a :
La KTC comprend à la fois les conditions nécessaires et suffisantes pour optimiser les
problèmes convexes. Dans notre problème si l’objectif f(x) et les fonctions de contrainte
d'inégalité gj sont convexes, et les fonctions de contrainte d'égalité hj sont linéaires, la
région réalisable du problème est convexe et toute minimum est un minimum global.
Autrement :
x * est une solution réalisable,
tout les fonctions du problème ont des dérivées premières continues en x *,
les gradients des contraintes actives en x * sont indépendantes,
x * est optimal si et seulement si les KTC sont satisfaites à x *.
Considérations pratiques :
Beaucoup de problèmes réels ne satisfont pas ces hypothèses de convexité, il est souvent
difficile de dire si une contrainte d'inégalité ou une fonction objective est convexe ou non.
Par conséquent, il est souvent incertain si un point satisfaisant les KTC est un optimum local
ou global.
Pour les problèmes avec quelques variables, nous pouvons parfois trouver toutes les
solutions analytiquement et choisissez celui qui a la meilleure valeur de la fonction
objective.
Autrement, la plupart des algorithmes numériques se terminent lorsque les KTC sont
satisfaits à un peu de tolérance. L’utilisateur spécifie généralement deux tolérances
distinctes : une tolérance de faisabilité εf et une tolérance d’optimalité εo.
Et :
Et x optimal si :
Les conditions nécessaires à Kuhn-Tucker sont satisfaites pour tous minimum local ou
maximum. Si (x *, h *, u *) est un point de Kuhn-Tucker pour le problème, et les conditions
de suffisance de second ordre sont satisfaites à ce point, l'optimalité est garantie.
Les conditions d’optimalité de second ordre impliquent :
pour tous les vecteurs non nuls y tels que :
où J (x *) est la matrice dont les lignes sont les gradients des contraintes qui sont actif à x *.
L’équation définit un ensemble de vecteurs y orthogonaux au gradient des contraintes
actives. Ces vecteurs constituent le plan tangent à la contraintes actives. Par conséquent la
matrice hessienne lagrangienne est positive pour tous les vecteurs y de ce plan tangent. Si le
signe ">" est remplacé par ">=", alors les conditions précédentes plus les KTC sont les
conditions de second ordre nécessaires pour un minimum local.
Si aucune contrainte active ne se produit (x * est donc un point stationnaire non contraint),
alors ces conditions doivent être valable pour tous les vecteurs y, et les multiplicateurs A *
et u * sont nuls . Par conséquent la condition que si la matrice hessienne de la fonction
objectif, évaluée à x *, est défini positive et x * est un point stationnaire, alors x * est un
minimum local sans contrainte est réduite.
8-3-PROGRAMMATION QUADRATIQUE :
Minimiser :
Où :
c est un vecteur de coefficients constants,
A est une matrice (m X n) ,
et Q est une matrice symétrique.
Le vecteur x pouvant contenir des variables de jeu, les contraintes d’égalité peuvent
contenir des contraintes qui étaient à l'origine des inégalités mais qui ont été
converties aux égalités en insérant des jeu .
-Si les contraintes d'égalité sont indépendantes, alors les KTC sont les conditions nécessaires
pour une solution optimale du QP.
-De plus si Q est semi-défini positif, la fonction objectif QP est convexe.
-La région réalisable d’un QP étant définie par des contraintes linéaires, elle est toujours
convexe, le QP est alors un problème de programmation convexe, et toute solution locale
est une solution globale. En outre, les KTC constituent les conditions suffisantes pour un
minimum, et une solution répondant à ces conditions produit l'optimum global.
-Si Q n'est pas positivement défini, le problème peut avoir une solution sans bornes ou des
minima locaux.
(1)
(2)
(3)
(4)
Donc x* est un minimum local de P1(x, w1, w2). Si toute fonction w est supérieure
à la valeur absolue du multiplicateur optimal correspondant, alors le problème peut
être résolu par une seule minimalisation de P1.
Donc, si P1 est exacte alors P2 le carré de la fonction de pénalisation :
ne l’est pas, car cela ne fera que rendre plus petite une inadmissibilité. Alors le
paramètre de pénalisation r doit accroître.
Lagrangien augmenté :
Le Lagrangien augmenté est une fonction de pénalisation exacte utilisée pour des problèmes
ayant des contraintes d’égalité mais peut aussi utilisé pour les problèmes de contraintes en
inégalité. La fonction du Lagrangien augmenté est :
La méthode de barrières :
La méthode de barrières est similaire à la méthode des pénalités. Elle part d’une
solution admissible et tente de l’empêcher de sortir de la région admissible.
Considérons l’exemple suivant :
La fonction des barrières est : B(x,r) = f(x) –r ln(g(x)). Cette fonction est définie à
l’intérieur de la région admissible où g(x) est positive.
Si x s’approche de la limite des contraintes, g(x) tend vers 0 et –r ln (g(x)) tend vers
l’infini. Lorsque r approche zéro, x1(r) et x2(r) convergent vers des valeurs optimales
1,5 et 2,5 et la valeur de la contrainte tend vers 0. Si x(r) est minimum intérieur non
contraint de B(x,r) alors tant que r tend vers 0, le terme de barrières a un poids
décroissant, donc x(r) tend vers les limites de la région admissible si la solution
contrainte se trouve sur cette limite. Pour des valeurs croissantes de r, x(r) s’éloigne de
la limite contrainte.
La méthode des barrières n’est pas directement applicable à des problèmes d’égalité
de contraintes mais ces dernières peuvent être fusionnées en utilisant un terme de
pénalisation et un autre terme de barrières pour les contraintes d’inégalité.