Beruflich Dokumente
Kultur Dokumente
Pierre Puiseux
20 fvrier 2014
Introduction et rappels
1.1
Reprsentation graphique . . . . . . . . . . . . . . . . . . . . .
1.2
Formules de Taylor . . . . . . . . . . . . . . . . . . . . . . . .
1.3
Convexit . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.4
Applications quadratiques . . . . . . . . . . . . . . . . . . . .
11
2.1
Extrema libres . . . . . . . . . . . . . . . . . . . . . . . . . . .
11
2.2
12
2.3
14
2.4
14
2.5
Algorithmes de gradient . . . . . . . . . . . . . . . . . . . . .
16
2.5.1
17
2.5.2
18
21
3.1
Dfinitions et notations . . . . . . . . . . . . . . . . . . . . . .
21
3.2
Quelques exemples . . . . . . . . . . . . . . . . . . . . . . . .
22
3.3
23
3.4
Cas gnral . . . . . . . . . . . . . . . . . . . . . . . . . . . .
26
3.5
En rsum . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
29
Contrainte ingalit
31
4.1
Dfinition et exemples . . . . . . . . . . . . . . . . . . . . . .
31
4.2
33
4.3
33
cc le mercredi 5/03
Correction lundi 10/03
Exam mercredi 12/03
Pierre Puiseux
Avertissement
ce ne sont que des notes de cours, en perptuelle volution, dans lesquelles subsistent certainement de
nombreuses erreurs et approximations !
Notations
R : R {, +}
C : C {, +}
K : R ou C et K : R ou C.
A : fonction caractristique de lensemble A.
L (E, F ) : applications linaires de E dans F (E et F espaces vectoriels).
Lc (E, F ) : applications linaires continues de E dans F (E et F espaces vectoriels norms).
|||||| : norme de lapplication linaire .
(f |g) produit scalaire.
C (A, B) = C 0 (A, B) fonctions continues de A dans B.
C p : fonctions de classe C p
(u|v) : produit scalaire.
x, y, z, . . . des nombres rels
x, y, z, . . . des vecteurs de Rn
f (x) ou f (x) : le gradient de f au point x.
2 f (x) ou f (x) ou Hf (x) : la matrice hessienne de f au point x.
Chapitre 1
Introduction et rappels
Loptimisation est ltude des fonctions f : Rn R, pour lesquelles on cherche un point a =
(a1 , a2 , . . . an ) C Rn en lequel f atteint un maximum ou un minimum.
Le point a est recherch dans un ensemble C qui prend en compte certaines contraintes du problme.
Un problme doptimisation (minimisation) scrira :
{
Minf (x)
(P)
xC
On se restreint le plus souvent ici des fonctions de deux ou trois variables (n = 2).
La fonction optimiser est appele fonction cot ou fonction objectif.
1.1
Reprsentation graphique
0.5
-1.5
-1
-0.5
0.5
1.5
-0.5
-1
1,5
0,5
-2,5
-2
-1,5
-1
-0,5
0,5
1,5
2,5
-0,5
-1
-1,5
-2
(
)
2
2
2
2
2
2
Fig. 1.1.2 : Fonction (x, y) 7 3 (x 1)2 e(x (y1) ) 10 x5 x3 y 5 ex y 13 e((x+1) y ) ,
isovaleurs et reprsentation standard
1.2
Formules de Taylor
1.3 Convexit
lim
)
f
f
2f
2f
2f (
(a, b) h+
(a, b) k+ 2 h2 +2
(a, b) hk+ 2 k 2 h2 + k 2 (h, k)
x
y
x
xy
y
(h, k) = 0
(h,k)(0,0)
Remarque. Dans cette criture, f (a) Rn est le vecteur gradient de f en a, 2 f (a) Rn,n est la
matrice hessienne de f en a et 2 f (a) (h, h) dsigne le produit matriciel h 2 f (a) ht .
2
2f
2f
f
(a)
(a)
.
.
.
(a)
2
x1 x2
x1 xn
x1
h1
2
..
.
.
f
.
.
(
)
.
.
(a)
.
h2
h1 h2 . . . hn x1 x.2
.
...
...
2f
..
..
(a)
xn1 xn
hn
2f
2f
2f
(a)
...
(a)
(a)
x1 xn
xn1 xn
x2
n
1.3
Convexit
et
et en additionnant :
0 (1 ) xa + xb 1
de manire analogue la deuxime coordonne de (1 ) a + b vrifie :
0 (1 ) ya + yb 1
et finalement on a bien
(1 ) a + b C
x
+
2
)
(
2 1
2
qui a pour valeurs propres 1 = 1, 2 = 3 elle est donc strictement convexe
f (x, y) =
1 2
sur R.
1.4
Applications quadratiques
Dfinition 1.3. Soit n un entier. On appelle application quadratique de Rn dans R toute application f
de la forme
1
f (x) = Ax, x + b, x + c
2
n,n
n
o A R est une matrice, b R est un vecteur et ., . dsigne le produit scalaire de Rn :
x = (x1 , . . . , xn )t , y = (y1 , . . . , yn )t
x, y =
xi yi
iJ1,nK
1
Ax, x + b, x + c
2
alors
f (x) = Ax + b
et
2 f (x) = A
10
Exemple 1.1. (x, y) 7 x2 + y 2 + xy 2x + 3 est une application quadratique dont les lments sont
donns par :
(
)
2x + y 2
f (x) =
2y + x
(
)
2 1
2
f (x) =
1 2
(
)
( )
2 1
2
1
Donc f (x) = 2 Ax, x + b, x + c avec A =
,b =
et c = 3.
1 2
0
11
Chapitre 2
Optimisation sans contrainte
2.1
Extrema libres
12
2.2
(
)
2
2
2
2
Exemple. Pour la fonction f : (x, y)
7
3 (x 1)2 e(x (y1) ) 10 x5 x3 y 5 ex y
2
1 ((x+1) y 2 )
e
, au point (a, b) = (0, 0) et dans la direction d = (0, 1), on obtient la coupe suivant
3
laxe Oy :
(t) = f (0, t)
2
1
2
2
= 3e(t1) + 10t5 et e1t
3
10
7,5
x=0
5
x = 0.5
x=1
2,5
-2,8
-2,4
-2
-1,6
-1,2
-0,8
-0,4
0,4
0,8
1,2
1,6
2,4
2,8
-2,5
-5
-7,5
Proposition 2.1. Le gradient de f en (a, b) est la direction de plus grande pente de f au point (a, b).
13
(a,b)
(u,v)
1800 m
g(t)
1700 m
1600 m
1500 m
1400 m
1300 m
1200 m
1100 m
1000 m
(0) =
f
f
(a, b) u +
(a, b) v
x
y
est la drive directionnelle dans la direction d. Cest le produit scalaire de f (a, b) par d, cest
dire, en dsignant par langle entre ces deux vecteurs ::
(0) = f (a, b)2 d2 cos ()
Donc (0) est maximal lorsque cos () = 1 cest dire pour = 0 cest dire encore pour d dans
la direction du gradient.
14
2.3
Thorme. (condition ncessaire, ordre 1) si f est continuement drivable sur D, si (a, b) D est
un extremum, alors le gradient de f en (a, b) est nul :
f
f
(a, b) =
(a, b) = 0
x
y
La nullit du gradient en (a, b) est une condition ncessaire, mais insuffisante, pour que f admette un
extremum en (a, b). Les points ou le gradient sannule sont appels points critiques.
Exemple. f (x, y) = xy a pour point critique (0, 0) et f (0, 0) = 0 nest ni un minimum ni un maximum car f prend des valeurs positives et ngatives sur tout voisinage de (0, 0) puisque f (x, x) > 0
et f (x, x) < 0.
2.4
Une condition suffisante pour que la fonction f soit maximum au point (a, b) est que la coupe
soit maximum en 0 pour toutes les directions (u, v). Ce qui revient dire que (0) = 0 et (0) < 0
pour toutes les directions (u, v), ou encore :
f
x
(a, b) u +
(0) =
2f
x2
f
y
f
(a, b) u2 + 2uv xy
(a, b) +
2f
y 2
2f
(a, b)
x2
2f
(a, b)
xy
2f
(a, b)
xy
2f
(a, b)
y 2
, parfois note
Les valeurs propres dune matrice A sont les racines du polynme P () = det (A I).
On appelle vecteur propre associ la valeur propre tout vecteur U non nul vrifiant AU = U .
( )
u
On remarque que (0) = u v D2 f (a, b)
, la thorie des formes bilinaires sapplique : pour
v
que (0) > 0 dans toutes les directions (u, v), il suffit que la hessienne soit une matrice dfinie
positive, cest dire que ses valeurs propres soient strictement positives.
(
15
Thorme 2.2. Soit D un domaine ouvert de R2 , f une fonction deux fois continment diffrentiable
sur D et (a, b) un point de D. Notons le gradient et H la matrice hessienne de f au point (a, b).
1. Si = 0 et si H a toutes ses valeurs propres strictement ngatives, alors (a, b) est un maximum
local pour f .
2. Si = 0 et si H a toutes ses valeurs propres strictement positives, alors (a, b) est un minimum
local pour f .
3. Si = 0 et si H a certaines de ses valeurs propres strictement positives, toutes les autres
strictement ngatives, alors (a, b) est un point selle pour f .
4. Si = 0 et si certaines valeurs propres de H sont nulles, alors on ne peut pas conclure.
(a,b)
x
(a,b)
y
(a,b)
x
16
4 4
(a, b) = (1, 2) H =
la hessienne a pour valeurs propres = 2 + 2 5 > 0,
4 0
4 4
(a, b) = (1, 2) H =
la hessienne a pour valeurs propres = 2+2 5 > 0,
4 0
Lorsque la fonction f est deux variables (x, y), cette analyse par valeurs propres se simplifie, et il
nest pas ncessaire de calculer les valeurs propres :
2
f
(0) = xf2 (a, b) u2 + 2uv xy
(a, b) + yf2 (a, b) v 2 est un polynme du second degr en u, la condi2
tion (0) < 0 (suffisante pour avoir un maximum) est de
tout
((la forme u) + 2u + < 0 pour )
2
2
2
2f
(u, v). Le discriminant rduit de ce polynme est = v 2
(a, b) xf2 (a, b) yf2 (a, b) =
xy
2f
x2
si
2f
x2
2f
x2
(a, b) ;
si det H (a, b) < 0 alors (0) change de signe (a, b) est un point selle ;
si det H (a, b) = 0 on ne peut pas conclure.
2.5
Algorithmes de gradient
2.5.1
17
u.v =
uk vk
1kn
u.u
Lalgorithme du gradient consiste partir dune approximation initiale x(0) = (x0 , y0 ), se dplacer
dans la direction de la plus grande pente, donc du gradient, dun pas t. Si t > 0, le dplacement se fait
dans la direction f croissante, si t < 0, on se dplace dans la direction f dcroissante.
( (k) )
On stoppe
les
itrations
lorsque
f
x
ou bien x(k) est stationnaire. Ici, on a choisi la stationnarit
( (k) )
de f x .
Algorithme 2.1 Algorithme du gradient pas fixe pour minimiser une fonction f
x(0) , , f, f, t sont donns, k = 0
rpter :
(
)
x(k+1) = x(k) tf x(k)
k =k+1
(
)
(
)
jusqu f x(k) f x(k1) <
Exemple. Le programme Python qui suit implmente lalgorithme du gradient pas fixe, pour la
fonction (x, y) 7 x2 + y 2 xy. Le test darrt des itrations se fait sur la norme du gradient : cest
(
)
2
dire sur
f x(k)
2 < 2 , ce qui quivaut
x(k+1) x(k)
2 < . Afin dinterdire une boucle infini,
(en cas de non convergence), on limite galement le nombre ditrations avec le paramtre itmax
# !/usr/local/bin/python2.7
# -*- coding : utf-8 -*''' Optimisation : gradient pas fixe'''
def f(x,y) :
return x*x + y*y - x*y
def gradf(x,y) :
return [2*x - y, 2*y - x]
def gradient(X0=[1.0,1.0], f=f, gradf=gradf, eps=1.e-5, itmax=100, t=1.0) :
'''Gradient pas fixe'''
X = [X0]
x,y = X0
F = [f(x,y)]
it = 1
while 1 :
dx, dy = gradf(x, y)
18
1.0
0.8
0.6
0.4
0.2
0.0
0
10
15
20
25
Fig. 2.5.1 : Valeur de la fonction objectif en fonction du numro ditration, algorithme du gradient
2.5.2
Ici, on demande lalgorithme de dplacer x(k) , toujours dans la direction du gradient, mais cette fois
jusquau minimum de f , cest dire de minimiser la coupe
))
(
(
t R 7 k (t) = f x(k) + t.f x(k)
En gnral, on ne dispose pas dune expression analytique de la coupe k . La minimisation de cette
fonction (appele recherche linaire) peut tre assez difficile mener. Il existe des algorithmes (rgles
de Wolfe, dArmijo, ...) qui approchent ce minimum.
19
20
21
Chapitre 3
Contraintes galit, multiplicateurs de
Lagrange
3.1
Dfinitions et notations
En toute gnralit, nous posons le problme doptimisation sous contraintes galit ainsi :
Soit D un ouvert non vide de Rn , et soit f : D R la fonction cot ou fonction objectif, continuement
diffrentiable.
Les contraintes g1 , . . . , gp sont p applications continuement diffrentiables et
C = {x D, gi (x) = 0, i J1, pK}
Le problme de minimisation rsoudre est :
{
Minf (x)
(P)
xC
Dfinition 3.1. On appelle lagrangien du problme (P) la fonction
L (x, ) = L (x1 , x2 , . . . , xn , 1 , . . . , m )
= f (x) +
i gi (x)
iJ1,pK
i gi (x)
iJ1,pK
et
2x L (x, ) = 2 f (x) +
iJ1,pK
On voit facilement
Pierre Puiseux
i 2 gi (x)
22
2L
L
2L
.
.
.
2
x1 x2
x1 xn
x2 1
..
..
..
L
.
.
.
x1 x2
2
x L (x, ) = .
(x, )
2
.
.
L
..
..
..
xn1 xn
2
2
2
L
L
L
...
x1 xn
xn1 xn
x2
n
3.2
Quelques exemples
10
7,5
2,5
-2
-1,5
-1
-0,5
0,5
1,5
-2,5
-5
23
Les contraintes ne sont pas ncessairement linaires comme g (x, y) dans lexemple prcdent.
Exemple 3.3. (contrainte non linaire) : parmi les paralllpipdes de surface S0 fixe, lequel a le volume maximal ? x, y dsignant les longueurs des cots du paralllpipde, la surface est S (x, y, z) =
2 (xy + yz + zx) et son volume est V (x, y, z) = xyz. Le problme consiste donc trouver le maximum de V (x, y, z) sous la contrainte 2 (xy + yz + zx) = S0 . On peut calculer z :
z=
xy
x+y
S0
2
et maximiser
VS0 (x, y) = xy
x=y=
xy
x+y
S0
2
S0
6
3.3
On se place en dimension n = 2 (f est une fonction a deux variables) avec une seule contrainte galit
g. Lensemble des contraintes est
C = {(x, y) D, g (x, y) = 0}
Le lagrangien du problme est donc
L (x, y, ) = f (x, y) + g (x, y)
Le thorme suivant donne une condition ncessaire dexistence dun minimum contraint :
Thorme 3.1. (condition ncessaire, ordre 1) Soit D un domaine ouvert de R2 , f et g deux applications continuement drivables de D dans R. On note
C = {(x, y) D, g (x, y) = 0}
24
(a, b, ) = g (a, b) = 0.
2. Si la contrainte nest pas qualifie en (a, b), il se peut que f restreinte A prsente un extrmum
en (a, b) A mais que le multiplicateur de Lagrange nexiste pas.
3. Si la contrainte est le cercle unit x2 + y 2 = 1 on a une interprtation simple du multiplicateur
de Lagrange : minimiser f (x, y) sous la contrainte x2 + y 2 = 1 revient minimiser () =
f (cos () , sin ()) pour R, cest un problme en 1 dimension, sans contrainte. La condition
ncessaire doptimalit scrit : () = 0 soit
sin ()
f
f
(cos () , sin ()) + cos ()
(cos () , sin ())
x
y
ce qui peut sinterprter ainsi : les deux vecteurs f (cos () , sin ()) et u = (cos () , sin ())t
sont colinaires. Or u nest autre que g (cos () , sin ()) avec g (x, y) = x2 + y 2 1 donc il
existe un rel tel que f (cos () , sin ()) = g (cos () , sin ())
Dfinition 3.2. (Hessienne borde) La matrice hessienne du lagrangien est aussi appele la matrice
hessienne borde de f
2 L (x, y, ) =
2L
(x, y, )
x2
2L
xy (x, y, )
g
(x, y)
x
2L
(x, y, )
yx
2L
(x, y, )
y 2
g
(x, y)
y
g
x
g
y
(x, y)
(x, y)
0
Thorme 3.2. (Condition suffisante, ordre 2) Soit D un domaine ouvert de R2 , f et g deux applications deux fois continuement drivables de D dans R. Soit (a, b, ) un point critique du lagrangien
L (x, y, ) = f (x, y) + g (x, y)
alors
si le dterminant de la hessienne borde 2 L (a, b, ) est strictement ngatif, (a, b) est un
minimum local du problme contraint ;
si le dterminant de la hessienne borde 2 L (a, b, ) est strictement positif, (a, b) est un maximum local du problme contraint.
ATTENTION : Le thorme prcdent est valide uniquement pour deux variables (x, y)
25
3x y 2x + 3 + 2
L (x, y, ) = x3 + 2y + 2 +
2x + y 1
et
6xy 2 3x2 2
2 1
2 L (x, y, ) = 3x2
2
1 0
20 3 2
2. un seul point critique de L : (1, 3, 7) 2 L (1, 3, 7) = 3 2 1 et
2 1 0
( )
2
= 0R2
3. La contrainte est qualifie au point (1, 3) car g (1, 3) =
1
4. det (2 L (1, 3, 7)) = 24 > 0 donc f prsente un maximum contraint en (1, 3) : f (1, 3) =
8
5. figures
26
3.4
Cas gnral
{
Minf (x)
(P)
xC
Dfinition 3.3. On dit que les contraintes sont qualifies au point x si et seulement si la famille
{gi (x ) , 1 i p}
est une famille libre.
On commence par des conditions ncessaires :
Thorme 3.3. (condition ncessaire, ordre 1) On suppose que f et gi , 1 i p sont continuement
drivables sur D.
Si f restreinte C prsente un extremum en x C et
si les contraintes sont qualifies
(
)
alors le lagrangien admet un point critique (x , ) avec = 1 , 2 , . . . , p :
L (x , ) = 0R3
les i sont appels multiplicateurs de Lagrange.
Remarque.
1. Si (x , ) et un point critique du lagrangien, alors x C car
L
j
(x , ) = gj (x ) = 0.
27
1 + 2x
1 + 2y
L (x, y, z, ) =
1 + 2z
2
2
2
2
x +y +z r
la hessienne :
2 0 0 2x
0 2 0 2y
2 L (x, y, z, ) =
0 0 2 2z
2x 2y 2z 0
et son dterminant :
(
)
(
)
det 2 L (x, y, z, ) = 162 x2 + y 2 + z 2 < 0
1
2. Points critiques : x = y = z = 2
et la contrainte donne 3x2 = r2 donc les points critiques
sont :
(
)
3
3
3
3
A = (x , ) =
r,
r,
r,
et B = A.
3
3
3
2r
g (x, y, z) = 2y
2z
donc g (x ) = 0 et g (x ) = 0 ces deux points critiques sont donc candidats tre des
extrema contraints.
3. De lgalit
2x L (x, y, z, ) = 2Id3
on dduit, en utilisant le thorme prcdent :
au point A on a 2x L (A) a donc pour valeurs propres 1 = 2 = 3 =
donc un maximum.
3
r
< 0 on a
28
3
r
> 0 on a donc
(D est la matrice dont les p colonnes sont les gradients des contraintes).
Exemple 3.8. Dans lexemple (3.5),
20 3 2
2 1
2 L (1, 3, 7) = 3
2 1 0
et
20
3
2
3
2 1 = 24 + 5
p () =
2
1
0
a pour racine = 24
< 0, on a donc un maximum en f (1, 3) = 8.
5
3.5 En rsum
3.5
29
En rsum
Contraintes galits
30
31
Chapitre 4
Contrainte ingalit
4.1
Dfinition et exemples
En toute gnralit, nous posons le problme doptimisation sous contraintes (galit et ingalit)
ainsi :
Soit D un ouvert non vide de Rn , et soit f : D R la fonction cot ou fonction objectif, continuement
diffrentiable.
Les contraintes g1 , . . . , gp et h1 , . . . , hq sont p + q applications continuement diffrentiables et
C = { x D, gi (x) = 0, i J1, pK et hj (x) 0, j J1, qK }
|
{z
} |
{z
}
contraintes galit
contraintes ingalit
Le problme de minimisation rsoudre est :
{
Minf (x)
(P)
xC
Dfinition 4.1. Soit x D.
On dit que la contrainte ingalit hj est active ou sature en x si et seulement si
hj (x) = 0
On dit que les contraintes g1 , . . . , gp et h1 , . . . , hq sont qualifies en x si et seulement si
L (x, , ) = f (x) +
i gi (x) +
j hj (x)
iJ1,pK
Pierre Puiseux
jJ1,qK
32
i gi (x) +
iJ1,pK
et
2x L (x, , ) = 2 f (x) +
j hj (x)
jJ1,qK
i 2 gi (x) +
iJ1,pK
j 2 hj (x)
jJ1,qK
2L
x1 x2
2L
x21
2
L
2x L (x, , ) = x1.x2
..
2L
x1 xn
..
..
...
...
..
.
..
.
2L
xn1 xn
2L
x1 xn
(x, , )
2
L
xn1 xn
..
.
2L
x2n
Exemple 4.1.
On considre un bien B, de quantit 100 rpartir entre 5 consommateurs. Chaque consommateur
reoit une quantit xi du bien B. Il doit en recevoir une quantit minimale qi et en espre la quantit
pi avec
i
1
2
3
4
5
qi
10
15
20
15
25
pi
20
25
40
40
40
(xi pi )2
1i5
les contraintes :
xi = 100
1i5
et
x i qi , 1 i 5
4.2
33
x L (x , , ) = 0
{
j 0
j J1, qK,
j hj (x ) = 0
et
Remarque.
1. Pour un problme de maximisation, il suffit de remplacer j J1, qK, j 0 par j
J1, qK, j 0.
2. Si la contrainte hj nest pas sature, alors j = 0 et la contrainte nintervient plus dans le
lagrangien, cest comme si elle tait absente du problme initial.
4.3
{
g (x, y, z) = x + y + z 3 = 0
h (x, y, z) = 2x y + z 5 0
Consiste dterminer dans R3 la distance lorigine du demi-plan dfini par les contraintes.
34
(ii)
(iii)
soit
(i)
2x + + 2 = 0
2y + = 0
2z + + = 0
(ii) (2x y + z 5) = 0
(iii)
0
Supposons = 0, alors
(i) 2x y + z 5 = 0
et
x = ( 2)/2
(i)
y = ( + )/2
z = ( )/2
f (x) =
(xi pi )2
iJ1,5K
les contraintes :
g (x) =
xi 100 = 0
iJ1,5K
hi (x) = qi xi 0, i J1, 5K
Le lagrangien
L (x, , ) = f (x) + g (x) +
i hi (x)
iJ1,5K
iJ1,5K
i hi (x) = 0
35
2 (xi pi ) + i = 0
(i) i (xi qi ) = 0
i J1, nK
i 0
xi = 100
TODO
Exercices
Sans contrainte
Exercice 4.1. Pour chacune des fonctions de R2 dans R suivantes :
f1 (x, y) = x3 + 3xy 2 15x 12y
f2 (x, y) = x2 + y 2 xy
f3 (x, y) = x2 y 2 xy
f4 (x, y) = x3 + y 3 x2 y 2
f5 (x, y) = 4x2 + 4y 2 (x + y)4
1. Calculer le gradient de f .
2. Dterminer les points critiques de f .
3. Calculer la matrice hessienne de f .
4. Pour chacun des points critiques de f , donner les conclusions tires de lexamen de la matrice
hessienne.
5. Pour chacun des points critiques de f , dire sil sagit ou non dun extremum global de f .
Exercice 4.2. Pour chacune des fonctions de R2 dans R suivantes :
f1 (x, y, z) = x2 + 2y 2 + 3z 2
f2 (x, y, z) = x2 + 2y 2 3z 2
f3 (x, y, z) = x4 + y 2 + z 2 4x2y2z + 4
f4 (x, y, z) = x4 2x2 y + 2y 2 + 2z 2 + 2yz2y2z + 2
f5 (x, y, z) = 3(x2 + y 2 + z 2 )2(x + y + z)4
1. Calculer le gradient de f et la matrice hessienne de f .
2. Dterminer les points critiques de f .
3. Pour chacun des points critiques de f , donner les conclusions tires de lexamen de la matrice
hessienne.
36
Contraintes galit
Exercice 4.3. Optimiser f (x, y) = x2 y sous la contrainte 4x + y = 30 en utilisant deux mthodes :
1. en se ramenant un problme une variable
2. en utilisant les techniques de lagrangien.
Exercice 4.4. Chercher les extrema de la fonction f (x, y) = x2 y sous la contrainte 12x+2y180 = 0
Exercice 4.5. Chercher les extrema de la fonction f (x, y) = x (1 + y) sous la contrainte 5x + 10y
5=0
Exercice 4.6. Chercher les extrema de la fonction f (x, y, z) = x + y + z sous la contrainte x2 + y 2 +
z2 = 1
Exercice 4.7. Chercher les extrema de la fonction f (x, y) = x + y sous la contrainte x2 + y 2 = 1
Exercice 4.8. Optimiser f (x, y) = xy
1. sous la contrainte x + y = 6
2. sous la contrainte x2 + y 2 = 2
Exercice 4.9. On veut maximiser la fonction
f (x, y, z) = x2 yz
sous la contrainte
2x + 4y + z 64 = 0
Montrer que ce problme se ramne un problme doptimisation sans contrainte et rsoudre ce problme.
Exercice 4.10.
On note C le cercle unit de R2 :
{
}
C = (x, y) R2 , x2 + y 2 = 1
On considre les fonctions
f (x, y) = x + y
f (x, y) = x2 + y 2 xy
f (x, y) = x + y xy
f (x, y) = x2 + y 2 x2 y 2
f (x, y) = x2 y
1. Utiliser les conditions ncessaires dordre 1 pour dterminer les candidats tre des extrema
pour la restriction de f C.
2. Pour chacun de ces points, dire sil sagit ou non dun extremum pour la restriction de f C
Exercice 4.11. Optimiser f (x, y, z) = x2 + y 2 + z 2
37
sous la contrainte x + 2y = 2 et x2 + 2y 2 + 2z 2 = 2
Exercice 4.12. Optimiser f (x, y, z) = xyz difficile
sous la contrainte
x+y+z1 = 0
x + y2 + z2 1 = 0
2
(
)
Indication : il y a 6 points critiques pour le lagrangien. On pourra vrifier que les points 23 , 23 , 13 , 29 , 13
et (1, 0, 0, 0, 0) en font partie, et on en dduira les autres avec des arguments de symtrie.
Contraintes ingalits
{
2
Exercice 4.13. (Problme de Kepler.) Inscrire dans lellipsode E = (x, y, z) R3 , xa2 +
le paralllpipde de volume maximal, sont les cots sont parallles aux axes.
y2
b2
z2
c2
}
=1
2 +y 2
(
2
2)
max (x 4) (y 4)
(P) x + y 4
x + 3y 9
38
INDEX
Index
C
contraintes qualifies, 26
courbes de niveau, 5
F
Formule de Taylor, 6
I
isovaleurs, 5
L
Lagrangien, 31
lagrangien, 21
M
multiplicateurs de Lagrange, 21
P
programmation convexe, 33
Pierre Puiseux
39
BIBLIOGRAPHIE
Bibliographie
[1]
Pierre Puiseux