Convexe
L(x,λ,μ)=J(x)+ λigi(x)+ μifj(x)
1≤i≤m
1≤j ≤p
(1≤i≤m), (1≤j ≤p), (1≤j ≤p), (1≤j ≤p),
∇xL(xmin, λ, μ) = 0, fj(xmin) ≤ 0 μ≥0
j
μjfj(xmin) = 0
2.4 Optimisation convexe
Optimisation convexe
(i) ; (ii) ; (iii) ; (iv) ; (v).
g(x)=0
i min
La notion de convexité possède un rôle privilégié en théorie de l’optimisa- tion car elle permet d’obtenir des conditions globales d’existence, mais aussi par l’existence de conditions nécessaires et suffisantes d’optimalité et cela même dans le cas non différentiable. Elle est également d’une grande importance pratique puisqu’il existe des algorithmes de résolution numérique très efficaces et, consé- quence logique, de plus en plus de problèmes concrets sont traités au moyen de l’optimisation convexe.
Le problème est un problème convexe si la fonction objectif J et l’ensemble des contraintes K sont convexes. Lorsque l’ensemble K est défini par des égalités et des inégalités :
K={x∈Rn :gi(x)=0, i∈{1,...,m}etfj(x)≤0, j∈{1,...,p}}, (2.26) alors il suffit que les fonctions gi (pour i = 1, . . . , m) soient affines et les fonctions fj (pour j = 1, . . . , p) convexes pour que K soit lui-même convexe. On supposera que c’est toujours le cas dans la suite.
Une propriété importante en optimisation convexe est la suivante
Théorème 2.4.1. Si J est une fonction convexe sur un ensemble convexe C, tout point de minimum local de J sur C est un minimum global et l’ensemble des points de minimum est un ensemble convexe (éventuellement vide). Si de plus J est strictement convexe, alors il ne peut exister au plus qu’un point de minimum.
Conditions d’optimalité
La plupart des conditions nécessaires d’optimalité données dans les sections précédentes sont également suffisantes dans le cas convexe. Il en est de même
(P ) min J (x),