Optimisation quadratique
Table des matières
1 Existence et unicité d’un minimum 1
1.1 Notations . . . 1
1.2 Problème . . . 1
1.3 Existence . . . 1
1.4 Convexité et unicité . . . 1
1.4.1 Projection sur un convexe fermé . . . 2
1.4.2 Propriété des fonctions convexes . . . 2
2 Conditions d’optimalité 3 2.1 Cas général . . . 3
2.2 Cas convexe . . . 3
2.3 Contraintes d’égalité affines . . . 4
2.4 Le lagrangien . . . 4
2.5 Fonctionnelle quadratique et contraintes d’égalité affines . . . 4
2.6 Contraintes d’inégalité affines . . . 5
3 Algorithmes pour problèmes sans contraintes, fonctionnelle quadratique 5 3.1 Taux et vitesse de convergence . . . 6
3.2 Méthode de descente . . . 6
3.2.1 Pas optimal – fonctionnelle quadratique . . . 6
3.2.2 Relaxation . . . 6
3.2.3 Gradient à pas fixe . . . 7
3.2.4 Méthode du gradient à pas optimal . . . 7
3.2.5 Gradient conjugué . . . 7
3.2.6 Méthodes itératives . . . 8
4 Algorithme pour les problèmes contraints 9 4.1 Méthode du gradient projeté . . . 9
4.2 Méthode d’UZAWA . . . 9
1 Existence et unicité d’un minimum
1.1 Notations
On considèreEl’espace vectorielRn,kun sous-ensemble non vide deEetJ unefonctionnelle continuedéfinie surKà valeur dansR.
1.2 Problème
Trouveru∈K, tel queJ(u) =infv∈KJ(v).
1.3 Existence
Définition : Minimum local–global
Ð Ð Ð Ð Ð Ð Ð Ð Ð
u∈Kest unpoint de minimum localdeJ surKsi, et seulement si
∃η >0,∀v∈K, kv−uk< η⇒J(u)¶J(v) u∈Kest unminimum globaldeJ surKsi, et seulement si
Définition : Suite minimisante
Ð Ð Ð Ð Ð
On dit qu’une suite(uk)k∈Nd’éléments deKest unesuite minimisantesi et seulement si
k→+∞lim J(uk) =inf
v∈KJ(v)
Théorème : (rappel)
SiKestcompactetJ continuesurK, alorsJ atteint sesextrema.
Définition :
Ð Ð Ð Ð Ð
On dit qu’un fonctionnelleJ estinfine à l’infinisi, et seulement si : pour toute suite(un)n∈Kn, lim
n→+∞
vn
= +∞ ⇒ lim
n→+∞J(vn) = +∞
Théorème : Existence d’un minimum global
Dans le cas oùE=Rn, siKest un fermé, et siJestcontinueetinfinie à l’infinidansK, alors elle admet un minimum globalsurK. De plus, de toute suite minimisante, on peut extraire unesous-suitequi converge vers un point de minimum.
1.4 Convexité et unicité
Définition : Ensemble convexe
Ð Ð Ð Ð Ð Ð
On dit qu’un sous-ensembleKdeEest convexe si, et seulement si, pour tout couple d’éléments(u,v), le segment[u,v]est inclus dansK:
∀(u,v)∈K2, ∀t∈[0, 1], t v+ (1−t)u∈K
Définition : Fonctionnelle convexe
Ð Ð Ð Ð Ð Ð Ð Ð Ð Ð
SoitJ une fonctionnelle définie sur un sous-ensemble convexe non videKde E, à valeurs dansR. On dit queJ estconvexesi et seulement si :
∀(u,v)∈K2,u6=v,∀θ∈]0, 1[, J(θu+ (1−θv)¶θJ(u) + (1−θ)J(v) Dans le cas d’une inégalité stricte, on dit que la fonctionnelle eststrictementconvexe.
u θu+ (1−θ)v v θJ(u) + (1−θ)J(v)
J(θu+ (1−θ)v)
Propriété
SoitJ une fonctionnelle convexe définie sur un convexe non videK : Ê siuetvsont deux points de minimum locaux, alorsJ(u) =J(v); Ë si en plus,J est strictement convexe alorsu=v.
Théorème :
SoitJune fonctionnelle convexe définie sur un convexe non videKdeE: Ê tout point de minimum local est un point de minimum globale ;
Ë si de plusJ eststrictementconvexe, le point de minimum, s’il exite, estunique.
1.4.1 Projection sur un convexe fermé
Définition :
Ð Ð Ð Ð Ð
Pour toutwdeE, on définit sa projection sur un convexe ferméK PK(w)comme l’élémentutel que : kw−uk=min
v∈Kkw−vk
Propriété
SiKest un convexe fermé, alors tout élémentwdeEadmet une projectionunique PK(w)surK. DE lus l’applicationw7−→PK(w)estcontractante.
1.4.2 Propriété des fonctions convexes
Théorème :
SoitJune fonctionnelle différentiable sur un sous-ensembleK convexe non vide.
Les assertions suivantes sont équivalentes : Ê J estconvexesurK.
Ë ∀(u,v)∈K2, u6=v :
J(v)¾J(u) +〈∇J(u),v−u〉. Ì ∀(u,v)∈K2, u6=v :
〈∇J(u)− ∇J(v),u−v〉¾0.
Pour la stricte convexité, on a des inégalité strictes.
Théorème : classe C
2SoitJune fonctionnelle deEdansRde classeC2. AlorsJ estconvexesi, et seulement si,
∀(u,d)∈E2,¬
∇2J(u)d,d¶
¾0.
2 Conditions d’optimalité
2.1 Cas général
Définition : Cône des directions admissibles
Ð Ð Ð
SoitKun sous-ensemble non vide deE, etvun point deK. On appelle cône des directions admissibles l’ensembleTK des tangentes envaux chemins inclus dansK et commençants env.
Théorème :
SoientK un sous-ensemble non vide deE,uun point deK etJ une fonctionnelle deKdansR. On suppose queJ est FRECHET-différentiableenu. Siuest un point de minimum local deJ surK, on a nécessairement :
∀w∈ TK, 〈∇J(u),w〉¾0
Propriété
SiK=Eou si le minimumuest intérieur àKalors l’inéquation ci-dessus devient :
∇J(u) =0
2.2 Cas convexe
Ici onse place dans le cas oùKest convexe.
Théorème : Inéquation d’Euler
SoientKun sous-ensemble convexe non vide deE,uun point deKetJ une fonctionnelle deKdans R. On suppose que J est différentiable en u. Siuest un point de minimum localde J sur K, on a nécessairement
∀v∈K, 〈∇J(u),v−u〉¾0
Théorème : J convexe
SoientKun sous-ensemble convexe non vide deE,uun point deKetJ une fonctionnelle deKdans R. On suppose queJ estconvexeet différentiable enu. Siuest unpoint de minimum localdeJ sur Ksi, et seulement si
∀v∈K, 〈∇J(u),v−u〉¾0
2.3 Contraintes d’égalité affines
On suppose ici que l’ensembleKest défini par :
K=v∈RnC v=f
oùC est une matricep×net f un élément deRp (on supposeK6=0). On remarque queK est unconvexe non vide.
Théorème : (Karush, Kuhn et Tucker)
SoitC∈ Mp,n(R)et f ∈Rp,Kle sous-espace défini parK={v∈Rn/C v= f},uun point deK etJ une fonctionnelle différentiable enu.
Siuest un point deminimum localdeJ surK, on anécessairement: ∃λ∈Rp, ∇J(u) +tCλ=0
Cu−f =0
2.4 Le lagrangien
Définition : Le lagrangien
Ð Ð Ð Ð Ð Ð Ð Ð
On définit la fonctionnelle (appelée lelagrangiendu système) :
∀(v,µ)∈e×Rp, L(v,u) =J(v) +µC v−f Les élémentµdeRpsont appelés lesmultiplicateurs de LAGRANGE.
Propriété
SoitC∈ Mp,n(R)et f ∈Rp,K le sous-espace défini parK ={v∈Rn/C v= f},uun point deK etJ une fonctionnelle différentiable enu.
Siuest un point deminimum localdeJ surK, on anécessairement:
∃λ∈Rp, tel que
∇vL(u,λ) =0
∇µL(u,λ) =0
2.5 Fonctionnelle quadratique et contraintes d’égalité affines
La fonctionnelle est ici quadratique env∈Rn:
∀v∈Rn, J(v) =1
2〈Av,v〉 − 〈b,v〉+c oùAest une matricasymétriquedeRn×n,bun vecteur deRnetc∈R.
On considère ses variations sur l’espace affine :
K=v∈RpC v= f oùC∈Rp×n, et f un éléments deRp.
D’après les théorèmes précédents, on a siuest un point de minimum deJ surK :
∃λ∈Rp, tel que Au+tCλ=b Cu= f
Propriété
SoitJ etKdéfinis ci-dessus. Siuest un point de minimum deJ surK, alors il existeλ∈Rp tel que le couple(u,λ)deRn×Rpsoit solution du syste=ème linéaire :
A tC
C 0
u λ
= b
f
Théorème :
SiAestsymétrique positive, le vecteuruest un point de minimum deJ surKsi, et seulement si, il existe un élémetλdeRptel que le couple(u,λ)soit solution de :
A tC
C 0
u λ
= b
f
Si de plusAestdéfinie-positiveet C estsurjectivealors le système linéaire admet une solution unique.
2.6 Contraintes d’inégalité affines
Dans cette section on considère que l’ensemble descontraintesKest donné par : K=v∈EC v¶f
Théorème :
On considèreK défini ci-dessus et J une fonctionnelle différentiablesur E dansR. Siu∈K est un minimum local deJ surKalors :
∃λ∈Rp,λ¾0,
∇J(u) +tCλ=0 λiCu−f
i=0 Cu¶f
De plus siJestconvexe, alors ceci est une conditionsuffisantede minimalité.
3 Algorithmes pour problèmes sans contraintes, fonctionnelle quadra- tique
On étudie ici les algorithmes qui permettent de calculernumériquementla solution du problème de minimi- sation :
Trouveru∈Rntel queJ(u) =minv∈RnJ(v).
Avec ici,J le fonctionnelle qui à v associeJ(v) = 12〈Av,v〉 − 〈b,v〉, avecAune matricesymétrique définie- positivedeRn×netbun vecteur quelconque deRn.
Dans ce cas, la solution existe et estunique, et elle vérifie le système linéaire : Au=b
Les algorithmes suivants consistent tous à choisir une condition initialeu0puis à construire une suite(uk)k¾1. Ces algorithmes doivent vérifier les deux propriétés suivantes :
La convergence de la suite 5uk)est assurée quel que soit le vecteur initiale.
La convergence doit être « suffisament rapide ».
3.1 Taux et vitesse de convergence
Définition :
Ð Ð Ð Ð Ð Ð Ð
Soitk.k une norme matricielle induite. On appelle conditionnement d’une matrice réelleinversible A∈Rn×n,relatif à cette norme, la valeur définie par :
cond(A) =kAk A−1
Définition :
Ð Ð Ð Ð Ð
Soit une méthode numérique produisant une suite d’itérés (uk). Soit C > 0 la plus petite constante telle que, pour toutk¾0 :
uk+1−u ¶C
uk−u
.Cest appelétaux de convergence. On appellera vitesse de convergenceR=−logC.
3.2 Méthode de descente
Supposons l’itéréukconnu, onchoisitune direction dite dedescentedk6=0, et unpas de descenteρk. On construit alors l’itéréuk+1par la formule :
uk+1=uk+ρkdk
Remarque :Le choix deρk etdkse fait de manière à assurer queJ(uk+1)<J(uk). Principe
3.2.1 Pas optimal – fonctionnelle quadratique
Dans le cas où la fonctionnelle estquadratique, on obtient une formule du pas optimal : ρk=−〈∇J(uk),dk〉
〈Adk,dk〉 3.2.2 Relaxation
Définition :
Ð Ð Ð Ð Ð Ð Ð Ð Ð Ð Ð Ð Ð Ð Ð Ð Ð Ð Ð Ð Ð Ð
On considère une base orthonormée (ei)1¶i¶n de Rn. On choisit la suite des direction de descente d0=e1,. . .,dn=e1,. . ., etc. et ainsi de suite. On choisit lepas optimaldéfini ci dessus. L’algorithme est alors :
Soitl¾0, on choisituo∈Rnet une toléranceε.
Pourk=nl+i−1, on prend : Ê dk=ei
Ë ρk=−〈∇J(uk),dk〉
〈Adk,dk〉 Ì uk+1=uk+ρkei
Propriété
SiAestsymétrique définie positivealors la méthode de relaxation estconvergente.
3.2.3 Gradient à pas fixe
Définition :
Ð Ð Ð Ð Ð Ð Ð Ð Ð Ð Ð Ð Ð Ð Ð Ð
Ici, on cherche la direction dans laquelle la convergence sera la plus rapide.
Soitu0∈Rnune condition initiale,ρun pas fixe.
Pourk∈N+
Ê dk=−∇J(uk) =b−Auk Ë uk+1=uk+ρdk
Propriété
SiAestsymétrique définie positive, la méthode de gradient à pas fixe est convergente sous réserve que :
3.2.4 Méthode du gradient à pas optimal
Définition :
Ð Ð Ð Ð Ð Ð Ð Ð Ð Ð Ð Ð Ð Ð Ð Ð Ð Ð Ð Ð Ð
On procède ici comme avec la méthode du gradient à pas fixe, sauf que le pasρk est ici : ρk=−〈∇J(uk),dk〉
〈Adk,dk〉 Soitu0∈Rnune condition initiale.
Pourk∈N+
Ê dk=−∇J(uk) =b−Auk Ë uk+1=uk+ρkdk
Propriété
SiAestsymétrique définie positive, la méthode de gradient à pas optimal est convergente.
3.2.5 Gradient conjugué
Le principe de laméthode du gradient conjuguéest de construire une suite dedirectionde descente que l’on garde en mémoire, pour essayer d’éviter les retours.
Siu1, . . . ,ukont déjà été calculés, et si tous les gradientsgl=∇J(ul), on rechercheuk+1tel que : J(uk+1) = min
v∈uk+GkJ(v) avec Gk=Vect(g0, . . . ,gk) On a :
Ê gk+1est orthogonale àGk,i.e∀l∈J0,kK, 〈gk+1,gl〉=0 Ë La méthode du GC converge en au plusnétapes !
Ì (dl)sont conjugués par rapport àA:∀k6=l,〈Adk,dl〉=0.
Algorithme
Ð Ð Ð Ð Ð Ð Ð Ð Ð Ð Ð Ð Ð Ð
initialisation :k=0, on choisitu0, on calcul g0=Au0−betd0=−g0. tant que :
gk
> ε, itérerk – Calculerβk−1= 〈gk−1,dk−1〉
〈Adk−1,dk−1〉 – Calculeruk=uk−1−βk−1dk−1
– Nouvelle direction : gk=Auk−bpuisαk= gk
2
gk−1
2 et enfindk=αkdk−1−gk.
3.2.6 Méthodes itératives
On s’intéresse ici à des méthodes numériques de résolution du système linéaire : J0(u) =Au−b=0.
La solution de ce système est le minimum recherché de la fonctionnelle quadratiqueJ surRn.
Principe
Ð Ð Ð
Ê On décomposeAsous la formeA=M−NavecM inversible.
Partant deu ∈ n, on construit u par :
Attention :Ces méthodes ne sont intéressante que si le choix deMrend le calcul deuk+1facile.
Propriété
Si(uk)kconverge alors c’est vers la solution du système linéaireAu=b.
Propriété
Ê La suite(uk)k définie par la méthode iérative estconvergentesi et seulement si lerayon spectrale ρ(M−1N)vérifie :ρ(M−1N)<1.
Ë SiAestsymétrique définie positiveet sitM+N est aussidéfinie positive, alors ρ(M−1N)<1
On noteD=diagA,−E=tiranginf(A)et−F=tirangsup(A).
Définition : Méthode de Jacobi
Ð Ð Ð Ð Ð Ð Ð Ð
Cette méthode consiste à choisir M = Det N = E+F. On désigne parmatrice de Jacobila matrice J =M−1N=D−1(E+F). L’algorithme s’écrit alors :
Ê On choisitu0∈Rnetε >0.
Ë Tant que
Auk−b
> ε, calculeruk+1=Juk+D−1b.
Définition : Méthode de Gauss-Seidel
Ð Ð Ð Ð Ð Ð Ð Ð
Cette méthode consiste à choisirM=D−EetN=F. On désigne parmatrice de Gauss-Seidella matrice G =M−1N= (D−E)−1F. L’algorithme s’écrit alors :
Ê On choisitu0∈Rnetε >0.
Ë Tant que
Auk−b
> ε, calculeruk+1=Guk+ (D−E)−1b.
Théorème :
Ê SiAestsymétriqueetdéfinie-positive, alors la méthode de GAUSS-SEIDELconverge.
Ë SiAest à diagonalestrictement dominantealors les deux méthodes convergent.
Ì SiAesttridiagonale, alorsρ(G) =ρ(J)2.
4 Algorithme pour les problèmes contraints
Là encore nous nous intéressons au problème :
Trouveru∈Ktel queJ(u) =minv∈KJ(v).
oùJ est la fonctionnelle qui à v∈KassocieJ(v) =12〈Av,v〉 − 〈b,v〉,A∈ Mn×n(R)est supposéesymétrique définie-positive,best un vecteur quelconque deRnetKest unconvexe fermédeRn.
4.1 Méthode du gradient projeté
Rappel : Pour toutw∈Rn, il existe une unique projection dewsurK, notéePK(w)∈K, solution de : PK(w)−w
=min
v∈K kv−wk. De plus la projection est caractérisée par :
Propriété
Soit K un convexe fermé non vide de Rn et ρ > 0. u est solution du problème contraint J(u) = minv∈KJ(v)si et seulement si :
u=PK(u−ρ∇J(u)).
Algorithme
Ð Ð Ð Ð Ð Ð
Ê Initialisation :u0∈Rn, un pasρ >0 et une précisionη >0.
Ë Tant que :
uk−uk+1 > η,
uk+1=PK(uk−ρ∇J(uk))
Propriété
Dans les conditions évoquées ci-dessus et si K estnon vide, si 0< ρ < 2
λmax(A), alors quel que soit u0∈Rn, la suite(uk)kdéfinie par le gradient projeté converge vers le minimumu.
Propriété
SiK=
n
Y
i=1
[ai,bi], et y=t(y1, . . . ,yn)∈Rn, laprojection x=PK(y)a pour composantes : xi=min max(ai,yi),bi
4.2 Méthode d’U
ZAWASupposons que l’ensemble
K=v∈RnC v=f ou
K=v∈RnC v¶f oùCest une matricep×net f ∈Rp.
Soitu∈K le minimum de la fonctionnelleJ surK. Alors il existeλ∈Ftel que :
∇J(u) +tCλ=0 Cu−f ¶0
〈λCu−f〉=0
〈λ−µ,Cu−f〉¾0,∀µ∈F
Fest si il y a contraintes d’égalité égal àRp, si il y a contraintes d’inégalité égal àR+p.
Propriété
Soitλ∈Rptel que(u,λ)verifie le système ci-dessus. Pour toutρ >0, on a : λ=PF(λ+ρ(Cu−f))