• Aucun résultat trouvé

1 Existence et unicité d’un minimum

N/A
N/A
Protected

Academic year: 2022

Partager "1 Existence et unicité d’un minimum"

Copied!
10
0
0

Texte intégral

(1)

Optimisation quadratique

Table des matières

1 Existence et unicité d’un minimum 1

1.1 Notations . . . 1

1.2 Problème . . . 1

1.3 Existence . . . 1

1.4 Convexité et unicité . . . 1

1.4.1 Projection sur un convexe fermé . . . 2

1.4.2 Propriété des fonctions convexes . . . 2

2 Conditions d’optimalité 3 2.1 Cas général . . . 3

2.2 Cas convexe . . . 3

2.3 Contraintes d’égalité affines . . . 4

2.4 Le lagrangien . . . 4

2.5 Fonctionnelle quadratique et contraintes d’égalité affines . . . 4

2.6 Contraintes d’inégalité affines . . . 5

3 Algorithmes pour problèmes sans contraintes, fonctionnelle quadratique 5 3.1 Taux et vitesse de convergence . . . 6

3.2 Méthode de descente . . . 6

3.2.1 Pas optimal – fonctionnelle quadratique . . . 6

3.2.2 Relaxation . . . 6

3.2.3 Gradient à pas fixe . . . 7

3.2.4 Méthode du gradient à pas optimal . . . 7

3.2.5 Gradient conjugué . . . 7

3.2.6 Méthodes itératives . . . 8

4 Algorithme pour les problèmes contraints 9 4.1 Méthode du gradient projeté . . . 9

4.2 Méthode d’UZAWA . . . 9

1 Existence et unicité d’un minimum

1.1 Notations

On considèreEl’espace vectorielRn,kun sous-ensemble non vide deEetJ unefonctionnelle continuedéfinie surKà valeur dansR.

1.2 Problème

TrouveruK, tel queJ(u) =infvKJ(v).

1.3 Existence

Définition : Minimum local–global

Ð Ð Ð Ð Ð Ð Ð Ð Ð

uKest unpoint de minimum localdeJ surKsi, et seulement si

η >0,∀vK, kvuk< ηJ(uJ(v) uKest unminimum globaldeJ surKsi, et seulement si

(2)

Définition : Suite minimisante

Ð Ð Ð Ð Ð

On dit qu’une suite(uk)k∈Nd’éléments deKest unesuite minimisantesi et seulement si

k→+∞lim J(uk) =inf

vKJ(v)

Théorème : (rappel)

SiKestcompactetJ continuesurK, alorsJ atteint sesextrema.

Définition :

Ð Ð Ð Ð Ð

On dit qu’un fonctionnelleJ estinfine à l’infinisi, et seulement si : pour toute suite(un)nKn, lim

n→+∞

vn

= +∞ ⇒ lim

n→+∞J(vn) = +∞

Théorème : Existence d’un minimum global

Dans le cas oùE=Rn, siKest un fermé, et siJestcontinueetinfinie à l’infinidansK, alors elle admet un minimum globalsurK. De plus, de toute suite minimisante, on peut extraire unesous-suitequi converge vers un point de minimum.

1.4 Convexité et unicité

Définition : Ensemble convexe

Ð Ð Ð Ð Ð Ð

On dit qu’un sous-ensembleKdeEest convexe si, et seulement si, pour tout couple d’éléments(u,v), le segment[u,v]est inclus dansK:

∀(u,v)∈K2, ∀t∈[0, 1], t v+ (1−t)uK

Définition : Fonctionnelle convexe

Ð Ð Ð Ð Ð Ð Ð Ð Ð Ð

SoitJ une fonctionnelle définie sur un sous-ensemble convexe non videKde E, à valeurs dansR. On dit queJ estconvexesi et seulement si :

∀(u,v)∈K2,u6=v,θ∈]0, 1[, J(θu+ (1−θvθJ(u) + (1−θ)J(v) Dans le cas d’une inégalité stricte, on dit que la fonctionnelle eststrictementconvexe.

u θu+ (1−θ)v v θJ(u) + (1−θ)J(v)

J(θu+ (1−θ)v)

(3)

Propriété

SoitJ une fonctionnelle convexe définie sur un convexe non videK : Ê siuetvsont deux points de minimum locaux, alorsJ(u) =J(v); Ë si en plus,J est strictement convexe alorsu=v.

Théorème :

SoitJune fonctionnelle convexe définie sur un convexe non videKdeE: Ê tout point de minimum local est un point de minimum globale ;

Ë si de plusJ eststrictementconvexe, le point de minimum, s’il exite, estunique.

1.4.1 Projection sur un convexe fermé

Définition :

Ð Ð Ð Ð Ð

Pour toutwdeE, on définit sa projection sur un convexe ferméK PK(w)comme l’élémentutel que : kwuk=min

v∈Kkwvk

Propriété

SiKest un convexe fermé, alors tout élémentwdeEadmet une projectionunique PK(w)surK. DE lus l’applicationw7−→PK(w)estcontractante.

1.4.2 Propriété des fonctions convexes

Théorème :

SoitJune fonctionnelle différentiable sur un sous-ensembleK convexe non vide.

Les assertions suivantes sont équivalentes : Ê J estconvexesurK.

Ë ∀(u,v)∈K2, u6=v :

J(vJ(u) +〈∇J(u),vu〉. Ì ∀(u,v)∈K2, u6=v :

〈∇J(u)− ∇J(v),uv〉¾0.

Pour la stricte convexité, on a des inégalité strictes.

Théorème : classe C

2

SoitJune fonctionnelle deEdansRde classeC2. AlorsJ estconvexesi, et seulement si,

∀(u,d)∈E2

2J(u)d,d

¾0.

2 Conditions d’optimalité

2.1 Cas général

(4)

Définition : Cône des directions admissibles

Ð Ð Ð

SoitKun sous-ensemble non vide deE, etvun point deK. On appelle cône des directions admissibles l’ensembleTK des tangentes envaux chemins inclus dansK et commençants env.

Théorème :

SoientK un sous-ensemble non vide deE,uun point deK etJ une fonctionnelle deKdansR. On suppose queJ est FRECHET-différentiableenu. Siuest un point de minimum local deJ surK, on a nécessairement :

w∈ TK, 〈∇J(u),w〉¾0

Propriété

SiK=Eou si le minimumuest intérieur àKalors l’inéquation ci-dessus devient :

J(u) =0

2.2 Cas convexe

Ici onse place dans le cas oùKest convexe.

Théorème : Inéquation d’Euler

SoientKun sous-ensemble convexe non vide deE,uun point deKetJ une fonctionnelle deKdans R. On suppose que J est différentiable en u. Siuest un point de minimum localde J sur K, on a nécessairement

vK, 〈∇J(u),vu〉¾0

Théorème : J convexe

SoientKun sous-ensemble convexe non vide deE,uun point deKetJ une fonctionnelle deKdans R. On suppose queJ estconvexeet différentiable enu. Siuest unpoint de minimum localdeJ sur Ksi, et seulement si

vK, 〈∇J(u),vu〉¾0

2.3 Contraintes d’égalité affines

On suppose ici que l’ensembleKest défini par :

K=vRnC v=f

C est une matricep×net f un élément deRp (on supposeK6=0). On remarque queK est unconvexe non vide.

Théorème : (Karush, Kuhn et Tucker)

SoitC∈ Mp,n(R)et fRp,Kle sous-espace défini parK={vRn/C v= f},uun point deK etJ une fonctionnelle différentiable enu.

Siuest un point deminimum localdeJ surK, on anécessairement: ∃λRp, ∇J(u) +t=0

Cuf =0

(5)

2.4 Le lagrangien

Définition : Le lagrangien

Ð Ð Ð Ð Ð Ð Ð Ð

On définit la fonctionnelle (appelée lelagrangiendu système) :

∀(v,µ)∈e×Rp, L(v,u) =J(v) +µC vf Les élémentµdeRpsont appelés lesmultiplicateurs de LAGRANGE.

Propriété

SoitC∈ Mp,n(R)et fRp,K le sous-espace défini parK ={vRn/C v= f},uun point deK etJ une fonctionnelle différentiable enu.

Siuest un point deminimum localdeJ surK, on anécessairement:

λRp, tel que

vL(u,λ) =0

µL(u,λ) =0

2.5 Fonctionnelle quadratique et contraintes d’égalité affines

La fonctionnelle est ici quadratique envRn:

vRn, J(v) =1

2〈Av,v〉 − 〈b,v〉+cAest une matricasymétriquedeRn×n,bun vecteur deRnetcR.

On considère ses variations sur l’espace affine :

K=vRpC v= fCRp×n, et f un éléments deRp.

D’après les théorèmes précédents, on a siuest un point de minimum deJ surK :

λRp, tel que Au+t=b Cu= f

Propriété

SoitJ etKdéfinis ci-dessus. Siuest un point de minimum deJ surK, alors il existeλRp tel que le couple(u,λ)deRn×Rpsoit solution du syste=ème linéaire :

A tC

C 0

u λ

= b

f

Théorème :

SiAestsymétrique positive, le vecteuruest un point de minimum deJ surKsi, et seulement si, il existe un élémetλdeRptel que le couple(u,λ)soit solution de :

A tC

C 0

u λ

= b

f

Si de plusAestdéfinie-positiveet C estsurjectivealors le système linéaire admet une solution unique.

(6)

2.6 Contraintes d’inégalité affines

Dans cette section on considère que l’ensemble descontraintesKest donné par : K=vEC vf

Théorème :

On considèreK défini ci-dessus et J une fonctionnelle différentiablesur E dansR. SiuK est un minimum local deJ surKalors :

λRp,λ¾0,

J(u) +t=0 λiCuf

i=0 Cuf

De plus siJestconvexe, alors ceci est une conditionsuffisantede minimalité.

3 Algorithmes pour problèmes sans contraintes, fonctionnelle quadra- tique

On étudie ici les algorithmes qui permettent de calculernumériquementla solution du problème de minimi- sation :

TrouveruRntel queJ(u) =minv∈RnJ(v).

Avec ici,J le fonctionnelle qui à v associeJ(v) = 12Av,v〉 − 〈b,v〉, avecAune matricesymétrique définie- positivedeRn×netbun vecteur quelconque deRn.

Dans ce cas, la solution existe et estunique, et elle vérifie le système linéaire : Au=b

Les algorithmes suivants consistent tous à choisir une condition initialeu0puis à construire une suite(uk)k¾1. Ces algorithmes doivent vérifier les deux propriétés suivantes :

La convergence de la suite 5uk)est assurée quel que soit le vecteur initiale.

La convergence doit être « suffisament rapide ».

3.1 Taux et vitesse de convergence

Définition :

Ð Ð Ð Ð Ð Ð Ð

Soitk.k une norme matricielle induite. On appelle conditionnement d’une matrice réelleinversible ARn×n,relatif à cette norme, la valeur définie par :

cond(A) =kAk A−1

Définition :

Ð Ð Ð Ð Ð

Soit une méthode numérique produisant une suite d’itérés (uk). Soit C > 0 la plus petite constante telle que, pour toutk¾0 :

uk+1uC

uku

.Cest appelétaux de convergence. On appellera vitesse de convergenceR=−logC.

(7)

3.2 Méthode de descente

Supposons l’itéréukconnu, onchoisitune direction dite dedescentedk6=0, et unpas de descenteρk. On construit alors l’itéréuk+1par la formule :

uk+1=uk+ρkdk

Remarque :Le choix deρk etdkse fait de manière à assurer queJ(uk+1)<J(uk). Principe

3.2.1 Pas optimal – fonctionnelle quadratique

Dans le cas où la fonctionnelle estquadratique, on obtient une formule du pas optimal : ρk=−〈∇J(uk),dk

Adk,dk3.2.2 Relaxation

Définition :

Ð Ð Ð Ð Ð Ð Ð Ð Ð Ð Ð Ð Ð Ð Ð Ð Ð Ð Ð Ð Ð Ð

On considère une base orthonormée (ei)1¶i¶n de Rn. On choisit la suite des direction de descente d0=e1,. . .,dn=e1,. . ., etc. et ainsi de suite. On choisit lepas optimaldéfini ci dessus. L’algorithme est alors :

Soitl¾0, on choisituoRnet une toléranceε.

Pourk=nl+i−1, on prend : Ê dk=ei

Ë ρk=−〈∇J(uk),dk

Adk,dk〉 Ì uk+1=uk+ρkei

Propriété

SiAestsymétrique définie positivealors la méthode de relaxation estconvergente.

3.2.3 Gradient à pas fixe

Définition :

Ð Ð Ð Ð Ð Ð Ð Ð Ð Ð Ð Ð Ð Ð Ð Ð

Ici, on cherche la direction dans laquelle la convergence sera la plus rapide.

Soitu0Rnune condition initiale,ρun pas fixe.

PourkN+

Ê dk=−∇J(uk) =bAuk Ë uk+1=uk+ρdk

Propriété

SiAestsymétrique définie positive, la méthode de gradient à pas fixe est convergente sous réserve que :

(8)

3.2.4 Méthode du gradient à pas optimal

Définition :

Ð Ð Ð Ð Ð Ð Ð Ð Ð Ð Ð Ð Ð Ð Ð Ð Ð Ð Ð Ð Ð

On procède ici comme avec la méthode du gradient à pas fixe, sauf que le pasρk est ici : ρk=−〈∇J(uk),dk

Adk,dk〉 Soitu0Rnune condition initiale.

PourkN+

Ê dk=−∇J(uk) =bAuk Ë uk+1=uk+ρkdk

Propriété

SiAestsymétrique définie positive, la méthode de gradient à pas optimal est convergente.

3.2.5 Gradient conjugué

Le principe de laméthode du gradient conjuguéest de construire une suite dedirectionde descente que l’on garde en mémoire, pour essayer d’éviter les retours.

Siu1, . . . ,ukont déjà été calculés, et si tous les gradientsgl=∇J(ul), on rechercheuk+1tel que : J(uk+1) = min

vuk+GkJ(v) avec Gk=Vect(g0, . . . ,gk) On a :

Ê gk+1est orthogonale àGk,i.el∈J0,kK, 〈gk+1,gl〉=0 Ë La méthode du GC converge en au plusnétapes !

Ì (dl)sont conjugués par rapport àA:∀k6=l,Adk,dl〉=0.

Algorithme

Ð Ð Ð Ð Ð Ð Ð Ð Ð Ð Ð Ð Ð Ð

initialisation :k=0, on choisitu0, on calcul g0=Au0betd0=−g0. tant que :

gk

> ε, itérerk – Calculerβk−1= 〈gk1,dk1

Adk1,dk1〉 – Calculeruk=uk−1βk−1dk−1

– Nouvelle direction : gk=Aukbpuisαk= gk

2

gk1

2 et enfindk=αkdk1gk.

3.2.6 Méthodes itératives

On s’intéresse ici à des méthodes numériques de résolution du système linéaire : J0(u) =Aub=0.

La solution de ce système est le minimum recherché de la fonctionnelle quadratiqueJ surRn.

Principe

Ð Ð Ð

Ê On décomposeAsous la formeA=MNavecM inversible.

Partant deun, on construit u par :

(9)

Attention :Ces méthodes ne sont intéressante que si le choix deMrend le calcul deuk+1facile.

Propriété

Si(uk)kconverge alors c’est vers la solution du système linéaireAu=b.

Propriété

Ê La suite(uk)k définie par la méthode iérative estconvergentesi et seulement si lerayon spectrale ρ(M−1N)vérifie :ρ(M−1N)<1.

Ë SiAestsymétrique définie positiveet sitM+N est aussidéfinie positive, alors ρ(M−1N)<1

On noteD=diagA,−E=tiranginf(A)et−F=tirangsup(A).

Définition : Méthode de Jacobi

Ð Ð Ð Ð Ð Ð Ð Ð

Cette méthode consiste à choisir M = Det N = E+F. On désigne parmatrice de Jacobila matrice J =M1N=D1(E+F). L’algorithme s’écrit alors :

Ê On choisitu0Rnetε >0.

Ë Tant que

Aukb

> ε, calculeruk+1=Juk+D1b.

Définition : Méthode de Gauss-Seidel

Ð Ð Ð Ð Ð Ð Ð Ð

Cette méthode consiste à choisirM=DEetN=F. On désigne parmatrice de Gauss-Seidella matrice G =M−1N= (DE)−1F. L’algorithme s’écrit alors :

Ê On choisitu0Rnetε >0.

Ë Tant que

Aukb

> ε, calculeruk+1=Guk+ (DE)−1b.

Théorème :

Ê SiAestsymétriqueetdéfinie-positive, alors la méthode de GAUSS-SEIDELconverge.

Ë SiAest à diagonalestrictement dominantealors les deux méthodes convergent.

Ì SiAesttridiagonale, alorsρ(G) =ρ(J)2.

4 Algorithme pour les problèmes contraints

Là encore nous nous intéressons au problème :

TrouveruKtel queJ(u) =minv∈KJ(v).

J est la fonctionnelle qui à vKassocieJ(v) =12Av,v〉 − 〈b,v〉,A∈ Mn×n(R)est supposéesymétrique définie-positive,best un vecteur quelconque deRnetKest unconvexe fermédeRn.

4.1 Méthode du gradient projeté

Rappel : Pour toutwRn, il existe une unique projection dewsurK, notéePK(w)∈K, solution de : PK(w)−w

=min

v∈K kvwk. De plus la projection est caractérisée par :

(10)

Propriété

Soit K un convexe fermé non vide de Rn et ρ > 0. u est solution du problème contraint J(u) = minv∈KJ(v)si et seulement si :

u=PK(uρJ(u)).

Algorithme

Ð Ð Ð Ð Ð Ð

Ê Initialisation :u0Rn, un pasρ >0 et une précisionη >0.

Ë Tant que :

ukuk+1 > η,

uk+1=PK(ukρJ(uk))

Propriété

Dans les conditions évoquées ci-dessus et si K estnon vide, si 0< ρ < 2

λmax(A), alors quel que soit u0Rn, la suite(uk)kdéfinie par le gradient projeté converge vers le minimumu.

Propriété

SiK=

n

Y

i=1

[ai,bi], et y=t(y1, . . . ,yn)∈Rn, laprojection x=PK(y)a pour composantes : xi=min max(ai,yi),bi

4.2 Méthode d’U

ZAWA

Supposons que l’ensemble

K=vRnC v=f ou

K=vRnC vfCest une matricep×net fRp.

SoituK le minimum de la fonctionnelleJ surK. Alors il existeλFtel que :





J(u) +t=0 Cuf ¶0

λCuf〉=0

λµ,Cuf〉¾0,∀µF

Fest si il y a contraintes d’égalité égal àRp, si il y a contraintes d’inégalité égal àR+p.

Propriété

SoitλRptel que(u,λ)verifie le système ci-dessus. Pour toutρ >0, on a : λ=PF(λ+ρ(Cuf))

Références

Documents relatifs

[r]

[r]

(sauf les lycées agricoles) et les autres établissements qui sont présents occasionnellement ou massivement dans cet espace. Le tableau I donne la définition des

Chaque joueur lance le dé à tour de rôle et avance du nombre de cases indiqué en respectant les consignes des cases « Jack » et des cases « ogre ». Celui qui totalise le plus de

[r]

[r]

Si c’est correct, le joueur peut avancer du nombre de cases indiqué sur le dé de la carte. Sinon, il reste à

Les camarades de jeu retiennent la position des cartes pour former plus facilement de nouvelles paires. Pour l’impression du