• Aucun résultat trouvé

Méthodes de Couplage et Applications Mémoire de Master 2 Université de Bourgogne

N/A
N/A
Protected

Academic year: 2022

Partager "Méthodes de Couplage et Applications Mémoire de Master 2 Université de Bourgogne"

Copied!
56
0
0

Texte intégral

(1)

Méthodes de Couplage et Applications Mémoire de Master 2

Université de Bourgogne

Vincent NOLOT 5 juillet 2010

(2)

Introduction

Lorsqueµetνsont deux mesures de probabilité sur des espaces mesurables respectifs(E,E), (F,F), on aimerait les comparer, les lier. Un moyen de le faire est de considérer des couplages entreµetν, c'est-à-dire des mesures sur l'espace produit(E×F,E ⊗ F) dont les marginales (les mesures images par la projection ΠE resp. ΠF) sont µ resp. ν. L'objet de ce mémoire est d'illustrer cette notion de couplage, et de présenter plusieurs applications dans diérents domaines. Notons qu'un couplage entre deux probabilités existe toujours : ne serait-ce que le couplage dit indépendant.

On introduit en Partie I, la notion de distance en variation totale entre deux mesures dénies sur le même espace mesurable. Comme son nom l'indique, il s'agit d'une distance sur l'espace des probabilités. Rappelons que cet espace des probabilités sur (E,E) peut être muni d'une topologie lorsque queE est lui-même topologique, grâce à la convergence faible, caractérisée par le fait qu'une suite(µn)n converge faiblement vers µsi et seulement si :

∀ϕcontinue born´ee surE Z

E

ϕ dµn−→

Z

E

ϕ dµ.

Mais la convergence selon la distance en variation totale, entraîne la convergence faible. Ainsi cette distance en variation totale induit une topologie plus ne que celle induite par la convergence faible.

Nous détaillons le point de vue intrinsèque de la distance en variation totale, mais également le point de vue extrinsèque donné par l'utilisation des couplages. L'utilisation de ces couplages, nous permettra d'obtenir une approximation eective de la variation totale, celle-ci étant généralement dicilement calculable. Cela constitue donc un bon outil pour les statisticiens. Dans cette même partie, nous dénissons lesp−distances de Wasserstein liées à un coût de transport, qui permettent également de comparer des mesures de probabilités dénies sur le même espace et admettant des moments d'ordre p. Nous montrons que cette distance possède de bonnes propriétés dès lors que l'espace E est agréable. C'est pour cette raison que nous nous placerons dans des espaces Polonais.

Dans ce cas, l'ensemble des probabilités admettant des moments d'ordre2, muni de la2−distance de Wasserstein (W2) est un espace métrique complet. Nous donnons une caractérisation fondamentale de la convergence selonW2. A savoir entre autre, que la convergence selonW2entraîne la convergence faible des mesures. La démonstration que l'on propose ici est certainement plus agréable à lire que celle dans [1]. Soulignons que ces deux résultats restent vrais pour tout p entier et pas seulement pour p= 2. Enn ces distances jouent un rôle essentiel en optimisation du coût de transport.

Dans la Partie II, nous nous intéressons à des exemples concrets de couplage dont une margi- nale est la loi de Poisson, qui fournit une bonne mesure de référence. Nous retrouvons grâce aux méthodes de couplage, des approximations de certaines lois, comme la loi Binomiale vers la Poisson.

Les couplages nous permettent de contrôler l'erreur d'approximation, ce que ne nous fournit pas les théorèmes habituels de convergence en loi. Nous présentons également de manière détaillée la méthode dite de Stein, appliquée à la loi de Poisson. Elle utilise un autre point de vue de travail et fournit ses propres approximations. En combinant cette méthode et des méthodes de couplage, nous pouvons améliorer ces résultats d'approximation, notamment grâce à la notion de variables négativement liées. Nous explicitons cela sur divers exemples en n de Partie, et le plus parlant est certainement le dernier, qui vise à approximer la loi Hypergéométrique par celle de Poisson. Ce résultat est souvent énoncé dans la littérature, mais rarement détaillé comme nous le présentons.

Dans la Partie III, nous introduisons la notion d'entropie d'une probabilité conditionnellement à une autre probabilité de référence. Cela propose une autre façon de lier deux probabilités entre elles, lorsque l'une est absolument continue par rapport à l'autre. L'outil important de cette partie est l'écart d2 entre deux probabilités. Il généralise la distance de WassersteinW0. Nous faisons alors

(3)

le lien entre l'entropie et cet écart. Cela nous permet d'obtenir des inégalités de concentration (dites de grandes déviations) et une inégalité de Poincaré : qui permet de contrôler les variances. Cette inégalité intervient notamment en statistiques et en systèmes dynamiques.

Enn, le mémoire se termine en Partie IV, par une introduction à la théorie du transport. On adopte alors un nouveau point de vue sur l'espace des probabilités, dans le but d'y mettre une structure géométrique puis pseudo-diérentiable. D'abord sur les mesures admettant un moment d'ordre 2, on relie la notion de dérivée d'un chemin géodésique reliant deux mesures à la distance W2. Nous verrons que le chemin géodésique correspond à se donner un couplage optimal entre ces deux mesures. Ensuite, cela nous permet d'établir une équation aux dérivées partielles que vérient les probabilités admettant un moment d'ordre 2 sous des conditions d'absolue continuité. Nous proposons enn une méthode d'itération sur ces mesures. Nous n'en exposons pas plus, mais cette méthode est un outil puissant pour armer l'existence et donne l'approximation de solution de certaines équations, au même titre que l'itération de Picard qui fournit l'existence de solutions dans les équations du type y0 =f(x, y). C'est le cas par exemple de l'équation de Fokker-Plank.

Remerciements

Mes remerciements s'adressent principalement à mes deux encadrants de ce mémoire : Patrick Gabriel et Shizan Fang. Patrick Gabriel qui depuis le mois d'octobre 2009 s'est largement investi pour m'orienter dans mon mémoire. Ses conseils et sa rigueur m'ont beaucoup apporté durant cette année, tant au niveau des méthodes mathématiques que de la rédaction. Shizan Fang qui a supervisé le travail et m'a initié à la théorie du transport, s'appuyant sur son cours d'été donné en Chine en 2007. Je les remercie tous deux, de façon très sincère, pour tout ce qu'ils m'ont apporté. Ils peuvent être ers de m'avoir donner le goût et l'envie de continuer de pratiquer les mathématiques.

Je remercie également Pierre-André Zitt et Christian Bonatti pour avoir accepté de faire partie du jury à l'occasion de ma soutenance. Pierre-André Zitt qui durant cette année, m'a initié aux processus stochastiques et notamment, aux chaînes de Markov et à la modélisation sur ordinateur. Christian Bonatti qui, à travers son cours de recherche Dynamique des groupes, m'a donné une nouvelle vision sur d'autres domaines de la recherche actuelle.

Enn je remercie Franck Gabriel, qui nous a permis de reprendre ses notes dans le cadre d'un travail sur les couplages, à l'Ecole Normale Supérieure.

(4)

TABLE DES MATIÈRES TABLE DES MATIÈRES

Table des matières

I Concepts de variation totale et de couplage 5

1 Quelques notations 5

2 Variation totale 5

3 Couplages 7

4 Couplage optimal pour un coût donné 8

4.1 Le couplage optimal existe . . . 9

4.2 Construction d'un couplage optimal . . . 10

4.3 Espaces et distances de Wasserstein . . . 12

4.4 DistanceW2 . . . 13

II Couplages avec une loi de Poisson 18 5 Quelques Couplages classiques 18 5.1 Couplages entre deux lois de PoissonP(λ) etP(λ0) avec λ > λ0 . . . 18

5.2 Couplages d'une loi de Bernoulli avec une loi de Poisson . . . 18

5.3 Couplages avec une somme de lois de Bernoulli . . . 20

5.3.1 Cas où tout est indépendant . . . 20

5.3.2 Cas où il existe de la dépendance . . . 21

6 Méthode de Stein 22 6.1 Présentation . . . 22

6.2 Cas de la loi de Poisson . . . 23

6.3 Quelques applications . . . 30

6.3.1 Un problème de la date d'anniversaire . . . 30

6.3.2 Un problème classique d'occupation . . . 30

6.3.3 Approximation de la loi hypergéométrique . . . 32

III Entropie conditionnelle 37 7 Liaison entropie et écart d2 37 7.1 En dimension un . . . 37

7.2 En dimension nie quelconque . . . 40

8 Application : une inégalité de Poincaré 43

IV Introduction à la théorie du transport 48

9 Mesure dérivée et application à W2 48

10 Méthode itérative sur des mesures 51

Appendices 55

A Théorème de convergence Lp 55

(5)

Variation totale

Première partie

Concepts de variation totale et de couplage

1 Quelques notations

Si µ est une mesure sur l'espace mesurable (E,E) et ψ : (E,E) −→ (F,F) une application mesurable, on note ψ?µla mesure sur l'espace mesurable (F,F), image de µparψ . C'est-à- dire :ψ?µ=µ◦ψ−1. Elle est caractérisée par le fait que pour toute fonction numérique réelle borélienne positive, ϕdénie sur (F,F), on a :

Z

F

ϕ dψ?µ= Z

E

ϕ◦ψ dµ

Siµetλsont deux mesures sur l'espace mesurable(E,E)etf une fonction borélienne positive dénie sur(E,E), on dit que µest à densité f relativement àλce que l'on note :µ=f·λ, si pour toute fonction numérique réelle borélienne positive, ϕsur(E,E), on a :

Z

E

ϕ dµ= Z

E

ϕ d(f·λ) = Z

E

ϕf dλ.

Siµ est une mesure sur l'espace mesurable (E,E) etϕ:E → Rd une fonction borélienne, on note :

kϕkp,µ:=

Z

E

|ϕ|p1p

, kϕk0,µ :=

Z

E

|ϕ|0 dµ= Z

E

11{ϕ6=0} dµ=µ[ϕ6= 0].

où : |v|= v12+. . .+vd212

désigne la norme euclidienne du vecteurv= (vi)i=1...,d∈Rd Si ϕ est une fonction borélienne bornée sur l'espace mesurable (E,E), on note par kϕku la

norme uniforme de ϕ:

kϕku:= sup

x∈E

|ϕ(x)|.

On notera∆E :={(x, x); x∈E} la diagonale deE.

2 Variation totale

Pour comparer deux mesures de probabilité dénies sur un même espace mesurable (E,E), un premier moyen est de considérer la distance en variation totale :

Dénition 2.1 Pour µetν deux mesures sur(E,E). On dénit la variation totale entreµetν par : kµ−νkV T = sup

A∈E

|µ(A)−ν(A)|.

La variation totale est une distance sur l'espace des probabilités sur(E,E). Elle peut se décrire d'un point de vue intrinsèque de plusieurs manières équivalentes.

Lemme 2.1 Siµetν sont deux mesures de probabilité sur(E,E), toutes deux absolument continues

(6)

Variation totale

par rapport à une même mesure λavec densités respectives : f := et g:= , alors : kµ−νkV T = sup

0≤ϕ≤1

Z

ϕ dµ− Z

ϕ dν

(2.1)

= 1

2 sup

kϕku≤1

Z

ϕ dµ− Z

ϕ dν

(2.2)

= 1

2 Z

|f−g|dλ (2.3)

= Z

(f −g)+dλ. (2.4)

Remarque : Il existe toujours une mesure de probabilité sur (E,E) relativement à laquelle µ et ν sont toutes deux absolument continues : 12µ+ 12ν en est un exemple. Notons par ailleurs que les quantités intervenant dans (2.3) et (2.4) ne dépendent pas du choix de λ. En eet donnons nous λ1

etλ2 deux mesures de référence pour lesquelles : µ=f1·λ1 =f2·λ2 etν =g1·λ1 =g2·λ2. Si λ1 << λ2 avec λ1 = h·λ2, alors on a les égalités presque-sûres au sens de λ2 : f1h = f2 et g1h=g2, avec ce faisant :

Z

|f1−g1|dλ1 = Z

|f1−g1|h dλ2= Z

|f2−g2|dλ2 Z

(f1−g1)+1 = Z

(f1−g1)+h dλ2= Z

(f2−g2)+2

Dans le cas général, puisqu'il existe toujours une mesure de référenceλ˜ par rapport à laquelleλ1 et λ2 sont absolument continues, et puisque deux quantités égales à une même troisième sont égales entre elles, on déduit du cas précédent, que les quantités considérées ne dépendent pas de la mesure de référence.

Démonstration :

Démontrons maintenant la suite d'égalités annoncées.

∗ Vu que(f−g)+ = 12(|f−g|+f −g)et commeR

f dλ=R

gdλ= 1, on a : Z

(f −g)+dλ= 1 2

Z

|f −g|dλ= Z

(g−f)+dλ.

Ce qui montre l'égalité des quantités intervenant dans (2.3) et (2.4).

∗ PourA∈ E, en intégrant les inégalités fonctionnelles :(f−g)11A≤(f−g)+11A≤(f−g)+, on a : µ(A)−ν(A) =

Z

A

(f −g)dλ≤ Z

(f −g)+dλ puis par symétrie :

ν(A)−µ(A)≤ Z

(g−f)+dλ= Z

(f−g)+dλ et donc en passant au supA∈E :

kµ−νkV T = sup

A∈E

|µ(A)−ν(A)| ≤ Z

(f−g)+dλ.

Par ailleurs, en considérant : E+:={x∈E, f(x)≥g(x)} ∈ E, on a : Z

(f −g)+dλ= Z

E+

(f−g)dλ=µ(E+)−ν(E+)≤ kµ−νkV T.

(7)

Couplages

C'est donc que : kµ−νkV T = Z

(f −g)+dλ, à savoir l'identication de la variation totale comme valant (2.4).

∗ Pour ϕ, E-mesurable telle que ||ϕ||u ≤ 1, considérons ϕe := ϕ+12 qui est E-mesurable, qui vérie 0≤ϕe≤1et pour laquelle on a :

Z

ϕ dµe − Z

ϕ dνe

= Z

ϕ(fe −g)dλ

= 1 2 Z

ϕ(f−g)dλ+ Z

f dλ− Z

g dλ

= 1 2 Z

ϕ dµ− Z

ϕ dν .

L'application x 7→ x+12 établissant une bijection entre [−1,1]et [0,1], l'application ϕ7→ ϕeéchange fonctions mesurables bornées par 1 et fonctions mesurables à valeurs dans[0,1], de sorte que :

sup

0≤ϕ≤1

Z

ϕ dµ− Z

ϕ dν

= 1 2 sup

||ϕ||u≤1

Z

ϕ dµ− Z

ϕ dν . Cela montre l'égalité des expressions (2.1) et (2.2).

∗ Soitϕune fonction E−mesurable telle que||ϕ||u ≤1, alors :

Z

ϕ dµ− Z

ϕ dν

≤ Z

|ϕ||f −g|dλ≤ Z

|f −g|dλ et donc :

sup

||ϕ||u≤1

Z

ϕ dµ− Z

ϕdν

≤ Z

|f−g|dλ.

On a de plus :

kµ−νkV T = sup

ϕ=11A,A∈A

Z

ϕ dµ− Z

ϕ dν

≤ sup

0≤ϕ≤1

Z

ϕ dµ− Z

ϕ dν . Ce qui montre l'identication de la variation totale comme valant (2.1)

3 Couplages

Etant donnés deux espaces probabilisés(E,E, µ) et (F,F, ν), une façon de comparer ces struc- tures pour un certain point de vue, quantié par ce que nous appellerons une fonction de coût, est de les faire apparaître comme sous-structures, d'un même espace probabilisé, en essayant d'en minimiser pour cette représentation, le coût moyen.

Pour des raisons techniques de mesurabilité, on supposera en général queEetF sont des espaces Polonais (i.e. espace topologique métrisable séparable dont la topologie peut être dénie par une distance qui en fait un espace complet), dont on note E etF les tribus boréliennes. Etant donnnées deux mesures de probabilité :µ sur(E,E) etν sur (F,F), introduisons la notion de couplage entre µ et ν.

Dénition 3.1 Un couplage entre µet ν est une mesureγ sur l'espace produit(E×F,E ⊗ F) qui a pour mesures marginales ΠE ?γ =µ et ΠF ?γ =ν.

(8)

Couplage optimal pour un coût donné

Remarque : D'un point de vue probabiliste, trouver un couplage γ entre µ et ν consiste à trouver un couple (X, Y) de variables aléatoires, toutes deux dénies sur un même espace de probabilité (Ω,A,P), à valeurs dans respectivement(E,E)et(F,F), et dont les lois respectives sont :L(X) =µ et L(Y) = ν, puis à considérer pour γ la loi du couple (X, Y). On dira dans ce cas que le couple (X, Y) réalise le couplage γ.

(E,E, µ)

(Ω,A,P)

X

11

(X,Y) //

Y --

(E×F,E ⊗ F, γ)

ΠE

66m

mm mm mm mm mm m

ΠF

((Q

QQ QQ QQ QQ QQ Q

(F,F, ν) Remarque : Il n'y a pas en général unicité du couplage. En voici deux exemples :

Exemple 3.1 Le couplage indépendant est le produit tensoriel µ⊗ν, caractérisé par le fait que pour tout rectangle A×B, avec (A, B)∈ E × F, on a : (µ⊗ν)(A×B) =µ(A)·ν(B).

Le couplage porté par un graphe : dans le cas où ν = ψ?µ avec ψ : (E,E) −→ (F,F), une application mesurable, la mesure µψ := (idE, ψ)µ, sur(E×F,E ⊗ F)est un couplage entre µet ν. Il est caractérisé par le fait que pour tout rectangle(A, B)∈ E ×F, on a :µψ(A×B) =µ[A∩ψ−1(B)]. Il est porté par (ψ◦ΠEF)−1(∆F), le graphe deψ.

Dans le cas oùE et F sont discrets, les couplagesµ⊗ν et µψ sont caractérisés par :

∀(i, j)∈E×F, (µ⊗ν)i,jiνj, et : µψi,j =

µi si j=ψ(i) 0 sinon

Notations : Pour µ et ν deux mesures dénies sur un même espace Polonais (E,E), M(µ, ν) désigne l'ensemble des couplages entre µetν.

La relative compacité de M(µ, ν), pour la convergence étroite des mesures de probabilité sera bien souvent un argument clé :

Lemme 3.1 Dans le cas où µet ν sont des mesures de probabilité, M(µ, ν) est un ensemble tendu de probabilités.

Démonstration :

Comme toute mesure de probabilité sur un espace polonais muni de sa tribu borélienne est tendue, pour tout >0 xé, il existe deux compacts K1,K2 de l'espace polonais E tels que :

µ(K1)>1−

2 , ν(K2)>1− 2.

AinsiK =K1∪K2 est un compact de E pour lequelµ(Kc) +ν(Kc)< 2 +2. Par ailleurs,K×K est un compact de E ×E, qui vérie : (K×K)c ⊂(Kc×E)∪(E×Kc) de sorte que pour tout γ ∈ M(µ, ν), on a :

γ

(K×K)c

≤ γ(Kc×E) +γ(E×Kc) =µ(Kc) +ν(Kc)< . On en déduit le caractère tendu deM(µ, ν)

4 Couplage optimal pour un coût donné

On se place sur(E,E) un espace Polonais mesurable.

Dénition 4.1 On appellera fonction de coût positive toute application c:E −→R+ E−mesurable.

(9)

Couplage optimal pour un coût donné 4.1 Le couplage optimal existe

Toutes les fonctions de coût que nous envisagerons seront au moins semi-continues inférieurement.

La notion de couplage optimal, est relative à une fonction de coût donnée.

Dénition 4.2 Soit c une fonction de coût positive. On dira que γ ∈ M(µ, ν) est un couplage optimal entre µet ν relativement àc si :

Z

c(x, y)dγ(x, y) = inf

Π∈M(µ,ν)

Z

c(x, y)dΠ(x, y).

Remarque :

Si c : (x, y) 7−→ 11c

E(x, y). Comme ∆cE est ouvert, la fonction de coût c est semi-continue inférieurement. Pour cette fonction de coût, on parlera de couplage optimal. Dans ce cas siγ est un couplage optimal entre µetν alors :

γ({x6=y}) = inf

Π∈M(µ,ν)Π({x6=y}).

On aura aaire également aux fonctions de coût de typec: (x, y)7−→ |x−y|p surRd×Rd, où p est un entier plus grand que 1. Ces fonctions de coût sont alors continues et on parlera de couplage optimal relativement à c.

4.1 Le couplage optimal existe

Une question naturelle se pose : pour deux mesures données et une fonction de coût xée, existe- t-il toujours un couplage optimal ? La réponse est oui lorsque la fonction de coût est susamment régulière.

Proposition 4.1 Si µ et ν sont deux probabilités sur E et c:E×E−→R+ est une fonction de coût, semi-continue inférieurement et bornée, alors la fonction :

γ ∈ M(µ, ν)7−→

Z

E×E

c(x, y)dγ(x, y) atteint son minimum sur M(µ, ν).

Démonstration : Notons m = infγ∈M(µ,ν)

nR

E×Ec(x, y)dγ(x, y)

o. Comme c est bornée, on a m < +∞. D'après la caractérisation de la borne inférieure, pour chaque n∈ N, il existe un couplage γn ∈ M(µ, ν) tel que :

Z

E×E

c(x, y)dγn(x, y)≤m+ 1

n. (4.5)

Le lemme (3.1) nous indique que la suite de couplages(γn)n≥1 est tendue. Il en existe une sous-suite (γnk)kqui converge étroitement vers une probabilitéγ ∈P(E×E). Montrons queγ est un couplage optimal relativement à c.

∗ Soit alorsϕ∈ Cb(E×E). La convergence étroite se traduit par : Z

E×E

ϕ dγnk −→

Z

E×E

ϕ dγ.

Ainsi pour ψ∈ Cb(E), si l'on poseϕ=ψ◦π1∈ Cb(E×E), et commeγnk ∈ M(µ, ν)on a : Z

E

ψ dµ= Z

E×E

ϕ dγnk −→

Z

E×E

ϕ dγ = Z

E

ψ dγ.

Cela signie que(π1)γ =µ. De la même façon, on montre que(π2)γ =ν. Autrement dit on a déjà que γ ∈ M(µ, ν).

(10)

Couplage optimal pour un coût donné 4.2 Construction d'un couplage optimal

∗ Grâce à la représentation de Skorohod, il existe un espace (Ω,F,P) probabilisé, des variables aléatoires (Xk)k, X sur cet espace telles que :

∀k≥1 L(Xk) =γnk, L(X) =γ (Xk)k −→ X p.s.

Par les lemmes du Transfert et de Fatou on a donc : lim inf

k

Z

E×E

c(x, y)dγnk(x, y) = lim inf

k E[c(Xk)]≥E[lim inf

k c(Xk)], et la fonction c:E×E −→R+ étant semi-continue inférieurement, on a :

lim inf

k

Z

E×E

c(x, y)dγnk(x, y)≥ Z

E×E

c(x, y)dγ(x, y).

Et grâce à (4.5), en faisant tendrek−→+∞on obtient : Z

E×E

c(x, y)dγ(x, y)≤m.

Finalement grâce à la dénition de m, on obtient queγ est un couplage optimal relativement à c Remarque : La proposition (4.1) reste vraie si on ne suppose plus quecest bornée, mais qu'il existe un couplage ρ∈ M(µ, ν) telle que R

E×Ec(x, y)dρ(x, y)<+∞. 4.2 Construction d'un couplage optimal

On donne ici un moyen explicite de construction d'un couplage optimal pour le coût :(x, y)7→

11c

E(x, y).

Proposition 4.2 Si µetν sont deux mesures de probabilité sur(E,E) à densités respectivesf et g par rapport à une même mesureρ, la mesure de probabilité sur (E×E,E ⊗ E), donné par :

eγ =i∆?

min(f, g)·ρ

+ (f−g)+⊗(g−f)+

kµ−νkV T ·(ρ⊗ρ)

où i est l'application E→E×E qui x7→(x, x), est un couplage optimal entreµ et ν.

Remarque : La mesureeγ décrite ci-dessus, est caractérisée par la façon dont elle intègre les fonctions boréliennes positives sur E×E. Pourψ:E×E →R+, fonction borélienne positive, on a :

ZZ

E×E

ψ(x, y)deγ(x, y) :=

Z

E

ψ(x, x) min{f(x), g(x)}dρ(x)

+ 2

Z

E

|f(x)−g(x)|dρ(x) ZZ

E×E

ψ(x, y) f(x)−g(x)+

g(y)−f(y)+

dρ(x)dρ(y)

Dans le cas discret, oùE est l'ensemble dénombrable discret I, avec les mesures µetν données par l'intermédiaire des vecteurs de probabilités (µi)i∈I et (νi)i∈I, correspondant aux densités res- pectives de µet ν relativement à la mesure de décompte sur I le couplage optimal eγ est donné par l'intermédiaire de sa densité relativement à la mesure de décompte surI ×I :(eγi,j)(i,j)∈I×I sous la forme :

i,j = min(µi, νjij +(µi−νi)+j−µj)+ kµ−νkV T .

(11)

Couplage optimal pour un coût donné 4.2 Construction d'un couplage optimal

Démonstration :

Le fait queeγ soit un couplage entreµetνest de vérication immédiate. Pour toute fonction positive, borélienne sur E,ϕ, on a :

Z

ϕ d(π1?γe) = Z

ϕmin{f, g}dρ+ 2 Z

g−f+

dρ Z

|f−g|dρ Z

ϕ f−g+

= Z

ϕ

min{f, g}+ f−g+ dρ=

Z

ϕ f dρ= Z

ϕ dµ

Z

ϕ d(π2?γe) = Z

ϕmin{f, g}dρ+ 2 Z

f−g+

dρ Z

|f−g|dρ Z

ϕ g−f+

= Z

ϕ

min{f, g}+ g−f+ dρ=

Z

ϕ g dρ= Z

ϕ dν de sorte que : eγ ∈ M(µ, ν). Par ailleurs, vu que f−g+

g−f+

= 0, on a : eγ(∆cE) = 1−γe(∆E) = 1−

Z

min{f, g}dρ= 1−

Z f dρ+

Z

f −g+

dρ= Z

E

f −g+

dρ=kµ−νkV T. Enn pour tout γ ∈ M(µ, ν), couplage entre les deux mesures µ et ν sur l'espace probabilisé (E,E), et pour toute fonction borélienne ϕ:E−→[0,1], on a :

Z

ϕ dµ− Z

ϕ dν

=

ZZ

ϕ(x)dγ(x, y)− ZZ

ϕ(y)dγ(x, y)

=

ZZ

ϕ(x)−ϕ(y)

dγ(x, y)

=

ZZ

cE

ϕ(x)−ϕ(y) dγ(x, y)

≤ ZZ

cE

|ϕ(x)−ϕ(y)|dγ(x, y)≤γ(∆cE).

Ceci étant vrai pour toute fonction borélienne0≤ϕ≤1, on en déduit que : kµ−νkV T = sup

0≤ϕ≤1

Z

ϕ dµ− Z

ϕ dν

≤γ(∆cE).

Et donc que : sup

0≤ϕ≤1

Z

ϕ dµ− Z

ϕ dν

=kµ−νkV T =eγ(∆cE) = inf

γ∈M(µ,ν)γ(∆cE).

D'où le fait que eγ soit un couplage entre µetν, optimal pour le coût : (x, y)7→11cE(x, y)

Remarque : Lors de cette proposition, nous avons obtenu une nouvelle caractérisation, cette fois extrinsèque, de la variation totale :

kµ−νkV T = inf

γ∈M(µ,ν)

Z

11{x6=y}dγ(x, y)

= inf

γ∈M(µ,ν)γ(∆cE).

Remarque : D'un point de vue probabiliste, notons que si un couple de variables aléatoires (X, Y) sur (Ω,A,P), réalise un couplageγ∈ M(µ, ν), on a :

P(X 6=Y) =γ(∆cE).

(12)

Couplage optimal pour un coût donné 4.3 Espaces et distances de Wasserstein

Pour que le couple (X, Y)réalise un couplage optimaleγ, il faut que : P(X 6=Y) =eγ(∆cE) =νkV T =

Z

(fg)+ et donc que :

P(X =Y) =eγ(∆E) = 1− kµνkV T = Z

f(fg)+= Z

min(f, g) Cette condition se trouve réalisée si l'on suppose que pourA, B∈ E :

P(XA, Y B, X =Y) =P(X AB, X=Y) =P(Y AB, X=Y) = Z

A∩B

min(f, g) avec en particulier :

P(X A, X6=Y) =P(X A)P(X A, X=Y) = Z

A

f min(f, g)= Z

A

(fg)+

P(Y B, X 6=Y) =P(Y B)P(Y A, X=Y) = Z

B

gmin(f, g)= Z

A

(gf)+ et que par ailleurs,X et Y sont indépendants sachant{X6=Y}, à savoir que pourA, B∈ E :

P(X A, Y B |X 6=Y) = P(XA|X 6=Y)·P(Y B |X 6=Y) P(X A, Y B, X 6=Y) = 1

P(X6=Y)P(XA, Y 6=X)·P(Y B, X6=Y)

= 1

νkV T Z

A

f(x)g(x)+

dρ(x) Z

B

g(y)f(y)+

dρ(y)

= 1

νkV T ZZ

A×B

f(x)g(x)+

g(y)f(y)+

d(ρρ)(x, y)

.

ce qui en bilan donne la condition : P(X A, Y B) =

Z

A∩B

min(f, g)+ 1 νkV T

ZZ

A×B

fg+

gf+

d(ρρ)

.

On retrouve que la loi du couple(X, Y)est le couplageeγdonné dans la proposition.

4.3 Espaces et distances de Wasserstein

Notations : Dans toute la suite, on désigne parP(Rd) l'ensemble des probabilités surRd. On appellep−espace de Wasserstein (pour p∈N)l'espace des probabilités, déni comme suit :

Pp(Rd) :=

µ∈P(Rd); mp(µ) :=

Z

Rd

|x|pdµ(x)<+∞

muni de la p−distance de Wasserstein associée Wp, telle que pour µ, ν ∈Pp(Rd): Wp(µ, ν) := inf

γ∈M(µ,ν)

Z

Rd×Rd

|x−y|pdγ(x, y) 1p

= inf

γ∈M(µ,ν){kπ1−π2kp,γ},

où on rappelle que M(µ, ν) ={γ ∈P(Rd×Rd); (π1)γ =µ, (π2)γ =ν}, avec πi:Rd×Rd→Rd est la projection sur laieme composante.

Remarque : W0 est la distance correspondant au couplage optimal déni plus haut : W0(µ, ν) = inf

γ∈M(µ,ν)γ[π1 6=π2] = inf

γ∈M(µ,ν)γ ∆c

Rd

.

Nous nous intéresserons ici plus spéciquement à l'espace de Wasserstein (P2(Rd), W2).

(13)

Couplage optimal pour un coût donné 4.4 Distance W2

4.4 Distance W2

Remarquons en premier lieu queW2 est toujours nie. En eet, pourx, y∈Rd on a :

|x+y|2=

d

X

i=1

(xi+yi)2≤2

d

X

i=1

x2i + 2

d

X

i=1

y2i = 2|x|2+ 2|y|2. Ainsi pour µ, ν ∈P2(Rd), etγ ∈ M(µ, ν), il vient que :

W22(µ, ν)≤ Z

Rd×Rd

|x−y|2dγ(x, y) ≤ 2 Z

Rd×Rd

|x|2dγ(x, y) + Z

Rd×Rd

|y|2dγ(x, y)

= 2

m2(µ) +m2(ν)

<+∞.

Un cas particulier de la proposition 4.1, est la proposition suivante :

Proposition 4.3 Pour µ, ν ∈P2(Rd), il existe un couplage γ0 ∈ M(µ, ν) tel que : W22(µ, ν) =

Z

Rd×Rd

|x−y|20(x, y). (4.6)

Un tel couplage est dit optimal entre µ etν pour le coût quadratique : (x, y)7→ |x−y|2 .

Notations : On désignera l'ensemble des couplages optimaux pour W2 entreµetν par M20(µ, ν) ={γ ∈ M(µ, ν); qui v´erifie (4.6)}.

Justions maintenant la terminologie de distance pour W2. Proposition 4.4 W2 est bien une distance sur P2(Rd).

Démonstration :

On vérie les trois axiomes de la dénition de distance.

i) Considérons l'application i : Rd −→ Rd ×Rd qui : x 7→ (x, x). Soit γ := i∆∗µ. Vu que : π1◦i=idE2◦i, on a :γ∈ M(µ, µ) et :

W22(µ, µ)≤ Z

Rd×Rd

1−π2|2 dγ= Z

Rd

1◦i−π2◦i|2 dµ= 0.

Si maintenant µ et ν sont telles que W2(µ, ν) = 0. On peut, d'après la proposition précédente, considérer un couplage optimalγ ∈ M20(µ, ν), pour lequel on a :

Z

Rd×Rd

1−π2|2 dγ = 0.

C'est donc que π1 = π2, γ−p.p, à savoir que γ est portée par la diagonale ∆Rd. Ainsi pour toute fonction ϕborélienne bornée dénie sur Rd, on a :

Z

Rd

ϕ dµ= Z

Rd×Rd

ϕ◦π1 dγ = Z

Rd×Rd

ϕ◦π2 dγ= Z

Rd

ϕ dν, . On en déduit que µ=ν.

ii)Considérons l'applicationS :Rd×Rd→Rd qui :(x, y)7→(y, x). Soitγ ∈ M20(µ, ν)etγˆ:=Sγ.

(14)

Couplage optimal pour un coût donné 4.4 Distance W2

Vu que π1 ◦ S = π2, on a : π1∗γˆ = π1∗(Sγ) = (π1 ◦ S)γ = π2∗γ = ν. On obtient de même (π2)ˆγ=µ, de sorte queγˆ∈ M(ν, µ). Comme par ailleurs,γ est un couplage optimal, on a :

W22(ν, µ)≤ Z

Rd×Rd

1−π2|2 dˆγ = Z

Rd×Rd

2−π1|2 dγ =W22(µ, ν).

D'où en échangeant les rôles de µetν, la symétrie de W2.

iii) Soientµ1, µ2, µ3∈P2(Rd), γ1∈ M201, µ2) etγ2 ∈ M202, µ3). Les marginales (π2)?γ12 = (π1)?γ2 sont identiques et si on note ˆπi : Rd×Rd×Rd −→ Rd la iieme projection, il existe une probabilité λ∈P2(R2×Rd×Rd) telle que :

(ˆπ1,πˆ2)λ=γ1 et (ˆπ2,πˆ3)λ=γ2. De plus on a les égalités :

(ˆπ1)∗λ= (π1)γ1= (π1)(ˆπ1,πˆ3)λ = µ1, (ˆπ3)∗λ= (π2)γ2= (π2)(ˆπ1,πˆ3)λ = µ3,

qui impliquent que(ˆπ1,πˆ3)λ∈ M(µ1, µ3). Si on notek ˙kL2(λ)la norme habituelle sur L2(λ), on a, par successions d'inégalités triangulaires :

W21, µ3) ≤ Z

Rd×Rd

|x1−x3|2d((ˆπ1,πˆ3)λ)(x1, x3) 12

=k|ˆπ1−πˆ3|kL2(λ)

≤ k|ˆπ1−πˆ2|kL2(λ)+k|ˆπ2−πˆ3|kL2(λ) =W21, µ2) +W22, µ3).

Donc W2 vérie bien l'inégalité triangulaire

Donnons à présent une caractérisation de la convergence dans P2(Rd)au sens de W2. Proposition 4.5 Soient (µn)n, µ∈P2(Rd). On a équivalence entre :

1. (µn)n converge vers µau sens de W2

2. (µn)n converge faiblement versµ et

R→+∞lim sup

n

Z

|x|≥R

|x|2n(x)

!

= 0.

Notations : Dans la suite, on noteraR

pour R

Rd ouR

Rd×Rd.

Remarque : Chercher α, β >0 tels que(a+b)2≤(1 +α2)a2+ (1 +β2)b2, revient à trouverα, β >0 tels que

2ab≤α2a22b2= (αa−βb)2+ 2αβab.

Ce qui est le cas siαβ = 1. Ainsi pour tout >0, on peut prendre α=√

,β= 1/√

et obtenir : (a+b)2 ≤(1 +)a2+ (1 + 1

)b2. Il résulte de cette remarque, le lemme suivant :

Lemme 4.1 Soient (µn)n est une suite de mesures et µ dans P2(Rd). 1. Sisupn≥1W2n, µ)<+∞ alors :

sup

n≥1

m2n)<+∞, et (µn)n est tendue.

(15)

Couplage optimal pour un coût donné 4.4 Distance W2

2. Si de plus(µn)n qui converge vers µau sens de W2, alors pour toutx0∈Rd : lim sup

n→+∞

Z

|x−x0|2n(x)≤ Z

|x−x0|2dµ(x).

Démonstration :

On considère pour chaque n ≥ 1, γn ∈ M20n, µ) un couplage optimal entre µn et µ. Fixons x0∈Rd. En appliquant successivement l'inégalité triangulaire de la norme euclidienne, et la remarque précédente on a :

Z

|x−x0|2n(x) ≤ Z

(|x−y|+|y−x0|)2n(x, y)

≤ (1 +1 )

Z

|x−y|2n(x, y) + (1 +) Z

|y−x0|2dµ(y).

On reconnaît dans le membre de droite, le premier terme W22n, µ).

1. Sisupn≥1W2n, µ)<+∞, on a en spécialisant x0 = 0:K := supn≥1m2n)<+∞. Soit alors >0. PourR >√

K/√

, on a pour tout n∈N et grâce à l'inégalité de Markov : µn(|x|> R)≤ 1

R2 Z

|x|2n(x)≤ K R2 < . Il en découle que (µn)n est tendue.

2.SiW2n, µ) tend vers0 quandn−→+∞, alors on obtient le deuxième point du lemme Nous pouvons passer à la démonstration de la proposition :

Démonstration :

2.⇒1.Par hypothèse, on a déjà que(µn)nconverge faiblement versµ. Le théorème de représentation de Skorohod nous dit qu'il existe (Ω,F,P) un espace probabilisé et des variables aléatoires sur cet espace : (Xn)n,X telles que :

∀n≥1 L(Xn) =µn, L(X) =µ (Xn)n −→ X p.s En utilisant l'autre hypothèse, on a :

R→+∞lim sup

n

Z

|x|>R

|x|2n(x) = lim

R→+∞sup

n

Z

|Xn|>R

|Xn|2dP= 0.

Autrement dit la suite(|Xn|2)nest équi-intégrable. Et la convergence presque sûre entraîne la conver- gence en probabilité, donc(Xn)nconverge en probabilité versX. Par le Lemme (A.1) (voir Annexe), cela est équivalent à dire que :

(Xn)n −→ X dansL2(P) i.e E(|Xn−X|2) −→ 0.

De plus, d'après la dénition de W2 on a l'inégalité : W22n, µ) = inf

(Yn,Y)∈M(µn,µ)E(|Yn−Y|2)≤E(|Xn−X|2)−→0.

On a donc montré que (µn)n converge versµau sens de W2. 1.⇒2.Par hypothèse on a :limn→+∞W2n, µ) = 0.

∗ Le lemme 4.1 nous donne l'inégalité : lim sup

n→+∞

Z

|x|2n(x)≤ Z

|x|2dµ(x).

(16)

Couplage optimal pour un coût donné 4.4 Distance W2

Pour >0, il existe donc n0 ∈N? tel que, pour toutn≥n0 : Z

|x|2n(x)≤ Z

|x|2dµ(x) +.

SoitR >0. La fonction surRd−→R+,x7−→1{|x|<R}|x|2est semi-continue inférieurement et donc : lim inf

n→+∞

Z

|x|<R

|x|2n(x)≥ Z

|x|<R

|x|2dµ(x).

Il existe alors n1≥n0 tel que, pour toutn≥n1 : Z

|x|<R

|x|2n≥ Z

|x|<R

|x|2dµ(x)−. Ainsi pour n≥n1, on obtient :

Z

|x|≥R

|x|2n≤ Z

|x|≥R

|x|2dµ+ 2.

En prenant le sup surn≥1et la limite quand R tend vers+∞, il vient que :

R→+∞lim sup

n≥1

Z

|x|≥R

|x|2n= 0. (4.7)

∗ Comme (µn)n converge au sens deW2 vers µ, le lemme 4.1 indique en particulier que la suite est tendue. Il existe donc une sous-suite (µnk)k qui converge faiblement vers une mesure µ. De plus cette sous-suite vérie aussi (4.7). On peut donc appliquer le sens2.⇒1.à cette sous-suite :(µnk)k

converge au sens de W2 versµ. Mais par hypothèse(µn)nconverge versµau sens deW2 donc par unicité de la limite, il en découle que µ=µ. Ainsi, toute sous-suite de (µn)n converge faiblement vers µ, et donc (µn)nconverge faiblement vers µ

Enn terminons cette partie, en donnant la propriété fondamentale de la distance de Wasserstein : Proposition 4.6 L'espace métrique (P2(Rd), W2) est complet.

Démonstration :

Prenons une suite de Cauchy (µn)n ⊂P2(Rd) pour la distance W2. Soit > 0. Il existe un entier n0 >0 tel que pour toutn, m≥n0, on aitW2n, µm)< .

∗ Montrons dans un premier temps que (µn)n est tendue. Soitm≥n0. On a par inégalité triangu- laire :

W21, µn)≤W21, µn0) +W2n0, µm)< W21, µn0) +≤C0 <+∞.

Ainsi :

sup

m≥n0

W21, µm)≤C0 <+∞ et sup

1≤m≤n0

W21, µm) =C1 <+∞

donc sup

m≥1

W21, µm) ≤ max(C0, C1)<+∞.

Donc(µn)nest bornée pourW2et par le lemme 4.1, cela implique que la suite(µn)nest bien tendue.

∗ On en déduit qu'il existe une sous-suite (µnk)k qui converge faiblement vers une mesure µ. On considère pour chaque mesure de cette sous-suite, un couplage γn,nk ∈ M20n, µnk). Comme (µn)n

est tendue, il s'ensuit que(γn,nk)k. Il existe donc une sous-suite(γn,nkp)pqui converge faiblement vers γn,∞. Pour ne pas alourdir les notations, on va supposer que c'est (γn,nk)k qui converge faiblement vers γn,∞. Soitϕ∈ Cb(Rd×Rd). La convergence faible se traduit par :

Z

ϕ dγn,nk −→

Z

ϕ dγn,∞.

(17)

Couplage optimal pour un coût donné 4.4 Distance W2

Soit alors ψ∈ Cb(Rd). Posonsϕ=ψ◦π1 ∈ Cb(Rd×Rd), alors on a : Z

ϕ dγn,nk = Z

ψ dµnk −→

Z ψ dµ.

Donc par unicité de la limite, on a que R

ψ dµ=R

ϕ dγn,∞. Cela signie que (π2)γn,∞

Remarque : Peut-être que cette démonstration aurait été plus succinte en utilisant la caractérisation de la convergenceW2 donnée par la proposition 4.5. Faute de temps, nous n'avons pas pu y rééchir de manière approfondie.

(18)

Quelques Couplages classiques

Deuxième partie

Couplages avec une loi de Poisson

Cette partie est consacrée à l'étude de cas discrets.

La loi de Poisson de paramètreλ >0est la loi portée par N, de moyenneλet variance λ: P(λ) =X

n∈N

λn

n!e−λ·δn, de fonction génératrice : s7→e−λ(1−s).

5 Quelques Couplages classiques

5.1 Couplages entre deux lois de Poisson P(λ) et P(λ0) avec λ > λ0

Si nous calculons la variation totale entre ces deux lois, et puisque e−λ < e−λ0, alors que n

n∈N/ λn!0ne−λ0 < λn!ne−λ

oest une demi-droite d'entiers : [Nλ,λ0,+∞[, avecNλ,λ0 ≥1, on obtient :

kP(λ)− P(λ0)kV T = X

n∈N

λn

n!e−λ− λ0n n!e−λ0

+

= X

n≥Nλ,λ0

λn

n!e−λ−λ0n n!e−λ0

= (e−λ0 −e−λ) + X

1≤n<Nλ,λ0

λ0n

n!e−λ0− λn n!e−λ

= e−λ0(1−e−(λ−λ0)) + X

1≤n<Nλ,λ0

λ0n

n!e−λ0 −λn n!e−λ

Notons qu'il n'est en général pas facile d'avoir un estimé eectif de ces quantités.

Cependant dans le cas où : 0< λ0 < λ < 1, on constate que : λ0e−λ0 < λe−λ (il sut d'étudier les variations de la fonction qui : x7→xe−x), et que de ce faitNλ,λ0 = 1, avec ainsi :

kP(λ)− P(λ0)kV T =e−λ0(1−e−(λ−λ0))≤1−e−(λ−λ0)≤λ−λ0

En fait nous pouvons retrouver cette majoration dans le cas général de façon assez simple en utilisant un couplage particulier (susamment bon, bien que non optimal).

Nous utiliserons le fait (dont la vérication est immédiate en termes de fonctions génératrices), que la somme de deux variables de Poisson indépendantes est une variable de Poisson (de paramètre la somme des paramètres). Si X0 et X00 sont deux variables aléatoires de Poisson de paramètres respectifsλ0 etλ00=λ−λ0, toutes deux dénies sur le même espace de probabilité et indépendantes entre elles, leur sommeX :=X0+X00est une variable de Poisson de paramètreλ. Le couple(X, X0) réalise un couplage γ entre les lois de PoissonP(λ) etP(λ0). Vu que :

γ(∆cN) =P[X6=X0] =P[X006= 0] = 1−e−(λ−λ0) on en déduit que :

kP(λ)− P(λ0)kV T ≤1−e−(λ−λ0)≤λ−λ0. 5.2 Couplages d'une loi de Bernoulli avec une loi de Poisson

La loi de Bernouilli de paramètrep∈]0,1[est la loi portée par {0,1}, de moyennepet variance p(1−p) :

B(p) = (1−p)δ0+pδ1, de fonction génératrice : s7→1−p(1−s).

(19)

Quelques Couplages classiques 5.2 Couplages d'une loi de Bernoulli avec une loi de Poisson

La distance en variation totale entre µ, la loi de Poisson de paramètreλ >0etν, la loi de Bernoulli de paramètre pest :

kP(λ)− B(p)kV T = e−λ−(1−p)+

+ λe−λ−p+

+X

i≥2

λi i!e−λ

= e−λ−(1−p)+

+ λe−λ−p+

+ 1−e−λ(1 +λ) Remarque : Ce résultat se simplie dans les deux cas particuliers suivants :

Dans le cas où p=λ∈]0,1[, vu que :1−λ≤e−λ≤1, on a : kP(λ)− B(λ)kV T = e−λ−(1−λ)

+ 0 + 1−e−λ(1 +λ) =λ(1−e−λ)≤λ2=p2 Dans le cas où p= 1−e−λ, vu que :(1 +λ)e−λ ≤1, on a :

kP(λ)− B(1−e−λ)kV T =

( 1−e−λ(1 +λ) =p+ (1−p) ln(1−p)≤p2 ≤λ2 λ2e−λP

`≥0 λ`

(`+2)!λ22e−λP

`≥0 λ`

`! = 12 λ2

Dans cette partie,XetY seront des variables aléatoires dénies sur le même espace probabilisé, ayant pour loi respective µ = P(λ) et ν = B(p) où 0 < λ < 1 et 0 < p < 1, réalisant donc un couplage γ entreµetν.

∗ Dans le cas oùp=λ∈]0,1[, considérons deux couplages possiblesγ etγ˜ entreX etY.

Un premier couplage : Ce couplage est valide sous la condition 1+λλ ≤ e−λ donc en particulier si

λ

1+λ ≤1−λà savoir si 0< λ≤

5−1

2 . Il est décrit dans le tableau ci dessous : γk,`=P[X=k, Y =`]

Y X

@

@

@

0 1 2 . . . k . . . B(p) 0 e−λ−λ(1−e−λ) 0 λ22e−λ . . . λk!ke−λ . . . 1−λ 1 λ(1−e−λ) λe−λ 0 . . . 0 . . . λ P(λ) e−λ λe−λ λ22e−λ . . . λk!ke−λ . . . . Il est tel que :

P[X6=Y] = 1−P[X= 0, Y = 0]−P[X= 1, Y = 1]

= 1−

e−λ−λ(1−e−λ) +λe−λ

= 1 +λ−e−λ(1 + 2λ)≤1 +λ−(1−λ)(1 + 2λ) = 2λ2 Vu que :

kP(λ)− B(λ)kV T =λ(1−e−λ)<1 +λ−e−λ(1 + 2λ) =P[X 6=Y]

ce couplage n'est pas optimal. Pourλassez petit il donne cependant une estimation raisonable (avec un coecient multiplicatif de l'ordre de 2) de la variation totale entre la loi de Poisson et la loi de Bernoulli.

Un second couplage : Essayons d'obtenir cette fois un couplage optimal. Pour cela, la Proposition 4.2 nous indique de placer sur la diagonale la valeur min(P(X=i),P(Y =i)). Ce qui donne :

˜

γk,`=P[X=k, Y =`]

Références

Documents relatifs

Comme il n'y a pas d'autre point xe dans cet intervalle la suite décroit et diverge vers −∞.. L'intervalle ]c µ , 0[

Comme il n'y a pas d'autre point xe dans cet intervalle la suite décroit et diverge vers −∞.. L'intervalle ]c µ , 0[

Préciser les opérations élémentaires assurant que les deux systèmes sont équivalents.. Préciser, suivant les valeurs des paramètres a et b les ensembles

Préciser les opérations élémentaires assurant que les deux systèmes sont équivalents.. Préciser, suivant les valeurs des paramètres a et b les ensembles

En utilisant l'inégalité de Ky Fan (à l'exlusion de toute autre méthode), montrer une inégalité entre ces deux moyennes2. Cette création est mise à disposition selon

Montrer que l’ensemble des milieux des segments [M f(M )], pour M parcourant ∆, est une droite affine ou un point..

Il s’est agi d’expliquer à différentes instances euro- péennes, en quoi les nouvelles technologies d’irrigation, par leur plus grande précision, représentent un moyen

On munit R 3 de sa structure affine euclidienne usuelle.. Soit E un plan affine euclidien et soit (ABC) un rep` ere affine