• Aucun résultat trouvé

2.3 Contraintes d’information sur les distributions atteignables

2.3.2 Conditions suffisantes d’atteignabilité

Avant de présenter les résultats sur les conditions suffisantes d’atteignabilité, un mot sur l’application considérée en Section 2.5: la distribution de probabilité conditionnelle Γ représente la structure d’observation de l’Agent 2, c’est-à-dire qu’elle définit ce que l’Agent 2 observe sur la séquence d’actions de l’Agent 1. En appliquant ce cadre à un réseau à interférences avec deux émetteurs et deux récepteurs, l’émetteur 1 peut être vu comme l’agent informé (par exemple un émetteur principal [50] ou maitre [62]), et Γ peut représenter un canal avec retour RSIB20

du récepteur 2 vers l’émetteur 2.

Atteignabilité : Cas I

Nous énonçons donc maintenant les théorèmes d’atteignabilité, à commencer par le cas I, c’est-à-dire les stratégies (2.6) pour les deux agents :

Théorème 2.7. Considérons la structure d’observation du Cas I. Soit Q ∈ ∆(X0× X1 × X2)

avec #

(x1,x2)

Q(x0, x1, x2) = ρ0(x0)∀x0∈ X0. Si la distribution de probabilité Q, structurée comme suit :

Q(x0, x1, x2, y) = Γ(y|x0, x1, x2)Q(x0, x1, x2), ∀ (x0, x1, x2, y)∈ X0× X1× X2× Y (2.23) vérifie la contrainte :

IQ(X0; X2)≤ IQ(X1; Y|X0, X2), (2.24)

alors Q est atteignable au sens de la Définition 2.2, pour des stratégies de la forme (2.6). La preuve d’atteignabilité exhibe des stratégies

f : x(b+1)0 , x(b)0 , x(b)2 -→ x(b)1 (2.25)

et

g : x(b)0 , y(b), x(b)2 -→ x(b+1)2 (2.26)

de type bloc-Markov qui induisent une distribution atteignable lorsque la contrainte d’informa-tion (2.24) est vérifiée. A l’inverse de la démonstration réciproque du Théorème 2.5, trouver un code particulier est suffisant. Or, nous exhibons un code par bloc avec des mots de code suffi-samment longs, ce qui permet de réutiliser les techniques standards de preuve de codage source avec distorsion et de codage canal. En effet, grâce au codage par bloc, ce qui joue le rôle du message à transmettre est la séquence d’états x(b+1)0 du bloc suivant b + 1, alors que la variable correspondant à l’information adjacente est (x(b)0 , x(b)2 ), qui sont les séquences d’états et d’actions de l’Agent 2 du bloc courant. Nous pouvons donc bien utiliser ici l’argument d’indépendance entre le message source et l’information adjacente, et réutiliser des schémas classiques de codage. La méthodologie pour cette preuve est la suivante :

2.3. Contraintes d’information sur les distributions atteignables

• nous supposons que le nombre d’étapes T est découpé en B blocs de taille n : T = nB21.

Avant chaque bloc b, 1 ≤ b ≤ B, l’Agent 1 choisit sa séquence d’actions x(b)1 en fonction de l’information à transmettre x(b+1)0 (la séquence d’états du bloc suivant) et des informations adjacentes (x(b)0 , x(b)2 ) dont il dispose sur le bloc courant. A la fin de chaque bloc b, l’Agent 2 observera lui y(b)et choisira sa séquence d’actions pour le bloc suivant x(b+1)2 en fonction de ses observations ainsi que de l’information adjacente du bloc courant (x(b)0 , x(b)2 ). • Les livres de codes ainsi que les séquences d’actions des agents sont générés grâce à la

méthode des types [28], qui caractérisent notamment le nombre de séquences qui ont la

même distribution empirique. Choisir ce type de séquences permet de créer un code dont la probabilité d’erreurs pourra être bornée par un nombre aussi proche de 0 que l’on veut,

et ce grâce un certain nombre de lemmes qui sont présentés en Annexe A.4. Ces lemmes

donnent des conditions sur le nombre de séquences qu’il faut considérer pour le livre de codes source ainsi que le livre de codes canal, ce qui se traduit finalement par la contrainte d’information (2.24). Cette méthode est centrale en théorie de l’information.

• Dans cette preuve, nous séparons les opérations de codage/décodage source et canal. Nous faisons donc tout d’abord le codage source, puis le codage canal, puis le décodage canal et

enfin le décodage source, comme illustré en Figure2.2. Le codage n’est donc pas un codage

conjoint. Le fait que ces opérations soient séparées peut engendrer, dans certains systèmes comme celui où deux sources discrètes sans mémoire sont envoyées sur un canal à accès multiple discret et sans mémoire, une perte en terme de performance. Lorsque c’est le cas, il faut utiliser des codages conjoints, souvent plus difficiles à mettre en place.

SOURCE ENCODER Γ(y|x0, x1, x2) y(b) x(b) 1 x(b) 2 (!ib1) x(b) 0 CHANNEL ENCODER ib x(b+1) 0 x (b) 2 (ib1) Agent 1 !ib x(b) 2 (!ib) SOURCE DECODER Agent 2 CHANNEL DECODER

Figure 2.2 – Illustration du schéma de codage : cette figure illustre l’encodage source,

l’encodage canal, le décodage canal, ainsi que le décodage source, au bloc b du schéma de codage

par bloc proposé pour la démonstration du théorème 2.7.

La preuve d’atteignabilité montre que l’Agent 1, pour corréler ses actions sur le bloc b, utilise (x(b)0 , x(b)2 (ib)) comme « information adjacente » , avec ib l’indice correspondant à la séquence à transmettre x(b+1)0 . En revanche, l’Agent 2 utilise (x(b)0 , x(b)2 (+ib)), avec +ib l’indice décodé par l’Agent 2 à la fin du bloc b, et qui a une probabilité positive d’être différent de ib. Néanmoins, les agents ont la même information adjacente asymptotiquement sous la condition que Q vérifie la contrainte d’information (2.24). C’est à dire que asymptotiquement, +ib = ib avec une probabilité qui tend vers 1. C’est une observation clé dans la démonstration d’atteignabilité. Cela explique notamment pourquoi le fait que l’Agent 1 n’observe pas les actions de l’Agent 2 n’induit aucune

perte de performance.

Comme nous le voyons, la contrainte d’information (2.19) du Théorème 2.5 coïncide avec

celle (2.24) du Théorème 2.7, ce qui veut dire que pour des stratégies correspondant au cas I,

cette contrainte d’information est une condition nécessaire et suffisante pour qu’une distribution de probabilité conjointe Q(x0, x1, x2) soit atteignable. Cela montre que séparer les opérations de codage/décodage source et canal n’implique aucune perte d’optimalité dans la preuve

d’atteigna-bilité. Les Théorèmes 2.5et 2.7fournissent donc une caractérisation complète des distributions

atteignables et donc par extension de ce qu’il est possible d’atteindre en terme d’utilité espérée

(commun aux deux agents) lorsque la structure d’information est définie via les stratégies (2.6)

et lorsque l’état aléatoire est i.i.d..

Lorsque l’état n’est pas i.i.d. d’étape en étape, mais constant sur L ≥ 1 étapes consécutives et i.i.d. de bloc en bloc (pour des blocs contenant L étapes), une nouvelle contrainte d’information peut être obtenue en multipliant la partie gauche de (2.19) par 1

L : 1

LIQ(X0; X2) < IQ(X1; Y|X0, X2) (2.27)

Cette contrainte modifiée est utile pour les communications sans fil par exemple, lorsque les canaux sont supposés être i.i.d. de bloc en bloc. Lorsque L → ∞, la contrainte devient de moins en moins restrictive et est donc toujours satisfaite. Toute distribution sur X0× X1× X2 est donc atteignable.

Finalement, il nous paraît particulièrement important de souligner que la contrainte d’infor-mation obtenue en faisant de la coordination via les actions est différente de ce qui serait obtenu en faisant de la coordination via la communication classique [79] avec un canal dédié. Si l’Agent 1 pouvait communiquer avec l’Agent 2 via un canal de capacité C, alors toutes distributions conjointes de probabilité ,Q∈ ∆(X0× X1× X2) qui vérifie la contrainte d’information

IQ!(X0; X2)≤ C (2.28)

serait atteignable. En revanche, la contrainte IQ(X0; X2) ≤ IQ(X1; Y|X0, X2) reflète les deux caractéristiques suivantes de la communication via les actions :

• la distribution de ce que nous appelons les entrées X1 du canal implicite (pour reprendre

une terminologie traditionnelle) entre l’Agent 1 et l’Agent 2 ne peut pas être optimisée séparément des actions de l’Agent 2 et de l’état. Au contraire, X1 et (X0, X2) doivent être corrélés d’une manière appropriée, en fonction de la fonction d’utilité d’étape considérée ; • Pour une approche classique, les réalisations de Y , les sorties du canal dans la terminologie

traditionnelle, ne dépendent que des réalisations des entrées du canal X1 alors qu’ici ils

dépendent également de (X0, X2). L’état X0 et les actions X2 jouent le rôle de l’état du canal implicite.

Sous des conditions spécifiques, la coordination via les actions peut se réduire à de la coor-dination via un canal de communication dédié. Par exemple, si la fonction d’utilité se factorise comme suit :

2.3. Contraintes d’information sur les distributions atteignables

et si la structure d’observation satisfait la chaîne de Markov X0, X2 − X1 − Y , alors toute

distribution ,Q(x0, x1, x2)! ,Q(x0, x2) +Q(x1) qui satisfait la contrainte d’information

IQ!(X0; X2)≤ IQ"(X1; Y ) (2.30)

sera atteignable. En particulier, il est possible d’optimiser +Q de manière indépendante. De plus, si w1(x1) est une fonction constante, la contrainte d’information se simplifie :

IQ!(X0; X2)≤ max

" Q

IQ"(X1; Y ), (2.31)

et le canal de communication implicite devient effectivement un canal dédié.

Atteignabilité : Cas II

Nous considérons maintenant le cas II, c’est-à-dire le cas correspondant aux stratégies (2.7) pour les agents.

Théorème 2.8. Considérons la structure d’observation du Cas II. Soit Q ∈ ∆(X0× X1× X2)

avec #

(x1,x2)

Q(x0, x1, x2) = ρ0(x0), ∀x0 ∈ X0. Si la distribution de probabilité Q ∈ ∆(U × X0 ×

X1× X2× Y), structurée comme suit

Q(u, x0, x1, x2, y) = P(u|x0, x1, x2)Γ(y|x0, x1, x2)· Q(x0, x1, x2),

∀ (u, x0, x1, x2, y)∈ U × X0× X1× X2× Y (2.32) vérifie la contrainte :

IQ(X0; X2)≤ IQ(U ; Y, X2)− IQ(U ; X0, X2), (2.33)

alors Q est atteignable au sens de la Définition2.2, pour des stratégies de la forme (2.7).

La démonstration de ce théorème reprend les mêmes principes que celle du Théorème 2.7,

mais est cependant plus complexe, notamment à cause de la présence d’une variable auxiliaire

U . En plus de la méthode des types, nous utilisons la technique de « random binning » [81].

Cette technique divise le livre de code (canal dans notre cas) en paquets (les bins), en affectant aléatoirement chaque mot de code canal à un paquet. C’est cette configuration qui fera appa-raître la variable auxiliaire. Cette technique permet de réduire en partie l’influence du manque d’observations de l’Agent 2 qui, nous le rappelons, n’observe rien sur la séquences d’états.

Quelques remarques importantes sont à faire ici :

• Même si nous exploitons un schéma classique de codage source canal séparé, une différence

clé doit être notée par rapport au codage classique de Gel’fand et Pinsker [42] et ses

extensions (par exemple [66]). En effet, même si utiliser les actions passées du décodeur

(l’Agent 2) n’aide pas à augmenter la capacité du canal, cela est utile lorsque nous voulons faire de la coordination. Le codage classique de Gel’fand et Pinsker donnerait la contrainte d’information

IQ(X0; X2)≤ IQ(U ; Y )− IQ(U ; X0, X2) (2.34)

• Dans le cas particulier où l’Agent 2 observe parfaitement les actions de l’Agent 1, c’est-à-dire lorsque Y = X1, nous pouvons remarquer que (2.19), (2.24), (2.33), et (2.34) (pour cette contrainte, prendre U = X1) coïncident. Elles sont toutes égales à

IQ(X0; X2)≤ HQ(X1|X0, X2) (2.35)

Cela implique que connaître X0 de manière strictement causale pour l’Agent 2 (comme

dans le cas II) n’apporte aucun gain en terme de performance.

• Nous n’avons pas prouvé que la contrainte d’information du Théorème 2.8est une

condi-tion nécessaire d’atteignabilité pour le cas II. Ici aussi, il pourrait être tentant d’utiliser une interprétation en terme d’information adjacente pour démontrer la réciproque. En ef-fet, (2.33) peut être lié au cas de Cover et Chiang [25] où l’état du canal est S = (S1, S2),

et S1 (respectivement S2) est connue à l’encodeur (respectivement au décodeur). Mais

comme expliqué précédemment, réutiliser les démonstrations existantes de réciproque ne fonctionne pas et trouver la variable auxiliaire appropriée ne semble pas trivial.

Dans la section suivante, nous réécrivons le problème comme un problème de minimisation sous contraintes, cette formulation nous étant très utile pour l’application considérée en Section

2.5.