• Aucun résultat trouvé

Contraintes d’information pour retrouver l’observation parfaite

par-faite

4.3.1 Graphe auxiliaire et coloriage

Dans ce cadre, nous devons transmettre de l’information de deux sortes : une où l’encodeur et les décodeurs connaissent la distribution de probabilité (pour les agents qui ne dévient pas), et l’autre où ils ne connaissent pas cette distribution (pour l’agent qui dévie et qui fait donc varier la source). Pour ce deuxième cas, nous avons besoin d’introduire des notions liées à la théorie des graphes. Nous commençons par définir un graphe auxiliaire :

Définition 4.4 (Graphe auxiliaire [60] ). Pour tout agent i ∈ K, un graphe auxiliaire Gi est

défini par Gi = (Ai,Ei) :

• Les actions ai ∈ Ai de l’agent i ∈ K sont les sommets du graphe.

• Il existe une arête ei = (ai, ai)∈ Ei entre deux actions ai∈ Ai et a

i ∈ Ai si ∃ a−i∈ Supp Q

−i,∃ k ∈ K, ∃ sk∈ Sk, ∃ δ > 0, tels que :

min(T (sk|ai, a−i),T (sk|ai, a−i))≥ δ (4.13)

où Supp Q

−i est le support de la distribution de probabilité Q

−i définie par

Q−i =P k̸=i Qk$ k̸=i ∆(Ak). (4.14) Deux sommets ai ∈ Ai et a

i∈ Ai sont donc voisins dans le graphe Gi si la probabilité que ces

actions induisent, via T , un même signal sk ∈ Sk pour au moins un agent k ∈ K est strictement

plus grande que 0.

Pour définir le nombre chromatique [16] du graphe Gi, nous rappelons la définition de

4.3. Contraintes d’information pour retrouver l’observation parfaite

Définition 4.5 (Coloriage [60]). Soit Φi un ensemble de couleurs. Un coloriage du graphe Gi est

une fonction φi :Ai −→ Φi qui satisfait :

∀ei= (ai, ai)∈ Ei: φi(ai)̸= φi(ai). (4.15)

Un coloriage minimal du graphe Giest un coloriage φipour lequel la cardinalité de l’ensemble des couleurs Φiest minimale. Le nombre chromatique χidu graphe Gi est la cardinalité |Φi| de l’ensemble des couleurs du coloriage minimal du graphe Gi. C’est cette quantité qui sera utilisée dans les théorèmes de cette section.

Grâce à ces notions, nous pourrons coder l’information correspondant à la partie où la dis-tribution de probabilité est inconnue de l’encodeur et des décodeurs. En effet, la quantité d’in-formation utile pour l’encodeur C pour transmettre une composante séparément, qui correspond au déviateur i, et en tenant compte de l’information adjacente pour chaque décodeur k ∈ K, est log2χi.

Pour l’information correspondant au cas où la distribution de probabilité est connue de l’enco-deur et des décol’enco-deurs, nous utiliserons un schéma typique de théorie de l’information : le schéma

de codage source-canal conjoint à travers un canal de diffusion [84]. Nous expliquons en détail

les liens avec cet article dans la section suivante.

4.3.2 Condition suffisante pour l’observation parfaite virtuelle

Rappelons brièvement le théorème prouvé dans [84] :

Théorème 4.6 (Contrainte d’information pour le canal de diffusion [84]). Pour une source

dis-crète et sans mémoire A transmise à travers un canal de diffusion PV1V2...VK|S0, avec information

adjacente Sk pour tout agent k ∈ K, communiquer de manière fiable est possible en codage

source-canal conjoint si et seulement si :

H(A|Sk)≤ κI(S0; Vk) ∀ k ∈ K (4.16) ⇔ H(A|Sk)− κI(S0; Vk)≤ 0 ∀ k ∈ K (4.17) ⇔ max k∈K H(A|Sk)− κI(S0; Vk)≤ 0 (4.18) avec κ = m n.

Voyons différentes configurations et leurs impacts sur la contrainte d’information.

• La capacité Ck du canal entre l’encodeur C et l’Agent k, k ∈ K est (PropositionA.14) :

Ck= max

PS0∈∆(S0)I(S0; Vk) (4.19)

• Commençons par le scénario le plus simple, en considérant le cas où aucun agent ne dévie (la source n’est donc plus soumise à des variations arbitraires), et aucun agent n’a

d’in-formation adjacente : Sk=∅ pour tout k ∈ K. Dans ce cas, pour chaque agent k, le taux

de la source d’information, c’est-à-dire de la variable aléatoire A privée de l’élément k (qui est déjà connu par l’agent k), doit être inférieur à l’information mutuelle entre la variable

aléatoire d’entrée S0 du canal et la variable aléatoire Vk de sortie pour l’agent k [26]. La contrainte d’information associée sera alors :

max

k∈K H(A−k)− κ I(S0; Vk) < 0. (4.20)

• Le deuxième cas généralise le premier en supposant qu’un certain Agent i, i ∈ K dévie et ses actions doivent être transmises séparément. Le codage symbole par symbole est optimal

ici et la quantité d’information nécessaire pour encoder est log2|Ai|. Le terme H(A−k)

correspondant au taux source change et la contrainte d’information devient alors : max

k∈K H(A−k,i) + log2|Ai| − κ I(S0; Vk) < 0. (4.21)

• Si nous généralisons encore en ajoutant les informations adjacentes (Sk(ai), Ak) à chaque agent k, ce qui correspond au signal privé reçu par chaque agent via T et à sa propre séquence d’actions, le terme correspondant au taux va à nouveau changer. La quantité d’information nécessaire pour transmettre les actions de l’agent qui dévie i est maintenant log2χi, et la contrainte d’information devient :

max

k∈K H(A−k,i|Sk(ai), Ak) + log2χi− κ I(S0; Vk) < 0. (4.22)

Enfin, comme nous allons considérer la pire déviation possible pour le pire agent (la pire au sens de l’incertitude sur la variable aléatoire source), nous allons maximiser sur i et ai :

max

i∈K, ai∈Ai

J max

k∈KH(A−i,k|Sk(ai), Ak) + log2χi− κ I(S0; Vk) K

< 0 (4.23)

En se basant sur ce raisonnement, nous allons prouver le résultat suivant :

Théorème 4.7 (Condition suffisante pour l’SVA avec signaux privés). Les agents K ont une

observation parfaite virtuelle (OPV) pour la source aux variations arbitraires (SVA) A ∈ A si la condition suivante est vérifiée :

max

i∈K, ai∈Ai

J max

k∈KH(A−i,k|Sk(ai), Ak) + log2χi− κ I(S0; Vk) K

< 0, (4.24)

où :

• A−i,k est le profil d’actions sans les composantes i et k. Il est distribué selon Q

−i,k ∈ O

j̸=i,

j̸=k ∆(Aj) ;

• Sk(ai) est le signal reçu par l’Agent k quand l’action ai est fixée. Il est induit par A−i et la probabilité de transition T :

Tai :A−i −→ ∆(Sk)

a−i −→ Tai(sk|a−i) =T (sk|ai, a−i)

= #

s−k∈S−k

4.3. Contraintes d’information pour retrouver l’observation parfaite

Remarque. Les signaux Sk dépendent de l’action ai ainsi que des autres actions a−i à travers

la probabilité conditionnelle T . L’action ai est supposée être la pire action que le déviateur i peut imposer au système de codage. Les autres actions sont tirées de manière i.i.d. avec la probabilité Q−i. Dans la démonstration, les actions du déviateur sont séparées des actions des autres agents. C’est en fixant chaque action du déviateur que nous repassons en « single letter ».

Le premier maximum correspond au cas où le déviateur i choisit la pire action ai en terme

d’efficacité de codage pour le pire décodeur k (le deuxième maximum).

La démonstration de ce théorème est proposée en AnnexeD.1. Nous résumons brièvement cette

démonstration :

• La partie encodage est composée de trois étapes :

1. Une première phase pour identifier l’Agent qui dévie. Pour cela, un test statistique sur les distributions de probabilité empirique est effectué, et le déviateur est celui qui a la distribution empirique la plus éloignée de sa distribution cible ;

2. Une deuxième phase où l’encodeur doit coder (séparément) la séquence d’actions du déviateur i sans en connaître sa distribution. Pour cela, envoyer l’identité du déviateur ainsi que la séquence de couleurs associée à la séquence d’actions du déviateur est suffisant. Un codage source-canal séparé est effectué ;

3. Une dernière étape où l’encodeur envoie les séquences d’actions correspondant à tous les agents sauf le déviateur. Il existe deux sous-cas ici, selon la fréquence d’utilisation d’un symbole. Si la fréquence n’est pas assez importante, l’utilisation d’une loi des grands nombres ne sera pas possible et les séquences correspondantes seront encodées de manière séparée, comme pour le déviateur i ; si cette fréquence est assez importante, nous utiliserons un codage de source-canal conjoint [84].

La séquence sm

0 d’entrée du canal de diffusion est donc partitionnée en deux sous-séquences.

• Chaque décodeur k doit alors utiliser son information adjacente sn

k et la séquence de

si-gnaux additionnels privés vm

k pour décoder. Il devra également partitionner cette dernière

et décoder premièrement l’identité du déviateur ainsi que sa séquence d’actions (via la séquence de couleurs), puis les séquences d’actions des autres agents.

• Les différentes probabilités d’erreurs de ce codage sont proches de 0 si la contrainte

d’infor-mation (4.24) est vérifiée, ce que nous prouvons en utilisant des propriétés des ensembles

typiques.

4.3.3 Condition nécessaire pour l’observation parfaite virtuelle

Pour la condition nécessaire, la difficulté ici est que nous devons gérer une partie avec une probabilité d’erreur proche de 0 (pour la partie où nous connaissons les distributions de proba-bilité source) et une partie avec probaproba-bilité d’erreur exactement égale à 0 (pour la partie source aux variations arbitraires, dont nous ne connaissons pas la distribution de probabilité). C’est sur cette partie où nous aurons besoin du graphe auxiliaire et du nombre chromatique associé à ce graphe.

Théorème 4.8 (Condition nécessaire pour l’SVA avec signaux privés). Supposons que les agents K ont une observation parfaite virtuelle (OPV) pour la source aux variations arbitraires (SVA) A∈ A. Alors la condition suivante est vérifiée :

max i∈K, ai∈Ai max k∈K @

H(A−i,k|Ak, Sk(ai)) + log2χi− κI(S0; Vk)A

< 0 (4.26)

La démonstration de ce théorème se trouve en Annexe D, Section D.2.