• Aucun résultat trouvé

3.2 Ensemble confluent de règles de simplification

3.2.2 Propriétés

On montre que la relationV est bien une simplification, c’est-à-dire qu’elle réduit la taille du réseau. On prouve ensuite qu’elle est correcte pour la congruence ∼, et qu’elle est confluente. On étudie alors la complexité de nos règles de simplifi- cation.

Simplification Montrons tout d’abord que nos règles réduisent bien la taille des réseaux.

Définition 12 (Taille et ordre des réseaux). Soit N = R | s0un réseau. Sa taille |N|

est le triplet (n, m, p), avec :

• n= Espèces(N) le nombre d’espèces moléculaires de N, • m= |R| le nombre de réactions de N,

• p= |s0|+

X

s1As2∈R

|s1+ s2| la taille combinée de toutes les solutions du réseau.

Un réseau N de taille (n, m, p) est alors plus petit qu’un autre réseau N0 de taille

(n0, m0, p0), noté N < N0, si (n, m, p) < (n0, m0, p0) avec l’ordre lexicographique,

c’est-à-dire :

• n< n0,

• ou n= n0

et m < m0,

• ou n= n0, m= m0 et p < p0.

Exemple 27. Par example, pour Michaelis-Menten, le réseau NMM(Fig.2.5) pos-

sède 4 espèces (S, E, C et P), 3 réactions, et chaque réaction est de taille 3 (r1

consomme 2 molécules et en produit 1, tandis que r2et r3consomment 1 molécule

et en produisent 2). Donc la taille du réseau est |NMM|= (4, 3, 9).

Lemme 3. L’ordre < sur les réseaux de réactions est bien fondé.

Proposition 4. Si NV N0, alors N0< N.

Proof. Soit (n, m, p) la taille de N, et (n0, m0, p0) la taille de N0. Si N VeD

N0 avec D ∈ {Inu, Rev, Cas}, alors n0 = n − 1 < n. Si D = Cyc, alors n = n0 et

m0 = m − 1 < m. Si D = Act, alors n = n0, m= m0 et p0 = p − 2a < p.  Exactitude On va maintenant prouver qu’un réseau simplifié est attracteurs- congruent au réseau initial.

Théorème 1. La simplification VΩ,I est correcte pour la congruence des at- tracteurs ∼Ω,I.

Proof. On doit donc prouver que si N VΩ,I N0, alors N ∼Ω,I N0, c’est-à-dire que pour tout contexte N00tel que Espèces(N00) ∩ I= ∅, on a (N | N00) '

Ω,I(N0| N00).

On note R00les réactions de N00. Les preuves sont en général basées sur l’existence

de fonctions f et g reliant les réseaux initiaux et les réseaux simplifiées. La preuve de la règle(Cascade)est un peu plus compliquée, et nécessite de réordonner cer- taines séquences de réactions.

Pour la règle (R´eaction Cyclique), on a trivialement le même graphe réduit des solutions accessibles Gsol(N) = Gsol(N0), donc Gsol(N | N00) = Gsol(N0| N00).

Donc, d’après le Lem.2, N | N00 et N0 | N00 sont attracteurs-équivalents, et donc N ∼Ω,I N0.

Considérons la règle (Activateur Pr´esent), appliqué sur un activateur A. Le réseau N contient une réaction s1+aA As2+aA, ainsi qu’un ensemble de réactions

ne pouvant qu’augmenter le nombre de molécules de A. Comme A est une espèce interne, les réactions R00 du contexte ne peuvent pas modifier la quantité de A. Donc, par récurrence immédiate, il y a toujours au moins a0molécules de A dans

tout réseau accessible depuis N | N00 ou N0 | N00. Soit N

1 ∈ {(N | N00)→∗} un

réseau accessible depuis le réseau initial dans son contexte. Il existe alors une solution s00 avec A < s00 et un entier a1 ≥ a0 ≥ a tels que :

N1= {s1+ aA As2+ aA} ∪ R ∪ R00 | a1A+ s00.

Pour tout réseau de cette forme, on note f la fonction définie par :

f(N1)= {s1As2} ∪ R ∪ R00 | a1A+ s00.

La fonction f est alors une bijection entre les réseaux de {(N | N00)→∗} et ceux de {(N0 | N00

)→∗}. On a alors la propriété suivante :

N1→N2 si et seulement si f(N1)→f(N2).

En effet, si la réaction utilisée pour transformer N1 en N2 appartient à R ou à

R00, alors elle existe aussi dans f (N1) (et inversement). Si la réaction utilisée est

s1+ aA As2+ aA, alors on peut utiliser s1As2 à la place. Et inversement, si on

utilise la réaction s1As2 pour transformer f (N1) en f (N2), alors comme a1 ≥ a,

on peut utiliser s1+ aA As2+ aA pour transformer N1en N2.

Par récurrence immédiate, N1→∗N2 si et seulement si f (N1)→∗f(N2). On a

alors f ({N1→∗})= { f (N1)→∗}. De plus, f (N) = N0. Et tout ensemble de réseaux

A est fermé et accessible depuis N | N00 si et seulement si f (A) est fermé et accessible depuis N0 | M.

La fonction f préserve aussi trivialement l’observation : Ω( f (N1)) = Ω(N1).

Supposons alors qu’on a un attracteur A. Par définition, il estΩ-connecté, c’est- à-dire que pour tout N1 ∈ A, on a Ω(A) ⊆ Ω({N1→∗}). Alors, pour tout réseau

f(N1) ∈ f (A), on aura :

Ω( f (A)) = Ω(A) ⊆ Ω({N1→∗}) ⊆ Ω( f ({N1→∗})) ⊆ Ω({ f (N1)→∗}).

Donc f (A) est aussi Ω-connecté. La réciproque est identique. Donc A est un Ω-attracteur si et seulement si f (A) est un Ω-attracteur. Donc pour tout O ∈ Observables, on a (N | N00) ↓ΩO si et seulement si (N0 | N00

) ↓ΩO. De plus, (N | N00) ↑si et seulement si il existe N

1 ∈ {(N | N00)→∗} tel que pour tout ensemble

d’observations O ⊆ Observables, N1 6↓ΩO. Mais alors, avec le même raisonnement

que ci-dessus, f (N1) ∈ {(N0 | N00)→∗} vérifie ∀O ⊆ Observables. f (N1) 6↓ΩO, et

donc (N0| N00) ↑, et réciproquement. Donc N ∼ Ω N0.

Considérons la règle de simplification(Esp`ece Inutile), appliquée sur une es- pèce A. On note R les réactions s1As2 telles que A < s1, et R0 les réactions ne

pouvant modifier que la quantité de A, comme définies dans la règle. Tout réseau accessible N1 ∈ {(N | N00)→∗} est de forme N1 = R ∪ R0∪ R00 | a1A+ s00, avec s00

une solution telle que A < s00 et a

1 un entier. Soit f la fonction définie pour tout

réseau N1 de cette forme par f (N1) = R\A ∪ R00 | s00. Alors pour toute paire de

réseaux accessibles N1, N2 ∈ {(N | N00)→∗}, on va montrer que :

N1→N2 implique f(N1)→f(N2).

C’est en fait immédiat : supposons que N1→rN2. Si r ∈ R00, alors A < r, donc

f(N1)→rf(N2). Si r ∈ R, alors r\A ∈ R\A est applicable, et on obtient bien le

réseau f (N2). Si r ∈ R0, alors f (N1)= f (N2). Par récurrence immédiate, on a :

N1→∗N2 implique f(N1)→∗f(N2). (3.2)

Réciproquement, tout réseau N10 ∈ {(N0 | N00

)→∗} est de forme N0

1 = R\A ∪ R 00 | s00

avec A < s00. On définit alors l’ensemble des réseaux g(N0

1) = {(R\A ∪ R

0 ∪ R00 |

a01A+ s00) | a01∈ N}. Soit N10, N20 ∈ {(N0 | N00)→∗}, on va montrer qu’on a : N10→N20 implique ∀N1∈ g(N

0

1).∃N2 ∈ g(N 0

2). N1→N2.

Supposons en effet que N10→r0N0

2. Si r 0 ∈ R00

, alors r0 est directement applicable dans N1, et la propriété est vraie. Si r0 ∈ R\A, alors il existe r ∈ R telle que

r0 = r\A. Or, d’après les conditions de la règle de simplification, on sait qu’il n’y a pas de molécules de A dans les réactants de r. Donc r est toujours applicable dans N1, et produit un réseau N2 ∈ g(N20). Par récurrente immédiate, pour tout

réseau N10, N20 ∈ {(N0 | N00)→∗}, on a : N10→∗N20 implique ∀N1 ∈ g(N 0 1).∃N2∈ g(N 0 2). N1→ ∗ N2. (3.3)

Remarquons de plus queΩ( f (N1))= Ω(N1), et que pour tout N1 ∈ g(N10),Ω(N1)=

Ω(N0 1). De plus N1∈ g( f (N1)), f (g(N10))= {N 0 1}, f (N)= N 0 et N ∈ g(N0).

Soit A ⊆ {(N | N00)} unΩ-attracteur accessible depuis le réseau initial dans

son contexte. Soit N1 ∈ A, N10 = f (N1) et A0 = {N10→∗}. On va montrer que A0est

également unΩ-attracteur, accessible depuis N0 | N00. Il est fermé par définition, et accessible d’après3.2. Soit N0

2 ∈ A

0 et o ∈ Ω(A0) une observation. Il existe

donc N0 3 ∈ A 0tel que o= Ω(N0 3). On a N1 ∈ g(N 0 1), donc il existe N2 ∈ g(N 0 2) ∩ A

d’après3.3. De même, il existe N3 ∈ g(N30) ∩ A, avecΩ(N3)= o. Donc o ∈ Ω(A).

Comme A estΩ-connecté, il existe N4∈ {N2→∗} avec o= Ω(N4). Par la propriété

3.2, on a alors f (N4) ∈ {N20→∗}, donc o ∈Ω({N20→∗}). Donc A0estΩ-connecté, et

c’est un attracteur.

Réciproquement, si A0 est un attracteur accessible depuis N0 | N00, et N0 1 ∈

A0, alors d’après 3.3 il existe N

1 ∈ g(N10) ∩ {(N | N00)→∗}. On va montrer que

A = {N1→∗} est bien un attracteur. Il est trivialement fermé, et accessible. Soit N2 ∈ A et o ∈ Ω(A), c’est-à-dire qu’il existe N3 ∈ A avec o = Ω(N3). Par

3.2, N0

2 = f (N2) et N 0

3 = f (N3) appartiennent à A

0. Donc o ∈ Ω(A0), donc par

Ω-connectivité il existe N0 4 ∈ {N

0 2→

} avec o= Ω(N40). Mais alors par3.3il existe N4 ∈ g(N40) ∩ {N2→∗}, et on a donc o ∈Ω({N2→∗}). Donc A est un attracteur.

Trivialement, les attracteurs A et A0 ont la même observation, donc (N |

N00) ↓ΩOsi et seulement si (N0 | N00) ↓ΩO. La preuve pour la divergence est similaire. Donc les réseaux N et N0sont attracteurs-congruents.

Considérons maintenant la règle(R´eaction Inversible). On note r1= s AA et

r2 = A As les réactions supprimées par la règle de simplification. Soit N1 ∈ {(N |

N00)} un réseau accessible depuis le réseau initial dans son contexte. Soit R00

les réactions de N00. Il existe une solution s1telle que :

N1 = {r1, r2} ∪ R ∪ R 00

| s1.

Pour tout réseau de cette forme, on dénote par f la fonction définie par : f(N1)= R[A := s] ∪ R00 | s1[A := s].

On va alors montrer que :

Soit r la réaction utilisée, c’est-à-dire N1→rN2. Si r ∈ R, alors r0 = r[A := s] ∈

R[A := s] et f (N1)→r0f(N2). Si r = s AA ou r = A As, alors f (N1) = f (N2).

Enfin, si r ∈ R00

, alors A < r, et donc r est aussi applicable dans f (N1), donc

f(N1)→rf(N2). Par récurrence directe, on a :

N1→∗N2 implique f(N1)→∗f(N2). (3.4)

Réciproquement, soit N10 ∈ {(N0 | N00

)→∗} un réseau accessible depuis le réseau

simplifié dans son contexte. Il existe s00

avec A < s00telle que :

N10 = R[A := s] ∪ R00 | s00.

Pour tout réseau de cette forme, on dénoté par g la fonction définie par :

g(N10)= {s AA, A As} ∪ R ∪ R00 | s00. On montre alors que :

N10→N20 implique g(N10)→∗g(N20). En effet, supposons que N10→r0N0

2, avec r 0

la réaction utilisée. Si r0 ∈ R00, on peut directement appliquer r0, donc g(N10)→r0g(N0

2). Si r

0 ∈ R[A := s], il ex-

iste une réaction r ∈ R telle que r0 = r[A := s]. À partir de g(N0

1), on peut

alors transformer certaines occurrences de la solution s en molécules de A avec la réaction sAA, puis utiliser la réaction r, et enfin retransformer les molécules de A restantes en s avec AAs. On a donc g(N0

1)→ ∗ r1→r→ ∗ r2g(N 0 2). Par récurrence

directe, on en déduit que :

N10→∗N20 implique g(N10)→∗g(N20). (3.5) Remarquons aussi que :

f(g(N10))= N10 et g( f (N1))→∗N1 et N1→∗g( f (N1)). (3.6)

La partie gauche est immédiate. Pour la partie droite, il suffit d’utiliser les réac- tions r1 et r2 pour transformer des molécules de A en s ou réciproquement. En-

fin, notons que les fonctions f et g trivialement préservent l’observation, puisque Ω(A) = Ω(s), que f (N) = N0

et que N→∗

g(N0) en utilisant la réaction sAA. Soit A ⊆ {(N | N00)} un attracteur accessible depuis le réseau initial, et

N1 ∈ A. On va montrer que A0 = { f (N1)→∗} est aussi un attracteur, avec la même

observation. Il est fermé par définition. Soit N20 ∈ A0

un réseau, et o ∈ Ω(A0) une observation. Donc il existe un réseau N0

3 ∈ A

0 avec Ω(N0

3) = o. Par la

propriété3.5, f (N1)→∗N30implique g( f (N1))→∗g(N30), et donc N1→∗g(N30) par3.6.

g(N20) ∈ A. Donc la propriété deΩ-connectivité implique que o ∈ Ω({g(N20)→∗}), c’est-à-dire qu’il existe N4 ∈ {g(N20)→∗} avec Ω(N4) = o. Donc par3.4, f (N4) ∈

{ f (g(N0 2))→ ∗} = {N0 2→ ∗}. Donc o ∈ Ω({N0 2→

}), donc A0 est Ω-connecté, donc

c’est un attracteur. Et trivialementΩ(A0)= Ω(A).

La réciproque est exactement similaire, et donc (N | N00) ↓

Osi et seulement si

(N0 | N00) ↓Ω O.

Pour la divergence, si (N | N00) ↑Ω, alors il existe N1 ∈ {(N | N00)→∗} tel que

pour tout O ⊆ Observables, N1 6↓ΩO. Mais, avec le même raisonnement qu’avant,

cela implique que f (N1) 6↓ΩO, et donc que (N

0 | N00) ↑. Par symétrie, (N | N00) ↑

si et seulement si (N0 | N00) ↑Ω.

Donc N et N0 sont attracteurs-congruents.

Enfin, considérons la règle(Cascade). On note rd la réaction de dégradation

AA∅, R les réactions produisant A et R0 celles consommant A, comme définies dans la règle. Pour tout réseau N1 accessible depuis N | N00, il existe s00 avec

A < s00et un entier a tels que :

N1 = R ∪ R0∪ {rd} ∪ R00 | aA+ s00.

Pour tout réseau de la forme ci-dessus, on définit la fonction f par : f(N1)= (R AR

0

) ∪ R00 | s00.

Soit k un entier, et N0, Nk ∈ {(N | N00)→∗} deux réseaux accessibles, tels que A ne

soit pas dans les solutions de ces deux réseaux, c’est-à-dire A < s(N0), s(Nk). On

veut montrer que :

N0→∗Nk implique f(N0)→∗f(Nk). (3.7)

Supposons que N0→kNk, décomposons la séquence de réduction en k étapes :

N0→N1→. . .→Nk−1→Nk.

On suppose que pour tout 0 < i < k, A ∈ s(Ni). En effet, pour toute séquence

de forme Ni→∗Nj, si il n’y a jamais aucune molécule de A dans les solutions

initiales des réseaux Ni à Nj, alors c’est que seules les réactions du contexte M1

sont utilisées, et on a alors directement f (Ni)→∗f(Nj). Si la séquence possède des

réseaux avec des molécules de A et des réseaux sans molécules de A, prouver la propriété3.7sur les sous-séquences possédant du A est suffisant.

Premièrement, remarquons que la réaction rd commute à droite, c’est-à-dire

que pour toute réaction r et toute paire de réseaux Ni, Ni+2telle que Ni→rd→rNi+2,

la réduction Ni→r→rdNi+2est aussi possible. On réécrit alors la séquence précé-

dente en plaçant toutes les occurrences de rdà la fin de la séquence :

N0→N1→. . .→Nk0→∗

tel que rd ne soit jamais utilisée dans la séquence N0→∗Nk0. Notons qu’on a

directement f (Nk0) = f (Nk), et donc f (Nk0)→∗f(Nk). On s’intéresse maintenant

uniquement à la séquence N0→∗Nk0.

On a A < s(N0) mais A ∈ s(N1). Donc la réaction r1utilisée pour la réduction

N0→r1N1 appartient à R. On va partitionner la sequence N0→

Nk0, afin de faire

apparaître les applications des réactions de R. On a donc :

N0 →r1N1,0→ k1 R0∪R00N1,k1 →r2N2,0→ k2 R0∪R00N2,k2 . . . →rjNj,0→ kj R0∪R00Nj,kj,

tel que Nj,kj = Nk0, et que pour tout 1 ≤ i ≤ j, ri ∈ R. On utilise donc une

réaction de R, suivie d’une séquence de réactions de R0et de R00, puis une nouvelle réaction de R, etc. Notons que les réactions ri ne sont pas forcément distinctes.

Pour tout 1 ≤ i ≤ j, la réaction ri ∈ R est de forme ri = siAsi + aiA, avec

ai > 0, donc si ⊆ s(Ni,0). On a directement f (N0)= f (N1,0) et pour tout 1 ≤ i < j,

f(Ni,ki) = f (Ni+1,0). Il suffit donc de prouver la propriété3.7pour toute séquence

Ni,0→kRi0∪R00Ni,ki.

Dans cette sous-séquence, seules des réactions de R0ou de R00peuvent être util- isées. Or, les réactions de R00 n’ont pas de molécules de A. De plus, les réactions

de R0, si l’on s’abstrait de l’espèce A, ne peuvent que créer de nouvelles molécules. Cela implique qu’une réaction r0 ∈ R va commuter à gauche avec une réac- tion r00 ∈ R00. En d’autres termes, si N

i,i0→r00→r0Ni,i0+2, alors Ni,i0→r0→r00Ni,i0+2.

On peut donc déplacer toutes les réactions de R0 vers la gauche, et obtenir une séquence de forme : Ni,0→r0 0Ni,1→r 0 1. . .→r 0 k0 i−1 Ni,k0 i→ ∗ R00Ni,k i

avec pour tout 0 ≤ i0 < k0i, r0i0 = a

0 i0AAs

0 i0 ∈ R

0

. Puisque la séquence de réseaux Ni,k0

i→

R(M1)Ni,ki n’utilise que des réactions du contexte M, sans molécule de A,

cela directement implique f (Ni,k0 i)→

R00f(Ni,ki). De plus, pour tout 0 ≤ i0 < k0i,

on a si ∈ Ni,i0. En effet, on a vu plus haut que si ∈ Ni,0, et comme A < si,

les réactions r0i0 ne modifient pas la présence de si dans les réseaux. Mais, par

définition de(Cascade), on peut alors appliquer la réaction riAr0i sur f (Ni,i0), et

obtenir f (Ni,i0+1). On a donc :

f(Ni,1)→r1r01f(Ni,2)→r1r02. . .→r1r0k0 i−1 f(Ni,k0 i)→ ∗ R00f(Ni,ki).

Réciproquement, pour tout réseau N10 accessible depuis N0 | N00, il existe s00 avec A < s00telle que :

N10 = R AR 0

∪ R00 | s00.

Pour tout réseau de cette forme, on définit la fonction g par :

g(N10)= R ∪ R0∪ {rd} ∪ R00 | s00.

On montre que pour tout réseau N00, Nk0 ∈ {(N0 | N00

)→∗}, on a :

N00→∗Nk0 implique g(N00)→∗g(Nk0). (3.8) La preuve est directe par récurrence. Si N0

0→R00N 0 k, alors g(N 0 0)→R00g(N 0 k). Si N00→rAr0N 0 k, avec r = s As + aA et r 0 = a0

AAs0, alors la séquence suivante est correcte : g(N00)→∗

r→r0→∗

rdg(N

0

k). Donc3.8est vérifiée.

On va maintenant prouver que pour tout ensemble d’observables O, on a :

(N | N00) ↓ΩO si et seulement si (N 0

| N00) ↓ΩO .

Premièrement, remarquons que commeΩ(A) = O, les deux fonctions précédentes préservent l’observation :Ω( f (N1))= Ω(N1), etΩ(g(N10))= Ω(N10). De plus, on a

N10 = f (g(N10)). Si A < s(N1), alors N1 = g( f (N1)). Sinon, N1→∗rdg( f (N1)) .

Soit A unΩ-attracteur accessible depuis N | N00, et N

1 ∈ A un réseau appar-

tenant à l’attracteur. On a alors (N | N00)→∗N1→∗rdN1\A. Comme A < s(N | N

00

), la propriété 3.7 implique que N10 = f (N1\A) est accessible depuis N0 | N00. On

va montrer que A0 = {N0 1→

} est unΩ-attracteur. Il est fermé par définition. Soit

N20 ∈ A0, et o ∈ Ω(A0). Il existe N30 ∈ A0 avec o = Ω(N30). Donc N10→∗N30, et g(N10)→∗g(N30) par 3.8. Or g(N10) = N1\A ∈ A, donc o = g(N30) ∈ Ω(A). De

même, g(N0

2) ∈ A. ParΩ-connectivité, on a donc o ∈ Ω({g(N 0 2)→

}, donc il existe

N4 tel que o = Ω(N4) = Ω(N4\A) et g(N20)→∗N4→∗rdN4\A. Or A < g(N

0

2), donc

N20 = f (g(N20))→∗f(N4\A). Donc o ∈ {N20→∗}, et A0 estΩ-connecté. Donc c’est

un attracteur, et trivialementΩ(A) = Ω(A0).

La réciproque, ainsi que la preuve pour la divergence, fonctionnent de la même manière. On a donc bien N ∼ N0.

Enfin, considérons la règle (Contexte), avec N VeD

N0, pour une règle D ∈ {Cyc, Act, Inu, Rev, Cas}. Il existe N1, N10 et N100 avec N = N1 | N100 et N0 = N10 |

N100, tels que N1 VD N10. On a donc par induction N1 ∼Ω N10, et donc N ∼Ω N 0

. 

Confluence On va maintenant montrer que cet ensemble de règles de simplifi- cation est confluent. Il n’y a pas besoin de "confluence modulo", l’équivalence structurelle étant directement l’égalité des réseaux.

Théorème 2 (Confluence). La relation de simplification V est confluente pour (Nets,=).

Proof. On va montrer la confluence locale, c’est-à-dire que pour toute paire de règles D1, D2∈ {Cyc, Act, Inu, Rev, Cas}, pour tout réseau N ∈ Nets, si N VDf1 N1

et N VDf2 N

2, alors il existe un réseau N0 ∈ Nets tel que Ni V∗N0. Comme la rela-

tionV termine toujours, la confluence locale implique directement la confluence globale. La plupart des paires sont directes. La paire D1 = D2 = Cas, appliquée

sur deux espèces différentes, est la plus compliquée, et nécessite d’étudier dans le détail les réactions des différents réseaux simplifiés.

Commençons par la règle D1= Cyc, appliquée sur une réaction r1 = s As. Si

D2 = Cyc, appliquée sur r2, alors soit r1 = r2, et les deux règles ne génèrent pas

de paires critiques, c’est-à-dire N1 = N2. Soit r1 , r2, et les paires critiques se

ferment uniformément, c’est-à-dire N1 VD2 N0 et N2 VD1 N0.

Supposons D2 = Act, appliquée sur un activateur A2 et une réaction r2 =

s1 + a2A2As2 + a2A2. Si r1 = r2, et donc s1 = s2, alors l’application de D1

supprime la réaction, tandis que l’application de D2la remplace par r02 = s1As1.

Mais on peut alors utiliser(R´eaction Cyclique)sur r0

2et la supprimer, on obtient

donc le même réseau. Si r1 , r2, les paires critiques se ferment uniformément.

Si D2 = Inu, appliquée sur une espèce A2. On note R2les réactions n’ayant pas

de molécules de A2 en réactants, et R02 celles ne pouvant modifier que la quantité

de A2, comme définies dans la règle (Esp`ece Inutile). Si A2 ∈ r1, alors r1 ∈ R02.

Donc on peut soit appliquer D1 puis D2, soit appliquer directement D2, dans les

deux cas on obtient le même réseau. Si A2 < r1, les paires critiques se ferment

uniformément.

Si D2 = Rev, appliquée sur une espèce A2 et des réactions r2 = s2AA2 et

r02 = A2As2. Comme A2 < s2, trivialement r1 , r2 et r1 , r02, donc les paires

critiques se ferment uniformément.

Enfin, si D2 = Cas, appliquée sur A2. On note R2 les réactions produisant

A2, r2 = A2A∅ la réaction de dégradation, et R02 les autres réactions avec A2

en réactant, comme dans (Cascade). On a r1 , r2, et r1 < R2. Supposons que

r1 ∈ R02, c’est-à-dire r1 = a0A2Aa0A2avec a0 > 0. Dans ce cas, pour toute réac-

tion r = s2As2+ a2A2 ∈ R2, la règle D2 crée la réaction r A2 r1 = s2As2. On

peut alors supprimer toutes ces réactions en utilisant |R| fois la règle (R´eaction

Cyclique). On obtient alors le même réseau que si on avait commencé par D1

suivie de S2. Si r1 < R02, les paires critiques se ferment uniformément.

Supposons ensuite que D1 = Act, appliquée sur un activateur A1 et une réac-

tion r1 = s1 + a1A1As2 + a1A1. Supposons que D2 = Act, appliquée sur un

alors a1 = a2 (par la condition A1 < s1), et D1 et D2 ne génèrent pas de paires

critiques sur N. Dans tous les autres cas, les paires critiques se ferment uniformé- ment.

Si D2 = Inu, appliquée sur une espèce inutile A2. On note R2 les réactions

n’ayant pas de molécules de A2en réactants, et R02 celles ne pouvant modifier que

la quantité de A2, comme définies dans la règle(Esp`ece Inutile). Si r1 ∈ R02, alors

r1 = s + A1AAs + a2A, avec a1 ≤ a2. Après application de D1, la réaction réduite

r01 = s As appartient toujours à R02, et est donc supprimée par D2. Si on applique

D2en premier, r1est directement supprimée sans avoir à appliquer D1. Si r1 < R02,

alors A1, A2, et les paires critiques se ferment uniformément.

Si D2 = Rev, appliquée sur une espèce A2 et des réactions r2 = s AA2 et

r0

2 = A2As. La condition A2 < s dans D2 implique r1 , r2 et r1 , r 0

2. De plus,

la condition stoicr02(A1) ≥ 0 dans(Activateur Pr´esent) implique A1 , A2, tandis

que stoicr2(A1) ≥ 0 implique alors A2 < s. Donc l’application de D1 ne modifie

pas les réactions r2 et r02. Et inversement on peut toujours appliquer D1après D2.

Donc les paires critiques se ferment uniformément.

Si D2 = Cas, appliquée sur A2. On note R2 les réactions produisant A2,

r2 = A2A∅ la réaction de dégradation, et R0

2les autres réactions avec A2en réac-

tant, comme dans(Cascade). Trivialement r1 , r2. La condition stoicr2(A1) ≥ 0

implique A1 , A2. Ce qui implique alors r1 < R02. Supposons que r1 ∈ R2,

c’est-à-dire qu’il existe a2 > 0 et s tel que r1 = s + a1A1As + a1A1 + a2A2.

Si on applique d’abord D1, r1 est remplacée par r01 = s As + a2A2. On peut

alors toujours appliquer D2 sur (R2\r1) ∪ {r01}, R02 et r2, et on obtient les réac-

tions ((R2\r1) A2 R 0 2) ∪ ({r 0 1} A2 R 0

2). Si on commence par la règle D2, on obtient

les réactions R2 A2 R

0

2. En particulier, les réactions de {r1} A2 R

0

2 sont de forme

s+ a1A1As + a1A1+ s0, et peuvent toutes être simplifiées en appliquant récursive-

ment D1, pour obtenir des réactions de forme sAs + s0. Or ces réactions sont en

fait exactement les réactions de {r01} A2R

0

2. On obtient donc le même réseau final.

Si r1 < D2, alors les paires critiques se ferment uniformément.

Considérons maintenant le cas de la règle D1 = Inu, appliquée sur A1. On

note R1 les réactions n’ayant pas de molécules de A1 en réactants, et R01 celles

ne pouvant modifier que la quantité de A1, comme définies dans la règle(Esp`ece

Inutile). Supposons que D2 = Inu, appliquée sur A2, avec R2 les réactions sans

A2 en réactants et R02celles ne modifiant que A2. Si A1= A2 = A, remarquons que

les ensembles de réactions peuvent être différents, tant que R1∪ R01 = R2∪ R02 et

que les conditions pour la simplification sont respectées. En effet une réaction de forme sAs + aA, avec A < s, vérifie aussi bien les conditions de l’ensemble R que de l’ensemble R0. Si on applique D

1, on obtient le réseau R1\A. Or, on peut

remarquer que les réactions de (R1∩ R02)\A sont des réactions cycliques, pouvant

R2)\A. Par symétrie, on obtient le même réseau si on applique d’abord D2, puis

(R´eaction Cyclique).Si A1 , A2, les paires critiques se ferment uniformément.

Supposons que D2 = Rev, appliquée sur une espèce A2 et des réactions r2 =

sAA2et r02= A2As. Si A1 = A2= A, alors r02 < R1, donc r02∈ R01. Donc pour tout

B , A, s(B) = 0. De plus, A < s, donc s = ∅, et r2 = ∅ AA ∈ R1. L’application de

D1 produit le réseau R1\A, tandis que D2 produit le réseau R1[A := ∅] ∪ R01[A :=

∅] = (R1\A) ∪ (R01\A). Or, pour toute réaction r ∈ (R01\A), pour tout B , A,

stoicr(B)= 0, et A < r, donc r est une réaction cyclique. On peut donc appliquer

récursivement la règle(R´eaction Cyclique), et obtenir le réseau R1\A. Si A1 , A2,

les paires critiques se ferment uniformément.

Si D2 = Cas, appliquée sur A2. On note R2 les réactions produisant A2, la

réaction de dégradation r2= A2A∅, et R02les autres réactions avec A2en réactant,

comme dans(Cascade). Supposons que A1 = A2 = A. Dans ce cas, R1 ⊆ R2, et

R02 ⊆ R01. Plus précisément, le réseau initial contient les réactions suivantes :

• la réaction de dégradation r2 = A A∅,

• des réactions produisant du A : R2 = {s As + aA | A < s}. Ces réactions

peuvent appartenir à R1ou à R01,

• l’ensemble des autres réactions, qui ne modifient que la quantité de A : R02 = {a0AAa00A | a0, a00 > 0} ⊆ R01.

Si on applique D1, on obtient alors le réseau R1\A ⊆ R2\A. Ces réactions sont

toutes de forme sAs, et peuvent être supprimées en appliquant la règle(R´eaction

Cyclique). Si on applique D2 en première, on obtient le réseau R2AR02. Mais on

obtient encore une fois des réactions de forme sAs, pouvant être supprimées avec

(R´eaction Cyclique). On obtient donc bien le même réseau. Si A1, A2, les condi-

tions de D1impliquent A1< R2. Supposons qu’il existe r0∈ R02avec A1 ∈ r0. Donc

il existe a1, a2 > 0, s0 tel que r0 = a2A2As0+ a1A1, et A1 < s0, et donc r0 ∈ R1.

En appliquant D1, r0 est transformée en r00 = a2A2As0. On peut donc toujours

appliquer D2, et obtenir des réactions R2A2r

00

de forme sAs+(s0\A). Si on com- mence par D2, on obtient des réactions R2A2 r

0 de forme sAs + (s0\A

2)+ a1A1.

L’espèce A1est toujours inutile, donc on peut appliquer D1, et on obtient bien les

réactions de R2 A2 r

00

. Si A1 , A2 et A1 < R02, les paires critiques se ferment

uniformément.

Supposons maintenant que D1 = Rev, appliquée sur une espèce A1 et des

réactions r1 = s1AA1 et r01 = A1As1. Soit D2 = Rev, appliquée sur A2 et

des réactions r2 = s2AA2 et r02 = A2As2. Si A1 = A2, alors r1 = r2, r01 =

r02 et s1 = s2, sinon la condition stoicr2(A1) = 0 (resp. r

0

1) de D1 contredit la

paires critiques. Sinon, la condition stoicr2(A1) = 0 implique soit s2 = A1 (et

Documents relatifs