3.2 Ensemble confluent de règles de simplification
3.2.2 Propriétés
On montre que la relationV est bien une simplification, c’est-à-dire qu’elle réduit la taille du réseau. On prouve ensuite qu’elle est correcte pour la congruence ∼Ω, et qu’elle est confluente. On étudie alors la complexité de nos règles de simplifi- cation.
Simplification Montrons tout d’abord que nos règles réduisent bien la taille des réseaux.
Définition 12 (Taille et ordre des réseaux). Soit N = R | s0un réseau. Sa taille |N|
est le triplet (n, m, p), avec :
• n= Espèces(N) le nombre d’espèces moléculaires de N, • m= |R| le nombre de réactions de N,
• p= |s0|+
X
s1As2∈R
|s1+ s2| la taille combinée de toutes les solutions du réseau.
Un réseau N de taille (n, m, p) est alors plus petit qu’un autre réseau N0 de taille
(n0, m0, p0), noté N < N0, si (n, m, p) < (n0, m0, p0) avec l’ordre lexicographique,
c’est-à-dire :
• n< n0,
• ou n= n0
et m < m0,
• ou n= n0, m= m0 et p < p0.
Exemple 27. Par example, pour Michaelis-Menten, le réseau NMM(Fig.2.5) pos-
sède 4 espèces (S, E, C et P), 3 réactions, et chaque réaction est de taille 3 (r1
consomme 2 molécules et en produit 1, tandis que r2et r3consomment 1 molécule
et en produisent 2). Donc la taille du réseau est |NMM|= (4, 3, 9).
Lemme 3. L’ordre < sur les réseaux de réactions est bien fondé.
Proposition 4. Si NV N0, alors N0< N.
Proof. Soit (n, m, p) la taille de N, et (n0, m0, p0) la taille de N0. Si N VeD
N0 avec D ∈ {Inu, Rev, Cas}, alors n0 = n − 1 < n. Si D = Cyc, alors n = n0 et
m0 = m − 1 < m. Si D = Act, alors n = n0, m= m0 et p0 = p − 2a < p. Exactitude On va maintenant prouver qu’un réseau simplifié est attracteurs- congruent au réseau initial.
Théorème 1. La simplification VΩ,I est correcte pour la congruence des at- tracteurs ∼Ω,I.
Proof. On doit donc prouver que si N VΩ,I N0, alors N ∼Ω,I N0, c’est-à-dire que pour tout contexte N00tel que Espèces(N00) ∩ I= ∅, on a (N | N00) '
Ω,I(N0| N00).
On note R00les réactions de N00. Les preuves sont en général basées sur l’existence
de fonctions f et g reliant les réseaux initiaux et les réseaux simplifiées. La preuve de la règle(Cascade)est un peu plus compliquée, et nécessite de réordonner cer- taines séquences de réactions.
Pour la règle (R´eaction Cyclique), on a trivialement le même graphe réduit des solutions accessibles Gsol(N) = Gsol(N0), donc Gsol(N | N00) = Gsol(N0| N00).
Donc, d’après le Lem.2, N | N00 et N0 | N00 sont attracteurs-équivalents, et donc N ∼Ω,I N0.
Considérons la règle (Activateur Pr´esent), appliqué sur un activateur A. Le réseau N contient une réaction s1+aA As2+aA, ainsi qu’un ensemble de réactions
ne pouvant qu’augmenter le nombre de molécules de A. Comme A est une espèce interne, les réactions R00 du contexte ne peuvent pas modifier la quantité de A. Donc, par récurrence immédiate, il y a toujours au moins a0molécules de A dans
tout réseau accessible depuis N | N00 ou N0 | N00. Soit N
1 ∈ {(N | N00)→∗} un
réseau accessible depuis le réseau initial dans son contexte. Il existe alors une solution s00 avec A < s00 et un entier a1 ≥ a0 ≥ a tels que :
N1= {s1+ aA As2+ aA} ∪ R ∪ R00 | a1A+ s00.
Pour tout réseau de cette forme, on note f la fonction définie par :
f(N1)= {s1As2} ∪ R ∪ R00 | a1A+ s00.
La fonction f est alors une bijection entre les réseaux de {(N | N00)→∗} et ceux de {(N0 | N00
)→∗}. On a alors la propriété suivante :
N1→N2 si et seulement si f(N1)→f(N2).
En effet, si la réaction utilisée pour transformer N1 en N2 appartient à R ou à
R00, alors elle existe aussi dans f (N1) (et inversement). Si la réaction utilisée est
s1+ aA As2+ aA, alors on peut utiliser s1As2 à la place. Et inversement, si on
utilise la réaction s1As2 pour transformer f (N1) en f (N2), alors comme a1 ≥ a,
on peut utiliser s1+ aA As2+ aA pour transformer N1en N2.
Par récurrence immédiate, N1→∗N2 si et seulement si f (N1)→∗f(N2). On a
alors f ({N1→∗})= { f (N1)→∗}. De plus, f (N) = N0. Et tout ensemble de réseaux
A est fermé et accessible depuis N | N00 si et seulement si f (A) est fermé et accessible depuis N0 | M.
La fonction f préserve aussi trivialement l’observation : Ω( f (N1)) = Ω(N1).
Supposons alors qu’on a un attracteur A. Par définition, il estΩ-connecté, c’est- à-dire que pour tout N1 ∈ A, on a Ω(A) ⊆ Ω({N1→∗}). Alors, pour tout réseau
f(N1) ∈ f (A), on aura :
Ω( f (A)) = Ω(A) ⊆ Ω({N1→∗}) ⊆ Ω( f ({N1→∗})) ⊆ Ω({ f (N1)→∗}).
Donc f (A) est aussi Ω-connecté. La réciproque est identique. Donc A est un Ω-attracteur si et seulement si f (A) est un Ω-attracteur. Donc pour tout O ∈ Observables, on a (N | N00) ↓ΩO si et seulement si (N0 | N00
) ↓ΩO. De plus, (N | N00) ↑Ωsi et seulement si il existe N
1 ∈ {(N | N00)→∗} tel que pour tout ensemble
d’observations O ⊆ Observables, N1 6↓ΩO. Mais alors, avec le même raisonnement
que ci-dessus, f (N1) ∈ {(N0 | N00)→∗} vérifie ∀O ⊆ Observables. f (N1) 6↓ΩO, et
donc (N0| N00) ↑Ω, et réciproquement. Donc N ∼ Ω N0.
Considérons la règle de simplification(Esp`ece Inutile), appliquée sur une es- pèce A. On note R les réactions s1As2 telles que A < s1, et R0 les réactions ne
pouvant modifier que la quantité de A, comme définies dans la règle. Tout réseau accessible N1 ∈ {(N | N00)→∗} est de forme N1 = R ∪ R0∪ R00 | a1A+ s00, avec s00
une solution telle que A < s00 et a
1 un entier. Soit f la fonction définie pour tout
réseau N1 de cette forme par f (N1) = R\A ∪ R00 | s00. Alors pour toute paire de
réseaux accessibles N1, N2 ∈ {(N | N00)→∗}, on va montrer que :
N1→N2 implique f(N1)→f(N2).
C’est en fait immédiat : supposons que N1→rN2. Si r ∈ R00, alors A < r, donc
f(N1)→rf(N2). Si r ∈ R, alors r\A ∈ R\A est applicable, et on obtient bien le
réseau f (N2). Si r ∈ R0, alors f (N1)= f (N2). Par récurrence immédiate, on a :
N1→∗N2 implique f(N1)→∗f(N2). (3.2)
Réciproquement, tout réseau N10 ∈ {(N0 | N00
)→∗} est de forme N0
1 = R\A ∪ R 00 | s00
avec A < s00. On définit alors l’ensemble des réseaux g(N0
1) = {(R\A ∪ R
0 ∪ R00 |
a01A+ s00) | a01∈ N}. Soit N10, N20 ∈ {(N0 | N00)→∗}, on va montrer qu’on a : N10→N20 implique ∀N1∈ g(N
0
1).∃N2 ∈ g(N 0
2). N1→N2.
Supposons en effet que N10→r0N0
2. Si r 0 ∈ R00
, alors r0 est directement applicable dans N1, et la propriété est vraie. Si r0 ∈ R\A, alors il existe r ∈ R telle que
r0 = r\A. Or, d’après les conditions de la règle de simplification, on sait qu’il n’y a pas de molécules de A dans les réactants de r. Donc r est toujours applicable dans N1, et produit un réseau N2 ∈ g(N20). Par récurrente immédiate, pour tout
réseau N10, N20 ∈ {(N0 | N00)→∗}, on a : N10→∗N20 implique ∀N1 ∈ g(N 0 1).∃N2∈ g(N 0 2). N1→ ∗ N2. (3.3)
Remarquons de plus queΩ( f (N1))= Ω(N1), et que pour tout N1 ∈ g(N10),Ω(N1)=
Ω(N0 1). De plus N1∈ g( f (N1)), f (g(N10))= {N 0 1}, f (N)= N 0 et N ∈ g(N0).
Soit A ⊆ {(N | N00)→∗} unΩ-attracteur accessible depuis le réseau initial dans
son contexte. Soit N1 ∈ A, N10 = f (N1) et A0 = {N10→∗}. On va montrer que A0est
également unΩ-attracteur, accessible depuis N0 | N00. Il est fermé par définition, et accessible d’après3.2. Soit N0
2 ∈ A
0 et o ∈ Ω(A0) une observation. Il existe
donc N0 3 ∈ A 0tel que o= Ω(N0 3). On a N1 ∈ g(N 0 1), donc il existe N2 ∈ g(N 0 2) ∩ A
d’après3.3. De même, il existe N3 ∈ g(N30) ∩ A, avecΩ(N3)= o. Donc o ∈ Ω(A).
Comme A estΩ-connecté, il existe N4∈ {N2→∗} avec o= Ω(N4). Par la propriété
3.2, on a alors f (N4) ∈ {N20→∗}, donc o ∈Ω({N20→∗}). Donc A0estΩ-connecté, et
c’est un attracteur.
Réciproquement, si A0 est un attracteur accessible depuis N0 | N00, et N0 1 ∈
A0, alors d’après 3.3 il existe N
1 ∈ g(N10) ∩ {(N | N00)→∗}. On va montrer que
A = {N1→∗} est bien un attracteur. Il est trivialement fermé, et accessible. Soit N2 ∈ A et o ∈ Ω(A), c’est-à-dire qu’il existe N3 ∈ A avec o = Ω(N3). Par
3.2, N0
2 = f (N2) et N 0
3 = f (N3) appartiennent à A
0. Donc o ∈ Ω(A0), donc par
Ω-connectivité il existe N0 4 ∈ {N
0 2→
∗
} avec o= Ω(N40). Mais alors par3.3il existe N4 ∈ g(N40) ∩ {N2→∗}, et on a donc o ∈Ω({N2→∗}). Donc A est un attracteur.
Trivialement, les attracteurs A et A0 ont la même observation, donc (N |
N00) ↓ΩOsi et seulement si (N0 | N00) ↓ΩO. La preuve pour la divergence est similaire. Donc les réseaux N et N0sont attracteurs-congruents.
Considérons maintenant la règle(R´eaction Inversible). On note r1= s AA et
r2 = A As les réactions supprimées par la règle de simplification. Soit N1 ∈ {(N |
N00)→∗} un réseau accessible depuis le réseau initial dans son contexte. Soit R00
les réactions de N00. Il existe une solution s1telle que :
N1 = {r1, r2} ∪ R ∪ R 00
| s1.
Pour tout réseau de cette forme, on dénote par f la fonction définie par : f(N1)= R[A := s] ∪ R00 | s1[A := s].
On va alors montrer que :
Soit r la réaction utilisée, c’est-à-dire N1→rN2. Si r ∈ R, alors r0 = r[A := s] ∈
R[A := s] et f (N1)→r0f(N2). Si r = s AA ou r = A As, alors f (N1) = f (N2).
Enfin, si r ∈ R00
, alors A < r, et donc r est aussi applicable dans f (N1), donc
f(N1)→rf(N2). Par récurrence directe, on a :
N1→∗N2 implique f(N1)→∗f(N2). (3.4)
Réciproquement, soit N10 ∈ {(N0 | N00
)→∗} un réseau accessible depuis le réseau
simplifié dans son contexte. Il existe s00
avec A < s00telle que :
N10 = R[A := s] ∪ R00 | s00.
Pour tout réseau de cette forme, on dénoté par g la fonction définie par :
g(N10)= {s AA, A As} ∪ R ∪ R00 | s00. On montre alors que :
N10→N20 implique g(N10)→∗g(N20). En effet, supposons que N10→r0N0
2, avec r 0
la réaction utilisée. Si r0 ∈ R00, on peut directement appliquer r0, donc g(N10)→r0g(N0
2). Si r
0 ∈ R[A := s], il ex-
iste une réaction r ∈ R telle que r0 = r[A := s]. À partir de g(N0
1), on peut
alors transformer certaines occurrences de la solution s en molécules de A avec la réaction sAA, puis utiliser la réaction r, et enfin retransformer les molécules de A restantes en s avec AAs. On a donc g(N0
1)→ ∗ r1→r→ ∗ r2g(N 0 2). Par récurrence
directe, on en déduit que :
N10→∗N20 implique g(N10)→∗g(N20). (3.5) Remarquons aussi que :
f(g(N10))= N10 et g( f (N1))→∗N1 et N1→∗g( f (N1)). (3.6)
La partie gauche est immédiate. Pour la partie droite, il suffit d’utiliser les réac- tions r1 et r2 pour transformer des molécules de A en s ou réciproquement. En-
fin, notons que les fonctions f et g trivialement préservent l’observation, puisque Ω(A) = Ω(s), que f (N) = N0
et que N→∗
g(N0) en utilisant la réaction sAA. Soit A ⊆ {(N | N00)→∗} un attracteur accessible depuis le réseau initial, et
N1 ∈ A. On va montrer que A0 = { f (N1)→∗} est aussi un attracteur, avec la même
observation. Il est fermé par définition. Soit N20 ∈ A0
un réseau, et o ∈ Ω(A0) une observation. Donc il existe un réseau N0
3 ∈ A
0 avec Ω(N0
3) = o. Par la
propriété3.5, f (N1)→∗N30implique g( f (N1))→∗g(N30), et donc N1→∗g(N30) par3.6.
g(N20) ∈ A. Donc la propriété deΩ-connectivité implique que o ∈ Ω({g(N20)→∗}), c’est-à-dire qu’il existe N4 ∈ {g(N20)→∗} avec Ω(N4) = o. Donc par3.4, f (N4) ∈
{ f (g(N0 2))→ ∗} = {N0 2→ ∗}. Donc o ∈ Ω({N0 2→
∗}), donc A0 est Ω-connecté, donc
c’est un attracteur. Et trivialementΩ(A0)= Ω(A).
La réciproque est exactement similaire, et donc (N | N00) ↓Ω
Osi et seulement si
(N0 | N00) ↓Ω O.
Pour la divergence, si (N | N00) ↑Ω, alors il existe N1 ∈ {(N | N00)→∗} tel que
pour tout O ⊆ Observables, N1 6↓ΩO. Mais, avec le même raisonnement qu’avant,
cela implique que f (N1) 6↓ΩO, et donc que (N
0 | N00) ↑Ω. Par symétrie, (N | N00) ↑Ω
si et seulement si (N0 | N00) ↑Ω.
Donc N et N0 sont attracteurs-congruents.
Enfin, considérons la règle(Cascade). On note rd la réaction de dégradation
AA∅, R les réactions produisant A et R0 celles consommant A, comme définies dans la règle. Pour tout réseau N1 accessible depuis N | N00, il existe s00 avec
A < s00et un entier a tels que :
N1 = R ∪ R0∪ {rd} ∪ R00 | aA+ s00.
Pour tout réseau de la forme ci-dessus, on définit la fonction f par : f(N1)= (R AR
0
) ∪ R00 | s00.
Soit k un entier, et N0, Nk ∈ {(N | N00)→∗} deux réseaux accessibles, tels que A ne
soit pas dans les solutions de ces deux réseaux, c’est-à-dire A < s(N0), s(Nk). On
veut montrer que :
N0→∗Nk implique f(N0)→∗f(Nk). (3.7)
Supposons que N0→kNk, décomposons la séquence de réduction en k étapes :
N0→N1→. . .→Nk−1→Nk.
On suppose que pour tout 0 < i < k, A ∈ s(Ni). En effet, pour toute séquence
de forme Ni→∗Nj, si il n’y a jamais aucune molécule de A dans les solutions
initiales des réseaux Ni à Nj, alors c’est que seules les réactions du contexte M1
sont utilisées, et on a alors directement f (Ni)→∗f(Nj). Si la séquence possède des
réseaux avec des molécules de A et des réseaux sans molécules de A, prouver la propriété3.7sur les sous-séquences possédant du A est suffisant.
Premièrement, remarquons que la réaction rd commute à droite, c’est-à-dire
que pour toute réaction r et toute paire de réseaux Ni, Ni+2telle que Ni→rd→rNi+2,
la réduction Ni→r→rdNi+2est aussi possible. On réécrit alors la séquence précé-
dente en plaçant toutes les occurrences de rdà la fin de la séquence :
N0→N1→. . .→Nk0→∗
tel que rd ne soit jamais utilisée dans la séquence N0→∗Nk0. Notons qu’on a
directement f (Nk0) = f (Nk), et donc f (Nk0)→∗f(Nk). On s’intéresse maintenant
uniquement à la séquence N0→∗Nk0.
On a A < s(N0) mais A ∈ s(N1). Donc la réaction r1utilisée pour la réduction
N0→r1N1 appartient à R. On va partitionner la sequence N0→
∗
Nk0, afin de faire
apparaître les applications des réactions de R. On a donc :
N0 →r1N1,0→ k1 R0∪R00N1,k1 →r2N2,0→ k2 R0∪R00N2,k2 . . . →rjNj,0→ kj R0∪R00Nj,kj,
tel que Nj,kj = Nk0, et que pour tout 1 ≤ i ≤ j, ri ∈ R. On utilise donc une
réaction de R, suivie d’une séquence de réactions de R0et de R00, puis une nouvelle réaction de R, etc. Notons que les réactions ri ne sont pas forcément distinctes.
Pour tout 1 ≤ i ≤ j, la réaction ri ∈ R est de forme ri = siAsi + aiA, avec
ai > 0, donc si ⊆ s(Ni,0). On a directement f (N0)= f (N1,0) et pour tout 1 ≤ i < j,
f(Ni,ki) = f (Ni+1,0). Il suffit donc de prouver la propriété3.7pour toute séquence
Ni,0→kRi0∪R00Ni,ki.
Dans cette sous-séquence, seules des réactions de R0ou de R00peuvent être util- isées. Or, les réactions de R00 n’ont pas de molécules de A. De plus, les réactions
de R0, si l’on s’abstrait de l’espèce A, ne peuvent que créer de nouvelles molécules. Cela implique qu’une réaction r0 ∈ R va commuter à gauche avec une réac- tion r00 ∈ R00. En d’autres termes, si N
i,i0→r00→r0Ni,i0+2, alors Ni,i0→r0→r00Ni,i0+2.
On peut donc déplacer toutes les réactions de R0 vers la gauche, et obtenir une séquence de forme : Ni,0→r0 0Ni,1→r 0 1. . .→r 0 k0 i−1 Ni,k0 i→ ∗ R00Ni,k i
avec pour tout 0 ≤ i0 < k0i, r0i0 = a
0 i0AAs
0 i0 ∈ R
0
. Puisque la séquence de réseaux Ni,k0
i→
∗
R(M1)Ni,ki n’utilise que des réactions du contexte M, sans molécule de A,
cela directement implique f (Ni,k0 i)→
∗
R00f(Ni,ki). De plus, pour tout 0 ≤ i0 < k0i,
on a si ∈ Ni,i0. En effet, on a vu plus haut que si ∈ Ni,0, et comme A < si,
les réactions r0i0 ne modifient pas la présence de si dans les réseaux. Mais, par
définition de(Cascade), on peut alors appliquer la réaction riAr0i sur f (Ni,i0), et
obtenir f (Ni,i0+1). On a donc :
f(Ni,1)→r1r01f(Ni,2)→r1r02. . .→r1r0k0 i−1 f(Ni,k0 i)→ ∗ R00f(Ni,ki).
Réciproquement, pour tout réseau N10 accessible depuis N0 | N00, il existe s00 avec A < s00telle que :
N10 = R AR 0
∪ R00 | s00.
Pour tout réseau de cette forme, on définit la fonction g par :
g(N10)= R ∪ R0∪ {rd} ∪ R00 | s00.
On montre que pour tout réseau N00, Nk0 ∈ {(N0 | N00
)→∗}, on a :
N00→∗Nk0 implique g(N00)→∗g(Nk0). (3.8) La preuve est directe par récurrence. Si N0
0→R00N 0 k, alors g(N 0 0)→R00g(N 0 k). Si N00→rAr0N 0 k, avec r = s As + aA et r 0 = a0
AAs0, alors la séquence suivante est correcte : g(N00)→∗
r→r0→∗
rdg(N
0
k). Donc3.8est vérifiée.
On va maintenant prouver que pour tout ensemble d’observables O, on a :
(N | N00) ↓ΩO si et seulement si (N 0
| N00) ↓ΩO .
Premièrement, remarquons que commeΩ(A) = O, les deux fonctions précédentes préservent l’observation :Ω( f (N1))= Ω(N1), etΩ(g(N10))= Ω(N10). De plus, on a
N10 = f (g(N10)). Si A < s(N1), alors N1 = g( f (N1)). Sinon, N1→∗rdg( f (N1)) .
Soit A unΩ-attracteur accessible depuis N | N00, et N
1 ∈ A un réseau appar-
tenant à l’attracteur. On a alors (N | N00)→∗N1→∗rdN1\A. Comme A < s(N | N
00
), la propriété 3.7 implique que N10 = f (N1\A) est accessible depuis N0 | N00. On
va montrer que A0 = {N0 1→
∗} est unΩ-attracteur. Il est fermé par définition. Soit
N20 ∈ A0, et o ∈ Ω(A0). Il existe N30 ∈ A0 avec o = Ω(N30). Donc N10→∗N30, et g(N10)→∗g(N30) par 3.8. Or g(N10) = N1\A ∈ A, donc o = g(N30) ∈ Ω(A). De
même, g(N0
2) ∈ A. ParΩ-connectivité, on a donc o ∈ Ω({g(N 0 2)→
∗}, donc il existe
N4 tel que o = Ω(N4) = Ω(N4\A) et g(N20)→∗N4→∗rdN4\A. Or A < g(N
0
2), donc
N20 = f (g(N20))→∗f(N4\A). Donc o ∈ {N20→∗}, et A0 estΩ-connecté. Donc c’est
un attracteur, et trivialementΩ(A) = Ω(A0).
La réciproque, ainsi que la preuve pour la divergence, fonctionnent de la même manière. On a donc bien N ∼Ω N0.
Enfin, considérons la règle (Contexte), avec N VeD
N0, pour une règle D ∈ {Cyc, Act, Inu, Rev, Cas}. Il existe N1, N10 et N100 avec N = N1 | N100 et N0 = N10 |
N100, tels que N1 VD N10. On a donc par induction N1 ∼Ω N10, et donc N ∼Ω N 0
.
Confluence On va maintenant montrer que cet ensemble de règles de simplifi- cation est confluent. Il n’y a pas besoin de "confluence modulo", l’équivalence structurelle étant directement l’égalité des réseaux.
Théorème 2 (Confluence). La relation de simplification V est confluente pour (Nets,=).
Proof. On va montrer la confluence locale, c’est-à-dire que pour toute paire de règles D1, D2∈ {Cyc, Act, Inu, Rev, Cas}, pour tout réseau N ∈ Nets, si N VDf1 N1
et N VDf2 N
2, alors il existe un réseau N0 ∈ Nets tel que Ni V∗N0. Comme la rela-
tionV termine toujours, la confluence locale implique directement la confluence globale. La plupart des paires sont directes. La paire D1 = D2 = Cas, appliquée
sur deux espèces différentes, est la plus compliquée, et nécessite d’étudier dans le détail les réactions des différents réseaux simplifiés.
Commençons par la règle D1= Cyc, appliquée sur une réaction r1 = s As. Si
D2 = Cyc, appliquée sur r2, alors soit r1 = r2, et les deux règles ne génèrent pas
de paires critiques, c’est-à-dire N1 = N2. Soit r1 , r2, et les paires critiques se
ferment uniformément, c’est-à-dire N1 VD2 N0 et N2 VD1 N0.
Supposons D2 = Act, appliquée sur un activateur A2 et une réaction r2 =
s1 + a2A2As2 + a2A2. Si r1 = r2, et donc s1 = s2, alors l’application de D1
supprime la réaction, tandis que l’application de D2la remplace par r02 = s1As1.
Mais on peut alors utiliser(R´eaction Cyclique)sur r0
2et la supprimer, on obtient
donc le même réseau. Si r1 , r2, les paires critiques se ferment uniformément.
Si D2 = Inu, appliquée sur une espèce A2. On note R2les réactions n’ayant pas
de molécules de A2 en réactants, et R02 celles ne pouvant modifier que la quantité
de A2, comme définies dans la règle (Esp`ece Inutile). Si A2 ∈ r1, alors r1 ∈ R02.
Donc on peut soit appliquer D1 puis D2, soit appliquer directement D2, dans les
deux cas on obtient le même réseau. Si A2 < r1, les paires critiques se ferment
uniformément.
Si D2 = Rev, appliquée sur une espèce A2 et des réactions r2 = s2AA2 et
r02 = A2As2. Comme A2 < s2, trivialement r1 , r2 et r1 , r02, donc les paires
critiques se ferment uniformément.
Enfin, si D2 = Cas, appliquée sur A2. On note R2 les réactions produisant
A2, r2 = A2A∅ la réaction de dégradation, et R02 les autres réactions avec A2
en réactant, comme dans (Cascade). On a r1 , r2, et r1 < R2. Supposons que
r1 ∈ R02, c’est-à-dire r1 = a0A2Aa0A2avec a0 > 0. Dans ce cas, pour toute réac-
tion r = s2As2+ a2A2 ∈ R2, la règle D2 crée la réaction r A2 r1 = s2As2. On
peut alors supprimer toutes ces réactions en utilisant |R| fois la règle (R´eaction
Cyclique). On obtient alors le même réseau que si on avait commencé par D1
suivie de S2. Si r1 < R02, les paires critiques se ferment uniformément.
Supposons ensuite que D1 = Act, appliquée sur un activateur A1 et une réac-
tion r1 = s1 + a1A1As2 + a1A1. Supposons que D2 = Act, appliquée sur un
alors a1 = a2 (par la condition A1 < s1), et D1 et D2 ne génèrent pas de paires
critiques sur N. Dans tous les autres cas, les paires critiques se ferment uniformé- ment.
Si D2 = Inu, appliquée sur une espèce inutile A2. On note R2 les réactions
n’ayant pas de molécules de A2en réactants, et R02 celles ne pouvant modifier que
la quantité de A2, comme définies dans la règle(Esp`ece Inutile). Si r1 ∈ R02, alors
r1 = s + A1AAs + a2A, avec a1 ≤ a2. Après application de D1, la réaction réduite
r01 = s As appartient toujours à R02, et est donc supprimée par D2. Si on applique
D2en premier, r1est directement supprimée sans avoir à appliquer D1. Si r1 < R02,
alors A1, A2, et les paires critiques se ferment uniformément.
Si D2 = Rev, appliquée sur une espèce A2 et des réactions r2 = s AA2 et
r0
2 = A2As. La condition A2 < s dans D2 implique r1 , r2 et r1 , r 0
2. De plus,
la condition stoicr02(A1) ≥ 0 dans(Activateur Pr´esent) implique A1 , A2, tandis
que stoicr2(A1) ≥ 0 implique alors A2 < s. Donc l’application de D1 ne modifie
pas les réactions r2 et r02. Et inversement on peut toujours appliquer D1après D2.
Donc les paires critiques se ferment uniformément.
Si D2 = Cas, appliquée sur A2. On note R2 les réactions produisant A2,
r2 = A2A∅ la réaction de dégradation, et R0
2les autres réactions avec A2en réac-
tant, comme dans(Cascade). Trivialement r1 , r2. La condition stoicr2(A1) ≥ 0
implique A1 , A2. Ce qui implique alors r1 < R02. Supposons que r1 ∈ R2,
c’est-à-dire qu’il existe a2 > 0 et s tel que r1 = s + a1A1As + a1A1 + a2A2.
Si on applique d’abord D1, r1 est remplacée par r01 = s As + a2A2. On peut
alors toujours appliquer D2 sur (R2\r1) ∪ {r01}, R02 et r2, et on obtient les réac-
tions ((R2\r1) A2 R 0 2) ∪ ({r 0 1} A2 R 0
2). Si on commence par la règle D2, on obtient
les réactions R2 A2 R
0
2. En particulier, les réactions de {r1} A2 R
0
2 sont de forme
s+ a1A1As + a1A1+ s0, et peuvent toutes être simplifiées en appliquant récursive-
ment D1, pour obtenir des réactions de forme sAs + s0. Or ces réactions sont en
fait exactement les réactions de {r01} A2R
0
2. On obtient donc le même réseau final.
Si r1 < D2, alors les paires critiques se ferment uniformément.
Considérons maintenant le cas de la règle D1 = Inu, appliquée sur A1. On
note R1 les réactions n’ayant pas de molécules de A1 en réactants, et R01 celles
ne pouvant modifier que la quantité de A1, comme définies dans la règle(Esp`ece
Inutile). Supposons que D2 = Inu, appliquée sur A2, avec R2 les réactions sans
A2 en réactants et R02celles ne modifiant que A2. Si A1= A2 = A, remarquons que
les ensembles de réactions peuvent être différents, tant que R1∪ R01 = R2∪ R02 et
que les conditions pour la simplification sont respectées. En effet une réaction de forme sAs + aA, avec A < s, vérifie aussi bien les conditions de l’ensemble R que de l’ensemble R0. Si on applique D
1, on obtient le réseau R1\A. Or, on peut
remarquer que les réactions de (R1∩ R02)\A sont des réactions cycliques, pouvant
R2)\A. Par symétrie, on obtient le même réseau si on applique d’abord D2, puis
(R´eaction Cyclique).Si A1 , A2, les paires critiques se ferment uniformément.
Supposons que D2 = Rev, appliquée sur une espèce A2 et des réactions r2 =
sAA2et r02= A2As. Si A1 = A2= A, alors r02 < R1, donc r02∈ R01. Donc pour tout
B , A, s(B) = 0. De plus, A < s, donc s = ∅, et r2 = ∅ AA ∈ R1. L’application de
D1 produit le réseau R1\A, tandis que D2 produit le réseau R1[A := ∅] ∪ R01[A :=
∅] = (R1\A) ∪ (R01\A). Or, pour toute réaction r ∈ (R01\A), pour tout B , A,
stoicr(B)= 0, et A < r, donc r est une réaction cyclique. On peut donc appliquer
récursivement la règle(R´eaction Cyclique), et obtenir le réseau R1\A. Si A1 , A2,
les paires critiques se ferment uniformément.
Si D2 = Cas, appliquée sur A2. On note R2 les réactions produisant A2, la
réaction de dégradation r2= A2A∅, et R02les autres réactions avec A2en réactant,
comme dans(Cascade). Supposons que A1 = A2 = A. Dans ce cas, R1 ⊆ R2, et
R02 ⊆ R01. Plus précisément, le réseau initial contient les réactions suivantes :
• la réaction de dégradation r2 = A A∅,
• des réactions produisant du A : R2 = {s As + aA | A < s}. Ces réactions
peuvent appartenir à R1ou à R01,
• l’ensemble des autres réactions, qui ne modifient que la quantité de A : R02 = {a0AAa00A | a0, a00 > 0} ⊆ R01.
Si on applique D1, on obtient alors le réseau R1\A ⊆ R2\A. Ces réactions sont
toutes de forme sAs, et peuvent être supprimées en appliquant la règle(R´eaction
Cyclique). Si on applique D2 en première, on obtient le réseau R2AR02. Mais on
obtient encore une fois des réactions de forme sAs, pouvant être supprimées avec
(R´eaction Cyclique). On obtient donc bien le même réseau. Si A1, A2, les condi-
tions de D1impliquent A1< R2. Supposons qu’il existe r0∈ R02avec A1 ∈ r0. Donc
il existe a1, a2 > 0, s0 tel que r0 = a2A2As0+ a1A1, et A1 < s0, et donc r0 ∈ R1.
En appliquant D1, r0 est transformée en r00 = a2A2As0. On peut donc toujours
appliquer D2, et obtenir des réactions R2A2r
00
de forme sAs+(s0\A). Si on com- mence par D2, on obtient des réactions R2A2 r
0 de forme sAs + (s0\A
2)+ a1A1.
L’espèce A1est toujours inutile, donc on peut appliquer D1, et on obtient bien les
réactions de R2 A2 r
00
. Si A1 , A2 et A1 < R02, les paires critiques se ferment
uniformément.
Supposons maintenant que D1 = Rev, appliquée sur une espèce A1 et des
réactions r1 = s1AA1 et r01 = A1As1. Soit D2 = Rev, appliquée sur A2 et
des réactions r2 = s2AA2 et r02 = A2As2. Si A1 = A2, alors r1 = r2, r01 =
r02 et s1 = s2, sinon la condition stoicr2(A1) = 0 (resp. r
0
1) de D1 contredit la
paires critiques. Sinon, la condition stoicr2(A1) = 0 implique soit s2 = A1 (et