• Aucun résultat trouvé

Arbres avec sommet

5.2 Modèles pour DAD et AKD ∗

On peut construire, d’une façon très naturelle, un modèle pour les demi-anneaux avec domaine et pour les algèbres de Kleene∗-continues basé sur les arbres avec sommet.

Définition 5.2.1. Soit s, t ∈ TΣ. On définit — G(0) = ∅,

— G(1) = {T (1)},

— G(a) = {T (a)}, pour tout a ∈ Σ,

— G(ps) = pG(s) = {pT (x) : T (x) ∈ G(s)}, — G(st) = G(s)G(t) = {T (x)T (y) : T (x) ∈ G(s), T (y) ∈ G(t)}, — G(s + t) = G(s) ∪ G(t), — G(s∗) = G(s)∗ = (S n | n ∈ N : G(s)n), avec G(s)0 = {T (1)} et G(s)n+1 = G(s)G(s)n, pour toutn ∈ N. On noteGT

Σl’ensemble desG(s), tels que s ∈ TΣ. Autrement dit,GTΣest l’image deTΣparG. De

plus, on définit

G(s) 4 G(t) ⇔ (∀Tdéf 1| T1 ∈ G(s) : (∃T2 | T2 ∈ G(t) : T1 4 T2)) (5.13) et

G(s) ' G(t) déf

⇔ G(s) 4 G(t) ∧ G(t) 4 G(s). (5.14)

En d’autres termes,G(s) 4 G(t) si pour chaque arbre T1∈ G(s), il existe T2 ∈ G(t) tel que T1 4 T2.

Le résultat suivant est similaire au théorème4.3.2.

Théorème 5.2.2. La relation 4 est un pré-ordre sur GTΣ. De plus, ' est une relation d’équivalence sur

GTΣ.

Démonstration. Soit r, s, t ∈ TΣ.

— La relation4 est réflexive, puisque pour tout T1 ∈ G(s), T14 T1, par le théorème4.3.2. — Montrons que4 est transitive. Supposons G(r) 4 G(s) et G(s) 4 G(t) et montrons G(r) 4

G(t). Soit T1 ∈ G(r). Puisque G(r) 4 G(s), il existe T2 ∈ G(s) tel que T1 4 T2. De même, puisqueG(s) 4 G(t), il existe T3 ∈ G(t) tel que T2 4 T3. Par le théorème4.3.2,T1 4 T3. Ainsi,G(r) 4 G(t).

Le théorème suivant montre que, modulo l’équivalence de simulation', l’image de TΣ par G est munie d’une structure d’algèbre de Kleene avec domaine∗-continue.

Théorème 5.2.3. La structure hGTΣ, ∪, ·,

,p, ∅, G(1)i modulo ' est une algèbre de Kleene avec do-

maine∗-continue.

Démonstration. Soit r, s, t ∈ TΣ.

1. Associativité de∪. Par la théorie des ensembles, on a

(G(r) ∪ G(s)) ∪ G(t) = G(r) ∪ (G(s) ∪ G(t)). 2. Identité de∪. Là encore, la théorie des ensembles donne

G(s) ∪ ∅ = ∅ ∪ G(s) = G(s). 3. Associativité de·. T ∈ G(r)G(s)G(t) ⇔ h Définition de G i (∃x, y, z | T (x) ∈ G(r) ∧ T (y) ∈ G(s) ∧ T (z) ∈ G(t) : T = (T (x)T (y))T (z)) ⇔ h Définition4.3.6i (∃x, y, z | T (x) ∈ G(r) ∧ T (y) ∈ G(s) ∧ T (z) ∈ G(t) : T = T ((xy)z)) ⇔ h Corollaire4.3.9i (∃x, y, z | T (x) ∈ G(r) ∧ T (y) ∈ G(s) ∧ T (z) ∈ G(t) : T = T (x(yz))) ⇔ h Définition4.3.6i (∃x, y, z | T (x) ∈ G(r) ∧ T (y) ∈ G(s) ∧ T (z) ∈ G(t) : T = T (x)(T (y)T (z))) ⇔ h Définition de G i T ∈ G(r) G(s)G(t) 4. Identité de· à gauche. G(1)G(s) = h Définition5.2.1i {T (1)}G(s) = h Définition de · sur GTΣ i {T (1)T (x) : T (x) ∈ G(s)} = h Corollaire4.3.9i {T (x) : T (x) ∈ G(s)}

= h Théorie des ensembles i G(s) 5. Identité de· à droite. G(s)G(1) = h Définition5.2.1i G(s){T (1)} = h Définition de · sur GTΣ i {T (x)T (1) : T (x) ∈ G(s)} = h Corollaire4.3.9i {T (x) : T (x) ∈ G(s)}

= h Théorie des ensembles i G(s)

6. Commutativité de∪. D’après la théorie des ensembles, on a G(s) ∪ G(t) = G(t) ∪ G(s). 7. Distributivité de· sur + à gauche.

G(r) G(s) ∪ G(t)

= h Définition de G i

{T (x)T (y) : T (x) ∈ G(r) ∧ T (y) ∈ G(s) ∪ G(t)} = h Définition de l’union ensembliste i

{T (x)T (y) : T (x) ∈ G(r) ∧ (T (y) ∈ G(s) ∨ T (y) ∈ G(t))} = h Distributivité de ∧ sur ∨ i

{T (x)T (y) : (T (x) ∈ G(r) ∧ T (y) ∈ G(s)) ∨ (T (x) ∈ G(r) ∧ T (y) ∈ G(t))} = h Définition de l’union ensembliste i

{T (x)T (y) : T (x) ∈ G(r) ∧ T (y) ∈ G(s)} ∪ {T (x)T (y) : T (x) ∈ G(r) ∧ T (y) ∈ G(t)} = h Définition de G i

G(r)G(s) ∪ G(r)G(t) 8. Distributivité de· sur + à droite.

G(r) ∪ G(s)G(t)

{T (x)T (y) : T (x) ∈ G(r) ∪ G(s) ∧ T (y) ∈ G(t)} = h Définition de l’union ensembliste i

{T (x)T (y) : (T (x) ∈ G(r) ∨ T (x) ∈ G(s)) ∧ T (y) ∈ G(t)} = h Distributivité de ∧ sur ∨ i

{T (x)T (y) : (T (x) ∈ G(r) ∧ T (y) ∈ G(t)) ∨ (T (x) ∈ G(s) ∧ T (y) ∈ G(t))} = h Définition de l’union ensembliste i

{T (x)T (y) : T (x) ∈ G(r) ∧ T (y) ∈ G(t)} ∪ {T (x)T (y) : T (x) ∈ G(s) ∧ T (y) ∈ G(t)} = h Définition de G i

G(r)G(t) ∪ G(s)G(t)

9. Zéro de· à gauche et à droite. En utilisant la définition de G et la théorie des ensembles (T ∈ ∅ ⇔ faux), on obtient

∅G(s) = {T (x)T (y) : T (x) ∈ ∅ ∧ T (y) ∈ G(s)} = ∅ et

G(s)∅ = {T (x)T (y) : T (x) ∈ G(s) ∧ T (y) ∈ ∅} = ∅.

10. Axiome d’étoile-continuité : G(r)G(s)∗G(t) ' (S n | n ≥ 0 : G(r)G(s)nG(t)). Par la défi- nition5.2.1on a

G(r)G(s)∗G(t) = G(r)(S n | n ≥ 0 : G(s)n)G(t) = (S n | n ≥ 0 : G(r)G(s)nG(t)).

En effet, considérons l’ensembleX suivant

X = {T (x)T (y)T (z) : T (x) ∈ G(r) ∧ (∃n : N |: T (y) ∈ G(s)n) ∧ T (z) ∈ G(t)} = {T (x)T (y)T (z) : (∃n : N |: T (x) ∈ G(r) ∧ T (y) ∈ G(s)n ∧ T (z) ∈ G(t))}. Il est clair que

G(r)G(s)∗G(t) = X = (S n | n ≥ 0 : G(r)G(s)nG(t)).

11. (DAD1) :pG(s)G(s) ' G(s). Si T ∈ pG(s)G(s), alors il existe T (x), T (y) ∈ G(s) tels que T = pT (x)T (y) = T (pxy). Puisque pxy ≤ y, la proposition4.3.5.10permet de conclureT 4 T (y). CommeT (y) ∈ G(s), on en déduit que pG(s)G(s) 4 G(s). Réciproquement, si T (x) ∈ G(s), alorspT (x)T (x) ∈ pG(s)G(s). Par le théorème4.3.8.3,T (x) 4 pT (x)T (x). Ainsi, pG(s)G(s) ' G(s).

p(G(s)G(t)) = h Définition de G i {p(T (x)T (y)) : T (x) ∈ G(s) ∧ T (y) ∈ G(t)} = h Définition4.3.6i {T (p(xy)) : T (x) ∈ G(s) ∧ T (y) ∈ G(t)} = h Corollaire4.3.9i {T (p(xpy)) : T (x) ∈ G(s) ∧ T (y) ∈ G(t)} = h Définition4.3.6i {p(T (x)pT (y)) : T (x) ∈ G(s) ∧ T (y) ∈ G(t)} = h Définition de G i p(G(s)pG(t))

13. (DAD3) :pG(s) 4 G(1). Puisque G(1) = {1}, nous devons montrer que pour tout T ∈ pG(s), on aT 4 T (1). Si T ∈ pG(s), alors il existe T (x) ∈ G(s) tel que T = pT (x) = T (px). Puisque px ≤ 1, on en déduit T 4 T (1) par la proposition4.3.5.9.

14. (DAD4) :p∅ = ∅. En utilisant la définition de p sur GT

Σet la théorie des ensembles, on a

p∅ = {pT (x) : T (x) ∈ ∅} = ∅. 15. (DAD5) :p(G(s) ∪ G(t)) ' pG(s) ∪ pG(t).

p(G(s) ∪ G(t))

= h Définition de G i {pT (x) : T (x) ∈ G(s) ∪ G(t)}

= h Définition de l’union ensembliste i {pT (x) : T (x) ∈ G(s) ∨ T (x) ∈ G(t)} = h Distributivité i {pT (x) : T (x) ∈ G(s)} ∪ {pT (x) : T (x) ∈ G(t)} = h Définition de G i pG(s) ∪ pG(t) 

Dans a preuve du théorème5.2.3, on voit que dans certains cas, il est possible de prouver l’égalité au lieu de'. Ces cas sont listés dans le corollaire suivant. Toutefois, nous verrons juste après (exemple

Corollaire 5.2.4. Soit s, t ∈ TΣ. Les propriétés suivantes sont valides. — (G(r) ∪ G(s)) ∪ G(t) = G(r) ∪ (G(s) ∪ G(t)). — G(s) ∪ G(0) = G(s). — G(r)G(s)G(t) = G(r) G(s)G(t). — G(1)G(s) = G(s)G(1) = G(s). — G(r) G(s) ∪ G(t) = G(r)G(s) ∪ G(r)G(t). — G(r) ∪ G(s)G(t) = G(r)G(t) ∪ G(s)G(t). — G(0)G(s) = G(s)G(0) = G(0). — G(r)G(s)∗G(t) = (S n | n ≥ 0 : G(r)G(s)nG(t)). — p(G(s)G(t)) = p(G(s)pG(t)). — p(G(s) ∪ G(t)) = pG(s) ∪ pG(t).

Démonstration. Toutes ces propriétés ont été démontrées dans la preuve du théorème5.2.3. 

L’exemple suivant montre que la relation' est plus faible que l’égalité. Exemple 5.2.5. Soit Σ = {a, b, c, d} et s = a + b. On a

pss = p(a + b)(a + b) = (pa + pb)(a + b) = paa + pab + pba + pbb. Ainsi, la définition5.2.1et la définition4.3.6donnent

G(s) = {T (a), T (b)} et

G(pss) = {T (paa), T (pab), T (pba), T (pbb)}.

D’après le théorème5.2.3, on aG(pss) ' G(s). Pourtant, il est clair que G(pss) et G(s) sont deux ensembles bien distincts.

Par ailleurs, cet exemple montre queG(s) ' G(t) n’implique pas, pour tout T1 ∈ G(s), l’existence deT2∈ G(t) tel que T1 ' T2. En effet, prenons, par exemple,T (pab) ∈ G(pss). On va prouver qu’il n’existe aucun arbreT (x) dans G(s) tel que T (x) 4 T (pab).

En utilisant la définition4.2.1, on a T (a) = hua, Ma, vai = h " 1 0 # , " 0 a 0 0 # , " 0 1 # i,

T (b) = hub, Mb, vbi = h " 1 0 # , " 0 b 0 0 # , " 0 1 # i et

T (pab) = hupab, Mpab, vpabi = h    1 0 0   ,    0 a b 0 0 0 0 0 0   ,    0 0 1   i.

— Montrons qu’il n’existe aucune relationR telle que T (a) 4RT (pab). Par contradiction, suppo- sons queR est une relation telle que T (a) 4RT (pab). Par la proposition4.3.5.1,uau`

pab ≤ R. Puisque uau`pab= " 1 0 # h 1 0 0 i = " 1 0 0 0 0 0 # , on peut écrire R = " 1 x1 x2 x3 x4 x5 #

avec{xi: 1 ≤ i ≤ 5} ∈ {0, 1}. En utilisant le calcul matriciel, on a RMpab= " 0 a b 0 x3a x3b # et MaR = " ax3 ax4 ax5 0 0 0 # . Par (sim2), les équations précédentes et la définition desxi,

T (a) 4RT (pab) ⇒ RMpab≤ MaR ⇒ b ≤ ax5 ⇒ faux,

carax5 ∈ {0, a}. Donc il n’existe aucune relation R telle que T (a) 4RT (pab).

— De même, montrons qu’il n’existe aucune relationR telle que T (b) 4RT (pab). Par contradic- tion, supposons queR est une relation telle que T (b) 4R T (pab). Par la proposition 4.3.5.1, ubu`pab≤ R. Puisque ubu`pab= " 1 0 # h 1 0 0 i = " 1 0 0 0 0 0 # , on peut écrire R = " 1 x1 x2 x3 x4 x5 #

avec{xi: 1 ≤ i ≤ 5} ∈ {0, 1}. En utilisant le calcul matriciel, on a RMpab= " 0 a b 0 x3a x3b # et MbR = " bx3 bx4 bx5 0 0 0 # . Par (sim2), les équations précédentes, et la définition desxi,

T (b) 4RT (pab) ⇒ RMpab≤ MbR ⇒ a ≤ bx4 ⇒ faux,

Ainsi, on aG(pss) ' G(s), T (pab) ∈ G(pss) et pourtant, il n’existe aucun arbre T (x) ∈ G(s) tel que

T (x) 4 T (pab). 

On peut définir un modèle pourDAD en considérant la fonction G sur DΣ. Définition 5.2.6. Soit s ∈ DΣ. On définitG0(s) inductivement :

— G0(0) = ∅, — G0(1) = {T (1)},

— G0(a) = {T (a)}, pour tout a ∈ Σ ∪ {1}, — G0(ps) = pG0(s) = {pT (x) : T (x) ∈ G0(s)},

— G0(st) = G0(s)G0(t) = {T (x)T (y) : T (x) ∈ G0(s), T (y) ∈ G0(t)}, — G0(s + t) = G0(s) ∪ G0(t).

Autrement dit,G0est la restriction deG sur l’ensemble DΣ. On a donc

G0(s) = G(s), pour tout s ∈ DΣ. (5.15) Ainsi, on définit G0(s) 4 G0(t) déf ⇔ (∀T1| T1 ∈ G0(s) : (∃T 2 | T2∈ G0(t) : T14 T2)) (5.16) et G0(s) ' G0(t) ⇔ Gdéf 0(s) 4 G0(t) ∧ G0(t) 4 G0(s). (5.17) D’après ces définitions, (5.15), (5.13) et (5.14), il est clair que pour touts, t ∈ DΣ, on a

G0(s) 4 G0(t) ⇔ G(s) 4 G(t) (5.18) et G0(s) ' G0(t) ⇔ G(s) ' G(t). (5.19) On noteraGD Σ l’image deDΣparG 0. Autrement dit,G DΣ = {G 0(s) : s ∈ D Σ}.

Le théorème suivant prouve que la relation' sur GD

Σest une relation d’équivalence.

Théorème 5.2.7. La relation 4 est un pré-ordre sur GDΣ. De plus, ' est une relation d’équivalence sur

GDΣ.

— Réflexivité : en utilisant (5.15) et le théorème5.2.2, on obtient G0(s) 4 G0(s) ⇔ G(s) 4 G(s) ⇔ vrai. — Transitivité : En utilisant (5.15), et le théorème5.2.2, on obtient

G0(r) 4 G0(s) ∧ G0(s) 4 G0(t) ⇔ G(r) 4 G(s) ∧ G(s) 4 G(t) ⇒ G(r) 4 G(t). Puisque, par (5.15), on a

G(r) 4 G(t) ⇔ G0(r) 4 G0(t), on en déduit

G0(r) 4 G0(s) ∧ G0(s) 4 G0(t) ⇒ G0(r) 4 G0(t).

Ainsi,4 est un pré-ordre sur DΣ. Par la proposition2.2.4, cela implique que' est une relation

d’équivalence. 

Par ailleurs,G0est bien un modèle pourDAD. En effet, il suffit de voir le théorème5.2.3. Théorème 5.2.8. La structure hGDΣ, ∪, ·,p, ∅, G

0(1)imodulo ' est un demi-anneau avec domaine.

Démonstration. Toutes les propriétés nécessaires ont été démontrées dans la preuve du théorème

5.2.3. 

Maintenant que nous avons les modèles pourDAD et AKD∗, il est temps de passer aux preuves de complétude.

5.3

Complétude

5.3.1 Complétude pour DAD

Afin de prouver que pour tous s, t ∈ DΣ, siG0(s) 4 G0(t), alors DAD ` s ≤ t, nous utiliserons les deux lemmes suivants. Le premier (lemme5.3.1) prouve que touts ∈ DΣqui n’est pas égal à0 s’écrit comme une somme finie de termes simples et le second (lemme5.3.2) prouve que sis1est un terme simple, alorsG0(s1) = {T (s1)}. Ainsi, en utilisant le théorème5.1.15, il sera facile de prouver la complétude deG0.

Lemme 5.3.1. Soit s ∈ DΣ. Il existe ˆs ∈ DΣtel que

DAD ` s = ˆs et s = sˆ 1+ · · · + sk

avec k ≥ 0 et {si: 1 ≤ i ≤ k} ⊆ MΣ. On suppose que lorsque k = 0, alors ˆs = 0.

— Sis ∈ Σ ∪ {0, 1}, alors il suffit de prendre ˆs = s et la preuve est terminée.

— Supposonss =pt, avec ˆt = x1+ · · · + xk,k ≥ 0, {xi : 1 ≤ i ≤ k} ⊆ MΣet l’égalitét = ˆt démontrable dansDAD. Si k = 0, alors il suffit de prendre ˆs = 0. Sinon, on utilise l’additivité du domaine (DAD5) pour avoir

ˆ

s =px1+ · · · +pxk.

Il est clair, d’après l’hypothèse d’induction, queˆs vérifie toutes les conditions requises. — Supposonss = t1+ t2, avectˆ1= x1+ · · · + xk,tˆ2 = y1+ · · · + yl,k, l ≥ 0, {xi, yj : 1 ≤ i ≤

k et 1 ≤ j ≤ l} ⊆ MΣ et les égalitést1 = ˆt1 et t2 = ˆt2 démontrables dansDAD. Le choix deˆs est simple. En effet, si ˆt1 = 0, alors on prend ˆs = ˆt2; sitˆ2 = 0, alors on prend ˆs = ˆt1; enfin, sitˆ1 6= 0 et ˆt2 6= 0, alors on prend ˆs = ˆt1 + ˆt2. Dans tous les cas, d’après l’hypothèse d’induction, le choix deˆs est valide.

— Supposonss = t1t2, avectˆ1 = x1+ · · · + xk,tˆ2 = y1+ · · · + yl,k, l ≥ 0, {xi, yj : 1 ≤ i ≤ k et 1 ≤ j ≤ l} ⊆ MΣet les égalitést1 = ˆt1ett2 = ˆt2 démontrables dansDAD. Si ˆt1 = 0 outˆ2 = 0, il suffit de prendre ˆs = 0. Dans le cas contraire, on utilise les lois de distributivité (2.8) et (2.9) pour avoir

ˆ

s = (P i, j | 1 ≤ i ≤ k ∧ 1 ≤ j ≤ l : xiyj).

Là encore, il est clair ques vérifie toutes les conditions requises.ˆ



Lemme 5.3.2. Soit s ∈ MΣ. Alors G0(s) = {T (s)}.

Démonstration. Nous effectuons une preuve par induction sur la structure de s ∈ MΣ. Le prédicat d’inductionP est défini comme suit :

P (s) : G0(s) = {T (s)}. — ProuvonsP (1). Par la définition5.2.6, on aG0(1) = {T (1)}.

— SupposonsP (s) et montrons P (ps). En utilisant la définition5.2.6, l’hypothèse d’induction et (4.42), on a

G0(ps) = {pT (x) : T (x) ∈ G0(s)} = {pT (s)} = {T (ps)}.

— SupposonsP (s) et P (t) et montrons P (st). Là encore, en utilisant la définition5.2.6, l’hypo- thèse d’induction et (4.42), on obtient

G0(st) = {T (x)T (y) : T (x) ∈ G0(s) ∧ T (y) ∈ G0(t)} = {T (s)T (t)} = {T (st)}. 

À présent, nous pouvons prouver le théorème de complétude pourDAD. Théorème 5.3.3. Soit s, t ∈ DΣ. Si G0(s) 4 G0(t), alors DAD ` s ≤ t.

Démonstration. D’après le lemme5.3.1, il existe ˆs et ˆt tels que DAD ` s = ˆs, DAD ` t = ˆt, ˆ

s = s1+ · · · + sk,ˆt = t1+ · · · + tl,k, l ≥ 0 et {si, tj : 1 ≤ i ≤ k et 1 ≤ j ≤ l} ⊆ MΣ. Supposons G0(s) 4 G0(t). Puisque DAD ` s = ˆs et DAD ` t = ˆt, le théorème5.2.8donne

G0(s) ' G0(ˆs) et G0(t) ' G0(ˆt) et donc

G0(ˆs) 4 G0(ˆt). Il suffit de prouverDAD ` ˆs ≤ ˆt. On doit distinguer deux cas.

— Si l = 0, alors par le lemme 5.3.1,ˆt = 0 et la définition 5.2.6 donne G0(ˆt) = ∅. Puisque G0(ˆs) 4 G0(ˆt), par (5.16), la seule possibilité estG0(ˆs) = ∅, ce qui revient à dire ˆs = 0. Ainsi, on obtientDAD ` ˆs = ˆt.

— Supposons l ≥ 1. D’abord, en utilisant l’expression de ˆs et ˆt, la définition de G0 5.2.6 et le lemme5.3.2, on obtient

G0(ˆs) = {T (si) : 1 ≤ i ≤ k}

et

G0(ˆt) = {T (tj) : 1 ≤ j ≤ l}.

PuisqueG0(ˆs) 4 G0(ˆt), pour tout 1 ≤ i ≤ k, il existe 1 ≤ j ≤ l tel que T (si) 4 T (tj). Par le théorème5.1.15, cela impliqueDAD ` si ≤ tj. Puisquek et l sont finis, on en déduit DAD ` ˆs ≤ ˆt.

On a donc prouvé que siG0(s) 4 G0(t), alors DAD ` s ≤ t.  5.3.2 Complétude pour AKD∗

Pour commencer, nous définissons la notion d’interprétation pour les algèbres de Kleene avec do- maine∗-continues.

Définition 5.3.4. Une AKD-interprétation, ou plus simplement interprétation I : TΣ → K est

un homomorphisme quicommute avec les opérations de AKD et tel que hK, +, ·,∗, 0, 1,pi est une algèbre de Kleene avec domaine. Autrement dit, pours, t ∈ TΣ,

— I(0) = 0, — I(1) = 1,

— I(st) = I(s)I(t), — I(s + t) = I(s) + I(t), — I(ps) = pI(s),

— I(s∗) = I(s)∗.

LorsquehK, +, ·,∗, 0, 1,pi est une algèbre de Kleene∗-continue, on dira queI est une AKD∗-inter- prétation.

À présent, nous définissons les puissances d’un termes ∈ TΣet montrons que toute interprétation commute avec l’opérateur de puissance. Ensuite, nous montrons queG commute également avec l’opérateur de puissance.

Définition 5.3.5. Soit s ∈ TΣ. Pour toutn ∈ N, le terme sn∈ TΣest défini inductivement : s0 déf

= 1, (5.20)

sn+1 déf= sns. (5.21)

Proposition 5.3.6. Soit s ∈ TΣ, I : TΣ → K une interprétation et hK, +, ·,∗, 0, 1,pi une algèbre de

Kleene avec domaine. Alors pour tout n ∈ N,

I(sn) = I(s)n.

Autrement dit, toute interprétation commute avec l’opération de puissance telle que définie en5.3.5. Démonstration. Nous effectuons une preuve par induction sur n. Le prédicat d’induction P est défini comme suit :

P (n) : I(sn) = I(s)n.

— Étape de base : montronsP (0). Pour cela, on utilise (5.20), la définition5.3.4et (3.5) : I(s0) = I(1) = 1 = I(s)0.

— SupposonsP (n) et montrons P (n + 1). I(sn+1) = h (5.21)i I(sns) = h I commute avec · i I(sn)I(s) = h Hypothèse d’induction i I(s)nI(s) = h I(s) ∈ K & (3.6)i I(s)n+1

On a donc montré que pour toutn ∈ N, I(sn) = I(s)n. 

Proposition 5.3.7. Soit s ∈ TΣet n ∈ N. Alors,

G(sn) = G(s)n. (5.22)

Démonstration. On peut prouver la proposition5.3.7 facilement par induction surn. Si n = 0, alors par (5.20) et la définition5.2.1,

G(s0) = G(1) = {T (1)} = G(s)0.

SupposonsG(sn) = G(s)n. En utilisant (5.21), la définition5.2.1et l’hypothèse d’induction, on a G(sn+1) = G(sns) = G(sn)G(s) = G(s)nG(s) = G(s)n+1.



Proposition 5.3.8. Soit s, t ∈ TΣ, hK, +, ·,∗, 0, 1,pi une algèbre de Kleene avec domaine et I : TΣ→

K une interprétation. Alors les propriétés suivantes sont valides. 1. {I(x) : T (x) ∈ G(ps)} = {pI(y) : T (y) ∈ G(s)}.

2. {I(x) : T (x) ∈ G(st)} = {I(x1)I(x2) : T (x1) ∈ G(s) ∧ T (x2) ∈ G(t)}.

Démonstration. Soit f : MΣ → MΣune fonction etP un prédicat défini sur MΣ. D’abord, on va montrer

{I(x) : (∃y | P (y) : T (x) = T (f (y)))} = {I(f (y)) : P (y)}, (5.23) oùy est une variable ou une liste de variables1.

a ∈ {I(x) : (∃y | P (y) : T (x) = T (f (y)))} ⇔ h Théorie des ensembles i

(∃x |: (∃y | P (y) : T (x) = T (f (y))) ∧ a = I(x))

⇔ h y n’est pas libre dans a = I(x) & distributivité i (∃x |: (∃y | P (y) : T (x) = T (f (y)) ∧ a = I(x)))

⇔ h x n’est pas libre dans P (y) & échange des variables de quantification i (∃y | P (y) : (∃x |: T (x) = T (f (y)) ∧ a = I(x)))

⇔ h Par le théorème5.1.15et la définition d’interprétation (définition5.3.4), T (x) = T (f (y)) ⇒ (AKD ` x = f (y)) ⇒ I(x) = I(f (y)) i

(∃y | P (y) : (∃x |: T (x) = T (f (y)) ∧ a = I(f (y))))

⇔ h x n’est pas libre dans a = I(f (y)) & distributivité i (∃y | P (y) : (∃x |: T (x) = T (f (y))) ∧ a = I(f (y)))

⇔ h Pour voir que la quantification interne est vraie, on peut choisir x = f (y) i (∃y | P (y) : a = I(f (y)))

⇔ h Théorie des ensembles i a ∈ {I(f (y)) : P (y)}

À présent, passons à la preuve des parties1 et 2 de la proposition.

1. La dérivation suivante prouve{I(x) : T (x) ∈ G(ps)} = {pI(y) : T (y) ∈ G(s)}. {I(x) : T (x) ∈ G(ps)}

= h Par la définition5.2.1,G(ps) = {pT (y) : T (y) ∈ G(s)} i {I(x) : (∃y | T (y) ∈ G(s) : T (x) = pT (y))}

= h pT (y) = T (py) par (4.42)i {I(x) : (∃y | T (y) ∈ G(s) : T (x) = T (py))} = h (5.23), avecf (y) déf = py et P (y) déf = T (y) ∈ G(s) i {I(py) : T (y) ∈ G(s)} = h I commute avecp i {pI(y) : T (y) ∈ G(s)}

2. Montrons{I(x) : T (x) ∈ G(st)} = {I(x1)I(x2) : T (x1) ∈ G(s) ∧ T (x2) ∈ G(t)}. {I(x) : T (x) ∈ G(st)} = h Par la définition5.2.1,G(st) = {T (x1)T (x2) : T (x1) ∈ G(s) ∧ T (x2) ∈ G(t)} i {I(x) : (∃x1, x2 | T (x1) ∈ G(s) ∧ T (x2) ∈ G(t) : T (x) = T (x1)T (x2))} = h T (x1)T (x2) = T (x1x2) par (4.42)i {I(x) : (∃x1, x2 | T (x1) ∈ G(s) ∧ T (x2) ∈ G(t) : T (x) = T (x1x2))} = h (5.23), avecy := x1, x2, f (x1, x2) déf = x1x2et P (x1, x2) déf = T (x1) ∈ G(s) ∧ T (x2) ∈ G(t) i {I(x1x2) : T (x1) ∈ G(s) ∧ T (x2) ∈ G(t)}

= h I commute avec · i

{I(x1)I(x2) : T (x1) ∈ G(s) ∧ T (x2) ∈ G(t)}



Corollaire 5.3.9. Des propositions5.3.8.1et5.3.8.2, on obtient

{I(α)I(x)I(β) : T (x) ∈ G(ps)} = {I(α)pI(y)I(β) : T (y) ∈ G(s)},

{I(α)I(x)I(β) : T (x) ∈ G(st)} = {I(α)I(x1)I(x2)I(β) : T (x1) ∈ G(s) ∧ T (x2) ∈ G(t)}

et donc

(P x | T (x) ∈ G(ps) : I(α)I(x)I(β)) = (P x | T (x) ∈ G(s) : I(α)pI(x)I(β)) (5.24) et

(P x | T (x) ∈ G(st) : I(α)I(x)I(β))

= (P x1, x2 | T (x1) ∈ G(s) ∧ T (x2) ∈ G(t) : I(α)I(x1)I(x2)I(β)),

(5.25)

pourvu que les sommes existent. 

La proposition suivante est prouvée dans [MS04].

Proposition 5.3.10. Soit hK, +, ·,∗, 0, 1,pi une algèbre de Kleene avec domaine et X ⊆ K. Alors p(P x | x ∈ X : x) = (P x | x ∈ X : px).

Autrement dit, l’opérateurp se distribue sur tous les supréma, même ceux d’ensembles infinis.

Démonstration. Posons y = (P x | x ∈ X : x). D’abord, par définition, pour tout x ∈ X, on a x ≤ y. Donc, par la monotonie dep (proposition2.3.5.1),px ≤ py pour tout x ∈ X. Autrement dit, py est un majorant de{px : x ∈ X}. Il reste à prouver que py est le plus petit majorant. Soit pz un autre majorant. vrai ⇔ h pz est un majorant de {px : x ∈ X} i (∀x | x ∈ X :px ≤ pz) ⇔ h Proposition2.3.5.3i (∀x | x ∈ X : x ≤pzx)

⇒ h x ≤ y pour tout x ∈ X & monotonie de · & transitivité de ≤ i (∀x | x ∈ X : x ≤pzy)

y ≤pzy

⇔ h Proposition2.3.5.3i

py ≤ pz

Ainsi,py est le suprémum de {px : x ∈ X}. Autrement dit,

py = p(P x | x ∈ X : x) = (P x | x ∈ X : px).



SoithK, +, ·,∗, 0, 1,pi une algèbre de Kleene avec domaine∗-continue etY ⊆ K. Afin de prouver le théorème de complétude pourAKD∗, nous utiliserons l’axiome suivant :

x(P y | y ∈ Y : y)z = (P y | y ∈ Y : xyz) ⇒ x(P y | y ∈ Y :py)z = (P y | y ∈ Y : xpyz). (5.26) Cet axiome semble vrai, mais nous n’avons trouvé ni preuve ni contre-exemple.

Le lemme suivant est analogue à un résultat pour AK [Koz12, lemme 7] et à un autre pourAKT [KS96, lemme 4].

Lemme 5.3.11. Soit s, α, β ∈ TΣ. Pour toute AKD∗-interprétation I,

I(αsβ) = (P x | T (x) ∈ G(s) : I(αxβ)).

Démonstration. Nous effectuons une preuve par induction sur la structure de s. Soit I → K une interprétation,hK, +, ·,∗, 0, 1,pi une algèbre de Kleene avec domaine∗-continue ets1, s2∈ TΣ. Le prédicat d’induction estP défini par

P (s) : I(αsβ) = (P x | T (x) ∈ G(s) : I(αxβ)), pour toutα, β ∈ TΣ.

— MontronsP (0). P (0)

⇔ h Définition de P & définition5.2.1i

I(α0β) = (P x | T (x) ∈ ∅ : I(αxβ))

⇔ h I commute avec · & domaine vide i I(α)I(0)I(β) = 0

⇔ h I(0) = 0 par la définition5.3.4 & axiomes (2.10) et (2.11) i 0 = 0

⇔ h Réflexivité de = i vrai.

— MontronsP (1).

(P x | T (x) ∈ G(1) : I(α)I(x)I(β))

= h G(1) = {T (1)} par la définition5.2.1i

(P x | T (x) = T (1) : I(α)I(x)I(β))

= h Par le théorème5.1.15et la définition d’interprétation5.3.4, T (x) = T (1) ⇒ (AKD ` x = 1) ⇒ I(x) = I(1) i (P x | T (x) = T (1) : I(α)I(1)I(β))

= h Domaine non vide & somme d’une constante i I(α)I(1)I(β)

— MontronsP (a) pour a ∈ Σ.

(P x | T (x) ∈ G(a) : I(α)I(x)I(β))

= h G(a) = {T (a)} par la définition5.2.1i

(P x | T (x) = T (a) : I(α)I(x)I(β))

= h Par le théorème5.1.15et la définition d’interprétation5.3.4, T (x) = T (a) ⇒ (AKD ` x = a) ⇒ I(x) = I(a) i (P x | T (x) = T (a) : I(α)I(a)I(β))

= h Domaine non vide & somme d’une constante i I(α)I(a)I(β)

— Supposons P (s) et montrons P (ps). Soit γ1, γ2 ∈ TΣ. En utilisant l’hypothèse d’induction avecα = β = 1 et la définition d’une interprétation5.3.4, on a d’une part

I(γ1)I(s)I(γ2) = I(γ1)(P x | T (x) ∈ G(s) : I(x))I(γ2)

et d’autre part

I(γ1)I(s)I(γ2) = I(γ1sγ2) = (P x | T (x) ∈ G(s) : I(γ1)I(x)I(γ2)).

Ainsi, on peut utiliser comme hypothèse

I(γ1)(P x | T (x) ∈ G(s) : I(x))I(γ2) = (P x | T (x) ∈ G(s) : I(γ1)I(x)I(γ2)) (5.27) pour toutγ1, γ2∈ TΣ. La dérivation suivante prouveP (ps).

I(αpsβ)

I(α)pI(s)I(β)

= h Hypothèse d’induction avec α = β = 1 i I(α)p(P x | T (x) ∈ G(s) : I(x))I(β)

= h Proposition5.3.10i

I(α)(P x | T (x) ∈ G(s) : pI(x))I(β)

= h Hypothèse d’induction & (5.27) & (5.26)i (P x | T (x) ∈ G(s) : I(α)pI(x)I(β)) = h (5.24)i (P x | T (x) ∈ G(ps) : I(α)I(x)I(β)) = h I commute avec · i (P x | T (x) ∈ G(ps) : I(αxβ)) — SupposonsP (s1) et P (s2) et montrons P (s1+ s2). I(α(s1+ s2)β) = h I commute avec · et + i I(α)(I(s1) + I(s2))I(β)

= h Distributivité de · sur + i I(α)I(s1)I(β) + I(α)I(s2)I(β)

= h I commute avec · i I(αs1β) + I(αs2β)

= h Hypothèses P (s1) et P (s2) i

(P x | T (x) ∈ G(s1) : I(αxβ)) + (P x | T (x) ∈ G(s2) : I(αxβ))

= h + est commutatif, associatif et idempotent, on peut donc appliquer la division du domaine [GS93]i (P x | T (x) ∈ G(s1) ∪ G(s2) : I(αxβ)) = h Définition5.2.1i (P x | T (x) ∈ G(s1+ s2) : I(αxβ)) — SupposonsP (s1) et P (s2) et montrons P (s1s2). I(αs1s2β) = h Hypothèse P (s1) i (P x1 | T (x1) ∈ G(s1) : I(αx1s2β))

= h Hypothèse P (s2) i

(P x1 | T (x1) ∈ G(s1) : (P x2| T (x2) ∈ G(s2) : I(αx1x2β)))

= h x2n’est pas libre dansT (x1) ∈ G(s1) & Imbrication i (P x1, x2| T (x1) ∈ G(s1) ∧ T (x2) ∈ G(s2) : I(αx1x2β))

= h I commute avec · i

(P x1, x2| T (x1) ∈ G(s1) ∧ T (x2) ∈ G(s2) : I(α)I(x1)I(x2)I(β))

= h (5.25)i

(P x | T (x) ∈ G(s1s2) : I(α)I(x)I(β))

= h I commute avec · i (P x | T (x) ∈ G(s1s2) : I(αxβ))

Ainsi, nous avons montré

P (s1) ∧ P (s2) ⇒ P (s1s2). (5.28) — SupposonsP (s) et montrons P (s∗). D’abord, on va montrer que si P (s) est vrai, alors pour toutn ∈ N, P (sn) l’est aussi. Nous effectuons une preuve par induction sur n ∈ N. Le prédicat d’inductionP0est défini comme suit :

P0(n) : P (s) ⇒ P (sn).

Le casn = 0 est trivial en utilisant la définition5.3.5etP (1) ci-dessus : P0(0) ⇔ (P (s) ⇒ P (s0)) ⇔ (P (s) ⇒ P (1)) ⇔ vrai. SupposonsP0(n). La dérivation suivante prouve P0(n + 1).

P0(n + 1) ⇔ h Définition de P0i P (s) ⇒ P (sn+1) ⇔ h Hypothèse P0(n) i P (sn) ∧ P (s) ⇒ P (sn+1) ⇔ h (5.21)i P (sn) ∧ P (s) ⇒ P (sns) ⇔ h (5.28)i vrai

Ainsi, puisqueP (s) est une hypothèse, nous pouvons utiliser l’équation suivante comme hy- pothèse, pour toutn ∈ N.

La dérivation suivante prouveP (s∗). I(αs∗β) = h I commute avec · et∗i I(α)I(s)∗I(β) = h ∗-continuité (3.7)i (P n | n ≥ 0 : I(α)I(s)nI(β)) = h Proposition5.3.6i (P n | n ≥ 0 : I(α)I(sn)I(β)) = h I commute avec · i (P n | n ≥ 0 : I(αsnβ)) = h (5.29)i (P n | n ≥ 0 : (P x | T (x) ∈ G(sn) : I(αxβ)))

= h + est commutatif et associatif i (P x | T (x) ∈ (S n | n ≥ 0 : G(sn)) : I(αxβ))

= h Proposition5.3.7i

(P x | T (x) ∈ (S n | n ≥ 0 : G(s)n) : I(αxβ))

= h Définition5.2.1i

(P x | T (x) ∈ G(s∗) : I(αxβ))

À présent, nous pouvons démontrer le théorème de complétude pourAKD∗. Théorème 5.3.12. Soit s, t ∈ TΣ. On a

G(s) ' G(t) ⇒ AKD∗  s = t.

Démonstration. Il suffit de prouver que si G(s) 4 G(t), alors AKD∗  s ≤ t. Supposons G(s) 4 G(t) et soit I une interprétation sur TΣ.

I(s)

= h Lemme5.3.11avecα = β = 1 i (P x | T (x) ∈ G(s) : I(x))

≤ h Par (5.13), pour chaque T (x) ∈ G(s), il existe T (y) ∈ G(t) tel que T (x) 4 T (y). Par le théorème5.1.15, cela impliqueI(x) ≤ I(y) i

= h Lemme5.3.11i

I(t)

Chapitre 6

Conclusion

Dans ce mémoire, nous avons présenté les arbres avec sommet et construit des modèles pour des algèbres munies d’un opérateur de domaine. Les arbres avec sommet sont des arbres, au sens de la théorie des graphes, munis d’un nœud spécial appelé sommet. Nous avons construit un modèle pour les demi-anneaux avec domaine (théorème 5.2.8) et avons prouvé sa complétude (théorème5.3.3). De plus, nous avons construit un modèle pour les algèbres de Kleene avec domaine ∗-continues (théorème5.2.3) et montré la complétude de ce dernier en supposant une certaine propriété (5.26). De nombreuses questions portant sur la complétude et la décidabilité de la théorie équationnelle des algèbres avec domaine sont encore largement ouvertes. Dans ce mémoire, nous avons résolu le problème pour les monoïdes et demi-anneaux avec domaine. Toutefois, en ce qui concerne les algèbres de Kleene avec domaine, plusieurs problèmes restent irrésolus. Pour commencer, il serait très intéressant de pouvoir démontrer l’hypothèse (5.26), afin d’avoir une preuve inconditionnelle de la complétude du modèle pourAKD∗. Toutefois, il semble que ce soit un problème difficile. On pourrait également se demander s’il existe un modèle complet pour AKD ou AKD∗ utilisant l’égalité ensembliste au lieu d’une autre relation d’équivalence. Cette question semble critique, prin- cipalement à cause des propriétéspxx = x, pxpx = px ou encore pxpy = pypx. En effet, une telle inter- prétation devrait associer exactement le même ensemble à tous les termes de{pba, papapba, papbpaa}, ce qui ne semble pas évident.

Par ailleurs, il est légitime de se demander siAKD et AKD∗ ont la même théorie équationnelle. En effet, il est connu queAK et AK∗ ont la même théorie équationnelle. Cela découle du fait que le modèle des langages réguliers, qui a pour image une algèbre de Kleene∗-continue, est complet pour AK [Koz94]. De plus, dans [KS96], les auteurs prouvent que AKT et AKT∗ ont la même théorie équationnelle. La preuve utilise également la complétude du modèle des langages réguliers pourAK (voir la section3.2). Par contre, en ce qui concerne les algèbres de Kleene avec domaine, une telle approche ne semble pas encore possible. En effet, il faudrait probablement commencer par avoir un modèle de langage qui utilise l’égalité ensembliste.

Une autre question concerne la décidabilité de la théorie équationnelle deAKD ou même de AKD∗. Il est bien connu [Koz96] que lorsqu’on ajoute des axiomes de commutativité de la formeab = ba à AK, on obtient un système dont la théorie équationnelle est indécidable, même lorsque a et b sont des actions primitives. Pourtant, pour toutx, y, on apxpy = pypx. Toutefois, étant donné que px et py sont des tests, il se pourrait qu’AKD soit décidable malgré tout. En effet, lorsqu’on ajoute des axiomes de la formepa = ap à AKT, où p est untest, on obtient une théorie décidable [Koz96]. Il est donc assez difficile d’émettre une conjecture quant à la décidabilité deAKD.

Bibliographie

[AH74] Alfred V Aho et John E Hopcroft : The Design and Analysis of Computer Algorithms. Pearson Education India, 1974.

[BCM14] Sabine Broda, Sílvia Cavadas et Nelma Moreira : Kleene algebra completeness. Rapport technique, Universidade de Porto, 2014.

[BP14] Paul Brunet et Damien Pous : Kleene algebra with converse. In International Conference on Relational and Algebraic Methods in Computer Science, volume 8428 de Lecture Notes in Computer Science, pages 101–118. Springer, 2014.

[CKS96] Ernie Cohen, Dexter Kozen et Frederick Smith : The complexity of Kleene algebra with tests. Rapport technique TR96-1598, Computer Science Department, Cornell University, July 1996.

[Con71] John Horton Conway : Regular Algebra and Finite Machines. Chapman and Hall, 1971. [Con12] John Horton Conway : Regular algebra and finite machines. Courier Corporation, 2012. [Des03] Jules Desharnais : Kleene algebra with relations. In International Conference on Rela-

tional Methods in Computer Science, volume 3051 de Lecture Notes in Computer Science, pages 8–20. Springer, 2003.

[DJS09] Jules Desharnais, Peter Jipsen et Georg Struth : Domain and antidomain semigroups. In International Conference on Relational Methods in Computer Science, volume 5827 de Lecture Notes in Computer Science, pages 73–87. Springer, 2009.

[DMS06] Jules Desharnais, Bernhard Möller et Georg Struth : Kleene algebra with domain. ACM Transactions on Computational Logic, 7(4):798–833, octobre 2006.

[DREB98] Willem-Paul De Roever, Kai Engelhardt et Karl-Heinz Buth :Data refinement : model- oriented proof methods and their comparison, volume 47 de Cambridge Tracts in Theoretical Computer Science. Cambridge University Press, 1998.

[DS11] Jules Desharnais et Georg Struth : Internal axioms for domain semirings. Science of Computer Programming, 76(3):181–203, mars 2011.

[FL79] Michael J Fischer et Richard E Ladner : Propositional dynamic logic of regular programs. Journal of Computer and System Sciences, 18(2):194–211, 1979.

[GH08] Steven Givant et Paul Halmos : Introduction to Boolean algebras. Springer Science & Business Media, 2008.

[GS93] David Gries et Fred B. Schneider : A Logical Approach to Descrete Math. Springer, 1993. [ JS08] Peter Jipsen et Georg Struth : The structure of the one-generated free domain semiring. In International Conference on Relational Methods in Computer Science, volume 4988 de Lecture Notes in Computer Science, pages 234–242. Springer, 2008.

[Kle56] Stephen Cole Kleene : Representation of events in nerve nets and finite automata. Rap- port technique, Rand Project Air Force Santa Monica CA, 1956.

[Koz81] Dexter Kozen : On induction vs.*-continuity. In Workshop on Logic of Programs, pages 167–176. Springer, 1981.

[Koz90] Dexter Kozen : On Kleene algebras and closed semirings. In International Symposium on Mathematical Foundations of Computer Science, volume 452 de Lecture Notes in Computer Science, pages 26–47. Springer, 1990.

[Koz92] Dexter Kozen : The Design and Analysis of Algorithms. Springer, 1992.

[Koz94] Dexter Kozen : A completeness theorem for Kleene algebras and the algebra of regular events. Information and computation, 110(2):366–390, 1994.

[Koz96] Dexter Kozen : Kleene algebra with tests and commutativity conditions. In Tools and Algorithms for the Construction and Analysis of Systems, pages 14–33. Springer, 1996. [Koz97] Dexter Kozen : Kleene algebra with tests.ACM Transactions on Programming Languages

and Systems (TOPLAS), 19(3):427–443, 1997.

[Koz12] Dexter Kozen : The Design and Analysis of Algorithms. Springer Science & Business Media, 2012.

[KS86] Werner Kuich et Arto Salomaa : Semirings, automata, languages. EATCS Monographs on Theoretical Computer Science, 5, 1986.

[KS96] Dexter Kozen et Frederick Smith : Kleene algebra with tests : Completeness and decida- bility. In International Workshop on Computer Science Logic, volume 1258 de Lecture Notes in Computer Science, pages 244–259. Springer, 1996.

[KTW15] Dylan Killingbeck, Milene Santos Teixeira et Michael Winter : Relations among ma- trices over a semiring. In International Conference on Relational and Algebraic Methods in Computer Science, volume 9348 de Lecture Notes in Computer Science, pages 101–118. Springer, 2015.

[Kui87] Werner Kuich : The Kleene and the Parikh theorem in complete semirings. In Internatio- nal Colloquium on Automata, Languages, and Programming, volume 267 de Lecture Notes in Computer Science, pages 212–225. Springer, 1987.

[MS04] Bernhard Möller et Georg Struth : Modal Kleene algebra and partial correctness. In International Conference on Algebraic Methodology and Software Technology, volume 3116 deLecture Notes in Computer Science, pages 379–393. Springer, 2004.

[Ng84] Kan Ching Ng : Relation Algebras with Transitive Closures. University of California, Berkeley, 1984.

[Pin97] Jean-Eric Pin : Syntactic semigroups. In Handbook of formal languages, pages 679–746. Springer, 1997.

[Pra88] Vaughan R Pratt : Dynamic algebras as a well-behaved fragment of relation algebras. In Proceedings of the Conference on Algebraic Logic and Universal Algebra in Computer Science, volume 425 de Lecture Notes in Computer Science, pages 77–110. Springer-Verlag, 1988.

[Red64] Valentine N Redko : On defining relations for the algebra of regular events. Ukrainskij Matematicheskij Zhurnal, 16:120–126, 1964.

[Sal66] Arto Salomaa : Two complete axiom systems for the algebra of regular events. J. ACM, 13(1):158–169, janvier 1966.

[San09] Davide Sangiorgi : On the origins of bisimulation and coinduction.ACM Trans. Program.

Documents relatifs