• Aucun résultat trouvé

Tapis roulant et comptage

7.3 Tapis roulant et comptage

Considérons le processus de maturation/survie (Xt) introduit précédemment, avec vitesse de maturation ρ et fonction d’élimination κ : R × [0,1] → R+. La maturation a lieu pendant une durée déterministe τ. Une particule qui débute sa maturation au tempsT peut soit mourir avec probabilité1−p(T)soit survivre avec probabilité p(T) et finir sa maturation au temps T +τ. Maintenant, considérons des particules indépendantes qui débutent leur maturation aux tempsT0, T1, . . . Ces particules survivent avec probabilités p(T0), p(T1), . . ., et achèvent leur maturation aux temps M0 = T0 +τ, M1 = T1 +τ, . . . à condition que les probabilités p(Ti) soient non nulles. Les durées de survie après maturation sont des variables aléatoires indépendantes de taux commun µ:R+ →R+ oùµ(t) :=κ(t,1). Supposons que les temps initiaux T0, T1, . . . sont aléatoires et distribuées selon un processus ponctuel de Poisson indépendant sur R d’intensité λ : R → R+. Pour tout t > 0, soit Nt le nombre de particules matures encore en vie à l’instantt. Le résultat suivant est un corollaire des résultats précédents.

Théorème 7.3.1. Pour tout 06s6t et tout m∈N,

L(Nt|Ns=m) = B(m, α(s, t))∗ P(β(s, t)),

α(s, t) := exp

− Z t

s

µ(w)dw

et

β(s, t) :=

Z t−τ s−τ

λ(u) exp

− Z τ

0

g(u+w, ρw)dw

α(u+τ, t)du.

En particulier, pour tout 06s6t et tout m∈N,

E(Nt|Ns=m) = mα(s, t) +β(s, t). (7.2) Le processus(Nt)t>0 n’est rien d’autre qu’une file d’attente M/M/∞inhomogène en temps. Lorsqueg ≡0 etµ est constant, on a p≡1, et (Nt)t>0 devient alors une file d’attente M/M/∞d’intensités constantesλetµ. Lorsque de plusλest constant, la loi de PoissonP(λ/µ)est invariante et symétrique (et donc réversible).

Le rôle joué par la file M/M/∞dans ce modèle est du au fait que les particules sont indépendantes. L’adjonction d’une interaction entre particules, avant, pendant, ou après maturation conduirait à un processus de comptage différent, dont les taux ne sont pas affine.

Remarque 7.3.2 (Valeurs négatives de κ et amplification). L’expression de β donnée ci-dessus fait encore sens lorsqueκprend des valeurs négatives sur l’intervalle[0,1).

Dans ce cas, la quantité p(u) = exp −Rτ

0 g(u+w, ρw)dw

peut dépasser 1 et ne peut donc plus être interprétée comme une probabilité de survie. De telles valeurs négatives de κ peuvent être vues comme une sorte d’amplification de l’intensité d’arrivée, par opposition à l’élimination, et peuvent être par conséquent incorporées àλ.

Cas sans élimination après maturation

Supposons queµ≡0(pas d’élimination après maturation). Dans ce cas,α(s, t) = 0pour tout 06s 6t, et la formule exprimant β(s, t) devient

β(s, t) = Z t−τ

s−τ

λ(u) exp

− Z τ

0

g(u+w, ρw)dw

du.

Dans ce cas,t ∈R+7→β(s, t) est croissante puisque la fonction intégrée ne dépend pas det. Cela n’est pas surprenant car les particules ne sont pas tuées après matu-ration. Ainsi, sur l’événement {Ns = 0}, le processus t ∈ R+ 7→ Mt est croissant, et en particulier sa valeur moyenne β(s, t) est croissante également. Lorsque λ est constant etg ≡0, on retrouve le processus de Poisson simple de comptage des tops, d’intensitéλ.

Cas sans élimination pendant maturation

Supposons que g ≡ 0 (pas d’élimination pendant maturation). Dans ce cas, la formule exprimant β(s, t) pour06s6t devient

β(s, t) = Z t−τ

s−τ

λ(u)α(u+τ, t)du.

Lorsque de plusλ etµsont constants, on retrouve la file d’attente M/M/∞ homo-gène en temps d’intensitésλ et µ, pour laquelle

α(s, t) =e−(t−s)µ and β(s, t) = 1−e−(t−s)µλ

µ. (7.3)

La loi P(λ/µ) est invariante et symétrique (et donc réversible) pour(Nt)t>0.

Élimination partielle pendant maturation et constante après maturation Considérons à présent le cas particulier où λest constant et oùκest de la forme k(t, x) = g(t)I[0,δ)(x) +µI{1}(x), (7.4) où δ ∈ [0,1], µ ∈ R+, et où g : R+ → R+ est une fonction lisse. Il correspond à une élimination qui dépend du temps avant le stade de maturation δ, et à une élimination constante après maturation. Il n’y a pas d’élimination pour les stades de maturation après δ. La formule pour β(s, t) lorsque 06s6t devient

β(s, t) =λ Z t−τ

s−τ

exp

−µ(t−τ −u)− Z δτ

0

g(u+w)dw

du. (7.5)

Lorsqueg ≡0, on retrouve la file d’attente M/M/∞homogène en temps. Supposons a contrario que g ne s’annule qu’à l’infini. Dans ce cas, les deux formules (7.5) et (7.3) pour β se confondent lorsque t tends vers ∞. En particulier, la loi de Poisson P(λ/µ) est une loi stationnaire de (Nt)t>0.

7.3. TAPIS ROULANT ET COMPTAGE 109 Identifiabilité et invariance par certaines transformations

La dynamique de N := (Nt)t>0 est complètement décrite par le quadruple (τ, µ, g, λ), oùτ := 1/ρ. Il est naturel de s’intéresser à l’injectivité de la fonctionnelle

(τ, µ, g, λ)7→ L(N|N0).

En vertu du théorème 7.3.1, la loi L(N|N0) est complètement déterminée par le triplet(τ, µ, λg), où λg :R→R+ est définie par

λg(t) :=λ(t)p(t) = λ(t) exp

− Z τ

0

g(t+w, ρw)dw

.

Par conséquent, le couple (λ, g) ne peut pas être identifié, car il agit sur la loi du processus à travers l’alliage λg. L’action de g peut être compensée par λ et vice versa. Supposons par exemple que g s’écrit g =g1+g2, où g1 et g2 sont positives.

Alors les modèles correspondants respectivement à(τ, µ, g, λ)et à(τ, µ, g2, λg1)sont indistinguables. Le cas extrême correspond à(τ, µ,0, λg), pour lequel l’intégralité de la fonction d’éliminationg est intégrée dans l’intensité d’arrivée λ.

Analysons quelques cas particuliers. Pour tout θ >1, considérons la transforma-tion qui remplace (λ, g)par (λθ, gθ) défini par

λθ :=θλ et gθ :=g+ρ log(θ).

La fonction µ et le paramètre ρ sont inchangés, et on peut vérifier que λθgθ = λg. Par conséquent, la dynamique est invariante par cette transformation, et les deux modèles correspondant à(τ, µ, g, λ)et(τ, µ, gθ, λθ) sont indistinguables, malgré leur interprétation différente. Une perturbation multiplicative de l’intensité d’arrivée λ correspond à une perturbation additive de la fonction d’élimination pendant ma-turation g. Cela suggère de normaliser la paramétrisation en prenant par exemple λ≡1.

Bibliographie

[Bas98] R. F. Bass–Diffusions and elliptic operators, Probability and its Appli-cations (New York), Springer-Verlag, New York, 1998. 21

[BB06] Y. Baraud et L. Birgé– « Estimating the intensity of a random mea-sure by histogram type estimators », prépublication,http://arxiv.org/

abs/math.ST/0608663, 2006. 91

[Bou00] N. Bouleau – Processus stochastiques et applications, Hermann, 2000.

20,90

[Bré99] P. Brémaud – Markov chains, Texts in Applied Mathematics, vol. 31, Springer-Verlag, New York, 1999, Gibbs fields, Monte Carlo simulation, and queues. 20

[Dur95] R. Durrett – « Ten lectures on particle systems », Lectures on pro-bability theory (Saint-Flour, 1993), Lecture Notes in Math., vol. 1608, Springer, Berlin, 1995, p. 97–201. 100

[Dur02] R. Durrett –Probability models for DNA sequence evolution, Probabi-lity and its Applications (New York), Springer-Verlag, New York, 2002.

20

[EK86] S. N. Ethier et T. G. Kurtz – Markov processes, Wiley Series in Probability and Mathematical Statistics: Probability and Mathematical Statistics, John Wiley & Sons Inc., New York, 1986, Characterization and convergence. 20,40

[Ewe04] W. J. Ewens–Mathematical population genetics. I, second éd., Interdis-ciplinary Applied Mathematics, vol. 27, Springer-Verlag, New York, 2004, Theoretical introduction. 20

[GS72] ˘I. ¯I. G¯ıhman et A. V. Skorohod – Stochastic differential equations, Springer-Verlag, New York, 1972, Translated from the Russian by Kenneth Wickwire, Ergebnisse der Mathematik und ihrer Grenzgebiete, Band 72.

32,33

[Jac06] M. Jacobsen–Point process theory and applications, Probability and its Applications, Birkhäuser Boston Inc., Boston, MA, 2006, Marked point and piecewise deterministic processes. 91

[Kin93] J. F. C. Kingman – Poisson processes, Oxford Studies in Probability, vol. 3, The Clarendon Press Oxford University Press, New York, 1993, , Oxford Science Publications. 87, 91

[KS91] I. Karatzas et S. E. Shreve–Brownian motion and stochastic calcu-lus, second éd., Graduate Texts in Mathematics, vol. 113, Springer-Verlag, New York, 1991. 21

[Kut98] Y. A. Kutoyants – Statistical inference for spatial Poisson processes, Lecture Notes in Statistics, vol. 134, Springer-Verlag, New York, 1998. 91 [Lig05] T. M. Liggett – Interacting particle systems, Classics in Mathematics,

Springer-Verlag, Berlin, 2005, Reprint of the 1985 original. 100

[MK00] J. H. Matis et T. R. Kiffe – Stochastic population models, Lecture Notes in Statistics, vol. 145, Springer-Verlag, New York, 2000, A compart-mental perspective. 93, 96,97

[MW04] J. Møller et R. P. Waagepetersen –Statistical inference and simu-lation for spatial point processes, Monographs on Statistics and Applied Probability, vol. 100, Chapman & Hall/CRC, Boca Raton, FL, 2004. 91 [Nor98] J. R. Norris – Markov chains, Cambridge Series in Statistical and

Pro-babilistic Mathematics, vol. 2, Cambridge University Press, Cambridge, 1998, Reprint of 1997 original. 20

[RB03] P. Reynaud-Bouret – « Adaptive estimation of the intensity of in-homogeneous Poisson processes via concentration inequalities », Probab.

Theory Related Fields 126 (2003), no. 1, p. 103–153. 91

[RB06] — , « Penalized projection estimators of the Aalen multiplicative inten-sity », Bernoulli 12 (2006), no. 4, p. 633–661. 91

[Rip88] B. D. Ripley–Statistical inference for spatial processes, Cambridge Uni-versity Press, Cambridge, 1988. 91

[Rob00] P. Robert – Réseaux et files d’attente: méthodes probabilistes, Mathé-matiques & Applications (Berlin) [Mathematics & Applications], vol. 35, Springer-Verlag, Berlin, 2000. 75

[Rob03] — ,Stochastic networks and queues, french éd., Applications of Mathema-tics (New York), vol. 52, Springer-Verlag, Berlin, 2003, Stochastic Model-ling and Applied Probability. 79, 80, 91

[RY99] D. Revuz et M. Yor – Continuous martingales and Brownian motion, third éd., Grundlehren der Mathematischen Wissenschaften [Fundamental Principles of Mathematical Sciences], vol. 293, Springer-Verlag, Berlin, 1999. 90

[SKM87] D. Stoyan, W. S. Kendall et J. Mecke – Stochastic geometry and its applications, Wiley Series in Probability and Mathematical Statistics:

Applied Probability and Statistics, John Wiley & Sons Ltd., Chichester, 1987, With a foreword by D. G. Kendall. 91

[Tav04] S. Tavaré – « Ancestral inference in population genetics », Lectures on probability theory and statistics, Lecture Notes in Math., vol. 1837, Sprin-ger, Berlin, 2004, p. 1–188. 20

BIBLIOGRAPHIE 113 [vL00] M. N. M. van Lieshout–Markov point processes and their applications,

Imperial College Press, London, 2000. 91

[Yca02] B. Ycart–Modèles et algorithmes markoviens, Mathématiques & Appli-cations (Berlin) [Mathematics & AppliAppli-cations], vol. 39, Springer-Verlag, Berlin, 2002. 20, 93

Documents relatifs