Disponible à / Available at permalink :

168  Download (0)

Texte intégral

(1)

- - -

- - -

Dépôt Institutionnel de l’Université libre de Bruxelles / Université libre de Bruxelles Institutional Repository

Thèse de doctorat/ PhD Thesis Citation APA:

Malek-Mansour, M. (1979). Fluctuations et transitions de phase de non-équilibre dans les systèmes chimiques (Unpublished doctoral dissertation).

Université libre de Bruxelles, Faculté des sciences, Bruxelles.

Disponible à / Available at permalink : https://dipot.ulb.ac.be/dspace/bitstream/2013/214131/1/1c104438-6280-4955-b68e-5b812fb8ebe0.txt

(English version below)

Cette thèse de doctorat a été numérisée par l’Université libre de Bruxelles. L’auteur qui s’opposerait à sa mise en ligne dans DI-fusion est invité à prendre contact avec l’Université (di-fusion@ulb.ac.be).

Dans le cas où une version électronique native de la thèse existe, l’Université ne peut garantir que la présente version numérisée soit identique à la version électronique native, ni qu’elle soit la version officielle définitive de la thèse.

DI-fusion, le Dépôt Institutionnel de l’Université libre de Bruxelles, recueille la production scientifique de l’Université, mise à disposition en libre accès autant que possible. Les œuvres accessibles dans DI-fusion sont protégées par la législation belge relative aux droits d'auteur et aux droits voisins. Toute personne peut, sans avoir à demander l’autorisation de l’auteur ou de l’ayant-droit, à des fins d’usage privé ou à des fins d’illustration de l’enseignement ou de recherche scientifique, dans la mesure justifiée par le but non lucratif poursuivi, lire, télécharger ou reproduire sur papier ou sur tout autre support, les articles ou des fragments d’autres œuvres, disponibles dans DI-fusion, pour autant que :

Le nom des auteurs, le titre et la référence bibliographique complète soient cités;

L’identifiant unique attribué aux métadonnées dans DI-fusion (permalink) soit indiqué;

Le contenu ne soit pas modifié.

L’œuvre ne peut être stockée dans une autre base de données dans le but d’y donner accès ; l’identifiant unique (permalink) indiqué ci-dessus doit toujours être utilisé pour donner accès à l’œuvre. Toute autre utilisation non mentionnée ci-dessus nécessite l’autorisation de l’auteur de l’œuvre ou de l’ayant droit.

--- English Version ---

This Ph.D. thesis has been digitized by Université libre de Bruxelles. The author who would disagree on its online availability in DI-fusion is invited to contact the University (di-fusion@ulb.ac.be).

If a native electronic version of the thesis exists, the University can guarantee neither that the present digitized version is identical to the native electronic version, nor that it is the definitive official version of the thesis.

DI-fusion is the Institutional Repository of Université libre de Bruxelles; it collects the research output of the University, available on open access as much as possible. The works included in DI-fusion are protected by the Belgian legislation relating to authors’ rights and neighbouring rights.

Any user may, without prior permission from the authors or copyright owners, for private usage or for educational or scientific research purposes, to the extent justified by the non-profit activity, read, download or reproduce on paper or on any other media, the articles or fragments of other works, available in DI-fusion, provided:

The authors, title and full bibliographic details are credited in any copy;

The unique identifier (permalink) for the original metadata page in DI-fusion is indicated;

The content is not changed in any way.

It is not permitted to store the work in another database in order to provide access to it; the unique identifier (permalink) indicated above must always be used to provide access to the work. Any other use not mentioned above requires the authors’ or copyright owners’ permission.

(2)

Service de Chimie Physique II

FLUCTUATIONS ET TRANSITIONS DE PHASE DE NON-EQUILIBRE DANS LES SYSTEMES CHIMIQUES

I I)

T^ESE PRESENTEE POUR

l

'

o

BTENTION Dü GRADE DS DOCTEUR EN SCIENCES CHIMIQUES .

V'-V

MeMALEK-MANSOUR

Janvier 1979

(3)
(4)

*-'■ • i X

REÇU le 8 JA::. 1978

Rèp...

FLUCTUATIONS ET TRANSITIONS DE PHASE DE NON-EGU!LiBRE DANS LES SYSTEMES CHIMIQUES

THESE PRESENTEE POUR L'

o

BTENTION DU GRADE DE DOCTEUR EN SCIENCES CHIMIQUES .

M.MALEK-MANSOUR

Janvier 1979

(5)

6on entourage. L’tnteaêt paatteuttea qu'tt temotgna poua ce taavatt et ta toteaanee dont tt {^tt paeuve à mon égaad, ont été poua beaucoup dan6 ta aéatt6atton de cette thé6e.

C'e6t avec ptat6ta que je 6at6th V occa6ton qut m’eét Oj^^eate poua expatmea ma pao/^onde aeconnat66ance au ?ao{,e6- 6eua G.MJ CO LIS qut a dtatgé, éctataé, façonné te taavatt que je paé6 ente tct. La pattence qu'tt témotgna à mon égaad n'a d'égate que 6a gentttte66e. Que ce 6ott tofi6que je bu- tat6 6ua de6 dt^^tcutté6 que je ne paavenat6 à ^aanchta, que ce 6ott ton.6que je taavefi6at6 une péatode de découragement, j'at toujoufi6 trouvé en tut et te mattre compétent et t’amt.

Le6 mutttpte6 dt6cu66ton6 que nou6 avon6 eue6 témotgyt-^i^t non 6 eutement de 6e6 va6te6 connat66ance6 mat6 égatement d'une chateur humatne à taquette j'at toujour6 été tré6 6en6tbte.

Cette chateur humatne, je t'at égatement trouvée chez te Pro^e66eur R.BALESCU et te6 Vocteur6 L.BREMJG et J.WALLEM

BORM qut m'ont en6etgné toute ta beauté de ta théorte ctné- ttque de6 gaz, avec une gentttte66e rarement rencontrée. Je

te6 remercte tré6 cordtatement.

J'at trouvé en J.W.TURMER un camarade qu'aucune que6- tton, mathémattque en parttcutter, ne rebute. La pa66ton qu'tt a mt6e dan6 certatne6 de no6 dt6cu66ton6, n'a d' égate que 6a dt6pontbtttté. Jt 6att à quet potnt je tut en 6ut6 redevabte.

J'at eu te grand avantage de cottaborer, tout au tong d

ce travatt, avec te Docteur lO.HORSTHEMKE. Se6 compétence6

dan6 ta théorte de6 proce66u6 6tocha6ttque6 m'ont été d'un

tré6 grand 6ecour6. Je te remercte trè6 6tncèrement.

(6)

d’une mantéAe ou d'une autAe, m'ont atdé à Aéalt^eA cette thê^e de doctorat. Je pen^e en paAtlculteA a. J. L .VENEUBOURG,

J. S. TURNER, M.BAUS, K.KJTAHARA, A.VAN NVPELSEER, R.LEEEVER, B.HAVEZ, E.KESTEMONT, A.GRECOS, C.VAN VEN BRÛECK, T.ERNEUX H.LEMARCHANV et J.HÛUARV.

En^tn, me-i AemeActement^ vont tout paAttcultêAement à Mademot-i elle N. GALLANV, Madame S .VEREUMEAUX et Me^-iteuA6 P.KJNET et E.KERCKX pouA leuA genttlle-66e duAant ces années de thèse et leuA diligence dans la Aéallsatlon technique de ce tAavall.

VuAant ce tAavall, j'ai béné{^lclé d'un mandat d'assis­

tant B [mi-temps] aupAès du POOL VE PHySJQ_UE . J'al eu également le soutien ^InancleA des Instituts ïnteAnatlonaux de Physique et de Chimie fondés paA E.SOLVAV, ainsi que

des Actions de RecheAches ConceAtées, Convention n°76isnj.3.

(7)

I. QUELQUES ELEMENTS DE LA THEORIE DES

PROCESSUS STOCHASTIQUES. 1 5

1.1. Théorie des probabilités. 15

1.2. Variable aléatoire, valeur moyen­

ne et variance. 19

1.3. Deux théorèmes limites pour varia­

bles aléatoires indépendantes, iden­

tiquement distribuées. 22

1.4. Processus stochastiques. ■ 25

1.5. Processus Markoviens, 29

1.6. Equation maîtresse. 30

T.7. Processus de "vie et mort". 33

1.8. Propriétés générales de l’équation

maî tresse. 37

1.9. Propriétés spectrales de l'équation

maî tresse. 42

II. LA DESCRIPTION GLOBALE. 48

11.1, L'importance des fluctuations dans

les systèmes chimiques. 48

11.2. La description stochastique des fluctuations dans les systèmes

chimiques. • 51

(8)

11.5. Transition de phase de non-équilibre. 71.

11.6. Le problème des états absorbants. 81.

11.7. Système représentant un état pério­

dique du type "cycle limite". 88.

11.8. Quelques remarques sur les systèmes

non physico-chimique s. 93.

III. LA DESCRIPTION LOCALE. 99.

111.1. Description stochastique des systèmes chimiques non uniformes : équation

maîtresse "multivariée". 100

111.2. Quelques résultats exacts. 103

111.3. La description globale en tant que

limite de la description locale. 111 111.4. Méthodes de résolutiort approximatives. 116

111.5. La théorie "champ moyen" des fluctua­

tions : équation maîtresse non-linéaire. 123

111.6. Propriétés générales de l'équation maît­

resse non-linéaire. 128

III.7. Comportement asymptotique de l'équation

maîtresse non-linéaire. 1 30

(9)

CONCLUSION. 149

R. 1 REFERENCES.

(10)

formes d'un très grand nombre de particules. Bien que ces particules interagissent entre elles suivant des lois bien déterminées, leur mouvement est néanmoins extrê mement dés ordonné et revêt plutôt un caractère chaotique.

A première vue, on est tenté d'en conclure que les pro­

priétés d'un tel système sont d'une complexité telle qu'il doit être impossible d'y déceler la moindre trace de loi. L'expérience nous montre cependant qu'il en va tout autrement et qu'au contraire les systèmes macroscopi ques obéissent à des lois simples et reproductibles 4

C'est le rôle de la mécanique statistique d'étudier la relation entre ces lois et les propriétés microscopiques

. V, - 82, 88„.

(mécaniques) du systèmes . Touiours est-il que

l'existence même de ces lois montre que l'on peut trouver une réponse satisfaisante a la plupart des questions

concernant les systèmes macroscopiques, moyennant la connaissance d'un nombre restreint de variables que nous appellerons "macrovariables". Ainsi par exemple, la connaissance des macrovariables température, densité et vitesse hydrodynamique suffit pour déterminer bon nombre des propriétés d'un fluide ; un système chimique est pratiquement déterminé par la simple connaissance de la concentration des substances qui le composent etc...

La description d'un système â l'aide des macrova­

riables constitue ce qu'on appelle une "description ma­

croscopique". Celle-ci sera complète si elle permet de

(11)

déterminer l'état du système, non seulement â un instant donné, mais également à tout instant ultérieur. Cepen­

dant, un état macroscopique est toujours associé à des transitions rapides entre différents états microscopiques.

Ainsi par exemple, le nombre de particules dans un volume unitaire (la concentration) n'est jamais rigoureusement constant, même à l'équilibre thermodynamique. Ces dévia­

tions ont une origine mécanique mais, â cause de la complexité des interactions intermoléculaires, elles apparaissent à l'observateur comme des événements aléa­

toires. Nous les appellerons dès lors "fluctuations".

A l'équilibre thermodynamique, l'étude des fluc­

tuations se fait usuellement par les méthodes de la méca­

nique statistique. En l'absence de phénomènes critiques, on montre que la probabilité d'une fluctuation est régie par une loi générale, proposée pour la première fois par T.- . • 509

Einstein :

exp

2 k (Ô^S)

B eq

O)

où {ÔX} = {X - X 1 représente la fluctuation des e q

variables extensives {X} autour de leurs valeurs

d'équilibre {X } : k„ est la constante de Boltzmann et

2 , eq B

(6 S) désigne la variation seconde de l'entropie liée e q

à la fluctuation des {x} . Lorsque l'ensemble {x} mesure des

"nombres de particules" dans un système dilué (idéal), la re- 3 4 , .

lation (1) se réduit à une loi de Poisson ’ . Ainsi, la pro­

babilité de trouver Xj^ particules (atomes ou molécules) de la substance k dans un volume V, sera donnée par

P ( X, ) = eq k

\ -X

(2)

(12)

où représente la valeur macroscopique associée à à l'équilibre thermodynamique. On vérifiera aisé­

ment que

(3)

où Xj^ désigne la concentration macroscopique de k et le symbole <...> , la moyenne prise sur ‘

système macro scopique (V <=° , Xj^->o° , X^/V < °°), les fluctuations relatives sont très petites, puisque

0(

(4)

En d'autres termes, lorsque la relation d'Einstein est valide, il existe une distinction nette entre les grandeurs macroscopiques et leurs fluctuations. Plus encore, nous pouvons montrer en toute généralité que dans ce cas la fonction de probabilité associée aux variables extensives Xj,..., X^ prend, pour un système macroscopique, la forme suivante^ :

P ( X J , . . . , X^ )

n 2-Xp ] - - I

i,j = l

a. . (X. - X . ) (X . - X . ) i,J 1 1 J J

(5) c'est-à-dire une distribution de Gauss centrée sur l'état d'équilibre.

La relation d'Einstein (1) suppose la stabilité de l'état d'équilibre. Dans ce cas S est maximum et donc

(62 < 0. Cependant, lorsque l'on s'approche d'un point critique de transition de phase, comme par exemple la transition liquide-vapeur, (6 2 tend vers zéro.

(13)

En termes mathématiques, cela signifie qu'il faut tenir compte, dans l'expression de la probabilité, des varia­

tions de S d'ordre supérieur â deux. Il est clair que dans ce cas la relation (1) cesse d’être appli­

cable. Du point de vue de la physique, lors du changement de phase le système acquiert un caractère cohérent,

dominé par des fluctuations "géantes" à longue portée 33 34 qui brisent parfois la symétrie spatiale initiale ’ Ces propriétés fascinantes ont suscité de nombreux tra­

vaux de recherche sur le comportement des fluctuations au voisinage des régimes critiques. De ce fait, il

existe aujourd'hui une théorie bien établie - introduite essentiellement par Landau et complétée par Kadanoff et

iT-T 4,20,21 . ^ J.

Wilson -qui permet des a présent detudier en détail les propriétés du système au voisinage d'un point critique de transition de phase du second ordre22

Les propriétés des fluctuations dans lessystèmes de non-équilibre sont par contre bien moins connues. La raison en est que, même au niveau d'une approche macros­

copique, la résolution du problème posé dépasse souvent nos connaissances mathématiques actuelles. L'exemple classique est le problème de la turbulence : posé voilà un siècle, il n'a pas à ce jour trouvé une réponse

comp1è te.

D'une manière générale, nous pouvons partager le dornaine de non-équilibre en deux régions distinctes :

"linéaire" et "non-linéaire". Cette distinction a été introduite par Glansdorff et Prigogine, dans le cadre de leurs études sur la thermodynamique des processus irré-

1 .... . ,

versibles . La première région est caractérisée par le fait que les "forces" thermodynamiques sont des f onc tions linéaires des "flux"^'^. Par exemple, si nous maintenons les deux extrémités d'une barre métallique à des tempéra­

tures différentes, il s'établit entre ces deux extrémités

(14)

un courant de chaleur. La contrainte, c'est-â-dire le maintien d'une différence de température, engendre ainsi une "force", liée au gradient de température, qui provoque à son tour un

"flux", c'est-à-dire un courant de chaleur. Si la contrainte est faible, c'est-à-dire si le système n'est pas "trop"

écarté de l'équilibre, le flux q est proportionnel à la force VT. Quelle que soit la condition initiale, le système évolue alors vers un état stationnaire unique, entièrement déterminé par les conditions aux bords, c'est- à-dire les contraintes^ Cette stabilité de l'état

stationnaire est tout-à-fait caractéristique du domaine linéaire. Elle résulte en fait d'un théorème général, dû à Prigogine, appelé "théorème de production d'entropie minimum" . Ce théorème nous montre que partant d'un 112 état initial donné, le système évolue toujours vers un état qui s'approche de l'équilibre d'aussi près que les conditions aux limites le permettent. L'état final ainsi atteint est stationnaire et se caractérise par le fait que la production d'entropie, due aux processus dissipa- tifs, est minimum.

Lorsque l'écart à l'équilibre, contrôlé par les contraintes extérieures (conditions aux limites),

augmente, flux et forces thermodynamiques ne peuvent plus être considérés comme.des fonctions linéaires l'un de l'autre et le théorème de production d'entropie minimum n'est dès lors plus applicable. De plus, si les

contraintes dépassent une certaine valeur critique, la stabilité de l'état stationnaire peut éventuellement être compromise. Le système peut alors subir des

changements de régimes, analogues aux transitions de phase de l'équilibre, pour aboutir à des états structurés,

(15)

tant dans l'espace que dans le temps, dont le maintien suppose une dissipation constante d'énergie. Ces types de transitions seront appelés "transitions de phase de non-équi1ibre"'^et les structures cohérentes ainsi

. . . 13

obtenues, "structures dis sipatives" ’ . Les cellules 91--- . 3 7

de Bénard , la réaction de Be1 ou soff-Zhabotinsky , le

92 , . 93 .

laser , les oscillations g 1 yco1y11ques constituent autant d'illustrations expérimentales des structures dissipâtives.

Notre thèse est consacrée à une étude théorique du problëm.e de l'émergence des instabilités, 'pouvant

induire une transition de phase de non-équilibre, et cela uniquement dans le cadre des systèmes chimiques en milieu idéal. L'avantage de ce choix réside dans le fait que nous pouvons nous limiter ici à l'étude des processus purement dissipatifs, c'est-à-dire sans mouve­

ment de convection, tout en laissant au système la possibilité de subir des transitions de phase de non-

équilibre, et donc de présenter des structures dis sipatives.

La cinétique chimique se fonde sur l'idée de collision aléatoire. Prenons parexemple un mélange gazeux ou une solution diluée de molécules chimiquement actives. Chaque molécule possède un mouvement aléatoire

(thermique) et de temps à autre elle rencontre, en une collision elle aussi aléatoire, une autre molécule du mélange. Selon le degré de dilution, la température,

la pression etc., ces collisions se répartissent en proportions définies en trois catégories distintes ;

collisions élastiques, qui conservent l'énergie cinétique ; collisions inélastiques qui transforment la structure

moléculaire interne ; collisions réactives qui entrai- nent la formation de nouveaux composés chimiques.

(16)

L'expérience nous montre qu’en dépit de la complexité du mouvement à l'échelle moléculaire, le déroulem.ent d'une réaction chimique peut être exprimé en terme d'un nombre restreint d'observables macroscopiques telles que la concentration des différents constituants, la température, la pression etc. Les fondateurs de la cinétique chimique ont très tôt su tirer parti de ce fait. Des 1879,Guldberg et Waage ont avancé l'idée que la vitesse d'une réaction est proportionnelle au nombre moyen de collisions entre les molécules réactives, lui même proportionnel au produit des puissances appropriées des concentrations C,,..., C des constituants . Cette24

1 n.

idée devait conduire a la loi bien connue dite d'"action de masse". Des progrès ultérieurs, notamment par

Arrhenius, Bodenstein, Polanyi et Eyring, ont permis de dégager les propriétés des coefficients de proportion­

nalité (constantes cinétiques) et de calculer leur dépendance par rapport aux grandeurs thermodynamiques,

n _ ^ ^ T . ^24,111

comme la température, la pression etc.

«

L'un des mérites de ces idées fut de conduire à une formulation quantitative simple de la cinétique chimique. Soit W le taux de la réaction a et k la

a a

constante cinétique correspondante. dépend en géné­

ral de k ainsi que des concentrations C,,...,C :

a ^ 1 ’ ’ n .

W EW(k ;C,,...,C) . Tenant compte de l'effet a a a 1 ’ ’ n

de toutes les réactions possibles, on trouve

A.é.actZon

- 1

a

V.la W (k ;C,.

a a 1 •••V - UI.(C,

(

6

)

OÙ le coefficient stoechiométrique A représente le

*Le coefficient stoechiométrique peut être positif, négatif ou nul.

(17)

nombre de molécules i intervenant dans la réaction a et W. la vitesse de production de i due aux réac-

^^ ... 24,111 tions chimiques

La description précédente suppose l'homogénéité du système. Cependant, des déviations par rapport à une composition homogène sont inévitables. Lorsqu'elles

se produisent, elles engendrent un phénomène de diffusion qui tend à rétablir l'homogénéité. La diffusion est un processus complexe d'origine moléculaire mais, lorsque le système ne comporte pas d'hétérogénéité comme des

interfaces ou des membranes, sa vitesse peut, elle aussi, se ramener à une expression simple en termes des gradients de composition. Pour un mélange "suffisamment" dilué, nous trouvons

(^C.) = D. V^C.

^ cU^^LLôZon ^ ^

(7)

où représente le coefficient de diffusion du composé i (coefficient de Fick) et , l'opérateur "Laplacien".

Le coefficient de diffusion, tout comme les constantes cinétiques , dépend de la température, pression, etc...

La combinaison des lois (6) et (7) nous conduit finalement à l'équation d'évolution macroscopique pour

1 . 3

les concentrations ;

8t a(r , t) Wi(C, C.)n D. y^C.(r

1 1 ~

t) X 1,2, ...,n.

(

8

)

Ce système d'équations différentielles aux dérivées partielles est usuellement appelé : système de

(18)

"réaction-diffusion". Son analyse a fait- et continue à faire- l’objet de nombreux travaux de recherches, notain-

2 6 3 0

ment par "l'école de Bruxelles" (pour une revue d'ensemble voir ref. 3). Cela a permis, entre autres, de préciser la nature des conditions requises pour

l'apparition d'une structure dissipative. En résumé, il faut tout d'abord que le schéma réactionnel comporte au moins une "boucle de rétroaction". Cela veut dire qu'il faut qu'au moins un des constituants chimiques puisse influencer, directement ou indirectement, soit sa propre vitesse d'apparition (auto-catalyse), soit celle d'un autre composé du mélange (cross-catalyse).

De plus, il faut que le système soit maintenu continuel­

lement hors d'équilibre, par exemple par le contrôle de la concentration d'un ou de plusieurs constituants (pour des aspects expérimentaux, voir la référence 113).

Il convient de remarquer que nous avons là les conditions nécessaires pour l'apparition d'une struc­

ture dissipative chimique. En fait, même lorsque ces conditions sont rem.plies, l'état stationnaire peut res­

ter stable. L'instabilité apparaît ici comme une propriété spécifique du système chimique envisagé.

Tous les écoulements deviennent turbulents, lorsque la vitesse hydrodynamique dépasse, une certaine valeur

critique. Pour les systèmes chimiques, il n'y a pas de règles générales. Il ne suffit pas de s'écarter

de l'équilibre, ni de superposer des boucles rétroactives, pour voir apparaître une structure dissipative chimique ; chaque cas doit faire l'objet d'une analyse séparée. La diversité des structures dissipatives chimiques est à l'image de cette spécificité. Nous pouvons avoir des états spatialement homogènes mais ordonnés dans le

temps (horloge chimique) ou, au contraire, des structures

(19)

La théorie macroscopique des structures dissipati- ves a été développée par Glansdorff et Prigogine dans

le cadre de ce qu'ils ont appelé la "thermodynamique généralisée" Cette théorie s'appuie essentiellement sur la validité de l'hypothèse dite d'"équilibre local"

que nous adopterons également dans la suite de notre travail. Cette hypothèse consiste â admettre que 1'état local d'un système de non équilibre peut être entièrement caractérisé à l'aide des mêmes variables qui caractéri­

sent son état global â l'équilibre thermodynamique.

Ainsi par exemple, la fonction de distribution de vites­

ses d'un gaz dilué de non-équilibre sera donnée,dans le cadre de cette hypothèse, par une distribution de

Maxwell-Boltzmann locale :

= P(r,t)( m 3/2 m

2TTk T(r , t) J ® B •

[v - u(r , t)]'

(9) où p(r,t) représente la densité locale, u(r,t) la

vitesse de convection locale et T(r,t) la température locale du système.

La thermodynamique généralisée a permis de mettre en évidence l'existence de propriétés physico-chimiques nouvelles, propres au non équilibre. Ce progrès dans le

Certains auteurs préfèrent la dénomination "thermody­

namique non linéaire" .

(20)

différentes régions de ce système. Comment de telles cor­

rélations peuvent-elles se produire dans un mélange

dilué, ou les molécules se comportent pratiquement com.me des sphères dures et n'interagissent entre elles que sur des distances de l'ordre de l'Angstrom ? Quelles sont les conséquences sur les propriétés statistiques du système ? Est-ce que le concept même d’une descri ption macroscopique aurait encore un sens dans le régime tran­

sitoire ?

Il est évident qu'une approche purement macrosco­

pique ne peut en aucun cas suffire à résoudre ce problème.

En effet, il faut d'une manière ou d'une autre tenir compte de l'incidence des événements moléculaires qui déterminent l'apparition d'une structure dissipative.

Devant la complexité démesurée d'une description micros­

copique rigoureuse, nous avons adopté dans cette thèse une approche interm.éd iai re , basée sur la théorie des processus stochastiques.

Le problème deé fluctuations dans les systèmes chimiques et sa formulation en termes des processus sto­

chastiques, peuvent être abordés sous différents aspects.

Si nous acceptons la validité des lois macroscopiques (6) et (7) , nous pouvons ajouter â l'équation (8) une "force" aléatoire et construire ainsi une

théorie des fluctuations "à la Langevin" 35

(21)

aux équations macroscopiques. Cette idée a surtout été

7 9 .96

développée par Bartholomay , McQuarrie et d'autres encore (pour un résumé, voir réf. 119), qui ont montré

que l'approche stochastique basée sur la théorie des procès sus dits de "vie et mort", constitue la généralisation

naturelle du concept même de la cinétique chimique . Ces auteurs ont analysé différents types de systèmes chimiques

(linéaire) et montré qu'à l'équilibre thermodynamique la distribution de probabilité, associée aux varibles de compositions, est donnée par une loi de Poisson (pour les systèmes non linéaires, voir la réf. 7). Par ailleurs, une analyse différente, basée essentiellement sur la loi d'Einstein (1), a conduit également à ce même résultat 118 Une généralisation de la formulation d'Einstein au non équilibre paraissait dès lors évident.

C'est Nicolis et Prigogine qui, les premiers, ont montré qu'il n'en était rien et qu'au contraire une dévia­

tion à la distribution de Poisson était inévitable, dès lors

, . , . . , .^ . . .2,14

que les systèmes de non équilibré étaient concernes

Ces résultats suscitèrent bien de contreverses^^ car, si du point de vue mathématique leurs validités ne laissaient aucun doute^^, les conséquences physiques qui en décou­

laient n'en étaient pas moins surprenantes. En effet, une déviation à la loi de Poisson implique des corrélations

Une démonstration rigoureuse V ^63,7 3

obtenue par Kurtz

de ce fait a été récemment X

(22)

processus chimiques envisagés. Une voie nouvelle vers la compréhension de l'origine des structures cohérentes au sein des systèmes dissipatifs était désormais ouverte.

Notre thèse de doctorat s'engage précisément sur cette même, voie .

Le chapitre I sera essentiellement consacré à un rappel des principes fondamentaux de la théorie des pro­

cessus stochastiques. La dérivation de l'équation maîtresse sera présentée et ses propriétés fondamentales largement discutées .

Dans le chapitre II nous analyserons en détail le comportement global des fluctuations, en absence de toute inhomogénéitée locale. Après avoir étudié quel­

ques modèles exactement Solubles, nous aborderons le prob­

lème de la résolution approximative de 1'équation maîtres se . La relation entre la description macroscopique et s t o ch a s -

tique sera alors discutée. Le cas des transitions vers

des états oscillants, du type "cycle limite", sera également analysé. Nous terminerons ce deuxième chapitre par quel­

ques remarques concernant la formulation stochastique des systèmes "non thermodynamiques", comme par exemple des sys­

tèmes écologiques ou sociales etc...

Dans le chapitre III nous aborderons le problème de la formulation locale des fluctuations. L'approxima­

tion de la diffusion par un processus stochastique du type

"promenade aléatoire", nous permettra de construire une équation maîtresse "multivariée" qui sera l'équi­

valent stochastique d'un système d'équations macrosco­

piques du type "réaction-diffusion". La relation entre

(23)

ment débattu. Une approximation, basée sur une hypothèse du type"invariance d’échelle", nous permettra de construire une version simplifiée de la description locale. L’évolu­

tion de la distibution de probabilité sera alors gouver­

née par une équation mairesse non linéaire qui dépend explicitement de la portée des corrélations (sous forme paramétrique). Grâce à cette équation, la relation entre

la "longueur de cohérence" et la stabilité du système sera établie.

(24)

La théorie des probabilités aborde l'étude des phénomènes aléatoires, c'est-à-dire des phénomènes dont le déroulement n'est pas sujet à des lois d'évolution déterministes. Ainsi par exemple, si on jette un dé il n'est pas certain qu'un as apparaisse, même si on répète l'expérience un grand nombre de fois. Cependant, empiriquement on constate que la "chance" de ne pas

observer un as diminue au fur et à mesure que l'on augment le nombre des essais. Plus précisément, supposons qu'au cours d'une série de n expériences identiques et indé­

pendantes, un certain résultat p se produise v fois.

Le rapport v/n , appelé "fréquence relative" de p , a en général un caractère aléatoire lorsque n est petit.

Mais en pratique on constate que la fréquence relative se stabilise lorsqu'on augmente le nombre des expériences et se rapproche d'une valeur limite bien précise. Cette

"stabilité" de la fréquence relative est en réalité une des lois les plus caractéristiques des phénomènes aléa­

toires et c'est d'ailleurs sur elle que repose toute la théorie classique des probabilités. Ainsi nous pouvons écrire

llm v/n

n-^oo P{p}

(I. 1 )

p{p} est appelé la "probabilité" de p . Avant d'aller plus loin, il convient de remarquer que la

relation (I. 1) , telle que nous l'avons établie, exprime simplement notre notion intuitive de la probabilité comme

(25)

la notion de probabilité.

A l'origine, la théorie des probabilités était essen­

tiellement conçue pour aborder l'étude des jeux de hasard.

On définissait alors la probabilité P{p} d'un résultat p de la manière suivante : si p pouvait se réaliser s fois sur un total de n épreuves "équiprobables", alors on posait

P{p}=s/n. (1.2)

Ainsi, en jetant un dé on peut obtenir un nombre pair de trois façons, à partir de six cas "équiprobables" ;

c'est-à-dire p{p}=3/6=l/2 . Cette manière de définir la probabilité a cependant un inconvénient majeur. En effet, le sens du mot "équiprobable" est le même que celui de

l'expression "avec des probabilités égales" que nous n'avons pas encore défini .

Le traitement moderne de la théorie des probabilité est avant tout axiom.atique. On peut le rés urne r de la

manière suivante (voir les ref. 11 et 12).

Soit E l'ensemble de tous les résultats possibles d'une expérience qu'on appelle "espace des événements",

"espace des échantillons" ou encore "l'ensemble fondamental".

Chaque résultat, c'est-à-dire chaque élément de E, est appelé "un point" de E. Un "événement" A est un ensemble

(26)

l'"événement certain".

A tout événement A associons un nombre non-négatif représenté par . On dit que p{a} est la probabilité de l'événement A si et seulement si il satisfait aux quatre conditions suivantes, appelées "axiomes de la théorie des probabilités".

1°) Quel que soit l'événement A,

0 £ P{a} < 1.

(1.3)

2°) Si E représente l'espace des événements alors

p{e} = 1.

(1.4)

3°) Si A et B sont deux événements mutuellement exclusifs, c'est-à-dire si l'obtention simultanée de A et B est un événement impossible, alors

p{a ou b} = p{a} + p{b}

(1.5) ce qui veut dire que la probabilité de trouver, au cours d'une expérience donnée, soit A soit B est donné par la somme des probabilités de ces deux événements.

(27)

(

1

.

6

)

Remarquons qu'à l'aide de l'axiome 3 et par induction

mathématique, on peut montrer que pour toute suite d'événe­

ments finis Aj, mutuellement exclusifs, on a

p{Aj ou ... ou A„} = P{A,1+ ... + P{A^} .

(1.7)

Soulignons que, malgré cela, le quatrième axiome n'est pas une conséquence de la troisième sauf si l'espace d'état E est fini, auquel cas l'axiome 4 devient redondant.

A.l'aide de quelques théorèmes

ces quatre axiomes on peut démontrer dont voici les plus utiles^

a) si $ est l'ensemble vide alors

P{$} = 0.

(

1

.

8

)

b) si A et B sont deux événement quelconques, alors

p{AouB} = p{a} + p{b} - PjAetB},

(1.9) ce qui veut dire que la probabilité d'avoir A ou B est

donnée par la somme des probabilités de ces deux événements, moins la probabilité de leur réalisation simultanée.

(28)

1.2. Variable aléatoire, valeur moyenne et variance.

Soit E l'ensemble des résultats possibles d'une expérience. Nous pouvons caractériser chaque résultat par un nombre réel X. La variable X peut des lors prendre une valeur quelconque, non prévisible, chaque fois que l'on répété l'expérience. Une telle variable est appelée

"variable aléatoire".

Une variable aléatoire est donc une fonction de E

dans l'ensemble R des nombres réels - ou dans un s ous-en semb1e de R - telle que l'inverse de chaque intervalle de R soit un événement de E.

L'ensemble des valeurs possibles d'une variable aléa­

toire est appelée "espace d'état". Une variable aléatcdre est entièrement définie par son espace d'état qui peut être discret ou continu. Considérons d'abord le cas discret.

Soit X, .x„,...,x l'ensemble des valeurs possibles de X correspondant aux événements Ej,E2, ... ,E^ de l'ensemble E.

A chaque événement E^ il correspond donc un nombre x^ et, inversement, â chaque valeur x^ il correspond un événement E. . De même, la probabilité P{E. } d'un événement E. est en

1 1 1

fait équivalente à la probabilité pour que la variable aléa­

toire X prenne la valeur x^. Cette dernière probabilité

(29)

est habituellement représentée par

p{x

= x.} . Définissons à présent la fonction

P(x^) = P{x-x.}

(I. 1 1)

appelée la fonction "distribution de probabilité "de X.

P(x^) est donc une fonction, à valeur non négative, telle que

i=l I

P(x. ) 1

.

(

1

.

12

)

On appelle "espérance mathématique" ou encore "valeur moyenne" de X, la grandeur <X> définie par

<X>

n

= I

i=l

X.1 P(x. ) .

(1.13)

Notons que si on admet une "loi des grands nombres" pour l'exemple considéré (autrement dit si on admet que la probabilité associée à un événement donné est la valeur

limite de la fréquence relative de cet événement) alors l'espérance mathématique n'est rien d'autre que la moyenne arithmétique des résultats, obtenus en répétant l'expérience en question une infinité de fois. Nous aurons l'occasion de revenir sur ce problème dans le paragraphe suivant.

2

. ,

On appelle "variance" de X, la grandeur O définre par

O2

<(6X)^> I (x. - <X>)^ P(x. ) .

i=l (1.14)

La variance est en fait une mesure de la dispersion ou encore de la "fluctuation" de la variable aléatoire autour d.e sa valeur moyenne.

(30)

Lorsque l'espace d'état est continu, on associe à chaque événement un "intervalle" donné, choisi parmi les valeurs possibles de la variables aléatoire. On définit alors la fonction P(x) , appelée "densité de probabi1ité", de telle manière que

fb

dx P(x) = P{a< X< b} ,

^ (1.15)

où p{a<X<b} représente la probabilité pour que la variable aléatoire X prenne une valeur comprise entre a et b . Remarquons que

P(x) dx = P{x< X<x + dx} .

(1.16)

tout comme pour le cas discret, nous avons

»

dx P(x) = 1

•'R

»

dxxP(x) - <X>

•'r

2 2

dx (x - <X>) P(x) = a ,

•’r

(1.17)

où R représente l'espace d'état de X.

De plus,

e t

(31)

1.3. Deux théorèmes limites pour variables aléatoires indépendantes, identiquement distribuées.

On dit des événements Ej,...,E^ qu'ils sont

"indépendants" * si la probabilité de leur réalisation simultanée se réduit a un produit de probabilités asso­

ciées à chacun d'eux :

P{E, et E„ et . . .et E } = P{E,}P{E^} . . .P{E }.

I / n 1 2 n

(1.18)

Procédant comme pour la relation (I.ll), nous pouvons associer â chaque événement E. une variable aléatoire X.

1 1

et définir ainsi une fonction de probabilité "multivariée" :

P(x,;...;x ) = P{X,= x,et... et X =x }.

1 n 11 n n

(1.19)

La comparaison avec (1.18) nous donne :

P(x .;x^) = P(Xj)...P(x^) .

(

1

.

20

)

Dans ce paragraphe nous nous intéresserons aux propriétés des variables aléatoires qui, d'une part, obé­

issent a la relation (1.20) et, d'autre part, admettent 1a même loi de probabilité, c'est-â-dire :

P{X,=x} = P{X =x} = ... = P{X =x}

1 / n

(

1

.

21

)

De telles varibles aléatoires sont appelées "indépendantes et identiquement distribuées". On vérifiera aisément que

Certains auteurs préfèrent la dénomination "statistiquement indépendant".

(32)

dans ce cas

<Xj> = <X2> = ... = <X^> E y ;

<ôX^ôXj> = 0 pour tout i j ;

<(6Xj)^> = ... = <(ôX^)^> E a^,

avec

(

1

.

22

)

<ôx.ôx.>

=

y

(x.- <X.>)(x.- <X.>)P(x, ; . . .X ).

11 ^ 1 i j J 1 n

X, .. .X

1 n

(1.23) La grandeur <ÔX^6X.> est usuellement appelée "covariance"

de X.,X.. La covariance mesure en fait 1'"inf1uen ce" de la 1 J

réalisation d'un événement sur un autre.

Dans la suite nous nous intéresserons essentiel­

lement aux propriétés de la variable aléatoire définie par la relation

S = X, + X. +

n ) 2 . + X .n

(1.24) Si nous supposons que y < °° , nous pouvons démontrer (voir ref. 12, page 243) qu'à la limite n -> «>,

|s^/n - y I ->■ 0 avec probabilité 1.

(1.25)

Cette relation importante est usuellement appelée "loi des grands nombres". Elle montre que la moyenne arithmétique des {X^} tend, avec probabilité 1, vers la valeur moyenne y, lorsque n -*■ OO

(33)

Dans les problèmes d'intérêt pratique, n est en général fini. C'est le cas par exemple lorsque les {X^}

représentent le résultat d'une série de mesures. Il est donc crucial, ne serait-ce que pour cette raison, d'avoir une estimation de l'écart de S^/n par rapport à y., c'est- à-dire de la "fluctuation" de S^/n autour de y. Du point de vue mathématique, cela revient à calculer en quelque sorte la "correction" à la loi des grands nombres, interprétée alors comme le terme dominant du développement asymptotique de S^/n . Plus précisément, nous nous posons la question de savoir comment se comporte la différence - ny , lors­

que n “ .

La réponse à cette question se formule par le biais d'un théorème fondamental de la théorie des probabilités, appelé "théorème central limite". En voici l’énoncé ;

Si y et O existent alors, quelle que soit la valeur de la variable réelle Y, lorsque n-»-«»

S - n y

P { --—--- < Y I <î> ( Y ) 0 / n

(1.26) où $(Y) est la fonction de distribution "normale" :

<KY) 1 /2t\ .

Y dz e

Z2

■y

(1.27)

La relation (1.26) représente la forme classique du théorème central limite. Elle nous montre que la fluc­

tuation de S , mesurée par la racine carrée de l'écart

" 2

quadratique moyenne ny) > , se comporte comme:

r , 2^^/^ /■ 2^'/2 1/2

(<(S^-ny)^>) E (<(ÔS^) >) ~ 0(n’'^)

(1.28)

(34)

L'intérêt du théorème central limite est considéra­

ble tant du point de vue conceptuel que de ses applications diverses qui vont des sciences physiques jusqu'aux sciences humaines. Nous aurons l'occasion d'illustrer quelques unes des applications de ce théorème dans les chapitres II et III.

Notons pour finir qu'il est possible de réécrire (1.26) sous la forme

p{s<s

/n<s + dsl ~ —exp

^ a /27r/n 'I

I - n ^ ^ ~ ^ ^ - |

J

dS .

(1.29)

Le membre de droite de cette relation est usuellement appelé une "Gaussienne".

1.4. Processus Stochastiques

Soit X une variable aléatoire définie par son espace d'état R et soit Y(t) = f(X,t) une fonction, â valeur

réelle, de X et d'un paramètre auxilicre t. Y(t) peut être vu comme une collection de "fonctions modèles" ou "réali­

sations", chacune d'entre elles étant obtenue en assignant à X une de ses valeurs possibles x. Un tel Y(t) est appelé

"processus stochastique" et chaque y(t) = f(x,t) est appelé une "réalisation". Un processus stochastique est défini par l'ensemble de ses réalisations.

Du point de vue pratique, l'intérêt des processus stochastiques réside essentiellement dans le fait que le paramètre t peut représenter le temps. Ainsi, grâce à cette théorie, nous pouvons "simuler" la dynamique d'un système lorsque cette dynamique est trop complexe pour permettre une approche rigoureuse. La théorie du mouvement Brownien95

96 . 997

la cinétique chimique , l'hydrodynamique fluctuante ’ constituent autant d'exemples d'application de la théorie des processus stochastiques.

(35)

Considérons la fonction

yj.t^ n t^)dyidy2. • dy.n

appelée "densité de probabilité jointe" â n événements . Elle représente la probabilité pour que Y(tj) prenne des valeurs comprises entre et que ¥(12) prenne des valeurs comprises entre y2 et y2 + dy2 etc...

Comme la fonction P est une densité de proba- n

bilité, elle doit satisfaire aux trois conditions suivantes

(i) P > 0.

n

(1.30)

(ii) P^ doit rester invariant si on permute le couple

^^i’ ^i^ avec (yj’ pour tout i,j = ,l,2,...,n.

(1.31)

(1.32)

où l'intégrale porte sur toutes les valeurs possibles de Y.

iii) P dy

n n = P

n-1 e t

Jusqu'à présent, nous avons supposé que les réalisation y^(t) (i = 1, 2,...) étaient continues.

Lorsque les réalisations sont discrètes on introduit la fonction "distribution de probabilité jointe"

P„(y,.t, ;y2.t2i ... ;y ,t^)

(36)

qui représente la probabilité pour que Y(tj) = y ^ ;

Y(t„) =y„ ; ... ; Y(t ) =y . Il est clair que la distribution

2 2 n n

de probabilité jointe doit obéir aux mêmes conditions que la densité de probabilité jointe avec toutefois une légère modification sur la condition (iii) qui doit être remplacée par la condition

y P = P ,

n n-1 e t P. =

n (1.33)

Dans la suite, nous nous limiterons au cas des réalisations discrètes, la généralisation au cas continu pouvant se faire sans grande difficulté ’ 1112. Ce choix est essentielle­

ment motivé par le fait que les problèmes traités dans cette thèse sont pratiquement tous de nature discrète.

Considérons à présent la fonction

’T 1 • • • > K 5 I )m m n/m

(1.34)

appelée "probabilité conditionnelle". Elle représente la probabilité pour que Y(tj) = Yj > .«. î ~ ^n sachant que Y(Xj) =Çj;...;Y(t^^) . La probabilité conditionnelle est définie par la relation

n/m P / P . n+m m

C1 ai rement

"n/m = ’•

(1.35)

(1.36)

(37)

De plus, utilisant la condition (1.31) il est facile de voir que est invariant pour les permutations des

^^i’*"i^ avec » PO'Jt tout i,j = l,.,.,n , ainsi que pour les permutations des avec , pour tout

k,Z=

l,...,m . Nous pouvons donc choisir de ranger les événements dans n/m’ selon leur ordre chronologique.

Soit t, < t< .... < t . Utilisant la définition

1 2 n

(1.35) , on peut facilement vérifier que

’l/n-l'’'n>5 l’V-l

; y

^1^

(1.37)

ce qui nous montre que pour déterminer la fonction de probabilité au temps t^ , nous avons besoin de connaîtr.e

toute 1'"histoire” du processus envisagé, depuis tj jusqu'au t^_j . On imagine sans peine la difficulté considérable

que peut poser un tel problème. Une simplification consé­

quente est offerte par la théorie des processus "Markovien" .

(38)

1.5. Processus Markoviens

On appelle "processus de Markov" ou "processus Markovien" un processus stochastique pour lequel

n n ' m m 11

; ... ;y^,t^ | .

avec T,<...<T<t,<...<t

1 ml n

(1.38)

Utilisant cette définition, nous pouvons réécrire la relation (1.37) sous la forme :

P„(y,,t, ; ... - P, (y, . t, ) P,/, (Pj, | y, , t, )

••• 5/l<Pn-'^n lyn-l-Vl)’

avec t, < t„ < .. . < t

1 2 n

(1.39)

ce qui nous montre que la fonction de probabilité au temps t est entièrement déterminée par la simple connaissance

n

de Pj(yj,tj) (la condition initiale) et des probabilités con ditionnelles P,,,(y.,t.| y. ,,t. ,) (la loi d'évolution).

1/1 1 1' '1-1 1-1

En sommant les deux membres de (1.39) sur toutes les valeurs possibles de V2 * ^ ^ ’ rious trouvons

P,(y, , t J ; y^,t^) = P,(y,,t,) I P,,,(y,,t, y,,t,) P^l’ 1 i/p^2’ 2 -^r 1

<^1 < ^2< >^3

(1.40)

(39)

ce qui, grâce â (1.35), prend la forme

Pl/](y3.t3 1 Yj .t]) =

I

Pj/j(y3»t3 I y2»t2) P,/j(y2.t2 I ’

^2

t, < t2 < t3 .

(1.41 ) Cette relation caractérise entièrement un proces­

sus de Markov. On l'appelle usuellement "équation de Chapman-KoImogorov". Elle sert parfois comme, définition pour un processus Markovien.

1.6. Equation maîtresse.

Reprenons l'équation de Chapman-KoImogorov (1.41).

En posant

t, - ; tj = t ; t3.-t.At;

y, ' j’o ; yz ■ 1 ; >'3 ” J

on trouve

Pj^j(j , t + At |y^,t^) = I P|^j(j,t + At] i,t) (i,t I y^,t^) , i

avec At > 0 et t > t .

O

(1.42) Nous supposerons tout d'abord que pour tout i,j la dérivée première par rapport à t de Pj^j(j,t | i,l) existe pour tout t > t . Soit

O

W„(i j) = l'im I P,/,(j,t + At I i,t) - P^^j ( j , t | i, t) At + 0 At "1/i

t > t

O

(1.43)

(40)

W^(i->- j) est appelé "probabilité de transition par unité de temps" ou, plus simplement, "probabilité de transition".

La fonction Pj^j(j,t| i,t) représente la probabilité conditionnelle pour que Y(t) = j sachant que Y(t) = i. Clai­

rement ceci est un événement impossible sauf si i=j auquel cas il devient un événement certain. Nous avons donc

P|/i(3,t| i,t) . 6^^; .

Il est des lors facile de vérifier que

W^(i-^j) 0 pour tout i ^ j e t

^ W ( i j ) - 0 ;

ce qui implique que

( i -> i ) < 0 .

(1.45)

(1.46)

(1.47)

D’autre part, utilisant la relation (1.44) nous pouvons écrire (1.43) sous la forme :

Pj^j(j,t+At|i,t) = 6^ : + Atw^(i->j) + o(At).

(1.48)

Notre deuxieme hypothèse consiste à admettre que dans la relation (1.43) le passage à la limite est uniforme en i. Grâce à cette hypothèse nous pouvons porter la relation (1.48) dans (1.42), diviser par At et prendre la limite At->-0, sans nous soucier de la somme sur i. Cela nous donne :

_d_

dt \ W^(i -> j) P]/,(i,t

(1.49)

(41)

C’est l’équation de Feller - Kolmogorov que l'on appelle parfois l'équation "Forward" de Kolmogorov. Notons qu'il est possible d'établir une équation analogue â (1.49) où la dérivée temporelle porterait sur t^. Dans ce cas l'équa­

tion est appelée "Backward" de Kolmogorov (voir ref. 12, page 470). Par ailleurs, en multipliant les deux membres de (1.49) par sommant sur toutes les valeurs possibles de y^, on trouve :

^P(j.t) = Jw^(i->j)P(i,t)

^ (1.50)

où, pour simplifier l'écriture, nous avons omis l'indice "1"

dans P(i,t). Tenant compte des relations (1.45), (1.46) et (1.47), nous pouvons réécrire (1.50) sous la forme :

•^P(j,t) = ^|w^(i-!-j)P(i,t) -Wj.(j->i)P(j,t)|

• (1.51)

Cette relation est usuellement appelée "équation maîtresse".

Elle joue un rôle fondamental dans la théorie des proces­

sus Markoviens. Son analyse fera l'objet de la majeure partie de cette thèse.

Pour terminer ce paragraphe, remarquons qu'il est possible que dans certains cas les probabilités de transi­

tions dépendent explicitement de la distribution de proba­

bilité P(i,t); l'équation maîtresse est alors non-linéaire.

Un exemple de ce type de processus sera étudié en détail dans le chapitre III. De plus, jusqu'à présent nous nous sommes restreints à l'étude des systèmes ne comportant qu'une seule variable aléatoire. Il va sans dire que tous les

raisonnements développés jusqu'à présent restent valides quel que soit le nombre (fini) de variables aléatoires.

Des exemples seront détaillés dans les chapitres II et III.

(42)

1.7. Processus de "vie et mort".

Lorsque les probabilités conditionnelles ] (72 ’ ^2 ^ ^1 ’ ^ d'un processus stochastique ne dépendent du temps qu'à

travers la différence t^~ tj , on dit de ce processus qu'il est "homogène" dans le temps. Partant de la relation (1.43), il est facile de montrer que dans ce cas les probabilités de transition ( i -»■ j ) ne dépendent pas du temps et, pour bien les distinguer du cas général, nous les représenterons par . . L'équation maîtresse prend alors la forme :

d t P(j,t) = I W . P(i,t)

J ^ f J

(1.52)

La matrice W est usuellement appelée "matrice de tran­

sition". Ses propriétés seront détaillées dans le para­

graphe suivant.

Considérons à présent un processus Markovien X(t), homogène dans le temps, défini sur l'ensemble {0,1,2,...).

On dit que X(t) est un processus de "vie et mort" s'il obéît aux conditions suivantes' ’ ^0

1") Pj^j(X + l,t+At 1 x,t) = X^At + o(At) ; AtlO , X > 0.

2») Pj^ j(X - 1 , t + At 1 X, t) = y^At + o(At) ; At4-0 , X > 1 .

3°) Pj^|(X, t + At 1 X, t) = 1 -- (X^ + y„)At + o(At) ; AthO , X > 0 X

4°) P|^j(X,t 1 Y,t) = pKr.

^X,Y •

5°) y = 0 ; X > 0

0 0 ^x > o,x= 1,2,... .

(1.53)

(43)

X est usuellement appelé probabilité de transition

A

de "vie" (création) et celle de "mort" (destruction).

Utilisant les conditions (1.53) il est facile de montrer^que

d tP(X,t) Xj^_j P(X - 1 , t) - X^P(X, t)

+ P(X + 1 ,t) - Pj^P(X,t) avec

^P(0,t) = - X^P(0,t) + PjPd.t)

(1.54)

La particularité de cette équation, par rapport à l'équa- maîtresse (1.52), tient au fait que dans le cas des proces­

sus de vie et mort la matrice de transition W est tridia- gonale :

W. .

= - ( X, + y, ) ÔVKr.

1,3 x.6^": ,

1 i,j-i

y. 6. .

xKr.

1 1,3+1 (1.55) Lorsque X = 0, l'état 0 devient "absorbant" car si le

° . .98

processus 1 atteind, il ne pourra plus le quitter. Dans ce cas

^P(0,t) = y^ P(1 ,t) > 0

(1.56)

ce qui montre que P(0,t) ne peut que croître dans le temps.

Sa valeur limite P(0) = ^ P(0,t) est appelée "probabilité d'absorption". Dans le paragraphe 6 du chapitre II, nous analyserons en détail un exraple de ce type de processus.

Considérons à présent la fonction Gj.(t) qui repré­

sente la probabilité pour que le temps de séjour du

(44)

processus dans i'état X soit au moins égal à t :

Gj^(t) = ?{T^ > t} ,

(1.57) où T symbolise le temps de séjour de X(t) dans l'état

X

Comme X(t) est un processus Markovien, il faut que

X.

P { >

t

+ s } =

P { Tx ^ t

} P { > s } .

(1.58) Par ailleurs, il est intuitivement clair que

P{ïj^> s} = Pj^j(X,t+s |X,t) + o(s)

(1.59)^

ce qui, grâce à la troisième condition dans (1.53), nous donne

- (Xj^ + y^^) Gj^(t)

(1.60) Sachant que P{T > 0} = 1, nous trouvons

X.

G( t) = e ^^X ^X^ ^

(1.61) ou encore

P{t < < t +'dt) = (Xj, + y^) e ^^X ^ ^X^ ^ dt.

(1.62) Utilisant cette dernière relation, on peut facilement montrer que

<T > = _______ !---

^^X' + Uy '

^ * (1.63)

La démonstration rigoureuse de cette relation dépasse le cadre de cette thèse (voir réf. 102).

(45)

La relation (1.62) s'avère extrêmement utile dans la pratique, car elle permet la construction directe de la trajectoire stochastique de X(t) (réalisation) à partir des probabilités de transition X et y . En effet, suppo-

X X

sons qu'à l'instant t le processus se trouve en X :

O O

X(t ) = X . Durant un certain intervalle de temps At, il ne se passera rien et le processus restera dans l'état X^. Et puis, il se produira une transition, soit vers 1 soit vers X^- ] . Il est intuitivement évident que les probabili­

tés associées à chacune de ces transitions sont données par (pour une démonstration rigoureuse voir ref.102) :

fi(x -V X + 1 ) = ^^‘x ^X^

fi(X->- X - 1) = ^x / ^^X ^X^ *

(1.64)

Soit X, le nouvel état : X(t +At.) = X, (il est clair

1 O 1 1

que Xj= X^ ± 1 ) . A nouveau, pendant un autre intervalle de temps At2»le processus séjournera dans Xj pour ensuite transi­

ter vers et ainsi de suite. L'image de l'évolution de X(t) apparait donc comme une "promenade aléatoire" sur la demie axe positive avec cependant la différence que pour X(t) les transitions se produisent à des intervalles de temps espacés d'une manière aléatoire . Connaissant la distribution des temps de séjour (1.62) et les probabi­

lités de transition (1.64), nous pouvons facilement cons­

truire des réalisations particulières de X(t), à l'aide d'un ordinateur digital, et de simuler ainsi le processus stochas-

. . 1 1 q

tique envisage . Cependant, il est évident que cette simu­

lation ne nous serait pas d'une grande utilité, aussi long­

temps que nous n'avons pas établi 1'unicit é de la solution de l'équation maîtresse . Ce problème sera abordé dans le paragraphe suivant.

(46)

1.8. Propriétés générales de l'équation maîtresse.

Considérons l'équation maîtresse (1.52) et soit

P^(X) E P(X,t=0) la distribution de probabilité à l'instant initial, avec

P (X) > 0 , X = 0, 1 ,2, . . . 0

1 P ’ •

X (1.65)

L'évolution de la fonction de probabilité est

entièrement déterminée par la matrice de transition VJ.

La comparaison avec le cas général (1.45-47) montre que W doit satisfaire aux conditions suivantes :

W. . > 0 pour tout i / j ,

W. . < 0

1,1 pour tout i , W. . = 0 .

1

,

(I.66)

Les propriétés spectrales de W seront détaillées dans le paragraphe suivant. Dans le présent paragraphe nous nous proposons d'étudier les propriétés de l'existence et de l'unicité de la solution de l'équation maîtresse.

100,101

Ce problème a surtout été développe par Feller ,

104.. . 99

Reuter et Ledermann ainsi que par Karlin et McGregor (pour une revue générale, voir le chapitre II de la référence 77). Les Con­

clusions obtenues peuvent être résumées de la manière suivantes :

Etant donnée une matrice de transition W, satisfai­

sant aux conditions (1.66), il existe au moins une fonction

(47)

P(X,t) qui. satisfait l'équation maîtresse ainsi que la condition (1.65), telle que

P(X,t) > 0, X = 0, 1 ,2, . . .

J] P(X,t) < 1 pour tout t 0 . X

En général, 1'inégalité dans la relation (1.68) ne peut pas être remplacée par une égalité (sauf à l'instant initial t=0).

En fait, on peut mon t r e r ' ^ que si

(1.67)

(

1

.

68

)

JP(X,t) = 1 pour tout t>0,

X (1.69)

alors P(X,t) est la solution unique de l'équatioit maîtresse.

Quoi qu'il en soit, la limite

llm

t P(X,t) P

eq(X)

(1.70) existe toujours et est indépendante de la condition

initiale (1.65). De plus P (X) obéit à la relation^^' : eq

I w

X X,Y eq 0

,

(1.71)

ce qui n'est rien d'autre que l'équation maîtresse (1.52) où l'on a annulé le membre de gauche, c'est-â-dire la dérivée temporelle de P(X,t). Si (1.71) admet une solution non-

triviale, alors on peut démontrer que (voir réf. 101,page 466) :

X (1.72)

Dans ce cas P (X) est usuellement appelée la distribution de probabilité stationnaire, de l'équation maîtresse . Remar­

quons que la condition (1.69) n'est en générale pas suffisante pour garantir l'existence d'une distribution de probabilité stationnaire, obéissant â (1.72). Un exemple classique est celui des processus de "naissance pure"

(48)

La démonstration de ces résultats est longue et relativement difficile à établir ; c'est pourquoi nous ne la donnerons pas ici (voir les références 100 et 104). Reste donc la question de savoir sous quelles conditions les rela­

tions (1.67) et (1.69) restent valides pour des temps arbi­

trairement longs.

La "non-négativité" des P(X,t) se trouve automati­

quement satisfaite, quelle que soit la forme de la matrice de transition W. En effet, comme P(X,t) est une fonction continue du tem.ps, si une de ses composantes devient négative il faut qu'elle passe nécessairement par la valeur zéro.

Soit T l'instant où, pour la première fois, une ou plusieurs composantes de P atteignent la valeur zéro. Si nous repré­

sentons par P(i,t) une de ces composantes, nous avons :

P(k,x) > 0 , k = 1,2, .. . ,i - 1 ,i + 1 , . . .

P(i,T) = 0

(1.73)

Tenant compte des relations (1.66), l'équation (1.52) prend la formie

dt P(i, t) = I W. . P(j,T) > 0

- j^i

t=T (1.74)

ce qui garantit la non-négativité des P(X,t), quelle que

soit la valeur de t > 0 . En particulier, si P (X) existe,

^ cq

alors P (X) > 0 pour tout X.

eq

Considérons â présent l'équation maîtresse (1.52) et sommons les deux membres sur j. Il vient :

I ^P(j,t) =

0

.

j (1.75)

Pour une démonstration rigoureuse de cette propriété, voir réf. 77, pages 68-70.

(49)

La question est évidemment de savoir sous quelles conditions nous pouvons permuter la dérivée par rapport au temps et la somme sur j, ce qui garantirait automatiquement la conserva­

tion de la norme et donc la validité de (1.69) pour tout t > 0 , puisque dans ce cas

d dt

I

j

0

.

(1.76) Cette relation est certainement correcte lorsque l’espace d'état de X(t) est fini . Dans le cas contraire, il faut et il suffit que la convergence de la série (1.75) soit unifOrme en t.

Remarquons tout d'abord que cela n'est pas toujours le cas et qu'au contraire il est possible de construire

facilement des contre-exemp1es où l'équation maîtresse admet- terait plus d'une solution (voir référence 105) .

D'une manière générale, il est relativement diffici1e de trouver des critères de convergence uniforme pratiques pour

(1.75), lorsque W est quelconque. Dans le cas particulier des processus de vie et mort, on peut montrer que la condi­

tion nécessaire et suffisante pour l'unicité de la solution de de l'équation maîtresse (1.54) est donnée par (voir réf.106) :

CO 00

i=0

I I

j=l

X. ... X. .

J J + 1

^j^j.l •••^j.i.l

oo •

(1.77)

Cette condition ne suffit pas cependant pour garantir 1'e xi s - tence d'une distribution de probabilité stationnaire

satisfaisant la condition de norrnalisabilité (1.72).

Quoiqu'il en soit, nous pouvons toujours écrire l'équation maîtresse (1.54), a la limitet->°° , sous la forme :

P (X + 1)

eq eq

(1.78)

En itérant cette relation, nous trouvons :

(50)

Peq(X) = P^^(O) O 1 X" 1

^1^2-••V”

Peq

(

0

)

X= 1 , 2 , . . . (1.79) où nous avons posé :

TT = 1

O TTn

X X,

O 1 'n-1

n= 1 , 2 ,

(I.80)

Si nous supposons que nous pouvons, grâce à écrire :

X^ / 0 (pas d'état absorbant â zéro), la condition de normalisation (1.72),

Peq(X)

00

X = 0, 1 ,2, .

(1.81)

ce qui pour 1'

nous donne immédiatement la condition nécessaire . existence de P (X) (normalisable) :

--- eq

00

k=0

I

< “

(1.82)

D'une manière générale, on peut démontrer que l'ergouicitë du processus stochastique considéi'é assure automatique­

ment l'existence d'une distribution de probabilité station-

12 Toi . . X .

naire ’ . Un processus de vie et mort est ergodique si et seulement si^'^:

OO et

ï

k=0

.

(1.83)

Comme nous l'avons déjà remarqué, l'analyse de l'équa­

tion maîtresse devient extrêmement difficile lorsque le processus stochastique considéré n'est pas du type vie et mort. Dans le paragraphe suivant, nous donnerons les quel­

ques propriétés, générales connues de l'équation maîtresse, en analysant les propriétés spectrales de la matrice W.

^ Il convient de remarquer que l'érgodicité est une condition suffisante pour l'unicité de la solution de l'équation maîtresse. Ainsi la

condition (1.83) implique nécessairement (1.77).

(51)

appareil mathématique qui dépasse le cadre de cette thèse.

Neanmoins, certaines de leurs propriétés peuvent s'obtenir en étudiant le comportement limite de la matrice finie

correspondante. Par ailleurs, dans la plupart des problèmes d'application pratique que nous aborderons, la variable alé­

atoire représente un "nombre de particules" dans un volume donné fini. Il est donc naturel de commencer l'étude de l'équation maîtresse d'abord dans le cas fini pour ensuite essayer d'étendre les résultats, lorsque cela est possible, au cas infini. Pour le cas particulier de la matrice de transition W, associée à l'équation maîtresse (1.52), le passage à la limite peut être justifié en toute généralité, grâce aux travaux de Reuter et Ledermann^. Pour compren­

dre cela, introduisons la matrice de transition de dimen­

sion (n+l)x(n+l), obéissant aux conditions (1.66) . L' équa­

tion maîtresse prend alors la forme suivante:

A.

dt

(j,t) =

n i=0

w<"îp<"hi,t)

^ > J

(1.84)

avec, comme condition initiale :

pj’^\x) >0, X=0,l,2... n

I P^"\x) < 1 .

X=0 ° (1.85)

Reuter et Ledermann ont réussi à démontrer que :

X

Pour un résumé détaillé de ces travaux, voir le chapitre II de la référence 77.

X

(52)

(

1

.

86

)

t) > P^’^^X.t)

I p*-^^\x,t) < 1 X=0

-t^m

n -> oo

P^''^(X,t)

P(X,t)

(1.87)

(

1

.

88

)

(1.89)

et cela, quelles que soient les valeurs de X et de t > 0.

Remarquons que ces relations démontrent l'existence de la solution de l'équation maîtresse (1.52) (voir le para­

graphe précédent).

Considérons à présent l'équation maîtresse (1.84) et soit A une valeur propre non nulle de la matrice W . Si nous

T !

représentons par W la matrice transposée de W et par P le

T _ , .

vecteur propre (de W ) correspondant a A, nous pouvons écrire : n

I

j=0

W. .P.T

J

y w.

. P. = AP. , i - 0, 1... n

j=0 J ^ '

(1.90)

où, pour simplifier l'écriture, nous avons omis 1'indice"(n)" . Soit P^ la plus grande composante, en valeur absolue, de P :

|p| > |p| , pour tout k = 0,l... n

“ (1.91)

Divisant (1.90) par | P^ | et séparant dans la somme la contribution j = i, nous trouvons :

l W. = - ^'i,i>

I m (1.92)

Passant à la valeur absolue et choisissant i =m, nous trouvons :

Figure

Updating...

Références

Updating...

Sujets connexes :