• Aucun résultat trouvé

Suites aléatoires et complexité

N/A
N/A
Protected

Academic year: 2021

Partager "Suites aléatoires et complexité"

Copied!
61
0
0

Texte intégral

(1)

SUITES ALEATOIRES ET COMPLEXITE par Claude Janvier RESUME ~1. Sc. Département de Mathématiques Université McGill.

Ce mémoire porte essentiellement sur les suites aléatoires. Après avoir défini le terme" loi de sélection" en s~inspirant de la définition de Church, nous nous attardons à l'étude de quelaues classes de lois de sé-lection. A quelques brefs ra~pels suivent les récents apports fournis à cette théorie par A.N. Kolmogorov et D. Loveland. Nous introduiso:~s ensuite

la théorie des machines de Turing de façon à pouvoir définir la notion de complexité d'une suite. De fait, nous introduisons un concept dû à Kolmo-gorov, lequel par contre, définit ce concept à partir de la théorie des fonc-tions récursives. De cette notion de complexité, nous déduisons certains tests pour déterminer le caractère aléatoire d'une suite, tests qui sont étu-dies par Martin-Lof. Dans cet ordre d'idées, nous proposons une généralisa-tion de ces nogénéralisa-tions de tests. Nous concluons en relatant quelques résultats obtenus par G.J. Chaitin et portant sur la notion de complexité.

(2)

'.

SUITES ALEATOIRES ET COMPLEXITE

par

Claude Janvier

Mémoire présenté en vue de l'obtention du grade de Maître ès Sciences

Département de Mathématiques Université McGi11

Avril 1969

e

(3)

REMERCIEMENTS

Je tiens au début de ce mémoire à exprimer toute ma gratitude envers le professeur D. Dawson. En plus de me proposer le sujet de cette thèse, il a

contribue par de nombreuses discussions et par ses encouragements à la realisation de ce travail.

(4)

Pa~e.

SOMMAIRE ... 1

IN'rn.ODUCTION ... Il • • • • • 2

CHAPITRE 1: • • • • • • • • • • • • • • Il . . . w . . . . 5

1. Loi de sélection ... ., ... . 6

II. Classes de lois de sélection .••••.••.•..••.•.•• 7

CHAPITRE II'' ••••••••••••••••••••••••••••.•••••••••••••••••••••••••••• 20

1:.

Machines de Turing et algorithmes 21 II. Complexité d'une suite ... 27

III. Tests pour déterminer les suites aléatoires

utilisant la notion de complexite ...•.••.•.•.•• 32

IV. Approximations numériques trouvees par

G.J. Chaltin ... _ ... 110 • • • • • • • • • • • • • • • • • • • • • • 51

CONCLUSION ~ ... '" • 'II . . . " • , . . . , . . . a . . . . '" . . . , • • .. • • • • • • • • • • • 53

(5)

· 1

SOMMAIRE

Le mémoire se propose de présenter les récents apports à la théorie des suites aléatoires. Au premier cha-pitre. on trouvera les résultats de

A.. N. Kolmogorov ( 8] et D. W. Loveland [ le)

J

0 Pour miel))(, situer le

lecteur, le tout sera précédé cl 'une hrève iotroduct.1.on ,w ,sujet;., de même que de que lques résultats antérieurs. Nous JI.' avons pas ~rl) hùn dE' présenter

i:nté-gralement. les théorèmes de cechapttre, ce ,Quiaur-ait enera'lné la

démonstl'a-tion d'un trop grand nombre. de :résultats :i.nt.ermédiai.reso Nous :(t.vons plutôt

préféré en esquisser. la. démonstration pOITr. '1)lu.!' parti culièrement anillyser leur port~e.

Au second chapitre se trouve une courte inittat:i.on à ta r.héoT'ie des machines de Turing. Grâce à. cel le-ci ,nous prouvons dan!" UJl\!ontexte nouveau

les conclusions qui se trouvent chez KOlmogorov : 9 ; et portantc:u" ,~

COID-plexitê d~une suite. Ensuite, de cette not.ion de complexité nou~ déduisons

certains r.ests pOUT déterminer te caractèrE' a.l éatoi re d' une 5lÜ.te, test.!' dont

traite Martin Lof dan!'

f

L l

J .

Nous 'terminons en compa.rant M~ \"o!!clusioTIS

avec celles de G. J. Chai tin qui apparaissen't dans

L

1 j ..

Bien en'tendH .. c/;\ mémoire n'entend prO?OSeT qu1une appt"oche partielle

à la notion dl aJéato:i .. re. En. ol\1s des oUV1."ages eités tout. a.u long de ce

tra-vaU, te lect:eur Qui ûmerait avoiT une vision T'lus globale des concepts abordés dan~ ce mémo11"~ eSl pri.é. de consulter les ouvrages de R. Carna:p,

Ernest Nagel P.t H, R~!:i.chenbach don't les titres figurent à la fin dp la biblio-graphie.

(6)

INTRODUCTION

C'est tout d'abord dans l'espoir d'établir un système d'axiomes pour la Théorie des ~robabilités Que les mathématiciens ont étudié la notion de suite aléatoire. Cette première démarche a eu tellement d'influence que toute recherche subsequente reflète d'une manière plus ou moins manifeste ce souci original. En réalité, les définitions que l'on retrouve pour le terme suite aléatoire sont inspirées de la nature même du hasard tel que perçu intuitivement par l'intelligence.

Pour mieux nous situer, tentons pour l'instant d'assigner une" proba-bUité " 1'1 quelques événements. En d'autres mots essayons de déterminer le facteur de vraisemblance selon lequel chacun des deux événements suivants se produira: l~s U.S.A. seront la première nation 1'1 atterrir sur la Lune, une

pièce de monnaie que Iton lance tombera sur" face ". Le second de ces évé-nements s'inscrit dans le schéma. de von Mises qui exige qu'une expérience puisse être répétée indéfiniment pour que l'on puisse attribuer une

probabi-ljté à un événement. En ce sens, l'ensemble de toutes les suites infinies

K1X2X3 ••• où chacun des Xi est P ou F~Qui résulteraient de toute expérience

OÙ 011 lance une pi.èce de monnaie indéfiniment, constitue l'espace échantil-tonnaJ de l'expérience ou le Merkmalraum. On se -refuse évidemment à accepter toutes sllite~ i.nfinies de D ou de F comme décri"ant le résultat d'une expérien-CE: aléato:'i.re. Par exemple. la suite infinie suivante PFPFPF •.• par sa

régulari-"té consri.tuerait une expérience où chacun des événements serait prévisible. °rimo, nous nous attendons à ce que la fréquence d'apparition des" faces" par exenple se stabilise à la longue ce qui déterminera la probabilité de 1'événement " face". Secondo nous rejetons la possibilité qu'une régularité trop grande se retrouve dans la suite car alors nous pourrions decouvrir une

(7)

• 3

loi qui régisse l'expérience. Mais comment et jusqu'à quel point peut-on dis-tinguer une certaine régularité dans une suite? Telle sera, de fait, une des Questions à laquelle nous tenterons principalement de répondre dans ce tra-vail. Il est bon de remarquer que nous n'avons considéré jusqu'ici que les suites infinies et que,de plus, les arguments qui apparaissent ci-haut n'ont aucune valeur pour les suites finies.

Bien que le projet de von Mises de donner à la Théorie des Probabilités un fondement axiomatique ait échoué ( car il s'était cantonné dans un cadre trop restreint par rapport aux phénomènes étudiés par cette théorie ), il con-vient de souligner comment le schéma qu'il s'était d'abord fixé peut être elar-gi. Cette courte digression contribuera d'ailleurs à montrer que le champ d'application des suites aléatoires est maIgre tout assez vaste.

Les événements complexes qui, de prime abord,ne semblent pas s'insérer dans le schéma de von Mises sont souvent décomposables en un nombre fini

d'e-vénements plus simples qui eux sont de caractère répétitif. Par exemple, la quantité de travail effectué quotidiennement par un ingénieur en communication,

le temps pris par une usine déterminée pour produire un certain moteur, l'ef-ficacité d'une équipe de techniciens ... constitue une décomposition naturelle, du premier événement que nous voulons étudier. Grâce à certaines règles pré-abblement deterrnïni::es, on peut alors à partir de ces sous-événements décou-VTir la probabilité de l'événement. Bien entendu, on aboutit quelques fois

à des sous-événements dont on ne dispose pas de répétitions potentiellement infinies. Cette lacune peut alors être comblee par l'etude des suites aléa-toires finies que nous aborderons à la fin de la première partie ( nous dépas-sons alors largement le schéma que s'etait donne von Mises ).

Notons aussi que le fait de se limiter aux suites construites à partir d'un nombre fini de symboles constitue une restriction bien faible, puisque

(8)

automatiquement la limite de nos techniques de mesure nous force à accepter une telle simplification.

Malgré tout ce réquisitoire en faveur d'une application possible de l'é-tude des suites aléatoires, il faut bien comprendre que nous ne nous propo-sons pas de donner une telle orientation à notre analyse. D'ailleurs, leur étude est assez rich~ en résultats pour constituer à elle seule une théorie très intéressante. De plus, comme nous le constaterons, de nombreux auteurs presupposent souvent le système axiomatique de la Théorie des Probabilités tel qu'établi par Kolmogorov comme antérieur à leurs recherches.

(9)

· 5

CHAPITRE l

Nous nous bornerons tout au long du travail aux suites dont les termes sont 0 ou 1. En d'autres termes, nous allons considérer l'espace

x. G: {D, 1}

1 i E: IN} c'est-à-dire X

=

{D, l}oo La remarque suivante simplifiera le symbolisme. Pour chaque x E X, on peut

faire correspondre un sous-ensemble Ac.1N comme suit~ n e: A si et seulement si x = 1 et vice versa. Nous appellerons A l'ensemble caractéristique

n

de x. Tel qu'indique plus haut pour qu'une suite soit aléatoire nous esti-mons que la fréquence des" l " ( ou des" 0 " ) doive converger. Voici

comment cette exigence est présentée formellement. Définition 1 On dit qu'une

n

suite x E X jouit de la PROPRIETE A si

L

:Um i=l n-+oo n X. l = p(x) où 0 ~ pex) ~ 1.

On appellera p(x) ta fréquence d'apparition de 1 dans x ou plus simplement la fréquence de 1 dans x.

En plus de cette régularité que constitue la fréquence, nous avons fait remarquer l'importance d'une absence de régularité.qui apparaît dans une sui-te aléatoire. Pour s'assurer de cetsui-te irrégularité, nous allons sélectionner des sous-suites de la suite etlldéfinir"comme aléatoires les suites qui don-nent des sous-suites dont la fréquence de " l " est pex). Nous exigeons que notre sélection soit assez irrégulière et que de plus elle soit "effect~vement"

calculable. La définition suivante est une généralisation de celle qui se trouve dans Church

[2]

et établit ce que l'on entend par loi de sélection. Dans ce qui suit nous conviendrons qu'une suite y détermine une sous-suite Xy de x définie comme suit: x - x x x y - nI n2 n3

suite si et seulement si y.

=

1.

1

où x. est un des termes de la

(10)

Io LOI DE SELECTION Définition 2

Une loi de sélection pour X est une double famille de fonctions générales récursives C voir po 26) fn et gn' n

*

l, 2, 3 .. 1

f n Nn- l x {a, l}n-l

-....

IN gn Nn- l x {O,

1J

n-l ~ {a, l}

pour .lesquelles nous avons pour toute x

=

xix20 0 0 eX fI et gl dont les domaines sont (No x {O, 1}0

sont des fonctions constantes dont les images sont res-pectivement kl et al C kl ES IN et al f 2Ckl , Xk ) = k2 1 g2Ckl , Xk ) = a2 01 fnCk l , k2, 000 kn_l' xk ' 1 xk ' o 0 0 2 xk n-l ) gnCkl' k2, . . . kn_l' xk ' 1 xk '000 2 xk n-l )

Pour tout n, dans 20

1 i

=

l, 2, .. 0 n-l

~

{a,

1} )

=

kn

=

:la

n

40 Pour tout k ~ N, il existe un n Ë IN

tel que fn(k l , k2, 000 )

=

k 50 lim sup a

=

l

n n-+«>

(Remarque: il est possible de considérer un cas plus général qui résulte-rait de l'élimination de 40 )

Définition 3 La sous-suite de x é X déterminée par une loi de

sélec-tion s est celle qui est déterminée par la"suite y dont l'ensemble caractéristique est = Il

(11)

• 7

fonction f

n un terme de la suite: xk qui est choisi ou non suivant que

n

a = 1 ou O. Par consequent la sous-suite sélectionnée dépend

n

a) des assignations antérieures: les k.

1. 8) de la nature des termes assignés: les xk

i

Définition 4 Soit F une loi de sélection. On dit qu'une suite X E X, qui jouit de la PROPRIETE A, jouit de la PRO-PRIETE B par rapport à F si

n

L

ai xki Hm i=l = p(x) (*) n-+co n

L

a. i=l 1.

...

et < k sont déterminées par F.

ou < an > >

n

En d'autres termes, x jouit de la PROPRIETE B par rapport à F si la fréquence des " l "

Remarque:

converge vers p(x).

Si k. = i pour tout i, alors (*) est équivalent à 1. n

L

a. x. 1 1 lim i=l = p(x) n-+co n

L

a. i=l 1.

La définition 2 admet plusieurs cas spéciaux. Nous allons en indiquer trois. Le premier est celui traité par von Mises et Church, le second est une généralisation proposée par D. W. Loveland dans [ 10] et le dernier s'applique aux suites finies et a été étudié par A. N. Kolmogorov dans [ 8 ].

II. CLASSES DE LOIS DE SELECTION

1. Premier cas: ~ les suites infinies.

La première classe de lois de selection que nous allons considérer est celle où les termes sont assignés dans l'ordre naturel c'est-à-dire Xl, X2 ' x3 .•. Formellement, c'est celle des lois où dans la déf. 3, ki = i pour tout i.

(12)

X

n_l• Nous noterons SI cette classe de lois de sélections. Ces lois de sélection imitent la façon dont un ~oueur parie dans un jeu de ha-sard. En effet, à chaque instant, le joueur gage ou passe en se fiant uni-quement aux résultats antérieurs du jeu. Il détermine en pariant une sous-suite de la sous-suite des résultats et il espère que la fréquence qu'il détermi-nera sera supérieure à celle inhérente au jeu. Evidemment, on suppose ceci irréalisable pour un jeu de hasard.

Feller a montré que ~our une loi s E SI préalablement déterminée, pres-que toutes les suites de X ont la propriété B par rapport à s. Dans le but de mieux caractériser 51 nous allons utiliser l'axiomatique habituelle de la Théorie des Probabilités et établir deux définitions. Nous convenons qu'une suite de Bernoulli est une suite infinie de variables aléatoires indépendantes

<

> .m

l pour lesquelles P{X1·

1 1=

=

Il

=

p

=

O}

=

1 - P

tout i. Par une suite de Bernoulli-Reichenbach à fréquence p, on entend pour

toute suite de" 0 " ou" l " dont la fréquence de toute section x1x2'" ~

( Xi E {D, l} ) a comme valeur limite p-fqm - of, où

-t

=

Xl

+

x2 + ... ~.

Voici deux théorèmes qui nous renseignent assez bien sur la classe SI' ( Pour les démonstrations voir ~3J pp 41-42 )

Théorème 1 Avec probabilité 1, une suite de Bernoulli jouit de la propriété B par rapport à n'importe quelle s E SI

Théorème 2 Toute suite qui jouit de la propriété B par rapport à

n'importe quelle s € SI est une suite de

Bernoulli-Reichenbach.

Il faut ajouter de plus que la conclusion de Feller est aussi valide pour un nombre dénombrable de s E SI puisque à chaque s on exclut un ensem-ble de mesure nulle.

(13)

• 9

Comme on l'a constaté jusqu'ici le problème de l'aléatoire est intime-ment relié à la notion de fonction générale récursive. De fait, quelques articles récents établissent une classification dans les suites aléatoires à partir de la classification des fonctions générales récursives. Un article non publié de P. Martin Lof et la dissertation de Ph. D. de D. Loveland

trai-tent de ce sujet.

La seconde classe de lois de sélectœon que nous allons aborder est une généralisation de SI suggérée par D. W. Loveland. Dans cette classe, les lois de sélection ne désignent pas forcement les termes d'une suite dans l'ordre habituel c'est-à-rlire Xl' x2 ••• En d'autres termes, dans la

défi-nition 3 il devient possible que ki ~ i. Notons cette classe S2. Imagi-nons un contexte où un tel stratagème de sélection pourrait s'effectuer. Un enfant reçoit une à une un tTès grand nombre de petites pastilles enveloppées dont beaucoup ne sont pas bonnes. Il existe un règlement qui l'oblige à man-ger toutes les pastilles qu'il développe, mais rien ne l'oblige à en dévelop-per une. L'enfant essaie donc d'éviter autant que possible les mauvâises pas-tilles , mais ne peut le faire qu'en considérant la nature des paspas-tilles déjà mangées. Alors, il dispose les pastilles en rangée et essaie en dégustant ici et là, en mangeant par exemple les pastilles 500,501, ..• 550 de situer les mauvaises pastilles. Il détermine ainsi une sous-suite de la suite des pastilles. Réussira-t-il mieux ainsi à réduire la. fréquence des mauvaises,',ou serait-il préférable qu'il procède dans l'ordre? De fait, le théorème sui-vant montre que pour un certain assortiment de bonbons, il serait préférable de procéder de la première façon.

Notons SI

*

les lois de sélection de SI qui sont tout à fait

indépen-dantes des termes préalablement assignés: x

kl ( et aussi des assignations,

puisqu'elles se font dans l'ordre). Soit. S

(14)

~~

ttt~'

les lois de sélection sont indé~endantes des xk et des k .. Le théorème

sui-i 1

vant montre que ces deux classes ne sont pas équivalentes.

Théorème 3 Il existe une suite x E X qui jouit de la PROPRIETE A

pour p(x)

=

1 2, qui possède la ~ROPRIETE B par

rap-port à un nombre dénombrable de lois de sélectiD~ts~* mais qui ne la possède pas par rapport à un nombre dé-nombrable de lois de sel. de S2* .

Il est intéressant de noter que les suites qui ont la propriété B par rapport d'un nombre dénombrable de lois de sélection de Sh se situent" à la fron-tière de l'aléatoire ", car en employant un algorithme conçu par Levin,

Minsky et Silver il est possible de construire une telle suite. Cet algorithme est presenté par Lovaland dans [ 10] où il s'en sert pour démontrer son

théorème 3.

Voici comment ce théorème est démontré. On obtient d'abord une suite x en transformant lé~èrement la suite que nous fournit l'algorithme. On mon-tre que la suite x a toujours la propriété B ~ar rapport à la famille de lois de sélection dont on s'est servi dans l'algorithme. Finalement, on construit une famille de lois de sélection de S2*

la propriété B.

par ra~port à laquelle x n'a plus

Il convient de souligner qu'on démontre: lim sup

~i~l

n~

Ii~h

et non pas. lim

Ii~l

n~ ri~h a· 1 Xk· .1 1 a· Xk· 1 1 a. 1

=

-1 + e:

2"

1 1 2

(15)

.11 2. Deuxième cas: pour les suites finies.

Les critiques qui s'en prirent à la théorie de von Mises s'opposèrent principalement à l'emploi systématique des suites infinies. Kolmogorov [ 8 ] résume ainsi sa pensée:

" The frequency concept based on the notion of limiting frequency as the number of trials increase to infini-ty does not contribute to substantiate the applicabi-lit y af the results of probability theory to real practical problems where we have always to deal with a finite number of trials. "

Evidemment, se restreindre aux suites finies complique grandement l'a-nalyse et exige une approche toute nouvelle. Ce qui suit présente les résul-tats obtenus par A. N. Kolmogorov dans [ 8 ] et constitue l'amorce d'une théorie des suites aléatoires finies.

L'auteur aborde son sujet en acceptant une hypothèse qui détermine l'op-tique de ses recherches. Il suppose qu'il est possible d'attribuer à chaque loi de sélection un degré de complexité et que, ceci étant réalise, une in-fime minorité seulement de ces lois ont un degré de complexité petit. En d'autres mots, les lois de selection simples sont en petit nombre.

Par la suite nous ne considérerons que les suites de " 0 " ou de " l " de longueur N dont l'ensemble sera noté X

N.

Nous redéfinissons donc la notion de loi de sélection dans ce cas particulier. (Voir déf. 3 ) Définition 5 Une loi de sélection pour X

N

est une double famille

de fonctions.

fn An 1 x { 0, 1}n - 1 )-A

I!n An - 1 x {O, 1}n - 1

>-

{O, 1}

...

1,2:,3 ••• N et A {1,2,3, ... N}

ou n = =

(16)

10 fI et gl ayant comme domaine AO x {O, nO sont des fonctions constantes dont les images sont

respec-tivement kl et al (kl € A et al E: {O, 1} ) f ( kl' k2 ' •.• kn_l' xk ' X k , ... xk ) = k n 1 2 n-1 n gn( kl, k2 , ... kn_l' xk ' xk , .•. xk ) = a 1 2 n-l n

30 kl , k2 J • • • kN est une permutation de 1,2,3, ••• N Nous noterons cette classe de lois de sélection SKN. Alors suit la

Définition 6 Une suite x

E X

N est appelée ( n, e: , p )- aléatoire

,

par rapport à une sous-classe EN

c:.

SKN si pour toute sui te x , x , ... x déterminée par toute F E EN

nI n2 nv

v

pour laquelle v ~ n, la fréquence P (X)=Li=1 xni satisfait l'inégalité suivante: v

Le prochain theorème relie les deux définitions précédentes.

Théorème 4 Si le nombre de lois de sélection dans EN ~ SKN n'est pas supérieur à T (n, e:)

==

~

e2ne:

2

(l-e:) , (*)

alors pour tout p, 0 ~ p ~ 1, i l existe une suite

,

qui est ( )- aléatoire par

dans XN n, e:

,

p rapport

à EN"

Avant de donner quelques indications sur la démonstration, voilà quelques approximations numériques qui sont susceptibles d'éclairer la conclusion.

(17)

tion d'existence (*) est équivalente alors à

ou encore à

~ 2E2( 1 - E )log2E -

!

n

.13

( ~) nous assure que si À (EN) est assez petit (selon la valeur de E)

n

alors il existe une suite ( n J Ei P ) - aléatoire pour chaque p.

(2)

(3)

Il est évident qu'il faut que le membre droit de l' inep.alité ( 2 ) ~oit

positif. Le choix de E et n doit donc respecter la condition suivante

ou

Nous voulons donc que

1 soit vfrifiée 2~n

ce qui est équivalent à demander

-

n

-1

n

Quelques calculs et l'illustration ci-contre montrent que: pour tout n E

= __

1_ ne satisfait pas (4) et que Mais pour €: _ 1 nl / 2 1 .9n2. - 2.9 n3

12

< 1 2. 1

=

.9n 1/2 - 2.9 .

--

n n3/ 2

pour tout n"entier

(18)

donc pour que ( 2 ) soit significatif il convient de prendre € > 1 ou

vn

n > 1

'ET

Ceci signifie que pour exiger une " précision " de 1/ 10 àans la déter-mination de la fréquence il faudra des suites de longueur ~ moins supérieure

à 100. Ceci indique grosso modo l'ordre de grandeur de la précision qu'on pourra exiger pour la fréquence. On constate en prenant n

=

2,000 que pour toute loi de sélection ( toute classe comprenant une loi ) et que pour tout p nous trouverons une suite ( 2,000, 1/10,

P ) -

aléatoire. C'est donc dire que nous sommes assurés de l'existence d'un minimum de 5 suites aléatoires. Et de chacune d'elles une loi de sélection devra déterminer une sous-suite dont la fréquence des 1 sera à 1/10 près de p si la longueur de cette sous-suite dépasse 2,000.

L'existence d'une seule suite aléatoire semble @tre un fait très peu révélateur car on tente de prouver depuis le début que la majorité le sont. Par contre, convenons qu'une suite très longue représente une grande popula-tion. Alors, le caractère aléatoire de la suite ( population) nous assure que toute sous-population choisie par un ensemble assez petit de lois de sé-lection aura la même moyenne de " l " que la population originale. En accep-tant l'hypothèse que les lois de sélection simples sont peu nombreuses, on peut conclure: i l est toujours possible de trouver de grandes populations qui donnent par sélection simple d'assez grandes sous-populations ayant à peu près la même fréquence.

Venons-en à la démonstration du théorème. La méthode employée consiste à montrer que pour une loi de sélection donnée de EN le rapport des suites pour lesquelles à la fois Ip(x) - pl ~ ~ et la longueur des sous-suites choisies n'est pas plus petite que n est inférieur à 2e-2nE2(1~~). Par

con-séquent en prenant moins de 1 e2n€2(1-€) lois de sélections, le rapport des

"2

(19)

• 15

suite5 pour lesquelles Ip(x) - pl ~ E sera inférieur à 1. Ceci confirme donc l'existence d!une suite ( n, E ., P ) aléatvi1'~ au sens àe la définition

[ 6] .

Il est intéressant d'établir une borne supérieure pour s'assurer l'exis-tence d'une suite aléatoire par rapport à tout système de lois de sélection avec autant ou moins d'éléments. Le résultat suivant que l'on retrouve dans [8

J

donne une réponse partielle à cette question.

Théorème 5 Fixons n, NE IN et 0 ~ E: ,,1. Alors si k~ 1 - 2e:

4 E

et m satisfont n ~ ( k -l)m et km < M

alors i l existe- une classe ENC SKN de kZ m + 1 lois de sél. pour laquelle on ne trouve aucune sui te

( n,E , 1/2 ) - aléatoire.

La démonstration n'offre aucune difficulté particulière. Nous allons donc la négliger pour plut8t fournir un exemple numérique.

Prenons Alors, k~.l:... -4E E

=

1

10

1 2 Choisissons k

=

2.

=

t

2 1 2 Î

= ...

CP. qui donne possiblement n = 1,000 et N = 2,000. Par conséquent on peut choisir m

=

1,000.

Céci signifie que pour un système GN de 2 21000 + l lois de sélection nous ne pourrons trouver de suite (1000, l , 1 ) - aléatoire par rapport

10

"2

Comme on le constate, le nombre de variables dont i l est question dans ce type d'analyse rend le problème très complexe. Forcément, les résultats quoique très révélateurs sont encore partiels et de ncmbreuses questions

(20)

nous viennent facilement à l'esprit. Par exemple combien de suites de lon-gueur N ( fixe) sont ( n, E, p ) - aléatoires pour différentes combinaisons

de n~ E~ p? Quelle est la relation entre la complexité d'une loi de sélec-tion et la longueur moyenne des sous-suites qu'elle détermine?

3. Validité de la classe S2.

Pour terminer ce chapitre nous allons demontrer que les lois de sélec-tion de la classe S'2, uroduisent des sous-suites dont la fréquence des " l " n'est en rien améliorée. En d'autres termès, la classe 52 ne permet pas à " notre" enfant d'améliorer sa situation.

Nous allons nous situer dans un contexte plus vaste et considérerons l'espace RcO plutôt que {O, Ua.. Etant donnée une fonction de répartition F on définit sur R~ la mesure suivante:

P{X ::::

=

fT

F(bi) - F (ai) .

i=l

De fait, nous a.vons une suite de variables aléatoires identiquement distribuées et indépendantes. Soulignons Que dans notre cas nous sommes ramenés aux

suites de Bernoulli. Nous allons aussi supposer que les fonctions f n et gn de la définition 3 sont mesurables sur IR"" pmu" tout n, ou -plus exactement que

p[{x f n(ki,l(2' •.• kn_l , xk

1,'." Xkn_1)

=

ml] est définie pour

tout m et qu'il en est ainsi pour

Le théorème qui suit constitue une généralisation d'un théorème démon-tré par Doob dans [4

J .

Loveland dans [ 10

J

ne fait que donner son énoncé.

Théorème 6 Pour toute s E S2' posons: n(x) est la n-ième fois que

et définissons < Yn > co par Y

n

=

Xw(x) pour n

=

1,2 ••• n=l

(21)

• 17

Pour' toute collection d'ensembles de Borel mesurables

Demonstration: El' E2 , · . · En n P{x:

1\

(Yi E Ei )} i=l n = p{x:

1\

(x. € E.)} . 1 1 1 1=

Faisons d'abord remarquer que puisque

Yi

= X. J nour un certain ~ j , nous avons {X:Y·ËE.} 1 1 est mesurable. Souvent, nous utiliserons {x:P(x)}={PCx)} Soit SoC: Rm{

de!~~i

comme SU}it:

50 = x: /\ (y" G EJ") {lour n > j=l J ' 1 et pour n

=

1 Alors, n

p [{x: !JeYi E Ei )}]

=

P

{XE

50 /\YnE.En}

= P { xE. So /\

(VI

e~

(x)=i ;\ xi E. EnU}

1:::1

(5)

i~kl' k2 ,· •• kn_1

=

pJ\oo/(XE.So !\n(x)=i !\x.E E)}

\~l

].

n

i#kl , k2 ,· 0 .kn_l

:: p

lO{cs:

50 1\ n(x)=i 1\ xi E En }

1.=1

i#kl, k2 ; ••• kn_l

Puisque ces ensembles sont disjoints

00

=

'r

P {XE 50 !\Ï1(x)=i

!\

x;E En

1

i=l - . (6)

i~kJ..J k 2

<··

kn _ 1

A cause de la définition de 50 et n(x) , {x E 50 .1\ n(x)

=

i} ne depend , que de kl , l

kn_l et de xk{ x

K• ••

xkn' . Donc par rapport à P

,c2 • ••

"1

:2-{x

€ 50 !\n(x) = i } et

{xi

E En} sont independants

Ci

~ ki ' . i. • kn_l ) .

Par conséquent, on peut 'pour suivre la chaine d'égalités 'interrompue en (6) comme suit:

(22)

et écrire car n

p{l\(y.

E

E.)}

. 1 1 1 1= ao = P{XnE En } •

.L

P{XE 50 !\n(x)= i} 1=1 iFkl , k2 ••• kn-l

puisque la mesure est identique sur chaque coordonnée.

Quand n = l, (7) devient ao P{Yl E El } = P{Xl E El}.

I

p{

xe lRao !\ n(x) = i} i=l ao i} = P{Xl E: El }.

I

r{n(x) = i=l

= P{XI E El}' • ,'p

{~

(n(x) = i)} 1=1

(7)

Mais à cause de la condition 50 de la def. 3 ( parce que une loi de sélection de S produit toujours une sous-suite infinie ), nous avons

x € lRao >·x E.

{\j

(n(x) =

il}

i=l Par consequent, ao p\'?ln(x) = i }= 1 (8) et P {Y 1 Ë EJ = P {\ E E

J

(9)

Remarque: nous pourrions tout aussi bien démontrer (9) en supposant que les lois de selection de 52 produisent des sous-suites infinies" presque par-tout" sur IR"". (8) serait alors vrai.

DemontTons ce théorème par récurrence. Supposons que (*) est vérifié pour n = N - 1, montrons que (*) est vrai pour n = N.

En effet, de (7) on tire: N

p{/\

(y. €. Ei ) } i=l 1 ""

=

r{

x N E. EN }.

l

p{

x E 50 i=1 1\ n(x)

=

i}

i~kl' k2,·· .kN-1

(23)

• 19

1\

nCX)=i}

1

1\

C

\j

nCx)=i) } i=l

ijEk1 , k2···kN_1 Raisonnant comme pour n = 1, on montre que

N-1 œ N - l }

p{!\Cy. E. E.)

1\

C\j CnCx)=i)) } = r{/\cy. E. E.)

j=l J J i=l j=l J J

i"k1 , k2 ••• kN_1

Nous avons donc

p{A

Cy. é E.)} . 1 1 1

1=

N-l }

p{ /\

(y. E.. E.) j=l J J

(10)

Par conséquent, par l'hypothèse d'induction

P

l (

y. E. E. )}

=

~=1

J J

N-1 }

p{ /\ (

x. E: E.)

j=l J J En substituant dans (10) on tire la conclusion.

C. Q. F. D.

Puisque les ensembles de la forme {x : xi E.. Ei} déterminent les en-sembles mesurables sur

R

œ, le théorème précédent peut êtregp.néralisé de la

façon suivante.

Corollaire Si

r

est un ensemble mesurable sur R , alors œ T-1cr) est aussi mesurable et

(24)

CHAPITRE II

Il ressort de la dernière section que la notion de complexité et celle d'aléatoire sont intimement reliées. Jusqu'ici, avec A. N. Kolmogorov, nous avons posé comme hypothèse de travail l'existence d'une mesure de com-plexité définie sur la classe des lois de sélection. A présent, notre

ob-jectif consiste à assigner une complexite aux suites binaires finies, car l'intuition nous incite à considérer les suites très complexes comme celles qui obéissent le moins à une loi de formation ou encore celles dont l'irré-gularité est maximale.

Plutôt que de tester des suites binaires comme nous avons fait jusqu'à présent, nous allons tenter de déterminer leur caractère aléatoire en nous attardant à leur construction. Nous fabriquerons les suites binaires finies à partir d'algorithmes, c'est-à-dire à partir d'un ensemble de règles indi-quant la marche à suivre pour aboutir à une suite. On peut s'imaginer alors que le nombre de règles à suivre dans l'élaboration d'une suite donnée cons-titue un bon critère pour mesurer la complexité de cette suite. Par exemple, voici l'algorithme pour construire la suite infinie x

=

101010 •..

10 Au temps

,

~, écrire

"

1 " et se déplacer vers la droite

20 Au temps 2, écrire " 0 " et se déplacer vers la droite

30 Au temps n, écrire ce qui a été écrit au temps" n-2 " et se déplacer

vers la droite.

Mais, apprécier l'importance de chaque règle constitue une t~che très diffi-ci1e sinon im~"5si~le. Pûur cette raisûTI, il TIûüS faut systématiquement

dé-velopper un modèle d'algorithme dont on puisse facilement et avec exactitude déterminer le degré de complication.

(25)

• 21

Nous introd~irons d'abord le modèle que nous utiliserons dans cet ar-tic le et inàiquerons ensuite quels genres de calcul ce modèle nous permet d'effectuer pour finalement mentionner à quel type d'algorithme ce modèle

est équivalent.

1. MACHINES DE TURING ET ALGORITHMES

L'instrumen~ que nous utiliserons pour construire des suites s'appelle une machine de Turing. La présentation qu'en font plusieurs ouvrages est souvent variée. Bien entendu, le but et la nature de ces ouvrages expliquent la grande diversité qu'on y trouve. Nous adopterons à peu près le modèle suggéré par V. A. Trahtenbrot dans

[15].

Une machine de Turing est une botte fermée qui peut entrer en contact avec un ruban illimité des deux côtés et divisé en cases comme suit:

1

1

1

1

1

1

1

1

Toute opération qU'effectue la machine est divisée en temps. En chacun de ces temps, la machine est en contact avec une seule case que nous appelle-rons la case" vue ". Chaque case comporte au plus un symbole faisant par-tie d'un alphabet préalablement déterminé qu'on appelle l'alphabet de la machine et nous noterons A

=

{ao' a1, ••. a l. Par convention, a o est le

n

symbole" vide" c'est-à-dire on convient de considérer toutes les cases vides comme portant le symbole ao.

La machine peut effectuer les opérations suivantes: 1. Lire le symbole de la case vue

2. Imprimer un symbole dans la case vue 3. Déplacer le ruban une case vers la droite

(26)

.,

Déplacer le ruban une case vers la gauche Maintenir le ruban dans sa position.

Les opérations de la machine sont déterminées par un ensemble fini de positions internes: {ql' q2' ••• ~} =Q comme nous allons maintenant l'ex-p liquer. Au teml'ex-ps " n ", le symbole de la case vue et la l'ex-position interne 10 donne l'ordre à la machine

de déplacer le ruban vers la droite: D, de déplacer le ruban vers la gauche: G,

ou de le maintenir dans sa position initiale: S.

20 indique le s.ymbole qu'il faut imprimer sur la case atteinte (1' impres-sion d'un symbole efface tout symbole qui apparaissait auparavant). 30 fournit la position interne du temps" n + 1 '!I.

Soit K ={D, G, S}. On constate par le paragraphe précédent qu'étant donné un alphabet A et un ensemble de positions internes Q, le comportement d'une machine de Turing est entièrement déterminé en assignant à chaque couple de A x Q un triplet de K x A x Q. D'où la définition suivante: Définition 7 Une machine de Turing d'alphabet A = {ao' al' .•. an}

et d'ensemble de positions internes Q

=

{ql' Q2'·· qm} est une fonction M : A x Q ~ K x A x

Q

où K est tel que décrit plus haut. Voici comment la machine opère:

10 Au temps 0, on présente à la machine un ruban dont un nombre fini de symboles diffèrent de ao. N'importe laquelle des cases du ruban est considérée comme case vue et la machine est placée dans sa position interne ql. (Nous spécifierons plus tard d'une façon unique la case vue

(27)

• 23

au départ.)

20 Au temps" l ", la machine dans l'ordre

œ) lis le symbole de la case vue que nous noterons a*

e) détermine le triplet assigné à (a*, ql) par la machine M que nous noterons (k, a1· , q. )

Il 11

y) se déplace suivant la valeur de k

ô) Iimprime ai dans la case atteinte

1

E) prend q. comme position interne du temps" 2 "

11

30 Aux autres temps la machine opère de la même façon.

Définition 8 Soit x une suite de symboles dont au plus un nombre fini diffèrent de ao. Nous appellerons la n-ième con-figuration de x par rapport à une machine M la suite x

telle qu'elle apparatt après le temps" n " à laquelle nous aj outerons à la gauche du " symbole vu " après le temps " n " le symbole qi qui est la position interne

n

après le temps " n " Nous noterons i~

.

(Remarquons que la n-ième configuration dépend du symbole vu au départ.)

""0

xM représente donc par définition le ruban, la case vue et la posi-tion interne de la machine au début des opéraposi-tions. Nous conviendrons de noter

xA

la suite obtenue de i~ en retirant qi .

n

N otons qu une mac 1ne ' h' M va cesser toute operat1on S1 ~ . . ""nI, ""nl+l xM

=

XM ce qui signifie qu'au temps nI la machine lit un symbole, ne se déplace pas, imprin.e le symbole lu et garde la même position interne.

Définition 9 On dira qu'une suite y est calculée par une machine M

(28)

entier n 0:) pn

=

M 1 B)

pO

=

11 y) tel que p~+l qlP yq. 1 n

(La restriction imposée à la O-ième configuration ne fait que simplifier le problème car sans perte de généralité nous pourrions " situer "ql ailleurs " dans p " Voir [ 6 ] p. 47 ex. 2).

Pour construire les suites qui nous intéressent nous allons utiliser les machines de Turing d'alphabet A

=

{aô~ 0, l} mais, pour l'instant, li-mitons nous aux machines d'alphabet {ao' l}. Elles nous feront voir pourquoi on considère habituellement les machines de Turing comme étant le type

d'al-gorithmes ~ortant sur les entiers le plus vaste.

L'expression ~l ••• l , représentera l'entier non négatif n. Nous écri-n+l 'fois

rons n. Soit W, n'importe quel mot forme à partir de n'importe quel alphabet, alors <\\'> désignera le nombre de symbole" l " dans W. Si (xl' x2' ••• x~,)E.IN,

n alors par (xl' x2' x

3' ••• xn) nous désignerons

fait la configuration du ruban correspondante.

Xl aox2aO ••• aoxn qui est de

Défini tion 10 Soit M une machine de Turing. Pour chaque n on peut associer à M une fonction à n arguments

ri

lN'ii' --.-. IN 0

en posant

CPM(n) (xl' x2,···xn)= <M(a» si M(a) existe

(29)

• 25 et où ~o est l'ensemble des entiers non négatifs. Défini tion 11 Une fonction f : IN~ ~ lN

o

est partielle calculable

s'il existe une machine de Turing M pour laquelle f(x l , x2 , · · · xn)

=

CPM~n)(XI'

x2 ••• xn)

pour tout (Xl' X2,' •• Kn) dans le domaine de f. Si le domaine de f est ~~ , on dit alors que la fonction est calculable.

Voici quelques fonctions calculables:

a) A(x, y) = X + Y b) S (xl = x + l c) d(x, y) = x

-

y si x :;, y (

'*

) , = 0 si x < y d) e) m(x, y)

=

x. y

De plus pour découvrir d'autres fonctions ci:ücu.lables on peut se servir de deux règles.

REGLE l : (Superposition)

Si f : INW --+- !Ne est (partielle) calculable

et g. ~

iNg .-.

IN

o

est (partielle) calculable où i

=

1,2 •.•. ID

1

alors la fonction F : IN~ ~ IN

o

définie par

F(xl' x2 ••• xn)

=

f(gl(x I , x2 ' ••. xn), g2(xI ,··· xn),··· gm(x I , x2

"Xn))

sur le domaine imposé par les fonctions f et gi est (partielle) calculable.

REGLE 2: (Minimum effectif)

(30)

n-·l

g : NO -~ NO d.éfinie comme suit:

g(Xl' x2 ,.·· xn_1)

=

min{x f(x, x~, x3 ' ••• x )

n

=

01 est partielle calculable.

Nous avons dressé une telle liste pour citer le théorème fondamental de la théorie des machines de Turing qui suivra cette définition. (Voir

{5]

Définition 12

Théorème ï

Une fonction est partielle récursive si elle figure dans la liste (

* )

ou encore peut être obtenue en appliquant la règle 1 ou la règle 2 un nombre fini de foix aux fonctions de cette liste ou encore à celles antérieurement déduites de cette liste. Une fonction est récursive si elle est obtenue de la mêmeffaçon mais en stipulant que la règle 2 doive donner des fonctions dont le domaine est N~ si n-:: est le nombre d' arguments de la fonction. (On dit aussi génerale récursive.) Une fonction est (partielle) récursive si et seulement

si elle est ~artiel1~ calculable. Voir f3] D. 42 et

suivantes ou f.7] page 376 Théorème XXX.

Le théorème montre que la classe des fonctions (partielles) récursive~

et celle des fonctions (partielles) calculables comportent les mêmes éléments. Et ce résult.a.t indique comment les machines de Turing Denvent être employée~

comme des algorithmes aussi "généra:ux '1 que le~ fonct·i.on~ part:iell ec:

r€!cuT-sives Q\t1 e 11es offrent intuitivement un ex<:ellent modèle de fonctions

ef-Théorème 8 '" existe une machine de Turing li t.elle que pOllr toute

:.l.1J'trp m<1chine de:' Turtnu M nous avons M(x') = U(yaox)

(31)

• 27 M. Evidemment, si M(x) n'est pas défini U(yaox) ne

l'est pas non plus.

Ull~ telle madÜlle Uest appelée une machine de Turin~ universel le. La meilleure présentation informelle de ce théorème se trouve dans

[151

Dr

120-127 tandis qu'une preuve rigoureuse nous est fournie dans

(61

pp

203-206. Le théorême 8 n'apparaît pas tel qu'il est présenté dans {6] puisqu'il

..

nous aurait fallu utiliser les nombres de Godel. Par contre, en notant bien qu'une machine de Turing peut réaliser une numérotation à la Godel, on cons-tate que le théorème 8 découle facilement de celui présent§ dans l'ouvrage de Hermes.

Il. COMPLEXITE D'UNE SUITE

Soit X

,

.

lten.semble des suites finies de X. Et convenons qu'à l'avenir toute machine de Tu:t"in~ aura comme alphabet A ;:: {ao, 0, l} à moins d'indica-tions contrai.res.

!

Définition 1.3 "ai t !yi une machine de Turing'. La complexité de x e: X

pal' ranport à M, noté par KM(x), est la longueur du

nr."c~ral1une le plus court dont se sert M pour calculer x. ( VOiT déf. 9, Formellement,

=

s'il n'existe aucun p pour lequel \\1(1')

=

x.

Notons Que Uv\, d~signe le nomhre de sYlnboles dans TJ entre le premier et ;/0 dernier qui diffèrent de aClo

·')our bien comnrendre cette définition, i l convifmt de remarquer qu'il n! existe TJH5 de méthod.es effectives pour calculer ~ (x) . Par exemple, pour

(32)

établir que les suites de longueur " l " ne calculent pas x. Mais ceci est effectivement irréalisable à cause du théorème suivant: "Il n'existe pas de machine de Turing M qui nous indique si oui ou non pour une machine universelle de Turing U , U(p) est défini ou non. (Voir [6] th. 2 p. 206)

Théorème fondamental

Pour toute machine M, i l existe une machine U de telle

,

sorte que pour toute x ~ X nous ayons

où CM U est une constante qui dépend uniquement de M

,

et U (et aucunement de x)

Déhlonstration:

Ce théorème découle du théorème 8 qui stipule ï'existence de machine universelle. Prenons M, une machine universelle. Alors, nous avons pour M

~(x)

=

min{~(p) : M(p)

=

x}

Considérons Xo €. X', supposons que KM(xO) est définie et que

(autrement, nous avons KM(xo)

=

<Xl et le théorème est vérifié)

Alors, paT le théorème 8 il existe une suite y déterminée par M,pour laquelle M(p' )

=

U(yaop') (y ne dépend nas de p')

Pour xo> nous avons par définition

KU(xo)

=

minU, (q)

.

U(G)

=

xo} ('2)

Et comme pour a

=

yaop'

U(q)

=

U(yaop' )

=

Mep') ::: X

o

(2) et (3)

(33)

• 29

(1) et (4) impliquent

Ku(xo) ~ KM(x) + t (y) + 1

Comme y ne dépend que de M (et évidemment de U) on peut conclure que pour tout x E X' nous aurons KU(X) ~ K,M(x) + CU'H

C. Q. F. D.

Le corollaire suivant nous indique pourquoi il est préférable de définir la complexité d'une suite à partir d'une machine universelle.

Corollaire 1: Si U est une machine universelle, alors pour tout x E X' KU(x) est définie (n'est pas infinie)

Démonstration:

Puisque pour tout x E X' il existe une machine Mt pour laquelle

Mt (x)

=

x (la machine qui déplace x de t (x) cases vers la gauche), nous tirons du théorème fondamental

KU(x} ~ K M'(x) 2, (x)

Corollaire 2: Si UI et U2 sont deux machines universelles alors pour tout x E. X') il existe une constante ne

dé-pendant que de Ui et Un DOUT laauelle

"-Démonstration:

On applique deux fois le 'théorème fondamental pour obtenir

K Ut(x) ~ K (x' Uz ) ~ C'U1''OZ (S) et

Kul"')

~ KU 1 (x} + C t U1 'U2 (6) où C

Ut'

'-'2

et Ci t

(34)

De (S) et de (6) on tire

\KU (x) - KU (x) \

1 2 ~ max { Cu 1 ,U , 2 CU' ., U } 1 2 = CU" U 1 2

C. Q. F. D.

Corollaire 3: Pour toute machine de Turing universelle U, il existe une constante C indépendante de x pour 1aqG~11e

KV(x) ~ tex) + C

Pour la démonstration voir la démonstration du corol1aire~1.

La notion de complexité est analysée par

A.

N. Kolmogorov dans

[9]

où le concept est défini à partir des fonctions partielles récursives pour une classe dénombrable d'objets. Le théorème fondamental y apparaît dans un contexte plus vaste car

16 les objets considérés ne sont pas nécessairement des suites de X' •

et 20 la complexité y est présentée comme une complexité conditionnelle.

Nous allons brièvement indiquer comment notre approche peut être transformée pour que nos conclusions atteignent la généralité dans laquelle se situe l'analyse de Kolmogorov.

Définition 14 Soit M une machine de Turing. La complexité condi-tionnelle de x E X' par rapport

..

a y E- X' pour

une machine M est

KM(xl y)

=

min{ t Cp) : M(yaop)

=

:l!!}

=

00 s'il n'existe aucun p tel que

M(yaOp)

=

x En transformant la définition 13 comme suit

(35)

· 31

'Rous obtenons

=

A partir de la définition 14 ) on déduit facilement le théorème sui-vant dont la démonstration est identique à celle du théorème fondamental. Théorème 10 Si U est une machine universelle alors pour toute

machine M i l existe une constante CM' u dépendant de M (et forcément de U) mais indépendante de tout choix de x et de y E. X' pour laquelle

Les corollaires 1)2 et 3 du théorème fondamental restent valides mutatis mutandis. Indiquons seulement le résultat que nous utiliserons plus loin.

Corollaire 4 Si U est une machine universelle, alors ~our tout x

X' lOI 0

C.

d~ d d

et y E. eX1ste une constante 1n epen ante e x et de y pour laquelle

La démonstration s'inspire de la méthode employée dans la démonstra-tion du corollaire 1. A.u lieu d'employer la machine M'. on emploie la ma-chine M'l qui efface y et déplace x.

Finalement, en utilisant des maèhines de Turing dont l'alphahet dif-fère" de {ao, 0, 1} on obtient le degré de géné!"~ l i té où se si tue l'article de Kolmogorov. JI faut bien tenir compte du f~lt que Kolmogorov suppose qu'un nombre fini de symboles décrit chacun des objets de la classe qu'il considère.

(36)

III. TESTS POL~ DETERMINER LES SUITES ALEATOIRES UTILISANT LA NOTION DE COMPLEXITE.

La notiori de complexité peut être utilisée pour réduire le nombre de vérifications qu'il faudrait effectuer pour s'assurer qu'une suite est aléa-toire. Dans la dernière section, nous avons vu que la majorité des auteurs parlent d'un nombre dénombrable des lois de sélection. Le but visé par Martin-LHf

[11]

en introduisant des tests récursivement ênumérables est précisément de réduire ce grand nombre de lois en une seule. L'idée con-siste à rejeter à un niveau déterminé, tout comme en statistique, certaines suites de X' comme n"étant pas aléatoires. Cette section se propose dl in-troduire la notion de test, et d'en donner la généralisation proposee par Martin-Lof.

1. :!!st portant ~ ~ suites finies et utilisant la notion de ~ompl~xité. Théorème 11 Le nombre de suites x ~ X' de longueur n pOUl'

les-quelles KM(x) 3- n ~ k est: plus grand que ,n

Demonst.ration:

Rappelons que K~1(X)

=

min{ ~(p) : M(p) :.:: x}

f k'

:2,n- )

Si nous considérons les suites de longueur n, alors chaql';>' " "fJ " p~{"oduira au

plus une suite de longueur n. Pour que l'inégalité

< Q.(x) k (7)

soit réalisée nous disposons au plus de

2 + 4 + 8 ... 't'lX, (x) - k - ! ~ l.

(y,

(x 1 .. kJ . , suites "p Il

Par conséquent, l7) sera \rérifiee pour au plus

P

(x) - k) 2

suites 1/ x " de longueur n ce qui signifie que l'on aura KM(x) 3 g,(x) - k

pour au moins le reste des suites de longueur n an l'occurrence 2g,(x) 2 (g,(x) - k ) +2.

(37)

• 33

Nous avons donc démontré plus qu'il ne fallait.

Nous notons au passage que pour la majorité des suites de longueur n nous aurons

K(x) ~ i (x) - k

à condition de prendre n assez grand et k assez petit. Comme nous avons déjà

K(x) E 1 (x) + c

c'est donc dire que la majorité des suites de X' sont de complexité Il à

peu près" maximale. ( K(x)

=

KM(x) , M étant une machine universelle) En définissant une suite finie comme aléatoire si elle est de complexité à peu près maximale nous aurions donc la majorité des suites de XI comme

étant aléatoires.

Ce dernier théorème nous amène à la notion de test tel que décrit olus haut. Soit M une machine de Turing. Un K-test construit à partir de ;'''' est un test qui rej ette une suite" x " au niveau m si KM (x) < 2. ex) - m.

Le théorème 11 nous indique que le nombre de suites de longueur n rej etées au niveau m est Formellement, nous avons la

Uéfinitioll lS Par un K-test construit 11 partir d'une machine Y1, on entend le sous-ensemble T de INo x

x:

1 suivant:

T

=

{(l11, x) e: No x XI : KM(x) < JI. (x) - mj

La région de rejet au niveau m du test T est déterminée rar Tm

=

{x ~ (m, x) € T} .

On Temarque que l'on a si m :;: n

et q~e le nombre maximum de suites de longueur n dans T est ~ 2n - m

fi

(38)

pour toute autre machine V une constante

Cu

,

Vtelle que KU(X) ~ K.j.X)+ c pour toute x E X' il s'ensuit ~ue si c' = Ic+ll = valeur entière de c+l

I\r(x)

<

t(x) - m - c' (8)

alors

K (x) ./ K (x) + c' ~ /1 (x) - m.

U ~ V " - ~ (9)

Notons

rU

et TV les K-tests construits à partir de U

et v

respec-tivement.

On conclut alors que toute suite rejetée par TV le sera aussi par

li Y"

T mais à un autre niveau. De fait, de (8) on tire x E. Tm+c==P-x E. TUm.

Bien entendu, on convient de prendre dans ces raisonnements les suites de longueur plus grande que c pour que (8) ait du sens. Pour cette raison, nous avons la

Définition 16 Tout K-test provenant ~'une machine universelle séra appelé K-test universel. Tout K-test universel sous~

entendra une machine universelle qui le définit~

Mais comme Ml et M2" étant deux machines universelles nous avons

1 KM (x) - K.. (x) 1

<

CM 'M. pour toute x

e.

X' nous pouvons affirmer que

l -1'12 1 2

deux K-tests universels rejettent les mêmes suites si ce n'est qu'à des niveaux différents. On ne perd donc aucune généralite en sten fixant un si on ne considère que les suites très lon~ues.

Passons maintenant a un concept qui sera très important par la suite.

Definition 17 Le niveau critique de rejet d'une suite x ~ X' par rapport à un K-test T est

mT(x)

=

max m si x € T(l x E. Tm

(39)

· 35

En d'autres mots, c'est la valeur de m qui donne le plus petit

i

(x) - m pour lequel KM(x) < t (x) - m. On peut se représenter mT(x) comme étant

li~écart qui sépare KM(y:) de la complexité" idéale 'h (x). Les remarques suivantes s'imposent:

Remarque l:

Plus l'écart est petit, plus la complexité s'approche det (x). Donc, un niveau critœque petit est donc une indication de la grande complexité d'une suite.

Remarque 2:

Soit T un K-test, alors par définition nous avons pour toute x E X'

Remarque 3:

Comme conséquences des remarques qui. suivent et précèdent la définition 16 ,nous avons: pour tout K-test V, il existe un K-test universel U

pour lequel ~(x) ~ mtfx)

1-

C et si U} et U2 sont deux K-tests uni-versels alors il ~xiste une constante c pour laquelle

Combinant cette remarque el: la définition 17 on obtient facilement le théorème suivant:

Théorème 12- Si Ml est une machinE uni."er~elle,U un K-test universel alors i l existe une constante c telle que

1 ! (x) - K M '/ x"j - ln (X"I' ~ C

! ". nI . U ,1 ,

pOUl' toute suite x. €. X'.

Comme on l'a sans doute constaté, cette partie ne fait que reformuler dans un nouveau vocabulaire à peu près tout ce qui se trouvait dans la section précé-dente à l'exception du théorème Il qui nous indique que les suites de

(40)

com-p1exité maximale sont en grand nombre. Cette partie a été introduite pour éclairer celle qui vient où on abordera à nouveau les concepts de tests, de tests universels, de niveau critique de rejet, et où le th~orème 12 sera prouvé dans un contexte plus large.

2. Tests récursivement énumerables.

A. Suites. quelcongues

La notion de test telle que développée c1t=1hau.t ntoffre que pen de 'Oos-sibi lité d'extension au cas infini. En effet, nous aimerions appliqu.er un

K-test universel aux x E X en considerant chacune de ces suites comme la li~

mite de Y

n

=

x1x2 ••• xn c'est-à-dire x

.x:

=

xlx2"" i l est certain que K(yn)

=

1irn

Y

n• Mais pour quelques

n~

oscillera autour de ~(Yn)

=

n quand fi

-.00

de telle sorte que ponr tout k on ne saura trouver de N tel que

KfYnÎ < n - k ~our tout n >

N.

Dans ce cas, x ne sera jamais définitivement

accepté ou rejeté. Ilour rRaliser cette ?,enéralisation Martin-Lof a suggéré la d~finition suivante:

néfinition 18 rar un test T sur X ,

,

on entend un sous-ensem't'Jle

,

TClNo x X Qui est récursivement énumél'able t'!t dont

les rAv.:J.ons de rejet Tm

=

{x : lm, x, E. f' ont les

Clropriptês

!II iï Ë INOI

If' '~()mbl'e d€' sui tes de longueur n dans T n'est

ID pa~ supérieur à ~n-m

Indiquons qu'un ensembJe est récursivement énumérable s'jl est le champ d'une fonction partielle récursive ou encore d'une fonction récursive

(41)

· 37 àpartir des propriétés immédiates d'un K-test et que, de fait, il en ewt une généralisation comme nous le verrons plus loin.

Le théorème suivant est le premier d'une suite de quatre théorèmes similaires où on démontre l'existence dO tests universels. Les

démonstra-tions de ces théorèmes se ressemblent grandement. Nous avons donc choisi de démontrer le second de ces théorèmes: le théorème 15 et on prie le lecteur de s'y référer.

Théorème 13

Il

existe un test

U

tel que l'QUt tQut

autre

test V nous ayons

v

c:: 'U"

m+c m

où c est une constante ne dependant que de U et V. Ce !No

On appelle ce test U, un test universel.

Si pour un test U, on définit muCx) comme dans la définition 17 • on obtient le théorème suivant:

Théorème 14 Soit M une machine universelle,O un test universel, alors i l existe une constante c telle que nous ayons:

pour toute x E XI

3011 " ! .. , l'est défini comme suit

: 01. x', . K~' X: 'i l Xi ~,)O c

ou

v

=:

!

(m, xl : (3p)

((R.

I,p) -: 9 ;)(', -

m)A

Mlp) .-

x) }

Nous allons montrer que V est un test

(42)

8)

v

C V si n ~m puisque g,(p) < g,(x) - m < Q.fxl - n

m n

yI Par le théorème ~11 V

m n'a pas plus que 2n - m suites de longueur n. En outre, pour V nous avons

t (x) - l(~x) - 1

A cause des remarques après la définition 17 pour un test U universel

ce qui entraîne

tex) - l\{x) -

muC

x) ~ cl . Aussi pour démontrer que

remarquons que puisque U est un test alors il existe une fonction récursive f définie sur IN qui énumère U sans répétition. (Nous pourrü;ns tout aussi bien prendre No). C'est··à-dire (m, x) E U ~ (m, Xl

=

f(kO) , Nous

allons à "iJartir de f construire une machine de Turin~ ~.

Si f(l!

=

Ux ' 1 .

alors on ecrit M(OOO .•• O) ~.

t (Xl) - ml

=

alors

el

a lors on pose M COOOOvO ..• Qi

t (X2 1 - m 2

on pose MeOOOy .• Ol) t(x2) - m

2

=

=

"uisque 2J!,!X) ... m est le maximum de suites de longueur n qu'on obtient pour

(43)

~

• 39

C'est donc dire que

K (x) = tex) - m(x) M

et

-c2 < 0 = tex) - m(x) - ~(x)

C. Q. F. D.

Corollaire: Si U, M et c sont définis comme dans le théorème précédent et si T est le K-test provenant de M alors pour tout s ~ c'=[c +

1]

= valeur entière de c+l U c::: T C=:U ,

s+c' s s-c

Démonstration:

Si x E. U .... ;=>

+_. ,

.... alors mu(x) ~ s

A cause du dernier théorème

-c' ~ tex)

-

~(x) - m u . (x) ou -c' + mu (x) ~.2. (x) - ~ ex) Et (10) et (11) impliquent s ~ tex) - ~(x) ou

KM (x)

~ tex) - 5 Donc x E T 5 + c'. ~ c'

La seconde inclusion se démontre d'une façon semblable.

C. Q. F. D.

Donc. pour les sui tes assez longues par rapport à Il C " , un K-test uni-versel et un·. t;est uniuni-versel rej etteront les mêmes suites si on néglige une différence de niveau préalablement établie: "c Il En ce sens, ils sont

(44)

équivalents sur les longues suites.

l.a généralisation de la notion de test qui suit peut donc être consi-dérée comme une généralisation de la notion de K-test.

Définition 19 VC No x X' est un test séquentiel sur X' si

a) V est récursivement énumérable

S) (m, x) EV, n ~ m et y ~ x (y est une suite com-mençant par x) implique (n, y) € V

y) le nombre de suites de longueur n dans

V = { x: m, ( X ) E V} n es pas super1eur • t ... a' 2n - m m

Le théorème qui suit, on pourrait s'en douter, stipule l'existence de test séquentiel universel. Il est précédé d'un lemme.

Lemme:

Demonstration:

Il existe un sous-ensemble récursivement énumérableT de ~o x No x X· tel que la condition nécessaire et suffisante pour que V soit un test séquentiel~est

v

=

{(m, x) : (n) m, x) E Tf pour un certain n.

La démonstration s'appuie sur l'énoncé suivant: l'ensemble E des sous-ensembles récursivement énumerab1es de No x X' est récursivement énumé-l'able. Voir [14 ] p. 73 ex 5.6

Donc, si E est récursivement énumêrab1e alors il existe une fonction par-·· tielle récursive

telle que si f(i, j) existe alors i l en est de même pour f(i, 1), .. ~f(i, j-l). Et de plus si Fe ;~o x X' est r~cursivement énumerable alors

Références

Documents relatifs

Montrer que la limite uniforme d’une suite de fonctions uniformément continues est elle-même uniformément

Cependant, montrer que la convergence p.s accompagnée d’une hy- pothèse de domination que l’on précisera implique la convergence dans L p4. Montrer que la convergence a lieu aussi

ffl. ESPACE DES SUITES INFINIES III.l. L'ensemble U des suites u peut être identifié au tore T^ == I e0 à une infinité dénom- brable de dimensions. Le théorème de Tychonoff montre

étant donnée une fonction y (i) qui a les propriétés d’une fonction de corrélation, peut-on trouver une fonction f dont elle provienne.. Ce problème ne peut

chacune correspond à une fonction aléatoire à accroissements station- nairement corrélés) donnant lieu à la compensation des corrélations recherchée, on peut

En considérant les invariants de ces relations nous identifions les calculs associatifs avec leurs titres (*) et nous traitons les invariants comme algorithmes

Fig. Mais nous allons voir que, à l'aide des suites uniformé- ment denses, on peut facilement construire des fonctions pseudo-aléatoires du type considéré. Nous avons besoin pour

D'après le théorème de Weierstrass, il sut de montrer que A contient les fonctions poly- nomiales.. Comme c'est un anneau qui contient les monômes, il sut de montrer qu'il contient