Statistique des processus aléatoires

Top PDF Statistique des processus aléatoires:

Propriétés théoriques et applications en statistique et en simulation de processus et de champs aléatoires stationnaires

Propriétés théoriques et applications en statistique et en simulation de processus et de champs aléatoires stationnaires

la même manière, d'autres PIF pour les champs aléatoires ont été récemment établie pour les champs associés par Balan (2005) [3] et leurs extensions par Bulinski et Shaskin (2005) [6]. Contrairement à ces deux derniers cas, notre preuve ne nécessitent que des décroissances de type polynomiale pour les covariances car nous tirons le bénéce d'une approximation par des champs aléatoires m−dépendants pour pouvoir générer les variables gaussiennes. Récemment, cet avantage a été utilisé dans le cas des séries de type ARCH dans les travaux de Aue et al. (2006) [2] et Liu et Lin (2008)[18]. Ces derniers auteurs obtiennent des résultats de vitesse optimaux dans le sens où ils retrouvent les vitesses du cas i.i.d. Nous n'avons pas investi le problème de l'optimalité dans notre cas (ici déterminé par la valeur de ε) ; le contrôle des moments utilisent les résultats généraux des champs η−faiblement dépendants alors que dans le cas des séries, l'utilisation de décompositions en diérences de martingales rend ce contrôle plus ecace. Il serait alors intéressant d'investir une meilleure inégalité de moments que celle que nous avons utilisée, pour le cas des schémas de Bernoulli à innovations i.i.d.
En savoir plus

199 En savoir plus

Statistique des processus stables et des processus à longue mémoire

Statistique des processus stables et des processus à longue mémoire

2.6 Annexe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77 Dans ce chapitre, on s’intéresse à l’estimation de l’indice de stabilité et du para- mètre d’échelle de variables aléatoires stables. Bien que la littérature sur ce sujet soit conséquente, aucun résultat théorique précis ne semble disponible. Dans la suite, nous étudions un estimateur basé sur les log-moments qui sont toujours bien définis pour ces variables aléatoires. Cet estimateur a l’avantage de pouvoir s’écrire sous une expression explicite simple ce qui nous permet d’en déduire des résultats de convergence presque sûre et un théorème central limite. Nous mon- trons ensuite comment améliorer la précision de cet estimateur en le combinant avec ceux déjà définis. La forme explicite nous permet également de considérer le cas de données non identiquement distribuées, et nous montrons que nos résul- tats restent vrais, à condition que les écarts par rapport à la stationnarité soient "petits". À l’aide d’un centrage et d’une symétrie, nous élargissons les estimateurs précédents aux variables stables asymétriques et nous construisons un test pour vérifier l’asymétrie des données. En applications, nous montrons numériquement que l’indice de stabilité du mouvement de Lévy multistable peut être estimé avec précision et nous considérons un indice financier, à savoir le S&P 500, où nous trouvons que l’indice de stabilité évolue dans le temps en fonction des événements financiers majeurs.
En savoir plus

220 En savoir plus

Analyse en Ondelettes et par Paquets d'Ondelettes de Processus Aléatoires Stationnaires, et Application à l'Estimation Non-Paramétrique

Analyse en Ondelettes et par Paquets d'Ondelettes de Processus Aléatoires Stationnaires, et Application à l'Estimation Non-Paramétrique

INTRODUCTION GÉNÉRALE 1 Introduction générale Motivations et contexte de l’étude En traitement de signal et de l’information, les données observées sont très souvent com- posées de l’information utile (signal) corrompue par une perturbation généralement indépen- dante. La perturbation (bruit) peut être interne au système physique de traitement de l’infor- mation ou externe, due aux interactions entre le signal et les éléments de son milieu de propa- gation. La distribution du signal n’est pas toujours connue et elle s’avère assez souvent dif- ficile à estimer en pratique. Il en est de même concernant la nature de la perturbation : sa distribution n’est pas connue et est assez souvent difficile à modéliser. Face à cette situation, la théorie statistique usuelle de la décision et de l’estimation basée sur l’emploi du rapport de vraisemblance ne s’applique pas rigoureusement. Il est donc nécessaire de développer des méthodes à coût minimum en termes de connaissances disponibles sur la nature des compo- santes de l’information reçue. On parle alors de décision et d’estimation (plus généralement de statistique) non-paramétriques au sens où l’on ne tient pas compte de connaissances a
En savoir plus

133 En savoir plus

Processus aléatoires sur des arbres

Processus aléatoires sur des arbres

Avant-propos Pour vous, les prochaines lignes représentent le début de la lecture de ce mémoire (ou la seule chose que vous en lirez). Pour moi, l’écriture de cet avant propos conclut 5 années d’études à l’Université Laval. Mes premiers remerciements vont à toutes les personnes extraordinaires que j’ai eu la chance de côtoyer durant mon passage au Département de mathématiques et statistique. La vie étudiante dy- namique et l’ambiance chaleureuse m’ont fait vivre des moments mémorables et m’ont permis de garder le cap dans les moments plus difficiles. Je veux remercier plus particulièrement Jean Auger, Andréa Deschênes et Laurent Robert-Veillette avec qui j’ai partagé toute cette aventure. Andréa et Laurent ont d’ailleurs osé lire et corriger la gênante première version de mon mémoire.
En savoir plus

74 En savoir plus

Étude de la diffusion des processus déterministes et faiblement aléatoires en environnement aléatoire

Étude de la diffusion des processus déterministes et faiblement aléatoires en environnement aléatoire

à gauche ou à droite. S'il n'y a pas de miroir alors la particule va tout droit. Une limitation de ce modèle est le fait d'être en 2D, et si on s'attache à l'analogie physique du rebond des particules sur un miroir alors il n'est pas évident de trouver une généralisation en dimensions supérieures. Nous avons d'ailleurs passé un certain temps à imaginer des formes géométriques compliquées de miroirs en 3D ou 4D, sans grand succès. La solution est d'abandonner l'analogie physique et de ne regarder que l'eet du miroir. Cet eet est simplement une déviation instantanée du vecteur vitesse de la particule, qui respecte la notion de réversibilité. Avec cette idée-là en tête on peut facilement généraliser le modèle des miroirs en dimension quelconque. Cette généralisation sera détaillée aux chapitres 1 et 2. On pourra ainsi s'aranchir de la dimension 2 qui est toujours passionnante mais souvent ardue en physique statistique.
En savoir plus

89 En savoir plus

Recueil de Modèles Aléatoires

Recueil de Modèles Aléatoires

La physique statistique a inspiré nombre de modèles de marches aléatoires : marches aléatoires en milieu aléatoire, en paysage aléatoire, en auto interac- tion (évitement, renforcement, excitation, . . . ), etc. Ce sujet historique est d’une grande richesse et fait toujours l’objet de recherches à l’heure actuelle. Les chapitres 3, 6, et 15 font intervenir des marches aléatoires. Par ailleurs le théorème limite central permet de concevoir le mouvement brownien comme un analogue en temps et en espace continus de la marche aléatoire simple, obtenu comme limite d’échelle de modèles discrets (εZ d approche R d ). Le problème de Dirichlet discret est étudié en détail dans le livre de Gregory Lawler [Law13]. Le problème de Dirichlet possède une version à temps et espace continus, étudiée dans le chapitre 24, qui est une limite d’échelle du problème de Dirichlet discret. Au niveau du processus, la marche aléatoire simple symétrique devient le mouvement brownien grâce au théorème limite central, tandis qu’au niveau du générateur, le laplacien discret devient l’opé- rateur différentiel laplacien grâce à une formule de Taylor. Le champ libre gaussien constitue un objet fondamental en physique mathématique, abordé par exemple dans le livre de James Glimm et Arthur Jaffe [GJ87], tandis que sa limite d’échelle est présentée dans l’article [She07] de Scott Sheffield.
En savoir plus

410 En savoir plus

Spectre de matrices de permutation aléatoires

Spectre de matrices de permutation aléatoires

1. Introduction générale Dans les années 20, Wishart [90] introduit des matrices aléatoires pour étudier le com- portement de plusieurs variables dans le cadre d’analyses multivariées en statistique. Il fournit des formules permettant d’estimer des coefficients de corrélation et de faire des tests statistiques sur des matrices de covariance empiriques, avec une loi qui porte au- jourd’hui son nom. Les matrices aléatoires connaissent un second élan dans les années 50 en physique statistique et mécanique quantique avec les travaux de Wigner. Dans l’intention de simplifier les modèles d’étude de spectres nucléaires, Wigner suggère de remplacer certains opérateurs de dimension infinie dans les équations par des opérateurs de dimension finie respectant les mêmes symétries. Plus précisément, il prend comme hamiltoniens de grandes matrices aléatoires hermitiennes, puis cherche à déterminer les propriétés asymptotiques de ces matrices lorsque leur taille tend vers l’infini. Un des grands succès de son étude est le phénomène d’universalité qui se produit pour la loi limite non-triviale de la mesure spectrale empirique : pour de vastes ensembles de ma- trices aléatoires, celle-ci ne dépend pas de la loi des entrées de la matrice. Les matrices aléatoires ont dès lors commencé à susciter de l’intérêt dans de nombreux domaines de recherche tels que les systèmes intégrables, les télécommunications, la combinatoire, la théorie des graphes, les probabilités libres, les processus déterminantaux, et la théorie des nombres.
En savoir plus

168 En savoir plus

Inférence statistique pour les modèles autorégressifs a coefficients aléatoires

Inférence statistique pour les modèles autorégressifs a coefficients aléatoires

tion de la fréquence d’observation de la série et de sa nature. Alors pour ce type de séries, les modèles linéaires utilisés auparavant, tels que le processus ARM A, sont limités car ils ne permettent pas la prise en compte des phéno- mènes de variabilité de la volatilité en fonction du temps et des mécanismes d’asymétrie. Les modèles ARM A n’arrivent pas à générer des autocorréla- tions au carré Francq, C., and Zankoian, J. M. (2010). Ces caractéristiques sensibles de ces séries favorisent l’émergence de nouvelles formes d’extension des modèles autorégressifs standards aux modèles autorégressifs à coe¢ cients aléatoires noté RCA.
En savoir plus

91 En savoir plus

Statistique de l'interférence quantique et circuits quantiques aléatoires

Statistique de l'interférence quantique et circuits quantiques aléatoires

Cependant, parmi toutes les attentes et tous les espoirs de cette jeune discipline, la construc- tion d’un ordinateur quantique reste la plus populaire au vu de sa rapidit´e de calcul potentielle compar´ee `a son homologue classique. Il est donc tout `a fait naturel de chercher `a comprendre pourquoi dans certaines mesures, la nature quantique de notre monde semble r´esoudre certains probl`emes computationnels de mani`ere plus efficace qu’elle le ferait classiquement. Alors dans ce cas, o` u faut-il chercher ? L’information quantique ´etant le mariage de deux disciplines, la logique premi`ere est d’identi- fier quels sont les concepts propres de la th´eorie. Parmi ces concepts, le plus ´etudi´e est celui de l’intrication. Il est maintenant admis dans la communaut´e que l’intrication est une ressource es- sentielle de l’information quantique [JL03]. L’autre concept important, typiquement quantique, mais qui est beaucoup moins ´etudi´e cependant est l’interf´erence quantique. L’interf´erence quan- tique est la capacit´e qu’a un processus quantique `a favoriser des ´etats classiquement d´efavoris´es et vice-versa. Dans ce sens l’interf´erence est la propri´et´e quantique qui modifie le flot d’infor- mation classique. L’´etude d’un des aspects de l’interf´erence est le sujet central de cette th`ese.
En savoir plus

101 En savoir plus

Les nombres aléatoires en C

Les nombres aléatoires en C

Pour des raisons de simplicité, je n'ai pas opté pour cette solution pour le tuto ; dans la vraie vie, si vous devez vous servir à de nombreuses reprises de ces fonctions, je ne peux que vous conseiller de l'implémenter. Voici un premier aperçu de l'utilisation des nombres aléatoires en C. Si vous voulez vous entrainer un peu, vous pouvez vous amuser à coder des jeux comme un yams ou un Master Mind, une animation en SDL qui simule une chute de neige ou encore plein d'autres applications auxquelles je ne pense pas.

9 En savoir plus

Marches aléatoires en milieux aléatoires: Etude de quelques modèles multidimensionnels

Marches aléatoires en milieux aléatoires: Etude de quelques modèles multidimensionnels

Le Chapitre 5 de cette th`ese est consacr´e `a l’´etude d’un mod`ele de MAMA en temps continu avec un environnement construit `a partir d’une percolation de sites sous-critique dans Z d.[r]

104 En savoir plus

#2 Variables aléatoires

#2 Variables aléatoires

L’erreur commise lors de la mesure du diam` etre d’une pi` ece produite en s´ erie est approxim´ ee par une v.a.. Notion de distribution[r]

20 En savoir plus

Variables aléatoires

Variables aléatoires

Soit Y la variable aléatoire prenant pour valeur le résultat du dé bleu.. Et X la variable aléatoire prenant pour valeur le résultat le plus grand.[r]

4 En savoir plus

Variables aléatoires

Variables aléatoires

c) Déterminer la limite de (β n ) puis un équivalent de β n . Exercice 8 On dit qu’une suite de variables aléatoires (X n ) converge en probabilité vers une variable aléatoire X lorsque pour tout  > 0, lim P(|X n − X| > ) = 0. a) On considère un espace probabilisé (Ω, A ,P), un réel m et une suite de variables aléatoires (X n ) possédant toutes un

1 En savoir plus

Variables aléatoires

Variables aléatoires

La fonction de répartition donne la probabilité que la variable aléatoire soit inférieure à une valeur x.[r]

3 En savoir plus

Pépite | Balades aléatoires

Pépite | Balades aléatoires

«rien à voir» avec le signal, comme des projections aléatoires. C’est le début de la théorie de l’acquisition comprimée (compressed sensing). L USTIG , D ONOHO et P AULY (2007) l’ont rapidement appliqué à l’IRM. Cependant, la théorie suppose que chaque mesure peut être choisie indépen- damment. Dans les applications réelles, les contraintes physiques laissent rarement cette liberté. Souvent, les mesures doivent être effectuées dans une base donnée. De plus, et c’est l’aspect le plus différent, les mesures successives doivent être suf- fisamment lisses : si les éléments de la base de mesure sont indexés par une image, les mesures choisies suivent une courbe continue ou plus, ou sa discrétisation.
En savoir plus

61 En savoir plus

Inférence statistique basée sur les processus empiriques dans des modèles semi-paramétriques de durées de vie

Inférence statistique basée sur les processus empiriques dans des modèles semi-paramétriques de durées de vie

L’objectif de cette th`ese est d’´etablir rigoureusement les propri´et´es asymptotiques d’estimateurs du maximum de vraisemblance, pour deux mod`eles de r´egression semi- param´etriques de dur´ees: un mod`ele de m´elange semi-param´etrique pour risques concu- rrents et un mod`ele de r´egression semi-param´etrique de transformation lin´eaire pour dur´ees de vie avec une fraction immune. Le premier mod`ele correspond `a la sp´ecification pro- pos´ee par Escarela et Bowater (2008). L’´etude du deuxi`eme mod`ele a pour but pr´esenter une g´en´eralisation du mod`ele propos´e par Lu et Ying (2004). Cette g´en´eralisation com- prend comme cas particuliers quelques mod`eles de dur´ee de vie avec fraction immune pr´esents dans la litt´erature (Farewell, 1982; Kuk et Chen, 1992; Sy et Taylor, 2000; Peng et Dear, 2000). Sp´ecifiquement, ce travail ´etudie les proprit´es asymptotiques d’estimateurs dits du maximum de vraisemblance non-param´etrique pour les deux mod`eles mentionn´es pr´ec´edemment. Dans la suite de ce travail, nous pr´esentons ces mod`eles, la m´ethode d’estimation propos´ee, et ´etablissons les propri´et´es asymptotiques des estimateurs cons- truits, `a l’aide d’outils de la th´eorie des processus empiriques.
En savoir plus

135 En savoir plus

Asymptotiques de fonctionnelles d'arbres aléatoires et de graphes denses aléatoires

Asymptotiques de fonctionnelles d'arbres aléatoires et de graphes denses aléatoires

Autres résultats de convergence En utilisant la méthode de Stein, Fang et Röllin [ 81 ] ont obtenu la vitesse de convergence du théorème central limite multidimensionnel associé à la loi jointe des comptes normalisés d’arêtes et de cycles de longueur 4. Cela leur a notamment permis d’établir un intervalle de confiance pour tester si un graphe donné G provient du modèle d’Erdős-Rényi ou bien d’un modèle de W -graphes aléatoires avec un W non constant. Maugis, Priebe, Olhede et Wolfe [ 143 ] ont donné un théorème central limite pour les comptes de sous-graphes observés parmi une collection finie de W -graphes aléatoires générés à partir d’un même graphon W ou de plusieurs graphons et quand le nombre d’observations de l’échantillon augmente mais que le nombre de sommets de chaque graphe observé reste fini. Ceci leur permet de tester si les graphes observés proviennent d’un graphon particulier.
En savoir plus

152 En savoir plus

Un modèle de crawls aléatoires

Un modèle de crawls aléatoires

Keywords: réseaux d’interactions, graphe du Web, Small Worlds, modèles de graphes aléatoires, émergence de struc- tures, nœud papillon 1 Introduction Il est généralement difficile d’obtenir un grand réseau d’interaction en entier. On doit souvent se conten- ter d’un échantillon de taille la plus grande possible afin de mener différentes études. Dans le cas de l’en- semble des pages hypertextes (Web), on utilise un crawler. Suite à l’analyse de différents crawls du Web, plusieurs modèles et analyses de propriétés ont été publiés. On peut reprocher à leurs auteurs une certaine confusion entre les crawls du Web sur lesquels ils travaillent, et le Web lui-même. Inférer d’un échantillon les propriétés d’une population ne peut se faire que si l’échantillonage est non biaisé, ce qui n’est bien sûr pas le cas. Par exemple, tous les crawlers tomberont rapidement sur la page de Google, même pour un échantillon de quelques milliers de pages Web parmi les milliards possibles. En plus du biais d’accessibi- lités, il y a un problème fondamental : le Web est potentiellement infini à cause des pages dynamiques ou générées à la requête, des mécanismes de session, etc. Chaque utilisateur en a une vue différente (penser à une page affichant l’IP du surfer) et la très forte dynamicité du Web le rend impossible à collecter avec une bande passante raisonnable. Il y a donc lieu d’essayer de modéliser ce que nous en connaissons : les crawls. Tous les moteurs de recherche disposent d’un programme qui parcourt le Web pour archiver les pages Web, il est appelé crawler. Schématiquement, le crawler contient un module de stockage en relation avec un module de téléchargement incrémental : ce sont les liens sortants des pages stockées qui fournissent les nouvelles URLs à télécharger. Parmi les nombreuses problèmatiques soulevées est la stratégie de par- cours à adopter : quelle page télécharger au sein de l’immense stock d’URL connues ? En général c’est le parcours en profondeur qui est utilisé, bien qu’une absence de stratégie (choix aléatoire) soit plus facile à implémenter. Bien entendu le processus ne s’arrête jamais.
En savoir plus

5 En savoir plus

Formation de l'esprit statistique et raisonnement statistique. Que peut-on attendre de la didactique de la statistique ?

Formation de l'esprit statistique et raisonnement statistique. Que peut-on attendre de la didactique de la statistique ?

EA3727 « Savoirs, Diversité et Professionnalisation » Université Lumière Lyon2 Jean-claude.regnier@univ-lyon2.fr Résumé : L’objectif de cette communication est de poursuivre, dans un esprit de coopération, notre réflexion centrée sur le raisonnement statistique et la formation de l’esprit statistique. L'esprit statistique naît lorsqu'on prend conscience de l'existence de fluctuation d'échantillonnage (Programme de Seconde Juin 2000) et sa formation qui passe par une formation en statistique, requiert un certain renoncement à l'usage systématique de l'idée de vérité pour chercher à maîtriser celle de vraisemblance (Régnier 1998). Cette formation s’organise autour des activités fondamentales que sont la modélisation statistique, l’analyse statistique et l’interprétation statistique. Dans un précédent article (Régnier 2002), nous avons tenté d’aborder cette question et apporter quelques éléments d’éclaircissement. « En France, l'absence de formation en statistique, dans les collèges, les lycées et de vastes secteurs de l'enseignement supérieur, conduit à des attitudes sociales aberrantes. (…)» ce constat de Jean Dercourt ( Acad. des Sc. 2000, p.ix ) exprimé dans un rapport de l’Académie des Sciences, situe, d’une certaine façon, le contexte dans lequel nous cherchons à construire et à résoudre des problématiques relatives à la formation en statistique dans le champ de la didactique de la statistique et non dans celui de la didactique des statistiques.
En savoir plus

28 En savoir plus

Show all 3497 documents...