• Aucun résultat trouvé

Programmegénéral–Extrait Extraitdurapportdujury–Orald’analyseetdeprobabilités Lesprobabilitésdansleprogrammeofficiel

N/A
N/A
Protected

Academic year: 2022

Partager "Programmegénéral–Extrait Extraitdurapportdujury–Orald’analyseetdeprobabilités Lesprobabilitésdansleprogrammeofficiel"

Copied!
2
0
0

Texte intégral

(1)

Université Paris 13, Institut Galilée Préparation à l’agrégation Année universitaire 2016-2017

Les probabilités dans le programme officiel

Extrait du rapport du jury – Oral d’analyse et de probabilités

« Le jury rappelle que le chapitre des probabilités a vocation à se développer dans l’enseignement secondaire et post-baccalauréat. Les candidats à un futur poste d’enseignant de mathématiques doivent maîtriser les notions centrales de ces thématiques. C’est pourquoi le programme 2015 fait apparaître un chapitre 10 intitulé Probabilités, séparé de la théorie de l’intégration, mais qui reprend essentiellement les contenus des programmes précédents.

Il est construit autour de quelques notions de base sur l’indépendance, les lois classiques, les moments, les trans- formées et les convergences. Ces thèmes sont évidemment liés.

Le jury a observé que le nombre de candidats qui ont choisi les leçons de probabilité augmente ; le jury se félicite de cette évolution, et rappelle aux candidats que les leçons de probabilités ne recèlent pas de piège ou de danger particulier.

Il y avait six leçons de probabilités. Elles peuvent toutes se traiter à un niveau raisonnable, et mettent en jeu des outils qui sont au cœur du programme d’analyse de l’agrégation.

Ainsi, les inégalités probabilistes classiques (version simple des grandes déviations à la Bernstein, Hoeffding, Paley- Zygmund) offrent matière à des développements abordables et intéressants. Les diverses formes de la loi des grands nombres, les applications du théorème de Lévy admettent de nombreuses variations. L’étude des séries aléatoires, voire des séries de fonctions aléatoires contient beaucoup de résultats significatifs (exemples : signes aléatoires, points singuliers d’une série entière aléatoire).

Enfin, les probabilités interagissent de manière significative avec de nombreuses branches de l’analyse (et plus largement des mathématiques). Le travail sur les leçons précédentes devrait permettre aux candidats d’affermir leurs réflexes en matière de théorie de la mesure et de probabilités, mais aussi d’aborder sous un angle nouveau d’autres items du programme.

C’est ainsi que la linéarité de l’espérance et l’inégalité de Markov ont des applications combinatoires spectaculaires, que le problème de la détermination d’une variable par ses moments est lié à la théorie des fonctions holomorphes, que l’étude des fonctions caractéristiques prolonge et approfondit celle de la transformation de Fourier surL1(R), que les

“constructions aléatoires” permettent de produire des objets mathématiques difficiles à exhiber directement, que la convergence de variables aléatoires permet de retrouver des résultats classiques de l’analyse tels que l’approximation uniforme des fonctions continues par les polynômes de Bernstein..

Rassurons les candidats futurs, il n’est pas question d’exiger d’eux qu’ils connaissent tout cela, mais le rapport vise aussi à donner aux candidats et aux préparateurs des idées de développement de niveau varié. »

Liste des leçons de probabilités (posées en 2011-2015) :

— Suites de variables de Bernoulli indépendantes.

— Loi des grands nombres. Théorème de la limite centrale. Applications.

— Indépendance d’événements et de variables aléatoires. Exemples.

— Loi binomiale. Loi de Poisson. Applications.

— Espérance, variance et moments d’une variable aléatoire.

— Fonction caractéristique et transformée de Laplace d’une variable aléatoire. Exemples et applications.

— Modes de convergence d’une suite de variables aléatoires. Exemples et applications.

— Variables aléatoires à densité. Exemples et applications.

— Variables aléatoires discrètes. Exemples et applications.

— Utilisation en probabilités de la transformation de Fourier ou de Laplace et du produit de convolution.

Programme général – Extrait

10 Probabilités

1. Définition d’un espace probabilisé : événements, tribus, mesure de probabilité. Indépendance d’événements et de tribus. Loi du 0–1, lemmes de Borel–Cantelli.

2. Probabilités conditionnelles : définition, formule des probabilités totales et théorème de Bayes.

3. Variables aléatoires, loi d’une variable aléatoire : loi discrète et loi absolument continue. Fonction de répartition et densité.

1

(2)

4. Exemples de variables aléatoires : variable de Bernoulli, binomiale, de Poisson, uniforme, exponentielle, de Gauss.

5. Espérance et variance d’une variable aléatoire à valeurs réelles, théorème de transfert.

6. Indépendance de variables aléatoires. Loi conditionnelle d’une variable par rapport à une autre.

7. Transformations exponentielles de lois : fonction caractéristique, transformée de Laplace, fonction génératrice.

Liens avec l’indépendance et la convolution, application aux sommes de variables aléatoires indépendantes.

8. Convergences de suites de variables aléatoires : en probabilité, dans Lp, presque sûrement, en loi.

9. Inégalité de Markov, inégalité de Bienaymé–Tchebychev. Loi faible des grands nombres, applications en statis- tiques.

10. Théorème de Lévy, théorème central limite, applications en statistiques.

Programme de modélisation commun aux options A,B,C – Extrait

2. Probabilités discrètes : tirages uniformes ; échantillons.

3. Chaînes de Markov homogènes à espace d’états finis : définition, irréductibilité, apériodicité.

4. Validation et précision des résultats. Moyenne et variance empirique. Méthode de Monte-Carlo : vitesse de convergence ; applications au calcul d’intégrales multiples (exemple : calcul de volumes).

Programme spécifique de l’option A

1. Utilisation de lois usuelles (voir section 10.4, loi géométrique) pour modéliser certains phénomènes aléatoires.

Exemples : temps d’attente ou durée de vie, erreurs de mesure, sondages... Méthodes de simulation de variables aléatoires.

2. Chaînes de Markov à espace d’états finis. Classification des états. Convergence vers une loi stationnaire (théo- rème ergodique et théorème central limite admis). Chaînes de Markov homogènes à espace d’états dénombrable, transience, récurrence positive ou nulle, exemple de la marche aléatoire simple.

3. Lois de Poisson, exponentielle et Gamma, construction et propriétés du processus de Poisson surR+.

4. Espérance conditionnelle, définition des martingales, temps d’arrêt. Exemples d’utilisation, des théorèmes de convergence presque sûre et L2, des martingales à temps discret.

5. Échantillons, moments empiriques, loi et fonction de répartition empiriques.

6. Applications des théorèmes de convergences à l’estimation (lois des grands nombres, théorème central limite, utilisation du lemme de Slutsky). Définition et construction d’intervalles de confiance.

7. Estimation paramétrique. Estimation par maximum de vraisemblance : définition et exemples.

8. Vecteurs gaussiens : définition, simulation en dimension 2, théorème de Cochran. Théorème central limite dans Rn.

9. Modèle linéaire gaussien : calculs par moindres carrés, régression linéaire simple ou multiple, exemples d’utili- sation.

10. Tests paramétriques (test du rapport de vraisemblance). Tests d’ajustement (tests duχ2, tests de Kolmogorov- Smirnov). Exemples d’utilisation.

Compléments d’analyse numérique (Programme complémentaire pour les épreuves orales options A, B, C et D)

1. Résolution de systèmes d’équations linéaires. Normes subordonnées, notion de conditionnement, rayon spectral, décomposition LU, méthode de Jacobi. Exemple d’opérateurs aux différences finies. Lien avec l’optimisation de fonctionnelles convexes en dimension finie, méthode du gradient à pas constant pour les systèmes linéaires symé- triques définis positifs, moindres carrés. Recherche d’éléments propres : méthode de la puissance, décomposition en valeurs singulières, théorème de Gershgörin-Hadamard.

2. Méthode numérique pour la résolution de systèmes d’équations non linéaires. Méthode de Newton : définition, vitesse de convergence, estimation de l’erreur.

3. Intégration numérique : méthode des rectangles, des trapèzes, de Simpson ; estimation de l’erreur.

4. Équations différentielles ordinaires. Stabilité des points critiques. Aspects numériques du problème de Cauchy : méthodes d’Euler explicite et implicite, consistance, stabilité, convergence, ordre.

2

Références

Documents relatifs

ffl. ESPACE DES SUITES INFINIES III.l. L'ensemble U des suites u peut être identifié au tore T^ == I e0 à une infinité dénom- brable de dimensions. Le théorème de Tychonoff montre

• Il faut un indicateur qui mesure avec quelle « force » la valeur d’un échantillon à l’instant t+ τ dépend de la valeur à l’instant t .... Exemples Exemples

Les deux propriétés suivantes sont équivalentes : (a) P est presque sûrement à trajectoires continues. admet une version séparable dont presque toutes les

étant donnée une fonction y (i) qui a les propriétés d’une fonction de corrélation, peut-on trouver une fonction f dont elle provienne.. Ce problème ne peut

chacune correspond à une fonction aléatoire à accroissements station- nairement corrélés) donnant lieu à la compensation des corrélations recherchée, on peut

— Pour les processus réels de Markov la continuité locale de Feller au point to et la continuité locale en probabilité à droite du point tç, sont deux modes de

( 2 ) Bien entendu, toutes les fonctions aléatoires considérées ici se rapportent à une même catégorie d'épreuves... On a alors pour tout /r^K.. Slutsky) de la convergence

Khintchine suite équivalente a la suite des Un\ la substitution de i^à Un pour les valeurs de n dépassant un nombre suffisamment grand ne constitue un changement effectif que dans