Curriculum Vitæ
Sylvain Arlot
Département de Mathématiques d'Orsay Bâtiment 425 Faculté des Sciences d'Orsay
Université Paris-Sud 91405 ORSAY Cedex France
Tél: +33 1 69 15 67 31 E-mail:
Page web:http://www.math.u-psud.fr/~arlot/
Né le 2 mars 1983 Nationalité Française
Situation administrative
2015 . . . Professeur (2ème classe, section 26) Université Paris-Sud
2015 2016 En délégation (à mi-temps). Institut des Hautes Études Scientiques (IHES)
Oct. 2012 Août 2015 Chargé de Recherches 1ère classe, CNRS DI ENS, École Normale Supérieure, Paris
Oct. 2008 Sep. 2012 Chargé de Recherches 2ème classe, CNRS DI ENS, École Normale Supérieure, Paris
Sep. 2005 Août 2008 Allocataire-Moniteur Université Paris-Sud, Faculté des Sciences d'Or- say
Sep. 2001 Août 2005 Élève fonctionnaire stagiaire École Normale Supérieure, Paris
Publications
Journaux à comité de lecture
1. (2012) Matthieu Solnon, Sylvain Arlot et Francis Bach Multi-task regression using minimal penalties Journal of Machine Learning Research 13(Sep):27732812
2. (2011) Sylvain Arlot et Peter L. Bartlett Margin-adaptive model selection in statistical learning Bernoulli, Vol. 17, No 2, 687-713.
3. (2010) Sylvain Arlot et Alain Celisse Segmentation of the mean of heteroscedastic data via cross-validation Statistics and Computing, 2010 (120).
4. (2010) Sylvain Arlot et Alain Celisse A survey of cross-validation procedures for model selection Statistics Surveys, 4, 4079 (electronic).
5. (2010) Sylvain Arlot, Gilles Blanchard et Étienne Roquain Some non-asymptotic results on resampling in high dimension, I: condence regions The Annals of Statistics, Vol. 38, No. 1, 51-82.
6. (2010) Sylvain Arlot, Gilles Blanchard et Étienne Roquain Some non-asymptotic results on resampling in high dimension, II: multiple tests The Annals of Statistics, Vol. 38, No. 1, 83-99.
7. (2009) Sylvain Arlot Model selection by resampling penalization Electronic Journal of Statis- tics, 3, 557624 (electronic).
8. (2009) Josselin Desmars, Sylvain Arlot, Jean-Eudes Arlot, Valery Lainey et Alain Vienne Esti- mating the accuracy of satellite ephemerides using the bootstrap method Astronomy and Astrophysics, 499, 321330.
9. (2009) Sylvain Arlot et Pascal Massart Data-driven calibration of penalties for least-squares regression Journal of Machine Learning Research. 10(Feb):245279.
Actes de conférences avec comité de lecture
10. (2014) Damien Garreau, Rémi Lajugie, Sylvain Arlot et Francis Bach Metric Learning for Temporal Sequence Alignment Advances in Neural Information Processing Systems (Nips) 27, 18171825.
11. (2014) Rémi Lajugie, Sylvain Arlot et Francis Bach Large-Margin Metric Learning for Con- strained Partitioning Problems International Conference on Machine Learning, JMLR W& CP 32 (1): 297305.
12. (2009) Sylvain Arlot et Francis Bach Data-driven calibration of linear estimators with minimal penalties Advances in Neural Information Processing Systems (Nips) 22, 4654.
13. (2007) Sylvain Arlot, Gilles Blanchard et Étienne Roquain Resampling-based condence re- gions and multiple tests for a correlated random vector Proceedings of the Conference On Learning Theory (Colt 2007 ).
Prépublications
14. (2014) Sylvain Arlot et Robin Genuer Analysis of purely random forests bias arXiv:1407.3939 15. (2012) Sylvain Arlot et Matthieu Lerasle Why V = 5 is enough in V-fold cross-validation
arXiv:1210.5830
16. (2012) Sylvain Arlot, Alain Celisse et Zaïd Harchaoui Kernel change-point detection arXiv:1202.3878 17. (2011) Sylvain Arlot et Francis Bach Data-driven calibration of linear estimators with
minimal penalties arXiv:0909.1884
18. (2010) Sylvain Arlot Choosing a penalty for model selection in heteroscedastic regression arXiv:0812.3141
19. (2008) Sylvain ArlotV-fold cross-validation improved:V-fold penalization arXiv:0802.0566 20. (2004) Sylvain Arlot Étude d'un modèle de dynamique des populations Mémoire de DEA
sous la direction de Jean-Christophe Yoccoz arXiv:1204.0799
Manuel d'enseignement
21. (2015) Sylvain Arlot, Aurélien Garivier et Gilles Stoltz Exercices d'oral de mathématiques Collection Références sciences, Ellipses. Classes prépas BL - ECE - ECS. Corrigés et commentés.
Autres textes
22. (2012) Rémi Lajugie, Francis Bach et Sylvain Arlot Metric learning for partitioning prob- lems NIPS Workshop on Discrete Optimization in Machine Learning (DISCML) 2012
23. (2010) Sylvain Arlot et Francis Bach Data-driven penalties for linear estimators selection Oberwolfach Reports Vol. 7, no. 1. Report No.16/2010. Workshop: Modern Nonparametric Statis- tics: Going Beyond Asymptotic Minimax
24. (2010) Sylvain Arlot Session Sélection de modèles Journées MAS de la SMAI
25. (2007) Sylvain ArlotV-fold penalization: an alternative toV-fold cross-validation Oberwol- fach Reports Vol. 4, no. 4. Report No.50/2007. Workshop: Reassessing the Paradigms of Statistical Model Building
26. (2007) Sylvain Arlot Model selection by resampling penalization arXiv:math.ST/0701542
Logiciels
27. (2012) Matthieu Solnon, Sylvain Arlot et Francis Bach Boîte à outils pour la régression mul- titâches: multitask_minpen http://www.di.ens.fr/~solnon/multitask_minpen_fr.html 28. (2010) Sylvain Arlot et Alain Celisse Change-Point Detection via Cross-Validation http:
//www.di.ens.fr/~arlot/code/CHPTCV.htm
29. (2009) Sylvain Arlot, Gilles Blanchard et Étienne Roquain Condence Regions and Multiple Tests by Resampling http://www.di.ens.fr/~arlot/code/CRMTR.htm
30. (2008) Sylvain Arlot Resampling Penalization for histogram selection in regression http:
//www.di.ens.fr/~arlot/code/RP.htm
Habilitation à diriger des recherches
Titre: Contributions à la théorie statistique de l'apprentissage: sélection d'estimateurs et détection de ruptures.
Soutenue le 3 décembre 2014 à l'Université Paris Diderot.
Manuscrit disponible à l'adressehttp://tel.archives-ouvertes.fr/tel-01094989.
Rapporteurs : M. Stéphane Boucheron Université Paris Diderot M. Arnak Dalalyan ENSAE
M. Gábor Lugosi ICREA / Universitat Pompeu Fabra
Jury : M. Francis Bach INRIA Examinateur
M. Patrice Bertail Université Paris Ouest Nanterre Examinateur M. Lucien Birgé Université Pierre et Marie Curie Président M. Stéphane Boucheron Université Paris Diderot Rapporteur
M. Arnak Dalalyan ENSAE Rapporteur
M. Nicolas Vayatis École Normale Supérieure de Cachan Examinateur
Thèse
Titre: Rééchantillonnage et Sélection de modèles.
Soutenue le 13 décembre 2007 à l'Université Paris-Sud.
Directeur de thèse: Pascal Massart.
Manuscrit disponible à l'adressehttp://tel.archives-ouvertes.fr/tel-00198803.
J'ai reçu pour ma thèse le prix Marie-Jeanne Laurent-Duhamel 2011 de la Société Française de Statistique (SFDS).
Rapporteurs : M. Peter L. Bartlett University of California, Berkeley M. Yuhong Yang University of Minnesota
Jury : M. Patrice Bertail CREST et Université Parisx Examinateur M. Philippe Berthet Université RennesI Examinateur M. Gilles Blanchard Fraunhofer FIRST, Berlin Examinateur M. Stéphane Boucheron Université ParisVII Président M. Olivier Catoni CNRS et Université ParisVI Examinateur M. Pascal Massart Université ParisXI, Orsay Directeur Résumé: Cette thèse s'inscrit dans les domaines de la statistique non-paramétrique et de la théorie statis- tique de l'apprentissage. Son objet est la compréhension ne de certaines méthodes de rééchantillonnage ou de sélection de modèles, du point de vue non-asymptotique.
La majeure partie de ce travail de thèse consiste dans la calibration précise de méthodes de sélection de modèles optimales en pratique, pour le problème de la prédiction. Nous étudions la validation croisée V-fold (très couramment utilisée, mais mal comprise en théorie, notamment pour ce qui est de choisirV) et plusieurs méthodes de pénalisation. Nous proposons des méthodes de calibration précise de pénalités, aussi bien pour ce qui est de leur forme générale que des constantes multiplicatives. L'utilisation du rééchantillonnage permet de résoudre des problèmes diciles, notamment celui de la régression avec un niveau de bruit variable. Nous validons théoriquement ces méthodes du point de vue non-asymptotique, en prouvant des inégalités oracle et des propriétés d'adaptation. Ces résultats reposent entre autres sur des inégalités de concentration.
Un second problème que nous abordons est celui des régions de conance et des tests multiples, lorsque l'on dispose d'observations de grande dimension, présentant des corrélations générales et inconnues. L'utili- sation de méthodes de rééchantillonnage permet de s'aranchir du éau de la dimension, et d' apprendre
ces corrélations. Nous proposons principalement deux méthodes, et prouvons pour chacune un contrôle non-asymptotique de leur niveau.
Mots-clés: Statistique non-paramétrique, apprentissage statistique, rééchantillonnage, non-asymptotique, validation croiséeV-fold, bootstrap, sélection de modèles, pénalisation, régression non-paramétrique, adap- tation, hétéroscédastique, régions de conance, tests multiples.
Distinctions
2011 Prix de thèse Marie-Jeanne Laurent-Duhamel Société Française de Statistique 20102011 Cours Peccot Collège de France
1999 40eOlympiades Internationales de Mathématiques Bucarest, Roumanie Médaille de bronze
1999 Concours Général de mathématiques 1eraccessit
Participation à des projets scientiques
2015 Membre du projet MASTODONS Titan (dirigé par André Ferrari & Zaïd Har- chaoui)
20132014 Membre du projet MASTODONS Gargantua (dirigé par Zaïd Harchaoui, INRIA Grenoble)
20122015 Membre du projet ANR Calibration (dirigé par Vincent Rivoirard, Univ. Paris Dauphine)
20092012 Porteur du projet ANR Detect: Nouvelles approches statistiques pour la vision articielle et la bioinformatique
Voir aussihttp://www.di.ens.fr/~arlot/ANR-DETECT.htm.
20072013 Membre du réseau d'excellence européen Pascal (Pattern Analysis, Statistical Modelling and Computational Learning) puis Pascal 2 depuis 2008
20052008 Membre du Projet Select INRIA Saclay
Visites scientiques
Mars 2012 Università degli Studi di Siena Duccio Papini Fév. 2011 Scuola Normale Superiore di Pisa Stefano Marmi Déc. 2009 University of California, Berkeley Peter L. Bartlett
Nov. 2009 Scuola Normale Superiore di Pisa et Università degli Studi di Siena Stefano Marmi et Duccio Papini
Jan.Avr. 2008 University of California, Berkeley Peter L. Bartlett
Activités de review
Journaux: Annales de l'Institut Henri Poincaré (2012), Annals of Statistics (2008×3, 2010×2, 2012, 2013, 2014), Bernoulli (2010, 2013), Computational Statistics and Data Analysis (2011), Electronic Journal of Statistics (2009), IEEE Transactions on Systems, Man and Cybernetics Part B (2008), IEEE Transactions on Pattern Analysis and Machine Intelligence (2010), Journal de la SFDS (2009), Journal of Econometrics (2014), Journal of Machine Learning Research (2007, 2008), Journal of the Royal Statistical Society Series B (2010), Scandinavian Journal of Statistics (2010), Statistics and Computing (2009, 2010)
Conférences: Aistats 2011, Colt 2008, 2013, Icml 2015 Livres: Société Mathématique de France (2013)
Projets: Challenge Pascal (2007, 2012), Projets Exploratoires PluridisciplinaireS de l'INSMI (2010)
Responsabilités collectives
20122015 Membre élu du conseil de laboratoire DI/ENS
Encadrement d'étudiants
Doctorants:
Damien Garreau (2014. . . ) Apprentissage de noyaux pour la détection de ruptures (co-encadré avec Gérard Biau)
Rémi Lajugie (2012. . . ) Apprentissage robuste avec sorties structurées (co-encadré avec Fran- cis Bach)
Matthieu Solnon (20102013) Apprentissage statistique multi-tâches (co-encadré avec Francis Bach) Thèse soutenue le 25 novembre 2013
Stagiaires de M2 ou équivalent:
Damien Garreau (2014) Apprentissage de métrique et déformation temporelle dynamique (co- encadré avec Francis Bach)
Matteo Tanzi (2013) Denoising and Parameter Estimation for Deterministic Dynamical Systems (co-encadré avec Stefano Marmi)
Rémi Lajugie (2012) Apprentissage de métrique pour la détection de rupture (co-encadré avec Francis Bach)
Matthieu Solnon (2010) Apprentissage multi-tâches et pénalités minimales (co-encadré avec Francis Bach)
Stagiaires de M1:
Anisse Ismaili et Pierre Gaillard (2009) Le Lasso, ou comment choisir parmi un grand nombre de variables à l'aide de peu d'observations
Membre de jurys de thèse
Avr. 2011 Pierre Connault Université Paris-Sud Examinateur Juin 2009 Matthieu Lerasle INSA Toulouse Examinateur
Participation à l'organisation d'événements scientiques
2013. . . Co-organisateur Séminaire SMILE, École Normale Supérieure, Paris, France Juin 2013 Membre du comité de programme Workshop on Industry & Practices for Fore-
casting (WIPFOR), Paris, France
Sep. 2010 Session Sélection de modèles Journées MAS de la SMAI, Université Bordeaux 1, France
Exposés dans des congrès ou workshops internationaux
Fév. 2015 Cross-validation for estimator selection (keynote speaker) SMPGD 2015: Statistical Methods for Post Genomic Data, Ludwig-Maximilians University, Munich, Alle- magne Invité par Sylvie Huet, Béatrice Laurent-Bonneau, Franck Picard & Stéphane Robin
Mai 2014 Optimal model selection with V-fold cross-validation: how should V be chosen? High Dimensional Probability VII, Institut d'études scientiques, Cargese, France Invité par Patricia Reynaud-Bouret
Avr. 2014 Kernel change-point detection Workshop Kernel methods for big data, Université Lille 1, France Invité par Julien Jacques, Guillemette Marot & Alain Celisse
Déc. 2013 Optimal data-driven estimator selection with minimal penalties (keynote lecture) Ren- contres de Statistique Mathématique, CIRM, Marseille-Luminy, France Invité par Christophe Pouet, Markus Reiss & Philippe Rigollet
Mars 2013 Optimal model selection with V-fold cross-validation: how should V be chosen? Fête Parisienne in Computation, Inference and Optimization: A Young Re- searchers' Forum, IHES, France Invité par Francis Bach & Michael Jordan
Jan. 2013 Kernel change-point detection Final workshop of the thematic cycle Non- stationarity and risk management , CIRM, Marseille, France Invité par Paul Doukhan, Konstantinos Fokianos, Flora Koukiou & Jean-Luc Prigent
Juil. 2012 Optimal model selection withV-fold cross-validation: how shouldV be chosen? World Congress in Probability and Statistics 2012, Istanbul, Turquie Invité par Gilles Blanchard
Mars 2012 Resampling-based estimation of the accuracy of satellite ephemerides Inaugural Con- ference of the Laboratory Fibonacci, Scuola Normale Superiore di Pisa, Pisa, Italie Août 2011 Resampling-based condence regions and multiple tests International Conference on Multiple Comparison Procedures, Washington, D.C., USA Invité par James Troendle
Mai 2011 Sélection d'estimateurs avec des pénalités aléatoires (exposé pleinier pour la remise du prix Marie-Jeanne Laurent-Duhamel) 43e Journées de Statistique (SFDS 2011), Tunis, Tunisie
Mars 2010 Data-driven penalties for linear estimator selection Workshop Modern Nonpara- metric Statistics: Going Beyond Asymptotic Minimax , MFO, Oberwolfach, Allemagne Invité par Lucien Birgé, Iain Johnstone & Vladimir Spokoiny
Déc. 2009 Data-driven calibration of linear estimators with minimal penalties NIPS (poster), Vancouver, Canada
Juil. 2009 Optimal model selection European Meeting of Statisticians, Toulouse, France Invité par Gilles Blanchard
Sep. 2008 Data-driven calibration of penalties for least squares regression Statistique mathé- matique et applications, Fréjus, France
Juin 2008 V-fold penalization: an alternative to V-fold cross-validation Congrès Canada- France, Université du Québec, Montréal, Canada Invité par Yannick Baraud
Mars 2008 V-fold cross-validation improved:V-fold penalization Cherry Bud Workshop 2008, Keio University, Yokohama, Japon Invité par Ritei Shibata
Oct. 2007 V-fold penalization: an alternative toV-fold cross-validation Workshop Reassess- ing the paradigms of statistical model-building , MFO, Oberwolfach, Allemagne Invité par Ursula Gather, Peter Hall & Hans-Rudolf Künsch
Juin 2007 Resampling based condence regions and multiple tests for a correlated random vector Conference On Learning Theory (Colt'07), San Diego, Californie, USA
Mai 2007 Resampling based condence regions and multiple tests for a correlated random vector Multiple Simultaneous Hypothesis Testing workshop, Workshop et challenge Pascal, Paris, France
Nov. 2006 Model selection in regression with resampling penalties Statistique mathématique et applications, CIRM, Marseille, France
Juil. 2006 Resampling penalties in statistical learning École d'été de probabilités, Saint-Flour, France
Exposés dans des congrès ou workshops nationaux
Fév. 2015 Comparaison de procédures de validation croisée (V-fold) Conférence Calibra- tion statistique (projet ANR Calibration), Université de Nice-Sophia Antipolis, France Invité par Patricia Reynaud-Bouret & Vincent Rivoirard
Oct. 2010 Resampling-based condence regions and multiple tests Journées de statistique Rennes 2010: statistique en grande dimension, Université Rennes 2, France Invité par Dominique Dehay
Jan. 2010 Data-driven penalties for optimal calibration of learning algorithms Workshop Chal- lenging problems in statistical learning , Université Paris 1, France Invité par Charles Bouveyron
Juin 2008 V-fold cross-validation improved:V-fold penalization Journées Statistiques du Sud, INSA Toulouse, France Invité par Béatrice Laurent
Avr. 2008 Calibration automatique de méthodes de sélection de modèles par pénalisation Colloque des Jeunes Probabilistes et Statisticiens, Aussois
Sep. 2007 Sélection de modèles par rééchantillonnage: La pénalisation V-fold, une alternative à la validation croisée Rencontres des Jeunes Statisticiens, Aussois
Juin 2007 Model selection by resampling Congrès National de la SMAI, Praz-sur-Arly, France Invité par Stéphane Boucheron
Exposés invités dans les séminaires et groupes de travail
Jan. 2015 Analyse du biais de forêts purement aléatoires Séminaire de Probabilités et Statis- tiques, Laboratoire JA Dieudonné, Université de Nice-Sophia Antipolis, France Invité par François Delarue
Nov. 2013 Analyse du biais de forêts purement aléatoires Séminaire de l'Équipe de Probabil- ités et Statistiques, Institut Elie Cartan, Nancy, France Invité par Aurélie Gueudin
& Ivan Nourdin
Nov. 2013 Kernel change-point detection Groupe de Travail de Statistique de Jussieu, Paris 6, France Invité par Bertrand Michel & Olivier Wintenberger
Fév. 2013 Sélection de modèles par validation croisée et sélection de paramètres pour la régression ridge et le lasso Groupe de travail Parietal-Select, Saclay, France Invité par Bertrand Thirion
Déc. 2012 Pénalités minimales et sélection d'estimateurs optimale Séminaire de Probabilités, ENS Lyon, France Invité par Christophe Garban & Anne-Laure Fougères
Mars 2012 Choix deV pour la sélection de modèles par validation croiséeV-fold en estimation de densité Séminaire parisien de statistique, IHP, Paris, France Invité par Étienne Roquain
Jan. 2012 Calibration automatique d'estimateurs linéaires à l'aide de pénalités minimales, appli- cation à la régression multi-tâches Séminaire de Statistique, IMT, Toulouse, France Invité par Xavier Gendre & Clément Marteau
Nov. 2011 Data-driven calibration of linear estimators with minimal penalties, with an applica- tion to multi-task regression Statistics Seminar, Cambridge, UK Invité par Richard Samworth
Oct. 2011 Pénalités minimales et sélection d'estimateurs optimale Colloquium du MAP 5, Paris 5, Paris, France Invité par Mireille Chaleyat-Maurel
Oct. 2011 Calibration automatique d'estimateurs linéaires à l'aide de pénalités minimales, applica- tion à la régression multi-tâches Séminaire de Statistique, IRMAR, Rennes, France Invité par Julie Josse
Oct. 2010 Margin adaptive model selection in statistical learning Séminaire de Statistiques, CREST, Paris, France Invité par Pierre Alquier & Alexandre Tsybakov
Jan. 2010 Calibration automatique d'estimateurs linéaires à l'aide de pénalités minimales Sémi- naire Probabilités et Statistiques, Université Lille 1, Lille Invité par Thomas Simon
Nov. 2009 Resampling-based estimation of the accuracy of satellite ephemerides Département de mathématiques, Scuola Normale Superiore di Pisa, Pisa, Italie Invité par Stefano Marmi
Nov. 2009 Study of the Yoccoz-Birkeland model Dipartimento di Ingegneria dell'Infor- mazione, Università degli Studi di Siena, Italie Invité par Duccio Papini
Avr. 2009 Data-driven penalties for model selection Mathematical Statistics Seminar, Weier- strass Institute, Berlin, Allemagne Invité par Vladimir Spokoiny
Mai 2008 La pénalisation V-fold : une alternative à la validation croisée Séminaire de Prob- abilités, ÉNS Lyon Invité par Cédric Bernardin
Mai 2008 La pénalisation V-fold : une alternative à la validation croisée Séminaire de Prob- abilités et Statistiques, Université Aix-Marseille 1 Invité par Florent Autin
Mars 2008 V-fold cross-validation improved:V-fold penalization Groupe de travail de Bin Yu, Statistics Department, UC Berkeley, USA Invité par Bin Yu
Fév. 2008 V-fold cross-validation improved:V-fold penalization CIS Seminar, Computer Science Department, UC Berkeley, USA Invité par Alexander Rakhlin
Déc. 2007 Rééchantillonnage et Sélection de modèles Soutenance de thèse, Laboratoire de Math- ématiques, Université Paris-Sud, Orsay
Déc. 2007 La pénalisation V-fold : une alternative à la validation croisée Séminaire Parisien de Statistiques, IHP, Paris Invité par Patricia Reynaud-Bouret
Déc. 2007 La pénalisation V-fold : une alternative à la validation croisée Groupe de travail des thésards, LSTA, Université Paris 6 Invité par Olivier Bouaziz
Nov. 2007 La pénalisation V-fold , une alternative à la validation croisée Séminaire du Lab- oratoire de Statistiques et Probabilités, Université Toulouse 3 Invité par Béatrice Laurent
Nov. 2007 V-fold penalization: an alternative to V-fold cross-validation Séminaire TAO, Lab- oratoire de Recherche en Informatique, Université Paris-Sud, Orsay Invité par Olivier Teytaud
Oct. 2007 La pénalisation V-fold , une alternative à la validation croisée Séminaire du Lab- oratoire Jean-Dieudonné, Université de Nice Sophia Antipolis Invité par Yannick Baraud
Juil. 2007 Régions de conance par rééchantillonnage Séminaire de l'Équipe MMiXT, Lab- oratoire LENA, Hôpital de La Pitié-Salpêtrière, Paris Invité par Sylvain Baillet Mars 2007 Sélection de modèles et Apprentissage statistique Groupe de travail des thésards
Delphine-Sabourin, Université Paris-Dauphine Invité par Anne-Laure Dalibard Nov. 2006 Sélection de modèles par rééchantillonnage Groupe de Travail de Statistique,
LPMA, Universités Paris 6 et 7 Invité par Stéphane Boucheron
Oct. 2006 Sélection de modèles par rééchantillonnage Groupe de Travail Apprentissage, ÉNS Ulm, Paris Invité par Gilles Stoltz
Oct. 2006 Chaos et campagnols Séminaire des doctorants, Université Paris-Sud, Orsay Invité par Laurent Thomann
Mai 2006 Étude d'un modèle de dynamique des populations Groupe de Travail Maths-Bio, ÉNS Ulm, Paris Invité par Vincent Calvez
Jan. 2006 Pénalisation par rééchantillonnage en apprentissage Groupe de Travail INAPG- Select, INAPG, Paris
Nov. 2004 La concentration est utile à l'apprentissage Séminaire des élèves, ÉNS Ulm, Paris Invité par Jonas Kahn
Enseignement
20092015 Apprentissage Statistique Université Paris-Sud cours du M2 Probabilités et Statistiques [12h de cours + environ 6h d'exposés d'élèves]
20102013 Jury de mathématiques École Normale Supérieure (Paris) concours d'admission (candidats de niveau L2), voie B/L [sujet et correction de l'écrit (503 à 636 copies) + 30 heures d'interrogations orales]
20082013 Tuteur École Normale Supérieure (Paris)
Juil. 2013 Tutoriel CEMRACS 2013 Classication and statistical machine learning [1h]
Jan.Fév.
2012 Model selection via penalization, resampling and cross-validation, with ap- plication to change-point detection Université de Cergy mini-cours niveau M2/doctorat [6h]
Fév. 2011 Model selection and estimator selection for statistical learning Scuola Normale Superiore di Pisa mini-cours niveau M2/doctorat [10h]
20102012 Leçons de mathématiques: classication École Normale Supérieure (Paris) cours de 2ème année (niveau M1) [9h]
20102012 Apprentissage statistique École Normale Supérieure (Paris) cours de 1ère année (niveau M1) [10h]
20082009 Classication supervisée: des algorithmes et leur calibration automatique École Centrale Paris cours de 3ème année (niveau M2) [12h+3h]
20052008 Moniteur Université Paris-Sud, Ifips Travaux Dirigés au 1er semestre du cycle préparatoire [64h]
Diusion des savoirs
Mai 2008 Le Mensuel de l'Université Article Comment choisir un modèle?
20052008 Math.en.Jeans Animation de l'atelier du lycée Sainte-Marie d'Antony Avr. 2007 Science Académie Animation et exposé Statistiques et Sélection de modèles
20012007 Forum Sciences TPE Réponse à des questions de lycéens dans le cadre de leurs Travaux Personnels Encadrés
Juil. 2006 Festival des Sciences Paris-Montagne Animation d'un atelier à l'ÉNS Paris Le réchauement climatique
Cursus universitaire
2014 Habilitation à diriger des recherches, spécialité Mathématiques Université Paris Diderot Titre: Contributions à la théorie statistique de l'apprentissage:
sélection d'estimateurs et détection de ruptures.
20042007 Doctorat en Sciences, spécialité Mathématiques Université Paris-Sud mention très honorable Thèse dirigée par Pascal Massart. Titre: Rééchantillonnage et Sélection de modèles. Prix Marie-Jeanne Laurent-Duhamel 2011 de la Société Française de Statistique (SFDS)
20032004 DEA Modélisation Stochastique et Statistique Université Paris-Sud mention très bien, rang 1er stage sous la direction de J.-C. Yoccoz
20022003 Maîtrise de Mathématiques Université Paris-Sud mention très bien 20012002 Licence de Mathématiques Université Paris-Sud mention très bien 20012005 Élève École Normale Supérieure de Paris (rang d'admission: 1er) 19992001 Classes préparatoires MPSI et MP? Lycée Hoche, Versailles 1999 Baccalauréat série S Lycée Hoche, Versailles mention très bien
Langues
Anglais écrit et parlé couramment
Compétences en informatique
Linux, Windows LATEX, HTML
Logiciels: Matlab, Scilab, Maple, R
Programmation: Caml, connaissances de base en C et Fortran