• Aucun résultat trouvé

Sujets de Recherche disponibles à l’UMONS

N/A
N/A
Protected

Academic year: 2022

Partager "Sujets de Recherche disponibles à l’UMONS"

Copied!
2
0
0

Texte intégral

(1)

Sujets de Recherche disponibles à l’UMONS

Titre (Français) Approximations matricielles de rang faible sous contraintes: développement théoriques et algorithmiques pour les praticiens

Title (English) Constrained Low-Rank Matrix Approximations:

Theoretical and Algorithmic Developments for Practitioners

Informations administratives

Personne proposant le sujet /email

Nicolas Gillis

nicolas.gillis@umons.ac.be

Service Mathématique et recherche opérationnelle

Faculté Polytechnique

Institut INFORTECH / NUMEDIART

Informations relatives au sujet proposé

Niveau de recherche ☒Doctorat ☒Post-Doc

5 mots-clés (français) Optimisation, approximations de rang faible de matrices, algèbre numérique linéaire, analyse de données,

complexité calculatoire

5 keywords (English) Optimization, low-rank matrix approximations, numerical linear algebra, data mining, computational complexity

Bref descriptif (10-15 lignes) (français)

Les techniques d'approximation matricielle de rang faible (LRA) telle que l'analyse en composantes principales (PCA) sont des outils puissants pour la représentation et l'analyse de données de grande taille, et sont utilisées dans un grand nombres de domaines tels que l'apprentissage automatique, le traitement du signal, l'analyse de données, et

l'optimisation. Au cours de ces dernières années, de nombreuses variantes de LRA ont été introduites, utilisant d'autres fonctions objectif pour quantifier l'erreur d'approximation et imposant des contraintes supplémentaires sur les facteurs de la décomposition ; par exemple, la PCA creuse et/ou avec données manquantes, l'analyse en composantes indépendantes, et la factorisation positive de matrices. Bien que ces nouveaux modèles soient devenus très populaires et standards dans certains domaines, il y a un décalage important entre la théorie et la pratique. Dans ce projet, notre objectif est de diminuer ce décalage et d'attaquer ce type de problèmes de manière intégrée, en considérant quatre aspects différents mais complémentaires: (1) la complexité algorithmique, (2) les

algorithmes avec garantie de succès, (3) les heuristiques, et (4) les applications.

(2)

Summary (10-15 lines) (English)

Low-rank matrix approximation (LRA) techniques such as principal component analysis (PCA) are powerful tools for the representation and analysis of high dimensional data, and are used in a wide variety of areas such as machine learning, signal and image processing, data mining, and optimization. In recent years, many variants of LRA have been

introduced, using different constraints on the factors and using different objective functions to assess the quality of the approximation; e.g., sparse PCA, PCA with missing data, independent component analysis and nonnegative matrix factorization. Although these new constrained LRA models have become very popular and standard in some fields, there is still a significant gap between theory and practice. Our goal is to reduce this gap by attacking the problem in an integrated way making connections between LRA variants, and by using four very different but complementary perspectives: (1)

computational complexity issues, (2) provably correct algorithms, (3) heuristics for difficult instances, and (4) application-oriented aspects .

Références

Documents relatifs

L’algorithme de ”recherche directe du sous-espace” peut ˆetre perc¸u comme un algorithme qui ”saute” les donn´ees manquantes via l’introduction d’une matrice de poids dans

Note : Dans le cas de l'acp de la matrice des corrélations, les coordonnées des variables sont égales aux corrélations entre les variables et les différents vecteurs propres

2. Précision des approximations et localisation des valeurs et vecteurs propres Une méthodologie classique pour appréhender les erreurs d'approximation repose sur l'utilisation

Si on dispose d’un programme informatique de mise en oeuvre de STATIS Dual, la réalisation de l’ACP de distributions gaussiennes multidimensionnelles ne nécessite que

De nombreux critères ont été proposés dans la littérature pour guider le choix de la dimension en Analyse en Composantes Principales (ACP).. Un développement de

Les éléments de A étant les coordonnées des variables observables sur les facteurs communs, si A contient de nombreux éléments nuls (structure simple pour A),

cation de ces ressemblances par le calcul de distances euclidiennes entre les indi- vidus rendu possible par le choix d’une métrique Q sur RP.. L’ANALYSE EN

Cas 1 : Lorsque les ko premiers facteurs, issus d’une analyse en composantes princi- pales ou d’une analyse d’image, sont associés à des groupes de variables