Traitement automatique des données

Top PDF Traitement automatique des données:

Accès sémantique aux bases de données documentaires. Techniques symboliques de traitement automatique du langage pour l'indexation thématique et l'extraction d'informations temporelles

Accès sémantique aux bases de données documentaires. Techniques symboliques de traitement automatique du langage pour l'indexation thématique et l'extraction d'informations temporelles

C HAPITRE 3 L A NOTION DE TEMPS 3.1 Introduction Dans cette deuxième partie, c’est le problème du traitement automatique de l’information temporelle qui est abordé. Cette tâche consiste, dans les textes en langage naturel, à repérer les éléments qui vé- hiculent ce type d’information, à les interpréter afin de leur donner une valeur univoque dans l’espace du temps, et, finalement, à en fournir une représentation normalisée. Le résultat d’une telle analyse est important car il apporte la possibilité d’exploiter plus facilement et de manière plus complète les informations temporelles. Celles-ci apparaissent dans de nombreux types de textes, quel que soit le thème abordé. Bien qu’elles puissent être considérées comme des données à part entière, les informa- tions temporelles constituent souvent une dimension particulière en rapport avec une autre informa- tion (statut de métadonnée par rapport à celle-ci). Nous considérons que les références temporelles constituent des éléments particulièrement intéressants pour l’indexation de textes, et c’est dans ce but qu’elles sont exploitées au chapitre 8. Cependant, que ce soit dans le cadre de la recherche ou de l’extraction d’informations, et que le but soit l’amélioration de l’accès aux documents ou tout autre objectif, de nombreuses applications peuvent tirer profit de l’analyse temporelle (construction de bases de connaissances à partir de corpus de textes non structurés, résumé automatique, la traduction automatique, etc).
En savoir plus

348 En savoir plus

Segmentation semi-automatique pour le traitement de données 3D denses : application au patrimoine architectural

Segmentation semi-automatique pour le traitement de données 3D denses : application au patrimoine architectural

une étape essentielle dans la chaîne de traitement de nuage de points. Son but est d’extraire d’un large volume de données 3D différents groupes qui partagent un lien logique pour les considérer comme une même entité. Elle définit la pertinence et la précision de la reconstruction d’un modèle 3D, tout en offrant un haut niveau d’analyse de la scène. Dans cette étude, une méthode semi-automatique de segmentation est développée basée sur une approche multi perspective adaptée tant au patrimoine architectural aux détails prononcés qu’aux scènes géométriques et industrielles. La méthode a été exploitée dans le cadre du projet de numérisation de la cathédrale Saint-Paul de Liège
En savoir plus

7 En savoir plus

Le traitement automatique des langues face aux données textuelles volumineuses et potentiellement dégradées : qu'est-ce que cela change ?

Le traitement automatique des langues face aux données textuelles volumineuses et potentiellement dégradées : qu'est-ce que cela change ?

Comme nous l’avons mentionné précédemment, le TAL empirique, en particulier à l’ère du Big Data, fait un usage massif de techniques d’apprentissage artificiel [17, 19] pour faire émerger des connaissances des corpora de données textuelles. L’apprentissage artificiel est une branche de l’IA qui étudie comment on peut écrire des programmes qui s’améliorent en se confrontant aux données. Les méthodes traditionnellement utilisées en TAL relèvent tant de l’apprentissage supervisé, dans lequel on dispose de données étiquetées (c’est-à-dire pour lesquelles le résultat visé par l’apprentissage est fourni par un expert) que de l’apprentissage non supervisé dans lequel ce n’est pas le cas et où les méthodes tentent par exemple de regrouper des éléments qui se ressemblent (tâche de clustering dans laquelle on peut ou non connaître à l’avance le nombre de regroupements (clusters) à produire), voire de l’apprentissage semi-supervisé dans lequel le nombre de données étiquetées est réduit. Les représentations de données textuelles peuvent être apprises ; les outils décrits au paragraphe précédent peuvent aussi l’être ; des clusters de textes, phrases ou mots proches au niveau de leur sens peuvent être calculés automatiquement à partir de leurs représentations ; enfin des connaissances peuvent être acquises en étudiant des masses de données textuelles et en en faisant émerger des régularités. On peut d’ailleurs considérer que le chercheur en TAL à l’heure du Big Data se transforme de plus en plus en un scientifique des données ayant à sa disposition un panel de modes de représentation, de techniques d’apprentissage, de mesures de similarité, de méthodes de visualisation des données, et devant être capable de choisir la méthodologie permettant de faire au mieux sourdre des données l’information souhaitée.
En savoir plus

16 En savoir plus

Une méthode de traitement automatique des questions ouvertes dans une enquête consommateur

Une méthode de traitement automatique des questions ouvertes dans une enquête consommateur

Ä des données consommateurs pour décrire les préférences et le caractère hédonique d’un produit alimentaire. Après une présentation générale du domaine de l’analyse sensorielle, deux exemples concrets nous montrerons que l’analyse de ces deux sortes de données aboutie à des informations différentes et complémentaires.

8 En savoir plus

Généralisation de données textuelles adaptée à la classification automatique

Généralisation de données textuelles adaptée à la classification automatique

1.1.3 Espagne La majorité des bassins de lagunage en Espagne sont implantés dans le sud du pays et surtout dans les provinces des villes de Murcia, Alicante et Almeria (Alexiou et Mara, 2003; Garcia et al., 2000 ; Gratziou et Chalatsi, 2013). Parmi ceux-ci, deux lagunages de la région de Murcia ont été dimensionnés pour le traitement d’effluents urbains et industriels (95000 E.H). Ces systèmes reçoivent une charge organique et une quantité de sulfates très importantes, avec 3500 et 5600 kg de DBO 5 par jour, et 400 à 1100 mg.L -1 de SO 4 2- (Soler et al., 2005). L’abattement en DBO 5 était de 75% en hiver et 84% en été. A Almeria, neuf STEP par lagunage (800 à 10000 E.H), présentaient une concentration inférieure à 200mg.L -1 en DCO dans l’effluent final filtré. En Catalogne, huit lagunages sont opérationnels et traitent les effluents de communes où la principale activité est l’agriculture (< 2000E.H) Le plus ancien d’entre eux a été construit en 1985. La plupart des bassins de lagunage espagnols reçoivent les eaux à partir d’un réseau unitaire. Le débit des eaux brutes est compris entre 20 et 800m 3 /jour, et toutes les STEP qui utilisent les bassins aérobies comme étape finale déversent leurs effluents directement dans la mer. Les STEP comprennent trois à quatre bassins en série constitués soit de deux bassins de finition suivis de deux bassins anaérobies, soit de deux bassins anaérobies, suivis de deux bassins aérobies (Garcia et al., 2000; Gómez Cerezo et al., 2001; Matamoros et Salvadό., 2012).
En savoir plus

204 En savoir plus

Un état des lieux du traitement automatique du mandarin

Un état des lieux du traitement automatique du mandarin

alors la question des variantes d’une langue à l’autre, qui est théoriquement difficile et peut heurter les sensibilités nationales. La décennie précédente a également vu la mise à disposition de ressources proposant une description de la décomposition des caractères, par exemple par le projet CHISE 9 qui utilise le système IDS préconisé par le consortium Unicode (Allen 2014), le 小學堂/ xiăoxuétáng de l’Academia Sinica 10 , qui intègre les données du projet 11 ou le CDL (Character Description Language) proposé par l’Institut Wenlin (Bishop 2003). Elles permettent d’ouvrir de nouveaux champs d’études et d’aider à la résolution de nouvelles tâches comme la correction orthographique automatique en mandarin (Yu et al. 2014).
En savoir plus

22 En savoir plus

Apprentissage symbolique de grammaires et traitement automatique des langues

Apprentissage symbolique de grammaires et traitement automatique des langues

L’inférence grammaticale désigne la problématique qui consiste à apprendre des langages à partir de données. Tout cadre formel pour ce problème doit donc avant tout définir les termes apprentissage, langages et données, c’est-à-dire répondre aux questions suivantes : nature des données dont on dispose ? simples séquences de mots (chaînes), arbres, termes, graphes ou tout autre type de structures, mais aussi quantité, qualité, complétude des données. Type de langages considéré, et représentation des langages ? restrictions éventuelles, niveau d’abstraction (e.g. sans contrainte particulière sur la relation entre langages et grammaires, ou au contraire forma- lisme grammatical précis). Nature du processus d’inférence ? Fini ou non, Solution unique ou multiple, processus automatique ou semi-automatique, résultat précis ou approximation, limites éventuelles sur le temps ou le nombre d’essais.
En savoir plus

11 En savoir plus

Réseaux de neurones récurrents pour le traitement automatique de la parole

Réseaux de neurones récurrents pour le traitement automatique de la parole

L’IARPA a lancé en 2012 le programme Babel dans le but de développer des tech- nologies de RAP qui puissent être rapidement appliquées à n’importe quelle langue parlée. L’IARPA est partie du constat que la grande majorité des systèmes de RAP ont été d’abord développés pour l’anglais et qu’on observe une dégradation de la per- formance sur toute autre langue pour laquelle la quantité de ressources disponibles est plus limitée. De plus, le temps de développement d’un système de RAP pour une nouvelle langue est souvent très long (de l’ordre de l’année) et l’ensemble des langues couvertes est relativement restreint. Dans ce contexte, le programme Babel entendait permettre l’émergence de nouvelles méthodes avec pour but ultime de pouvoir dévelop- per un nouveau système de RAP rudimentaire pour n’importe quelle langue en l’espace d’une semaine. Les données sur lesquelles les travaux ont été réalisés ont été collectées sur des canaux réalistes, bruités et avec de la parole spontanée. Les développeurs de systèmes de RAP étaient ainsi placés dans des conditions particulièrement intéressantes et difficiles.
En savoir plus

153 En savoir plus

Méthodes spectrales pour le traitement automatique de documents audio

Méthodes spectrales pour le traitement automatique de documents audio

7.1. Introduction 7.1 Introduction Les collections de données audio sont en constante croissance et nécessitent des procédures automatiques pour structurer leur contenu [ Zha98 ]. Ces études conduisent à définir des mesures de similarité entre séquences de vecteurs acoustiques : chaque vecteur correspond à l’analyse d’une trame de signal de l’ordre de la centiseconde. Pour faire face à la dimension élevée de l’es- pace de représentation des trames et à la longueur variable des suites de vecteurs, il est d’usage de représenter une séquence de parole par les paramètres d’une distribution probabiliste, le plus souvent un mélange de lois gaussiennes (GMM). La dimension de l’espace de représentation de la suite est alors fixée, mais elle reste élevée. La réduction de la dimensionnalité s’avère nécessaire pour ne traiter que l’information utile et atteindre des signatures fiables, comme dans tout problème d’analyse des données. Une très forte réduction peut également aider à visualiser une collection de séquences et à relier a posteriori des regroupements trouvés automatiquement à des connaissances que l’on avait a priori. Au cours de notre étude nous recherchons si une réduction très forte de la dimensionnalité peut avoir un intérêt en traitement automatique de la parole pour guider un traitement ultérieur.
En savoir plus

254 En savoir plus

Critères d'évaluation contextuelle pour le traitement automatique

Critères d'évaluation contextuelle pour le traitement automatique

nables dans tous les domaines d’activité. Certains domaines sont, cependant, plus sensibles à la qualité des données produites. Si les mesures statistiques classiques offrent une bonne indication des performances d’algorithmes, elles qualifient rarement les données produites proprement dites. Nos travaux proposent des critères d’évaluation de ces données et les intègrent à un procédé de qualification de la qualité d’une infor- mation. Nous montrons comment intégrer ces différents paramètres à un système d’extraction automatique et comment celui-ci va évaluer sa production à la volée. Ce score de qualité servira à assister l’expert chargé de la vérification des données soit en tant qu’index de classement des informations en fonction de leur cré- dibilité, soit en mettant en avant les informations douteuses à vérifier en priorité. Afin de fournir le score le plus exhaustif et le plus interprétable possible, nous considérerons différents paramètres : la confiance faite à la source de l’information, la capacité de cette source à produire l’information considérée et l’information elle-même lorsque confrontée tant à des connaissances expertes qu’à d’autres informations produites.
En savoir plus

9 En savoir plus

Vers une approche cognitive du traitement automatique des langues

Vers une approche cognitive du traitement automatique des langues

Peu d’hypothèses permettent d’expliquer les conditions de cette variabilité. Une observation est cependant possible si l’on reprend l’idée de la dispersion de l’information au travers de différents domaines : lorsque l’un des domaines véhicule suffisamment d’information, les autres acquièrent un degré de variabilité important. En reprenant l’exemple précédent, le lexique et la syntaxe de 1a permettent de parvenir à une interprétation unique, sans ambiguïté. Dans ce cas, et l’observation des données réelles de cette construction le montre, la prosodie pourra être variable. En revanche, dans le cas du second exemple, le lexique et la syntaxe ne suffisent pas à eux seuls pour construire une interprétation stable. La prosodie ici jouera un rôle prépondérant et perdra sa variabilité : seul un contour ascendant pourra être ici réalisé. De même, en appliquant à une phrase un contour intonatif ascendant à la fin, on obtiendra en français sans ambiguïté une interprétation interrogative. Du coup, la structure syntaxique acquiert une grande variabilité, pouvant aller jusqu’à l’absence totale de marqueur interrogatif spécifique au niveau morho- syntaxique ou syntaxique.
En savoir plus

14 En savoir plus

Analyse linguistique et formalisation pour le traitement automatique de la paraphrase

Analyse linguistique et formalisation pour le traitement automatique de la paraphrase

Ainsi se lèvent plusieurs questions à savoir : quels sont les outils linguistiques disponibles en traitement automatique de la paraphrase ? Certaines théories lin- guistiques proposent bel et bien des formalisations des règles paraphrastiques mais sont-elles susceptibles d’être adaptées au TAL sur une grande échelle ? Quelles se- raient la méthodologie et la formalisation adéquates en vue de la construction des ressources linguistiques pour le traitement automatique de la paraphrase ? Nous allons essayer de répondre à ces questions à travers les trois parties de cette thèse. Dans un premier temps, nous faisons un état des lieux des théories linguistiques qui mettent en avant la paraphrase et qui proposent des formalisations destinées à son traitement automatique. Nous présentons ces théories une par une et en dégageons les avantages et les inconvénients vis-à-vis du traitement automatique. La deuxième partie constitue le noyau de cette thèse. Nous y exposons nos travaux d’analyse des données linguistiques tirées d’un corpus du domaine agroa- limentaire. En tenant compte des résultats de ces analyses linguistiques, nos ré- flexions ainsi que les faits décrits dans la partie précédente, nous proposons une nouvelle formalisation des structures paraphrastiques.
En savoir plus

306 En savoir plus

Préface La phonétique et la phonologie à la rencontre du traitement automatique des langues

Préface La phonétique et la phonologie à la rencontre du traitement automatique des langues

Préface La phonétique et la phonologie à la rencontre du traitement automatique des langues Il existe entre les recherches sur la forme sonore du langage et le traitement automatique des langues (TAL) des connexions bien établies depuis longtemps. La construction des systèmes de synthèse et de reconnaissance automatiques de la parole en a été l’un des moteurs. Au cours de ces dernières années, ces relations se sont nettement renforcées sous l’influence d’un certain nombre de facteurs. Le premier point de convergence tient aux techniques de recueil et d’exploitation partagée des ressources considérables dont nous disposons à présent dans le domaine de l’oral. Ces ressources jouent à présent un rôle de premier plan pour les phonologues et les phonéticiens qui, de plus en plus nombreux, entreprennent de soumettre leurs hypothèses théoriques à l’épreuve des grands corpus oraux. Le second point de convergence est lié à l’intérêt croissant des spécialistes du TAL pour la langue parlée. Les ressources concernant l’oral ont d’abord consisté en enregistrements audio de la parole en mode de lecture. Aujourd’hui, elles consistent massivement en données bi ou plurimodales de parole spontanée en situation d’interaction, ce qui soulève des problèmes de nature théorique et méthodologique redoutables que les phonologues/phonéticiens et les spécialistes du TAL ont entrepris d’aborder de front.
En savoir plus

6 En savoir plus

Modèle descriptif des signes pour un traitement automatique des langues des signes

Modèle descriptif des signes pour un traitement automatique des langues des signes

On pourrait se poser la question d’un palier morphémique avec les macros-contraintes (4.5.2), regroupant des primitives au regard de motivations d’un plus haut niveau de construction des signes. Les primitives articulatoires (4.3.1) seraient alors les phonèmes qui les composent. Ces deux parallèles sont faux. D’abord, rien ne prouve que les macros correspondent nécessairement à des morphèmes linguistiques. En effet, un morphème n’est pas un simple regroupement d’unités d’un plus bas niveau, mais un regroupement porteur d’un sens. Si les macros représentent bien un groupe de contraintes venant d’une même motivation articulatoire, il ne va pas de soi que cette motivation soit porteuse d’une sémantique pour les locuteurs de la langue. Par exemple, « tendre le petit doigt » peut faire l’objet d’une macro car il s’agit d’une motivation articulatoire pertinente ; cela n’en fait pas un morphème. Ensuite, voir les primitives comme des phonèmes ne permet pas le juste parallèle avec les phonèmes traditionnels, loin s’en faut. Ici, plusieurs primitives sont données simultanément et concourent à la description d’un même instant de la production finale. Au contraire en linguistique, les phonèmes se succèdent dans le temps. Si l’on reprend le dessin de la figure 4.2, les primitives dans une macro se déroulent sur l’axe des spécifications, tandis que les phonèmes d’une langue vocale se déroulent sur l’axe temporel.
En savoir plus

190 En savoir plus

Optimisation automatique des performances dans les entrepôts de données : étude comparative

Optimisation automatique des performances dans les entrepôts de données : étude comparative

3 Ce concept d‟entreposage de données a basés sur un processus qui commence par la collecte de l‟information de différent source hétérogène de donnée, puis elle passe par quelque étape comme le nettoyage et l‟élimination des donnée inutile et puis le de les homogénéiser et de leur donner un sens unique compréhensible par tous les utilisateurs ,et enfin le chargement de ces données et le structuré dans une masse physique c‟est l‟entrepôt de données final prêt a l‟exploité par les prioritaires comme les décideurs , mais en parallèle à ce nouveau concept et comme l‟indique son caractéristique apparente c‟est la volumétrie, a cause de la croissance de l‟information dans tout les domaines sources de construire de ce entrepôt ainsi que ça augmentation avec le temps donc le traitement effectué au niveau de l‟entrepôt risque de ne pas atteindre ces buts dans des condition parfaite , ce que nous guidons de commencé a chercher les technique qui nous permet de l‟optimisé les opération sur ce entrepôt de donnée sois d‟une manière manuel ou automatique .
En savoir plus

164 En savoir plus

Présence et représentation des femmes dans le traitement automatique des langues en France

Présence et représentation des femmes dans le traitement automatique des langues en France

La deuxième conclusion de cette étude est en effet que malgré des efforts récents, nous manquons de données publiées, en particulier en ce qui concerne les conférences TALN (prési- dences de sessions, responsabilités intermédiaires). En outre, l’information publiée ici concer- nant les membres de l’ATALA ne l’est nulle part ailleurs. Enfin, nous n’avons pas accès aux articles refusés à TALN ou à la revue TAL et ne pouvons donc évaluer le taux de refus pour

7 En savoir plus

Web sémantique et traitement automatique des langues

Web sémantique et traitement automatique des langues

Fig. 3 Les standards du Web sémantique Mis en avant par le W3C, ces standards commencent à se diffuser assez largement. Dans la communauté du traitement automatique des langues, les besoins d'interopérabilité et de réutilisation se font sentir de longue date, mais le domaine reste aujourd'hui peu normalisé. Si XML s'y répand rapidement comme format standardisé d'encodage et d'échange des données, RDF ou OWL sont moins fréquemment utilisés. Un intérêt certain pour ces formalismes s'amorce toutefois. On note par exemple la présence d'un atelier "Natural Language Processing and XML", dédié à ce thème, à la conférence de l'ACL (Association for Computational Linguistics, voir en ligne http://www.ling.helsinki.fi/~gwilcock/NLPXML-2004/ ).
En savoir plus

11 En savoir plus

le traitement automatique des langues : des modèles aux ressources

le traitement automatique des langues : des modèles aux ressources

des modèles de la performance, ou encore du système des règles de la langue vers l'observation de régularités dans des corpus textuels. Les origines de ce déplacement sont multiples. Les approches à règles (dites symboliques) peinent à formuler et à savoir utiliser l'ensemble des règles qui seraient nécessaires pour rendre compte de données de taille réelle (par exemple, les règles syntaxiques et sémantiques pour traiter un roman de taille moyenne). Elles sont peu « robustes » : les énoncés déviants les mettent en échec (ou alors, il faut modéliser la déviance et lui donner un statut). A l'inverse, la recherche d'information (information retrieval) et le traitement de l'oral (speech processing) ont montré l'apport de techniques probabilistes et statistiques pour obtenir des systèmes efficaces et adaptables. Par exemple, l'examen des enchaînements de mots (2 ou 3, le plus souvent) et de leurs probabilités dans des corpus dits d'apprentissage suffisamment volumineux permet de développer des modèles efficaces de reconnaissance de la parole. Il en va de même pour l'étiquetage morpho-syntaxique, l'attribution à un mot d'une catégorie morpho-syntaxique. Disposer de corpus étiquetés manuellement permet d'entraîner un étiqueteur probabiliste. La démarche s'est généralisée progressivement à d'autres domaines du TAL. Dans le même temps, l'accroissement rapide des capacités de stockage et de traitement (il n'est plus rare de pouvoir travailler sur un corpus de 100 millions de mots, soit un millier de romans de taille moyenne ou cinq années du journal Le Monde), l'amélioration concomitante des modèles probabilistes ont favorisé la généralisation des approches quantitatives [ Manning & Schütze, 1999 ].
En savoir plus

9 En savoir plus

Linguistique de corpus et Traitement Automatique de la Langue.

Linguistique de corpus et Traitement Automatique de la Langue.

Les connaissances et l’ingénierie des connaissances 7 appuyée sur les connaissances qu’a le chercheur de cet objet multiforme qu’est la langue (aux niveaux phonétique, phonologique, morphologique, syntaxique ou sémantique). Aujourd’hui, que cela soit en informatique ou en linguistique, l’accent est mis de façon plus forte sur l’usage effectif de la langue tel qu’il peut être analysé à travers l’exploitation de vastes corpus textuels représentatifs d’un domaine applicatif ou plus généralement d’un usage nouveau tel qu’il apparaît sur le Web. Ce courant fut initié dès la fin des années 60 en lexicographie à travers le projet de dictionnaire du Trésor de la Langue Française, aujourd’hui disponible sous forme électronique ( www.tlfi.fr ), premier dictionnaire de langue se fondant sur une méthodologie systématique d’analyse des usages effectifs des mots de notre langue à travers l’exploitation d’une vaste base de données textuelles dont le but premier était de fournir, à travers des concordances, des données organisées aux rédacteurs du dictionnaire. Cette base de données textuelles, enrichie et mise à jour, a donné naissance à F RANTEXT
En savoir plus

11 En savoir plus

Modèle descriptif des signes pour un traitement automatique des langues des signes

Modèle descriptif des signes pour un traitement automatique des langues des signes

possible. Nous appelons ce type de transition une transition neutre. Par exemple, en discours hors visée iconicisatrice, les transitions entre deux signes standard sont neutres. Les postures ar- ticulatoires empruntées entre la posture-clé finale du premier signe et la posture-clé initiale du deuxième sont dénuées d’intention particulière ; les mouvements effectués ne sont pas significatifs. Cependant, toutes les transitions ne sont pas neutres. Souvent, des contraintes doivent égale- ment être satisfaites au cours d’une transition. Observons l’exemple [ballon] déjà rencontré plus haut, et plus particulièrement la commande de contrainte sur l’axe normal de la main donnée en section 4.3.1.3, page précédente. L’exemple est donné en guise de spécification de la posture-clé initiale, mais si l’orientation du plan de la main reste libre en dehors de celle-ci, rien ne l’oblige à changer dans la suite du signe, or une signation de [ballon] se terminant les mains dans la même orientation qu’en leur départ serait erronée. De même, tourner les paumes vers le même point au départ qu’à l’arrivée en dupliquant la contrainte dans la posture-clé suivante leur garantit bien une orientation correcte de part et d’autre de la transition, mais pas à tout instant de cette transition. En effet, la rotation au poignet amenant la paume de l’orientation initiale vers l’orientation finale n’est pas contrôlée entre les postures-clés ; celle-ci est libre pourvu qu’elle se plie aux contraintes données par les postures-clés. Pourtant, le signe [ballon] exige que cette contrainte d’orienta- tion reste vérifiée à tout instant, quelle que soit, mettons, la vitesse de déplacement des mains de leur position initiale à leur position finale 12 . On ne peut compter uniquement sur des primitives
En savoir plus

192 En savoir plus

Show all 7404 documents...