Haut PDF Architecture et données de l'environnement

Architecture et données de l'environnement

Architecture et données de l'environnement

La première est que la place des facteurs bioclimatiques est quantitativement importante pour l'économie du projet et qualitativement pour le confort "naturel"[r]

55 En savoir plus

Une approche d'annotation sémantique et légère pour minimiser la taille de données dans une environnement IoT

Une approche d'annotation sémantique et légère pour minimiser la taille de données dans une environnement IoT

Les applications de l'Internet des objets (IdO) reposent sur un réseau de dispositifs hétérogènes et homogène comprenant des capteurs et des passerelles. Ces appareils sont dotés de la capacité de détecter en continu l'environnement et de collecter des données, qui peuvent ensuite être transférées via des passerelles vers le cloud. Les données générées par les systèmes IdO sont souvent massives et hétérogènes, par conséquent, les passerelles sont les plus concernées à cause de leur limite de ressources. Ainsi, la quantité de données générées augmente également le coût du stockage et traitement des données au niveau de cloud. Par ailleurs, l'hétérogénéité des données entraîne un manque d'interopérabilité entre les applications IdO. Pour répondre à ces besoins et contraintes, nous proposons, dans ce mémoire, Une approche d’annotation sémantique et légère pour minimiser la taille de données dans un environnement IoT. Nous utilisons la notion des règles pour filtrer les données afin de minimiser la taille des données à annoter et aussi minimiser les données transférées vers le cloud, et aussi nous classons les données en des événements. De plus, nous proposons une ontologie de domaine et ontologie des règles pour représenter les connaissances au niveau sémantique. Notre approche a été l'implémente dans un cas d'étude (Feux de Foret ) ce que prouver l'utilité de notre proposition.
En savoir plus

92 En savoir plus

Un modèle d'exécution de requêtes mobiles pour des sources
à accès restreints en environnement d'intégration de données

Un modèle d'exécution de requêtes mobiles pour des sources à accès restreints en environnement d'intégration de données

Un modèle d'exécution de requêtes mobiles pour des sources à accès restreints en environnement d'intégration de données Abstract Query optimization in data integration systems over large scale network, faces the challenges of dealing with autonomous, heterogeneous and distributed data sources, dynamic execution environment and changing user requirements. These issues initiate the need for crafting the traditional optimization methods in a way to produce stable query execution plans, use execution models which are able to adapt to run-time conditions and handle source restrictions. Centralization of the control in adaptive optimization methods result in bottleneck due to large amounts of message passing towards to the site of the central authority over large scale network where network bandwidth is low and network latency is high. In order to overcome this obstacle adaptive query optimization requires decentralized methods. A mobile execution model with mobile relational operators that are able to adapt in an autonomous way and focus on reducing of transfer cost is worth considering in large scale distributed data integration environment. However, this mobile query execution model needs to be extended with new operators to handle source restrictions. In this perspective we propose mobile relational operators developed for restricted sources. Another proposition is related with initial placement of mobile relational operators. The challenge is on defining a placement which would allow acceptable performance instead of a good placement which would cause dramatic performance sometimes at run-time. Finally we present and analyze a performance evaluation on the methods proposed.
En savoir plus

122 En savoir plus

Représentation et manipulation de données de simulation dans un environnement virtuel immersif

Représentation et manipulation de données de simulation dans un environnement virtuel immersif

environnements virtuels générés dans un CAVE de Mechdyne [Mechdyne, 2010] qui est une salle de RV où l'usager est plongé physiquement dans le monde virtuel. Le projet IMAGE utilise un environnement CAVE de ce type comme plate-forme d'immersion. Les systèmes de RV sont utilisés dans de nombreux domaines. Premièrement, nous avons le domaine militaire qui les exploitent principalement comme outils d'entraîne- ment pour différentes situations ou pour simuler des situations de commandement et contrôle. De plus, il est commun de voir de tels systèmes dans le domaine de l'ingénie- rie automobile ou en architecture pour analyser le modèle 3D d'une nouvelle création avant d'en lancer la production. Beaucoup d'erreurs peuvent ainsi être évitées en utili- sant la réalité virtuelle avant de créer un vrai prototype. Finalement, il y a de plus en plus de systèmes développés pour le divertissement. Plusieurs versions plus abordables de systèmes de RV sont en vente pour les joueurs qui désirent profiter au maximum de leur expérience de jeu. Avec le prix des technologies qui diminue constamment et l'engouement pour les technologies de cette sorte (vision 3D à la IMAX, tracking d'uti- lisateur en jeux vidéo), il ne faudra que quelques années avant de voir apparaître les environnements virtuels personnels.
En savoir plus

94 En savoir plus

Modélisation flux de données et optimisation pour architecture multi-cœurs de motifs répétitifs

Modélisation flux de données et optimisation pour architecture multi-cœurs de motifs répétitifs

Génération de code pour le prototypage rapide 19 outil s'appui sur l'environnement de développement Eclipse pour proposer un outil de prototypage rapide couvrant les étapes de spécication de l'application (plugin Graphiti), spécication de l'architecture, prototypage automatique et génération de code. Le prototypage de l'application sur l'architecture spécié ce fait par une suite de traitements séquentiels sur les informations d'entrée pour terminer par générer du code multiprocesseur compilable pour les diérents processeurs/coeurs de l'ar- chitecture. Cette suite de traitement est dirigée par l'utilisateur, par l'intermédiaire d'un workow qui spécie les traitements à appliquer, sélectionnés dans une biblio- thèque, et les dépendances de données entre traitement. La génération de code est la dernière phase de cette suite de traitement et vise à produire du code optimisé pour l'architecture dans un format compréhensible par l'utilisateur. Cette généra- tion de code implémente un modèle d'exécution dans lequel chaque processeur/coeur exécute plusieurs processus légers synchronisés par un protocole basé sur l'utilisa- tion de sémaphores. Un processus léger exécute l'ordonnancement des acteurs sur le processeur. Pour chaque bus de communication utilisé, un processus léger gère l'ordonnancement des communications. Le processus de calcul et synchronisé aux diérents processus de communication par des sémaphores indiquant pour un envoi la disponibilité de la donnée et pour l'envoi, et la disponibilité de la donnée pour le calcul, et pour une réception de données, la disponibilité de la donnée pour le calcul, et la disponibilité de la donnée pour la réception (voir gure 3.2 ).
En savoir plus

163 En savoir plus

Pour une gestion des données de recherche en environnement : l'ontologie méta-observatoire

Pour une gestion des données de recherche en environnement : l'ontologie méta-observatoire

Actuellement, la conception de chaque base de données suppose la redéfinition de ces concepts. L’objectif de notre projet est de proposer un environnement d’aide à la conception de bases de données décrivant des observatoires environnementaux. Nous définissons un observatoire environnemental comme un système d'information créé dans le cadre d'un projet de recherche, pour regrouper, stocker et gérer l'ensemble des observations permettant d'étudier un phénomène environnemental. Notre environnement d’aide doit rationaliser et faciliter la conception des bases de données mais aussi permettre d’assurer la qualité, le partage et la réutilisation des données. Pour cela nous nous proposons d’intervenir dès la conception des modèles de données grâce à l’utilisation d’un méta-modèle. Lors de la création d’un observatoire, ce méta-modèle sera spécialisé, adapté pour définir un modèle adéquat pour le projet de recherche et enfin transformé en un modèle relationnel. Ainsi les bases de données développées indépendamment les unes des autres mais issues du même modèle reposeront sur les mêmes concepts et pourront ainsi être interopérables. Les données pourront être exportées, interprétées, interrogées et échangées dans et entre les différentes bases de données.
En savoir plus

16 En savoir plus

Localisation de sources de données et optimisation de requêtes réparties en environnement pair-à-pair

Localisation de sources de données et optimisation de requêtes réparties en environnement pair-à-pair

Les nœuds dans APPA doivent avoir des vues sur un schéma global, appelé CSD (Common Description Schema ), connu par tous les nœuds. Selon les auteurs d’APPA, leur approche ressemble à l’approche LAV (Local As View) sauf que les requêtes dans ce système sont écrites en termes des vues locales et pas en termes de CSD. Chaque nœud stocke localement les règles de correspondance entre son propre schéma et le CSD. Actuellement, les auteurs de APPA proposent une solution pour évaluer de requêtes meilleur-k (top-k queries) en environnement P2P non-structuré. Étant donné une requête Q et une valeur de TTL, l’évaluation de Q suit les phases suivantes. (i) Propagation de requête : Q est envoyée aux voisins du nœud initialisant la requête. (ii) Exécution locale et attente : chaque voisin p exécute Q localement et si la valeur de TTL est supérieur à zéro, il l’envoie, à son tour, vers ses voisins. p accède aux données locales qui correspondent les plus à la requête Q et donne des scores à chaque élément de données selon une fonction de scores. Ensuite, p choisit les meilleurs k réponses, les stockent localement avec leurs scores et attend les réponses venant de ses voisins. Le temps d’attente de chaque nœud est calculé en fonction de la valeur reçue de TTL, des paramètres réseau et des paramètres du traitement local. (iii) Assemblage de réponses : après la fin du temps d’attente, chaque nœud reçoit les scores de ses voisins. Il crée une liste ordonnée des couples (a, s) où a représente une adresse d’un voisin et s représente son score. Ensuite, il envoie cette liste à son parent (le nœud qui lui a envoyé la requête). Ce processus est répété sur chaque parent jusqu’à ce que le NIR crée la liste finale. (iv) Obtention de données : les nœuds possédant les meilleurs k scores sont contactés par le NIR et les résultats sont assemblés et délivrés à l’utilisateur.
En savoir plus

131 En savoir plus

Specification et implementation d'une architecture de signalisation a gestion automatique de la QdS dans un environnement IP multi domaines

Specification et implementation d'une architecture de signalisation a gestion automatique de la QdS dans un environnement IP multi domaines

− le Chapitre 3 présente tout d’abord les travaux relatifs à la caractérisation des services IP dans un environnement mono domaine ; ces travaux consistent en une campagne de simulations destinée à conforter les mesures présentées au Chapitre 2, suivie par l’élaboration d’un modèle analytique retenu pour caractériser les services IP. Il présente ensuite les travaux relatifs à la caractérisation des services IP dans un environnement multi domaines ; ces travaux consistent en une étude mathématique conduisant à l’élaboration d’un modèle générique, suivis par l’application de ce modèle au modèle analytique retenu pour le mono domaine ; cette étude est validée par une campagne de mesures menée dans un environnement réseau émulant (via le logiciel Dummynet) le comportement d’un environnement multi domaines. La troisième partie du chapitre décrit les travaux relatifs à la caractérisation de la QdS des services de bout en bout couplant niveaux IP et Transport offerts par notre architecture de communication dans un environnement multi domaines. Enfin, la dernière partie du chapitre détaille l’algorithme de sélection automatique des services IP et Transport permettant de satisfaire la QdS requise par une application pour le transfert de l’un de ces flux, dans un environnement multi domaines. En conclusion de ce chapitre sont discutées les principales limites des modèles et de l’algorithme proposés.
En savoir plus

181 En savoir plus

IDEATools : Un environnement informatique pour l’automatisation et le reporting de données IDEA4

IDEATools : Un environnement informatique pour l’automatisation et le reporting de données IDEA4

IDEATools : Un environnement informatique pour l’automatisation et le reporting de données IDEA4 F IGURE 3.1 – Capture d’écran de l’onglet "Saisie et Calculateur". Deux stratégies majeures d’extraction ont été implémentées en fonction de l’ancien- neté du calculateur. Une première solution, la plus fiable, est basée sur un onglet rajouté dans les versions les plus récentes du calculateur qui compile toutes les don- nées nécessaires au calcul des indicateurs. La seconde solution, plus hasardeuse, va tenter de piocher ces données aux travers des autres onglets de saisie et résultats (dont la forme évolue plus ou moins fortement au fil des versions). Les fonctionnalités implémentées à ce jour permettent d’extraire des données quasi-systématiquement pour des calculateurs postérieurs au 01/01/2019. Le support de fichiers JSON a égale- ment été facilement implémenté puisque ce format de sortie du calculateur était pensé à l’origine pour l’alimentation d’une base de données.
En savoir plus

35 En savoir plus

L’intégration des données complémentaires (données foncières, division en volume, environnement) au sein de maquettes numériques au format Revit

L’intégration des données complémentaires (données foncières, division en volume, environnement) au sein de maquettes numériques au format Revit

I.2.3. Visualiser la contrainte Différentes études sur la faisabilité et la pertinence de la création d’un cadastre 3D ont été effectuées ses dernières années 25 . Elles mettent l’accent sur les bénéfices liés à la visualisation 3D des bâtiments et de leur environnement dans le cadre des démarches d’autorisation à construire. Pour l’instant en France, le cadastre ne reflète que la réalité fiscale des propriétés et ne possède aucune valeur juridique. La précision des limites qui y sont matérialisées n’est en aucun cas garantie. En France, le premier permis de construire 3D a été délivré en 2016. L’idée d’un permis de construire en 3D rejoint l’un des objectifs primordiaux du BIM : la compréhension renforcée du bâtiment et de son environnement. La transparence de l’information mène à une plus grande confiance entre les acteurs. Les deux conjuguées garantissent des performances tout au long de la vie du projet. L’acte essentiel du permis de construire en 3D est de montrer à chaque acteur les données essentielles, afin qu’il comprenne le projet et qu’il puisse exercer en confiance sa mission 26 . Les distances séparant les bâtiments sont modélisées sous forme de volume, comme l’illustre la figure 6 ci-dessous, fournie par François PELEGRIN.
En savoir plus

66 En savoir plus

Localisation et cartographie simultanées en environnement extérieur à partir de données issues d'un radar panoramique hyperfréquence

Localisation et cartographie simultanées en environnement extérieur à partir de données issues d'un radar panoramique hyperfréquence

Dans ce contexte, l'utilisation d'un nouveau radar hyperfréquence FMCW four- nissant des données de type panoramique constitue une nouveauté. Il ne s'agit plus d'extraire à partir de rayons des informations de type amers mais de trouver une technique qui va permettre de valoriser des informations intégrées dans des pano- ramiques. On peut se reporter au chapitre précédant pour se remémorer de façon précise les forces et faiblesses apportées par ce type de représentation. On peut citer le fait qu'un panoramique est calculé toutes les secondes et qu'il fournit une représen- tation exhaustive de l'environnement riche en information. Les problèmes viennent du fait que les informations sont plus diciles à utiliser lorsqu'il s'agit d'extraire des données numériques. Un panoramique est issu de signaux acquis en mouvement et qui peuvent induire certaines erreurs. Un panoramique reste dépendant du fort bruitage des acquisitions radars notamment provoqué par des phénomènes de ré- exion des signaux, de saturation, de speckle. Cela provoque l'apparition d'éléments parasites mais aussi une variation de taille et de forme des objets voire la disparition d'informations.
En savoir plus

193 En savoir plus

Architecture d'un service de partage de données modifiables sur une infrastructure pair-à-pair

Architecture d'un service de partage de données modifiables sur une infrastructure pair-à-pair

6.2.2 Tolérance aux fautes JuxMem supporte la volatilité des pairs qui peut être considérée comme une faute de type crash. Toutefois, le service ne supporte pas les fautes par omission et les fautes byzan- tines. En effet, le service bâti suppose que les canaux de communications sont fiables mais JXTA n’offre aucune garantie sur la livraison du message à son destinataire. Ainsi, si un pair hébergeant un bloc de données ne reçoit pas un message de modification du bloc de données, la copie de ce bloc de données peut être incohérente avec les autres copies. Or, lors- qu’un client cherche à récupérer un bloc de données, tous les pairs qui hébergent une copie de ce bloc de données répondent en parallèle. Le client prenant la première réponse afin de favoriser la localité physique, il est donc possible qu’il ne reçoive pas la dernière valeur pour le bloc de données. Malgré tout, sur l’environnement de test aucune perte de message n’a été constatée en raison de l’isolement de la grappe sur laquelle les mesures ont été effectuées. La mise à disposition prochaine de canaux de communications fiables dans JXTA permettra de résoudre simplement ce problème. Concernant les fautes byzantines, différents travaux sur ce domaine sont en cours de réalisation [46]. Ainsi, un pair fournisseur peut prétendre avoir alloué une zone mémoire et rendre l’identifiant de cette zone au client, sans toutefois l’avoir réellement fait. Le client peut ainsi stocker des blocs de données dans une zone mé- moire non réellement disponible et donc perdre ces mêmes blocs de données. L’hypothèse d’un pair byzantin n’a pas été prise en compte pour la conception de JuxMem et n’a donc fait l’objet d’aucune étude dans ce rapport.
En savoir plus

53 En savoir plus

Architecture de turbo-décodeur en blocs entièrement parallèle pour la transmission de données au-delà du Gbit/s

Architecture de turbo-décodeur en blocs entièrement parallèle pour la transmission de données au-delà du Gbit/s

Les nouvelles générations de réseaux d’accès optique qui se caractérisent par une montée en débit en ligne impliquent l’implémentation d’architectures de codes correcteurs d’erreurs atteignant des débits très élevés. Des solutions architecturales de décodeur Reed Solomon (255, 239) ont été proposées pour des débits de 40 Gbit/s [8] et de 80 Gbit/s [9]. En 2002, une nouvelle architecture pour le turbo décodage de codes produits a été présentée [10]. Cette solution architecturale permet d’atteindre des débits autour de 6 Gbit/s. En 2005, Mit- subishi Electric a annoncé le développement d’un circuit de turbo décodage de codes pro- duits pour des transmissions optiques à 10 Gbit/s [11]. Dans ce contexte, nous présentons dans cet article, un nouveau type d’architecture pour le turbo décodage de codes produits. Ce type d’architecture élimine les plans mémoires associés aux matrices générées par le code produit. En effet dans les architectures traditionnelles, des plans mémoires sont nécessaires pour sauvegarder les informations échangées au cours des itérations du processus de turbo décodage. Ainsi, les architectures obtenues traitent des données à très haut débit pouvant dépasser le 10 Gbit/s avec une latence d’exécution bien inférieure aux architectures propo- sées jusqu’alors. Enfin, il est à noter que ce type d’architecture peut s’appliquer pour le turbo décodage de codes produits utilisant des codes binaires de type BCH ou des codes m_aire de type Reed Solomon [12].
En savoir plus

27 En savoir plus

Gestion de données pour la visualisation de maquettes numériques en environnement virtuel immersif: application au design automobile

Gestion de données pour la visualisation de maquettes numériques en environnement virtuel immersif: application au design automobile

GESTION DE DONNEES POUR LA VISUALISATION DE MAQUETTES NUMERIQUES EN ENVIRONNEMENT VIRTUEL IMMERSIF. APPLICATION AU DESIGN AUTOMOBILE. RESUME: Les techniques de la réalité virtuelle constituent de nouveaux outils pour les métiers de la conception de produits manufacturés et offrent des gains en terme d'innovation, de temps et d'argent. L'enjeu industriel est l'intégration de ces techniques dans le cycle de conception du produit. Ces techniques doivent ainsi s'interfacer avec les différents corps de métiers et pouvoir être en phase avec le rythme des mises à jour des modèles numériques. La problématique technologique posée est relative à la gestion des données géométriques produites par les bureaux d'études en conception assistée par ordinateur. Ces données sont exhaustives, très nombreuses et ne sont pas manipulables dans un dispositif de réalité virtuelle en raison des contraintes de temps de calcul. Une maquette numérique, possédant une quantité d'informations maîtrisée et dédiée à la réalité virtuelle, est alors nécessaire. Ces travaux ont pour objectif d'apporter des méthodes et outils permettant l'utilisation des techniques de l'immersion virtuelle par les métiers du design automobile. Une chaîne de conversion, simplification et optimisation des données en fonction des critères des métiers du design automobile est proposée pour la création d'une maquette numérique dédiée à l'immersion virtuelle. La gestion en temps réel des données de cette maquette numérique est effectuée en fonction de critères de visualisation de la scène dans un contexte d'immersion virtuelle.
En savoir plus

148 En savoir plus

GrAPHiST: un environnement de visualisation pour l'analyse exploratoire de données spatio-temporelles

GrAPHiST: un environnement de visualisation pour l'analyse exploratoire de données spatio-temporelles

SAGEO’2019 Introduction Les environnements de visualisation, autorisant une analyse exploratoire de données spatio-temporelles, sont majoritairement créés de manière ad hoc dans le cadre d’une thématique particulière (Kaddouri et al., 2014). Or, l’aug- mentation du nombre de phénomènes décrits par les nouvelles données spatio- temporelles à disposition incite au développement d’approches d’analyse ex- ploratoire "génériques", pouvant être appliquées à différentes problématiques. Afin d’atteindre cet objectif, notre démarche est de passer par l’élaboration d’un environnement de géovisualisation opérationnel, GrAPHiST (pour (environne- ment de) Géovisualisation pour l’Analyse des PHénomènes Spatio-Temporels).
En savoir plus

8 En savoir plus

Nouveaux systèmes de représentation et architecture du projet. Les Prises de données

Nouveaux systèmes de représentation et architecture du projet. Les Prises de données

Inversement J. LEBAHAR (9) ne peut pas étudier le dessin d'archi­ tecture et ses méthodes sans étudier le processus de production du projet d'architecture qu'il assimile à une résolution de problème. "Le problème : c'est l'obligation devant laquelle est placée une compétence architecturale, de transformer l'état initial d'une re­ présentation partielle et plus ou moins exacte de l'édifice, tel­ le qu'elle est contenue dans une commande et dans son environnement de contraintes, en un état final qui en permet une interprétation en termes matériels sur le chantier. Cette transformation d'états de représentation est un acte principalement intellectuel qui s'ex­ prime par le dessin. Elle s'effectue à travers tout un système de traitement de l'information...
En savoir plus

148 En savoir plus

Environnement institutionnel, modes organisationnels et performances productives : Une analyse empirique avec les données des grandes fermes moldaves au début de la transition

Environnement institutionnel, modes organisationnels et performances productives : Une analyse empirique avec les données des grandes fermes moldaves au début de la transition

Résumé L’analyse empirique des relations entre l’environnement institutionnel et les modes organisationnels et leurs influences sur les performances productives reste relativement rare dans la littérature, faute de données. Cet article essaie de développer une méthodologie empirique permettant d’apporter un éclairage sur la nature de ces relations en exploitant les données sur les grandes exploitations agricoles pendant le processus de privatisation des fermes collectives et d’Etat en Moldavie (1991-1997). La première partie consiste alors en une lecture néo-institutionnelle du processus de transformation des modes d’organisation des grandes fermes héritières des anciennes grandes fermes collectives et d’Etat. Cette lecture nous permet d’apporter un certain éclairage sur la nature des relations entre environnement institutionnel et émergence de nouveaux modes d’organisation. La deuxième partie de l’article développe une méthodologie empirique permettant d’analyser l’interaction entre ces nouveaux modes organisationnels et les performances productives des exploitations. On s’appuie sur l’estimation de l’efficience technique des exploitations agricoles en utilisant le modèle de frontière stochastique proposé par Battese et Coelli (1995). Ce modèle permet de tenir compte de l’influence des modes organisationnels sur le processus de production à travers l’endogénéisation à la fois des intrants de production et des formes d’organisation (grâce à l’estimation d’un modèle logistique multinomial emboîté).
En savoir plus

42 En savoir plus

Fusion de données multi-capteurs pour la construction incrémentale du modèle tridimensionnel texturé d'un environnement intérieur par un robot mobile

Fusion de données multi-capteurs pour la construction incrémentale du modèle tridimensionnel texturé d'un environnement intérieur par un robot mobile

Un modèle de l'environnement est indispensable pour un robot mobile. La plupart des robots actuels opérationnels utilisent des capteurs 2D, en particulier des télémètres laser à balayage ho- rizontal tels que les capteurs SICK : les données acquises sur un plan lui permettent de construire des cartes, de s'auto-localiser, et d'éviter les collisions. Ceci est justié par le fait que la majorité des applications ont été développées sur des robots terrestres ou d'intérieur qui se déplacent dans un monde à deux dimensions, avec une forte hypothèse de sol plat. Bien que ces robots aient plus au moins donné satisfaction pour les applications visées, les nouvelles demandes sont plus exigeantes. En eet, pour ces nouvelles applications, comme le compagnon domestique, le robot devra aronter des situations pour lesquelles le modèle 2D de l'environnement n'est plus susant. À ce titre, citons le cas d'un robot pour l'aide aux personnes âgées ou handicapées. Un tel robot doit évoluer dans un espace tridimensionnel, et par exemple, il pourrait chercher un verre d'eau posé sur une table dans la salle de séjour. Une telle dénition de la tâche oblige la connaissance du monde en 3D.
En savoir plus

189 En savoir plus

Venise, ville hors du temps : une architecture indissociable de son environnement

Venise, ville hors du temps : une architecture indissociable de son environnement

61 R É S U M É S (FRANÇAIS) Venise a établi un dialogue très intime avec son environnement, la lagune, qui semble les avoir rendu indissociables au fil du temps. Initialement dans une volonté de se protéger des multiples invasions barbares qui frappaient l’Italie du nord à la chute de l’Empire romain, les vénitiens ont voulu asseoir leur prestige dans une cité qui relève de prouesses techniques à l’époque où elle a commencé à utiliser des matériaux tel que la brique et la pierre. Venise a réussi à rendre stable la lagune et à installer un certain équilibre qui semble de plus en plus fragile aujourd’hui. En faisant l’aller-retour entre l’échelle territoriale et architecturale nous pouvons remarquer que la lagune a énormément influencer les constructions vénitiennes et vice versa. L’étude d’un bâtiment type nous permet de montrer comment les vénitiens s’y sont pris pour subsister dans ce désert d’eau saumâtre. Cette étude nous amène à établir les caractéristiques de l’architecture vénitienne qui tend à figer la ville de plus en plus dans son passé, menacée par son environnement qui originellement la protégeait.
En savoir plus

62 En savoir plus

Méthode de découverte de sources de données tenant compte de la sémantique en environnement de grille de données

Méthode de découverte de sources de données tenant compte de la sémantique en environnement de grille de données

Introduction 1. Contexte et motivation ctuellement le nombre de sources de données accessibles via Internet ne cesse de croître. Cette croissance a donné naissance à de nouvelles applications référençant des données éparpillées sur des sources de données autonomes, hétérogènes et dynamiques. À tout instant, une source de données peut se connecter ou se déconnecter du réseau. Développer des applications dans un environnement à grande échelle et dynamique est devenu un réel challenge. Un exemple d’application que nous utiliserons souvent dans cette thèse est la recherche dans le domaine biomédical. En effet, un grand nombre de sources de données sont publiquement accessibles via le net et concernent une variété de données comme les expressions et les séquences des gênes, les fonctions et structures moléculaires, les caractéristiques des maladies, etc. Ces sources de données sont fortement hétérogènes puisqu’elles sont développées indépendamment les unes des autres (i.e., des pages web, des fichiers texte, des programmes, des SGBDs…). Nous citons, à titre d’exemple les sources de données biomédicales, comme : GenBank et SwissProt. Les sources de données sont également dynamiques puisqu’à tout moment elles peuvent se connecter ou se déconnecter du réseau. Enfin, elles sont très nombreuses et elles stockent des volumes de données gigantesques. Dans un tel contexte, la recherche des sources de données pertinentes pour une requête utilisateur est un vrai défi. On parle généralement, dans la littérature, de la découverte de ressources.
En savoir plus

126 En savoir plus

Show all 6076 documents...

Sujets connexes