Haut PDF Allocation de ressources dans le cloud computing

Allocation de ressources dans le cloud computing

Allocation de ressources dans le cloud computing

CHAPITRE 7 : STRATEGIE DE NEGOCIATION D’ACHETEUR DYNAMIQUE ET HYBRIDE POUR L ’ ALLOCATION DE RESSOURCES jour au cours du jeu et les stratégies qui prescrivent comment les agents doivent agir. Mais comme les problèmes de négociation plusieurs-à-plusieurs sont souvent complexe du fait que les vendeurs et les acheteurs peuvent avoir des objectifs, des préférences et des politiques différentes, l’allocation optimale en termes d’efficacité de Pareto dans de telles situation a été prouvée qu’elle était intraitable à la fois en termes de quantité de calcul [33] et de communication [37] nécessaires. Une bonne alternative à ces problèmes serait alors de les adresser de façon décentralisée et qui est motivé par des applications réelles telles que la plate-forme GENI [3], qui est une organisation à but non lucratif reposant sur la technologie de virtualisation du cloud computing [22] pour allouer les ressources fournies provenant de plusieurs fournisseurs. Puisque le schéma de tarification du cloud computing est basé sur les services utilisés plutôt que sur toute une infrastructure, appelée par le modèle "Pay-as-you-go", les négociations opérant sous de tels environnements doivent être destinées aux contrats de ressources de location qui sont en adéquation avec les spécifications du cloud. De plus, la négociation décentralisée pourrait être utilisée dans des environnements tels que CLASP [21] pour des contrats d’achat ou de location où chaque système dispose de sa propre administration et objectifs, et que l’interopérabilité entre les sites pourrait leur permettre d’en tirer des avantages mutuels.
En savoir plus

182 En savoir plus

Une approche basée agents pour l'allocation des ressources dans le Cloud Computing

Une approche basée agents pour l'allocation des ressources dans le Cloud Computing

Les agents activé dans le cloud peuvent couplés des solutions à base d'agents avec les plates- formes informatiques à grande échelle, dynamiques, et distribués pour apporter de nouvelles opportunités au domaine d’agent logiciel et d'élargir les connaissances des agents au-delà de ce que les plates-formes informatiques traditionnels fournissent. Les mécanismes de virtualisation offertes par le cloud computing peut être exploitée pour la composition des machines parallèles, distribuées et à grande échelle sur lesquels exécuter des agents concurrent avec des contraintes de temps réel ou ceux qui nécessitent une haute performance pour obtenir des résultats dans un délai raisonnable. Les systèmes d’agents mis dans le cloud peuvent s'adapter aux machines virtuelles disponibles en utilisant les propriétés de base d’agent tel que l'autonomie, la pro-activité, la négociation et l'apprentissage. L’élasticité de cloud est utile pour exécuter d’une manière évolutive les applications et les simulations SMA qui peuvent s'adapter aux ressources disponibles.
En savoir plus

108 En savoir plus

Energy efficient resource allocation in cloud computing environments

Energy efficient resource allocation in cloud computing environments

In addition to these challenges, provided solutions should scale in multiple dimen- sions and Cloud providers must also deal with the users’ requirements which are being more and more complex. Requested services are more sophisticated and complete since users need to deploy their own applications with the topology they choose and with having the control on both infrastructure and programs. This means combining the flexibility of IaaS and the ease of use of PaaS within a sin- gle environment. As a result, the classic three layer model is changing and the convergence of IaaS and PaaS is considered as natural evolutionary step in cloud computing. Cloud resource allocation solutions should be flexible enough to adapt to the evolving Cloud landscape and to deal with users requirements. This key dimension of cloud levels is essential for our research and we address it in depth in this thesis.
En savoir plus

131 En savoir plus

Bi-criteria workflow tasks allocation and scheduling in Cloud computing environments

Bi-criteria workflow tasks allocation and scheduling in Cloud computing environments

{name}@loria.fr Abstract—Although there are few efficient algorithms in the literature for scientific workflow tasks allocation and scheduling for heterogeneous resources such as those proposed in grid computing context, they usually require a bounded number of computer resources that cannot be applied in Cloud computing environment. Indeed, unlike grid, elastic computing, such as Amazon’s EC2, allows users to allocate and release compute resources on-demand and pay only for what they use. Therefore, it is reasonable to assume that the number of resources is infinite. This feature of Clouds has been called ”illusion of infinite resources”. However, despite the proven benefits of using Cloud to run scientific workflows, users lack guidance for choosing between multiple offering while taking into account several objectives which are often conflicting.
En savoir plus

9 En savoir plus

Optimizing Resource allocation while handling SLA violations in Cloud Computing platforms

Optimizing Resource allocation while handling SLA violations in Cloud Computing platforms

University of Bordeaux {lionel.eyraud-dubois|hubert.larcheveque}@labri.fr Abstract—In this paper, we study a resource allocation problem in the context of Cloud Computing, in which a set of Virtual Machines (VM) has to be allocated on a set of Physical Machines (PM). Each VM has a given demand (e.g. CPU demand), and each PM has a capacity. However, VMs only use a fraction of their demand. The aim is to exploit the difference between the demand of the VM and its actual resource usage, to achieve a higher utilization on the PMs. However, the resource consumption of the VMs might change over time (while staying under its original demand), implying sometimes expensive “SLA violations” when the demand of some VMs is not satisfied because of overloaded PMs. Thus, while optimizing the global resource utilization of the PMs, it is necessary to ensure that at any moment a VM’s need evolves, a few number of migrations (moving a VM from PM to PM) is sufficient to find a new configuration in which all the VMs’ consumptions are satisfied. We model this problem using a fully dynamic bin packing approach and we present an algorithm ensuring a global utilization of the resources of 66%. Moreover, each time a PM is overloaded, at most one migration is sufficient to fall back in a configuration with no overloaded PM, and at most 3 different PMs are concerned by required migrations that may occur to keep the global resource utilization correct. This allows the platform to be highly resilient to a great number of changes.
En savoir plus

10 En savoir plus

Allocation de ressources et partage de charge adaptés aux architectures de réseaux d'accès basées sur le cloud

Allocation de ressources et partage de charge adaptés aux architectures de réseaux d'accès basées sur le cloud

2.3 Présentation de l’architecture Cloud Radio Access Network (C- RAN) Introduit par IBM sous le nom de Wireless Network Cloud (WNC) [LSZ + 10], le C-RAN a été par la suite décrit dans [CLRH + 14] comme une architecture « green », conçue pour pallier à certaines limites présentes dans l’architecture RAN (LTE-A) actuelle. Quelques années plus tard, l’architec- ture C-RAN a été introduite et a été motivée dans de nombreux projets, tels que « Interworking and JOINt Design of an Open Access and Backhaul Network Architecture for Small Cells based on Cloud Networks (iJOIN)» [COR12], lancée en 2012 par la Commission européenne, et « Mobile Cloud Networking (MCN)» [Net13], lancé en 2013 également par la Commission européenne. En outre, de nombreux MNO (Mobile Network Operators) d’Asie-Pacifique ont été tentés par les avan- tages de l’architecture C-RAN et ont commencé à planifier son déploiement. Par exemple, Korean SK Telecom et NTT-DoCoMO ont annoncé des essais préliminaires du C-RAN en 2019. Il sera également adopté aux Jeux Olympiques en 2020 [SUFM16]. Le C-RAN a également suscité l’intérêt de nombreux opérateurs de réseau mobile et fournisseurs locaux, tels que AT&T, Vodafone, Verizon Communications, Orange, Intel, ZTE, Huawei et Nokia Bell Labs, qui investissent encore dans ses avantages et définissent son écosystème.
En savoir plus

211 En savoir plus

Allocation de ressources efficace en énergie pour les bases de données dans le cloud

Allocation de ressources efficace en énergie pour les bases de données dans le cloud

Above works achieved energy efficiency in their domains. However, such approaches naturally require to migrate a large number of data from one node to another in order to switch off underutilized nodes or switch on more nodes. In WattDB [17], Daniel Schall et al. took advantage of SDD to reduce the mi- gration cost. In Usra [16], Gae-Won You et al. took advantage of replica strat- egy to shutdown nodes which do not contains any primary replicas. However, in cloud database systems, this technique might be unsuitable since different implementation of the system, they have different consistency strategy. For example, Cassandra provides 5 consistency levels, and HBase provides strong consistency only. In Guangjie Han et al.’s work [73], their virtual machine con- solidation policy aims to improve resource utilization and reduce the number of active physical servers, therefore they did not consider the migration cost. In Dolly [74], Emmanuel Cecchet et al. only considered the down time of the database but not the migration cost. Meanwhile, they only applied the tech- nique for a web application’s database layer in which 12 GB amount of data was used in the extreme case of the experiments. Huangke Chen et al. [75] scheduled real-time tasks to the virtual machines. When there are overloaded nodes, they scale up the computing resource, namely turn up more virtual machines, and otherwise they reduce the amount of virtual machines. In their work, virtual machines are computing resources to execute the tasks, therefore there is no migration cost at all.
En savoir plus

146 En savoir plus

Resource allocation in Cloud federation

Resource allocation in Cloud federation

1.2 Research Problem and Objectives 1.2.1 Motivations and Problem Statement The dynamic and uncertain nature of Cloud environments makes the resource allocation problem hard to solve. This difficulty increases with the sizes of service requests and hosting infrastructures. To address such problem, providers should be able to dynam- ically scale their hosting capacity in response to demand fluctuations. In fact, even if cloud computing promises on-demand access to ”unlimited resources”, there would al- ways be an upper bound on hardware and network capacity within a data-center, which may lead to resource exhaustion and performance degradation during demand spikes. Moreover, as computational services are non-storable, unused resources generate a rev- enue loss that cannot be recovered later. To improve revenues, providers should optimize their resource utilization and achieve higher acceptance rates. However, existing alloca- tion mechanisms are limited to static capacities and poor auto-scaling policies, which do not allow providers to efficiently manage unpredictable traffic bursts. Therefore, current solutions need to evolve beyond the simple allocation of local resources to offer flexible and seamless scalable hosting infrastructures.
En savoir plus

162 En savoir plus

Allocation de ressources élastique pour l'optimisation de requêtes

Allocation de ressources élastique pour l'optimisation de requêtes

Avant la naissance des systèmes cloud, plusieurs travaux ont considéré le problème d’allocation de ressources pour l’interrogation de bases de données sur des architectures parallèles. Le plan d’exécution de chaque requête est un graphe de tâches dépendantes. L’expression “allocation de ressources” dans ces travaux sous-entend souvent le placement des tâches sur les ressources disponibles et aussi leur ordonnancement qui tient compte des liens de dépendance. Le but consistait principalement à minimiser le temps d’exécution de requêtes et maximiser l’utilisation de ressources. Par contre, dans le cloud ce but ne garantit pas nécessairement le meilleur bénéfice économique pour le fournisseur. Afin de maximiser le bénéfice et satisfaire les besoins des locataires, il est essentiel d’inclure le modèle économique et les SLAs dans le processus d’allocation de ressources. En effet, les besoins des locataires en terme de performances sont différents, il serait donc intéressant d’allouer les ressources d’une façon qui favorise les locataires les plus exigeants en assurant quand même une certaine qualité de service pour les locataires les moins exigeants. De plus, dans le cloud le nombre de ressources attribuées peut augmenter/diminuer selon la demande (élasticité) et le coût monétaire dépend du nombre de ressources attribuées, il devient donc intéressant de mettre en place un mécanisme pour choisir automatiquement le moment adéquat pour ajouter ou supprimer des ressources en fonction de la charge (dimensionnement automatique).
En savoir plus

146 En savoir plus

Efficient allocation for distributed and connected Cloud

Efficient allocation for distributed and connected Cloud

Le Cloud Computing est un nouveau paradigme, dans lequel diverses ressources telles que les infrastructures ou les composants logiciels sont fournis en tant que services, et qui connaˆıt une grande popularit´ e. Dans une infrastructure Cloud de type public, les four- nisseurs louent des services ou de la capacit´ e suivant des abonnements ou via un principe de paiement ` a l’utilisation ` a des clients qui consomment ces services. Les consommateurs de ces services interagissent avec la plate-forme Cloud grˆ ace ` a une interface utilisateur ou une interface de programmation (API : Application Programming Interface) g´ er´ ees par le fournisseur. Le Cloud Computing a eu de multiples d´ efinitions en fonction de l’´ evolution du paradigme et des personnes le d´ ecrivant comme les chercheurs ou l’industrie. Ainsi, la d´ efinition la plus couramment utilis´ ee est celle du National Institute of Standards and Technology (Institut national des normes et des technologies, NIST). Ainsi, Peter Mell et Tim Grance d´ efinissent le Cloud Computing comme suit: ”Cloud Computing is a model for enabling ubiquitous, convenient, on-demand network access to a shared pool of configurable Computing resources (e.g., networks, servers, storage, applications, and services) that can be rapidly provisioned and released with minimal management effort or service provider interaction. This Cloud model is composed of five essential charac- teristics, three service models, and four deployment models.” [ 2 ]. Cette d´ efinition peut trouver son ´ equivalent en fran¸cais ainsi : ”Le Cloud Computing est l’acc` es via un r´ eseau de t´ el´ ecommunications, ` a la demande et en libre-service, ` a des ressources informatiques partag´ ees configurables.”.
En savoir plus

166 En savoir plus

Une approche basée agent pour la sécurité dans le Cloud Computing

Une approche basée agent pour la sécurité dans le Cloud Computing

I.4.3 SaaS (Software as a Service) Les services Cloud Computing de type SaaS (ou le logiciel en tant que service) correspondent tout simplement à un modèle où le matériel, l’hébergement, le framework d’application et le logiciel sont dématérialisés et offertes à la demande sous forme des services [40, 41]. L’utilisateur n’a rien à gérer ou contrôler sauf quelques configurations bien spécifiques, et c’est le fournisseur qui s’occupe de la gestion des ressources nécessaires [42]. Les services sont hébergés, dans son propre centre de données, comme c’est par exemple le cas pour les outils ERP, serveurs web, outils collaboratifs, CRM, serveurs de messagerie (Yahoo Email, Gmail, …), Google Apps, Dropbox, office 365 (outil collaboratif), Salesforce CRM, Google Documents, Facebook, Twitter, MobileMe, Zoho, etc. L’inconvénient majeur de ce modèle est que le fait de confier les données sur des machines virtuelles appartenant à un fournisseur Cloud soulève des problèmes de confidentialité et de sécurité supplémentaires. Aussi, les utilisateurs sont limités aux qu’est proposé par le fournisseur. De plus, ce modèle pose également de vraies questions sur la pérennité du fournisseur.
En savoir plus

119 En savoir plus

Cloud computing for Astroscience applications

Cloud computing for Astroscience applications

I The behaviour is similar: no overhead due to virtualisation. Virtualisation Virtualisation is at the heart of the pro- cess allowing for the creation of VMs. Hypervisors (KVM, Xen, VirtualBox, VMWare...) are supported by the native OS of physical machines and create virtual ressources with the limitation of physical ones.

2 En savoir plus

Une infrastructure hybride de Cloud Computing pour l’optimisation des VANET

Une infrastructure hybride de Cloud Computing pour l’optimisation des VANET

6.1 Centre de données pour l’aéroport Arif et al., (2012) proposent un scénario VC caractérisé par une disponibilité relativement stable et à long terme des ressources où, durant les jours ouvrables, les voitures des employés sont stationnées pendant des heures dans le parking. Ils ont été les premiers à mettre en œuvre l’aspect le plus simple d’un VC, à savoir l’agrégation des capacités informatiques des véhicules garés dans un environnement plutôt stable, le stationnement à long terme dans un aéroport international. Ainsi, ils ont traité ce problème en proposant le temps d’occupation dans le parking sur la base d’une architecture de CC open source nommé « Eucalyptus » (Nurmi et al., 2009). L’architecture proposée s’appuie sur une API coté client qui communique avec le contrôleur Cloud, le contrôleur des nœuds, plusieurs contrôleurs de cluster. L’extension de l’architecture est conçue pour assurer une intégration transparente et une gestion distribuée des ressources informatiques excédentaires des véhicules participants. En particulier, l’architecture est conçue pour adapter dynamiquement les ressources de véhicules dans le processus de gestion, allouer dynamiquement les ressources à une application en fonction des besoins des demandeurs définis à l’avance. Ainsi, les conditions de fonctionnement de l’architecture sont modifiables et sensibles au contexte dans lequel elles se trouvent. L’architecture de base du système proposé englobe les composants suivants :
En savoir plus

115 En savoir plus

Architectures et mécanismes de fédération dans les environnements cloud computing et cloud networking

Architectures et mécanismes de fédération dans les environnements cloud computing et cloud networking

2.3 Cloud Networking 2.3.1 Définition Le Cloud Networking est le service d’interconnexion entre les ressources de types Cloud Computing. Ce service est lié aux opérations nécessaires au niveau des réseaux locaux Local Area Network (LAN), réseaux étendus Wide Area Network (WAN) et aux fonctions de gestion qui doivent se mettre en place pour l’adoption du Cloud Computing [118]. Le Cloud Networking inclut plusieurs acteurs, mais l’acteur principal reste le fournisseur de réseau ’Cloud Carrier’. Il offre de plus en plus de nouveaux services de type Cloud avec des fonctions d’interconnexion et de communications qui sont plus riches, plus flexibles et surtout en ligne avec les caractéristiques et les exigences du Cloud Computing. Comme définie dans [56, 62], le Cloud Networking introduit une nouvelle façon de déployer, configurer et gérer les réseaux et les services de communications. Cette nouvelle philosophie se base sur l’automatisation des opérations complexes du réseau, pour offrir un service à la demande qui soit simple à utiliser et rapide à déployer. L’émergence du Cloud Networking est le résultat de plusieurs facteurs. Parmi ces facteurs, il y a la croissance continue de la demande des ressources d’interconnexion, surtout avec l’augmentation du trafic entre les Clouds, l’apparition des courtiers CloudCloud Broker’ et l’explosion de l’utilisation des appareils mobiles. Un deuxième facteur est la limite des réseaux traditionnels qui ne sont plus suffisants avec leurs fonctionnalités basiques et leurs approches ’best effort’. Un troisième facteur est lié à l’apparition de nouvelles technologies d’interconnexion qui ont concrétisé le Cloud Networking. Parmi ces technologies, il y a les réseaux virtuels et le Software-defined Networking (SDN).
En savoir plus

205 En savoir plus

Le cloud computing et le crowdsourcing ou l'externalisation de proximité

Le cloud computing et le crowdsourcing ou l'externalisation de proximité

Une autre théorie a aussi été largement utilisée pour étudier la question de l’externalisation : c’est l’approche basée sur les ressources (« Resources based view » ou RBV) qui a été développée à partir des années 80 par Jay Barney. Dans ce courant de recherche, les ressources d’une firme sont définies comme des ensembles tangibles et intangibles qui sont indispensables au fonctionnement de l’entreprise. Ces ressources peuvent être technologiques, physiques, symboliques (marques) ou humaines. Elles sont « stratégiques », c'est-à-dire qu’elles peuvent déboucher sur un avantage concurrentiel durable, lorsqu’elles sont rares, non-substituables et difficilement imitables.
En savoir plus

11 En savoir plus

Architecture Cloud Computing chez PSA

Architecture Cloud Computing chez PSA

Imaginons à présent qu’une entreprise veuille créer son propre logiciel de service d’infrastructure. Elle devra alors créer un logiciel assemblant à la manière d’un puzzle l’ensemble des logiciels gérant chaque type de ressources. Les personnes en charge du réseau LAN devront fournir soit le code, soit les spécifications permettant d’effectuer des opérations sur leurs matériels réseaux. Il en est de même pour les personnes en charge du stockage, des systèmes d’exploitations, des pare-feu, ... Sans compter que chaque type de ressource peut avoir des sous-ensembles de matériels / logiciels provenant de différents fournisseurs et n’ayant pas obligatoirement les mêmes versions au sein d’un sous-ensemble. Cela peut très vite devenir un projet très complexe, dû à l’explosion combinatoire des possibilités, impliquant un grand nombre de personnes n’ayant pas obligatoirement les mêmes attentes et objectifs.
En savoir plus

122 En savoir plus

Cloud computing: survey on energy efficiency

Cloud computing: survey on energy efficiency

4.2.3. DVFS and Alternatives. One of the most notable techniques for reducing energy consumption in a CPU is reducing its power input due to its disproportional energy consumption; this is referred to as DVFS. A large body of research work is currently trying to utilize DVFS in order to reduce energy consumption, which includes algo- rithms such as those presented in Anghel et al. [2011] and Cioara et al. [2011a], or combining the DVFS with other components, such as memory and disk Chetsa et al. [2012]. Other works that utilize DVFS include Chen et al. [2012a] and Kim et al. [2012], whereas Kahng et al. [2013] propose some improvements over DVFS itself. Going even deeper into power limitation, Megalingam et al. [2009] propose a novel clocking scheme on a pipelined RISC CPU that is able to reduce power consumption by 50%. Unlike DVFS approaches or ones using clock gating, vCAP [Hankendi et al. 2013] uses co-scheduling for resource allocation in order to maximize the performance under power and performance constraints. It identifies nonscalable VMs in terms of performance and consolidates them. This is an example of how the CMS domain (i.e., VM management) in combination with the Server domain can provide more benefits for energy- saving techniques.
En savoir plus

36 En savoir plus

Sharing Cloud Computing Resources

Sharing Cloud Computing Resources

[BMPV06] T. Bonald, L. Massouli´e, A. Prouti`ere, and J. Virtamo. A queueing analysis of max-min fair- ness, proportional fairness and balanced fairness. Queueing Syst. Theory Appl., 53(1-2):65–84, June 2006. [GZH + 11] Ali Ghodsi, Matei Zaharia, Benjamin Hindman, Andy Konwinski, Scott Shenker, and Ion Sto- ica. Dominant resource fairness: Fair allocation of multiple resource types. In Proceedings of USENIX, 2011.

5 En savoir plus

Une approche formelle pour la planification des tâches
pour la QoS dans le cloud-computing

Une approche formelle pour la planification des tâches pour la QoS dans le cloud-computing

Grid computing : le grid computing est un paradigme de calcul réparti qui coordonne des ressources autonomes et géographiquement distribuées pour atteindre un objectif de calcul commun. Le grid est basé sur le partage dynamique des ressources entre des participants, des organisations et des entreprises dans le but de pouvoir les mutualiser, et faire ainsi exécuter des applications scientifiques, qui sont généralement des calculs intensifs ou des traitements de très gros volumes de données. Le cloud computing est similaire au grid computing : les deux adoptent le concept d’offrir les ressources sous forme de services. Toutefois, ils sont différents dans leur finalité : tandis que la technologie des grilles vise essentiellement à permettre à des groupes différents de partager l’accès en libre-service à leurs ressources, le cloud a pour objectif de fournir aux utilisateurs des services « à la demande », sur le principe du « paiement à l’usage ». De plus le cloud exploite les technologies de virtualisation à plusieurs niveaux (matériel et plateforme d'application) pour réaliser le partage et l'approvisionnement dynamique des ressources.
En savoir plus

114 En savoir plus

Allocation de ressources pour des réseaux satellitaires cognitifs

Allocation de ressources pour des réseaux satellitaires cognitifs

par faisceaux afin de découpler le problème d’optimisation. Cette approche semble raisonnable dans un contexte peu dense de systèmes FS mais ne passe pas à l’échelle lors de la den- sification des systèmes FS. Le système présenté plus haut est finalement proche d’un système OFDMA (nous justifierons ce point en Section 2) à plusieurs cellules ou d’un système dit Cloud Radio Access Network (CRAN) puisqu’un faisceau peut jouer le rôle d’une cellule et le satellite le rôle des différentes stations de base. Néanmoins une différence importante surgit dans notre contexte : le système à optimiser est un système secondaire et donc doit vérifier les contraintes d’interférence. C’est pourquoi les travaux d’optimisation des ressources conduit pour les systèmes cellulaires dans [3, 5] ne sont pas applicables et ne peuvent être que source d’inspiration.
En savoir plus

5 En savoir plus

Show all 3493 documents...