Haut PDF Classification des systèmes bioinspires: vers une approche basée modèles

Classification des systèmes bioinspires: vers une approche basée modèles

Classification des systèmes bioinspires: vers une approche basée modèles

R ESUME On entend par métaphore biologique une analogie qu’on cherche à déterminer entre le monde biologique et le monde artificiel, de façon à pouvoir proposer des approches qui imitent certains aspects du premier, tout en en ignorant d’autres. Fondamentalement, les métaphores ne cherchent pas à reproduire ce qui est biologique, mais plutôt à l’interpréter en fonction de ce qu’il est possible et raisonnable de réaliser. De ce fait, on peut déduire que les métaphores biologiques sont évolutives et dépendent de notre compréhension de la réalité et notre aptitude à en extraire des éléments pratiques et bénéfiques. Ce qui précède laisse sous- entendre, qu’à la diversité des organismes biologiques, viendra s’ajouter une diversité de métaphores pouvant engendrer une multitude de possibilités d’inspiration. Il devient alors indispensable de pouvoir caractériser les différentes approches bio-inspirées à des fins d’évaluation de leur apport concernant un aspect ou un autre. Dans cette thèse, nous traitons des problèmes de classification des systèmes bio-inspirés, nous partons du modèle POE comme base de taxonomie et nous puisons dans les concepts de l’ingénierie dirigée par les modèles pour trouver une approche de description des systèmes bio-inspirés qui utilise à la fois la qualité bio-inspiré du modèle POE et le savoir-faire du paradigme de l’ingénierie dirigée par les modèles (MDE ou Model Driven Engineering). Notre choix du paradigme MDE est justifié par sa capacité à décrire uniformément divers processus complexes et les artefacts impliqués dans le développement des systèmes logiciels. Comme résultat préliminaire, notre approche de description s'est avérée efficace pour caractériser un large éventail de systèmes bio-inspirés.
En savoir plus

225 En savoir plus

Une approche intégrée de validation des systèmes ferroviaires basée sur les modèles et prenant en charge leur validation

Une approche intégrée de validation des systèmes ferroviaires basée sur les modèles et prenant en charge leur validation

SIL and HIL already having V&V solutions working, though not fully developed yet, the second objective was to develop a way to verify and validate the behavior based on SysML models,[r]

176 En savoir plus

Méthode de conception dirigée par les modèles pour les systèmes avioniques modulaires intégrés basée sur une approche de cosimulation

Méthode de conception dirigée par les modèles pour les systèmes avioniques modulaires intégrés basée sur une approche de cosimulation

Une comparaison a été faite entre ces 4 environnements d’exécution (XtratuM, AIR, POK et SIMA): XtratuM, AIR et POK sont dépendants de la plateforme matérielle cible. Comme beaucoup de logiciels libres, ils souffrent d’un manque de documentation. XtratuM et POK ne sont pas entièrement conformes au standard ARINC653. Bien que le simulateur SIMA puisse offrir une bonne précision sans besoin d’avoir recours à la plateforme matérielle, ni d’avoir besoin d’un vrai RTOS supportant le standard ARINC653, il n’offre pas d’outils de développement comme POK. Tel que mentionné plus tôt, POK est intégré dans un flot de conception AADL. Plus précisément, l’environnement OCARINA permet une génération automatique d’une description AADL vers POK. Mais le principal désavantage de POK est son trop faible degré de développement qui est encore au niveau de prototype. En résumé, nous sommes arrivés à la conclusion qu’au moment de débuter le projet, aucun environnement d’exécution ARINC653 ne rencontrait toutes les conditions de sélection mentionnées ci-dessus. Dans de vrais systèmes avioniques complexes, les capteurs et actuateurs sont de vrais composants physiques. En phase de développement des systèmes IMA, pour faire la validation fonctionnelle, les applications avioniques doivent souvent échanger des données ou des signaux avec les capteurs et actuateurs. Il faut savoir que ces composants peuvent être très dispendieux. De plus, le bon fonctionnement de ces composants physiques dépend parfois du bon environnement de vol (eg. la vitesse, l’altitude, etc.). Pour résoudre ce problème, on utilise souvent des logiciels pour simuler le comportement des capteurs et actuateurs afin de compléter la simulation d’un système complet. Dans ce mémoire, on cherche à identifier un outil peu coûteux permettant de développer efficacement les logiciels visant la simulation des capteurs et actuateurs avioniques.
En savoir plus

107 En savoir plus

Une approche sémantique de détection de maliciel Android basée sur la vérification de modèles et l'apprentissage automatique

Une approche sémantique de détection de maliciel Android basée sur la vérification de modèles et l'apprentissage automatique

En effet, la sélection des caractéristiques pour la classification joue un rôle très important sur la précision et la qualité des prédictions. C’est dans cette optique que s’inscrit l’article [ 23 ] dans lequel les auteurs visent l’amélioration de la robustesse des classifieurs et ce en utilisant des automates modélisant un comportement non désiré comme caractéristiques pour la classification. À partir du bytecode d’une application malveillante, les auteurs construisent un automate représentant le comportement de l’application. Afin d’éliminer les redondances qui résultent du fait qu’un seul comportement peut être décrit via plusieurs méthodes API, ces dernières ont été regroupées dans un ensemble de désignations similaires aux permissions. L’intersection des automates des maliciels est un ensemble de sous-automates représentant chacun un comportement non désiré. La pertinence de ces caractéristiques est évaluée par des poids estimés par un classifieur linéaire, de surcroît, des techniques de fouille de textes ont été utilisées afin de souligner le comportement malveillant spécifique à chaque famille. L’approche présentée permet de générer automatiquement des propriétés temporelles à partir des maliciels.
En savoir plus

85 En savoir plus

Méthodologie de conception de systèmes de simulations en entreprise étendue, basée sur l'ingénierie système dirigée par les modèles

Méthodologie de conception de systèmes de simulations en entreprise étendue, basée sur l'ingénierie système dirigée par les modèles

Dans une vision plus large que le « plateau de co-développement » qui laisse le senti- ment d’une référence à un lieu particulier, il semble intéressant d’utiliser, en lieu et place, le terme d’« entreprise étendue ». Ce dernier terme suppose la mise en place d’une structure juridique et fonctionnelle, entre les différents partenaires, pour le temps de la réalisation d’un projet commun. Cette structure d’« entreprise étendue » a vocation à favoriser les échanges entre les partenaires, dans le respect d’une protection de la propriété intellec- tuelle librement définie et consentie, entre le donneur d’ordre et les partenaires, et entre les partenaires eux-mêmes. Or, [Cha12] décrit les relations des donneurs d’ordre vis-à-vis des sous-traitants comme : « le pillage du savoir-faire des PME est devenu un sport national ». Dans ce contexte, le problème de la protection des droits intellectuels est un sujet émi- nemment important pour qui cherche à protéger et faire valoir ses droits de sous-traitants. Elle l’est encore plus, avec l’arrivée de la financiarisation de la sous-traitance. C’est-à-dire, lorsque le donneur d’ordres demande aux sous-traitants systémiers de participer à la mise en œuvre d’un nouveau produit, d’un nouveau programme, avec tous les aléas commer- ciaux, dont le systémier n’est pas maître. Dans ce cas, la protection intellectuelle devient cruciale si celui-ci veut pouvoir espérer un retour sur investissement, en vendant au don- neur d’ordres, comme aux concurrents du donneur d’ordres, des équipements issus de sa propre recherche. [MGC19] propose une approche de protection IP, basée modèles, bien adaptés aux différents partenaires qui œuvre au sein de l’entreprise étendue, lors de la phase de conception amont du produit. Cette approche peut restreindre la visualisation d’éléments de modèles, aux seules catégories des personnes autorisées, et surtout elle per- met de marquer les éléments des modèles pour signifier le propriétaire. Ce point sur la propriété intellectuelle n’est pas plus développé dans cette thèse, autre que sous la forme de l’utilisation d’un intergiciel de type FMI 2.0. Ce standard FMI 2.0 spécifie, en autre, l’API 3 pour les échanges de données, sans nécessité de dévoiler le code source à l’origine
En savoir plus

185 En savoir plus

Raisonner sur l'autonomie d'un agent au sein de systèmes multi-agents ouverts : une approche basée sur les relations de pouvoir

Raisonner sur l'autonomie d'un agent au sein de systèmes multi-agents ouverts : une approche basée sur les relations de pouvoir

3. Coordination et contraintes interpersonnelles L’objectif de cette thèse n’est pas de proposer un nouveau modèle de coordination (interpersonnel ou institutionnel), mais d’analyser les implications, sous la forme des contraintes imposées, que l’utilisation d’un tel modèle a sur l’autonomie d’un agent. Nous n’essayons donc pas de proposer un nouveau modèle de coordination, mais nous nous intéressons à différents modèles existants, afin d’analyser des possibilités de représentation de ces contraintes. Dans la première partie de ce chapitre nous allons analyser à l’aide d’un cadre de coordination très connu, le modèle GPGP/TAEMS, la problématique de la coordination non-institutionnelle dans les systèmes multi-agents et le concept d’interaction entre agents. Cette analyse nous permettra d’identifier l’existence de deux types de contraintes qu’une telle coordination impose aux agents : les contraintes qui mènent les agents à interagir (pourquoi ont-ils besoin de le faire ?) et les contraintes issues de ces interactions (qu’est-ce qu’ils doivent faire après ?). D’un coté, pour le deuxième type de contrainte, le modèle d’engagements sociaux semble être la représentation la plus utilisée – nous détaillons ce modèle, ses utilisations et nous décrivons ainsi les implications de l’utilisation des méta-engagements (ou politiques sociales). D’un autre coté, la théorie de la dépendance explique et donne un cadre formel de représentation du premier type de contrainte – nous présentons et discutons cette théorie. Nous présentons ensuite une théorie des sciences sociales qui l’étend et qui s’intéresse aux pouvoirs individuels et aux relations de pouvoirs entre agents : la théorie du pouvoir social. Nous finirons par une discussion sur la manière dont ces théories peuvent être utilisées pour décrire les contraintes interpersonnelles qui limitent la prise de décision et le comportement des agents.
En savoir plus

193 En savoir plus

Proposition d'une classification de l'approche basée sur les ressources

Proposition d'une classification de l'approche basée sur les ressources

Vers la multiplicité des thématiques et des disciplines À mesure que l’approche basée sur les ressources séduit les chercheurs en sciences de la gestion, la littérature va alors se développer considérablement et couvrir un large éventail de thématiques et de disciplines, notamment celles du management stratégique, des théories organisationnelles, des systèmes d’information, etc. Les thématiques traitées abordent, à côté de la question de la performance des firmes et de leur avantage concurrentiel, les stratégies de croissance de la firme, le développement technologique et les stratégies d’imitation. Ces thématiques vont d’une part multiplier les niveaux d’analyse, et d’autre part, vont nécessiter une hybridation de l’approche basée sur les ressources avec d’autres théories. En conséquence, cette évolution et cette multiplication des thèmes de recherche va accentuer l’hétérogénéité de l’approche basée sur les ressources qui devient de plus en plus éparse, ce qui ne manque pas d’avoir un effet important sur la définition des concepts clés et leur compréhension selon les auteurs. Ainsi, on remarque que les concepts clés de ressources et de compétences, pris de manière indépendante sont définis de plusieurs façons voire contradictoirement selon les auteurs, ce qui a fortement accentué les critiques vis-à-vis de cette approche notamment en ce qui concerne le manque de cohérence de son appareillage conceptuel (Priem et Butler, 2001).
En savoir plus

16 En savoir plus

Intégration des systèmes d'information industriels : une approche flexible basée sur les services sémantiques

Intégration des systèmes d'information industriels : une approche flexible basée sur les services sémantiques

études comparatives comme celle proposée par l’équipe WonderTools de l’Université d’Amsterdam [Duineveld et al. 1999] ou encore plus récentes celles issues du projet IST WebOnto [OntoWeb 2002]. Loin de constituer une étude comparative, nous pouvons toutefois reprendre la classification très simplifiée qui consiste à répartir les outils en deux catégories. Dans la première on retrouve les outils les plus anciens historiquement et qui permettent de spécifier les ontologies au niveau symbolique (Ontolingua, Ontosaurus, WebOnto), tandis que dans la seconde catégorie, on retrouve des outils qui ont mûri en abstraction et permettent à l'utilisateur de créer l'ontologie de manière relativement indépendante de toute implémentation (Protégé 2000, KAON, WebODE, etc.). Ces derniers outils sont plus efficaces dans la mesure où ils permettent de s'abstraire de toute contrainte d'implémentation, en permettant notamment de s'affranchir du niveau symbolique des ontologies. Ils peuvent très souvent prendre en charge d'une manière quasi-automatique la phase d'opérationnalisation de l'ontologie, en permettant ainsi de la transposer automatiquement dans divers langages à travers des primitives de mapping ou d'import/export. La figure IV.14 reproduite de [Corcho et al. 2003] illustrant les correspondances entre les outils et les langages, permet de mettre en évidence ces deux catégories d'outils.
En savoir plus

391 En savoir plus

Une architecture de système d'information collaboratif pour la gestion de crise. Approche basée sur la médiation des systèmes

Une architecture de système d'information collaboratif pour la gestion de crise. Approche basée sur la médiation des systèmes

Université de Toulouse, Ecole des Mines d’Albi-Carmaux, Campus Jarlard - 81013 Albi {truptil, Bénaben, pingaud} @enstimac.fr RÉSUMÉ . Un objectif du projet de recherches ISyCri (ANR-CSOSG) est de définir une architecture de système d’information collaboratif afin d’aider à la résolution d’une crise dans laquelle plusieurs partenaires sont impliqués. Après avoir décrit certaines spécificités liées au contexte, notre recherche étudie le problème au moyen de deux concepts structurants : un système de systèmes permettant de travailler à partir de systèmes contributeurs relativement autonomes, induisant une exigence sur des capacités d’interopérabilité dans l’espace de formulation du problème ; un système de médiation tirant profit de cette interopérabilité et dont nous montrons que la conception peut être renouvelée facilitant ainsi le développement de solutions agiles. En effet, comme une crise est un phénomène évolutif, l’agilité du système est déterminée par la possibilité de configurer le médiateur en ligne permettant de respecter des exigences nouvelles au fil de l’eau. A cette fin, une approche basée sur l’ingénierie dirigée par les modèles est mise en œuvre. Le médiateur coordonne continuellement l’exécution des processus collaboratifs voulus par les acteurs : il participe à l’invocation des services qu’ils exposent ainsi qu’à l’échange et l’interprétation des informations au cœur même du dispositif de gestion de crise.
En savoir plus

27 En savoir plus

Ingénierie Dirigée par les Modèles Basée sur les Templates

Ingénierie Dirigée par les Modèles Basée sur les Templates

Afin d’aboutir à une réutilisation indépendante de toute plateforme comme CORBA, l’OMG a par la suite proposé l’architecture MDA (Model Driven Architecture - OMG [ 82 ]). Avec MDA, le développement des systèmes logiciels est centré sur des modèles indépendants des technologies (les modèles PIM - Platform Independent Model) qui sont ensuite raffinés en modèles contenant des détails techniques (les modèles PSM - Platform Specific Model). En exprimant avec des modèles les différents niveaux d’abstraction d’un système, l’architecture MDA a permis la réuti- lisation dans les phases les plus en amont du développement comme l’analyse et la conception. MDE (Model Driven Engineering - Kent [ 57 ], IDM - Ingénierie Dirigée par les Modèles) a ensuite généralisé l’approche au delà des problèmes d’architecture. Cette nouvelle approche représente toutes les dimensions de l’ingénierie, ses produits et ses processus par des modèles. En plus des modèles, cette ingénierie fait appel à une seconde forme d’artéfacts. Il s’agit des transformations de modèles. Celles-ci sont utilisées pour manipuler les modèles, par exemple les modifier, les représenter dans un autre formalisme, générer du code, etc... La réutilisation de transformations permet de répondre à des tâches complexes. Elle consiste à créer des transformations à partir d’existantes, en y ajoutant ou modifiant des règles de transformations et à combiner des trans- formations. Typiquement, la combinaison de transformations est effectuée par leur chaînage. De nombreuses approches, comme celles de Sendall & Kozaczynski [ 94 ], Etien et al. [ 42 ] et Chechik et al. [ 29 ], ont étudié la réutilisation de transformations de modèles.
En savoir plus

191 En savoir plus

Détection d'erreur au plus tôt dans les systèmes temps-réel : une approche basée sur la vérification en ligne

Détection d'erreur au plus tôt dans les systèmes temps-réel : une approche basée sur la vérification en ligne

Une tendance générale dans le développement de logiciel passe par la définition et l’utilisation de modèles. Ces modèles servent à décrire le fonctionnement supposé ou es- péré de l’implémentation de l’application. La vérification de modèle consiste à valider les propriétés comportementales d’un modèle de l’implémentation. Cette technique tombe dans la première catégorie d’approches pour la sûreté de fonctionnement du logiciel en permettant de raisonner sur l’implémentation de l’application dans ses phases amont de conception. Une évolution de ces méthodes de vérification consiste à réaliser certains contrôles en opération. Pour ce faire, un programme peut superviser l’exécution de l’ap- plication pour en extraire une information représentative de sa dynamique d’exécution. Cette information peut être utilisée après coup à des fins d’amélioration du logiciel ou d’évaluation de ses performances. Ces techniques ont un intérêt reconnu pour le test et la mise au point de l’application 1 . Cependant, ces moniteurs d’exécution nous intéressent pour ce qu’il peuvent apporter dans la détection en ligne d’erreurs et de dysfonctionne- ments dans l’exécution d’une l’application. En e ffet, il est possible de comparer en ligne le modèle de l’exécution courante, à la description des comportements attendus. Dès que le comportement observé se distingue des comportements attendus une erreur est signa- lée. Cette approche a déjà été éprouvée pour des modèles simples et faciles à traiter dans les années 1990. Le défaut de ces détecteurs résidait dans leur manque d’expressivité pour spécifier les comportements attendus. Des formalismes plus riches sont apparus à peu près à la même époque : logiques temporelles adaptées au temps-réel, systèmes à transitions intégrants des contraintes temporelles ... Ces formalismes ont atteint depuis un niveau su ffisant de maturité pour qu’ils soient pris en considération comme outil de description des comportements attendus dans la vérification en ligne. Le domaine connaît depuis peu un regain d’intérêt avec l’apparition de cette nouvelle gamme de moniteurs comporte- mentaux. Des algorithmes ont été proposés pour comparer en ligne une exécution à ces modèles. Plus le formalisme utilisé pour spécifier les comportements attendus est com- plexe, plus il devient di fficile de comprendre l’algorithme d’analyse en ligne de l’exécu- tion de l’application. La complexité des calculs réalisés dans les moniteurs utilisant les formalismes les plus puissants est telle qu’il existe des doutes sur les caractéristiques pra-
En savoir plus

141 En savoir plus

Une approche intégrée pour la validation et la génération de systèmes critiques par raffinement incrémental de modèles architecturaux

Une approche intégrée pour la validation et la génération de systèmes critiques par raffinement incrémental de modèles architecturaux

Pour ce faire, [ Zalila et al., 2008 ][chapitre 6, section 6.4.2] propose une implantation des ports en Ada (intégrée à l’intergiciel P OLY ORB-HI), appelée Global Queue (file d’attente glo- bale de messages) dont l’architecture est basée sur une table constituée d’une concaténation de tableaux circulaires. Chacun de ces tableaux circulaires représente une file d’attente d’un port pour une tâche donnée. Cette architecture a été implantée sous la forme d’un objet pro- tégé manipulé à l’aide de procédures et de fonctions dont l’exécution est déterministe (constant ou en O(N) où N est la taille de la donnée spécifiée par le port). Des structures de données supplémentaires complètent l’architecture de la file globale et implante les différents compor- tements des ports d’un thread (politique de gestion des files, priorité de livraison...) spécifiés à l’aide des propriétés du standard AADL.
En savoir plus

268 En savoir plus

Ingénierie des systèmes orientés services adaptables : Une approche dirigée par les modèles

Ingénierie des systèmes orientés services adaptables : Une approche dirigée par les modèles

services (BPEL4WS) (Andrews et al., 2003). En parallèle avec l‟émergence du SOC, l‟informatique Sensible au Contexte (Dey, 2000) a été proposée dans l‟objectif d‟adapter des applications et des systèmes logiciels aux différents contextes d‟utilisation. Ces derniers couvrent toutes les informations pouvant être utilisées pour caractériser la situation d‟une entité. Une entité peut être une personne, un lieu, ou un objet qui peut être pertinent pour l‟interaction entre l‟utilisateur et l‟application, y compris l‟utilisateur et l‟application (Dey, 2000). Bien qu‟il n‟existe pas une définition unique de ce qui est un contexte d‟utilisation, les caractéristiques des terminaux utilisés pour accéder aux systèmes et celles du réseau et surtout le profil de l‟utilisateur constituent les éléments clés du contexte d‟utilisation. Par ailleurs, l‟OMG a proposé l‟architecture dirigée par les modèles MDA (MDA-Model Driven Architecture) (OMG, 2003) pour le développement et la maintenance des systèmes d‟informations distribués et complexes. MDA propose une nouvelle manière de spécification des systèmes informatiques basée sur différents perspectives du même système. En premier lieu, les fonctionnalités et le comportement d‟un système sont décrits sans tenir compte des caractéristiques technologiques. Ensuite, la spécification des fonctionnalités et du comportement est utilisée pour créer les systèmes informatiques conformément à une technologie spécifique.
En savoir plus

196 En savoir plus

Découverte supervisée de Modèles de processus intentionnels basée sur les Modèles de Markov Cachés

Découverte supervisée de Modèles de processus intentionnels basée sur les Modèles de Markov Cachés

2. Travaux connexes Les MMC sont appliqués dans de nombreux domaines pour reconstruire les états cachés de processus observés, comme la reconnaissance vocale (Juang et al., 1991) et la bio-informatique (Enright et al., 2002). Un type de problème similaire se pose dans le domaine de la fouille de processus, dont l'objectif est d'extraire des séquences d’activités observées à partir de logs d’événements afin de récupérer le workflow d’origine produisant les logs. Dans les diverses approches de fouille de processus, l'objectif est généralement de découvrir la séquence d ‘activités sous-jacentes aux processus, à partir des logs d’événements, à l'aide d'algorithmes et de techniques variées telles que la classification et l es techniques d’apprentissage (van der Aalst et al., 2011). Une approche pour découvrir des processus est l’apprentissage automatique (Herbst et al., 1998) (Eibe et al., 2005). Il existe différentes approches d’apprentissage automatique : supervisé, non supervisé, semi-supervisé et de renforcement. L’apprentissage supervisé est basé sur deux étapes : (a) dans l’étape d’entraînement, un al gorithme d’apprentissage est appliqué sur des observations (variables indépendantes) pour entraîner un classificateur, (b) dans l'étape de prédiction, les performances de ce classificateur peuvent être testées avec un jeu d’observations. De plus, le classificateur peut classifier de nouvelles données.
En savoir plus

17 En savoir plus

Les systèmes informatisés dans l’industrie pharmaceutique : approche de la conformité basée sur les risques et gestion agile des projets de validation

Les systèmes informatisés dans l’industrie pharmaceutique : approche de la conformité basée sur les risques et gestion agile des projets de validation

 La mise en commun d’outils de communication et d’organisation, de modèles de documentation, ou d’autres informations pouvant être utiles aux acteurs des projets.  Etc. En parallèle, la direction doit être à l’écoute des équipes opérationnelles et doit être ouverte au changement. En effet, les projets d’une entreprise sont souvent la concrétisation d’une politique de développement, dont l’orientation doit être acceptée par les salariés afin d’assurer une pérennité des processus mis en place. Sa vision doit également être immédiate, sur les projets en cours, par exemple via des comités de direction projet réguliers. Ainsi, par son engagement, la direction sera capable de fournir à l’entreprise une flexibilité et une capacité d’adaptation à l’environnement, qui participera directement à son effort de développement.
En savoir plus

90 En savoir plus

Orientation de l'effort des tests unitaires dans les systèmes orientés objet : une approche basée sur les métriques logicielles

Orientation de l'effort des tests unitaires dans les systèmes orientés objet : une approche basée sur les métriques logicielles

2.2 Prédiction des fautes logicielles  Le Standard Computer Dictionary [29] a défini une faute comme étant une étape, un  traitement,  ou  une  définition  de  donnée  incorrecte  dans  un  programme.  La  défaillance  représente l’incapacité d’un logiciel ou d’un composant d’un système logiciel à réaliser ses  spécifications avec les performances requises. La défaillance peut être due au matériel ou  au  logiciel.  La  faute  dans  un  programme  devient  une  défaillance  effective  quand  elle  est  rencontrée lors de l’exécution du programme. Ainsi, par exemple, le nom d’un fichier mal  orthographié dans un code source est une faute. Le logiciel ne pouvant pas ouvrir le fichier  contiendra  une  erreur,  ce  qui  peut  éventuellement  conduire  à  sa  défaillance  lors  de  la  sauvegarde.  Deux  constats,  entre  autres,  ont  emmené  la  communauté  des  chercheurs  à  s’intéresser de plus près à la prédiction de fautes: (1) Le coût qu’elles engendrent: sur ce  point, le NIST (National Institute of Standards and Technology) [9] a estimé entre 22.2 et  59.5 milliards de dollars les pertes nettes occasionnées par les défaillances logicielles aux  USA  en  2002.  (2)  La  possibilité  de  réduire  leur  impact:  sur  ce  point,  des  études  [30,31]  montrent  que  la  découverte  précoce  des  fautes  dans  le  processus  de  développement  permet  de  réduire  les  coûts  liés  à  leur  correction.  La  prédiction  des  fautes  du  logiciel  va  être,  dès  lors,  un  enjeu  économique  important  et  emmènera  plusieurs  chercheurs  à  s’intéresser  au  sujet.  L’objectif  est  de  déceler  les  composants  les  plus  enclins  à  contenir  des fautes, très tôt dans le cycle de vie du logiciel. Un composant susceptible de contenir  des fautes se voit alors apporter un soin particulier lors des tests, ou encore restructuré en  composants  moins  à  risque  de  fautes.  Les  techniques  de  détection  sont  souvent  construites sur des modèles probabilistes, statistiques ou d’intelligence artificielle à partir  des données de métriques logicielles. En effet, les corrélations de nombreuses métriques  logicielles avec les fautes ont été largement confirmées dans la littérature [32‐39]. 
En savoir plus

225 En savoir plus

Une approche par apprentissage basée sur des modèles linguistiques

Une approche par apprentissage basée sur des modèles linguistiques

Pour améliorer ces systèmes, notre motivation a été d’explorer le potentiel des techniques de plusieurs domaines : le premier a trait au domaine de l’apprentissage automatique, passage obligé dans la conception d’un système de filtrage automatique d’information. Nous proposons donc une solution évolutive permettant au système d’apprendre à partir de données, d’exploiter ces connaissances et de s’adapter à la nature des courriers dans le temps. Le deuxième a trait à la nécessité d’utiliser des ressources ou traitements linguistiques. Dans ce contexte, nous voulons montrer que l’utilisation de connaissances et de traitements linguistiques peut améliorer les performances d’un système de filtrage. En effet, nous proposons un ensemble de connaissances linguistiques sous forme de modèles réduits (issues de modèles linguistiques de textes). Il s’agit d’un ensemble d’indicateurs sur le texte (portant sur la structure et le contenu du message). Un message est soumis à un processus d’analyse automatique, permettant de lui associer un ensemble de termes et de propriétés linguistiques, qui sert à le caractériser et à le situer par rapport aux autres. Ces connaissances sont indépendantes du domaine d’application, nous les avons classées en plusieurs niveaux : matériel, énonciatif, structurel et syntaxique. Dans le cadre de ce travail, nous ne cherchons pas à faire une analyse complète et profonde du contenu des messages, mais plutôt une analyse partielle utilisant plusieurs niveaux d’analyse dégageant des propriétés linguistiques qui devraient permettre de distinguer les différents types de messages et de classer ensuite les nouveaux messages.
En savoir plus

29 En savoir plus

Pépite | Ingénierie dirigée par les modèles basée sur les templates

Pépite | Ingénierie dirigée par les modèles basée sur les templates

1.2 Structure du document Dans le chapitre suivant, nous effectuons un état de l’art, dans lequel nous étudions des approches de réutilisation de parties de modèles et de modèles paramétrés. En ce qui concerne les premiers, nous montrons les différents travaux permettant de produire une partie de modèle à partir d’un modèle d’application existant. Nous présentons aussi des approches autorisant leur assemblage afin d’obtenir le modèle de système souhaité. Quant aux modèles paramétrés, nous en étudions plusieurs formes : les modèles variables, de rôles et les templates. Concernant ces derniers, ils ont été retenus pour notre approche car ils permettent de représenter des spécifications réutilisables et adaptables à des contextes applicatifs. Nous leur consacrons ainsi une section à part entière dans laquelle nous présentons le standard UML et de nombreux travaux exploitant les templates de modèles. En chapitre 3 , nous exposons en premier lieu (section 3.1 ) les notions de sous-modèles et d’aspectual templates à la base de notre approche. Puis, nous donnons une vue générale de nos travaux en présentant l’Ingénierie Dirigée par les Modèles Basées sur les Templates (IDMBT) (section 3.2 ). Cette ingénierie est structurée autour d’un dépôt de modèles et de deux espaces de conception : celui des (aspectual) templates et celui des modèles applicatifs. Dans le premier espace (“conception pour la réutilisation”), les concepteurs définissent des templates au travers de différentes activités de modélisation. Ces templates sont par la suite placés dans le dépôt de modèles et utilisés dans le second espace de conception (“conception par la réutilisation”) afin de concevoir des modèles de systèmes.
En savoir plus

190 En savoir plus

Génération de Transformations de Modèles : une approche basée sur les treillis de Galois

Génération de Transformations de Modèles : une approche basée sur les treillis de Galois

Chapitre 1 Introduction Longum iter est per praecepta, breve et efficax per exempla. 1 Ce que Sénèque explique à Lucillius, de nombreux développeurs aimeraient pouvoir l’appliquer dans leurs tâches de programmation. Il serait en effet plus facile de montrer à un ordinateur deux listes de nombres, la seconde liste correspondant à la première triée, et de laisser l’ordinateur gé- néraliser et définir les bonnes opérations pour effectuer le tri, plutôt que de développer soi-même un algorithme de tri. Plusieurs tentatives ont été effectuées dans le génie lo- giciel pour définir un système d’apprentissage de programmes à partir d’exemples, dont un grand nombre sont décrites dans [Lieberman, 2001]. Le potentiel d’un tel système, s’il fonctionnait, serait énorme puisqu’il permettrait à toutes les personnes n’ayant aucune connaissance en programmation de créer des programmes. Malgré tous les efforts dé- ployés, les solutions proposées ne permettent de créer que des programmes très simples pour un coût en termes de temps relativement élevé mais avec l’avantage que les systèmes sont faciles et rapides à prendre en main. Ces systèmes ont pour la plupart été utilisés comme des plateformes d’initiation à la programmation pour les plus jeunes.
En savoir plus

130 En savoir plus

Un défi de recherche interdisciplinaire : comparaison d’une classification disciplinaire avec une classification basée sur les phénomènes

Un défi de recherche interdisciplinaire : comparaison d’une classification disciplinaire avec une classification basée sur les phénomènes

économie et sociologie viti-vinicoles ? On peut l’attribuer à l’économie, à la sociologie aussi bien qu’à la viticulture. À cause de ce dilemme, auquel la plupart des catalogueurs sont confrontés, la possibilité d’une recherche interdisciplinaire à travers les catalogues des bibliothèques en ligne dits OPAC (Open Public Access Catalogue) est aujourd’hui un enjeu majeur pour l’organisation des connaissances. Par ailleurs, en examinant les différentes approches utilisées pour l’indexation des documents dans les systèmes intégrés de gestion de bibliothèques (SIGB),  certains chercheurs, comme  Gnoli (2016)  et Szostak et al. (2016), trouvent que les classifications basées sur une approche épistémologique (CDD,  CDU,  LCC, etc.) sont moins appropriées pour ce type de recherche que les classifications basées sur une approche ontologique.
En savoir plus

9 En savoir plus

Show all 10000 documents...

Sujets connexes