Haut PDF Quelques techniques de couplage de modèles et de données

Quelques techniques de couplage de modèles et de données

Quelques techniques de couplage de modèles et de données

7. Introduction Design of a complex engineering system is often characterized by number of design objectives and constraints spread over different disciplines. For example, aircraft design involves different design teams specializing in aircraft structure, aerodynamics, propulsion, control, materials and manufacturing. Design objectives and constraints from each of these disciplines along with sys- tem level operational performance targets such as aircraft range, take-off weight, cruise speed, etc., constitute the whole aircraft design problem. In principle, the design problem can be mod- eled as a single constrained optimization problem in the space of design variables. However, it is not always feasible to solve design problem as a single optimization problem in real life design process. The infeasibility can be attributed to the dimensionality of the problem, complexity and cost of the underlying disciplinary analyses involved. This necessitates a decomposition ap- proach to enable concurrent execution of smaller and more manageable tasks. Such approach not only grants autonomy to the group of engineers responsible for discipline specific design sub- task in choosing their methods and tools but also facilitates concurrent execution of subtasks. In the current technology trend of massively concurrent processing this seems to be a more viable option to cut down lead time in product design, analysis and actual manufacturing. Decomposi- tion of a single, expensive design optimization problem into smaller, manageable optimization problems or subtasks is itself a complex process. Often disciplinary analyses are coupled requir- ing input from other disciplines. This leads to iterative design process. Moreover, the coupling between different disciplines can be so complex that it can lead to non-hierarchical structure for information and data exchanges. Design optimization by decomposition, therefore, must also provide a framework for coordination amongst different subsystems and for coordination between system level objectives and constraints and subsystem level designs. Multidisciplinary Design Optimization (MDO) is a body of methods and techniques for performing the above opti- mization so as to balance design considerations at the system and subsystem levels to render the final optimal design. The name multidisciplinary optimization is often taken literally. It should preferably be called “collaborative design optimization”. Indeed, the optimization tool is only one part which can not be separated from the total design process. The goal of collaborative de- sign optimization is not to create an automatic design process based on optimization algorithms but to allow easy interaction amongst teams from different disciplines. Apart from the design of a framework for information and data exchange, there are number of other issues which need to be addressed for successful implementation of MDO method in engineering design process. These issues are
En savoir plus

240 En savoir plus

Couplage de modèles incompatibles pour des techniques de zoom structural sur matériaux hétérogènes

Couplage de modèles incompatibles pour des techniques de zoom structural sur matériaux hétérogènes

Une première manière pour assurer ce couplage est d’assurer la continuité du champ de déplacement d’interface entre les deux modèles. Ces techniques sont nommées submodeling et se retrouvent dans les travaux de [1]. Elles sont réputées donner de bons résultats dans le cas où la zone d’intérêt est loin de l’interface de couplage entre les deux modèles. Bien que très faciles à mettre en œuvre elles ne permettent pas de prendre en compte la réponse de la structure locale sur la partie globale. On parle alors d’analyse descendante.

7 En savoir plus

Assimilation de données ensembliste et couplage de modèles hydrauliques 1D-2D pour la prévision des crues en temps réel. Application au réseau hydraulique "Adour maritime"

Assimilation de données ensembliste et couplage de modèles hydrauliques 1D-2D pour la prévision des crues en temps réel. Application au réseau hydraulique "Adour maritime"

Les erreurs sur les observations tiennent elles aussi une place importante dans l’utilisation des mod`eles. En effet les observations en ce qu’elles peuvent servir comme donn´ees de for¸cages pour les mod`eles sont ´egalement une source d’erreur. On estime par exemple (voir [?]) que des pluies moyenn´ees spatialement peuvent avoir une erreur comprise entre 20 et 30 % tandis que les mesures de hauteurs d’eau et/ou de d´ebit peuvent ˆetre biais´ees ou affect´ees par un d´efaut de l’instrument. D’autre part des observations fausses (du fait d’erreur des instruments ou dans la chaine d’acquisition) peuvent biaiser la calibration d’un mod`ele ou encore conduire `a une mauvaise estimation des courbes de tarage. Pour r´eduire l’impact que les erreurs et les sources d’incertitudes ont sur les r´esultats des mod`eles on peut appliquer les techniques de l’assimilation de donn´ees. Le lecteur int´eress´e pourra se reporter au chapitre 3 pour une pr´esentation plus g´en´erale de l’assimilation de donn´ees. Pour un ´etat de l’art des techniques d’assimilation de donn´ees appliqu´ees `a l’hydraulique fluviale nous invitons le lecteur `a se reporter `a la chapitre 6. Nous mention- nerons simplement ici que les techniques d’assimilation de donn´ees sont utilis´ees dans la pr´evision des crues en temps r´eel pour combiner les donn´ees d’observation aux mod`eles de pr´evision. Cela permet de corriger les variables d’´etat ou les param`etres du mod`ele en temps r´eel afin d’am´eliorer les pr´evisions.
En savoir plus

303 En savoir plus

Couplage de données laser aéroporté et photogrammétriques pour l'analyse de scènes tridimensionnelles

Couplage de données laser aéroporté et photogrammétriques pour l'analyse de scènes tridimensionnelles

élevée puisqu’elle est inférieure, sous certaines conditions à 5 cm. En outre, l’émission d’un faisceau laser au niveau du vecteur aérien permet l’acquisition d’un ou plusieurs points de mesure le long de l’onde réfléchie. Cette propriété est particulièrement intéressante en milieu forestier ou dans les zones de végétation urbaine car elle permet d’accéder non seulement à la hauteur de la canopée, mais aussi à l’altitude du sol sous la végétation, information altimétrique parfaitement indisponible à partir de photo- graphies aériennes. Le laser aéroporté tire une grande partie de son succès commercial des applications spécifiques où cette technique de levé est la seule performante. Il s’agit du suivi de corridor, le lidar étant généralement embarqué sur un hélicoptère, pour la gestion de la croissance de la végétation sous les lignes électriques haute tension ainsi que la surveillance des lignes de chemin de fer. Mentionnons aussi une activité qui a de fortes implications sur la gestion des risques au niveau des littoraux, le levé de côtes pour lequel l’imagerie ne présente pas suffisamment de texture pour fournir une altimétrie fiable. Ces deux systèmes d’acquisition de données géographiques ont chacun leurs avantages et leur inconvé- nients. La photogrammétrie fournit un cadre géométrique stable à travers l’aérotriangulation 4 et permet la génération d’informations 3D à la résolution planimétrique des images utilisées. Ainsi, pour un capteur numérique de dimension 4000 × 4000 pixels fournissant des images de résolution 20 cm, on peut espé- rer calculer 25 points de mesures altimétriques par mètre carré répartis régulièrement. Cette technique fournit en outre une information radiométrique primordiale pour l’interprétation des paysages. La "la- sergrammétrie" quant à elle fournit des points 3D dont la précision altimétrique est supérieure à celle de la photogrammétrie (ce n’est pas toujours vrai pour la précision planimétrique notamment à cause de la dérive de la centrale inertielle au cours du temps). Elle permet aussi l’acquisition de mesure altimétrique du terrain sur des zones boisées. Par contre, la densité de points au sol est en général assez faible et la répartition spatiale est particulièrement irrégulière. L’utilisation conjointe de ces deux techniques pour l’interprétation et la description géométrique des paysages laisse donc entrevoir nombre de potentialités et d’applications possibles dont nous avons essayé d’initier les méthodologies dans ce travail de doctorat.
En savoir plus

167 En savoir plus

Couplage données historiques - modélisation numérique pour la prédétermination des avalanches : une approche bayésienne

Couplage données historiques - modélisation numérique pour la prédétermination des avalanches : une approche bayésienne

Pour des variables aléatoires continues et unidimensionnelles, les choses sont assez simples et deux approches sont possibles (Boreux, 2005). La première considère le maximum sur une période fixe d’observations régulièrement espacées, par exemple le maximum annuel des observations journalières. Pourvu que la taille de la période soit assez grande, les maxima peuvent être considérés comme des tirages indépendants dans la loi généralisée des valeurs extrêmes ou modèle GEV (Generalized Extreme Value). La seconde, appelée couramment méthode du renouvellement en hydrologie, modélise les observations qui excédent un seuil fixé par un processus ponctuel de Poisson marqué par une distribution de Pareto généralisée : c’est le modèle POT (Peak Over Threshold). Ce modèle présente l’avantage, par rapport au modèle GEV, de pouvoir retenir éventuellement plus d’une observation par an et, au contraire, d’exclure une année entière si aucune observation n’a été suffisamment élevée pour se trouver en domaine asymptotique. En contrepartie, le problème du choix du seuil se pose de façon aigue : celui-ci doit être suffisamment haut pour garantir la convergence vers le modèle limite mais suffisamment bas pour conserver une quantité de données satisfaisante. Une bonne solution empirique est de représenter la moyenne arithmétique des dépassements en fonction du seuil et de sélectionner le seuil qui correspond au début de la partie linéaire du graphique obtenu (Coles, 2001). Les modèles GEV et POT possèdent chacun 3 paramètres et un rôle crucial est joué dans les deux modèles par le paramètre dit de forme qui définit l’accroissement de la période de retour avec le quantile et caractérise ainsi le domaine d’attraction de la queue de distribution. Les deux modèles GEV et POT sont très liés puisqu’on peut passer de l’un à l’autre moyennant une reparamétrisation. Ils sont inversibles, c'est-à-dire que dès lors que les paramètres sont connus une expression analytique de n’importe quel quantile de probabilité et donc de n’importe quelle période de retour est disponible. Ils sont de ce fait l’outil privilégié de définition des aléas de référence en hydrologie (Parent et Bernier, 2003a, Parent et Bernier, 2003b, Renard et al., 2006), mais présentent également un fort intérêt pour l’analyse des séries climatiques (Naveau et al., 2005) ou en théorie de la fiabilité.
En savoir plus

283 En savoir plus

Couplage de modèles multi-niveau de systèmes complexes : application aux systèmes biologiques

Couplage de modèles multi-niveau de systèmes complexes : application aux systèmes biologiques

4.2 DEB-DEVS un modèle générique pour l’organisation physiolo- gique 4.2.1 Couplage de modèle et réutilisation Le concept de la réutilisation, dans le sens d’un catalogue de composantes modulaires qui peuvent être assemblées comme les pièces d’un puzzle, a été proposé en génie logiciel dès les années soixante [Prieto-Diaz and Freeman, 1987]. Il existe alors différents niveaux de réutilisation (réutilisation de données, des architectures, de conceptions ou de programmes) [Jones, 1984], notre proposition se place au niveau de la réutilisation de modèles conceptuels. Comme nous l’avons montré, les agents en écologie, possèdent une invariante dans la gestion de leur budget d’énergie, les modèles présentés dans les deux chapitres précédents, montrent que le couplage de la dynamique physiologique et des modèles d’interaction permettent de relier d’un coté, les traits d’histoire de vie des agents à leur physiologie et d’un autre coté, conduisent à l’étude des caractéristiques de la population comme phénomènes émergent de la gestion énergétiques sub-individuelle.
En savoir plus

101 En savoir plus

Couplage de techniques d'interaction avancées avec des environnements virtuels 3D interactifs

Couplage de techniques d'interaction avancées avec des environnements virtuels 3D interactifs

Durant nos observations in-situ, nous avons étudié les opérateurs du TBL pendant leurs travaux dans la salle de contrôle lors d’une partie de nuit d’observation. Nous avons aussi visité la coupole afin d’obtenir une meilleure représentation du télescope et de ces composants. Nous avons échangé avec les opérateurs afin de comprendre en détail les tâches qu’ils réalisent sur l’application logicielle pour manipuler le TBL. Actuellement une application avec une interface de type WIMP (« Windows, Icons, Menus and Pointing device » signifiants fenêtres, icônes, menus et dispositif de pointage) permet de monitorer les données pertinentes du TBL et d’envoyer des commandes pour contrôler la position du télescope et de sa coupole. La Figure 29 montre des copies d’écran de l’actuel affichage des données. Nous avons formalisé notre analyse de l’activité sous la forme d’un arbre de tâches HTA. La modélisation de l’activité globale conduit à l’identification d’environ soixante tâches. Cette analyse de tâches correspond au premier pilier de notre cadre de conception détaillé au Chapitre II (page 41) mais dans ce cas déconnecté d’un environnement virtuel 3D. Cet arbre de tâches nous permet d’obtenir une représentation de l’activité d’un opérateur du TBL et de lier facilement les données requises pour chaque sous-tâche. Cette première étape d’analyse constitue un bon support pour organiser les données à manipuler dans notre plateforme interactive 3D.
En savoir plus

283 En savoir plus

Estimation d'erreur et stratégie adaptative pour le couplage non- intrusif de modèles

Estimation d'erreur et stratégie adaptative pour le couplage non- intrusif de modèles

Mots clés — multi-échelle, couplage non-intrusif, estimation d’erreur, algorithme adaptatif. 1 Introduction Pour les problèmes présentant des phénomènes complexes localisés, modéliser la complexité sur tout le domaine physique est très coûteux numériquement. Afin de faire diminuer ce coût, une approche naturelle est de limiter la modélisation complexe dans une zone d’intérêt et d’utiliser des modèles plus simples loin du phénomène d’intérêt. De nombreuses méthodes multiéchelle avec multi-modèles ont été développées (méthode Arlequin, méthode de substitution, etc.). Parmi celles-ci on s’intéresse à une méthode de couplage dite "non-intrusive locale/globale" [1] qui facilite la connexion avec les codes de calcul industriels [2]. Cette méthode définit un modèle global grossier sur l’ensemble du domaine dont les données (géométrie, connectivité, opérateur, solveur) sont fixées et un modèle local séparé qui peut évoluer. Des données d’interface sont alors échangées de façon itérative entre les deux modèles.
En savoir plus

6 En savoir plus

Développement de modèles prédictifs décrivant le couplage chimie-transport dans les sédiments naturels

Développement de modèles prédictifs décrivant le couplage chimie-transport dans les sédiments naturels

Les modèles d’adsorption dans les modèles de transport réactifs sont principalement des modèles macroscopiques (échange d’ions ou échangeurs d’ions). Les modèles microscopiques de complexation de surface ont également été utilisés. Cependant, ils nécessitent la détermination d’un nombre important de paramètres (e.g., surface spécifique, densité de site, potentiel électrique de surface), difficilement accessibles quand on s’intéresse à des mélanges complexes de matériaux (sols, sédiments ou même mélanges reconstitués en laboratoire de phases minérales). Bradbury et Baeyens (1997) ont essayé d’utiliser un modèle hybride de complexation de surface et d’échange d’ion pour interpréter des donnés d’adsorption de Ni et Zn sur une montmorillonite saturée en Na. Ils ont remarqué que même avec un modèle de complexation de surface simple comme celui de la double couche diffuse (peu de paramètres ajustables), les résultats expérimentaux d’adsorption étaient difficilement reproduits. Le terme électrostatique dans le modèle de complexation de surface a dû ê tre abandonné afin d’interpréter correctement les données expérimentales. Il faut d’ailleurs remarquer qu’à cause de la difficulté à bien contraindre certains paramètres comme la surface spécifique ou la densité de charge des minéraux individuels lorsqu’ils étaient localisés dans un assemblage polyphasique, certains auteurs ont été amenés à conclure qu’il était difficile d’interpréter les données d’adsorption des mélanges polyminéraux dans les conditions statiques à partir des propriétés d’adsorption de chacune de phases minérales constituant les mélanges (voir par exemple Davis et al., 1998).
En savoir plus

173 En savoir plus

Couplage de modèles multi-niveau de systèmes complexes : application aux systèmes biologiques.

Couplage de modèles multi-niveau de systèmes complexes : application aux systèmes biologiques.

4.2 DEB-DEVS un modèle générique pour l’organisation physiolo- gique 4.2.1 Couplage de modèle et réutilisation Le concept de la réutilisation, dans le sens d’un catalogue de composantes modulaires qui peuvent être assemblées comme les pièces d’un puzzle, a été proposé en génie logiciel dès les années soixante [Prieto-Diaz and Freeman, 1987]. Il existe alors différents niveaux de réutilisation (réutilisation de données, des architectures, de conceptions ou de programmes) [Jones, 1984], notre proposition se place au niveau de la réutilisation de modèles conceptuels. Comme nous l’avons montré, les agents en écologie, possèdent une invariante dans la gestion de leur budget d’énergie, les modèles présentés dans les deux chapitres précédents, montrent que le couplage de la dynamique physiologique et des modèles d’interaction permettent de relier d’un coté, les traits d’histoire de vie des agents à leur physiologie et d’un autre coté, conduisent à l’étude des caractéristiques de la population comme phénomènes émergent de la gestion énergétiques sub-individuelle.
En savoir plus

101 En savoir plus

Optimisation de structures par couplage métamodèles multi-fidélité et modèles réduits

Optimisation de structures par couplage métamodèles multi-fidélité et modèles réduits

(b) Ecart type normalisé Figure 3 – Détermination d’un optimum garanti 4 Conclusion Ce premier exemple simple permet de montrer l’intérêt de coupler métamodèles et modèles réduits pour diminuer le temps de calcul dans le cadre de l’optimisation multi-fidélité. Il est néanmoins limitant, car il s’agit de la résolution d’un problème linéaire, ce qui explique sans doute que le gain optimal soit obtenu pour des données basse fidélité issues d’une troncature à l’ordre 1. Pour aller plus loin, il est nécessaire de mettre en oeuvre cette stratégie dans un cadre non-linéaire ce qui fait l’objet de travaux actuellement.
En savoir plus

10 En savoir plus

Couplage Optimisation et Réduction de Modèles par Projection Application à la conception avion avant-projet

Couplage Optimisation et Réduction de Modèles par Projection Application à la conception avion avant-projet

if σ(ξ) > 0 0 if σ(ξ) = 0 On cherche donc à maximiser l’espérance espérée ce qui revient à chercher le point où l’on pense que l’amélioration va être la meilleure. Ce point est par la suite ajouté à notre base de données (enrichisse- ment) et un krigeage est calculé en prenant en compte ce nouveau point. Comme les contraintes sont coûteuses à évaluer, elles seront elles aussi estimées à l’aide d’un krigeage. L’incertitude sur le modèle des contraintes n’est pas pris en compte. Ceci se traduit par l’Algorithme 1.

9 En savoir plus

Transformations sémantiques pour l'évolution des modèles de données

Transformations sémantiques pour l'évolution des modèles de données

Pour le cas des modèles traités durant cette thèse, lorsque le projet évolue, le modèle rarement figé, évolue en fonction des besoins du projet. De plus, en IDM, la génération de code est très utile pour un projet, car certaines parties de l’application peuvent être mises à jour rapidement et effi- cacement avec un coût de développement minimal. Toutefois, les données générées avec une version particulière de l’application (modèle de données -V1-) ne sont pas nécessairement compatibles avec une autre version (modèle de données -V2-). Ainsi, la création ou la génération de données -V2- conformes au (Modèle de données -V2-) en reprenant depuis le début (à partir de "zéro") est une opération fastidieuse et sujette aux erreurs. De plus, durant une mission spatiale, le temps alloué pour générer la nouvelle version des modèles de données est important pour chaque cycle. Ce temps peut être réduit par l’introduction d’outils et l’adoption de nouvelles méthodes et techniques. Au début de ce chapitre, les définitions de base nécessaires à la construction de notre approche sont données. Un état de l’art est ensuite effectué, où nous évaluons les différentes approches existantes.
En savoir plus

130 En savoir plus

Méthodes numériques de haute précision et calcul scientifique pour le couplage de modèles hyperboliques

Méthodes numériques de haute précision et calcul scientifique pour le couplage de modèles hyperboliques

Résumé La simulation numérique adaptative d’écoulements présentant des phénomènes multi-échelles s’effectue généralement au moyen d’une hiérarchie de modèles diffé- rents selon l’échelle mise en jeu et le niveau de précision requis. Ce type de modélisa- tion numérique entraîne des problèmes de couplage multi-échelles complexes. Cette thèse est ainsi dédiée au développement, à l’analyse et à la mise en œuvre de mé- thodes performantes permettant de résoudre des problèmes de couplage en espace de modèles décrits par des systèmes d’équations aux dérivées partielles hyperboliques. Dans une première partie, nous développons et analysons une méthode numé- rique dédiée au couplage interfacial des équations d’Euler mono-dimensionnelles. Chacun des systèmes de lois de conservation est muni d’une loi de pression distincte et l’interface de couplage séparant ces modèles est supposée fixe et infiniment mince. Les conditions de transmission sont modélisées par un terme source mesure localisé à l’interface de couplage. Le poids associé à cette mesure modélise les pertes de conservation à l’interface (typiquement des pertes de charge) et sa définition permet l’application de plusieurs stratégies de couplage. Notre méthode d’approximation repose sur les techniques d’approximation par relaxation de type Suliciu. La résolu- tion exacte du problème de Riemann pour le système relaxé nous permet de définir un schéma numérique équilibre pour le modèle de couplage. Ce schéma préserve certaines solutions stationnaires du modèle de couplage et est applicable pour des lois de pression générales. L’implémentation de notre méthode permet de mener des expériences numériques illustrant les propriétés de notre schéma. Par exemple, nous montrons qu’il est possible de contrôler l’écoulement à l’interface de couplage en calculant des poids solutions de problèmes d’optimisation sous contraintes.
En savoir plus

115 En savoir plus

Des conditions d'interface efficaces pour le couplage de modèles océaniques

Des conditions d'interface efficaces pour le couplage de modèles océaniques

modèle ouvrant un domaine géographique diérent (et ontigu du premier), il faut pouvoir limiter la propagation des erreurs aux bords du domaine Ω (Figure 1). Dans le premier as, es bords sont des frontières ouvertes. On peut alors onsidérer qu'on ouple virtuellement le modèle ave un modèle extérieur qui nous fournit des données aux bords. Dans le se ond

113 En savoir plus

Survie et généalogies dans quelques modèles de dynamique des populations

Survie et généalogies dans quelques modèles de dynamique des populations

2.1 Généralités De nombreux systèmes peuvent être décrits comme des fronts se propageant dans un domaine. Par exemple, pour reprendre un modèle simple de réaction-diffusion, une réac- tion de combustion d’un combustible A en présence d’un comburant B dans un milieu donne lieu à la propagation d’un front séparant une zone riche en combustible A et une zone où A a été majoritairement consommé. De tels fronts apparaissent aussi dans des modèles de contagion (A + B → 2B où A désigne un individu sain et B un individu infecté), dans l’étude de marches aléatoires avec branchements [Bra83, McK75] ou de la propagation d’une mutation génétique favorable. Dans ce dernier cas, une mutation favorable se produit sur un gène d’un individu puis, à travers la reproduction et la diffu- sion, se répand dans la population environnante. De manière assez générale, cela conduit à un front que l’on peut décomposer en trois zones : une zone (en expansion) autour de la mutation initiale où les individus sont majoritairement porteurs de la mutation, une zone (en récession) où la mutation est très minoritaire, voire encore absente, et une zone intermédiaire où coexistent le gène initial et le gène muté. Aux temps longs, le front ainsi produit se déplace sans se déformer et sa vitesse n’est pas, a priori, celle des individus
En savoir plus

189 En savoir plus

Modèles d’analyse de corpus de données média.

Modèles d’analyse de corpus de données média.

Ce chapitre est consacré à l’explication des principaux aspects qui caractérisent les modèles conceptuels (appelés scénarios en sémiotique) sous-tendant les différents genres et tâches d’analyse d’une donnée média ou d’un corpus de données média. Un point important ici est celui du métalangage utilisé pour définir chacune des tâches d’analyse qui forment les quatre genres de l’analyse de base, de l’analyse standard, de l’analyse spécialisée et de l’analyse experte (cf. chapitres 5 et 7). Le métalangage qui est utilisé ici est celui élaboré dans le cadre du projet ANR ASA-SHS 31 . Ce métalangage (appelé métalangage ASA ), décrit dans plusieurs ouvrages 32 , est actuellement en usage dans le cadre du programme AAR (Archives Audiovisuelles de la Recherche 33 ) où il est systématiquement enrichi et élargi vers des domaines empiriques d’analyse de plus en plus varié.
En savoir plus

117 En savoir plus

Classification de données ordinales : modèles et algorithmes

Classification de données ordinales : modèles et algorithmes

Dans ce travail, nous traitons la classification des donn´ees ordinales sous l’approche mod`ele de m´elange.. Nous utilisons un mod`ele de m´elange multinomial contraint respectant le ca[r]

6 En savoir plus

Théorie microscopique des noyaux exotiques légers. Modèles en couches avec couplage au continuum

Théorie microscopique des noyaux exotiques légers. Modèles en couches avec couplage au continuum

L’archive ouverte pluridisciplinaire HAL, est destinée au dépôt et à la diffusion de documents scientifiques de niveau recherche, publiés ou non, émanant des établissements d’enseignemen[r]

170 En savoir plus

Comparaison de techniques de validation dynamique de données

Comparaison de techniques de validation dynamique de données

Dans les procédés stationnaires, seules les redondances spatiales peuvent être exploitées, alors que les redondances temporelles seront également utilisées pour la validation de données dynamique. Plusieurs méthodes de validation dynamique de données existent, mais aucune d’entre elles n’a pu à l’heure actuelle démontrer sa supériorité sur les autres pour tous les procédés dynamiques. Les procédés chimiques impliquent de nombreuses équations non linéaires, ce qui rend encore plus ardue la réconciliation des données.

6 En savoir plus

Show all 10000 documents...