• Aucun résultat trouvé

Chapitre 1 Etat de l’art

1.4. Approches robustes des systèmes dynamiques

1.4.4. Approche possibiliste (ensembliste)

Les méthodes probabilistes décrites précédemment partagent toutes une condition préalable à leur application. Les lois de probabilité régissant les paramètres incertains doivent être identifiées, une tâche qui reste très difficile. Les méthodes ensemblistes présentent l’avantage de ne pas nécessiter la modélisation des lois régissant les incertitudes. Deux méthodes importantes sont classées dans cette approche. L’une est basée sur l’arithmétique des intervalles, (Moore, 1966), alors que l’autre utilise le formalisme de la logique floue, (Zadeh, 1965).

1.4.4.1. Méthode des intervalles a) Origine

Les premières bases du calcul par intervalles remontent aux travaux de Moore, publiés dans l’ouvrage intitulé ‘’Interval Analysis’’, incontournable référence, (Moore, 1966). Nombreuses sont les recherches traitant de cette partie de l’analyse numérique. Une revue spéciale ‘‘Reliable computing’’ lui est dédiée et des conférences ont lieu tous les ans sur l’analyse par intervalles et ses applications.

b) Principe

L’idée principale de la méthode est fondée sur la modélisation des paramètres incertains par des intervalles dont les bornes représentent les limites minimales et maximales des paramètres. Les processus d’identification et les appareils de mesure devenant de plus en plus efficaces et plus précis permettent de délimiter les dispersions des paramètres physiques des systèmes ce qui induit leur modélisation par des intervalles (Dessombz, 2000). Aucune information n’est nécessaire sur la nature des dispersions ou la façon dont elles évoluent contrairement aux méthodes probabilistes. Par contre, la méthode affiche une certaine pauvreté dans le sens où l’information sur les variables n’est que partiellement représentée. Il n’est plus possible de dire dans quel ensemble une variable a le plus de chance de se trouver. En revanche, elle est plus simple à utiliser pour les traitements non linéaires des incertitudes grâce au formalisme mathématique convivial dont elle bénéficie. Profitant de cet avantage, plusieurs problèmes relevant des sciences de l’ingénieur sont traités avec l’arithmétique des intervalles, (Didrit, 1997; Dessombz, 2000 ; Shahriari, 2007 ; Meslem et al, 2008).

c) Arithmétique d’intervalle et analyse de la stabilité

L’arithmétique par intervalle a été appliquée au problème de l’analyse robuste de la stabilité des systèmes dynamiques linéaires incertains. Petkovski a développé, en utilisant cet outil, une condition suffisante pour la stabilité de matrices incertaines. Cette condition est déterminée via un algorithme itératif basé sur la théorie de Lyapunov (Petkovski, 1991). C’est une amélioration des conditions définies dans des études antérieures (Yedavalli, 1986 ; 1987).

Walter et Jaulin ont proposé une méthode pour caractériser l’ensemble de toutes les valeurs des paramètres incertains associant un comportement dynamique stable, (Walter et Jaulin, 1994). La méthode utilise le critère de Rooth pour poser l’analyse de la stabilité sous forme d’un problème d’inversion d’ensemble dont la solution est déterminée par l’utilisation de l’analyse par intervalles. Dans une autre étude, Jaulin ramène l’analyse de la stabilité à un problème d’inclusion, (Jaulin, 1999).

Etat de l’art

En effet, l’auteur définit deux ensembles A et B Le premier est l’ensemble admissible des valeurs possibles des paramètres incertains tandis que l’autre est celui des valeurs pour lesquelles le système est stable. Jaulin a défini un algorithme basé sur la théorie des intervalles qui permet de tester l’inclusion de A dans B synonyme d’une condition nécessaire et suffisante prouvant la stabilité. La convergence de l’algorithme est testée sur des exemples numériques de systèmes dynamiques.

d) Arithmétique des intervalles et analyse du comportement dynamique

Rauh a utilisé la méthode des intervalles pour analyser le comportement dynamique des systèmes. Une approche multi-modèle y est utilisée pour décrire un système frottant pour lequel l’auteur définit trois états suivant la nature du frottement, (Rauh, 2006). Un état si le frottement est statique et deux états si le frottement est dynamique. Les coefficients correspondant aux différents cas sont incertains et sont modélisés par des intervalles. Des méthodes d’intégration sont adaptées par l’auteur et sont utilisées pour analyser la dynamique du système. Rauh parvient à situer le comportement dynamique du système dans des zones dont les tailles dépendent des intervalles d’incertitudes. L’auteur soulève par le biais de ses résultats la limite majeure de la méthode des intervalles à savoir le phénomène de pessimisme qui désigne la surestimation des résultats. Cet inconvénient apparait lorsqu’un paramètre incertain intervient plusieurs fois dans la même fonction. L’arithmétique des intervalles ne tient pas compte des dépendances relatives à plusieurs occurrences d’un seul paramètre dans une fonction. Le phénomène de surestimation a été aussi observé dans l’étude menée par Ragot portant sur l’analyse robuste d’un système d’essuyage, (Ragot, 2007). L’objectif de cette étude était d’envelopper les cycles limites d’un double pendule dont le coefficient de frottement est incertain et modélisé par un intervalle. Le phénomène d’accumulation des surestimations provoquant la divergence des amplitudes des intervalles, a été observé par Ragot. Pour pallier à ces inconvénients, Cherrier a proposé une nouvelle méthode pour l’évaluation des bornes de l’état d’un sysème incertain, en utilisant la représentation des intervalles par leur centre et leur rayon et non plus par leurs bornes inférieures et supérieures. La divergence de l’encadrement est éliminée dans le cas linéaire, (Cherrier et al, 2003). Qui et al ont utilisé l’approche par intervalle pour analyser les effets d’incertitudes paramétriques sur les réponses non linéaires de quelques exemples numériques de systèmes dynamiques dont les paramètres incertains sont modélisés par des intervalles. Le modèle de Taylor par intervalles est utilisé pour encadrer les réponses dynamiques. Les résultats d’une comparaison avec la méthode probabiliste de perturbation ont montré que l’encadrement des réponses, obtenu par l’approche par intervalle a englobé celles obtenues par l’approche probabiliste (Qui et al, 2009). Dans un cadre similaire mais plus général, Meslem et al ont adapté l’arithmétique des intervalles au problème de l’encadrement du flot d’état. Leur méthode est une approche de caractérisation efficace et garantie de l’espace d’état atteignable dans le cas des systèmes dynamiques continus incertains. Elle s’appuie sur les modèles de Taylor intervalles, (Lohner, 1987 ; Rihm, 1994 ; Nedialkov, 1999), pour la résolution des systèmes d’équations différentielles ordinaires et les théorèmes de comparaison des inégalités différentielles, en particulier le théorème de Muller. Une discrimination entre des systèmes coopératifs et des systèmes non coopératifs est établie. Deux algorithmes permettant de construire les états encadrant dans les deux cas sont définis, (Meslem et al, 2009).

e) Conclusion

L’arithmétique des intervalles offre l’avantage de pouvoir modéliser les incertitudes uniquement par leurs bornes physiques qui sont pour la plus part identifiables et mesurables. Aucune information

Etat de l’art

sur l’évolution de l’incertitude dans son intervalle n’est nécessaire, un point qui peut poser des contraintes de lecture une fois la propagation des incertitudes est effectuée. En effet, souvent on désire quantifier l’incertitude sur la sortie d’un modèle du point de vue statistique ou probabiliste. L’arithmétique des intervalles est inappropriée de ce point de vue. Par ailleurs, le problème du pessimisme générant un encadrement trop large des résultats jusqu’à la divergence reste la contrainte majeure à son développement.

1.4.4.2. Méthode à base de la logique floue

a) Principe

Les méthodes floues ont été introduites pour représenter et manipuler des données incertaines sans aucune information probabiliste ou statistique, (Zadeh, 1965). Elles sont basées sur la notion d’ensemble floue, (Jablonowsky, 1998). Un élément d’un ensemble flou, tel qu’une valeur d’entrée d’un modèle, possède un degré d’appartenance à cet ensemble. Cette notion, appelée formellement fonction d’appartenance, est différente dans le concept par rapport à celui connu en probabilité. Elle définit une mesure quantitative évasive sur des données imparfaites. Cette définition permet d’établir une logique floue associée à des degrés de vérités qui, assignés à des propositions, vont de zéro (faux) à un (vrai) avec toutes les graduations possibles ce qui donne lieu au vocabulaire, un peu, moyennement etc. L’application de la logique floue est ainsi très appropriée au raisonnement approximatif, (Isukapalli et Georgopoulos, 2001), particulièrement à l’analyse des systèmes où les incertitudes proviennent des imprécisions des données plutôt que du caractère aléatoire. A ce sujet, plusieurs études existent en littérature, (Wan et Ou, 1990 ; Murlidharan, 1991 ; Valliapan et Pham ; 1995 ; Cherki et al, 1997).

b) Logique floue et analyse des systèmes dynamiques

Lallemand étend la théorie des ensembles flous à l’analyse par éléments finis des structures mécaniques dont les propriétés matérielles sont incertaines, (Lallemand, et al, 1999). L’objectif de ce travail est de déterminer la sensibilité du comportement modale à plusieurs paramètres d’une structure plate. Le module de Young, le coefficient de Poisson et la densité sont modélisés par des nombres flous avec des fonctions d’appartenance. Un modèle élément fini flou est généré. Les équations sont résolues en utilisant la théorie des intervalles.

Fansen et Junyi ont appliqué le formalisme flou pour analyser le comportement dynamique d’une machine-outil sujette à des incertitudes paramétriques, (Fansen et Junyi, 1999). Les instabilités de type broutement (chatter) constituent un phénomène propre aux processus de découpage qu’une machine-outil est censée réaliser. Les deux auteurs relèvent le fait que les instabilités nommées résultent, en pratique, de l’interaction entre la dynamique du processus de découpage avec celle de la machine-outil. De ce fait, ils inscrivent leur étude dans la perspective de définir une démarche de conception robuste des machines- outils. Les conditions de stabilité de la dynamique du processus de découpage sont formulées littéralement en fonction des paramètres de conception de la machine-outil. En effet, il est stipulé que la stabilité du processus de découpage est bonne si la structure de la machine-outil est d’une grande rigidité et d’un coefficient d’amortissement suffisamment grand. Par ailleurs le processus de découpage doit être de faible rigidité. Cette forme de caractérisation de la stabilité a motivé l’utilisation du formalisme de la logique floue par Fansen et Junyi pour réaliser une analyse de

Etat de l’art

la dynamique de la structure de la machine dont les paramètres sont caractérisés par des variables floues. Dans le même registre, Noor a exploité le même formalisme pour déterminer la variabilité de la déformation non linéaire de panneaux composites, liée aux variations des paramètres géométriques et matériels des panneaux. Une analyse de sensibilité est réalisée pour déterminer les paramètres les plus influents. Ces derniers sont alors représentés par des variables floues par rapport auxquelles une analyse floue est effectuée pour estimer la variabilité de l’énergie de déformation des panneaux composite, (Noor et al, 2001). Qiu et Zhenyu ont proposé une nouvelle approche pour une analyse en éléments finis flous, (Qiu et Zhenyu, 2001). La méthode proposée est basée sur la notion d’entropie, fonction qui mesure le degré d’incertitude contenue dans une base de données. En utilisant cette fonction, les imprécisions de type flou sont transformées en incertitudes aléatoires. Le principe est de garder l’entropie invariable lors du passage à la représentation aléatoire. Suite à la transformation, les méthodes classiques telles que la technique de MC ou la perturbation peuvent être utilisées. La méthode proposée est testée sur une plaque carrée à coefficient d’élasticité incertain modélisé par une variable floue. L’objectif visé est de déterminer la limite du déplacement horizontal de la plaque lorsque celle-ci est soumise à une charge uniforme.

c) Conclusion

Le formalisme flou permet de manipuler des informations vagues, imprécises ou décrites de manière linguistique. Cette incertitude est décrite par des fonctions de forme appelée fonctions d’appartenance. L’avantage principal de cette modélisation et de ne pas nécessiter des informations statistiques ou probabilistes. La détermination de la fonction d’appartenance reste par contre une difficulté considérable. En effet, elle dépend des données expérimentales dont dispose l’utilisateur ce qui rapproche sa détermination d’une démarche statistique. La représentation des nombres flous se fait alors dans plusieurs cas en fonction de la perception qu’a l’utilisateur de l’incertitude chose qui entache la représentation par un caractère assez subjectif.