• Aucun résultat trouvé

Panorama des lois de contrôle

Nous présentons, dans cette partie, un panorama non exhaustif des lois de contrôle existantes. Leur théorie et leurs limitations sont présentées.

4.2.1 Contrôle optimal

Soit un système dont le comportement est régi par l'équation d'état :

Méthodes de stabilisation active 87 y(t) = G.x(t) (4.2) De façon générale, le problème du contrôle optimal linéaire quadratique consiste à déterminer le contrôle u(t) qui minimise un indice de performance J déni comme suit :

J = minu(t)( Z +∞ 0 xT(τ ).Q.x(τ ) + uT(τ ).R.u(τ )dτ ) (4.3) où     

x obéit à l'équation d'équilibre 4.1

Q : la matrice des états du système semi dénie positive. R : la matrice des commandes du système (R>0).

Une construction choisie de Q peut favoriser le contrôle de certains états. De la même façon, les éléments de R peuvent privilégier un actionneur de contrôle ou limiter les signaux de commande sur un autre. Ainsi, les matrices Q et R ont une inuence pré- pondérante sur le calcul de la matrice de gains.

Dans le cadre de la stabilisation de système mécanique, il faut diminuer l'énergie mé- canique de la structure c'est à dire construire un contrôle u(t) qui minimise cette énergie. Néanmoins, le contrôle possède un coût énergétique. Il s'agit de l'énergie de réalisation de la consigne de contrôle par les amplicateurs de puissance. De manière à éviter le risque de saturation de l'énergie de contrôle, le contrôle optimal linéaire quadratique consiste à minimiser simultanément l'énergie mécanique et de contrôle en déterminant le contrôle u(t) ad hoc. Nous pouvons le traduire de la manière suivante :

J = minu(t)( Z +∞ 0 Em(τ ) + Ec(τ )dτ ) (4.4) où (

Em : l'énergie mécanique du système.

Ec : l'énergie de contrôle.

Cette méthode s'applique à tout système dynamique linéaire. La matrice des gains de contrôle minimisant l'indice quadratique J est appelée matrice optimale. Cette matrice est de la forme G = −R−1.Bt.P avec P la solution de l'équation de Riccati associé à la

relation (4.1) (cf chapitre 2). La méthode présentée ci-dessus est appelée contrôle LQR (Régulateur Quadratique Linéaire ou Linear Quadratic Regulator).

Le contrôle est fondé sur la rétroaction de variables d'état considérées comme ac- cessibles. Si les mesures sont incomplètes ou corrompues par du bruit de type Gaussien, la méthode reste valide en remplaçant les états par des estimations de ceux-ci. Des es- timateurs du type ltre de Kalman sont alors utilisés [13]. Dans ce cas, nous parlons de contrôle LQG (Régulateur Gaussien Quadratique Linéaire ou Linear Quadratic Gaus- sian). Du point de vue de la stabilité, un dispositif de contrôle actif utilisant la méthode LQR possède théoriquement de remarquables propriétés [2]. Dans la réalité, les temps de calcul, qui peuvent être vus comme un déphasage fonction de la fréquence, réduisent la stabilité du système bouclé. La bande passante du contrôleur doit donc être limitée dans des proportions dépendant de la vitesse de calcul du contrôleur.

88 Méthodes de stabilisation active Pratiquement, le nombre de degrés de liberté que traite un contrôleur ne pouvant être que ni, la représentation d'un système continu tel qu'une poutre nécessitera l'uti- lisation d'un vecteur d'état réduit à un nombre ni de variables d'état. Le modèle n'est alors plus représentatif du système réel et d'éventuelles instabilités du contrôle sur les degrés de liberté non modélisés peuvent survenir. C'est le phénomène de spill-over que nous avons décrit au chapitre 2.

4.2.2 Contrôle modal

Nous l'avons remarqué précédemment, le problème majeur du contrôle optimal est le grand nombre de degrés de liberté à gérer. Pour pallier cette diculté, L. Meirovitch [3] propose le concept de contrôle dans l'espace modal indépendant(IMSC, Independent Mo- dal Space Control). Il consiste à préférer résoudre des équations algébriques non couplées à défaut de l'équation matricielle de Riccati. Chaque mode est spéciquement contrôlé indépendamment des autres. Cela impliquerait d'avoir accès à, au moins, autant de paires de transducteurs qu'il existe de modes à contrôler. En eet, il est nécessaire d'avoir une es- timation de l'intensité modale. Cependant, les couches piézoélectriques minces permettent de passer outre ce problème grâce à leurs propriétés de ltrage. Il est, néanmoins, néces- saire d'étudier avec soin le positionnement de ces couches an d'éviter les problèmes dûs aux lignes nodales.

Prenons l'exemple d'équation de mouvement d'un système mécanique projetée sur l'espace des modes propres :

Identite.¨η(t) + φT.Ca.φ. ˙η(t) + Ω2.η(t) = φT.F.u(t) + φT.E.w(t) (4.5)

Si R, la matrice des commandes du système, et φT.C

a.φsont des matrices diagonales,

nous obtenons les matrices G et H optimales suivantes [4] :

( G = Ω2− Ω.(Ω2+ R−1)12 H = φT.C a.φ − ((φT.Ca.φ)2+ R−1+ (2.Ω.(−Ω + (Ω2+ R−1) 1 2))) 1 2 (4.6)

Nous accédons ainsi directement à l'expression de chaque contrôle modal. Il s'agit du grand avantage de cette méthode. Cependant, elle nécessite un réseau important de transducteurs capables de mesurer et d'actionner chaque mode de manière indépendante par rapport aux autres. De plus, les ltres réels ainsi construits ne sont naturellement pas idéaux. En eet, ils ne permettront pas de ltrer les modes résiduels. Nous aurons éventuellement des eets d'instabilité dûs aux phénomènes de spill-over. Par conséquent, il est essentiel d'optimiser le placement et la forme des transducteurs de manière à réduire au maximum les nombres de transducteurs utiles et de maximiser leur ecacité.

4.2.3 Contrôle non-linéaire

Les stratégies de contrôle non-linéaires sont employées dans les deux cas principaux décrits ci-dessous.

 La structure à contrôler possède un comportement fortement non-linéaire ou tel- lement complexe que l'établissement d'un modèle n'est pas faisable. Les stratégies classiques ont alors peu ou pas d'eets sur le système mécanique. Par conséquent,

Méthodes de stabilisation active 89 il est nécessaire de proposer une méthode parallèle permettant de gérer cette dif- culté. Une stratégie utilisant des règles de contrôle établies grâce aux théories de la logique oue (fuzzy logic) peut être une réponse satisfaisante au problème posé [5, 6]. L'intérêt de l'utilisation de la logique oue est la passage d'un raisonnement classique binaire à un raisonnement en variables approximatives. Généralement, il nous faut deux variables d'entrée : l'entrée à contrôler et sa dérivée. Un contrôleur ou classique se décompose en trois étapes principales :

1. la fuzzication des entrées. Il s'agit de l'évaluation des fonctions d'appartenances des variables en entrée. Cette première étape du traitement du problème consiste donc à modéliser chacune des entrées du système par des courbes donnant les degrés d'appartenance à diérents états identiés.

2. le moteur d'inférence. Les fonctions de sortie sont évaluées grâce au tableau des règles. Elles établissent le comportement du contrôleur (loi de contrôle) en sortie en fonction des entrées constatées.

3. la défuzzication. Elle consiste en l'évaluation de la sortie du contrôleur ou avec, par exemple, le calcul du centre de gravité. Cette étape traduit la sortie du moteur d'inférence en variables applicables sur les actionneurs employés sur la structure.  Les actionneurs employés pour contrôler la structure ont une gamme d'eorts ad-

missibles très réduite. L'exemple classique est le cas d'une valve pilotant la viscosité d'un amortisseur. Il existe donc deux positions accessibles : ouvert ou fermé. Les stratégies classiques ne sont naturellement plus adaptées à ce type de système. Une loi de contrôle optimale construite suivant les règles d'un contrôle dit Bang-Bang peut résoudre cette problématique [7, 8]. Nous considérons un contrôle optimal ν(t), appartenant à un ensemble Υ borné par les limites des actionneurs (k ν(t) k≤ νmax).

Il a été démontré qu'il peut être atteint grâce à un contrôleur νbang(t)dont les valeurs

sont réduites aux frontières de Υ (k νbang(t) k= νmax).

4.2.4 Contrôle par placement des pôles

Nous avons montré dans le chapitre 2 que la stabilité du système en boucle fermée est régie par l'expression (A − B.G(I − D.G)−1

.C). En eet, la stabilité du système est assurée si le contrôleur maintient tous les pôles dans le demi-plan complexe à partie réelle négative. Par ailleurs, plus la valeur de la partie réelle des pôles est éloignée de l'axe des imaginaires pures, plus le système est amorti et, donc, dynamiquement stable. Le contrôle par placement des pôles consiste, comme son nom l'indique, à calculer les pôles désirés et la matrice de gains G nécessaire pour y accéder.

Les dicultés de la méthode résident dans le nombre important d'entrées et de sorties à gérer par le contrôleur et par le fait qu'il n'existe pas forcément d'application bijective entre les pôles choisis et la matrice de gains G. De plus, la complexité mathéma- tique à mettre en oeuvre limite l'utilisation de cette technique notamment en dynamique des structures.

90 Méthodes de stabilisation active

4.2.5 Contrôle de Komornik

Il s'agit d'une loi de contrôle par retour d'état permettant d'agir en temps réel sur une structure exible de manière simple et ecace [9, 10]. Son approche suppose la contrôlabilité exacte des équations aux dérivées partielles de mouvement modélisant le système considéré et est fondée sur l'inversion de la matrice grammienne de contrôlabilité. L'idée de la méthode est de contraindre l'énergie de la structure par le biais d'un taux de décroissance. De nombreuses variantes de cette méthode ont été élaborées, notamment pour le contrôle en déplacement d'un réglet sur une de ses frontières [11].