• Aucun résultat trouvé

FORMULATION HAMILTONIENNE À PORTS

Définition 5 (Composant dissipatif) Un composant dissipatif est défini par une

variable w et par une fonction de dissipation z(w) telle que z(w)w ≥ 0. La dissipation est de type :

— résistance (R) si f = w et e = z(w), — conductance (G) si f = z(w) et e = w.

La positivité de la puissance absorbée permet de garantir la contrainte P = z(w)w ≥ 0 . On peut ainsi directement identifier un couple flux/effort du composant comme (f = w,

e = z(w)) pour une dissipation de type résistance ou (f = z(w), e = w) pour une

dissipa-tion de type conductance. Par exemple, pour une résistance électrique linéaire R > 0, la variable w est le courant d’entrée w = i et la fonction de dissipation est la tension à ses bornes z(i) = Ri. On peut également écrire cette résistance sous forme de conductance en choisissant la tension u comme variable d’état et le courant z(u) = u/R comme fonction de dissipation. Dans le cas où une fonction de dissipation n’est pas inversible, le type est imposé. Cela fait réapparaître une notion de causalité pour les composants dissipatifs.

Contrainte de causalité

Le principe de causalité tient au fait que, implicitement, la physique suppose que la cause précède la conséquence. C’est une des contraintes réalistes imposées à toute théorie mathématiquement cohérente afin qu’elle soit physiquement admissible. Ce principe s’ap-plique naturellement aux composants stockants. En effet, la conséquence est le changement d’état du système physique étudié, directement reliable au gradient de l’Hamiltonien ∂xH. Il en vient que la cause est reliée à la dérivée temporelle : une action sur la dérivée tem-porelle cause une modification de l’état, et non l’inverse. C’est donc, très clairement, la variable correspondant à la dérivée temporelle qui doit être contrôlée par l’entrée, et la sortie correspondant au gradient d’Hamiltonien qui en est une conséquence. Mathémati-quement, pour que la dérivée temporelle de l’état soit définie, il est nécessaire d’assurer la continuité des valeurs de l’état au cours du temps et donc de connaître son passé. Si l’on considère en exemple un simple ressort linéaire de raideur 1 dont l’état est l’étirement x, et dont l’énergie est H(x) = 12x2. Dans ce cas, l’effort d’entrée est e = ∂xH = x et le flux est

f = ˙x. La causalité nous indique que le système doit être contrôlé en flux, c’est-à-dire en

vitesse d’étirement. Dans le cas contraire, si l’on cherche à imposer la force aux extrémités du ressort e = F 6= 0 à l’instant t et en considérant le système au repos, x(t − ) = 0 pour

 > 0, il vient que la vitesse d’étirement à l’instant t est infinie. Ainsi, la puissance générée

P = ∂xH ˙x devient également infinie. La causalité est donc une contrainte physique avant d’être algébrique. En conclusion, un composant inertiel doit être commandé en effort et un composant capacitif en flux.

La causalité peut être étendue au cas des composants dissipatifs. Dans ce cas, cette contrainte est uniquement algébrique et dépend de l’inversibilité de la fonction de dissipation

z (cf. définition 5). Si cette fonction n’est pas inversible, on ne peut pas connaître de

commandé par la variable de flux ou d’effort correspondant à la variable de dissipation w. Si z est inversible, un composant de type résistance (respectivement conductance) peut être converti en composant de type conductance (respectivement résistance) comme représenté en figure 1.5. Dans ce cas précis, la commande peut être choisie de manière indépendante de la causalité.

w

z(w) z−1( ˜w)

R R

Figure 1.5 – Représentation en graphe de liaison d’un composant dissi-patif de type admittance (gauche) et de son équivalent de type résistance (droite), valable pour z inversible.

1.3.2 Graphes de connexion et systèmes hamiltoniens à ports

Pour construire un système physique complet, les composants définis précédemment doivent être connectés entre eux ainsi qu’à des sources externes. Le graphe de connexion doit être conservatif et doit inclure les lois de Kirchhoff généralisées à tous les domaines physiques (loi des noeuds, loi de mailles pour le domaine électrique, principe fondamental de la dynamique en mécanique, etc). Considérons l’ensemble des éléments d’un système (composants stockants S, dissipatifs D et sources externes ou port d’entrée E) en rangeant les flux dans le vecteur f = [fS1, fS2, ..., fD1, fD2, ..., fE1, fE2, ...]T et les efforts dans le vecteur e = [eS1, eS2, ..., eD1, eD2, ..., eE1, eE2, ...]T. Notons l’espace vectoriel représentant l’ensemble des flux possibles F et l’espace des efforts, espace dual de F , E = Freprésentant l’ensemble des efforts possibles. Ainsi, pour une configuration donnée pour les variables d’états, (f, e) ∈ F × F et la puissance absorbée par l’ensemble des ports est P = eTf. L’interconnexion des composants et des ports d’entrées/sorties doit donc être gérée par une structure mathématique reliant le vecteur f au vecteur e et qui garantisse que P = 0.

La structure mathématique appelée Structure de Dirac permet l’interconnexion tout en répondant à ce critère conservatif.

Définition 6 (Structure de Dirac ([41] Page 56)) Une structure de Dirac sur F × F est un sous-espace D ⊂ F × F tel que

i) eTf = 0, pour tout (f, e) ∈ D,

ii) dimD = dimF

La propriété (i) correspond à la conservation de l’énergie et exprime le fait que la puis-sance totale entrant dans la structure de Dirac est nulle. Il peut être montré que la dimension maximale d’un sous-espace D ⊂ F × F qui satisfasse la propriété (i) est nécessairement

dimF (cf. [41]). Nous pouvons donner une caractérisation équivalente de la structure de

Dirac en nous intéressant plus précisément à la structure géométrique de l’espace total des variables de flux et effort F × F. Il existe une forme bi-linéaire canonique  ., .  sur l’espace F × F, définie par

 (fa, ea), (fb, eb) := (ea)Tfb+ (eb)Tfa (1.31) où (fa, ea), (fb, eb) ∈ F × F. Cette forme bi-linéaire n’est pas "définie", c.-à-d. que 

1.3. Des systèmes physiques aux systèmes hamiltoniens à ports 23 (f, e), (f, e)  peut être positive ou négative. Elle est cependant non-dégénérée ce qui signi-fie que si  (fa, ea), (fb, eb) = 0 pour tout (fb, eb), alors (fa, ea) = 0.

Propriété 1 (Caractérisation équivalente de la structure de Dirac ([41], page 57))

Une structure de Dirac sur F × F est un sous-espace D ⊂ F × F tel que

D = D (1.32)

où D dessine le complément orthogonal du sous-espace D pour la forme bi-linéaire

 ., . .

Preuve. Considérons D qui satisfasse (1.32). Alors, pour tout (f, e) ∈ D

0 = (f, e), (f, e) = 2eTf. (1.33)

Par non-dégénérescence de  ., . ,

dimD= dim(F × F) − dimD = 2dimF − dimD (1.34) ainsi, dimD = dimF . Réciproquement, considérons D correspondant à la définition 6. Soient (fa, ea), (fb, eb) ∈ D × D, alors par linéarité, (fa+ fb, ea+ eb) ∈ D. Ainsi, la propriété i) conduit à

0 = (ea+ eb)T(fa+ fb) (1.35)

= (ea)T(fb) + (eb)T(fa) + (ea)T(fa) + (eb)T(fb) (1.36)

= (ea)T(fb) + (eb)T(fa) (1.37)

=  (fa, ea), (fb, eb)  . (1.38)

Cela implique que D ⊂ D. De plus, par la propriété ii) et comme dimD= 2dimF −dimD, on a dimD = dimD, d’où D = D.

Pour rendre la définition 6 utilisable pour l’interconnexion des composants, il est néces-saire de pouvoir représenter une telle structure sous forme matricielle.

Propriété 2 (Représentations noyau et image) Toute structure de Dirac D ⊂ F × F peut être écrite en représentation noyau :

D = {(f, e) ∈ F × F|Ff + Ee = 0} (1.39)

où F : F → V et E : F → V sont des applications linéaires telles que (i) EFT + FET = 0,

(ii) rang[F|E] = dimF ,

et où V est un espace linéaire de même dimension que F . Ainsi, D peut également être écrite sous forme de représentation image :

D =n(f, e) ∈ F × F|f = ETλ, e = FTλ, λ ∈ Rno (1.40)

Définition 7 (Connexions "0" et "1") Les structures de Dirac les plus

élémen-taires sont les connexions notées "0" et "1" pour les "Bond Graph" : 0 : les efforts sont égaux et la somme des flux est nulle.

1 : les flux sont égaux et la somme des efforts est nulle.

En électronique, les connexions "0" et "1" sont respectivement équivalentes aux connexions parallèles et séries. f1 f1 f2 f2 f3 f3 e1 e1 e2 e2 e3 e3 0 1

Figure 1.6 – Représentation en graphe des liaisons des connexions ”0” et ”1” pour trois ports d’entrées.

Par exemple, la représentation noyau de la structure de Dirac représentant une connexion "0" à trois entrées (voir figure 1.6) peut s’écrire,

1 1 1 0 0 0 0 0 0 | {z } F f1 f2 f3 + 0 0 0 1 −1 0 0 1 −1 | {z } E e1 e2 e3 = 0 (1.41)

Les matrices E et F vérifient bien les contraintes de la propriété 2. Cependant, c’est ici un cas particulier puisque ETF = 03,3. En effet, dans le cas des connexions 0 et 1, les flux ne sont pas directement reliés aux efforts.

Un exemple simple de structure de Dirac reliant les efforts aux flux est l’élément gyra-teur à deux entrées (voir figure 1.7).