• Aucun résultat trouvé

Jusqu’à présent dans ce chapitre, nous avons montré des modifications apportées à la méthode d’analyse du réseau présentée dans le chapitre 2. A présent, nous allons présenter une modélisation différente des commutateurs, de manière à être plus fidèle au matériel qui pourra être utilisé dans un réseau avionique. Cette modélisation prend en compte un fonctionnement plus complexe des commutateurs, dans lequel la politique de service des ports de sortie n’est plus FIFO.

La politique de service retenue est à base de priorité statique. On peut la définir comme suit : chaque VL se voit attribuer une priorité différente, 1 (priorité haute) ou 2 (priorité basse). Pour permettre une utilisation plus générale, nous utilisons dans cette partie 4 une définition légèrement différente, dans laquelle la priorité des VL n’est pas définie globalement, mais localement : ainsi, un VL peut être de priorité haute pour un commutateur donné, mais de priorité basse dans le suivant. Un port de sortie transmet en priorité les trames de priorité 1, dans leur ordre d’arrivée, puis les trames de priorité 2, également dans leur ordre d’arrivée. Le traitement est non préemptif, c'est-à-dire que le traitement d’une trame de priorité 2 ne peut être interrompu par l’arrivée d’une trame de priorité 1.

Cette politique de service possède l’avantage d’être plus souple que le FIFO strict, puisqu’elle permet une différenciation de service. Elle est également relativement simple d’implémentation, puisque deux files d’attente suffisent, et que l’algorithme de choix de la file à servir est très simple.

Nous modéliserons ces ports de sortie par des multiplexeurs, offrant une courbe de service différente aux flux agrégés de priorité haute et basse.

Note : Le cas de multiplexeurs FIFO n’est autre qu’un cas particulier de cette politique, où tous les flux ont la même priorité.

4.1 Définition de la courbe de service

Cette politique de service est bien connue et a souvent été étudiée. On trouve le résultat suivant dans la littérature (voir Le Boudec [33] par exemple) :

Soit un élément à taux d’émission constant C, qui sert deux flux H et L avec une priorité non préemptive pour H. On note RH* (t)et ( )

* t

RL les courbes d’arrivée de ces deux flux, et L Smax la

taille maximale d’une trame du flux L.

Alors, le flux H reçoit une courbe de service de typeβR,T(t)avec R=Cet

C S T L max = .

Le flux de priorité basse reçoit une courbe de serviceSL(t)=

(

C.tRL*(t)

)

+.

4.2 Impact sur le calcul

4.2.1 Propagation de l’enveloppe

Les calculs permettant de déterminer des bornes sur les délais et les tailles de files d’attente s’effectuent en utilisant les courbes de service définies ci-dessus. On obtient donc par exemple une borne sur le délai D1subi par une trame appartenant à un flux de priorité 1.

Au moment de calculer l’enveloppe de sortie, on considère que ce multiplexeur se comporte pour tous les flux de priorité 1 comme un élément à délai bornéD1, de courbe de

service ( )

1 t

D

δ . Pour un flux de priorité 1, l’enveloppe de sortie sera donc égale à celle d’entrée décalée deD1vers la gauche, et similairement pour un flux de priorité 2.

4.2.2 Influence sur les groupes

La notion de priorité va nous obliger à modifier la définition des groupes. En effet, pour effectuer les calculs de bornes par exemple, il faut que tous les flux d’un groupe aient la même priorité.

Un groupe dans un multiplexeur sera formé de flux (éventuellement de groupes): • qui ont même priorité dans le multiplexeur où se forme le groupe.

• qui ont le même multiplexeur en aval

• qui ont même priorité dans ce multiplexeur aval

Cette définition assure que les calculs sont effectués avec des groupes dont tous les flux ont même priorité. De plus, les enveloppes de ces groupes sont récursivement calculées par le multiplexeur précédent, ce qui explique les deux dernières conditions. On pourrait arguer qu’il n’y a pas toujours de multiplexeur précédent, notamment dans le cas d’un commutateur directement relié à un abonné. Entre autres, dans le cadre de notre modèle, l’émission des abonnés ne prend pas en compte les priorités des VL. On peut alors considérer que tous les flux provenant d’un multiplexeur FIFO ont même priorité, et dans ce cas la création de groupe décrite dans le paragraphe 2.2.2 spécifie l’initialisation de l’enveloppe du groupe.

Par la suite, les groupes créés ainsi se manipulent comme indiqué dans la partie 2.3.

4.3 Application

Pour voir l’influence de cette utilisation des priorités, nous avons appliqué la méthode d’analyse au même réseau que précédemment, avec des priorités aléatoires pour les VL. Pour simplifier l’analyse, nous avons choisi de fixer pour chaque VL une priorité identique de bout en bout.

La figure ci-dessous présente une comparaison des bornes sur les tailles de files d’attente obtenues avec une certaine affectation des priorités, par rapport aux valeurs calculées dans le cas où tous les flux avaient même priorité.

Bien entendu pour effectuer ces comparaisons, on représente la somme des bornes pour les deux priorités. Pour des raisons de clarté, seuls les résultats obtenus pour deux des commutateurs les plus chargés sont présentés.

0 100 200 300 400 500 600 700 800 900 ports tr ames

priorités choisies priorités identiques

On observe sur ces résultats qu’il est possible d’avoir de meilleures bornes lorsqu’on utilise la notion de priorités. Par contre, sur d’autres ports et avec un autre choix de priorités, on obtient de moins bonnes bornes :

0 100 200 300 400 500 600 700 800 900 1000 ports tr a m e s

Figure 29 Cas d'une autre affectation de priorités

On montre ainsi que l’affectation des priorités a une réelle influence sur les résultats de notre méthode d’analyse. Il convient donc de choisir de façon adaptée ces priorités, mais ce choix est un problème extrêmement complexe, que nous étudierons plus avant dans le chapitre suivant.

Conclusion

Dans ce chapitre, nous avons tout d’abord présenté plusieurs améliorations de la méthode d’analyse de réseau, qui permettent d’obtenir des bornes bien meilleures qu’avec la méthode présentée dans le chapitre précédent. Ensuite, nous avons apporté à cette méthode de nouvelles fonctionnalités, comme l’analyse en trames ou la prise en compte de plusieurs niveaux de priorité.

Nous disposons à présent d’un outil permettant d’étudier un réseau avionique. L’application à notre réseau test a démontré que celui-ci satisfait bien les exigences de performance qui ont été fixées. Cependant, les bornes obtenues sont proches de ces contraintes, et laissent peu de marge pour les futures évolutions du réseau. Dans le chapitre suivant, nous présentons plusieurs pistes permettant de mieux utiliser le réseau existant, de façon à ménager un peu plus de marges. Par exemple, un algorithme de choix d’affectation des priorités y est proposé.

CHAPITRE 4

Méthodes d’optimisation du réseau

Dans le chapitre précédent, nous avons proposé une méthode d’analyse d’un réseau avionique. Celle-ci permet notamment de vérifier si un réseau étudié est capable de fournir aux flux qui le traversent une qualité de service,, caractérisée dans le cadre de notre étude par un délai de bout en bout et une gigue bornés, ainsi que par la garantie de ne perdre aucune trame par congestion d’une file d’attente. Pour garantir ce dernier point, nous obtenons des bornes sur la taille maximale de chacune des files d’attente, bornes qui sont ensuite comparées à la taille physique de la mémoire réservée pour ces files. L’analyse grâce à cette méthode d’un prototype de réseau, mis à notre disposition par notre partenaire industriel, fait apparaître deux éléments importants. Premièrement, le réseau de test est analysable par la méthode, et les résultats de cette analyse indiquent que le réseau satisfait bien aux contraintes rappelées ci-dessus. Deuxièmement, les marges sont faibles : pour certaines files d’attente, les contraintes ne sont respectées qu’à quelques pourcents près seulement. C’est notamment le cas pour les ports les plus chargés du réseau, qui pourraient difficilement accueillir plus de flux.

Nous souhaitons souligner l’importance d’avoir des marges importantes en aéronautique. De manière générale tout d’abord, il est préférable pour des raisons de sécurité que le fonctionnement normal d’un système soit éloigné des limites de son domaine d’utilisation. D’autre part, les aéronefs possèdent des durées de vie très importantes, ce qu’il faut prendre en compte dès la phase de conception, en laissant des marges d’évolution. L’ajout de nouveaux équipements réalisant de nouvelles fonctions est quasiment incontournable au cours des 30 années de la vie de l’appareil. Le réseau avionique devra être capable de supporter les nouveaux besoins de communication induits par ces ajouts. Il faut également se rappeler qu’il existe une réutilisation importante des technologies d’un programme à l’autre. Dans le cadre d’un programme ultérieur, de fortes économies pourraient être réalisées si le réseau avionique étudié était utilisé, ce qui implique qu’il ne soit pas dimensionné au plus juste des besoins de communication actuels.

Nous avons donc essayé de trouver des moyens de ménager cette marge recherchée, c'est-à- dire des modifications du réseau telles que les résultats de l’analyse soient meilleurs.

Nous avons identifié deux domaines susceptibles de recevoir des modifications : • Le trafic circulant dans le réseau

• L’architecture physique du réseau

En ce qui concerne le trafic, les modifications pourraient être importantes : on pourrait par exemple diminuer la cadence d’émission d’un VL donné, ou décider de scinder en deux les trames des VL dont le Smax est grand. Cependant, nous avons considéré que ces modifications

ne peuvent être effectuées sans une bonne connaissance de l’importance de chaque VL pour les systèmes concernés ; aussi avons-nous décidé de ne pas considérer ce type de changements, et de prendre en compte le trafic tel qu’il nous a été décrit. La seule modification restante porte alors sur la priorité de chacun des VL, non spécifiée actuellement par notre partenaire industriel, et qui peut s’avérer un levier intéressant comme indiqué dans le chapitre précédent. La première partie de ce chapitre présente plusieurs méthodes permettant de choisir ces priorités de manière efficace.

En ce qui concerne l’architecture physique du réseau, nous avons étudié deux axes de recherche. Le premier est relatif à la manière de relier les commutateurs entre eux : nous avons voulu voir si multiplier le nombre de liens permettait de diminuer l’importance des

congestions. Le deuxième axe envisagé porte sur une modification de la politique de service des ports de sortie des commutateurs. Nous avons étudié l’impact sur la méthode d’analyse d’une « régulation » des flux (« reshaping ») dans ces ports.

Note : les résultats présentés dans ce chapitre ont été obtenus avec un policing en bits, présenté dans le chapitre 3. Nous rappelons que le réseau analysé n’est pas un réseau réel, mais un exemple représentatif de la complexité d’un réseau avionique.

1 Affectation des priorités aux VL