• Aucun résultat trouvé

Choix de l’architecture de plan de contrôle

CHAPITRE 2 PRÉSENTATION DES RÉSEAUX OPTIQUES SANS FILTRE

3.1 Choix de l’architecture de plan de contrôle

Nous rappelons ici succinctement les tendances de l’état de l’art évoquées au chapitre un en ce qui à trait aux architectures de plan de contrôle. Lors de l’établissement d’une nouvelle connexion optique (Salvadori et al., 2009) :

- dans le cas d’une architecture centralisée, un composant spécifique, et accessible par tous les nœuds du réseau, est susceptible d’effectuer le calcul de la route optimale pour la demande d’établissement d’une connexion, en tenant compte de la connaissance complète de l’état du réseau (trafic et distorsions physiques);

62

- dans le cas d’une architecture distribuée en revanche, les procédures décrites précédemment sont laissées au plan de contrôle lui-même, c’est-à-dire qu’il effectue lui- même le routage et la signalisation.

Dans le cas de GMPLS, le protocole Open Shortest Path First (OSPF) est utilisé pour informer les différents éléments qui participent à la sélection des ressources en vue de l’établissement d’une connexion à partir de l’inventaire des ressources disponibles. Il s’agit d’un protocole qui tient compte de l’état des liens.

A l’aide de ce protocole, il est possible, soit :

- de permettre aux différents nœuds de rafraichir leurs bases de données régulièrement. Dans le cas d’une architecture distribuée, il est vital que les nœuds disposent des informations les plus récentes pour pouvoir établir leurs connexions efficacement (Castoldi et al., 2007);

- de permettre aux différents nœuds d’informer les composants centralisés des ressources disponibles du réseau, ce, pour qu’ils prennent des décisions optimales.

Les solutions distribuées sont décrites (Castoldi et al., 2007) comme rapides et faciles à mesure que le réseau croît en termes de nombre de nœuds par rapport aux solutions centralisées précisément parce qu’elles partagent leurs ressources computationnelles lorsqu’il s’agit de déterminer un chemin à établir, ainsi que les risques de pannes majeures.

3.1.2 Quantité de données de contrôle à échanger

En revanche, ceci nécessite que les bases de données soient bien synchronisées. La moindre contradiction entre les bases de données de deux nœuds différents peut se traduire par des erreurs, ou dans le meilleur des cas, par l’établissement de connexions non nécessairement optimales (Castoldi et al., 2007).

63

Dans le cas des solutions distribuées, nous pouvons choisir de donner une vue partielle ou totale du réseau pour les nœuds. Dans le premier cas, la quantité de données de contrôle à échanger est plus réduite, mais les nœuds vont baser leurs décisions pour le choix d’une route sur une connaissance réduite. Il s’ensuit une baisse de performance dans ce cas précis (Ramamurthy, Sudipta et Chaudhuri, 2001).

Dans le cas de réseaux transparents enfin, certains algorithmes de routage passent par la connaissance des caractéristiques physiques des liens, qui peuvent, ici aussi, être diffusées par OSPF. On remarque que ces contraintes physiques, utiles à prendre en compte pour valider au préalable une connexion à établir, entraînent une quantité de données de contrôle plus grande pour aviser justement tous ces nœuds.

3.1.3 Routage centralisé, signalisation distribuée et explicite

Plusieurs types de signalisation ont été proposés selon la présence ou non de la contrainte de continuité de longueur d’onde dans l’établissement d’une connexion (Giorgetti, Andriolli, Ruepp et Castoldi, 2010) :

- la signalisation vers l’aval (Upstream Label scheme) où les ressources sont mobilisées à mesure que le chemin s’établit. Il s’agit d’une solution particulièrement efficace pour une connexion sans la contrainte de la continuité de la longueur d’onde, pourvu que l’on ne réserve pas trop de longueurs d’onde le temps d’établir le chemin. Autrement, on risquerait d’augmenter le taux de blocage de demandes concurrentes;

- la signalisation vers l’amont (Label set scheme) est plus lente, mais permet de sonder au préalable les ressources disponibles avant de demander au nœud destinataire d’effectuer la procédure de réservation sur une longueur d’onde qu’il a choisie.

Cette dernière signalisation serait particulièrement tentante pour les réseaux optiques sans filtre. Toutefois, nous devons tenir compte que l’établissement d’une connexion mobilise des ressources au-delà de la portée de la connexion elle-même :

64

- à cause des branches combinées des arbres optiques passifs.

Ceci demande une connaissance du réseau plus large dans le cas d’une solution distribuée. Le PCE étant en mesure d’aboutir à une solution optimale grâce à sa vue totale de la topologie, nous proposons l’usage de RSVP avec l’utilisation systématique du champ Explicit Routing Object (ERO) (Farel, Ayyangar et Vasseur, 2008). Ceci provoque l’établissement de la connexion sur le chemin même spécifié par le PCE mais de manière distribuée.

3.1.4 Solution retenue pour les réseaux optiques sans filtre

Nous avons vu combien le contrôle des canaux non filtrés est crucial pour maintenir le niveau de performance des réseaux optiques sans filtre. Nous estimons que, de ce fait, il est important de trouver des chemins optimaux de façon à maintenir cette performance. Une connaissance totale du réseau s’impose pour que les composants puissent ainsi choisir les meilleures routes selon la métrique retenue.

Étant donné qu’il s’agit de réseaux transparents, les données comme les taux de dispersion chromatiques et de dispersion modale de polarisation, la quantité de bruit estimée des amplificateurs de ligne, ainsi que la distance des liens sont utiles pour valider une route lors de sa sélection. Il est plus avantageux qu’un plan de contrôle puisse éliminer des routes qui n’offriraient pas la réception des données avec un minimum d’erreurs.

Nous avons donc choisi dans l’article en question (Mantelet, 2012), de recourir à une solution centralisée, d’une part pour la réduction de la quantité de données de contrôle échangées sur le plan de contrôle, mais aussi en tenant compte du fait qu’historiquement, les opérateurs possèdent des composants centralisés pour gérer leur réseau. Notez que ce choix qui nous paraît plus judicieux n’est pas restrictif.