• Aucun résultat trouvé

Conséquences de l'indépendance d'échelle

Réseaux complexes : questions d'uni versalité et de connexions

1.2 Réseaux libres d'échelle

1.2.2 Conséquences de l'indépendance d'échelle

En considérant la liste de systèmes libres d'échelle ci­dessus', on est en droit de se de­ mander qu'est­ce qu'il y a de si important au fait que les réseaux complexes présentent une telle organisation.

Pour illustrer les conséquences de cette découverte, considérons une dynamique simple : la robustesse face à une attaque contre le réseau. Le but de ce problème est de déterminer à

quel point la structure d'un réseau est affectée par le retrait ciblé d'une fraction e des noeuds, ce qui simule l'efficacité d'une campagne de vaccination ou la résistance d'un réseau infor- matique aux attaques de pirates. Pour quantifier l'effet désiré, on empruntera un concept de la théorie de la percolation [10].

Definition 6. Les composantes d'un réseau sont les plus grands ensembles de noeuds tels que tous les noeuds d'une même composante sont rejoignables entre eux en suivant un nombre quelconque de liens.

Definition 7. De façon pratique, la composante géante d'un réseau est simplement la plus grande composante. Théoriquement, c'est la seule composante extensive du réseau, ce qui implique qu'elle occupe une fraction macroscopique S du système même dans la limite infi- nie.

Dans le problème de robustesse contre les attaques, on cherche donc à savoir à quel point la composante géante du réseau est robuste face aux retraits ciblés de noeuds. Pour prendre un cas plus parlant, prenons la structure l'Internet au niveau des systèmes autonomes (SA)4 circa 2006 (voir Fig. 1.7(a)). Le retrait de noeuds correspond ici à une attaque contre les SA de plus haute importance, donc de plus haut degré, et l'on cherche à voir si l'Internet possède suffisamment de voies de routage secondaires pour être robuste. Pour tester cette propriété, on attaque directement la portion e des noeuds de plus hauts degrés.

Les résultats de cet exercice sont présentés à la Fig. 1.7(b) et illustrent bien la vulnérabilité des réseaux libres d'échelle face aux attaques ciblées. C'est que les noeuds de plus haut degré dans les réseaux libres d'échelle (typiquement nommés les hubs) ont un nombre si élevé de liens que le réseau se défait complètement si on les retire. Les hubs sont cependant complètement absents du réseau équivalent ER (réseau aléatoire avec autant de noeuds et de liens), ce qui explique sa plus grande robustesse. Quoique catastrophique dans le cas simulé (attaques sur Internet), cette propriété peut s'avérer être une bénédiction lorsque l'on connaît les noeuds de haut degré et que l'on cherche à contrôler le réseau (e.g. limiter la propagation d'un polluant dans une toile alimentaire).

Par opposition à cette vulnérabilité face aux attaques ciblées, on peut également étudier la résistance de l'Internet face aux pannes aléatoires de SA. Cette fois, on désactive une fraction e des noeuds du réseau de façon aléatoire, indépendamment de leur degré. On présente les résultats de cet exemple sur la Fig. 1.7(c). Ce que l'on peut rapidement constater est que la chute de la composante géante est pratiquement aussi lente pour l'Internet que pour son équivalent ER. Ce qui veut dire que le réseau réel est robuste face à ce type de défaillances malgré sa vulnérabilité aux attaques ciblées.

Chapitre 1. Réseaux complexes : questions d'universalité et de connexions 15 1 0.8 0.6 0.4 0.2 0 Internet — ER — Attaques sur Internet 0.0001 (a) 0.001 (b) 0.01 Internet ER (c)

FIG. 1.7: Pannes et attaque sur l'Internet (a) La distribution en degré de l'Internet, (b) La perte de connectivité (décroissance de la composante géante S) sous attaques ciblées vers les noeuds de haut degré, (c) Même chose sous pannes aléatoires de noeuds.

Ce résultat est assez simple à expliquer considérant la distribution en degré de la Fig. 1.7(a). Sa forte hétérogénéité et son asymétrie impliquent que si l'on retire un noeud au hasard, on est beaucoup plus probable de retirer un noeud de bas degré (sous la moyenne) qu'un des hubs du réseau. Pour s'en convaincre, remarquons que plus de 75% des noeuds sont de degré un ou deux, donc sous le 4.2 de moyenne. Il faut donc éplucher beaucoup de noeuds sans importance avant d'avoir une bonne probabilité de toucher les noeuds de haut degré. Le réseau ER présente le même genre de robustesse peu importe de quelle façon on lui retire ses noeuds, puisque tous les noeuds sont plus ou moins équivalents.

5Vbilà -pourquoi il est difficile de protéger un réseau informatique contre un virus : les virus se retrouvent

préférentiellement dans les hubs, alors que les efforts de protection sont plus aléatoires puisqu'il est difficile de connaître, par exemple, le nombre de contacts électroniques entre différentes stations de travail. Il est donc utile de tenter de propager la protection par les mêmes voies que l'infection [45].

Cette dualité entre robustesse et vulnérabilité des réseaux libres d'échelle a été explorée pour la première fois par Albert et al. en 2000 [3]. Il existe cependant bien d'autres propriétés inhérentes aux réseaux libres d'échelle. L'une d'entre elles est particulièrement d'intérêt pour notre projet. On verra au Chap. 4 que la capacité d'une maladie à se propager sur un réseau dépend principalement du second moment de la distribution en degré (gouvernant le nombre de liens que l'on peut suivre après être arrivé sur un noeud en suivant un lien aléatoire : le degré sortant). Or, il est bien connu que les moments d'une distribution en loi de puissance d'exposant y explosent de sorte que les moments m > y - 1 divergent. Par conséquent, le second moment est typiquement beaucoup plus élevé que le degré moyen, voir infini, rendant les réseaux libres d'échelle extrêmement vulnérables aux épidémies. Plus de détails seront donnés au Chap. 4.

Documents relatifs