• Aucun résultat trouvé

La structure d’un réseau comportant quelques sujets seulement est assez facile à caractériser. Il suffit de le représenter sous la forme d’un graphe et la structure apparaît d’elle-même visuellement. Pour les réseaux plus vastes, et même dès lors que l’on dépasse la centaine de nœuds, il devient impossible d’identifier leur structure simplement de manière visuelle. Il faut alors « faire parler ce graphe » par l’identification statistique de ses propriétés. Dans notre analyse, la représentation graphique du réseau sera donc surtout un appui visuel à la compréhension de ces propriétés, plus qu’un outil d’analyse en soi.

4.2.1 Comparaison du réseau réel avec un graphe aléatoire

Pour rendre les différentes mesures que nous emploierons dans ce chapitre (expliquées ci-après) plus informatives sur la structure et le fonctionnement du réseau, nous les comparons aux propriétés d’un réseau généré de façon aléatoire (Figure 1.3b). Comme le souligne Barabási (2016), le modèle de graphe aléatoire constitue un modèle de référence important lorsque l’on étudie les propriétés d’un réseau réel : « Chaque fois que l’on observe une propriété d’un réseau il faut se demander si elle aurait pu émerger par hasard » (notre traduction). Si les propriétés du réseau réel sont similaires à celles du réseau aléatoire, cela signifie que le hasard peut expliquer la structure et les phénomènes observés. A l’inverse, si une propriété diffère de celle du modèle aléatoire, la structure du graphe est alors probablement le résultat de processus sociaux particuliers.

La Figure 1.3b est un graphe contenant le même nombre de nœuds que celui de la Figure 1.3a (graphe réel) mais dont les liens ont été placés de façon aléatoire entre les nœuds avec une probabilité uniforme. Ce type de graphe aléatoire est un des premiers modèles théoriques de réseau proposé par Erdös et Rényi (1959, 1960, 1961). Plusieurs versions du modèle existent. Ici, nous utilisons la version la plus

4 Données et méthode

nœuds a une probabilité uniforme p d’être présent et une probabilité 1-p d’être absent. Dans le graphe aléatoire de la Figure 1.3b, nous choisissons une probabilité de 0,003, de façon à obtenir un nombre de liens m équivalent à celui du graphe réel. Lorsque le nombre de nœuds n est grand, le degré moyen du réseau, z (calculé comme deux fois le nombre de liens rapporté au nombre de nœuds), est égal approximativement au nombre de nœuds multiplié par la probabilité p que deux nœuds aient un lien entre eux (Newman, 2002), soit :

𝑧 ≈ 𝑛𝑝 𝑛 = 3431 et 𝑚 = 16604 𝑧 =2𝑚 𝑛 = 16604 × 2 3431 ≈ 9,68 𝑧 ≈ 𝑛𝑝 ⇔ 9,68 ≈ 3431𝑝 ⇔ 𝑝 ≈ 0,003

4.2.2 Mesurer le niveau d’intégration globale du réseau Mesure de la fragmentation du réseau

Dans un premier temps, nous analysons le degré de fragmentation au sens strict du réseau, c’est-à-dire dans quelles mesures il existe dans le réseau, des sous- graphes totalement isolés les uns des autres. A cette fin, nous étudions le nombre et la taille des composantes du réseau, c’est-à-dire, des sous-ensembles non connectés entre eux (distincts), de nœuds connectés entre eux (connexes). Plus précisément, nous calculons deux mesures de fragmentation du réseau : le ratio des composantes et le coefficient de fragmentation (« F measure »), tous deux proposés par Borgatti (2006).

La première, que nous noterons 𝑅𝐶, consiste simplement à compter le nombre de composantes (𝐶) et à le diviser par le nombre de nœuds (𝑛) présents dans le réseau :

𝑅𝐶 =𝐶

𝑛

Moins le réseau contient de composantes, plus 𝑅𝐶 est proche de zéro, et moins le réseau est fragmenté ; et inversement. Ainsi, un réseau contenant une seule

Chapitre 1. L’intégration inégale des élites à Madagascar : analyse de la structure du réseau global

composante ne contient aucune fragmentation au sens strict : tous les nœuds ont accès à tous les autres nœuds, par les chemins du réseau ; 𝑅𝐶 ≈ 0 . En revanche selon cette mesure, la fragmentation est maximale lorsqu’il y a autant de composantes que de nœuds, soit 𝑅𝐶 = 1.

La deuxième mesure de fragmentation permet de prendre en compte la taille des composantes. Prenons l’exemple de deux réseaux, chacun constitué de deux composantes. Leurs degrés de fragmentation, calculés par le ratio des composantes sont égaux, quelle que soit la taille des composantes. Or si le premier réseau est constitué d’une grande composante (par exemple de 19 nœuds), et d’une petite (par exemple d’un seul nœud), la plupart des nœuds du réseau (95%) sont tout de même connectés entre eux. Tandis que si le second réseau est constitué de deux grandes composantes (par exemple de 10 nœuds chacune), bien plus de nœuds sont déconnectés les uns des autres que dans le cas précédent. Le coefficient de fragmentation, noté 𝐹, mesure le pourcentage de paires de nœuds appartenant à des composantes différentes, c’est-à-dire des paires de nœuds qui ne peuvent pas s’atteindre mutuellement en suivant les chemins du réseau. En prenant en compte la taille des composantes, il attribue ainsi une valeur de fragmentation plus élevée à un réseau comportant deux grandes composantes qu’à un réseau en comportant une grande et une petite. Il peut se calculer comme l’unité moins le nombre de paires de nœuds appartenant à la même composante (Borgatti, 2006) :

𝐹 = 1 −∑ 𝑆𝑘 𝑘(𝑆𝑘− 1) 𝑛(𝑛 − 1)

où 𝑆𝑘 est le nombre de nœuds dans la 𝑘ième composante.

Petit monde (« small world »)

Après avoir montré dans quelles mesures les individus du réseau étaient isolés les uns des autres, la mise en évidence d’un phénomène de « petit monde » a pour objectif de déterminer dans quelles mesures les élites sont distantes ou proches les unes des autres dans le réseau. Autrement dit, si l’étude des composantes permet d’examiner la possibilité pour les élites d’atteindre toutes les autres élites via le réseau, l’étude du phénomène de petit-monde permet d’analyser

4 Données et méthode

la facilité avec laquelle les élites peuvent s’atteindre les unes les autres. Depuis la célèbre expérience réalisée par Milgram (1967), la littérature sur l’analyse de réseaux, quelle que soit la discipline, s’est largement penchée sur le phénomène de « petit monde » mis en évidence par ce psychologue. Dans son expérience, Milgram a sélectionné aléatoirement 160 individus dans une ville du Nebraska aux Etats- Unis, auxquels il a remis à chacun une enveloppe. Les individus avaient pour consigne de transmettre cette enveloppe à une personne cible, sélectionnée aléatoirement dans la ville de Boston dans le Massachusetts, uniquement au moyen d’une chaîne d’amis et de relations personnelles. Les individus avaient à leur disposition dans l’enveloppe des informations sur la personne cible (profession, lieu de travail, adresse, etc.), les aidant à choisir dans leurs relations, la personne la plus susceptible de lui transmettre l’enveloppe. La relation ainsi choisie devait en faire de même en transmettant l’enveloppe à une de ses propres connaissances, et ainsi de suite, jusqu’à ce que l’enveloppe atteigne la cible. Le but était de compter le nombre d’intermédiaires nécessaires pour relier deux individus choisis aléatoirement dans des villes éloignées des Etats-Unis. Il trouve en moyenne 5,4 intermédiaires avant que l’enveloppe ne parvienne à l’individu cible. Cependant, seules 27,5 % des chaînes commencées dans le Nebraska ont atteint la cible.

Suite à cette expérience, Milgram (1967) définit un petit monde comme un réseau avec un nombre étonnement faible d’intermédiaires entre les acteurs malgré le fait que ces acteurs ont tendance à être insérés dans des groupes d’amis assez fermés. Plus précisément, un réseau de type « petit monde » combine deux propriétés. Premièrement, une tendance importante au regroupement des liens (agglomération) : les relations d’un acteur ont une probabilité importante d’être aussi connectées entre elles. En effet, deux personnes connectées à une tierce personne commune ont de fortes chances d’être présentées par cette tierce personne, ou encore de fréquenter les mêmes endroits. Deuxièmement, une faible distance moyenne entre deux nœuds quelconques du réseau : chaque nœud peut

Chapitre 1. L’intégration inégale des élites à Madagascar : analyse de la structure du réseau global

atteindre, avec peu d’intermédiaires chaque autre nœud du réseau (Uzzi, Amaral et Reed-Tsochas, 2007).

Ces deux propriétés sont a priori incompatibles. Watts (1999a, 1999b) et Watts et Strogatz (1998) le montrent en prenant deux cas de réseaux extrêmes et opposés. Imaginons un réseau avec un grand nombre de nœuds n et un degré moyen k faible, bien inférieur à n, dans lequel l’agglomération (clustering) est maximum. Une connexion entre deux nœuds a lieu que s’ils ont un voisin commun. Les liens sont donc très localisés, regroupés localement et le réseau est donc formé par une succession de cliques. Les individus à l’intérieur d’une clique sont très proches les uns des autres puisqu’ils sont directement connectés ; les individus de deux cliques voisines sont déjà légèrement plus distants ; les individus de deux cliques séparées par une autre clique sont encore plus distants, etc. La connectivité globale du réseau se fait donc de cliques en cliques et aucun lien ne « traverse » le réseau entre des cliques très éloignées. Un tel réseau se caractérise donc par un phénomène d’agglomération très important qui engendre une longueur moyenne de chemin entre les nœuds élevée. Le cas extrême inverse est un réseau aléatoire, où les liens seraient placés avec une probabilité uniforme, c’est-à-dire que des nœuds connectés à un nœud tierce commun n’auraient pas plus de chance d’être connectés entre eux que deux nœuds n’ayant pas de voisin commun. Dans un tel réseau, l’agglomération serait donc faible et la distance moyenne entre les nœuds également. Mais dans les réseaux réels, la probabilité d’apparition des liens n’est jamais uniforme et le phénomène d’agglomération est largement observé. Comment alors, dans un monde où les individus ont tendance à se regrouper en clusters, des réseaux caractérisés par une distance moyenne faible entre tous leurs membres peuvent-ils émerger ? Watts et Strogatz (1998) montrent qu’il suffit que quelques nœuds seulement aient des liens qui connectent des clusters différents pour qu’un phénomène de petit monde apparaisse. Il suffit que 1% des liens soient des liens « raccourcis », c’est-à-dire des liens qui traversent le réseau. Un seul de ces liens rapproche en effet deux individus initialement éloignés, mais aussi tous les individus des clusters qu’il relie et des clusters voisins.

4 Données et méthode

Ce type de réseau est rencontré très fréquemment dans divers domaines (sociaux, biologiques, écologiques…). Certains chercheurs suggèrent que cette structure permettrait d’augmenter les performances de ces divers systèmes en termes de créativité, de collaboration et de communication. En effet, les nombreux clans (clusters) séparés permettraient de développer une multitude d’idées, de ressources ou d’informations spécialisées, tandis que les courts chemins permettraient à ces idées/ressources/informations de s’échanger entre les clans pour former de nouvelles combinaisons (Fleming et Marx, 2006 ; Uzzi et Spiro, 2005).

Plusieurs méthodes de quantification de ce phénomène de petit monde sont utilisées dans la littérature. Nous employons ici la méthode de Watts et Strogatz (1998) qui ont vérifié empiriquement l’hypothèse de Milgram. Leur méthode consiste à comparer les valeurs de deux mesures (la longueur moyenne des chemins géodésiques et le coefficient moyen d’agglomération) du graphe réel avec celles d’un graphe aléatoire. Conformément à la définition donnée précédemment, un réseau de type « petit monde » est caractérisé à la fois par une faible longueur moyenne de chemin et par un fort coefficient d’agglomération moyen. Pour rappel, la longueur moyenne de chemins mesure le nombre moyen de liens entre chaque nœud du réseau. Appliqué à un nœud u du réseau, le coefficient d’agglomération est calculé comme le nombre de liens existant entre les nœuds connectés à u sur le nombre de liens possibles entre ces nœuds. Le coefficient d’agglomération moyen correspond à la moyenne de ce coefficient pour l’ensemble des nœuds du réseau. Une façon de déterminer si ces propriétés sont « faibles » ou « fortes » est de les comparer à celles d’un réseau aléatoire. Watts et Strogatz (1998) ont montré que cette comparaison était pertinente parce que les réseaux aléatoires ont une longueur moyenne de chemins faible ainsi qu’un coefficient d’agglomération faible relativement aux réseaux réels (Erdös et Rényi, 1960). Ainsi, dans un réseau où les liens se forment de façon aléatoire, la faible longueur moyenne de chemins est incompatible avec une forte agglomération. Au contraire, dans le réseau petit-monde, malgré le fait qu’il y ait une agglomération importante, la longueur moyenne des chemins est faible.

Chapitre 1. L’intégration inégale des élites à Madagascar : analyse de la structure du réseau global

Notons Lréel la longueur moyenne des chemins géodésiques du graphe réel

(graphe des élites à Madagascar) et Laléatoire la longueur moyenne des chemins

géodésiques du même réseau dans lequel les liens ont été placés de façon aléatoire. Notons Créel le coefficient d’agglomération moyen du graphe réel et Caléatoire le

coefficient d’agglomération moyen du graphe aléatoire. Watts et Strogatz (1998)

postulent qu’un réseau est un « petit monde » si le ratio

(Créel/Caléatoire)/(Lréel/Laléatoire), qu’ils appellent le « quotient de petit monde » est

nettement supérieur à 1 (Davis, Yoo et Baker, 2003 ; Uzzi et Spiro, 2005). Pour qu’un réseau soit considéré comme un « petit monde », il faut donc un coefficient d’agglomération du réseau réel plusieurs fois supérieur à celui du graphe aléatoire [(Créel/Caléatoire)>>1] et une longeur moyenne de chemin faiblement supérieure à celle

du graphe aléatoire [(Lréel/Laléatoire)≈1].

Intégration interchamps : densité et détection de communautés

Nous analysons ensuite dans quelles mesures et de quelle façon les différents champs élitaires sont connectés entre eux. La première méthode que nous utilisons à cette fin est le calcul des densités de liens interchamps et leur comparaison avec celle des liens intrachamps. Il s’agit d’apprécier si les liens interchamps sont des phénomènes courants au sein des élites ou au contraire plutôt rares ; ainsi que de révéler quels champs sont les plus connectés entre eux. Le nombre de liens entre les différents champs et à l’intérieur d’un même champ dépend du nombre d’élites qu’il y a dans chaque champ, et donc autrement dit, du nombre de liens possibles. Pour que les comparaisons aient du sens, nous calculons donc la densité des liens interchamps et intrachamps, c’est-à-dire le nombre de liens observés entre deux champs donnés (ou dans un même champ) rapporté au nombre de liens possibles entre ces deux champs en fonction du nombre de nœuds (ou dans un même champ).

Notons 𝑁𝐶 le nombre de nœuds existant dans l’un des quatre champs C = {P :

politique ; B : bureaucratique ; E : économique ; S : Société civile et autres}. 𝐿𝑃𝐶𝐶

est le nombre de liens possibles entre deux champs donnés et se calcule ainsi : 𝐿𝑃𝐶𝐶 = 𝑁𝐶 × 𝑁𝐶

4 Données et méthode

Par exemple, 𝐿𝑃𝑃𝐵 = 𝑁𝑃 × 𝑁𝐵 donne le nombre de liens possibles entre le champ

politique et le champ de la bureaucratie. Si nous notons 𝐿𝐶𝐶 le nombre de liens

observés entre deux champs, la densité de liens entre deux champs 𝐷𝐶𝐶 se calcule

donc de la façon suivante : 𝐷𝐶𝐶 = 𝐿𝐶𝐶

𝐿𝑃𝐶𝐶

Pour obtenir la densité de liens interchamps totale 𝐷𝑖𝑛𝑡𝑒𝑟, il suffit de diviser la

somme des liens observés entre tous les champs par la somme des liens possibles entre tous les champs :

𝐷𝑖𝑛𝑡𝑒𝑟 = Σ𝐿𝐶𝐶

Σ𝐿𝑃𝐶𝐶

Par ailleurs, le nombre possible de liens au sein d’un champ donné se calcule de la façon suivante :

𝐿𝑃𝐶 =𝑁𝐶(𝑁𝐶−1)

2

Par exemple : 𝐿𝑃𝑃 =𝑁𝑃(𝑁𝑃−1)

2 donne le nombre de liens possibles au sein du champ

politique. Si nous notons 𝐿𝐶 le nombre de liens observés au sein d’un champ C, la

densité 𝐷𝐶 de liens au sein d’un champ C se calcule ainsi :

𝐷𝐶 = 𝐿𝐶

𝐿𝑃𝐶

Et pour finir, la densité de liens intrachamps totale 𝐷𝑖𝑛𝑡𝑟𝑎 est obtenue par :

𝐷𝑖𝑛𝑡𝑟𝑎 = Σ𝐿𝐶

Σ𝐿𝑃𝐶

La seconde méthode que nous employons consiste à analyser le degré de « spécialisation » en termes de champs, des communautés du réseau, c’est-à-dire des groupes peu reliés entre eux d’élites très connectés entre elles (Brandes, Gaertler et Wagner, 2003 ; Lancichinetti et Fortunato, 2009 ; Newman, 2004 ; Schaeffer, 2007). Nous devons d’abord identifier les groupes d’élites en question. Il existe de nombreuses méthodes de détection de communautés dans la littérature. Nous utilisons ici celle qui est disponible dans le logiciel d’analyse de réseau que nous utilisons (Gephi ; Bastian et alii, 2009) : la méthode de Louvain (Blondel, Guillaume, Lambiotte et Lefebvre, 2008), basée sur l’optimisation de la

Chapitre 1. L’intégration inégale des élites à Madagascar : analyse de la structure du réseau global

modularité. La modularité d’une partition (division du réseau en groupes de nœuds) « mesure la densité de liens à l’intérieur des communautés, comparée à celle des liens entre les communautés » (Blondel et alii, 2008).

Initialement, l’algorithme attribue à chaque nœud un numéro de communauté différent. Autrement dit, initialement, il est créé autant de communautés qu’il y a de nœuds dans le réseau. L’algorithme procède ensuite en deux étapes itératives. Dans la première étape, chaque nœud est déplacé dans une communauté voisine si la modularité s’en trouve améliorée. On obtient alors des communautés contenant deux nœuds au maximum. Dans la seconde étape, un nouveau réseau est créé, les nœuds correspondant cette fois-ci aux communautés trouvées dans la première étape. Ces étapes sont répétées jusqu’à ce qu’il n’y ait plus d’amélioration possible de la modularité. A la fin du processus, un numéro de communauté est assigné à chaque nœud, ce qui permet d’observer quels nœuds se trouvent dans une même communauté.

Une fois les communautés détectées, nous calculons pour chacune d’elles7, le

pourcentage maximum d’élites appartenant au même champ. Un pourcentage proche de 100 indique une forte spécialisation des communautés et donc une forte fragmentation des élites en termes de champs. A l’inverse, un pourcentage proche de 0 indique que les élites sont connectées entre elles indépendamment des champs auxquelles elles appartiennent. Cette méthode est similaire à celle employée par Moore (1979) : il considère que les cercles sociaux identifiés (groupes de nœuds cohésifs) sont spécialisés dans une sphère si au moins deux tiers de leurs membres sont des élites de cette sphère.

4.2.3 Révéler la structure d’intégration du réseau : la décomposition en k-cores

Pour aller au-delà de l’aspect global du réseau, et en découvrir sa structure, il faut le décomposer afin d’identifier des sous-parties distinctes ainsi que les relations qui existent ou qui n’existent pas entre elles. Une des méthodes

7 Nous ne tenons compte que des communautés contenant au moins 4 nœuds, étant donné que nous considérons 4 champs.

4 Données et méthode

employées à cette fin dans la littérature (Laumann et Pappi, 1973), et décrite en détail plus haut, est la « smallest space analysis », qui consiste à positionner les nœuds de façon optimale dans un espace à deux dimensions pour que la distance visuelle relative entre les nœuds corresponde à leur distance relative dans le réseau (en termes de longueur de chemins). Cette méthode visuelle est commode lorsque le nombre de nœuds présents dans le réseau étudié est restreint (environ 40 dans l’étude de Laumann et Pappi, 1973), mais le graphique obtenu devient vite illisible dans un grand réseau comme le nôtre. L’algorithme utilisé pour la Figure 1.3 fonctionne d’ailleurs selon des principes similaires à la « smallest space analysis », et l’on constate que le graphe obtenu est très difficilement exploitable pour analyser la structure du réseau. De plus, l’analyse se basant sur l’interprétation visuelle du plan à deux dimensions, elle est forcément imprécise et parfois équivoque, même dans un réseau restreint. Le traçage d’une limite entre le centre et la périphérie notamment, est loin d’être toujours évident.

Une autre méthode, également décrite dans la revue de littérature de ce chapitre, est l’agrégation des cliques qui se chevauchent dans le réseau pour former des cercles sociaux hautement cohésifs (Alba et Moore, 1978 ; Higley et Moore, 1981 ; Higley et alii, 1991 ; Moore, 1979). La principale limite de cette méthode est que la structure du réseau qu’elle révèle est directement dépendante d’un choix arbitraire : celui de la proportion nécessaire de chevauchement pour l’agrégation des cliques et des sous-graphes. Alba et Moore (1978) agrègent les cliques, puis les sous-graphes de leur réseau, lorsqu’elles ont au moins deux tiers de leurs membres en commun. Mais ce choix est arbitraire, et un choix différent produirait des cercles sociaux, et notamment un cercle central de taille différente. Un deuxième inconvénient est le temps utilisé par les algorithmes nécessaires pour calculer cette