• Aucun résultat trouvé

Un modèle de diffusion d’innovation avec homophilie : esquisse de résultats

N/A
N/A
Protected

Academic year: 2022

Partager "Un modèle de diffusion d’innovation avec homophilie : esquisse de résultats"

Copied!
45
0
0

Texte intégral

(1)

Un modèle de diffusion d’innovation avec homophilie : esquisse de résultats

Auteur : GeorgeButler

(2)

Table des matières

1 Introduction 3

1.1 Un petit aperçu historique de la modélisation multi-agent . . . 4

1.1.1 L’approche réductionniste contre l’approche holiste . . . 6

2 Un modèle de diffusion d’innovation avec homophilie 8 2.1 Pourquoi un modèle multi-agent . . . 10

2.2 Objectif du modèle . . . 10

2.3 Entités, variables d’état et échelles . . . 11

2.3.1 Les individus . . . 11

2.3.2 Les réseaux . . . 14

2.3.3 L’innovation . . . 15

2.4 Aperçu du processus et ordonnancement . . . 15

2.5 Conceptualisation du design . . . 16

2.5.1 Principes de base . . . 16

2.5.2 Émergence . . . 17

2.5.3 Détection . . . 17

2.5.4 Interaction . . . 17

2.5.5 Objectif des agents . . . 17

2.5.6 Stochasticité . . . 18

2.5.7 Observation . . . 18

2.5.8 Initialisation du modèle . . . 18

2.5.9 Données d’initialisation . . . 19

2.5.10 Nombre de simulations et paramétrisation . . . 19

2.5.11 Conditions d’arrêt des simulations . . . 20

2.6 Sous-modèles ou actions . . . 20

2.6.1 Initialisation et mis à jour des graphiques . . . 21

2.6.2 Calcul du prix . . . 21

2.6.3 Déterminer la probabilité de modification de réseau . . . 22

(3)

2.6.4 Mettre à jour les réseaux . . . 24

2.6.5 Calcul de l’expérience personnelle . . . 25

2.6.6 Calcul de l’information sur l’utilisation efficiente de l’innovation . . 25

2.6.7 Décision d’adoption de l’innovation . . . 26

3 Discussion et résultats 27 3.1 L’effet de la taille du réseau . . . 28

3.2 L’effet du goût pour la similarité . . . 30

3.3 L’effet du paramètre de cohésion de réseau . . . 32

3.4 L’effet de la dynamique des prix . . . 33

4 Conclusion 34 4.1 Extensions du modèle : hétérogénéité et homophilie réaliste . . . 35

(4)

1 Introduction

Le but de ce mini-rapport est de résumer les travaux effectués pendant le cours de Si- mulation Multi-agents avec M.Laperrière en l’applicant sur un modèle de notre choix.

Nous avons choisi d’étudier la diffusion d’une innovation où les individus modifient leurs réseaux selon des notions d’homophilie et hétérophilie sur la possesion de cette dernière.

L’homophilie est considéré comme l’attirance envers des individus semblables à soi ; l’hé- térophilie, comme l’attirance envers les individus différents de soi. Nous concevons un modèle de diffusion d’information inspiré du modèle de diffusion de Leite et Teixiera [1]

et du modèle de ségrégation de Schelling [2] et nous le représentons à l’aide du logiciel Netlogo de simulation multi-agents. Le but de ce dernier est d’observer et expliquer la diffusion d’une innovation en fonction du marché et de l’échange d’information sur cette innovation entre des individus rationnels (dans le sens où ils cherchent à maximiser leurs utilités) connectés par un réseau d’information.

Les résultats trouvés sont similaires mais au même temps très différents de ceux an- noncés par la littérature au moins en ce qui concerne la dynamique des prix et la taille des réseaux. Le processus de diffusion d’une innovation est très souvent représenté par une courbe en "S" entre le temps et le taux agrégé d’adoption de l’innovation. Les résultats corroborent que les chutes de prix plus prononcées sont associées à des taux d’adoption agrégés plus importants et que le processus de diffusion est plus sensible à la dynamique des prix qu’à la taille du réseaux ou qu’au dégrée d’homophilie ou à la cohésion de réseau.

Par contre, cette forme de courbe n’existe plus pour des cas où la dynamique des prix est très lente.

Enfin, pour mieux comprendre l’essor de la simulation multi-agents, nous avons étendu le contenu du cours pour fournir une introduction pragmatique à l’histoire des systèmes complexes et de la simulation multi-agent. De même et pour conclure le mini-rapport, nous avons aussi constitué une liste d’extensions possibles du modèle, peut-être plus

(5)

proches de la réalité, et des nombreux champs d’application où les principes qui y sont observés peuvent être appliqués. Pour finir, nous avons théorisé sur le rajout des notions d’homophilie différentes à celles proposée dans le modèle initiale dans la constitution des réseaux de diffusion et dans l’adoption des innovations.

1.1 Un petit aperçu historique de la modélisation multi-agent

Les origines de la modélisation multi-agents remontent à une centaine d’années lorsque les scientifiques ont commencé à découvrir et à expliquer l’émergence et la complexité des systèmes non-linéaires. Parmi ces systèmes complexes la Main Invisible d’Adam Smith, l’Assemblage de Cellules de Donald Hebb et l’Horlogerie Aveugle dans la théorie de l’évo- lution de Darwin [3] figurent parmi les exemples les plus parlants. Dans chacune de ces théories, des individus simples interagissent les uns avec les autres pour produire un phé- nomène qui semble apparaître de nulle part, un comportement émergent. Dans la théorie d’Adam Smith, ce phénomène est nommé la Main Invisible, qui se produit lorsque chaque individu décide et essaye de maximiser ses propres intérêts ; chez Donald Hubb l’effet in- visible est la mémoire formée par les interaction relativement simples entre les neurones et enfin, l’émergence du phénomène invisible Darwinien est celui selon lequel des orga- nismes complexes et spécialisés résultent des interactions entres des organismes simples et les principes dominant la Sélection Naturelle.

Bien que la créativité de ces théories ont un impact non-négligeable sur la science du XXème siècle, en rétrospective, il se peut qu’elles aient été plus brillante par le contexte scientifique dans lequel elles étaient nées plutôt que par l’impact qu’elles aient pu avoir dans l’univers de la Science. La philosophie scientifique de Newton, toujours dominante à l’heure actuelle, avançait qu’étant donné une connaissance approximative des condi- tions initiales d’un système et d’une compréhension plus ou moins poussée de la Loi de la Nature, l’on pouvait calculer le comportement future d’un système [4]. Essentielle- ment, cette vision de la science était basée sur l’hypothèse que les phénomènes étaient linéaires et qu’il était donc possible de scinder le système en des parties indépendantes.

(6)

Il suffisait alors d’étudier ses composantes et de les comprendre pour expliquer entière- ment les dynamiques d’un système. Or, cette approche, connu par le nom d’approche réductionniste, ne pouvait pas se prouver robuste car la nature des systèmes était loin d’être linéaire et seulement une vision approximative des faits pouvait justifier son utili- sation dans des espaces topologiquement locales (linéarisation des systèmes non-linéaires dans des ouverts). En effet, de déconstruire un système, étudier ses parties de manière in- dépendante et puis de les recoller, ne donnait pas le système tel qu’il avait été réellement.

Malgré la forte théorisation et observation des comportements émergents des systèmes complexes, les scientifiques de l’époque n’avaient pas les outils nécessaire pour com- prendre à terme les systèmes non-linéaires. Par conséquent, ce n’était qu’à partir de l’invention de l’ordinateur que les scientifiques ont pu commencer à construire des mo- dèles informatisés de ces systèmes afin de mieux les comprendre. Dans les avancements théoriques les plus notables qui ont donnée lieu à l’invention de l’ordinateur, les travaux de Gödel avec le théorème d’incomplétude et après, en 1936 avec Alan Turing, la création de Machines de Turing, se sont fait démarquer. L’idée fondamentale de la théorie des Ma- chines de Turing était de démontrer qu’il était possible de construire une machine capable de reproduire n’importe quel processus mathématique. En outre, Turing et Church ont avancé l’Hypothèse Church-Turing selon laquelle toute machine pouvaient dupliquer non seulement des fonctions mathématiques calculables (des problèmes décidables) mais aussi des fonctions décrivant n’importe quel processus naturel [5]. C’est à partir de l’assimila- tion de ces concepts que les scientifiques ont obtenu la fondation théorique nécessaire sur laquelle justifier la construction des machines (à pile, de Turing), et donc des simulations, pour reconstituer des systèmes non-linéaires observés dans la nature.

Éventuellement, ces machines théoriques se sont transformés en les ordinateurs aux- quels nous sommes habitués aujourd’hui. Avec leur introduction, des scientifiques, no- tamment Von Neumann, ont vu dans ces machines “l’espoir de franchir l’impasse crée par l’échec de l’approche analytique pour résoudre les problèmes non-linéaires”. L’utilisa-

(7)

tion heuristique des ordinateurs, selon Ulam et Von Neumann, est venu pour remplacer la coûteuse expérimentation de la méthode scientifique classique par des constructions virtuelles expérimentalement équivalentes [6]. En utilisant les ordinateurs pour remplacer les expériences réelles, l ’approche scientifique de Von Neumann consistait à formuler une hypothèse, construire le modèle associé (et de quoi simuler), comparer les résultats de ce dernier avec le vrai phénomène et ensuite l’ajuster selon l’écart entre le réel et le simulé.

Cette approche est celle utilisée par les modélisateurs à l’heure actuelle et découle d’un gain en flexibilité et en contrôle obtenus directement de la méthode de simulation en comparaison avec la méthode scientifique d’expérimentation classique.

Finalement quand les scientifiques ont appris a synthétiser les systèmes complexes et qu’ils ont découvert des propriétés générales des ces derniers, le domaine du CAS (Com- plex Adaptative System), qui est considéré comme la racine historique des SMA, a émergé. En premier lieu, ces systèmes ont pris de l’essor dans la biologie et étaient consa- crés principalement à répondre à la question de comment des comportements d’adapta- tion complexes dans la nature émergeaient de l’interaction entre des agents isolés. Une des contributions fondamentales au champ du CAS, et donc dans le domaine de SMA, était la “Identification de Holland” des quatre propriétés fondamentales et des trois mé- canismes (marquage, “building blocks”...) de base composant tout CAS. Essentiellement, ce sont ces items qui ont contribué à donner la base théorique nécessaire pour le “desi- gn” et la définition des SMA tels qu’ils sont connus aujourd’hui [7]. Enfin c’est sur les propriétés de diversité, d’agrégation et de non-linéarité que l’approche holiste, de vouloir comprendre un système dans sa globalité, voit le jour et d’où l’intérêt de développer des modèles multi-agents trouve une grande partie de son utilité.

1.1.1 L’approche réductionniste contre l’approche holiste

Le holisme, qui vient du grec “holos” signifiant “entier”, est un principe philosophique selon lequel pour connaître une chose, quelle qu’elle soit, il faut connaître l’ensemble de sont environnement. C’est le tout qui définit les objets qui sont à l’intérieur d’un sys-

(8)

tème et ce sont les relations qu’exercent tous ces objets entre eux qui caractérisent ces objets. Pour tout résumer en une phrase : “Le tout est plus que la somme de ses parties”

(Principe d’Émergence).

Un holiste va s’intéresser aux choses (aux animaux, aux hommes) dans leur ensemble et écartera la possibilité de les diviser en sous partie pour les analyser indépendamment de manière cartésienne. Il partira du postulat qu’aucune hypothèse n’est jamais ni vé- rifiable, ni réfutable singulièrement par l’expérience. Le problème de cette approche est que la démarche cause/conséquence n’est pas appropriée et contredit formellement l’ap- proche scientifique couramment utilisée.

Le réductionnisme ou atomisme logique est l’anti-thèse de l’holisme : un scientifique réductionniste décompose les choses pour étudier chaque élément séparément puis ayant compris le fonctionnement des divers éléments, les assemble pour comprendre le système de base étudié (la sociologie à partir de la psychologie, l’écologie à partir de la biolo- gie, etc). C’est à dire que toutes les parties sont inférieures à la somme de tout, c’est le Principe de Contrainte contrairement à la citation du début s’apparentant au Principe d’Émergence.

L’approche utilisée dans la simulation multi-agents se rapproche bien plus au premier qu’au deuxième. Les phénomènes étudiés sont pris dans l’ensemble et sont un produit des interactions des agents individuels. Ce sont ces comportements émergents que l’on souhaite découvrir que l’on veut étudier mais qui s’avèrent parfois surprenants ou inat- tendus. D’autre part, l’étude des phénomènes dans la simulation permet d’ajuster des paramètres dans l’environnement et dans les comportements des agents, ce qui permet de caractériser les comportements émergents en fonction de ces paramètres. In fine, il est possible de trouver les causes et les conséquences des comportements émergents et de déduire, en faisant de l’inférence statistique, des tendances et des généralités sur les phé- nomènes étudiés et les systèmes crées. C’est tout l’intérêt d’utiliser la simulation comme

(9)

outil d’aide à la décision et de l’observation infinie de l’infinie complexité des phénomènes complexes qui sont voués à être étudier.

2 Un modèle de diffusion d’innovation avec homophilie

Dans le cadre de ce mini-rapport nous nous concentrons sur le modèle de diffusion d’in- novation présentant de l’homophilie [8]. C’est à dire, une diffusion qui force aux individus à vouloir s’associer à ceux ayant acheté l’innovation. Ceci peut être le cas des innova- tions non-marchandes, mais les produits non-marchands n’y échappent pas. Un exemple de ce type de diffusion serait le cas de l’internet, ou même des innovations telles que les smartphones ou le téléphone portable où les individus tisseraient des liens plus facilement avec ceux les possédants. En fait, la possession ce cette innovation rendrait plus facile la communication et l’échange entre les agents et donc la construction ou maintient de leur liens sociaux serait moins coûteuse. Comme nous pouvons penser que l’agent n’est pas qu’un maximisateur d’utilité mais aussi un minimisateur des peines ou des coûts, il est naturel de penser qu’il façonnerai son réseau de manière à faire le moins d’effort possible pour garder les liens qui lui sont importants. L’adoption des innovations de tels types serviraient à renforcer le lien inter-personnelle entre les individus et à les perpetuer par intermédiaire du coût faible qu’il impose sur les relations. Les réseaux sociaux tels que facebook ou myspace dans le début des années 2000 sont aussi des exemples de biens qui presentent ce phénomène même si ils ne sont pas marchands.

Les agents ne sont pas tous des minimisateurs purs de peines. Chaque société, selon comme elle est structurée culturellement et socialement, presente des "aversions" à la modification des réseaux. Nous introduisons dans le modèle un paramètre dit de "co- hésion réseau" qui cherche à prendre en compte que même lorsque les agents sont peu tolérants et ont souvent l’envie de modifier leurs réseaux, ils ne le feront pas avec une probabilité trop importante. Le paramètre cherchera à contrôler le nombre de modifica- tions qui seront faites dans le réseau.

(10)

Les considérations théoriques et la revue de la littérature seront exclues ici et le lecteur est reconduit aux chapitres 1 et 2 de [1] et à l’artcile en sociologie parlant de l’homophilie dans la construction des réseaux [8]. Sinon, une bonne parti des aspects théoriques men- tionnés ci-dessus sont des très fortes suppositions de l’auteur qui n’ont pas forcément été observées dans la vie réel et dont les implications sont, du plus, probables.

La diffusion, étant le mécanisme qui rend les innovations utiles en les faisant connues au sein d’une société, est une notion importante pour comprendre l’évolution des mar- chés. La connaissance de ce processus est clé pour comprendre comment une activité innovante consciencieuse mené par un gouvernement ou par une firme peuvent produire des états sociaux-économiques de bien-être meilleurs que si l’activité innovante n’avait pas été introduite. Le modèle trouve son rôle dans son aptitude à élucider les consé- quences des processus de diffusion d’innovation dans le sens où ils sont liés à des taux de croissance élevés (selon l’innovation) et à des révolutions sociétales [9].

Dans le modèle présenté ici, nous nous intéressons à la diffusion d’une innovation dans une population de N individus, hétérogènes, qui établissent des connexions entre eux et qui modifient leurs réseaux selon une notion de similarité dans la possesion de l’innovation.

Les agents sont différents suivant plusieurs de leurs attributs dont la richesse initiale, la capacité de manager des réseaux, leur tolerance à la différence (par rapport à l’innova- tion) et la capacité d’assimiler d’information. Les agents tirent de l’utilité de la richesse ainsi que de l’adoption de l’innovation, que quant à elle, est liée à l’information qu’ils ob- tiennent de leur voisinage concernant l’utilisation efficiente du produit innovant. Vu que nous supposons que les agents doivent acheter l’innovation, les individus sont soumis à des contraintes de marché, notamment au prix de l’innovation. Enfin, la décision d’un in- dividu d’adopter ou pas l’innovation est issue d’un calcul rationnel où il compare la perte d’utilité liée à l’achat de l’innovation avec le gain d’utilité lié à l’acquisition cette dernière.

(11)

Nous présenterons le modèle en utilisant le protocole ODD de description des modèles multi-agents pour la suite du rapport.

2.1 Pourquoi un modèle multi-agent

Selon une revue de littérature très préliminaire, les travaux empiriques sur les réseaux sociaux ont révélé que les systèmes sociaux ne sont ni homogènes ni totalement connectés [10]. Cette observation a mené à un bascule de sens dans la recherche sur la diffusion qui s’est, par la suite, orienté vers un perspective plus individuelle qu’agrégée. Les modèles multi-agents de marché, qui décrivent les marchés comme une collection d’éléments indi- viduels en interaction entre eux par l’intermédiaire des connections (liens), émerge donc comme un outil fondamental pour surmonter les limitations des modèles agrégés de dif- fusion. Premièrement, en établissant une connexion entre les interactions des individus et des effets agrégés, il permet au modélisateur de construire une relation claire entres les ef- fets de nature individuelle et les mesures agrégés de la performance de la société (bien-être par tête par exemple) ou des firmes. Deuxièmement, il permet de faire évoluer la recherche dans les réseaux sociaux en permettant au modélisateur d’explorer les externalités liées aux effets de réseau (taille, éventuellement forme) et à considérer l’hétérogénéité au sein des individus par l’attribut de leur susceptibilité à l’influence des réseaux, ou en spécifiant des structures de réseaux différentes par individu. Finalement et principalement, dans ce contexte, les méthodes de simulations permettent de comprendre comment un ensemble de facteurs ( taille du réseaux, externalités de connaissance, prix) influencent la diffusion des innovations ceteris paribus, ce qui donne une possibilité d’identifier lesquels parmi ces facteurs sont les plus influents. Enfin, il aide à comprendre comment des préférences individuel de construction de liens et des dynamiques particulières de construction des réseaux peuvent avoir un impact non négligeable sur l’adoption d’une innovation.

2.2 Objectif du modèle

L’objectif du modèle est d’étudier la diffusion d’une innovation au sein d’une économie en se concentrant sur les caractéristiques des agents économiques et leurs interactions.

(12)

Plus précisément, il cherche à expliquer comment les interactions entre les agents et les informations qu’ils partagent peuvent mener à qu’une société à part entière adopte une innovation de nature possiblement très positive pour elle. L’idée centrale du modèle est que lorsque les agents partagent de l’information sur une innovation, celle-ci devient plus attirante et les agents les plus riches l’achètent. L’information partagée dépend des coefficients de renversements c’est-à-dire de la proportion de la quantité d’expérience acquise par les individus qu’ils partagent ainsi que de leurs choix de modifier leurs réseaux, de facto. Plus cette proportion est élevé et plus leurs choix de modifier les réseaux vont dans le sens de réunir les agents qui ont adopté l’innovation avec ceux qui ne l’ont pas adopté, plus l’adoption devient probable. Les prix, à leur tour, baissent ce qui permet aux agents moins riches de se procurer l’innovation. Le résultat final est la possible adoption d’une innovation par toute ou une grande partie des individus d’une société.

2.3 Entités, variables d’état et échelles

Une entité est un objet microscopique qui se comporte comme une unité et qui inter- agissent avec d’autres entités dans et/ou avec l’environnement où elle vie. Son état cou- rant est caractérisé par ses variables d’états ou attributs. Une variable d’état ou attribut est une variable qui aide potentiellement à distinguer les entités entre elles ou qui permet d’observer l’évolution de l’entité dans le temps. Les variables d’état homogènes sont celles qui peuvent potentiellement les distinguer, mais qui sont supposées égales pour tous les individus.

Le modèle prend en compte trois types d’entités : l’individu, le réseau et l’innovation.

Les deux dernières existent par leur influence sur la première.

2.3.1 Les individus

Variables d’état d’hétérogènes au sein des individus

Les variables d’état hétérogènes au sein des individus sont indiquées par un indice i

(13)

et permettent de différencier les individus. Elles sont spécifiées dans la description :

1. Position dans l’espace (xi, yi) : Coordonnées dans un plan bi-dimensionnel.

Ce dernier n’a aucun impact sur ce que l’on souhaite observer vu que la notion d’espace prise en compte ici n’est pas géographique ;

2. Adopteur de l’innovation : Attribut dichotomique qui indique si la personne utilise l’innovation ou pas à l’instantt où elle est observée. Quelqu’un qui utilise l’innovation est muni de la couleur bleu, blanc le cas échéant ;

3. Capacité de gestion (si) : Le nombre maximal d’agents qu’un individu peut manager et qui constitue le nombre d’agents dans son réseau d’information ; 4. Capacité d’assimilation(li) : Nombre entre 0 et 1 correspondant à la proportion

de l’information que l’agent assimile de la somme des informations qu’il reçoit de ses voisins ;

5. La richesse(wit) : La richesse est normalisée à 1 et constitue le revenu disponible de l’agentià l’instant t;

6. Expérience personnelle(Eit) : Cette quantité correspond à l’expérience que les agents ont cumulé et qu’ils cumulent pendant le temps qu’ils utilisent ou ont utilisé l’innovation. Cette expérience est réinitialisée à 0 dès le moment que l’individu abandonne l’innovation et est comprise entre 0 et 1 ;

7. Connaissance sur l’innovation (Kit) : L’information totale ou connaissance sur l’utilisation efficiente de l’innovation détenue par l’individu. Elle constitue l’information réseau qui a rendu l’innovation plus attirante et qui a déclenché l’adoption de l’innovation plus l’information liée à l’apprentissage résultant de l’utilisation du produit innovant ;

8. Date d’adoption(t¯i) : Datetà laquelle l’individuia adopté l’innovation depuis la dernière fois qu’il l’a abandonné (sinon depuis qu’il vie) ;

9. Pourcentage de similarité (psit) : Nombre d’agents du voisinage de l’agent i de la même couleur que lui sur le nombre d’agents dans son voisinage ;

(14)

10. Tolerance individuelle(tli) : Pourcentage des voisins, différents de l’agentide par l’adoption de l’innovation, qu’il tolère. Elle est déterminée de manière semi aléatoire ;

11. Paramètre de renversements ou spillover(γi) : Effet indiquant la proportion (donc entre 0 et 1) de ce que l’agent i apprend, qu’il intègre dans son stock d’expérience et qu’il partage avec les agents qui l’ont dans leurs réseaux. Plusγi

est grand, moinsipartage son expérience sur l’utilisation du produit ;

12. Propension à modifier le réseaux (φi) : Probabilité qu’un agent décide de modifier son réseau en supprimant un de ces liens et en le remplaçant par un autre.

Cette probabilité dépend de la tolérance de l’individu et des caractéristiques des ces amis ;

13. Historique de consommation de l’innovation : Booléenne qui indique si la personne a adopté au moins une fois l’innovation au cours de sa vie. Elle est utile pour le calcul du prix de l’innovation ;

14. Historial de changement ou d’adoption de l’innovation : Attribut indi- quant si un agent a effectivement adopté l’innovation à la périodet. Cette variable est utilisée pour éviter que l’agent adopte et abandonne l’innovation dans le même instant t.

Les variables d’état homogènes (globales) entre individus

1. Paramètre d’homophilie(h) : Paramètre modélisant le goût pour la similitude compris entre 0 et 1. Plus le paramètre est proche d’un, plus l’agent est homophile, c’est-à-dire, plus il préférera de détruire (construire) des liens avec des agents différents (similaires) à lui selon le critère de couleur (blue, blanc) ou, de manière équivalente, selon l’adoption de l’innovation.

2. Multiplicateur de l’utilité de la richesse (¯g) : indique l’importance absolue de la richesse dans la fonction d’utilité de l’agent ;

(15)

3. Multiplicateur de l’utilité lié à l’utilisation de l’innovation(f¯) : indique l’importance absolue des connaissances concernant l’innovation dans la fonction d’utilité de l’agent ;

4. Propension à abandonner l’innovation(δ) : probabilité qu’un individu ayant l’innovation décide de l’abandonner. Il peut toutefois la reprendre.

2.3.2 Les réseaux

Les agents sont connectés entre eux par l’intermédiaire des réseaux d’information. Le réseau d’information d’un agent i est l’ensemble d’agents j qui sont connectés à i. Le graphe associé au réseau de l’individuiest dirigé (relation asymétrique) etine reçoit de l’information que des agents qu’il désigne lui-même. Les réseaux sont caractérisés par leur taille qui paramètrise l’intensité des échanges entre les agents. Ces échanges (interactions) entre les individus influencent leurs décisions d’adoption par intermédiaire de l’échange d’information sur comment utiliser l’innovation. A l’échelle macroscopique, l’union en- sembliste des réseaux individuels constitue le réseau d’information de l’innovation.

La seule variable associée aux réseaux et qui pourrait éventuellement concerner aussi les entités humaines (individus) est c (entre 0 et 1), ou le paramètre de cohésion de ré- seau. En effet, ce paramètre détermine si la différence entre ce qu’est toléré et ce que l’agent a dans son réseau d’amis influence beaucoup ou pas trop son choix de modifier son réseau. Nous attribuons ce paramètre au réseau car les réseaux ont des propriétés de compacité et des effets qui vont au delà d’un voisinage simple. C’est-à-dire que si, par exemple sicest grand, le réseau est supposé forger des liens forts entre des individus au delà d’une distance égale à un et promouvoir une dynamique de modification de réseau plutôt conservatrice. Au contraire, sicest faible, le réseau peut changer de structure plus facilement selon les niveaux de tolérance et d’homophilie.

(16)

2.3.3 L’innovation

L’innovation, en tant que produit marchand, est une entité à part entière. Elle est munie d’un prix (Pt) et d’une quantité demandée à chaque pas de temps (Qt). Le prix de ce dernier est déterminé par une loi de puissance de paramètre a et b (entre 0 et 1) en le nombre d’innovations déjà écoulée dans le marché :

1. Le coefficient linéaire a est utilisé pour normaliser le prix à 1 et représente la variation instantanée du prix en fonction de la spécification de la loi de puissance.

Il est fixé à N1a à ces fins ;

2. Le paramètre de la loi de puissance b entre 0 et 1, détermine la vitesse de dé- croissance du prix par rapport au nombre historique de détenteurs de l’innovation selon la théorie de l’offre d’Arrow : “learning-by-doing”. Plusbest près de 1, moins vite décroît le prix par rapport au nombre d’innovations écoulées dans le marché.

2.4 Aperçu du processus et ordonnancement

Chaque pas de temps du modèle représente une unité temporelle non-définie pourvu du fait qu’elle dépend certainement de la nature de l’innovation. Par contre, nous pour- rions penser du temps en unités de temps telles qu’il y ait de la communication entre les agents et/ou le temps qu’il leur est nécessaire pour éventuellement décider ou pas d’acheter l’innovation. A chaque pas de temps et dans l’ordre, les plots ou graphiques des mesures observées sont initialisés ou mis à jour, le prix de l’innovation est calculé dans le marché, la probabilité que les agents modifient leurs réseaux est déterminée selon leur tolérance (tli) et la constante réseauc, les agents modifient leurs réseaux avec probabilité φi (indépendante des prix), accumulent leurs expériences personnelles d’utilisation de l’innovation, calculent l’information qu’ils disposent depuis leurs réseaux et finalement, utilisent tous les calculs précédents pour décider s’ils adoptent ou non l’innovation. Dans cette dernière étape, les agents décident aussi s’ils abandonnent l’innovation pour une raison ou une autre, avec probabilitéδ. Une fois que tous les agents ont pris une décision sur si abandonner ou adopter l’innovation ou bien de continuer à l’utiliser, la proportion

(17)

des agents ayant l’innovation est calculée. Il est à noter, qu’il n’y a pas d’anachronisme dans ce modèle à part pour le calcul du prix.

2.5 Conceptualisation du design

2.5.1 Principes de base

Les principes de base du modèle, qui permettent de comprendre l’adoption des innova- tions, sont nombreux. Le modèle suit la tradition des modèles évolutifs de changement technologique caractérisés par la prise en compte de l’incertitude, de la rationalité bornée au sein des individus, des rendements croissants dans la production et finalement, des caractéristiques du sentier de convergence et non pas seulement des équilibres. Or, ce mo- dèle améliore ce cadre en introduisant une structure et une dynamique de réseau social composée d’agents hétérogènes qui ne sont pas entièrement connectés et qui présentent des goûts pour la similarité. Entre autre, il introduit dans la modélisation les principes de l’apprentissage par l’utilisation et de l’apprentissage par la création du côté de la demande et de l’offre, respectivement, et les cascades informationnelles qui résultent des effets de réseau.

Parmi les exemples de ces principes ou hypothèses nous trouvons celle des agents ration- nels, des froid calculateurs, qui sont capables de prévoir l’utilité issue de la détention de leurs richesses ainsi que de celle issue de l’appropriation de l’innovation. De plus, ils sont supposés de faire un choix “complet” et univoque sur si acheter ou ne pas acheter l’inno- vation en fonction de ce calcul. Entre autre, l’agent est un maximisateur d’information, il n’accepte pas d’avoir des opportunités d’arbitrage informationnel. Les agents veulent toujours entretenir une relation ou avoir un lien avec un autre agent dès lors que cela est possible. Enfin, l’information échangée ne porte que sur la bonne utilisation de l’objet, les techniques d’efficience et non pas les bugs sont partagées.

(18)

2.5.2 Émergence

La distribution et proportion des agents qui adoptent une innovation dans une popu- lation émerge des interactions informationnelles qui existent entre eux et du processus d’apprentissage et renversement qui caractérise les agents et leurs relations, ainsi qu’à des effets de marché à travers de la dynamique des prix. L’émergence est renforcée par une dynamique de réseau qui pousse aux agents à tisser des liens selon leurs goûts pour la similarité en fonction de si l’innovation est adoptée ou pas.

2.5.3 Détection

Les individus ont de l’information incomplète sur les connaissances qu’ils détiennent de leurs voisins concernant l’innovation. Les voisins ne reversent pas l’intégralité de leurs connaissances. En effet, les individus ne capturent qu’une partie d’une partie de l’ex- périence renversée par les agents dans leurs réseaux. Enfin, il n’y a aucune asymétrie d’information par rapport au prix de marché de ce bien ni par rapport à qui détient l’innovation (e.g les agents savent qui a adopté l’innovation à tout pas de temps , ce que leur permet de construire des liens selon leurs goûts pour la similarité).

2.5.4 Interaction

Un agent iinteragit avec un agent j de deux manières. La première est directe : si iest dans le réseau de j alors, i contribue à la connaissance sur l’innovation de j et donc à que l’agenti adopte le produit innovant. La deuxième est indirecte et par intermédiaire du prix. Un agent, connecté ou pas, qui adopte l’innovation, fait chuter le prix et rend l’innovation plus accessible. Ces deux effets vont dans le sens de l’adoption de l’innovation.

2.5.5 Objectif des agents

L’objectif de tout agent est de maximiser son utilité à l’instant présent (uniquement dépendante de si l’individu adopte l’innovation) sous sa contrainte budgétaire.

(19)

2.5.6 Stochasticité

Les comportements ou états aléatoires ou stochastiques dans le modèle sont nombreux et interviennent dès la construction des réseaux initiaux jusqu’à leurs modifications pé- riodiques. De même, les capacités de gestion de réseaux, les capacités d’assimilation d’information et la richesse des agents, leurs associations entre leurs niveaux de tolérance et l’homophilie ainsi que l’abandon de l’innovation sont tirés suivant des lois de proba- bilités classiques. Ces aléas sont issus de la non-connaissance de ces paramètres. De les choisir de manière aléatoire évince l’étude d’une partie du biais de l’observateur et expie le modélisateur du devoir de tester ou trouver des résultats en fonction de ces paramètres.

L’aléa est étendu par la stochasticité de la décision de l’agent de modifier son réseau.

Même si dans le calcul de cette dernière il y a du déterministe, il reste que le choix final et effectif de modifier le réseau est stochastique.

2.5.7 Observation

Un graphique est utilisé pour observer le taux d’adoption de l’innovation au sein de la population à tout pas de temps. Pour ce dernier, l’abscisse est gouverné par la variable temps et l’ordonnée par le rapport entre le nombre d’agents ayant adopté l’innovation et la population totale.

2.5.8 Initialisation du modèle

Les simulations sont lancées sur une population deN = 1000individus où un de chaque quinze individus (150) adopte l’innovation. Cette propriété d’initialisation ressort de l’hy- pothèse que les firmes qui vendent les innovations sont au courant de l’externalité positive générée par les réseaux sur le nombre d’achats de leurs produits et donnent l’innovation à une proportion fixe d’agents choisis de manière aléatoire. Les agents tissent un nombre aléatoiresi des liens avec des agents choisis de manière aléatoire. La capacité d’assimila- tion, la capacité de gestion de réseaux, la richesse et les voisinages ou réseaux de chaque agent sont tirés, respectivement, des lois de distributions aléatoiresU(0,1),Ud(1, S)oùS est le nombre maximal de liens que n’importe quel agent peut gérer,U(0,1)etB(N1, si),

(20)

où Ud({I}) (U(I)) est une distribution uniforme sur l’ensemble discret (intervalle I) et B(N1, si) est une loi binomial négative de probabilité N1 et condition d’arrêt si. D’autre part, pour chaque individu, on tire d’une N(0.5,0.25)un coefficient h1 de tolérance in- dividuelle qui régit la relation qu’il existe entre le degré d’homophilie ou le goût pour la similarité de l’agent et sa tolérance pour la différence dans son voisinage. Il n’y a, a priori, aucune différence statistiquement significative entre les personnes à qui les firmes ont donné l’innovation gratuitement et les autres qui n’ont pas innové. Le prix de l’inno- vation est initialisé à 1, le prix maximum.

Pour finaliser l’initialisation, le paramètre de tolérance social de base, h0, est fixé à 0.4 (un individu accepte qu’à peu près 25% de ces voisins soient différents de lui s’il est purement homophile) tandis queδ, la probabilité qu’un individu abandonne l’innovation, est fixée à 0.05.

2.5.9 Données d’initialisation

Le modèle n’utilise pas de données externes autres que l’intuition des modélisateurs pour jauger les paramètres.

2.5.10 Nombre de simulations et paramétrisation

50 simulations sont lancées par type d’économie. Chaque économie Es est caractérisée par un 4-uplet de paramètres (car les autres paramètres sont gardés fixes)

Es= (S, b, c, h)∈({5,10,15,20}×{0.25,0.5,0.75,1}×{0.1,0.4,0.7,1}×{0,0.25,0.5,0.75,1})

Nous travaillons alors avec 4×4×5×4×50 = 16000 simulations en totale.

Le choix des valeurs discrètes des paramètres suit d’une étude de sensibilité mené avant le lancement de l’ensemble des simulations sur le taux d’adoption. La taille de l’économie (le nombre d’agents) est fixée à mil car les modèles de diffusion peinent à présenter de la

(21)

diffusion lorsque le nombre d’agents est faible. Les valeurs pour la taille des réseaux sont prises entre 5 et 20 car pour unSinférieur à 5, aucune diffusion n’est observée, et d’autre part, à partir deS supérieur à 20, la taille ne semble plus correspondre à une différence significative dans le taux d’adoption moyen. Les mêmes raisons peuvent être évoqués pour les paramètres de prix, où l’on voit des effets dominants pour0< b <0.25 et pour b = 1. Concernant le degré d’homophilie, le choix est plus ou moins arbitraire, car les expériences ont montré que les différences au niveau de l’adoption et le chiffre d’affaires sont très variables. Finalement, pour le paramètre c de réseau, le choix est arbitraire et s’installe dans une démarche expérimentale qui prend soin de ne pas multiplier sans raison le nombre d’économies différentes à observer.

2.5.11 Conditions d’arrêt des simulations

Les simulations s’arrêtent lorsque tous les agents ont décidé d’abandonner ou de ne pas adopter l’innovation. Au cas échéant elles s’arrêtent au quarantième pas de temps. Les effets sont supposés visibles avantt= 40et de considérer des pas de temps plus élevés ne fournit pas forcément de l’information supplémentaire par rapport au temps d’éxecution nécessaire pour faire tourner toutes les simulations à des temporalités plus élevées.

2.6 Sous-modèles ou actions

Les paramètres d’intérêt du modèle qui peuvent être manipulés par le modélisateur sont listés dans la table suivante :

Table 1 – Paramètres modifiables du modèle

Paramètres Description

S Nombre maximal d’agents qu’un agent peut gérer dans son réseau

h Goût pour la similarité ou homophilie

b Paramètre de la dynamique des prix

c Paramètre de cohésion de réseau

(22)

A chaque point de temps, le modèle tourne autour des sept processus introduits lors de l’aperçu et ordonnancement du modèle. Le code est donné ci-dessous :

to go

do-plotting ; ; visualisation des mésures d’intérêt tick ; ; ; avancer d’un pas de temps

compute-price ;

compute-network-proba update-network ;

compute-personal ; compute-information ; decide-adoption ; end

Nous explicitons toutes les étapes dans les sous-sections qui suivent.

2.6.1 Initialisation et mis à jour des graphiques

La première étape sert tout simplement à calculer et puis à visualiser l’évolution du taux d’adoption τ de l’innovation dans le temps. Le taux n’est autre que le nombre d’agents ayant innovéNI sur le nombre total d’agentsN,τ = NNI.

2.6.2 Calcul du prix

Après l’initialisation, le prix est supposé suivre un loi de puissance en le nombre d’inno- vations produites dans le marché dans toutes les périodes avant la période dans laquelle il est calculé. Remarquons que dans l’écriture du modèle, le compteur de temps se trouve avant le début de toutes les actions ce qui permet de prendre en compte les anachronismes liés au calcul du prix. En effet, cela permet de calculer le prix à l’instant t en fonction des quantités demandées du produit innovant en t−1. La dynamique est donnée par l’équation ci-dessous exprimant l’idée que plus la firme "s’entraîne" à produire un bien

(23)

(e.g produit plus de ce bien), plus faible devient le coût de production de ce bien. Le prix de marché de ce bien chute en conséquence.

Pt(Q1, . . . , Qt−1) = 1−a( X

k≤t−1

Qk)b (1)

où le paramètre b régit la dynamique des prix et est laissé au modélisateur et a= N1b. La sortie de cette fonction donne le prix de l’innovation, attribut qui jouera un rôle important dans le choix d’adoption des agents.

2.6.3 Déterminer la probabilité de modification de réseau

La probabilité φi de modification de réseau dépend de la différence entre la tolérance de l’agent et le nombre de voisins différents à il ou elle (par rapport à l’innovation). La tolérance est déterminée selon trois paramètres :h1, qui spécifie l’intensité du lien entre la tolérance et le goût pour la similarité de l’agent,h0 qui est une constante supposée liée au milieu sociétal et l’homophilie supposée être un proxy de la tolérance. Par la suite, nous définissons la tolérance d’un agenticomme suit :

tli= h1(1−h) +h0

h1+h0 . (2)

avec h1 suivant une loi normale, et h0 et h fixés par le modélisateur. Remarquons que cette une quantité appartenant a 0 et 1 qui peut être comparé avec un pourcentage.

Nous interprétons ce niveau de tolérance comme le niveau exacte de diversification que l’agent est prêt à accepter dans son voisinage et, compte tenu de la nature stochastique des modifications réseau, qu’il est prêt à ne pas changer par souci de dépasser ce seuil1. Quant à φi, sa dynamique doit être définie comme fonction de la tolérance et du pour- centage de similarité, φi = f(tli, psit) où f est une fonction à spécifier. Par simplicité, nous supposons que f est une fonction polynomiale simple qui ne fait que comparer le

1. Cette interprétation est très très forte et très erronée. La chose la plus naturelle à faire aurait été de considére une fonctionφi qui croit et qui vaut 1 pour tout niveau depsidépassant le niveau de tolérance.

(24)

niveau de tolérance de l’agent et le pourcentage de similarité obtenue de son voisinage. La probabilité qu’un agent change ou modifie son réseau est d’autant plus grande que la dif- férence entre sa tolérance et le pourcentage d’agents différents à lui l’est,((1−psit)−tli).

Or, cette spécification seule ne reflète pas ce que l’on souhaite modéliser car d’une part, elle peut-être négative et d’autre part, elle suppose une relation linéaire entre la tolérance et/ou le pourcentage de similarité, tout en ignorant la cohésion du réseau. La cohésion, dans le modèle notéec, du réseau peut être considérée comme une force macroscopique qui constitue un frein à la modification générale du réseau et au changement de sa forme (des sociétés de castes par exemple). Pour prendre en compte de cela, nous prenons le carré de cette différence et nous l’élevons à la puissance c pour ainsi tenir compte de la cohésion du réseau et de la définition d’une mesure. Enfin, nous définissons pour tout agent ila probabilité qu’il modifie son réseau comme suit :

φi = ((1−psit−tli)2))c (3)

où psit ettli sont le pourcentage de similarité et la tolérance de i, respectivement, et c le paramètre de cohésion réseau.

Nous voyons que la spécification est bonne, φi est bien une probabilité (décrivant une distribution inconnue) car psit et tli sont inférieures à 1 et elle est symétrique2. Plus c est grand, plus le réseau global est cohésif et plus faible sera la puissance de ladite différence pour tout niveau de tolérance et de similarité. Lorsquec est petit, par contre, la cohésion est considérée faible, la puissance de la différence concernée sera grande étant donné n’importe quel couple tolérance / similarité. La probabilité de modifier le réseau pour un agent i dépend alors de son goût pour la similarité (à travers de la tolérance), de la cohésion du réseau et de son voisinage. Elle change donc à travers du temps selon si :

2. C’est une hypothèse très forte car il n’est pas dit que la probabilité de modifier le réseau d’une personne très tolérante avec un pourcentage de similarité très fort soit le même que celui d’une personne très intolérante avec un pourcentage de similarité très faible.

(25)

— Les agents dans le voisinage Ni adoptent ou abandonnent l’innovation ;

— L’individu iabandonne ou prend l’innovation.

2.6.4 Mettre à jour les réseaux

Avec probabilitéφ(calculée précédemment), chaque agent, indépendamment des autres, de modifier son réseau. Si le pourcentage de dissimilarité (1−psit) est supérieur à la tolerancetli pour l’agenti, alors l’agent modifie son réseau mais ne tient pas compte de sont goût pour la similarité. En quelque sorte, la personne modifie son réseau en consi- dérant que tant que sa tolérance ne soit pas dépassée, les liens sont construits selon des critères autres que l’utilisation de l’innovation. Elle détruit donc un lien avec un de ces voisins choisi de manière aléatoire et tisse un lien avec un agent autre que celui-là avec équiprobabilité sur l’espace des individus n’appartenant pas à son voisinage.

Si le pourcentage de dissimilarité dépasse la tolérance, alors l’agent applique son goût pour la similarité dans la construction et destruction des liens (sachant qu’il n’est jamais sûr de tisser un lien avec un agent de la couleur qu’il souhaite). L’agent décide de détruire un de ses liens de même couleur que lui avec probabilitépr(X > h)oùX suit une loi uni- forme sur l’intervalle [0,1], et de construire un nouveau avec un individu n’appartenant pas à son réseau et de la même couleur que lui avec probabilité pr(X ≤ h). L’individu détruit un lien avec un de ces voisins, choisi de manière aléatoire avec équiprobabilité, de la couleur obtenue du tirage précédent et tisse un lien avec un agent pris au hasard parmi les individus de la couleur3 tirée. Le lien à détruire est choisi de manière aléatoire d’exactement la même manière qu’avec la construction de lien, sauf qu’en ne considérant que les individus dans le voisinage dei. Toutefois, ce aléa dépend du degré d’homophilie.

Une fois l’individu ait choisi de modifier son réseau, plus le degré d’homophilie est élevé, plus élevé est la probabilité que l’agent détruise un lien avec quelqu’un de la couleur opposée à la sienne et construise un lien envers un individu de la même couleur que lui.

3. Par exemple, la probabilité qu’un agentjde la même couleur que l’agentisoit choisi est égale à pr(Xh)× Nci1−Nic

(Nci1−Nc i

)Nci−Nic, oùNci est l’ensemble d’agents de la même couleur queietNic est l’ensemble d’agents de la même couleur queidans son voisinage.

(26)

2.6.5 Calcul de l’expérience personnelle

L’expérience personnelle sert uniquement à être transférée et à crédibiliser l’adoption de l’innovation. Par conséquent elle n’est pas importante pour l’individu, elle est importante pour les agents qui sont connectés à lui et qui profitent de cette expérience4. L’expérience personnelle, comme le bon sens indique, croît avec le temps d’utilisation de l’innovation et n’est non-nulle que pour les agents qui ont adopté l’innovation. L’équation de l’expérience personnelle ci-dessous décrit cette dynamique :

Eit= 1−γi 1

t−t¯i (4)

iest le coefficient de renversements d’expérience tiré d’une loi uniforme ett¯iest la date d’acquisition de l’innovation. Il est à remarquer que lorsque t croît, l’expérience croît, mais de moins en moins vite. De même, cette équation fait ressortir l’idée que les autres agents, s’ils le souhaitent, peuvent décider de mimer les connaissances de ceux qui ont déjà adopté l’innovation. Par simplicité, il est supposé que les renversements générés par un agentisont potentiellement égaux aux expériences qu’il cumule en utilisant l’innovation.

En outre, la connaissance issue uniquement de l’observation d’autrui n’est pas suffisante pour qu’elle soit considérée comme une expérience effective5, ce qu’implique que même si un agent a acquis beaucoup d’éxpérience en utilisant l’innovation et qu’il ne l’utilise plus, il ne contribue plus aux sources d’information.

2.6.6 Calcul de l’information sur l’utilisation efficiente de l’innovation L’information totale disponible dans le réseau d’un agent i,Ai, est la somme de tous les renversements générés par chaqu’un de ces voisins,Ai =P

j∈NiEjt, oùNiest l’ensemble de voisins deietEjt le renversement généré par l’individuj.

Le calcul précédent utilise le calcul des expériences personnelles présenté auparavant et

4. Ils profitent de l’expérience en considérant la possibilité de la mimer une fois qu’ils ont acquis l’innovation.

5. Une expérience effective est une expérience qui peut être utilisée comme référence et qui génère du renversement.

(27)

le fait que les agents sont connectés entre eux. C’est ce calcul qui met en évidence l’inter- action entre les agents. Dans ce sous-modèle tous les agents calculent leurs connaissances sur l’innovation qu’elle soit afin de considérer de l’adopter ou de tout simplement influen- cer les autres pour qu’ils se la procurent. Pour un adopteur, le calcul de la connaissance consiste tout simplement à ajouter l’expérience personnelle obtenue de l’action précédente à la somme de toute l’expérience personnelle calculée et qu’il a cumulé dans le passé. À partir de la date qu’il intègre l’innovation dans sa vie quotidienne, il devient insoucieux de toute l’information qu’il reçoit de son réseau concernant l’innovation. Néanmoins, il garde l’information réseau de l’instant où il a innové, cette dernière étant considerée comme sa connaissance de base.

Pour les non-adopteurs, l’expérience personnelle étant nulle, consiste à sommer l’expé- rience personnelle renversée de tous ces voisins et à appliquer le coefficient d’assimilation d’information,li, à cette somme.

Pour tout agent i, l’équation du stock de connaissance est :

Kit=Eit+li

X

j∈Ni

Ejt¯i (5)

où Ni est l’ensemble des voisins dei,Ejt les renversements de l’individu j,t¯i la date où ia adopté l’innovation (si il l’a fait), etli la capacité d’assimilation de connaissances de l’individu i.

2.6.7 Décision d’adoption de l’innovation

Ce sous-modèle est le plus important du modèle. C’est à ce point où les agents décident s’ils adoptent l’innovation, ou bien s’ils l’abandonnent pour une raison ou une autre. Les agents dérivent un flux d’utilité deUit1 = ¯gwitde la détention de la richesse (possiblement pour se procurer d’autres biens) ainsi que d’un flux d’utilité lié à l’acquisition de l’inno- vation relativement à la connaissance que l’agent détient sur l’efficience de l’utilisation de cette dernière,Uit2 = ¯f Kit−¯gPt.g¯etf¯et sont fixés à 1, ce qu’impose une substituabilité

(28)

parfaite entre les unités de richesse et les unités de connaissance sur l’utilisation efficiente de l’innovation. Le flux d’utilité à chaque pas de temps d’un agent iest donc la somme de ces deux utilités, à savoirUit=Uit1+Uit2 qui s’écrit

Uit(wi, si, li, Xi, Pt) = (wi−XiPt) +Xi(li

X

j∈Ni

Ejt) (6)

oùPtest le prix de l’innovation au tempstetXi est une indicatrice valant 1 si l’individu décide d’adopter l’innovation et 0 sinon.

Ce même agent i maximise son utilité temps par temps et adopte l’innovation si et seulement si la condition

Uit(wi, si, li, Xi= 1, Pt)> Uit(wi, si, li, Xi = 0, Pt) =wi

est vérifiée. Les agents comparent l’utilité perçue par l’innovation avec l’utilité perçue par la perte d’utilité liée au montant de richesse qu’il faut pour se la procurer. Si un agent n’adopte pas l’innovation, toute l’information reçue de son réseaux passe à la trappe, et sa connaissance sur l’efficience de l’innovation passe à 0. Il est à noter que le calcul de l’utilité ne sert qu’à déterminer si l’innovation sera adoptée ou pas. C’est à dire que le flux d’utilité dans le temps est sans incidence pour les agents en dehors de ladite décision.

Enfin, les individus ont une probabilité δ d’abandonner l’innovation sachant qu’ils ne viennent pas immédiatement de l’adopter. Leurs expériences ne sont donc pas effectives, ils perdent la possibilité de renverser de l’information à autrui.

3 Discussion et résultats

Les résultats du modèle sont du moins intéressants car ils corroborent la littérature sur la diffusion des innovations marchandes. Pour voir cela nous avons calculé la moyenne des adoptions selon tous les paramètres, les premiers et neuvièmes déciles pour chaque paramètre (en fixant tous les autres) et les écarts type des courbes d’adoption.

(29)

3.1 L’effet de la taille du réseau

Le taux d’adoption moyen à la fin de la simulation est corrélé positivement avec la valeur du paramètre S, comme observé dans les table 2 et 3 dans les annexes. Comme des va- leurs plus élevés de S impliquent des tailles de réseaux plus grandes, ce résultat montre que plus les économies sont interconnectées, plus élevés sont les taux adoption. De même, nous observons que les écarts types décroissent avec la taille du réseau ce que fait pen- ser que plus le réseaux est grand, tout égale par ailleurs, plus il explique le niveau du taux d’adoption. Néanmoins, l’effet est d’autant plus faible lorsque l’on passe des tailles plus grande á des tailles encore plus grandes. C’est à dire que l’effet de passer de S=5 à S=10 est plus fort (9%) que l’effet de passer de S=10 à S=15 (3%), tout égal par ailleurs.

Pour des tailles de réseaux plus élevés, le taux d’adoption maximum d’innovation est atteint plus rapidement que pour des tailles de réseaux plus faibles6. Ce n’est pas une surprise car des réseaux plus grands contiennent des voisinages plus grands et donc le potentiel de recevoir de l’information favorable à l’adoption de l’innovation l’est aussi.

En moyenne, les non-adopteurs ont accès à une source d’information plus diverse et plus grande, et il est plus facile pour eux de collecter de l’information dont ils ont besoin pour hausser le niveau d’utilité associé à l’innovation. Alors, puisqu’un niveau d’utilité plus élevé associé à l’innovation la rend plus intéressante, le taux marginal de substitution entre la richesse détenue et l’innovation diminue pour des prix de l’innovation plus éle- vés. La décision d’adopter est donc plus probable dans des configurations où les réseaux sont plus grands. Il reste à remarquer tout de même que les taux d’adoption moyen au bout du quarantième pas ne dépassent pas les 70%.

Un autre effet de la taille des réseaux est lié à la coordination entre les adopteurs et les non-adopteurs. Des réseaux plus grands facilitent le partage d’information entre les agents avec l’innovation et les agents qui ne l’ont pas, si le niveau d’homophilie est suffi-

6. Ceci se voit dans la figure 1. Pour toutt6= 0, la courbe d’adoption moyenne est plus élevée pour unS plus élevé.

(30)

samment faible. Du fait qu’à chaque pas de temps les adopteurs abandonnent l’innovation avec probabilité δ, les non-adopteurs doivent les contacter pendant qu’ils sont toujours actifs pour profiter de leurs connaissances. Lorsque les tailles des réseaux sont faibles, la probabilité que n’importe quel non-adopteur se déconnecte des agents actifs est plus élevé à chaque fois qu’il modifie son réseau, surtout si le degré d’homophilie est elevé.

Comme les individus actifs7 peuvent finir par être remplacés par des agents inactifs, les petits réseaux peinent à promouvoir des sources d’information suffisamment larges pour que l’innovation se diffuse. De plus, si le niveau de homophilie est élevé, le réseau global devrait tendre vers des grandes composantes avec des agents qui ne partagent pas de l’information sur l’innovation (soit ils sont tous bleus , soit tous blancs). Au contraire, si le niveau d’homophilie est faible, la structure de réseau devrait tendre vers des réseaux bipartites qui finiront par tendre vers une adoption quasi unanime de l’innovation. Enfin, la combinaison de la coordination et l’opposé de l’histoire des petits réseaux expliquée précédemment contribue à la chute rapide des prix et donc à une adoption plus rapide de l’innovation.

En observant les courbes de diffusion moyennes de la figure 1, nous voyons que cela ne suffit pas pour révéler tout l’effet de la taille des réseaux. En regardant les percentiles et les écarts types, il est claire que la variabilité des réponses simulées est liée à la valeur du paramètre S. Il y a une relation monotone croissante entre la variabilité du taux d’adoption et la taille des réseaux lorsqueh= 0.5,b= 0.5, etc= 0.4.

Étant donnée des valeurs de référence des paramètres (h = 0.5, c = 0.4 et b = 0.5), les petits réseaux ne permettent pas que l’innovation se diffuse totalement et, toutes les économies à petits réseaux convergent vers des taux d’adoption faibles ne dépassant pas les 60% en moyenne. En effet, les individus initialement munis de l’innovation cessent tout simplement de l’utiliser et presque aucun agent innove car le prix reste élevé et l’information disponible insuffisante. Lorsque S augmente, l’effet de la taille prend une

7. Agent qui utilise l’innovation. équivalent "adopteur".

(31)

importance majeure et quelques économies convergent vers des taux d’adoption proches des 90%. En corroboration avec le précédent, les observations du neuvième et premier déciles et le taux d’adoption moyen, se rapprochent toutes vers la courbe du taux moyen dans le plan temps/adoption moyen lorsque S est grand.

3.2 L’effet du goût pour la similarité

Les résultat de l’analyse statistique des simulation permet de dire que le goût pour la similarité joue un rôle non-négligeable mais faible sur le processus de diffusion. La table 2 des annexes montre que lorsque les agents montrent un goût plus profond pour la similarité, le taux d’adoption est plus faible, en moyenne, mais la différence n’est pas significative à cause des écarts-types bien trop élevés. À partir de la neutralité du goût (h= 0.5), plus l’homophilie est élevée (faible), plus faible (fort) est le taux moyen d’adop- tion à la fin de la simulation, avec un effet maximal de 5%. Cet effet peut être attribué à la forme, en moyenne, du réseau une fois que la simulation est finie. Si l’homophilie est forte, et que la diffusion peine à cause des renversements faibles ou d’un état initial pas favorable, alors la structure du réseau pourrait être approchée par une union quasi disjointe de deux grandes composantes homogènes. C’est-à-dire que l’on se retrouverait avec des réseau où les agents ayant adopté l’innovation sont très connectés entre eux et très peu connectés avec ceux que ne l’ont pas adopté, et réciproquement. Alors, si la diffusion de l’innovation se fait trop lentement, comme par exemple dans le cas des tailles de réseaux faibles, les individus finissent par construire des voisinages homogènes et nuire à la diffusion de l’innovation.

Dans le cas contraire, si le niveau d’homophilie est très faible, les agents qui n’ont pas adopté l’innovation auront tendance à chercher à se connecter avec des agents ayant l’in- novation, et réciproquement. Si c’est le cas, et que cela se fait rapidement par rapport à la probabilité que les individus abandonnent l’innovation, la diffusion sera plus rapide car les agents piochent de l’information, qu’ils somment par la suite, d’une plus grande plage de ressources que si ça n’avait pas été le cas. Les individus seront plus désireux de

(32)

créer des relations avec des gens expérimentés avec l’innovation ce que se traduira par une diffusion plus rapide de l’innovation.

Entre autre, cette diffusion se traduit aussi par une très forte oscillation des opinions. Si un agent est bleu et homophile et son réseau contient très peu d’agents blancs, mais qu’à un pas de temps tprécis il change à la couleur blanc, alors la probabilité qu’il change à bleu dans le temps t+ 1 est très élevé car il a déjà constitué un réseau avec beaucoup d’agents bleus. Ce phénomène prend en compte les effets de pairs observés dans la litté- rature des réseaux et explique pourquoi les économies, où les agents sont homophiles et où un peu de diffusion se produit vite, tendent à pousser davantage à la diffusion. Somme toute, l’effet de cette dynamique peut être expliqué très simplement en remarquant que la diffusion n’a qu’une chance de se produire : si et seulement si l’expérience des adopteurs sur l’utilisation de l’innovation est partagée avant qu’ils l’abandonnent ou avant que les agents homophiles qui n’ont pas adopté l’innovation détruisent les liens avec eux.

La table 6 montre que le paramètre d’homophilie a un effet maximal lorsqueb= 0.75et lorsqu’il passe d’un degré, même faible, d’hétérophilie à l’homophilie totale. Idem pour S = 5. Puisque la dynamique de prix ne domine pas l’économie, l’homophilie prend le dessus et détermine l’échange d’information et donc l’adoption de l’innovation.

Pour finaliser, les résultats montrent que le niveau d’équilibre du taux d’adoption moyen àt= 40arrive plus tard dans le temps lorsque le degré d’homophilie est élevé ; les courbes du premier et neuvième décile de la figure 2 de l’annexe suggèrent cela. La question à se poser alors réside dans le pourquoi des degrés d’homophilie élevés retardent l’arrivée dans l’équilibre. En fait, l’homophilie fait que les agents soient d’une part moins tolé- rants, et donc plus enclins à modifier leurs réseaux, et d’autre part beaucoup plus enclins à les homogénéiser. Tenant compte que juste 150 agents adoptent l’innovation, les ré- seaux qui se modifient et qui s’homogénéisent font que l’information sur l’innovation se transmette beaucoup moins vite entre des agents de couleurs opposés. Il est clair, pour

(33)

achevé cette section, que le degré d’homophilie ne peut, d’aucune manière inverser des tendances lorsque les effets de prix ou les effets de taille de réseau sont dominants.

3.3 L’effet du paramètre de cohésion de réseau

La paramètre de cohésion social donne des résultats assez étranges malgré une certaine régularité dans le sens de la variabilité. Plus le réseau est compact, moins élevé est le taux d’adoption moyen et plus élevé est l’écart type, même si les différences sont très faibles et bornées par 1% et les écarts types sont gonflés (table 2). cprend un effet conséquent que lorsque b = 0.75 et c ≤0.7. C’est à dire que nous voyons des impacts conséquents de la cohésion du réseau que lorsque ni les effets de prix ni les effets de réseau dominent l’économie (table 5, 7, 8), à savoir lorsque S = 5, b = 0.75 et h = 1 pour ce cas. De même, les écarts types varient très peu en fonction dec ce que pourrait indiquer que le paramètre a peu d’influence sur le taux d’adoption final. Ces résultats indiquent que soit la variable n’a pas énormément d’influence sur le taux d’adoption ou que la simulation s’est fini trop rapidement pour prendre bien en compte son effet.

Pour expliquer l’influence de la cohésion de réseau lorsque b = 0.75 aller dans les dé- tails des sous-modèles est nécessaire. Une telle valeur debdonne la possibilité aux agents d’innover, mais lentement, en agissant sur la valeur relative (en unités d’utilité) de l’in- novation. Cela donne le temps au réseau de se constituer en prenant bien en compte des probabilités de modification de réseau qui son influencées par c. Dans ce cas, lorsque c est inferieur à 0.5, les fonctionsφi, la probabilité de modifier le réseau, sont concaves en le pourcentage d’agents similaires dans les réseaux. C’est lorsque l’on s’éloigne de cette concavité quec a un effet plus important car les probabilités deviennent de plus en plus petites mais de plus en plus lentement. En effet, lorsquec est grand,φi tend vers 0, vers des réseaux qui changent très peu. Pour c = 1 nous remarquons que le premier décile s’éloigne (par le bas) de la moyenne d’adoption lorsque le temps avance.

(34)

3.4 L’effet de la dynamique des prix

Le résultat des simulations montrent que la résultante du processus de diffusion est extrê- mement sensible à la variation des prix. Pour des petites valeurs deb, le taux d’adoption s’approche à 95% avec une variabilité très faible. L’explication est relativement simple, quand les prix décroissent vite, la perte d’utilité associée à l’achat de l’innovation fait de même. Pour des agents avec un niveau de revenu suffisant, cela rend l’innovation plus attirante plus rapidement et le nombre d’adopteurs augmente plus vivement par la suite.

Les sources de connaissance sur l’utilisation efficiente de l’innovation augmentent, ce qui rend l’innovation potentiellement plus attirante pour les non-adopteurs ainsi donnant lieu à un taux d’adoption plus élevé. Il est important de noter que lorsque b= 0.25, les courbes du premier et neuvième décile sont très proches de la courbe d’adoption moyen qui, quant à elle, est proche du 95%. Dans le même esprit, mais dans un sens opposé, pourb≥0.75, ces courbes tendent vers 0 et peuvent être confondues à l’œil nu.

Les résultats ci-dessus suggèrent que la dynamique des prix a une forte influence dans le processus de diffusion de l’innovation. Lorsque le paramètre b est faible (≤0.25), les effets de la chute de prix dominent complètement le processus et ni les effets de taille de réseaux ni les effets d’homophilie ni de cohésion de réseau ont une influence significative (en moyenne de plus de 2%) sur le taux d’adoption final. Cette même absence d’effet de l’homophilie, de la cohésion réseau et de la taille des réseaux peut être observée pour des valeurs élevées de b (entre 0.75 et 1). Pour des valeurs intermédiaires de b par contre, nous observons une différence maximum (àb= 0.75) dans la mesure observée de36%en passant deh = 1à h= 0, de 62.33% en passant deS = 5à S = 20et de 22% en allant de c= 0.1 àc= 1.

Enfin, la variabilité de la moyenne estimée du taux d’adoption à travers des simulations est stable pour des valeurs non-intermédiaires de b. Or, pour 0.25 < b < 0.75, cette variabilité est d’autant plus forte lorsqueS est petit en partant de S = 10 et lorsque h etc sont grands. Ces différences sont clairement plus marquées pour le paramètre de la taille de réseau que pour les autres paramètres comme observé précédemment.

Références

Documents relatifs

Les gagnants se verront remettre un trophée par le Président de la Polynésie française ou son représentant et une valorisation de l’innovation dans les médias. Article

Les moyens consacrés à la vie étudiante sont en hausse de 134 M € par rapport à 2020, dont plus de 80 M € seront consacrés aux bourses sur critères sociaux (avec en

Suite à la concertation de l’ensemble des acteurs lors d’une réunion technique le 8 juin dernier et à la consultation du conseil départemental de l’eau, ce lundi 15 juin,

[r]

En fait, la recherche et le savoir­faire sont devenus plus complexes au point que certains cliniciens en sont arrivés à croire qu’ils n’ont pas la formation ou les connaissances

« communicationnel de l'innovation ». Cependant, cette approche intègre des objectifs marketing. Le rôle des usagers est.. Internet change le contexte. C'est

Autrement dit, notre souci, par le biais de ces deux textes donc deux discours de deux écrivains, tous deux natifs d’Oran ; tous deux ressentant une appartenance à ce

La municipalité de Saugeen Shores, en Ontario reçoit le Prix Willis de l’innovation 2019 de l’ACAM (catégorie moins de 20 000 habitants) pour son balado Shore Report.. Le