• Aucun résultat trouvé

Chapitre 5 : Entreprises de légitimation de la recherche en IA

5.1 La Déclaration de Montréal et le complexe montréalais de l’IA éthique

L'écosystème d'IA montréalais se positionne aujourd'hui comme l'un des pôles centraux du développement d'une IA concernée par les enjeux d'éthique et de responsabilité sociale. Personnalité clé de cette communauté, Yoshua Bengio est reconnu à l'international à la fois pour ses contributions à l'avancement de l'apprentissage profond et pour son engagement particulier envers cette IA éthique (Bilefsky 2019; Castelvecchi 2019; Desmond 2018; François 2019; Hirsh 2018). De fait, la centralité organisationnelle singulière du chercheur vis-à-vis du reste de l'écosystème (voir supra, section 3.1) a fait en sorte d'assurer la diffusion de cet engagement distinct au sein du reste de la communauté universitaire montréalaise de l'IA (Serebrin 2019), de sorte que l'on est aujourd'hui en mesure de parler d'une véritable programmatique montréalaise de l'IA qui s'articule, du moins en partie, autour de cette prise en compte des enjeux éthiques de ce champ de recherche. La section présente examine la Déclaration de Montréal pour un développement responsable de l'intelligence artificielle et son corollaire, l'Observatoire international sur les impacts sociétaux de l'IA et du numérique. Ces deux initiatives sont envisagées comme constitutives d'un « complexe de l'IA éthique » au travers duquel un segment de la communauté universitaire montréalaise est parvenue à mobiliser une partie de la société civile et de l'appareil gouvernemental québécois. Cette mobilisation se conçoit comme un travail d'enrôlement de la parole citoyenne, un travail visant en dernière instance à renforcer la légitimité des acteurs à

l'origine de ce complexe de l'IA éthique au sein des débats entourant le rôle et les conditions de production des technologies d'IA.

En novembre 2017 se tient le Forum sur le développement socialement responsable de l'intelligence artificielle, événement organisé par un regroupement d'acteurs universitaires provenant pour l'essentiel de l'Université de Montréal (CRE 2017). La rencontre s'inscrit dans la continuité de plusieurs développements d'importance dans l'écosystème d'IA montréalais, avec la subvention Apogée de 93,6 millions de dollars CAD accordée à IVADO en septembre 2016, le dévoilement de la Stratégie pancanadienne en matière d'IA en mars 2017, et les arrivées successives de Google Brain, Microsoft Research, FAIR et DeepMind dans la métropole québécoise (voir supra, section 3.1). Le Forum est envisagé comme le point de départ d'une campagne de consultation publique devant déboucher sur la Déclaration de Montréal pour un développement responsable de l'intelligence artificielle, document qui vise à articuler les paramètres d'un développement de l'IA devant permettre un progrès à la fois économique et social. Une déclaration préliminaire de principes éthiques généraux, élaborée lors du Forum, sert de document de référence en vue de la campagne de consultation. Pendant un peu plus de trois mois, ce sont quelque 500 participants de la société civile, experts et autres parties prenantes qui vont ainsi participer à une quinzaine d'ateliers de délibération (Déclaration de Montréal 2018). Les séances de consultation, tenues par exemple dans les bibliothèques ou des espaces publics de ce type, sont l'occasion pour les citoyens inscrits d'assister à une première séance d'information, après quoi les membres de l'équipe organisatrice animent le processus de co-construction où les citoyens peuvent discuter et éventuellement réinterpréter les principes initialement suggérés. Les contributions du public sont par après intégrées aux travaux de réflexion de l'équipe de la Déclaration, qui est finalement rendue publique en décembre 2018, désormais articulée autour de dix principes généraux14. Tel qu'il en a

14 La Déclaration de Montréal énonce dix principes généraux et non-hiérarchisés, soit (1) Principe de bien-être : Le

développement et l'utilisation des systèmes d'intelligence artificielle (SIA) doivent permettre d'accroître le bien-être de tous les êtres sensibles ; (2) Principe de respect de l'autonomie : Les SIA doivent être développés et utilisés dans le respect de l'autonomie des personnes et dans le but d'accroître le contrôle des individus sur leur vie et leur environnement ; (3) Principe de protection de l'intimité et de la vie privée : La vie privée et l'intimité doivent être protégées de l'intrusion de SIA et de systèmes d'acquisition et d'archivage des données personnelles (SAAD) ; (4) Principe de solidarité : Le développement de SIA doit être compatible avec le maintien de liens de solidarité entre les personnes et les générations ; (5) Principe de participation démocratique : Les SIA doivent satisfaire les critères d'intelligibilité, de justifiabilité et d'accessibilité, et doivent pouvoir être soumis à un examen, un débat et un contrôle démocratiques ; (6) Principe d'équité : Le développement et l'utilisation des SIA doivent contribuer à la réalisation d'une société juste et équitable ; (7) Principe d'inclusion de la diversité : Le développement et l'utilisation de SIA doivent être compatibles avec le maintien de la diversité sociale et culturelle et ne doivent pas restreindre l'éventail des

déjà été fait mention, l'équipe organisatrice de la Déclaration se compose pour l'essentiel d'acteurs affiliés à l'Université de Montréal. On compte parmi eux Marc-Antoine Dilhac, professeur au département de philosophie, mais aussi Yoshua Bengio, Guillaume Chicoisne (affilié à IVADO), Martin Gilbert (conseiller en éthique et chercheur au Centre de recherche en éthique), Lyse Langlois (professeure au département des relations industrielles de l'Université Laval) et Joëlle Pineau (alors déjà directrice du nouveau laboratoire FAIR montréalais).

Avant même son dévoilement officiel, la Déclaration de Montréal devient un important instrument du ralliement des instances publiques à cette formulation particulière du projet de l'IA québécoise. En mai 2018 est publiée la Stratégie pour l'essor de l'écosystème québécois en intelligence artificielle, un rapport mandaté par le Ministère de l'économie, de la science et de l'innovation en vue d'établir la marche à suivre afin d’attirer au Québec des chercheurs étrangers œuvrant en IA, la disponibilité des ressources computationnelles, les conditions favorables aux collaborations industrielles ainsi que la formation et le développement des ressources humaines locales (Comité d’orientation de la grappe en IA 2018). De fait, si le rapport doit initialement se concentrer sur ces enjeux plus directement reliés aux conditions de production de la recherche, l'une des orientations stratégiques finalement suggérées concerne en fait le développement au Québec d'un pôle d'expertise en IA responsable, objectif envisagé comme pouvant contribuer à la compétitivité de l'écosystème régional (Ibid., 84). Quelques jours à peine après le dévoilement de la Déclaration de Montréal, au début de décembre 2018, est annoncée la sélection d'un consortium de recherche dirigé par Lyse Langlois – qui figurait déjà au sein du comité d'orientation de la Déclaration – en vue de mettre en place le nouvel Observatoire international sur les impacts sociétaux de l'IA et du numérique. Au moment de sa fondation, l'Observatoire réunit plus de quatre- vingt-deux chercheurs en sciences sociales, cinquante-quatre en sciences et technologies et vingt- et-un en santé, lesquels doivent participer à l'avancement des connaissances sur l'IA éthique (recherche et création) ; garder la trace des développements locaux et à l'étranger reliés aux enjeux en question (veille et enquêtes) ; animer le débat public ainsi que différents exercices de consultation vis-à-vis de ces enjeux (délibération) ; et informer les décideurs publics sur les

développement des SIA doivent faire preuve de prudence en anticipant autant que possible les conséquences néfastes de l'utilisation des SIA et en prenant des mesures appropriées pour les éviter ; (9) Principe de responsabilité : Le développement et l'utilisation des SIA ne doivent pas contribuer à une déresponsabilisation des êtres humains quand une décision doit être prise ; et (10) Principe de développement soutenable : Le développement et l'utilisation de SIA doivent se réaliser de manière à assurer une soutenabilité écologique forte de la planète.

meilleures politiques à mettre en place (politiques publiques) (Observatoire international 2020). Le nouvel organisme, dont la création figurait parmi les recommandations formulées par la Stratégie pour l'essor de l'écosystème québécois en intelligence artificielle, va bénéficier d'un financement de plus de deux millions de dollars CAD par année, pour une période minimale de cinq ans (FRQSC 2018).

Si ces deux initiatives – la Déclaration de Montréal et l'Observatoire international – vont rapidement s'établir comme piliers institutionnels centraux de l'IA éthique montréalaise (et, plus largement, québécoise), certains acteurs locaux vont néanmoins formuler différentes interrogations vis-à-vis des effets concrets de celles-ci. Comme instrument normatif, la Déclaration articule dix principes généraux que les signataires du document s'engagent à respecter dans leurs interactions présentes et futures avec les technologies d'IA. Le succès de cette initiative dépend alors de la capacité de ses promoteurs à convaincre les acteurs véritablement significatifs du domaine de l'IA (entreprises et laboratoires universitaires) à signer et respecter les principes défendus. Mais il dépend également de la capacité de ces signataires à établir entre eux l'interprétation contextualisée à donner de ces principes plus abstraits (« bien-être », « autonomie », « vie privée », « équité », etc.) et donc à spécifier ceux-ci sous la forme de lignes directrices s'appliquant de façon plus immédiate aux pratiques de recherche (Hagendorff 2019).

Même en assumant que ces conditions soient remplies et que la Déclaration de Montréal puisse être envisagée comme un succès, la visée poursuivie par celle-ci pourrait toutefois encore être jugée insuffisante, voire inadéquate. Joëlle Gélinas, chercheure associée à l'IRIS, fait ainsi remarquer l'absence, dans le document, de toute mise en garde ou recommandation reliées aux modes de gouvernance déployés dans la production de ces technologies : « On parle de grands principes énoncés, mais pas de contraintes spécifiques [...]. Ça ne concerne pas du tout l'activité de niveau économique ni les lois ou normes auxquelles les entreprises devront se soumettre. C'est plus en mode observation que régulation » (Joëlle Gélinas, citée dans Ouellette-Vézina 2019). Dans un rapport produit sur les retombées économiques et sociales des investissements publics en IA au Québec, Gélinas et deux autres chercheures affiliées à l'IRIS envisagent le positionnement plus général de Montréal comme acteur de marque de l'IA éthique comme une stratégie devant bénéficier à l'écosystème d'IA montréalais, plutôt qu'à la population qu'on prétend servir au travers d'initiatives comme la Déclaration de Montréal ou l'Observatoire international :

Montréal soigne son image de chef de file en se positionnant comme la ville de l'éthique en IA et renforce ainsi son attractivité tant pour les talents que pour les investisseurs et les entrepreneurs. Ces derniers bénéficient ainsi d'un « sceau » éthique qui leur donnera un avantage concurrentiel sur le marché mondial, mais qui ne contribuera en aucun cas à garantir que les retombées économiques et sociales de ce nouveau secteur de l'innovation bénéficieront aux citoyen.ne.s ayant participé à son financement. (Lomazzi, Lavoie-Moore et Gélinas 2019)

On peut difficilement se prononcer ici sur les motivations ayant poussé des acteurs comme Yoshua Bengio ou Marc-Antoine Dilhac à s'engager de façon aussi prononcée envers le développement d'une IA plus particulièrement éthique et responsable. Si l'on doit se fier aux impressions de cet observateur de l'écosystème montréalais cité à la section 4.2, Bengio est d'abord motivé par des raisons idéologiques, dans la mesure où « son nationalisme informe la manière » au travers de laquelle « il résiste aux pressions du marché ». L'hypothèse la plus prudente – et cohérente vis-à-vis de la définition que l'on a donnée de la programmatique montréalaise – revient conséquemment à assumer que la Déclaration de Montréal et son corollaire, l'Observatoire international, répondent d'une volonté sincère de contribuer à l'avancement de cette vision particulière du champ technoscientifique de l'IA, mais se révèlent simultanément contribuer au profil international, et donc à la compétitivité de l'écosystème d'IA montréalais.

Peu importe comment s'articule cette relation entre convictions éthiques et désir de voir l'écosystème local prospérer, il n'en faut pas moins envisager la Déclaration et l'Observatoire comme autant d'initiatives qui, malgré l'importance majeure qu'elles accordent aux principes de consultation démocratique et de co-construction, visent d'abord et avant tout à avancer un but, et qui appréhendent la société civile en fonction de cet objectif (Callon 1986). L'Observatoire international se distingue de par sa vocation à s'établir comme espace de délibération dédié aux enjeux éthiques de l'IA, et doit se concevoir en conséquence comme une sorte de prolongement de la démarche consultative au travers de laquelle le texte final de la Déclaration de Montréal a finalement pris forme. Cet exercice de consultation publique, que le comité organisateur de la Déclaration a tenu pendant un peu plus de trois mois, est orchestré par le professeur en

aménagement de l'Université de Montréal Christophe Abrassart en fonction d'une approche de co- construction des plus classique. Les citoyens inscrits à ces « ateliers de délibération », a qui on a demandé de lire chez eux une première documentation en vue d'arriver avec un niveau minimum de maîtrise des questions traitées, se voient présenter une fois sur place différentes mises en situation élaborées afin de mettre en lumière les enjeux préalablement identifiés lors du Forum sur le développement socialement responsable de l'IA tenu en novembre 2017. Ce type d'approches, malgré l'emphase évidente qu'elles accordent à l'opinion citoyenne, est systématiquement à risque d'orienter le registre des réponses et des interprétations que sont en mesure de produire les représentants de la société civile consultés (Felt et Fochler 2010; Irwin 2001). C'est précisément ce genre de dévoiements que rapporte avoir constaté un informateur, professeur en IA non-affilié au Mila ou à aucun des autres laboratoires privés ou hybrides auxquels on a fait référence jusqu'à ce point-ci. Celui-ci remet d'abord en cause la pertinence, ou plutôt l'actualité et l'opportunité des enjeux traités lors de ces séances, qu'il juge trop abstraits et futuristes – trop déconnectés des questions plus immédiates sur lesquelles la population et les gouvernements devraient être pressés de se prononcer :

R - J'y ai participé. J'ai été à un atelier parce que je voulais voir comment c'était avant d'avoir un avis sur cette question. Je pense que ça part d'un bon sentiment. Mais selon moi, c'est inapproprié. C'est inapproprié parce que, c'est comme si on demandait l'avis de gens sans leur expliquer de quoi ils parlent. Et surtout – ce que j'ai vu dans ces ateliers, ce sont des supports de réflexions [qui ne sont] pas adaptés à la problématique actuelle. C'est-à-dire : les supports qui ont été mis en circulation sont très futuristico-science-fictionnels, avec un peu d'orientation. [...] Ce qui est ressorti de ça m'est apparu très creux, peu fondé, pas documenté par des spécialistes, parce que – effectivement, on était au café du commerce, quoi! La seule chose qui manquait, c'était la pinte de bière. Et puis le problème c'était qu'on n'avait pas de chose concrète. [À un moment] j'ai demandé : Mais pourquoi est-ce qu'on parle de choses qui vont se passer dans cinquante ans? Et on m'a dit : Ah, mais parce que, si on veut faire les choses correctement aujourd'hui, il faut bien penser aux risques qu'on va avoir dans cinquante ans! [Alors qu'il y a] des risques... qui sont actuels. Il y a toute la problématique des data brokers qui vendent nos données à tout

le monde, la problématique de l'alignement des données entre la SAQ [SAAQ?] et Manulife – c'est ça que j'aurais eu envie d'entendre! Co-construisons un truc qui est pertinent là, maintenant, tout de suite! [...] Donc, non, je suis très sceptique sur ces processus-là. (M1)

Au-delà de sa frustration vis-à-vis de l'emphase accordée à des enjeux quasi-existentiels (portant, par exemple, sur le risque d'un remplacement définitif des interactions humaines par des interactions avec des « machines intelligentes ») aux dépends d'enjeux socio-économiques peut- être moins « graves » dans l'absolu, mais certainement plus pressants et actuels, l'informateur formule également une critique sévère à l'endroit de la place et du rôle que l'on alloue, dans les faits, aux citoyens participant à ces ateliers. Les conditions dans lesquelles l'exercice prenait place, et notamment le déficit d'expertise des participants, ne pouvait réellement permettre à ceux-ci de départir radicalement des thématiques initialement suggérées par le comité organisateur – de sorte que cette démarche de consultation ne pouvait permettre, au final, qu'à assortir d'un « sceau d'assentiment démocratique » les principes auxquels les promoteurs de la Déclaration adhéraient eux-mêmes initialement.

R - Ce que j'ai vu, c'est de la... de la validation. Comment dire. Je ne trouve pas le mot, ça va me revenir. Tu sais, on te dit : Est-ce que vous croyez que c'est bien qu'il y ait des robots qui tuent les gens? Alors là tu dis : Bien non. Évidemment que tout le monde va dire « Non » si on demande dans la rue si c'est bien qu'il y ait des robots qui tuent des gens! [...] J'ai retrouvé : C'est de la démagogie. C'est une forme de validation complètement démagogique où t'as envie d'avoir un avis en particulier, donc tu présentes l'histoire d'une certaine manière et tout le monde te répond comme tu en as envie. [...] Si on avait utilisé ce temps-là pour faire de l'information, et aussi pour écouter ce que les gens avaient à dire, pas leur faire dire des choses mais écouter leurs inquiétudes, leurs questionnements, écouter et susciter leurs questionnements, mais sur ce qui se passe là, maintenant. Ça, ça m'aurait vraiment intéressé. Et là, on aurait – avec ce terme consacré qui n'est pas dans mon vocabulaire – on aurait co- construit quelque chose, au sens où ils entendent la co-construction, parce qu'on

aurait eu un véritable échange. Moi, ce que j'ai vu, c'est pas un véritable échange. C'est une validation démagogique de quelque chose qui était déjà en place. Et la Déclaration de Montréal, c'est un objet qui me paraît creux pour cette raison-là. (M1)

Ce faisant, l'informateur discerne au cœur de cette démarche de co-construction, et ce malgré les « bons sentiments » à l'origine de celle-ci, une visée plus politique et instrumentale que normative ; au travers de ces consultations, c'est un recalibrage d'une certaine économie politique de la légitimité qui s'est opéré. Quelle qu'ait été la motivation première derrière la Déclaration de Montréal et son corollaire, l'Observatoire international, ces deux initiatives vont d'abord et avant tout résulter dans une réassignation de la légitimité démocratique normalement assignée à la parole citoyenne vers ces deux nouvelles entités. En termes de sociologie de la traduction, celles-ci doivent alors être appréhendées comme des dispositifs d'enrôlement des acteurs de la société civile. Les quelques citoyens (moins de 500, en tout et pour tout) qui participent à l'exercice sont construits comme porte-parole représentatifs de la population en général (Irwin 2001) : au mieux aurait-on souhaité accéder à une plus grande représentativité géographique et socio-économique au sein de l'échantillon présent, mais la valeur participative et démocratique de l'exercice ne s'en retrouve nullement compromise. La légitimité démocratique que l'on peut se représenter comme circulant normalement librement au sein de la société civile se conçoit alors comme changeant de forme et prenant substance – trouvant une tangibilité qui lui permet d'être appropriée et instrumentalisée. En effet, la parole citoyenne concernée par les enjeux éthiques de l'IA ne prend forme qu'au travers même de ces démarches de consultation et de co-construction, de sorte qu'on ne lui permet d'exister, et on ne lui reconnaît sa légitimité, que dans la mesure où celle-ci évolue et se laisse coopter au sein de ces deux entités. Dispositifs d'enrôlement de la société civile, la Déclaration et l'Observatoire deviennent alors instruments de légitimation : ceux-ci se font réceptacles d'une légitimité que les acteurs à l'origine de ces démarches peuvent désormais mobiliser à leur guise dans leurs interactions avec les autres acteurs du champ technoscientifique de l'IA – cela, tant et aussi longtemps que la population civile n'aura pas remis en cause la validité de leur représentation au sein de ces dispositifs (Callon 1986). C'est précisément à ce type de performativité instrumentale que fait référence l'informateur lorsqu'il assimile la Déclaration de Montréal à un « objet médiatique » dédié à se saisir de l'opportunité du « créneau de l'IA éthique » :