• Aucun résultat trouvé

Au total, donc, 30 personnes ont été interviewées pour cette recherche : 16 praticiens du journalisme informatique, huit responsables et six professionnels de l'informatique. Steiner Kvale dit que d'ordinaire, les recherches qui procèdent par entrevues semi-dirigées sont basées sur un nombre d'entrevues qui varie entre 5 et 25 : « In common interview studies, the number of interviews tends to be around 15 +/- 10 » (Kvale et Brinkman, 2008 : 113). Il ne suggère pas de se fixer de nombre précis : « Interview as many subjects as necessary to find out what you need to know », écrit-il, en indiquant que plusieurs études auraient bénéficié d'un nombre moins grand d'entrevues : « A general impression from current interview studies is that many would have profited from having fewer interviews in the study » (!) (ibid.).

Lorraine Savoie-Zajc indique que certains auteurs se sont risqués à donner des limites. Elle cite, par exemple, John W. Creswell selon qui dix personnes est un maximum pour une recherche phénoménologique; maximum qui peut atteindre entre 20 et 30 personnes pour une théorisation ancrée. Mais elle conclut que la question du nombre de participants en recherche est arbitraire, « car elle n'est encadrée par aucune règle précise » (Savoie-Zajc, 2007 : 104).

La taille de l'échantillon utilisé dans cette recherche correspond à ce qu'on retrouve généralement dans des thèses de doctorat basées sur une méthodologie qualitative et qui ont recours à des entrevues. Mark Mason en a examiné 560 publiées au Royaume-Uni et en Irlande. Le nombre moyen de participants dans ces thèses était de 31, alors que la médiane était de 28 (Mason, 2010 : 9).

Pour un mémoire de maîtrise, un échantillon de 30 participants semble donc beaucoup trop grand. Mais il ne faut pas s'arrêter au seul nombre. Si j'ai réalisé autant d'entrevues, c'est par souci de tracer le portrait le plus complet et le plus représentatif que possible du journalisme informatique tel qu'il se pratiquait au Québec en 2015. Et pour y arriver, il était

important pour moi de rencontrer non seulement un grand nombre de participants, mais aussi des participants provenant des horizons les plus diversifiés qu'il m'était possible de trouver. L'échantillon se caractérise donc par sa diversité, une diversité qui s'exprime sur plusieurs dimensions.

La première dimension se trouve d'abord dans les différents rôles des participants. On l'a vu plus haut, j'ai recruté trois groupes distincts : des praticiens, des responsables et des geeks. La diversité de mon échantillon se reflète cependant sur plusieurs autres dimensions. Les praticiens et les patrons rencontrés œuvrent sur plusieurs plateformes : à l'écrit (que ce soit dans des quotidiens ou des magazines, qu'ils soient imprimés ou non), à la radio, la télé, ou encore sur le web. Ils travaillent aussi dans des médias privés et publics. Les praticiens sont anglophones et francophones. J'ai pris soin d'inclure des pigistes en plus des employés réguliers des médias.

Il y a cependant deux dimensions pour lesquelles je n'ai pas réussi à atteindre une diversité satisfaisante. La parité homme-femme n'a pas été atteinte, tout d'abord : il y a cinq hommes pour chaque femme dans mon échantillon. Le jour- nalisme informatique semble intéresser une plus grande proportion d'hommes que de femmes. Cela est peut-être un reflet de la proportion de femmes qu'on retrouve dans les professions reliées à l'informatique. Selon Statistique Canada, dans la cohorte des 25-34 ans, les femmes n'occupaient que 30% des emplois dans le secteur des mathématiques et de l'informatique au pays (Hango, 2013 : 1).

L'autre dimension dont je ne suis pas satisfait est celle de la représentation régionale. Hormis trois participants (un de l'Ontario francophone, deux de la région de la Capitale-Nationale), mon échantillon est presque entièrement composé de Montréalaises et de Montréalais. J'ai cherché des praticiens du journalisme informatique à l'extérieur de la grande région métropolitaine en demandant à des représentants de Transcontinental et de Capitales Médias, mais en vain.

En dépit de ses lacunes, je crois que mon échantillon permet de refléter adéquatement le phénomène social étudié. C'est d'ailleurs un des critères de validité en recherche, validité au sens où Creswell et Miller l'entendent : « We define vali- dity as how accurately the account represents participants' realities of the social phenomena and is credible to them » (2000 : 124-125). Une recherche est valide, selon eux, si la représentation qu'elle fait du phénomène social étudié correspond à la réalité vécue par les participants interrogés et si cette représentation apparaît crédible à ces derniers.

Faire de la recherche par le biais d'entrevues semi-dirigées, nous rappelle Lorraine Savoie-Zajc, c'est également construire un sens. Le chercheur veut notamment puiser dans l'expertise des intervenants et « comprendre le sens que [ceux-ci] donnent [au] phénomène » étudié (2009 : 342-344). Comprendre le sens est certes important. Mais encore faut-il que ce sens soit plausible. C'est un autre des critères de rigueur dans la recherche sur lequel Lorraine Savoie-Zajc insiste lorsqu'elle demande : « La question sous-jacente à l'établissement de la crédibilité du savoir produit [par la recherche] sera la suivante : est-ce que cette construction de sens est plausible considérant l'expérience et la connaissance que j'ai de ce phénomène? » (ibid. : 358).

Ainsi, non seulement faut-il que la recherche corresponde à la réalité vécue par les participants, mais également à celle qui est vécue par le chercheur. À cet égard, il est intéressant de relever que Steinar Kvale a donné à son ouvrage de méthodologie sur les entrevues le titre d'InterViews, avec un « V » majuscule. Il fait ressortir le mot « vue » pour nous rap- peler que l'entrevue en recherche est un échange de vues, une intersection de points de vue qui s'enrichissent mutuelle - ment : celui des participants croise celui du chercheur.

Creswell et Miller y font référence, indirectement, lorsqu'ils soulignent que la validité d'une recherche peut également dépendre de ce qu'ils appellent la « réflexivité du chercheur » : « A [...] validity procedure is for researchers to self-disclose their assumptions, beliefs, and biases » (2000 : 127).