• Aucun résultat trouvé

Section II : Posture de recherche et données de l’enquête

2 Les méthodes de recueil et les données de l’enquête

2.1 Les questionnaires : à la recherche des déterminants sociologiques de la participation

aidé à situer ces participants dans leurs proximités ou leurs distances avec les élus et les agents de la municipalité.

2 Les méthodes de recueil et les données de l’enquête

Nous présentons enfin de manière succincte la stratégie empirique pour laquelle nous avons opté et qui découle de l’ensemble des points évoqués jusqu’ici. Nous en faisons une présentation centrée sur les principales méthodes mobilisées, (2.1) questionnaires, (2.2) entretiens et (2.3) observations ; nous renvoyons à l’annexe pour plus de détails et nous présentons des points méthodologiques au fil du texte lorsque cela est opportun.

2.1 Les questionnaires : à la recherche des déterminants sociologiques de la participation

Le premier outil de recueil de données de notre dispositif d’enquête a constitué en un questionnaire, auto-administré avec envoi postal ou remise en main propre. Nous revenons plus

en détail, dans la sous-partie suivante, sur la constitution des échantillons et les biais de notre démarche. La population-mère auquel le questionnaire a été envoyé a été réalisé en deux temps. L’idée était bien de s’adresser aux habitants ayant effectivement pris part ou a minima eu connaissance des démarches de démocratie locale proposées par la municipalité : tester la réception des offres de participation, autrement dit les réponses à un stimulus, présupposant une exposition préalable à celui-ci. L’hypothèse d’inclure un ensemble plus large de la population (par tirage aléatoire dans l’annuaire ou par boîtage) a ainsi été écartée, l’objectif n’étant pas de mesurer la connaissance de cette politique de participation dans la population, mais bien de mesurer dans un premier temps son appréciation et la compréhension qu’en ont ceux qui y prennent part. Certes cela aurait pu constituer une base de comparaison, avec une logique de groupe témoin, mais nous n’avions pas les moyens de l’ambition d’un protocole en double aveugle. Ce point a d’ailleurs pu être compensé pour les caractéristiques sociodémographiques, par la comparaison avec les populations municipales à partir des données de la statistique nationale.

Nous avons recueilli au total 272 réponses à notre questionnaire. Ces 272 réponses correspondent à trois échantillons de taille comparable dans les trois villes : 101 (Bruz), 89 (Lanester) et 82 (Arcueil). Par rapport au nombre de questionnaires distribués notre taux de retour se situe entre 20% et 40%.

 Tableau C2-8 : Taux de retour des questionnaires dans les trois villes

Ville Période d’envoi Questionnaires distribués (pour X envoyés)

Résultat relance par email (sur X adresses)

Total des questionnaires recueillis Taux de retour Bruz décembre 2012 275 (283) +7 (87) 101 36% Lanester mai 2014 447 (515) +4 (82) 89 20% Arcueil octobre 2014 195 +9 (55) 82 42%

Dans chaque ville nous avons mis en ligne le questionnaire, environ deux semaines après la distribution et effectué à ce moment une relance auprès des adresses électroniques que nous avions à disposition. Nous n’avons pas opté pour ce mode de passation moins coûteux car nous avions peu d’adresses électroniques à disposition. Par ailleurs nous ne sommes pas convaincus de sa pertinence pour un questionnaire long par rapport à un envoi papier. Le faible taux de retour par rapport au nombre d’adresses disponibles confirme en partie cette intuition.

A Bruz et Lanester nous avons procédé par envoi postal avec enveloppe de retour préaffranchie.496 Tandis qu’à Arcueil, faute d’accès aux listes, nous avons constitué un échantillon correspondant à une séquence plus brève. Nous avons assisté aux six assemblées de

496 Pour information le coût de l’affranchissement pour une telle enquête représente un budget d’environ 1600 euros. Au global il faut également compter les impressions, les enveloppes et la mise sous pli. L’affranchissement pour l’envoi et le retour prépayé a coûté 650€ à Bruz, et environ 750€ à Lanester, à Arcueil le retour prépayé uniquement représente environ 175€. Le faible écart entre Bruz et Lanester s’explique par la négociation d’un contrat avec La Poste, suite au premier envoi réalisé de manière artisanale, cela a permis de bénéficier d’un tarif accessible à partir de 500 envois et de passer par un système dit « enveloppe T » qui ne permet de ne payer que les réponses effectives, mais qui implique que l’envoi soit adressée à une entreprise, mention qui a pu gêner certains des répondants et n’a pas aider à avoir un meilleur taux de retour.

Le « coût » d’une réponse recueillie est donc compris entre 6 et 7 euros ce qui est élevé et constitue une information importante par rapport aux possibilités de réalisation de ce type d’enquête, notamment dans le cadre d’une recherche doctorale. En l’occurrence ce volet quantitatif de l’enquête n’a été matériellement rendu possible que du fait de mon statut Cifre conjugué à la bienveillance de mon employeur par rapport à ma ma recherche.

quartier à l’automne 2014 et nous avons distribué le questionnaire aux présents. Ces deux modes de passation ont une forte implication sur nos échantillons. A Arcueil, le contexte de reprise des assemblées suite aux élections municipales, durant lequel la mobilisation a été relativement forte pour certaines assemblées, a tout de même permis d’atteindre un nombre similaire de répondants. Le taux de retour est d’ailleurs meilleur, même si l’échantillon constitué surreprésente de fait les personnes ayant participé en 2014, et notamment celles qui n’ont pris part qu’à cette assemblée, au détriment des plus anciens participants ayant fait défection.

Enfin, à Lanester, nous avons pu compléter le volet quantitatif de l’enquête en entamant une deuxième recherche, dans le cadre du budget participatif mis en place en 2016. A l’occasion du vote en novembre 2016, nous avons réalisé un sondage sortie des urnes, pour les votants en présentiel, assorti d’un questionnaire en ligne, pour les votants en ligne. Sur les 1090 votants, 292 à l’hôtel de ville, 798 sur le site en ligne, notre enquête en couvre respectivement 21% (n=61) et 27% (n=217). Nous avons ainsi à l’occasion de cette enquête, un nombre de réponses (n=278) correspondant à l’ensemble des trois échantillons cumulés obtenus auparavant. C’est cet aspect qui nous a incité à intégrer au moins en partie cette enquête réalisée plus tardivement, conscient de la faiblesse des effectifs recueillis jusque-là. En outre, cette excroissance empirique a un réel intérêt pour notre problématique : elle permet d’interroger les évolutions de l’offre de participation, ses effets sur les publics et les parcours des participants depuis les conseils de quartier des années 1990 au budget participatif des années 2010.

Le questionnaire principal, distribué entre 2012 et 2015, est constitué d’une trentaine de questions, majoritairement ouvertes, ce qui a pu constituer un frein pour les répondants497, mais correspond à notre souhait de limiter les impositions de problématiques. Les consignes mettent en exergue la possibilité de ne pas répondre à une question et les questions fermées donnent la possibilité de cocher l’item « je ne sais pas » ou « je n’en sais rien ». Les questions fermées correspondent à des données factuelles, des caractéristiques socio-économico-démographiques ou à des échelles d’évaluations d’items isolés suite aux lectures et aux entretiens effectués. Par ailleurs ces questions fermées offrent la possibilité pour les répondants d’ajouter des items manquant selon eux et sont suivies d’une question ouverte demandant d’illustrer ou de détailler leur réponse si possible, afin de tenter d’ « inventorier les considérations à l'origine des réponses obtenues, de vérifier que l'intervieweur et l'interviewé parlent la même langue, de repérer les pseudo-opinions et d'éviter des contresens d'interprétation, toutes questions auxquelles se heurtent la technique du sondage depuis les origines »498.

Il se décompose en deux parties principales : la première interroge l’expérience du répondant en lien avec les initiatives de démocratie participative auxquelles il a pris part. Les questions s’intéressent au rapport à la ville, à la liste des expériences connues ou assimilées à la démocratie locale, aux motivations à y prendre part visant à l’analyse de registres de justification et d’appréciations de la participation. Une autre série de questions portent sur l’intérêt déclaré pour

497 L’espace dédié pour les réponses ouvertes a d’ailleurs été réduit après une première passation auprès des personnes déjà rencontrées en entretien, certaines ayant jugé que le nombre important de lignes pouvait être interprété comme une exigence pouvant rebuter les répondants. Le questionnaire est ainsi passé de 8 à 6 pages. Plus généralement le questionnaire a été adapté au fil des vagues d’enquête, nous revenons sur les principales adaptations directement dans le compte-rendu des résultats au travers d’encarts méthodologiques.

498 L. BLONDIAUX, « Ce que les sondages font à l'opinion publique », Politix, Vol. 10, N°37. Premier trimestre 1997, p.133

la politique, le rapport à l’engagement et l’investissement dans la vie locale. La seconde s’intéresse aux caractéristiques socio-économiques du répondant et à différentes variables sociologiques (âge, sexe, profession, revenu, niveau de diplôme, adhésions à des organisations, associations, partis politiques, syndicats, médias…). Les questions finales concernent le rapport au vote (participation aux différentes élections, appréciations). La plupart des questions sont communes aux trois vagues de l’enquête par questionnaire499. Mais une partie ne couvre pas

l’ensemble, il s’agit généralement de questions adaptées au contexte local (champ politique municipal, caractéristiques spécifiques de l’offre de participation…) ou de questions ou modalités de réponses qui ont été ajoutées au moment de la deuxième ou de la troisième vague suite aux premiers traitements.

Encadré C2-6 : Les principaux biais à contrôler de l’enquête quantitative

En conclusion, nous abordons ici la constitution des populations et les effets de sur-sélection pour rappeler les principaux biais de nos données.

Des populations-mères constituées d’après un recensement administratif

Le premier biais est d’abord dans la constitution des populations-mères de nos échantillons, à Bruz et à Lanester, nous nous sommes appuyés sur les listes établies par les services municipaux, nous adressant donc aux personnes identifiées comme participants par l’institution municipale. Cette définition est assez satisfaisante en proposant ici de nous intéresser à la réception d’offres institutionnelles de participation. Elle laisse pourtant à part des profils de participation potentiels, par exemple le fait d’avoir pris part à des dispositifs sans jamais avoir émargé ; cas de figure qui dans les faits est marginal voire inexistant d’après nos observations.

A Bruz, la liste de l’ensemble des dispositifs ponctuels est complétée par le fichier d’invitation au forum annuel, qui regroupe l’ensemble des participants et des habitants a priori intéressés à l’offre de participation. Pour y avoir nous même pris part, nous avons pu constater que la liste est exhaustive : le fait d’y laisser apparaître ses coordonnées est une condition non-négociée de la participation à cette journée ; quiconque n’y apparaissait pas devait la compléter pour recevoir le « matériel » nécessaire à sa participation. Elle constitue donc une source assez fiable et large pour contenir l’ensemble des personnes intéressées à l’offre de participation.

A Lanester, nous pourrions davantage rater les cas de personnes ayant pris part à des conseils de quartier, en tant qu’habitants spectateurs, sans pour autant avoir jamais accepté de faire partie des 35 membres potentiels. Ce cas de figure existe, il reste pourtant marginal. En effet, au vu de la difficulté à rassembler ce quorum, l’amicale pression à rejoindre les rangs lors des renouvellements du groupe semble assez forte. Il est ainsi assez improbable d’avoir une participation régulière au conseil, sans jamais voir son nom apparaître dans une des listes, ne serait-ce simplement que pour recevoir les comptes rendus et les invitations aux réunions. Si nous retenons l’idée de nous intéresser à l’engagement participatif, là encore la population-mère peut être considérée comme assez exhaustive.

Enfin, à Arcueil, comme déjà évoqué, nous avons procédé différemment : plutôt qu’un envoi postal, nous avons directement distribué le questionnaire lors de l’ensemble des assemblées de quartier de l’automne 2014. Nous avons donc accès à un cycle complet d’assemblée, qui présente la particularité d’avoir été assez mobilisateur, puisqu’intervenant dans le cadre de la relance de ce dispositif après une longue période de fonctionnement au ralenti. Nous avons ainsi au accès à deux grandes catégories de profils de participation : ceux qui participaient déjà à l’assemblée de quartier et ceux qui la rejoignaient pour la première fois. Chacune se décomposant potentiellement en deux types : pour les anciens, ceux qui avaient maintenu leur engagement et ceux qui avaient pu arrêter mais être remobilisé dans la suite de la séquence électorale et la promesse d’une relance plus efficace du dispositif ; pour les nouveaux, ceux qui ont par la suite réitéré leur participation et ceux qui n’ont fait que passer, venu par curiosité et n’ayant pas trouvé matière à poursuivre au-delà de cette première expérience. Bien entendu, au moment du remplissage du questionnaire une telle différence ne s’entend que comme intention affichée et pas nécessairement concrétisée. Mais nous avons pu bel et bien rencontrer ces deux cas de figure en réalisant ensuite des entretiens avec une partie des personnes rencontrées lors de cette passation.

499 Annexe : questionnaires utilisés lors des trois vagues d’enquête

Un phénomène de sur-sélection d’échantillons auto-constitués avec un questionnaire auto-administré Ainsi, chaque échantillon présente des particularités dont il faut tenir compte : nous avons pu objectiver que les plus accessibles pour l’enquête semblent être avant tout ceux dont la participation est la plus récente, quand bien même elle s’avère faible, et ceux dont la participation est la plus intense lorsqu’elle est ancienne, le taux de réponse étant décroissant à mesure que les personnes ont eu une participation intermittente et ancienne500. Ainsi, c’est la défection qui signe une difficulté d’accessibilité pour l’enquête, et non pas en soi l’ancienneté, puisque ce sont à la fois les plus anciens et les plus nouveaux qui sont le mieux représentés. Par ailleurs, si des cas de figure sont sous-représentés, ils ne sont pas absents, nous permettant donc d’évoquer l’entièreté des configurations. En outre, à un niveau d’ensemble ces biais se compensent en partie entre eux, du fait des spécificités de chaque cas et de la variabilité de notre stratégie empirique, nous permettant donc dans les faits de couvrir un éventail assez large de parcours de participation.

En effet l’analyse que nous faisons des facteurs sociaux de la participation ne prend pleinement sens qu’en s’intéressant aussi aux modalités de celle-ci : son ancienneté, sa fréquence et sa durabilité. Il reste cependant nécessaire de rappeler les évidentes inégalités sociales face à une enquête écrite, longue et auto-administrée. Il y a en effet un « caractère très particulier des échantillons prélevés compte-tenu de l’importance des refus de réponse : les répondants sont les mieux disposés à l’égard de l’enquête et du thème abordé »501, auquel s’ajoutent les biais déclaratifs et conjoncturels502, et qui invitent à une certaine prudence dans l’interprétation.

2.2 Les entretiens : à la recherche des dispositions sociales et des parcours de

Outline

Documents relatifs