• Aucun résultat trouvé

3.4. Discussion

3.4.1. Analyse environnementale participative et qualité de la décision

L’analyse environnementale participative telle que décrite dans les sections précédentes change de portée et ne dure maintenant qu’une journée. Certains praticiens de l’ÉIE sont exclus du processus à cause de la transparence de leurs positions. Ils relèvent une série de problèmes résumés comme suit :

Les participants à la validation ne maîtrisent pas le processus d’ÉIE. Les directions techniques qui doivent éclairer l’opinion à prendre de bonnes décisions ne sont pas à la hauteur des tâches. TT, Cotonou, 16 janvier

161

Il se poserait là un problème d’appropriation des procédures de la part des administrations de gestion de l’environnement qui peinent à utiliser la validation pour les fins de décision partagée. Les personnes-ressources invitées à l’analyse environnementale participative n’ont pas ou peu de connaissance en évaluation environnementale. Certains sont instruits pour attaquer des aspects précis de rapports présentés par les consultants et inciter à

rejeter ou accepter tel ou tel rapport ou à orienter la décision dans telle ou telle autre direction (OS, Cotonou, 25 mars 2012). Cette situation est aggravée par la mise en place de

structures opaques qui encouragent la partialité de l’analyse environnementale, occasionnent la médiocrité des discussions et engendrent une prise de décision dans laquelle peu de participants se reconnaissent. Les guides élaborés à la fin des années 1990 deviennent les seuls instruments pour juger de la valeur des rapports d’ÉIE alors qu’ils servaient à l’origine de repère de base et de facilitateur pour l’élaboration des rapports. Il manque donc une démarche connue, acceptée des acteurs et dans laquelle ils se reconnaissent pour ne pas la contester :

« un travail qui se veut scientifique est celui qui définit

une méthodologie universelle scientifique précise pour atteindre les objectifs fixés et les résultats attendus » (OS,

Cotonou, 25 mars 2012).

Le cadre normatif mis en place présente donc des limites dans son application. Celles- ci sont de deux types, celles relatives à l’application de la procédure et celles liées à la pratique.

Au plan de l’application de la procédure, la loi-cadre sur l’environnement présente une insuffisance structurelle (Tomety et al., 2006 : 63) : elle ne spécifie pas expressément que le suivi reste une obligation; et le mécanisme EIE est peu efficace car après la validation du rapport d’étude d’impact, seul le promoteur reçoit copie de son plan de gestion environnemental (PGE) et aucune des structures de contrôle (incluant les communes et les populations touchées ou parties prenantes au projet) n’a de visibilité ni n’est mandatée pour le suivi du PGE. La loi semble donc compter sur la bonne foi du promoteur pour mettre en œuvre le PGE, ce qui est loin d’être une approche crédible.

162

Au plan de la pratique, plusieurs limites sont soulevées. Les comptes rendus de consultation publique présentés dans les rapports d’ÉIE sont, lorsqu’ils existent117, le résultat d’analyse et ne présentent que des données colligées faisant perdre aux échanges leur richesse et la qualité des apports des participants. Il n’est pas possible d’attribuer des enjeux spécifiques à un groupe d’acteurs et d’avoir accès aux verbatim pour apprécier la nature des positions exprimées et le positionnement des groupes qui les défendent. Il n’y a donc aucune justification ni preuve des allégations et affirmations rapportées dans les rapports. Les formulations du genre : « Près de 65% des populations enquêtées reconnaît que … » et « le

projet semble aujourd’hui avoir la faveur des autorités locales, des associations de développement et quelques leaders d’opinion du milieu … » (Rapport final ÉIE exploitation du

sable à Djrègbé-Ganvidokpo, février 2011 : 53) ne précisent pas le nombre de personnes auquel il réfère et démontrent par le choix du verbe (« semble ») que de telles conclusions ne sont que le fruit du raisonnement de l’évaluateur dont il n’a pas cru bon de justifier son analyse fondée sur les données de terrain. Pour une meilleure appréciation, il aurait fallu : (i) des acteurs avec leurs prises de position pertinentes, dans leurs expressions initiales, (ii) une restitution du contexte et des conditions de la participation, (iii) l’analyse et les conclusions de l’évaluateur.

En tant qu’instrument principal de la décision, les rapports de validation comme livrable d’un comité interministériel souvent élargi aux communes touchées par les projets restent bien squelettiques et ne s’attardent que sur la structure du dispositif, les « observations

de forme relatives à différentes fautes identifiées dans le document et à la reformulation de certaines idées » (Rapport général de validation des 28 et 29 janvier 2010, projet de dragage

du sable continental à Dèkoungbé, page 3), en réalité sans lien avec la décision. Ils ne comptent que quatre pages structurées en une introduction qui rappelle les projets examinés et

117 D’un rapport à un autre, on pourrait considérer que le fait d’introduire un chapitre sur la participation

publique dans le rapport d’ÉIE soit une avancée. Le même bureau d’étude dans un rapport d’ÉIE deux ans plus tôt (février 2008) portant sur l’étude d’impact sur l’environnement du projet d’aménagement des voies urbaines à Abomey n’en a pas fait cas alors même dans la présentation de sa méthodologie fait état de « rencontres avec les populations locales bénéficiaires et/ou affectées; les acteurs institutionnels

principalement concernés par le projet (autorités administratives et municipales locales; mouvements associatifs locaux; services techniques de l’État; ONGs locales et autres organisations actives dans la zone; acteurs socioprofessionnels locaux; etc. Des rencontres de proximité ont été organisées dans les

163

cinq points en décrivant le déroulement : l’ouverture de l’atelier, la présentation des rapports, la visite des sites, les travaux en commissions et recommandations, la clôture de l’atelier. Cet atelier de trois jours peut examiner plusieurs projets, cinq dans le cas de l’exemple pris en illustration. Hormis l’ouverture et la clôture, trois points devraient fournir les renseignements nécessaires pour faire la décision. La plupart des observations faites dans les rapports sont peu compréhensibles, voire illisibles pour qui n’a pas assisté aux rencontres. Il n’apporte pas d’information de fond et ne porte que sur une narration du déroulement des faits (Annexe 10) dont il est difficile d’accéder à une bonne compréhension. Certaines recommandations de type « aménager les voies d’accès; proposer un plan de restauration du site » qui y sont faites suggèrent que les validateurs n’ont pas conscience au moment de l’examen qu’elles sont elles- mêmes soumises en vertu du règlement à autorisation dans les mêmes formes que le projet en examen. Des recommandations de ce type mises en relation avec les recommandations des travaux mêmes formulées laconiquement et lapidairement ainsi qu’il suit « Sous réserve de ces

recommandations, les rapports ont été validés », inquiètent d’autant qu’il n’est précisé nulle

part, ni même dans le certificat de conformité environnementale118 qui référence et vise pourtant l’atelier de validation du projet qu’il autorise, l’institution qui appréciera l’effectivité de la mise en œuvre des recommandations. On présume que les validateurs n’ont pas conscience d’avoir examiné des rapports incomplets qui n’ont pas tenu compte minimalement de toutes les activités du projet et que du reste, il n’est pas prévu que les activités omises vont être soumises à leur tour à la procédure dans les mêmes formes. Cette situation, en plus de générer une mauvaise décision affaiblit aussi la procédure parce qu’elle fait échapper des activités qui pourraient se révéler d’importantes sources d’impacts. Par ailleurs, les délais d’examen (quatorze heures effectives de travail réparties sur la présentation des cinq rapports, aux débats sur la présentation et aux travaux en commission) des cinq projets sont si courts qu’il n’a été possible de décider qu’à partir des tableaux d’impacts et des plans de gestion

118 Ce certificat d’autorisation délivré par le ministre ne porte aucune information supplémentaire éclairant sur

la nature de la décision prise. Aucune des conditions auxquelles ont été soumis les rapports d’ÉIE lors de l’examen au cours de l’atelier de validation et les recommandations formulées n’y sont pas rapportées. Le PGES annexé au rapport et signé du Directeur général de l’ABE n’est qu’un tableau synthèse qui n’est pas plus détaillé que la décision portée par le CCE qui, dans sa forme que dans sa présentation, ressemble (et c’est bien ironique) à s’y méprendre à un diplôme ou une attestation. On peut spéculer sur cette présentation mais on retiendra qu’en dehors de la présomption que les réserves émises à la validation aient été prises en compte, il n’y a rien qui le démontre.

164

environnementale et sociale proposés par les bureaux d’études dans les rapports (Rapport de validation, page 4, paragraphe 3).

Et pourtant, l’examen et le rapport qui en est l’aboutissement devraient, pour produire une décision environnementale, insister plutôt sur la pertinence des données colligées et les modes de leur collecte, l’adéquation des méthodes et des outils utilisés avec le métabolisme des projets évalués, la consistance de l’analyse environnementale et de l’évaluation des impacts, la solidité des recommandations de l’étude et la nécessaire prise en compte des points d’incertitude. On s’attend à ce que ce type de dispositif produise des avis techniques et des recommandations issues du public en conformité avec l’apport de la diversité des participants en provenance des ministères sectoriels impliqués (personnes ressources), du public (représentants des communes touchées et des associations de développement), du promoteur et de son bureau d’étude.

En dépit de ces insuffisances, le Bénin apparaît et est référencé119 comme le pays le plus performant pour ses procédures et pratiques et comme source d’inspiration de mise en place des dispositifs participatifs par ses voisins de l’espace francophone (Lanmafankpotin et al., 2013 : 113-114) , dans le palmarès des grandes démocraties comme le Canada, le Québec ainsi que la France. Comme indiqué au tableau 17, il est ainsi jugé plus performant120par le Burkina Faso, le Cameroun, le Gabon, la Guinée, le Mali, le Niger et le Sénégal. Cette position, sans occulter les biais dont elle peut être empreinte, est due au fait que le Bénin a été l’un des précurseurs dans la mise en place et la diffusion des procédures en Afrique, notamment à travers des guides imprimés aux fins de sensibilisation.

119 Dans une évaluation des pays francophones d’Afrique et de l’océan Indien et une autoévaluation de leur

cadre national et de la pratique de la participation publique dans leur propre pays essentiellement basée sur les réponses fournies par des collaborateurs nationaux impliqués dans la recherche-action, le Bénin se classe l’État le plus performant pour ses procédures et pratiques de la participation publique, après les démocraties les plus établies citées en exemple comme le Québec et la France. Il est mentionné aux trois premiers rangs du classement, deux fois en 2ème place après le Canada/Québec (mentionné six fois), trois fois après la France

(mentionnée quatre fois) et une fois en 1ère place mais toujours en tête des quatorze pays ayant évalué, tandis que lui-même juge ses procédures et pratiques modestement « bonnes ».

165

Tableau 17 : Mentions des États les plus performants par les équipes de chacun des pays participants

Pays Mentions oar ordre d’importance

1er place 2e place 3e place

Bénin Canada France Bénin

Burkina Faso Québec France Bénin

Cameroun Canada Bénin Sénégal

Centrafrique Madagascar Cameroun Centrafrique

Congo Sénégal Cameroun Gabon

Gabon Bénin Guinée Conakry Gabon

Guinée Bénin Canada Tunisie

Madagascar Canada France Madagascar

Mali Bénin Côte d’Ivoire Néant

Niger Niger Bénin Burkina Faso

Sao Tomé Canada-Québec France Maroc

Sénégal Canada Bénin Sénégal

Tchad Burkina Faso Mali Tchad

Togo Canada France Togo

Source : tiré de Lanmafankpotin et al., 2013

Si le contrôle de la participation à la réalisation est du ressort du maître d’ouvrage, à la phase d’examen, la participation reste un instrument d’aide aux mains du décideur. L’analyse environnementale participative (validation des rapports) et l’audience publique en sont les outils. La première limite la participation à des acteurs choisis, sélectionnés et triés selon des critères généralement non énoncés par l’autorité; la deuxième introduit dans le fonctionnement du dispositif des règles écrites de participation que les publics peinent à maîtriser. Ces deux dispositifs interviennent en fin de processus de la décision.