• Aucun résultat trouvé

Sortir d'une définition technico-gestionnaire des instruments:…

CHAPITRE II LES ACTEURS ET LES SCÈNES MULTIPLES DE LA

SECTION 3. LA PROMOTION DES CADRES PROFESSIONNELS

6.1. Les soutiens internes de l’expertise :

6.1.1. Sortir d'une définition technico-gestionnaire des instruments:…

Faisant écho aux manifestations de rejet de la forme entrepreneuriale décrites plus haut, et déclinant une autre dimension de ce registre, des voix vont s’élever au sein de la DOI contre la définition par trop technique des instruments que tendent à imposer les bailleurs de fonds aussi bien que la CRF.

1 ELIAS Norbert, « qu’est ce que la sociologie ? », Paris, l’Aube, 1991.

2 LASCOUMES Pierre, LE GALES Patrick, « Instrument » in, BOUSSAGUET Laurie, JACQUOT Sophie, RAVINET Pauline, Dictionnaire des politiques publiques, Paris, Presse de science po, 2004

Voyons d’abord quelle est la teneur de cette définition en analysant le discours de certains salariés au sujet des bailleurs de fonds sur lesquels viennent souvent se focaliser les hostilités à l’égard de ces nouvelles normes du travail humanitaire.

Le principal grief adressé aux bailleurs vient de ce qu’un nombre important de salariés associatifs les pensent plus soucieux d’une bonne gestion des fonds qu’ils engagent dans les projets que de leur réussite. Aussi, en déduisent-ils que toutes les normes et outils de gestion qu’ils promeuvent sont en fait des procédés techniques qui ne consistent qu’en une évaluation strictement quantitative des résultats au détriment d’une approche qualitative.

Cet extrait d’entretien avec une assistante desk de la DOI donne une idée précise de l’opposition qui peut être faite entre les trop rares « évaluations » en fin de projet et les

« audits financiers » toujours commandés.

Ah ouais. Y a un vrai recours alors pour les bailleurs, ils paient pas quoi.

Ben ouais c’est ça… et… donc pour éviter ça, mais aussi pour le bailleurs pour vérifier ça, il faut bien faire ta proposition, bien suivre cette méthodologie et comme ça…tu peux prouver tes résultats avec des indicateurs chiffrables, quantifiables…qualifiables aussi même si les bailleurs sont pas forcément friands non plus de ça parce que c’est des indicateurs difficiles à manipuler.

Pourquoi ?

Parce que les bailleurs ils ont pas le temps…les plus regardant c’est ECHO et ils ont des délégués sur le terrain, mais ils ont plein de projets alors, ils essaient de les visiter au moins une fois dans l’année…mais bon quand ils viennent, ils restent que deux trois jours, t’as le temps de rien faire dans ce temps là. Tu regardes et tu dis si il y a dans les faits ce qui était prévu au départ mais en terme matériel quoi… En règle générale, les bailleurs n’exigent pas d’évaluation, ils préfèrent les audits financiers… ça oui les audits financiers y’en a souvent. »

Et à l’intérieur de la CRF non plus n’y a pas d’évaluation après un projet pour essayer de s’améliorer ? En principe les chargés de programme vont deux fois par an sur le terrain pour assurer un suivi des missions mais bon….ça, ça dépend aussi des chargés de programme, y’en a qui se libèrent et y’en a qui ne le font pas.

Ah bon ? Mais pourtant il y a une méthodologie pour les évaluations dans tous les documents types, les procédures qui viennent des bailleurs ?

Non mais ça c’est sûr, les outils existent mais la démarche d’évaluation n’existe pas…en même temps comme je te dis, les bailleurs sont loin d’y être forcément attachés…Ca existe mais c’est pas du tout obligatoires, par contre ce qui est obligé c’est de faire du résultat…en fonction de critères quantifiables etc.

A la lecture de ce témoignage, on voit bien comment les bailleurs tel qu’ECHO ne donnent des instruments de gouvernement de l’action humanitaire qu’ils ont eux même conçu, qu’une

interprétation et un usage technico-gestionnaire. Effectivement, si l’on se rapporte aux instruments présentés plus haut, on constate qu’ils impliquent en principe tous une phase d’étude nécessitant l’usage d’indicateurs qualitatifs. Le « cycle de projet » par exemple mentionne une phase préliminaire de « programming » ou « d’identification » ainsi qu’une phase finale d’ « evaluation » ou « étude d’impact ». Le « cadre logique » avec les

« hypothèses » et le « formulaire de demande de subvention » avec « la présentation de l’action », « l’impact sur le groupe cible », « effets multiplicateurs », « durabilité », induisent aussi une attention à l’appréciation qualitative du travail humanitaire. Pourtant, tel que l’affirme l’interviewée, « les outils existent mais la démarche d’évaluation n’existe pas ». En fait, les bailleurs vont davantage insister sur des « résultats » à « prouver » par des « critères quantifiables », qui sont autant de termes relevant du registre technico-gestionnaire.

Par ailleurs, il convient de prêter attention à ces même griefs mais exprimés cette fois-ci à l’encontre de la CRF dès lors assimilés aux bailleurs de fonds.

On l’a vu, afin de préserver l’identité associative de la CRF, certains acteurs de la DOI s’opposent à la codification des pratiques qui préfigure le rétablissement de la hiérarchie.

Rappelons nous leur profil. Il s’agissait soit d’employés assistants desk issus d’une formation supérieure spécialisée que contrariait l’exécution de tâches purement technique de secrétariat.

Soit, de cadres chargés de programme issus d’association plus militantes et qui vivait assez mal de devoir respecter les codes hiérarchiques alors qu’ils n’étaient pas d’accord avec les décisions jugées trop orientées par le souci de rentabilité de leur directeur.

Ici, on le comprend, les mêmes acteurs vont s’inscrire en faut contre la codification qu’entraîne la généralisation des instruments et qui préfigure en l’occurrence d’une limitation de leur activité à un traitement gestionnaire des projets. En effet, les premiers y voient un pas de plus vers le confinement de leurs activités à des tâches simples, d’exécution. Les seconds y voient une entrave de plus à l’expression de leur opinion qui prennent souvent à contre pied les impératifs financiers.

Un chargé de programme issu d’une association plus militante me confie ainsi au cours d’un repas :

« Non mais à la CRF y a pas de stratégie, c’est n’importe quoi… c’est seulement le fric quoi…Tu vois A. c’est vraiment la gestion financière des projets qui l’intéresse, il sait rien d’autre quoi…En fait à la CRF on se place là où il y a de l’argent »

L’extrait d’entretien suivant montre bien la virulence des critiques qu’une assistante desk est amenée à porter contre la CRF dont elle condamne fermement le refus de s’engager vers une démarche d’ « évaluation ».

Dès fois vous faite appel à un expert qui vient faire des études d’impact ou ça coûte trop cher ?

Ca coûte très très cher, trop cher, donc…en fait la plupart du temps les évaluations sont faites par des gens de la CRF, tu vois.

Comment ça ?

Ben on demande à un VMI de la faire, on lui fait un contrat comme quoi il est évaluateur mais bon tu vois, il est biaisé quoi, il ne peut pas porter un regard objectif sur les missions.

Et des experts externes ?

Ca se fait très très très peu…Ca arrive, mais bon, il faut que le chargé soit intéressé… en plus bon, ça prend du temps, il faut définir les termes de références, il faut trouver un financement, bon…pour ça il y a le F3E qui est un regroupement d’ONG, c’est une structure financée et fondée à l’initiative du MAE entre autre pour dispenser des formations et pour assister les ONG dans leur démarche d’évaluation…en fait une fois qu’ils ont apprécier une démarche d’évaluation dans deux commissions, ils financent 80% des coûts et ce qu’y est bien c’est qu’ ils ont une base de données énorme d’experts et de cabinets de consultants…ça c’est bien mais je crois que je suis globalement la seule à en être convaincue à la CRF. […] On devait le faire à un moment et puis tu penses bien, Isa, oh non ! Ça fait chier, ça prend du temps, ça sert à rien…

A ce point ?

Ah oui certains chargés ça les intéressent pas du tout, ils disent qu’ils ont pas le temps, qu’ils ont déjà de l’expérience terrain, que… c’est beaucoup de bla bla, que c’est pas tellement utile et qu’ils ont pas besoin de se taper de la théorie….[…] De toute façon l’attitude de la CRF par rapport au F3E, c’est qu’est ce qu’on a à apprendre des autres, j’veux dire, on fait déjà tout super bien, c’est pour ça qu’on mène pas d’évaluation, on sait que nos projets sont réussis, et si ils sont pas réussi c’est pas de notre faute, et si c’est notre faute on va surtout pas aller le dire, donc pourquoi évaluer les projets. […] En fait, tu va au F3E, quasiment tous les gens se connaissent, nous on connaît personne, personne nous connaît, enfin si on est la CRF, on est identifié comme étant très riche, très proche du gouvernement et faisant beaucoup d’urgence et pas de développement ce qui est pas faux d’ailleurs, alors tu vois nous à la CRF on s’intéresse pas aux petits, on joue pas dans la même cours. »

On voit ici nettement apparaître les conflits de définition des instruments à l’intérieur même de la CRF entre les partisans de l’ « évaluation » par des « experts et cabinets de consultants » d’une part et ceux qui, à l’instar des bailleurs, abondent dans le sens d’une définition technico-gestionnaire opposant « l’utile » à la « théorie » quand une chargée de programme dit « ça sert à rien…on n’a pas besoin de se taper de la théorie ».