• Aucun résultat trouvé

4.4 La notion de compétences

4.5.1 L’apport des sciences de l’éducation

Evaluer les performances et fournir un feed-back approprié : des éléments factuels identifiés, permettant d’apprécier les performances réalisées par la collaboratrice ou le collaborateur.

Reconnaître les performances et procéder aux ajustements nécessaires permettant d’évaluer l’ensemble du processus : des points forts de la collaboratrice ou du collaborateur renforcés, des réussites valorisées et des mesures prises, susceptibles d’améliorer ses performances. (ibid., p. 159)

Nous retenons donc que la gestion par les performances passe obligatoirement par un descriptif de poste qui fait le lien entre un collaborateur et son poste, avec un fort accent mis sur la motivation du collaborateur basée sur la reconnaissance des performances. La gestion par les compétences passe, quant à elle, par la création d’un référentiel de compétences qui tient évidemment compte du contexte (ou environnement) de travail ainsi que des outils de soutien et de développement.

4.5 L’évaluation

L’évaluation en éducation est étudiée depuis de nombreuses années et est toujours sujette à de nombreuses interrogations concernant notamment son efficacité, sa validité et sa crédibilité.

Sous la direction de Mottier Lopez et Figari (2012), des chercheurs proposent une réflexion portant sur l’évaluation en éducation. Linda Allal et Lise Demailly nous permettent d’élargir le champ de l’éducation à celui de l’organisation en distinguant les enjeux et les niveaux de l’évaluation.

Nous aborderons l’évaluation sous l’angle du domaine du travail et des organisations afin d’éclairer l’évaluation du point de vue des demandeurs et utilisateurs de ces procédures dans la gestion du personnel.

4.5.1 L’apport des sciences de l’éducation

Mottier Lopez et Figari (Modélisations de l’évaluation en éducation, 2012) nous proposent, dans leur introduction, de discuter de « la problématique de l’évaluation » et plus particulièrement de la diversité des conceptualisations de l’évaluation. Ils relèvent ainsi trois grandes conceptions de l’évaluation en éducation : les paradigmes de l’évaluation ou courants de pensée qui ont eu « un impact sur les pratiques d’évaluation en éducation et leur conceptualisation », les modèles d’évaluation qui, aujourd’hui, de par leur complexité imposent « […] une impression d’éclatement… », et les méthodes d’évaluation ou modèles

46

d’actions « dont la finalité se veut essentiellement pragmatique ». (Modélisations de l’évaluation en éducation, 2012, pp. 13‑15)

Dans le cadre de ce travail, nous nous intéressons uniquement à l’approche

« pragmatique » de l’évaluation qui se positionne comme soutien à la décision. De ce fait, nous ne traiterons pas des biais des évaluations22 dus à l’évaluateur ou au contexte. En effet, les principales études ont été réalisées en contexte scolaire, même si nous pensons que certains biais peuvent apparaître comme, par exemple, l’ordre de passage des collaborateurs à l’entretien d’évaluation, nous ne pouvons tirer un parallèle précis avec les évaluations du personnel dans une organisation.

4.5.1.1 La méta-évaluation

Lise Demailly (in Modélisations de l’évaluation en éducation, 2012) mène une réflexion sur la méta-évaluation. Pour cette auteure, la qualité des évaluations est, aujourd’hui, fréquemment mise en doute et de nombreuses critiques « … que ce soit quant à leurs outils (manque de rigueur scientifiques des indicateurs), quant à leurs usages (lourdeur bureaucratique, illisibilité, coût), ou quant à leurs effets (déstabilisations stériles, stigmatisations liées aux palmarès, inapplicabilité des préconisations) » sont émises. (ibid., p.165)

Selon Demailly, la méta-évaluation permet d’évaluer la qualité d’une évaluation pour, si nécessaire, la modifier et l’améliorer. Autrement dit, « méta-évaluer poursuit et approfondit le travail de réflexivité ».

Trois objectifs conduisent la méta-évaluation. Le premier concerne les objectifs mêmes de l’évaluation : ont-ils été mis en place « […] pour faire évoluer les pratiques, les savoirs et les représentations ou bien recueillir des données qui vont informer un responsable hiérarchique [… ou est-ce en vue] d’une prise de décision ultérieure ?, en vue de sanctions ?, pour la gestion ?, s’agissait-il d’évaluer des personnes ou des dispositifs ?... » (ibid., pp.166-167) Pour Lise Demailly, la finalité de l’analyse des objectifs permet une « … clarification pratique – éthique…– et méthodologique […]. Elle produit aussi des connaissances scientifiques sur la manière dont les acteurs sociaux négocient leurs objectifs et leurs modèles, les

22 Voir à ce sujet le chapitre de Pierre Merle, L’évaluation des élèves. Une modélisation interactionniste des pratiques professorales (in Modélisations de l’évaluation en éducation, 2012, p. 81‑96)

47

marchandent, les masquent intentionnellement, ou alors ne les perçoivent même pas consciemment. »

Le deuxième objectif de la méta-évaluation concerne l’évaluation elle-même, « …la qualité de la démarche et des outils proposés et leur capacité à produire des données et des représentations exactes de la réalité, ainsi que sur le repérage des biais et des limites. » (ibid., pp. 167-168)

Le troisième et dernier objectif concerne les effets de l’évaluation. Pour l’atteindre, il est nécessaire de répondre à trois questions que nous propose L. Demailly : les connaissances attendues ont-elles été produites ?, les effets pratiques attendus ont-ils eu lieu et, si des décisions étaient attendues, ont-elles été prises ?, d’autres effets, positifs ou négatifs, non prévus, pervers, sont-ils observables ?

Pour Demailly, l’étude des effets à une valeur pratique : « l’évaluation a-t-elle servi à quelque chose et à quoi ? [… De plus, l’étude des effets] produit des données sur la manière et les processus selon lesquels les acteurs sociaux ou les décideurs politiques s’emparent ou non d’un dispositif d’évaluation et de ses résultats.» (op. cit., p.168)

Pour autant que la pratique d’évaluation soit correctement menée, tant en aval qu’en amont, et ceci sans mettre en doute la qualité des évaluateurs, nous pouvons à ce stade, considérer, comme Demailly, que l’évaluation est :

une pratique institutionnelle […] guidée par des valeurs de vérité, de connaissance, de production de savoir23 sur le réel [… qui permet] d’agir de manière plus rationnelle,…, grâce à une production de connaissance sur les réalités humaines et sociales. [… L’évaluation] est aujourd’hui un dispositif central de gouvernementalité [… en ce sens elle] a intérêt à ce que la connaissance qu’elle produit soit le plus exacte possible, en fonction des pratiques qu’elle se fixe, d’où un certain souci de rigueur. (ibid,. pp.174-175)

Nous n’entrons pas plus en avant dans le sujet de la méta-évaluation au sens scientifique (production de savoirs) car cela devrait être mené par une équipe de recherche avec une méthodologie rigoureuse. Néanmoins, nous retenons de Lise Demailly l’importance de la méta-évaluation au sens pragmatique, relevé ci-dessus, dans la conduite organisationnelle tout en étant conscient de la tension existante entre « la gouvernance politique » de l’organisation et les acteurs sociaux qui tentent de « résister à l’emprise institutionnelle ».

23 Dans le cadre de ce mémoire, nous n’entendons pas par « production de savoirs » une production de savoirs scientifiques, ceci en lien avec la réalité de terrain, ou réalité « clinique » des évaluations du personnel. Il s’agit donc de comprendre, dans le texte, « connaissances » plutôt que « savoirs ».

48 4.5.1.2 Les activités évaluatives

Linda Allal (in Modélisations de l’évaluation en éducation, 2012) met en évidence « les deux champs de l’évaluation en éducation ». Le premier concerne les personnes et « [leurs]

caractéristiques (connaissances, compétences, démarches, attitudes…) en vue d’action ou de prises de décisions qui les concernent individuellement ». Le deuxième est celui de

« l’évaluation des dispositifs » (ibid., p.181).

Nous nous centrons ici uniquement sur le champ de l’évaluation des personnes, considérant que celui des dispositifs de formation, analysé par Allal, correspondrait à l’analyse des situations de travail ou de l’organisation ; ce qui n’entre pas dans le cadre de ce travail.

En nous référant à L. Allal, nous pouvons rapprocher le champ des évaluations des personnes à « une activité clinique ». En se référant aux pratiques d’évaluation en formation, Allal nous rappelle que :

le formateur navigue entre des démarches d’objectivation et la formulation de jugements interprétatifs concernant la progression des apprentissages de chaque élève,…, en cela, les évaluations réalisées par le formateur sont semblables à celles effectuées par d’autres professionnels (médecin, infirmières, assistants sociaux,…) qui ont pour tâche d’agir face à la situation singulière d’un individu en tenant compte d’informations diverses, les unes standardisées, les autres hautement personnalisées. (op. cit., p.189)

Nous retrouvons dans cette description de l’évaluation comme activité clinique certaines similitudes avec la conception du travail retenue dans le cadre de ce mémoire. (§ 4.3 L’individu au travail)

Pour rappel, nous avions dit, en nous référant à C. Dejours, que le travail est une activité coordonnée déployée par les hommes et les femmes pour faire face à ce qui, dans une tâche utilitaire, ne peut être obtenue par la stricte exécution de l’organisation prescrite. De ce fait, nous osons le raccourci qui consiste à retrouver dans l’approche clinique de l’évaluation la différence entre le prescrit, pour ce qui est des « informations standardisées » ainsi que via

« la démarche d’objectivation », et le réel, pour ce qui est de « l’agir face à la situation singulière » et les « informations hautement personnalisées ».

De plus, Allal relève que le formateur (ou évaluateur en ce qui nous concerne) doit :

gérer des dimensions collectives du processus d’évaluation : créer et appliquer des procédures d’évaluation à l’ensemble des personnes […] ; tenir compte de règles convenues avec ses collègues ou imposées par le système […]. Mais au bout de ce processus, il doit entreprendre

49 l’action la plus juste possible par rapport au devenir de chaque apprenant [collaborateurs pour nous]. (ibid., p. 189)

Pour L. Allal, une « inconciliabilité » existe entre les « deux champs de l’évaluation » (l’évaluation des dispositifs et des individus). Pour l’auteure, garder à l’esprit cette différence permet d’éviter « toute tentative d’aménager une sorte de terrain neutre (ni scientifique, ni clinique) dans lequel les activités des deux champs se rejoindraient, mais perdraient les logiques propres de leurs pratiques. » (op. cit., p.192)

Nous retenons, de l’apport des sciences de l’éducation pour l’évaluation, l’importance de distinguer l’évaluation de l’individu de la méta-évaluation.

L’évaluation de l’individu et, plus particulièrement l’activité d’évaluer, peut se comparer à l’activité de travailler, avec ses composantes de prescrit et de réel, d’environnement situé et d’individus singuliers. Cet état de faits suggère que l’évaluation contiendra forcément une part de subjectivité, de négociation et donc certainement de zone de pouvoir. Par conséquent, la valeur interindividuelle (entre le supérieur hiérarchique et le collaborateur) de l’évaluation peut être chargée de signification pour l’un ou l’autre ou, dans le meilleur des cas, pour les deux. Cependant, quelle valeur « institutionnelle » l’évaluation individuelle peut-elle représenter ?

C’est donc du côté de la méta-évaluation que l’organisation doit se tourner pour évaluer plus spécifiquement si les effets pratiques, attendus de l’évaluation, ont eu lieu et si les décisions attendues ont été prises.