Je retiendrai cinq critères d’appréciation et d’argumentation : leur utilité et leur finalité ; leur lisibilité par ceux qui les utilisent ; leur degré d’intégration des facteurs temps et durée ; leur représentativité des univers ou objets à évaluer et leur cohérence avec le pourquoi même de l’évaluation ; leur mode de construction et de mise en œuvre.

L’utilité, la finalité des outils d’évaluation

Cela revient à questionner le pourquoi, le pour quoi des outils d’évaluations. A quoi servent-ils, à qui servent-ils ?

Depuis les débuts du monde industriel, les organisations ont cherché à évaluer, mesurer la performance de leurs actions, la pertinence de leur stratégie, de leurs choix de gestion. Pour ce faire, elles ont élaboré des grilles de critères d’évaluation, défini des indicateurs de mesure. Mais pour mesurer quoi, évaluer quoi ? Il n’y a bien sûr pas de réponse unique : reporting pour plus de visibilité, de compréhension, observation et suivi pour correction, amélioration ou parfois sanction, exclusion.

Dans tous les cas, les outils sont censés donner de la visibilité sur un objet, un objectif. Cette visibilité est un élément essentiel de la compréhension, du questionnement des causes réelles et sérieuses d’une situation et donc de l’analyse et in fine un levier pour l’action.

Mais quelle action ? Constatation d’écarts, de dérives en délai ou en budget, de surcoûts, autant d’arguments d’inflexion, de corrections, de progrès. Mais lorsque les outils, les critères et indicateurs qui vont de pair servent d’instruments de sanction, d’exclusion, alors il ne faut pas s’étonner qu’ils soient rejetés, contournés par les salariés. La cotation de 1 à 4 mise en place par IBM, il y a quelques années pour exclure de l’entreprise les salariés notés 4, est une parfaite illustration d’une utilisation perverse des outils d’évaluation.

La sanction lorsqu’elle est positive n’est pas condamnable, à priori. Mais évoluer, c’est bien avant tout se donner les moyens de mieux voir pour mieux progresser.

La lisibilité, le degré d’acceptation

J’ai en mémoire ce discours d’un directeur général devant plus de 1000 cadres de son Groupe à la Défense ; il précisait l’objectif de la compagnie pour les deux ans à venir sous la forme d’un indicateur de mesure de l’atteinte de celui-ci : plus de 2 points de marge supplémentaire par an. J’ai aussi en mémoire le désarroi des participants à la sortie échangeant entre eux : « Je n’ai rien compris », « concrètement, cela veut dire quoi pour ma direction ou mon département ? », « comment y arriver ? », « quelles sont mes marges de manœuvre effectives ? ». Incompréhension, manque de lisibilité. Un objectif qui ne parle pas à ceux qui sont invités à l’atteindre, un objectif chiffré sous la forme d’un indicateur pas ou peu lisible crée souvent plus de confusion, de flou, que d’acceptation.

Cela renvoie à deux autres aspects : le processus de définition des outils critères et indicateurs d’évaluation et la cohérence entre objectif et indicateur sur lesquels nous reviendrons. La lisibilité par les acteurs concernés est un levier essentiel de l’acceptation et de l’envie de faire, de s’engager.

L’intégration du facteur temps

De nombreux cadres nous rapportent régulièrement les caractéristiques dominantes de leur environnement de travail : l’urgence, l’immédiateté, le court terme, le « plus en plus vite », le poids du financier.

Ces caractéristiques se prolongent dans les outils d’évaluation :

  • Reporting de nature comptable et financière
  • Fréquence rapprochée de celui-ci
  • Temps consacré à cette activité de plus en plus importante

Comment évaluer une démarche de progrès, autrement qu’en prenant en compte le facteur temps, la durée, et donc une fenêtre suffisante d’observation.

Prenons l’exemple des projets informatiques ou de refonte des systèmes d’information. Combien d’évaluation à posteriori, ont-elles été réalisées sur de grands projets ? Les multiples dérives de délais, de budgets impactant très négativement le retour sur investissement de certains projets expliquent sans nul doute la timidité quand ce n’est pas le refus d’effectuer ces évaluations. Une étude récente d’un grand cabinet de conseil révèle deux éléments importants : leur coût final est en moyenne le double du coût annoncé au départ, 10% des projets s’arrêtent avant le terme. Le temps constitue souvent l’épreuve de la vérité.

Les syndicalistes condamnent souvent les caractéristiques de l’évaluation : court-termisme, mais aussi périmètre réducteur. Il nous faut intervenir plus en amont mais aussi plus en détail sur ces questions, renforcer notre analyse critique des outils de mesure, d’évaluation pour intégrer le soutenable, le durable (pourcentage d’investissement en R&D, degré d’investissement en innovation, pour mettre en place une organisation apprenante, taux de redistribution de la valeur ajoutée aux actionnaires par rapport aux autres parties prenantes…). Les outils de gestion jouent très souvent contre l’emploi, ou contre l’innovation. A nous, syndicalistes, d’infléchir cela.

Représentativité des objets à évaluer, cohérence avec les objectifs poursuivis

Les critères et indicateurs d’évaluation sont-ils le reflet, le miroir fidèle des objets à évaluer, des réalités ?

Nous savons depuis longtemps que la comptabilité, par exemple, permet de restituer un point de vue d’une réalité, d’offrir des indicateurs de mesure ou d’évaluation d’une certaine performance. Aux outils classiques de la comptabilité sont venus progressivement se greffer d’autres outils de représentation, d’évaluation (tableau de bord, bilan social, sociétal, reporting environnemental, investissement socialement responsable…) sortant du seul cadre comptable et financier témoignant ainsi d’une volonté de reconsidérer la performance et la responsabilité d’une entreprise de façon plus globale. Comment ne pas se réjouir de cette évolution ? L’évaluation d’un système ne peut faire abstraction de toutes les composantes du système, de toutes les parties prenantes du système et donc de la performance sociétale intégrant les externalités, c’est-à-dire les coûts externalisés par l’entreprise sur l’ensemble de la société, de la collectivité ou sur les sous-traitants.

La fidélité d’une représentation implique la pluralité des points de vue, la pluralité des critères d’observation et de mesures, la pluridisciplinarité des approches, des expertises à réunir. Encore faut-il que ceux-ci soient adaptés, appropriés à l’objectif même de la mesure. La question de la cohérence entre la stratégie définie et les instruments d’évaluation mis en place est primordiale. Augmentation du taux d’emploi des seniors et compétitivité exclusive par les coûts ou augmentation de la durée de cotisations aux régimes de retraites et sortie prématurée du marché de l’emploi, ne font pas bon ménage.

Sans doute la satisfaction de toutes ces conditions, utilité, lisibilité, cohérence… permettrait-elle de rationaliser le processus de production d’un tableau de bord d’évaluation, de bien cerner une réalité. Que manquerait-il alors ? Une dimension essentielle : la co-construction des outils. La pertinence de l’outil réside autant dans la démarche de fabrication que dans le résultat ou le produit fini lui-même.

Pluralité des parties prenantes, des critères d’évaluation, diversité des points de vue, des acteurs, co-construction des critères, des indicateurs, des tableaux de bord sont les meilleures garanties de la pertinence de l’outil d’évaluation car ce sont les leviers de la compréhension, de l’acceptation, de l’indispensable construction de la confiance et donc de l’engagement et de l’implication. En d’autres termes, faire jouer le collectif, favoriser la négociation collective et préalable des règles et critères de l’évaluation pour leur donner du sens et donc de l’efficacité, accompagner les changements par la dynamique d’appropriation par les salariés de leurs propres leviers d’amélioration de la performance. A ces conditions, les outils d’évaluation deviendront pertinents.