Un courrier de Frédérique Vidal au président du HCERES annonce clairement l’ambition du gouvernement de lier, au moins partiellement, évaluation et allocation des moyens. Le HCERES est sommé de changer son fusil d’épaule, rapidement, pour des évaluations “plus ramassées” et utilisables facilement par le grand public…C’est donc une première pierre dans l’objectif de refondre le couple politique contractuelle-évaluation dont il s’agit. Cette énième tentative sera-t-elle couronnée de succès ?
Dans son courrier, la ministre indique que les évolutions évoquées pour la licence (en lien avec le travail actuel du HCERES), “ont bien évidemment vocation à être conduites de façon analogue dans les autres champs d’évaluation”. Elle insiste sur l’importance de dépasser des “prescriptions normatives rigides” pour aller vers des “objectifs fixant des cahiers des charges.”
C’est donc bien d’une première pierre d’une refonte du couple politique contractuelle-évaluation dont il s’agit. Par delà une “invitation” au président du HCERES, il s’agit bien d’une injonction forte d’un ministère, sur les charbons ardents sur ce sujet. Car dans les cercles du pouvoir, on ne cache plus la volonté d’accélérer sur cette question jugée essentielle pour une véritable autonomie des universités (voir infra ce qu’écrivait en octobre 2018 Jean-Pierre Korolistki).
Que propose Frédérique Vidal ? Que le président du HCERES Michel Cosnard fasse des propositions sur 2 aspects :
- un processus d’évaluation “plus ramassé” ;
- des “résultats publics” directement utilisables par les acteurs.
L’objectif ? Permettre au ministère de définir une politique d’accréditation et d’allocation des moyens prenant en compte directement les résultats des évaluations du HCERES.
Repenser le système d’évaluation
Au-delà des considérations sur la licence, c’est donc une volonté de repenser le système français d’évaluation et la politique contractuelle. Dans de précédents billets, j’avais pointé l’échec de cette dernière et le faible impact des évaluations, conjugué à un sentiment d”évaluationnite aigüe’.
L’évaluation en France est un véritable serpent de mer : la création de l’AERES, puis sa transformation en HCERES, n’ont pas débouché sur un système incontesté et incontestable. La faute d’abord à l’incroyable complexité du système français. La faute aussi à cette culture de la norme qui consiste à privilégier les procédures sur le fond avec des batteries d’indicateurs, dont le côté ubuesque transparaît dans la politique contractuelle. La faute ensuite à un non-choix politique partagé largement, avec une autonomie des universités partielle.
Le tabou de l’allocation uniforme des moyens est donc brisé dans cette lettre adressée le 25 février dernier au président du HCERES, Michel Cosnard, Frédérique Vidal. Il faut rappeler que toutes les tentatives d’une allocation différenciée se sont pour l’instant soldées par un échec, les universités n’ayant jamais réussi à se mettre d’accord entre elles.
Cela renvoie aux clivages en leur sein, qui ne réduisent pas à ‘petites’ et ‘grandes universités’ mais qui heurtent un principe structurant du système français : tout le monde fait la même chose. Cette question va donc réactiver les discussions internes entre celles qui se définissent comme universités de recherche intensives et les autres. Le programme du colloque annuel de la CPU intitulé “Autonomie des universités ?” fait curieusement l’impasse sur la question de l’évaluation au moment où le MESRI envisage un tournant sur ce sujet…
Systématiser l’allocation des moyens à la performance
L’allocation des moyens à la performance, à partir donc d’une évaluation (ex ante ou ex post), existe pourtant avec la multiplication des appels d’offres (ANR, PIA et européens notamment). Ainsi, comme je l’avais souligné à propos de la Comue Bourgogne Franche Comté en pleine crise, le rapport HCERES était passé complètement à côté. Par contre les acteurs locaux sont tétanisés par l’évaluation que fera le jury Isite, moyens à la clé !
C’est donc bien la systématisation envisagée du lien évaluation-allocation des moyens qui serait la grande rupture dans l’ESR français : il y a et aurait celles et ceux qui bénéficient des financements liés aux appels d’offre et les autres.
On imagine bien que c’est une des choses les plus compliquées à mettre en œuvre, dans un paysage hyperfragmenté et dans le cadre du service public. Tout le monde s’est cassé les dents sur, par exemple, ces 2 questions
- que fait-on d’une formation de premier cycle (pour les masters, cela existe déjà) jugée mauvaise ? On lui enlève des moyens ? Sur quels critères ?
- que fait-on lorsqu’un établissement cumule les difficultés (recherche faible, formations jugées peu efficaces, gestion approximative etc.) ? Lui baisse-t-on sa dotation de base ?
Ou alors, autre schéma, généralise-t-on les appels d’offres sur tous les aspects ?
Je pourrais multiplier les exemples d’un sujet qui n’est politiquement et techniquement pas simple ! Listons donc quelques questions qui méritent en soi de véritables débats et qui ne vont pas manquer de resurgir.
Les établissements ont-ils les mêmes objectifs ? Si l’on répond non à cette question, ce qui semble être la stratégie des pouvoirs publics depuis des années, quels peuvent être les référentiels partagés ?
L’évaluation peut-elle être conçue avec les mêmes indicateurs partout ? Quoi de commun par exemple, en matière de formation, entre une université parisienne qui a 20% de boursiers et une université en région qui en a près de 60% ? Quoi de commun entre une université au profil SHS et une université ayant de la médecine ? Et en recherche, quoi de commun entre une équipe de quelques personnes en SHS et un laboratoire de plusieurs centaines de chercheurs, appuyé sur un grand équipement ?
Que faut-il évaluer, comment ? Peut-on continuer à évaluer des centaines de diplômes, les labos, avec les critères actuels ? Le courrier fait la part belle aux nécessaires auto-évaluations des établissements, ce vieux serpent de mer (on se souvient des ‘visiting committees’ de Claude Allègre dès 1998). Mais cette autoévaluation, appréciée aujourd’hui par les établissements, sera-t-elle aussi populaire lorsqu’elle débouchera sur de véritables décisions ?
Jusqu’où la transparence ? Comment fait-on pour que le ‘grand public’ accède de façon fluide aux résultats ? Doit-t-on réintroduire les notes pour les labos ? Comment éviter l’endogamie des évaluateurs ?
Quelle périodicité ? Le processus bureaucratique actuel impliquait par exemple une évaluation de Sorbonne Université alors même qu’elle venait de fusionner, ce qui de l’aveu même des évaluateurs de Sorbonne Université, n’était pas cohérent. Si l’on observe à l’international, on ne perçoit aucune règle absolue.
On peut ajouter évidemment des tas d’autres questions : l’une d’elle est politiquement explosive, c’est celle de l’enseignement supérieur privé, au moment où il réclame l’accès au grade de licence pour ses bachelors.
Redéfinir l’usine à gaz des évaluations à la française ne va pas être une partie de plaisir ! Techniquement et politiquement.
Ce qu’écrivait sur ce blog, en octobre 2018, Jean-Pierre Korolitski à propos de l’évaluation et du HCERES
A l’occasion d’un de mes articles sur la rapport Attali 20 après, le proche conseiller de Frédérique Vidal, Jean-Pierre Korolotski expliquait : “Il nous faut un système d’évaluation par les pairs qui respecte pleinement les stratégies arrêtées par chaque établissement, mais un système qui dise clairement si cette stratégie a été efficace, si les objectifs fixés ont été atteints, quelles sont les forces réelles et comment elles sont valorisées, quelles sont aussi les faiblesses et comment on a cherché à y remédier… Un tel système doit être utile pour les étudiants et les familles, pour les partenaires académiques ou professionnels, mais aussi pour les pouvoirs publics et les financeurs… Les évaluations produites doivent être suffisamment nettes pour ne pas avoir besoin d’être décodées « entre les lignes » par des experts aguerris…
On ne peut que souhaiter que le HCERES puisse le plus rapidement possible produire ce type d’évaluations et envisager de nouvelles pratiques après dix ans « d’accompagnement » des établissements. C’est souhaitable pour accélérer les évolutions et aider les établissements à » se dépasser ». C’est souhaitable aussi pour une meilleure reconnaissance dans l’espace national et international. C’est enfin souhaitable pour éviter qu’à défaut ne se créent des dispositifs parallèles qui donnent aux pouvoirs publics les outils nécessaires à une allocation des ressources qui devra nécessairement être de plus en plus fondées sur les résultats obtenus par les politiques décidées par les universités et les autres établissements d’enseignement supérieur.”
Oui à évaluation suivi de conséquences sur l’allocation de moyens mais pas forcément mauvaise évaluation implique baisse de moyens ou encore parcours de licence mal évalué on le ferme!
Le sujet n’est pas que de juger et sanctionner en bien ou mal les acteurs mais de rectifier le tir pour donner aux “utilisateurs” les étudiants et leurs familles ce qu’ils sont en droit d’attendre quelque soit le lieu sur le territoire français. Attention je ne dis pas que tous les diplômes ou universités se valent, je suis conscient qu’il y a une hiérarchie mais l’important et de pouvoir offrir à tous suivant ses compétences le parcours qu’il peut raisonnablement atteindre. Mais avec le système évaluation-sanction qui va se mettre en place le risque est grand de fermer des parcours dans des universités de proximité à la place de leur donner les moyens supplémentaires pour atteindre le bon niveau qu’ils s’étaient fixés et sur lequel ils s’étaient engagés vis à vis des étudiants et familles.
Une fois de plus on met la charrue avant les bœufs quand on n’a pas défini précisément la vision que l’on a de l’ESR notamment dans sa structuration avec les conflits maintes fois traités dans ce blog entre : universités vs organismes (cela resurgit avec la loi Programmation de la seule Recherche), rapprochement GE/universités tjrs pas fait, universités de recherche intensive vs universités de proximité, réforme du 1er cycle pas menée à son terme en laissant traîner le faux sujet du bachelor, privatisation rampante de l’ES (voir écoles de commerce pour commencer), etc… Continuons-nous avec une restructuration du paysage à coup de PIA comme les EUR en cours (objectif EUR pas forcément une mauvaise chose d’ailleurs et c’est différent des graduate schools de nos amis anglo-saxons) ou par un Etat stratège qui s’appuie sur une évaluation et état des lieux clairement établi avec une vision et des objectifs mis sur la place publique?