2 Comments

3 questions ont été escamotées à l’occasion du débat sur la suppression, ou non, du HCERES. D’abord, pourquoi notre pays a-t-il été incapable, depuis la création du CNE en 1985, de mettre en place un système cohérent et consensuel d’évaluation de son ESR ? En quoi consisterait le ‘faible nombre d’indicateurs’ souhaité par les nouveaux convertis de la simplification ? Et pourquoi, tout le monde, des pro aux anti HCERES, parle des académiques mais jamais des étudiants et du service qu’ils/elles sont en droit d’attendre ? Il me semblait pourtant qu’un système d’ESR performant devrait s’intéresser à eux…

Il est facile comme certains le font ou l’ont fait de s’en prendre aux personnels du HCERES et/ou aux évaluateurs (qui jusqu’à plus ample informé sont des pairs). Il est plus difficile de se pencher sur les raisons structurelles qui aboutissent à cette énième crise. Remarquons d’abord que le débat parlementaire sur la suppression, ou non, du HCERES a été d’une nullité crasse 1Par ailleurs, selon Vie Publique à propos du projet de loi de simplification, l’Assemblée nationale « devrait poursuivre son examen les 30 et 31 mai 2025. Plus de 2 600 amendements ont été déposés, dont près de 1050 ont été jugés irrecevables. ». Je laisse mes lecteurs/rices juger : quelques minutes, pire qu’une procédure expéditive chez D.Trump. Je rejoins le SNPTES qui pointe « la légèreté avec laquelle la représentation nationale s’empare de la problématique de l’évaluation de l’enseignement supérieur et de la recherche ».

Il y a au moins 2 consensus…

En lisant les prises de position des pour et des contre, on peut au moins relever 2 consensus : des processus chronophages et bureaucratiques et des rapports en réalité peu ou pas suivi d’effets. Le problème (je commence à me faire vieux), c’est que j’entends ça depuis des années et des années, sans que cela ne change. Il est vrai que l’évaluation, on est pour quand elle est positive, contre quand elle est négative !

Oui, les rapports n’ont presqu’aucun effet, qu’ils soient bons ou mauvais pour un établissement, un labo, une formation, qu’ils soient de qualité ou non. Qui peut donner un exemple d’une formation, d’une unité de recherche, d’un établissement « sanctionné », voire fermé par suite d’une évaluation 🤔?  Pour être juste, la lecture des rapports (recherche, formation ou établissements) demeure une mine d’informations pour peu que les évaluateurs osent dire les choses : car, et c’est là que le bât blesse, la faible internationalisation des comités, ouvre la porte à tous les compromis entre ‘chers et chères collègues’. La polémique autour des évaluations de certaines formations de la vague E montre qu’il s’agit justement d’une exception !

Oui, les rapports sont chronophages, avec la tentation encyclopédique, ce virus bureaucratique qui est la conséquence d’un modèle de conformité dont notre pays est si friand. Un rapport en référé sur le HCERES de la Cour des comptes montrait que les milliers de rapports du HCERES (« Pas moins de 5 185 rapports ont été produits entre 2017 et 2019, soit entre 4 et 5 par jour. ») témoignaient surtout d’un contrôle velléitaire plutôt que d’une évaluation efficace.

Mais en quoi le personnel du HCERES, ses évaluateurs en sont-ils responsables ? On leur a demandé, dans la plus pure tradition française, d’ajouter en permanence des items : les VSS, la RSE et le DD, l’innovation etc. Mais alors quid du CNU par exemple dont le fonctionnement est autant bureaucratique et chronophage ? Ajoutons à cela que les établissements eux-mêmes peinent à fournir une autoévaluation qui tienne la route et sont faiblement capables de mesurer leurs évolutions et de les analyser. Faute de compétences internes peut-être, de temps sans doute, de peur de fâcher souvent.

Les contradictions des ‘anti HCERES’

Le sénateur communiste (et chercheur) Pierre Ouzoulias relevait à raison sur X ce qui est le point faible de ce vote initié par une partie de la gauche avec le soutien intéressé du RN : ce dernier est aux portes de l’Élysée. Or, si « l’extrême droite souhaite supprimer le HCERES » c’est pour que ses prérogatives « soient intégralement transférées au ministère », avec les conséquences que l’on imagine… Ce que Ph Baptiste confirme, à savoir que l’évaluation étant prévue par la loi, si ce n’est pas le HCERES, ce sera le ministère…

Comme toujours, les prises de position radicales et leurs sentences grandiloquentes sont marquées par le sceau de l’impuissance à agir. Il faut s’arrêter sur 2 arguments portés par les partisans de la suppression du HCERES. L’un par le député ex-LFI H. Davi 2Remarquons que s’il dénonce les menaces sur les libertés en France, il fait partie des députés qui avec le RN ont refusé de voter l’aide militaire à l’Ukraine. Il se retrouve désormais en bonne compagnie avec D. Trump… qui estime que « les modalités de l’évaluation des formations et des unités de recherche doivent redevenir la prérogative des établissements et des universités. » Une ode surprenante à l’autonomie qu’il pourfend par ailleurs… Pas en mal de contradictions, il ajoute d’ailleurs que ce serait l’occasion d’économiser 24M€, sans doute par admiration du DOGE de Musk 😉 !

L’autre argument est porté par le collectif RogueESR qui dénonce dans Le Monde l’illibéralisme 😏 de Ph. Baptiste, et en fait un allié de Trump et Musk mais curieusement oublie le RN : les leçons du KPD allemand des années 30 ont été bien apprises… Au-delà de ses formules pédantes, la pétition propose une solution réellement « illibérale » très inquiétante. Elle préconise, tenez-vous bien, « un dispositif transparent de contrôle des politiques scientifiques et universitaires. » Le contrôle plutôt que l’évaluation ? Un contrôle par l’État comme le veulent D. Trump, Marine Le Pen ou V. Poutine ?

Tirer le bilan d’un échec collectif

Si décidément, on trouvera toujours des ‘idiots utiles’, cela n’empêche pas d’avoir un sérieux débat autour du HCERES. L’ESR paie des années de manque de vision, et parfois de courage politique, tant du côté des pouvoirs publics 3La procrastination pour la nomination d’un(e) président du HCERES sous F. Vidal et S. Retailleau en est un symbole ? Des mois sans direction, des hésitations, des commissions d’examen, des candidatures infructueuses etc. que du côté des établissements et des personnels. Ces derniers se plaignent d’évaluations chronophages mais plébiscitent l’absence de conséquences 😉…

Les partisans du maintien du HCERES sauront-ils et voudront-ils analyser les raisons qui font que, depuis la création du CNE en 1985 jusqu’à aujourd’hui, aucune politique d’évaluation n’a réellement marché ? Ce débat n’en cache-t-il pas un autre comme l’avait souligné dès l’origine L. Schwartz (voir infra) ? L’évaluation est depuis des décennies basée sur un modèle de conformité, un modèle contradictoire avec l’autonomie des établissements. Sans même parler de la fragmentation entre universités, écoles et ONR, avec des tutelles différentes, qui oblige toute instance d’évaluation à une gymnastique organisationnelle intenable.

Une défiance permanente

Au-delà de multiples causes, l’échec des politiques d’évaluation n’est que le reflet du fonctionnement hypercentralisé de l’État français, basé sur la défiance. Il veut tout connaître mais en réalité ne maîtrise rien. Il y a bien sûr Bercy pour qui les universités et l’ESR sont une boite noire qui coûte cher (3ème budget de l’État !). Il y a un monde politique qui ne connaît ni ne comprend le système. Il y a une politique publique totalement anarchique avec une inflation d’appels à projets et un MESR qui poursuit le fantasme de savoir ce qu’il se passe au quotidien dans les établissements. Et puis, il y a des communautés académiques mécontentes d’un fonctionnement … qu’elles reproduisent allègrement à leur échelle avec le CNU, le CoNRS etc. tout en refusant toute tentative de clarification du paysage.

D’où une accumulation d’évaluations toutes aussi chronophages les unes que les autres. Ainsi, un rapport du HCERES va être « percuté » par celui de la Cour des comptes ou de l’IGESR sans parler évidemment des appels à projets à évaluer, ante ou ex post. Comment ceci peut-il rendre crédible l’évaluation (au-delà du HCERES) aux yeux de communautés noyées dans les tableaux à remplir ? Le pire évidemment, c’est que toutes ces injonctions restent lettre morte !

Que faut-il évaluer ?

Personne n’a en effet été en mesure jusqu’à présent de répondre à cette question. J’ai interrogé au cours de ma vie professionnelle des centaines de responsables : je n’ai jamais eu de réponse claire. J’avais commis un billet recensant diverses prises de position (Évaluation : ce n’est qu’un début, poursuivons le débat !). Bien sûr, je n’ai ni la compétence, ni l’arrogance pour vouloir définir ce que devrait être une évaluation de qualité.

Mais désormais, alors que tout le monde plaide pour un faible nombre d’indicateurs, ne faut-il pas définir lesquels ? Qu’est-ce qui traduit le bon usage des fonds publics votés par le Parlement ? Si on peut à peu près qualifier ce qu’est une « bonne recherche » 4Partout où je suis allé, tous les responsables étaient capables de dire tel labo, tel chercheur/euse est au top, d’autres moyens etc., qu’est-ce qu’une bonne formation ? Et qu’est-ce qu’une « bonne stratégie d’établissement » ? Celle du MESR ou celle validée par le CA ?

Faut-il dans les évaluations noircir des pages sur le climat social, le développement durable, la gestion financière etc. ou faut-il mesurer pour certaines universités l’évolution de leur attractivité internationale, de leur attractivité hors région en master, pour d’autres l’évolution du taux de réussite de leurs étudiants les plus défavorisés, leur impact local ?

Prenons quelques exemples : les taux de réussite ont-ils la même signification avec 20% ou 40% de boursiers ? Quel impact d’un encadrement insuffisant, normal, voire d’un surencadrement dans certains filières  (oui ça existe faute d’étudiants) ? Et les taux d’insertion professionnelle pour les filières professionnalisantes peuvent-ils être comparés à ceux des autres filières ? Bref, le pragmatisme et la nuance ne sont-ils pas la clé ?

Le pari de la confiance

En résumé, peut-il y avoir la même politique d’évaluation à PSL et ses composantes sélectives et à la (jeune) université de Nîmes ? C’est cette normalisation/uniformisation qui règne depuis des décennies, à l’inverse de l’évolution différenciée des établissements. Elle est à l’image de l’échec des COMP et plus globalement d’une politique contractuelle qui n’a jamais fonctionné, sinon à la marge. J-Y Mérindol rappelle ainsi dans un article très documenté comment L. Schwartz n’a pu imposer que les experts-évaluateurs du CNE soient choisis par les départements eux-mêmes : c’est un fonctionnement centralisé qui a été choisi dès 1985.

Or, qui plus qu’une université a intérêt à une évaluation sérieuse ? Qui contesterait un « visiting committee » international validé par le CA de l’établissement, avec évidemment un cadre à respecter, fixé par un HCERES rénové ? Avec une question : même si les établissements  choisissaient eux-mêmes un conseil scientifique (certains le font) ou une autre structure ad hoc, leur gouvernance serait-elle capable d’imposer les conclusions quelles qu’elles soient ? Mais c’est justement cela le défi de l’autonomie, autour de la confiance, pas une circulaire du MESR !

Un absent de taille

En conclusion, dans ces polémiques, il y a un absent de taille, ce qui semble ne gêner personne. Et c’est bien le problème. Lorsque l’on parle d’évaluation, on évoque d’abord la recherche ou les formations (ah la vague E !). Mais qui parle des étudiants ?

Pourquoi les communautés académiques en France sont-elles les seules des pays de l’OCDE à refuser de mettre en place une évaluation systématique des enseignements par les étudiants ? C’est pourtant le gage d’une dynamique pédagogique positive et pour ces derniers et pour les enseignants. On me rétorquera que cette question est anecdotique par rapport aux enjeux de l’évaluation ?

C’est typiquement une vision technocratique et élitiste, partagée malheureusement par tout le spectre des acteurs académiques, des établissements aux communautés en passant par le MESR et l’extrême gauche.

Dans la tribune du Monde du collectif RogueESR, qui se veut de gauche, les étudiants n’existent pas : seuls les académiques comptent, cette élite que les ‘bouseux’ ne peuvent pas comprendre… D’ailleurs préconise-t-elle que ces derniers puissent avoir leur mot à dire sur leurs enseignements (à ne pas confondre avec les formations !), comme dans tous les pays comparables ? Que nenni, évaluer les enseignements est sûrement une proposition d’extrême-droite 😒…

Le rêve d’un ESR sans étudiants transpire ainsi tristement dans toutes les tribunes qui fleurissent, illustration d’un conservatisme mandarinal si ancré dans notre pays. Le rêve d’une université sans étudiant… Et si l’évaluation retrouvait d’abord sa raison d’être : la recherche bien sûr, pas les formations appartenant aux universitaires mais la formation des étudiants ? 


L’évaluation : une vieille histoire !

Lors de l’inauguration du CNÉ, symboliquement le 10 mai 1985, François Mitterrand soulignait (Le Monde du 13 mai 1985) les 3 principes essentiels qui doivent animer les universités : « autonomie, émulation, qualité. »  Et Laurent Schwartz, initiateur et premier président du comité, expliquait que « l’examen régulier de l’état de santé des établissements allait favoriser l’autonomie des universités. » Selon lui, les universités, « trop souvent injustement critiquées, doivent saisir la chance que représente une évaluation indépendante » pour regagner les faveurs de l’opinion publique. Mais, déjà, le Snesup prônait « une évaluation démocratique » et s’inquiétait d’une instance qui pourrait « contribuer à un classement hiérarchisé des établissements et à un pilotage de l’attribution des moyens par le ministère. » 🙂🙂

En juin 2021, j’écrivais déjà sur le temps perdu dans l’ESR… En 2025, rien n’a fondamentalement changé. Pour preuve ce petit résumé qui montre que ce dont il s’agit, ce n’est pas du HCERES ou du MESR mais bien du fonctionnement global de l’Etat dans notre pays.

Petit florilège : j’invite mes lecteurs/rices à le compléter car j’ai dû en oublier !

  • Instances sur la formation : accréditation Ministère des diplômes, HCERES, CTI, CDEFG, Qualiopi, vérification des formations, contrôles de conformité des apprentissages, conseils de perfectionnement, observatoires, audits des financeurs (ANR, SGPI, MESR, régions etc.) ;
  • Recherche : HCERES, CNU, CoNRS, rapports d’activité, évaluation des labos par les ONR, audits des financeurs (ANR, SGPI, MESR, régions, UE etc.), contrôle de conformité aux règles d’intégrité scientifique ;
  • Administration : inspections ministérielles, contrôle RGPD, contrôle Agence Française anti-corruption, Cour des comptes, Bercy/DGFIP, sécurité et défense, suivi financiers et suivi avancement projets ;
  • Rapport d’activité Idex, Rapports annuels France 2030, Baromètre QVT, audits internes, examen de la responsabilité sociétale via le rapport d’égalité pro entre H/F, accréditation internationale, normes ISO, labels de qualité de service comme Bienvenue en France, label DDRS, certification pour les bonnes pratiques en recherches ;
  • Classements nationaux et internationaux….

Références

Références
1 Par ailleurs, selon Vie Publique à propos du projet de loi de simplification, l’Assemblée nationale « devrait poursuivre son examen les 30 et 31 mai 2025. Plus de 2 600 amendements ont été déposés, dont près de 1050 ont été jugés irrecevables. »
2 Remarquons que s’il dénonce les menaces sur les libertés en France, il fait partie des députés qui avec le RN ont refusé de voter l’aide militaire à l’Ukraine. Il se retrouve désormais en bonne compagnie avec D. Trump…
3 La procrastination pour la nomination d’un(e) président du HCERES sous F. Vidal et S. Retailleau en est un symbole ? Des mois sans direction, des hésitations, des commissions d’examen, des candidatures infructueuses etc.
4 Partout où je suis allé, tous les responsables étaient capables de dire tel labo, tel chercheur/euse est au top, d’autres moyens etc.

2 Responses to “HCERES : un bouc-émissaire si pratique…”

  1. Excellent billet comme toujours. Une remarque : vu de l’extérieur, le HCERES réunit deux missions en fait très différentes, l’évaluation et l’accréditation (pour les formations). Il est habituel que l’accréditation relève surtout d’un contrôle de conformité avec une liste assez longue de points à vérifier. L’évaluation par contre, et en particulier pour les unités de recherche, devrait plutôt être qualitative et menée par les pairs (même si elle peut s’appuyer sur certains indicateurs quantitatifs, quitte à ce que les experts les valident ou pas).

  2. Globalement d’accord une fois de plus avec les sujets abordés dans ce billet.
    Je vous invite à consulter le blog EsrAq (https://esraq.fr/), vous y trouverez les réponses à vos questions sur le contenu d’une évaluation qui permettrait à la fois de donner du sens et plus d’exigence à la démarche.

    Il y a une voie pour une réelle simplification et une évaluation plus focalisée sur le pilotage stratégique et opérationnel d’établissements autonomes mais il faut pour cela une prise de conscience collective des enjeux d’une évaluation formative et non pas normative et une réelle volonté de l’Etat de sortir, comme vous l’indiquez, de processus centralisateurs visant une pseudo régulation…

    Nous avons effectivement perdu bcp de temps et d’énergie depuis la création de l’Aeres par une incapacité à comprendre les enjeux d’une évaluation au sens des standards européens (ESG) et plus globalement la communauté ESR a été incapable de comprendre les ressorts réelles des grands principes de l’assurance qualité.
    Plutôt que des débats à l’emporte pièce sur le sujet il faudrait tout simplement se mettre sérieusement au travail pour apprendre et comprendre comment l’assurance qualité peut être un levier de progrès et de performance pour notre ESR. Ce ne sont pas des indicateurs miracles qui vont apporter une réponse au problème mais des mécanismes qui donnent du sens à l’évaluation et responsabilisent les établissements….

Laisser un commentaire