Abonnez-vous à Universalis pour 1 euro

ÉVALUATION DE LA RECHERCHE

Ne pas céder à la tentation du tout-quantitatif 

Ainsi, les nombres sont très présents dans l'évaluation de la recherche. Ce sont des outils de gestion incontournables pour les politiques publiques parce que ce sont de puissants auxiliaires de la prise de décision, dans un contexte où les décisions d’investir sont difficiles à prendre. Les décideurs, publics et privés, les utilisent pour simplifier et plus encore pour justifier leurs choix d’investissement. De même, les chercheurs les utilisent pour simplifier leur travail d'expertise.

Le danger principal, pour les experts comme pour les décideurs, est de trop se reposer sur les chiffres au lieu de garder l’esprit critique sur leurs limites d’usage. Or ces indicateurs deviennent accessibles par abonnement et sont de plus en plus souvent présentés dans des interfaces graphiques très simples à consulter. Et c’est bien la facilité croissante avec laquelle on peut les utiliser qui exige ces mises en garde.

En effet, l'évaluation de la recherche, qui peut apparaître comme une activité très spécifique, contribue à modeler la recherche de demain. De fait, les évaluations ont, tôt ou tard, des conséquences en termes de sélection : financer tel projet plutôt que tel autre, renforcer telle équipe, recruter tel jeune chercheur… revient, sur le long terme, à favoriser certaines recherches et à en éliminer d'autres.

Ces évaluations intéressent donc la société tout entière. Ainsi, ceux qui les organisent (les agences de financement, les agences d’évaluation, les institutions de recherche, les investisseurs privés…) doivent faire preuve de rigueur et d’esprit critique dans l’usage qu'ils font des indicateurs. Concernant ceux qui sont couramment utilisés, les questions qui se posent sont, par exemple, les suivantes : quelle influence de long terme pourra avoir, sur l’entreprise scientifique dans son ensemble, une sélection influencée par des indices volumétriques calculés à très court terme ? Quoi ou qui élimine-t-on de la course en procédant de cette manière ? À l’inverse, quels indicateurs nouveaux faut-il mettre sur pied pour éclairer les dimensions de la recherche qu'on souhaite promouvoir, telles que la créativité ou la fiabilité ?

Des travaux sur ces questions, à la charnière des techniques statistiques et des sciences sociales, se développent. Ils font apparaître que, parmi les principes qui encadrent l’évaluation en général, deux sont particulièrement importants quand on utilise des nombres. Le premier principe est celui du contradictoire : il est important de donner aux évalués la possibilité de connaître les indicateurs qui sont utilisés pour les évaluer, et celle de les commenter. Cela permet, puisque les indicateurs sont toujours ambigus, de vérifier qu’on a bien pris en compte toutes les informations qui permettent de les contextualiser. C’est bien là la raison invoquée par l’Académie des sciences lorsqu’elle propose qu’on invite les chercheurs concernés à faire l'analyse des indicateurs qui décrivent leur travail. Le second principe est le principe de transparence, qui suppose que les données, les calculs, les indicateurs et les usages qui en sont faits soient clairement décrits.

Ces deux principes ne constituent pas seulement des garde-fous techniques, ils sont aussi la traduction du principe de confiance qui doit présider à l’évaluation : confiance des évaluateurs dans l’intégrité professionnelle des évalués, confiance des évalués dans l’exigence méthodologique des évaluateurs.

— Ghislaine FILLIATREAU

La suite de cet article est accessible aux abonnés

  • Des contenus variés, complets et fiables
  • Accessible sur tous les écrans
  • Pas de publicité

Découvrez nos offres

Déjà abonné ? Se connecter

Écrit par

  • : directrice de recherche à l'Institut national de la santé et de la recherche médicale, ancienne directrice de l'Observatoire des sciences et des techniques du Haut Conseil de l'évaluation de la recherche et de l'enseignement supérieur

Classification

Média

La difficile évaluation de la recherche - crédits : P. Lemonnier/ EUF

La difficile évaluation de la recherche