L’évaluation s’est imposée de longue date comme mode de régulation central du monde scientifique. Dès le XVIIIe siècle, les publications de recherche commencent à être soumises à l’évaluation « par les pairs » ou « peer review » (Gingras, 2014), dans le contexte de l’émergence des revues scientifiques qui visent à diffuser les connaissances produites par les savants aux cercles d’intéressés. Le terme de « peer review » désigne l’activité collective de jugement critique, par des chercheurs, des travaux de leurs collègues. L’évaluation de la recherche fait partie intégrante des pratiques des universitaires et des chercheurs, qui, à différents moments de leur carrière, sont évalués et expertisent l’activité de leurs pairs. Les organisations où travaillent les scientifiques sont également évaluées : l’une des missions du Comité national de la recherche scientifique (CoNRS), créé à la fin de la seconde guerre mondiale, est en effet d’évaluer les chercheurs et les équipes de recherche.
Le jugement est donc omniprésent et ritualisé dans la profession scientifique. L’évaluation de la recherche est même une activité routinière, familière aux chercheurs et inscrite dans leur quotidien de travail. Depuis le milieu des années 2000, les pratiques d’évaluation se transforment et font l’objet d’importantes critiques. Comment et pourquoi ? À partir de mes travaux d’enquêtes en sciences sociales [1], je propose d’éclairer les raisons de la colère contemporaine contre les modes d’évaluation de la recherche. Dans le contexte actuel de préparation d’une nouvelle loi de programmation de la recherche, il est utile de comprendre l’émergence de ces critiques, pour mesurer l’ampleur des changements apportés depuis une quinzaine d’années par les dispositifs d’évaluation du travail des chercheurs, et les logiques sociales et politiques renouvelées de cette pratique fort ancienne.
Les nouveaux usages d’une pratique ancienne
L’enquête montre que les critiques que les chercheurs adressent à l’évaluation ne portent pas tant sur le principe même de l’évaluation, consubstantielle à l’activité scientifique, qu’elles ne ciblent ses usages contemporains, les finalités et les formes renouvelées qu’elle prend au tournant du XXIe siècle. En effet, les années 2000 voient la création de deux nouvelles agences. L’Agence Nationale pour la Recherche (ANR), qui systématise le financement de la recherche sur projets, et l’Agence d’Évaluation de la Recherche et de l’Enseignement Supérieur [2], qui évalue l’ensemble du dispositif d’enseignement supérieur et de recherche. La création de cette agence s’inscrit dans une séquence de réformes inédites de l’enseignement supérieur et de la recherche (Ravinet, 2012) qui, depuis le milieu des années 2000, font de l’évaluation de la performance et de la concentration des fonds sur les « meilleurs » les pièces maitresses du nouveau système de gouvernement de la science. L’évaluation de la recherche a une place de choix dans ces réformes : une partie des crédits des organisations universitaires est supposée être indexée sur les résultats de l’évaluation, comme dans d’autre pays, tels que la Grande-Bretagne – où c’est le cas depuis la fin des années 1980.
Dès lors que l’évaluation devient un instrument au service de l’ « excellence », tel que ce terme est employé depuis les années 2000, elle peut être mobilisée par les décideurs comme un outil permettant de hiérarchiser les sites de recherche, en allouant les ressources à un nombre restreint d’équipes et de chercheurs, au détriment de l’ensemble de la communauté scientifique. En effet, si la compétition est un des piliers du monde scientifique [3], et si l’on trouve depuis plus longtemps en France des traces d’un discours politique sur la nécessaire répartition inégalitaire des ressources et le « darwinisme » en science [4] – selon lequel seul.e.s les meilleur.e.s survivront dans la course aux crédits scientifiques, et recevront d’importantes primes – jamais ce discours n’avait été revendiqué à la fois si publiquement par divers acteurs du gouvernement de la recherche, et surtout, jamais n’avaient été mis en œuvre les moyens pour qu’une telle inégalité scientifique s’instaure et s’accentue.
Parmi les outils de ce pilotage renouvelé de la recherche, mentionnons l’attribution de notes aux laboratoires de recherche et le calcul d’indicateurs de performance scientifique comme le taux de « publiants », c’est-à-dire le taux de chercheurs et enseignants-chercheurs jugés actifs en recherche, en fonction du nombre d’articles qu’ils publient. Notes et indicateurs ne sont pas des inventions de l’AERES : ils lui préexistent, au ministère de la recherche, d’au moins dix ans (Gozlan 2020), mais leur place dans le dispositif de gouvernement de la recherche se transforme cependant, en raison de la publicité nouvelle qui est donnée à ces outils d’évaluation.
En effet, depuis la création de l’AERES, l’intégralité des rapports d’évaluation et des notes attribuées aux laboratoires est rendue publique, ce qui n’était pas le cas des évaluations conduites par d’autres instances auparavant. Cette visibilité peut transformer le sens et l’usage des évaluations : outils de stigmatisation potentielle – si les notes sont mauvaises – elle deviennent des outils de benchmarking (Bruno et Didier, 2013), c’est-à-dire des technologies de gouvernement fondées sur la comparaison, incitant les chercheurs à répondre aux injonctions implicites contenues dans les critères d’excellence pour se positionner dans cette course à la performance. L’évaluation devient ainsi un instrument central de gouvernement des conduites des universitaires.
Ensuite, les notes n’ont pas seulement des conséquences symboliques : elles sont employées comme clé de répartition budgétaire, selon un coefficient qui favorise les équipes les mieux notées. Dans le cadre de la loi Liberté et Responsabilité des Universités (LRU) (2007), un nouvel outil d’attribution des crédits universitaires a été bâti. L’algorithme « SYMPA », pour « Système de répartition des Moyens à la Performance et à l’Activité », calcule ainsi la dotation globale à attribuer aux universités, dans laquelle comptent pour une part les notes attribuées par l’AERES aux laboratoires de recherche affiliés à l’université considérée.
Ainsi, les instruments d’évaluation ne sont pas à envisager seuls, mais comme éléments d’un système : l’évaluation peut devenir un instrument de pilotage des ressources humaines de l’université, y compris dans le cadre des débats sur la « modulation des services » des enseignants-chercheurs. Évoquée dès le début des années 2000, cette question est au cœur du projet de réforme du statut des enseignants-chercheurs annoncé à la fin de l’année 2008. Il prévoit des décharges d’enseignement ou une augmentation du nombre d’heure de cours, en fonction notamment de l’implication des personnels dans des activités de recherche.
Une part importante de la communauté académique française s’est érigée contre la modulation des services en 2009 [5], conduisant au retrait de cette mesure dans le décret réformant le statut des enseignants-chercheurs, mais cette possibilité était encore en suspens au moment où l’AERES généralisait le calcul des taux de « publiants », dès 2008. L’on voit bien ici comment la mesure de la productivité scientifique peut devenir un outil de pilotage particulièrement coercitif : un universitaire considéré comme non publiant pourrait ainsi se voir proposer (imposer ?) une augmentation de son service d’enseignement, au motif qu’il n’était pas suffisamment « actif » en recherche. Ainsi, si l’AERES reprend une partie des outils d’évaluation déjà existant par ailleurs, leur signification et leur portée politique change radicalement.
Le débat sur la modulation des services a été rouvert à l’occasion de la discussion de la nouvelle LPPR, mais cette option ne semble pas retenue à ce jour dans le projet de loi – ce qui ne l’empêche pas de prévoir d’autres moyens de différencier et de hiérarchiser la profession scientifique, comme la poursuite de mise en place de primes à la performance et des statuts dérogatoires d’enseignants-chercheurs. Ainsi, les instruments d’évaluation peuvent revêtir, en fonction des usages qui en sont fait, des fonctions politiques plurielles voire antinomiques : outil d’accompagnement et de formation, ils peuvent aussi être directement mis au service des décisions budgétaires et managériales. C’est clairement dans cette seconde optique que les transformations contemporaines de l’évaluation prennent sens. Mais sur quoi s’appuient ces logiques ? Comment comprendre ces évolutions ? L’une des spécificités des transformations du gouvernement de la recherche tient au fait que les réformes sont endossées, relayées, et mises en œuvre par une partie du monde de la recherche lui-même.
Qui sont les juges ? Des réformes portées par une partie des scientifiques
Dans de nombreux mondes du travail, les injonctions à un contrôle accru des travailleurs par le biais de l’évaluation sont bien souvent le fruit de pressions managériales, portées par des acteurs extérieurs – étatiques ou experts en tous genre, pour assujettir les salariés à certaines normes, en les conduisant parfois à endosser des valeurs peu compatibles avec leurs propres représentations du métier (Boussard, Demazière et Milburn, 2010). En France, les liens historiques particulièrement forts entre l’État et les scientifiques (Musselin, 2008) qui peuplent les ministères dédiés à la recherche et à l’enseignement supérieur ont d’importantes conséquences sur la façon dont les réformes de l’évaluation sont conçues et mises en œuvre. Historiquement, celles-ci reposent en effet sur le concours actif d’une partie de la profession.
Analysant les parcours biographiques des membres de l’AERES qui participent à la création des critères d’évaluation de la recherche, j’ai montré que leurs profils les assimilaient à des « élites intermédiaires de la profession scientifique ». Ni experts externes à la profession, ni « ex-pairs », ayant délaissé leurs activités d’enseignement et de recherche au profit d’activités de direction, la plupart d’entre eux ont circulé, sans toujours s’y attarder, dans les instances qui régulent la profession. À côté de certains scientifiques qui se spécialisent dans des carrières d’administration et de pilotage de la recherche, et qui ont un « capital de pouvoir scientifique », (Bourdieu, 1984, p. 60), mesuré aux responsabilités institutionnelles qu’ils occupent dans des arènes diverses, telles que l’université, les organismes de recherche, les instances politiques et ministérielles, la plupart de ces scientifiques qui rebâtissent le dispositif d’évaluation de la recherche occupent de façon plutôt ponctuelle que durable des tâches de gestion de la profession et reviennent souvent après un ou deux mandats à ce qu’ils caractérisent comme leur cœur de métier. Certains se distinguent surtout par leur « capital de prestige scientifique » (Bourdieu, 1984) : reconnus par leurs pairs au titre de leur travail scientifique, ils n’occupent pas nécessairement de position de pouvoir « politique » au sens large, comme une position de présidence d’université par exemple. Souvent passés par les canaux consacrés de leurs disciplines (Écoles normales supérieures et agrégation le cas échéant), ce sont plus volontiers des hommes – on recense une petite dizaine de femmes sur les quarante individus pris en compte dans la base de données, presque tous professeurs d’universités plutôt que maitres de conférences. Même chez ceux qui ont occupé le plus de positions dans la gestion et l’organisation scientifique, c’est leur assise académique qu’ils mettent en avant dans les entretiens, comme en témoigne cet extrait :
Je fais partie des gens qui sont à l’Institut Universitaire de France senior, donc j’ai un bon dossier scientifique, (…) un facteur H [6] élevé, un grand nombre de communications (membre de l’AERES, physique)
Leur positionnement particulier dans l’espace académique permet d’éclairer le fait qu’ils tendent à se présenter davantage comme des pairs que comme des patrons lorsqu’ils produisent les instruments d’évaluation : ils en appellent souvent à leur proximité avec leurs collègues et à leur connaissance du fonctionnement de leur discipline pour justifier ou délégitimer les procédures d’évaluation. Mais dans le même temps, le fait d’avoir navigué dans différentes instances de régulation professionnelle leur permet de faire valoir leur expérience et leur représentation de la « bonne » façon d’organiser et de conduire l’évaluation de la recherche.
Les prescriptions à un changement des pratiques ne sont pas perçues par ces élites intermédiaires comme des pressions externes au monde scientifique, elles s’en saisissent au contraire pour réformer l’évaluation scientifique, et assument clairement ce projet :
Formaliser les procédures, rendre transparents les critères et le résultat des évaluations, pour moi c’était vraiment essentiel […] Je me suis résolu assez vite [à venir à l’agence] parce que ça me paraissait un enjeu intéressant de modifier les pratiques de l’évaluation au niveau des laboratoires : […] rendre visibles les jugements, savoir qu’ils vont être publiés, incite je pense à mettre en œuvre plus d’objectivité que si on le faisait dans le secret d’un rapport anonyme (Membre de l’AERES, science humaines et sociales)
Ainsi, les débats sur les pratiques de recherche légitimes et les manières d’en juger n’opposent pas des scientifiques et des « managers » : les prescriptions à la transparence et à l’efficacité des pratiques de travail, habituellement conçues comme des attaques envers l’autonomie professionnelle, peuvent être promues depuis le cœur de la profession. Les transformations de l’évaluation de la recherche nous invitent à observer comment se reconfigure le pouvoir scientifique – c’est-à-dire, pourquoi et comment certains membres de la profession relayent des injonctions au changement, endossent des discours managériaux et œuvrent à réformer les pratiques de travail de leurs collègues.
Transformer l’évaluation par les pairs
La création des agences, à partir du milieu des années 2000, correspond moins à l’invention de la bureaucratie qu’à son extension et son approfondissement. Ce mouvement se caractérise par une formalisation sans précédent des pratiques d’expertise scientifique. On assiste à la création d’un arsenal de « guidelines », des « chartes », et autres protocoles qui visent à encadrer la production du jugement collégial.
La singularité de ce processus de standardisation de l’évaluation tient au fait qu’il est défendu par des scientifiques en exercice qui, accédant à des positions (à l’AERES) qui leur permettent de faire valoir leurs préférences, promeuvent la création de standards et s’investissent concrètement dans la codification des pratiques de leurs collègues.
Certes, des voix se sont soulevées contre cette « mise en grille » (Cassin, 2014) sans précèdent de l’expertise, y compris à l’intérieur de l’agence, certains critiquant la « deshumanisation » de l’évaluation, l’ « esprit paperassier » de l’institution. Cependant, un certain nombre des membres nommés dans les premières années de fonctionnement de l’AERES revendique un plus fort encadrement des pratiques professionnelles.
Les membres de l’AERES rappellent ainsi souvent leur attachement à l’évaluation par les pairs : ils soulignent que la collégialité est la condition sans laquelle l’expertise deviendrait une tâche technique et déprofessionnalisée, dans laquelle la compétence scientifique ne serait plus requise. Mais ils estiment qu’en favorisant l’expression de clivages méthodologiques, scientifiques et idéologiques, l’évaluation par les pairs peut s’exercer au détriment de la quête (fantasmée ?) d’objectivité dans la production du jugement. Il ne s’agit donc pas d’abolir le jugement collégial, en le remplaçant par des algorithmes, mais de mettre en règle l’évaluation par les pairs : la création de normes écrites, standardisées et publiques constituerait un rempart contre ce qu’ils présentent comme les biais inhérents à l’évaluation collégiale, à savoir principalement les liens de complicité ou de conflictualité entre évaluateurs et évalués.
C’est ainsi que l’on peut comprendre la consigne de constituer des comités d’évaluation « internationaux » au sein de l’AERES. Réputés extérieurs, par leur éloignement géographique, aux réseaux et aux chapelles disciplinaires nationales, ces experts internationaux sont supposés plus objectifs dans leur jugement, étant dégagés de relations de service ou de liens d’interdépendance. Pierre Bourdieu soulignait déjà dans les années 1970 que l’engouement pour les experts internationaux relevait d’une « philosophie naïve de l’objectivité » (Bourdieu, 1975, p. 94), selon laquelle leur position d’étranger les placerait en surplomb des prises de parti. Les scientifiques de l’AERES ne sont pas non plus dupes de l’artifice : ils soulignent parfois que les experts étrangers sollicités font aussi partie de leur réseau scientifique et qu’ils ont fréquemment des liens avec eux, étant spécialistes des mêmes domaines. Certains mobilisent également l’argument inverse, selon lequel une trop grande distance épistémique entre les évaluateurs et les évalués, et la méconnaissance des particularités institutionnelles et disciplinaires françaises nuit à la pertinence et la légitimité du jugement des experts « internationaux ». Dans tous les cas, l’évaluation par les pairs requiert une certaine proximité.
La seconde manifestation de cette recherche de distance entre évaluateurs et évalués se donne à voir dans le fait que les procédures ne s’arrêtent pas à formaliser le déroulé ou les étapes de l’évaluation, elles encadrent également jusqu’aux relations entre les évaluateurs et les évalués. Les membres de l’agence produisent en effet des « codes de bonne conduite » qui définissent le comportement et l’attitude requise des évaluateurs. Les consignes données prennent ainsi pour objet le contenu de l’interaction humaine qui s’établit lors de l’expertise ou en amont. Ces deux traits – recherche d’une expertise qui serait légitime parce qu’« internationale » et encadrement des liens entre experts et évalués – ne sont pas propres à l’AERES, on les retrouve également à l’ANR, agence de financement de la recherche sur projet. On peut ainsi lire, dans sa documentation publique, la recommandation suivante :
Les membres d’un comité ne doivent pas accepter de cadeaux ou d’avantages qui les rendraient ensuite débiteurs d’une autre partie et pourraient altérer l’objectivité de leurs positions finales (ANR, Charte de déontologie, 22/07/2005, p. 4.)
Il ne faudrait pas voir dans cette bureaucratisation de l’évaluation un simple changement technique. Selon ce modèle, il ne suffit pas aux « experts » d’être des spécialistes du domaine qu’ils évaluent pour garantir la rigueur de leur expertise ; la proximité et la connaissance du métier, au cœur du peer review, sont entachées de soupçons, elles apparaissent du moins comme une condition non suffisante pour assurer la validité de leur jugement. L’équité de l’évaluation serait plutôt garantie par le respect scrupuleux de procédures transparentes et identiques pour tous, qui visent avant tout à prévenir les risques de conflit ou de proximité d’intérêts, en introduisant de la distance dans les liens interpersonnels consubstantiels à toute évaluation collégiale.
Le mode de recrutement des évaluateurs de l’AERES est enfin un indice de cette conception procédurale de la légitimité de l’évaluation. Nommés, et non élus comme c’est le cas dans les sections d’évaluation de certains organismes de recherche, ils sont supposés être moins débiteurs de leurs électeurs. Mais encore une fois, le choix des procédures n’est pas neutre : ce mode de recrutement entraine la mise à l’écart de certaines institutions jusque-là dominantes dans l’évaluation des laboratoires, notamment le Comité national du CNRS, qui a une forte légitimité élective au sein de la profession, la place de ses représentants dans les comités d’évaluation de l’AERES étant réduite à portion congrue.
Ces réformes ont ainsi pour enjeu une redistribution du pouvoir de juger la qualité scientifique, tout autant qu’une redéfinition des méthodes de travail légitimes.
Redéfinir la qualité scientifique
Examinant l’activité de jugement à l’AERES dans deux disciplines des sciences humaines et sociales, la géographie et la littérature, j’ai montré que la reconnaissance de la qualité n’est pas mécaniquement déterminée par les chiffres et les indicateurs (Gozlan, 2016). Cependant, certaines « bonnes pratiques » de recherche se donnent à voir dans l’analyse des rapports d’évaluation des laboratoires de recherche, qui dessinent un modèle organisationnel que les équipes de recherche sont invitées à mettre en pratique.
Dans les deux disciplines, les rapports d’évaluation valorisent la cohésion thématique du laboratoire. En témoigne le nombre important d’occurrences relatives à ce que les évaluateurs considèrent comme une « atomisation » des recherches entreprises au sein du centre de recherche, qui stigmatise une dispersion individuelle des travaux, selon un modèle de liberté et d’individualité absolu de recherche, et un manque d’orientations scientifiques structurantes dans le laboratoire. Les entretiens confirment cette représentation, selon laquelle « une bonne unité » n’est pas seulement « le regroupement sous un même chapeau de brillants normaliens qui ont une très grosse production. Ce qui est important, c’est la capacité d’intégration de cette unité de recherche, c’est-à-dire sa vie collective, sa capacité à produire des programmes impliquant un certain nombre d’entre eux, dans lesquels les doctorants peuvent être installés » (membre de l’AERES, sciences humaines et sociales).
Les rapports d’évaluation relayent une conception selon laquelle la recherche performante doit être organisée, pilotée, et non pas seulement le produit de trouvailles ou de réflexions solitaires, entreprises par des scientifiques agrégés de façon ad hoc dans des centres de recherche. Les structures de recherche doivent également, selon ces recommandations, s’insérer dans un tissu institutionnel, en collaborant avec d’autres centres de recherche, en France ou à l’étranger. Les équipes de recherche en sciences humaines et sociales sont alors encouragées, à l’image d’autres disciplines qui se sont déjà structurées autour d’équipements et de projets collectifs (Barrier, 2011), à adopter des modes collaboratifs et intégratifs de travail et à favoriser la création de réseaux de recherche.
Les équipes de recherche qui ne se conforment pas à ce modèle organisationnel se trouvent discréditées. Plusieurs équipes appartenant à des institutions réputées en sciences humaines, comme l’École normale supérieure de Paris, celle de Lyon, et l’université Paris IV, ont ainsi obtenu la note globale B alors même que la qualité des travaux individuels de ses membres est reconnue et valorisé dans les rapports d’évaluation – signe que cette qualité n’est pas suffisante pour que l’équipe se voie consacrée par l’agence d’évaluation. Si les instruments d’évaluation de l’AERES réforment les pratiques scientifiques légitimes, c’est donc littéralement à distance, dans la mesure où ils portent moins directement sur le « cœur de métier » des acteurs de la recherche, que sur les conditions mêmes dans lesquelles le travail de recherche est conduit et réalisé.
Concernant l’appréciation de la valeur des productions scientifiques, les critères diffèrent selon les disciplines. En géographie, l’accent est clairement placé sur la nécessité de publier davantage, dans des revues à comité de lecture, internationales et en anglais. Ainsi, les évaluateurs s’ajustent ainsi à l’échelle de valeur dispensée dans les documents de l’AERES, qui fait des publications « locales » des productions moins valorisées, tandis que celles qui paraissent « à l’international » et/ou dans des revues classées sont les plus reconnues. Dans les entretiens, il apparaît parfois qu’encourager des pratiques de publication dans des revues labellisées et non-francophones soit un moyen indirect de hausser le niveau global et la reconnaissance des publications.
Les évaluateurs en littérature mobilisent au contraire des principes de hiérarchisation indigènes, indexés sur leur connaissance du métier et de leur discipline – en ayant recours au vocabulaire de l’expertise (Bessy et Chateaureynaud, 1993) qui procède de l’expérience du métier (« on sent », « on sait ») et repose sur un savoir incorporé difficilement objectivable. Ils construisent alors leur appartenance disciplinaire comme rempart contre une standardisation du jugement. Mais s’ils y parviennent, c’est en partie parce que des représentants de la discipline – tels que les présidents de sociétés savantes, des membres du jury de l’agrégation, les présidents des sections du Comité National des Universités de la discipline, mais aussi les directeurs de revues – ont réussi, en amont, à faire échouer l’intrusion d’un système de classification des productions scientifiques (à ce sujet, voir Aust, Gozlan, 2018). Ces enquêtés peuvent d’autant plus révoquer un système objectivé, qui assoit entre l’évaluation de la production scientifique sur les listes de revues labellisées, qu’il est conçu par de nombreux littéraires comme inadéquat à leurs pratiques de production des savoirs.
Même s’ils ne font pas l’objet d’appropriations systématiques, les critères de jugement énoncés par les membres de l’agence mettent néanmoins en visibilité et de manière inédite certaines conceptions de la recherche. Une fois qu’ils ont été forgés, et même lorsqu’ils ont été abandonnés face aux critiques, les instruments circulent et connaissent en quelque sorte une vie après la mort : certains collègues se réfèrent encore aujourd’hui à des classements de revue publiés par l’AERES qui ont depuis disparu. Plus encore, les scientifiques peuvent s’appuyer sur ces instruments pour accompagner des transformations qu’ils estiment bénéfiques, concernant les pratiques d’organisation du travail scientifique et les méthodes de validation du savoir, alors même que ces réformes ne font pas toujours consensus au sein de leur discipline. Ce qui est intéressant ici, c’est que ces définitions du travail scientifique n’apparaissent pas comme l’imposition d’une représentation de la qualité entièrement étrangère au monde scientifique : dans chaque discipline, des universitaires se saisissent et relayent des injonctions venues d’autres franges de la profession (comme des modèles d’organisation de la recherche hérités des sciences expérimentales), pour réformer et restructurer leur discipline. Ainsi, les critères d’évaluation contemporains n’actent pas tant la domination de normes exogènes à la profession qu’ils n’arbitrent entre des conceptions concurrentes de ce qui fonde la qualité d’un laboratoire de recherche au sein de la profession académique.
Des dispositifs d’évaluation et de mise en compétition accrue ont ainsi pu être promus au sein de certaines disciplines. Ainsi en est-il aussi de la montée en puissance du financement de la recherche sur projets, défendue par certains biologistes au milieu des années 2000. Parce que cet instrument alloue des ressources décisives dans la conduite de l’activité scientifique et qu’il cadre relativement bien avec l’organisation par projets, la temporalité et les pratiques de production des savoirs en biologie, certains biologistes, exerçant souvent dans des institutions de recherche prestigieuses, se sont mobilisés en faveur d’un recours plus systématique à celui-ci. Ils y voient une opportunité pour réformer un système scientifique qu’ils jugent trop hiérarchique : en permettant à tous les scientifiques titulaires de postuler à l’allocation des fonds, ce type d’instrument participe de leur émancipation vis-à-vis des directeurs de laboratoire.
Se pencher sur les controverses internes au monde scientifique est nécessaire pour comprendre les dynamiques des réformes actuelles. Des projets inégalitaires, qui renforcent l’effet Matthieu (Merton, 1968) [7] en démultipliant les budgets de ceux et celles qui sont déjà consacrés, et appauvrissent davantage ceux qui ne décrochent pas les appels d’offres, peuvent être soutenus par une partie de la communauté académique, dont les pratiques et les conceptions du travail sont conformes à cette représentation compétitive du fonctionnement du monde académique.
Épilogue
Ce qui est singulier depuis une dizaine d’années, c’est la segmentation verticale accrue de la profession académique, certainement à la faveur de la LRU et des dispositifs d’excellence qui génèrent un empilement de structures bureaucratiques requérant des individus à la fois du temps et des compétences spécifiquement dédiées à leur pilotage et à leur évaluation. Cette segmentation oppose d’un côté les ex–pairs, certes issus du monde scientifique, mais qui naviguent entre des postes de management de la recherche et de l’enseignement supérieur et n’exercent plus les activités des « professionnels de la base », et de l’autre côté cette base professionnelle qui se mobilise en tant que telle depuis les mouvements de 2009, et revendique une plus grande collégialité tout comme elle appelle à se ressaisir collectivement d’outils d’évaluation qui deviennent de plus en plus des modes de gouvernement des conduites. D’où la fort ingénieuse candidature collective à la présidence de l’HCERES (déposée le 20 janvier 2020), qui vise symboliquement à réparer cette division verticale accrue des identités professionnelles qui clive le monde scientifique.
Cette plongée dans les arcanes de l’AERES rappelle aussi que les collègues sont parfois les premiers interlocuteurs que leurs pairs doivent convaincre, intéresser, ou affronter, au moment de débattre et de mettre en œuvre les réformes. Il ne faut donc pas oublier que ce ne sont pas seulement des rapports de classe (dirigeante / dirigée) qui se jouent dans les conflits scientifiques, même s’ils ajoutent de nouvelles sources d’antagonismes : l’hétérogénéité des statuts, des cultures épistémiques, des façons de produire des savoirs, peut opposer les scientifiques les uns aux autres, indépendamment des positions de pouvoir administratif ou managérial qu’ils occupent, quant au bien-fondé des dispositifs d’évaluation ou de mise en concurrence. La structure particulière – collégiale – de ces rapports de force reste un gage de l’autonomie de la profession scientifique, en même temps qu’elle est un défi pour la construction d’un front uni de contestations contre les réformes en cours.