headlogo

La recherche, sa gestion et son évaluation

C

Il y a deux ans, dit le Savant, on nous a nommé un nouveau chef pour le domaine scientifique. Un homme qui présente bien, gonflé d'importance. À le voir passer dans la rue, on croirait voir un ministre d'un État pas trop voisin et démocratique jusqu'à la caricature ! Bien entendu, d'un point de vue scientifique, c'est un zéro absolu.
Mais peut-être est-il un administrateur de talent, dit le Barbouilleur. En Amérique, ils sont plus cotés que les savants.
Justement, je voulais en parler, dit le Savant. Dès qu'il est arrivé chez nous, cet administrateur remarquable, ça a commencé ! Et ça continue depuis trois ans ! Tous les mois, chacun de nous rédige des petits papiers où il affirme qu'il a fait tout ce qu'il avait à faire (bien entendu, nous faisons tout autre chose, ou bien nous ne faisons rien du tout !). Les papiers vont chez notre chef. Lui (on le voit déjà assez comme ça !), sur la base de ces papiers, fait remplir d'autres papiers à sa secrétaire, suivant un modèle établi, puis un papier pour le personnel technique, puis un autre pour les chercheurs de second rang, etc.
En somme, les papiers sont remplis partout où c'est possible d'un point de vue administratif. Toutes ces variétés de papiers convergent vers le secrétariat et la comptabilité. Des gens sont spécialement chargés de les étudier. Le but est de mettre en évidence ceux qui, d'après ces papiers, n'ont pas fait tout ce qu'ils avaient à faire ou qui l'ont mal fait ou qui l'ont surfait.
L'identité de cet individu se révèle au moment de la paie, car au lieu de la toucher, il est convoqué chez le chef. Celui-ci discute avec lui pendant une heure ou deux, découvre qu'il s'agissait d'un malentendu, et édicte un petit papier qui autorise la victime à toucher son salaire. En deux ans, je ne me souviens pas d'un seul cas où l'on ait vraiment refusé de payer un salaire (d'ailleurs la loi l'interdit !) ou puni quelqu'un d'une façon ou d'une autre (en principe, chez nous, chacun remplit son plan !).
Un jour, je suis intervenu à ce propos au cours d'une réunion. J'ai proposé de donner des renseignements seulement pour ceux qui n'ont pas rempli leur plan. En un mois, cela ferait en tout cinq ou six papiers, si ce n'est moins. Tu aurais entendu ce tollé ! Tout le monde m'est tombé dessus !
L'explication est simple. Appelons A notre travail de chercheur. Appelons B l'activité qui consiste à rédiger et à faire circuler les petits papiers. En principe, A est l'activité principale et B l'activité secondaire. Mais en principe seulement. Du point de vue social, il est indifférent de savoir laquelle a engendré l'autre. La seule chose qui compte, c'est l'importance sociale de chacune. Du point de vue social, c'est justement B qui est réelle et A qui est illusoire. A peut marcher bien ou mal, cela n'a aucune importance.
Mais revenons à B. Que signifie une organisation intelligente de B ? Cela signifie l'organisation que j'ai proposée. Entre parenthèses, je fus un bon élève et pas du tout bûcheur. Or, pour une organisation de B selon notre chef, il suffit d'un cancre, d'un redoublant et d'un bûcheur. Les qualités que demande cette activité ne comportent pas un gramme d'intelligence ou de talent : formalisme sans âme, pédantisme mesquin, crasse irrémédiable. Et toutes les saloperies : dénonciation, calomnie, fabrique de faux...
L'activité B devient essentielle et centrale. À vrai dire, elle est l'Activité, et la science n'en est que l'arène. Or, une telle activité exclut par essence toute capacité et tout talent. Elle est anti-intellectuelle par nature. Elle souffre encore moins un administrateur de talent qu'A ne souffre un savant de talent.
Alexandre Zinoviev, Hauteurs béantes, 1975

Management et recherche: un oxymoron?

J'ai quitté la recherche active en 2005, lorsque mon laboratoire fut dissous, pour me consacrer à la direction du département R&D de la DSNA.

Il existe pas mal de textes sur le sujet, mais je me suis particulièrement intéressé au texte de Pierre Beuzit (que l'on trouvera aussi ci-dessous). Ce texte se place dans le contexte général de la fin des années 90 et de l'importation en France des méthodes de gestion par la performance.

Le texte de Beuzit n'est pas aussi terrible que ce que l'on pouvait trouver à l'époque sur le management par la performance (voir là aussi ma page sur la motivation et la compétence). En fait, l'idée de placer la recherche au centre de la stratégie de l'entreprise est même certainement une excellente idée. En effet, dans le contexte actuel de la compétition internationale, la seule chose qui permet à une entreprise de survivre à la concurrence, dans un pays qui ne peut s'appuyer sur de faible coûts de main d'oeuvre, est la recherche et la technologie.

De la même façon, l'idée qu'il faut former au moins les responsables de la recherche à une certaine forme de management me semble également indispensable. Gérer de la recherche et faire de la recherche sont deux choses bien différentes. On remarquera aussi dans le texte de Beuzit, aussi radical puisse-t-il sembler, une chose importante: il parle de former les chercheurs au management, et pas d'importer des manageurs. Beuzit lui-même était ingénieur et titulaire d'un doctorat. On ne peut aussi que lui donner raison dans son souhait de rapprocher la recherche et la production. La recherche appliquée ne peut survivre que si elle est alimentée et qu'elle alimente régulièrement le développement et la production. Enfin, il a également raison de souligner la difficulté qu'il peut y avoir à assurer une bonne liaison entre la recherche universitaire et la recherche appliquée. Il y a donc là beaucoup de bonnes idées.

Il y a deux autres problèmes, liés, que j'ai bien connus, et dont Beuzit parle peu.

Il reste un dernier problème dont parle Beuzit, qui est le problème de l'externalisation. La recherche est comme un patate chaude: tout le monde voudrait bien la manger mais personne ne veut la tenir... L'externalisation est finalement le souhait de laisser aux "autres" le coût de l'activité de recherche, tout en retirant malgré tout les bénéfices. Derrière l'externalisation, se posent deux sous-problèmes:

Peut-on rester compétent en dirigeant un centre de R&D? La question n'est pas aussi simple qu'il y parait. Dans les années 60 et 70, Gordon Bell (qui travaillait à l'époque chez DEC), théorisa le "pulse management", une idée qui remontait à Ken Olsen et Jay Forrester au MIT (on peut lire avec intérêt le Engineer's orientation manual de DEC, rédigé en par Bell). L'idée sous-tendue est qu'un manager ne peut pas être compétent en permanence sur tous les sujets, mais qu'il doit être capable de s'approprier un sujet complètement et de rendre ensuite visite à l'équipe concernée et de discuter en profondeur avec elle leur travail et leurs objectifs. Evidemment, ce type de management demande de maintenir un niveau général de compétence, et de faire régulièrement l'effort de travailler à fond un sujet pour être capable de discuter d'égal à égal avec les équipes techniques. C'est un mode de management qui demande beaucoup de travail, mais qui permet de conserver le lien avec le "réel" du travail des équipes.

Si vous voulez en savoir plus sur la gestion de la motivation et de la compétence, allez aussi jeter un coup d'oeil sur cette page.

A méditer

Je ne peux m'empêcher de terminer ce paragraphe sans citer un aphorisme qui m'a été confié par un de mes collègues, qui avait (en partie) abandonné la recherche "active" pour diriger une équipe de recherche. Alors qu'un jeune chercheur lui demandait comment il avait pu abandonner la recherche pour faire (et je cite) "un boulot de con", il lui répondit que "si l'on refuse trop longtemps de faire un boulot de con, on finit par se retrouver avec un con comme chef."
A méditer profondément, hélas...

De l'évaluation de la recherche

Concernant l'évaluation de la recherche, je ne peux que recommander ce texte (il a paru dans "Pour la Science" en décembre 2012) de Philippe BÜTTGEN, professeur de philosophie à l'Université Paris I. Il préside depuis octobre 2012 la Conférence des présidents du Comité national de la recherche scientifique (CPCN), qui coordonne 900 experts élus et nommés, universitaires et chercheurs, chargés d'évaluer chercheurs et laboratoires du CNRS.
Ce texte met en lumière ce qui pour moi devrait être central, et même absolument indissociable de l'évaluation de la recherche: la nécessité de l'élection et non de la nomination des évaluateurs.

Je tiens cependant à préciser que le mécanisme de l'AERES, qui fut beaucoup critiqué, était déjà à mes yeux un grand progrès en tant qu'évaluation indépendante des organismes qu'elle évaluait, et qu'il ne faudrait pas dans cette affaire "jeter le bébé avec l'eau du bain" comme le dit l'expression triviale... Une évaluation indépendante est une absolue nécessité, surtout pour les organismes à la frontière du champ habituel de la recherche et de l'enseignement supérieur (écoles d'ingénieur, centres de recherche non CNRS, etc...)

On trouvera également plus bas le texte du rapport des assises de l'enseignement supérieur et de la recherche rédigé par Vincent Berger.

Évaluation de la science : n'ayons pas peur de l'élection ! (par Philippe BÜTTGEN)

Les Assises de l'enseignement supérieur et de la recherche organisées par le gouvernement français se sont conclues en novembre 2012 sur plusieurs constats de perplexité. Le principal concerne l'évaluation des chercheurs, laboratoires et organismes de recherche. La question est vivement discutée depuis plusieurs années. La création en 2006 d'une Agence d'évaluation de l'enseignement supérieur et de la recherche (AERES), ses débuts chaotiques, sa passion normative, ont polarisé les débats, échauffé les esprits ; tout cela a pu égarer.

Soyons précis. La question posée aujourd'hui est celle des conditions d'une évaluation utile aux scientifiques et à la société. Parmi ces conditions, la plus fréquemment mentionnée est celle de l'indépendance des évaluateurs. Elle est indispensable lorsqu'il s'agit d'évaluer les activités et les productions d'un chercheur ou d'un laboratoire. Mais que signifie-t-elle ?

Je plaiderai pour une idée simple : l'évaluation de la science n'est indépendante qu'à condition d'être exercée par des experts majoritairement élus par les chercheurs. La règle vaut en tous domaines, évaluation des chercheurs, des publications, des laboratoires, des projets de recherche.

Où en sommes-nous aujourd'hui ? La notation des laboratoires (comme à l'école : A+, A, B...) se meurt ; la bibliométrie, qui évalue en fonction de la quantité de publications, du classement des revues où elles sont parues et du nombre de leurs citations, plie sous les scandales qu'elle crée ; la course à l'« excellence » des laboratoires et des projets de recherche est un mirage qui se dissipe. C'est une bonne chose. Nous la devons à la mobilisation des chercheurs en 2009, ainsi qu'au spectacle des dégâts qu'ont pu produire, dans d'autres domaines, d'autres agences dites elles aussi de « notation ».

De toutes ces crises, le lien entre science et évaluation de la science sort toutefois renforcé. On a compris qu'« évaluation », ici, signifie autre chose qu'une prise de position sur la valeur de la science ; autre chose aussi qu'une mesure pseudo-objective, et jamais juste, des « performances » d'un chercheur ou d'un laboratoire. De quoi s'agit-il alors ? Tout simplement des pouvoirs de la réflexion. La science s'évalue, car elle est par elle-même retour sur soi, discussion d'elle-même. Elle n'avance qu'en se regardant avancer. Notre devoir d'évaluateurs est de définir les procédures les plus propices à cet exercice de la réflexion. L'indépendance de l'expert commence ici : dans la recherche des conditions qui promeuvent la liberté du jugement.

En matière d'évaluation, la première condition de cette liberté est la légitimité. L'AERES a été créée, et fonctionne toujours, comme une cascade d'experts nommés. C'est son péché originel. On descend degré par degré du président de l'Agence, nommé par décret, à l'expert de base, nommé par un expert intermédiaire lui-même nommé. On a tenté de rassurer la communauté scientifique en expliquant que ces experts nommés sont eux-mêmes des savants, des collègues, des « pairs ». C'est la moindre des choses ! À qui imaginerait-on sinon de confier l'évaluation de la science ?

Il faut ici faire une distinction. La légitimité scientifique des experts nommés n'est pas en cause : ce sont des chercheurs. Elle ne se confond cependant pas avec leur légitimité comme experts habilités à évaluer. Il est probable qu'un mauvais chercheur fera un mauvais expert. Mais cela n'implique pas qu'un bon chercheur fasse un bon expert. Que faut-il de plus ?

C'est la deuxième condition de l'indépendance : la reconnaissance accordée aux experts. Sur quoi repose-t-elle ? Sur leur réputation ? C'est une chose bien mystérieuse. Sur leurs « performances », mesurées par la bibliométrie et autres « critères » ? Outre qu'elles sont contestées, elles enferment l'évaluation dans un cercle vicieux : un expert désigné sur de tels critères n'aura de légitimité auprès de ceux qui l'ont nommé qu'en appliquant ces critères à ceux qu'il évalue. C'est ce cercle qu'il faut briser : le cercle du conformisme en science et de la soumission aux pouvoirs.

Que reste-t-il alors ? Une chose simple et exigeante comme la démocratie : l'élection. Elle existe et est approuvée depuis des décennies dans la recherche (le Comité national de la recherche scientifique évalue chercheurs et laboratoires du CNRS) et dans l'université (le Conseil national des universités valide les candidatures des enseignants-chercheurs et suit leur carrière). Seule l'élection dote l'expert d'une vraie légitimité et lui confère une confiance durable en son propre jugement. De l'élection, quand elle a été correctement organisée, personne ne doute ; les « référentiels », « critères » et autres « indicateurs de performance » favorisés par nos nouvelles agences sont d'une certitude bien moindre. Et les modifier, les affiner ou les simplifier n'y changera rien.

La troisième condition de l'indépendance, après la liberté et la reconnaissance, vient d'être désignée : c'est la confiance. La confiance de l'expert en son propre jugement se nourrit de celle que ses collègues lui témoignent. L'expérience des dernières années a montré à quel point la confiance diffère de la « transparence » qu'on a tant vantée. Qu'importe que des « critères » ou une « grille » d'évaluation soient « transparents » et connus de tous, s'ils sont mauvais ? Mieux vaut des experts choisis par une majorité, et choisis pour avancer à la seule force de leur réflexion.

On se méfie aujourd'hui de l'élection. D'aucuns lui reprochent ses « biais politiques » : ce fut le cas aux Assises encore. C'est peut-être un travers de la science en France. Le « modèle allemand » si souvent invoqué ignore ces dilemmes. La Deutsche Forschungsgemeinschaft, principal organe financeur de la recherche allemande, ne passe pas pour un repaire d'idéologues. Ses collèges disciplinaires sont pourtant élus par l'ensemble des chercheurs.

L'élection est une chose exigeante. À peine a-t-elle eu lieu que l'expert doit penser à ses devoirs : ils sont nombreux, rigoureux, toujours à repenser. La suite des Assises devra y veiller : ce sera un bon moyen de sortir par le haut des conflits de structures. Une chose est sûre cependant : la refondation d'un système d'évaluation efficace dépendra de la confiance que nous mettrons dans le principe électif.


Retour à ma page principale

Le téléchargement ou la reproduction des documents et photographies présents sur ce site sont autorisés à condition que leur origine soit explicitement mentionnée et que leur utilisation se limite à des fins non commerciales, notamment de recherche, d'éducation et d'enseignement.
Tous droits réservés.

Dernière modification: 09:48, 22/02/2024