Le mirage de la Slow Science

La communauté scientifique peine à vérifier des découvertes produites toujours plus rapidement. Des chercheurs appellent à ralentir la recherche afin de publier moins, mais mieux. Par Roland Fischer

(De "Horizons" no 106, septembre 2015)
Image: © Keystone / Branko de Lang

Les voix critiques se font entendre dans le milieu de la recherche: la science serait en crise et une réforme est nécessaire. Les scandales – irrégularités, manipulations de données, tromperies – se succèdent dans un carrousel de publications qui tourne toujours plus vite en excluant à la fois originalité et reproducibilité. Y aurait-il quelque chose de pourri au royaume de la connaissance?

Une chose est certaine: la production scientifique explose. Le nombre d’articles publiés croît de manière exponentielle et a atteint 1 300 000 en 2006 contre 700 000 en 1990. Corollaire: l’attention dont jouit chacun d’eux diminue d’autant. Par ailleurs, quelque 400 articles ont dû être retirés en 2014 parce qu’ils n’avaient pas été élaborés dans les règles, soit dix fois plus qu’au début du millénaire.

En 2005, l’enfant terrible de l’Université Stanford John Ioannidis présentait ses arguments pour affirmer que les conclusions de plus de la moitié des articles publiés étaient fausses. En 2014, l’épidémiologiste estimait que 85% des fonds mondiaux de recherche – soit annuellement environ 200 milliards de dollars – sont gaspillés dans le soutien de recherches de piètre qualité. Autre signal particulièrement inquiétant: un nombre croissant de résultats ne sont pas reproductibles par d’autres équipes de recherche, alors même qu’ils ont passé avec succès tous les contrôles de qualité. Des contrôles aléatoires ont montré que, dans certains champs de recherche, seule une minorité de conclusions semblaient reposer sur une base solide.

Ce sombre tableau ébranle un principe essentiel en science: la reproductibilité d’un résultat, indépendamment du lieu, du moment et du chercheur. C’est sur elle que se fondent les arguments pour qualifier une découverte de "vérité" objective. Si des fissures apparaissent à ce niveau, on comprend la crainte que tout l’édifice ne s’écroule.

Trop de déchets

Les chercheurs produiraient-ils plus de bruit que de signaux clairs? Les experts n’hésitent pas à reconnaître que cela semble être le cas dans certains domaines. Peter Jüni, ancien directeur de la Clinical Trials Unit de l’Université de Berne, estime que de 80 à 90% des études cliniques actuelles sont inutilisables, car de trop petite envergue ou entachées de défauts méthodologiques. Mais il souligne qu’on peut tout de même trouver de 10 à 20% de résultats qui font avancer le domaine médical de manière substantielle. Il s’agit d’un "gain énorme comparé aux années 1950 lorsque la médecine s’apparentait à du vaudou". Pour lui, les chercheurs en médecine font preuve d’une certaine naïveté en se laissant facilement duper par l’aura des résultats statistiquement significatifs. Mais il ne s’agirait pas d’un problème de fond: "Même dans ce bric-à-brac, celui qui s’y connaît trouve facilement son chemin."

Le physicien Antonio Ereditato, de l’Université de Berne, a eu affaire aux aléas de la science. En tant que porte-parole de l’expérience Opera au CERN, il a annoncé en 2012 une nouvelle sensationnelle – l’observation de neutrinos plus rapides que la lumière – qui s’est rapidement répandue dans les médias internationaux. La collaboration emmenée par Antonio Ereditato a publié cette "anomalie" – il souligne avoir toujours utilisé ce terme – sous forme de prépublication sur le serveur Arxiv. La correction est venue huit mois plus tard: le résultat était dû à une erreur d’appareillage. Antonio Ereditato estime que son équipe a agi correctement en ayant longuement temporisé avant de rendre le résultat public, une décision prise pour inviter les collègues à discuter ce résultat "passablement improbable".

Pour Antonio Ereditato, il est normal que certaines études expérimentales ne puissent parfois pas être reproduites. Il souligne que la publication de résultats devrait toujours suivre des règles statistiques strictes définissant clairement le degré de fiabilité afin de distinguer "indices", "preuves" et "découvertes". Gérer la complexité des données constitue un aspect qui va de soi lorsqu’on est chercheur en physique des particules, précise le physicien.

A l’instar de Peter Jüni, le psychologue de l’Université de Virginie Brian Nosek ne croit pas que cette rigueur se retrouve dans tous les domaines de recherche. En 2013, ce chercheur a fondé le Center for Open Science et lancé récemment le "Reproducibility Project: Psychology" afin de garder sa propre discipline à l’oeil. Pour lui, le problème réside dans une "hyperconcurrence" et de mauvaises incitations: "En tant que chercheur, vous ne serez pas récompensé si vous démontrez que certains résultats sont reproductibles. Il est nettement préférable pour votre carrière de produire et publier un maximum de résultats."

Changer les règles

On continue donc de publier de plus belle, toujours plus vite, toujours davantage. Le nombre d’articles croît de manière exponentielle. Lutz Bornmann, de la Max-Planck-Gesellschaft à Munich, et Rüdiger Mutz, d’ETH Zurich, ont relevé que l’essor du nombre de sources citées, également exponentiel, s’accélère: depuis le XVIIe siècle, le taux de croissance annuelle a luimême bondi à trois reprises. Aujourd’hui, le nombre de citations double tous les neuf ans. Quant à juger si l’on retrouve un tel agrandissement de notre savoir, Rüdiger Mutz préfère rester prudent: "Il faudrait d’abord fixer des critères pour le mesurer."

Brian Nosek dit n’avoir rien contre la croissance en tant que telle. Il estime seulement qu’il faudrait récompenser la transparence et la reproductibilité, et pas seulement la quantité. L’incitation à produire le plus possible ne disparaîtra pas d’elle-même, avertit-il. D’autres tentatives de réforme partent de ce constat. L’initiative DORA (San Francisco Declaration on Research Assessment) tente par exemple d’assurer que l’évaluation de la recherche attache à nouveau davantage de valeur à la qualité des travaux de recherche individuels au lieu de se focaliser sur la réputation et le facteur d’impact des revues scientifiques qui les publient.

Avec l’initiative "Science in Transition", un groupe de chercheurs néerlandais appelle à une "réforme fondamentale" de la science. A leurs yeux, celle-ci a dégénéré en un "système autoréférentiel", qui n’appréhende la qualité pratiquement plus qu’au travers de paramètres biométriques sans suffisamment prendre en compte la pertinence sociale. La Commission européenne a accueilli positivement l’initiative et proposé récemment, au terme d’une consultation, des lignes directrices pour une "Open Science". Celle-ci devrait profiter des possibilités du numérique afin de devenir plus transparente et mieux ancrée dans la société et pouvoir accompagner la croissance exponentielle du savoir.

Plus de temps

L’accélération de la science suscite des résistances. Par analogie avec le mouvement culinaire Slow Food, des chercheurs ont fait émerger une mouvance prônant la Slow Science, à savoir une recherche plus circonspecte. Si personne ne désire revenir en arrière vers un âge d’or nostalgique, il n’existe guère d’unanimité sur la définition de l’essence d’une science plus lente.

De nombreux chercheurs ont l’impression de ne plus pouvoir accomplir correctement leur mission première. Ulrike Felt, qui étudie les sciences et la technologie à l’Université de Vienne, y voit l’expression d’un phénomène qui touche toute la société: une manière différente d’appréhender le temps. "C’est le manque de temps qui génère le sentiment de crise", avancet-elle. Les structures temporelles se sont modifiées ces dernières décennies, un phénomène perçu comme une pression et une accélération. Pour elle, il faudrait davantage réfléchir aux conséquences sur la production du savoir. Elle appelle le politique à s’occuper également d’entretenir notre "paysage temporel".

Fortunato Santo, de l’Université d’Helsinki, a récemment présenté un travail sur ce qu’il appelle le déclin de l’attention en science: les études tombent de plus en plus vite dans l’oubli, car elles sont rapidement submergées par la prochaine vague de publications. Lui aussi dit souhaiter que les responsables politiques de la recherche changent leur fusil d’épaule et trouvent des voies pour que la qualité l’emporte à nouveau sur la quantité.

Mais le physicien Antonio Ereditato pose la question de fond: "Même si nous devions bel et bien conclure à la nécessité d’une science plus lente, où serait le frein?"

Un résultat, une publication

"Stories can wait. Science cannot." Ce mot d’ordre vise à redéfinir la manière de faire circuler les résultats scientifiques. Imaginée par Lawrence Rajendran, spécialiste en biologie des systèmes à l’Université de Zurich, la plateforme de publication ScienceMatters doit être mise en ligne en septembre 2015.

L’idée derrière ce réseau intégralement numérique: les chercheurs ne devraient pas être obligés d’attendre, avant de publier leurs résultats, que les différentes pièces ne s’intègrent dans un tableau d’ensemble ou permettent de déduire une thèse raffinée. Il importe que la communauté internationale des chercheurs puisse déjà prendre connaissance des divers composants, à savoir des observations individuelles. Les chercheurs recevraient ainsi des retours précieux de la part d’autres experts au cours de leur travail et seraient en mesure de développer leurs arguments scientifiques en toute tranquillité avec une bien meilleure assise.

Lawrence Rajendran pense que ce système pourrait contrer les fraudes, car les chercheurs seraient moins tentés de manipuler les données pour les intégrer de force à une argumentation.

Un enregistrement suffira, par exemple avec un profil Facebook, pour publier sur ScienceMatters. Lawrence Rajendran estime que les pays en développement abritent un important potentiel de chercheurs compétents susceptibles de contribuer au réseau scientifique numérique avec des observations individuelles. L’article final serait peut-être ensuite écrit par d’autres, mais des personnes non diplômées pourraient participer au recueil des données. A terme, cela induirait peut-être une diversification du métier de chercheur et une meilleure reproductibilité: "Certains scientifiques sont doués pour voir le grand tout, ce sont des découvreurs nés. D’autres sont au contraire des vérificateurs méticuleux. Chacun devrait faire ce qui lui convient et avoir droit à de la reconnaissance pour cela."

Le contrôle qualité suivra les principes des réseaux sociaux: les utilisateurs auront la possibilité de "liker", évaluer et commenter les résultats, ce qui influencera le statut des contributeurs. Ainsi, les observations importantes sortiront forcément du lot, argue Lawrence Rajendran. Seul filtre prévu: une vérification effectuée par l’équipe rédactionnelle pour écarter ce qui ne correspond pas aux standards.