27 novembre 2017

« Publish or Perish » : bienvenue dans l’enfer des publications scientifiques

« Publish or Perish » : bienvenue dans l’enfer des publications scientifiques
La recherche scientifique, souvent imaginée comme une tour d’ivoire, n’est en réalité pas séparée du reste du monde et préservée par miracle des dérives et problèmes de la société dans laquelle nous vivons. Je vais vous parler ici des dégâts que le capitalisme a fait (et fait toujours) subir au monde scientifique.

Aujourd’hui, le partage des connaissances nouvellement acquises (selon la méthode scientifique) repose sur un système de publication (sous format papier ou électronique) dans des journaux scientifiques spécialisés après une étape de relecture par les pairs. Pour simplifier, un·e chercheureuse produit de la connaissance par le biais de recherches et veut la faire (re)connaître. Pour cela, iel va demander à une revue scientifique de faire relire son article par d’autres chercheureuses (si possible travaillant dans le même domaine) pour évaluer si, oui ou non, ces recherches et donc cette connaissance tiennent la route.

Or ce système est vieux, il date des débuts de la « science moderne » occidentale (fin XIXe siècle). Et comme tout vieux système, il n’est plus adapté au monde actuel, globalisé et capitaliste.

Différents « symptômes »

Je vais ici vous montrer quelques symptômes de cette inadéquation entre le vieux système de la recherche et le monde actuel, mais ce n’est en aucun cas une liste exhaustive.

La connaissance, un bien de consommation comme un autre

Ce qui saute aux yeux de beaucoup de personnes découvrant le monde scientifique, notamment les étudiant·es, c’est que la connaissance n’est pas gratuite, loin de là. Pour accéder à la plupart des articles, particulièrement les plus récents, il faut payer un droit d’accès, comme vous pouvez le voir ici :

Capture d’écran d’un module permettant l’abonnement au journal scientifique Nature (209 €) ou l’accès payant à un article scientifique précis ($4,99 pour louer, $20 pour acheter).

Et ce n’est pas parce que vous êtes l’auteurice de cet article que vous avez un droit d’accès ! (Et ne parlons pas de droits d’auteurice car iels n’en touchent aucun...) La majorité des universités et bibliothèques universitaires ont des accords et/ou des abonnements à un certain nombre de revues, pour permettre à leurs chercheureuses, professeur·es et étudiant·es de travailler dans de bonnes conditions, mais c’est un budget conséquent. Certaines universités, comme l’Université de Montréal, ont stoppé leurs abonnements à certaines publications à cause de ces prix trop élevés pour leur budget. En plus des lecteurices qui doivent très souvent payer un droit d’accès, les scientifiques doivent payer un droit de publication.

Il est certes normal de couvrir les frais inhérents à la correction, mise en page, édition, etc., mais il est moins normal que certains journaux faisant payer des droits d’accès à leurs articles aient des prix de publication bien supérieurs à ceux de revues libres d’accès. Et plus une revue est « prestigieuse », plus ce coût de publication est cher, voire exorbitant. Outre le facteur financier, le temps passé (non négligeable) à la rédaction d’un article représente du temps qui n’est pas utilisé pour des recherches. Il en est de même pour les relectures d’articles des pairs, effectuées bénévolement, en espérant monter dans l’estime des éditeurs et par-là favoriser la publication d’articles futurs.

Le cas du facteur d’impact, ou comment on nous trompe sur la marchandise

Ensuite il y a le (plutôt gros) problème de l’impact factor (facteur d’impact en français) et de son dévoiement.

Ce facteur est calculé selon la formule suivante : pour l’année considérée, on compte le nombre de citations accumulées dans l’année par tous les articles d’une revue sortis pendant un certain laps de temps (deux ans) et on divise par le nombre de ces articles. Prenons un exemple : un journal J sort 25 articles, 4 fois par an, donc 200 articles en 2 ans. Pendant un an, des articles publiés dans J rapportent 500 citations. En divisant 500 par 200, on obtient le facteur d’impact de J, ici 2,5.

L’idée derrière cet indice est qu’un article scientifique de qualité sera cité comme référence par d’autres chercheureuses dans leurs propres écrits. Mais cela veut aussi dire que le facteur d’impact est une moyenne, il n’est pas exactement représentatif de chaque article paru dans tel ou tel journal. La qualité des articles en question n’est pas forcément déterminante ici, il existe des notions discriminantes dans leur publication : discriminations au niveau du lectorat (puisque certains sujets ne seront pas abordés parce que la revue considère à tort que ça n'intéresse personne) et au niveau des auteurices (sexisme et racisme). Les auto-citations et le fait qu’un sujet soit à la mode sont d’autres facteurs extérieurs influençant le nombre de citations d’un article.

Mais comme il est bien plus simple et rapide de regarder un seul chiffre que de lire plusieurs articles scientifiques, le facteur d’impact est souvent utilisé pour, par exemple, classer des journaux scientifiques par ordre d’importance et d’influence. La plupart des scientifiques connaissent les limites de ce raisonnement mais pensent ou préfèrent penser que les biais sont suffisamment négligeables pour ne pas s’en préoccuper. Et cela arrange bien les « grosses » revues tels que Nature, Science et compagnie, puisque ce système leur apporte beaucoup de prestige et donc de scientifiques prêt·es à débourser beaucoup d’argent pour publier. Un autre usage courant du facteur d’impact, plutôt que de définir le « classement » d’une revue scientifique, est celui de l’évaluation de la bibliographie d’un·e scientifique :

Je vous propose ici un exercice de pensée. Imaginez que vous soyez en charge de recruter un·e chercheureuse pour un poste de professeur·e d’université. Pour ce poste, vous avez, mettons, 30 candidat·es, tou·tes avec une bibliographie conséquente.

Allez-vous lire chaque résumé de chaque article publié (c’est-à-dire, dans le meilleur des cas, 400-500 articles) pour essayer de discerner quel·le candidat·e est læ meilleur·e ? Ou allez-vous comparer les sommes respectives des facteurs d’impact de chaque candidat·e, c’est-à-dire 30 chiffres ?

Il est fort probable que vous vous aidiez des facteurs d’impact cumulés, au moins pour réduire le nombre de candidat·es envisagé·es.

Mettons-nous maintenant à la place d’un·e futur·e candidat·e à un tel poste. Vous avez donc deux options pour avoir un haut facteur d’impact cumulé : soit vous publiez dans des journaux à fort facteur d’impact, soit vous publiez beaucoup d’articles dans des revues un peu moins bien cotées. Sachant qu’il est très difficile de faire publier un article dans un « gros » journal (vous vous souvenez du grand prestige et donc de la demande importante qui accompagnent un haut facteur d’impact ?), notamment à cause du réseautage nécessaire pour y accéder, il ne vous reste plus qu’à publier beaucoup d'articles. Vous allez ainsi « découper » le plus possible vos recherches, privilégier la quantité à la qualité, et – ne nous mentons pas – perdre du temps de recherche en rédaction, soumission et correction d’articles. Cette grosse pression qui pousse à publier beaucoup pousse également à publier vite, avant le(s) laboratoire(s) concurrent(s) : læ premier·e qui réussit à sortir son article récoltera les facteurs d’impact et la gloire, læ second·e abandonnera assez souvent pour passer à un autre article.

Cela introduit également un gros désavantage à l’encontre des idées révolutionnaires. En effet, la publication de ce genre d’articles demande du temps de recherche préalable plus important que pour les thèses moins novatrices ; de plus, ces idées sont moins « dans l’air du temps » (car ce seront peut-être elles, le prochain « air du temps »). Les scientifiques ont donc plus tendance à se tourner vers des recherches moins « risquées ». Or, on a extrêmement besoin de ces idées révolutionnaires, de ces bonds de géant que fait parfois la science et qui lui redonne l’énergie d’avancer. Vous comprenez donc maintenant, j’espère, à quel point l’équation « haut facteur d’impact = qualité de l’article et de la recherche » est potentiellement fausse et dommageable pour les lecteurices, les scientifiques et tout un chacun pour l’avancée de la science.

Le marché des publications scientifiques : entre quasi-monopole et magouilles

Il existe de nos jours quelques milliers de revues scientifiques, plus ou moins spécialisées. Et comme partout, il en existe des « classements ». Les plus utilisés se basent principalement sur le facteur d’impact (voir plus haut) en prenant souvent en compte le degré de spécialisation.

Il y a quelques « gros » journaux scientifiques qui tiennent le haut du panier, malgré une perte de vitesse pour un ou deux ces derniers temps, mais l’immense majorité a un facteur d’impact assez faible :

Graphique représentant le nombre de revues scientifiques en fonction de leur facteur d’impact (IF) dont la formule (en anglais) est rappelée au-dessus de l’histogramme.

Pour compenser ces petits facteurs d’impact, et donc ces faibles classements, les journaux se sont regroupés au fil des décennies pour aboutir aujourd’hui à d’énormes maisons d’édition qui monopolisent le marché. Et qui dit monopole, dit prix non concurrentiels, dit « læ client·e paye cher ».

Certaines revues font également l’objet de publicités « internes », c’est-à-dire de publicités pour des publications appartenant au même grand groupe.

Un autre aspect malsain du marché des publications scientifiques, ce sont les « journaux prédateurs ». Ce sont des revues qui « chassent » les articles : afin de maximiser leurs profits, ils cherchent à publier le plus possible d’articles, le plus vite possible, très souvent au détriment de la qualité. Dans le but d’attirer des scientifiques et de passer pour plus crédibles qu’iels ne le sont, ces revues prédatrices ont des comités éditoriaux remplis de personnes qui n’ont pas été prévenues ou n’ont pas donné leur accord, voire ont refusé d’en faire partie. Des cas encore plus abracadabrants de personnes inexistantes ou décédées et même d’animaux dans ces comités ont même été reportés.

« À quoi ça sert ? » : des scientifiques pris·es en otage par la course à la rentabilité des laboratoires

Une des questions qu’un·e scientifique entendra de nombreuses fois au cours de sa carrière de la part de son laboratoire, de ses financeurs ou bien de la famille ou des ami·es est : « À quoi ça sert ? » Cette question est motivée par le besoin de savoir quels buts concrets sont cachés derrière cette recherche souvent compliquée et précise. Elle est également souvent motivée par le sous-texte suivant : « À quoi sert l’argent de nos impôts qui vous paye ? »

Une des conséquences du capitalisme en science est cette « obligation de rentabilité » de la recherche, comme si une recherche sans application(s) directe(s) ne servait à rien. Or, la recherche fondamentale est justement dépourvue d’application directe (sinon ce serait de la recherche appliquée), mais je peux vous garantir qu’elle n’est pas inutile. Outre l’apport de nouvelles connaissances, la recherche fondamentale permet de creuser les terrains d’applications du futur. Si vous voulez un exemple parlant, prenez les célèbres travaux du non moins célèbre Albert Einstein. Au moment où ils ont paru, personne n’imaginait l’impact qu’ils auraient sur notre vie actuelle (en astronomie et astronautique, mais aussi, plus proche de notre quotidien, pour les GPS).

Cette « obligation de rentabilité » pousse pourtant de nombreux scientifiques dans leurs retranchements, notamment celleux dont les recherches n’ont pas de buts concrets clairs, rapidement atteignables voire envisageables à l’heure actuelle. Ainsi, les chercheureuses sont habitué·es, dès le début de leur carrière, à « vendre » leurs recherches, à enjoliver un petit peu, pour rendre leurs travaux attrayants. Attrayants pour le grand public, dont l’opinion fait et défait la « tendance », mais aussi attrayants pour les sources de financement car, en science comme ailleurs, l’argent est le nerf de la guerre.

Il arrive ainsi souvent qu’une application concrète mais lointaine soit proposée dans une demande de subvention, même si elle n’est au final pas du tout certaine (on ne peut le savoir qu’en recherchant). Et quiconque refuse de se plier à ce jeu verra fatalement ses financements diminuer, par manque d’attractivité.

Des initiatives pour changer le système (ou au moins l’améliorer)

Bien sûr, je ne suis pas la seule à me rendre compte des dangers de ces dérives. Et de nombreuses propositions d’amélioration ont été faites :

Vous avez pu le voir à travers cette liste non exhaustive de symptômes, le capitalisme et la globalisation associée (et la quasi non-évolution du système depuis ses débuts) ont fait des dégâts dans le monde scientifique/universitaire. Heureusement, des voix se lèvent pour essayer de contrer ce phénomène, et c’est – à mon humble avis – nécessaire.

Parce que comme le dit la théorie de l’évolution : quand on n’est pas adapté·e, on évolue ou on disparaît.

Pour aller plus loin :

  • [FR], une Vidéo YouTube, à quoi ça sert [telle ou telle recherche scientifique] ?
  • [FR], la Charte de désexcellence et une explication claire des dégâts de « l’Excellence ».
  • [EN], un article de news Nature : qu’est-ce qui est fait pour essayer de régler le problème de la reproductibilité des recherches en science ?[FR], le coup de gueule d’un enseignant-chercheur.
  • [EN], un article de Science magazine sur le bras de fer d’un consortium d’universités allemandes contre un des géants de l’édition scientifique.
  • [EN], un article de Forbes sur un site « .edu » qui n’est ni institutionnel ni totalement libre d’accès.