Voici près de trente ans, cette même collection publiait La Souris truquée (éd. du Seuil, 1987), traduction d’un livre de deux journalistes américains, William J. Broad et Nicholas Wade, publié cinq ans plus tôt aux États-Unis. Ce livre était le premier, et à ce jour encore un des rares, à s’intéresser à la fraude scientifique. S’y replonger aide à prendre la mesure du chemin parcouru en trois décennies. Pour le résumer, la fraude n’est plus niée comme elle l’était alors, mais la communauté scientifique reste impuissante à trouver les moyens d’en enrayer la progression.
Le corps du livre, la description solidement documentée de plusieurs cas de fraude scientifique survenus aux États-Unis dans la décennie 1970 (voir chapitre 2), n’a pas pris une ride. En revanche, on lit aujourd’hui avec moins de surprise les longs développements théoriques de Broad et Wade visant à convaincre le lecteur que la science n’est pas une activité purement rationnelle, que les intérêts économiques, politiques, institutionnels, idéologiques ou encore les affects des chercheurs y jouent un rôle considérable. Tout cela n’est-il pas aujourd’hui bien connu de tous ? D’innombrables travaux de sociologie des sciences, tous courants confondus, l’ont établi. Mais ces études n’en étaient qu’à leurs balbutiements lorsque Broad et Wade écrivaient leur livre, dont le titre américain (Betrayers of truth : « Ceux qui trahissent la vérité ») dit bien la violence accusatrice et sans doute un rien désappointée. Quant à la communauté scientifique, elle semblait, en dépit de l’agitation contestatrice qui avait saisi une partie d’entre elle dans les années 1960 et 1970, dans son ensemble persuadée de pratiquer une activité désintéressée consistant à rechercher la vérité.
La Souris truquée s’ouvre sur ce récit de la déposition devant une commission d’enquête du Congrès américain de 1981 du chimiste Philip Handler, qui présidait alors la National Academy of Sciences :
Au lieu de commencer, selon l’usage, par remercier la commission qui l’avait convié à se présenter devant elle, Handler annonça d’emblée qu’il n’éprouvait « guère de plaisir ni de satisfaction » à faire une déposition sur la fraude scientifique. Selon lui, ce problème avait été « grossièrement exagéré » par la presse – ce qui était une façon de signifier à la commission qu’elle perdait son temps. La fraude scientifique est un phénomène rare et, en tout état de cause, déclara Handler, « se produit au sein d’un système basé sur l’efficacité, la démocratie, et l’autocontrôle », ce qui rend sa détection inévitable. Le fond de sa pensée était on ne peut plus clair : la fraude était un faux problème et les mécanismes actuels de la science s’en occupaient à la perfection.
Donald Fredrickson, alors directeur des NIH, se montrait tout aussi tranchant dans sa déposition devant la commission d’enquête. Pour lui, l’idée même de frauder frappe « en plein cœur » le scientifique car ce dernier sait que, s’il est pris, il sera soumis à une « excommunication ». Fredrickson reconnaît, tout comme Handler, qu’aucune procédure formelle n’est prévue pour traiter des cas de fraude. Ils sont de toute manière, affirme-t-il, plus que marginaux. Mais il va plus loin en affirmant que de telles procédures, impliquant nécessairement des regards extérieurs au monde scientifique si l’on veut s’assurer de leur équité, ne sont pas souhaitables. Fredrickson se dit ainsi effrayé à l’idée que des profanes puissent se mêler de ce qui se passe dans les laboratoires car ils ne peuvent « comprendre les exigences de la méthode scientifique ni le fait que la communauté scientifique assure déjà vérifications et corrections ».
Des propos tels que ceux de Philip Handler et Donald Fredrickson devant la commission d’enquête du Congrès américain seraient aujourd’hui impensables. Les positions se sont retournées. Rarissimes étaient, il y a trente ans, ceux qui admettaient que la fraude était fréquente dans les laboratoires. Rares sont aujourd’hui ceux qui le nient. Les institutions scientifiques – universités, organismes de recherche, sociétés savantes, publications spécialisées – admettent toutes que le problème de la fraude scientifique existe. Et qu’il est grave. Les auditions au Congrès de 1981, durant lesquelles un certain Albert Gore, futur vice-président américain, joua un rôle moteur, ont en effet entraîné un bouleversement législatif, d’abord aux États-Unis, puis en Europe.
En 1985, le Congrès américain adopte une loi stipulant que les institutions de recherche bénéficiant de financements publics doivent se doter de procédures administratives pour régler les cas de fraude en leur sein. La mesure n’est guère suivie d’effets. La communauté scientifique américaine est, comme on l’a vu, des plus réticentes à admettre cette intrusion de l’État fédéral dans ses affaires. Trois ans après l’adoption de la loi, rares sont les universités américaines à s’y être conformées. Quant aux NIH, ils ne consacrent qu’un poste et demi à traiter des manquements à l’intégrité parmi leurs dizaines de milliers de chercheurs. Mais la pression du Congrès se fait de plus en plus insistante. Dennis Eckart, représentant de l’Ohio, fait explicitement le lien entre ces réticences de la communauté scientifique à se pencher sur ses errements et d’autres affaires de corruption ou de malversation qui marquent les années 1980 aux États-Unis. Il déclare au Congrès :
Le problème est toujours le même, que ce soit pour les industries de défense, la NASA, la profession des comptables ou les caisses d’épargne : il faut des garde-fous adéquats qui nous rassurent, vous comme moi, sur le fait que la fraude, le gaspillage, les abus et l’inconduite ne s’exercent pas sur le dos du contribuable américain.
Confrontées à cette pression politique croissante, les grandes institutions scientifiques américaines décident de prendre les devants. En 1989, la National Science Foundation, principale agence de financement de la recherche américaine, crée en son sein un Office of Inspector General chargé d’instruire et éventuellement de sanctionner les allégations de fraude. La même année, les NIH se dotent d’un Office of Scientific Integrity. Pour la première fois au monde, des instances indépendantes sont chargées d’instruire les affaires de manquements à l’intégrité scientifique (définis, peu après, comme on l’a vu au chapitre 2, comme les fabrications, les falsifications et les plagiats de données) jusque-là laissées à l’initiative des laboratoires. L’Office of Scientific Integrity dispose d’un bras armé, l’Office of Scientific Integrity Review, ayant le pouvoir d’interdire les chercheurs reconnus coupables d’accéder aux financements des NIH. En 1992, ces deux institutions sont fusionnées en une seule, l’Office for Research Integrity (ORI). Sa ligne de conduite consiste à agir dans le cadre des lois fédérales, en particulier celles qui encadrent sévèrement l’utilisation des fonds publics. La fraude scientifique est ainsi considérée, d’un point de vue juridique, comme une forme de détournement de fonds, mais sans bénéfice personnel.
Le bilan de l’ORI, même si on a l’occasion de revenir sur certaines de ses méthodes discutables, du moins à ses débuts (voir chapitre 15), n’est assurément pas nul, avec quelque 450 cas instruits depuis sa création. Il a eu pour principal effet, notamment à travers ses programmes de sensibilisation, de rendre la communauté scientifique moins tolérante à l’égard des fraudes et d’inciter les chercheurs qui en sont témoins à les signaler. Il a également permis de sanctionner sévèrement les manquements les plus flagrants. Un William Summerlin, considéré en 1974 comme fatigué et ayant besoin de repos (voir chapitre 2), ne serait plus possible aujourd’hui. Deux chercheurs convaincus de fraude particulièrement graves ont même été condamnés à des peines de prison pour détournement de fonds publics. Beaucoup des chercheurs sanctionnés par l’ORI quittent le monde scientifique92. Ceux qui y restent connaissent des heures difficiles : réputation ternie, impossibilité (qui fait partie de la sanction) d’accéder aux financements des NIH, difficultés à publier… Du reste, ces difficultés concernent tous les chercheurs qui sont amenés à rétracter des articles, et pas seulement ceux qui ont été condamnés pour fraude. En analysant 468 articles biomédicaux cosignés de 1 261 auteurs rétractés de la littérature biomédicale entre 1996 et 2006, le Québecois Philippe Mongeon93 a montré qu’un gros tiers de ces auteurs cessaient de publier dans les cinq années suivant la rétraction, et que les deux tiers restant publiaient moins et étaient moins cités. Cette relative mise à l’index est beaucoup plus marquée en cas de fraude qu’en cas d’erreur de bonne foi et frappe les premiers auteurs (ceux qui sont réputés avoir fait le travail expérimental) bien plus que les derniers (réputés l’avoir encadrée).
En ordre dispersé (la Commission européenne, déjà critiquée de toute part pour son pesant bureaucratisme, n’ayant pas souhaité se saisir du dossier), les pays européens se sont à leur tour dotés d’institutions spécialisées dans la prévention et l’instruction des fraudes. Comme souvent lorsqu’il est question de morale publique, les pays nordiques ont été pionniers. Le Danemark a été le premier à créer en 1992 un « Comité de lutte contre la malhonnêteté scientifique ». Fait remarquable, cette initiative a été prise alors même qu’aucune affaire de fraude n’avait éclaté dans ce pays. Présidé par un juge, le Comité suit la logique américaine d’appliquer au cas particulier de la fraude scientifique les lois du pays, en particulier celles portant sur l’utilisation des fonds publics. La Norvège et la Suisse suivent également cette approche.
En Allemagne, il a fallu la retentissante affaire Herrmann/Brach en 1997 (voir chapitre 10) pour que les autorités scientifiques se décident à agir. La Deutsche Forschungsgemeinschaft (DFG), principale agence de financement de la recherche outre-Rhin, se dote en 1999 d’un bureau de l’ombudsman chargé de traiter des accusations de fraude. La philosophie de l’approche allemande diffère de celle des États-Unis ou du Danemark : elle ne fait pas appel à la loi, mais à une codification interne à la DFG qui définit les manquements à l’intégrité scientifique ainsi que les procédures d’enquête, et prévoit la gamme des sanctions possibles, au nombre de six : réprimande, interdiction de soumettre un projet de recherche pour une période comprise entre un et huit ans, obligation de remboursement des fonds perçus, obligation de rétracter une publication ou de publier un erratum, interdiction d’être évaluateur de projets soumis à la DFG et enfin interdiction de se présenter à une élection aux comités thématiques de l’agence. La Finlande ou la Pologne ont également adopté des systèmes reposant, comme en Allemagne, sur un code interne à la communauté scientifique nationale.
Le Royaume-Uni a développé de son côté, à partir de 1998, un système plus décentralisé encore. Chacun des sept Research Council, organisés autour d’un champ disciplinaire, a adopté son propre code. Certains, comme le Medical Research Council, se sont inspirés du modèle allemand. D’autres ont adopté des codes nettement moins exigeants. Toujours au Royaume-Uni, plusieurs éditeurs de revues scientifiques biomédicales ont fondé le Committee on Publication Ethics (COPE) afin notamment de définir la conduite à tenir en cas de suspicion de fraude ou de plagiat dans un article soumis ou déjà publié.
Aboutissement de ces efforts nationaux, le Conseil de l’Union européenne a adopté, lors de sa réunion du 1er décembre 2015, une déclaration sur l’intégrité en recherche, dont un des grands mérites est d’énumérer quatre conséquences néfastes de la fraude :
a) pour les personnes et pour la société : risque de diffusion de résultats falsifiés ou de produits ou processus de recherche et d’innovation non sûrs, et risque que ceux-ci soient rendus publics ou deviennent largement acceptés par la communauté ou par d’autres scientifiques, avec de graves conséquences, y compris une entrave au progrès scientifique ;
b) pour les politiques publiques : des données peu fiables ou des conseils douteux pourraient conduire à prendre de mauvaises décisions ;
c) pour les organismes publics : risque que se trouve compromise la capacité des institutions à soutenir et promouvoir la recherche d’une manière compétente et responsable ;
d) pour la confiance du public : la fraude scientifique et la mauvaise utilisation de fonds publics peuvent ébranler la confiance et le soutien du public envers la science et mettre ainsi en péril la viabilité des financements en faveur de la recherche et de l’innovation94.
La plupart des pays scientifiquement développés (on abordera le cas de la France au chapitre suivant) ont donc, au cours des décennies 1990 et 2000, élaboré un système institutionnel de lutte contre la fraude scientifique. Cette diversité des approches nationales a entraîné un besoin d’échange d’expériences, qui s’est traduit par l’organisation de conférences mondiales sur l’intégrité dans la recherche : Lisbonne en 2007, Singapour en 2010, Montréal en 2013, Rio en 2015. Celle de Singapour a en particulier adopté une déclaration que nous reproduisons en annexe de ce livre. Si elle a tous les travers de la langue de bois des institutions internationales, elle a cependant le double mérite de rappeler de justes principes et de pouvoir servir de base consensuelle à des pays souhaitant mettre en place une politique de lutte contre la fraude scientifique.
Ces guichets uniques chargés de traiter des allégations de fraude, qu’ils soient organisés à l’échelle d’un pays ou d’une institution, sont assurément utiles. Ils offrent aux chercheurs témoins, dans leurs laboratoires, de manquements à l’intégrité scientifique la possibilité de les signaler. Ils proposent des procédures écrites, codifiées, pour les traiter, ce qui permet de lutter contre la tendance spontanée du monde scientifique à traiter ces problèmes par de petits arrangements inavouables. Enfin, ils encouragent les programmes de formation, en particulier des doctorants ou des jeunes chercheurs, à l’intégrité scientifique.
Pourtant, il est frappant de constater qu’ils ne sont saisis que d’une fraction infime des cas de fraude. L’ORI américain traite en moyenne 24 cas par an depuis vingt ans, ce qui est très peu. Les responsables de l’ORI en sont bien conscients. Trois d’entre eux ont diligenté une enquête en envoyant un questionnaire à quelque 4 000 chercheurs financés par les NIH. Ils ont reçu 192 réponses décrivant en détail un total de 201 manquements à l’intégrité scientifique (deux tiers de fabrication et falsification de données et un tiers de plagiat) observés durant la période 2002-2005. Soit trois par chercheur et par an. Extrapolé aux 155 000 scientifiques du NIH, ce taux donne 2 325 manquements annuels à l’intégrité, soit cent fois plus que le nombre de cas traités annuellement par les NIH95.
Du côté des chercheurs, on se montre souvent hésitant à dénoncer les fraudeurs. Dans l’étude de l’ORI que l’on vient d’évoquer, seulement 58 % des manquements à l’intégrité observés dans les laboratoires des NIH ont été rapportés à la direction du laboratoire ou du département.
Les responsables de l’ORI96 écrivaient :
Les raisons individuelles qui mènent à ne pas rapporter ces problèmes sont aisées à comprendre, car elles correspondent à des motivations que nous connaissons tous. On ne veut pas accuser quelqu’un à tort. On ne veut pas perdre du temps à cela, ou on craint les représailles. On peut se dire que quelqu’un d’autre le fera. On peut avoir des liens amicaux avec les chercheurs et se dire que « ce n’est pas si grave » et que la question pourra être réglée sans une enquête potentiellement ravageuse pour sa carrière. Et signaler le problème nécessite d’avoir confiance dans le fait que l’enquête sera menée avec soin et en profondeur.
Cette question de la confiance dans les institutions chargées de prévenir et de traquer la fraude est centrale. Des chercheurs américains ont envoyé un questionnaire aux scientifiques du NIH leur demandant, d’une part, s’ils avaient été témoins de manquements à l’intégrité et, d’autre part, quelle avait été leur attitude. Ils ont reçu 2 599 réponses. Les 85 % de réponses positives à la première question ne peuvent guère être tenues pour signe que les manquements à la rigueur sont à ce point majoritaires. À l’évidence, les chercheurs qui ont été témoins de tels problèmes ont davantage répondu à l’enquête. Plus intéressantes sont leurs réactions. Des deux tiers d’entre eux qui ont entrepris de signaler ces manquements, seuls 16 % se sont adressés à leur hiérarchie ou aux organismes spécialisés de leur institution. Tous les autres ont préféré entreprendre des démarches informelles, bien qu’elles n’aient abouti que dans 28 % des cas à corriger le problème observé97. « L’attitude la plus fréquente est d’essayer de régler cela en interne, discrètement, en jouant de ses relations : par exemple en faisant en sorte, auprès de l’école doctorale, qu’un chercheur qui laisse ses doctorants embellir leurs données n’ait plus d’étudiants », confirme un ancien chercheur de l’institut Pasteur.
Encore faut-il pour cela avoir des relations… Un directeur de laboratoire, un professeur d’université en a. Il sait, s’il y est décidé, comment écarter discrètement de la communauté scientifique un fraudeur. Mais que dire d’un jeune chercheur, d’un post-doc, d’un technicien ou d’un ingénieur en contrat précaire soupçonnant un manquement à l’intégrité scientifique ? Ce sont pourtant eux qui assurent l’essentiel du travail expérimental, et qui sont donc les mieux à même d’observer d’éventuelles fraudes. À qui les dénonceront-ils ? Risqueront-ils leurs carrières, ou même leur emploi, pour cela ? La biophysicienne Lucienne Letellier, membre du comité d’éthique du CNRS, reconnaît franchement qu’il est extrêmement difficile à un jeune chercheur de signaler une suspicion de fraude :
À qui en faire part lorsque l’on se retrouve face à des collègues peu enclins à remettre en cause leurs travaux ? Comment en parler ? Quels interlocuteurs dans les institutions concernées ? Et s’il dénonce, de quelles protections bénéficie-t-il ? Faute d’interlocuteurs clairement identifiés, et sous l’effet de pressions « amicales », il sera tenté de renoncer à sa démarche… et quand bien même il s’obstinerait, la méfiance et l’hostilité de ses pairs ou supérieurs l’accompagneront. In fine, ce n’est pas forcément l’accusé qui se verra obligé de quitter le laboratoire si la faute est reconnue mais l’accusateur98 !
Ce risque est bien réel. En témoigne le triste sort de Young-Joon Ryu, un ancien collaborateur de Woo-Suk Hwang (voir chapitre 1) à l’université de Séoul. Le chercheur a vu sa carrière brisée pour avoir informé en 2005 la presse des innombrables fraudes de son ancien patron. La Corée du Sud n’ayant pas d’institution spécialisée dans le traitement des manquements à l’intégrité scientifique, Ryu n’avait guère d’autres solutions pour agir. Au lieu d’être remercié de cette courageuse initiative qui a notamment, on ne peut que s’en réjouir, empêché Hwang d’entamer des essais cliniques chez l’homme, Young-Joon Ryu s’est trouvé attaqué avec virulence dans son pays pour avoir provoqué la chute d’une gloire nationale. Licencié de son institut de recherche, il n’a pu trouver un laboratoire d’accueil qu’après deux années de chômage.
Toutes les instances spécialisées dans la lutte contre la fraude ont beau garantir la discrétion à celles et ceux qui s’adressent à leurs services, la crainte est grande, dans un petit milieu où tout le monde se connaît, d’apparaître comme un délateur. Pourtant, la déclaration de Singapour sur l’intégrité scientifique stipule que :
[…] les chercheurs doivent informer l’autorité responsable de tout soupçon de manquement à l’intégrité incluant la fabrication de données, la fraude, le plagiat ou toute autre conduite « irresponsable » susceptible d’ébranler la confiance en la recherche comme la négligence, le manquement aux règles de signature d’article, l’omission de résultats contradictoires ou l’interprétation abusive.
Mais tant que les règles de protection juridique des lanceurs d’alerte resteront floues, voire inexistantes, il est à craindre que rares soient les scientifiques à accomplir ce devoir civique que devrait être la dénonciation des fraudes dont ils sont témoins.
Les tentatives institutionnelles de lutter contre la fraude, pour utiles, nouvelles et louables qu’elles soient, semblent donc toucher à leurs limites. Sandra Titus, responsable des sciences de la santé de l’ORI, reconnaît qu’« en dépit de l’attention croissante aux problèmes d’inconduite scientifique, les efforts pour promouvoir l’intégrité en recherche restent inefficaces99 ». Pour elle, la seule mesure efficace serait d’instaurer une sorte de responsabilité collective et de frapper les chercheurs au porte-monnaie. Elle propose ainsi de financer en priorité les instituts qui ont mis en place les dispositions les plus strictes pour lutter contre les manquements à l’intégrité scientifique, de manière à enclencher une dynamique vertueuse collective, et à l’inverse de pénaliser l’ensemble d’un institut ayant connu des problèmes de manquements à l’intégrité, pour encourager leur signalement.
C’est sans doute la lenteur et les limites de l’action institutionnelle qui ont conduit de nombreux chercheurs témoins de fraudes, ou ayant des soupçons quant aux travaux de leurs collègues, à les rendre publiques sans en passer par les institutions. Une énigmatique Clare Francis (un pseudonyme derrière lequel se cache plus probablement un collectif de chercheurs) s’est ainsi fait depuis 2010 une spécialité d’alerter les éditeurs de revues de biologie moléculaire et cellulaire des duplications, inversions et autres retouches d’images dans les articles publiés dans leurs colonnes. Si certains, tel The Journal of Cell Biology, ont rétracté des articles à la suite des informations transmises par Clare Francis, la plupart des éditeurs refusent de prendre en compte ces alertes anonymes, bien que le Committe on Publication Ethics recommande de les considérer sérieusement.
Il est vrai qu’ils en reçoivent des centaines par an, et qu’il leur est presque impossible de savoir si elles sont le fait de chercheurs faisant de l’intégrité une affaire personnelle, de concurrents malhonnêtes cherchant à abattre leurs rivaux ou de plaisantins. De même, les rédacteurs en chef de revues refusent-ils presque toujours de prendre en compte les commentaires critiques des articles qu’ils ont publiés sur le site PubPeer, lui aussi animé par de mystérieux chercheurs, qui offre la possibilité de critiquer de manière anonyme des études parues dans le domaine biomédical. L’auteur de l’article est automatiquement informé de ces critiques et peut y répondre. Longtemps confidentiel, PubPeer a acquis une soudaine notoriété en publiant une série de commentaires pour le moins dubitatifs sur le sérieux avec lequel le biologiste Olivier Voinnet, du CNRS, conduisait ses expériences (voir chapitre suivant). La principale base de données bibliographique en sciences de la vie, PubMed, propose à présent des liens vers les commentaires critiques publiés sur PubPeer. La nouvelle notoriété du site a aussi conduit son créateur à sortir du bois en révélant son identité : Brandon Stell, chercheur américain en neurosciences, travaillant dans un laboratoire du CNRS à Paris.