3

Raconter, frauder ?


Tout article scientifique est-il une fraude ? La proposition peut sembler déroutante à quiconque n’appartient pas au monde scientifique. Nourri de ses souvenirs de philosophie de classe de terminale, si l’on a eu l’occasion de poursuivre ses études jusque-là, on est enclin à concevoir l’activité de laboratoire comme éminemment rationnelle. Face à une énigme que lui pose la nature, le chercheur formulerait une hypothèse, puis concevrait une expérience permettant d’en tester la validité. La présentation archétypale des articles en sciences de la vie reprend cette belle mécanique intellectuelle : après avoir expliqué pourquoi telle question pouvait se poser (introduction), puis décrit les moyens qu’il entend mettre en place pour y répondre (matériel et méthode), le chercheur décrit le contenu de ses expériences (résultats) puis les interprète (discussion).

Une belle histoire

Ce plan est, peu ou prou, celui des millions d’articles scientifiques publiés chaque année dans le monde. Il a le mérite de la clarté, la solidité de sa logique. Il semble transparent, exempt de tout présupposé. Pourtant, et tous les chercheurs le savent, il est un pur mensonge. Dans le réel, rien ne s’est produit comme le décrit l’article scientifique. Les expériences menées l’ont été de manière bien plus désordonnée, selon une progression bien moins logique que ne le raconte l’article. D’une certaine manière, un article repose donc sur une mystification. Tout article scientifique est-il une fraude ? se demandait le Britannique Peter Medawar, prix Nobel de physiologie et de médecine en 1960, dans une causerie radiodiffusée par la BBC en 196313. Sa réponse, annoncée dès le début de l’émission, était nettement affirmative. « Un article scientifique, dans sa forme orthodoxe, implique une conception totalement erronée, et même mensongère, de la pensée scientifique. »

Pour asseoir sa démonstration, Medawar commence par décrire avec une lucidité caustique ce qu’est un article scientifique en biologie dans les années 1960, les choses n’ayant pas changé depuis.

Il y a d’abord une partie intitulée « introduction », consacrée à décrire de manière générale le domaine dans lequel vos talents scientifiques vont s’exercer. Il s’agit aussi d’y traiter des travaux antérieurs, en évoquant, de manière plus ou moins élégante, les collègues qui auraient peu ou prou approché les vérités fondamentales que vous vous apprêtez à exposer.

La section dite des « méthodes » ne pose, pour Medawar, aucun problème. Celle des « résultats » est en revanche l’objet de sa réjouissante verve. « Elle consiste en un flot d’informations factuelles dont il est extrêmement malvenu de discuter de la signification. L’auteur se pose comme, se prétend être, un pur esprit, un réceptacle vide qui recueille les informations que lui communique la nature. » L’appréciation de ces données réputées objectives est réservée, poursuit Medawar, à la section « discussion ».

Il s’agit cette fois de faire semblant, de manière assez ridicule, de se demander si les données que vous avez décrites signifient quoi que ce soit, de faire mine de s’interroger sur la possibilité que quelque vérité générale ne jaillisse de toutes les expériences que vous avez exposées si fièrement dans la partie consacrée aux résultats.

Mauvais coucheur que ce Medawar ? Esprit exagérément suspicieux, trop porté vers l’épistémologie ? Écoutons donc un autre Nobel de physiologie et de médecine (1965), le Français François Jacob. Dans son autobiographie14, il écrit dans un style plus littéraire que Medawar, mais non moins évocateur :

Ce constat fait, Jacob, l’assumant, en vient à se demander si la sacro-sainte objectivité dont se parent les scientifiques ne masquerait pas une permanente et fort nuisible reconstruction du travail du chercheur.

Des dangers de l’intuition

Tout article scientifique est donc une reconstruction, un récit, une narration, une belle histoire, nette et précise. Une trop belle histoire, souvent, trop logique, trop cohérente. Des quatre catégories de fraude scientifique que distinguait Babbage, celle du cuisinage des données est la plus intéressante, parce que la plus ambiguë. D’une certaine manière, tout chercheur est un cuisinier, car il ne peut écrire un article scientifique sans arranger ses données pour les présenter de la manière la plus convaincante, la plus appétissante. L’histoire des sciences abonde d’exemples de chercheurs embellissant leurs résultats expérimentaux pour qu’ils se conforment à une théorie simple, logique, cohérente.

Quoi de plus simple, par exemple, que les trois lois de Mendel expliquant l’hérédité génétique des caractères, qui sont de ces rares lois que compte la biologie ? La vie de Gregor Mendel, le moine botaniste de Brno, a souvent été racontée. On enseigne au lycée que Mendel croisait entre eux des petits pois, les uns à graines lisses, les autres à graines ridées. À la première génération, tous les petits pois ont des graines lisses. Le caractère ridé semble avoir disparu. Mais voici qu’il réapparaît à la deuxième génération, obtenue par croisement entre des plantes de la première, dans précisément un quart des pois. En réfléchissant sur ces expériences, Mendel formalise dans Expériences sur les plantes hybrides (1865) les trois règles, plus tard qualifiées de lois, qui portent aujourd’hui son nom. Largement ignoré de son vivant, son travail est redécouvert au début du XXe siècle et passe aujourd’hui pour fondateur de la génétique moderne. Mais cette redécouverte s’accompagne d’une relecture attentive de ses résultats. Le biologiste et mathématicien britannique Ronald Fisher, qui a donné son nom à un célèbre test statistique, est un des plus perspicaces relecteurs de Mendel. En 1936, il calcule que Mendel n’avait que 7 chances sur 100 000 de tomber précisément sur la proportion d’un quart de pois à graines ridées dans ses croisements de génération. La proportion de 25 %/75 % est certes exacte, mais, étant de nature probabilistique, ne s’observe que pour de très grands nombres de croisements… bien loin de ceux (dix plantes seulement, même si elles produisirent 5 475 graines lisses, 1 575 graines ridées) que décrivait Mendel dans son mémoire15. La conclusion s’impose : Mendel, ou un de ses collaborateurs, semble bien avoir arrangé plus ou moins consciemment les décomptes pour qu’ils se conforment à cette règle dont il avait sans doute – mais ses archives n’ayant pas été conservées, on ne peut que spéculer sur ce point – l’intuition.

L’intuition n’est hélas pas toujours bonne. Dans la seconde moitié du XIXe siècle, le biologiste allemand Ernst Haeckel était convaincu que, selon sa célèbre maxime, « l’ontogenèse récapitule la phylogenèse », en d’autres termes qu’un animal passe, au cours de son développement embryonnaire, par différents stades comparables à ceux des espèces antérieures de sa lignée évolutive. Dans Anthropogenie oder Entwicklungsgeschichte des Menschen (1874), Haeckel publie une planche de dessins de sa main, qui montre trois stades successifs du développement embryonnaire du poisson, de la salamandre, de la tortue, du poulet, du lapin, du porc et de l’homme. À l’examiner, la conclusion saute aux yeux : à un stade précoce du développement, les embryons sont très semblables. Dès la publication de ce livre, cette planche est très critiquée par certains de ses collègues et rivaux embryologistes. Mais ce n’est qu’un siècle plus tard, en photographiant ces embryons de différentes espèces et en comparant les clichés aux dessins qu’en fit Haeckel, qu’il devint clair qu’ils tenaient bien plus de l’œuvre d’art que de l’observation. On sait aujourd’hui que l’ontogenèse ne récapitule en rien la phylogenèse, et que Haeckel, aux talents artistiques de premier plan, avait dessiné ses planches d’embryons pour qu’elles illustrent parfaitement la thèse qui lui était chère16.

Et des dangers du conformisme

Un autre exemple fameux de cette propension à arranger les résultats expérimentaux pour les rendre plus séduisants et plus convaincants nous est fourni par le physicien américain Robert A. Millikan, célèbre pour avoir le premier mesuré la charge électrique élémentaire portée par l’électron. Son dispositif expérimental consistait à pulvériser de minuscules gouttes d’huile ionisée entre deux électrodes d’un condensateur chargé, puis à mesurer leur vitesse de déplacement. Millikan observa ainsi que les valeurs des charges de ces gouttelettes étaient toutes des multiples de 1,592 × 10 – 19 Coulomb, qui était donc la charge électrique élémentaire. Son travail fut récompensé du prix Nobel de physique en 1923. L’histoire est édifiante pour deux raisons.

La première est que Millikan semble bien avoir exclu un certain nombre de ses résultats expérimentaux trop divergents pour pouvoir affirmer qu’il avait mesuré la charge électrique élémentaire avec une marge d’erreur de 0,5 %. Sa publication porte sur l’analyse du mouvement de 58 gouttelettes, alors que ses cahiers de laboratoire montrent qu’il en a étudié 175. Simple échantillon aléatoire de résultats d’une expérience qui s’est étalée sur cinq mois ? Nullement, la quasi-totalité des 58 mesures rapportées dans la publication porte sur les expériences menées durant deux mois seulement. La véritable incertitude, celle qu’indiquaient ses expériences prises dans leur totalité, était quatre fois supérieure17. Et Millikan ne se privait pas de noter dans son cahier de laboratoire ses appréciations pour le moins subjectives sur le résultat de chaque expérience (« Magnifique, publier à coup sûr, splendide ! » ou, au contraire, « Très bas. Quelque chose ne va pas »), ce qui suggère qu’il ne s’en remettait pas seulement au verdict du tribunal de l’expérience pour déterminer la charge électrique de l’électron.

La seconde est que l’on sait aujourd’hui que la valeur obtenue par Millikan était fausse, car il avait utilisé dans ses calculs une valeur erronée pour rendre compte de la viscosité de l’air freinant le mouvement des gouttelettes. La valeur exacte est de 1,602 × 10 – 19 Coulomb. Mais le plus intéressant est la manière dont les chercheurs sont parvenus à ce résultat, aujourd’hui bien établi. Le physicien Richard Feynman le raconte fort bien :

Si on trace les valeurs obtenues en fonction de la date à laquelle elles ont été trouvées, on se rend compte que l’expérience suivant celle de Millikan donne une valeur légèrement supérieure à celle que Millikan avait trouvée, et que celle qui suit donne une valeur encore légèrement supérieure, jusqu’à ce qu’on arrive progressivement à une valeur très supérieure. Mais pourquoi n’ont-ils pas trouvé la bonne valeur dès le début ? Les scientifiques ont honte des dessous de cette histoire car il semblerait que les choses se soient passées ainsi : lorsqu’ils obtenaient une valeur bien plus élevée que celle de Millikan, ils se disaient qu’il devait y avoir une erreur et essayaient de comprendre ce qui avait pu mal tourner. Et lorsqu’ils trouvaient une valeur proche de celle de Millikan, ils ne se posaient pas de questions. Ils ont ainsi éliminé les valeurs trop décalées18.

Cuisinage technologique

Les arrangements quotidiens avec les données expérimentales dans les laboratoires ne s’expliquent donc pas seulement par la volonté d’un chercheur d’obtenir un résultat dont il a l’intuition sous une forme plus que parfaite, comme le fit Mendel, ou de briller par la précision de ses mesures, comme le fit Millikan. Ils peuvent aussi procéder du besoin, plus ou moins inconscient, de confirmer un résultat qui passe pour établi, surtout si son découvreur a été auréolé par un prix prestigieux. Le conformisme s’avère ainsi un paradoxal facteur fraudogène, comme on avait eu l’occasion de le constater en évoquant les fraudes en série du physicien Jan Hendrik Schön. Toutes ces (mauvaises) raisons d’arranger les données, aussi anciennes que les sciences, existent toujours aujourd’hui, mais l’évolution technologique a rendu de plus en plus simple, et donc de plus en plus tentant, d’obtenir des résultats qu’il est de plus en plus aisé d’embellir.

L’anthropologue Giulia Anichini a observé la manière dont les données expérimentales étaient transformées en un article dans un laboratoire de neurosciences français utilisant l’imagerie par résonance magnétique (IRM). Sa passionnante enquête19 met en évidence l’ampleur des « bricolages », selon le terme de l’anthropologue, que pratiquent les chercheurs pour rendre leurs données plus cohérentes qu’elles ne le sont réellement. Giulia Anichini précise bien que ce bricolage ne relève pas de la fraude, en ce qu’il n’agit pas sur la nature des données, mais sur la manière dont elles seront présentées. Mais elle souligne aussi que la démarcation entre les deux n’est pas nette, le bricolage d’adaptation « se positionnant à la limite entre ce qui est accepté et ce qui est interdit ». Tous ces bricolages sont tus lors de la rédaction de l’article. Selon Giulia Anichini :

Tous les moments d’incertitudes en rapport à la bonne façon de procéder, les incohérences des résultats, les nombreux tests appliqués aux images disparaissent et un compte rendu linéaire décrit seulement certaines étapes des traitements qui ont été suivies. Les faits sont agencés de façon à composer un portrait cohérent ; même si les données ne le sont pas, et on l’a vu, cela implique une adaptation forte de la méthode aux résultats obtenus.

Son enquête est également passionnante parce qu’elle démontre que les chercheurs maîtrisent souvent mal la machine à IRM et qu’ils dépendent, pour obtenir leurs données, des ingénieurs qui savent la faire fonctionner. Cet éloignement croissant entre les chercheurs et leurs instruments d’expérimentation s’observe dans de nombreux autres domaines des sciences de la vie ainsi qu’en chimie. Elle peut être la source d’une autre forme d’embellissement des données, le chercheur ne comprenant au fond pas bien comment elles ont été acquises et ne voyant pas pourquoi ses bricolages posent problème. Giulia Anichini rapporte ainsi cette savoureuse réaction d’un ingénieur du laboratoire jugeant que le chercheur avec lequel il travaille cuisine à outrance les données :

La biologie cellulaire offre un autre excellent exemple des possibilités nouvelles de cuisinage des données offertes par l’évolution technologique. Dans cette discipline, les images tiennent souvent lieu de preuves. On présente de beaux clichés microscopiques, dévoilant les secrets de l’architecture cellulaire. Et, depuis une dizaine d’années, des films, des vidéos montrant comment elle évolue en permanence. À grands coups de colorisation, des clichés spectaculaires, et souvent fort esthétiques, sont obtenus, à tel point que l’institut Curie, un des centres français les plus en pointe dans le domaine, en a même édité un beau livre, un de ceux que l’on offre à Noël pour en admirer les images sans se préoccuper de ce qu’elles représentent vraiment, et encore moins de la manière dont elles ont été obtenues. On gagnerait cependant à s’y intéresser. « Qui n’a jamais passé des heures sur un microscope confocal ne sait pas à quel point il est facile de faire dire absolument ce qu’on veut à une image fluorescente », témoigne Nicole Zsurger, pharmacologue du CNRS. Depuis que, au cours des années 2000, la photographie numérique a remplacé le bon vieil argentique dans les laboratoires, il est devenu extrêmement simple d’arranger les images. De les embellir. Ou de les falsifier. De même que les vedettes n’ont jamais de rides dans les magazines, les clichés des biologistes semblent ne plus souffrir du moindre défaut.

Prenant en 2002 ses nouvelles fonctions de rédacteur en chef du Journal of Cell Biology, une des revues les plus respectées du domaine, l’Américain Mike Rossmer a eu l’idée de soumettre tous les manuscrits qu’il recevait à un logiciel, conçu à cette fin, de détection des retouches d’images. En onze ans, il dit20 avoir constaté que le quart des manuscrits soumis à la revue comprenait des images arrangées, embellies, manipulées d’une manière ou d’une autre. Pas au point de constituer une fraude authentique : seul 1 %, rapporte-t-il, des articles ont été refusés parce que les manipulations induisaient en erreur le lecteur. Mais tout de même au point de le conduire à demander à leurs auteurs de soumettre des images authentiques, non de ces beaux clichés qui ornent les couvertures des revues de biologie cellulaire. L’European Molecular Biology Organization, très prestigieuse dans le domaine de la biologie moléculaire, a de son côté choisi depuis 2011 de confier l’examen des articles des quatre revues que publie l’institution à une profane : Jana Christopher, ancienne maquilleuse de l’English National Opera. Son œil expert en faux-semblants examine toutes les images des manuscrits acceptés par les relecteurs scientifiques. Une sur cinq s’avère embellie, et une sur cent à un point tel que la publication de l’étude, pourtant validée par les relecteurs, doit être annulée21. Un éditorial de Nature Cell Biology22, qui détaillait les mesures mises en place par la revue pour y faire face, observait :

Le problème principal est que les scientifiques ne prennent pas le temps de comprendre les outils complexes qui leur permettent d’obtenir leurs données, et semblent parfois être dupes de la facilité avec laquelle les logiciels de retouche d’images permettent de manipuler les données. L’intention n’est en général pas de tromper, mais de rendre l’histoire qu’ils racontent plus frappante en présentant des données parlantes, sélectionnées ou simplifiées.

Le titre de cet éditorial, « L’embellissement et la fraude », illustre bien que nous ne sommes pas les seuls à penser qu’il est impossible de distinguer le premier de la seconde. Dans le continuum du cuisinage des données, où placer le curseur entre ce qui est tacitement admis et ce qui ne l’est pas, entre l’embellissement et la fraude ?

Les initiatives du Journal of Cell Biology et de l’European Molecular Biology Organization ont ensuite été imitées par d’autres revues spécialisées. La plupart d’entre elles recourent aujourd’hui à ces logiciels visant à détecter la retouche d’images. C’est du reste en s’équipant d’un tel logiciel que le rédacteur en chef de la revue de chimie organique Organic Letters a récemment découvert avec effroi que nombre d’images d’analyses spectrales (une méthode d’analyse très utilisée en chimie organique) des manuscrits qui lui sont soumis ont été nettoyées pour en enlever les traces d’impureté23. La biologie cellulaire n’est donc pas la seule discipline concernée par ces embellissements de données rendus si simples par les nouvelles technologies numériques.

Force est cependant de constater que ces logiciels ne constituent pas une arme imparable contre la tentation d’arranger les clichés numériques pour les rendre plus parlants. Un mystérieux Juuichi Jigen a ainsi mis en ligne en janvier 2012 un véritable manuel de la falsification de données de biologie cellulaire par le jeu des retouches d’images24. Traitant de 24 publications dans les meilleures revues, toutes issues de l’institut dirigé par Shigeaki Kato de l’université de Tokyo, cette vidéo démontre combien il est simple de manipuler les images censées représenter le résultat d’expériences. Jusqu’à 18 manipulations sont démontrées dans la vidéo mise en ligne pour un seul article paru dans Cell. Cette vidéo aura en tout cas eu le louable effet de purger la littérature scientifique de données falsifiées. Quelques mois après sa mise en ligne, Shigeaki Kato démissionnait de l’université de Tokyo. Depuis, 28 de ses articles ont été rétractés… dont plusieurs parus dans Nature Cell Biology qui se disait, six ans auparavant, très vigilante quant aux manipulations que permettent les logiciels de retouche d’images.