Currently viewing the category: "Uncategorized"

Le représentant européen des séquenceurs haut-débit de troisième génération, Oxford Nanopore va communiquer à l’AGBT… dans quelques jours. La société en profitera pour annoncer la commercialisation de ses premières machines permettant de séquencer en 24 heures un génome humain pour moins de 1000 $ (soit le même prix qu’un génome humain séquencé par un Ion Proton en 2 heures sur une plateforme de deuxième génération).

Oxford Nanopore souhaite commercialiser sa machine (en direct) avant la fin 2012. Un réelle course a lieu, puisqu’à cette échéance sera commercialisé le Ion Proton. Nous assisterons donc avant fin 2012 a un chevauchement technologique où 2ème et 3ème générations de séquenceurs risquent de se télescoper… les scientifiques en cours d’élaboration de dossiers de demandes de financements devront (vite) choisir leur camp… : partir sur une technologie qui a d’ores-et-déjà fait ses preuves (Ion Proton) donc de 2ème génération ou une technologie de 3ème génération totalement innovante… mais dont on ne possède pas de retour indépendant sur la qualité des données générées. La « guerre » technologique est lancée entre le transfuge de Solexa (technologie des séquenceurs Illumina), John Milton, le responsable scientifique d’Oxford Nanopore et la biotech’ rock-star Jonathan Rothberg, responsable scientifique de Ion Torrent chez Life Technologies.

A Davos en Suisse (dans la patrie de Roche)  au forum économique mondial, Jonathan Rothberg présente son séquenceur Ion Proton, une évolution de son PGM de Life Technologies. La dépêche AFP (mise en forme par 20minutes est disponible en cliquant sur l’image ci-dessous) est dithyrambique replaçant la machine de Life Technologies dans le contexte et le champ d’application de la médecine personnalisée… jouant au passage du violon de l’affect. Le Ion Proton, fort de la démonstration menée par son petit frère le PGM depuis un an (200 machines PGM en Europe !) s’appuie sur l’efficience du séquençage à l’aide de semi-conducteurs.

Il parait évident que la médecine personnalisée aura un futur au sein des pays développés… mais il ne faut pas oublier qu’il s’agit d’un futur que l’on augurait aux puces à ADN, il y a plus de 10 ans, sans réelle démocratisation au sein des cliniques. Avant toute chose, permettre de séquencer l’équivalent d’un génome humain ou de 2 exomes humains pour la somme soutenable de 1000 $ (en 2 heures) laisse entrevoir une accélération des recherches biomédicales mais aussi de toutes les autres ! Cet outil qui torpille un MiSeq (Illumina) sorti trop tard, diffusera dans les laboratoires… il remporte, malgré ses défauts d’ores et déjà connus, la bataille du séquençage 2ème génération. Le prochain pari (plus aléatoire) porterait plutôt sur le séquençage 3ème génération dont la promesse est une lecture d’une molécule d’ADN ou d’ARN (non amplifiée artificiellement) dans son « état » originel (méthylé ou non par exemple). La 3ème génération unifie génomique et épigénétique.

Le Ion Proton devrait être livrable à partir d’octobre 2012, quelques chanceux pourront malgré tout réaliser des runs dès le milieu de l’année (il faut en acheter un minimum de 4 pour être un parmi ces privilégiés).

Un Ion Proton devrait avoir un coût proche de 140 k€ auxquels il vous faudra ajouter 65 k€ de serveur informatique.

Chaque année depuis 13 ans, l’AGBT (Advances in Genome Biology and Technology) rassemble les fournisseurs de technologies de pointe, quelques « maîtres » en la matière venant dispenser des cours du soir (sorte de « master-class ») et beaucoup de scientifiques essentiellement Nord-Américains. En effet, cette grande messe de la biologie haut-débit a lieu à Marco Island, île de Floride, lieu de villégiature pour retraités liftés percevant leurs fonds de pension sous forme de rente viagère.

La Côte Est américaine accueille les grandes entreprises de biotechnologies de la côte opposée pour démontrer que la Californie avec des sociétés telles que Illumina, Life technologies, Roche, Pacific Biosciences, Agilent… reste le meilleur fournisseur de technologies de pointes pour les gros centres de recherches situés sur la Côté Est (NIH, MIT-Broad Institute, Yale…). La Côte Est héberge les deux tiers des séquenceurs haut débit nord-américains. Depuis quatre ans, il faut bien le dire l’AGBT consacre le séquençage haut-débit, technologie qui vampirise la plupart des présentations (n’oublions pas que la jeune société PacBio sponsor principal, vend des séquenceurs…) et sessions « workshop »… au détriment de technologies plus « anciennes » (les puces à ADN par exemple). On le sait, ce type de rassemblements adoube la nouveauté et consacre ce que, parfois, hâtivement, on nomme : innovation.

Bien que ces rassemblements endogames sont critiquables, ils constituent une tribune pour les principaux axes de développements des technologies appliquées au vivant. L’AGBT est un tremplin dont se servent un grand nombre de firmes californiennes pour annoncer des lancements de machines à générer de la séquence. Cet évènement très américanocentré n’a pas de réel pendant européen, malgré les différentes formes prises par des rassemblements tels que le « carrefour des biotechnologies » remplacé par l’Eurobio-event. L’Eurobio-event sorte de biennale  biotech’ où l’on trouve rassemblés beaucoup de vendeurs de robotiques, de pipettes… beaucoup de conférences traitant du business, de l’investissement dans les biotechnologies plus que des biotechnologies en tant que technologies. Assez peu de science dans Eurobio-event, beaucoup de business.

L’AGBT oscille quant à elle, entre un monde de scientifiques avide de nouvelles méthodes visant à l’exploitation rationnelle des flots de données issues de la biologie haut-débit (ce que représente l’illustration ci-dessus) et un monde de vendeurs de solutions appliquées à la recherche en biologie – quand les uns partagent un même « problème » et réfléchissent à une solution optimale pour sortir du sens biologique d’un amas de données, les autres vendent les générateurs de « problèmes » en misant sur la communauté scientifique mondiale pour apporter la réponse aux nouveaux problèmes générés. Il s’agit de trier l’information émanant de ce type de rassemblements en n’oubliant pas que cette vitrine – telle que peut l’être l’AGBT ou tout autre évènement de cette ampleur – peut parfois être un mirage scientifique plus qu’un virage technologique…

L’AGBT cette année 2012 aura lieu du 15 au 18 février sur l’île Marco Island : http://agbt.org/about.html, on y parlera de la technologie de Pacific Biosciences (des retours sur expériences sont prévus, avec leur 15 % de taux d’erreur de séquençage, il s’agit de LA déception technologique de l’année, mais PacBio est aussi LE sponsor principal de la réunion, quel suspens !), on y parlera aussi du futur Ion Proton

Depuis la publication de 2006, d’Astier and al., J. Am. Chem. Soc., la communauté scientifique attendait la révolution du séquençage 3ème génération que constituait la géniale idée d’Oxford Nanopore : à savoir l’alliance des nanotechnologies, du génie génétique le tout à des fins de séquençage (et plus si affinité). Ainsi, un pore d’alpha-hémolysine (d’environ 1 nanomètre) ou la porine A de Mycobacterium smegmatis ou bien encore du graphène ont été investigués pour devenir le pore idéal dans lequel, après clivage par une exonucléase des liaisons phosphodiester, les bases azotées dont l’enchaînement constitue le séquençage passe afin d’être analysées (par analysées on entend lues, la lecture étant basée sur la différence de conductance électrique liée à la nature chimique des bases azotées). Le pari, pour Oxford Nanopore réside dans le fait de trouver un mode de détection suffisamment sensible pour analyser puis par puis un signal généré par le passage d’une base au travers de pores (autrement appelés trous). La résolution de la technologie constituait un défit, sa faiblesse provenait (espérons que ce verbe se conjugue aujourd’hui au passé) de la rapidité de passage des bases à travers le pore (1 à 5 µs / base)…

Une attente à émouvoir un James Dewey Watson, plusieurs publications en guise de démonstration de la faisabilité d’un tel séquençage, des appels de fonds ayant abouti à l’intégration d’Illumina au niveau du capital d’Oxford Nanopore (investissement en deux fois d’abord de 28 millions $ puis de 41 millions) ont maintenu en haleine les scientifiques avides de séquençage 3ème génération.

Oxford Nanopore est l’un des seuls acteurs européens, dans le monde du séquençage haut-débit où l’hégémonie californienne est écrasante…  Alors que les Californiens (PacBio, Life, Illumina) communiquent à grand renfort d’annonces choc, Oxford Nanopore garde une part de mystère (aucune spécification réellement disponible à ce jour), nourrissant notre curiosité avec quelques publications scientifiques et quelques animations dont certaines vous sont présentées ci-dessous.

http://vimeo.com/18630569

Cette première animation reprend les différentes modalités de séquençage

http://vimeo.com/20289048

Avec la vidéo ci-dessus et celle ci-après, Oxford Nanopore réinvente le magnétoscope VHS à visée séquençage haut-débit…

http://vimeo.com/19288315

Finalement, le message à peine subliminal de ce court article : Oxford Nanopore est une société à surveiller de près… de plus en plus près.

Note : si les liens vers les vidéos ne fonctionnent pas essayer toujours en suivant celui-ci…

L’exome humain, l’ensemble des exons ou encore l’ensemble de ce qui, encodé sous forme d’ADN, peut être traduit en protéines représente environ 1,2% genome humain, 50 Mb et inclus 85 % des mutations référencées.

Emilie Lalonde et al., montre l’efficacité du séquençage d’exomes dans un article paru dans Human Mutation de 2010. La démonstration est faite au niveau de la découverte rapide des mutations associées au syndrome de Fowler, impliqué dans la prolifération anarchique des vaisseaux du cerveau qui empêche son développement. Etudiant les exons de deux patients sans lien de parenté cette équipe de Montréal a démontré l’efficacité de la capture d’exons (SureSelect, Agilent) suivi d’un séquençage haut-débit sur plateforme Illumina GAIIx (en moyenne pour les 2 expériences ont été générés 70 millions reads de 76 pb, environ 5 Gbases de séquences brutes).

Techniquement le séquençage d’exons est relativement simple : il implique une capture par hybridation spécifique (NimbleGen, SureSelect de Agilent sont les plus employés), une purification de ces exons ou parties d’exons capturés et le séquençage haut-débit de ceux-ci… L’article de Majewski et al., disponible ici (J. Med. Genet. 2011) cerne avec brio le formidable potentiel de ces nouvelles études, avec son « qu’est ce que le séquençage d’exons peut faire pour vous ? ». Il est assez aisé de comprendre que le séquençage des régions codantes est plus accessible au niveau budget et souvent suffisant pour répondre à beaucoup de questions de cliniciens travaillant à la recherche des causalités de maladies rares. Le schéma ci-dessous, tiré de Leslie G Biesecker, Nature Genetics 42, 13–14 (2010), synthétise la procédure permettant d’aboutir rapidement à la notion de « gènes candidats » (ou plutôt de mutations causales). Les mutations témoins sont accessibles sur les bases de données mondiales dbSNP ou bien encore par l’intermédiaire du projet 1000 Génomes… dont nous avons parlé dans de précédents articles.

 

L’article montre à quel point l’investigation visant à la découverte des causalités d’une maladie rare, par exemple, a été totalement bouleversée. Ces technologies couplant capture d’exons et séquençage des régions codantes capturées ont d’ores et déjà montré la preuve de leur efficacité. L’article nous rappelle que le génome humain réalisé en 2001 a coûté plus de 2,7 milliards USD, qu’en 2008 un séquençage humain complet coûtait 1,5 millions de USD et qu’aujourd’hui ce même séquençage approche les 10 000 USD…

Feuille de route pour l'utilisation du séquençage haut-débit appliqué à l'identification des variations génomiques à l'origine de maladies "génétiques"

Ainsi que le montre Majewski et al. par le schéma ci-dessus plus la maladie que l’on cherche à élucider (si l’on peut s’exprimer ainsi) est la résultante d’une mutation qui a un effet fort, moins la cohorte à séquencer sera importante. En d’autres termes, pour ce qui concerne les maladies multi-factorielles (Alzheimer par exemple), le nombre d’individus dont les exons sont à séquencer sont importants… pour ce type de problématique les GWAS (Genome Wide Association Studies) par l’intermédiaire de scan de régions polymorphes anonymes sur la base de supports tels que les puces Illumina (puces permettant de scanner jusqu’à 4,3 millions de SNPs humains) restent compétitives et d’une puissance comparable. Dans le cas des maladies complexes d’autres stratégies sont développées telles qu’un premier crible sur une grande quantité de cas/témoins sur la base de puce haute densité de SNPs et un focus-séquencing des régions génomiques montrant une association potentielle avec le phénotype étudié…

Le séquençage haut-débit devenant de plus en plus accessible financièrement et par les méthodologies (pipeline d’analyses) de plus en plus disponibles permet d’envisager de nouvelles approches dans la découverte de cibles thérapeutiques potentielles. Ceci étant, l’accessibilité à des quantités de génomes de plus en plus disponibles (sans réel contrôle des organismes d’état) n’est pas sans soulever des problèmes d’éthique profonds et quelque peu négligé dans le débat scientifique actuel.

Pour continuer dans notre tour d’horizon technologique des différentes méthodes de séquençage voici une revue faisant le point sur les différentes plateformes (plutôt dans le gros calibre). Certes, cette revue date de presque deux ans et écarte d’emblée les séquenceurs de paillasse, néanmoins les schémas, plutôt bien faits, permettent d’entrevoir les subtilités des diverses modalités de séquençage. En outre, cette revue propose une base comparative argumentée permettant de se faire une opinion éclairée des capacités des diverses plateformes (comme d’habitude vous avez accès à la publication en cliquant sur l’image ci-dessous)… bonne lecture.

Tagged with:
 

Voici la période de Noël… comme tout le monde, vous avez un cousin un peu pénible à qui vous devrez faire un cadeau… il est probable que ce gars devienne un vrai type bien après avoir lu le bouquin que je vais évoquer ici (rien que ça !). Un livre illustré par Charb… le créateur de « Maurice & Patapon », drôle & crado… un gars héritier de Chomsky, un autre gars drôle et intelligent qui rendra votre cousin plus… sympa après trois verres de vodka.

Ce livre permet de gagner en esprit critique (et ainsi d’être plus pertinent face à un article scientifique mais surtout plus éveillé dans sa vie de citoyen face à un journal de 20h, par exemple). Ce petit cours (humblement nommé) écrit par un militant libertaire, professeur en sciences de l’éducation semble motivé par un regret formulé par Noam Chomsky :  «Si nous avions un vrai système d’éducation, on y donnerait des cours d’autodéfense intellectuelle».  Normand Baillargeon, semble faire sienne la phrase fétiche partagée par Bourdieu et Castoriadis « vivre libre ou se reposer », il nous incite à faire preuve d’une grande vigilance et d’une rigueur froide (par froide s’entend dépassionnée) dans l’analyse d’une information. Le professeur en sciences de l’éducation continue son propos en tâchant de donner des moyens pour être critique, un minimum de connaissances (probabilités simples, statistiques…) suffisent à organiser une opinion. Si pour Bourdieu la sociologie est un sport de combat, pour Baillargeon la meilleure autodéfense réside dans l’éveil des consciences que l’on souhaite voir dormir.

 

L’auteur nous livre quelques exemples bien sentis, le tout rédigé dans une langue très claire, peu ampoulée… accessible à tous (même ceux qui ont le plus de diplômes et qui sont donc formatés par le système, ce même système qui a oublié l’enseignement de l’esprit critique dans nos chères écoles). Normand Baillargeon apporte la preuve que l’on peut être intelligent, humaniste, militant tout en étant humble…  L’esprit critique pour tous : vous pourrez trouver en guise d’amuse bouche un pdf de ce petit cours en usant du lien que vous êtes en train de lire… bon appétit.

Le bien beau document que voilà ! Se repérer dans toutes les options de préparation des échantillons à séquencer, options qui sont fonctions de l’origine et de l’application que l’on souhaite mettre en oeuvre par l’intermédiaire du séquençage, peut être un réel casse-tête que ce document souhaite simplifier ici.

Cet arbre de décision s’étoffera très rapidement : d’autres branches pousseront avec les protocoles « mate pair » & « paired end », les nouvelles indexations… et surtout l’arrivée du kit permettant de séquencer 400 b… Peut être que les branches portant les options 100 b seront, quant à elles, pour l’occasion élaguées.

Ce document, et beaucoup d’autres, est disponible sur le site de la communauté Ion Torrent.

Les scientifiques seraient ils des parangons de vertu ? Comment et pourquoi les imposteurs travestissent la vérité en la parfumant de sciences et de techno-science ? C’est à ces questions que répond clairement Michel de Pracontal dans un ouvrage (ici ré-édité) publié, pour la première fois, il y a plus de 20 ans. Dans sa version de 2001, en quelques 332 pages le journaliste scientifique oeuvrant pour le Nouvel Observateur et Mediapart (son blog est totalement recommandable) réalise un manuel de référence pour tout zététicien qui se respecte. Certes, ce manuel abordant Rika Zaraï, l’astrologie, l’homéopathie, l’affaire Baltimore, les oeuvres de moult scientifiques peu vertueux inventeurs de données frelatées tel un Cyril Burt, d’ imposteurs en herbe et de gourous scientistes avides, est parsemé d’humour grinçant, sardonique mais il est avant tout, même avec quelques maladresses, une ode à l’esprit critique utile à tous. Le livre est structuré en manuel avec un exercice en fin de chapitre permettant d’aiguiser son esprit critique et de se détacher de l’autorité scientifique qui va de soi… Les cas abordés sont pléthoriques, couvrent tout le spectre de l’escroquerie intellectuelle et scientifique… le lecteur peut être troublé ou amusé de voir mis sur le même plan l’astrologue et le physicien peu scrupuleux. Or l’origine de la fraude et la manière dont elle est crédibilisée ne sont pas les mêmes… le profane peut s’y perdre un peu.

Voici le quatrième de couverture : « Plus de 50 % des Français croient à la transmission de pensée et à la guérison par magnétiseur, près de la moitié fait confiance à l’astrologie, 35 % aux rêves prémonitoires. De l’horoscope sur Internet au phénomène « X-Files », de la mémoire de l’eau aux « paramédecines », de la réincarnation aux « expériences NDE », la patrie de Descartes se passionne plus que jamais pour l’irrationnel. Le progrès des sciences et des techniques s’accompagne d’un essor des pseudo-sciences et des fraudes scientifiques. Des savants renommés accréditent la téléportation et le voyage dans le temps. Des autodidactes inventifs proposent des théories « alternatives » à celles de Darwin et d’Einstein.

Loin d’être marginale, l’imposture scientifique est devenue une nouvelle norme intellectuelle. Baigné d’ondes positives, planant au-dessus des basses arguties de la raison, l’homme nouveau du xxte siècle goûtera-t-il le vrai bonheur ? Pour s’y préparer, voici l’indispensable manuel du pipeau et de la baliverne. Cet ouvrage vivant et didactique remet (totalement) à jour sa première édition, publiée en 1986. L’honnête citoyen comme l’apprenti charlatan y trouveront tous les conseils utiles, illustrés d’exemples concrets et d’anecdotes captivantes.

Le lecteur s’instruira en s’amusant, et apprendra comment départager le vrai du faux dans une culture surmédiatisée, régie par la dictature du marché et de l’audimat. Quand l’impact du message finit par l’emporter sur son contenu, le réel s’affaiblit. L’univers orwellien de 1984, où le charbon est blanc et où deux et deux font cinq, a cessé d’être une pure fiction. Contre un tel danger, la dernière arme est peut-être l’humour

Michel de Pracontal, 46 ans, est titulaire dune maîtrise de mathématiques et d’un doctorat en sciences de l’information sur la vulgarisation scientifique. Journaliste scientifique depuis vingt-deux ans (depuis 1990 au Nouvel Observateur), il est l’auteur de Les Mystères de la mémoire de l’eau (La Découverte, 1990) et de La Guerre du tabac (Fayard, 1998). » (table des matières).

Ce manuel est à placer entre le « petit cours d’autodéfense intellectuelle » de Normand Baillargeon et « gourous, sorciers et savants » de Henri Broch, deux ouvrages qui feront l’objet de chroniques futures.

De retour sur les chemins de traverses pour aborder un sujet qui est finalement assez peu développé dans le monde scientifique latin : la fraude (le puritanisme anglo-saxon oblige à s’intéresser de près à tout manquement à la morale…scientifique). Evidemment il semble utile de définir les contours de ce qui est considéré comme une fraude scientifique. Le chercheur dans le champ scientifique est en quête de vérité en vue de permettre une accumulation de savoir fiable disponible pour l’ensemble de la communauté humaine. Tout manquement (volontaire ?) à l’obligation de loyauté face à la vérité scientifique peut être considéré comme frauduleux. Ainsi, ces fraudes majeures peuvent être classées en trois grandes catégories :

– la fabrication de données

– la falsification de données

– le plagiat

Ces catégories constituent la zone « noire », avec une prévalence certainement faible, un grand nombre de faits peuvent quant à eux, être plus difficiles à classifier et caractériser, c’est ce que l’on classe dans la zone « grise ». A titre d’exemples, les publications  « salami », les co-signatures honorifiques, les soumissions multiples semblent quant à eux des actes beaucoup plus fréquents.

Il existe assez peu d’études descriptives et analytiques sur la thématique de la fraude scientifique. Martinson et al. (Nature, 2005) est une des rares études interrogeant un nombre significatif de chercheurs (distinguant les jeunes chercheurs des chercheurs confirmés). Avec cette publication que nous vous laissons le soin de lire, se trouve légèrement étendue la notion de fraude scientifique. Ainsi tombe sous la qualification de comportement frauduleux, les faits et actes suivants :

– la falsification de données

– l’ignorance des principaux aspects liés à la vie humaine (définition un peu floue)

– la non divulgation des conséquences liées à la recherche privée en lien avec un produit commercial(isable)

– les éventuelles connivences entre étudiants, sujets de recherche ou client

– l’utilisation d’idées qui ne sont pas de soi sans en avoir obtenu la permission ou sans nommer la paternité de celles-ci

– l’utilisation non autorisée d’informations confidentielles dans le cadre de ses propres recherches

– omettre de présenter des données qui contredisent ses propres recherches antérieures

– contourner certains aspects mineurs des exigences liées à l’homme comme sujet d’étude

– la surabondance d’utilisation de données erronées ou d’interprétations douteuses de données

– la modification de la conception, de la méthodologie ou des résultats d’une étude en réponse à la pression provenant d’une source de financement

– éditer les mêmes données ou les mêmes résultats dans deux ou plusieurs publications

– la rétention d’informations (particulièrement concernant l’aspect méthodologique d’une publication)

– omettre les observations ou les points de données paraissant de prime abord fallacieux (cela simplifie la démonstration finalement)

– la tenue inadéquate des dossiers relatifs aux projets de recherche (le cahier de laboratoire comme « un excellent atout juridique pour prouver une antériorité voire être une très bonne base pour la rédaction d’un brevet »)

Avant Martinson, Larivée et Baruffaldi (1993) et Swazey (1993) ont décrit, étudié et calculé des prévalences de cas de fraudes scientifiques. Larivée après avoir étudié 1000 articles de cinq grands domaines scientifiques (sciences de la terre, sciences pures, sciences humaines,sciences de la vie et sciences de la santé) détecte 230 cas de fraudes (rien que ça).

Il est temps d’aborder brièvement les raisons pour lesquelles le cherche se corrompt en flirtant avec la fraude : pression, compétitivité, besoin de performance (finalement les mêmes raisons qui poussent un cycliste à prendre des substances améliorant ses performances).

Quelques articles font état de l’exception française concernant la fraude scientifique. Souvent, dans notre pays ce problème donne lieu à des bafouilles peu audibles, peu étayées… un exemple de cet état de fait peut être porté par le document sonore d’une intervention d’Alain Prochiantz au Collège de France (autant demander à un cyclisme de faire une conférence sur le dopage).

le nombre d'articles retirés explose

Les exemples de fraudes scientifiques sont malgré tout à la fois légions, les exemples de collusions aussi. Quelques articles aux graphes repris de multiples fois (l’un des plus utilisé est présenté ci-contre) tendent à démontrer que le nombre d’article retirés explose sans réellement chercher à comprendre si ceux-ci sont retirés du fait de l’efficacité de la censure des comités de lecture ou si les chercheurs fraudeurs amateurs sont de plus nombreux à éprouver le système…

Les études où les conclusions sont dictées par l’inclination d’un chercheur pour son financier sont très fréquentes dans la littérature et certainement sur-représentées sur internet (nous pouvons exhumer l’article de Nature de 1988, Human basophil degranulation triggered by very dilute antiserum against IgE (abusivement associée à « la mémoire de l’eau » cet article d’un chercheur financé par Boiron, crédite en partie le modèle de dilution pratiquée en homéopathie).

Les chartes d’éthique telles que celle de l’Institut Pasteur à Paris constituent un garde-fou nécessaire mais insuffisant. En effet, ce type de chartes sont incitatives rarement coercitives. Finalement, face à la possibilité de tricher avec la vérité, le chercheur est face à sa conscience.

La fraude scientifique peut avoir des conséquences directes, en effet, la réputation des chercheurs porteurs d’un projet est en lien direct pour les bailleurs de fonds (particulièrement pour ce qui concerne les fonds publics) avec la qualité de leur propre recherche. Le plus grave sont les conséquences de la fraude sur la science elle-même, l’exemple cité par  Serge Larivée est relativement saisissant : « la fraude peut en outre affecter le travail d’autres chercheurs qui auraient construit tout un corpus de connaissances à partir de données frauduleuses. Le cas relativement récent de Gupta est à cet égard exemplaire. Avec 124 autres chercheurs, ce paléontologue de l’Université de Chandigarh, au Penjab, a publié de 1969 à 1988 près de 450 articles sur l’étude des fossiles de l’Himalaya, dont 300 sont soit truffés d’anomalies et d’invraisemblances, soit de pures fictions. Certains soutiennent que cette fraude porte peu à conséquence dans la mesure où la plupart des géologues spécialistes de l’Himalaya ne tenaient plus compte des publications de Gupta depuis belle lurette. Par contre, les chercheurs qui avaient intégré de bonne foi les «découvertes» de Gupta dans leur corpus de connaissances ont été lourdement escroqués puisqu’ils sont maintenant en possession de données inutilisables. » Bien évidemment, une autre conséquence de ce type de fraudes, trouvant échos à raison dans les médias, ont des conséquence sur la santé humaine. Imaginons (toute ressemblance avec un épisode faisant intervenir un médicament du laboratoire Servier est fortuite) que des scientifiques soient amenés à cautionner frauduleusement un médicament en masquant la toxicité d’une molécule… imaginons que des études sur l’incidence des ondes émanant de téléphones sur la santé humaine soient financées par un fabriquant de téléphones portables (à ce jour une dizaine d’études de ce type sont recensées)… le conflit d’intérêt étant bien entendu au cœur de nombreuses fraudes de grande ampleur.

Le scientifique face à ce type de choix : négocier sa carrière ou atteindre la vérité (ce pourquoi il fait ce métier) peut se corrompre en oubliant que l’on ne négocie pas avec la vérité qui a une exigence de sincérité. L’exigence prime sur l’excellence !

Set your Twitter account name in your settings to use the TwitterBar Section.