Un rapide, très rapide post pour vous faire part de la mise à disposition des diapositives (au format pdf) projetées lors des présentations du séminaire : 1 an d’expériences sur le désormais célèbre séquenceur de paillasse le PGM de Ion Torrent (Life Tech).
Les diapositives sont disponibles en suivant le lien http://www.pegase-biosciences.com/?p=506
Jeudi 13 Septembre 2012 de 9h00 à 12h30 dans l’amphi Buttiaux de l’Institut Pasteur de Lille
Après plus d’un an d’utilisation du séquenceur Ion PGM ™ , la plateforme PEGASE-Biosciences organise une demi-journée de retour d’expérience afin de dresser un bilan des possibilités offertes par cette technologie et d’échanger sur les applications du séquençage à haut-débit.
Vous pouvez télécharger le flyer en suivant ce lien.
Agenda :
9h00 – 9h10 Mot d’accueil – Introduction.
9h10 – 9h30 Stéphane Jankowski (Life Technologies) : Technologie Ion Torrent ™
9h30 – 10h00 Valérie Leclère (Laboratoire ProBioGEM, Univ Lille1) : « Séquençage de génomes entiers pour caractériser de nouvelles souches de Bacillus ».
10h00 – 10h30 Magali Chabé (BDPEE, CIIL – Institut Pasteur de Lille) : « Etude du transcriptome de deux espèces de Pneumocystis par RNA-sequencing de novo ».
10h30 – 10h50 Pause café.
10h50 – 11h20 Christophe Audebert (Gènes Diffusion) & Ségolène Caboche (IFR142, Lille2) : « Le séquençage haut-débit appliqué à la caractérisation d’un agent infectieux : exemple du séquençage d’Escherichia coli à l’origine d’une infection alimentaire ».
11h20 – 11h50 Charles Hébert (Pathoquest) : « Détection et identification de micro-organismes dans le plasma humain par approche métagénomique ».
11h50 – 12h20 David Hot (TAG, CIIL – Institut Pasteur de Lille) : « Identification de nouveaux transcrits (small RNAs) et étude des départs de transcription chez Bordetella pertussis par ‘differential RNA-seq’ ».
12h20 – 12h30 Conclusion – modalités du concours PEGASE.
Pour célébrer la création de “PEGASE-Biosciences” entre le laboratoire de Transcriptomique et Génomique Appliquée de l’IPL et la société Gènes Diffusion, la plateforme organise un concours* vous permettant de gagner un séquençage Ion Torrent ™ sur puce 318 (~1Gb de séquences).
Les places étant limitées, nous vous remercions de vous inscrire par email à l’adresse suivante :
stephane.jankowski@lifetech.com ou admin@pegase-biosciences.com
*Les modalités de ce concours vous seront présentées lors de cette journée.
Lien vers l’annonce du séminaire sur : http://www.pegase-biosciences.com/?p=464
Vous pouvez confirmer votre participation en scannant le QR Code suivant :

Pour rien vous cacher, il s’agit ici d’un article avec un petit goût d’auto-promotion. En effet, les 3 membres de Biorigami participent aussi activement à une plateforme d’expertise nouvellement créée, cette entité a pour ambition la réalisation de quelques prestations, principalement en génomique haut-débit, mais aussi la participation à des projets nécessitant conseils, expertises et analyses… pour répondre au mieux aux questions biologiques posées. Enchaînons en citant les pages actualités du site internet de Gènes Diffusion : « cette alliance entre les deux structures (ndlr : Gènes Diffusion et l’Institut Pasteur de Lille) a pris le nom de PEGASE (Plateforme d’Expertises Génomiques Appliquées aux Sciences Expérimentales). Elle permet de mutualiser les moyens de la branche R&D génomique de Gènes Diffusion et du laboratoire TAG (Transcriptomic analysis and Applied Genomics) de l’Institut Pasteur de Lille.
La création de cette unité devrait permettre le développement de nouvelles activités, collaborations scientifiques et prestations, dès les prochains mois
Issue de la collaboration entre Gènes Diffusion et l’Institut Pasteur de Lille, PEGASE (Plateforme d’Expertises Génomiques Appliquées aux Sciences Expérimentales) vient de lancer son site web. Cette présence sur le web permettra à la nouvelle structure de faire l’interface avec les différents acteurs de la génomique.
Par ailleurs, le site permettra également de faire partager à la communauté scientifique les différentes expertises en biologie moléculaire et bio-informatique issues des travaux de recherche de l’unité. »
Vous pourrez obtenir plus de précision concernant cette nouvelle plateforme en suivant le lien suivant : www.pegase-biosciences.com.
Pour les plus joueurs d’entre vous, un concours est lancé pour fêter cette naissance, le projet exécutable sur puce 318 de Ion Torrent, sera réalisé par nos soins, gratuitement… pour plus de précisions, nous vous invitons à suivre le lien suivant : concours PEGASE.
Les outils d’assemblage, de mapping sur référence deviennent relativement pléthoriques… il est de ce fait relativement aisé de choisir l’outil permettant de gérer au mieux les défauts de votre séquenceur, vous n’avez que l’embarras du choix en somme. Même si cette étape n’est pas à négliger, il n’en reste pas moins que le rôle du biologiste restera toujours d’apporter du sens à une ou plusieurs millions de séquences, informations qui viendront tenter d’élucider une question biologique. Les outils permettant de faire parler un ensemble de reads, que vous pratiquiez le de novo RNA-seq ou séquençage génomique de novo sont plutôt restreints, peu diffusés, limités ou tout simplement absents… Ces grands absents constituent le point noir de l’analyse secondaire de vos reads. De nombreux biologistes recherchent un financement (séquencer massivement coûte encore un peu cher !), font séquencer l’objet de leur étude -hors humain, rat, souris- repartent quand tout va bien avec de beaux contigs, et se retrouvent face à un livre écrit dans une langue inconnue. Ce livre est censé renfermer la réponse à beaucoup de leurs questions… on comprend leur frustration d’autant qu’ils ne possèdent pas de pierre de Rosette.
Cet article part d’un constat, l’important est moins de savoir si votre séquenceur fournit les reads les plus propres, les plus longs, si votre assembleur est le plus adapté… car tous ces efforts resteront vains si vous écrivez un livre dont personne ne peut comprendre le sens. J’arrête là de filer la métaphore.

Blast2GO -ici dans sa version gratuite- est un outil qui trouvera vite (trop vite) ses limites mais qui permettra d’apporter du sens à des séquences générées à haut-débit. La publication de Conesa et al. (Bioinformatics – 2005), dévoile le pipeline d’analyse. Grossièrement, il s’agit de blaster des séquences (en 2005 – on envisageait par séquences des reads et non des reads assemblés) automatiquement sur le serveur du NCBI, les résultats de blast sont récupérés, les autres phases du pipeline sont réalisées en interrogeant les bases de données de Blast2GO, in fine des termes GO permettent d’annoter les séquences dont on souhaite décoder le sens. La principale qualité de Blast2GO réside dans son ergonomie, l’interface Java6 permet une prise en main directe (aucune ligne de code). Ses défauts sont multiples… tout d’abord Blast2GO plante… très régulièrement, ensuite pour une séquence d’entrée (dont la taille sera nécessairement inférieure à 7000 bases) vous ne disposerez que d’une annotation pour le meilleur des hits.
Le séquençage haut-débit utilisant des analogues de nucléotides « portant des groupes bloquants en 3′ qui sont utilisés pour produire une terminaison de chaîne réversible appliqués pour le séquençage par synthèse nucléotidique » (je sais cette phrase est « un peu » lourde…) est un brevet de Caliper Technologies -autrement dit de Perkin Elmer : la firme qui n’a pas su saisir sa chance lors de la révolution du séquençage haut-débit. Le séquençage par synthèse (avec réversion du blocage des nucléotides fluorescents polymérisés -un peu moins lourde cette phrase là…) est le cœur de la technologie faisant une partie du chiffre d’affaire d’Illumina (l’intégralité de sa gamme de séquenceurs fonctionne sur ce principe).
Le principe assez simple du séquençage SBS (Sequencing By Synthesis) est en train de se décliner au sein de machines haut-débit plus accessibles en terme de coût… il s’agit là de l’arrivée sur le marché d’une nouvelle concurrence : des séquenceurs génériques tels que ceux que proposent le distributeur Azco Biotec, Inc. Ces séquenceurs viennent directement concurrencer ceux d’Illumina accompagnés de leurs réactifs « génériques » tels que ceux distribués par la société Proteigene…
Ces séquenceurs « génériques » ne révolutionnent rien, leur part de marché est actuellement marginale… les laboratoires académiques préfèrent souvent l’original à la copie, malgré tout la concrétisation de la « promesse » –qui l’a formulée au juste ?– d’un génome humain pour 100 $ d’ici 2015 passe par la large diffusion de machines dont la technologie a fait ses preuves… Le retard pris par les séquenceurs de 3ème génération laisse le champ libre à la 2ème. Le marché risque de se saturer en séquenceurs de paillasse (séquenceur de 2ème génération tels que le MiSeq d’Illumina et les PGM et Ion Proton de Life Technologies).

Il est douloureusement fatigant de se rendre compte de l’absence de mémoire Humaine! Cette amnésie collective provoque les mêmes écueils, les mêmes cercueils. « L’Histoire est un éternel recommencement » cette sentence attribuée à Thucydide a beau être un cliché des sujets de philosophie, une partie de la Hongrie a voté pour l’extrême droite (troisième force politique du pays, troisième force politique de notre pays aussi, à en croire les résultats du premier tour de l’élection présidentielle) -cette même extrême droite hongroise se sert de test génétique humain en guise de néo-certificat d’aryanité. C’est ce que relate l’article de Charlotte Chabas du Monde (15 juin 2012) – à lire le test de « pureté génétique » qui choque la Hongrie. Des sociétés privées surfent sur la mode du test génétique, devenu désormais largement accessible pour qui veut (peut) débourser quelques centaines d’euros ou de dollars pour connaître ses origines ethniques (test de 23andme) pour le moins pire ou pour s’assurer, comme c’est le cas ici, de sa non appartenance à un groupe ethnique rejeté par une politique clairement xénophobe et antisémite. Ce certificat hongrois qui émeut une majorité de la classe politique de Budapest est exploité à des fins nauséabondes par sa franche la plus extrême. Un test dont le résultat annonce « Aucune trace génétique d’ancêtres juifs ou roms » peut faire frémir n’importe quel démocrate.
L’Histoire se répète donc, et au gré de l’avancée des connaissances et des technologies, des hommes éditent des certificats d’aryanités phylogénétiques ou encore (à l’inverse) marquent d’une étoile jaune génomique des personnes pour lesquels l’Humain n’est que le fruit de son hérédité biologique. La science raciste qui a justifié par le passé la colonisation, les pogroms, refait surface (avait elle seulement disparu) et on ne peut s’empêcher, en tant que scientifique biologiste, d’exhumer quelques tristes mots de James Watson (co-élaborateur du modèle en double hélice de l’ADN). Le scientifique alors âgé de 79 ans a déclaré dans les colonnes du Sunday Times qu’il était «fondamentalement triste au sujet du devenir de l’Afrique» parce «toute nos politiques sociales sont fondées sur le fait que leur intelligence (celles des Africains, ndlr) est identique aux nôtres (occidentaux, ndlr) alors que tous les tests ne le disent pas vraiment». La science et l’accès à la connaissance n’éloigne pas nécessairement les idées les plus abjectes, à chaque humain sa morale, à chaque scientifique son éthique… mais les partisans de la science avec conscience, celle censée élevée l’âme ne peuvent que s’indigner.
D’un 23andMe, présentant de manière positive l’accès démocratisé à la connaissance de ses origines par le biais d’études GWS (Genome Wide Scan), à un prestataire hongrois cynique s’abritant derrière des notions d’éthique pour diffuser des résultats de tests génétiques de « pureté raciale », l’accès à ce type d’informations peut être sujet à interrogations quant à leurs utilisations (personnelle ou politique). La diffusion de tels tests ouvre une boîte de Pandore; ces tests génétiques (interdits sur notre territoire national) offrent une arme aux pires propagandistes et une information sujette à interprétation et pouvant être manipulée pour le pire rarement pour le meilleur… l’Histoire est un éternel recommencement.

Lors d’une réunion le 21 mai dernier à Lille, Lionel Choplin, responsable du programme chaires industrielles venait présenter les ambitions de l’ANR pour associer le secteur privé –le co-financier et bénéficiaire des fruits de la valorisation de la recherche- et le secteur public –le pourvoyeur de cerveaux (de préférence provenant d’une grande université étrangère) et de structure d’accueil. Vous trouverez la présentation en suivant ce lien.. Ce programme est très largement inspiré du PCI canadien (Professeurs-Chercheurs Industriels) du CRSNG (Conseil de Recherches en Sciences Naturelles et en Génie du Canada) qui « offre » trois types de subventions :
- professeur-chercheur industriel principal pour les chercheurs principaux distingués (subvention renouvelable d’une durée de cinq ans);
- professeur-chercheur industriel agrégé pour les chercheurs en début de carrière qui démontrent un potentiel exceptionnel (subvention renouvelable une fois d’une durée de cinq ans);
- professeur-chercheur industriel cadre pour les professionnels exceptionnels de la recherche et développement (subvention non renouvelable d’une durée de cinq ans).
Dans sa version française, la subvention est clairement destinée aux deux premiers cas mentionnés ci-dessus. Ainsi la relation industriels-organismes de recherche devient plus monodirectionnelle. L’industriel lève des fonds (le ticket d’entrée étant de 600 k€ minimum sur 4 ans), l’ANR abonde d’autant (la stratégie du quitte ou double), la structure d’accueil hébergeant le titulaire de la chaire assure son bon fonctionnement (sachant que l’investissement en gros équipement est limité à 20 % de l’assiette). Le titulaire de la chaire ainsi que la structure d’accueil bénéficient de ce financement, l’industriel, quant à lui, aura un retour en terme d’image, de retombées sous forme de Propriété Intellectuelle et surtout en terme de connaissances sur un sujet qui est censé impacter sa croissance.

Le schéma ci-dessous reprend le positionnement relatif de la chaire industrielle par rapport aux autres programmes de l’ANR.
Par ce type de programmes, l’ANR vise plusieurs objectifs :
– Créer une dynamique à partir d’une offre de compétences et d’expertise en adéquation avec les besoins des acteurs du monde socio-économique
– Organiser les recherches dans une logique d’exploitation des résultats de recherche
– Insuffler au sein de l’établissement d’accueil une dynamique de recrutement de qualité dans un cadre de développement concerté fort
– Permettre un échange en temps réel de technologies et de savoir-faire entre les acteurs publics et privés de la recherche
– Assurer des retombées en termes d’image, résultant de l’accueil d’éminents enseignants-chercheurs au plan international
– Participation des acteurs publics au développement de produits innovants
– Mise en place de modèles économiques construits sur l’économie de la connaissance
Ce programme est comme beaucoup, critiquable, certainement imparfait mais il a le mérite d’afficher la volonté étatique de concilier secteur privé et secteur public, les industriels et les structures d’accueil… dans une relation plus équilibrée que de coutume afin que ces deux acteurs tirent bénéfice de cette relation. Rappelons ici que même aux États-Unis, souvent cités en exemple, les partenariats universités-entreprises restent modestes : 6 % des dépenses réalisées en 1999, au plus fort de la bulle Internet, depuis, cette part est redescendue à 4 %.
Cet article est l’occasion de revenir sur un changement notable dans la politique d’évaluation de la recherche scientifique française, une politique légèrement moins ancrée sur la productivité bibliométrique, replacée dans l’écosystème économique et social. Une première réponse aux différentes critiques et notamment celle de Yehezkel Ben-Ari formulée dans sa tribune du Monde datée du 16 décembre 2011 : « Shanghai et l’évaluation technocratique tuent la recherche biomédicale ! ». L’évaluation étant le nœud gordien du problème un début de réponse peut être contenu dans cette reprise d’une dépêche de l’AEF. Celle-ci mérite d’être diffusée… et mérite aussi la faveur d’une opinion…
Dépêche n°166899, Paris, mardi 22 mai 2012
L’Aeres adopte six critères d’évaluation des entités de recherche, au lieu de quatre.
L’Aeres (Agence d’évaluation de la recherche et de l’enseignement supérieur) « a récemment étendu à six le nombre de ses critères » d’évaluation des entités de recherche, indique-t-elle dans un document intitulé « Critères d’évaluation des entités de recherche : le référentiel de l’Aeres », approuvé par le conseil de l’agence le 12 avril 2012 et rendu public mardi 22 mai 2012. Les nouveaux critères retenus sont les suivants : « production et qualité scientifiques ; rayonnement et attractivité académiques ; interactions avec l’environnement social, économique et culturel ; organisation et vie de l’entité de recherche ; implication dans la formation par la recherche ; stratégie et projet à cinq ans ». Ces critères seront mis en oeuvre « lors de la campagne d’évaluation 2012-2013 ». Ils se substituent aux quatre critères employés depuis 2008, qui étaient « la qualité scientifique et la production ; le rayonnement et l’attractivité ; la gouvernance et la vie de l’entité de recherche ; la stratégie et le projet ». Cette évolution vient en complément de l’abandon de la note globale, en décembre 2011 (AEF n°159690). L’agence avait alors indiqué vouloir « maintenir les notes associées aux différents critères », tout en affichant son intention de « réviser » ces critères, « pour les améliorer ».
Cette extension des critères d’évaluation répond à des améliorations qui ont été « suggérées dans deux domaines », explique l’Aeres. Il en va ainsi des « activités qui relèvent de la recherche finalisée » et des « activités d’expertise venant en appui des politiques publiques » : « Celles-ci n’étaient pas reconnues et valorisées par l’agence dans la déclinaison de son référentiel en quatre critères », indique-t-elle. « L’introduction du critère ‘interactions avec l’environnement social, économique et culturel’ (…) vise à les intégrer pleinement parmi les activités évaluées. » « Le second domaine est celui de la formation par la recherche qui, dans le référentiel à quatre critères, n’était qu’un élément parmi d’autres du critère ‘gouvernance et vie de l’entité de recherche’ », poursuit l’agence. « Pour donner à la formation toute sa place dans les missions assignées aux entités de recherche, il a paru nécessaire, là encore, de traiter celle-ci comme un critère à part entière. »
CHAMP D’APPLICATION, FAITS OBSERVABLES ET INDICES DE QUALITÉ
L’Aeres souligne aussi que ce nouveau référentiel « répond plus nettement aux attendus de la loi de programme pour la recherche de 2006 », qui définit la « mission d’intérêt national » des personnels de la recherche comme comprenant : « le développement des connaissances ; leur transfert et leur application dans les entreprises, et dans tous les domaines contribuant au progrès de la société ; la diffusion de l’information et de la culture scientifique et technique dans toute la population, et parmi les jeunes ; la participation à la formation initiale et continue ; l’administration de la recherche ; l’expertise scientifique. »
Chacun des six critères est lui-même décomposé en trois aspects : son « champ d’application », les « faits observables » et les « indices de qualité ». Le « champ d’application » d’un critère « résume les aspects que l’évaluateur doit apprécier, en des termes généraux pour tous les types d’entités de recherche et pour tous les domaines ». Par exemple, le critère « production et qualité scientifiques », tel qu’il est défini dans le référentiel, « apprécie, par rapport aux standards de la discipline et du domaine de recherche, les découvertes, les résultats, les problématiques, les faits expérimentaux conduisant à des réalisations scientifiques ». Le document précise qu’ « il apprécie également l’originalité, la qualité et la portée de la recherche ». Les « faits observables » désignent pour leur part « des données factuelles qui peuvent être observées par les évaluateurs pour étayer leur appréciation ». Quant aux « indices de qualité », il s’agit de « la valeur à accorder à ces données pour élaborer l’appréciation proprement dite ».
UN DOCUMENT COMPLÉMENTAIRE SUR LA NOTATION VA ÊTRE PRÉPARÉ
Le « référentiel » de l’Aeres rappelle que ces critères « s’appliquent non seulement aux entités de recherche », mais aussi à leurs « composantes » : les équipes internes et les thèmes. En conséquence, « chaque critère est donc noté non seulement au niveau de l’entité de recherche, mais aussi, lorsque celle-ci est structurée en équipes internes, au niveau de ces équipes ». En revanche, les thèmes ne sont pas notés, « dans la mesure où ils ont en général un caractère transversal et où ils réunissent des personnels appartenant à plusieurs équipes internes d’une même entité de recherche ». L’agence indique qu’il reste à « lier étroitement la définition des critères et l’échelle de notation », autrement dit qu’ « à chaque note doit correspondre un niveau de qualité, dont la définition doit être précisée ». « Ces éléments feront l’objet d’un document méthodologique complémentaire » qui sera rendu public « avant le lancement de la campagne d’évaluation 2013-2014 », annonce-t-elle.
L’évolution des critères d’évaluation « a intégré les propositions recueillies auprès des responsables d’entités de recherche évaluées et de leurs évaluateurs », précise l’Aeres. « Elle a également pris en considération les réflexions méthodologiques conduites par plusieurs groupes de travail (…) et par d’autres agences européennes », tout en ayant « tiré parti des recommandations de dernier rapport de l’Opecst (Office parlementaire d’évaluation des choix scientifiques et technologies) » (AEF n°161145). L’agence précise qu’ « avant d’être rendu public, ce document a été soumis à la direction d’un grand nombre d’organismes de recherche et à la CPU (Conférence des présidents d’université) ». En outre, ajoute-t-elle, « à l’issue de chaque campagne d’évaluation, l’agence procédera à un retour d’expérience qui permettra aux évalués d’apporter les contributions qu’ils jugeront utiles à l’amélioration de la réflexion en cours ».
ÉVALUER L’INTERDISCIPLINARITÉ ET LES SHS
Le document comporte aussi les résultats d’un « travail sur la méthodologie d’évaluation de l’interdisciplinarité et sur les critères adéquats pour apprécier équitablement ce type de recherche », selon que l’on parle de « pluridisciplinarité » (« juxtaposition de perspectives disciplinaires »), d’ « interdisciplinarité » (« coopération de plusieurs disciplines autour de projets communs ») ou de « transdisciplinarité » (« approche scientifique qui dépasse les points de vue disciplinaires par l’approche globale d’une question »). Pour l’Aeres, si « les critères d’évaluation des entités de recherche pluri, inter ou transdisciplinaires ne sont pas différents de ceux auxquels on recourt pour évaluer des entités monodisciplinaires », il s’avère néanmoins « nécessaire de dégager les faits observables propres aux différentes formes d’interaction des disciplines et les indices de qualité correspondants ». Un « groupe de réflexion » travaille à ces questions, mais d’ores et déjà, l’agence considère que « deux marqueurs » peuvent nourrir l’évaluation de l’interdisciplinarité : « le type d’interaction et la proximité entre les disciplines qui interagissent ».
Enfin, le document de l’Aeres présente « une note complémentaire sur la production et la qualité scientifiques en sciences humaines et sociales ». Il ne s’agit pas d’ « un autre référentiel », avertit l’agence, dans la mesure où les six critères élaborés offrent déjà « un référentiel commun qui intègre les perspectives des sciences humaines et sociales, au même titre que les autres, et peut, le cas échéant, s’y adapter ». Il s’agit plutôt de « quelques précisions aux faits observables et aux indices de qualité » relatifs au seul critère de « production scientifique », « pour intégrer au mieux la variété des formes de publication et des autres productions scientifiques en sciences humaines et sociales, mais aussi la diversité relative des langues qui sont utilisées pour la recherche dans ce domaine ». L’Aeres propose ainsi des repères pour « la caractérisation des revues » et « la caractérisation des ouvrages scientifiques », accompagnés des « principes de révision des listes de revues en sciences humaines et sociales » et d’une définition de ce que l’agence considère comme relevant d’un « véritable travail d’édition scientifique » des actes de colloques et des ouvrages collectifs.

Voici un lien sur le site Molecular Biology Freeware for Windows… un lien destiné aux biologistes un peu allergiques à Linux et qui ne souhaitent pas débourser des milliers d’euros dans des logiciels qui ne peuvent s’avérer utiles que sporadiquement (pour certains).
Le site Molecular Biology Freeware for Windows est particulièrement laid mais il permet de référencer ces logiciels utiles pour bon nombre d’applications : phylogénie, alignement de séquences, etc.
L’alliance un peu paradoxale du logiciel gratuit, fiable et utile sous Windows !
Ce site-référence est pour quelques uns d’entre vous… : il classe les logiciels outils de biologie moléculaire en fonction des catégories suivantes :
A. DNA, RNA and genomic analysis
B. Plasmid graphic packages
C. Primer design
D. Protein analysis
E. Viewing three dimensional structures
F. Alignments
G. Phylogeny
H. Miscellaneous
I. Graphic packages
Souvent perçu comme une évidence, le dosage d’acides nucléiques est un point fondamental. Il faut pourtant le considérer comme le premier « monitoring » important d’une expérience de biologie moléculaire. Que vous soyez équipés d’un NanoDrop™, d’un plus antique spectrophotomètre, d’un fluorimètre… les outils sont parfois complémentaires et ont des spécificités propres qu’il vous faudra évidemment connaître (au moins approximativement).
En matière de dosage des acides nucléiques, il apparaît fondamental (si vous utilisez un spectrophotomètre) de connaître la fameuse loi de Beer où A=Ɛ.l.C
A étant l’absorbance (sans unité) et Ɛ est le coefficient d’absorption moléculaire (unité : L.mol -1 .cm-1)
l : la longueur du trajet optique (valeur fixe, donnée par l’épaisseur d’une cuve ou d’un ménisque sur un Nanodrop) (unité : cm)
C, souvent ce que l’on souhaite déterminer: la concentration d’acides nucléiques (unité : mol.L-1)
Cette formule permet d’estimer assez aisément une concentration en acides nucléiques, elle est vérifiée lorsque la solution est de concentration inférieure à : c < 0,1 mol.L-1
| A260 nm | ||
| acides nucléiques | Ɛ (M-1.cm-1) | pour 1 unité absorbance (µg.mL-1) |
| ADN db | 6200 | 50 |
| ADN ss | 8350 | 37 |
| ARN | 7700 | 40 |
| standard : température ambiante, l=1cm, A260/A280 =1,80 | ||
Assez rapidement, la concentration, le plus souvent en ng.µL-1, est déduite. Le point fort de la méthode spectrophotométrique (comparée à la méthode fluorométrique, plus sensible, quant à elle) est fournie par les informations que l’on tire des ratios suivants:
Ratio A260/A280 : un ratio de 1,80 (+/- 0,1) permet de qualifier une extraction d’ADN comme pure, ce ratio se situe autour de 2,0 pour une extraction d’ARN (+/- 0,1). Si ce ratio est inférieur cela signifie que l’extraction est polluée par des protéines et/ou des composés phénoliques
Ratio A260/A230 : la valeur attendue de ce ratio se situe entre 2,0 et 2,20. Si ce ratio est plus faible cela indique nécessairement qu’un composé absorbe à 230 nm. Ces composés peuvent le plus souvent être de l’EDTA, des sucres, et encore une fois le phénol et particulièrement le TRIzol reagent.
Ces valeurs de ratios peuvent parfois être négligées, cependant elles donnent une indication quant à la présence d’éventuels inhibiteurs qui viendraient perturber le devenir de vos acides nucléiques (PCR et autres réactions enzymatiques). Il est important de réaliser une valeur de blanc sur la solution qui vous aura servi à éluer vos acides nucléiques (car comme il a été précédemment mentionné l’EDTA absorbe à 230 nm… et bien souvent le TE 1X sert à reprendre et conserver des acides nucléiques)
vous trouverez ci-contre le mode d’emploi du Nanodrop 1000.
Une autre méthode alternative, permettant une meilleure sensibilité : méthode picogreen. Cette méthode, bien que très sensible, donne des résultats non valides (car très largement sous-estimés) dès lors que votre solution d’acides nucléiques est polluée par des traces d’agents détergents (type SDS). En effet, ces « adjuvants » quenchent la fluorescence émise par l’agent qui s’intercale au sein des acides nucléiques que l’on souhaite doser.
Note : bien souvent il vous est utile de calculer la quantité de molécules (quantité de copies).
Sachant que la masse molaire moyenne d’une base azotée => Masse Molaire (MM) : 309 g.mol-1
&
avec le nombre d’Avogadro 6,02214129.1023 molécules.mol-1
La formule devient : nombre de copies pour 1 µL = [C (concentration mesurée en ng/µL) x V (volume, ici 1 µL) x 10-9 ]/ [(MM environ 309 g.mol-1) x la taille de votre génome en pb x 2] le tout que l’on multiplie par le nombre d’Avogadro… le tour est joué !
plus simplement : 978 Mb pèsent 1 pg (en avant le produit en croix).
Qui sommes nous?
Christophe Audebert [@]
En charge de la plateforme génomique
du département recherche et développement
de la société Gènes Diffusion .
Renaud Blervaque [@]
Biologiste moléculaire, chargé d'études génomiques.
Gaël Even [@]
Responsable bioinformatique au sein
du département recherche et développement de la société Gènes Diffusion.
Catégories
- Analyse de données (14)
- Automatisation (5)
- Bioinformatique (27)
- Biologie (56)
- biologie transverse (35)
- Biotechnologie (30)
- Chronique littéraire (8)
- Comparatif (6)
- Diagnostic (8)
- Economie (17)
- Epidemiologie (2)
- Evénement (17)
- Formation (3)
- Gestion de projet (5)
- Grille de calcul (1)
- Intégration (5)
- Logiciels (8)
- Médecine (14)
- politique de la recherche (17)
- Recherche (21)
- Séquençage (70)
- Séquenceur (39)
- Uncategorized (25)
- Workflow (4)
Accès rapide aux articles
- Covid-19 : zoom sur les vaccins
- Comment l’ADN pourrait être le stockage de données du futur
- COVID-19 : la data visualisation au service de la science
- COVID-19 : des explications et un point d’étape au 20 février 2020
- Pour mettre du vin dans son eau
- Des petits trous, toujours des petits trous…
- Qui serait candidat ?
- Un robot pour analyser vos données…
- Monde de dingue(s)
- L’art et la manière de développer une qPCR
- Un MOOC Coursera sur le WGS bactérien
- Chercheurs & enseignants-chercheurs, l’art du multitâche.
- Un jeu de données métagénomiques
- Facteur d’impact
- Microbiote & smart city : juxtaposition de tendances
Accès mensuels
- février 2021 (1)
- décembre 2020 (1)
- février 2020 (2)
- septembre 2019 (1)
- avril 2018 (2)
- décembre 2017 (1)
- novembre 2017 (2)
- juillet 2017 (2)
- juin 2017 (5)
- mai 2017 (4)
- avril 2017 (3)
- mars 2017 (1)
- janvier 2017 (2)
- décembre 2016 (3)
- novembre 2016 (4)
- octobre 2016 (2)
- septembre 2016 (2)
- août 2016 (3)
- juillet 2016 (2)
- juin 2016 (4)
- mai 2016 (3)
- mars 2016 (1)
- novembre 2015 (2)
- avril 2015 (1)
- novembre 2014 (1)
- septembre 2014 (1)
- juillet 2014 (1)
- juin 2014 (1)
- mai 2014 (1)
- avril 2014 (1)
- mars 2014 (1)
- février 2014 (3)
- janvier 2014 (1)
- décembre 2013 (5)
- novembre 2013 (2)
- octobre 2013 (2)
- septembre 2013 (1)
- juillet 2013 (2)
- juin 2013 (2)
- mai 2013 (4)
- avril 2013 (2)
- mars 2013 (1)
- février 2013 (3)
- janvier 2013 (2)
- décembre 2012 (2)
- novembre 2012 (2)
- octobre 2012 (2)
- septembre 2012 (2)
- août 2012 (1)
- juillet 2012 (3)
- juin 2012 (5)
- mai 2012 (5)
- avril 2012 (6)
- mars 2012 (6)
- février 2012 (8)
- janvier 2012 (6)
- décembre 2011 (5)
- novembre 2011 (6)
- octobre 2011 (6)
- septembre 2011 (7)
- août 2011 (5)
- juillet 2011 (8)
Pages







