Currently viewing the category: "Uncategorized"

micro

Pour célébrer cela comme il se doit, voici une photographie obtenue suite à l’observation par microscopie électronique d’un brin d’herbe… (photographie : EM Lab).

 

Après quelques mois d’absence suite à un problème de mise à jour, Biorigami est de retour. Nous nous excusons pour cette longue période d’inactivité.

 

Après de longues péripéties où il s’agissait de ralentir la progression d’une molécule d’ADN à travers un nanopore, après quelques investissements (de la part d’Illumina, essentiellement) il semblerait que la société, Oxford Nanopore  s’apprête à vendre les deux produits dont elle fait la promotion depuis plusieurs mois. Ces deux produits n’existaient alors que dans les couloirs de l’AGBT (en 2012, parce que cette année il semble qu’Oxford Nanopore fasse profil bas à l’AGBT2013… à moins que…) et sur le site internet de la société encore un peu britannique.

Quelques médias d’outre-Manche évoquent cette fameuse technologie de séquençage en l’affublant du qualificatif de « future grande invention britannique » : lire à ce sujet la page web de « The Raconter » : Britain greatest inventions ». Cette invention est associée à la seule médecine personnalisée comme pour envisager le futur marché du séquençage haut-débit.

Les voyants semblent donc au vert pour Oxford Nanopore. Pour préparer le terrain, sort en ce début d’année, un article de Nature Methods : « disruptive nanopores« . Un titre qui fait écho à celui de Forbes (février 2012) repris dans notre image ci-dessus.

Nicole Rusk, rédactrice en chef à Nature Methods, vient avancer les principales caractéristiques du futur produit :

– des reads entre 10 et 100 kb

– des taux d’erreurs entre 1 et 4 %

– la possibilité de connaître les bases méthylées

– la possibilité de séquencer directement l’ARN

– la méthode est non destructive

 

Oxford Nanopore

La technologie de séquençage de 3ème génération par nanopores promet de révolutionner plusieurs applications à commencer par le séquençage de novo en laissant peu d’espoir à la technologie de Pacific Biosciences. Elle devrait remplacer PacBio dans les stratégies de séquençage hybride (qui consiste « à coupler » un séquenceur de 2ème génération permettant d’être très profond et d’une technologie de 3ème génération permettant de générer des reads très longs ce qui permet au final un assemblage de meilleure qualité).

Après avoir engendré de la curiosité, de l’impatience, puis déçu avec une arrivée sans cesse repoussée, il semble qu’Oxford Nanopore doive prouver de l’efficacité de sa technologie. Ainsi, la société britannique a annoncé le 8 janvier 2013, une série d’accords avec plusieurs institutions telles que l’ Université de l’Illinois, l’Université Brown, l’Université de Stanford , l’Université de Boston, de Cambridge et de Southampton. Oxford Nanopore prend son temps ou rencontre des difficultés avec son exonucléase. Malgré ses dizaines de  brevets, pour conserver sa crédibilité la société a dû communiquer pour convaincre de l’efficience de sa technologie en minimisant les difficultés de développements, en alimentant les tuyaux de communication avec des séquenceurs sorti de palettes graphiques loin d’être finalisés.

Ce retard de lancement s’apparente t’il à un gage de sérieux ou est-il la preuve que le séquençage par nanopores rencontre de grosses, très grosses difficultés de développement ? Réponse en 2013.

Un document paru dans la Ion Community (site de partage autour de la technologie Ion Torrent et Ion Proton de Life Technologies) commence à faire parler de lui. En effet, des scientifiques de Life Technologies montrent et démontrent que le MiSeq d’Illumina produit (aussi) des erreurs au niveau des homopolymères.

Nous savions depuis longtemps que les séquenceurs de type 454 ou Ion Torrent montraient des biais quant à détermination correcte de ce type de séquences… Ici, pour la première fois les méthodes de SBS (Sequencing By Syntesis) dont le principe pour la technologie Illumina est rappelée par le schéma disponible ci-dessous, montrent des biais étonnement importants pour la juste détermination de séquences adjacentes d’homopolymères (particulièrement concernant les régions GC % riches). La note qui met le feu dans l’argumentaire commercial d’Illumina est disponible ici-même. Une hypothèse quant à la génération de ce type d’erreurs est formulée.

Nous vous laissons le soin de lire la note, intéressante malgré la partialité de la source. La démonstration quoique scientifique, montre l’âpreté de la bataille qui se joue entre les acteurs majeurs du séquençage de paillasse de deuxième génération.

Cet article est l’occasion de mettre en avant un site plutôt fourni, SEQanswers… un jeu de mots pour une communauté d’utilisateurs de technologie de séquençage haut-débit. Ce site, un peu bouillon, fondé en 2007 par Eric Olivares (qui a travaillé pour Pacific Biosciences) s’adresse aux biologistes moléculaires plus qu’aux bio-informaticiens. Malgré tout, le lien que nous vous présentons ici, renvoie sur la partie Wiki du site SEQanswers. Cette page liste et ordonne en fonction de leurs domaines d’applications les logiciels (gratuits et commerciaux) utiles pour le devenir de vos reads produits par séquençage haut-débit : http://seqanswers.com/wiki/Software/

Cette page est plutôt bien renseignée et vous donnera un large choix de logiciels : vous y trouverez des assemblers de novo, des logiciels pour réaliser du RNAseq (quantification), des logiciels permettant de trouver des pics après ChipSeq… peu de logiciels indispensables sont absents de cette liste qui comporte un peu moins de 500 logiciels…

La paléontologie, la science des fossiles et des traces de vie du passé, use de méthodes de biologie moléculaire de pointe qui  pallient les effets du temps qui passe…

Afin d’introduire ce premier article traitant de paléogénomique, les moyens de la biologie moléculaire au service de la paléontologie, une vidéo amuse-bouche (Auteur(s) : Eva-Maria Geigl, Réalisation : Samia Serri, Production : Université Paris Diderot, Durée : 17 minutes 40 secondes) est disponible en usant du fameux clic gauche sur la capture d’image ci-dessous. Cette vidéo vaut surtout pour l’accent mis sur les précautions indispensables pour l’étude d’un échantillon précieux fossilisé… et dont l’ADN, peu abondant, peut être fragmenté. En outre, des mesures simples mais draconiennes permettent de limiter les sources de contaminations, quand l’ADN moderne peut polluer l’ADN fossile. Le port de sur-chausses, de masque et les changements de blouses, le non croisement des échantillons avant et après amplification sont autant de précautions mises en avant dans cette vidéo… une occasion de visiter virtuellement les laboratoire de l’Institut Jacques Monod.

L’une des problématiques liées à l’étude de l’ADN « fossile » réside dans sa faible quantité disponible. Plusieurs méthodes de biologie moléculaire ont été envisagées pour amplifier ce matériel génétique afin d’en permettre l’expertise. Une publication dans BMC Genomics de 2006, Assessment of whole genome amplification-induced bias throughhigh-throughput, massively parallel whole genome sequencing, relate la comparaison de 3 méthodes d’amplifications pan-génomiques (méthodes WGA pour Wide Genome Amplification) d’ADN qui pourra devenir ensuite la matrice suffisante d’un séquençage haut-débit.

– la PEP-PCR (Primer Extension Preamplification-PCR) : cette technique fait intervenir des amorces aléatoires aux conditions d’appariement à basse température (low melting temperature) qui initieront la PCR

référence : Zhang, L. et al. (1992) Whole genome amplification from a single cell: Implications for genetic analysis. Proc. Natl. Acad. Sci. USA 89, 5847

– la DOP-PCR (Degenerate Oligonucleotide Primed-PCR) : cette technique, quant à elle, fait intervenir des amorces semi-dégénérées (de type : CGACTCGAGNNNNNNATGTGG) qui ont une température d’hybridation supérieure à celles utilisées dans la PEP-PCR

référence : Telenius, H. et al. (1992) Degenerate oligonucleotide-primed PCR: general amplification of target DNA by a single degenerate primer. Genomics 13, 718.

L’utilisation d’une Taq PCR limite la taille des fragments néo-synthétisés qui ne dépassent guère 3 kb.  En outre, ces deux techniques, à l’instar de ce qui peut être démontré dans la publication de BMC Genomics 2006 (mentionnée ci-dessus), induisent des erreurs de séquences accompagnées de nombreux biais d’amplification (certaines régions ne sont pas amplifiées au profit de régions qui deviennent, de fait, sur-représentées).

– la MDA (Multiple Displacement Amplification) : cette amplification iso-thermique fait intervenir des amorces aléatoires de type hexamères et une enzyme, la phi29. Le type d’amplification générée est schématisées sur la figure ci-dessous. L’enzyme surfe à partir du brin néo-synthétisé, déplace un brin complémentaire pour continuer sa synthèse. Ainsi, les brins générés par cette technique peuvent atteindre 100 kb. En outre, la phi29 possède une activité 3′ -> 5′ de relecture (proofreading) lui conférant un taux d’erreur 100 fois moindre que ceux constatés pour des Taq polymérases classiquement utilisées dans les techniques de PEP- ou DOP-PCR

source : Cold Spring Harb Protoc 2011.2011: pdb.prot5552 (la légende originale de la figure est disponible en cliquant sur celle-ci)

Ces techniques d’amplification pangénomique ont rendu possible l’étude d’ADN anciens et peu abondants et tout naturellement elles ont trouvé leur place dans la boîte à outils moléculaires des paléogénéticiens. Cependant, la révolution des séquençages haut-débit (dont nous avons abordé le sujet à plusieurs reprises) laisse entrevoir un nouveau champ des possibles pour l’étude des ADN fossiles. Au fond, des technologies telles que celle développée par Helicos Biosciences, trouvent ici un réel champ d’application à l’instar de ce que développe la publication True single-molecule DNA sequencing of a pleistocene horse bone de Genome Research, 2011- nulle nécessité d’amplifier la matrice de départ. Cette publication compare des technologies de séquençage de 2ème et 3ème générations (GaIIx et Helicos) appliquées au séquençage de l’ADN isolé à partir d’un os de cheval pleistocène conservé dans permafrost. Le séquençage « single molecule« , une chance pour la paléogénomique !

Tagged with:
 

Cet article revient sur une publication de janvier 2012 de Science (voir image ci-dessous) qui exploite des données de biologie haut-débit pour répondre à deux questions biologiques liées : « comment a été permise la photosynthèse ? » – « toutes les plantes ont elles un ancêtre commun?« 

Les auteurs exploitent des données génomiques et transcriptomiques d’un glaucophyteCyanophora paradoxa. Cyanophora paradoxa est le biflagellé le plus étudié des glaucophytes, pris pour modèle dans l’étude de l’endosymbiose et pour ce qui a trait à la fonction du proplaste à l’origine des chloroplates.

Ces proplastes ayant pour origine l’intégration par endosymbiose d’une cyanobactérie (les mitochondries quant à elles, ayant pour origine l’endosymbiose d’une alpha-protéobactérie). L’intégration de ces données apporte la preuve que toutes les plantes seraient issues d’un seul ancêtre commun: les plantes formeraient une lignée monophylétique.

Il y a plus d’un milliard d’années a eu lieu la rencontre entre une cyanobactérie et une cellule eucaryote : de cette rencontre a émergé des cellules capables d’exploiter la lumière solaire pour synthétiser de la matière organique. L’étude présentée ici distingue :

– les EGT (Endosymbiotic Gene Transfer) avec les échanges de gènes entre le génome de l’hôte et celui de la cyanobactérie initiale venant grandement enrichir le génome de cet hôte. La participation des gènes de cyanobactérie représenterait entre 6 % (pour Chlamydomonas reinhardtii) et 18 % (pour Arabidopsis thaliana). Chez C. paradoxa, 274 gènes semblent avoir une origine cyanobactérienne. L’étude de la séquence mitochondriale a permis de positionner les glaucophytes très près du point de divergence des algues vertes et rouges.

– une autre source d’apport de matériel génétique venant enrichir ce système : les transferts de gènes horizontaux (HGT). Les auteurs dénombrent 15 gènes qui sont partagés par les 3 taxons de plantes à l’origine d’une diversité de plantes, et qui auraient une origine bactérienne – des séquences proches de celles retrouvées chez des Chlamydiae et Legionella, des parasites intracellulaires de cellules eucaryotes.

Ainsi les gènes apportés par le parasite ont permis au couple cyanobactérie-cellule de fournir des gènes nécessaires aux échanges de « nourriture » (UhpC-type hexosephosphate transporters, des sous-unités de translocons). Cette étude démontre que ces échanges de gènes ont une signature unique chez les plantes, les algues et les glaucophytes confortant la thèse d’une lignée végétale monophylétique, un coup porté aux tenants de la thèse de la « paraphylie végétale ».

Cet article de Science est un bel exemple de l’exploitation, de l’intégration et enfin de l’interprétation donnant sens aux données génomiques et transcriptomiques générées à haut-débit (des données de transcriptomiques -réalisées sur la plateforme Illumina GAIIx- sont disponibles dans la banque du NCBI : Sequence Read Archive avec les n° d’accès suivants SRX104482SRX104481SRX104480).

L’AGBT qui a eu lieu du 15 au 18 février, à Marco Island, a fait la part belle à la technologie d’Oxford Nanopore, ainsi qu’il avait été prévu. La société dont il est question a profité du rassemblement pour lever le voile sur 2 produits : le MinION et le GridION, il est à noter que le MinION, mini-système de séquençage de la taille d’une grosse clé USB (photo ci-contre) a une dénomination commerciale tout particulièrement adaptée au marché français.

La technologie d‘Oxford Nanopore a été évoquée dans plusieurs de nos articles. Elle permet le séquençage et l’analyse à haut-débit de reads de taille ultra longue (plusieurs kb) en temps réel pour pas très cher : la promesse d’un séquençage de 3ème génération démocratisé. Clive G. Brown (directeur de la technologie chez Oxford Nanopore) a présenté ses deux nouveaux jouets :

– Le MinION (dont le prix serait inférieur à 900 $) est un consommable et séquenceur (les deux à la fois) jetable qui devrait permettre de générer 1 Gb de données

– Le GridION (que vous pouvez empiler à foison, voire photo ci-dessous) permet quant à lui de générer, par module,  plusieurs dizaines de Gb / jour (on pencherait pour un minimum de 25 Gb) sachant que selon nos informations un module aurait un coût voisin de 30 k$. Oxford Nanopore insiste sur le fait qu’à la Gb générée ils seront concurrentiels en terme de coût des consommables. En outre, le volume de données générées s’adapte à la problématique de l’utilisateur puisqu’en effet tant que l’appareil séquence -d’où leur slogan « Run Until« – il génère des données (le débit journalier associé à une technologie prend tout son sens ici). La cartouche –consommable de séquençage– associée à la technologie GridION possède actuellement 2000 pores individuelles -en 2013, il est prévu de passer à un consommable en comportant 8000- avec cette évolution il sera donc possible avec 20 modules GridION (environ l’investissement équivalent à un HiSeq2000) de séquencer un génome humain en 15 minutes ! Une autre façon de voir les chose est la suivante, dans sa version « actuelle » à 2000 pores disponibles : pour un prix équivalent à celui d’une configuration de type Ion Proton, 5 modules GridION seront capables de séquencer un génome humain à 30 X (cela leur prendrait une demie journée).

D’autres éléments ont filtré lors de l’AGBT. En effet, il semblerait que la technologie d’Oxford Nanopore subisse un taux d’erreurs sur séquences brutes encore assez élevé de 4 % (comparé aux plus de 10 % pour la technologie de Pacific Bioscience). Clive G. Brown aurait laissé entendre que ce taux d’erreurs serait uniforme et le fruit d’une majorité d’erreurs systématiques (ce qui est plutôt bon signe, en vue d’une rapide amélioration du système). Au niveau du système de détection, une puce GridION comporte 2K capteurs (un par pore). Chaque capteur permet de distinguer 64 signaux différents, ceci a permis d’analyser le passage de triplets de base afin de pouvoir discriminer 4x4x4 profils différents (j’avoue que j’attendais plus : quid de la prise en compte d’un signal différentiel en cas de présence d’une 5-méthylcytosine ?).

Au niveau préparation des échantillons, un séquenceur de 3ème génération ne nécessite pas de phase d’amplification. Hormis une phase préalable de légère fragmentation de l’échantillon rien ne semble envisagé. Pour palier leur problème de fiabilité, on imagine aisément qu’à l’instar de Pacific Bioscience, une circularisation de l’ADN de l’échantillon permettra d’engendrer en séquençage un nombre suffisant de répétitions venant atténuer ce point négatif.

Un élément important -mais pas surprenant- réside dans la politique commerciale affichée : une distribution directe des machines ainsi qu’une adaptation tarifaire (en usant de forfaits) offrant la possibilité d’acheter la machine à prix réduit avec un report sur le coût des consommables devrait permettre à Oxford Nanopore de conquérir quelques marchés n’en doutons pas !

Laurent Wauquiez, ministre de l’Enseignement supérieur et de la Recherche, et Jean-Luc Tavernier, Commissaire général adjoint à l’Investissement, ont annoncé la liste des 71 lauréats de la deuxième vague de l’appel à projets « LABoratoires d’EXcellence« -fameux LABEX- doté d’une enveloppe de 1 milliard d’euros. La gestion du contenu de cette  enveloppe a été confiée à l’Agence Nationale de la Recherche.

Voici un extrait du site : investissement-avenir.gouvernement.fr qui revient sur le bilan des dotations suite à cette deuxième vague du concours de l’excellence au service de la science… ou l’inverse… on ne sait plus trop :

« L’appel à projets a pour objectif d’attribuer aux laboratoires sélectionnés des moyens significatifs leur permettant d’accroître leur visibilité internationale, de faire jeu égal avec leurs homologues étrangers, d’attirer des chercheurs et des enseignants-chercheurs de renommée internationale et de construire une politique intégrée de recherche, de formation et de valorisation de très haut niveau.

195 projets ont été reçus pour cet appel et 71 ont été retenus (soit l’ensemble des projets classés A+ à A5 par un jury international, présidé par le Professeur Jean Claude Latombe, Professeur à l’université de Stanford).

Ces 71 laboratoires seront financés jusqu’en 2020 pour un montant de 534,5 M€, sachant que certains de ces laboratoires se trouveront financés dans le cadre des 8 Initiatives d’excellence désormais reconnues.

Les lauréats recevront dans les toutes prochaines semaines un acompte de 10% afin que les équipes sélectionnées puissent lancer leur projet dans les meilleurs délais.

Avec les lauréats de la première vague, ce sont donc 171 laboratoires d’excellence qui auront été sélectionnés pour un financement sur une période suffisamment longue pour leur permettre de déployer une stratégie scientifique de grande ampleur.

L’ensemble des domaines de recherche est représenté au terme de ces deux appels à projets : 14,5% en sciences du numérique et des mathématiques, 24% en sciences humaines et sociales, 20 % dans le domaine de la matière et de l’énergie, 14,6% dans le domaine des sciences de la terre et de l’environnement, 26,9% dans le secteur de la biologie-santé. »

Vous pourrez trouver le communiqué de presse comportant la liste des projets retenus accompagnée d’un court descriptif incluant les retombées économico-scientifico-sociales attendues (retour sur investissement) –> ici. Il vous suffit ou presque de regarder la carte présentée ci-dessus pour connaître les régions (ou villes universitaires) sur- ou sous-bénéficiants des investissements d’avenir… Lille devance légèrement Clermont-Ferrant et est supplantée par Strasbourg…

LABEX ou l’excellence… à tous les plats (nous avions abordé ce sujet précédemment). Une excellente lettre provenant de l’excellent blog d’Olivier Bouba-Olga, « un économiste qui suit et commente l’actualité » est disponible ici. Je vous invite chaleureusement à prendre connaissance de cette missive titrée : « l’excellence des Universités : oui, mais quelle excellence ?! ».  Quelques « concepts » accompagnant la notion subjective d’excellence y sont passés en revue : de la notion de masse critique à la loi de Lotka.

Lotka a été le premier à réaliser, en 1926, une étude sur la distribution des auteurs scientifiques, arrivant à la conclusion que la relation auteurs-articles est inversement proportionnelle au carré d’articles publiés (une distribution hyperbolique)… cette constatation serait la résultante de ce que l’on nomme (en sociologie) « l’effet Saint Mathieu » qui peut être énoncé ainsi : le succès engendre encore plus de succès (ou la richesse réelle ou symbolique plus de richesse réelle ou symbolique)… Ainsi, ici transposé, le « concours » LABEX concentre des fonds très importants sur des têtes d’affiche… Quand l’état adosse sa politique d’investissements -d’avenir- sur la scientométrie, l’instrument de mesure fausse la mesure… en science on appelle cela l’effet de l’instrument…

Tagged with:
 

Sequenom est une autre société californienne de biotechnologie (cotée  au NASDAQ) basée à San Diego. Cette société développe des outils d’analyse génomique avec deux principales divisions:

– l’une d’elles développant des systèmes d’analyse génétique (type MassARRAY)

– l’autre se concentrant sur la recherche et développement de réactifs transférables sur la plateforme technologique développée par la première division.

Depuis 2008, Sequenom développe des  outils analytiques de paillasse, les systèmes ‘MassARRAY’, appareillage compact permettant une mesure directe de la masse des acides nucléiques, offrant une précision inégalée quant à leur nature et leur quantification. Ce système, sur la base d’un spectromètre de masse, multi-MALDI-TOF MS, trouve des applications pour le génotypage, l’ analyse de la méthylation et l’expression génique. Sequenom continue d’affiner ces applications et de développer plusieurs nouvelles applications pour l’analyse de CNV (Copy Number Variation) par exemple.

Cette technologie est chahutée par les séquenceurs haut-débits de paillasse et autres systèmes permettant de génotyper une grande quantité d’échantillons tels que les systèmes proposés par Fluidigm. Le système MassARRAY bénéficie d’une sensibilité hors pair, les kits diagnostiques développés sur leur plateforme permettent à Sequenom de faire perdurer leur technologie. Les kits diagnostiques prénataux comme le MaternitT21 offre une alternative à l’amniocentèse pour diagnostiquer les trisomies 21, (en février 2012, Sequenom a lancé le MaterniT21 PLUS, permettant de diagnostiquer les trisomies 21, 18 et 13) de manière non invasive ciblant lADN fœtal circulant dans le système sanguin maternel. Après des suspicions quant à un délit d’initié potentiel, des cadres de Sequenom sont surveillés par la SEC (Securities and Exchange Commission), de plus le développement des kits diagnostiques prénataux a connu des difficultés en 2010. En effet, la société a été condamnée à verser 14 millions de USD pour régler un recours (en « class-action ») : des actionnaires se sont retournés sur la société considérant que le développement du kit diagnostique de la trisomie 21 avait été plus que mal géré (notamment au niveau des essais cliniques).

La technologie MassARRAY est encore très employée pour le passage de cohortes suite à des études d’associations génétiques (les puces haute-densité sont employées dans un premier temps, suivi du passage des loci candidats sur une plateforme plus souple, telle que le MassARRAY, permettant d’interroger les mutations putativement associées au phénotype étudié). Un document en lien ici, reprend les principales caractéristiques de la plateforme de génotypage.

Bien que la plateforme MassARRAY trouve vite ses limites, la société Sequenom s’emploie à développer des solutions diagnostiques qui retardent l’obsolescence de leur technologie. La société a connu des soubresauts économico-judiciaires dont elle a su se relever, elle tente d’accélérer la diffusion de plusieurs de ces kits diagnostiques avant que sa technologie ne soit dépassée par la concurrence.

Set your Twitter account name in your settings to use the TwitterBar Section.