Currently viewing the category: "Biotechnologie"

Résultat de recherche d'images pour "metasub"Voici une initiative originale conciliant deux tendances du moment : étude d’un microbiote & le concept de smart city. Saugrenu ? Science tendance ? Projet formaté pour la vulgarisation, la valorisation médiatique ? Quoi qu’il en soit, ce projet nous est plutôt bien vendu, à grand renfort d’infographies, de photographies, de vidéos un peu inquiétantes de personnes en train de réaliser des prélèvements de surface dans le métro. Derrière la communication, l’idée du projet est séduisante : utiliser des données biologiques, en l’occurrence des profils de l’ADNr 16S ou des séquençages génomes entiers définissant un microbiote pour améliorer nos écosystèmes urbains. Il est vrai qu’à une époque où l’on conçoit du mobilier urbain volontairement inconfortable pour ne pas que le passant puisse faire autre chose que passer, il ne semble pas intuitif d’aller chasser le microbiote pour concevoir une ville moins idiote. Même si la ville est le terrain de tous les paradoxes, il est captivant d’observer que cet environnement quotidien, banal, renferme une part de mystère… mystère qui serait à l’origine des odeurs du métro ? quelles espèces bactériennes propres à New York, Paris ou Rome sont à découvrir… quelle ville a le microbiote le plus diversifié ? quelle est celle qui aura le privilège d’héberger le plus de bactéries résistantes aux antibiotiques, la plus propre ou la plus sale ?

Résultat de recherche d'images pour "metagenomic subway"

 

En juillet 2017, Stockholm accueillera la 3ème conférence annuelle « Metagenomics and Metadesign of Subways and Urban Biomes (MetaSUB)« , qui rassemblera des chercheurs dédiés à la cartographie du métagénome urbain de plus de 67 villes à travers le monde (dont Paris et Marseille). Ce projet ambitieux a débuté il y a deux ans, alors que le professeur Christopher Mason et son équipe ont réalisé la première étude sur la microflore de surface, dressant le microbiome de la ville de New York. Avec ces données moléculaires essentiellement basées sur le séquençage haut-débit 16S, le projet a étudié la façon dont ce «microbiome urbain» change avec des variables telles que la météo, la propreté, les matériaux de construction et même les niveaux socio-économiques du quartier. L’équipe a cherché à établir des profils de microbiotes dans le métro, à identifier les bio-menaces potentielles et à fournir des données complémentaires qui peut être utilisé par la ville pour créer une «ville intelligente», c’est-à-dire qui agrège des données hétérogènes pour améliorer son urbanisme.

Près de la moitié (48%) de l’ADN séquencé ne correspondait pas aux organismes connus, soulignant qu’un microbiota incognita entoure les usagers du métro. Le projet du métro de New York n’était que le début, ce qui a conduit à la création d’un consortium international de laboratoires pour établir une « cartographie » mondiale de microbiomes dans les systèmes de transport en commun notamment.  En cliquant sur la capture d’écran ci-dessous, on pourra se faire une idée de la communication « Metasubienne » qui n’a rien à envier à celle de Tara Oceans ou de MetaHit (qui sont toutes trois, d’excellentes communications autour d’un projet et d’un consortium).

MetaSUB

Voici en quelques mots les promesses annoncées dans l’article Geospatial Resolution of Human and Bacterial Diversity with City-Scale Metagenomics (Cell Syst, 2016) :

« La région métropolitaine de New York City (NYC) est un endroit idéal pour entreprendre une étude métagénomique à grande échelle car c’est la plus grande et la plus dense des États-Unis; 8,2 millions de personnes vivent sur une masse continentale de seulement 755 km2. En outre, le métro de New York est le plus grand système de transport en commun dans le monde (par le nombre de stations), qui s’étend sur plus de 406 km et utilisé par 1,7 milliard de personnes par an. Ce vaste écosystème urbain est une ressource précieuse qui nécessite un suivi pour le maintenir et le sécuriser contre les actes de bioterrorisme, les perturbations environnementales ou les épidémies. Ainsi, nous avons cherché à caractériser le métagénome de NYC en examinant le matériel génétique des microorganismes et d’autres ADN présents dans, autour et au-dessous de New York, en mettant l’accent sur les métros et les zones publiques très empruntés. Nous envisageons cela comme une première étape vers l’identification des menaces biologiques potentielles, la protection de la santé des New-Yorkais et la mise à disposition de données moléculaires qui pourront être utilisée par la ville pour créer une «ville intelligente», c’est-à-dire celle qui utilise des données de grande dimension pour améliorer l’urbanisme, la gestion de l’environnement bâti, des transports en commun et de la santé humaine. »

Résultat de recherche d'images pour "fermenteur"L’objet de ce petit article est de mettre en lumière cette industrie qui se porte plutôt pas mal en France. Après un petit retard à l’allumage, en atteste les craintes formulées dans des articles de 2008- 2009, « Bioproduction en France, toujours un train de retard« , il s’agit d’un secteur en relative expansion. Quand on parle de bioproduction, de quoi parle t’on ? La bioproduction peut être définie comme la production des produits de santé d’origine biologique et biotechnologique. En clair, à partir de briques du vivants on formule un produit à allégation santé (anticorps monoclonaux, les protéines recombinantes comme l’insuline  ou encore les vaccins sont des outils indispensables au traitement de nombreuses pathologies), en substance la bioproduction pourrait être comparer voire parfois opposée à la pharmacochimie.

La carte obtenue par le LEEM –  le syndicat du milieu pharmaceutique qui s’est substitué en 2002 au Syndicat national de l’industrie pharmaceutique (SNIP)- fait apparaître un regroupement de l’activité autour de quatre bassins principaux :
– la région Rhône-Alpes
– la vallée de la Seine
– l’Alsace
– le département du Nord

13_Bioproduction _ La France est-elle dans la course de la bioproduction _
L’état des lieux de 2014 du LEEM est plutôt évocateur :
– La demande en biomédicaments est passée de 5 à 15 % entre 2000 et 2012.
– La France dispose notamment de capacités de production significatives dans le domaine des vaccins, des produits dérivés du sang, des hormones et des produits pour le diagnostic.
13 000 personnes sont employées dans la bioproduction
Les formations françaises en biotechnologies sont reconnues au niveau international. Il en va de même pour le processus de reconversion des industries chimiques vers le vivant. Cette synergie de compétences est un atout.

15_Biotechnologies _ Les biotechnologies, clés du développement économique de l’industrie du médicament _

Outre ces éléments visant à saluer une filière qui a su prendre un bon élan, d’un point de vue plus pratique, ce post est aussi l’occasion de fournir une liste de ces entreprises qui recherchent des profils plutôt jeunes et plutôt bien formés. Cette liste est évidemment non exhaustive et tirée de l’excellent recensement de l’Industrie Pharma Magazine.

11_Biomédicaments _ Les nouveaux médicaments seront-ils tous issus du vivant _

 

 

Evry_therapie_genique

 

Voici un outil simplissime, rapide, en ligne, permettant de designer et de qualifier informatiquement des sgRNA, dans un contexte de KO réalisé par CRISPR/Cas9.

Vraiment pas mal !

Cliquez sur la capture d’écran ci-dessous et tentez votre design.

Synthego

 

Tagged with:
 

Résultat de recherche d'images pour "london calling nanopore"Le London Calling a été l’occasion pour Oxford Nanopore Technologies (ONT) de frimer un peu avec des annonces et une gamme de séquenceurs ciblant des marchés très différents. Cette technologie de rupture risque d’être un tsunami technologique pour finir par déferler dans nos vies, car avec un séquenceur qui tient dans la poche et se connecte à un smartphone, ce qui était hier science fiction devient réalité.

ONT a fourni, en ce début de mois de mai 2017, informations concernant les développements technologiques et les perspectives de commercialisation. L’une d’elles, concerne une nouvelle « flow cell » pour MinIon, appelée Flongle (Flow Cell Dongle) pour les applications de diagnostics cliniques. Le développement du Flongle aidera également le travail de l’entreprise sur SmidgION, un séquenceur miniature avec de petites flow cells alimentées par un téléphone mobile (voir la photo ci-dessous).

Clive Brown, responsable technologique d’ONT, a donc présenté diverses mises à jour lors du « London Calling 2017 », le grand barnum des utilisateurs de la technologie, en ce début de mois de mai. En ce qui concerne le séquenceur MinION, Brown a déclaré que la technologie est d’ores et déjà capable de délivrer plus de 20 Gb de données par run de 48 h. (Actuellement, les utilisateurs sont plus autour des 15 Gb, ce rendement plus limité serait partiellement lié à la préparation de la bibliothèque, en particulier la quantification appropriée de la taille et de la quantité d’ADN de départ, selon Brown).

En mars, la société avait parlé d’une nouvelle méthode de séquençage, appelée séquençage 1D2, où les deux brins d’une librairie bicaténaire sont poussés par nanopore séquentiellement sans être physiquement connectés. La méthode contourne un brevet détenu par Pacific Biosciences et aboutit à des lectures plus précises que la seule lecture 1D, où seul un brin de la librairie constituée est séquencé. ONT prévoit de publier le kit de séquençage 1D2 courant mois de mai 2017, ainsi qu’une nouvelle chimie appelée R9.5. Les kits 2D ne sont plus disponibles et l’entreprise vient juste d’interrompre les anciennes cellules R9.4.

Dans l’ensemble, la précision de lecture brute est maintenant supérieure à 90 % pour la chimie R9.4 et supérieure à 95 % pour la  R9.5 (en mode 1D2), ces deux chimies tournant à 450 bases / min.

prix_flow_cell

Ci-dessus, les prix actuels de la chimie 9.5. Là où l’on constate que le prix décroit drastiquement avec la quantité commandée… je pense qu’une mutualisation ou la création d’une centrale d’achats s’imposent ! Avec cette nouvelle chimie,ONT a diffusé une nouvelle version, la 1.6, de son logiciel MinKnow ainsi que de son basecaller Albacore (maintenant en 1.1). En outre, ONT a récemment commercialisé des kits de séquençage direct d’ARN et diffusé un pipeline pour réaliser le profil de résistance aux antibiotiques appelé ARMA (an analysis workflow for identification of antibiotic-resistant microorganisms in real time). À partir d’août, la société prévoit d’envoyer des flow cells à la température ambiante, des développements sont en cours pour allonger leur date limite d’exploitation (aujourd’hui une flow cell reçue doit être utilisée sous 8 semaines).  Toujours visant le marché de l’utra-portabilité, en visant la décentralisation de l’acte de séquençage, ONT développe également un petit module de calcul pour le basecalling qui ferait environ la moitié de la taille du séquenceur MinION et pouvant y être directement connecté. Sur ce volet de la portabilité, le dispositif de préparation d’échantillons, VolTrax (voir vidéo ci-dessous), d’Oxford Nanopore est maintenant entre les mains de plus de 50 utilisateurs qui ont récemment reçu leurs premiers kits. La société développe actuellement un kit à base de transposase rapide et un kit d’indexation 4-plex rapide.

voltrax

Les chercheurs de l’entreprise travaillent déjà sur une nouvelle version, VolTrax V2, qui devrait être disponible à la fin de 2017. Cette version permettra la PCR, la quantification des échantillons et le contrôle de la qualité des échantillons, tout en utilisant les mêmes aimants et appareils de chauffage que la version actuelle. Il sera également capable de gérer plus d’échantillons et d’exécuter des protocoles de préparation d’échantillons plus complexes. Il sera livré avec un chargeur de réactif avec des réactifs lyophilisés (lyophilisés, c’est mieux, parce que le séquenceur qui tient dans la main c’est bien, mais s’il vous faut un congélateur pour réaliser, sur le terrain, la moindre réaction…)

En mars, Oxford Nanopore a annoncé le lancement du GridIon X5, un séquenceur nanopore de bureau (et non plus de poche comme le MinION) pouvant permettre de travailler jusqu’à 5 flow cells à la fois et disposera d’un débit de 100 Gb par run de 48 heures. La plate-forme est livrée avec un cluster local de calcul haute performance qui permet le basecalling en temps réel ainsi que l’analyse des données. La première unité a été expédiée en début de semaine (en atteste la photo ci-dessous)

La société a récemment utilisé le GridIon pour séquencer un génome humain à 20 X, en utilisant 5 flow cells et la chimie R9.4 (en mode 1D).

Le GridION X5 permet d’exécuter simultanément ou individuellement jusqu’à cinq expériences; Les utilisateurs peuvent choisir d’utiliser tout ou partie de cette ressource à tout moment. La version actuelle de la chimie et du logiciel permet de générer jusqu’à 100 Gb de données pendant une exécution GridION X5 et le module de calcul peut analyser ces données en temps réel.

En utilisant la même technologie de base que le MinION et PromethION, le GridION X5 offre la possibilité de séquencer ADN et ARN en temps réel (dans la vidéo ci-dessous Clive Brown se transforme en Pipetman pour la promotion du GridION) :

GridION pricing

gridion

Oxford Nanopore devait envoyer il y a peu les premiers consommables pour PromethION permettant de délivrer 50 Gb et pourraient en générer jusqu’à 120 Gb /jour dans un futur proche. En vitesse de croisière cette configuration sera capable de générer plus de données que le NovaSeq d’Illumina. Du lourd, du gros et du très petit : de quoi satisfaire les plateformes de séquençages et bientôt certainement des utilisateurs non touchés actuellement par la technologie aujourd’hui, puisque la version ci-dessous permet de préparer une librairie et de la séquencer avec quelques breloques qui tiennent dans le creux d’une main !

La quête du read de 1 Mb : F1000Researchblog

Tagged with:
 

Résultat de recherche d'images pour "alphabet health baseline"Un slogan, une baseline : « nous avons cartographié le monde, maintenant cartographions la santé humaine » annonce la volonté de Google de persévérer dans le domaine de la santé humaine. C’est ainsi qu’Alphabet le conglomérat appartenant à et détenant Google tout à la fois, propose de constituer une cohorte humaine phénotypiquement caractérisée le plus finement possible : Verily (anciennement Google Life Sciences) une filiale d’Alphabet spécialisée dans la santé, a annoncé mercredi 19 avril qu’elle souhaitait recruter 10 000 volontaires pour son projet Baseline, annoncé en 2014 et déjà testé sur une centaine de volontaires. S’adjoignant des chercheurs du monde académique avec la participation de l’université de Duke (Caroline du Nord) et de l’université Stanford, Google vise à collecter des données de santé très précises sur ces personnes pendant plusieurs années. Assurément le nombre de personnes visées est pour l’instant moindre que la célèbre cohorte Nurses’ Health Study débutée en 1976 et dénombrant 280.000 participants, l’innovation consiste en la qualité des données collectées par l’intermédiaire de capteurs connectés. Les études épidémiologiques faisant intervenir des cohortes ne sont certes pas nouvelles, elles sont un outil formidable, grandes pourvoyeuses de résultats scientifiques valorisables (la célèbre cohorte de Framingham enregistre plusieurs centaines de publications). Dans le cas précis du projet Baseline, ce qui est nouveau est la promotion de ce type d’approche par et pour aussi un peu, une entité privée. Google, enfin Alphabet, peu importe finalement, est un conglomérat qui possède notamment la société de biotechnologie Calico, et qui a des liens capitalistiques avec 23andMe et possède donc encore Verily dont certains projets consistent en :

  • des lentilles de contact permettant de contrôler le niveau de glucose chez les personnes diabétiques
  • des cuillères pour les personnes ayant des tremblements, par exemple atteintes de la maladie de Parkinson (projet Liftware)
  • une plateforme permettant la détection de maladie par l’intermédiaire de nanoparticules
  • un bracelet connecté permettant de suivre des paramètres liés à la santé

Certains de ces objets connectés auront une exposition majeure du fait de leur positionnement central dans la cohorte de Baseline. Ainsi une montre, au design contestable, complétera la panoplie de capteurs associée au projet. Le fameux capteur d’activités nocturnes qui se faufile jusque sous la couette peut laisser perplexe… Ces objets connectés, pourvoyeurs de données, de beaucoup de données, nécessiteront les méthodologies que Google s’attache à développer pour traiter de façon automatisée et optimale la manne visée par la cohorte Baseline ! En outre, ces objets trouveront un écho, à n’en pas douter, auprès de futurs consommateurs bien au-delà des personnes constituant la cohorte initiale. En effet, les modèles établis sur les personnes, population référente constitutive de la cohorte (pour lesquelles sont à disposition l’intégralité des données phénotypiques) pourront être appliqués à de futures personnes dotées de la batterie de capteurs mais n’ayant pour autant pas été caractérisées finement. La cohorte servirait à établir un modèle, modèle qui serait appliqué à de futurs utilisateurs des solutions connectées proposées par Google. Ainsi des prédictions de l’état de santé et pourquoi pas la mise en place d’un système d’alerte… pouvant aller jusqu’à signifier la nécessité de consulter pourraient trouver une application commerciale.

Project-Basline

capteurs_google

L’objectif qu’Alphabet revendique est de cartographier la santé humaine, cet objectif passe par la création d’une immense base de données avec la santé pour finalité, permettant, grâce aux nouvelles technologies, d’«explorer la santé en profondeur». Après anonymisation comme garantie de sécurité des données, cette base de données est destinée à être transmise à des chercheurs. Pour recruter ses volontaires et les inciter à rejoindre le projet (la stratégie de recrutement peut laisser entrevoir d’ailleurs quelques biais de recrutement), Verily assure qu’il s’agit d’une manière « de participer à la création de cette carte de la santé humaine, et de laisser durablement une trace», en contribuant à son échelle à la recherche médicale. Ces futurs participants pourront partager leurs données avec leur médecin. Verily cherche des personnes nord-américaines, en bonne santé qui seront suivies et invitées à subir, pendant deux jours, chaque année, une batterie de tests médicaux. Ces bilans médicaux accompagnés des données des bio-capteurs dont ils seront dotés seront agrégés sous forme de « Big Data », matière première dont Google et ses méthodologies sont devenus experts

Plusieurs questions peuvent être soulevées :

  • est ce que Google, entreprise commerciale, finira par monétiser ces données comme matière première à une recherche scientifique ?
  • est ce que la stratégie de Google ne serait pas multiple : (i) faire la promotion de ces outils d’analyses sur une matière première (dont Google serait propriétaire) tout en (ii) faisant la promotion de ces objets connectés, surfant sur un marché de la e-santé, marché en pleine expansion, tout en (iii) rentabilisant son investissement pour « partager » ses données recrutées moyennant des contreparties soumises au secret ?

Par le passé, Google Health est – était- un service Internet d’archivage de dossiers médicaux pour les internautes américains, mis en place par Google en mars 2008. L’avantage reste celui de laisser le pouvoir aux pharmaciens américains de mettre à jour automatiquement les traitements ou encore de trouver un spécialiste pour traiter des maladies adaptées. Google fermera ce service le 1er janvier 2012, faute d’un nombre insuffisant d’utilisateurs. La volonté de Google de développer une offre trouvant des applications en santé, médecine de précision, auxiliaire personnel de santé  n’est donc pas nouvelle. Aujourd’hui, dans un contexte américain où les fonds publics alloués à la recherche médicale se tarissent (lire l’article de Nature sur la coupe budgétaire sans précédents de Donald Trump), le temps des partenariats public/privé est peut être venu. Dans ce contexte, même si la démarche de Google est nappée de marketing, des projets tels que Baseline pourraient être favorablement accueillis par la communauté scientifique.

Résultat de recherche d'images pour "baseline project google"

Tagged with:
 

Afficher l'image d'origineLe développement des réseaux sociaux sur internet nous a permis d’appréhender la notion du « quand c’est gratuit, c’est toi le produit » en faisant référence, à des Facebook parmi d’autres, qui monnaient les informations personnelles des adhérents à leur service à des fins de profilage marketing. L’avènement des technologies à haut-débit en génomique a vu, il y a une dizaine d’années, émerger le concept de médecine personnalisée. Depuis, ce concept a évolué vers celui de médecine de précision (certainement plus consensuel et moins égotique). A partir de 2005, des sociétés privées se sont appropriées ce concept pour le faire déborder de la sphère de la recherche ou de la clinique pour proposer l’exploitation de profils génomiques à des fins de génomique récréative (23andMe, 2006). Un retour à l’égotisme en quelque sorte.

23andMe a d’ailleurs un business model assez osé, consistant à vendre à des clients, leurs profils génomiques (données de puce à ADN) en échange de quelques indications concernant leur « pedigree génomique » (lire: 23 chromosomes, la NSA et moi) et quelques informations hautement critiquables. Ces dernières consistaient en des probabilités de susceptibilité à certaines afflictions (ce point là a suscité l’émoi de la FDA et ce service est aujourd’hui interrompu). En clair, 23andMe subventionne sa population de référence, ses bases de données génomiques par ses propres clients. En substance ceci constitue une évolution par rapport à Facebook, si l’on était taquin on pourrait abréger ceci en un : « vous payez pour devenir un produit ».  Aujourd’hui, 23andMe habille le tout d’un « On average, a customer who consents to research contributes to over 230 studies« , se faire génotyper pour le bien de la recherche… pas loin de la servitude volontaire nappée de bon sentiment. Il est temps ici de rappeler ce que disait il y a peu un des plus grands promoteurs de la génomique personnelle : « Si je devais conseiller un jeune Craig Venter, je dirais, réfléchissez bien avant que vous veniez déverser votre génome sur Internet« . De l’aveu même de Craig Venter donc, il ne faudrait pas s’emballer avant d’envisager hypothéquer 50 % du patrimoine de ses propres enfants nés ou à naître sans qu’eux-mêmes n’aient eu mots à dire.genos_accueil

Aujourd’hui, arrive sur ce marché en pleine croissance, un nouvel acteur, Genos Research (page d’accueil ci-dessus). Ce dernier propose un nouveau business model : vous financez à raison de 399 USD votre propre séquençage d’exome (délivrant en moyenne 50 x fois plus de mutations que celles génotypées par l’intermédiaire des puces Illumina, telles que l’utilise 23andMe). Vous devenez propriétaire de vos données, à l’inverse des solutions concurrentes pour lesquelles, en général, vous en déléguez la propriété et l’utilisation future. Vous devenez donc le promoteur de votre propre information génomique que vous pouvez monnayer sur le marché de la recherche -priez pour avoir une maladie rare, ceci devrait accroître votre la cote de cette information. En outre, Genos permet aux utilisateurs de partager leurs données à travers leur plate-forme, ou d’exporter leurs données séquencées afin qu’ils puissent les transmettre à d’autres systèmes analytiques ou des conseillers génétiques –un business entier est d’ailleurs à bâtir : analyste de données personnelles génomiques. Genos est une société qui a bourgeonné à partir de Complete Genomics, une société de service de séquençage haut-débit, et a complété un financement privé soutenu par des entreprises en mai 2016. La société a Complete Genomicsété co-fondée par Mark Blumling (l’ancien fondateur d’Hyperion Therapeutics, rachetée en mai 2015 par Horizon Pharma plc) et Clifford Reid (l’ancien fondateur et PDG de Complete Genomics, devenu une société de l’incroyable BGI’s company).

Pour le moins sensibles, que deviennent vos données génomiques au gré des acquisitions, fusions de sociétés de biotechnologie ? Ces changements de propriétaire sont monnaie courante et peuvent vous faire perdre de vue vos données qui pourraient finir par être le nouveau pétrole de l’ère post Donald Trump.

Tagged with:
 

imagesA moins de sortir d’une longue phase d’hibernation, tout un chacun aura eu les oreilles rebattues par les applications liées à la technologie CRIPSR/Cas9, la révolution de l’édition de gènes (comprenez modification). Plus facile à mettre en oeuvre que les technologies TALEN et autres nucléases doigt de zinc (voir la table ci-dessous), cette technologie est tout à la fois moins onéreuse et nettement plus efficace. Cette technologie est souvent comparée, du fait de sa précision d’utilisation, à une méthode de micro-chirurgie. Un nombre exponentiel d’articles scientifiques et non scientifiques font le panégyrique de cette révolution qui est la conséquences des travaux de Jennifer Doudna et Emmanuelle Charpentier.  Ces dernières ont permis de configurer cette technologie à partir de l’élucidation d’un mécanisme de vaccination primitif bactérien (nous reviendrons sur ce point fondamental dans un futur article).

Technologie Première utilisation Première application sur animaux vivants Echelle de temps pour la mise en œuvre
Zinc finger nucleases 1996 2002 mois / année
TALENs 2010-2011 2011 semaines
CRISPR/Cas9 2012 2012-2013 jours

Donc non ! il ne s’agit pas ici uniquement de contribuer à l’enthousiasme, certes communicatif, de cette révolution dans le domaine des biotechnologies qui est lui-même friand de ces révolutions qui se succèdent les unes aux autres… Il s’agit dans ce premier article abordant CRISPR/Cas9 de proposer un début de décryptage de ce qui se cache derrière la terminologie de Gene Drive, application de CRISPR/Cas9. Cette terminologie est encore une fois peu aisée à traduire à mi-chemin entre le pilotage et le forçage génétique. Quoi qu’il en soit derrière l’appellation Gene Drive, se cache une technologie qui mérite que l’on s’arrête pour pousser plus avant la réflexion, tant l’enfer est pavé de bonnes intentions… Pour faire monter la pression, il faut savoir que James Clapper, le directeur du renseignement national des États-Unis, a placé la technologie CRISPR mais surtout sa formulation « Gene Drive » au niveau des armes de destruction massive… rien que ça.

Gene Drive, technologiquement concentre dans une cassette, l’outil permettant d’accélérer sa propagation (les ciseaux permettant la microchirurgie sont embarqués et encodés au sein même du génome ciblé) ainsi que le gène que l’on souhaite voir introduire au niveau d’une espèce donnée, évidemment cette technologie s’intéresse principalement aux populations sauvages. Ainsi cette cassette possède sa propre capacité de propagation, échappant aux lois de Mendel. Correctement encodée au sein d’une partie de population « augmentée ou diminuée », une dizaine de générations d’individus se reproduisant de façon sexuée permet de faire en sorte que la cassette a contaminé l’intégralité ou l’extrême majorité de la population sauvage (voir le schéma ci-dessous). L’exemple souvent développé, sponsorisé par  la Fondation Bill-et-Melinda-Gates, consiste à proposer aux dirigeants africains des anophèles modifiés par cette technologie pour être résistants au parasite, Plasmodium falciparum, l’agent du paludisme. Rappelons que 650 000 personnes meurent chaque année de la malaria (rapport OMS de 2013), principalement sur le continent africain. Toujours dans les bons coups, Bill, pour soigner son karma! Ce dernier oublie néanmoins que le moustique génétiquement modifié agent mutagène puisque porteur de la cassette Gene Drive ne s’arrête pas aux frontières… mais qu’importe le moyen technologique existe donc que ne serions nous pas de fâcheux obscurantistes à réfléchir aux conséquences de l’utilisation de cette technologie avant de l’employer la fleur au fusil. Les « obscures rabat-joie » souvent du côté des écologues  s’opposent aux biologistes moléculaires, rapides prescripteurs d’une technologie prometteuse pour éradiquer un nombre substantiel de fléaux, quitte à modifier durablement la nature pour l’intérêt supérieur humain ou parfois même pour l’intérêt supérieur de quelques uns…

 

moustique_gene_drive

La technologie Gene Drive peut être utilisée pour :

• Éradiquer les maladies telles que le paludisme, la dengue, la fièvre jaune, virus du Nil occidental, la maladie du sommeil ainsi que beaucoup d’autres en modifiant les espèces d’insectes vecteurs des parasites, virus, bactéries causes de ces maladies

• Éradiquer les espèces envahissantes. Les dix premières espèces envahissantes aux États-Unis causent environ 42 milliards USD de dommages chaque année

• Certains évoquent avec beaucoup d’aplomb, l’utilisation de cette technologie pour une agriculture plus « durable » en inversant la résistance aux pesticides et aux herbicides. Cette fois c’est la plante résistante au glyphosate (la molécule du RoundUp) qui est ciblée.

Que de beaux et bons sentiments… en guise de promesses de cette technologie !

Les limites de la technologie :

• De « nombreuses » générations sont nécessaires pour répandre la mutation dans la population. La durée totale dépend du cycle de reproduction de l’organisme, du nombre d’individus porteurs de la cassette Gene Drive introduit initialement dans la population, de l’efficacité de la cassette et du  flux génétique (transfert d’allèles d’une population à une autre). Par exemple, cela pourrait prendre quelques années pour modifier une population d’insectes. Si 10 individus d’une population étaient porteurs d’une cassette Gene Drive  parmi une population constante de 100.000 organismes, il faudrait environ 16 générations – environ un an- pour se propager à 99% de la population sous de peu réalistes, conditions optimales.

• Cette technologie est inopérante sur des organismes ne reproduisant pas de façon sexuée comme les bactéries et les virus et aura des problèmes avec les espèces qui peuvent se reproduire de façon sexuée ou non, comme cela peut être le cas pour beaucoup de plantes.

• Certains types d’altérations devraient être réintroduites sans cesse. Par exemple, une cassette Gene Drive engendrant un trait qui est quelque peu nuisible à l’organisme finira par se « briser ». De même, une cassette engendrant une résistance aux herbicides inversée dans une mauvaise herbe aurait à lutter contre la sélection naturelle dans les zones où les herbicides ont été appliqués.

La technologie ouvre donc la boîte de Pandore de la modification génétique de population sauvage. Plus l’intervalle générationnel de la population cible sera court, plus l’objectif d’une  population « panmutée » sera facile à atteindre. Ci-dessous vous pourrez avoir un excellent point concernant la technologie à l’aide du travail de « the National Academies of Sciences Engineering and Medicine ».

doc brief report

doc1

Tagged with:
 

Afficher l'image d'origineSi vous vous intéressez au séquençage haut-débit, que vous souhaitez avoir un panorama des diverses technologies à disposition et que vous êtes friands de schémas de principe: la publication de Sara Goodwin, John D. McPherson & W. Richard McCombie.  Cet article publié dans la revue Nature de mai 2016 promet de faire un retour en arrière sur 10 ans d’évolution du séquençage haut-débit. Elle parvient à tenir ses promesses et livre effectivement des schémas (avec la charte graphique « Nature ») très bien faits, très pédagogiques ! En outre, le tableau (Table 1 | Summary of NGS platforms) permet à tous les pourvoyeurs de projets nécessitant le recours à du séquençage, d’avoir un pense bête sous la main pour associer la bonne technologie à la question biologique qui leur incombe… Et comme vous êtes pressés, vous pourrez retrouver l’intégralité de cet article en vous promenant et cliquant sur l’image ci-dessous.

Sara_Goowdin et al

 

Afficher l'image d'origine

Les cellules photovoltaïques ont un potentiel considérable pour satisfaire les besoins futurs en énergie renouvelable, cependant des méthodes efficaces et évolutives de stockage de l’électricité intermittente qu’elles produisent, sont aujourd’hui attendues pour la mise en œuvre, à grande échelle, de l’énergie solaire. Un stockage de cette énergie solaire pourrait passer par la case carburant. Le travail, présenté dans PNAS de février 2015 (Efficient solar-to-fuels production from a hybrid microbial–water-splitting catalyst system), rapporte le développement d’un système bioélectrochimique évolutif, intégré dans lequel la bactérie Ralstonia eutropha est utilisée pour convertir efficacement le CO2, avec l’hydrogène et l’oxygène produits à partir de dissociation de l’eau, en biomasse et alcools (cf. schéma ci-contre). Les systèmes photosynthétiques artificiels peuvent stocker l’énergie solaire et réduire chimiquement le CO2. Le système de fractionnement-biosynthétique hybride est basé sur un système de catalyseur inorganique, relativement abondant sur Terre (nécessairement sinon écologiquement ce ne serait pas terrible, avouons le…), biocompatible pour séparer l’eau en hydrogène et oxygène à des tensions basses. Lorsqu’elle est cultivée en contact avec ces catalyseurs, Ralstonia eutropha consomme le H2 produit pour synthétiser de la biomasse et des carburants voire d’autres produits chimiques, à partir de faible concentration de CO2 – sous entendu à des concentrations voisines de celles présentes dans l’air. Ce système évolutif a une efficacité énergétique de réduction de CO2 d’ ~ 50% lors de la production de la biomasse bactérienne et d’alcools. Ce dispositif hybride couplé à des systèmes photovoltaïques existants donnerait une efficacité énergétique de réduction des émissions de CO2 d’environ 10%, supérieure à celle des systèmes photosynthétiques naturels ! Nous en conviendrons la bactérie utilisée ici est génétiquement modifiée afin d’orienter son métabolisme vers une voie anabolique d’intérêt.

Ces travaux ouvrent la voie vers la « photosynthèse de synthèse ». Dans cette configuration intégrée, les rendements du solaire à la biomasse vont jusqu’à 3,2% du maximum thermodynamique pour dépasser celle de la plupart des plantes terrestres. En outre, l’ingénierie de R. eutropha a permis la production d’isopropanol jusqu’à 216 mg/L, le plus haut rendement jamais rapporté (> 300 %). Ce travail démontre que les catalyseurs d’origine biotique et abiotique peuvent être interfacés, intégrés… pour permettre à partir de l’énergie solaire, du CO2 et de quelques bactéries de développer des systèmes efficaces stockant une énergie intermittente sous forme de molécules organiques (le biomimétisme est la vraie tendance du moment).

Dans cette première version (celle du PNAS) l’électrode utilisée en nickel-molybdène-zinc s’est avérée toxique pour les bactéries qui voyaient leur ADN attaqué… dans cette version améliorée publiée dans Science (3 juin 2016)Afficher l'image d'origine, l’électrode toxique a été changée par une autre composée de cobalt-phosphore… Selon Daniel Nocera, le promoteur de l’étude : « Cela nous a permis d’abaisser la tension conduisant à une augmentation spectaculaire de l’efficacité. »

Nocera et ses collègues ont également été en mesure d’élargir la gamme de produits q’un tel système est capable de synthétiser pour y inclure l’isobutanol (un solvant) et l’isopentane (utilisé dans des boucle fermée pour actionner des turbines), ainsi que le PHB (un précurseur de bioplastiques). La conception chimique du nouveau catalyseur permet également une certaine « auto-régénération, » ce qui signifie que l’électrode ne sera pas lessivée au fur et à mesure de son activité.

 

Afficher l'image d'origineA moitié scientifique et à moitié homme d’affaire, Craig Venter qui n’a pas très bon goût concernant les couvertures de ses livres essaie de mettre la main sur les données de plusieurs centaines de milliers à plusieurs millions de génomes (séquences totales ou profils génétiques).  Mais que l’on se rassure c’est pour le bien de l’humanité ou au moins de la transhumanité !

Depuis 2005, les technologies de séquençage n’ont cessé d’être plus rapides et moins chères. En 2014, plus de 225.000 génomes humains étaient déjà séquencés grâce à plusieurs initiatives dont le fameux « 100 000 Genomes Project » britannique lancé en 2013. Début 2014 Illumina lançait une campagne de publicité mettant en scène le HiSeqX Ten, le premier séquenceur permettant d’atteindre la promesse d’un coût de séquençage humain à 1000 $. Cette année AstraZeneca annonçait sa collaboration avec le Human Longevity Institute de Craig Venter permettant à ce dernier un accès aux génomes ou profils génomiques de 2 000 000 de personnes d’ici 2020. En utilisant la seule séquence d’ADN, Venter dit que son entreprise peut maintenant prédire la taille, le poids, la couleur des yeux et la couleur des cheveux d’une personne, et produire une image approximative de son visage. Une grande partie de ces « détails » est dissimulé dans les variations rares, dit Venter, dont le propre génome a été mis à disposition dans les bases de données publiques depuis plus d’une décennie. Soit dit en passant, même ce promoteur d’un certain transhumanisme regrette son geste : « Si je devais conseiller un jeune Craig Venter », je dirais, réfléchissez bien avant que vous veniez déverser votre génome sur Internet« …

Quelques questions centrales demeurent et l’une d’elle consiste à envisager que le génome d’une personne n’est pas du ressort de sa seule propriété… en effet, rendre disponible son génome revient à rendre disponible une partie des informations de ces enfants et des enfants de ceux-ci etc. Effectivement, les promoteurs de la génomique à large échelle envisagent de dépasser les problématique de l’héritabilité cachée (à ce sujet, lire l’excellent article de Bertrand Jordan dans M/S : Le déclin de l’empire des GWAS). Voici un extrait très pertinent qui explicite ce problème : « Les identifications réalisées dans le cadre des études GWAS sont certes scientifiquement valables et utiles pour la compréhension du mécanisme pathogène (donc porteuses d’espoirs thérapeutiques), mais, rendant compte de moins d’un dixième des héritabilités constatées, elles passent visiblement à côté d’un phénomène important… Comment résoudre ce paradoxe ? Il faut pour cela revenir sur ce qu’examinent réellement les GWAS. Elles se limitent aux Snip, faisant (pour le moment du moins) l’impasse sur les copy number variations (CNV), ces délétions, duplications ou inversions dont on a découvert récemment plusieurs centaines de milliers dans notre génome. Et même pour les Snip, elles ne donnent pas une image complète des variations génétiques entre individus. Par la force des choses, les 500 000 Snip représentés sur les puces d’Affymetrix ou d’Illumina (et qui ont préalablement été étudiés par le consortium HapMap) correspondent à des poymorphismes assez facilement repérables dans un échantillon de population : la règle adoptée a été de ne retenir que les Snip pour lesquels la fréquence de l’allèle mineur est au moins égale à 5 %. Cet usage était nécessaire pour limiter les difficultés dans le positionnement des Snip lors de l’établissement des cartes d’haplotypes ; mais il a pour conséquences que les GWAS n’examinent que les variants fréquents… Selon une hypothèse largement répandue, les maladies multigéniques fréquentes (diabète, hypertension, schizophrénie…) seraient dues à la conjonction de plusieurs allèles eux aussi fréquents : c’est la règle « common disease, common variant » souvent évoquée depuis une dizaine d’années. Les résultats de la centaine d’études d’association pangénomiques pratiquées à ce jour indiquent que cette hypothèse est très probablement fausse : les variants communs ne rendant compte que d’une faible partie de l’héritabilité, le reste est vraisemblablement dû à des variants rares (ponctuels ou non) dont ces études ne tiennent pas compte puisque les puces utilisées ne les voient pas. »

 Ainsi, pour franchir ce cap, une solution simple est envisagée : le changement de résolution avec pour credo le passage de profils génomiques (quelques millions de SNPs) à l’intégralité du génome… et après l’épigénome et en même temps le métagénome. Si ces sciences bâties sur une technologie en pleine révolution permettent l’accès à un patrimoine humain universel (l’information génomique quasi exhaustive), si ces sciences renouvellent sans cesse leurs promesses -il faut des fonds et donc convaincre les pouvoirs publics pour acheter la technologie américaine qui permet d’accomplir ces sciences- hypothéquer le patrimoine humain ou pire le privatiser pourrait être une erreur dramatique dont on a du mal à mesurer l’étendue des conséquences.

Tagged with:
 
Set your Twitter account name in your settings to use the TwitterBar Section.