Currently viewing the category: "Médecine"

DNA-Vision est devenue en 2011, le prestataire européen en génomique avec la plus grande puissance de séquençage (quatre systèmes Solid, deux HiSeq2000, un GAIIx, tous deux d’Illumina, et deux 454-de chez Roche). La petite société issue de l’Université Libre de Bruxelles (ULB) et fondée en 2004 a bien grandi et est actuellement dirigée par Laurent Alexandre. Ce dernier est le créateur du site e-toubib, Doctissimo, aujourd’hui détenteur de 80 % de DNA-Vision, suite à la vente de son site internet à Lagardère qui a permis à l’ex-chirurgien de devenir riche… engrangeant plus de 139 millions d’euros suite à la transaction. Il faut dire que le docteur en médecine, chirurgien urologue, énarque et diplômé en sciences politiques a été à l’origine de plusieurs sociétés dans le domaine médical : Benefit, Medcost, Clinics et enfin le site préféré des hypocondriaques, Doctissimo. C’est avec pour idée principale d’appliquer le séquençage, en profitant de sa vertigineuse baisse de coûts, au champ de la médecine personnalisée que le médecin essayiste, auteur de « la mort de la mort » est devenu président de la société DNAvision. Même s’il est vrai que, l’encore assez nouveau président de DNAVision, préparant l’entrée en bourse de son entreprise, parle de médecine personnalisée, la société belge est connue pour sa maîtrise des technologies haut-débit et à titre d’exemple, pour son expertise du séquençage appliqué aux études métagénomiques (vous pouvez lire : Impact of diet in shaping gut microbiota revealed by a comparative study in children from Europe and rural Africa, PNAS, avril 2010).

Revenons au moins un instant sur le séquençage haut-débit appliqué à la médecine personnalisée, vu comme le fait de rendre accessible au soignant l’information génomique de son patient.

A une époque où le Dossier Médical Unique (DMP) a grand mal à devenir une évidence, à une période où l’accès universel aux soins est de plus en plus remis en question pour des raisons de disette financière, l’accès à une archive de plusieurs Gigaoctets de données par patient semble peu crédible à court terme. Ajoutés à cela les problèmes d’éthique, de confidentialité de données et de formation du personnel soignant à l’interprétation de ces données et vous comprendrez que le rêve d’un Laurent Alexandre aura du mal à toucher la médecine de masse mais pourra séduire les cliniques privées qui échappent à la problématique d’un accès universalisé aux soins.

On voit qu’à l’instar du tourisme spatial, la cible ne semble pas vraiment être le chômeur en fin de droit. La médecine pour pas grand monde… puisque si un séquençage coûte de moins en moins cher, l’interprétation des données générées et l’intégration de ces données dans un réel parcours médical est encore inaccessible aux 99 % des personnes les plus pauvres des 10 % des pays les plus riches.

Malgré tout, la médecine personnalisée dépasse cette vision de l’ADN. En effet, la médecine personnalisée comporte plusieurs approches :

– la détermination du risque (un génotypage haut-débit chez 23andme ou un séquençage chez un autre quidam pour vous dire que vous avez 2,03 % de chance de plus que la moyenne d’être atteinte de la maladie d’Alzheimer)

– la médecine stratifiée où seuls les patients répondant positivement à l’administration d’une solution curative, minimisant les effets secondaires de celle-ci, seront traités.

– la thérapie génique (un peu passée de mode) pour laquelle il existe trois types de thérapies :  la transfection permanente d’ADN, la transfection transitoire d’ADN, les thérapies portant sur l’ARN.

Si le séquençage multiparallélisé de l’ADN a tendance à se démocratiser au sein des laboratoires de recherche et de certains laboratoires en usant comme diagnostic, il semble qu’un pas de géant reste à franchir pour que celui-ci transforme complètement notre vision de la médecine. La médecine personnalisée n’est cependant pas à remettre en question… il s’agit juste de lui donner un horizon réaliste et réalisable, sans quoi cette notion sera à ranger, comme beaucoup d’autres avant, aux rayons des mots clés usés par la mode.

Noblegen Biosciences, start-up localisée dans le Massachusetts, ambitionne de commercialiser pour 2014 « optipore » (pour « optical detection » et « nanopore ») , un séquenceur de paillasse de troisième génération combinant nanotechnologies et un système de lecture optique permettant de réduire drastiquement les coûts de séquençage. L’objectif est de conquérir le marché des laboratoires cliniques dans la perspective de l’émergence d’une médecine personnalisée et de proposer ainsi un séquençage de génome humain complet à faible coût et dans un temps record. Dans cette course engagée, la société américaine se trouve en bonne position.

A l’instar du PGM Ion torrent, une puce en silicium constitue le coeur de la machine et renferme des centaines de nanopores. La molécule d’ADN unique native destinée à être séquencée est tout d’abord convertie en une nouvelle molécule synthétique transformant chaque base par une séquence nucléotidique spécifique correspondante.  A chacune des quatre signatures nucléotidiques correspond un « molecular beacon » complémentaire fluorescent initialement inactivé par un système de « quencher ».  Leurs hybridations au brin néoformé aboutit à un ADN double brin. la molécule est dirigé vers les nanopores par des échanges ioniques et en raison de la taille des orifices, les « molecular beacon » sont contraints à se deshybrider libérant cette fois une fluorescence, lue par un capteur photographique de type CMOS, qui est traduite en séquence.

L’ensemble des études et preuves de faisabilité sur lesquelles repose la technologie de séquençage « optipore » sont décrites et détaillées au travers de l’article libre d’accès ci dessous:A ce jour, peu de caractéristiques techniques liées à cette plateforme filtrent mais Frank Feist, cofondateur de la société, annonce une capacité de séquençage de 500 Gb/heure. De plus, en raison de l’étape de conversion initiale, la taille des fragments serait limitée à 200 bases.
Un soutien de 4,2 millions de dollars en septembre dernier de la part du National Human Genome Research Institute devrait permettre à la société américaine de conforter cette avancée prometteuse.

L’exome humain, l’ensemble des exons ou encore l’ensemble de ce qui, encodé sous forme d’ADN, peut être traduit en protéines représente environ 1,2% genome humain, 50 Mb et inclus 85 % des mutations référencées.

Emilie Lalonde et al., montre l’efficacité du séquençage d’exomes dans un article paru dans Human Mutation de 2010. La démonstration est faite au niveau de la découverte rapide des mutations associées au syndrome de Fowler, impliqué dans la prolifération anarchique des vaisseaux du cerveau qui empêche son développement. Etudiant les exons de deux patients sans lien de parenté cette équipe de Montréal a démontré l’efficacité de la capture d’exons (SureSelect, Agilent) suivi d’un séquençage haut-débit sur plateforme Illumina GAIIx (en moyenne pour les 2 expériences ont été générés 70 millions reads de 76 pb, environ 5 Gbases de séquences brutes).

Techniquement le séquençage d’exons est relativement simple : il implique une capture par hybridation spécifique (NimbleGen, SureSelect de Agilent sont les plus employés), une purification de ces exons ou parties d’exons capturés et le séquençage haut-débit de ceux-ci… L’article de Majewski et al., disponible ici (J. Med. Genet. 2011) cerne avec brio le formidable potentiel de ces nouvelles études, avec son « qu’est ce que le séquençage d’exons peut faire pour vous ? ». Il est assez aisé de comprendre que le séquençage des régions codantes est plus accessible au niveau budget et souvent suffisant pour répondre à beaucoup de questions de cliniciens travaillant à la recherche des causalités de maladies rares. Le schéma ci-dessous, tiré de Leslie G Biesecker, Nature Genetics 42, 13–14 (2010), synthétise la procédure permettant d’aboutir rapidement à la notion de « gènes candidats » (ou plutôt de mutations causales). Les mutations témoins sont accessibles sur les bases de données mondiales dbSNP ou bien encore par l’intermédiaire du projet 1000 Génomes… dont nous avons parlé dans de précédents articles.

 

L’article montre à quel point l’investigation visant à la découverte des causalités d’une maladie rare, par exemple, a été totalement bouleversée. Ces technologies couplant capture d’exons et séquençage des régions codantes capturées ont d’ores et déjà montré la preuve de leur efficacité. L’article nous rappelle que le génome humain réalisé en 2001 a coûté plus de 2,7 milliards USD, qu’en 2008 un séquençage humain complet coûtait 1,5 millions de USD et qu’aujourd’hui ce même séquençage approche les 10 000 USD…

Feuille de route pour l'utilisation du séquençage haut-débit appliqué à l'identification des variations génomiques à l'origine de maladies "génétiques"

Ainsi que le montre Majewski et al. par le schéma ci-dessus plus la maladie que l’on cherche à élucider (si l’on peut s’exprimer ainsi) est la résultante d’une mutation qui a un effet fort, moins la cohorte à séquencer sera importante. En d’autres termes, pour ce qui concerne les maladies multi-factorielles (Alzheimer par exemple), le nombre d’individus dont les exons sont à séquencer sont importants… pour ce type de problématique les GWAS (Genome Wide Association Studies) par l’intermédiaire de scan de régions polymorphes anonymes sur la base de supports tels que les puces Illumina (puces permettant de scanner jusqu’à 4,3 millions de SNPs humains) restent compétitives et d’une puissance comparable. Dans le cas des maladies complexes d’autres stratégies sont développées telles qu’un premier crible sur une grande quantité de cas/témoins sur la base de puce haute densité de SNPs et un focus-séquencing des régions génomiques montrant une association potentielle avec le phénotype étudié…

Le séquençage haut-débit devenant de plus en plus accessible financièrement et par les méthodologies (pipeline d’analyses) de plus en plus disponibles permet d’envisager de nouvelles approches dans la découverte de cibles thérapeutiques potentielles. Ceci étant, l’accessibilité à des quantités de génomes de plus en plus disponibles (sans réel contrôle des organismes d’état) n’est pas sans soulever des problèmes d’éthique profonds et quelque peu négligé dans le débat scientifique actuel.

Set your Twitter account name in your settings to use the TwitterBar Section.