Posts by:

A lire… pour se forger un avis… et puis l’oublier pour continuer comme avant :

Article initialement publié sur  https://tempsreel.nouvelobs.com/rue89/rue89-sciences/20160519.RUE2928/je-ne-publierai-plus-jamais-dans-une-revue-scientifique.html

Montage dononant Elsevier

« Je ne publierai plus jamais dans une revue scientifique »

Olivier Ertzscheid, enseignant-chercheur et blogueur renommé, explique pourquoi le système des revues scientifiques – depuis l’évaluation par les pairs jusqu’aux abonnements exorbitants – va à l’encontre du travail scientifique et de sa diffusion au plus grand nombre.

Enseignant-chercheur, je ne publie plus que vraiment très occasionnellement dans des revues scientifiques. Et ce pour plusieurs raisons.

Monde de dingue

D’abord le modèle économique de l’oligopole (voire du quasi monopole dans le cas des SHS), qui gère aujourd’hui la diffusion des connaissances au travers de revues, est celui d’une prédation atteignant des niveaux de cynisme (et de rente) de plus en plus hallucinants.

A tel point que de plus en plus d’universités préfèrent carrément renoncer à l’ensemble de leurs abonnements chez Springer ou Elsevier. La dernière en date est celle de Montréal.

Montage dénonçant Elsevier

Cette situation est hallucinante et ubuesque :

  • Hallucinante tant les tarifs d’Elsevier (ou de Springer) et les modalités d’accès proposées relèvent du grand banditisme et de l’extorsion de fonds.
  • Ubuesque car nous sommes dans une situation où des universités doivent renoncer, j’ai bien dit renoncer, à accéder à des revues scientifiques. Monde de dingue.

Un peu comme si des agriculteurs devaient renoncer à certaines graines et semences du fait des pratiques de certaines firmes agro-alimentaires. Monde de dingue au carré.

D’autant qu’on sait que dans ce choix extrêmement délicat effectué par l’université de Montréal, l’existence de Sci-Hub, (site « illégal » dont je vous reparlerai un peu plus tard dans ce billet), pourrait avoir largement pesé dans la balance.

Making of
Olivier Ertzscheid, enseignant chercheur en Sciences de l’information et de la communication a initialement publié cet engagement sur son excellent blog affordance.info. Il nous l’a adressé et nous le publions avec plaisir. Rue89

Parce que c’est ahurissant mais c’est ainsi, pour faire de la recherche scientifique aujourd’hui en France (et ailleurs dans le monde), il faut nécessairement passer par des bibliothèques clandestines (Shadows Libraries).

Ensuite les « éditeurs » desdites revues ont arrêté depuis bien longtemps de produire le travail éditorial qui justifiait le coût et l’intérêt desdites revues : ils se contentent le plus souvent d’apposer leur « marque », toutes les vérifications scientifiques (sur le fond) sont effectuées gratuitement par d’autres chercheurs, et les auteurs eux-mêmes se coltinent l’application de feuilles de style la plupart du temps imbitables.

Un système totalement biaisé

Alors bien sûr vous allez me dire que l’intérêt des publications scientifiques dans des revues c’est que des « pairs », d’autres universitaires, vérifient que l’on ne raconte pas de bêtises. Et moi je vais vous répondre en un mot comme en 100 : B-U-L-L-S-H-I-T. Total Bullshit. Hashtag Total Bullshit même.

Bien sûr que l’évaluation par les pairs c’est important. Sauf que même à l’époque où je publiais encore régulièrement dans des revues soumises à l’évaluation par les pairs, (et en l’occurrence « soumises » n’est pas un vain mot), ladite évaluation de mes pairs se résumait neuf fois sur dix à m’indiquer :

  • Que je n’avais pas, ou insuffisamment, cité les travaux de tel ou tel mandarin (ou de l’évaluateur lui-même…).
  • Que c’était très intéressant mais que le terme « jargon 1 » prenait insuffisamment en compte les travaux se rapportant au terme « Jargon 2 ». Jamais, je dis bien jamais aucun débat scientifique, aucune idée neuve, aucune confrontation d’idée, juste une relecture tiédasse.
  • Que ce serait mieux si je changeais cette virgule par un point-virgule.

Mais nonobstant, c’est vrai que la vraie évaluation par les pairs c’est important. Sauf que JAMAIS AUCUN CHERCHEUR NE S’AMUSERA A PUBLIER DES CONNERIES juste pour voir si ses pairs s’en rendront compte ou pas.

Parce que, d’abord, en général, les chercheurs sont plutôt des gens instruits, relativement compétents, et relativement soucieux de contribuer à l’avancée des connaissances.

Et aussi parce que SI TU PUBLIES UN ARTICLE AVEC DES CONNERIES SCIENTIFIQUES OU DES METHODOLOGIES FOIREUSES ben tu te fais immédiatement aligner et ta carrière est finie. Sauf bien sûr si c’est pour faire une blague ; -)

Des revues lues par personne

Alors soyons clair, nul n’est heureusement infaillible et, à moi aussi, il m’est arrivé de publier des articles sur mon blog de chercheur contenant sinon des conneries, en tout cas quelques inexactitudes ou imprécisions.

Lesquelles m’ont été immédiatement signalées de manière tout à fait constructive par les lecteurs dudit blog, qui sont loin d’être tous des scientifiques-chercheurs-universitaires.

Bref le syndrome Wikipédia. Oui il y a des erreurs dans Wikipédia, mais non il n’y en a pas plus que dans les encyclopédies classiques, et oui, à la différence des encyclopédies classiques, elles sont presque immédiatement signalées et corrigées.

Parce que ces putains de revues scientifiques ne sont lues par personne !

Ai-je besoin de développer ? Des milliards (oui oui) d’euros de budget par an versés à quelques grands groupes que je n’ose même plus qualifier « d’éditoriaux » et un lectorat proportionnellement équivalent à celui du bulletin paroissial de Mouilleron Le Captif (au demeurant charmante bourgade de Vendée avec un patronyme trop choupinou).

Ça n’est pas notre métier

Celle qui surclasse toutes les autres. La vraie raison c’est que notre putain de métier n’est pas d’écrire des articles scientifiques et de remplir des dossiers de demande de subvention qui nous seront refusés plus de trois fois sur quatre (chiffres officiels de l’AERES).

Notre putain de métier c’est d’enseigner, de produire des connaissances scientifiques permettant de mieux comprendre le monde dans lequel nous vivons ET DE PARTAGER CES PUTAINS DE CONNAISSANCES AVEC LES GENS. Pas JUSTE avec nos gentils étudiants ou JUSTE avec nos charmants collègues, AVEC LES GENS.

Notre putain de métier ce n’est pas d’attendre deux putains d’années que d’improbables pairs qui auraient par ailleurs bien mieux à faire – de la recherche ou des cours – aient bien constaté que nous n’écrivions pas n’importe quoi pour nous donner, au bout de deux ans, la permission de voir nos écrits diffusés avec un niveau de confidentialité qui rendrait jaloux les banques suisses et avec un coût d’accès qui … rendrait aussi jaloux les banques suisses.

Parce qu’il y’a ceux qui ont un pistolet chargé, et ceux qui creusent

Et que ceux qui creusent, on les connaît. A commencer par les présidents d’université auxquels j’avais déjà par le passé témoigné de toute mon admiration pour le côté visionnaire de leur immobilisme.

Sans oublier bien sûr tous mes charmants collègues qui, à force de « c’est trop compliqué », « j’ai pas le temps », et autres « c’est pas la priorité » ou « les éditeurs de revues ne veulent pas », ne déposent même pas la version auteur de leurs articles dans des archives ouvertes, et qui mettent donc une hallucinante énergie mortifère à creuser leur propre tombe (ça c’est leur problème) mais hélas, aussi et surtout, la tombe de la diffusion des connaissances et de l’accès aux savoirs.

Parce que tant qu’il y aura des couilles éditoriales en or, y’aura des lames d’Open Access en acier

Je vous avais déjà parlé d’Alexandra Elbakyan. S’il y avait un Panthéon des militants de l’accès aux connaissances scientifiques (et du courage scientifique du même coup), elle siègerait aux côtés d’Aaron Swartz.

Cette femme a créé le site Sci-Hub qui est tout simplement à l’heure actuelle la plus grosse bibliothèque scientifique clandestine du Web, plus de 50 millions d’articles scientifiques, et dont la controverse qu’il suscite ne va pas assez loin.

Bien sûr Elsevier lui colle un procès, bien sûr diverses manipulations plus ou moins légales tentent de faire disparaître ce site, qui heureusement, résiste et résiste encore. Pour s’y connecter actuellement, si l’adresse sci-hub.cc ne répond pas, tentez sci-hub.ac ou carrément l’IP 31.184.194.81 : -)

Open Access Guerilla Manifesto

Parce que ces requins du grand banditisme éditorial sont partout et qu’ils ont bien compris d’où venait le danger. A tel point que l’on apprenait il y a quelques jours qu’Elsevier ,(encore…), avait réussi à racheter une archive ouverte en sciences sociales (et pas l’une des moindres… SSRN). Carrément.

Alors figurez-vous que y’a pas que Martin Luther King qui fait des rêves. Moi aussi j’ai fait un rêve.

  • J’ai rêvé que les acteurs publics de la recherche publique (l’Etat, les universités, les présidents d’université, les enseignants-chercheurs, les bibliothèques universitaires) lisaient, adhéraient et appliquaient à la lettre le manifeste pour une guerilla de l’Open Access d’Aaron Swartz.
  • J’ai rêvé que plus un centime d’argent public ne soit versé à ces escrocs mais que la totalité dudit argent public soit consacré à développer, construire et soutenir des initiatives comme Sci-Hub ou toute autre forme d’archive ouverte ou de libre accès, que ces initiatives soient légales ou illégales.
  • J’ai rêvé que des gens qui disposent majoritairement d’un bac+8 soient capables de comprendre et d’entendre que le fruit de leur travail (de recherche), que leur rôle dans la société (faire avancer les connaissances et mettre ces connaissances à disposition du public), que tout cela était non seulement menacé, mais en train d’être entièrement détruit depuis déjà des dizaines d’années par un système devenu totalement dingue et atteignant un niveau de cynisme ahurissant et piloté par quelques grands groupes qui osent encore se dire « éditoriaux » quand la réalité de leurs pratiques les constitue en autant de mafias.
  • J’ai rêvé que des gens qui disposent d’un bac+8, d’un salaire confortable, et d’un temps de cerveau disponible non-entièrement dédié à Coca-Cola, soient capables d’entendre et de comprendre que pour des populations entières sur cette planète, que pour des millions de personnes souffrantes, malades, exploitées ou tout simplement… curieuses, la privatisation des connaissances était littéralement, je dis bien littéralement, mortifère.

Et comme depuis plus de 15 ans que je fais ce rêve, je me suis réveillé avec une putain de gueule de bois, à peine atténuée par la récente médaille d’or de l’innovation attribuée à Marin Dacos.

Bon et là vous vous dites : « ok il est énervé », « ok c’est réjouissant », mais « ok il exagère »

Parce que vous me connaissez hein. Pondéré. Pas sanguin pour deux sous. Raisonnable au-delà des attendus du devoir de réserve. La faconde de la grande muette à moi tout seul. Donc devinette.

Qui a écrit :

« Les éditeurs et les scientifiques insistent sur l’importance cruciale de l’évaluation par les pairs. Nous la dépeignons au public comme si c’était un processus quasi-sacré qui aide à faire de la science notre accès le plus objectif à la vérité. Mais nous savons que le système d’évaluation par les pairs est biaisé, injuste, non fiable, incomplet, facilement truqué, souvent insultant, souvent ignare, parfois bête, et souvent erroné. »

Un punk à chien ? Non, le rédacteur en chef de la revue « The Lancet ».

Qui a écrit :

« Nous avons peu de données quant à l’efficacité réelle du processus, mais nous avons la preuve de ses défauts. En plus d’être peu efficace pour la détection de défauts graves et presque inutile pour la détection des fraudes, il est lent, coûteux, distrait le chercheur de son laboratoire, est très subjectif, tient de la loterie, et peut facilement abuser. Vous soumettez une étude pour un journal. Elle entre dans un système qui est en fait une boîte noire, puis une réponse plus ou moins justifiée sort à l’autre extrémité. La boîte noire est comme la roulette, et les profits et pertes peuvent être grands. Pour un universitaire, une publication dans un journal important comme Nature ou Cell équivaut à toucher le jackpot. »

Un marxiste léniniste ? Non, Richard Smith du Journal of Royal Society of Medicine.

Qui a écrit : qu’il n’enverrait plus jamais d’articles à des revues comme « Nature, Science ou Cell dans la mesure où ces revues à comité de relecture faussent le processus scientifique, et constituent une tyrannie qui doit être brisée. »

Un agitateur anarcho-autonome ? Le prix nobel de médecine 2016.

Résultat en libre accès

Du coup, je me sens un peu moins seul, et pas uniquement du fait de ma schizophrénie. Donc non, je ne publierai plus jamais dans des « revues scientifiques », (et s’il m’arrive de le faire une ou deux fois à titre exceptionnel pour des gens que j’estime intellectuellement ou amicalement, la version intégrale – pas juste la version « auteur » – sera toujours disponible sur ce blog et dans une ou plusieurs archives ouvertes). Et s’il faut pour cela être dans « l’illégalité », j’y serai plutôt deux fois qu’une, et ce ne sera pas la première fois…

Illustration

Illustration – Hans/Pixabay/CC

Je ne publierai plus jamais dans des revues scientifiques qui ne me permettent pas de mettre simultanément en libre accès le résultat de ma recherche. Et j’espère sincèrement que nous serons de plus en plus nombreux à le faire.

Dix ans de perdus ?

Il y a à peine plus de dix ans, le 15 mars 2005 très précisément, un autre universitaire avait pris un tel engagement. Celui de « ne plus jamais publier dans des revues scientifiques qui ne me permette pas au minimum les libertés d’une licence Creative Commons Attribution NonCommercial. »

Ce type, c’était Lawrence Lessig. Sur son blog. Lawrence Lessig. Le même qui, lors de l’enterrement d’Aaron Swartz après son suicide, prononçait avec une immense peine ces quelques mots, le 12 Janvier 2013 :

« Mais quiconque affirme qu’il y a de l’argent à faire avec un stock d’articles scientifiques est soit un idiot, soit un menteur. »

Dix ans plus tard je vais m’autoriser à aller un peu plus loin : quiconque affirme aujourd’hui qu’en acceptant de publier dans des revues scientifiques sans systématiquement déposer son texte dans une archive ouverte et/ou avec une licence d’attribution non-commerciale, ignore, ou feint d’ignorer, sa part de responsabilité dans la situation catastrophique de privatisation de la connaissance que mettent en œuvre quelques grands groupes éditoriaux à l’échelle de la planète. Celui-là est à la fois un idiot, un menteur et surtout un irresponsable.

Alors je ne publierai plus jamais d’articles dans des revues scientifiques. Et je continuerai de m’opposer, de manière légale ou illégale, à toute forme de privatisation de la connaissance. Et vous ?

Tagged with:
 

Résultat de recherche d'images pour "qPCR design"

La qPCR est une méthode permettant de doser la quantité d’acides nucléiques ciblés introduits dans une réaction de PCR. Pour des raisons de rapidité, de sensibilité et de coût, souvent l’option de travailler avec un agent intercalant (sans sonde) est choisie. La bonne vieille qPCR SybGreen nécessitant le seul design d’une paire d’amorces…

Simple ? Pas nécessairement, car cette approche, certainement plus que la version qPCR Taqman nécessite un travail in silico et de validation/optimisation expérimentales comme passages obligés. C’est ce que montre la publication de Stephen Bustin et Jim Huggett dans Biomolecular Detection and Quantification. Cette publication incontournable pour les férus de qPCR SybrGreen est un beau travail pour lequel la publication vous est mise à disposition en cliquant ci-dessous. On attend ardemment une déclinaison Taqman, HRM, MolecularBeacon de ce type de revues permettant de formaliser des procédures visant à optimiser l’approche d’optimisation.

qPCR primer design revisited

 

La quantification par qPCR SybrGreen suppose une relation linéaire entre le logarithme de la quantité initiale introduite en PCR et la valeur Cq obtenue lors de l’amplification. Ceci permet de calculer l’efficacité d’amplification d’un test et de borner ses limites de détection et de quantification. Les caractéristiques d’un test qPCR (bien) optimisé sont les suivantes:

• Une excellentissime spécificité révélée par un pic unique lors de l’établissement de la courbe de fusion

• Une efficacité d’amplification élevée (95-105%)

• Une courbe étalon linéaire (R2 > 0,980)

• Une bonne répétabilité

• Peu ou prou de dimères d’amorces

Pour paraphraser la conclusion de l’article, afin de finir par convaincre de lire cet « essentiel » de la qPCR :

La conception, le design d’une PCR est souvent au cœur de tout projet de recherche visant à quantifier les acides nucléiques. Il doit être réalisé avec soin, mais peut être simplifié en suivant un flux de travail simple, comme décrit ci-dessus (cf. diagramme workflow design qPCR).

Cela signifie généralement une spécificité absolue, l’absence de structures en épingle à cheveux ou de potentielles dimérisations croisées. Une bonne conception des essais doit tenir compte de la structure de l’amplicon (paramètre souvent négligé) et veiller à ce que les cibles de l’amorce soient exempts de structure secondaire. Il existe de nombreuses opinions et lignes directrices; une recherche sur Internet pour les termes « qPCR Assay Design » renvoie 695.000 pages. Cependant, bon nombre de ceux-ci sont basés sur des mythes ou peuvent être appropriés pour la PCR mais nécessitent des modifications subtiles (ou moins subtiles) pour être utilisés pour développer une qPCR. Chaque « nouveau » dosage doit être correctement validé, la validation in silico servant de filtre initial pour éliminer des designs ne permettant pas d’aboutir à une bonne qPCR. L’optimisation et la validation empirique sont une partie essentielle, mais souvent négligée, de toute expérience qPCR. Cela s’applique aussi bien aux essais nouvellement conçus qu’aux essais obtenus en reprenant des amorces issues d’une publication, par exemple. Avec tant d’essais prêts à l’emploi, on peut se demander pourquoi quelqu’un voudrait se donner la peine de concevoir un autre essai. D’autant plus que l’on a l’impression que la conception de son propre test est beaucoup plus complexe et peu commode que de simplement l’acheter à un fournisseur commercial, qui en tout cas aura validé chacun de ses tests. Cette perception est erronée pour deux raisons:

1° il se peut que les amorces commerciales ou les conditions d’analyse n’aient pas été validées ou optimisées de façon expérimentale.

2° on ne peut pas présumer qu’un ensemble d’amorces produira les mêmes résultats dans des conditions expérimentales différentes puisque la performance du dosage peut varier selon les méthodes d’extraction utilisées pour purifier les acides nucléiques.

qPCR_workflow

Tagged with:
 

Ce billet très court, pour faire l’annonce (un peu tardive) du début d’un MOOC. Ce dernier s’annonce excellent, traitant du séquençage de génomes complets bactériens.

Université technique du Danemark (DTU)

Ce cours estival est proposé par l’excellente Université Technique du Danemark (DTU)

En voici le plan :Résultat de recherche d'images pour "whole genome sequencing coursera"

WEEK 1
Module 1
Welcome and introduction to typing of bacteria and use of Whole genome sequencing applied to surveillance of bacterial pathogens and antimicrobial resistance
3 vidéos

WEEK 2
Module 2
Introduction to Next Generation sequencing
3 vidéos

WEEK 3
Module 3
Whole genome sequencing tools- demonstration of analysis tools for species identification, MLST typing and finding resistance genes
3 vidéos

WEEK 4
Module 4
Whole genome sequencing tools- demonstration of analysis tools for Serotyping of Salmonella and Escherichia coli strains , and finding plasmid replicons
3 vidéos

WEEK 5
Module 5
Whole genome sequencing tools- demonstration of analysis tools for multiple analyzes, phylogenetic tree building and finding genetic markers from self-made databases and Summative Tutorial exercise
5 vidéos, 1 lecture
Noté: Tutorial final Quiz

 

Avec humour et sans complètement tomber dans la caricature extrême, cette infographie met en lumière le travail protéiforme des chercheurs & enseignants-chercheurs, ces hybrides qui naviguent entre laboratoires et amphithéâtres. Plombés par des tâches administratives… il faut dire qu’ils sont bien aidés par du personnel administratif parfois un peu mono-tâche (à café) soucieux de faire coller son volume horaire pratique à la théorie, les chercheurs et enseignants-chercheurs sont les rares personnes à devoir chercher leur propre budget pour répondre à l’injonction d’accroître le corpus de connaissances, en étant tour à tour : évalués, évaluateur, éditeur, vulgarisateur, secrétaire, encadrant de stagiaire de thésards, professeur, RH…

b3be0602-dfb0-47f2-8d09-095271b41214-original

 

Tout ceci m’a remis en mémoire, ce dessin de Charb issu des cahiers pédagogiques…

afd85a2e8c7d2c778ea10117ec2e2019-l

Tagged with:
 

Résultat de recherche d'images pour "pipeline"Pour avoir connu moult galères dans la quête d’un jeu de données (en l’occurrence issu de Ion Torrent) afin de tester des versions de pipelines analytiques ou pour optimiser les paramètres de ceux-ci, nous avons décidé de publier un jeu de données, les résultats en sortie de pipeline et les conclusions statistiques puis biologiques qui en découlent. Avant, dans et après la moulinette bio-informatique.

En espérant, que ceci puisse éviter des galères à d’autres…  :

Targeted metagenomic sequencing data of human gut microbiota associated with Blastocystis colonization

 

Concernant l’exploitation « biologique » de ce jeu de données, l’article publié dans Scientific Data est rattaché à celui-ci :

Colonization with the enteric protozoa Blastocystis is associated with increased diversity of human gut bacterial microbiota

 

Targeted metagenomic sequencing data of human gut microbiota associated with Blastocystis colonization

Voici une illustration, sous forme d’une caricature, de l’évolution des injonctions ressenties par les chercheurs académiques… la course à l’excellence et la quête du facteur d’impact comme ligne d’horizon.

d5538d80-e50a-42af-b6be-18e5076b75c4-original

Résultat de recherche d'images pour "metasub"Voici une initiative originale conciliant deux tendances du moment : étude d’un microbiote & le concept de smart city. Saugrenu ? Science tendance ? Projet formaté pour la vulgarisation, la valorisation médiatique ? Quoi qu’il en soit, ce projet nous est plutôt bien vendu, à grand renfort d’infographies, de photographies, de vidéos un peu inquiétantes de personnes en train de réaliser des prélèvements de surface dans le métro. Derrière la communication, l’idée du projet est séduisante : utiliser des données biologiques, en l’occurrence des profils de l’ADNr 16S ou des séquençages génomes entiers définissant un microbiote pour améliorer nos écosystèmes urbains. Il est vrai qu’à une époque où l’on conçoit du mobilier urbain volontairement inconfortable pour ne pas que le passant puisse faire autre chose que passer, il ne semble pas intuitif d’aller chasser le microbiote pour concevoir une ville moins idiote. Même si la ville est le terrain de tous les paradoxes, il est captivant d’observer que cet environnement quotidien, banal, renferme une part de mystère… mystère qui serait à l’origine des odeurs du métro ? quelles espèces bactériennes propres à New York, Paris ou Rome sont à découvrir… quelle ville a le microbiote le plus diversifié ? quelle est celle qui aura le privilège d’héberger le plus de bactéries résistantes aux antibiotiques, la plus propre ou la plus sale ?

Résultat de recherche d'images pour "metagenomic subway"

 

En juillet 2017, Stockholm accueillera la 3ème conférence annuelle « Metagenomics and Metadesign of Subways and Urban Biomes (MetaSUB)« , qui rassemblera des chercheurs dédiés à la cartographie du métagénome urbain de plus de 67 villes à travers le monde (dont Paris et Marseille). Ce projet ambitieux a débuté il y a deux ans, alors que le professeur Christopher Mason et son équipe ont réalisé la première étude sur la microflore de surface, dressant le microbiome de la ville de New York. Avec ces données moléculaires essentiellement basées sur le séquençage haut-débit 16S, le projet a étudié la façon dont ce «microbiome urbain» change avec des variables telles que la météo, la propreté, les matériaux de construction et même les niveaux socio-économiques du quartier. L’équipe a cherché à établir des profils de microbiotes dans le métro, à identifier les bio-menaces potentielles et à fournir des données complémentaires qui peut être utilisé par la ville pour créer une «ville intelligente», c’est-à-dire qui agrège des données hétérogènes pour améliorer son urbanisme.

Près de la moitié (48%) de l’ADN séquencé ne correspondait pas aux organismes connus, soulignant qu’un microbiota incognita entoure les usagers du métro. Le projet du métro de New York n’était que le début, ce qui a conduit à la création d’un consortium international de laboratoires pour établir une « cartographie » mondiale de microbiomes dans les systèmes de transport en commun notamment.  En cliquant sur la capture d’écran ci-dessous, on pourra se faire une idée de la communication « Metasubienne » qui n’a rien à envier à celle de Tara Oceans ou de MetaHit (qui sont toutes trois, d’excellentes communications autour d’un projet et d’un consortium).

MetaSUB

Voici en quelques mots les promesses annoncées dans l’article Geospatial Resolution of Human and Bacterial Diversity with City-Scale Metagenomics (Cell Syst, 2016) :

« La région métropolitaine de New York City (NYC) est un endroit idéal pour entreprendre une étude métagénomique à grande échelle car c’est la plus grande et la plus dense des États-Unis; 8,2 millions de personnes vivent sur une masse continentale de seulement 755 km2. En outre, le métro de New York est le plus grand système de transport en commun dans le monde (par le nombre de stations), qui s’étend sur plus de 406 km et utilisé par 1,7 milliard de personnes par an. Ce vaste écosystème urbain est une ressource précieuse qui nécessite un suivi pour le maintenir et le sécuriser contre les actes de bioterrorisme, les perturbations environnementales ou les épidémies. Ainsi, nous avons cherché à caractériser le métagénome de NYC en examinant le matériel génétique des microorganismes et d’autres ADN présents dans, autour et au-dessous de New York, en mettant l’accent sur les métros et les zones publiques très empruntés. Nous envisageons cela comme une première étape vers l’identification des menaces biologiques potentielles, la protection de la santé des New-Yorkais et la mise à disposition de données moléculaires qui pourront être utilisée par la ville pour créer une «ville intelligente», c’est-à-dire celle qui utilise des données de grande dimension pour améliorer l’urbanisme, la gestion de l’environnement bâti, des transports en commun et de la santé humaine. »

Résultat de recherche d'images pour "fermenteur"L’objet de ce petit article est de mettre en lumière cette industrie qui se porte plutôt pas mal en France. Après un petit retard à l’allumage, en atteste les craintes formulées dans des articles de 2008- 2009, « Bioproduction en France, toujours un train de retard« , il s’agit d’un secteur en relative expansion. Quand on parle de bioproduction, de quoi parle t’on ? La bioproduction peut être définie comme la production des produits de santé d’origine biologique et biotechnologique. En clair, à partir de briques du vivants on formule un produit à allégation santé (anticorps monoclonaux, les protéines recombinantes comme l’insuline  ou encore les vaccins sont des outils indispensables au traitement de nombreuses pathologies), en substance la bioproduction pourrait être comparer voire parfois opposée à la pharmacochimie.

La carte obtenue par le LEEM –  le syndicat du milieu pharmaceutique qui s’est substitué en 2002 au Syndicat national de l’industrie pharmaceutique (SNIP)- fait apparaître un regroupement de l’activité autour de quatre bassins principaux :
– la région Rhône-Alpes
– la vallée de la Seine
– l’Alsace
– le département du Nord

13_Bioproduction _ La France est-elle dans la course de la bioproduction _
L’état des lieux de 2014 du LEEM est plutôt évocateur :
– La demande en biomédicaments est passée de 5 à 15 % entre 2000 et 2012.
– La France dispose notamment de capacités de production significatives dans le domaine des vaccins, des produits dérivés du sang, des hormones et des produits pour le diagnostic.
13 000 personnes sont employées dans la bioproduction
Les formations françaises en biotechnologies sont reconnues au niveau international. Il en va de même pour le processus de reconversion des industries chimiques vers le vivant. Cette synergie de compétences est un atout.

15_Biotechnologies _ Les biotechnologies, clés du développement économique de l’industrie du médicament _

Outre ces éléments visant à saluer une filière qui a su prendre un bon élan, d’un point de vue plus pratique, ce post est aussi l’occasion de fournir une liste de ces entreprises qui recherchent des profils plutôt jeunes et plutôt bien formés. Cette liste est évidemment non exhaustive et tirée de l’excellent recensement de l’Industrie Pharma Magazine.

11_Biomédicaments _ Les nouveaux médicaments seront-ils tous issus du vivant _

 

 

Evry_therapie_genique

 

Voici un outil simplissime, rapide, en ligne, permettant de designer et de qualifier informatiquement des sgRNA, dans un contexte de KO réalisé par CRISPR/Cas9.

Vraiment pas mal !

Cliquez sur la capture d’écran ci-dessous et tentez votre design.

Synthego

 

Tagged with:
 

Résultat de recherche d'images pour "ORCID"Voici une infographie tirée du  Monde Science et Techno du 23/05/2017. Celle-ci a été permise grâce au numéro ORCID qui permet d’identifier, de façon non ambiguë tout chercheur contributeur d’une publication scientifique. Selon l’Open Researcher and Contributor ID, « ORCID est une organisation à but non lucratif qui a pour objectif d’aider à créer un monde dans lequel tous les intervenants dans les domaines de la recherche, de l’université et de l’innovation sont identifiés de manière unique et sont reliés à leurs contributions et à leurs affiliations, au-delà des limites des disciplines, des frontières et des époques. » Concernant les migrations de chercheurs, l’Union Européenne et les Etat-Unis restent attractifs. En France, un cinquième des chercheurs ayant obtenu leur diplôme sur le territoire, émigre, ce qui est plutôt beaucoup… une question peut se poser : est ce que la proportion de chercheurs quittant leur pays d’obtention de doctorat ne serait pas inversement proportionnelle à l’intérêt de ce pays pour sa propre recherche scientifique…?

Ce « marqueur » – le taux d’émigration des chercheurs diplômés du pays qu’ils quittent- peut, en même temps, être lié à une bonne santé d’un système éducatif et de formation.

En effet, plus les étudiants diplômés seront perçus comme bien formés plus ils auront de facilités à le quitter, attirés par des pays dont la recherche est plus dynamique (entendons par là des pays rémunérant mieux, offrant de meilleurs capacités d’accueil) que celui dans lequel ils ont obtenu leur diplôme. En définitive, cette proportion, ce marqueur peuvent en quelque sorte être liés à une distorsion entre deux capacités pour un pays : celui de former et celui de réaliser une recherche de haut niveau permettant de garder les chercheurs que ce même pays a formé.

infog

Set your Twitter account name in your settings to use the TwitterBar Section.