Archives pour la catégorie Non classé

Types de sélection naturelle, avec emojis ????

Hé bin, ça fait un moment que je n’ai pas blogué ! J’ai été un peu débordé, et après c’est difficile de reprendre le rythme.

On va redémarrer en douceur avec une illustration rigolote de la sélection naturelle que j’ai vu cet été sur Twitter :

La sélection naturelle, c’est le fait que les individus ont plus ou moins de succès de survie + reproduction et qu’une partie des différences sont dues à des différences génétiques entre eux. Les variants génétiques favorables à davantage de survie + reproduction sont favorisés.

Les émojis ci-dessus illustrent une différence souvent mal comprise entre types de sélection naturelle. Dans le détail :

  • La sélection positive (attention piège : le terme est utilisé dans un sens différent en immunologie) favorise un nouveau variant (généralement un nouveau mutant), donc accélère l’évolution. Dans le cas présenté ci-dessus, une mutation apparaît qui donne des souris aux poils foncés ; c’est avantageux par rapport aux poils clairs (peut-être sont-ils nocturnes) et la mutation s’impose dans l’espèce.
  • La sélection négative (même piège en immuno que ci-dessus) favorise ce qui établi. La même mutation donnant des poils foncés apparaît mais cette fois il est avantageux d’être clair (des souris diurnes dans les dunes de sable). Donc la sélection négative ralentit l’évolution.

Si vous avez pensé « mais comment ça se fait que les souris ne sont pas déjà sombres si elles sont nocturnes ? », vous avez raison. La plupart du temps, les organismes ont déjà fixé les variations fortement avantageuses dans leur environnement, car elles y sont depuis assez longtemps. De plus, la plupart des mutations (parmi celles qui ont un effet) affectent des aspects qui dépendent peu des détails de l’environnement (par exemple reconnaître une hormone comme l’œstrogène commune à tous les animaux vertébrés). Donc : la sélection négative est nettement plus fréquente que la sélection positive. C’est intuitif : modifiez au hasard un truc compliqué qui marche, y a nettement plus de chances de l’abîmer que de l’améliorer.

  • La sélection balancée correspond au cas plus spécial où la sélection naturelle maintien plusieurs variants génétiques en même temps. Alors attention la sélection naturelle n’agit pas pour le bien de l’espèce. Soulignez deux fois en rouge. La sélection naturelle ne peut pas maintenir de la variation du système immunitaire (par exemple) parce que c’est bon pour l’espèce, contrairement à un sélectionneur artificiel s’il était malin. La sélection naturelle agit au niveau des individus. Malgré tout il y a plusieurs mécanismes qui peuvent quand même maintenir cette diversité. Les deux les mieux compris sont (1) l’avantage hétérozygote, quand il est mieux d’avoir deux versions du gène dans un individu (exemple : mieux d’avoir des versions différentes du MHC pour se défendre contre plus de pathogènes), et (2) la sélection dépendant de la fréquence, quand c’est mieux d’être sombre quand il y a beaucoup de clairs, mais mieux d’être clair quand il y a beaucoup de sombres (exemple : mieux de manger une proie que moins de vos congénères mangent).
  • La sélection artificielle c’est grosso-modo de la sélection positive, mais avec un sélectionneur qui sait ce qu’il veut obtenir, et peut sélectionner contre l’intérêt de l’individu. En général ça peut aller très vite.
  • Le dernier point est une blague parce que la sélection disruptive favorise les phénotypes extrêmes, ce qui est généralement représenté comme une courbe bimodale, rappelée par les deux bosses du chameau (cf ici).

En résumé : sélection positive = révolution, sélection négative = conservatisme, sélection balancée = bipartisme. 😉 (Et oui parfois les révolutionnaires deviennent conservateurs, en évolution comme ailleurs…)

Séquençage de virus en temps réel sur le terrain : ça arrive pour Ebola

Fin 2015 je vous ai embêté avec les promesses du séquençage de l’ADN partout tout le temps facile pas cher. Un billet ultra rapide pour dire que ça y est, ça arrive pour de vrai :

Quick et al (centaine de co-auteurs) 2016 Real-time, portable genome sequencing for Ebola surveillance Nature doi:10.1038/nature16996

Je cite, ça vaut le coup :

In April 2015 this system was transported in standard airline luggage to Guinea and used for real-time genomic surveillance of the ongoing epidemic. We present sequence data and analysis of 142 EBOV samples collected during the period March to October 2015. We were able to generate results less than 24 h after receiving an Ebola-positive sample, with the sequencing process taking as little as 15–60 min.

Voilà, on peut amener le séquenceur dans ses bagages, aller sur le terrain, et obtenir des séquences d’ADN permettant d’identifier les souches et les mutations dans les 24h, dont moins d’une heure de séquençage proprement dit.

en a, les bagages, en d, le labo. voilà.

en a, les bagages, en d, le labo. voilà.

Pas pour prêcher pour ma paroisse, mais la mise au point d’une bonne méthode bioinformatique a été clé pour que ça soit utile. Avec ça, ils peuvent par exemple tracer l’évolution du virus en temps presque réel :

nature16996-f3

Seule point à noter, dans ce cas leur protocole dépendait du fait qu’ils connaissaient déjà le virus, afin de l’amplifier in vitro. Si ce n’est pas le cas, ça sera possible aussi, mais plus compliqué, car il faudra séquencer de plus petites quantités d’ADN.

#Séralini et les #OGM : après la tragédie, la farce

Je ne comptais pas commenter sur le dernier Séralini, mais c’est devenu tellement ridicule que je ne résiste pas. Il a donc publié un « article » qui décrit la mortalité des vaches dans une ferme allemande particulière et l’attribue aux OGM sans aucun élément de preuve. Je ne vais pas dans le détail, pour une fois je vous renvoie à alerte-environnement.

Ce papier m’évoque la citation célèbre de Karl Marx :

Hegel fait remarquer quelque part que, dans l’histoire universelle, les grands faits et les grands personnages se produisent, pour ainsi dire, deux fois. Il a oublié d’ajouter : la première fois comme tragédie, la seconde comme farce.

Donc après la tragédie de 2012 (rappelez-vous, les rats torturés), voici la farce :

  • Le co-auteur de Séralini c’est le fermier qui a accusé le semencier d’être responsable de la mort de ses vaches à l’époque, et qui a été à l’époque débouté par la justice allemande.
  • Le journal est non seulement inconnu au bataillon, mais publié par un éditeur inconnu du Nigéria (il ne faut pas juger là-dessus, mais le Nigéria n’est pas connu pour sa recherche ni son édition), et contient une faute d’orthographe dans son titre : « Scholarly Journal of Agrucultural Science » (ça devrait être « agricultural »).
  • L’article commence par cette phrase incroyable « Thus it was not designed as a scientific experiment« . Ah bin pour une fois c’est clair. Ceci n’est pas une expérience scientifique. Ni une pipe. Ni rien.
  • Car cerise sur le gateau, le journal bidon a oublié de renouveller son domaine internet le lendemain de la conférence de presse annonçant le résultat. A pus article.

Article et résultat auquels personne ne semble porter attention, ce en quoi tout le monde a bien raison.

C’est triste un naufrage pareil quelque part.

Liens :

  • le site du journal, « This domain name expired » à l’heure où j’écris.
  • un cache webarchive, qui ne contient malheureusement pas le dernier numéro avec l’article en question.
  • une version PDF de l’article sur le site américain GMwatch. Il ne semble pas que Séralini maîtrise l’art de mettre ses publications sur son propre site web (en a-t-il un ? une recherche Google mène au CRIIGEN [oui il a un site pas à jour, voir commentaires]), ou dans un site d’archives gratuites comme biorxiv. (Remarquez l’usage du titre « professeur » jusque dans le nom du PDF ; je remarque souvent un amour des titres chez les tenants des pseudo-sciences.)
  • un commentaire amusé sur un blog scientifique anglophone.
  • la nouvelle de la disparition de l’article sur le site Retraction Watch.

Mise à jour du 2 février : le site est revenu en ligne, et un peu de contexte sur ce « journal » étrange sur le blog de Seppi.

Vent de folie dans les journaux scientifiques: 3- CRISPR/Cas édite l’histoire de la génomique

Allez, dernier billet dans la série (1- secte cladistes, 2- parasites de la recherche). A noter que le sujet cette fois a été couvert notemment par Le Monde (je profite de l’occasion pour saluer l’excellence du Monde sciences ces derniers temps – continuez !). Et je n’ai bêtement pas bien gardé tous les liens pertinents, donc il va manquer des trucs.

Or donc, CRISPR/Cas est la technique révolutionnaire qui permet d’éditer les génomes avec précision et puissance, facilement et pour pas cher. Et le 14 janvier, une somité de la génomique mondiale, Eric Lander, a publié :

The Heroes of CRISPR Cell 164: 18–28

Dans cet article, Eric Lander brosse l’histoire de la découverte de cette technique, en disant vouloir mettre en avant les personnes moins reconnues d’habitude. Mais, il y a quelques mais :

  • Mais parmi ces héros méconnus, que des chefs de labos, pas de doctorants ni de postdocs.
  • Mais parmi les héros très généralement connus, deux femmes, Emmanuelle Charpentier (française travaillant en Allemagne) et Jennifer Doudna (Berkeley, Californie), reçoivent nettement moins d’attention que les autres intervenants. C’est curieux, ces deux femmes sont généralement créditées de la découverte de CRISPR/Cas.
  • Mais par contre la troisième personne très connue pour CRISPR/Cas, Feng Zhang (Broad Institute, Massachusetts), a droit à un portrait étendu et flatteur.
  • Mais Eric Lander est directeur du Broad Institute, lequel est en procès avec Berkeley pour un brevet sur CRISPR/Cas, pour savoir qui de Doudna ou de Zhang a la priorité sur l’application aux cellules humaines.

Oups. Du coup, Twitter #LanderGate (depuis le Watergate, tous les scandales sont des truc-gate aux USA).

Commentaires acides de Doudna et Charpentier sur PubMed, la base de données de référence des articles en biologie et médecine (lien) disant que leur travail a été mal représenté et qu’elles n’ont pas été consultées. Plus surprenant, commentaires de George Church, qui travaille aussi au Broad avec Lander, et dit ne pas avoir été suffisamment consulté et qu’il y a de nombreuses erreurs (voir aussi ici). De nombreuses critiques notent que l’article ne signale pas le conflit d’intérêts de Lander, mais il s’avère qu’il l’a signalé au journal qui a décidé de ne pas l’afficher.

Grosse discussion sur le site PubPeer bien sûr, qui discute les articles scientifiques de manière anonyme.

Une analyse intéressante du point de la rédaction historique, qui montre bien comment Lander diminue les rôles de Doudna et Charpentier.

Deux réactions très fortes de chercheurs très connus en génomique (et tous deux connus pour leur peu d’empressement pour la diplomatie) : Michael Eisen écrit que Lander est un super-vilain fascinant, « an evil genius ». De manière intéressante, une de ses conclusions c’est qu’il ne devrait pas y avoir de brevet (à noter qu’il est à Berkeley comme Doudna), et je suis assez d’accord dans ce cas-ci. Un brevet ne fera que du tort, et n’a rien à voir dans ce cas avec l’objectif affiché d’encourager l’innovation. Eisen dit aussi (et en commentaire à Cell) qu’il est contre les prix qui mettent trop en avant un petit nombre de personnes, de manière toujours injuste. Lior Pachter insiste sur la manière dont Lander efface les postdocs et doctorants de l’histoire.

Tous deux, et de nombreux autres commentateurs, ironisent sur la carte accompagnant l’article, dans laquelle le monde se réduits aux USA et à l’Europe, et où le code couleur montre bien que la seule avancée déterminante a eu lieu à Boston, lieu du Broad Institute :

carte telle que publiée

carte telle que publiée

Exemple de tweet à ce propos :

 

Et lien rigolo tweeté suite à mon teaser plus tôt aujourd’hui :

Cet article a fait couler énormément d’encre électronique, et je n’ai pas le temps d’en faire le tour. Ceci clot donc pour le moment mon petit tour des délires des journaux scientifiques en ce début d’année 2016. 🙂

Titre piqué à cet excellent tweet d’Alexis Verger :

Vent de folie dans les journaux scientifiques: 2- halte aux parasites qui osent analyser les données

Après le dogme cladiste issu du fond des ages, un nouvel épisode de « maman j’ai raté le 21ème siècle », avec l’éditorial du New England Journal of Medicine du 21 janvier. Contrairement au journal Cladistics (voir billet précédent), NEJM est très connu et reconnu, l’un des plus prestigieux de la recherche en médecine :

Dan L. Longo, M.D.*, and Jeffrey M. Drazen, M.D.* Data sharing N Engl J Med 2016; 374:276-277
* M.D. = medical doctor, parce que pour les chercheurs en médecine les titres sont souvent importants ; no comment.

Que dit l’éditorial (j’ai mis une version rapidement annotée sur Dropbox ici) ? Après avoir dit quelques mots sur la beauté théorique du partage des données, ça se gâte :

The first concern is that someone not involved in the generation and collection of the data may not understand the choices made in defining the parameters.

Les éditorialistes s’inquiètent de ce que des chercheurs n’ayant pas participé à la collecte des données ne comprennent pas les subtilités de ces données, et donc les interprètent mal. Donc ils pensent que le rapport des méthodes dans les articles, et les informations fournies avec les données, ne suffisent pas à comprendre ce qui a été fait ? C’est très inquiétant. En science, on doit rapporter les choses de manière reproductible (voir débat à propos du code scientifique).

Ca devient pire :

A second concern held by some is that a new class of research person will emerge — people who had nothing to do with the design and execution of the study but use another group’s data for their own ends, possibly stealing from the research productivity planned by the data gatherers, or even use the data to try to disprove what the original investigators had posited.

Et d’une, il risque d’émerger une classe de gens qui volent la productivité des collecteurs de données (noble occupation on le comprend). Enchanté, moi je suis prof de bioinformatique depuis 2005, et je fais ça depuis le milieu des années 1990. Margaret Dayhoff a publié le premier atlas de séquences et structures de protéines en 1965 (pas trouvé de version en ligne), et Grantham et al (conflit d’intérêts : j’ai cosigné des articles avec deux des « et al ») ont découvert que différentes espèces utilisaient le code génétique universel de manière subtilement différente en analysant toutes les séquences d’ADN alors disponibles en 1980.

Et de deux, les éditorialistes ont peur que « même » de vils chercheurs utilisent les données des gentils collecteurs de données pour tenter d’invalider les hypothèses de départ. Mais c’est que ça oserait faire de la science ces vauriens ! (Bon, conflit d’intérêt, c’est ce que je fais moi, voir ici en anglais par exemple.)

On arrive à la phrase qui a le plus enflammé les réseaux sociaux des scientifiques :

There is concern among some front-line researchers that the system will be taken over by what some researchers have characterized as “research parasites.”

Ah on est des parasites ? Hop, hashtags Twitter #Iamaresearchparasite, #researchparasites et #researchparasite. Alors, là ça a réagi de partout : le storify.

Soyons justes, l’éditorial propose une solution : quand on veut analyser des données, on doit concevoir une hypothèse non évidente, contacter les auteurs de l’étude d’origine, et établir une fructueuse collaboration entre gens bien nés. Ca n’arrive en effet jamais de manière légitime que l’on veuille analyser les données de centaines d’expériences, que l’on veuille remettre en cause les analyses telles que publiées, ou que l’on veuille analyser des données publiées il y a des années par des personnes parties à la retraite ou ayant arrété de faire de la recherche. Et bien entendu ceux qui génèrent des données intéressantes ont le temps de prendre en compte et répondre de manière appropriée à toutes les demandes qui pourraient leur être faites (génome humain : plus de 18000 citations). Le bioinformaticien Claus Wilke donne sur son blog l’histoire intéressante d’un cas où il a du promettre de co-signer un papier pour avoir les données sur un soit-disant effet du jaune d’oeuf qui serait aussi mauvais pour la santé que le tabac. Ayant eu les données, il a refait l’analyse, trouvé que l’analyse de départ était faussée, et que l’hypothèse ne tenait pas. Les chercheurs en médecine concernés l’ont traité avec mépris, et il n’y a jamais eu de publication. Comme il avait signé de ne pas publier tout seul, ça en est resté là. Voilà le problème de la seule approche « collaborative » bien illustré.

Quelques autres réactions en vrac : Une traduction rigolote en anglais ordinaire. Un point de vue qui contraste cet éditorial avec les déclarations du vice-président américain sur le partage de données pour combattre le cancer. Puis un point de vue d’écologie (la science) discutant comme le partage des données peut en effet être difficile. Et une interprétation de cet éditorial comme le dernier des dinosaures mourants de l’ancienne façon de faire de la recherche bio-médicale.

Et puis c’est pas comme si ce journal avait un problème de reproducibilité des résultats, par exemple s’il avait un taux élevé d’articles rétractés :

corrélation entre facteur d'impact et taux de rétraction, avec flèche vers le journal que dont il est question ici

corrélation entre facteur d’impact et indice de rétraction, avec flèche vers le journal que dont il est question ici

Bon 4 jours plus tard ils ont publié un correctif (ce qui montre une fois de plus l’impact des médias sociaux sur la façon de fonctionner de la science, y compris ceux qui se croient à l’abri en haut de la tour d’ivoire). Ils disent qu’ils sont gentils, parce qu’ils ont signé des accords de diffusion des données. D’ailleurs même s’ils trouvent que c’est de mauvais goût, ils vont les respecter. Mais ils réitèrent que c’est légitime de considérer ceux qui analysent les données avec suspicion pour le moins. Et dans un article dans Forbes, l’auteur principal de l’éditorial a refusé de condamner le terme « parasites ». Comme dit sur le blog de Mick Watson, ce n’est pas encore des excuses, et c’est insuffisant.

Finalement le mieux qui soit sorti de tout ceci sont les dessins de RedPenBlackPen, qui dessine sur la science :

Vent de folie dans les journaux scientifiques: 1- la secte du Cladisme

Il y a eu récemment plusieurs éditoriaux ou billets d’opinion qui ont eu un certain, euh, écho sur les médias sociaux. Ils diffèrent par bien des points, mais ont en commun un certain aspect « what the fuck? » comme disent élégamment les américains.

Commençons par l’éditorial du journal Cladistics du 12 janvier (lien).  Je l’ai vu via ce tweet :

L’éditorial commence direct :

The epistemological paradigm of this journal is parsimony. There are strong philosophical arguments in support of parsimony versus other methods of phylogenetic inference (e.g. Farris, 1983).

Alors un peu de contexte. Il existe différentes méthodes pour reconstruire des arbres phylogénétiques, à savoir les relations évolutives entre espèces. Jusque dans les années 1960-70 la classification des espèces se faisait de manière très approximative, sans méthode formelle. Dans les années 1970 est apparu un mouvement appelé « cladistique », qui visait à réformer la classification des espèces en la rendant objective, suite à un livre de Willi Hennig (1966 pour l’édition anglaise). Les cladistes proposaient un critère de classification, les relations phylogénétiques. Et comme il n’existait pas de méthode objective pour reconstruire ces relations, et l’objectivité était leur objectif, ils ont aussi proposé une méthode formelle (programmable informatiquement même), dite de « parcimonie » (orthographe discutée ici 😉 ). Jusque là tout va bien. Mais dès la fin des années 1970 (1978 pour être précis) Joe Felsenstein a montré que dans certains cas identifiables la parcimonie pouvait se tromper de phylogénie de manière systématique. Ce sont ensuivies deux décénnies de débats entre d’un coté des bio-statisticiens (école dont je suis issu) qui cherchaient les limites des méthodes de phylogénie et les améliorations à y apporter, et de l’autre le groupe proclamant que seul l’usage de la parcimonie fait le vrai « cladiste », pour la plupart issues de musées d’histoire naturelle. Durant ma thèse cette dispute était encore vive, et je me rappelle de discours très agressifs de Guillaume Lecointre fustigeant les fausses phylogénies des statisticiens.

Depuis la plupart des phylogénéticiens sont passés du coté statistique de la force, notamment parce que l’amélioration conjointe des ordinateurs et du séquençage d’ADN fait que nous avons des données bien adaptées au traitement statistique. Et puis quand même une méthode dont on peut montrer qu’elle est juste a quelque chose de préférable à une méthode qu’on aime bien pour des raisons historiques (voir aussi débat dans ce billet).

Et donc l’éditorial de Cladistics, journal de la Hennig society, nous renvoie en arrière vers cette époque, et sans aucune nuance ni aucune leçon apprise. Il commence par dire que ce journal, c’est parcimonie et c’est tout. Il continue dans cette veine :

(…) we do not hold in special esteem any method solely because it is novel or purportedly sophisticated. Phylogenetic data sets submitted to this journal should be analysed using parsimony. If alternative methods are also used and there is no difference among the results, the author should defer to the principles of the Society and present the tree obtained by parsimony.

J’adore « because it is novel or purpotedly sophisticated ». Les éditeurs ne se laissent pas impressioner par une méthode juste parce qu’elle est nouvelle (plus récente que 1966) ou soit disant sophistiquée. Ca fait pas du tout vieux barbons.

Plus loin :

we do not consider the hypothetical problem of statistical inconsistency to constitute a philosophical argument for the rejection of parsimony

Les problèmes connus et documentés à répétition depuis 1978 ne les embêtent pas, puisqu’il ne s’agit pas d’un argument philosophique. Bin tiens. Une méthode d’estimation de phylogénie estime la mauvaise phylogénie, mais puisqu’elle est théologiquement philosophiquement pure, gardons-la.

Et une phrase qui a fait se gratter bien des têtes en biologie évolutive :

The absence of certain truth represents a philosophical limit of empirical science.

Euh… oui on ne sait pas toujours tout, mais est-ce une justification pour accepter des méthodes qui se plantent ?

Bref, cet édito a fait rire tout ce qu’internet a de biologistes évolutifs, avec un storify des tweets ici :

https://storify.com/phylogenomics/cladistics-journal-declares-long-live-parsimony

Il faut préciser que perso, faisant de la biologie évolutive, je n’ai plus rencontré ce genre d’attitudes depuis une vingtaine d’années, ce qui tend à indiquer que bien que des gens comme ça existent toujours, ils fréquentent peu les conférences habituelles de biologie évolutive. Je pense qu’ils vont entre eux à la conférence de la Hennig Society (voir à ce propos un compte-rendu rigolo de Dan Graur d’une de ces conférences ainsi que la discussion dans les commentaires).

Que penser de tout ceci ? Que le dogmatisme peut exister dans des sous-cultures de la communauté scientifique ; que ce dogmatisme est battu en brêche dans la communauté scientifique globale ; et qu’internet fait que ce genre d’attitudes s’attire le ridicule généralisé.

A bientôt pour une deuxième histoire d’éditorial étrange. Soyez sages.

ADN partout 3/3 : lire l’ADN est une technique très générale, aux applications infinies donc inconnues

dilbert_kit

Pourquoi est-ce que la démocratisation et la distribution ubiquitaire potentielle du séquençage d’ADN doivent vous concerner davantage que, disons, des microscopes de poche ou des chromatographes moins chers ? C’est parce que l’ADN est une molécule qui code de l’information. Les types d’informations codés et les usages que l’on peut en faire sont donc extrêmement divers. Ils sont illustrés mais certainement pas listés de manière exhaustive dans le billet précédent. L’ADN est le support de l’information, et c’est à cette information que le séquençage nous donnes accès. Quelque part, c’est aussi général que « savoir lire » : on peut tout lire.

Cette généralité du code donne à la démocratisation potentielle du séquençage d’ADN le potentiel d’applications révolutionaires ou triviales, mais doit en tous cas être compris pour bien être préparé à ce qui arrive. L’ADN contient l’information de la généalogie et du groupe ethnique, des maladies génétiques et des variations normales, des microbes que l’on porte et de ce que l’on a mangé.

Pour être clair : je ne suis pas contre le séquençage d’ADN, j’en fais moi-même  ;). Mais il me semble que nos sociétés avancent vers un avenir proche où le pouvoir de cette approche sera libéré, sans être prêtes du tout. Il y a ceux qui ont peur de tout, et ceux qui n’ont peur de rien. Comment faire pour avoir un débat pertinent et qui ne soit pas trop tard ?

ADN partout 2/3 : Séquençage d’ADN dans vos toilettes et à l’aéroport ?

une BD sympa même si le rapport est distant

une BD sympa même si le rapport est distant : cliquez et lisez

Il semble acquis que le séquençage d’ADN suit une trajectoire similaire à celle de l’informatique, mais en plus rapide (voir billet précédent). Lorsque le prix baisse à ce point, des applications qui étaient inimaginables peuvent devenir routinières. Pour l’informatique on voit ce que ça donne (y pas que les smartphones, quand le réparateur est venu j’ai appris que notre frigo a deux cartes mères…). Et pour le séquençage d’ADN, ça peut donner quoi ?

Un article récent propose justement des réponses à cette question, inspirons-nous en. Avec un grain de sel, l’auteur de l’article est très techno-optimiste, et serait probablement qualifié de scientisme par Cécile Michaut (voir ce billet / débat).

Yaniv Erlich 2015 A vision for ubiquitous sequencing. Genome Res. 2015. 25: 1411-1416 doi:10.1101/gr.191692.115

Yaniv distingue les « plateformes de séquençage » des « senseurs de séquençage ». Une plateforme de séquençage peut être une grosse machine statique, et doit être précise car lire de nouvelles séquences d’ADN inconnues. Un senseur de séquençage doit être petit et rapide, et doit plutôt reconnaître des séquences d’ADN connues.

T1.medium

Alors, quelles applications imagine Yaniv ?

Séquençage à la maison : des appareils domestiques sensibles à l’ADN
–> des toilettes intelligentes ! Bin oui, y a déjà un branchement à l’eau (pour les réactifs chimiques) et une collecte quotidienne de matériel biologique. Et en général il y a de la place en dessous, là où ça prend la poussière. Que peut-on voir dans ce « matériel biologique » ? La flore intestinale, indicateur de santé et plus généralement d’état physiologique. La nouriture (bin tiens), donc un suivi individuel de si on fait bien son régime, encore plus énervant que les sonneries de ceinture pas attachée en voiture et que les montres qui rappellent qu’on n’a pas assez marché. « Vous avez mangé beaucoup de sucreries aujourd’hui, or votre smartwatch me dit que vous avez à peine marché. » L’ADN de la personne, qui normalement ne change pas trop ; mais un cas où il change, ce sont les cancers. Le dépistage très précoce des cancers, ça ça peut être intéressant. On rigole, mais les toilettes sont une piste très sérieuse dans la mesure où il y a très peu de changements à faire à notre maison et à nos habitudes pour que ça marche.

Séquenceur grand public à acheter et utiliser où on veut : j’admets, même si ça devient possible, les applications ne me paraissent pas évidentes. Accessoirement, la régulation d’un séquenceur d’ADN généraliste (pas programmé spécifiquement pour reconnaître la flore intestinale par exemple) ne me paraît pas évidente du tout. Ceci dit, il y a eu beaucoup de réflexions sur ce que les gens accepteraient ou pas avant les smartphones, et quand l’iphone est sorti, on a vu : les gens acceptent tout si ça leur permet de partager des photos de chatons gratos.

Applications médicales et santé : C’est le gros morceau évident. Mais dans les détails, on peut penser à des applications pas si évidentes :
• séquençage rapide aux contrôles de sécurité des aéroports ; Yaniv pense surtout à la détection de maladies contagieuses, pour limiter les épidémies ; tout le monde à part lui se demande s’il fait confiance à la sécurité des aéroports avec son ADN.
• plus évident, le séquenceur portable pour médecins. Obtenir des résultats rapides et fiables sur le terrin, même en cas de crise humanitaire ; ou même à l’hôpital sans délai d’aller-retour à un labo d’analyses.
• et si on branche le séquenceur domestique sur le réseau de l’hôpital ? Des données sur le patient fiables, précises et en temps réel, notamment sur les maladies infectieuses.
• un peu similaire aux contrôles d’aéroport mais peut-être plus faisable (me semble-t-il), un suivi constant de points clés pour connaître la diffusion des maladies, telles que bouches d’aération, points d’épuration d’eau, les systèmes de circulation d’eau de batiments collectifs, etc.
• de même à l’hôpital, un séquenceur qui analyse de petits échantillons à intervalles courts et réguliers, pour un suivi en temps réel des patients.

Applications légales et de sécurité : Ah on rigole moins, là.
• séquençage rapide des « indices ADN » sur la scène même du crime ; admettons, encore qu’il faille avoir accès une base de données de suspects de manière sécurisée sur ledits lieux du crime, ce qui n’est pas évident. Mais ça pourrait je pense permettre d’innocenter rapidement quelqu’un, d’éviter une fausse piste.
• « identification positive de la cible » par les militaires ; permettez-moi d’avoir des doutes sur l’applicabilité pratique dans un contexte militaire de l’attente du résultats d’une analyse ADN.
• identification à la sécurité des aéroports : vous le sentiez venir quand ils mis des séquenceurs pour microbes, hein ? Ce qui est intéressant ceci dit c’est qu’on peut potentiellement identifier une personne sans l’avoir elle-même dans sa bases de données, grâce au partage d’information génétique au sein d’une famille (voir ce vieux billet à moi), par exemple pour retrouver de jeunes fugueurs.
Je me dois à ce point de citer une phrase de l’article (à propos d’identification de noms de familles depuis l’ADN) qui montre à la fois le potentiel des méthodes et (à mon avis) l’optimisme de Yaniv :

With careful implementation that is sensitive to genetic privacy and cultural issues (Kim and Katsanis 2013), such technology at checkpoints could play a role in fighting human trafficking

Oui ça peut marcher avec une mise en place très prudente qui fait très attention à tous les risques et sensibilités culturelles etc, mais ça peut aussi marcher sans. C’est même beaucoup plus facile sans les précautions. Alors, où va-t-on ?

Un point technique à noter sur tous les aspects d’identification d’individus c’est qu’à partir du moment où l’on sait quelle espèce on cherche (contrairement aux pathogènes) et où l’on connait bien la variabilité génétique présente dans l’espèce, bref dans le cas des humains, il y a besoin de peu séquencer pour avoir une identification fiable.

Industrie alimentaire: le séquençage d’ADN peut notamment servir au contrôle qualité :
• intégré dans la chaîne de production.
• spécifique pour des risques connus : champignons vénéneux, niveau de bactéries pathogènes dans la viande, traces d’allergènes, etc.
Par ailleurs, on peut imaginer un système de « code barre » pour authentifier des produits : une séquence d’ADN unique artificielle introduite dans des produits permettant de les reconnaître à coup sûr, pour les éviter ou s’assurer qu’on les a bien obtenus. Au cas où vous pensiez que ce soit difficile, ce type de technique de code barres ADN est utilisé en routine dans de nombreuses expériences de biologie moléculaire.
• codes barres ADN sur les aliments plus toilettes séquenceuses = aide au régime ! Killer app !

Bon c’est sympa tout ça, mais qu’en est-il de la faisabilité ? Parce que même si le prix du séquençage d’ADN baisse, il faut encore le faire. Or à l’heure actuelle il faut quand même préparer les échantillons d’ADN avant séquençage, et cette préparation est relativement longue (autant pour le séquençage en temps réel) et compliquée (autant pour le séquenceur à la maison). Mais : de nouvelles approches en développement promettent de diminuer les étapes de pré-traitement. Il n’est pas inimaginable qu’on puisse diminuer cela à un point où le séquençage ubituitaire devienne réellement praticable. Il faut quand même être conscient que le prix n’est pas la seule limitation. Les réactifs utilisés doivent être pour le moment stockés à différentes températures, souvent +4°C (frigo) ou -20°C (congélo), et se gardent mal. Yaniv propose deux pistes à cela : l’utilisation de réactifs lyophilisés que l’on réhydrate au dernier moment, peut-être même en cartouches toutes prêtes. Et des technologies solides plutôt que liquides, grâce aux nanotechnologies. Là aussi c’est moins science-fiction qu’on ne pourrait le penser, le séquenceur MinION ou la technique de la société BioNano, par exemple, reposent sur des nanopores et une part de nanotechnologie.

Un autre problème pratique est l’analyse des données : les séquences d’ADN sont inutiles sans analyse bioinformatique. On peut mettre le logiciel sur le séquenceur, mais il faut aussi connaître les séquences de référence auxquelles comparer, qui peuvent être très nombreuses (donc prendre beaucoup de place), et qui peuvent n’avoir d’intérêt que si elles sont à jour. On parle beaucoup de « cloud computing », d’envoyer les séquences chez un service via internet qui vous renvoie le résultat du calcul, mais avec les quantités de données que l’on a en séquençage d’ADN il faut prévoir de très bonnes bandes passantes, ce qui limite les applications du type médecine de brousse. Il y a aussi le problème que si le séquençage est rapide et que l’analyse prend 24h, on n’a pas vraiment la réponse de suite. Il faut donc travailler sur des méthodes bioinformatiques permettant une réponse « dès que possible », avec analyse des données en temps réel et rapport dès qu’on a la réponse cherchée (espèce de bactérie, individu recherché, etc). C’est faisable, mais ce sont des défis intéressants.

Il y a d’autres problèmes, statistiques. Par exemple, pour reconnaître un humain d’un groupe très étudié (les européens de l’ouest, au hasard), on aura davantage de résolution que pour une population africaine très peu étudié. Du coup, les chances de se tromper d’individu jusque parce qu’il a la bonne (ou la mauvaise) ethnicité se posera. Pour la microbiologie, reconnaître une espèce que l’on soupçonne être présente (E. coli dans la nourriture non traitée) est facile, reconnaître n’importe quelle espèce quand on ne sait pas ce que l’on cherche, et qu’on ne connait qu’une petite partie de toutes les espèces existantes, et nettement plus difficile.

Et bien sûr, il y a les implications « éthiques, légales et sociales ». On sent bien dans le papier que ce n’est pas ce qui intéresse Yaniv le plus, et peut-être a-t-il raison dans la mesure où son travail est d’explorer ce qui est techniquement possible, mais ça m’a quand même un peu mal à l’aise en lisant un papier par ailleurs très intéressant. D’autant que ces implications peuvent être le plus grand obstacle à la mise en place des solutions qu’il imagine.

D’abord, il existe dans de nombreux pays des lois interdisant ou complicant la collecte d’échantillons humains. Il faut noter qu’en fait nous laissons tous des échantillons partout derrière nous tout le temps, la question est donc leur usage délibéré. L’ADN humain est partout.

Yaniv suggère des messages d’avertissement aux utilisateurs, ou des mécanismes de suppression des séquences lues dès qu’elles ont été analysées, voire de suppression des séquences humaines avant analyse lorsque l’on cherche des séquences bactériennes (par exemple). Mouais, parce qu’on sait que tout le monde lit attentivement les messages d’avertissement des logiciels, apps, pages web, et smartphones que nous utilisons. Et nous faisons totalement confiance à Facebook, Ashley Madison, et demain Nesté ou la sécurité des aéroports, pour effacer les données compromettantes ou personnelles.

Un petit exemple de problème de vie privée pour finir : si des toilettes « intelligentes » peuvent lire l’ADN, elles peuvent savoir si quelqu’un d’extérieur à la famille est venu et a utilisé les toilettes, voire si cette personne vient régulièrement, par exemple quand l’un des partenaires d’un couple est absent…

Bref, tout est possible et rien n’est résolu.

ADN partout 1/3 : Le prix du séquençage baisse encore (plus)

cliquez sur l'image : Boulet au MIT (zombies inclus)

cliquez sur l’image : Boulet au MIT (zombies inclus)

Le prix du séquençage de l’ADN vient encore de se casser la gueule un peu plus, en décrochant du « plateau » de décroissance où il était depuis trois ans :

Sequencing graphs JAN_13

Sur le graphe ci-dessus, deux choses doivent être notées en plus du décrochement récent :

  1. L’échelle est logarithmique, c’est-à-dire qu’une ligne droite correspond à un changement exponentiel. Donc même la décroissance apparemment lente de 2012 à récemment est en fait une décroissance exponentielle simplement moins forte qu’avant.
  2. La droite blanche, c’est la « loi de Moore », la croissance exponentielle de la puissance de calcul des ordinateurs. La loi de Moore, c’est ce qui fait que votre téléphone est plus puissant que les ordinateurs disponibles à la NASA pour aller sur la Lune.

En corrolaire de ces deux points, remarquez que le séquençage d’ADN devient moins cher plus vite que la puissance des ordinateurs n’augmente depuis 2003, carrément plus vite depuis 2008. On peut remarquer que la différence entre les deux exponentielles est elle-même une exponentielle : tous les ans, pour le même prix, vous pouvez séquencer encore plus d’ADN par minute de calcul possible. Autrement dit, notre capacité à séquencer de l’ADN croit beaucoup beaucoup plus vite que notre puissance informatique.

Cela a plusieurs conséquences, que nous allons explorer en deux autres billets. Mais un point à noter d’entrée est que la croissance de la puissance informatique à prix constant a eu des conséquences qu’à-peu-près personne n’a prévu. Les smartphones ou le streaming des vidéos légalement ou pas sont essentiellement absents de la science fiction jusqu’à ce qu’ils apparaissent pour de vrai. Alors imaginer ce que va être le monde du séquençage d’ADN très bon marché est difficile. Une certitude : ce monde est déjà là :

Une autre figure, montrant les différentes techniques de séquençage commercialisées. Les points liés par des traits montrent des progrès d’une même machine.

developments_in_high_throughput_sequencing

Brève sur l’édition de génomes 2 : quelques faits rapides

cliquez sur l'image pour lire (et une critique de cette BD ici)

cliquez sur l’image pour lire (et une critique de cette BD ici)

Un deuxième billet rapide après « Tout se qui est possible sera-t-il fait ?« , basé sur un article dans Nature que je viens de voir qui fait un tour succint de la question :

Genome editing: 7 facts about a revolutionary technology. What everyone should know about cut-and-paste genetics. Nature News

1. Jusqu’ici, une seule étude de l’édition de génome humain dans des cellules germinales (permettant potentiellement de développer un embryon) a été publiée dans un article scientifique :

Liang et al 2015 CRISPR/Cas9-mediated gene editing in human tripronuclear zygotes Protein & Cell 6: 363-372

Dans cet article, les embryons n’étaient pas viables, mais on a envie de dire « pas encore ».

2. Les législations sur la question sont très différentes selon les pays. Notamment Nature dit qu’ils n’y a que « des réglèments inapplicables » en Chine, Japon, Irelande et Inde ; et que de nombreux scientifiques demandent une législation internationale. Sur laquelle j’ai personnellement des doutes, alors qu’il y a encore des pays qui ne reconnaissent pas le copyright (voir Convention de Berne).

3. Avec CRISPR/Cas9, il est facile de modifier des génomes, et les « biohackers » plus ou moins amateurs s’y intéressent (article dans Nature d’août). Contrairement aux techniques précédentes de génétique moléculaire, et c’est ce qui fait une partie de son potentiel révolutionaire, cette technique n’est pas réservée à quelques laboratoires très équipés avec du personnel très bien formé.

Mise à jour : vu dans cette excellente interview de Doudna et Charpentier (voir point 7), la companie Addgene vend des kits de CRISPR/Cas9.

4. D’autres enzymes que Cas9 sont en train d’être découvertes, ce qui va encore faciliter les choses (techniquement) ou les compliquer (pour réguler).

5. Les expériences les plus avancées ont lieu chez des cochons : super-musclés, mini, ou sur-édités. Pourquoi les cochons ? Notamment dans l’espoir de construire des donneurs d’organes animaux humain-compatibles. En attendant, ils pensent vendre les mini cochons comme animaux domestiques.

6. Les grosses multinationales et les millardaires s’y intéressent : la Gates Foundation, Google ou DuPont investissent dans CRISPR/Cas9.

7. Il y a une guerre de brevets entre Jennifer Doudna (University of California, Berkeley) et Emmanuelle Charpentier (Max Planck Institute) d’un coté, généralement créditées de l’invention du système, et Feng Zhang de MIT & Harvard de l’autre, qui a fait marcher le système dans des cellules humaines.

Et puis un 8ème point qui n’était pas encore connu quand l’article de Nature a été publié : la conférence sur l’édition de génomes a conclu que « Gene-editing technology should not be used to modify human embryos that are intended for use in establishing a pregnancy » (Nature news) : l’édition de génomes ne devrait pas être utilisée pour modifier des embryons humains prévus pour être utilisés pour une grossesse. Mais des cellules humaines chez une personne (thérapie génique), oui, et des embryons humains à fins non reproductives apparemment oui aussi.