Archives pour la catégorie sciences de la vie

Les datations fossiles disponibles librement sur le web

cliquez sur l'image

cliquez sur l’image

Je marche sur les plates bandes de Dinoblog aujourd’hui : une équipe internationale a publié (accès fermé, c’est vil) une base de données gratuitement et publiquement disponible sur internet, qui contient des datations de référence entièrement basées sur des fossiles reconnus et expertisés :

http://fossilcalibrations.org/

Par exemple si je cherche Hominidae, le groupe des grands singes (ourang-outang, nous, chimpanzées, gorilles), je trouve date minimum 11,6 million d’années, date maximum 33,9 millions d’années. Ah bin c’est pas toujours super précis, mais comme ça on sait où on en est.

Ce qui est super c’est qu’on voit aussi à quels fossiles et à quelles publications scientifiques la date se rattache.

On peut comparer les résultats à ceux de TimeTree, un autre site qui lui propose des dates basées sur « l’horloge moléculaire », l’hypothèse que la divergence entre protéines ou séquences d’ADN permet de dater les divergences évolutives. J’aime moins, mais c’est plus complet parce que les fossiles faut avoir du bol et l’ADN y en a toujours. Pour Hominidae on obtient une date moyenne de 15,7 millions d’années, ce qui est cohérent avec les fossiles, avec différentes études qui s’étalent entre 8 et 22 millions d’années, pas si différent des fossiles finalement :

pongohomo

Cellules souches à l’acide : promesses thérapeutiques et leçons sur la méthode scientifique

Cliquez sur l'image

Cliquez sur l’image

[si vous lisez ce billet, voyez aussi les problèmes plus récents notés dans cet autre]

Nouvelle fracassante en biologie cette semaine ! Des chercheurs rapportent qu’ils peuvent transformer des cellules spécialisées de souris nouvelles-nées en cellules souches, simplement en les exposant à de l’acide.

Obokata et al. (2014) Stimulus-triggered fate conversion of somatic cells into pluripotency. Nature 505, 641–647
Obokata et al. (2014) Bidirectional developmental potential in reprogrammed cells with acquired pluripotency. Nature 505, 676–680
Smith (2014) Cell biology: Potency unchained. Nature 505, 622–623 (commentaire)
(articles tous d’accès payant, hélas hélas)

Une cellule souche, c’est une cellule qui a le potentiel de se développer en tout type de cellule spécialisée. C’est très important thérapeutiquement, parce qu’il y a le potentiel de renouveller des parties abimées de notre corps.

Dans un premier temps, on ne savait les obtenir qu’à partir d’embryons, ce qui posait des problèmes éthiques. Plus récemment, on a découvert le moyen de reprogrammer les cellules spécialisées en les traitant avec les facteurs de transcription typiques des cellules souches (Prix Nobel 2012). Késako ? Toutes nos cellules ont le même ADN. Si elles sont spécialisées, c’est qu’un certain ensemble de gènes s’exprime (est actif), alors que d’autres non. Ce qui fait une cellule souche, plutôt que de muscle ou de peau ou de nerf, c’est le choix des gènes exprimés ou non. Ce qui fait exprimer ou non chaque gène, c’est le contrôle par des protéines spécialisées dans la régulation des gènes, les facteurs de transcription. Donc si on met les bons facteurs de transcription, on peut diriger la cellule vers l’état que l’on veut. Mais c’est cher et difficile.

Dans la nouvelle étude, ils ont découvert qu’en stressant les cellules spécialisées, ils en conduisent à se dédifférencier en cellules souches. Or, stresser une cellule c’est facile : de la chaleur, de l’acide, pas assez de nutriments, plein de choses marchent. Ce qui marche le mieux ici, c’est un léger acide. Beaucoup plus simple que le dosage exact de plein de protéines spécifiques. Donc potentiellement applicable pour développer des cellules souches spécifiques à chaque patient qui en a besoin.

Voilà pour les promesses thérapeutiques. Et les lessons sur la méthode scientifique ? Tournons-nous vers le blog journalistique sur le site boston.com.

D’abord pour s’amuser, quelques citations qui illustrent l’ampleur de la découverte :

The result is “shocking,” “astounding,” “revolutionary,” and “weird,” said scientists not accustomed to using such exuberant words to describe new research findings

“It’s just a wonderful result; it’s almost like alchemy,” said Douglas Melton, co-director of the Harvard Stem Cell Institute.

Ensuite, noter dans ce billet de blog et les autres réactions sérieuses que j’ai lues ces derniers jours la phrase « If the finding is replicated by other scientists, it also promises to yield fresh insights ». Si le résultat est reproduit. Nous nous méfions toujours du syndrome de l’étude unique, contrairement aux militants pseudo-scientfiques toujours prêts à bondir sur une étude isolée qui montre que le climat ne change pas, les OGM c’est poison, les vaccins c’est poison, le sexe guérit le cancer (ou presque) et je ne sais quoi. Citation de Dr. George Q. Daley, director of the stem cell transplantation program at Boston Children’s Hospital

“It’s a startling result that makes you stand up and go, ‘Wow!’” Daley said. “With an equal dose of amazement and skepticism.”

Enfin, l’histoire de cette découverte est très intéressante. Le dernier auteur (en biologie, place du chef, celui qui a lancé et coordonné le travail), Charles Vacanti, a rapporté dès 2001 des cellules souches isolées en maltraitant mécaniquement des cellules spécialisées. A l’époque, il pensait juste isoler des cellules déjà présentes en petite quantité. Tel Galilé et Bozo le clown, on s’est moqué de lui. Alors il a laissé tomber un moment, puis repris avec un étudiant japonais (premier auteur des papiers, en biologie place de celui qui a fait le gros du travail). Ils ont commencé à tester l’idée que le stress était clé, en essayant différentes expériences.

Vous avez remarqué ? Vacanti, il a pas écrit un livre décriant l’establishment et donné plein d’iinterviews pour décrier la censure du complot en blouses blanches soutenues par le lobby Big Pharma. Non, il a réfléchi, reformulé son hypothèse, et avec un étudiant ils ont fait plein d’expériences supplémentaires. Ils ont d’abord réussi à faire des presque cellules souches, à durée de vie courte, puis des vraies cellules souches. Yaaaah !

Et alors truc incroyable, quand au lieu de crier au martyre vous faites les expériences et vous montrez que vous avez raison, y a pas des gorilles qui débarquent au labo pour tout casser, mais vous avez deux articles dans Nature et le gars qui a eu le Nobel avec la technique que vous rendez obsolète qui dit que c’est super excitant.

On vit quand même une époque formidable en biologie. C’est pas excitant ça ?

Les #OGM n’existent pas, et ça nous fait oublier l’essentiel

Cliquez sur l'image

Cliquez sur l’image

Bien sur que les OGM existent, stricto sensu. Mais au sens où le terme « OGM » est utilisé dans le discours public il ne veut rien dire. Les OGM sont le produit d’une technique. Toute phrase « Les OGM verbe complément » n’a de sens que si elle discute de la technique.

Phrases faisant sens :
Les OGM sont plus rapides à produire que les variétés par croisement.
Pour développer des OGM il faut des compétences en biologie moléculaires.
Mise à jour : voir commentaire intéressant de Wackes Seppi.
Phrases ne faisant pas sens :
« OGM = agriculture toxique« .
Les OGM sont des poisons.
Les OGM causent des alergies.
Mise à jour : Martin Clavey me signale un exemple intéressant de phrase contre-sens pro-OGM :
Les OGM pour enrayer la famine?
(on peut en faire vraiment beaucoup en fait des qui ne font pas sens.)

Deux nouvelles dans l’actualité relativement récente m’amènent à (re-)clarifier ce point.

Les pommes Arctic Apples (voir explication sur Passeur de sciences) sont modifiées pour qu’un gène présent dans les pommes (et les pommiers) ne s’exprime pas, c’est-à-dire ne soit pas actif. Si j’ai bien compris (ref dans un article, page Wikipedia, page de la companie) c’est l’ensemble des copies du gène PPO (y en a plusieurs) qui sont toujours là mais dont l’expression est bloquée.

Ce qui est important pour la discussion dans le contexte de ce billet, c’est que la plupart des points débattus sur les OGM « usual suspects » ne sont pas pertinents : il n’y a aucun matériel génétique étranger ajouté.

Autre information récente, la discussion sur le miel au Parlement Européen : les parlementaires ont considéré que du miel produit avec en partie du pollen issu de plantes OGM n’était pas différent de miel produit autrement. Et en effet, le fait d’être « OGM » n’est pas une qualité physique que se transmet à travers toutes les transformations biologiques, contrairement par exemple à la radioactivité ou à la présence de métaux lourds. Un OGM, c’est un organisme dont l’ADN a été modifié. Mais l’ADN est une très grosse molécule biologique présente en quantité faible ; la plupart des transformations biologiques, comme la mort et encore plus la digestion, vont la casser. Après digestion, on a des nucléotides, mais plus de l’ADN, pas plus qu’un tas de lettres n’est un roman de Tolstoï. Donc l’ADN modifié n’aura pas en soit d’influence sur le miel, produit d’une digestion et d’un « tri » des sucres par les abeilles (en gros le miel c’est des sucres). Il est possible par ailleurs qu’un OGM contienne des molécules actives pas présentes dans le non OGM, enquel cas ces molécules pourraient aller un petit peu dans le miel.

Mais on revient à ce qui est illustré par les Artic Apples : selon les OGM, on aura ou non ajout d’une substance. Autre exemple, plus connu, les plantes Round-Up Ready bien un gène de bactérie rajouté, mais il s’agit de l’homologue (voir ce billet) d’un gène que les plantes ont déjà. Rien ne change, sauf que cet homologue n’est pas inactivé par le glyphosate (le Round-Up). Ah et puis les plantes sont généralement traitées au glyphosate, mais d’autres plantes aussi, et sinon d’autres herbicides sont utilisés.

Pourquoi est-ce important ? Parce que la focalisation sur le terme « OGM » comme catégorie idéalisée à la Platon entraîne des blocages énormes, et une énorme dépense d’énergie qui finalement rate sa cible.

C’est avec ce genre de réification du concept OGM qu’on se retrouve avec des gens apparemment intelligents comme Nassim Taleb qui nous explique que les OGM c’est un risque systémique énorme. Mais il réussi à faire cela sans jamais se pencher sur la question de ce qu’est un OGM. Je suis moins fort en maths que Taleb, mais je n’arrive pas à voir la menace de déséquilibre pour la planète dans le fait qu’une pomme ne brunisse pas parce qu’elle a une enzyme sous-exprimée, ou qu’un riz a de la vitamine A dans ses graines (Golden Rice ; voir ce billet et celui-ci et celui-là). Le pire qui va arriver, c’est que ces plantes si elles quittent nos champs auront un désavantage sélectif et seront éliminées. Oui il faut faire attention (voir billet sur les limites de la science), mais non tout OGM n’est pas porteur d’un risque global cataclysmique.

Vous voulez militer contre le brevetage du vivant ? Faites-le, c’est très important ! Mais en se focalisant sur les OGM, vous laissez breveter des avancées médicales, des plantes hybrides, et des organismes mutants (mais par mutagenèse non dirigée alors c’est OK). Par contre vous bloquez la recherche publique sur de potentiels OGM non brevetés (potentiels parce que vu l’opposition aux OGM, les labos publics laissent tomber).

Vous voulez être informé sur les pesticides ? C’est très important aussi, oui ! Mais en se focalisant sur les OGM, vous ratez les discussions sur d’autres pesticides, autrement plus nocifs (notamment pour les abeilles d’ailleurs), et vous bloquez le développement de plantes résistant mieux aux pathogènes sans traitement (par exemple en augmentant leur système immunitaire – c’est faisable mais pas fait, encore à cause des oppositions). (A ce propos, je note avec intérêt la récente décision française d’interdire les pesticides aux jardiniers amateurs – à suivre.)

Vous êtes contre la monoculture ! Alors diversifiez vos achats, faites attention à la provenance de ce que vous achetez, et même proposez des lois récompensant les pluricultures moins rentables (ou le maintien de systèmes tels que le bocage). Mais en insistant sur les OGM, vous bloquez les développements de plantes pouvant pousser dans des conditions plus diverses, ce qui permettrait de mieux exploiter chaque milieu, tandis la monoculture, qui date de bien avant les OGM, se porte très bien, merci pour elle.

Moi je serais tout pour par exemple noter sur les fruits et légumes quels pesticides ont été utilisés (y compris dans le bio, grand utilisateur de sulfate de cuivre ou de Rotenone, lequel cause Parkison chez les rats ; voir cet article), lesquels sont issus de variétés brevetées, lesquels ont été récoltés dans une exploitation non monoculture, etc. Mais l’information selon laquelle une pomme a un gène silencé ou un riz fait de la vitamine A non seulement dans les feuilles mais aussi dans les graines, quel rapport ?

Finalement, après une discussion twitter avec Mike Eisen et Vincent Lynch, je me suis dit que si on veut vraiment (comme beaucoup de militants verts américains) étiqueter les OGM, faisons au moins la différence. Etiquetons les OGM avec substance ajoutée (par exemple le maïs Bt, voir ce billet), mais pas ceux sans (comme le Round Up Ready ou Artic Apple). C’est pas un beau compromis, ça ?

Et je vous en prie, arrêtons avec les phrases « Les OGM sont ou font ceci cela ». Merci !

Pour mille balles, t’as un génome humain

cliquez sur l'image

cliquez sur l’image

Announce fracassante cette semaine dans le monde du séquençage d’ADN : la société Illumina, leader du domaine, va commercialiser deux nouvelles machines : le NextSeq 500, qui vise le marché des « petits » clients, et le HiSeq X 10, qui vise au contraire les très gros centres. (Pour le contexte du séquençage ADN moderne, je vous recommande ce billet sur le blog BiopSci.)

Le NextSeq 500, c’est pour reprendre le marché de l’entrée de gamme apparemment, notamment par rapport à Ion Torrent. D’après un blog généralement bien informé le NextSeq tuerait Ion Torrent, mais à $250’000 contre $80’000 pour Ion Torrent ça ne me paraît pas si évident.

Mais le plus important dans cette annonce est le X10. Illumina promet avec cette machine de passer la barre symbolique des $1000 pour un génome humain. Mais il faut y mettre le prix du ticket d’entrée : il faut acheter minimum 10 machines, et pour que ça vaille le coup, il faut les faire tourner en permanence. Dans ces conditions, vous séquencez 18’000 génomes par an. Le prix inclut également le logiciel pour analyser les données, et donc ce que vous obtenez c’est les variations entre humains : ce qui dans notre ADN fait que chacun de nous est unique (pas encore clair pour moi si c’est seulement les mutations d’une base, ou aussi les gros changements). Ces variations peuvent être déjà connues ou nouvelles, cela peut être un génome sain ou tumoral. Par contre, grosse limitation, le logiciel limite l’usage à l’humain seulement. Ceci alors que la technique est clairement applicable telle quelle à n’importe quelle espèce, de l’ADN c’est de l’ADN.

Point intéressant, les $1000 comprennent l’amortissement de la machine et les personnels pour la faire fonctionner, donc c’est pour de vrai. Par contre les scientifiques ou médecins pour interpréter les résultats, c’est autre chose. D’ailleurs c’est là que le goulot d’étranglement risque d’être, et partout dans le monde on pousse à intégrer davantage la génomique et la bioinformatique au cursus des médecins.

Illumina annonce donc avoir ajouté un nouveau point au graphe de la décroissance du coût du séquençage, nettement plus rapide que la décroissance du coût informatique (loi de Moore) depuis quelques années déjà :

moore_illumina

Image prise dans la doc publicitaire d’Illumina, donc je ne garanti pas la véracité, surtout du dernier point (ajouté par eux)

A noter qu’avec cette annonce pas mal de collègues commencent à s’inquiéter de la situation de quasi-monopole, ou en tous cas de très forte dominance (style Google ou Facebook), d’Illumina sur le séquençage d’ADN. Ce n’est pas trivial, il s’agit de lire nos génomes, d’obtenir des informations sur les mutations médicalement pertinentes ou la biodiversité. Un point qui me dérange depuis l’arrivée des nouvelles technologies de séquençage c’est qu’elles sont toutes basées sur des protocoles propriétaires auxquels on est obligés de faire confiance. Dans l’autre sens, quand un système comme Illumina domine suffisamment longtemps (c’est aussi le cas d’Affymétrix dans un autre domaine de biologie), les alternatives logicielles et statistiques ouvertes et potentiellement concurentes voient le jour et sont testés et améliorées (voir billet sur les méthodes bioinformatiques en génomique).

Alors à quoi vont servir ces machines ? Des petits pays ont déjà annoncé leur ambition de séquencer les génomes de toute la population, comme les îles Faroe, et la Grande Bretagne et l’Arabie saoudite veulent séquencer 100’000 patients chacun. On se rapproche du séquençage du génome de chaque nouveau-né à la naissance. Bien sur, ça n’est pas parce qu’on peut le faire qu’on doit le faire (voir billet sur les limites de la science). Mais clairement, on le peut. Il est temps d’ouvrir sérieusement la discussion pour savoir si on doit le faire.

En tous cas, GATTACA GATACA approche à grands pas, que nous soyons prêts ou non.

Signer une pétition contre le chalutage en eau profonde : que dit la litérature scientifique ?

cliquez, c'est un peu long mais ça vaut le coup (puis elle a besoin de moi pour avoir du traffic je pense).

cliquez, c’est un peu long mais ça vaut le coup (puis elle a besoin de moi pour avoir du traffic je pense).

Vous avez peut-être entendu parler de la BD de Pénélope Bagieu dénonçant le chalutage (un type de pêche) en eau profonde, et appelant à signer une pétition pour faire interdire cette pratique. La BD a été très lue et partagée, et par conséquent discutée dans les médias. Par exemple un billet de blog dans Le Monde de « vérification », ou un article de FranceTV Info avec le même objectif de mettre en balance les arguments de la BD et des pêcheurs.

Apprenant l’existence de la pétition, j’ai d’abord vérifié informellement auprès de collègues connaissant mieux que moi ce sujet, et ayant reçu confirmation que le chalutage profond est considéré comme catastrophique, j’ai signé et diffusé sur Twitter. Maintenant vu le tour que prend le débat, et le manque dramatique de références scientifiques dans les articles « il a dit, elle a dit, va savoir » qu’on nous propose, j’ai décidé de prendre quelques minutes pour regarder l’état de la litérature scientifique (l’assoc Bloom qui propose la pétition a aussi une biblio anémique – sérieusement, vous ne pouvez pas faire mieux ?).

Rappel : trouver de l’info scientifique sérieuse sur le web, si on lit l’anglais, c’est facile.

Donc prenons le chemin de Google Scholar, après un petit tour sur Wikipedia pour trouver qu’en anglais on dit « deep sea trawling ».

Notons tout-de-suite que toutes les références que j’ai trouvées (dans une recherche très rapide, je le précise – si des lecteurs veulent corriger avec de la bibliographie sérieuse ils sont les bienvenus) vont dans le sens de la BD et de la pétition. Quelques exemples :

L’article « Sustainability of deep-sea fisheries », Marine Policy 2012 (à propos de cet article, voir mises à jour en bas de page), n’est pas accessible librement malheureusement (pour lire tous mes ralâges à ce sujet, mot clé politique de publication, et d’abord celui-ci), mais je cite un gros morceau du résumé, qui est relativement clair :

The deep sea is by far the largest but least productive part of the oceans, although in very limited places fish biomass can be very high. Most deep-sea fishes have life histories giving them far less population resilience/productivity than shallow-water fishes, and could be fished sustainably only at very low catch rates if population resilience were the sole consideration. But like old-growth trees and great whales, their biomass makes them tempting targets while their low productivity creates strong economic incentive to liquidate their populations rather than exploiting them sustainably (Clark’s Law). Many deep-sea fisheries use bottom trawls, which often have high impacts on nontarget fishes (e.g., sharks) and invertebrates (e.g., corals), and can often proceed only because they receive massive government subsidies. The combination of very low target population productivity, nonselective fishing gear, economics that favor population liquidation and a very weak regulatory regime makes deep-sea fisheries unsustainable with very few exceptions. Rather, deep-sea fisheries more closely resemble mining operations that serially eliminate fishable populations and move on.

Bon ça dit en gros la même chose que la BD. Un autre article, de 2010, dans la même revue confirme que cette pêche n’est pas rentable sans subventions. Je précise que je ne connais pas cette revue.

Par contre je connais Proceedings of the Royal Society, très sérieux, et on y lit dans un article de 2009 de plus d’accès libre :

The depth-related declines in abundance are, however, consistent with the effects of deep-water fishing. Significant changes in abundance were detected only in fishes whose depth ranges fell at least partly within the fishing grounds, in both target and non-target species. This pattern of widespread declines in abundance can be best explained by high rates of mortality among the fishes that escape through the net, as well as those that are brought to the surface and subsequently discarded (Basson et al. 2002). It is also possible that habitat modification by trawling has effects on a wide range of fish species by changing the availability of refugia and food (Collie et al. 1997).

Le reste de l’article dit que le chalutage profond affecte aussi significativement les espèces vivant encore plus profond, à cause des perturbations majeures que cela cause.

Un article un peu plus vieux (2004) dans un journal de Ecological Society of America (une société savante, pas une organisation militante) dit que : « Bottom trawling in particular has caused considerable destruction of these communities around the world. Due to their extreme longevity and slow growth, recovery is likely to be in the order of decades or even centuries. »

Il y a aussi un « point de vue » dans Nature, journal / magazine scientifique, qui défend l’interdiction du chalutage profond.

Donc il semble que passer 1/2 h sur le web scientifique confirme que le message essentiel de la BD et de la pétition est correct. Il est possible que des détails ne le soient pas, mais il me semble qu’un article comme celui du blog Big Browser du Monde soit plutôt dans une logique « Marchants de doute » (finalement, y aurait pas débat ?) que dans une logique d’atteindre une confiance suffisante dans les résultats scientifiques pour agir. Je note aussi un article bizarre dans le Nouvel Obs qui dit que le problème principal est la pêche illégale. C’est par une doctorante « sur la gouvernance internationale des pêches et plus particulièrement sur les problématiques liées à la pêche illicite, non déclarée et non réglementée », donc je comprend bien que ce sujet lui tienne à coeur, mais quel rapport ? Ca ne montre pas que le chalutage profond ne soit pas très dommageable à ce que je comprenne.

Finalement, je dois réagir au communiqué de l’assoc Bloom « La vérite d’Intermarché sur la pêche profonde et celle de Monsanto sur les OGM aussi ? ». Apparemment, sur le chalutage profond, comme sur le changement climatique, les écologistes ont la connaissance scientifique de leur côté. Essayez de garder cet avantage, je vous en prie, et évitez de tout mélanger et de brouiller votre message avec le déni de science concernant les OGM (voir notamment ce billet sur Séralini et celui-ci sur le Riz doré). Ca serait pas super, de baser ses décisions, toutes, sur des données correctes et vérifiables ? Allez, chiche.

(Edition pour préciser ma pensée : il ne faudrait pas que le débat soit « à qui faites vous confiance, une ONG ou une entreprise, les écolos ou les patrons ? », mais « quels sont les faits, que savons-nous, que pouvons-nous en conclure ? ».)

Puis, allez signer la pétition quand même.

——-

Mise à jour : l’association Bloom a maintenant une bibliographie scientifique sérieuse sur son site : 70 publications scientifiques (références seulement) ; 32 publications scientifiques (un sous-ensemble des précédents, avec résumés en anglais extraits des articles). C’est très bien, c’est même excellent. J’y retrouve les refs que j’ai trouvées indépendemment pour la plupart. J’ai aussi trouvé au moins une erreur : les refs 2 et 4 dans les 70 sont la même, qui est celle que je cite en premier dans ce billet.

Mise à jour 2 : la première auteure le premier auteur de cette fameuse publication Marine Policy 2012 (ref 2 et 4 des 70 de Bloom), Eliott Norse, est interviewé dans L’Express rubrique Chercheurs d’Actu (en plus ils me citent).

Mise à jour 3 : cet article Norse et al. est d’accès fermé, mais une recherche Google Scholar vous donne facilement des liens vers des versions téléchargeables. Après c’est entre vous et votre conscience hein.

Les méthodes bioinformatiques utilisées en génomique sont importantes #methodsmatter #BigScience

cliquez sur l'image

cliquez sur l’image

A l’occasion du projet ENCODE, j’ai déjà évoqué les avantages et inconvénients de la Big Science en biologie (billet ENCODE, billets sur critiques d’ENCODE 1 et 2, billet Big Science). Il y a en ce moment un débat très animé sur blogs et Twitter, concernant une question importante sur ces gros projets : les méthodes bioinformatiques utilisées.

Cela a commencé par ce billet de Lior Pachter, suivi de ce commentaire de Jeff Leek, et ce droit de réponse sur le blog de Lior. Si la question vous intéresse, je vous conseille fortement de lire non seulement les billets mais les commentaires. Il y a également une discussion Twitter intense, avec notamment les tweets de Lior, de Manolis Dermitzakis, et de Tuuli Lappalainen, et les hashtags #GTEx et #methodsmatter. La discussion comprend du beau monde en génomique et en bioinformatique. Quel est le débat ?

La discussion porte sur l’analyse de données de RNA-seq. Les gènes s’expriment (sont actifs) en étant transcrits en ARN. Plus un gène est actif, plus il y a d’ARN. Dans le RNA-seq, on séquence (on lit) des tas de petits morceaux d’ARN. On a davantage de morceaux lus pour les ARN correspondant aux gènes plus exprimés. Bon résumé de la méthode dans deux billets du site Bioinfo-fr : Analyse des données de séquençage à ARN et L’analyse de données RNA-seq: mode d’emploi. Ce deuxième fait aussi apparaître certains des soucis qu’on peut avoir.

Lior Pachter a remarqué que plusieurs gros projets, certains publiés comme ENCODE, d’autre encore en cours comme GTEx, utilisent une méthode bioinformatique de traitement du RNA-seq qui n’a jamais été publiée en tant que telle, donc n’est pas décrite formellement, n’a pas été évaluée, et n’a jamais été utilisée hors dédits consortiums (les auteurs de la méthode sont membres des consortiums Big Science en question). Il a essayé de comprendre la méthode (et Lior n’est pas un nul, il est notamment auteur de la méthode la plus utilisée, CuffLinks), sans grand succès, puis il l’a testée empiriquement sur les données de GTEx, parce que c’est ça qui l’intéressait. Et d’après ses tests, la méthode n’a que 10% du pouvoir statistique des méthodes plus habituellement utilisées dont il est l’auteur. Ce qui l’a conduit à écrire un billet de blog au titre provocateur « GTEx jette 90% de ses données ».

Dans la discussion qui s’en est suivie, il y a plusieurs éléments. L’un est une défense spécifique de GTEx. Manolis fait remarquer à juste titre qu’ils n’ont pas encore publié leurs résultats, donc qu’il est un peu tôt pour critiquer leurs choix méthodologiques, et note aussi que (1) ayant beaucoup beaucoup de données, ils ont du prendre en compte l’efficacité computationnelle des méthodes (à savoir que CuffLinks plantait leurs ordinateurs apparemment), et (2) ils avaient contacté la bande à Lior pour avoir de l’aide, sans succès.

Un élément plus important pour moi est le rôle en effet des méthodes bioinformatiques dans de tels projets. Cela implique plusieurs niveaux. Le projet Big Science est sensé fournir des resources (des données réutilisables) et des conclusions biologiques. Si on ne comprend pas les méthodes, si elles ne sont pas connues et reconnues par ailleurs, alors (1) cela limite la réutilisation, et (2) cela diminue notre confiance dans leurs résultats. Ainsi dans mon labo on essaye d’utiliser les données RNA-seq d’ENCODE, mais ils ont utilisé la même méthode dont discute Lior, et cela nous gène pour faire confiance dans les données prétraitées qu’ils nous fournissent, sans compter que des membres de l’équipe ont perdu pas mal de temps à essayer de comprendre quelque chose qui n’était juste pas bien expliqué. Et du coup, on a du mal à reproduire des résultats sur lesquels on aimerait construire.

A  noter que Lior avait aussi écrit une critique d’ENCODE, disponible sur ArXiv seulement.

Certains ont répondu à la discussion que peu importe, nous embêtent les bioinformaticiens, toutes les méthodes donnent les mêmes résultats. D’où le hashtag #methodsmatter de Lior, et sa réponse ironique « toutes les données me donnent les mêmes résultats » (vu d’avion, c’est presque vrai). Et là je suis complètement d’accord avec Lior. Bien sûr, pour trouver que la myosine est exprimée dans le muscle, peu importe la méthode. Mais pour associer des formes différences de l’ARN d’un même gène à des variations inter-individuelles dans l’ADN régulateur proche du gène, et autres subtilités qui sont l’essentiel du message biologique que l’on cherche avec ces très gros jeux de données, oui cent fois oui les méthodes comptent, et c’est limite irresponsable de suggérer autrement. Il faut rappeler que (1) les gros jeux de données coutent cher, donc on veut en tirer le signal maximum, d’où l’importance de méthodes statistiques puissantes, et (2) la définition d’un biais c’est une méthode qui converge avec une confiance croissante vers un résultat faux lorsqu’on a plus de données. Donc gros jeux de données = importance de faire attention aux biais.

Finalement un point important à retenir de cette discussion, comme celle qui a suivi la publication d’ENCODE, c’est que grâce aux blogs et à Twitter ces gros projets se font sous la supervision de plus en plus proche et réactive d’une communauté qui n’a pas peur de faire connaître ses critiques, et que ces mêmes plateformes permettent aux scientifiques des gros projets de répondre, créant un dialogue constructif. Et ça c’est une très bonne nouvelle pour le progrès de la recherche en biologie et en sciences en général.

Note de dernière minute : il vient de sortir une grosse évaluation des méthodes RNA-seq, que je n’ai pas encore lue (communiqué de presse avec liens vers papiers – accès fermés), mais qui semble trouver que CuffLinks (de Lior) marche bien.

Mise à jour : de manière suprenante, les papiers de l’équipe GTEx, ENCODE, et ces évaluation de méthodes RNA-seq sont affichés comme reliés par l’EBI (voir communiqué de presse ci-dessus), pourtant l’évaluation n’inclut pas la méthode Flux Capacitor utilisée par ENCODE et GTEx. Cela semble moyennement cohérent a priori, mais je continue à suivre la discussion. A noter aussi qu’à la lecture, CuffLinks ne semble pas forcément en effet la meilleure méthode.

Les Ranacaudas expliquent la spéciation et la sélection naturelle aux enfants

Ranacaudas

Ranacaudas

stupiddesign

Cliquez sur l’image pour une parodie de Intelligent Design

J’ai acheté cet été à mes enfants Petit à petit (Au pays des Ranacaudas), un livre qui explique l’évolution par sélection naturelle aux enfants. C’est la traduction française de Little Changes, un livre écrit par une biologiste évolutive, Tiffany Taylor, qui a reçu le soutien de la société européenne de biologie évolutive pour faire appel à un illustrateur.

Une fois passé les petits trucs de language énervants dans toute traduction, c’est excellent, et mon fils de 6 ans en a redemandé. Je vais en profiter pour expliquer quelques-uns des concepts qui sont traités dans le livre. Le livre raconte l’histoire des ranacaudas, des animaux imaginaires vaguement primatoïdes.

Premier point, rapidement traité : le temps profond de la biologie évolutive. « Il y a très longtemps, et même plus longtemps que cela ». Un concept que nous (biologistes évolutifs, géologues, astrophysiciens etc) manipulons tout le temps mais qui ne dit rien à la plupart des gens. Tiens une petite blague scientifique pour la route : Combien faut-il de biologistes évolutifs pour changer une ampoule électrique ? Un seul, mais ça lui prend 8 millions d’années.

Deuxième point, très important : la diversité au sein d’une espèce. « De loin elles semblaient toutes identiques, de près toutes étaient différentes. » Quelqu’un a dit que la génétique doit résoudre deux mystères : pourquoi tous les chats sont-ils différents ? Et pourquoi les petits des chats sont-ils toujours des chats ? C’est aussi une question posée à la biologie évolutive, et c’est le génie de Darwin que d’avoir compris le lien entre les deux questions (même s’il ne comprenait pas l’hérédité). De manière importante, les ranacaudas varient dans des traits qui seront importants dans l’histoire, comme la forme de la queue, mais aussi dans des traits pas importants, comme le visage. En effet, la variation naturelle affecte tout le génome, et quasiment tous les traits étudiables qui sont in fine codés dans ce génome (le « phénotype »). La variation n’est pas là pour permettre l’évolution ou la sélection naturelle, mais en première approximation parce qu’aucun mécanisme de copie ne peut être parfait, donc il y a des erreurs, qui génèrent la variation. Celle-ci est générée indépendamment de son rôle potentiel.

Ensuite on nous montre que parmi ces ranacaudas, certains préfèrent manger dans les arbres, d’autres dans l’eau. C’est un mécanisme de séparation de populations, par l’exploitation de resources différentes. Il est très débattu de savoir si une telle séparation peut mener à la spéciation, à savoir que les deux populations vivant ensemble mais ayant des différences de mode de vie deviendraient deux espèces séparée. Une telle spéciation serait dite sympatrique, et seuls quelques cas sont connus.

L’autre mode de spéciation, c’est l’allopatrie, quand les espèces sont géographiquement séparées. C’est probablement le mode principal de spéciation. Cela arrive aux ranacaudas quand une innondation sépare ceux qui mangent dans les arbres, et vivent maintenant en haut des collines loin de l’eau, de ceux qui mangent dans l’eau.

C’est alors que la sélection naturelle peut exprimer toute sa force ! Le livre explique bien que la sélection principale est de se reproduire et s’assurer que ses rejetons survivent (et non pas, comme on le représente souvent, de se battre avec des prédateurs à longueur de journée). On représente les ranacaudas devant apporter beaucoup de nouriture à leurs petits pour qu’ils survivent. Du coup, ceux qui arrivent à collecter davantage de nouriture ont davantage d’enfants qui survivent. Et il y a une explication de l’hérédité, à savoir que les enfants resemblent à leurs parents tout en étant un peu différents.

Alors ceux de la colline qui ont des variations permettant mieux de ceuillir les fruits des arbres ont davantage d’enfants, leur resemblant, et les traits facilitant la vie parmi les arbres deviennent plus fréquents dans cette population. En parallèle, les traits permettant de mieux se nourir dans l’eau deviennent plus fréquents dans l’autre population. Jusqu’à ce que au bout de beaucoup de générations tous les ranacaudas de la colline partagent les traits de ceuilleur dans les arbres, et tous ceux de la rivière partagent les traits de pêcheur. Attention, il reste de la variation et de la diversité. Mais il est maintenant facile de distinguer du premier coup d’oeil les deux types. Et quand ils se rencontrent à nouveau, ce sont deux espèces différentes !

Il y a un excellent dessin montrant des changements graduels parallèles d’un même type ancestral aux deux espèces de ranacaudas éventuelles.

La conclusion du livre invite les enfants à remarquer que de telles histoires peuvent expliquer bien de la variation entre espèces qu’ils peuvent voir par exemple au zoo. Comme souvent dans la vulgarisation de l’évolution, l’accent est mis sur la sélection naturelle : on invite les enfants à remarquer les adaptations type long cou de la girafe.

Au final, un livre qui couvre pas mal de concepts de manière simple et ludique. Je recommende recommande.

Notes sur ma semaine en sciences 7

cliquez sur l'image, juste parce que j'aime bien ce blog de StripSciences

cliquez sur l’image, juste parce que j’aime bien ce blog de StripSciences

  • On a fété à Lausanne cette semaine les 15 ans de l’Institut suisse de bioinformatique (SIB). Cet institut permet de fédérer les bioinformaticiens dans toutes les universités suisses, de maintenir des resources bioinformatiques de manière pérenne, notamment des bases de données, et d’assurer la formation continue à la bioinformatique. L’histoire du SIB est intéressante, puisque c’est parti d’une crise : SwissProt, la base de données de référence sur les protéines, n’était plus soutenue par le Fonds national suisse pour la science, parce que bin ça n’est pas de la recherche. L’annonce de la fermeture de Swissprot avait succité un tel tollé qu’une solution a été trouvée, et le SIB est né, avec un engagement vers la maintenance à long terme de resources utiles à tout le monde
  • D’ailleurs cette année c’est aussi les 20 ans d’ExPASy, qui a été la première page web de biologie au monde, et est maintenant le portail des resources bioinformatiques du SIB.
  • Un article intéressant en ce qui concerne les efforts jamais finis pour comprendre le génome humain, pertinent aussi à la tension qui existe entre génomique fonctionnelle (si je le détecte, c’est important ! d’ailleurs, cancer) et génomique évolutive (si ça n’est pas conservé, ça n’est pas important ! d’ailleurs, génome de l’onion). Les gènes eucaryotes (y compris animaux et plantes) sont en morceaux (exons) dans le génome, lesquels sont ensuite assemblés au niveau du transcrit (ARN) et traduits en protéines. Certains exons ne sont pas toujours utilisés, et la plupart des gènes ont ainsi de nombreux transcrits alternatifs. Depuis que la fréquence élevée de la transcription alternative a été découverte, il y a débat entre ceux qui pensent que c’est pour l’essentiel fonctionnel, ainsi un gène peut produire de nombreuses protéines, et ceux qui pensent que c’est pour l’essentiel des erreurs du système moléculaire (voir rôle du hasard). En faveur du second point de vue, les importantes différences entre espèces même proches, plutôt en faveur de mécanismes aléatoires. Dans ce papier récent (PNAS, libre d’accès) les auteurs ont comparé par bioinformatique les transcrits alternatifs de 6 espèces de primates (dont l’humain), et ont découvert que la plupart se comportent comme attendu au hasard, mais qu’une importante minorité de 1643 gènes a des exons utilisés de manière très spécifique dans certains organes de manière conservée entre primates, et a donc probablement une fonction spécifique. J’aime beaucoup quand on va au-delà du débat fonctionnel contre neutre, et que l’on quantifie la part de chacun. Bien sur, ce résultat est provisoire, étant basé sur des données limitées à 6 primates et 5 organes.
  • D’après le blog collectif anti-créationiste Panda’s Thumb, deux petites companies de chimie viennent d’être condamnées pour avoir montré qu’un plastique sans bisphénol-A, donc vendu comme une alternative saine et sans risques, présente en fait des risques similaires au BPA en ce qui concerne la disruption hormonale. Ceci est très très dangereux : il doit être possible de tester un produit qui est en vente et de rendre public ses résultats, même si et surtout si ils montrent un danger potentiel du produit.
  • Le Fonds national suisse pour la science vient de publier la version grand public et en français de son rapport sur les OGM: PDF à télécharger ; Pôle national de recherche ayant conduit au rapport.
  • Super billet de blog par Ewan Birney (coordonateur de la deuxième phase d’ENCODE, co-directeur de l’European bioinformatics institute) sur ce qui fait la dynamique de San Francisco et la Silicon Valley, et comment cela peut être reproduit ailleurs. Il insiste sur un facteur essentiel : d’excellentes universités de recherche ! Plusieurs !

Sujet science et société sur ENCODE pour nos étudiants

essay

cliquez sur l’image

Avec un collègue membre du consortium ENCODE, nous proposons le sujet suivant dans notre cours « science et société » (voir aussi ce billet):

En septembre 2012 s’est conclue la phase 2 du projet international ENCODE (ENCyclopedia Of Dna Elements), qui vise à construire une liste exhaustive des éléments fonctionnels du génome humain, y compris les gènes et les éléments régulateurs. Cette conclusion s’est concrétisée par la mise à disposition de 15 Tb de données génomiques, et 30 articles publiés simultanément dans 3 journaux scientifiques. A l’occasion de ces publications, des commentaires virulents portaient sur l’assertion selon laquelle 80% du génome humain serait fonctionnel. Les auteurs des articles du consortium ENCODE se sont vu reproché d’avoir utilisé une définition abusive de la fonctionnalité.

Dans ce travail, vous discuterez de la pertinence et du rôle des projets de la « Big Science », de la manière dont les chercheurs impliqués dans ces projets devraient communiquer leurs résultats aux autres scientifiques et au public, et de ce que les scientifiques ne faisant pas de la Big Science peuvent ou doivent en attendre.

références :
http://encodeproject.org/
http://www.nature.com/encode/threads
http://genomeinformatician.blogspot.co.uk/2012/09/encode-my-own-thoughts.html
http://gbe.oxfordjournals.org/content/5/3/578
http://dx.doi.org/10.1016/j.cub.2013.03.023

———

Les étudiants sont en 2ème année de biologie, par groupes de 10. Le cours est obligatoire, et ils doivent choisir un projet proposé par un enseignant de biologie ou de sciences humaines. Ca va des OGM à la vie synthétique, du racisme au créationisme.

Mes billet précédents sur ENCODE :

#ENCODE : La revanche du retour du fils du génome humain

Notre génome n’est pas fonctionnel à 80% et je reste poli, moi #ENCODE

Le génome aléatoire, un contrôle pour interpréter 15 To de données sur le génome humain

Redif : #Wikipedia est une excellente source d’informations scientifiques et médicales

On continue la rediffusion de vieux billets. Un autre de janvier 2012 (original sur blogspot) :

cliquez sur l’image (et n’oubliez pas de cliquer sur le point rouge)

Je commence ce billet par une constatation double : beaucoup de mes collègues et moi-même faisons un usage abondant et pertinent de Wikipedia dans notre vie professionnelle (vous croyez que je connais tous les gènes, tous les organes, toutes les bestioles ?) ; et d’autre part beaucoup de personnes à l’université continuent à décourager les étudiants d’utiliser Wikipedia, et à le traiter comme une sous-resource, pour paresseux. Je trouve ça choquant, et je le prouve.

Une étude récente (malheureusement d’accès payant paradoxalement) dans le journal Psychological Medecine a comparé l’information concernant des pathologies liées à la schizophrénie (5 pathologies) ou à la dépression (5 pathologies) entre différentes sources d’information : les sites internet arrivant en tête de recherches pour « depression » ou « schizophrenia » (14 sites au total), y compris Wikipedia mais aussi des sites plus officiels, comme celui du National Institute of Mental Health, ainsi que l’Encyclopedia Britanica en ligne, et un livre de psychiatrie utilisé en études de médecine.

En comparant ces différentes ressources, ils trouvent, et je cite :

The quality of information about depression and schizophrenia on Wikipedia was generally rated higher than other centrally controlled resources, including 14 mental health-related websites, Encyclopaedia Britannica and Kaplan & Sadock’s Comprehensive Textbook of Psychiatry.

En d’autres termes, et comme ils précisent plus loin, les articles de Wikipedia sur des sujets de santé contiennent peu d’erreurs factuelles, malgré un certain manque de couverture. Ils sont également bien référencés, mais paradoxalement peuvent être difficiles à comprendre. Ils sont généralement meilleurs en moyenne que les autres sources, y compris le livre spécialisé.

De manière intéressante aussi, bien qu’un avantage majeur de Wikipedia sur le livre est sa mise à jour fréquente et rapide, le livre fait mieux que la plupart des sites web officiels. Ces sites sont moins bons que le livre, mais pas plus à jour. Au moins, ils sont gratuits.

Ceci nous amène à un second point, qui est qu’il est difficile de maintenir de l’information scientifique ou médicale à jour de manière centralisée, avec des ressources forcément limitées.

Il y a un autre article récent sur ce sujet dans le numéro spécial annuel sur les bases de données en biologie (NAR Database, entièrement gratuit) : les auteurs discutent de l’intégration entre Wikipedia, ou d’autres approches participatives, avec des bases de données spécialisées de biologie. Ils partent de leur expérience positive avec les bases de données Pfam (domaines protéiques) et Rfam (ARNs fonctionnels) : les données structurées sont dans une base de données SQL dédiée, mais les annotations en texte qui décrivent la fonction des molécules passent par Wikipedia. Plus précisément, à un moment ils ont exporté toute leur information vers Wikipedia, et depuis ils récupèrent toutes les modifications qui sont faites dans les pages Wikipedia correspondantes, et les remettent dans Pfam et Rfam.

Par exemple, l’article sur mon domaine préféré, de liaison aux hormones des récepteurs nucléaires d’hormones : dans la page Pfam il y a de l’information textuelle, avec un bouton « Edit in Wikipedia ». On clique dessus, et on arrive sur la page Wikipedia correspondante, en mode édition directement qui plus est. Et là-dedans vous avez de jolies boîtes avec de l’information structurée venant de Pfam. C’est beau c’est grand c’est magnifique.

Ils ont des curateurs qui vérifient les infos venant de Wikipedia, et ils en acceptent 99%. Ils ont des milliers d’éditions par an, donc beaucoup d’informations pertinentes, à jour, et … gratuites. Et disponibles à tous !

Ils regardent aussi d’autres modèles d’intégration avec Wikipedia, et les limitations. Par exemple, Wikipedia a un critère d’intérêt général, qui fait qu’on peut avoir une entrée par gène humain, ou par domaine protéique (partagé par plein de protéines), mais pas une entrée par gène de poisson épinoche, ou par variant de gène humain. Une autre limitation est la règle « pas de travaux inédits« , qui interdit d’ajouter des infos que vous avez obtenu de vous-même, même par une méthode toute bête et simple. Or une base de données scientifique ne peut pas toujours accepter ces limitations. Et les wiki spécialisés ne marchent généralement pas aussi bien que Wikipedia, c’est peu de le dire.

Leur conclusion, et c’est là où je trouve que ces deux articles à priori bien distincts se rejoignent, est que nous ne pourrons maintenir à jour une information pertinente en biologie (et médecine donc) qu’en s’alliant à Wikipedia (et autres ressources des foules) de manière intelligente. Je suis bien d’accord, d’ailleurs j’utilise déjà Wikipedia. Il ne me reste plus qu’à devenir intelligent.