Archives pour la catégorie politique de publication

Moi qui vous cause, je parle d’open access en vidéo

cc-by-ac-dc-men-s-t-shirtVendredi 11 novembre il y avait une conférence sur l’open access à l’Université de Genève, où l’on m’avait demandé de présenter « le point de vue du chercheur ». Après discussion avec les organisateurs, j’ai décidé de donner un point de vue assez subjectif, en insistant sur les méconceptions fréquentes sur l’open access, et sur les aspects pratiques et moraux pour les chercheurs.

Mon live-tweet de la conférence : hashtag #OAunige.

Ma présentation a été filmée, et la voilà :

En cliquant vous arriverez sur la page avec la vidéo, le embed fourni ne semble pas marcher

En cliquant vous arriverez sur la page avec la vidéo, le embed fourni ne semble pas marcher

Mes diapositives sur slideshare.

Si vous ne connaissez pas l’open access, j’ai écrit plusieurs fois dessus dans ce blog : mot clé politique de publication, et notamment ici une interview au magazine de mon université, et ici un article d’opinion dans Le Temps. En bref, open access c’est quand les articles écrits (gratuitement) par les chercheurs payés par les contribuables et donateurs sont disponibles gratuitement et réutilisables. Le contraire, « toll access » (expression que j’ai apprise pendant cette conférence et que j’ai bien aimé), c’est quand on donne l’entièreté des droits de vendre et contrôler notre labeur à des éditeurs, et qu’on doit payer des abonnements chers pour le lire.

(J’ai parfois écrit « libre accès », mais je vois que tous les francophones autour de moi utilisent « open access », dont acte.)

De nombreux malentendus sur l’open access semblent dus à ce que c’est un modèle relativement récent. Donc même si quelques journaux (comme Nucleic Acids Research) sont passé du toll access à l’open access, en général les journaux anciens sont en toll access, et les journaux en open access sont récents. D’où confusion avec d’autres caractéristiques corrélées à l’age des journaux : réputation, professionnalisme, etc. C’est un thème sur lequel je reviens plusieurs fois dans la conférence et dans la discussion suivante.

L’autre thème récurrent c’est que le choix de l’open access comprend des aspects pratiques, de coût, de visibilité, mais c’est aussi et surtout une question morale : tout le monde devrait avoir accès aux résultats de la recherche publique. Ce qui n’est pas sans lien avec mon billet d’hier sur les tribunes de chercheurs d’ailleurs.

 

Publier des tribunes de chercheurs sous abonnement payant : pourquoi ?

Petit échange Twitter récent :

Si vous cliquez sur les liens vous pouvez lire toute la discussion. Je suis généralement pour la publication libre d’accès (open access) de toute la litérature scientifique. Mais je trouve particulièrement choquants les cas de tribunes ou bilans de la recherche explicitement à destination du public ou des décideurs, ou les concernant directement, qui sont cachés par des abonnements payants parce que… que quoi en fait ? Les auteurs pensaient que ces publications avaient davantage de prestige, donc ils seraient davantage écoutés ? Ou peut-être (probablement dans mon expérience limitée) que les auteurs ne se sont pas posés la question.

Alors sans abonnement au Monde vous ne pouvez pas lire la tribune sur les perturbateurs endocriniens. D’après Martin Clavey, les auteurs pourraient la publier ailleurs, mais (1) ils ne semblent pas l’avoir fait encore (ou mon Google-fu me trahit), (2) la version largement visible est celle du Monde, et (3) mais pourquoi ne pas l’avoir publiée visible d’emblée ? Et dans bien des cas, cette option n’existe pas.

Mise à jour : la version anglaise est librement disponible (et le copyright n’est pas clair pour moi).

Est également sorti récemment un article faisant le bilan de ce que l’on sait sur les menaces sur les pollinisateurs et les conséquences s’en suivant. Très important, non accessible sans abonnement à Nature, et non copiable ailleurs car « © 2016 Macmillan Publishers Limited, part of Springer Nature. All rights reserved ». Eh oui, un aspect peu discuté du libre accès par rapport à la publication traditionnelle « toll access » est que le copyright en « open access » reste aux auteurs sous Creative Commons, alors que dans le modèle traditionnel il va aux éditeurs (qui n’ont pas écrit et ne payent pas les auteurs, eh non) qui bloquent tout et font comme ils ont envie.

Un autre exemple récent : deux articles très intéressants sur la perception par le public, les décideurs et la communauté scientifique du problème des espèces invasives, The Rise of Invasive Species Denialism et Invasion Biology: Specific Problems and Possible Solutions. Tous les deux fermés derrière abonnement chez Elsevier, « © 2016 Elsevier Ltd. All rights reserved ». 🙁

Alors si vous pensez que votre science est importante, rendez-la disponible ! Et ne signez pas de transferts de copyright !

Réactions sur Twitter, cliquez sur la date du tweet et déroulez le fil :

#Séralini et les #OGM : après la tragédie, la farce

Je ne comptais pas commenter sur le dernier Séralini, mais c’est devenu tellement ridicule que je ne résiste pas. Il a donc publié un « article » qui décrit la mortalité des vaches dans une ferme allemande particulière et l’attribue aux OGM sans aucun élément de preuve. Je ne vais pas dans le détail, pour une fois je vous renvoie à alerte-environnement.

Ce papier m’évoque la citation célèbre de Karl Marx :

Hegel fait remarquer quelque part que, dans l’histoire universelle, les grands faits et les grands personnages se produisent, pour ainsi dire, deux fois. Il a oublié d’ajouter : la première fois comme tragédie, la seconde comme farce.

Donc après la tragédie de 2012 (rappelez-vous, les rats torturés), voici la farce :

  • Le co-auteur de Séralini c’est le fermier qui a accusé le semencier d’être responsable de la mort de ses vaches à l’époque, et qui a été à l’époque débouté par la justice allemande.
  • Le journal est non seulement inconnu au bataillon, mais publié par un éditeur inconnu du Nigéria (il ne faut pas juger là-dessus, mais le Nigéria n’est pas connu pour sa recherche ni son édition), et contient une faute d’orthographe dans son titre : « Scholarly Journal of Agrucultural Science » (ça devrait être « agricultural »).
  • L’article commence par cette phrase incroyable « Thus it was not designed as a scientific experiment« . Ah bin pour une fois c’est clair. Ceci n’est pas une expérience scientifique. Ni une pipe. Ni rien.
  • Car cerise sur le gateau, le journal bidon a oublié de renouveller son domaine internet le lendemain de la conférence de presse annonçant le résultat. A pus article.

Article et résultat auquels personne ne semble porter attention, ce en quoi tout le monde a bien raison.

C’est triste un naufrage pareil quelque part.

Liens :

  • le site du journal, « This domain name expired » à l’heure où j’écris.
  • un cache webarchive, qui ne contient malheureusement pas le dernier numéro avec l’article en question.
  • une version PDF de l’article sur le site américain GMwatch. Il ne semble pas que Séralini maîtrise l’art de mettre ses publications sur son propre site web (en a-t-il un ? une recherche Google mène au CRIIGEN [oui il a un site pas à jour, voir commentaires]), ou dans un site d’archives gratuites comme biorxiv. (Remarquez l’usage du titre « professeur » jusque dans le nom du PDF ; je remarque souvent un amour des titres chez les tenants des pseudo-sciences.)
  • un commentaire amusé sur un blog scientifique anglophone.
  • la nouvelle de la disparition de l’article sur le site Retraction Watch.

Mise à jour du 2 février : le site est revenu en ligne, et un peu de contexte sur ce « journal » étrange sur le blog de Seppi.

Vent de folie dans les journaux scientifiques: 2- halte aux parasites qui osent analyser les données

Après le dogme cladiste issu du fond des ages, un nouvel épisode de « maman j’ai raté le 21ème siècle », avec l’éditorial du New England Journal of Medicine du 21 janvier. Contrairement au journal Cladistics (voir billet précédent), NEJM est très connu et reconnu, l’un des plus prestigieux de la recherche en médecine :

Dan L. Longo, M.D.*, and Jeffrey M. Drazen, M.D.* Data sharing N Engl J Med 2016; 374:276-277
* M.D. = medical doctor, parce que pour les chercheurs en médecine les titres sont souvent importants ; no comment.

Que dit l’éditorial (j’ai mis une version rapidement annotée sur Dropbox ici) ? Après avoir dit quelques mots sur la beauté théorique du partage des données, ça se gâte :

The first concern is that someone not involved in the generation and collection of the data may not understand the choices made in defining the parameters.

Les éditorialistes s’inquiètent de ce que des chercheurs n’ayant pas participé à la collecte des données ne comprennent pas les subtilités de ces données, et donc les interprètent mal. Donc ils pensent que le rapport des méthodes dans les articles, et les informations fournies avec les données, ne suffisent pas à comprendre ce qui a été fait ? C’est très inquiétant. En science, on doit rapporter les choses de manière reproductible (voir débat à propos du code scientifique).

Ca devient pire :

A second concern held by some is that a new class of research person will emerge — people who had nothing to do with the design and execution of the study but use another group’s data for their own ends, possibly stealing from the research productivity planned by the data gatherers, or even use the data to try to disprove what the original investigators had posited.

Et d’une, il risque d’émerger une classe de gens qui volent la productivité des collecteurs de données (noble occupation on le comprend). Enchanté, moi je suis prof de bioinformatique depuis 2005, et je fais ça depuis le milieu des années 1990. Margaret Dayhoff a publié le premier atlas de séquences et structures de protéines en 1965 (pas trouvé de version en ligne), et Grantham et al (conflit d’intérêts : j’ai cosigné des articles avec deux des « et al ») ont découvert que différentes espèces utilisaient le code génétique universel de manière subtilement différente en analysant toutes les séquences d’ADN alors disponibles en 1980.

Et de deux, les éditorialistes ont peur que « même » de vils chercheurs utilisent les données des gentils collecteurs de données pour tenter d’invalider les hypothèses de départ. Mais c’est que ça oserait faire de la science ces vauriens ! (Bon, conflit d’intérêt, c’est ce que je fais moi, voir ici en anglais par exemple.)

On arrive à la phrase qui a le plus enflammé les réseaux sociaux des scientifiques :

There is concern among some front-line researchers that the system will be taken over by what some researchers have characterized as “research parasites.”

Ah on est des parasites ? Hop, hashtags Twitter #Iamaresearchparasite, #researchparasites et #researchparasite. Alors, là ça a réagi de partout : le storify.

Soyons justes, l’éditorial propose une solution : quand on veut analyser des données, on doit concevoir une hypothèse non évidente, contacter les auteurs de l’étude d’origine, et établir une fructueuse collaboration entre gens bien nés. Ca n’arrive en effet jamais de manière légitime que l’on veuille analyser les données de centaines d’expériences, que l’on veuille remettre en cause les analyses telles que publiées, ou que l’on veuille analyser des données publiées il y a des années par des personnes parties à la retraite ou ayant arrété de faire de la recherche. Et bien entendu ceux qui génèrent des données intéressantes ont le temps de prendre en compte et répondre de manière appropriée à toutes les demandes qui pourraient leur être faites (génome humain : plus de 18000 citations). Le bioinformaticien Claus Wilke donne sur son blog l’histoire intéressante d’un cas où il a du promettre de co-signer un papier pour avoir les données sur un soit-disant effet du jaune d’oeuf qui serait aussi mauvais pour la santé que le tabac. Ayant eu les données, il a refait l’analyse, trouvé que l’analyse de départ était faussée, et que l’hypothèse ne tenait pas. Les chercheurs en médecine concernés l’ont traité avec mépris, et il n’y a jamais eu de publication. Comme il avait signé de ne pas publier tout seul, ça en est resté là. Voilà le problème de la seule approche « collaborative » bien illustré.

Quelques autres réactions en vrac : Une traduction rigolote en anglais ordinaire. Un point de vue qui contraste cet éditorial avec les déclarations du vice-président américain sur le partage de données pour combattre le cancer. Puis un point de vue d’écologie (la science) discutant comme le partage des données peut en effet être difficile. Et une interprétation de cet éditorial comme le dernier des dinosaures mourants de l’ancienne façon de faire de la recherche bio-médicale.

Et puis c’est pas comme si ce journal avait un problème de reproducibilité des résultats, par exemple s’il avait un taux élevé d’articles rétractés :

corrélation entre facteur d'impact et taux de rétraction, avec flèche vers le journal que dont il est question ici

corrélation entre facteur d’impact et indice de rétraction, avec flèche vers le journal que dont il est question ici

Bon 4 jours plus tard ils ont publié un correctif (ce qui montre une fois de plus l’impact des médias sociaux sur la façon de fonctionner de la science, y compris ceux qui se croient à l’abri en haut de la tour d’ivoire). Ils disent qu’ils sont gentils, parce qu’ils ont signé des accords de diffusion des données. D’ailleurs même s’ils trouvent que c’est de mauvais goût, ils vont les respecter. Mais ils réitèrent que c’est légitime de considérer ceux qui analysent les données avec suspicion pour le moins. Et dans un article dans Forbes, l’auteur principal de l’éditorial a refusé de condamner le terme « parasites ». Comme dit sur le blog de Mick Watson, ce n’est pas encore des excuses, et c’est insuffisant.

Finalement le mieux qui soit sorti de tout ceci sont les dessins de RedPenBlackPen, qui dessine sur la science :

La science est universelle, et un scientifique qui ne l’accepte pas voit son article rétracté

cliquez sur l'image

cliquez sur l’image

Gangolf Jobb est un chercheur à son propre compte (on pourrait aussi dire au chômage dans son cas) qui travaille sur la bioinformatique de l’évolution, et est notamment l’auteur d’un logiciel de manipulation d’arbres évolutifs, TreeFinder. Il est relativement connu dans la communauté de biologie évolutive pour ses messages étranges sur des listes e-mail, ou sur son site. Toutefois, récemment ses bizarreries ont passé un cap.

  • En février 2015, il a modifié la licence d’utilisation de son logiciel pour en interdire l’utilisation aux chercheurs dans les Etats-Unis d’Amérique.
  • En octobre 2015, il a à nouveau modifié la licence pour en interdire l’utilisation aux chercheurs dans les pays suivants : Allemagne, Autriche, France, Pays Bas, Belgique, Royaume Uni, Suède et Denmark.
  • En novembre 2015, l’article scientifique principal décrivant son logiciel a été rétracté.

Gangolf a interdit aux personnes travaillant dans ces pays européens d’utiliser TreeFinder parce que ce sont les pays qui acceuillent le plus d’immigrants non européens. Je ne vais pas reproduire ici son texte, qui est une diatribe haineuse et sans grand intérêt. Vous pouvez le trouver aisément par une recherche web. Le journal BMC Evolutionary Biology a rétracté l’article parce que le logiciel n’est plus disponible pour tous les scientifiques qui désirent l’utiliser, ce qui est en opposition avec la politique éditoriale du journal. (Déclaration de conflit d’intérêts : je suis éditeur associé bénévole à ce journal.) Il est notable que les autres auteurs de l’article, Arndt von Haeseler et Korbinian Strimmer, approuvent la rétraction étant donné les circonstances.

Le site Retraction Watch a une analyse plus détaillée de la rétraction, dans laquelle ils citent ledit Korbinian Strimmer, qui note que si le logiciel avait été placé d’entrée sous une licence de type GNU GPL, les restrictions de Gangolf Jobb auraient été impossibles, et qu’il va donc être strict sur l’usage de telles licences pour les logiciels publiés par son laboratoire dans le futur. (On a d’ailleurs remarqué récemment dans mon labo qu’on n’avait pas fait très attention à nos licences – il faut qu’on soit plus rigoureux nous aussi.) Retraction Watch reflète aussi les réactions que j’ai vues très généralement dans la communauté biologie évolutive : ce ne sera pas un problème de se passer de TreeFinder, et c’est ce qu’on va faire.

Cette rétraction est importante parce qu’au delà du cas étrange de Gangolf Jobb, il faut insister sur l’universalité de la science. Nous construisons ensemble une connaissance et une compréhension du monde pour l’humanité. La liberté de communiquer, de penser, de débattre, de se parler, de construire sur les résultats des autres ou de les invalider, de collaborer ou de se disputer, sont indispensables au progrès de cette connaissance et cette compréhension. La science n’est pas une affaire individuelle, c’est une aventure collective ; c’est vrai pour les personnes individuelles comme pour les pays individuels.

C’est aussi pour cela qu’à terme la publication open access est importante, comme le sont les licences libres. Parce que rien ni personne ne peut empêcher un cubain, un américain, un chinois, un taiwanais, un israélien, un palestinien, un russe et un ukrainien de lire un article dans PLOS ou BMC, qui que ce soit qui l’ait écrit. Et quels que soient les évènements politiques à venir.

Je vais finir ce billet en allant un peu au-delà du cas particulier de la communauté scientifique pour rappeler qu’en 1939, les autorités françaises ont interné les citoyens allemands qui étaient en France. Largement des réfugiés anti-Nazis, des juifs, des communistes. Parmi eux étaient quelques agents allemands infiltrés (je ne retrouve pas la référence exacte, mais il y a un cas décrit dans les mémoires de Marthe Cohn), mais cet internement était quand même injustifié et inhumain pour la masse des réfugiés. Et c’est cela qui me vient à l’esprit quand j’entend des appels à rejeter tous les réfugiés qui fuient la barbarie, comme illusion de protection contre cette barbarie.

La science comme elle devrait fonctionner, grâce aux réseaux sociaux

cliquez sur l'image

cliquez sur l’image

Suite de deux billets précédents :

Ciel ! On critique un article scientifique sur Twitter !

-> La conversation a continué de manière très riche sur Twitter (malheureusement pas de hashtag associé) et sur le site du journal F1000research (oui c’est open access et de qualité !). Les auteurs du papier d’origine ont généré de nouvelles données, qui ont été mise à disposition sur le site d’ENCODE, et un autre scientifique a « publié » sur Twitter avoir découvert que les échantillons mélangeaient de manière non documentée mâles et femelles, ce qui impacte l’expression des gènes et donc les résultats biologiques :

Sans blogs, les erreurs dans les articles scientifiques restent masquées très longtemps

-> La discussion dans les commentaires du billet de blog de Lior Pachter doit être lue, elle montre la discussion scientifique comme elle devrait se produire. Je recommande notamment les commentaires de Mike Eisen (fondateur de PLOS, éditeur open access pionnier et pas poubelle) et de Pavel Pevzner.

Fraude scientifique et publication ouverte #openaccess

cliquez sur l'image

cliquez sur l’image

Hier est paru un très bon article dans Le Temps, par Olivier Dessibourg (parenthèse : si Le Monde peut fournir tant d’articles au Temps, peut-être peuvent-ils leur emprunter à l’occasion leur excellente rubrique scientifique ? [mise à jour, voir ci-dessous]) :

Comment inventer des résultats scientifiques et en faire parler les médias

L’article rapporte en faisant un parallèle intéressant deux scandales récents qui secouent le milieu scientifique : le sociologue Michael Lacour a inventé les données ayant servi à publier une étude très visible et influente sur la façon dont on peut influencer le degré d’homophobie des gens (voir suite du dossier ici). Et le journaliste John Bohannon a effectué une étude bidon ayant pour objectif d’obtenir un résultat aléatoire lié au chocolat, l’a publié dans un journal poubelle, et a obtenu une large couverture journalistique de son pseudo-résultat.

J’ai eu un échange sur Twitter avec Olivier, parce que je ne suis pas d’accord avec la section suivant de l’article :

Ensuite parce qu’une vague déferle sur le monde de la publication, celle de l’open access: avant, c’est le lecteur d’une revue comme Science qui devait payer très cher pour y avoir accès, les savants y publiant gratuitement. Avec l’open access, c’est l’inverse: le chercheur paie pour publier, et la lecture est libre. Ce système a ses avantages (rendre la science accessible) et ses inconvénients: les revues open access de seconde zone acceptent parfois très peu scrupuleusement des études (donc avec un peer review léger, voire inexistant), contre paiement, pour générer du profit. C’est dans cette brèche que s’est infiltré John Bohannon – et il n’est de loin pas le seul.

Je trouve le mélange open access – pseudo-science erroné et détrimental.

Les journaux poubelle et la possibilité de publier des résultats faux, il y a toujours eu. Elsevier, le géant « respectable » de l’édition traditionnelle a fait des faux journaux au service de l’industrie pharma, et a encore un journal Homeopathy, dont on se demande ce qu’il peut publier de légitime.

Par ailleurs, les journaux Open access normaux ont les mêmes standards de publication que les bons journaux traditionnels, mais l’information scientifique est disponible librement et gratuitement pour tous, et est réutilisable.

J’allais écrire une réponse longue, mais je me rends compte que j’ai déjà tout dit dans un billet précédent : L’open access ne nuit pas à la qualité scientifique. Dont acte.

Je vais quand même rajouter qu’il me semble que les journalistes scientifiques devraient être le fer de lance du combat pour l’open access, puisque leur mission est d’accéder à la science et de la rendre accessible. Alors c’est très dommage de colporter une image erronée et très négative de ce mouvement.

—–

Mise-à-jour par rapport à la remarque entre parenthèses ci-dessus. Olivier me tweete :

 

Sans blogs, les erreurs dans les articles scientifiques restent masquées très longtemps

error

cliquez sur l’image

Une petite suite à mon billet récent sur les critiques Twitter d’un article prestigieux. Aujourd’hui Lior Pachter (dont on a déjà parlé sur ce blog : les méthodes comptent, rififi chez les bioinformaticiens, écrire un mauvais article) a publié un nouveau billet. Dedans, il part d’un article publié récemment en preprint (version publique non encore publiée officiellement, voir ici), pour critiquer un article de 2004, de Kellis et al dans Nature (depuis Manolis Kellis est devenu un des poids lourds de la génomique). Dans Kellis et al 2004, les auteurs donnent une proportion de 95% de gènes dupliqués où seul l’un des deux évolue rapidement, et disent que c’est frappant (« striking ») et que ça soutient une hypothèse classique d’évolution des gènes dupliqués.

Lior met au défi ses lecteurs de déterminer la probabilité d’observer ce résultat : est-ce réellement frappant, ou au contraire attendu même si l’hypothèse est fausse ?

Et ce qui me frappe, moi, c’est un commentaire où Lior publie un email qu’il vient de recevoir. Un collègue anonyme lui envoie la lettre qu’il avait écrite au journal Nature à l’époque, en 2004. Laquelle lettre détaille le calcul de la probabilié associée, et montre que loin d’être frappant, le résultat invalide même légèrement l’hypothèse classique. Lettre que Nature a refusé de publier. Donc que personne n’a vu entre 2004 et 2015.

Pourquoi est-ce que ça me frappe ? Parce que ça montre une fois de plus qu’en l’absence de la communication scientifique informelle par les blogs et Twitter, le système a été vérouillé par quelques-uns, qui n’ont pas permis à la discussion scientifique d’avancer comme elle le devrait. Cette discussion ouverte, à laquelle participe également la publication open access / libre accès, est essentielle. Nous vivons une révolution pacifique et très positive, et il faut en être conscient et la soutenir.

Mise à jour : grosse discussion générée sur Twitter, avec intervention de l’excellent Alan Drummond entre autres (cliquez sur le Tweet pour voir les réponses). Et vive les médias sociaux en science.

 

Ciel ! On critique un article scientifique sur Twitter !

cliquez sur l'image

cliquez sur l’image

Après une longue pause, ce blog redémarre. Je reviendrais sur mes réflexions sur les blogs et la communication scientifique prochainement, mais commençons par un billet sur un petit évènement qui agite mon landerneau, celui de la génomique et la bioinformatique de l’évolution. Et qui éclaire l’évolution de la publication et du débat scientifique à l’heure des réseaux sociaux.

Mes plus fidèles lecteurs se rappeleront du projet ENCODE (billet ENCODE, billets sur critiques d’ENCODE 1 et 2, billet Big Science). L’original concernait l’humain, il y a eu ensuite un ENCODE souris, et un modENCODE mouche drosophile et vers nématode. Tous ces projets mènent à de nombreux articles scientifiques, certains décrivant les données, d’autres les utilisant pour diverses études. Fin 2014, une analyse publiée en coordination avec ENCODE souris (Lin et al 2014 ; voir aussi Figure 2 dans Yue et al 2014) montrait un résultat surprenant :

comparaison d’expression de gènes humain-souris, par analyse multivariée présentée bizarrement

Si vous trouvez la figure ci-dessus difficile à comprendre, vous êtes pardonné. En bref, les auteurs ont pris la mesure du niveau d’expression des gènes (leur niveau d’activité en première approximation) dans différents tissus (de testicules à estomac) de souris et d’humain. Pour chaque tissu humain ou souris, on a environ 20’000 mesures, pour autant de gènes. On peut réduire cela aux 2 ou 3 dimensions qui expliquent le mieux la variation, ce qu’ils ont fait. D’habitude on représente cela par des graphes 2D, qui sont lisibles au moins, mais ici ce sont des graphes 3D où la troisième dimension est très difficile à comprendre. Mais ceci est un péché véniel.

Ce qui est frappant pour le spécialiste dans ces figures, c’est que les tissus de regroupent par espèce (souris ensemble, humain ensemble) plutôt que par type de tissu (estomacs ensemble, reins ensemble). Ce qui revient à dire que les gènes exprimés dans un estomac de souris sont davantage similaires à ceux exprimés dans un rein de souris que dans un estomac humain. Ce qui est très surprenant : on s’attends plutôt à l’inverse, et d’ailleurs cela a été publié de manière répétée (même par mon labo). Et comme le fait remarquer l’inénarable Dan Graur (voir ici à son propos), si c’est vrai ça veut dire que l’étude des gènes de souris ne sert à rien pour étudier l’humain, et que donc ENCODE souris est un gaspillage d’argent. Ce que les auteurs d’ENCODE souris ne relèvent curieusement pas.

Ce résultat a paru bizarre a beaucoup de monde, et une analyse rapide dans mon labo semblait indiquer qu’il était du à ce que les expériences de souris et d’humain ont été faites différemment, et donc ce que l’on verrait serait le biais expérimental plutôt que le signal biologique. Mais montrer publiquement qu’un collègue a tort, c’est du boulot (cf ici), qu’on n’avait pas envie de poursuivre dans ce cas-ci.

Heureusement, un collègue de Chicago, Yoav Gilad, a décidé de le faire, et il a lancé un Tweet tonitruant :

Bon tonitruant sur l’échelle des débats feutrés en science hein. L’important c’est qu’il a montré que les résultats publiés ne tenaient pas, mais qu’en enlevant les biais expérimentaux on retrouvait bien un regroupement par tissus. Il a ensuite mis son article sous forme non encore expertisée sur le site de F1000, qui permet de rendre publique toutes les versions d’un papier, avant pendant après expertise, ainsi que les expertises elles-mêmes, afin que tous puissent discuter librement :

A reanalysis of mouse ENCODE comparative gene expression data. Yoav Gilad, Orna Mizrahi-Man F1000

A noter que les commentaires sous cet article « brouillon » sont très constructifs, et comprennent deux réponses détaillées des auteurs d’origine du consortium ENCODE.

Le tweet d’origine a fait beaucoup réagir dans le microcosme des biologistes des génomes, et a donné lieu a un compte-rendu dans le magazine Nature, où notamment l’auteur sénior (le chef quoi) de l’article d’origine, Michael Snyder, a déclaré que Gilad avait « brisé les normes sociales de la science en postant initialement sa critique sur Twitter » :

Michael Snyder, a geneticist at Stanford University in California and co-author of the original paper, stands by his team’s study and its conclusions and says that Gilad broke the “social norms” of science by initially posting the critique on Twitter. Gilad says that he took to social media to highlight his work, which might otherwise have been overlooked.

Cette réaction de Snyder a provoqué pas mal de réactions sarcastiques sur Twitter et blogs. Le ton général était qu’une publication scientifique est, bin, publique, et doit être critiquée publiquement. Et que la norme sociale de la science, ça doit être de faire les meilleures analyses et d’accepter la critique. Certains collègues pensent toutefois que Twitter est trop brutal, une appréciation que je ne partage toutefois pas. Si on reçoit énormément d’argent des contribuables pour faire de grosses études, qu’on les publie à grande fanfare dans les journaux les plus réputés, on doit s’attendre à être jugé et critiqué à l’échelle de cet investissement et de ce retentissement. A vrai dire, certains collègues éminents (Ewan Birney, Lior Pachter) ont dit que si l’analyse de Gilad était confirmée, l’article de Snyder devrait être rétracté, ce qui est très brutal. Et je pense que l’analyse va être confirmée. Le statisticien renomé en génomique Rafael Izarry a publié un billet sur son blog où il affirme que la mise en place de l’expérience était tellement faussée du départ que les auteurs ne pouvaient simplement rien trouver, et que donc toute l’analyse est forcément invalide. En fait, dans la discussion beaucoup de personnes disent que soit on enlève et le biais expérimental et l’effet (potentiel) espèce-spécifique, soit on confond les deux, mais ils ne sont pas démélables en l’état (voir à ce propos un excellent billet de Lior Pachter qui référence un billet du cafe-sciences dans les commentaires).

On revient à un point déjà traité précédemment sur ce blog, à propos des gros projets de génomique et autre « big science ». Les scientifiques très connus et très établis, qui obtiennent de très gros budgets et publient fréquemment dans les plus grandes revues, ne sont plus à l’abri des critiques. Avant, elles existaient, mais ils pouvaient les ignorer, et surtout compter que les personnes les finançant et les jugeant les ignoraient. Maintenant, c’est public et c’est très rapide, et ces scientifiques et ces revues prestigieuses doivent s’habituer à une discussion beaucoup plus animée et critique qu’avant. C’est pour le mieux pour la science et c’est ça qui compte.

Anecdote personnelle : maintenant quand j’expertise ou j’édite un article (voir les rôles dans ce billet), je réfléchis avant de soumettre mon avis : que penserais-je si cet article était publiquement critiqué ? Serait-je fier ou honteux de mon rôle dans la publication. Et peut-être que je suis un peu plus prudent qu’avant, et c’est bien.

Le scandale des abonnements de revues scientifiques éclate au grand jour

cliquez pour une explication video en anglais de l'open access

cliquez pour une explication video en anglais de l’open access

Comme disent les anglophones, the shit hit the fan : Rue89 révèle le montant exhorbitant et les conditions incroyables qu’Elsevier extorque au gouvernement français pour les abonnements.

Alors on rappelle que la publication libre accès (open access) existe depuis des années, marche, est socialement juste, et économiquement efficace. Et on rappelle, comme expliqué dans Rue89, que le système actuel est tout le contraire : un monopole, un marché opaque, la connaissance interdite à pratiquement tous ceux qui en ont besoin, les résultats de la recherche sous-utilisés parce que non utilisables.

Je n’ai pas le temps d’écrire un billet long maintenant, mais d’une part j’ai déjà écrit plusieurs billets sur le sujet :

Et d’autre part, ceci tombe justement après que j’ai lu une super interview de Anurag Acharya, co-créateur du super moteur de recherches Google Scholar (exemples d’utilisation pour la science citoyenne dans ce billet et celui-ci). Un point m’a frappé dans cette interview. Un reproche fréquemment fait à Google Scholar est l’absence d’accès programmatique (API), qui permettrait à des personnes hors Google d’utiliser les informations de manière systématique. Or ce que dit Acharya c’est que cette limitation est due aux contrats que Google a du signer avec les éditeurs scientifiques, comprendre Elsevier et compères : pour pouvoir lire les articles d’accès fermé automatiquement, Google a du s’engager à ne pas permettre à d’autres l’accès à cette information. Et voilà ! Le travail de centaines de milliers de chercheurs payés par les contribuables de tous les pays n’est pas étudiable parce qu’on a donné les clés à Elsevier etc. Si c’était tout publié open access, il n’y aurait aucun problème (j’ai d’ailleurs une collaboration où on fait exactement cela, voir ScienceWise).

J’ai tweetté cela, et même si ce n’est pas les dernières nouvelles de Justin Bieber, ça a été suffisamment retweeté pour montrer que j’avais touché une corde sensible :

La question est évidemment de savoir quelle sera la prochaine étape. Il faut aller vers une obligation de publier en open access, comme l’impose déjà le Welcome Trust, et à mon avis pour cela prendre sur les budgets des bibliothèques, en coupant des abonnements. Je suis un gentil garçon, mais parfois il me prends des envies de révolution