Archives pour l'étiquette sciences sociales

Représentation graphique des victimes d’attentats en France depuis 2 siècles

cliquez sur l'image

cliquez sur l’image

En suivant un lien vers les victimes d’attentats au Liban, j’ai découvert que Wikipedia a une liste des attentats avec les victimes au Liban. Du coup j’ai regardé pour la France, et il y a aussi une telle liste, et dans le cas de la France il y a un tableau analysable. Du coup, cela permet de mettre les attentats récents en perspective.

D’abord, je récupère le tableau de chiffres depuis Wikipedia. Il y a des accès programmatiques élégants, mais j’ai fait ça « quick and dirty », donc copier-coller dans un fichier texte puis importation dans R. R est un environnement de statistiques gratuit et open source, puissant si peu facile d’usage pour les débutants (page officielle, petite explication sur le blog bioinfo-fr).

Puis j’ai mis en forme : remplacer les entrées de type « 50+ » par le nombre seul, par exemple « 50 » dans ce cas, pour permettre le traitement. Et transformer le format bizarre de dates dans Wikipedia en un format reconnu par R, en mettant des tabulations entre les éléments des dates dans le fichier texte (récupérable ici), puis en important dans R et transformant avec as.Date().

Ensuite, c’est simplement une histoire de faire des graphiques simples avec la fonction plot(). Comme je suis chef d’équipe et que j’utilise à peine R (ou d’autres languages) de nos jours, mon code est tout moche mais le voici :

terror_france<-read.delim("~/Desktop/terror_france.txt")
terror_france$date<-as.Date(with(terror_france, paste(Year, Month, Day, sep='-'), "%Y-%m-%d"))
terror_france<-terror_france[order(terror_france$date),]
terror_france$cumulative_dead<-cumsum(terror_france$Dead)
terror_france$cumulative_injured<-cumsum(terror_france$Injured)

plot(terror_france$date, terror_france$cumulative_dead, type='o', xlab="date", ylab="cumulative number of dead", col=ifelse(terror_france$Dead>50, "red", "black"))
text(x=2000, y=350, "These are the dead of 13th November 2015", col="red", pos=2)
text(x=2000, y=330, "in context of 2 centuries of terrorism", col="red", pos=2)

plot(terror_france$date, terror_france$cumulative_injured, type='o', xlab="date", ylab="cumulative number of injured", col=ifelse(terror_france$Injured>200, "red", "black"))
text(x=2000, y=1900, "These are the injured of 13th November 2015", col="red", pos=2)
text(x=2000, y=1800, "in context of 2 centuries of terrorism", col="red", pos=2)

Voici les résultats :cumulative_dead

On voit immédiatement que les attentats de ce vendredi 13 novembre ont fait beaucoup plus de morts que n’est habituel (je n’ai pas envie d’utiliser le mot « normal » pour des attentats qui ne devraient pas l’être). On voit aussi que la guerre d’Algérie n’a pas fait tant de morts que ça en France métropolitaine par attentats (clairement d’autres sources de victimes ne sont pas comptées ici). Mais que les années 1980 ont été marquées par de nombreux attentats, chacun d’amplitude pas très forte, mais qui cumulent un grand nombre de morts au final.cumulative_injuredPour les blessés les années 1980 sont encore plus marquantes, et les attentats récents moins, ce qui met en avant à quel point ces attentats ont été meurtriers en nombre de morts relativement au nombre total de victimes.

En réagissant à une version préliminaire de ces graphiques, Alexander Doria a remarqué :

Bonne question, je ne sais pas. Lecteurs historiens ?

Mise à jour suite au commentaire de MAthieu : courbe en escalier :

staircase_deadMise à jour 2 : un article similaire sur le site Les Décodeurs du Monde.

Mise à jour 3 : suite à demande populaire, le graphe en non cumulé, que personnellement je trouve moins clair mais voici.

non_cumumative_dead

Discussion #FacebookExperiment, la suite

Cliquez sur l'image pour un quizz : how addicted to Facebook are you?

Cliquez sur l’image pour un quizz : how addicted to Facebook are you?

Suite à la découverte par internet le week-end dernier que Facebook avait publié une étude manipulant leurs utilisateurs, il y a eu beaucoup de discussions, et les débats reviennent pour l’essentiel à deux positions :

  • c’est inacceptable de manipuler les gens, et l’acceptation des conditions générales d’utilisation ne vaut pas consentement ;
  • pourquoi en faire toute une histoire ? de toutes façons la publicité, Google, et l’usage habituel de Facebook, nous manipulent bien plus tout le temps, et rien de plus grave que ça n’a été fait.

Voir par exemple (en français) le forum linuxfr ou la position de l’Agence Science Presse, ou (en anglais) le forum Slashdot.

Le commentaire de Pascal Lapointe (de l’ASP) sur le billet précédent apporte un éclairage intéressant : il distingue l’obligation absolue de consentement éclairé, d’une obligation peut-être moins évidente en sciences sociales. Mais il se trouve que le blog Pharyngula cite les principes de l’association américaine de psychologie, qui dit clairement que le consentement éclairé est nécessaire, dans des termes aisément compréhensibles.

De plus, les auteurs de l’étude en sont conscients, puisque premièrement ils disent qu’ils ont ce fameux consentement dans l’article, et deuxièment, et très grave, ils ont rajouté la mention d’études scientifiques dans les termes d’usage de Facebook… après l’étude ! (via The Guardian.) L’article lié note aussi que des mineurs ont pu participer à l’étude, ce qui est normalement très très encadré.

Ca me semble vraiment un aspect très grave de cette affaire. Ils savaient que le consentement éclairé était nécessaire, et ils ne l’ont pas fait. A mon sens, ceci devrait conduire à la rétraction de l’article dans PNAS.

Concernant l’argument « mais on se fait manipuler tout le temps ». On est sensé en être informé. La publicité est séparée de l’information, et marquée en tant que telle. Il est malhonnête, et dangereux, de présenter de la publicité comme de l’information. Or ici Facebook n’a pas « manipulé » les gens sensu publicité, ils ont modifié les nouvelles que des personnes recevaient d’autres personnes, à leur insu, et à des fins d’observer leurs réactions. C’est très différent de la publicité, y compris celle sur Google et Facebook. (Et si vous voulez dire qu’en général Facebook est dangereux… bien d’accord, je n’y suis pas.)

Je remarque cet argument surtout de la part de geeks / informaticiens qui connaissent bien le monde des géants de l’internet, et nettement moins le monde aux règles stringentes de la recherche. Ces règles ont des raisons historiques : il y a eu des abus, et on veut les éviter. C’est pas parce que le web est jeune qu’il peut ignorer cette histoire.

Un excellent article dans le New York Times fait remarquer un autre point : parmi les 700’000 personnes manipulées à leur insu, on n’a aucun moyen de savoir combien étaient dépressives ou suicidaires (et voir ci-dessus sur la possibilité que des adolescents aient participé). Lorsqu’il y a un consentement éclairé et un dispositif expérimental standard, les personnes à risque sont écartées de l’étude. Il peut y avoir des personnes suicidées ou internées suite à cette étude, comment le saurions-nous ? Les 700’000 n’ont toujours pas été informées qu’elles aient participé.

Pour finir sur une note plus légère, j’ai redécouvert via linuxfr un site qui présente les conditions d’utilisation de différents services internet sous forme aisément compréhensibles : cliquez sur l’image ci-dessous. Un excellent service !

facebook_tosdr

Mise à jour importante : le journal PNAS a ouvert les commentaires (via Pascal Lappointe). L’étude et son éthique sont défendues par l’auteur sénior de l’étude mentionnée dans mon précédent billet, qui a manipulé la mobilisation politique des gens durant une élection. Les autres intervenants ne sont pas d’accord avec lui. Moi non plus, pour les raisons expliquées ci-dessus.

Vous utilisez Facebook, vous êtes donc volontaire pour être manipulé expérimentalement #FacebookExperiment

cliquez sur l'image

cliquez sur l’image

[Si vous tombez sur ce billet maintenant, sachez qu’il y a une suite ici.]

Je ne sais pas pourquoi on se fait ch..r dans les hopitaux universitaires du monde entier à réfléchir à des consentements éclairés qui couvrent tous les cas de figure tout en permettant aux patients de comprendre de quoi il retourne avant de donner leur sang. Facebook et le journal de l’académie américaine des sciences (PNAS = Proceedings of the National Academy of Sciences USA) viennent de nous montrer que ce n’est absolument pas nécessaire. On peut apparemment manipuler les gens expérimentalement comme bon nous semble du moment qu’ils ont signé un accord de « conditions générales d’utilisation« , vous savez le long truc légal sur lequel vous cliquez toujours « oui » pour accéder à la suite.

Dans une étude publiée le 17 juin dans PNAS donc, les gens de Facebook ont fait exactement ça : manipuler les gens puisqu’ils étaient apparemment d’acord, ayant signé les CGU (EULA en anglais). L’étude a commencé à faire pas mal de bruit à ce que j’ai vu ce week-end, et voici ce que j’en sais pour le moment. (Ca y est, pendant que je préparais le billet ça a atteint les médias français.)

D’abord, le papier est open access, donc vous pouvez le lire : Kramer et al 2014 Experimental evidence of massive-scale emotional contagion through social networks PNAS 111: 8788–8790.

Quand on dit qu’ils ont manipulé les gens, voici un extrait de l’article :

The experiment manipulated the extent to which people (N = 689,003) were exposed to emotional expressions in their News Feed. This tested whether exposure to emotions led people to change their own posting behaviors, in particular whether exposure to emotional content led people to post content that was consistent with the exposure—thereby testing whether exposure to verbal affective expressions leads to similar verbal expressions, a form of emotional contagion. People who viewed Facebook in English were qualified for selection into the experiment.

Mais la phrase clé est celle-ci :

it was consistent with Facebook’s Data Use Policy, to which all users agree prior to creating an account on Facebook, constituting informed consent for this research.

En d’autres termes, ils ont manipulé les gens à des fins expérimentales en considérant que le fait d’avoir accepté les conditions générales d’utilisation de Facebook suffit comme consentement éclairé (si si ils écrivent « informed consent »). Ceci alors que celles de Facebook sont connues pour être particulièrement peu claires et succeptibles de changer.

Autre truc bizarre : l’étude a été faite par des personnes affiliées à Facebook, et ils déclarent no conflict of interest. Il me semble que Facebook les paye, et bénéficie des résultats de cette étude, non ?

Il y a un énorme débat en anglais que je n’ai pas lu ici, pour ceux qui ont le temps. Aussi à l’heure où j’écris ces lignes, la discussion démarre juste sur PubPeer, un forum dédié aux problèmes avec les articles scientifiques. Et beaucoup d’activité (avec comme d’hab pas mal de bruit) sur Twitter sous #FacebookExperiment (mais peu en français pour autant que je vois). Un bon point de vue sur le blog Pharyngula aussi (qui cite notamment des passages clés des instructions aux chercheurs). Oh et un autre point de vue documenté intéressant ici.

Un échange que je trouve éclairant sur Twitter :

ToU = terms of use. Les deux sont des chercheurs en génomique / bioinformatique. Et justement en génomique on a de gros problèmes avec le consentement éclairé, parce qu’on a souvent des possibilités techniques qui apparaissent en cours d’expérience qui n’existaient pas au départ, donc il est très difficile d’informer. Quand je pense que je me suis embêté dans des discussions avec des avocats et philosophes sur le sujet (et je ne travaille même pas directement avec des données cliniques), alors qu’il suffisait de leur faire signer un accord général d’utilisation de la médecine qui dise en petit « et on fera ce que bon nous semble avec vous, vos données et votre santé », signez ou vous ne serez pas soignés. Trop facile.

Yaniv Erlich continue à défendre l’étude, ou en tous cas à critiquer ses critiques, sur Twitter. Il a notamment fait remarquer les articles plus anciens suivants, qui manipulent aussi les utilisateurs Facebook :

Aral & Walker 2012. Identifying Influential and Susceptible Members of Social Networks. Science 337: 337-341

Dans celui-ci ils ont recruté des utilisateurs par publicité à utiliser une application de partage d’opinions sur le cinéma. Je ne trouve nulle part dans l’article ou les méthodes supplémentaires de mention de « consent » (informed ou pas). Par contre la manipulation n’était pas directe : ils ont juste observé a posteriori comment les gens étaient influencés par les opinions de leurs amis, mais ces opinions étaient authentiques.

Bond et al. 2012. A 61-million-person experiment in social influence and political mobilization. Nature 489: 295–298

Ici c’est plus inquiétant, ils ont envoyé ou pas à des gens des messages de mobilisation politique pendant des élections, pour voir s’ils iraient davantage voter, avec un recrutement qui rappelle celui de l’expérience récente de Facebook :

To test the hypothesis that political behaviour can spread through an online social network, we conducted a randomized controlled trial with all users of at least 18 years of age in the United States who accessed the Facebook website on 2 November 2010, the day of the US congressional elections. Users were randomly assigned to a ‘social message’ group, an ‘informational message’ group or a control group. The social message group (n = 60,055,176) was shown a statement at the top of their ‘News Feed’. This message encouraged the user to vote, provided a link to find local polling places, showed a clickable button reading ‘I Voted’, showed a counter indicating how many other Facebook users had previously reported voting, and displayed up to six small randomly selected ‘profile pictures’ of the user’s Facebook friends who had already clicked the I Voted button (Fig. 1). The informational message group (n = 611,044) was shown the message, poll information, counter and button, but they were not shown any faces of friends. The control group (n = 613,096) did not receive any message at the top of their News Feed.

A nouveau, aucune mention du terme « consent« . Juste ceci dans les méthodes supplémentaires :

The research design for this study was reviewed and approved by the University of California, San Diego Human Research Protections Program (protocol #101273).

C’est un peu court, jeune homme ! On pouvait dire… Oh ! Dieu !… bien des choses en somme sur le fait d’inciter ou décourager des gens de voter dans une élection fédérale.

Finalement, Yaniv signale celui-ci, qui ne manipule pas à proprement parler les utilisateurs, mais étudie juste l’effet d’un changement dans Facebook, qui proposait aux gens d’afficher leur statut de donneur d’organes, ce qui me parait légitime :

Cameron et al. 2013. Social Media and Organ Donor Registration: The Facebook Effect. American Journal of Transplantation 13: 2059–2065

Continue la lecture