Vous utilisez Facebook, vous êtes donc volontaire pour être manipulé expérimentalement #FacebookExperiment

cliquez sur l'image

cliquez sur l’image

[Si vous tombez sur ce billet maintenant, sachez qu’il y a une suite ici.]

Je ne sais pas pourquoi on se fait ch..r dans les hopitaux universitaires du monde entier à réfléchir à des consentements éclairés qui couvrent tous les cas de figure tout en permettant aux patients de comprendre de quoi il retourne avant de donner leur sang. Facebook et le journal de l’académie américaine des sciences (PNAS = Proceedings of the National Academy of Sciences USA) viennent de nous montrer que ce n’est absolument pas nécessaire. On peut apparemment manipuler les gens expérimentalement comme bon nous semble du moment qu’ils ont signé un accord de « conditions générales d’utilisation« , vous savez le long truc légal sur lequel vous cliquez toujours « oui » pour accéder à la suite.

Dans une étude publiée le 17 juin dans PNAS donc, les gens de Facebook ont fait exactement ça : manipuler les gens puisqu’ils étaient apparemment d’acord, ayant signé les CGU (EULA en anglais). L’étude a commencé à faire pas mal de bruit à ce que j’ai vu ce week-end, et voici ce que j’en sais pour le moment. (Ca y est, pendant que je préparais le billet ça a atteint les médias français.)

D’abord, le papier est open access, donc vous pouvez le lire : Kramer et al 2014 Experimental evidence of massive-scale emotional contagion through social networks PNAS 111: 8788–8790.

Quand on dit qu’ils ont manipulé les gens, voici un extrait de l’article :

The experiment manipulated the extent to which people (N = 689,003) were exposed to emotional expressions in their News Feed. This tested whether exposure to emotions led people to change their own posting behaviors, in particular whether exposure to emotional content led people to post content that was consistent with the exposure—thereby testing whether exposure to verbal affective expressions leads to similar verbal expressions, a form of emotional contagion. People who viewed Facebook in English were qualified for selection into the experiment.

Mais la phrase clé est celle-ci :

it was consistent with Facebook’s Data Use Policy, to which all users agree prior to creating an account on Facebook, constituting informed consent for this research.

En d’autres termes, ils ont manipulé les gens à des fins expérimentales en considérant que le fait d’avoir accepté les conditions générales d’utilisation de Facebook suffit comme consentement éclairé (si si ils écrivent « informed consent »). Ceci alors que celles de Facebook sont connues pour être particulièrement peu claires et succeptibles de changer.

Autre truc bizarre : l’étude a été faite par des personnes affiliées à Facebook, et ils déclarent no conflict of interest. Il me semble que Facebook les paye, et bénéficie des résultats de cette étude, non ?

Il y a un énorme débat en anglais que je n’ai pas lu ici, pour ceux qui ont le temps. Aussi à l’heure où j’écris ces lignes, la discussion démarre juste sur PubPeer, un forum dédié aux problèmes avec les articles scientifiques. Et beaucoup d’activité (avec comme d’hab pas mal de bruit) sur Twitter sous #FacebookExperiment (mais peu en français pour autant que je vois). Un bon point de vue sur le blog Pharyngula aussi (qui cite notamment des passages clés des instructions aux chercheurs). Oh et un autre point de vue documenté intéressant ici.

Un échange que je trouve éclairant sur Twitter :

ToU = terms of use. Les deux sont des chercheurs en génomique / bioinformatique. Et justement en génomique on a de gros problèmes avec le consentement éclairé, parce qu’on a souvent des possibilités techniques qui apparaissent en cours d’expérience qui n’existaient pas au départ, donc il est très difficile d’informer. Quand je pense que je me suis embêté dans des discussions avec des avocats et philosophes sur le sujet (et je ne travaille même pas directement avec des données cliniques), alors qu’il suffisait de leur faire signer un accord général d’utilisation de la médecine qui dise en petit « et on fera ce que bon nous semble avec vous, vos données et votre santé », signez ou vous ne serez pas soignés. Trop facile.

Yaniv Erlich continue à défendre l’étude, ou en tous cas à critiquer ses critiques, sur Twitter. Il a notamment fait remarquer les articles plus anciens suivants, qui manipulent aussi les utilisateurs Facebook :

Aral & Walker 2012. Identifying Influential and Susceptible Members of Social Networks. Science 337: 337-341

Dans celui-ci ils ont recruté des utilisateurs par publicité à utiliser une application de partage d’opinions sur le cinéma. Je ne trouve nulle part dans l’article ou les méthodes supplémentaires de mention de « consent » (informed ou pas). Par contre la manipulation n’était pas directe : ils ont juste observé a posteriori comment les gens étaient influencés par les opinions de leurs amis, mais ces opinions étaient authentiques.

Bond et al. 2012. A 61-million-person experiment in social influence and political mobilization. Nature 489: 295–298

Ici c’est plus inquiétant, ils ont envoyé ou pas à des gens des messages de mobilisation politique pendant des élections, pour voir s’ils iraient davantage voter, avec un recrutement qui rappelle celui de l’expérience récente de Facebook :

To test the hypothesis that political behaviour can spread through an online social network, we conducted a randomized controlled trial with all users of at least 18 years of age in the United States who accessed the Facebook website on 2 November 2010, the day of the US congressional elections. Users were randomly assigned to a ‘social message’ group, an ‘informational message’ group or a control group. The social message group (n = 60,055,176) was shown a statement at the top of their ‘News Feed’. This message encouraged the user to vote, provided a link to find local polling places, showed a clickable button reading ‘I Voted’, showed a counter indicating how many other Facebook users had previously reported voting, and displayed up to six small randomly selected ‘profile pictures’ of the user’s Facebook friends who had already clicked the I Voted button (Fig. 1). The informational message group (n = 611,044) was shown the message, poll information, counter and button, but they were not shown any faces of friends. The control group (n = 613,096) did not receive any message at the top of their News Feed.

A nouveau, aucune mention du terme « consent« . Juste ceci dans les méthodes supplémentaires :

The research design for this study was reviewed and approved by the University of California, San Diego Human Research Protections Program (protocol #101273).

C’est un peu court, jeune homme ! On pouvait dire… Oh ! Dieu !… bien des choses en somme sur le fait d’inciter ou décourager des gens de voter dans une élection fédérale.

Finalement, Yaniv signale celui-ci, qui ne manipule pas à proprement parler les utilisateurs, mais étudie juste l’effet d’un changement dans Facebook, qui proposait aux gens d’afficher leur statut de donneur d’organes, ce qui me parait légitime :

Cameron et al. 2013. Social Media and Organ Donor Registration: The Facebook Effect. American Journal of Transplantation 13: 2059–2065

Mise à jour : Un bon article sur Forbes, mis à jour en temps réel, avec les réactions de Facebook et des clarifications sur les autorisations et les responsabilités. Ca n’améliore pas franchement les choses pour Facebook.

Mise à jour : Discussion sur le forum Linuxfr. Points de vue de geeks. 🙂

6 réponses à “Vous utilisez Facebook, vous êtes donc volontaire pour être manipulé expérimentalement #FacebookExperiment

  1. Ping : Discussion #FacebookExperiment, la suite | Tout se passe comme si

  2. Ping : Vous utilisez Facebook, vous êtes donc vo...

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée.

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.