Discussion #FacebookExperiment, la suite

Cliquez sur l'image pour un quizz : how addicted to Facebook are you?

Cliquez sur l’image pour un quizz : how addicted to Facebook are you?

Suite à la découverte par internet le week-end dernier que Facebook avait publié une étude manipulant leurs utilisateurs, il y a eu beaucoup de discussions, et les débats reviennent pour l’essentiel à deux positions :

  • c’est inacceptable de manipuler les gens, et l’acceptation des conditions générales d’utilisation ne vaut pas consentement ;
  • pourquoi en faire toute une histoire ? de toutes façons la publicité, Google, et l’usage habituel de Facebook, nous manipulent bien plus tout le temps, et rien de plus grave que ça n’a été fait.

Voir par exemple (en français) le forum linuxfr ou la position de l’Agence Science Presse, ou (en anglais) le forum Slashdot.

Le commentaire de Pascal Lapointe (de l’ASP) sur le billet précédent apporte un éclairage intéressant : il distingue l’obligation absolue de consentement éclairé, d’une obligation peut-être moins évidente en sciences sociales. Mais il se trouve que le blog Pharyngula cite les principes de l’association américaine de psychologie, qui dit clairement que le consentement éclairé est nécessaire, dans des termes aisément compréhensibles.

De plus, les auteurs de l’étude en sont conscients, puisque premièrement ils disent qu’ils ont ce fameux consentement dans l’article, et deuxièment, et très grave, ils ont rajouté la mention d’études scientifiques dans les termes d’usage de Facebook… après l’étude ! (via The Guardian.) L’article lié note aussi que des mineurs ont pu participer à l’étude, ce qui est normalement très très encadré.

Ca me semble vraiment un aspect très grave de cette affaire. Ils savaient que le consentement éclairé était nécessaire, et ils ne l’ont pas fait. A mon sens, ceci devrait conduire à la rétraction de l’article dans PNAS.

Concernant l’argument « mais on se fait manipuler tout le temps ». On est sensé en être informé. La publicité est séparée de l’information, et marquée en tant que telle. Il est malhonnête, et dangereux, de présenter de la publicité comme de l’information. Or ici Facebook n’a pas « manipulé » les gens sensu publicité, ils ont modifié les nouvelles que des personnes recevaient d’autres personnes, à leur insu, et à des fins d’observer leurs réactions. C’est très différent de la publicité, y compris celle sur Google et Facebook. (Et si vous voulez dire qu’en général Facebook est dangereux… bien d’accord, je n’y suis pas.)

Je remarque cet argument surtout de la part de geeks / informaticiens qui connaissent bien le monde des géants de l’internet, et nettement moins le monde aux règles stringentes de la recherche. Ces règles ont des raisons historiques : il y a eu des abus, et on veut les éviter. C’est pas parce que le web est jeune qu’il peut ignorer cette histoire.

Un excellent article dans le New York Times fait remarquer un autre point : parmi les 700’000 personnes manipulées à leur insu, on n’a aucun moyen de savoir combien étaient dépressives ou suicidaires (et voir ci-dessus sur la possibilité que des adolescents aient participé). Lorsqu’il y a un consentement éclairé et un dispositif expérimental standard, les personnes à risque sont écartées de l’étude. Il peut y avoir des personnes suicidées ou internées suite à cette étude, comment le saurions-nous ? Les 700’000 n’ont toujours pas été informées qu’elles aient participé.

Pour finir sur une note plus légère, j’ai redécouvert via linuxfr un site qui présente les conditions d’utilisation de différents services internet sous forme aisément compréhensibles : cliquez sur l’image ci-dessous. Un excellent service !

facebook_tosdr

Mise à jour importante : le journal PNAS a ouvert les commentaires (via Pascal Lappointe). L’étude et son éthique sont défendues par l’auteur sénior de l’étude mentionnée dans mon précédent billet, qui a manipulé la mobilisation politique des gens durant une élection. Les autres intervenants ne sont pas d’accord avec lui. Moi non plus, pour les raisons expliquées ci-dessus.

9 réponses à “Discussion #FacebookExperiment, la suite

  1. juste pour mettre le souk dans le débat un peu plus… 🙂

    que peut-on penser de ces termes d’usage qui peuvent être modifiés à volonté par le fournisseur de service, alors qu’il s’agit d’un service dont la valeur est de s’intégrer dans votre vie quotidienne?
    (autrement dit, un service qu’on peut difficilement arrêter d’utiliser du jour au lendemain parce qu’on n’aimerait pas les nouvelles conditions)

    Je trouve personnellement que, si ce n’est visiblement pas illégal, ça devrait l’être. Mais ça n’engage que moi. 🙂

    Ca va de pair avec cette propension des services en ligne à ré-écrire l’histoire. Ca n’en est pas la première occurence (même si je n’ai pas les autres exemples en tête).

    Et je pense que si c’est eux qui le font, et pas tous les business depuis la nuit des temps, c’est pour la même raison que les chiens se lêchent les parties et pas les hommes.

    Eux, il peuvent.

  2. Ping : Vous utilisez Facebook, vous êtes donc volontaire pour être manipulé expérimentalement #FacebookExperiment | Tout se passe comme si

  3. Depuis les débuts de Facebook je trouve que ce site est sans foi ni loi (leurs abus sont sempiternels). J’ai l’intension d’interdire à mes enfants de mettre des vraies informations sur ce site tant que je le pourrai. (d’autres réseaux sociaux pourquoi pas).

  4. D’accord avec tous les principes énoncés dans ce billet, mais je crois qu’il manque une dimension importante à la réflexion: une partie de la recherche en psychologie consiste à tromper volontairement les “cobayes”. Cas-type: on leur fait tester un nouveau type de casque récepteur radio. On leur dit qu’ils peuvent l’enlever à tout moment et interrompre l’expérience s’ils se sentent mal. Après quelques minutes, un certain nombre de personnes disent avoir des étourdissements et l’enlèvent. En fait, le casque n’était relié à rien.

    Ces gens ont signé auparavant un formulaire de consentement. Ce n’est qu’après coup qu’on leur a dit la vérité. Donc, il y a eu tromperie, et il y a eu un impact sur leurs émotions, comme dans cette #FacebookExperiment Pour éviter ce débat, aurait-il donc suffi que, après coup, en janvier 2012, les 700 000 Facebookiens reçoivent un message les avisant de l’expérience qu’ils venaient de subir?

    Mais surtout, avec Facebook, ça ne s’arrête pas là. Tout est conçu sur mesure pour nous tromper et jongler avec nos émotions afin de nous amener à cliquer le plus souvent possible. Il n’y a rien de “naturel” dans notre fil d’actualités sur FB, et l’algorithme a souvent été modifié par FB, sans nous demander notre autorisation.

    Et c’est important de le souligner parce que, du point de vue de la psychologie et de la neurologie, on est devant un phénomène social nouveau —pas juste Facebook, mais une bonne partie d’Internet où on expérimente allègrement avec les algorithmes et nos émotions pour soutirer le plus de clics possibles. Disons-le autrement: une bonne partie de l’Internet dit 2.0 est un immense labo de la psychologie comportementale. Pensez simplement à tout ce qu’on aspire de notre vie privée au nom de contrats d’abandon de droits signés à l’aveugle. Vous savez, par exemple, qu’une recherche Google peut être différente d’un internaute à l’autre?

    Dans ce contexte qui a de moins en moins en commun avec les expériences psychologiques impliquant 30 étudiants, est-on sûr qu’un formulaire de consentement calqué sur celui utilisé dans la recherche biomédicale, soit encore approprié? Croyez-vous que s’excuser après coup aurait suffi à éviter les critiques?

    • Je pense qu’il faut faire attention dans l’analogie ici. Comparer signer « auparavant un formulaire de consentement » et recevoir un message « après coup », ce n’est pas la même chose. Il y a une grosse différence entre auparavant et après coup.

      Et il y a aussi une différence entre accepter d’être un sujet d’expérience, où l’expérience affichée soit un leurre par rapport à la vraie, et participer involontairement à une expérience.

    • Vu sur the atlantic, le code de l’asso américaine de psychologie inclut ceci pour les cas où la déception est nécessaire :

      Psychologists explain any deception that is an integral feature of the design and conduct of an experiment to participants as early as is feasible, preferably at the conclusion of their participation, but no later than at the conclusion of the data collection, and permit participants to withdraw their data.

  5. Ping : Discussion #FacebookExperiment, la suite | C@f&...

  6. Ping : Discussion #FacebookExperiment, la suite | Dr. ...