Si c’est pourri c’est que t’es pas le bon produit (ma réponse à Mark Zuckerberg).

Mark Zuckerberg vient de se lancer dans une grosse campagne de communication en publiant une tribune simultanément dans plusieurs très grands journaux dont Le Monde ou le Wall Street Journal. Elle est intitulée : "Je souhaite clarifier la manière dont Facebook fonctionne."

Il y rappelle avec raison une première vérité qui est que le métier de Facebook n'est pas de vendre des données personnelles à des annonceurs mais de permettre à des annonceurs d'accéder à un ciblage très fin d'audience pour l'affichage de leurs publicités. La nuance est de taille et je le dis sans aucune ironie. 

Mais pour le reste, comment dire … 

D'abord il indique qu'il ne changera pas de modèle économique. Et que la publicité continuera donc d'être l'alpha et l'oméga. Sur cette base il est évident que Facebook ne peut que continuer de s'enfoncer dans une série de scandales qui finiront probablement par avoir la peau de la plateforme dont la charte graphique bleue commence déjà à convoquer l'image de sa propre suffocation. Je l'ai déjà écrit et expliqué, sur la base du modèle économique actuel et de l'architecture technique qui le sert, toutes les logiques d'exposition et de circulation de contenus sont biaisées et entretiennent et maximisent les effets de polarisation et autres Fake News. Je reste donc convaincu que la seule issue – pour Facebook – est de basculer dans un modèle payant. Comme le font d'ailleurs de plus en plus les grosses plateformes (Youtube Red par exemple). Et qu'il finira par le faire mais qu'il a encore besoin d'un ou deux scandales planétaires pour s'en convaincre. Et qu'il sera alors peut-être trop tard

Ensuite il explique que si c'est pourri c'est que tu n'es pas le bon produit. Plus précisément ce que dit Zuckerberg c'est que si l'expérience utilisateur est pourrie (publicités inappropriées, contenus viraux, promiscuités toxiques, etc.) c'est que l'utilisateur fait mal son boulot.

C'est son "Yes we you Can" à lui, tendance culpabilisante. Je (le) cite et je souligne :

"Sur nos services, vous pouvez gérer les informations que nous utilisons pour vous montrer des publicités, et vous pouvez empêcher n’importe quel annonceur de vous atteindre. Vous pouvez savoir pourquoi vous voyez une réclame, et modifier vos préférences pour voir celles qui vous intéressent. Vous pouvez également utiliser nos outils de transparence pour voir les différentes publicités qu’un annonceur diffuse auprès d’autres personnes."

Histoire de faire passer la pilule de la mauvaise foi il ajoute pour la forme que c'est quand même peut-être aussi un peu la faute des équipes d'ingénieurs et de l'intelligence artificielle présidant à l'organisation du Newsfeed qui est bien sûr "toujours imparfaite".

"Ces contenus inappropriés peuvent parfois rester sur nos services pour une seule raison : les équipes et les systèmes d’intelligence artificielle sur lesquels nous nous appuyons pour les examiner ne sont pas parfaits. Nous n’avons aucun intérêt à les ignorer. Nos systèmes continuent d’évoluer et de se perfectionner."

Mais bon. C'est quand même surtout la faute de ces débiles d'utilisateurs qui ne se servent pas des toutes ces potentialités que la plateforme met à leur disposition. Comme résolution pour l'année prochaine je suggère à Mark Zuckerberg d'apprendre le français et, dans la foulée, d'aller lire "Dans l'internet des familles modestes" de Dominique Pasquier. Il y apprendra plein de choses. Parce que bien sûr "Yes we can" Mark. C'est vrai. "Yes we can" mais "No we won't do it mostly and you know it perfectly". On peut "gérer des trucs", "empêcher d'autres trucs", "savoir des trucs", on peut le faire. Mais la plupart du temps on ne le fait pas. J'ai déjà traité mille fois sur ce blog la question du "pourquoi on ne le fait pas" (ou alors pas régulièrement, ou pas complètement) et j'insiste encore une fois sur le fait que Dominique Pasquier démontre remarquablement pourquoi certains d'entre nous le feront encore moins que d'autres au regard de la sociologie et d'une approche "de classe" des usages du web. Ne serait-ce que sur la question de la "privacy". Rappel : 

"Dominique Pasquier montre à quel point ce rapport à la promiscuité et donc à l'intimé et au "privé" (ou à la "vie privée") est très différenciant dans les usages des familles modestes : "Les familles disposent bien souvent d’une seule adresse mail partagée. C’est un moyen de tenir un principe de transparence familial… (et de surveillance : une femme ne peut pas recevoir de courrier personnel). Ce principe de transparence se retrouve également dans les comptes Facebook, dans les SMS … La famille intervient sur les comptes de ses membres, on regarde les téléphones mobiles des uns et des autres. On surveille ce qu’il se dit. Les familles modestes ne voient pas de raison à avoir des outils individuels."

ImagesPawel Kuczynski

Facebook est une architecture technique au service d'une fonction supposément sociale. C'est à l'architecture technique de s'adapter à la fonction sociale qu'elle prétend servir et non aux utilisateurs de la fonction sociale de vérifier qu'elle fonctionne correctement à chaque fois qu'ils s'en servent. Quand j'utilise un dispositif ou un objet technique en tant, précisément, qu'utilisateur, je ne vérifie pas son état avant chaque usage. Je ne relis pas les règles de déontologie du CSA à chaque fois que je regarde la télé. Je ne vérifie pas les commandes de direction de mon véhicule à chaque fois que je le prends pour me rendre au travail, pas plus que je ne règle à chaque fois le parallélisme des pneus. Et quand quelque chose dysfonctionne ou risque de dysfonctionner dans le dispositif technique dont j'ai l'usage, c'est le dispositif technique qui m'en avertit, par exemple en faisant clignoter un quelconque voyant. Donc je répète : C'est à l'architecture technique de s'adapter à la fonction sociale qu'elle prétend servir et non aux utilisateurs de la fonction sociale de vérifier qu'elle fonctionne correctement à chaque fois qu'ils s'en servent.    

Tout en disant – et c'est une bonne nouvelle s'il ne s'agit pas que d'un élément de communication – accepter l'idée de davantage de régulation (à propos du RGPD Zuckerberg écrit "Nous devons être clairs sur la façon dont nous utilisons les données, et les gens doivent avoir des choix clairs sur la façon dont ils veulent que leurs données soient utilisées. Nous pensons qu’une régulation d’Internet fondée sur ces principes serait bénéfique pour tous"), Facebook et Zuckerberg continuent pourtant de laisser reposer la charge d'application de la régulation sur les épaules de l'utilisateur. Ce qui est fondamentalement malhonnête et problématique.

Le meilleur contrepoint à la tribune de Zuckerberg est peut-être cette interview de Caterina Fake, co-fondatrice de FlickR, qui dit notamment ceci : 

"Au lieu d’assumer leur responsabilité, les entrepreneurs ont préféré prétendre qu’ils n’étaient pas coupables du comportement de leurs utilisateurs. En réalité, ils ne managent pas leur audience parce qu’ils se voient comme des médias sociaux et non pas comme des communautés en ligne. Ce choix est programmé. On peut prendre au pied de la lettre ce que disait Lawrence Lessig (…) : « Le code est la loi ». La loi, comme le code, crée la manière dont les gens interagissent les uns avec les autres. L’ancien responsable de la communauté de Flickr disait une chose très juste : « Ce que vous tolérez indique ce que vous êtes vraiment ». Donc si votre code tolère le sexisme, vous êtes une plateforme sexiste. Si votre code tolère les suprémacistes blancs, vous êtes une plateforme qui soutient le suprémacisme blanc." 

Ce que vous tolérez indique ce que vous êtes vraiment. Il ne saurait y avoir de meilleur conseil à donner à Mark Zuckerberg. 

Et s'il souhaite vraiment assainir les interactions toxiques générées par sa plateforme, il faut lui rappeler que ce ne sont ni les utilisateurs, ni les intelligences artificielles qui ont la solution. La seule solution est d'assainir l'architecture de circulation des informations en limitant sa toxicité factuelle et "mécanique". Comme vient par exemple de le faire WhatsApp (racheté par Facebook en 2014) au sujet des Fake News en limitant le nombre de partages d'un message à 5 personnes (ou groupes de personnes) contre vingt précédemment. En apprenant la (bonne) nouvelle j'écrivais sur Twitter que c'était là en effet la seule solution efficace et probante mais qu'elle avait peu de chances d'être appliquée longtemps tant elle allait occasionner une baisse d'interaction qui pourrait s'avérer préjudiciable aux intérêts économiques de la plateforme hôte. <Mise à jour> Et il se confirme que c'est de toute façon loin d'être suffisant comme le prouve l'exemple des élections en Inde. </mise à jour>

Si Facebook souhaite réellement devenir un média citoyen respectueux des droits des utilisateurs il doit commencer par assumer la charge pleine et entière de la régulation, ce que rend totalement impossible son modèle économique actuel. Il doit ensuite accepter de mettre son architecture technique au service de la fonction sociale et citoyenne qu'il indique vouloir assumer et cesser d'imaginer que l'inverse puisse être possible ou souhaitable. Il doit enfin cesser de s'abriter derrière l'individualisation des marges de tolérance de chacun pour se positionner clairement et de manière univoque sur ce qui est acceptable et ce qui ne l'est pas. 

Mais – et ce n'est pas le moindre des problèmes auquel il devra faire face – même en admettant qu'il souhaite le faire, il est possible qu'il soit de toute façon déjà trop tard pour mettre en oeuvre ce programme. Et qu'il n'y ait pas d'autre solution … que sa dissolution.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Articles similaires

Commencez à saisir votre recherche ci-dessus et pressez Entrée pour rechercher. ESC pour annuler.

Retour en haut