All You Need Is … Like.

A qui s'adresse-t-on ?

Pour les médias, la question était jusqu'ici : "à qui s'adresse-t-on ?", sous-entendu, "à qui s'adresse-t-on quand on a de l'information à délivrer ?" On parlait alors de public, de cible, d'usagers, etc …

Médias > canal > public. On s'adresse "au plus grand nombre". On fait "la course à l'audimat". On est dans le bon vieux schéma classique de la théorie de l'information, émetteur > canal > récepteur.

Comment dois-je apparaître quand j'ai besoin d'info ?

Parmi les nombreux changements de paradigme occasionnés par le numérique, cette vieille question devient aujourd'hui : "qui dois-je être" ou plus exactement, "comment dois-je apparaître quand j'ai besoin d'une info ?". Il ne s'agit plus ici de "médias" mais de l'individu qui se trouve au centre du processus informationnel.

Individu > social > Info. On ne s'adresse pas "au plus petit nombre", mais "aux plus grands dénominateurs communs" d'un groupe d'individu dont on accepte qu'il puisse être relativement restreint à condition que ses points communs statistiques soient inversement étendus. Plutôt que d'équiper l'individu d'un certain nombre de clés de lecture et de compréhension (soit le rôle classique des médias isn't it ?), on s'aperçoit qu'il est finalement plus rapide et plus efficace en termes de rentabilité de corriger directement le monde ; dans le domaine de l'information également on est passé des verres correcteurs aux écrans corrigés. La "nouvelle donne" de l'accès à l'information, de son traitement et de sa diffusion se résume à une somme d'individus qui passent par un certain nombre de filtres sociaux (algorithmiques, statistiques, médiatiques) pour accéder à de l'information, ou plus exactement à des vues corrigées de la réalité au travers de prismes eux-mêmes supposément correcteurs.

Du coup, comme j'avais déjà eu l'occasion de le démontrer ici, la théorie de Mc Luhan ("Medium is the Message") en prend un sérieux coup dans l'aile et se trouve littéralement retournée comme un gant :

"En réalité et en pratique, le vrai message, c'est nous-mêmes, c'est-à-dire, tout simplement, que les effets d'un individu sur le medium ou l'écosystème informationnel au sein duquel ou grâce auquel il interagit, dépendent du changement d'échelle qu'autorise chaque nouvelle technologie, chaque croisement de nouveaux ensembles de données (Datasets), dont le sujet est notre vie."

Pris dans les contradictions parfois flagrantes des différents espaces de discours et d'attention de sa "persona" numérique, l'individu commence à acquérir la vague conscience que l'information qui lui est délivrée ne dépend plus uniquement d'un prisme médiatique auquel il s'était, bon gré mal gré, accoutumé, mais de son positionnement, de ses préférences, de son "profil". La dernière "manipulation" de Facebook n'est d'ailleurs pas étrangère à cette prise de conscience collective, même si nul n'est encore capable de connaître toutes les subtilités de sa boîte noire algorithmique (bon OK on a quand même quelques clés de compréhension importantes).

Car qui peut à la fois "savoir qui je suis" et qui à capacité à "conditionner ma manière d'apparaître" ? Naturellement les sociétés – facebook, twitter, google, etc. – aux manettes de ces boîtes noires que constituent encore les différents filtres "sociaux".

Dès lors c'est tout notre prisme cognitif attentionnel qui se trouve au centre d'un processus de double contrainte. Double contrainte qui peut être résumée ainsi : je suis, ou en tout cas je me plais à croire que je suis à la recherche de l'information la plus neutre et la plus objective possible, même si j'ai conscience que cette neutralité ou objectivité est délibérement altérée par le prisme de mes préférences "politiques" ou "citoyennes" (ainsi je préfère acheter Libé ou Le Figaro). Mais j'ai également de plus en plus conscience que les filtres algorithmiques que j'utilise pour accéder à l'information, que les filtres algorithmiques qui viennent me proposer cette information, sont biaisés : si je suis d'humeur joyeuse, je préfèrerai aller consulter de l'information légère ; si je suis triste, je préfèrerai de l'information triste. Dès lors, mon comportement, l'instanciation de ma "présence" sociale est actée comme une variable susceptible de modifier le type d'information auquel j'accéderai. Et sachant cela, une boucle classique de rétroaction se met en place entre l'objet de l'expérience et le sujet de l'étude, qui amène ce dernier à modifier, parfois consciemment, parfois inconsciemment son "expression sociale" afin d'atteindre son objectif premier : accéder à de l'information qui corresponde le mieux à son état du moment.

Mais cette double contrainte déjà délicate à appréhender et à gérer est à son tour brouillée et complexifiée par un nouveau paramètre : celui de l'intentionnalité à l'oeuvre derrière les filtres sociaux. Si je suis triste et que l'on veut me rendre gai (parce que je suis meilleur client, parce que j'ai davantage d'inclinaison à acheter, ou parce que je suis plus diposé à rediffuser différentes informations quand je suis gai), alors "on" va me donner de l'information "gaie".

Naturellement il n'y a là pas grand chose de nouveau, ce principe est depuis la fin des années 20, celui qui est au coeur des industries de la publicité et de l'influence. Mais le changement de paradigme que j'évoquais plus haut (passage d'un cycle "Médias > canal > public" à un cycle "Individu > social > info") change tout de même substantiellement la donne pour aboutir à un paradoxal effet de "lissage". Sous l'effet conjugué de l'application des filtres sociaux et des médias ayant intégré l'importance desdits filtres dans les processus d'accès à l'information, la "fabrique" de l'info n'est plus la même. On "calibre" différemment mais on aboutit au même résultat. C'est à dire toujours plus de "chocking", toujours plus de "people", toujours plus "d'infotainment".

Quelque chose de pourri au royaume du Like.

Y'a donc un truc qui cloche (et ça fait longtemps que ça a commencé …) : comment le profilage statistique, comment l'analyse et la segmentation des intérêts de chacun, conjugués à l'application de fitlres algorithmiques et sociaux supposés produire de la différence, du "sur-mesure", comment tout cela peut-il produire, in fine, de l'identique ? Et ce qui cloche c'est le like. Et au-delà du Like, l'ensemble des logiques d'audiences relationnelles.

Depuis quelques jours, un article a beaucoup "tourné" sur le web. C'est un journaliste de Wired qui a eu l'idée de systématiquement cliquer sur "j'aime" pour toutes les infos apparaissant sur son mur Facebook. L'article original est là et un compte-rendu en français est disponible là. La conclusion et les enseignements de l'expérience sont aussi glaçants que limpides (je souligne) :

"En très peu de temps, le fil d’actualité de Mat Honan a complètement changé d’aspect. Une heure après le début de son expérience, il ne voyait déjà presque plus de messages d’amis dans son fil, il ne restait que des publications de marques et de sources d’actualité. Il voyait également apparaître des fermes de contenu. (…)

Après avoir aimé un message pro-israélien sur Gaza, son fil s’est très fort teinté "à droite" en montrant une page contre les immigrés. Il a tout aimé. Pour Homan, Facebook s’est transformé en "temple de la provocation". (…)

En plus d’afficher des publications politiques, à moment donné son fil est devenu tout à fait stupide (…). "Des inepties sensationnalistes, mais j’ai tout aimé" explique Honan.

(…) Le rédacteur a également constaté que la version mobile de son fil présentait un aspect tout à fait différent de la version web même s’il les ouvrait au même moment. Sur son smartphone, il ne voyait que des annonces et des publications de sites web, alors que sur l’ordinateur il voyait tout de même quelques messages de ses amis. (…)

Cependant, ce qui a le plus surpris Honan c’est l’impact de son comportement sur les fils de ses amis. Leurs fils d’actualité regorgeaient d’articles qu’il avait aimés. "70% de mon fil d’actualité se compose de publications aimées par Mat" explique l’un de ses amis Facebook.

Finalement, Mat Honan a même été contacté par un employé de Facebook qui voulait le faire entrer en contact avec le département de relations publiques du réseau social. (…)

"En aimant tout, j’ai changé Facebook en endroit où il n’y avait plus rien que j’aimais" conclut Honan."

Qui trop embrasse mal étreint. Certes. Mais pas uniquement. Car au-delà de cette démonstration par l'absurde, le niveau de finesse des ingénieries algorithmiques permet aujourd'hui effectivement d'orienter, de guider, voire de modifier un certain nombre de nos "préférences" et de nos goûts (cf supra l'expérience de Facebook). Là aussi c'est un vieux problème et l'expérience de Mat Honan pourrait être déclinée sur l'ensemble des écosystèmes informationnels utilisant des ingénieries relationnelles. J'avais à l'époque – il y a de cela plus de 6 ans … – fait le test sur Amazon en partant d'un recueil de poème de Philippe Jacottet et m'étais systématiquement retrouvé, après un certain nombre d'itérations ("si vous avez aimé X, vous aimerez Y") sur des suggestions correspondant uniquement aux best-sellers du moment (cf les diapos 46 à 56 de ce diaporama sur les industries de la recommandation).

Un article paru début Août sur GlobalVoices vient éclairer un autre aspect de ce problème, en s'intéressant cette fois à "l'art de personnaliser la propagande" à propos du conflit entre Israël et l'état palestinien. Les nombreux exemples pris sur différents réseaux lui permettent de démontrer brillamment une nouvelle fois que le premier "principe actif" de l'ensemble des ingénieries relationnelles est de nous conforter dans nos propres opinions plutôt que de nous amener à nous confronter à des points de vue différents. Parce que c'est plus "confortable", parce que c'est plus "rentable", parce que c'est plus "efficace", et pour tout un tas d'autres bonnes raisons autant dictées par les règles du marketing que par le principe même de ces types de réseaux qui, même à l'échelle d'immenses communautés d'utilisateurs, restent avant tout des environnements fonctionnant en mode concentrationnaire (sur cet aspect concentrationnaire voir par exemple ici ou ). Ce qui amène l'auteur de l'article à conclure :

"Call it Homophily, call it the Filter bubble, it is a prevalent phenomenon everywhere we turn."

Et de donner un exemple très concret :

"Facebook’s trending pages aggregate content that are heavily shared (“trending”) across the platform. If you’re already logged into Facebook, you’ll see a personalized view of the trend, highlighting your friends and their views on the trend. Give it a try.

Now open a separate browser window in incognito mode (Chrome: File->New Incognito Window) and navigate to the same page. Since the browser has no idea who you are on Facebook, you’ll get the raw, unpersonalized feed."

Le problème du chiasme antagonique.

Mais revenons à notre changement de paradigme et aux nouvelles questions qu'il pose. Au commencement nous avions donc ceci :

Etape1

A partir d'informations, des médias utilisent un canal (télé, presse, radio, internet) pour atteindre un public, lequel public n'est pas en capacité, sans cette médiation, d'accéder à l'information source.

Se met ensuite en place le deuxième cycle :

Etape2

Émanation d'une entité globale que nous nommerons "public" ou "grand public" faute de mieux, des sommes d'individus utilisent un certain nombre de filtres sociaux pour accéder à de l'information "sur-mesure", laquelle information n'a ni la vocation ni les moyens d'atteindre le "grand public" sauf à rebasculer vers la première étape décrite ci-dessus. Et puis …

Et puis après avoir pendant un temps, avec le basculement des médias traditionnels vers un modèle online, et avec la nouvelle rente attentionnelle que constituent les UGC (User generated content, contenus générés par les utilisateurs), après avoir pendant un temps, disais-je, déroulé jusqu'à leurs limites (attentionnelles et marketing) les deux premiers modèles linéaires de l'accès à l'information (c'est à dire modèle 1 : Médias > canal > public et Modèle 2 : Individu > social > info), se met en place depuis quelques années un troisième modèle, beaucoup moins linéaire et dont les polarités opposées (le chiasme dont je parlais en titre) amènent à une situation au mieux de dépendance, au pire d'élimination. Ce troisième modèle peut être décrit ainsi :

  • les médias se servent de filtres sociaux pour délivrer de l'information à des sommes d'individus
  • PENDANT QUE DANS LE MÊME TEMPS
  • des sommes d'individus recherchent et/ou sont exposé et/ou produisent de l'information ré-éditorialisée par des filtres sociaux qui n'utilisent plus qu'accessoirement les médias classiques comme autant de sources.

Et là ça bloque.

Etape3

Ça bloque parce que l'on ne dispose plus de ces attracteurs constitutifs des régimes attentionnels classiques que constituaient "l'information" (dans le 1er modèle) et le "public" (dans le 2nd modèle).

Ça bloque aussi parce que les relations de "nécessité" qui unissaient l'ensemble des éléments présents dans le 1er et le 2nd modèle sont désormais absentes : les "filtres sociaux" n'ont plus vraiment besoin des médias puisqu'ils peuvent s'appuyer sur l'information fabriquée par les utilisateurs, les utilisateurs n'ont plus vraiment besoin des médias puisqu'ils disposent des filtres sociaux, les médias aimeraient ne plus avoir vraiment besoin des filtres sociaux, etc.

Ça bloque, enfin, parce que si l'on tente de superposer le schéma classique de l'information dans la théorie de Shannon et Weaver, on voit bien que des agencements collectifs d'énonciation radicalement opposés se trouvent en concurrence frontale, tant dans le rôle de l'émetteur que dans celui du récepteur, dans le rôle de la source comme dans celui du destinataire.

20860428

Le "bruit" n'est plus simplement une possible altération du signal (l'exemple suscité de Mat Honan cliquant compulsivement sur "like" relève de cette altération du signal), mais il correspond à ce brouillage cognitif permanent que j'évoquais tout à l'heure à propos de la double contrainte de l'individu devenu média de lui-même et du monde et s'efforçant dans le même temps de redevenir un simple lecteur ou spectateur (lecteur ou spectateur de lui-même au travers des instanciations de sa persona numérique, et lecteur et spectateur du monde au travers des prismes attentionnels qui lui sont proposés).

Voilà qui peut, parmi d'autres facteurs, expliquer non seulement la "crise" à laquelle font face des médias depuis maintenant plus de 10 ans en quête de transformation numérique, mais également la crise attentionnelle beaucoup plus profonde qui touche à l'expression de notre présence au monde, que celui-ci soit ou non connecté.

Comment faire apparaître l'info quand on a besoin d'un public ?

Alors même que les médias commencent à comprendre comment répondre à la question "à qui s'adresse-t-on" dans le nouveau cycle du numérique, alors même qu'en tant qu'individus, nous commençons à comprendre l'importance que revêt la question de savoir "comment apparaître quand j'ai besoin d'info", se pose déjà une nouvelle question, adressée aux premiers comme à nous-mêmes. Cette question est la suivante : "Quand et comment faire apparaître l'info quand on a besoin qu'elle trouve un public (ou une certaine somme d'individus) ?"

De la réponse à cette question dépend déjà l'avenir de l'ensemble des processus de filtrage, d'éditorialisation et de hiérarchisation de l'information en ligne ou off-line. De "l'information" mais également de "la connaissance". De l'information du monde et de la connaissance de nous-mêmes. Elle peut-être résumée d'une formule : souhaitons-nous nous plonger dans une société du spectacle, ou sommes-nous prêts à construire les outils (techniques et cognitifs) qui nous permettront d'affronter le spectacle de la société ?

All you need is … like #oupas

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Articles similaires

Commencez à saisir votre recherche ci-dessus et pressez Entrée pour rechercher. ESC pour annuler.

Retour en haut