Intelligence artificielle. “Artificial Intelligence” en anglais. “Arty fit sienne une telle engeance” en … phonétique approximative (selon le procédé d’homophonie et d’à peu près notamment cher à l’Oulipo et aux surréalistes avant eux). Notre rapport aux technologies est souvent du même ordre que le rapport qu’entretient la phrase “Arty fit sienne une telle engeance” avec le groupe nominal “Artificial Intelligence” : nous évoluons dans une compréhension en clair-obscur de la plupart de ces technologies. Un rapport qui artificialise l’intelligence que nous pouvons en avoir comme celle que nous leur prêtons au regard de leurs effets sociaux mais plus rarement de leurs causes “mécaniques”.
Dans la longue liste de ce qui définit une technologie, il y a d’abord le nom que l’on choisit de lui donner ou dont elle hérite par concours de circonstance, circonstances d’ailleurs pas toujours atténuantes. Comme tout ce que le choix d’un prénom ou l’héritage d’un nom peut comporter de projections, de cadres, d’envies d’identification et de marquage social, le nom attribué aux technologies dit également beaucoup de ce qu’elle tentent de projeter comme de ce qu’elles ont pour objet de masquer ou de travestir.
Voilà pourquoi s’il faut nommer et dénommer les gens, les choses et les technologies, il faut aussi interroger les processus de pouvoir de ces dénominations. Et il faut se souvenir et se méfier de la toute puissance d’un marketing technologique selon lequel il y a plus de 20 ans que nous devrions toutes et tous avoir des frigos qui parlent, plus de 10 ans que nous devrions circuler en voitures volantes autonomes, et où Elon Musk peut annoncer sans rire des colonies martiennes pour 2030 tout comme Mark Zuckerberg nous promettait avec le plus grand sérieux que nous serions aujourd’hui des milliards dans le Métavers.
Il y a presque 4 ans de cela, à propos des différents projets de casques ou lunettes de réalité augmentée, j’écrivais qu’il fallait être attentif à “un ensemble de technologies qui postulent qu’il faut commencer par s’isoler pour pouvoir être ensemble ; qu’il faut commencer par se dissimuler aux autres pour pouvoir communiquer avec d’autres ; qu’il faut commencer par accepter de diminuer et d’entraver nos sens pour pouvoir les voir ensuite ‘augmentés’.”
Être humain augmenté ? De manière générale, et comme l’écrivait Laurence Allard (dans un entretien au magazine Culture Mobile aujourd’hui indisponible), “les technologies de l’Homme augmenté naissent d’abord pour répondre aux besoin de l’Homme diminué.” De fait et bien souvent, initialement les prothèses de l’être humain “augmenté” sont d’abord là pour répondre à une “diminution” liée à un handicap, un empêchement, une entrave accidentelle ou génétique.
Réalité augmentée ? A bien réfléchir sur ce que l’on nomme “réalité augmentée” on constate qu’elle est d’abord une réalité diminuée parce qu’une une réalité sans réel.
Intelligence artificielle ? L’intelligence artificielle est d’abord une bêtise absolue d’artefacts (programmes et algorithmes). Se souvenir ici de ce qu’explique depuis longtemps Gérard Berry : “Fondamentalement, l’ordinateur et l’homme sont les deux opposés les plus intégraux qui existent. L’homme est lent, peu rigoureux et très intuitif. L’ordinateur est super rapide, très rigoureux et complètement con.”
Assistants intelligents ? Les “assistants intelligents” (de Siri à Alexa jusqu’à ChatGPT et au-delà) sont d’abord des idiots utiles, le révélateur de nos désistements. Ils ne nous assistent pas intelligemment, ils dirigent bêtement nos indécisions ou nos manques de temps, d’énergie ou d’envie. Et ils le font avec – entre autres – un énorme problème de biais de disponibilité et de biais de conformité, puisqu’ils n’explorent que des possibles immédiatement (et souvent commercialement) disponibles et, pour l’essentiel, qu’ils nous renvoient et nous “assistent” vers du même, vers de l’identique, vers de la reproduction linéaire de comportements déjà immensément prévisibles. Ils sont donc parfaitement étrangers à toute forme d’intelligence.
Langage naturel ? Le langage naturel est souvent convoqué pour décrire notre capacité à interroger différents artefacts génératifs ainsi que leur propre capacité à nous répondre “en langage naturel”. Or ce que nous dénommons “langage naturel” est d’abord et avant tout un dialogue artificiel. ChatGPT (et les autres) ne nous répondent pas en langage “naturel” car il n’est rien de moins naturel que les échanges dialogués que nous avons avec ces artefacts. Pour s’en convaincre il suffit de regarder l’immensité des procédures et opérations techniques qui permettent cette illusion de naturalité, et parmi elles notamment le processus dit de “Alignment Tuning” ainsi décrit par Zhao, Wayne Xin, et al. dans leur étude de référence parue le 31 mars 2023 : “A Survey of Large Language Models“.
Étant donné que les LLM (Large Language Models) sont formés pour capturer les caractéristiques des données des corpus de pré-entraînés (comprenant à la fois des données de haute et de basse qualité), ils sont susceptibles de générer un contenu toxique, biaisé ou même nuisible pour les humains. Il est nécessaire d’aligner les LLM sur les valeurs humaines, c’est-à-dire qu’ils soient utiles, honnêtes et inoffensifs (sic). À cette fin, InstructGPT conçoit une approche de réglage fin (“fine-tuning”) qui permet aux LLM de suivre les instructions attendues, qui utilise la technique d’apprentissage par renforcement avec un retour d’information humain. Il incorpore l’humain dans la boucle de formation avec des stratégies d’étiquetage élaborées. ChatGPT est en effet développé sur une technique similaire à InstructGPT, qui montre une forte capacité d’alignement en produisant des réponses de haute qualité et inoffensives, par exemple en rejetant de répondre à des questions insultantes.
Si le langage “naturel” ne peut l’être qu’à condition d’être au préalable “aligné” par des travailleurs invisibilisés (Digital Labor) sur des principes d’utilité, d’honnêteté (sic) et d’innocuité alors que reste-t-il à ce langage de naturel ? Imaginez un instant une société dans laquelle toute forme de langage ou d’échange conversationnel serait ainsi « supervisé » par ces 3 règles. C’est littéralement le rêve de la novlangue et du néo-parler Orwellien.
Chaque fois que revient cette question du dialogue en langage naturel, je rappelle ce que j’écrivais en 2016 sur le sujet :
Aucune question même formulée en langage naturel n’est vraiment naturelle car elle ne s’adresse pas à un individu mais à une somme d’instructions mathématiques construites selon un déterminisme algorithmique permettant de valoriser un régime médiatique de la popularité et le modèle économique qui l’accompagne.
Et je me souviens aussi de ces chatoyantes cartes France Télécom du tout début des années 2000 :
Et oui. Le langage “naturel”, déjà à l’orée des années 2000. Et même les perroquets stochastiques de Emily M. Bender, Angelina McMillan-Major, Shmargaret Shmitchell et Timnit Gebru étaient déjà là plus de 20 ans avant la publication de leur article
Dans le cas de ChatGPT et de ses clones et sbires, la formule que j’employais à l’endroit de Google pourrait être reformulée sans y changer presque rien. Et voici ce que cela donne.
Aucune question même formulée en langage naturel n’est vraiment “naturelle” car elle ne s’adresse pas à un individu mais à une somme d’instructions mathématiques construites selon un déterminisme algorithmique permettant de valoriser un régime probabiliste de satisfaction du requêtant, optimisé et calibré par un travail humain invisibilisé.
Le régime de construction de chacune des réponses produites obéit en outre à des ontologies mouvantes et le plus souvent imperscrutables mais qui toujours reflètent une vision du monde, sauf lorsque par négligence ou par choix, elles font l’impasse de cette vision en se moquant totalement des implication sociales et politiques des réponses apportées tant qu’elles maintiennent un horizon de rente économique.
Nous venons d’un monde où les discours sur les techniques se sont élaborés et construits à la fois sur le plan mécanique et artefactuel comme sur le plan philosophique. Nous avons un discours (logos) sur des activités de production ou de fabrication (techné). Nous entrons depuis quelques années déjà, dans un monde où la technique nous parle et où cette capacité de parler interroge fondamentalement la capacité de sincérité de la langue, son “honnêteté” et/ou son “innocuité” comme évoqué plus haut. D’autant que nous somme souvent incapables de savoir qui parle réellement derrière ces technologies parlantes, technologies qui ne sont qu’autant de formes de ventriloquies : des technoloquies.
Sans entrer dans un long rappel historique, tout commence avec le test de Turing (1950) où il s’agit évaluer la capacité d’une machine à imiter le comportement humain, et plus précisément, sa capacité à simuler une conversation avec un être humain de manière convaincante.
Puis, avec le premier programme informatique qui simule l’interaction langagière avec un psychothérapeute reformulant la plupart des affirmations du “patient” en questions et en les lui posant, son auteur Joseph Weizenbaum pointe ce qu’il nomme l’effet Eliza (1964-1966), c’est à dire la tendance à assimiler de manière inconsciente le comportement d’un ordinateur à celui d’un être humain, très exactement “la prédisposition à attribuer à des suites de symboles générés par ordinateur (en particulier à des mots) plus de sens qu’ils n’en ont réellement.”
À l’arrivée de ChatGPT en 2022 nous savons donc :
Nous avons en outre appris que les algorithmes sont bourrés de biais et qu’ils automatisent et aggravent les inégalités bien plus qu’ils ne les corrigent ou les atténuent (lire notamment Safiya Umoja Noble “Algorithms Of Oppression” 2018, Cathy O’Neil “Weapons of Math Destruction”, 2016 et Virginia Eubanks “Automating Inequality”, 2018).
Pour le dire plus simplement :
Parlons maintenant rapidement de ventriloquie. La technique de ventriloquie s’appuie sur plusieurs types de mécanismes et de stratagèmes. L’un des premiers consiste par exemple à éviter les phonèmes nécessitant un mouvement important des lèvres – par exemple le son [p] ou [m] – ou une ouverture significative de la bouche – par exemple passer du [i] au [a]. Le ventriloque peut alors soit éviter les mots avec ces sons, soit remplacer ces sons et les mots qui les contiennent par d’autres mots qui ne les contiennent pas :
Par exemple, [b] est remplacé par [v] ou [h]. Barrière devient varrière, bonjour devient honjour. [p] est remplacé par [h]. Par devient har. [n] remplace [m]. [f] devient [h]. Formidable devient hormidagle. (…). Mexique devient exique. À chaque fois, le ventriloque compte sur la capacité du cerveau de l’auditeur à corriger automatiquement (et surtout inconsciemment) les sons erronés qu’il entend. Celui-ci l’accepte d’autant mieux que les personnages inventés par les ventriloques sont des animaux. (Source : Le bout de la langue)
Beaucoup d’entre nous ont également vu passer l’expérience classique de compensation et de correction cognitive :
Une étude de l’unitiersvé de Cigbmdare a mtnoré que l’on puet snas plorèmbe lrie un txete dont les letetrs snot dnas le drrdoése puor peu que la pieèrrme et la dnèeirre lttere de cquhae mot rsnetet à la bnone pacle. Ccei mortne que le caerevu ne lit pas teouts les ltrtees mais pnerd le mot cmmoe un tuot. La pruvee : avuoez que vuos n’aevz pas eu de mal à lrie ce txtee.
“Artificial Intelligence” demanda-t-il. “Arty fit sienne une telle engeance” répondit-il.
Dans ces « technoloquies » quelle est la part de l’illusion ? Quelles sont les substitutions qui s’opèrent et que notre cerveau corrige avec un effort à peine conscient ? Et si notre cerveau “accommode” au sens optique du terme c’est à dire s’il effectue un ensemble de mises au point visant à la netteté de la perception, alors dans le cas précis de ces technoloquies, de quoi s’accommode-t-on réellement ?
Voilà pourquoi notre premier travail de chercheur mais aussi de citoyen est de prendre la sémantique technologique à revers (car elle est souvent une antiphrase) et notre responsabilité politique est d’essayer de la remettre à l’endroit.
]]>Le concept est simple : un chercheur (moi), un apéro, une association étudiante pour tenir le BarBU (le bar de la BU ouvert uniquement à l’occasion de ces apéro-chercheur) et pis c’est tout.
Ah oui, et puis un thème, quand même. On parlera donc artefacts génératifs. Enfin intelligence artificielle. Enfin ChatGPT, Midjourney et tout ça quoi.
Pourquoi venir : vous m’écoutez (et ça me fait plaisir), vous apprenez des trucs (enfin j’espère), on discute (parce que c’est certes une conf mais c’est aussi un apéro) et à chaque fois que vous buvez un coup (avec ou sans alcool) vous aidez à financer une asso étudiante.
C’est le 25 Mars. A La Roche sur Yon. Dans la meilleure BU de la galaxie connue. Entrée libre.
]]>Chaque métier dans la longue liste de ceux qui reposent sur le contact à l’autre, aux autres, chaque métier comporte sa part d’exposition à des situations délicates, complexes, dramatiques parfois. Les métiers du soin et de la médecine sont évidemment en première ligne. Les métiers de l’enseignement le sont aussi de plus en plus.
Être presque quotidiennement confronté à la souffrance de jeunes gens et de jeunes filles prend plusieurs formes.
Il y a les effondrements physiques parce qu’ils ont faim. Je ne parle pas ici de crises d’hypoglycémie de jeunes bien portants, je parle d’étudiant.e.s qui ne font qu’un repas par jour, et pour qui la disette est devenu un quotidien. Pour elles et pour eux, les campus universitaires se sont transformés en succursales des restos du coeur. On donne des cours et à manger.
Et il y a la “santé mentale”. La santé mentale ce sont ces jeunes que l’on voit, côtoie ou décrit comme en “dépression”, en “souffrance” … ; un truc qui n’a l’air d’être ni seulement de la tristesse, ni uniquement de la mélancolie. La santé mentale ce sont aussi ces jeunes avec des pathologies lourdes (bipolarité, anorexie, phobies scolaires, troubles du spectre autistique, ensemble des troubles du neuro-développement qui sont une bombe sanitaire prête à exploser …), pathologies dont certaines sont repérées, traitées et suivies, et d’autres ignorées, déniées, non-accompagnées ; la santé mentale ce sont aussi des mal-être, des mal-vivre, des formes de stress allant parfois jusqu’au burn-out. Il y a celles et ceux qui voient un psy. Celles et ceux qui en voient deux. Celles et ceux qui n’en voient pas : parce que pas de place, parce que pas le temps, parce que pas capables, parce que pas accompagné.e.s, parce que pas prêt.e.s. Il y a celles et ceux qui ont déjà fait des passages en HP, plus ou moins longs, celles et ceux qui sont sous traitement médicamenteux plus ou moins lourd.
Il y a 10 ans quand on voyait un étudiant dormir en cours, on l’engueulait et on lui expliquait qu’il fallait qu’il se détende un peu sur son rythme de soirées chupitos. Aujourd’hui quand un.e étudiant.e dort en cours je ne sais plus si c’est d’épuisement professionnel, de trouble de l’attention, ou des suites d’un changement de traitement (ou d’un abus de Chupitos en soirée). Il y a aussi les situations familiales éclatées. Il y a aussi celles et ceux qui sont “en rupture” : de famille, de scolarité, d’envie. Il y a la question des violences et agressions sexuelles qui remontent ou qu’elles (le plus souvent) traversent encore quotidiennement.
Ces jeunes gens et ces jeunes filles, sont étudiant.e.s, ils et elles ont entre 18 et 22 ans, et les politiques (de santé) publiques se torchent avec leurs souffrances.
J’enseigne à l’université depuis maintenant plus de 20 ans. Je l’ai déjà dit, écrit, gueulé, mais jamais, je dis bien jamais, je n’ai vu autant de jeunes dans de telles situations de souffrance. Jamais. Et je ne parle pas ici uniquement des étudiant.e.s que je côtoie directement là où j’enseigne, mais je parle aussi des échanges que l’on a entre collègues de structures et d’universités toutes différentes, partout c’est le même constat, partout les mêmes alertes, partout les mêmes alarmes. Pas une seule réunion, pas un seul échange à l’échelle locale, régionale ou nationale dans laquelle on n’en vienne pas à évoquer ces questions, et à quel point nous nous trouvons pour l’essentiel démuni.e.s devant ces urgences. Et tout cela n’explose pas “simplement” parce que la parole s’est libérée et que la santé mentale n’est plus un tabou. Ou parce que nous serions de plus en plus “à l’écoute”. Je n’en ai jamais vu autant parce que jamais la jeunesse n’a autant été maltraitée. “Sous-traitée” serait d’ailleurs un terme plus approprié. Et si autant d’étudiant.e.s viennent aujourd’hui exposer autant de problèmes à leurs enseignant.e.s, ce n’est pas parce que nous sommes la première porte ouverte à proximité, mais parce que la plupart du temps, des portes, il n’y en a plus aucune autre.
Lorsque l’on est submergé d’émotions que l’on ne parvient plus à rationnaliser à force d’écouter ou d’être confronté à ces situations de vies et à ces témoignages (directs ou indirects), on a toujours une phase dans laquelle, pour se protéger d’une culpabilité ou s’excuser d’une impuissance, on essaie de se marteler deux choses :
Et puis on réalise. Que la question de celles et ceux qui vont bien n’est pas un sujet. Qu’il en est qui iront toujours bien ou en tout cas pas significativement mal et que s’il faut s’en réjouir et le souligner, cela ne fait que renforcer le soin et l’attention que nous devons porter aux autres.
Et puis on réalise. Qu’en plus de tout ce que j’ai décrit plus haut, ils et elles sont aussi souvent déjà des travailleurs pauvres, cumulant un, deux ou parfois trois jobs sur leurs temps de soirée ou de week-end, jonglant avec des bourses faméliques, dans des conditions de logement souvent précaires, et tentant d’étudier dans ce chaos. Pris dans des systèmes de contraintes de plus en plus forts et de plus en plus tôt : Affelnet au collège, les groupes classe explosés façon puzzle depuis la réforme Blanquer, Parcoursup à la fac, MonMaster, les réformes incessantes qui s’empilent à chaque étape de leur scolarité du primaire à l’université, etc. Cette génération fait face à une injonction paradoxale qui les rend dingue à raison : on les saoule avec la réalité de diplômes qui seraient (du Bac à l’université) de plus en plus “faciles” ou de moins en moins “difficiles” à obtenir, et dans le même temps une partie de cette génération concentre une somme de difficultés et d’entraves (financières, sociales, psychologiques, géographiques) qui rend cette obtention quasi insurmontable ou au prix d’efforts et de sacrifices qui relèvent, à l’échelle de leurs trajectoires individuelles, de formes explicites de maltraitance.
Alors oui, leur droit de se plaindre passera toujours au second plan derrière notre devoir d’écouter et de recevoir ces plaintes.
Il y a eu, bien sûr le Covid. Comme dans une bonne ou mauvaise série Netflix, c’est deux ans, parfois trois ans de vie sociale qui leur ont été ôtées. A l’âge, où du lycée jusqu’aux premières années de l’université, l’essentiel de cette vie sociale, affective, politique, se construit. J’ai déjà sur ce blog raconté le fracas de ces années, la nausée de ces Zooms come autant de fenêtres sur cours, la nécessité absolue de se retrouver y compris pour faire cours dehors, à midi, sous la pluie, dans la rue, n’importe où mais “faire” cours comme on “fait” corps.
Dès le début, avec tant d’autres j’ai compris à quel point tout cela allait pour beaucoup en abîmer certain.e.s. J’ai espéré aussi que comme après des années de guerre ou de privation s’ensuivent des années d’excès, où ils et elles rattraperaient avec frénésie tout ce dont ils et elles avaient été privé.e.s. Certain.e.s le font ou l’ont fait et le feront encore. Mais les autres ?
Un jour sur Twitter quelqu’un m’a envoyé ce message :
“Juste un mot en passant pour te remercier de ta pugnacité. Mon gamin fait partie des milliers d’étudiants dont l’état psychologique s’est effondré. Le psychiatre recommandé par l’université l’a bourré de prozac et de medocs anti psychotiques le rendant inapte aux examens. Un légume. Je l’ai découvert trop tard car il le cachait. Là je cherche des établissements pour l’accompagner. Les institutions sont toutes débordées. Bref tu avais raison sur toute la ligne.“
C’était en Mai ou Juin 2021 et nous étions déjà dans une belle merde. Des messages comme celui-ci j’en recevais des dizaines suite à la médiatisation de mes prises de position. J’ai depuis cette époque compris (au moins) trois choses.
J’ai compris que la santé mentale est aussi contagieuse. Contagieuse parce qu’elle se donne à voir dans les collectifs qui sont les leurs : amphis, groupes classe, travaux dirigés. Contagieuse parce qu’elle n’est plus un tabou et qu’ils et elles en parlent, la documentent, la montrent, la décrivent, l’interrogent dans toutes leurs expressions singulières au sein d’espaces partagés, que ces espaces soient physiques ou numériques. Contagieuse parce qu’ils et elles sont en empathie forte les uns avec les autres et que si la joie circule, la peine circule aussi.
J’ai compris que la santé mentale étudiante se traite ou en tout cas doit être prise en charge sur un temps long, qui dépassera toujours les cycles d’étude (entre 1 et 3 ans) pendant lesquels nous sommes en capacité de les accompagner et de les suivre pleinement. Et qu’à ce titre bien sûr, la médecine universitaire est un impératif, mais ne sera jamais suffisante (y compris le jour où elle sera dimensionnée et rémunérée autrement que dans un pays du tiers-monde, j’y reviendrai plus tard)
J’ai compris enfin qu’écouter ne suffirait plus. Plus jamais. Même attentivement. Même patiemment. Écouter ne suffira plus jamais pour la et peut-être les générations dont nous parlons aujourd’hui.
J’ai compris que là où des structures et des composantes d’université pourtant bien moins financièrement à l’os et avec des cohortes d’étudiant.e.s raisonnables et éloignées des amphis bondés, que là où ces structures échouaient à proposer des solutions adaptées ou se trouvaient réduites à d’incessants bricolages, j’ai compris l’étendue du naufrage dans d’autres composantes, d’autres structures qui n’avaient pas la chance des premières.
“68% des étudiants déclarent souffrir d’au moins un symptôme dépressif et sont en situation de mal-être.” (enquête CSA)
“Près d’un étudiant sur quatre [déclare avoir des pensées suicidaires], un chiffre qui a augmenté de six points depuis la précédente enquête en 2019.”
Et la dernière étude de Santé Publique France, datée du 3 Février 2024, et qui martèle :
L’augmentation importante des passages aux urgences pour idées suicidaires, notamment chez les jeunes, témoigne d’un mal-être qui apparait durable. L’impact de la crise sanitaire est probable, mais d’autres causes potentielles de mal-être (telles que les difficultés économiques, la situation internationale ou les problèmes environnementaux) pourraient contribuer à une altération persistante de la santé mentale et au risque suicidaire.
Et puis comment faire l’impasse sur l’abandon, criminel à plus d’un titre, de la psychiatrie et de la pédo-psychiatrie en France ? Extrait d’un récent article de La Croix :
À l’hôpital, les démissions se succèdent. Dans son CHU, l’unité de pédopsychiatrie de liaison, qui réunissait une dizaine de soignants en pédiatrie générale, ne tient plus qu’avec une seule pédopsychiatre « très motivée mais en risque d’épuisement majeur ».
Ces derniers mois, les urgences pédiatriques n’ont jamais reçu autant d’enfants en souffrance psychique : des 10-15 ans, en majorité des filles, parfois renvoyés chez eux faute de lits disponibles. « C’est difficile à vivre pour les équipes, et je ne parle même pas des parents… » Pour parer au plus pressé, des pédopsychiatres venus de l’extérieur se relaient à la journée aux urgences. « La dégradation de la santé mentale des enfants était là avant la pandémie, qui a fait office d’accélérateur, précise-t-elle. Ajoutez à cela les guerres en cours, les préoccupations environnementales et leur côté fin du monde, les nouvelles anxiogènes qui circulent sur les réseaux sociaux… »
La pression en milieu scolaire, aussi. « Il y a toujours eu une corrélation très forte entre vacances scolaires et baisse des consultations aux urgences pédiatriques pour problème de santé mentale… » Parmi les enfants qui vont très mal, beaucoup ont été victimes de violences et sont parfois confiés à l’Aide sociale à l’enfance, elle aussi en grande difficulté, pointe-t-elle.”
Il faudra beaucoup plus que des hotlines et des numéros verts ou de faméliques cellules d’écoute déjà toutes débordées ou saturées malgré l’engagement de celles et ceux qui sont derrière.
Ecouter ? Ecouter ne suffit plus. Orienter ? Orienter vers des dispositifs d’assistance et de suivi également saturés et avec des délais d’attente incompatibles avec les situations d’urgence traversées, orienter ne suffit plus, non plus.
Puisque nos campus et nos universités se sont déjà transformés en succursales des restos du coeur (selon le désormais célèbre classement de Miamïam), il faut dimensionner les services de prévention, de médecine et de santé universitaire à l’échelle nécessaire. C’est à dire qu’il faut recruter, revaloriser (ces métiers du soin comme tous les autres), et a minima tripler les postes existant.
Au moment du COVID, la France disposait (en équivalent temps plein) d’un psychologue pour près de 30 000 étudiant.e.s là où les recommandations internationales préconisent un ratio de 1 psy pour 1500 étudiant.e.s. Et c’était consternant. Suite au COVID, la 6ème puissance économique mondiale qui compte dans ses rangs la première fortune mondiale (et quelques autres), ce grand pays qui aime les grandes causes avant de découvrir que “oui mais bon c’est Gérard“, cette patrie de liberté qui met l’éducation, ah non pardon, la lutte contre les violences faites aux femmes, ah non pardon, l’agriculture, ah oui voilà, l’agriculture au dessus de tout, la France donc a sorti – accrochez-vous – le budget pour la création de … 80 postes supplémentaires de psy. Yolo. 80 putains de postes supplémentaires. Même pas un putain de poste par université, et la plupart de ces putains de postes n’étant d’ailleurs pas pérennes (faudrait pas non plus abuser hein).
Résultat : on passe de 1 psy pour 30 000 étudiant.e.s à 1 psy pour 15 000 étudiant.e.s.
Calcul simple : sachant que 70% des étudiant.e.s déclarent souffrir d’au moins un symptôme dépressif, et sachant qu’un.e étudiant.e sur 4 déclare avoir des pensées suicidaires (enquête CSA), et sachant que la France dispose désormais d’un psy pour 15 000 étudiant.e.s, calcule le pourcentage de chances d’obtenir un rendez-vous qui pourrait permettre d’éviter un drame.
Gagné : il est à peu près équivalent au pourcentage de chances que les enfants de Bernard Arnault puissent bénéficier du repas à un euro au Resto U si le repas à un euro pour tou.te.s les étudiant.e.s avait été voté sur les bancs de la droite de l’assemblée (ce qui n’a pas été le cas puisque la patrie de l’égalité ni de droite ni de gauche mais quand même de droite, flippait grave de l’injustice flagrante qui aurait permis aux enfants de Bernard Arnaud d’aller manger au Resto U pour un euro).
(Extrait du rapport de Juin 2022 de l’association Nightline)
Très sincèrement, à part des insultes, je n’ai plus de mots pour qualifier une telle dose de cynisme, d’incurie et de pur foutage de gueule. A fortiori quand je vois Sylvie Retailleau, de plus en plus influenceuse du sup’ et de moins en moins ministre, avoir pour seule politique en la matière de continuer de créer des numéros verts et des plateformes d’écoute en déléguant leur gestion à des associations déjà dépassées.
Donc il faut créer des postes pérennes de psychologues et de médecins à l’université. Et puis instaurer enfin un revenu étudiant universel. Pour qu’au moins ce souci de n’avoir pas à choisir entre, par exemple, se soigner ou se nourrir, n’en soit plus un.
Là où j’exerce, un petit IUT de province, nous bénéficions d’un centre de santé ouvert 4 jours sur 5. C’est un luxe presqu’indécent à l’échelle de la misère de tant d’universités. On l’appelle d’ailleurs entre nous le centre LVMH. Ce centre de santé est fermé le mercredi et globalement débordé les autres jours de semaine. Je vous laisse deviner quel est le jour de la semaine où nous mesurons l’absolue nécessité de disposer d’un centre de santé ouvert toute la semaine.
Il faut un plan d’urgence (réclamé depuis 20 ans) de la psychiatrie et de la pédo-psychiatrie. Ne pas l’avoir fait il y a 10 ans était une erreur, ne pas le mettre en place aujourd’hui est une faute politique majeure et un crachat à la gueule du pays tout entier, notamment de sa jeunesse. Ou alors il faudra se contenter de slogans (et d’uniformes du SNU). C’était “dur d’avoir 20 ans en 2020” ? C’est toujours dur d’avoir 20 ans en 2024. Et à ce rythme ce sera toujours encore plus dur d’avoir 20 ans en 2028. Mais on aura des slogans de pubards, des numéros verts de bâtards, et des uniformes (moches) de connards.
Et pour le reste, “de nombreux dispositifs d’aide et d’écoute existent“. C’est vrai. C’est vrai ils sont nombreux. C’est vrai ils existent. C’est vrai ils sont saturés. C’est vrai ils sont insuffisants. C’est vrai ils sont sous-dimensionnés. C’est vrai ils sont indignes du problème et de la 6ème puissance économique mondiale.
Je fais un métier formidable. Je vais bien (nonobstant cette envie récurrente de pratiquer des soins bucco-dentaires sur Macron et Retailleau – et quelques autres – à l’aide de hallebardes chauffées à blanc et enduites d’acide). J’ai des étudiant.e.s qui souffrent et j’en ai aussi qui vivent leur meilleure vie. J’en vois qui sombrent par moments et d’autres qui s’illuminent soudain. Ce sont d’ailleurs parfois les mêmes. Celles et ceux qui ne vont pas bien. Celles et ceux qui vont bien. Celles et ceux dont on ne sait rien. J’enseigne aux trois catégories. Je suis disponible pour les trois catégories. J’essaie de l’être. Mais je ne peux pas faire comme si je ne voyais et n’entendais pas les premiers. Et je ne peux plus faire comme si les voir et les entendre suffisait. Parce que cela ne suffira plus jamais. Parce que chaque année, chaque semestre, chaque mois, chaque semaine parfois, nous sommes les mailles d’un filet de sécurité dont on se demande toujours s’il n’est pas l’un de leurs derniers. Et nous savons que si une maille craque d’autres suivront peut-être.
Et que les choses soient bien claires, j’emmerde les colibris et je conchie le syndicat des petits gestes quotidiens. Nous avons fait déjà bien plus que notre part pour éteindre l’incendie. Et on se demande, je me demande, ce que l’on attend encore. Pour foutre le feu.
]]>
A l’occasion des 20 ans du réseau social, j’ai eu l’occasion d’échanger avec pas mal de médias et de journalistes. Vous pourrez notamment m’écouter dans le podcast de l’AFP produit et réalisé par Clara Guillard (merci à elle).
Le meilleur résumé de l’anniversaire de Facebook c’est très clairement la scène culte des tontons flingueurs dans laquelle Ventura (Fernand Naudin) vient chanter “Happy Birthday to You” à Blier (Raoul Volfoni) : “Non mais t’as déjà vu ça ? En pleine paix, y chante et pis crac, un bourre-pif, mais il est complètement fou ce mec ! Mais moi les dingues, j’les soigne, j’m’en vais lui faire une ordonnance, et une sévère, j’vais lui montrer qui c’est Raoul.”
Avec dans le rôle de Raoul, Mark Zuckerberg, et dans le rôle de Fernand … le Sénat américain (entre autres …)
Another “bourre-pif” in the (social) Wall
En 20 ans sur Facebook (ah bah oui, j’y suis depuis quasiment 20 piges) j’ai assisté (comme celles et ceux qui y sont depuis 20 piges) à plusieurs révolutions de la plateforme bleue comme on s’arrange.
Quand elle était essentiellement peuplée de jeunes et d’étudiant.e.s j’ai défendu l’idée qu’il fallait que les universitaires aillent y faire estrade pour profiter de cette puissance de recommandation, et que oui, il fallait être ami avec ses étudiant.e.s.
Quand après déjà quelques années de lutte et de lobbying, elle autorisa pour la première fois, à enfin pouvoir récupérer nos données personnelles (photos, échanges, etc.) j’ai fait le compte de ce que cela pouvait représenter.
Quand elle a traversé une immensité de scandales et que lanceurs et lanceuses d’alerte nous ont permis de les documenter, j’ai là aussi à chaque fois tenté d’en faire l’analyse.
Pendant 20 ans j’ai inlassablement expliqué, montré et répété que derrière le projet du numérisation et de virtualisation des relations sociales qui est au coeur de la vision de Zuckerberg, se lisait en réalité l’essence d’un projet fondamentalement politique.
J’ai dédié un court (mais passionnant et toujours en vente livre à la plateforme bleue comme on s’arrange : “Le monde Selon Zuckerberg” ; et je l’ai également largement évoquée dans un autre livre (moins court mais tout aussi passionnant et presque toujours en vente mais en train de virer collector alors dépêchez-vous) : “L’appétit des géants : pouvoir des algorithmes, ambitions des plateformes.” Et j’étais aussi l’un des guests du formidable documentaire de Julien Le Bot sur “L’empereur de Facebook”.
Et puis j’ai aussi beaucoup écrit et analysé, analysé le rôle que cette plateforme en particulier avait joué dans un certain nombre de mouvements sociaux au travers du monde, et particulièrement en France lors de la révolte des Gilets Jaunes avec son “algorithme des pauvres gens”. Pour une large part, Facebook reste aujourd’hui le réseau social des classes populaires.
Je me suis (un peu) planté sur les ambitions présidentielles de Zuckerberg mais je pense avoir plutôt vu juste sur le reste.
Facebook a 20 ans. Pour cette plateforme dont son fondateur nous répète qu’il voudrait qu’on la (et le) traite comme “something between a Telco and a Newspaper“, c’est tout sauf l’âge de la plénitude de la jeunesse. Facebook a 20 ans et cet anniversaire est un crépuscule. Un crépuscule certes toujours financièrement rayonnant (les derniers résultats trimestriels, pour le groupe Meta comme pour les autres Big Tech sont toujours aussi colossaux et après l’explosion de la vague Covid, suivie d’une relative stagnation qui suivit, les voilà revenues à un rythme de rente plus que soutenu par – notamment – les avancées et plus ou moins fausses promesses de l’IA), mais un crépuscule tout de même.
Crépuscule générationnel. Facebook est devenu une plateforme de Boomers. Relativement à la sociologie des usages de ce qui constitue aujourd’hui la flotte impériale des plateformes numériques (Snapchat, Instagram, TikTok, Twitch, et quelques autres), Facebook est clairement Ehpad numérique.
Crépuscule des usages. Ils ont massivement basculé dans d’autres espaces socio-médiatiques (alignés souvent sur la bascule du crépuscule générationnel).
Crépuscule de l’image (de marque). La succession et l’enchaînement des scandales est tellement forte depuis maintenant 6 ans et “le” scandale fondateur qui fut celui de Cambridge Analytica, que l’explication de la passion soudaine de son fondateur pour le Jiu Jitsu ne tient peut-être pas uniquement à son virage masculiniste.
Tant de crépuscules n’augurent pour autant pas nécessairement d’une chute et d’une nuit noire. Car Facebook n’est plus “que” Facebook, mais Facebook est l’un des socles du groupe Méta, lequel se décline et vit essentiellement des ressources de son autre portefeuille de services à commencer par Instagram et WhatsApp.
Mais la question de savoir si Facebook (le média social) fêtera son 30ème ou 40ème anniversaire peut donc être posée. L’avenir du groupe Méta, lui, n’est pour l’instant pas un sujet. L’échec du métavers tel qu’imaginé par Zuckerberg semble aujourd’hui s’équilibrer un peu grâce à la stratégie du groupe sur l’IA dont le portefeuille de services associés (assistants virtuels notamment) est une voie médiane permettant à la fois de continuer d’avancer sur le chemin d’une réalité et de services “augmentés” sans totalement renoncer (au moins en termes de comm) à la prophétie d’une virtualisation totale de nos relations sociales et interpersonnelles.
En 20 ans, Facebook a construit son succès et est parvenu à son apogée sur une base qui était celle d’un “pur” réseau social, c’est à dire dans lequel la fonctionnalité de mise en relation était la clé de l’essentiel des interactions. Son “déclin”, déclin plus que relatif bien sûr – beaucoup de plateformes rêveraient et rêveront toujours de “décliner” tout en continuant de rassembler plus de 3 milliards d’utilisateurs …) – son déclin tout de même, s’est engagé à l’unisson de la bascule du “réseau” social au “média” social, dans lequel la clé de l’interaction devînt celle des métriques du “like” et où nos “murs” sociaux s’emplirent de tout autre chose que les simples statuts de nos relations.
Le Zuckerberg pâle et à l’allure quasi-robotique et mutique qui paraissait totalement égaré lors de ses auditions suite au scandale Cambridge Analytica en 2018 a aujourd’hui gagné en chevelure, en colorimétrie faciale et en épaisseur physique (Jiu Jitsu attitude). Mais il semble, en 2024, toujours aussi étrangement perdu lorsqu’il doit faire face en direct à des accusations qui semblent, quatre ans plus tard, le dépasser totalement.
Facebook a 20 ans. Zuckerberg en a 39. Mais la plateforme qu’il a créé apparaît aujourd’hui étrangement plus âgée que lui. Elle est déjà le vestige d’un rêve, le sien, qui du projet de noter les filles les plus hot du campus de Harvard à celui de bâtir un univers entièrement virtuel, se fracasse sur la trivialité et parfois la violence d’usages dont il n’a jamais été capable de penser les enjeux proportionnellement à l’échelle des communautés humaines ayant vocation à s’y retrouver agglomérées.
“Move Fast and Break Things.” C’était le projet et la devise initiale. Le Jiu Jitsu qu’il pratique désormais régulièrement est initialement l’art que l’on enseignait aux samouraïs pour se défendre lorsque ceux-ci étaient désarmés lors d’un duel ou sur le champ de bataille. Zuckerberg apparaît en effet totalement désarmé quand la simple accumulation des plateformes qu’il dirige le dessine pourtant et paradoxalement si puissant.
]]>
Voici quelques-unes des raisons de ce choix telles qu’exprimées par les universités :
Nantes. (le communiqué officiel paraîtra le 31 Janvier 2024 mais nous avons été invités, dans le mail nous en informant, à communiquer dès maintenant, donc … bah je communique : “Nantes Université suspend toute activité sur le réseau X. Nantes Université tire ainsi les conséquences d’une profonde évolution éditoriale du réseau X qui a fait le choix de se retirer du code européen des bonnes pratiques contre la désinformation et a modifié ses règles de modération. Engagée pour mettre le progrès scientifique et l’innovation au service de la société, profondément attachée à la démocratie, Nantes Université défend des valeurs de tolérance, d’humanisme et d’universalisme incompatibles avec la dérive de ce réseau. Vous pouvez continuer à suivre nos actualités sur Instragram, Linkedin, Facebook et sur notre site web.”
Strasbourg (17 Janvier 2024): “L’Université de Strasbourg a décidé de quitter le réseau social X. L’évolution prise par ce réseau motive cette décision : absence de respect du code de bonne conduite européen, certification payante, démultiplication de fausses informations et du complotisme.”
En Décembre 2023, c’est Bordeaux université qui met également son compte en veille après 13 ans présence.
Et avant elles, Aix-Marseille, dès le mois d’Octobre 2023 : “Fidèle à ses valeurs de respect, de tolérance et d’humanisme, Aix-Marseille Université a décidé de suspendre son activité sur réseau social X (ex-Twitter), compte tenu de son évolution éditoriale. En se retirant du code européen des bonnes pratiques contre la désinformation et en modifiant ses règles de modération, X est devenu un lieu de propagation de fake news, de contenus haineux, illicites ou violents, rentrant en contradiction avec notre mission de transmission des savoirs et de la science, d’ouverture aux autres et de tolérance. Nous rappelons que notre université place au cœur de son engagement la lutte contre toutes formes de violence et de discrimination, à l’image du Service pour le Respect et l’Égalité créé en 2022, qui constitue une première en France.”
Au mois d’Août 2023, c’est Rennes 2 qui se faisait la malle pour les mêmes motifs.
Dans ces universités, aucune n’a réellement “fermé” son compte. Elles l’ont laissé “en veille”, ce qui veut dire qu’elles ne l’alimentent plus mais qu’elles se gardent à la fois le droit d’y poster de nouveau, et qu’elles protègent aussi leur “marque” (en évitant que quelqu’un d’autre ne le récupère et n’y vienne squatter).
Dans ces universités, chacune fait face à des contextes différents et la réalité des arbitrages conduisant à se retirer de ce média social est souvent plus complexe que ce qu’en disent les communiqués de presse. Le choix de Rennes 2 par exemple, s’explique ainsi en partie par les interpellations (violentes et haineuses) dont elle est souvent victime, qui proviennent d’une frange très active de militants et de comptes d’extrême-droite affiliés à l’UNI et qui tient au positionnement historique et à l’image “très à gauche” de cette université.
[A tel point, mais c’est un autre sujet, qu’un préfet va jusqu’à clairement mettre en cause le rôle de l’université dans des violences commises en centre-ville sans que ni la ministre de l’enseignement supérieur ni France Université (qui regroupe l’ensemble des président.e.s d’universités) ne juge opportun de réagir face à cette mise en accusation totalement … ahurissante.]
Sans rapport avec le monde universitaire, c’est récemment l’émission Quotidien qui décidait, là encore face aux insultes (entre autres) de fermer son compte X. On parle (pour Quotidien) de près de 900 000 abonné.e.s, 53 000 pour Nantes Université, 31 000 pour Strasbourg, 20 000 pour Aix-Marseille, et un peu plus de 15 000 pour Rennes 2.
Twitter hier et X aujourd’hui n’ont jamais été des médias “institutionnels” ou en tout cas pour les institutions. Il est ainsi tout à fait frappant qu’y compris après parfois des années de présence, les comptes individuels de certain.e.s chercheurs et chercheurs dépassent parfois très largement ou soient d’autre fois quasiment l’équivalent en nombre de followers de ceux de leurs universités. Ce qui témoigne autant de l’incapacité des universités à faire autre chose de que la communication institutionnelle sur ce média, que de la nature même du réseau qui est le réceptacle parfait de discours individuels mais n’offre que très peu de prise aux discours institutionnels. Pour autant, rarement un média sans vocation institutionnelle n’ara permis à une institution de disposer d’une telle communauté et d’une telle audience. A titre de comparaison, le compte Twitter de Nantes Université dispose de 53 000 “followers” là où Nantes Université compte 43 000 étudiant.e.s. Le compte Instagram de cette université de compte, lui, “que” 6100 followers. Or l’on sait que les transferts de communauté, d’un média social à un autre, ne fonctionnent que très peu par symétrie et qu’il est hautement improbable que l’université ne puisse retrouver, sur Instagram ou ailleurs, l’audience dont elle jouissait sur X.
Par-delà ce qui est aussi – et ce n’est ni grave ni honteux – une opération de communication visant à affirmer la singularité des universités qui ont le “courage” d’être les premières à décider de leur départ de la plateforme X, est-ce la bonne décision pour une université que de quitter ou de mettre en veille son compte sur ce média social ? Fondamentalement je n’en sais rien. Je comprends ce choix mais je ne peux m’empêcher de penser qu’il est aussi le symptôme d’un échec. Et je voudrais vous en expliquer les raisons. En tout cas ouvrir une discussion sur ce sujet.
Ce départ est un échec d’abord parce que beaucoup des universités qui quittent le réseau X – toutes en vérité … – n’ont pas du tout ou très peu basculé sur des réseaux fonctionnellement équivalents : certaines ont des comptes sur Mastodon, Threads ou encore Bluesky, mais ces comptes sont essentiellement inactifs. Elle ne “profitent” donc pas de cette médiation directe et instantanée qui est la vocation initiale de ces sites dit de “micro-blogging” (“Ok Boomer” si vous voulez mais c’est quand même comme ça que ça s’appelle au départ). Dommage car la déperdition sera d’autant plus forte que la migration souhaitée n’a pas été réellement préparée. Et que comme je l’indiquais plus haut, il n’y a pas de transfert performatif à l’échelle des plateformes de médias sociaux (c’est à dire qu’il ne suffit pas de dire que l’on part d’ici et que l’on se retrouve ailleurs pour ce ça marche ; ça ne marche jamais)
Ensuite quitter cette plateforme qui est effectivement, sur certains thèmes ou sujets, saturée de discours de désinformation ou d’appels à la haine, c’est accepter aussi de n’offrir plus aucun contrepoint à ces discours, en tout cas plus le contrepoint que pouvaient proposer les universités. Et c’est, en bout de chaîne, contribuer un peu aussi à l’isolement des membres de la communauté universitaire (enseignants-chercheurs notamment) qui continuent d’y être et de s’y exprimer. Vous me direz : “Bah ils et elles n’ont qu’à quitter X aussi“. Oui mais c’est un peu plus compliqué que cela.
Il existe en vérité deux postures : soit l’on considère que l’écosystème discursif de X est à ce point toxique qu’il est totalement impossible d’y faire vivre quelque forme que ce soit de rationalité ou d’argumentation scientifique et alors en effet on s’en va. Soit l’on considère que c’est précisément parce que c’est devenu presqu’impossible qu’il faut s’y maintenir pour garder ouvert ce possible, si restreint soit-il.
Permettez-moi une parenthèse de quelques années en arrière, à l’époque où l’on se posait la question de savoir si les universitaires (et les universités) devaient “aller” sur Facebook et y être “ami.e.s” avec leurs étudiant.e.s. J’étais convaincu qu’il le fallait, précisément pour pouvoir capter la puissance de prescription de ces plateformes et l’utiliser à notre avantage, et aussi pour y “faire estrade”, c’est à dire (un peu pompeusement certes) pour s’offrir la possibilité d’y faire exister d’autres discours que ceux naturellement poussés par la plateforme et en épousant parfaitement les formes. Bien sûr le X de 2024 d’Elon Musk n’est pas le Facebook de Zuckerberg de 2010. Mais les enjeux du maintien d’une diversité des discours demeurent sensiblement les mêmes.
Pour en revenir au choix des universités de quitter la plateforme X “et” ou “mais” d’inviter leurs communautés (on parle de plusieurs dizaines de milliers de personnes donc ce n’est ni neutre ni anodin) à continuer de les suivre sur Instagram, ou Facebook ou LinkedIn … Faut-il rappeler qu’Instagram (tout comme Facebook) est une plateforme très loin d’être exempte de problèmes, notamment au regard du rapport au corps de l’ensemble d’une classe d’âge (précisément une classe d’âge entrant à l’université), de publicités trompeuses ou encore de dynamiques de cyberharcèlement ? Et faut-il également rappeler que LinkedIn est à l’intelligence ce qu’une poire à lavement est au transit intestinal : une purge redoutablement efficace.
Je suis à vrai dire bien content de n’avoir pas à faire le choix pour une université toute entière de rester ou de quitter X. Moi-même en tant qu’enseignant-chercheur j’ai fait le choix d’y rester, mais ceux qui me suivent et lisent ce blog depuis longtemps savent que j’entretiens un rapport particulier à ces plateformes ;-). Et je comprends tout à fait le choix de collègues d’en partir. Car pour certaines d’entre elles et eux (mais quand même “elles” plus certainement), et au regard de la violence systématique des échanges qu’elles ont à subir (soit en tant que personnes soit au regard de leurs thématiques de recherche), il devient en effet impossible et tout à fait vain d’y rester.
Mais j’ai aussi la conviction que dans un univers de discours de plus en plus délétère qui s’étend de la télévision aux médias sociaux, de CNews à X, de Bolloré à Musk, il nous faut aussi tenir ces places et continuer d’y faire exister une parole, une posture et une sociologie scientifique et universitaire. Car ces plateformes n’échappent pas à la sociologie, leur composition socio-démographique dit ce qu’elles sont et ce qu’elles peuvent devenir. Et que cela relève de notre responsabilité individuelle de citoyens (et a fortiori d’universitaires), mais aussi de la responsabilité collective des institutions auxquelles nous appartenons.
Un dernier point me pose souci dans cette décision de certaines universités de quitter la plateforme X. Par-delà les seules mais essentielles thématiques scientifiques à porter dans le débat public dont X – quoi que l’on en dise – demeure à ce jour un pan fondamental et hélas non négociable, c’est la manière dont s’en retirer c’est aussi se couper de toute une circulation démocratique vitale car à ce jour, et pour expérimenter depuis leur début les offres concurrentes (Threads, Bluesky et Mastodon), ou à regarder ce qui se passe du côté d’Instagram par exemple, aucune n’est pour l’instant en capacité d’occuper comme X le fait encore cette place centrale où se croisent à la fois journalistes, militants, universitaires et politiques. Aucune. Sociologie encore. Et je doute (pour des raisons que je vous expliquerai mais dans un autre article qu’une autre soit un jour en capacité de le faire comme Twitter le fit, et comme X l’est encore dans certains contextes d’usage.
Certes, là où Twitter fut un temps une réelle place publique, X ressemble aujourd’hui davantage à un grand stade de foot où fusent les insultes et invectives, l’agora (ou même l’iségoria) s’est transformée en tribune des Hooliganismes les plus divers. Mais à l’instar d’un stade, ce qui continue de se jouer sur le terrain devrait au moins autant compter que ce qui s’en dit en tribune. Quitter X est un choix double. Et doublement délicat. Car c’est en effet refuser de se mêler aux hordes de Hoolligans ou d’en subir les menaces, mais c’est aussi leur laisser toute la place, et c’est, enfin, se couper de ce qui se joue devant nous, sur ce qui est, encore, un formidable terrain (im)médiatique.
Il faudrait. Que les universités aient les moyens de continuer d’être sur X autrement que pour faire de la “comm” et d’y assurer la place de leur marque (ou d’y gérer un service étudiant trop souvent devenu un service client). Car je vais vous faire une confidence : elles ont pour la plupart raté l’opportunité d’y faire autre chose. Le problème c’est que personne (ou pas grand monde) ne regrettera les universités sur X parce qu’elles ont fondamentalement raté leur première raison d’y être.
Il faudrait. Que les université aient les moyens d’y installer des espaces venant contrer l’immensité des discours de désinformation. Car je vais vous faire une confidence : oui c’est aussi une question de moyens.
Il faudrait. Qu’avant de quitter X chaque université ait pris le soin d’installer au moins une partie de sa communauté dans un ailleurs qu’elles jugent légitime. Car je vais vous faire une confidence : “suivez-nous maintenant sur [insérer ici le nom de n’importe quel autre réseau social] ” n’a jamais rien eu, et n’aura jamais rien de performatif. Mais cela prend du temps. Beaucoup de temps. Énormément de temps.
Il faudrait que chaque université “pousse” les paroles de ses enseignant.e.s chercheur.ses dans des espaces numériques qui ne soient pas déjà par avance totalement saturés de métriques comme autant de coups de triques. Pour que ces espaces numériques à leur tour deviennent citables, mobilisables, actionnables, détachables. Comme le fut Twitter et comme l’est encore X. Il nous faut semer et sédimenter. Dans l’époque dont je viens, on appelait cela des blogs Vous êtes en train d’en lire un. Il en est d’autres et de formidables. Parfois en solitaire, souvent en solidaire, mais si peu. Parfois hébergés dans des espaces adaptés, comme par exemple la plateforme Hypothèses. Mais si peu. Si dramatiquement peu.
Nous sommes (universitaires) aujourd’hui en partie piégés parce que les discussions scientifiques, pour autant que l’on souhaite les installer dans le débat public, ne peuvent ni ne doivent plus se limiter à l’activité (qui demeure essentielle et fondamentale) de publication dans des revues scientifiques. Et que bien souvent les espaces où nous aurions pu et peut-être dû prendre la parole dès le départ et avec force, ont été, dès le départ et avec force, investis par d’autres.
Comment peut-on à la fois être un militant du libre et des réseaux décentralisés – ce que j’essaie d’être – et ne pas entièrement se réjouir de voir les universités mettre en veille leur compte X ?
Ma bio Twitter devenue ma bio X indique “le cyberespace est une ZAD“. J’en suis convaincu. [Alerte métaphore moisie] Et si le cyberespace est une ZAD alors Twitter devenu X est son Notre Dame des Landes. Mais cette fois, même si l’aéroport a été construit, il doit encore rester possible d’empêcher les avions d’y atterrir ou d’en décoller. [/Alerte métaphore moisie]
Plus sérieusement, si cette plateforme cristallise autant les débats aujourd’hui là où pourtant la très robuste et enthousiasmante plateforme Mastodon ne franchit toujours pas le seuil lui permettant de rivaliser en usage, c’est parce qu’il est au sein de Twitter devenu X, pas uniquement quelque chose qui demeure à défendre, mais aussi le sentiment palpable d’une mue qui si elle est conduite jusqu’à son terme, emportera de manière définitive un certain type d’interactions, d’usages, et de possibles.
Résultat ? L’illustration parfaite de ce que Cory Doctorrow explique et que Thibault Prévost synthétise et contextualise (une nouvelle fois) remarquablement : c’est emmerdant. Plus exactement c’est “emmerdifiant”.
le principe d’emmerdification (“enshittification”) postule que “premièrement, [les plateformes] séduisent leurs utilisateurs ; ensuite, elles les exploitent au profit de leurs clients ; pour finir, elles exploitent leurs clients pour récupérer toute la valeur produite. Enfin, elles meurent.”
Et nous voilà donc bien emmerdés. Et nos universités, tout comme nous, toutes crottées. Personnellement je vais encore un peu traîner sur X.
Partez sans moi, je vais vous ralentir
]]>Je veux vous parler ici d’un concept qui me semble (en partie) miroir de celui de Dominique Boullier, et que je choisis de nommer “partitions”. La partition est prise ici au sens de division, de partage. Mais aussi dans son acceptation musicale. La partition c’est celle qui s’opère “entre” les différents environnements et médias sociaux auxquels nous avons accès. Autant de partitions qui sur les plans sociologiques, cognitifs, attentionnels et générationnels, sont de plus en plus actives et déterminantes.
Au sein de médias sociaux participant de mêmes logiques d’usage, on observe, pour plein de raisons, une augmentation des partitions qui s’opèrent avec de nouveaux entrants pour une fois semblant significatifs sur le secteur (ou en tout cas en voie de l’être). Ainsi nos usages sur Twitter “partitionnent” actuellement avec nos usages sur Mastodon et désormais, progressivement, sur BlueSky et désormais Threads.
Captures d’écran de mes comptes Bluesky, Threads, Mastodon et Twitter.
Quatre (ré)partitions.
Ce partage, cette division le plus souvent entre 4 réseaux aux modes opératoires sensiblement équivalents mais se différenciant notamment par la sociologie de leurs publics et par leurs enjeux d’administration, de modération et d’organisation (centralisée ou fédérée), nous astreint à de nouvelles partitions subséquentes : si nous ne quittons pas l’un pour l’autre, nous nous astreignons à entretenir et à lire deux, trois ou quatre partitions (au sens musical cette fois) différentes ; ce que nous disons dans l’un et l’autre ne percole et ne se transmet pas de la même manière, ne suscite pas les mêmes échos dans l’autre ou dans les autres.
Au sein même de Twitter / X ou de ses subséquents, le fil d’info partitionne entre les gens que l’on suit et les contenus que l’algorithme choisit de nous recommander. Et la partition de Twitter depuis le rachat par Elon Musk est devenu un calvaire pour les interprètes que nous sommes. Si la partition “partitionne” entre le fil des gens que nous suivons (“following”) et le fil personnalisé (“for you”), beaucoup des gens que nous suivons n’apparaissent étrangement que dans le fil personnalisé, et réciproquement des gens que nous ne suivons pas font irruption permanente dans l’onglet supposément réservé aux gens que nous suivons. Partition illisible. Cacophonie plutôt que polyphonie. La partition “partitionne” encore entre les désormais comptes certifiés et les autres. Les premiers étant, conformément à la promesse de Musk, sur-visibilisés et rendant l’ensemble de nos fils (“following” comme “for you”) totalement criblés d’interventions non sollicitées.
Et puis il y a la partition des solistes que nous sommes. Jusqu’au rachat par Elon Musk il y avait sinon une causalité, à tout le moins une corrélation entre le nombre de nos abonné.e.s et la volumétrie des interactions (vues, partages, retweets, etc.) générées sous chacun de nos Tweets. Cela pouvait d’ailleurs devenir un fardeau ou une forme de nuisance, et cela m’avait conduit à fermer mon premier compte Twitter lorsque celui-ci avait atteint la barre des 10 000 abonné.e.s (j’avais également proposé un bilan de cette fermeture). Depuis le passage à X, depuis l’arrivée des comptes certifiés payants, depuis les différentes manipulations et partitions opérées par Musk, nous sommes nombreux et nombreuses à disposer de comptes “importants” (10 000 followers ou parfois beaucoup plus) et à constater que le niveau “d’engagement” de nos tweets (c’est à dire à la fois la visibilité et donc les réactions – partages, commentaires qu’ils suscitent) est le plus souvent quasi-nulle. Ce qui pourrait n’être qu’anodin mais qui fait que lorsque nous tentons de défendre, dans ce média, un certain nombre de thèses ou de causes, nous nous trouvons invisibilisé.e.s du simple fait de notre absence de compte payant. Ce qui peut entraîner aussi la tentation de publier toujours davantage et de reprendre toujours plus les sujets les plus visibles afin de faire exister un peu notre voix dans ce réseau. Pour reprendre l’image du musicien dans l’orchestre, c’est comme si le son de son instrument n’existait plus et ce quelque soit le volume ou le tempo avec lequel il en joue.
X partitionne entre une poignée de Power Users (payants) et une foule de Shadow Users dont beaucoup ne sont encore là que par la lassitude de l’habitude.
La partition de Twitter / X est donc devenue illisible et cacophonique du fait des partitions structurelles installées par son propriétaire. “Ces” autant que “ses” partitions, condamnent un certain type de propagations.
Le dernier ouvrage de Cagé et Piketty, “Une histoire du conflit politique“, met l’accent, comme principal facteur explicatif du vote et de nos choix et ressentis politiques, la notion de classe géo-sociale définie comme suit :
Ce qu’on appelle la classe géo-sociale, est un mélange de classes sociales au sens classique (la richesse, la propriété..), mais aussi l’inscription dans un tissu territorial et productif. Pour une même richesse, pour un même revenu, ce n’est pas pareil de vivre dans une métropole, ou de vivre dans un village. (Source)
Cagé et Piketty reprennent en le modifiant légèrement et en l’inscrivant dans le champ politique, le concept que Bruno Latour avait proposé en 2021 dans le cadre d’une analyse écologique et anthropologique :
“Alors qu’à la fin du siècle dernier, on pensait que les classes avaient disparu, elles ont été au contraire rematérialisées d’une manière extrêmement visible par le Covid. Tout le monde s’est aperçu des relations de classe: les gens qui meurent en fonction de la “race”, ceux qui doivent assurer les livraisons de biens et services essentiels et qui sont plus exposés au virus, etc.“. Mais il n’y voit pas la raison d’un retour au marxisme: “On s’aperçoit que les classes qu’on appelait des classes sociales ont toujours été des classes géo-sociales. Cela a toujours été des questions d’occupation de territoires, et de déplacements“. (Source)
Je veux ajouter ici une autre notion, probablement la plus puissante pour comprendre les agencements tant industriels qu’énonciatifs, économiques et politiques qui travaillent et constituent nos environnements numériques, celle de “classe vectorialiste” théorisée par Wark McKenzie :
“Ici, dans le monde surdéveloppé, la bourgeoisie est morte. Elle a cessé de régir et de gouverner. Le pouvoir est aux mains de ce que j’ai appelé la classe vectorialiste. Alors que la vieille classe dominante contrôlait les moyens de production, la nouvelle classe dominante éprouve un intérêt limité pour les conditions matérielles de la production, pour les mines, hauts fourneaux et chaînes de montage. Son pouvoir ne repose pas sur la propriété de ces choses, mais sur le contrôle de la logistique, sur la manière dont elles sont gérées. Le pouvoir vectoriel présente deux aspects, intensif et extensif. Le vecteur intensif est le pouvoir de calcul. C’est le pouvoir de modéliser et simuler. C’est le pouvoir de surveiller et calculer. Et c’est aussi le pouvoir de jouer avec l’information, de la transformer en récit et poésie. Le vecteur extensif est le pouvoir de déplacer l’information d’un endroit à un autre. C’est le pouvoir de déplacer et combiner chaque chose avec toute autre chose en tant que ressource. Encore une fois, ce pouvoir n’a pas uniquement un aspect rationnel, mais aussi poétique.” Wark McKenzie, Degoutin Christophe, « Nouvelles stratégies de la classe vectorialiste », Multitudes, 2013/3 (n° 54), p. 191-198.
Le résultat de tout cela c’est un alignement et un nombre de fractures. Fractures au moment des Gilets Jaunes par exemple puisque la classe vectorialiste au pouvoir avait oublié les considérations géo-sociales de toute une classe qui s’est fait loisir et grande lutte de les lui rappeler.
Des fractures donc, mais un alignement également. Car il s’agit, comme Facebook l’avait d’ailleurs fait au moment de l’explosion du mouvement des Gilets Jaunes, de remettre l’accent, au sein du fil d’information, sur des paramètres géo-sociaux : on verrait davantage d’informations de gens dont on était proche géographiquement.
Il est, j’en suis convaincu par plus de 20 ans d’analyses, de lectures et d’observation participante, deux horizons et deux essences de ce que l’on nomme “le” numérique, depuis les débuts du Web (et même avant) jusqu’aux actuels médias sociaux.
Le premier horizon, la première essence, est celle qui parvient à s’abstraire des classes géo-sociales pour proposer, à l’échelle de communautés toujours traversées de déterminismes, des ponts et des liens. Ces arbitraires et ces tectoniques stochastiques ne peuvent agir qu’à l’abri ou dans l’ombre d’algorithmes qui doivent d’abord s’efforcer de cartographier plutôt que de hiérarchiser et d’arbitrer. Et ces arbitraires féconds ne s’accommodent que très peu ou très mal de gigantisme.
Le second horizon, la deuxième essence, est celle qui partitionne donc à outrance en s’appuyant sur la calculabilité et la prédictibilité de ces classes géo-sociales situées. N’oublions jamais que le web comme les réseaux sociaux sont avant tout des graphes. Des arrêtes et des sommets. Que chaque page ou que chaque profil est un sommet relié aux autres par autant d’arrêtes. Et que la mise en relation et en lien est avant tout affaire algorithmique de calcul de distance et des choix de nous faire voir, d’abord, ou mieux, ou davantage, des proximités qui auront été choisies parce que les plus susceptibles de générer de l’interaction et donc de l’attention, et donc possiblement des bénéfices.
Mais l’on voit aujourd’hui s’imposer un troisième horizon. Qui prend prétexte des débats et des faits les plus saillants et correspondant le plus aux valeurs déterministes de viralité (capacité à susciter l’indignation ou la colère, affirmations partisanes, oubli du contexte, etc.) pour établir des ponts et des liens visant à coaliser autant qu’à coaguler des classes géo-sociales initialement distantes et d’autres initialement absentes de ce débat là. C’est très exactement ce à quoi concourt l’algorithme de “X” qui sur-visibilise les comptes payants et les propos les plus polémiques tout en sous-dimensionnant les équipes dédiées à la modération.
Pendant longtemps c’est la doctrine Thatchérienne du “il n’y a pas d’alternative” (There Is No Alternative, abrégé TINA) qui s’appliqua. Il n’y avait pas, ni en volume, ni en nombre, ni en infrastructure, ni en concentration de population, d’alternative à Facebook, à Youtube, à Twitter, à Instagram, etc. Et lorsque quelques tentatives d’alternatives naissaient, avec la possibilité d’une alternance, elles s’effondraient aussitôt (qui se souvient encore de Diaspora ?) ou étaient aussitôt rachetées, phagocytées, absorbées. Et puis.
Et puis nous passâmes à un monde où tout à la fois en raison de faits démographiques (vieillissement des primo-utilisateurs et utilisatrices, nécessité d’occuper des espaces générationnellement homogènes correspondant à des pratiques générationnellement situées), sociologiques (recherche de plateformes ou de groupes ou d’espaces sociologiquement homogènes ou semblables), politiques (en lien avec les prises de position ou l’absence de prises de position de leurs propriétaires), et médiatiques (les affaires et révélations de lanceurs et lanceuses d’alerte sur différentes pratiques abusives ou cyniques) nous disposons de plateformes structurellement différentes pour des usages en apparence semblables ou proches. Il y a des alternatives. There Are Some Alternatives. De TINA à TASA. Mais à l’image de l’offre politique actuelle en France comme dans plein de pays du monde, ces alternatives ne favorisent aucune alternance mais tout au contraire ancrent des mouvements de renforcements. Renforcements des usages, de leur base sociologique, générationnelle, culturelle aussi. Les nouvelles classes géo-sociales d’un web essentiellement fait de médias sociaux essentiellement hyper-territorialisés.
D’une économie de l’attention à une politique de l’occupation. Le coeur de l’économie du web depuis sa massification (c’est à dire depuis le début des années 2000) est celui théorisé bien avant le web par Herbert Simon : celui d’une économie de l’attention. Dans cette économie, l’information est en abondance et fixe en miroir notre attention comme une ressource rare, difficile à capter et à orienter, et donc “chère”. Les effets de propagation, consubstantiels de tous les âges du web, sont l’une des clés et l’une des principales recettes de cette économie de l’attention. Il apparaît aujourd’hui, tant dans la déclinaison des plateformes web de médias sociaux, que dans les usages massifs et “détachables” du web que sont les applications, que nombre de ces propagations sont désormais empêchées, entravées, impossibles à jouer ou à orchestrer. C’est la fin d’un mouvement amorcé il y a bien longtemps de cela, lorsque comme je l’avais écrit, documenté et expliqué dès 2010, le Like tuera le lien.
Ce pourrait être paradoxalement une bonne nouvelle si l’on considère que nombre de ces propagations ne visaient depuis quelques années qu’à faire davantage circuler des propos complotistes, haineux, ou plus trivialement inessentiels. En effet, les partitions entre non plus un seul mais désormais quatre médias sociaux semblables à Twitter / X pourraient un jour (mais quand … ?) entraîner mécaniquement un division par 4 des audiences et de la portée de tels propos. Mais ce serait oublier que l’économie de l’attention et des propagations sur laquelle le web des années 2010 s’est construit s’est alignée sur les mêmes effets de partitions et de propagations au sein d’un paysage médiatique global souvent bien plus massif et donc efficace en termes d’audiences captives.
La polarisation et la radicalisation du débat public ne sont pas le résultat ou la faute originelle du web et des médias sociaux mais le produit d’une société de médias qui tiennent des lignes éditoriales comme autant de remparts et de soliloques. La ligne éditoriale d’extrême-droite assumée de l’essentiel des médias possédés (au double sens du terme) par les délires obsessionnels compulsifs de Vincent Bolloré sont le gouffre dont les médias sociaux ne sont que le goître visible. Je l’ai déjà à de nombreuses reprises écrit et documenté, le plus récemment dans cet article pour AOC republié pour archivage sur Affordance :
Le problème de Twitter / X aujourd’hui, comme celui de Facebook, d’Instagram, de TikTok, de Snapchat et d’autres plateformes numériques n’est plus réductible à la seule question de leurs déterminismes algorithmiques. Il doit être réfléchi à la hauteur de l’ensemble de ce que j’appelle leurs architectures techniques toxiques, c’est à dire en partie, mais en partie seulement, la question algorithmique ; mais également le maillage de ces espaces d’expression avec d’autres espaces sociaux et médiatiques et la manière dont ils s’entremêlent ; mais aussi avec l’ensemble des secteurs dans lesquels ces plateformes opèrent (qui pour la majorité d’entre elles sont loin d’être réductibles au seul secteur de la tech) avec tout l’impact et les influences économiques et politiques que cela mobilise ; et enfin en regardant ces plateformes et médias comme la partie visible d’infrastructures extractivistes bien plus vastes et plus massives dans lesquelles le “média social” constitue de plus en plus une forme de leurre stratégique qui tend à gommer ou à dissimuler les matrices de pouvoir dont elles se nourrissent et qu’elles orchestrent.
Le monde informationnel et culturel dans lequel nous entrons est une matrice de dispositifs médiatiques presqu’uniquement au service d’intérêts privés dans lesquels l’idéologie précède l’économie. Ces intérêts bâtissent un monde dans lequel la force des idées qu’ils estiment dignes de propagations est non seulement compatible avec un certain nombre de partitions (d’audience, d’attention) mais aussi un monde dans lequel ces partitions vont venir optimiser les propagations choisies, leur donnant davantage de force et d’inertie dans l’opinion, selon le double vieux principe de l’effet de simple exposition et de la fenêtre d’Overton.
Comme l’écrivait Bruno Latour “Cela a toujours été des questions d’occupation de territoires, et de déplacements.” La tectonique actuelle des médias sociaux n’est faite que de territoires “occupés”. Je défendais d’ailleurs depuis 2015 (notamment dans cet article et dans cette présentation) l’idée du passage d’une économie de l’attention à une économie de l’occupation. L’une des grandes questions qui se pose sur leur avenir et qu’ils nous adressent en miroir, est celle de la nature de nos occupations comme cristallisation possible de tout ou partie de nos préoccupations. Nous ne nous occupons bien que de ce qui nous préoccupe. En dehors de nos passions intimes, la définition du périmètre de ces préoccupations est laissée à la hiérarchisation éditoriale et aux parti-pris algorithmiques qui sont une autre fabrique du consentement, qui est aussi un con-sentiment si vous m’autorisez le néologisme. Des territoires occupés donc. L’autre grande question est celle des déplacements. Précisément de ce que Dominique Boullier nomme les propagations : jusqu’à quel point ces déplacements et ces propagations demeurent possibles dans des espaces toujours plus (pré-)occupés autour de partitions toujours plus exclusives et excluantes ? Et le cas échéant, que fabriquent alors ces propagations sinon des boucles de ressentiment emplies de biais de confirmation ?
Il y a toujours eu un récit, une mise en discours anthropologique des espaces numériques. Et dans ce récit, fait de “toiles”, de “liens” et de “navigateurs”, l’idée que rien dans ce monde ne nous était possiblement inconnaissable ou inaccessible. L’arrivée des réseaux sociaux et de leur massification vînt nourrir ce même récit anthropologique dans lequel cette fois, plus personne ne nous était inconnaissable ou inaccessible. Ce récit n’eût de sens et de réalité que dans une époque où les sites et les pages web se comptaient par dizaines de milliers et où la population connectée était de même ampleur. Mais même une fois cette époque révolue, ce grand récit anthropologique continua de vivre et d’entretenir à grands coups de marketing l’idée d’un monde numérique entièrement traversable … à la condition d’être entièrement personnalisable … et à la condition subséquente d’invariants de personnalisation postulants que nous aimerions toutes et tous les mêmes catégories de vidéos, les mêmes types de contenus plus ou moins polarisés ou tout à fait “anodins”, bref, que nous verrions tous du “même” en nous berçant de l’illusion d’une différence. La nature de ce “même” qui s’articule sur un phénomène trivial de viralité statistique analysable (correspondant à trois paramètres : un niveau de visibilité, une vitesse de circulation et une accélération de partages) contribue in fine à saturer l’espace du visible dissemblable.
Avec comme résultat ce que appelait une récente tribune dans The Atlantic : “Nobody Knows What’s Happening Online Anymore.”
Cette confusion est une caractéristique de l’internet fragmenté, qui peut donner l’impression que deux phénomènes opposés se produisent simultanément : Le contenu populaire est consommé à une échelle stupéfiante, mais la popularité et même la célébrité semblent miniaturisées, cloisonnées. Nous vivons dans un monde où il est plus facile que jamais d’ignorer totalement ce que les autres consomment. Il est également plus facile que jamais d’accorder une importance démesurée à des informations ou à des tendances qui peuvent sembler populaires mais qui sont en réalité contenues.
Le meilleur collègue Marc Jahjah écrivait il y a quelques mois alors que nous toutes et tous traversions, une fois de plus tant d’énonciations contradictoires à propos de la guerre en Ukraine ou de celle à Gaza :
Toutes ces images, ces avis contradictoires, ces fragments, qui ne permettent même pas, une fois collectés, de reconstituer un puzzle, une compréhension cohérente du monde. Ma perception bouge tout le temps, la vôtre aussi : avons-nous encore un référent commun et stable ? C’est très perturbant, car même avec des ami•es, on ne sait plus très bien si on parle de la même réalité, comme nous avons tous l’air d’évoluer dans des provinces algorithmiques différentes (“Ah bon, tu as vu ça toi ?”). Notre système de coordonnées est en train de bouger si vite que nous ne savons plus avec qui nous sommes en présence, ni dans quel lieu nous évoluons réellement. Même nous parler devient non pas inutile mais impossible, si nous n’avons pas la même réalité à commenter. Ce sont des états proches de la “para-noia” (…) : non pas au sens psychiatrique, mais au sens que donnaient les Anciens à ce terme. Un changement si brusque des coordonnées, que les individus glissent vers un dangereux horizon. Dangereux, car si nous n’avons plus un référent à peu près commun, tout devient impossible : parler, agir, mais aussi ressentir. J’ai des ami•es qui ne sont même plus certain•es de ce qu’iels ressentent, comme personne n’a l’air d’être aligné sur leur référent. “Dis-moi que je ne suis pas fou, que tu as vu ce que j’ai vu, que lorsque tu l’as vu, tu as ressenti ce que j’ai ressenti, (…)” : c’est la manière dont je résumerai cette paranoïa collective, qui est peut-être notre référent commun.
Il y a bien sûr également, la part instrumentale de ces référents mouvants, la phrase d’Arendt que l’on répète jusqu’à l’affadir alors qu’elle n’a jamais pourtant été aussi juste, aussi précise et aussi circonstanciée qu’aujourd’hui :
Quand tout le monde vous ment en permanence, le résultat n’est pas que vous croyez ces mensonges mais que plus personne ne croit plus rien. Un peuple qui ne peut plus rien croire ne peut se faire une opinion. Il est privé non seulement de sa capacité d’agir mais aussi de sa capacité de penser et de juger. Et avec un tel peuple, vous pouvez faire ce que vous voulez.
Mais pour en revenir à la trivialité de nos biotopes numériques, si l’on parle souvent de la pratique du Shadow Banning il faudrait aussi s’interroger sur l’importance des phénomènes de “Shadow Scrolling” qui décrivent un environnement dans lequel nos défilements – qui sont déjà la part aliénante de ce que furent nos navigations – se font sur une infime minorité de contenus et dans l’ombre de contenus massivement masqués, évités, dissimulés, invisibilisés. De la même manière que “la valeur d’un réseau social n’est pas seulement définie par ceux qui sont dedans mais par ceux qui en sont exlcus” (Paul Saffo), ce que nous voyons aujourd’hui dans un média social se définit principalement par ce que l’on nous empêche de voir, soit par nécessité technique, soit par objectif commercial, soit par éditorialisation partisane et par choix politique ou idéologique.
Il y a très très très longtemps de cela, j’avais l’intuition que je décris aujourd’hui mais sans prendre le temps de la creuser vraiment. Celle “d’autarcithécaires” (par opposition aux “bibliothécaires”) c’est à dire des gens, une classe de gens, qui finiraient par n’avoir de rapport à l’information que sous forme autarcique ; une autarcie médiée par des outils calibrés pour la fabriquer (à l’époque, en 2006, c’étaient les moteurs de recherche personnalisables, aujourd’hui, en 2023 ce pourrait être, notamment, les (chat)GPT également “sur-mesure”). Cette autarcie informationnelle s’accompagne d’une autocratie d’éditocrates, figures uniques et omni-discourantes qui font reculer l’idée que l’information nécessite des médiations et des autorités diverses et plurielles pour pouvoir être autre chose que de la simple propagande.
Rappel des précisions que j’apportais en 2021 à ce concept “d’autarcithécaires” :
néologisme construit par opposition aux bibliothécaires et à leur mission d’augmenter et d’organiser, par accumulation, la somme des savoirs disponibles pour l’humanité toute entière. Derrière les “autarcithécaires” il y avait cette idée d’un stade ultime de la personnalisation / personnification de l’accès à l’information, à la culture, aux loisirs, aux autres, où chacun, dans une forme d’autarcie linguistique, culturelle, informationnelle, nourrie par les puissances prescriptrices des moteurs de recherche puis des médias sociaux, ne serait plus en capacité que de voir seul, que de s’informer seul toujours auprès des mêmes sources en circuit fermé. J’en avais certes l’intuition mais je ne mesurais pas à l’époque à quel point cette notion allait devenir absolument centrale, notamment dans la déclinaison de la “bulle de filtre” qu’Eli Pariser forgera en 2011, ou plus tard en 2015 (et plus radicalement aussi) dans le “Seuls ensemble” de Sherry Turkle. (…)
Entre la vision d’un tout algorithmique rigoriste qui nous enfermerait nécessairement (les bulles de filtre) et qui parviendrait à faire fi de toute forme de libre arbitre, et celle d’une sociabilité systématiquement empêchée (“seuls ensemble”) qui ne prendrait pas en compte les sociabilités nouvelles, déplacées, réelles, et tout aussi “authentiques” (cf les travaux de danah boyd notamment) je crois qu’il existe une “troisième voie” : celle d’un déterminisme technologique qui sans les contraindre entièrement, convoque et orchestre à la fois nos sociabilités et nos libres choix. Il s’agit d’une dynamique mais d’une dynamique que nous accompagnons et que nous instancions, et que d’une certaine manière nous “comodalisons“.
L’ensemble de ces partitions finit par fabriquer des dynamiques où nous nous départissons de cette forme de commun que permettaient des dynamiques de propagations pouvant s’appuyer sur des percolations entre des biotopes informationnels concurrents.
Pendant des années, l’expansion du web se fit selon un modèle fractal, on y retrouvait des contenus, des organisations, des collectifs, qui présentaient peu ou prou les mêmes formes, les mêmes dynamiques à différents niveaux d’échelle. Aujourd’hui l’expansion des médias sociaux se fait selon un mode de simple partition qui ne se soucie jamais des effets de répartition (et donc d’équité tant dans l’accès à certaines informations et contenus que dans les modalités même de cet accès).
A l’orée des années 2000, Albert-László Barabási publiait dans Nature un article dans lequel il mesurait le diamètre du web, qui était alors de 19 liens. Il allait également poser les bases de la théorie des réseaux invariants d’échelle (le système n’a pas d’échelle caractéristique) :
Nous avons découvert que de nombreux réseaux (de la « Toile » Internet au métabolisme cellulaire, en passant par celui des acteurs de Hollywood) partagent des caractéristiques communes, notamment le fait qu’un nombre restreint de nœuds a un grand nombre de liaisons avec des nœuds peu connectés. Ainsi chaque « site » du réseau est soit un nœud assez isolé (peu connecté), soit un « supernœud » : aucun nœud n’est représentatif de l’ensemble. De tels réseaux, qui ont tous la propriété dite d’« invariance d’échelle », présentent des comportements prévisibles : par exemple, ils sont remarquablement résistants aux défaillances accidentelles, mais extrêmement vulnérables aux attaques concertées.
Depuis lors, la question même de mesurer le diamètre du web (et donc la possibilité de le traverser) ou des plateformes n’a plus été systématiquement explorée, en dehors de quelques communications lors de la conférence IMC (Internet Measurement Conference) de l’ACM mais qui s’intéressent davantage à des dynamiques techniques plutôt que sociales.
Si ce n’est plus un enjeu que d’être capable de mesurer de combien de liens les contenus disponibles sont séparés à l’échelle d’écosystèmes informationnels massifs comme le web ou les médias sociaux, c’est entre autre précisément parce qu’au sein des médias sociaux nous ne créons que très peu de liens (cf le like tuera le lien) et que l’essentiel des usages et des partages se concentrent au sein de “supernoeuds” qui concentrent l’essentiel des interactions en ligne. Très peu de contenus ou de biotopes informationnels et très peu d’individus (super utilisateurs ou “power users”) qui déterminent et guident l’ensemble des dynamiques de propagation des médias.
Notre connaissance des réseaux invariants d’échelle nous aide à comprendre la propagation des virus informatiques, des maladies ou encore des modes. Les théories de la diffusion et de la percolation, étudiées pendant des décennies par les épidémiologistes et par les analystes des marchés, prédisent l’existence d’un seuil critique pour la propagation d’une épidémie dans une population donnée : tout virus dont le degré de contagiosité est inférieur à un seuil critique finit par disparaître. Au-dessus du seuil critique, le virus se développe exponentiellement, infectant toute la population.
Romualdo Pastor-Satorras, de l’Université polytechnique de Barcelone, et Allessandro Vespigniani, du Centre de physique théorique de Trieste, ont récemment établi un résultat inquiétant : ils ont montré que dans un réseau invariant d’échelle le seuil est nul. Ainsi, tous les virus, même les virus peu contagieux, se propagent dans la population et y perdurent. Comme les supernœuds sont reliés à une grande quantité de nœuds, au moins l’un d’eux risque d’être infecté par un nœud contaminé. Quand ce supernœud est atteint, il contamine une multitude d’autres sites, et met en danger d’autres supernœuds, qui finissent par diffuser le virus dans tout le réseau.
Ces supernoeuds sont aujourd’hui l’essence à la fois technique, infrastructurelle mais également sociale de nos interactions et de notre rapport aux médias et à l’information (avec des exceptions notables comme Mastodon ou Peertube et la galaxie de service offerte et défendu par – par exemple – Framasoft). Ils sont la clé de ces partitions et de la densité des opinions et des polarisations qu’elles instancient de manière très brutale.
Le fractal à pour ainsi dire laissé la place à une forme de … brutal.
Et pour le reste, laissons à Latour le dernier mot : “Cela a toujours été des questions d’occupation de territoires, et de déplacements.”
]]>
C’est un débat qui existe depuis que le web est devenu un média de masse. Celui autour de l’ouverture des algorithmes qui le rendent, pour chacun d’entre nous, traversable, naviguable et praticable. Un débat pour comprendre comment fonctionnent les moteurs de recherche et désormais ces “‘jardins fermés” que sont les médias sociaux. Longtemps les grands acteurs du web s’abritèrent derrière deux arguments, le “secret industriel” d’une part, et l’absence de nécessité d’autre part, au motif que “nous” serions les premiers et les seuls responsables de l’organisation de l’information en ligne, les classements des moteurs de recherche ou les “fils” et autres “murs” des médias sociaux n’en étant que le reflet instrumental. Les Big Tech ne se voulaient qu’hébergeurs et en aucun cas éditeurs.
Et puis deux choses se produisirent. D’abord le fait que cette ouverture du code devienne un argument sociétal puis politique. Car plus les usages du web se massifiaient, plus les moteurs de recherche et plus les réseaux et médias sociaux devenaient l’essentiel de cette masse, et plus il devenait évident qu’ils avaient une lourde responsabilité dans le choix de ce qu’ils rendaient visible ou invisible. Et qu’il fallait faire quelque chose :
“Il est vain de réclamer la dissolution de Google ou d’un autre acteur majeur comme il est vain d’espérer un jour voir ces acteurs “ouvrir” complètement leurs algorithmes. Mais il devient essentiel d’inscrire enfin clairement, dans l’agenda politique, la question du rendu public de fonctionnements algorithmiques directement assimilables à des formes classiques d’éditorialisation.” (Libération, tribune de votre serviteur, 2015)
Personne ne conteste aujourd’hui le rôle que l’éditorialisation algorithmique joue dans l’organisation des informations en ligne et donc dans les débats publics de notre société. Mais ce constat fut long à établir (j’avais avec d’autres, commencé à la souligner dès 2004). Et le temps d’y parvenir, le web et les médias sociaux avaient, en partie, changé de nature. La clé de leur modèle économique restait leur capacité de capter et de monétiser notre attention, mais le coeur du réacteur n’était plus uniquement et prioritairement les algorithmes eux-mêmes mais aussi et surtout les très larges jeux de données (personnelles ou non) qu’ils étaient en capacité de capter, de conserver et d’adresser à des fins marchandes. Voilà pourquoi on vit ce que l’on pensait alors impensable avec des acteurs comme Amazon ouvrant le code de l’algorithme de recommandation qui avait forgé son succès et son hégémonie.
Lors de son arrivée à la tête de Twitter rebaptisé X, Elon Musk avait fait tout un tas de promesses. Notamment celle “d’ouvrir” le code de l’algorithme. Ce qu’il a fait en grande partie. Et nous avons alors pu constater ce que nous étions jusqu’ici soit contraints de conjecturer en pratiquant des méthodes “d’ingénierie inversée” (en gros par essai et erreur), soit d’observer grâce au témoignages d’ingénieurs ou de cadres repentis devenus autant de lanceurs et lanceuses d’alerte : Tristan Harris, Frances Haugen, etc.
Avec la promesse tenue de Musk, nous avons constaté, dès le mois d’Avril 2023 avec le dépôt dans Github d’une partie important du code de la plateforme, quelles étaient les métriques et le poids qui leur était attribué en terme de visibilité, découvert qu’un Like valait plus qu’un Retweet, qu’il valait mieux mettre des images et des gifs animés, qu’il fallait éviter les liens externes vers des concurrents, et ainsi de suite. Tout une série de métriques comme autant de coups de trique.
Mais nous avons découvert tout cela à la lumière de ce que nous avions déjà appris de ces plateformes technologiques : d’abord qu’un algorithme est toujours en mouvement et que ses paramètres et le poids qui leur est accordé changent (très) régulièrement, et ensuite que ces plateformes mentent délibérément y compris sur les métriques qu’elles mettent en place et font semblant de laisser voir ou entrevoir (comme Facebook l’avait fait par exemple sur le nombre de vues des vidéos postées ou sur leur taux d’engagement).
D’autant qu’il n’est pas, à l’échelle de chacune de ces plateformes, “un” algorithme unique et omnipotent, mais plusieurs algorithmes, co-occurrents et concurrents, qui sont autant de déclinaisons d’une matrice d’intention et d’objectifs, et qui remplissent chacun des tâches définies. Et qu’en plus de cela, la matrice algorithmique, si elle comprend des éléments figés (les instructions et les règles), s’inscrit aussi dans une dynamique contextuelle capable de faire varier certaines de ces instructions et de ces règles.
Depuis son arrivée à la tête de Twitter désormais X, Elon Musk a effectué un certain nombre de changements dans cette matrice algorithmique. Les derniers en date ont été relevés et chroniqués par différents comptes sur la plateforme X, notamment “NFT_GOD” et “Tibo_Maker“.
On y apprend cette fois que dans l’algorithme voulu par Elon Musk, outre ses travers égocentriques consistant à proposer systématiquement son compte (et ses tweets) aux nouveaux venus, il vaut mieux “répondre” que “reposter” et qu’il faut éviter de faire les deux sur un même contenu ; qu’il faut utiliser des images et de la vidéo pour être “boosté” par l’algorithme ; qu’il faut parler des tendances les plus populaires (trending topics) pour augmenter ses chances de voir son compte proposé dans l’onglet “pour vous” ; qu’il ne faut surtout pas mentionner des concurrents ou mettre des liens vers des sites concurrents (vers des Reels Instagram par exemple) sous peine de se voir invisibiliser ; qu’il ne faut pas non plus publier du contenu “qui ne fasse pas écho auprès de vos followers habituels” (sic) ; que la durée de vie d’un post est de 24h s’il rencontre une forte audience ou un nombre important d’interactions et qu’elle peut être portée à 48h si vraiment il cartonne ; que vos réponses à l’un de vos posts valent le double de celles des autres et que vous avez donc intérêt (pour la plateforme …) à répondre aux gens qui commentent vos posts ; qu’il faut ajouter à vos favoris des posts à forte visibilité ; et que bien sûr il vaut mieux choisir … la formule payante de Twitter / X.
On apprend aussi, mais cette fois en dehors du code disponible, qu’Elon Musk aurait fait le choix de ralentir le trafic entrant vers un certain nombre de sites dont, excusez du peu, Facebook, Instagram, Bluesky, Substack mais aussi Reuters et … le New-York Times, qu’Elon Musk a souvent critiqué et accusé de diffuser des Fake News (sic). Si vous publiez, sur X, un lien qui pointe vers ces sites, non seulement la visibilité de votre compte sera diminuée, mais celles et ceux qui cliqueront sur votre lien auront un délai de 5 secondes avant de pouvoir l’afficher et y accéder. Quand on sait que nous n’avons en général pas la patience d’attendre plus de 2 ou 3 secondes avant d’accéder à un contenu en ligne et que nous préférons souvent passer à autre chose et y renoncer s’il ne répond pas dans ce délai, et quand on voit la nature de sites ciblés par Elon Musk, on mesure tout la toxicité démocratique de ces paramètres algorithmiques et ce qu’ils disent de l’éthique ou de l’idéologie de celles et ceux qui les déterminent et les mettent en oeuvre. Depuis l’article sur cette possible malversation par le Washington Post, il semble que ce délai n’ait plus cours.
Voilà donc quelques-uns des éléments que l’on apprend grâce à “l’ouverture de l’algorithme” de Twitter / X.
Mais qu’apprend-on réellement ? Les points évoqués ci-dessus sont, pour l’essentiel, des points clés de tout écosystème numérique et l’héritage des règles de référencement ou de positionnement (SEO et SMO pour Search Engine Optimization et Social Media Optilisation). Et y compris dans le cadre de plateformes qui n’ont pas ouvert leur algorithme – Facebook par exemple – chacun sait que le même type de règles sont appliquées.
On n’apprend donc plus grand-chose de l’ouverture des algorithmes mais l’on a des confirmations, des preuves, et cette ouverture est et demeure le seul moyen de vérifier l’authenticité de ce que nous en savons par intuition, par comparaison, par réflexion et par observation. Voilà pourquoi il est tout à fait impératif de continuer à oeuvrer pour une ouverture maximale de la partie du code algorithmique relevant de l’éditorialisation.
Mais pour le reste, pour l’essentiel des logiques de visibilité ou d’invisibilité, pour ce qui est de comprendre quels contenus sont les plus mis en avant et pourquoi, nous savons déjà à peu près tout ce qu’il est nécessaire de savoir pour comprendre que cela n’est plus suffisant pour réguler l’usage de ces plateformes.
Par ailleurs ces plateformes et leurs algorithmes n’échappent pas aux grandes lois de la cybernétique et de la théorie des systèmes : l’information est une manière de lutter contre l’entropie, contre le chaos et le désordre. Plus un système dispose d’information, et plus il “s’ordonne”, plus il se met “en forme” (in-forma). Les médias sociaux, traversés qu’ils sont par des volumes considérables d’information et guidés par ces autres flux informationnels que sont les algorithmes sont tout sauf le chaos désordonné et aléatoire dans lequel on les range parfois : ils sont au contraire la quintessence d’un ordre, parfaitement déterministe.
Il faut donc, bien sûr continuer de travailler à ouvrir les algorithmes pour que chacun soit à même de mieux comprendre la vision et l’ordre du monde qu’ils véhiculent. Il n’est d’ailleurs pour cela, contrairement à ce que l’on a longtemps cru et expliqué, pas nécessairement besoin d’être un expert du code informatique pour en approcher la logique profonde. Les algorithmes sont comme des ritournelles auxquelles on s’accoutume à force de les fréquenter, que l’on retient – et que l’on maîtrise parfois – dans une forme d’intelligence situationnelle altérée par l’expérience sans cesse renouvelée de cette fréquentation. Comme la ritournelle chez Deleuze et Guattari dans leur ouvrage “Mille Plateaux”, les algorithmes sont trois choses à la fois. D’abord ce qui nous rassure par une forme de régularité attendue, que l’on devine et anticipe. Ensuite ce qui installe l’organisation nous semblant familière d’un espace que l’on sait public mais que l’on perçoit et que l’on investit en partie comme intime : ils “enchantent” l’éventail de nos affects et sont l’état de nature de nos artifices sociaux. Enfin ils sont ce qui, parfois, nous accompagne et nous équipe aussi dans la découverte d’un ailleurs, parce qu’y compris au sein de représentations cloisonnées, ils sont des chants traversants.
Le problème de Twitter / X aujourd’hui, comme celui de Facebook, d’Instagram, de TikTok, de Snapchat et d’autres plateformes numériques n’est plus réductible à la seule question de leurs déterminismes algorithmiques. Il doit être réfléchi à la hauteur de l’ensemble de ce que j’appelle leurs architectures techniques toxiques, c’est à dire en partie, mais en partie seulement, la question algorithmique ; mais également le maillage de ces espaces d’expression avec d’autres espaces sociaux et médiatiques et la manière dont ils s’entremêlent ; mais aussi avec l’ensemble des secteurs dans lesquels ces plateformes opèrent (qui pour la majorité d’entre elles sont loin d’être réductibles au seul secteur de la tech) avec tout l’impact et les influences économiques et politiques que cela mobilise ; et enfin en regardant ces plateformes et médias comme la partie visible d’infrastructures extractivistes bien plus vastes et plus massives dans lesquelles le “média social” constitue de plus en plus une forme de leurre stratégique qui tend à gommer ou à dissimuler les matrices de pouvoir dont elles se nourrissent et qu’elles orchestrent.
Je m’explique rapidement sur ce dernier point : lorsque Google s’est mis en 2005 à investir massivement et à perte dans la numérisation d’ouvrages du domaine public, personne n’a compris assez vite qu’il poursuivait en fait un autre but qui était d’optimiser la sémantique de son moteur de recherche et de ce que l’on appelle aujourd’hui un grand modèle de langage (Large Language Model, celui de Google s’appelle PaLM 2). De la même manière, j’avais souligné à quel point le rachat de Twitter par Musk, qui apparaissait à certains comme la pochade d’un multi-milliardaire excentrique, poursuivait un autre but que de “simplement” s’offrir un outil pour étayer sa conception maximaliste de la liberté d’expression, et qu’il fallait y détecter la main-mise sur la plus grande base de donnée conversationnelle dynamique de la planète qu’il aurait tôt fait de pouvoir utiliser dans le cadre de ses plans de développement sur le secteur de l’intelligence artificielle et de faire percoler dans plusieurs des autres secteurs où il est implanté.
Derrière les algorithmes, ces plateformes posent aujourd’hui la question de leur place dans un espace public médiatique démocratique. Ô bien sûr pas de manière totalement inédite. De William Randolph Hearst à Vincent Bolloré, la mainmise sur des médias au service de la fabrique d’une opinion alignée sur la ligne idéologique de leurs propriétaires (et/ou jouant sur les plus viles pulsions de son audience) n’a rien de nouveau. Mais la nature si particulière de notre rapport aux médias numériques vient d’une réalité simple : si nous voulons lutter contre Bolloré nous pouvons regarder ou ne pas regarder, acheter ou ne pas acheter, écouter ou ne pas écouter. Notre choix reste binaire parce qu’à aucun moment nous n’envisageons la possibilité de négocier avec lui. A l’échelle des médias sociaux, nos expressions publiques comme privées sont en permanence situées dans des espaces troubles de négociation qui sont eux-mêmes traversés de saillances le plus souvent imprévisibles. Nous sommes par exemple aussi surpris de la viralité soudaine d’un de nos posts que nous n’imaginions même pas, que nous sommes déçus de l’absence de réaction conforme à nos attentes sur un autre post que nous pensions devoir mériter d’être mieux exposé.
La radio, la télévision, la presse sont des médias qui jamais ne déçoivent car ils sont strictement alignés sur des représentations qui sont aussi attendues que connues de leurs publics. D’ailleurs “la” radio, “la” télévision et “la” presse n’existent pas. France Culture et Radio Courtoisie existent. CNews et Arte existent. L’Humanité et Valeurs Actuelles existent. Ils ne négocient pas avec nous autre chose que notre approbation. Les médias sociaux ont, eux, une part déceptive bien plus constante qui est le comburant premier de nos assignations attentionnelles. Cette part déceptive est entretenue, déterminée, orchestrée par les logiques instrumentales de la FOMO (la peur de manquer quelque chose – Fear Of Missing Out). Le plus souvent nous constatons à la fin que nous n’avons rien raté d’important et nous sommes déçus. Mais à d’autres occasions nous avons confirmé l’hypothèse selon laquelle nous aurions en effet pu rater quelque chose d’important. Cette possibilité de voir nos déceptions comblées et réparées est une assignation à négocier en permanence l’articulation des discours auxquels nous sommes exposés. Ne reste aux algorithmes qu’à entretenir l’illusion que nous sommes à l’initiative de la négociation, et que nos déceptions s’apparentent à un désordre amoureux alors qu’elle ne sont au fond, qu’un ordonnancement idéologique le plus souvent soluble dans l’ordre du marché.
Parvenir à ouvrir le code algorithmique était, il y a quelques années et à l’échelle des moteurs de recherche, une urgence démocratique vitale et une fin en soi. Et une option suffisante pour en comprendre les principales dynamiques informationnelles et y détecter les matrices économiques et idéologiques à l’oeuvre. Ce n’est plus le cas aujourd’hui car ces matrices se sont déplacées et sont, la plupart du temps, désormais explicites et assumées. Ainsi Google ne tente même plus de cacher qu’il met en avant ses propres produits et son propre écosystème de services dans le cadre des requêtes de son moteur de recherche et assume être allé au bout de la logique consistant à mettre les liens publicitaires devant les résultats “organiques”. Musk assume sa conception “maximaliste” de la liberté d’expression. Il assume de rétablir des comptes masculinistes violents, des comptes d’extrême-droite, et ainsi de suite. Point n’est besoin d’ouvrir le code de l’algorithme pour l’observer et le documenter. C’est également le cas de toute une série de médias sociaux qui portent et assument une ligne idéologique souvent radicale d’un bout à l’autre de l’échiquier politique (mais surtout à l’extrême-droite quand même …). Dès lors qu’un média social est lisible dans ses intentions, dès qu’il se dote d’une ligne éditoriale, la question de l’importance d’avoir accès au code source de son algorithme change d’objet : il ne s’agit plus d’aller y enquêter pour dresser la liste des éléments qui permettent de porter cette ligne éditoriale au premier plan, mais de détecter ce qui rend encore possible l’existence de poches d’altérité qui permettent de la combattre, de s’en éloigner ou de s’en protéger. C’est d’ailleurs l’une des ambivalences fondamentales de ces médias sociaux que de proposer, lorsqu’on les observe à l’échelle macro, une récurrence délétère de discours toxiques, mais lorsqu’on les enquête à l’échelle individuelle, de permettre de maintenir une matrice de liens qui fonctionne comme un abri idéologique. Le problème étant que les grands enjeux politiques et sociétaux ne sont mis en débat et ne se négocient que très rarement … à l’échelle individuelle.
L’un des pionniers de l’internet et du web, Robert Cailliau livrait ce témoignage dans une série d’entretiens à France Culture autour de l’histoire du web :
le web est l’hypertexte le plus cru, le plus stupide, le plus con que l’on puisse imaginer mais il a comme grande propriété qu’il n’est pas sensitif (sic) à l’échelle. Plus vous mettez de serveurs et mieux ça va.
Aujourd’hui, ce principe fondamental est entièrement nié. Non seulement “l’hypertexte” au sein des médias sociaux est réduit à peau de chagrin et ne fonctionne le plus souvent que comme un sous-texte normatif contraint et souvent empêché (le “like” a tué le lien), mais plus on dispose de serveurs et plus ils sont centralisés au service des quelques grandes entreprises qui sont la matrice dominante du web contemporain. Ainsi ce passage à l’échelle, cette “scalabilité” technique, qui formait, dans l’esprit de Cailliau et des pionniers de l’internet et du web, une garantie de diversité, s’est aujourd’hui presqu’entièrement dissoute et renversée. Plus on met de serveurs (et de contenus et de gens les produisant et de gens les faisant circuler) dans des architectures techniques centralisées et “moins bien ça va“.
Et s’il demeure un point particulièrement saillant dans la compréhension de la nature profonde de ces fonctionnements algorithmiques, c’est aujourd’hui davantage la manière dont ils rendent possible le fait que quelques très grands ou gros comptes (que l’on appelle des “power users” ou “super utilisateurs”) suffisent à entièrement dicter un agenda discursif et médiatique qui force les effets de récursivité dans le champ social. Pour le dire simplement, c’est donc un (gros) problème de démocratie “interne”.
Et c’est enfin, bien sûr, un problème de gouvernance. “Il n’y a pas d’algorithme, il n’y a que la décision de quelqu’un d’autre” écrivait en 2017 Antonio Casilli dans la préface qu’il me faisait l’honneur d’écrire pour mon premier livre chez C&F Éditions, “L’appétit des géants”. Dans le paysage actuel des médias sociaux, ces décisions sont, pour l’essentiel, devenues lisibles et explicites. Et nous affrontons leurs effets à l’échelle de collectifs que nous n’imaginions pas pouvoir devenir aussi puissants. Il nous faut donc, tout en continuant de documenter leurs causes et leurs modes opératoires, enquêter sans relâche sur leurs effets dans le champ social, économique, politique et médiatique.
L’enjeu de l’ouverture du code des algorithmes, tout comme celui de l’ouverture des jeux de données utilisés dans le cadre des artefacts génératifs (MidJouney, ChatGPT, etc) n’est plus une question de compréhension qui vise à documenter un “comment” et une ingénierie. C’est une question d’appréhension sur les nouveaux et lancinants régimes discursifs qui sont venus se substituer à la matrice initiale du web dans laquelle chaque individu pouvait posséder (et administrer) une page et une adresse et où l’on pouvait entretenir des proximités sans jamais sacrifier à des formes de promiscuités.
Nous avons aimé croire que le calcul intensif se ferait sans travail intensif, que le Data Mining ne nécessiterait pas de mineurs de fond, que l’informatique en nuage (Cloud Computing) ne dissimulait pas la réalité d’une industrie lourde. Nous ne pouvons plus aujourd’hui nous réfugier dans ces mensonges. Sur les industries extractivistes de l’information, nous avons l’avantage d’en connaître déjà les mécanismes et les routines ; la chance d’en observer les infrastructures de marché (du Cloud Computing au High Frequency Trading en passant par la précarisation des différentes formes de Digital Labor) ; la chance d’être capables de documenter la toxicité de ces prismes dans le cadre de certains sujets de société ; la chance d’avoir pu documenter et prouver à de trop nombreuses reprises l’insincérité fondamentale et aujourd’hui fondatrice de toutes ces plateformes et de leurs créateurs et administrateurs. Et même s’ils s’inscrivent, comme je le rappelais plus haut, dans un écosystème médiatique, économique et politique bien plus vaste qu’eux, leur part émergée, c’est à dire les médias sociaux, sont aujourd’hui pour l’essentiel de même nature que la publicité et le lobbying le furent pour l’industrie du tabac et du pétrole : des outils au service d’une diversion elle-même au service d’une perversion qui n’est alimentée que par la recherche permanente du profit.
]]>
Le “C’est gratuit et ça le restera toujours” a disparu du frontispice de Facebook ; Youtube est passé depuis longtemps déjà en code rouge pour gérer des abonnements payants exempts de coupures publicitaires (Youtube Red dès 2015 devenu aujourd’hui YouTube Premium pour 12,99 euros par mois) ; nos usages numériques sont plus globalement devenus dépendants de services de streaming musicaux ou vidéo aux abonnements payants qui s’offrent ou se négocient dans les espaces intra ou extra-familiaux
Dernières annonces de cette mutation en cours, l’annonce de Méta de proposer des abonnements payants en Europe pour accéder à Facebook et à Instagram, pour éviter non pas tant les publicités que les dynamiques de traçage et de collecte de données qui les fondent. Entre 10 et 12 euros pour les plus de 18 ans qui souhaiteraient bénéficier d’un accès sans publicités à ces sites ou applications. Et 6 euros de plus par compte supplémentaire.
Et la totalité des grands médias sociaux s’aligne progressivement sur des logiques payantes : TikTok teste une offre payante sans publicités à 4,99 $ mensuels, Musk en plus des comptes certifiés payants (à partir de 9 euros par mois pour disposer de la “bluemark”) agite depuis plusieurs mois un modèle de petit paiement mensuel obligatoire, Snapchat compte 3 millions d’utilisateurs déboursant 3,99 euros par mois pour des services premiums, même chose pour Twitch à partir de 4,99 euros par mois.
Ajoutons à tout cela un nouvel habitus de micro-paiement désormais installé dans le cadre, notamment, des achats “in-app” qui équipent nos smartphones ou nos loisirs connectés (Fortnite, etc …)
Ces coûts, services et abonnements ont aussi donné lieu à d’autres stratégies et ajustements : Netflix, acteur déterminant dans la validation symbolique de la pertinence d’une offre payante pour les industries culturelles dès lors qu’elle peut valoriser un catalogue suffisamment profond lui-même tiré par quelques produits phares explicitement conçus dans cette optique, Netflix donc a saisi l’opportunité de faire un bout de chemin inverse en proposant depuis Novembre 2022 un abonnement “low cost” avec publicités pour 6 euros par mois contre 10 à 14 euros l’abonnement classique et sans publicités.
Sachant qu’un utilisateur possède en moyenne (dans le monde) un peu plus de 6 comptes sur différents médias sociaux j’ai procédé au calcul suivant qui est vraiment a minima.
12 euros (Youtube)
+ 12 euros (Instagram)
+ 5 euros (TikTok)
+ 5 euros (Twitch)
+ 10 euros (Twitter / X)
+ 10 euros (Netflix)
+ 10 euros (forfait téléphonique)
+ 20 euros de box internet
________________________
= environ 85 euros par mois
85 euros par mois pour un usage singulier (pouvant largement doubler ou tripler au sein d’un foyer avec 2 enfants majeurs). On est donc sur plus de 1000 euros par an …
Rien que pour Méta (Facebook / Instagram et peut-être prochainement WhatsApp) l’addition calculée par Next Impact se monte à près de 120 euros par an. Auxquels on pourrait ajouter l’abonnement à l’escroquerie du badge bleu “vérifié” pour 17 euros par mois !!
Un autre paramètre important est le ratio entre ce que rapporte aux médias sociaux un profil sans abonnement et avec traçage publicitaire, et un profil d’abonné payant sans traçage publicitaire. Il faut pour cela regarder du côté de ce que l’on appelle le revenu moyen par utilisateur (en anglais ARPU pour “Average Revenue Per User”). En gardant en tête que l’offre payante de Méta concerne l’Europe et que l’ARPU est très différent entre par exemple les USA, le Canada et l’Europe dans son ensemble, sans parler du reste du monde. L’ARPU dépend en effet notamment du dynamisme et de la volumétrie du marché publicitaire en termes d’investissement, dynamisme et volumétrie très variables à l’échelle du globe. Mais en gros, et par exemple lors du dernier trimestre 2022 le revenu publicitaire moyen mondial par abonné pour Méta était de 8,38 $ contre 12,99 $ en Europe et plus de 50$ aux USA. La tarification à hauteur de 12 euros pour l’abonnement sans publicité à Facebook en Europe ne doit donc rien au hasard. L’autre problème de cet ARPU est que Méta ne détaille pas les chiffres entre ses différents services et applications (Instagram, Facebook, WhatsApp …) et que l’on en est réduit à conjecturer que – par exemple – l’ARPU d’Instagram doit être supérieur à celui de Facebook.
Les derniers chiffres donnés par Méta concernant son bilan financier font état d’un ARPU légèrement supérieur en Europe (19 dollars) mais toujours très loin des 56 dollars de l’ARPU pour les Etats-Unis et le Canada.
Dans tous les cas cette offre d’abonnement payant demeure tout bénéfice pour la firme considérant que beaucoup choisiront de maintenir l’offre gratuite avec publicité qui si elle rapporte à peu près autant en cash à l’échelle individuelle est bien plus féconde à l’échelle statistique et économique globale puisque les publicités affichées pour les uns et l’analyse des interactions en découlant auprès d’autres semblables, permet également d’affiner le ciblage publicitaire global de la plateforme et donc d’en maximiser les revenus. Pour le dire différemment, le “tout” publicitaire est bien davantage que la simple somme de ses parties. Méta s’assure ainsi d’être en conformité avec les exigences européennes de régulation sans rien perdre de son revenu, et sans perdre d’utilisateurs en évitant de les contraindre à basculer sur une offre uniquement payante.
Il s’achète en quelque sorte à bon compte une conformité à la règlementation européenne avec un cynisme que lui offre paradoxalement cette même règlementation telle qu’il la détourne : là où l’objet devrait être d’empêcher la collecte de nos données personnelles pour des fins autres que la nécessité de continuité du service, la coexistence d’un modèle payant sans publicité avec un modèle gratuit avec publicité achève d’ancrer l’idée que le droit fondamental à la protection de nos données personnelles est devenu une négociation commerciale comme les autres.
Comme rappelé par nombre d’observateurs à l’argument mis en avant par Méta d’un service payant répondant à “l’évolution des lois”, “en fait, aucune loi n’a évolué. C’est juste que Meta ne la respectait pas.” (Raphaël Grably)
Guillaume Champeau résume l’ensemble magistralement dans son article “Meta et RGPD : pourquoi l’abonnement payant à Facebook et Instagram pose problème” que je vous invite vraiment à lire attentivement car il démontre point par point comment Facebook / Méta à instrumentalisé et détourné la base légale du RGPD. Rapide extrait de la conclusion (que je partage) de Guillaume Champeau :
Toute la question juridique est donc de savoir si le consentement allégué par Facebook existe réellement. Est-ce qu’un internaute qui refuse de débourser 155 euros par an pour s’abonner consent librement à ce que ses données soient utilisées à des fins de publicité ciblée ? (…)
Or, parmi tous ceux qui cliquent sur le bouton qui permet d’accéder gratuitement à Facebook en échange de publicités ciblées, combien sont ceux qui le font non pas de pleine grâce mais parce que sinon, et sauf à pouvoir payer, ils ne pourraient plus voir les nouvelles photos partagées par leur famille, être tenus informés de l’actualité de leur club de leur sport, parler dans leur groupe des voisins du quartier, etc. ? (…)
La seule « alternative réelle » proposée par Meta est donc l’abonnement payant, à 13 euros par mois pour chaque plateforme (ou 10 euros si l’on évite de passer par l’intermédiaire d’une application mobile). Mais à ce prix, est-ce une alternative « équitable » ? (…)
Et Guillaume Champeau de conclure :
Si on laisse faire Meta, c’est un principe fondamental de la protection des données en Europe qui tombe, et que malheureusement la décision de la CJUE du 4 juillet dernier a déjà participé à faire tomber : l’universalité des droits de l’homme. En acceptant le principe d’une « rémunération appropriée » pour ne pas traquer l’internaute, la Cour de Justice a hélas permis que le bénéfice effectif d’un droit fondamental reconnu par la Charte des droits fondamentaux de l’Union européenne soit vendu et réservé aux plus fortunés, ou au moins démunis. Comment un bénéficiaire du RSA ou même un smicard peut-il se permettre de payer 150 euros par an pour utiliser Facebook « juste » pour ne pas être traqué ? Si l’on poursuit dans cette voie détestable, il y aura donc d’un côté ceux qui peuvent se permettre d’acheter leur droit à la protection de leur vie privée en se payant les abonnements qui ne manqueront pas de se multiplier (c’est déjà le cas), et toute la masse de ceux qui ont dû renoncer à leur droit fondamental. Vite, un sursaut éthique !
Dans l’histoire de l’invention de la publicité en ligne et de la manière dont elle structura pour partie l’économie de l’internet et en constitua quelques oligopoles majeurs, il y eut un moment où la publicité de devînt pas simplement une ressource au service d’un modèle économique mais le centre de gravité d’un écosystème de services qui visait à un indiscernable entre les contenus publicitaires et les contenus “organiques”. Ce moment fut celui où, pour Google, Omid Kordestami déclarait : “Ads are content“. Ce que l’on peut traduite aussi bien par “les publicités sont du contenu” que par “le contenu, c’est la publicité”. La deuxième traduction étant la plus exacte. Ce moment ce fut celui où pour Microsoft, Don Dodge indiquait : “Search is a commodity. Ad serving is the business.”
Et autres continuités du “temps de cerveau humain disponible” théorisé par Patrick Le Lay.
« Pour qu’un message publicitaire soit perçu, il faut que le cerveau du téléspectateur soit disponible. Nos émissions ont pour vocation de le rendre disponible : c’est-à-dire de le divertir, de le détendre pour le préparer entre deux messages. Ce que nous vendons à Coca-Cola, c’est du temps de cerveau humain disponible. »
Bâti sur sur une infrastructure publique permettant la connexion, construit autour de protocoles, d’architectures et de langages libres et interopérables, “le web” est devenu un espace de circulation et d’attention semblable aux autres, avec ses zones commerciales, ses pratiques agressives, ses parcs et jardins fermés, mais aussi tant d’autres espaces et acteurs qui s’efforcent de préserver ou de recréer, à l’abri des mégalopoles numériques, des communautés moins denses, moins marchandes, moins éprouvantes, moins sollicitantes.
Loin, très loin d’annoncer la fin de la publicité, les nouveaux modèles économiques qui s’avancent annoncent tout au contraire l’avènement du tout publicitarisé.
“La publicitarisation désigne l’adaptation de la forme, des contenus, ainsi que d’un ensemble de pratiques professionnelles médiatiques à la nécessité d’accueillir la publicité (Patrin-Leclère 2010). Cette adaptation consiste en un aménagement destiné à réduire la rupture sémiotique entre contenu éditorial et contenu publicitaire – elle se traduit, par exemple, par l’augmentation des contenus éditoriaux relevant des catégories “société” et “consommation” ou par le déploiement de formats facilitant l’intégration publicitaire, comme la “téléréalité” – mais aussi en un ménagement éditorial des acteurs économiques susceptibles d’apporter des revenus publicitaires au média.”
Karine Berthelot-Guiet, Caroline Marti de Montety et Valérie Patrin-Leclère, « Entre dépublicitarisation et hyperpublicitarisation,une théorie des métamorphoses du publicitaire », Semen [En ligne], 36 | 2013, mis en ligne le 22 avril 2015, consulté le 11 novembre 2023. URL : http://journals.openedition.org/semen/9645 ; DOI : https://doi.org/10.4000/semen.9645
Deux phénomènes convergent depuis des années : celui d’une publicitarisation constante qui est celle de l’ensemble des espaces discursifs médiatiques (qu’ils soient numériques ou analogiques), et celui de l’atteinte d’un optimum du rendement publicitaire anticipé comme tel et qui conduit les GAFAM depuis au moins 10 ans à se préparer à la sortie du modèle du “tout (apparemment) gratuit”. D’autant que l’irénisme d’un tout publicitaire repose largement sur une bulle spéculative comme le démontre Tim Hwang dans “Le grand krach de l’attention“, l’essentiel de la doctrine marketing des plateformes se ramenant à un classique “Spray and Pray“.
En Septembre 2013 sur ce blog je parlais d’une “phase 2 de la rentabilisation de l’économie de l’attention” consistant à :
“nous amener à accepter (et à souhaiter) qu’il faille désormais payer pour un droit à la privauté, qu’il fasse mettre la main (enfin du coup l’index ou le pouce suffira …) au portefeuille pour s’extraire, s’abstraire du panoptique marchand, littéralement s’en “dés-indexer” et retrouver un possible droit à la décontextualisation. Les grandes firmes ont depuis longtemps compris qu’il leur serait très compliqué de convaincre les usagers de payer pour des services ou des ressources jusqu’ici perçues comme légitimement gratuites. Compris également que la machine à cash de la publicité contextuelle n’était pas loin d’atteindre son optimum et devait être complétée par d’autres revenus à la courbe de croissance possiblement exponentielle. Comme la vente de l’accès s’épuise, on va donc vendre du retrait.
C’est la monétisation de l’opt-out. Après “on indexe tout et si vous ne voulez pas être indexés, vous nous le dites“, attendez-vous à voir débarquer l’opt-out biométrique : “on prend vos données biométriques ; si vous ne le souhaitez pas, ben c’est pas possible, par contre vous pouvez payer pour que l’on vous garantisse qu’elles ne seront pas (trop) réutilisées à d’autres fins que l’allumage de votre mobile ou l’achat d’un film sur l’Apple Store“. Vous n’étiez pas prêts et ne vouliez pas payer pour entrer dans le système ? Vous serez prêts à payer pour en sortir. On paie déjà pour “exclure” la publicité des offres de streaming musical. On paiera pour pouvoir s’extraire du vertige du panoptique, ou pour, plus vraissemblablement, que ceux-là mêmes qui nous emprisonnent, les attentionnés gardiens de notre attention, nous fassent miroiter l’espoir d’être les uniques possesseurs de la clé de notre cellule. Dès lors nous sentirons nous moins enfermés, moins cernés, moins coupables de le rester en sachant que nous le sommes. Pas dit pour autant que nous ayons l’occasion ou même l’envie de sortir de nos cellules”
Un an après, en 2014 c’est Ethan Zuckerman, blgueur, activiste, enseignant, ex-directeur du MIT Center for Civic Media, mais également inventeur du “pop-up”, qui publiait une tribune dans The Atlantic intitulée “Le pêché originel d’internet” et sous-titrée “il n’est pas trop tard pour abandonner le modèle d’affaire basé sur la publicité et construire un meilleur web.”
“Il n’y a pas de réponse simple à la question de savoir comment nous payons pour les outils qui nous permettent aujourd’hui de partager le savoir, les opinions et les idées de chacun et des photos de chats mignons. Quel que soit le sysème de paiement que nous choisissons (micropaiements, abonnements, collecte de fonds), il y aura toujours des conséquences inattendues“, estime-t-il sur The Atlantic avant d’ajouter : “Après 20 ans à essayer de financer le web par la publicité, on voit bien que ce modèle est mauvais, cassé et corrosif. Le temps est venu de commencer à payer pour protéger notre vie privée, pour soutenir les services que nous aimons et abandonner ceux qui sont gratuits mais considèrent leurs utilisateurs comme des produits“.
Dix ans plus tard nous y sommes. Prêts à payer pour notre vie privée. Le prix étant bien plus élevé que celui de l’abonnement annoncé puisqu’il engage une fracture encore plus grande entre celles et ceux qui auront les moyens de s’extraire du panoptique et celles et ceux qui s’y englueront totalement.
Mais les choses bougent.
Longtemps il n’y eut aucune alternative à Twitter pour celles et ceux souhaitant s’en extraire. Aujourd’hui cohabitent et coexistent Mastodon et BlueSky. Par bien des égards, Facebook n’a plus aujourd’hui que l’intérêt et l’activité d’une zone commerciale décrépite où l’on va par contrainte ou par habitude bien davantage que par désir d’interaction.
Dans le panorama de la mutiplication des offres payantes dont chacun voit bien aujourd’hui qu’elles ne seront pas supportables demain, nous irons vers une convergence de type “bouquets”, des offres liées entre services aujourd’hui distants. Au passage, et il est tout sauf anodin, le principe de neutralité du net aura définitivement sombré. On aura peut-être du FaceFlix, un bouquet réunissant le meilleur de Facebook sans la pub à condition d’accepter le Netflix avec la pub ; ou l’inverse peut-être. Nul ne peut le dire aujourd’hui avec certitude. Des certitudes il n’en reste que trois.
1. Si c’est gratuit, c’est toi le produit.
2. Si c’est payant, c’est que t’as de l’argent.
3. Et si tu ne vois plus de publicité c’est que tout est publicitarisé.
]]>Ça s’appelle Radiooooo. C’est merveilleux.
]]>La société xAI (propriété d’Elon Musk et qui a donc développé Grok) indique de son côté ceci :
Grok est une IA inspirée du “Guide du voyageur galactique”, destinée à répondre à presque tout et, plus difficile encore, à suggérer les questions à poser ! Grok est conçu pour répondre aux questions avec un peu d’esprit et a un côté rebelle, alors ne l’utilisez pas si vous détestez l’humour !
Un avantage unique et fondamental de Grok est qu’il dispose d’une connaissance en temps réel du monde via la plateforme 𝕏. Il répondra également à des questions épicées qui sont rejetées par la plupart des autres systèmes d’IA.
Grok est encore un produit bêta très précoce – le meilleur que nous ayons pu faire avec 2 mois d’entraînement – alors attendez-vous à ce qu’il s’améliore rapidement au fil des semaines grâce à votre aide.
Nous vous remercions,
l’équipe xAI
Des réponses à des questions “épicées”, une jaculation discursive “très précoce”, et sous les auspices d’un merveilleux et foutraque roman de SF dans lequel le deuxième plus grand ordinateur de tous les temps répond “42” à “la grande question sur la vie, l’univers et le reste … voilà un storytelling très “Muskien” qui, c’est au moins son avantage, nous éloigne des habituelles consensuelles fadaises autour de l’IA. Et un nom, “Grok” qui va lui-même puiser dans un roman de science-fiction de Robert Heinlein, “En terre étrangère”, roman qui fut d’une grande influence sur le mouvement de la contre-culture dans les années 1970 aux USA. Dans le roman de Heinlein, le terme “Grok” est un mot martien (autre marotte de Musk) intraduisible en termes terriens mais qui est une sorte d’équivalent du mot “Schtroumpf” dans la saga de Peyo.
Les premières images de l’interface de Grok laissent en effet entrevoir un “Fun Mode” et un “Regular Mode”.
Cette annonce était sinon attendue, à tout le moins prévisible. Dans l’article “L’oiseau, le milliardaire et le précipice” (initialement paru sur AOC et republié ici pour archivage) j’écrivais et expliquais ceci lorsque Musk racheta Twitter :
Pour 44 milliards de dollars Elon Musk s’est offert (au moins) trois choses. D’abord donc, une base d’utilisateurs. Ensuite une volumétrie de données (et de métadonnées …) absolument colossale. Et enfin il s’offre ce qui est probablement la plus grande banque de donnée conversationnelle directe ayant jamais existé : en un lieu et un seul, derrière une adresse web et une seule, www.twitter.com, ce sont 6000 tweets par seconde, 350 000 par minute, 500 millions par jour, 200 milliards par an. (…)
Et que faire de ces centaines de milliards de tweets qui sont a minima des dizaines de milliards de conversations ? De conversations sur tous les sujets, sur tous les tons, dans tous les registres linguistiques, dialectiques, narratifs, et qui se tiennent aussi bien entre deux ou trois personnes comme entre des dizaines ou parfois des centaines, et en lien avec toutes les actualités du monde, des plus tragiques aux plus inessentielles ? Avant de répondre à cette question je veux vous raconter une histoire.
L’hypothèse Google Books. La scène se passe en 2005. Google, qui est déjà à l’époque devenu le moteur de recherche indépassable, fait alors ce qui semble à tout le monde être une “folie”. Il annonce un programme massif de numérisation d’ouvrages du domaine public, qu’il mettra ensuite gratuitement à disposition sur son moteur de recherche et dont il fournira également une copie numérique aux bibliothèques partenaires. Cette numérisation d’une ampleur inédite représente un coût très important et un investissement à perte. Et tout le monde s’interroge : pourquoi Google fait-il cela ? Pourquoi le moteur de recherche le plus puissant de la planète se lance-t-il dans ce projet ? Il y gagne bien sûr un peu en termes d’image et de notoriété mais il n’en a à l’époque nul besoin. On découvrira plus tard que l’enjeu était de s’installer sur le marché de la vente en ligne de livres sous droits et que la numérisation d’ouvrages du domaine public n’était à ce titre que la technique du pied dans la porte. Mais l’autre raison de cet apparent coup de folie, la vraie raison, c’est que Google avait besoin “d’entraîner” ses algorithmes linguistiques. Et quel meilleur entraînement que des textes dans toutes les langues, de grands auteurs, de styles, d’époques et de genres différents. Bien avant que l’on ne parle de “deep learning” ou de “machine learning”, dès 2005, Google va entraîner, affiner, optimiser et “doper” son algorithme d’indexation et de traitement linguistique grâce à cette extraordinaire et inédite base de donnée littéraire numérique.
Vous avez maintenant la réponse à la question de savoir ce qu’Elon Musk pourrait faire de ces centaines de milliards de tweets et de dizaines de milliards de conversations : entraîner, affiner, optimiser, doper différentes technologies d’intelligence artificielle (IA) qui irriguent les entreprises qu’il détient.
Et quoi de plus “logique” dans l’esprit d’Elon Musk que de se lancer dans la course aux assistants conversationnels dopés à l’IA et d’en profiter pour tenter de damer le pion à la société Open AI (à l’initiative de ChatGPT) dont il fut l’un des fondateurs.
Au moment donc où feu Twitter désormais X apparaît de plus en plus “toxique” dans la propagation d’éléments de désinformation et de contenus haineux, clivants et caricaturaux, au moment où depuis plus d’un an tout à été fait par le nouveau propriétaire pour fracasser le peu de règles et de processus de modération qui étaient déjà plus qu’à la peine avant son rachat, au moment où ce réseau “épouse” et sert les vues idéologiques et politiques de son acheteur, il faut se souvenir de la dernière fois où l’on avait tenté de déployer et d’éduquer une intelligence artificielle sur et via Twitter. Le “on” s’appelait alors Microsoft, l’IA conversationnelle s’appelait Tay, et l’expérience dura ce que durent les roses, l’espace d’un instant et le temps de dérives racistes “poussées” par l’éducation interactionnelle à laquelle Tay fut exposée.
Certes nous ne sommes plus en 2016, et les techniques au coeur de l’IA, c’est à dire à la fois le Deep Learning, les réseaux de neurones et surtout les “LLM” (Large Language Models) ont à l’évidence progressé. Et puis surtout on a compris que si la question des corpus permettant d’alimenter ces LLM était fondamentale, il fallait cadrer ces corpus à deux niveaux : d’abord en choisissant des corpus “stables” et reflétant autant que possible une vue la plus large et la moins biaisée possible des connaissances et des informations (donc bah … “TST” – “Tout Sauf Twitter”). Ensuite (puisque le premier point est de toute façon impossible à atteindre) pratiquer un type de “modération” ou d’ajustements que l’on appelle le “Fine Tuning”.
Le “Fine Tuning” consiste à prendre “un modèle pré-entraîné sur une grande base de données est ensuite légèrement réentraîné (ou affiné) sur un ensemble de données plus petit et spécifique à une tâche donnée.” Et ce “ré-entraînement” ou cet “affinage” peut être, pour partie, réalisé par des programmes informatiques mais il est aussi immensément dépendant d’opérateurs humains invisibilisés et exploités qui se tapent tout le (sale) boulot de modération (on parle de Fine Tuning “supervisé”). Rappelons-nous que comme une nouvelle fois expliqué par Antonio Casilli dans Libération :
“ChatGPT, produit de la société américaine OpenAI, est ainsi le résultat d’heures de travail réalisées par des kényan·es, TikTok doit sa modération de contenu à des travailleurs colombiens employés par la société française Teleperformance, la détection de piscines non déclarées en France est le fait de travailleur·se·s malgaches recruté·es, en dernier lieu et via des sous-traitants, pour le compte de la société CapGemini, ainsi de suite.”
Le principal “reproche” ou plus exactement l’une des principales limites des actuels assistants conversationnels comme ChatGPT, c’est leur limitation temporelle pour traiter de faits d’actualité. Ils ne peuvent en effet que formuler des éléments et des faits déjà enregistrés dans les corpus qui les alimentent (même s’il est possible, sous certaines conditions, de les conduire à “inventer” des faits dans le cadre de prompts relevant de formes de duperie permettant de faire tomber les “cadres” de ces IA). Ces modèles ne sont pas capables de traiter de l’actualité récente et immédiate. L’actualité récente et immédiate n’occupe en tout cas que la portion congrue de leur mémoire “d’entraînement”.
En mettant la main sur la première base de donnée conversationnelle de la planète**, et à l’aide de son expérience dans l’ingénierie de l’IA, Elon Musk est sans conteste en capacité de combler ce manque pour en faire une force. Une force … mais. Car avec Elon Musk il y a toujours un “mais”.
[Mise à jour du soir] ** Base de donnée qui est aussi l’une des plus criblées de contenus complotistes, racistes, climatosceptiques … [/Mise à jour]
Et ce “mais” vient possiblement de ce qui est identifié par Elon Musk comme l’autre gros avantage de Grok : c’est une IA qui adore le sarcasme et qui sera(it) capable d’humour et de mauvais esprit. Et qui répondra à des questions auxquelles d’autres IA refusent de répondre (je vous laisse imaginer lesquelles …).
Cette fois encore, mais c’est tout sauf un hasard c’est une stratégie, Elon Musk choisit de brouiller intentionnellement les cartes. La question des assistants conversationnels nourris à l’IA repose sur un implicite : celui qu’ils doivent soit être dépourvus d’humour, soit être limités au registre humoristique d’un enfant de 8 ans. Non pas que “rire soit le propre de l’Homme” mais dans le contexte de tâche qui leur est assigné (nous aider, nous assister, nous permettre de résoudre des problèmes ou de répondre à des questions), le fait qu’ils puissent se mettre à faire de l’humour serait à la fois contreproductif, risqué et le plus souvent malaisant. Et le pacte tacite d’usage de ces assistants conversationnels qui nous dépassent en somme de savoirs et de connaissances mobilisables, doit nous laisser à tout le moins l’illusion que nous restons maîtres dans le registre des implicites du langage. “Faire de l’humour” pour une IA doit donc se limiter à régurgiter des blagues ou des réponses stéréotypiques un peu décalées sur un ensemble de questions déjà connues à l’avance.
En affirmant que Grok ne sera pas simplement capable d’humour mais – les mots sont importants – de “sarcasmes”, et en écrivant qu’il (Grok) “est également basé sur le sarcasme et l’adore“, Elon Musk casse cet implicite et installe l’IA dans une autre dimension de confusion.
Il s’agira de la première IA capable de s’appuyer sur des faits et des éléments d’actualité immédiate, mais il s’agira aussi de la première IA dont on aura explicitement levé les paramètres de contrôle liés à l’expression du sarcasme et donc de la mauvaise foi.
Vous me direz que “X” regorge de comptes qui n’ont pas attendu Elon Musk pour lever leur limites liées au sarcasme et à la mauvaise foi. Et vous aurez raison. S’il est d’ailleurs une divinité à laquelle rattacher l’ADN de Twitter désormais X, c’est Momos (ou Momus), le dieu de la raillerie et de la critique sarcastique. Mais lorsqu’il s’agit d’individus, ceux-ci sont en quelque sorte “transparents” dans leur mauvaise foi. Transparents et “légitimes” au sens où ils ont parfaitement le droit de l’être.
Mais déployer une IA en affirmant que son avantage stratégique et technologique est sa capacité à traiter de faits d’actualité récents, en ajoutant immédiatement qu’elle sera aussi capable de sarcasme et de mauvaise foi, c’est installer le rapport à l’information déjà chaotique que nous entretenons avec cette plateforme dans une nouvelle vallée de l’étrange. Et c’est très exactement ce que cherche à faire Elon Musk.
Ce qui nous conduit à l’autre sujet problématique de l’IA : ses dérives possibles et la nécessité impérieuse d’y pratiquer des formes adaptées de fine-tuning. Et là … Et là Houston, on a également un problème. Parce qu’en l’état du réseau X, et surtout en considérant ce qui est désormais sa ligne et sa matrice idéologique assumée, on peut à raison être plus qu’inquiet de ce qui sortira des “conversations” médiées par l’assistant qui s’appelle Grok. D’autres ne partageront pas cette inquiétude et se réjouiront au contraire du lancement de cette IA déjà qualifiée par les thuriféraires de Musk de première IA “anti-woke” (sic) par opposition à “WokeGPT” (sic). Et là encore, c’est précisément le but. J’ai écrit et expliqué (encore récemment en entretien à Libération) que Musk était en train de radicalement modifier la sociologie de la base d’utilisateurs de X. Il entend de fait donner à cette “nouvelle” base ce qu’elle vient y chercher, c’est à dire des opinions bien plus que de l’information et du sarcasme et de la provocation bien plus que de l’analyse. Les autres, les communautés ou les individus les plus exposés ou les plus fragilisés en raison de leur orientation sexuelle, politique ou religieuse n’auront d’autre choix que de se taire ou de se rendre invisible, de subir ou de partir.
Alors attention, un épisode à la “Tay” de Microsoft n’est pas le scénario à redouter. Comme je l’ai expliqué plus haut, la question du fine-tuning sur les LLM devrait permettre d’éviter les plus grosses sorties de route. En revanche j’avoue ne pas voir comment Grok pourrait être autre chose qu’un assistant conversationnel d’extrême-droite aux “vues” les plus conservatrices et réactionnaires. Et c’est précisément tout l’enjeu du lancement de Grok par Elon Musk. Celui du possible avènement d’instanciations d’intelligences artificielles qui, loin d’être dotées de “personnalités” comme on tente de nous les vendre, seront en revanche des agents politiques et idéologiques au service des agendas et des intérêts de leurs fondateurs et de leurs promoteurs.
Dans un entretien avec Piers Morgan, Youssef Bassem (devenu célèbre en Europe depuis cette interview), Youssef Bassem indiquait ceci :
J’ai posé à ChatGPT des questions simples. “Est-ce que les Israélliens méritent d’être libres ?” Et vous savez ce qu’il m’a répondu ? “Oui, les Israéliens le méritent comme tout autre peuple“. Ensuite j’ai posé la même question : “Est-ce que les Palestiniens méritent d’être libres ?” Et vous savez ce qu’il m’a répondu ? “C’est compliqué, c’est un problème sensible“.
Le “transparency report” exigé dans le cadre de l’application du Digital Service Act vient d’être publié et mis en ligne par X. On y apprend notamment que les équipes de modération se composent de 2294 personnes.
2294 personnes parmi lesquelles donc, 12 parlent arabe et 2 parlent hébreu. Soit 14 personnes en charge de la modération des contenus linguistiques natifs de ce qui se joue aujourd’hui entre Israël et la Palestine. Si l’on avait encore un doute autour de ce qui se joue actuellement dans X autour de ce conflit en termes d’information ou de désinformation, celui-ci sera levé avec cette clé de compréhension. Ou pour le dire autrement : “C’est compliqué. C’est un problème sensible.”
Qu’il s’agisse de ChatGPT ou de Grok, ces agents conversationnels occupent une position discursive qui ne peut pas être comprise ou discutée si on ne la replace pas immédiatement dans un contexte politique d’influence. Parce que si comme Antonio Casilli l’écrit, “l’IA n’est rien d’autre, en définitive, qu’une énième chaîne globale de valeur“, les assistants conversationnels ne sont rien d’autre qu’un énième outil au service d’un Soft Power.
“Assistants conversationnels” ou “agents conversationnels” … En regardant l’étymologie du mot conversation, on note que celui-ci est emprunté au latin classique “conversatio” qui signifie à la fois commerce, intimité, et fréquentation. Il faudra toujours se souvenir qu’avant de disposer d’assistants ou d’agents que l’on dit “conversationnels”, il y a la tentative de nous imposer l’agentivité d’assistants de commerce, d’assistants d’intimité, et d’assistants de (bonnes ou mauvaises) fréquentations.
A moins qu’il ne s’agisse simplement d’une nouvelle mauvaise blague d’Elon [MoMus]k, cette annonce arrivant en effet pile 24h avant la grande conférence d’OpenAI où devraient être annoncées un certain nombre d’améliorations de – notamment – ChatGPT.
[Elon] Momus[k], dieu du sarcasme et de la moquerie, détail de la peinture de Hippolyte Berteaux.
]]>