Lutter contre les enclosures de demain

Je suis invité Jeudi prochain à intervenir dans le Master recherche Infocom de l'université Paris Ouest, dédié aux biens communs numériques, pour le 6ème webinaire, sur le thème "Enclosures et émancipation".

Cet article va me servir à préciser le cadre de mon intervention, à y jeter quelques idées en vrac, et pourra servir de support de discussion pour les participants au séminaire, en complément de cet autre billet sur le même sujet : "D'un F qui veut dire forclos" et de ceux signalés en lien dans reste du texte.

Rappelons ce qu'est d'abord une "enclosure".

Les "enclosures informationnelles", c'est ça

"Dans le domaine de l’information, clore revient à poser une frontière artificielle alors que l’ADN du numérique est de permettre le stockage et la dissémination à très bas coûts des biens informationnels qui sont par nature non rivaux, c’est-à-dire accessibles simultanément par plusieurs personnes."

Plus exactement encore :

"Or l’information peut-être un bien commun de la connaissance. Pour cela, il faut non seulement que l’information puisse circuler, mais aussi qu’elle s’inscrive dans ces principes proposés par David Bollier dans Libres Savoirs : maintenance d’une ressource sur le long terme ; accès équitable et bénéfique pour un usage individuel (et non marchand) des commonners ; transparence et responsabilité au sein des commoners capacité à identifier et à punir les passagers clandestins, le vandalisme et les appropriations ; capacité à déterminer si la ressource doit être aliénée en vue d’un usage marchand ou non."

Plus simplement, dans le cadre de cette intervention je définirai une enclosure comme :

un élément d'information ou de connaissance dont la libre circulation documentaire est entravée, et/ou qui ne peut-être documenté, qui ne peut rentrer dans un processus documentaire (de conservation, d'archivage, de diffusion, etc.) qu'en circuit fermé ou dans des conditions d'appropriation définies par le site hôte et non par le producteur ou le créateur de la ressource.

Ces enclosures renvoient et s'appuient sur des logiques qui peuvent être caractérisées de 4 manières différentes (déjà explicitées dans ce billet), 4 manières de fabriquer des enclosures, et que je rappelle pour mémoire :

  1. limitation de la réciprocité : échange de liens, backlinks, trackbacks, etc … La réciprocité est au coeur des biotopes originels du web. Rien n'est possible sans elle.
  2. extension des logiques de parasitage : il s'agit ici d'une réciprocité subie, tel biotope étant "obligé" d'intégrer un composant de tel autre biotope pour assurer sa propre survie ou sa propre domination. Un exemple dans ce billet qui illustre la manière dont les sites sociaux (Facebook, Twitter) influent sur l'organisation de la hiérarchie de liens des moteurs (Google & Bing).
  3. le phagocytage (ou phagocytose = détruire en absorbant puis en découpant en petits morceaux) : procède et opère essentiellement sur le mode documentaire (exemple détaillé ici)
  4. la prédation : essentiellement le rachat (au sens économique : telle boîte rachète telle autre) ou l'épuisement (la domination de telle boîte rend caduque des boîtes plus faiblement dimensionnées ou trop spécialisées sur un secteur ou un service)

Enclosures VS Disclosures.

Enfin, les "enclosures" peuvent être définies en creux par opposition aux "disclosures" : ces dernières se traduisant par les 3 termes : "divulgation, révélation, dévoilement", les enclosures se caractérisent par des pénomènes de "rétention, masquage, enfouissement". Rétention des informations dans un écosystème clos et propriétaire, masquage des logiques de traçage, de sélection et d'affichage/d'organisation des contenus, enfouissement des logiques de collecte et de production de données et de métadonnées associées. 

Le résultat est celui que je décrivais dans ce billet :

"(…) l'exacte antithèse de la promesse de la transclusion des pionniers : faire qu'un fragment d'énoncé, de discours, de texte, soit d'abord le vecteur de toutes les appropriations possibles, faire que la technique, que le code soit au service de ces appropriations en les rendant possibles, en les rendant visibles, au-delà des seules frontières de son inscription initiale, au-delà et par-delà son adressage premier."

Le Pitch.

L'idée est, au-delà des enclosures déjà identifiées, dans la logique de transitions déjà longuement décrites et argumentées menant du web des documents au web des profils (l'homme est un document comme les autres), et transformant notre corps même en interface, devant l'acceptation de moins en moins choisie de politiques algorithmiques qui nous enferment dans des bulles informationnelles ou attentionnelles egocentrées et nous confortent dans nos propres représentations, l'idée est de discuter de ce que pourraient être les enclosures documentaires de demain pour permettre de mieux s'en échapper.

Pour le dire autrement (et plus simplement) qu'est-ce qui résiste encore aujourd'hui à toute forme de "documentation" et qui n'y résistera peut-être plus demain ?

LES NOUVELLES ENCLOSURES DE LA CORPORÉITÉ "ORGANIQUE"

L'enclosure du corps-interface et des objets connectés.

Bienvenue dans le World Wide Wear. On ne documente pas aujourd'hui "littéralement" notre rapport à notre corps. Y compris même les rares qui fréquentent assidûment des salles de sport et qui confient cette documentation à des tiers de confiance (leurs "coach" qui tiennent le journal de leur programme d'entraînement). Et puis voici que réseaux sociaux aidants et dispositifs technologiques accompagnants, nos murs et autres timelines commencèrent à voir fleurir les premiers bourgeons de ces nouvelles documentations : "untel qui pas parcouru 4,3 Km à 6h03 ce matin", "untelautre qui a brûlé 227 calories" et j'en passe.

Diapositive3

Nous nous étions jusqu'ici contentés de documenter notre rapport au corps mais l'avions fait comme "à distance", nous regardions les documentations des autres.

De la géolocalisation globale jusqu'à la mode du check-in lancée par Foursquare et d'autres applications, le champ documentaire de l'inscription de notre corps dans l'espace s'est progressivement et inexorablement rétréci, telle une peau de chagrin. D'abord nous nous sommes situés dans l'espace. Ce fut l'époque Google Earth. Puis vinrent les cartes de cette carte à l'échelle du territoire, fractales, bref, Google Maps. Puis débarquèrent et se systématisèrent les GPS, d'abord installés dans nos voitures pour progressivement en disparaître à mesure que nos smartphones les intégraient à leur tour. Jusqu'à la mode du Quantified Self, récemment dopée par l'essor des lunettes, bracelets et autres objets connectés.

La situation de soi s'est enrichie de documentations toujours plus fines ; la documentation de soi s'est enrichie de situations toujours plus proches.

Jusqu'à intégrer notre propre corps. Jusqu'à ce qu'il devienne à son tour interface. Google Earth et Google Maps nous ont aidé à nous repérer. "Je me repère". GPS de conduite et smartphones de géolocalisation nous ont permis de nous situer, c'est à dire, via Foursquare et autres applications de check-in de "se repérer pour mieux repérer les autres". Enfin le quantified self a fait du Je le seul repère. "Je est le repère". Un repère dont la cardinalité de nos relations sociales est l'abscisse et l'étendue de nos documentations sociales l'ordonnée.

Diapositive2

Ce mouvement s'est construit à l'unisson du renforcement de nos bulles de filtres. A l'unisson du mouvement de documentarisation qui, après nous avoir fourni l'opportunité de documenter le monde, nous contraint désormais essentiellement à nous documenter nous-mêmes. Refrain connu : de la conquête du Far-Web à celle du Near-Me.

"Se documenter" n'est plus "chercher de l'information sur quelque chose" mais "produire de l'information sur soi".

Toutes les proxémies documentaires qui se sont jusqu'ici construites par couches successives vont se redéployer. Elles vont le faire à partir de notre corps. A partir de données que génèreront les interactions de notre corps avec la multitude de capteurs qui l'entourent, des objets connectés disséminés dans notre environnement jusqu'aux capteurs qui viennent aujourd'hui "équiper" notre corporéité.

C'est l'amorçage d'un nouveau cycle d'enclosures informationnelles : la raison est que l'essentiel des dispositifs et des environnements de médiation dans ou au travers desquels s'effectueront les fonctions documentaires de classement, d'accès, d'organisation de tri, de sélection et de prescription, l'essentiel de ces dispositifs et de ces environnements reposent aujourd'hui sur des technologies et des écosystèmes propriétaires.

L'enclosure de la mort numérique.

C'est une enclosure qui touche à notre mémoire. Jusqu'ici nous observions un processus constant d'externalisation de nos mémoires documentaires vers des mémoires de silicone d'abord toujours à portée de notre main (les ordinateurs, puis les téléphones portables pour l'essentiel) et ensuite se déportant dans de nouveaux conglomérats mémoriels dits du "cloud computing", c'est à dire précisément hors de portée de notre main (pour faire écho au "tenant en main le monde" de Michel Serres et sa Petite Poucette).

La nouveauté vient de ce que désormais il nous faut envisager qu'y compris après notre décès, nos données puissent continuer de faire sens (ici on est dans un processus mémoriel classique de "souvenir" lié à l'affect) mais puissent surtout recommencer à être re-documentées, et ce pour générer de nouvelles données, de nouvelles méta-données, un nouveau cycle "documentaire" qui sera à son tour monétisable et soumis donc à de nouvelles enclosures. Le risque de voir aparaître des sortes de "méta-enclosures" post-mortem.

L'enclosure du génome.

Je passe rapidement, juste pour rappeler que l'essor des NBIC (nano-bio-info-cogno technologies) et les collusions, visibles ou invisibles, de grands acteurs du Search avec des firmes s'intéressant à la génomique personnelle plus les récentes embauches, dans ces mêmes firmes, de chantres du transhumanisme et autres théories de la singularité, nous font clairement courir le risque de voir émerger dans un horizon proche des entreprises qui seront à l'humanité ce que Monsanto est aux semences et à l'agriculture, c'est à dire pas vraiment des vecteurs de diversité et de bienfaisance. 

LES NOUVELLES ENCLOSURES DU "CORPS SOCIAL"

Enclosures algorithmiques.

Un algorithme peut-il être considéré comme une enclosure ? La réponse est oui. Comment définir une enclosure algorithmique ? Un algorithme peut entraver la libre circulation documentaire d'un élément de connaissance ou d'une information ; un algorithme peut empêcher cet élément d'information ou cette connaissance d'entrer dans un processus documentaire ; un algorithme peut modeler, définir et réguler les conditions d'appropriation et de partage de ce contenu en fonction de critères définis sans l'accord du producteur ou du créateur de la ressource (cf l'exemple très récent des licences Creative Commons sur Flickr). Par ailleurs, la nature même d'un algorithme est  – cf supra – d'opérer par :

"rétention des informations dans un écosystème clos et propriétaire, masquage des logiques de traçage, de sélection et d'affichage/d'organisation des contenus, enfouissement des logiques de collecte et de production de données et de métadonnées associées."

Les premiers algorithmes étaient des algorithmes de recherche, ils fonctionnaient sur une règle simple de "matching" : je te donne un mot (une requête), tu disposes d'une base de mots (index), tu me renvoies les pages de ta base qui contiennent ma requête. La "valeur" de l'algorithme était entièrement corrélée à sa capacité de "matching" et ne se déplaçait qu'à la marge, dans la capacité de celui-ci à hiérarchiser les pages renvoyées.

Puis ce réglage "à la marge" finit par devenir central. Tout le monde avait capacité à construire une base de mots plus ou moins considérable, tout le monde savait comment "matcher" cette base avec n'importe quelle requête. On se mit alors à inventer des algorithmes de prescription : c'est à dire non plus capables de répondre à la question "quelles pages renvoyer sur telle requête" mais "dans quel ordre classer les pages renvoyées". Le Pagerank fut le premier des algorithmes prescriptifs. Mais à l'époque on le considérait simplement comme la Rolls Royce des algorithmes "de recherche" car on ne voyait pas en quoi l'ordre de présentation des résultats inaugurait un nouvel ordre documentaire mondial.

L'essentiel des algorithmes actuels sont centrés sur la prescription et ne se soucient plus qu'à la marge de répondre correctement à nos requêtes. Leur ADN algorithmique est de s'arranger pour que la prescription sur ordonnance (des résultats) l'emporte aussi souvent que possible sur l'improbable satisfaction de voir s'afficher des réponses à des questions que de toute façon nous ne posons même plus. En quelque sorte des algorithmes "d'imposition". L'Edgerank de Facebook est emblématique de cette troisième génération algorithmique puisqu'il s'agit, dans un écosystème presqu'entièrement dénué de requêtes, de déterminer quels contenus sont les plus susceptibles d'intéresser tels profils. 

C'est alors qu'apparaissent les problématiques des techniques dites "d'opinion mining" et de "sentiment analysis". Une quatrième génération d'algorithmes qui ont pour but non plus de croiser (matching), non plus de prescrire, non plus d'imposer en dehors de tout requêtage, mais de détecter dans des instanciations de discours divers et épars, des "opinions" et des "sentiments". Des algorithmes "sentimentaux". Qui tentent pour l'instant encore maladroitement de singer des phénomènes interpersonnels de connivence. Des algorithmes sentimentaux dans la roue d'un web de l'émotion, de l'affect, du pathos, de la pulsion.  Aujourd'hui ces algorithmes, ceux en tout cas qui permettent de travailler et de visualiser ces "analyses de sentiment" en les quantifiant, sont réservés à quelques veilleurs et sont principalement mis en place dans quelques outils logiciels à destination des mêmes veilleurs. Mais de la même manière que l'on fut initialement incapable de détecter que le Pagerank était déjà un algorithme de prescription (2ème génération) inaugurant un nouvel ordre documentaire en n'y voyant qu'un super algorithme de recherche (1ère génération), je prends le pari que demain nos environnements numériques seront à leur tour régis par des algorithmes sentimentaux (4ème génération) capables de fabriquer de l'opinion et du (res)sentiment sous couvert de simplement nous imposer un enchevêtrement complexe "d'opinions" et "de sentiments" (3ème génération).

Pour une raison simple :

"Aujourd'hui, ce qui préoccupe les grands acteurs de l'économie de l'attention, c'est la manière dont des motifs récurrents (patterns) peuvent être extraits d'un ensemble disparate de singularités (d'indvidus), placés au coeur de l'écosystème informationnel et non à sa sortie ou à sa périphérie, pour optimiser la capacité de satisfaction immédiate que ledit système (le medium) peut apporter auxdits individus sous forme de récompense cognitive, aliénant ainsi leur attention tout en lui assignant un coût cognitif quasiment nul."

Les premières enclosures algorithmiques reposaient principalement sur le pouvoir de domination exercé par quelques moteurs qui avaient en quelque sorte pouvoir de vie et de mort du simple fait de vous accepter ou de vous exclure de leur index et pouvaient également vous faire puissant ou misérable en fonction de la place qu'ils vous accordaient dans leurs résultats de recherche. Ces enclosures concernaient les algorithmes de 1ère et de 2ème génération. Celles concernant les algorithmes de 3ème et 4ème génération sont à la fois plus complexes et plus subtilement perverses. Il s'agit, par parasitage, non-réciprocité, phagocytage ou prédation, par rétention, masquage et enfouissement, de capter les contenus disposant de la plus forte valeur "sentimentale", les contenus jugés le plus capables de mobiliser ou de faire "l'opinion" et de leur affecter une exposition (un rang, un ordre, une fréquence d'apparition) qui va avoir pour effet de créer une boucle virale s'auto-alimentant (cf les exemples des pages dépassant le million de likes) mais qui va aussi et surtout permettre au site hôte de capter à son seul bénéfice les données documentaires qui seront produites lors de cette phase d'exposition et de viralité orchestrée.

Ainsi on pourrait presque parler d'enclosures affectives, sentimentales, dans le sens où elles constituent une nouvelle dimension, une nouvelle étendue de la théorie de la bulle de filtre d'Eli Pariser, c'est à dire l'instrumentalisation du renforcement artificiel des croyances, des préjugés, des représentations les plus partagées ou les plus faciles à assimiler.

On pourrait enclosure en conclure :

Que l'ambition des grands écosystèmes dominant actuellement le web relève d'une stratégie d'enclosure de nature "politique", fait des enclosures un système de gouvernance "politique", au travers notamment de leurs "policies" comme substituts possibles aux normes sociales qui fondent le "vivre ensemble", c'est à dire la construction de représentations partagées.

Le modèle dominant des grands carrefours attentionnels et marchands de l'accès (Google, Apple, Facebook etc.) est un modèle qui se sert des enclosures comme norme de régulation de l'ensemble des échanges (marchands et sociaux) s'effectuant en leur sein ou dans les extériorités qu'ils cherchent constamment à s'approprier.

La question d'une émancipation possible ne peut donc être réglée par ces systèmes eux-mêmes mais par l'action conjointe du politique et de la société civile pour sanctuariser les conditions d'un partage documentaire des ressources, données et profils qui soit aussi équitable que possible :

  • en agissant sur la limitation de la "Rétention des informations dans un écosystème clos et propriétaire",
  • en contraignant à la révélation ou à l'explicitation du "masquage des logiques de traçage, de sélection et d'affichage/d'organisation des contenus",
  • et en dévoilant les processus "d'enfouissement des logiques de collecte et de production de données et de métadonnées associées."

Le politique dispose pour cela d'outils législatifs (cf par exemple la récente décision de la cour de justice européenne sur les données personnelles), la société civile peut, de manière collective, pousser à l'adoption d'outils et d'environnements technologiques équitables, et, de manière individuelle, cesser d'alimenter la source des données de la servitude volontaire.

L'autre point à souligner en conclusion est que, de manière diachronique, les systèmes d'enclosures évoluent à l'unisson des saillances technologiques des 2 derniers siècles. Le 20ème permit d'établir principalement des enclosures de calculabilité, c'est à dire reposant sur les capacités des programmes et des infrastructures technologiques à rendre le monde (et les informations y circulant) "calculables", chiffrables, simultanément engrammables et encryptables. Le 21ème siècle voit déjà l'avènement d'enclosures des prédictibilité, c'est à dire reposant sur la capacité des programmes et des infrastructures technologiques à pré-dire, à dire à notre place, à ne plus nécessiter un quelconque "input" (question, requête) pour générer une foule d'outputs (recommandations), pour orienter et contraindre des usages qui fabriqueront eux-mêmes des représentations supposément communes. Ces dernières enclosures sont à l'évidence plus difficilement repérables et identifiables ; elles sont aussi hélas, redoutablement plus efficaces que les précédentes, tant pour conforter le modèle économique des écosystèmes les mettant en place que pour alerter sur le devenir d'un accès à l'information déjà très fortement préempté par ces mêmes écosystèmes.

Enfin, le point nodal de cette évolution tient à l'émergence désormais quasi-certaine d'un nouveau régime d'enclosures qui ne concerneront plus uniquement notre rapport collectif au monde mais notre rapport individuel à notre propre corps, jusque dans sa dimension biologique.

 

 

Un commentaire pour “Lutter contre les enclosures de demain

  1. De plus en plus, j’ai l’impression de relire le successeur de pierre de JM Truong, considéré par wikipédia comme un transhumaniste “hérétique”.
    Sur l’algorithme considéré comme une enclosure, il me semble dabord qu’un algorihme est d’abord un discours qui porte une vision du monde et qu’il veut comme tout discours changer le monde.
    Le problème n’est pas dans cela à mon sens mais dans le fait qu’on n’enseigne l’algorithme qu’en école d’informatique et non en classe de français

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Articles similaires

Commencez à saisir votre recherche ci-dessus et pressez Entrée pour rechercher. ESC pour annuler.

Retour en haut