Pour des états généraux du web indépendant.

Pour archivage je reproduis ici une version longue de la tribune parue ce vendredi dans le journal Libération.

==============================================================================================

Avez-vous remarqué comme le monde se réduit ? Avez-vous noté comme nous sommes passés, presque sans nous en rendre compte, d'un idéal de miniaturisation technique à une sorte de cauchemard de réduction à la fois sociale et discursive ? Réduction sociale avec l'effet "petit monde" de Milgram amplifié par nos nouvelles proximités sociales réduites dans les réseaux sociaux ; mais aussi réduction des espaces discursifs : on publie des status, des tweets en 140 caractères. Lawrence Lessig dans une récente interview au Monde déclarait :

"Quand Twitter est né, j’ai parlé avec un de ses fondateurs. Il était très excité par ce qu’ils avaient fait, et je lui ai dit : « Je comprends, mais n’êtes-vous pas un peu inquiet à l’idée de générer un discours de 140 caractères ? N’est-ce pas un problème ? » Il a répondu : « C’est ce que les gens veulent, alors il faut leur donner. » Il s’est finalement trouvé que ce n’était pas une bonne réponse à caractère universel.

L'espace social se réduit, l'espace discursif se réduit, l'espace de consultation (nos écrans de smartphones) se réduit, le temps d'attention se réduit et se fractionne à l'avenant.
 
En 1985 Bruno Latour écrivait ceci :
"Il n’y a rien que l’homme soit capable de vraiment dominer : tout est tout de suite trop grand ou trop petit pour lui, trop mélangé ou composé de couches successives qui dissimulent au regard ce qu’il voudrait observer. Si ! Pourtant, une chose et une seule se domine du regard : c’est une feuille de papier étalée sur une table ou punaisée sur un mur. L’histoire des sciences et des techniques est pour une large part celle des ruses permettant d’amener le monde sur cette surface de papier. Alors, oui, l’esprit le domine et le voit. Rien ne peut se cacher, s’obscurcir, se dissimuler." Bruno Latour, Culture technique, 14, 1985 (cit par Christian Jacob dans L’Empire des cartes, Albin Michel, 1992).
Trente ans plus tard, l'histoire des sciences et des techniques algorithmiques est celle de la survenue d'autres ruses : les ruses de la persuasion technologique à l'origine des réductions énumérées ci-dessus, des ruses permettant aux plateformes de s'assurer que rien ne pourra leur être caché, obscurci ou dissimulé alors même qu'elles auront tout loisir et toute stratégie de ne nous exposer que ce qui est trop grand ou trop petit pour nous, trop mélangé ou composé de couches successives qui dissimulent à notre regard ce que nous voudrions observer.
 
Avez-vous remarqué comme ce que l'on nous vendait hier comme de "l'empowerment", de la "capacitation" est devenu en quelques années une impuissance, une aliénation, le tout à grands renforts de la même persuasion technologique ? Avez-vous remarqué à quel point, encore groggys, penseurs, politiques et intellectuels sont en train de se réveiller, criant "haro" sur le baudet Google ou le mulet Facebook ?
 
Pardon à l'avance de me décerner quelques immodestes lauriers mais avez-vous remarqué à quel point ce réveil est étonnant et tardif alors que tout était déjà parfaitement clair en 2003, lorsque Facebook n'existait pas, que Google n'avait pas encore cinq ans quand il en a aujourd'hui vingt.

"Quand nous consultons une page de résultat de Google ou de tout autre moteur utilisant un algorithme semblable, nous ne disposons pas simplement du résultat d'un croisement combinatoire binaire entre des pages répondant à la requête et d'autres n'y répondant pas ou moins (matching). Nous disposons d'une vue sur le monde (watching) dont la neutralité est clairement absente. Derrière la liste de ces résultats se donnent à lire des principes de classification du savoir et d'autres encore plus implicites d'organisation des connaissances. C'est ce rapport particulier entre la (re-)quête d'un individu et la (re-)présentation d'une connaissance qui était présente dans les bibliothèques de la Haute-Egypte, pour en être évacuée avec l'arrivée des principes de classement alphabétiques.

Une nouvelle logique se donne à lire. Moins « subjective » que les principes classificatoires retenus par une élite minoritaire (clergé, etc.) elle n'en est pas moins sujette à caution. Les premières étaient douteuses mais lisibles, celles-ci le sont tout autant parce qu'illisibles, c'est-à-dire invisibles : l'affichage lisible d'une liste de résultats, est le résultat de l'itération de principes non plus seulement implicites (comme les plans de classement ou les langages documentaires utilisés dans les bibliothèques) mais invisibles et surtout dynamiques, le classement de la liste répondant à la requête étant susceptible d'évoluer en interaction avec le nombre et le type de requêtes ainsi qu'en interaction avec le renforcement (ou l'effacement) des liens pointant vers les pages présentées dans la page de résultat."

Voilà ce que j'écrivais, avec mon collègue Gabriel Gallezot dans deux articles : "Chercher faux et trouver juste" (2003) et "Des machines pour chercher au hasard" (2004).

Dans le domaine de la logique et de la philosophie, le "comble" de la réduction s'appelle "Reduction ad absurdum", ou "apagogie". Il s'agit soit de démontrer la vérité d'une proposition en prouvant l'absurdité de la proposition complémentaire (ou "contraire"), soit à montrer la fausseté d'une proposition en déduisant logiquement d'elle des conséquences absurdes.

La tempête médiatique actuelle autour des "Fake News" et autres "post-vérités" n'est rien d'autre que l'essor de ces 3 phénomènes cumulés :

  1. réductions numériques des espaces de consultation et d'expression,
  2. capacité des plateformes à ne nous présenter que des pans altérés d'une réalité informationnelle et sociale (doublé de l'intérêt des mêmes plateformes à mettre en place les techniques de persuasion technologique leur permettant de le faire),
  3. et principes implicites, invisibles et dynamiques qui régissent les algorithmes de hiérarchisation, de visibilité et/ou d'obfuscation de l'information affichée, éditée, partageable. 

Le résultat est une "Reductio Ad Numericum" globale dans laquelle nous nous trouvons aujourd'hui empêtrés : démontrer la véracité de la proposition selon laquelle "Facebook / Google nous enferment dans une bulle de filtre et/ou favorisent les informations trompeuses et/ou jouent un rôle dans des processus de fabrication de l'opinion" se fait en prouvant l'absurdité de la proposition contraire, c'est à dire que Facebook, Google ou "les plateformes" en général n'ont aucun impact sur les logiques d'accès et de hiérarchisation de l'information. De la même manière, démontrer la fausseté de la proposition selon laquelle "Facebook / Google nous enferment dans une bulle de filtre et/ou favorisent les informations trompeuses et/ou jouent un rôle dans des processus de fabrication de l'opinion" ne peut se faire qu'en déduisant logiquement des conséquences absurdes du type "personne ne s'informe sur ces plateformes, elles ne sont sous l'emprise d'aucune influence publicitaire, elles sont des processus techniques entièrement neutres".

Mais tout cela ne nous donne aucune solution au problème rencontré. Et toutes les solutions présentées jusqu'ici sont condamnées à l'échec : 

  • Faire des lois ? Toute tentative de régulation législative ne sera que partielle quand elle ne sera pas entièrement vaine. Code is Law.
  • Responsabiliser les acteurs ? En appeler à la "responsabilité" de ces plateformes a à peu près autant de chances d'aboutir que de demander à Vincent Bolloré de respecter une quelconque déontologie journalistique.
  • Taper dans le portefeuille ? Taxer davantage leurs revenus ne sera que les inciter à dissimuler davantage lesdits revenus.
  • Ouvrir les algorithmes ? En appeler à des algorithmes qui soient à la fois "transparents à l'inspection, prévisibles pour ceux qu'ils gouvernent, et robustes contre toute manipulation" ("The Ethics of Artificial Intelligence") est une règle qui ne pourra prévaloir qu'à l'échelle de secteurs régaliens si tant est que d'autres algorithmes que ceux des plateformes actuelles puissent les empêcher d'investir lesdits secteurs.

Sur ce dernier point concernant l'ouverture des algorithmes, je ne suis moi-même plus convaincu de ce que j'écrivais pourtant dans une tribune parue sur Libération il y a moins d'un an :

"Il est vain de réclamer la dissolution de Google ou d’un autre acteur majeur comme il est vain d’espérer un jour voir ces acteurs «ouvrir» complètement leurs algorithmes. Mais il devient essentiel d’inscrire enfin clairement, dans l’agenda politique, la question du rendu public de fonctionnements algorithmiques directement assimilables à des formes classiques d’éditorialisation."

Nécessité du Storytelling faisant loi dans l'agenda politique actuel, climat d'insécurité aidant et état d'urgence le nécessitant, le politique n'a voulu traiter ces questions que sous l'angle de la menace terroriste, de l'incitation à la haine et de la radicalisation en ligne. Le résultat ne s'est pas fait attendre, les plateformes ont repris la main, remplaçant une incurie algorithmique (la modération des contenus haineux) par une obscurité algorithmique supplémentaire et achevant de sceller une incompréhension définitive entre de deux univers, celui du politique et celui des plateformes, qui ne travaillent ensemble qu'à la hauteur de ce qu'ils espèrent en retirer en termes d'image ou, littéralement, d'affichage.

La solution, la seule, je l'ai déjà maintes fois écrit, consiste à donner corps à l'idée de Dirk Lewandowski, en créant un index indépendant du web. C'est techniquement possible, à court terme, ce n'est pas financièrement coûteux (pour autant qu'un certain nombre d'acteurs soient disposés à travailler ensemble autour de protocoles communs) et cela permettrait à la fois de "reprendre le contrôle" en retrouvant les vertus d'une concurrence ou à tout le moins d'une alternative, et de disposer de modèles attentionnels différents et qui pourraient permettre de reprendre ces millions d'heures volées à la vie des gens.

Comme se plaît à le rappeler Bruce Schneier, l'histoire d'internet est celle "d'un accident fortuit résultant d’un désintérêt commercial initial, d’une négligence gouvernementale et militaire et de l’inclinaison des ingénieurs à construire des systèmes ouverts simples et faciles." Si le web de demain doit être réinventé, il est parfaitement vain d'imaginer qu'il pourra une deuxième fois bénéficier d'un quelconque désintérêt commercial ou d'une négligence gouvernementale ou militaire (#bisous la NSA). En revanche nous pouvons nous appuyer sur deux forces pour permettre à cet index indépendant du web de voir le jour : l'inclinaison des ingénieurs à construire des systèmes ouverts et faciles, n'a en effet, elle, pas varié d'un iota. Et elle se double d'une prise de conscience du grand public pour l'intérêt de ces dispositifs "ouverts" au travers d'initiatives comme le "dégooglisons internet" de l'association Framasoft ou des ces ingénieurs qui quittent le côté obscur de la force (Tristan Harris ou Paul Duan en sont deux exemples emblématiques). Enfin, le mouvement des communs de la connaissance (et de l'information) est à la fois un socle économique, théorique et politique qui peut permettre de rassembler les énergies autour de ce projet … commun.

L'essentiel de l'avenir du monde connecté va se jouer la semaine prochaine, à New-York.

Les patrons de Google, de Facebook, d'Amazon, d'IBM, d'Oracle, de Microsoft, de Cisco, et d'Apple vont tous rencontrer Donald Trump. Il faut organiser de toute urgence un contre-sommet qui pourrait réunir les patrons de grandes institutions et fondations culturelle (de l'INA à l'Internet Archive en passant par la BNF et la Bibliothèque du Congrès qui oeuvrent au dépôt légal du web), des acteurs de la recherche d'information ayant un positionnement clair sur les question de vie privée (de DuckDuck Go à Qwant), des associations et des ingénieurs (de la Quadrature du Net à l'EFF en passant par Framasoft, Vecam, SavoirsCom1, Paul Duan, Tristan Harris), des membres de la "société civile" qui soient chercheurs et hacktivistes militants (quelques-uns sont passés – et parfois restés – au conseil national du numérique comme Sophie Pène ou Tristan Nitot). Et il faut que l'ensemble de ces acteurs créent les conditions de mise en place de cet index indépendant du web avec une feuille de route claire sur les enjeux citoyens politiques et économiques. Vite.

Un commentaire pour “Pour des états généraux du web indépendant.

  1. Bonjour,
    je vous signale un faute de frappe (espérons ^^) : cauchemar ne prend pas de d à la fin. Merci pour cet article fort intéressant comme d’habitude.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Articles similaires

Commencez à saisir votre recherche ci-dessus et pressez Entrée pour rechercher. ESC pour annuler.

Retour en haut