L’espace public de la privacy et la laïcité numérique.

J'ai expliqué ici les enjeux et l'histoire du Google Bombing.

J'ai expliqué ici pourquoi le métier de Google était celui de l'ordre et le métier de Facebook celui du désordre.

J'ai expliqué par là la difficulté de plus en plus grande de mettre en place des stratégies d'usage "hors-cadre", des détournements algorithmiques, indépendamment de leur objectif et le leurs motivations (louables, à vocation ludique ou pour sortir des chemins balisés de nos navigations carcérales)

Quelle que soit la technologie, l'artefact, l'algorithme, il existe naturellement – et heureusement ou pas … – toujours des moyens de le détourner. Même si ces moyens sont d'autant plus complexes et délicats à mettre en oeuvre que la technologie, l'artefact ou l'algorithme sont eux-mêmes complexes.

Donc pour détourner l'algorithme Pagerank de Google, cet algorithme de l'ordre, il avait fallu s'appuyer sur une nouvelle forme d'ordre concerté, une nouvelle forme d'organisation nécessitant la mobilisation d'un collectif agissant de concert (un agencement collectif d'énonciation), dans une temporalité donnée pour atteindre un but identifé au préalable. Faire de Georges Bush un "miserable failure", de Nicolas Sarkozy un "trou du cul", etc.

Altère Ego.

Pour "altérer" l'algorithme de Google il fallait altérer la hiérarchie de l'ordre des pages contenues dans son graphe. Pour "altérer" l'algorithme de Facebook, il faudra être capable d'altérer le graphe de nos profils : c'est de cette altération que rend compte l'un des derniers articles d'Internet Actu.

"Pour cela, il suffit d’autoriser le logiciel a poster pour vous, selon des stratégies que vous choisissez allant du dédoublement (des données contraires à celles que vous postez sont publiées pour vous), à la passivité (des données aléatoires), de la disparition (vos données sont noyées sous d’autres), à la ponctualité (des données de ponctualité, fausses, servent à égarer la géolocalisation et la courbe temporelle de votre profil) …"

Un logiciel qui peut également :

"altérer les recherches sur Google (en générant pour chaque recherche d’autres recherches sur des thématiques choisies au hasard ou parfaitement antagoniste à celle que vous réalisez, dans autant de fenêtres pop-up) et les visites que l’on commet sur les sites (par exemple en démultipliant les pointeurs de souris sur une page pour tromper l’enregistrement de vos activités sur un site)."

Mais cette altération est d'une nature différente, radicalement différente, non pas tant par l'objet qu'elle vise (les "profils" et non les "pages"), non pas tant par les moyens qu'elle nécessite (un "algorithme" au lieu d'une action humaine concertée), mais par le rapport qu'elle installe entre notre modalité de présence en ligne et la finalité de cette présence.

Le discours discret de la discrétisation.

Altérer une page, altérer le graphe des pages, est une démarche qui s'inscrit dans un univers de discours, de publication, avec lequel nous entretenons une distance "instrumentale" et toujours possiblement sinon "dissimulée" du moins "discrète" (au double sens de "discrétion" et de "discrétisation") : les pages web que nous créons, les liens que nous y déposons, la manière dont nous choisissons d'accepter de les modifier pour jouer au Google Bombing nous permet de rester dans un clair-obscur, ne nous "dévoile" pas entièrement ; le résultat de cette action ne sera visible qu'au travers de la page de résultats désormais "altérée" de Google sur tel ou tel mot-clé. Les pages (et les auteurs) ayant permis cette altération ne seront pas "convoqués" ni "identifiés" dans l'espace de la page de résultats désormais "bombée". C'est le principe du "noyé dans la masse", du "graffeur" masqué bombant nuitamment les murs, le principe de la manifestation : nous y contribuons en tant qu'individus "discrets" mais nous ne sommes identifiables qu'en tant que collectif "discrétisé".

L'altération algorithmique de profils, outre qu'elle poursuit un but différent – nous soustraire à trop de surveillance, à trop de prédictibilité, à trop de guidance – mobilise également notre "persona" numérique : elle est d'abord une altération "de soi", effectuée de manière délibérée au travers d'outils dont l'horizon de discours n'est que le rapport à soi dans la distance ou la proximité aux autres que celui-ci choisit d'abolir ou d'instaurer ; là où l'action concertée du Google Bombing n'affectait que des altérités, des externalités le plus souvent "publiques" (hommes et femmes politiques, acteurs, musiciens, "personnalités"), là où elle ne prenait sens que par le statut d'exceptionnalité dont jouissaient le plus souvent les cibles de ces détournements, l'algorithmie permettant d'altérer nos profils met en jeu d'autres dimensions : pour reprendre l'exemple de la manifestation, elle équivaut à venir manifester mais en s'inscrivant au préalable auprès d'un tiers dont l'on ne sait jamais s'il sera ou non réellement "de confiance", puis à participer "masqué" à ladite manifestation mais avec la possibilité toujours présente que ce tiers puisse effectuer le recoupement entre notre identité "réelle" et notre identité "altérée". Or notre identité ou notre présence en ligne n'est pas aussi "fractionnable" que ne le sont les différents espaces de publication que nous avons pris l'habitude de manipuler au travers de notre expression et de nos publications sur le web.

Autre point important, cette altération algorithmique de nos profils pose la question du retour en arrière, si ce "tiers" est un algorithme entièrement automatisé et systématisant le brouillage de nos données de géolocalisation, des nos clics de souris, de nos requêtes, etc.  Dans le contexte du Google Bombing il est toujours possible de revenir en arrière, d'effacer ou de modifier rétrospectivement (une fois le but atteint) les pages et les liens qui avaient permis d'y arriver. Mais l'altération algorithmique de nos profils, si elle permet de nous rendre moins "traçables" par la stochastique et l'aléatoire qu'elle injecte dans les processus de captation, présente pour son instigateur le risque de perdre à son tour la traçabilité de cette altération, le risque qu'à l'altération et à l'évolution "naturelle" de la perception que les grands écosystèmes capteurs de données se font de notre présence connectée au cours de notre vie sur les services qu'ils mettent à notre disposition, ne vienne s'ajouter un autre risque nous amenant à ne plus pouvoir disposer nous-mêmes des quelques repères, outils et moyens encore aujourd'hui à notre disposition pour "cadrer", contrôler et encadrer l'espace d'exposition de nos profils. Un genre de schizophrénie algorithmique aléatoire venant se surajouter à la déjà nécessaire schizophrénie permettant d'organiser l'espace et l'étendue de nos – nombreux – espaces de discours et de publication connectés.

Une sorte de "double peine" du web des profils : il est beucoup plus difficile à détourner dans l'usage, et les enjeux que ce détournement mobilise nous rendent beaucoup moins enclins à tenter de l'effectuer.

Pour un renversement du cadre de la privacy.

Et pourtant, alors que même les plus prompts et les plus capables de démonter les mécanismes aliénants des big data confessent leur aliénation, alors que nous disposons d'applications capables de détecter si nous sommes déprimés, alors que l'on nous annonces des voitures connectées, des voitures émotives, et que le même Google veut construire des villes intelligentes sans que presque personne ne réfléchisse aux conséquences des voitures sans chauffeur ou aux défauts desdites villes intelligentes, alors que les télécommandes de nos vies connectés accèderont demain nativement à de nouvelles formes d'intelligence artificielle ou d'apprentissage profond, alors que l'on en est à tester les 3 lois de la robotique d'Asimov, alors que la personnalisation cède déjà le pas à la personnification, alors que prédire nos moindres comportements et interaction n'est déjà plus suffisant et que les algorithmes s'attaquent désormais au champ décisionnel, alors que le moindre clic, le moindre mouvement du curseur de notre souris à l'écran, la moindre couture plus petit slip ou soutien-gorge connecté nous trace en permanence, alors que nous sommes au moins autant un produit qu'un sujet d'expérimentations sans que jamais notre consentement éclairé ne soit requis, alors il nous faut de toute urgence repenser le cadre de la "privacy".

Il nous faut cesser de penser la "privacy" aux seules périphéries d'une sphère d'informations et de comportements "personnels".

Le véritable enjeu de la privacy c'est la manière dont des actions et des comportements privés ou individuels qui ont vocation à s'inscrire et à s'articuler dans un espace public peuvent légitimement le faire en restant à l'abri d'opérations de traçage et de collecte systématiques, invisibles, et inaltérables.

La question de la privacy ne s'exprime pas au plus près de nos corps connectés ou de la documentation intimiste de nos profils. La question de la privacy se joue au moment et dans le(s) temporalités(s) où nos comportements et actions "privées" viennent prendre place et faire sens dans un espace public. C'est d'ailleurs ce qu'il fallait lire dans les caractéristiques de la communication sur les réseaux sociaux tels qu'énoncés par Danah Boyd lorsqu'elle parlait de "persistance" et "d'audiences invisibles" : ces "audiences invisibles" constituent et instituent un espace tiers, ni communication directe et "en direct", ni communication médiée avec la certitude d'un repère temporel "différé", mais espace limbique dans lequel naît et se déploie la "privacy".

Laïcité numérique : à poil sous nos bits.

Si je veux aujourd'hui être anonyme ou à tout le moins ne pas être tracé dans l'espace public je n'ai que 3 possibilités :

  1. couper toute connexion de tous mes terminaux (pas pratique)
  2. altérer les algorithmes qui régissent nos vies (pas facile et pas commode, cf supra)
  3. me promener à poil (pas courant et, accessoirement, interdit par la loi)

Sur ce dernier point, nous voilà à imaginer des vêtements intraçables, sortes d'armures anti-connexion, anti-traçage …

Noconnect-large

Ce genre d'innovation a beau être aussi salutaire que riche en enseignements sur l'état de notre omni-connexion, elle ne saurait être à elle seule une planche de salut, sauf à se retrouver demain cernés par d'improbables débats autour de la possibilité que je sois l'un des "4 cavaliers de l'infocalypse" (pédophile, kidnappeur, dealer, terroriste) ou que j'offre à l'un de ces 4 là la possibilité de se soustraire à la surveillance. La régle devrait pourtant être la suivante : je dois pouvoir débarquer à tout moment dans un espace public sans avoir à réfléchir à ma pratique connectée (ou déconnectée) comme je réfléchirais à l'affichage d'un signe religieux ostentatoire.

Plus que de "privacy", c'est le laïcité numérique dont nous avons besoin, c'est à dire d'une séparation claire entre nos différents "états" et comportements sociaux et les régimes de données, "religions" marketing ou autres "croyances" algorithmiques qui leurs sont associées.

En d'autres termes, parvenir à déployer dans le cadre d'un écosystème informationnel connecté, la définition de la privacy telle qu'énoncée à la fin du 19ème siècle, c'est à dire à la fois un "principe de non-nuisance" et un "droit d'être laissé tranquille" (Casilli, 2014), y compris lorsque nous "emmenons", lorsque nous "embarquons" dans l'espace public des informations relevant de la sphère privée. Comme je l'expliquais déjà il y a longtemps, plus que d'un droit à la déconnexion, c'est d'un droit à la décontextualisation de nos pratiques et de nos usages dont nous avons besoin. Laïcité numérique donc : séparation de l'état des comportements sociaux et de l'église des données via ses différentes chapelles algorithmiques.

<parenthèse> ce serait d'ailleurs assez rigolo – et assez tordu – de repenser la question des signes ostentatoires de religiosité dans l'espace public à l'aune de la "privacy" numérique : je n'ai pas le droit de porter de manière ostentatoire un signe religieux mais toutes les sociétés et les administrations connectées ont le droit de savoir quelle est ma religion, de quelle manière je l'exerce, etc … </parenthèse>

Privacy seulement il l'eût cru.

Mais revenons un instant à l'idée que la "privacy" concerne – aussi – des comportements "privés" qui ont vocation à s'inscrire et à s'articuler dans un espace public. Et prenons un exemple. L'habitacle de nos voitures est un espace "privé". Et pourtant la question de la "privacy" à l'échelle des voitures connectées ne concerne pas – uniquement – cet espace privé mais – surtout – les règles algorithmiques collectives qui auront demain vocation à réguler l'espace public de la circulation. C'est à dire à hybrider des espaces privés et des modes de socialisation (ou de circulation) publics. Idem pour les applications liées à la "e-santé", idem pour celles liées au mouvement du "quantified self", idem pour la sémantique (web socio-sémantique) de nos comportements individuels de requêtage qui tissent en permanence les coutours de représentations culturelles collectives publiques. 

Souvenons-nous aussi que les réseaux sociaux ont horreur de la friction et du conflit et qu'ils ont donc érigé en dogme le lissage des opinions trop clivantes. Là encore l'exemple de l'habitacle de nos véhicules demain connectés est riche d'enseignements : la plupart des conflits de circulation naissent précisément "au moment" où les conducteurs sortent de leurs véhicules (suite à une fausse manoeuvre, un accident, un doigt tendu bien haut, une incivilité quelconque, etc …) pour s'affronter verbalement et parfois hélas aussi physiquement. Le conflit naît donc au moment où les individus sortent de leur espace privé pour entrer dans un espace public ; tant que chacun d'entre eux reste dans l'espace privé de son habitacle, le risque de "friction" est pour l'essentiel évitable. Tout cela pour dire que les réseaux sociaux ont intérêt à maintenir au maximum les individus aux portes d'un espace public dans lesquels ils deviendraient ingouvernables, in-calculables. Il y a donc, une "intériorisation" calculée des processus de privacy, laquelle intériorisation est de nature programmatique et en adéquation parfaite avec les routines d'internalisation sur lesquelles reposent ces biotopes informationnels. En faisant cela, ces acteurs (les réseaux sociaux) sont dans leur droit (mais si, souviens-toi, t'as signé les CGU) et dans le modèle économique qu'ils ont choisi. Mais ce n'est pas pour autant qu'il ne faut pas s'efforcer de penser autrement les choses.

La bonne interface, la bonne question, le "bon droit" est celui qui permettra de penser la "privacy" en oubliant qu'elle mobilise des comportements privés dans des espaces privés pour se focaliser sur les régulations collectives de l'espace public que ces actions et ces comportements privés mobilisent.

Il y a déjà très longtemps de cela (12 Novembre 2006), dans l'une des premières définitions que Danah Boyd avait donné des réseaux sociaux, elle avait souligné 2 notions fondamentales : celle d'espaces "semi-publics" (ou semi-privés) et celle d'espaces "traversables / naviguables publiquement". Or "traverser" n'est pas "tracer", et "naviguer" n'est pas "collecter".

Individu + captation = individuation ?

Réfléchir à la "privacy" en tournant en boucle la question d'une individuation que la technique ou les algorithmes rendraient – hypothèse NSA/BigBrother – caduque, complexe ou parfois même impossible, ou que les mêmes algorithmes viendraient à l'inverse – hypothèse "filter bubble" – renforcer en empêchant toute possibilité de retour dans une sphère sociale collective d'individus "too much" ou "over-quantified" est une impasse.

La "privacy" n'est pas la manière dont les informations privées peuvent le rester dans le cadre d'expressions ou de réseaux semi-publics, pour la bonne raison qu'elle ne le peuvent pas et ne le pourront jamais. La "privacy" concerne notre capacité à proposer, à construire et à gérer des espaces publics – numériques – qui seront respectueux des formes d'expression ou de publication privées. A ce titre le récent lancement d'Ello est intéressant. Voué à l'échec mais intéressant.

Eteindre l'éclairage public.

Le plus alarmant à l'heure actuelle ne me semble pas être les innombrables atteintes à la "privacy" orchestrées par les sociétés comme Facebook, Google, Apple ou d'autres, mais tout au contraire l'extension du domaine des questions de privacy aux espaces publics y compris a priori déconnectés : je fais ici référence aux questions – dans le désordre – du vote électronique (une machine, même sécurisée, ne sera JAMAIS un isoloir), de la vidéo-surveillance dans les parcs et lieux publics, mais également bien sûr dès demain de la conduite (voitures connectées), de la santé (génomique), etc.

Si nous en avions la capacité il nous aurait fallu, plutôt que de laisser opérer cette contamination des espaces publics par des questions de vie privée, faire l'inverse, c'est à dire ouvrir des espaces de "vie privée" dans des espaces restant publics par nature ou par fonction, organiser des zones d'ombre là où les grands acteurs de la sociabilité connectée n'ont pour objectif que de mettre en lumière. Les nouvelles sociétés en charge de "l'éclairage public" ce sont ces sociétés, reste à organiser et à trouver des prestataires capables de prendre en charge un "ombrage public" qui bien qu'antinomique du premier aura pourtant pour but de continuer le rôle qui lui était à l'origine dévolu : c'est à dire faciliter la circulation autonome d'individus et de collectifs anonymes, à ceci près qu'ils (les individus) ont désormais besoin de davantage d'ombre que de lumière.

La difficulté de positionner clairement les questions de "privacy" explique pour une large part le fait que les plus gros problèmes qu'elles soulèvent actuellement ne concernent plus notre "vie privée" mais notre "vie publique".

Publicity ou Public Cities ?

Sémantiquement, plutôt qu'une définition de la "privacy", nous avons un besoin urgent d'une définition de la "public-vacy"**, c'est à dire de quelque chose qui mixe les problématiques de "vie publique" et de "confidentialité" de la même manière que la "privacy" est un terme anglo-saxon désignant à la fois les problématiques de "vie privée" et de "confidentialité". L'incapacité à penser cette "public-vacy" s'expliquant en large part par le modèle "public-itaire" qui ne laisse aux politiques et aux espaces publics qu'une "vacance", un grand vide …

** qui serait l'antithèse de la "publitude" ou "publicness" défendue par Jarvis.

Si nous ne voulons pas être "privacy" de dessert ou prêcher la privacy dans le désert …

Si nous restons incapable d'ouvrir la "privacy" à toutes ses perméabilités et ramifications sociales, les "villes" de demain, si numériques qu'elles soient, ne feront que renforcer des logiques communautaristes plutôt que communautaires et nous obligeront à repenser une laïcité numérique non comme horizon de sociabilité mais comme ligne d'affrontement et de repli entre différentes chapelles algorithmiques.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Articles similaires

Commencez à saisir votre recherche ci-dessus et pressez Entrée pour rechercher. ESC pour annuler.

Retour en haut