Faute de filtrer le Web, ils casseront le Net

Se souvenir. Internet.

"Son histoire est un accident fortuit résultant d’un désintérêt
commercial initial, d’une négligence gouvernementale et militaire et de
l’inclinaison des ingénieurs à construire des systèmes ouverts simples
et faciles."

Bruce Schneier.

Retour aux affaires : Prism, la NSA, récemment l'hexagonal "lustres" (ou la nouvelle françafrique des grandes oreilles) : tout le monde écoute tout le monde.

Le con trolle.

Et ce qui fut d'abord une révélation de l'ordre de la tragédie avec son héros (Snowden), et son escalade en trois actes (la révélation, la fuite, les révélations de la révélation), vire en ce moment à la pantalonnade de bas étage puisqu'il paraîtrait que "les USA et l'Allemagne vont signer un accord de non-espionnage mutuel". T'as qu'à croire. C'est oui-oui au pays des barbouzes et c'est Max Pécas qui est au scénario et à la réalisation.

Parmi des centaines, voici un article à lire pour se remettre en tête l'ensemble de cette affaire avant (ou pas) de lire le billet à suivre : "De quoi Prism est-il le nom ?" (bon et j'ajoute aussi la totalité des articles de reflets.info sur le sujet).

Le contrôle.

Je veux ensuite reprendre ce qui était le coeur de mon dernier (et seul) article sur le sujet, "Ne pas lâcher le PRISM pour l'ombre", dans lequel j'indiquais que ces affaires posaient avant tout la question du "contrôle" au sens cybernétique du terme :

"La question du contrôle au sens cybernétique du terme. Comme cela est très bien expliqué ici :

"La cybernétique se situe comme une
approche indépendante de la nature des éléments qu'elle étudie (Ross
Ashby). Elle a pour objet principal l'étude des interactions entre
"systèmes gouvernants" (ou
systèmes de contrôle) et "systèmes gouvernés" (ou systèmes
opérationnels), régis par des processus de feed-back ou rétroaction"

Les systèmes de contrôle croisés mis en
place par chaque acteur (NSA, Google, Facebook, états, etc.) et
l'interaction de ces différents systèmes entre eux fait qu'il est de
plus en plus délicat, dans une vision globale (holistique) des systèmes
eux-mêmes, de déterminer précisément quels sont les "systèmes
gouvernants" et les "systèmes gouvernés". C'est aussi cette question là
que pose le lanceur d'alerte Edward Snowden : est-ce la NSA qui
"contrôle" – et peut accéder à – tout ou partie de la dimension
opérationnelle du système Google ? Est-ce Google qui contrôle tout ou
partie de la dimension opérationnelle de nos données et de nos
comportements connectés ? Quel est le rôle et la place de l'état dans ce
contrôle ? Dans ces 3 grands environnements systémiques que sont les
agences gouvernementales de renseignement, les états, et les acteurs
privés de collecte et de traitement des informations, quel acteur
dispose sur les autres d'une main-mise opérationnelle ? Dans quelles
proportions ? Selon quelles modalités ?"

C'est en lisant l'article du spécialiste mondial de la sécurité des réseaux, Bruce Schneier, sobrement intitulé "The Battle for Power on the Internet" que l'évidence m'est apparue. A défaut de parvenir à filtrer le web de manière radicale, les gouvernements vont se saisir de cette affaire pour casser le Net, pour territorialiser Internet. Ironie de l'affaire, Snowden et ses révélations aura été leur meilleur allié.

Nos données, c'est le gaz de schiste du 21ème siècle, le nouveau pétrole d'une société consumériste qui a compris qu'elle allait devoir faire face à l'épuisement de ce qui avait été jusqu'ici sa matière "première". Prism, la NSA, "Lustres" : c'est la fracturation hydraulique programmée de l'internet tel que nous le connaissons.

L'idée ne m'appartient pas et n'est pas nouvelle. En date du 1er Novembre, cet article du Financial Times (disponible dans le cache de Google), fait état du point de vue de nombreux experts pour lesquels tout cela va, je cite :

  • "accelerate the fracturing of the internet and undermine long-term US interests."
  • "the
    revelations come at a time when countries are already discussing
    proposals that would undermine US control of the internet’s core
    addressing system and would force more data to be stored within their
    national boundaries.
  • "It shows that our intelligence leaders have adopted a purely
    short-term view of what is acceptable, which is only going to encourage
    the trend towards the Balkanisation of the internet and the imposition
    of national boundaries."
  • "If
    the US does not move to appease its critics, he said, the risk of
    fragmentation will increase as countries insist on more data being held
    locally or erect gateways to control the flow of information to the web."

Veni. Vidi. Reticuli.

Naturellement, reterritorialiser l'infrastructure du Net aura pour effet immédiat de casser des pans entiers de l'économie numérique, mais cette proposition à très courte vue aura l'immense avantage politique de faire taire le bouehaha ambiant des "affaires d'écoute" et – surtout – de s'inscrire dans un argumentaire politique déjà par ailleurs bien vérouillé et hélas de plus en plus plébiscité : celui d'un renforcement du contrôle aux frontières, qu'il s'agisse de la circulation des personnes … ou de celle des données. On a le cloud "souverain".

L'autre effet sera de renforcer la situation d'oligopole des acteurs déjà en place. Car au-delà des gouvernements et de leurs tentatives de "régulation" ou de "civilisation" des internets, la première patrie de l'internaute sur la planète se résume à l'usine dans laquelle il dépose chaque jour consciencieusement durant de longues heures l'ensemble de ses données. Et là encore, Google dispose de plusieurs coups d'avance. Voilà plusieurs années qu'il investit massivement non pas uniquement dans la lumière médiatique des contenus et des services, mais dans l'ombre de la fibre. Il y a presque un an (janvier 2013) un article des échos revenait sur le sujet, démontrant que le village global (cf diapo 7) ressemblait de plus en plus à un village Google.

Il y a quelques jours, une récente étude de chercheurs de l'unviersité de Californie du Sud, relevée par le site Abondance, dont je recopie bêtement le relevé de conclusions :

"Google mettrait en place depuis de nombreux mois une nouvelle structure
de réseau permettant d'optimiser les temps de transferts de données vers
ses différents datacenters dans le monde, en passant par de multiples
points relais dispersés sur le globe. Ces points relais seraient passés
du nombre de 200 à l'automne 2012 à 1 400 cet été. Un des maillons
essentiels de cette architecture serait les réseaux de 850 fournisseurs
d'accès (contre 100 en 2012) avec qui Google aurait passé des accords
pour accélérer ses temps de transit des informations et améliorer ainsi
les temps de réponses et d'affichage de ses résultats.
"

La neutralité du net a vécu. Veni, Vidi, Reticuli. Un passage sur le site de l'université de Californie qui consacre un communiqué de presse à l'étude en question nous livre quelques détails techniques supplémentaires :

"Most of this expansion reflects Google utilizing client networks
(such as Time Warner Cable, for example) that it already relied on for
hosting content like videos on YouTube, and reusing them to relay—and
speed up—user requests and responses for search and ads. (…)

Previously, if you submitted a search request to Google, your request would go directly to a Google data center. Now, your search request will first go to the regional network, which
relays it to the Google data center. While this might seem like it
would make the search take longer by adding in another step, the process
actually speeds up searches.

Data connections typically need to “warm up” to get to their top
speed – the continuous connection between the client network and the
Google data center eliminates some of that warming up lag time. In
addition, content is split up into tiny packets to be sent over the
Internet – and some of the delay that you may experience is due to the
occasional loss of some of those packets. By designating the client
network as a middleman, lost packets can be spotted and replaced much
more quickly
."

En d'autres termes, non seulement Google remodèle le réseau à sa main et selon ses propres besoins, mais il s'appuie en outre sur la première brique historique qui rendit toute connexion possible, le protocole TCP-IP, la transmission "par paquets". Je traduis juste la dernière phrase :

"En désignant le réseau client comme un intermédiaire, les paquets perdus peuvent être reprérés et remplacés plus rapidement".

Le problème c'est que le "réseau client", c'est aussi, bien souvent, le réseau "tout court". On a donc un protocole historique, TCP-IP, optimisé par Google qui "asservit" des réseaux tiers (ou "le" réseau) désormais "au service" ou "intermédiaire" de ce qui sera demain, "le" réseau (fibre) propriétaire et propriété de Google.

Robin des bois. Et des Data.

En guise de (longue) conclusion je citerai (et traduirai) simplement l'introduction du billet de Bruce Schneier :

"Nous sommes au milieu d'une bataille épique de pouvoir dans le cyberespace. D'un côté les pouvoirs traditionnels, organisés, institutionnels comme les gouvernements et les grandes corporations multinationales. De l'autre, les pouvoirs distribués, périphériques et agiles : mouvements populaires, groupes dissidents, pirates et criminels. Initialement, Internet rendit les seconds plus puissants. Il leur fournit un endroit pour se coordonner et communiquer de manière efficace, et sembla les rendre imbattables. Mais désormais, les institutions les plus traditionnelles remportent toutes les victoires, de grandes victoires.

Bruce Schneier poursuit son analyse en montrant que le modèle qui s'impose aujourd'hui, du point de vue de la sécurité (son domaine d'expertise) est un modèle "féodal" dans lequel les utilisateurs n'ont d'autre choix que de faire allégeance aux seigneuries les plus puissantes.

"Medieval feudalism was a hierarchical political system, with
obligations in both directions. Lords offered protection, and vassals
offered service. The lord-peasant relationship was similar, with a much
greater power differential. It was a response to a dangerous world.

Feudal security consolidates power in the hands of the few. Internet
companies, like lords before them, act in their own self-interest. They
use their relationship with us to increase their profits, sometimes at
our expense. They act arbitrarily. They make mistakes. They're
deliberately — and incidentally — changing social norms. Medieval
feudalism gave the lords vast powers over the landless peasants; we're
seeing the same thing on the Internet.
"

La conclusion s'impose d'elle-même :

"The truth is that technology magnifies power in general, but rates of
adoption are different. The unorganized, the distributed, the marginal,
the dissidents, the powerless, the criminal: they can make use of new
technologies very quickly. And when those groups discovered the
Internet, suddenly they had power. But later, when the already-powerful
big institutions finally figured out how to harness the Internet, they
had more power to magnify. That's the difference: the distributed were
more nimble and were faster to make use of their new power, while the
institutional were slower but were able to use their power more
effectively. (…)" This is the battle: quick vs. strong. To return to medieval
metaphors, you can think of a nimble distributed power — whether
marginal, dissident, or criminal — as Robin Hood; and ponderous
institutional powers — both government and corporate — as the feudal
lords.

Et l'avenir ?

So who wins? Which type of power dominates in the coming decades ? Right now, it looks like traditional power. Ubiquitous surveillance
means that it's easier for the government to identify dissidents than
it is for the dissidents to remain anonymous. Data monitoring means
easier for the Great Firewall of China to block data than it is for
people to circumvent it. The way we all use the Internet makes it much
easier for the NSA to spy on everyone than it is for anyone to maintain
privacy. And even though it is easy to circumvent digital copy
protection, most users still can't do it. (…)
(…) In the battle between institutional power and distributed power, more technology means more damage. (…)
It's a numbers game. (…) The more destabilizing the technologies,
the greater the rhetoric of fear, and the stronger institutional powers
will get.

L'autre problème est celui de la fracture non pas sociale mais "codale", la fracture du "code".

"The problem is that leveraging Internet power requires technical
expertise. Those with sufficient ability will be able to stay ahead of
institutional powers.
"

Les solutions à court et long terme ?

In the short term, we need more transparency and oversight. (…) In the longer term, we need to work to reduce power differences. The key
to all of this is access to data. On the Internet, data is power. To
the extent the powerless have access to it, they gain in power. To the
extent that the already powerful have access to it, they further
consolidate their power. As we look to reducing power imbalances, we
have to look at data: data privacy for individuals, mandatory disclosure
laws for corporations, and open government laws. (…)

Il y a 20 ans, la clé, c'était l'accès (au réseau). Il y a 10 ans, la clé c'était l'accès (aux contenus du web), le règne des moteurs. Aujourd'hui comme le rappelle Schneier, la clé, c'est l'accès … aux données. Pour l'instant, seules les grandes firmes et les gouvernements en disposent réellement.

En répondant l'autre jour aux questions d'un journaliste suisse au téléphone à propos de l'affaire Prism, je tentais la métaphore moisie suivante :

"Imaginez que le contrôle cesse, ou même que les usagers remportent la bataille du droit au contrôle de leurs données. Ils nous rendent toutes "nos" données, mais aussi celles qui concernent notre vie sociale connectée en général (donc les données de plein d'autres gens). Imaginez que nous ne parlions pas de "données" mais de "livres". Nous serions alors dans la situation suivante : vous habitez un T2 de 27 m2 dans Paris, vous vous penchez à la fenêtre et vous apercevez une file ininterrompue d'une centaine de semi-remorques remplis de livres, avec un type qui sonne à votre porte et qui vous annonce : voilà l'ensemble des documents demandés, merci de les ranger dans votre bibliothèque".

C'est bien sûr impossible : nous n'avons ni la place, ni les compétences pour le faire. Nous n'avons donc pas besoin (ni envie) que l'on nous rende nos données. Mais nous avons besoin d'outils de Datamining et de visualisation (DataViz) personnels, à la fois dans l'usage et dans l'interface. Besoin de laisser nos données là où elles sont (= sur les serveurs des seigneuries auxquelles nous les avons confiées) mais avec la capacité d'en récupérer certaines quand nous le décidons, et surtout avec la capacité d'en analyser le spectre en termes de persistance (combien de temps et chez qui resteront-elles stockées ?), de capillarité (à combien de firmes de quelle nature seront-elles revendues, échangées ou partagées ?), de "vivacité" (pendant combien de temps, quand, comment et sous quelles conditions peuvent-elles être "activées" ou "réactivées").

Ces outils permettront de dépasser le leurre technologique et la fatrasie égotiste du "quantified self" au profit d'un plus fécond "justified data", une justification de nos choix de publication connectés, une perspective téléologique qui nous aidera à reprendre le contrôle, d'abord de nos données, ensuite de nos vies connectées.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Articles similaires

Commencez à saisir votre recherche ci-dessus et pressez Entrée pour rechercher. ESC pour annuler.

Retour en haut