Oh my Graph ! Argent trop cher et travail gratuit.

/// Billet étrange dans lequel il sera question d'un rapport sur la fiscalité du numérique, du lancement du Graph Search de Facebook, de la documentation comme avenir du monde, de travail gratuit, d'argent trop cher et d'une théorie marxiste du document //

2007. Facebook a trois ans et compte seulement … 30 millions d'utilisateurs actifs. C'est à Paris, lors d'une conférence au CNAM que je formule pour la 1ère fois l'idée que "l'homme est un document comme les autres"*. 

_________________________

* la présentation originale est là et l'article scientifique – 2 ans de gestation éditoriale plus tard – est là.

_________________________

En 2007 toujours, pour une revue confidentielle de bibliothécaires, je rédige un article dans lequel je souligne sous un autre angle la nature essentiellement "documentaire" des réseaux sociaux :

"Les réseaux sociaux actuellement tant en vogue auprès d’un public de
moins en moins adolescent ne sont à leur tour que d’immenses édifices
catalographiques, autant de catalogues des individualités humaines. (…) la prochaine grande utopie documentaire qui se fait jour et dont
l’objectif n’est rien moins que la gestion de la collection humaine des
individualités numériques.
"

Janvier 2013. Facebook âgé de 8 ans, comptant plus d'1 milliard d'utilisateurs actifs, annonce le lancement de son moteur de recherche : "Graph search". Cette fonctionnalité, un petit groupe de béta-testeurs a pu y avoir accès, comme le relate Michaël Szadkowski sur son blog, nous amenant à découvrir cet autre blog, Actual Facebook Graph Searches, qui documente en temps réel une partie des possibilités offertes par la recherche dans le graphe. Le résultat, aussi prévisible qu'hallucinant, est parfaitement résumé dans ce Tweet de Jean-Michel Salaün :

Homme-document. Réseau-collection. Données-corpus.

L'homme est un document comme les autres. Facebook est l'incarnation
d'une nouvelle utopie / dystopie documentaire de la collection (des individualités
humaines). Et les données, si grosses soient-elles ("Big Data"), ne
doivent pas nous faire oublier qu'elles ne valent rien individuellement, que leur valeur est directement liée à la capacité des firmes d'en constituer des corpus**.

Homme-document. Réseau-collection. Données-corpus. Nous y sommes. Et tous les appariements possibles : homme-réseau, homme-collection, homme-données, homme-corpus. Soit le programme de recherche des 20 prochaines années. Et pour en comprendre les enjeux, et pour en démarrer l'analyse, ce que nous savons déjà d'autres appariements aussi féconds : document-réseau (l'hypertexte et le web), document-collection (le modèle de la bibliothèque), document-données (la linguistique de corpus), document-homme (la dimension sociale). Nouvelle preuve qu'au moins autant que d'autres pourtant plus médiatiquement légitimes ou politiquement légitimantes, la documentation et les sciences de l'information sont bien au coeur d'une science du web évoluant au plus près des usages connectés.

____________________________

** J'écrivais ailleurs :

"Traditionnellement, dans la démarche scientifique, des corpus sont crées
après que les outils permettant de les explorer et de les circonscrire
ont été mis au point. Le mouvement est aujourd'hui compliqué par
l'arrivée de gigantesques corpus numériques pour lesquels nous ne
disposons parfois d'aucun outil d'exploration et d'analyse ou pour
lesquels les universitaires sont obligés de se fier aux méthodologies et
outils d'exploration délivrés par les sociétés commerciales détentrices
desdits corpus, sans toujours pouvoir maîtriser les règles d'accès, les
contraintes et limites méthodologiques ou éthiques. L'une des questions
centrales de la méthode scientifique au XXIème siècle consiste à savoir comment constituer de nouveaux corpus et comment traiter le gigantisme de ceux mis à disposition.
"

_____________________________

Perdus dans le graphe : que sont nos graphies devenues ?

La recherche dans le graphe est avant tout une écho-graphie. La recherche de l'écho porté d'une narration, d'une écriture de soi. Une ego-graphie. Cette écriture vaut pour ce qu'elle permettra de lectures industrielles. <HDR> Là où le web nous permet(tait ?) de mobiliser des industries, des machines et des programmes, pour écrire à d'autres, désormais les jardins fermés du web mobilisent des industries, des machines et des programmes pour faire en sorte que la totalité de nos écritures, de nos graphies, ne puissent être lues que par eux seuls. </HDR>

La recherche dans le graphe est avant tout une recherche de graphies. Quand nous utiliserons le Graph Search nous nous rechercherons d'abord nous-mêmes. Nous partirons à la recherche de nos propres graphies. Puis des graphies de nos proches. "Que lui ai-je dit il y a 6 mois ?" "M'a-t-elle souhaité mon anniversaire l'année dernière ?" "Quelles photos a-t-il posté lors de cette soirée ?" Comme un nouvel ego-googling, ego-surfing, vanity search. Comme on passe devant un miroir voulant y voir le monde, espérant que le monde puisse se résumer à nous, autour de nous et de nos proches. Oublieux que le web fut la promesse inverse.

J'ai par ailleurs déjà dit, écrit et expliqué pourquoi je ne croyais pas que Facebook puisse un jour déployer une réelle stratégie de recherche concurrentielle d'autres biotopes informationnels (Google en tête) :

"Dans sa course à la monétisation Facebook a raté une étape : celle du désir, celle de la requête, celle du désir de requête. Sans requêtes, la pompe à phynance publicitaire ressemble à un pétard mouillé."

A l'index.

Cette
histoire nous en rappelle évidemment une autre. Google a construit sa
suprématie sur une logique documentaire connue : celle du thesaurus,
c'est à dire ce "trésor" des mots-clés, et celle des usagers indexeurs
(qui en établissant des liens hypertextuels entre des contenus permirent
à Google d'en faire les différents noeuds de son algorithme, et
continuent d'en dessiner le graphe). Frédéric Kaplan en fit la démonstration lumineuse.

Rejoindre le côté obscur.

L'omniprésence même de ces index, seuls outils possibles de la gestion de gigantesques corpus qui doivent eux-mêmes sans cesse être réorganisés en autant de collections ad hoc que la segmentation marketing réclame de coeurs de cibles, l'omniprésence même de ces index disais-je, rend impossible notre propre mise à l'index, fut-elle délibérée. Il nous faudra développer de nouvelles habiletés pour échapper à la lumière de ces documentations et redocumentarisations successives, il nous faudra être capable de rejoindre le côté obscur, les alcôves de ces illuminations numériques perpétuelles sans pour autant en devenir les nouveaux illuminés. Rejoindre l'obscurité plutôt que d'espérer une quelconque privauté de nos données en pleine lumière. En 2008 déjà, Dominique Cardon soulignait en pionnier l'importance des notions de clair-obscur et des logiques de "paravent" pour comprendre les enjeux de nos sociabilités numériques.

Le paradoxe du paravent.

Ledit paradoxe peut être ainsi formulé : plus c'est sombre pour les autres, plus c'est clair pour Facebook. Le Graph Search va permettre au milliard d'utilisateurs de Facebook d'enfin observer une petite partie de l'information que Facebook est depuis son lancement capable de collecter et d'observer à loisir. Le Graph Search ne va donc pas apporter à Facebook de "nouvelles données". En revanche il va nous donner une bonne raison de lui en fournir encore davantage.  Illustration et démonstration.

Paradoxe / Phase 1 _ Plus je me sens exposé "à l'insu de mon plein gré", plus j'ai tendance à me protéger. Il est fort probable que rapidement les usagers se mettent à l'unisson d'un clair-obscur qui sera rendu de plus en plus souvent nécessaire. Il est également plus que probable que les effets de bulle informationnelle (théorie d'Eli Pariser) se renforcent encore. On aurait en revanche tout à fait tort de croire qu'il s'agit là d'un risque pour Facebook. Maintenant qu'il est parvenu à rassembler la moitié de la planète connectée au sein d'un biotope attentionnel qui procède essentiellement par parasitage et phagocytage des écosystèmes hôtes (c'est à dire, "du" web), Facebook à tout intérêt à ce que se constituent des archipels d'utilisateurs hyper-connectés entre eux et au sein de Facebook.

Paradoxe / Phase 2 _ Plus j'ai l'impression que j'ai fait le nécessaire pour me protéger, plus je peux recommencer à me lâcher. Ces utilisateurs, alertés par les possibilités du "graph search" mettront en place des logiques de paravent pour s'isoler du regard des autres, de ceux qui ne font pas partie de leurs premiers cercles relationnels. C'est précisément parce qu'ils se sentiront alors isolés du regard de certains autres qu'ils multiplieront et encourageront l'exposition d'eux-mêmes et de leurs proches derrière ces paravents. Sauf que naturellement, lesdits paravents ne masquent rien à Facebook.

Voilà pourquoi la recherche dans le graphe ne constituera pas, pour chacun d'entre nous, la découverte d'un nouveau Graal. Elle va par contre initier le démarrage d'un nouveau cycle documentaire et économique.

Si tu spécules dans ta bulle, comment veux-tu que je … postule.

L'algorithme "adwords" qui a fait la richesse de Google a d'abord eu besoin de s'appuyer sur une masse – monétaire – de vocabulaire existante pour initier – dans un second temps – la mise en place d'un marché régulé qu'il s'est alors agi – dans un troisième temps – de déréguler systématiquement pour y autoriser une spéculation permettant in fine de s'affranchir – 4ème temps – de toute dépendance à une masse monétaire initiale. Facebook est à son tour en train de tenter d'opérer sa mue documentaire et économique. Le stock (masse des individualités) et le marché (marchandisation des données personnelles) sont constitués. Les leviers de la dérégulation sont en place (API tierces). Le Graph Search devrait enfin permettre à Facebook d'entrer dans une logique spéculative.

<HDR> Mais si dans l'écosystème naturellement documentaire du web, une économie de la langue fondée sur des externalités (algorithme et indexation de sites tiers) était presqu'obligatoirement promise à un succès rapide pour les premiers capables d'en trouver la martingale ou d'en fixer le cours, il revient encore à Facebook de pouvoir démontrer que si l'homme est un document comme les autres, le marché des données personnelles associées suffit à garantir une possibilité de spéculation et des marges suffisantes. C'est là le seul objectif du Graph Search. Et je doute qu'il puisse être atteint dans la configuration actuelle. </HDR>   

Argent trop cher ou travail gratuit ?

Avec le lancement du Graph Search, on retrouve la question de la valeur des données personnelles, produites par l'internaute et sur lesquelles reposent les empires boursiers bâtis par Google et Facebook (notamment), une question qui, à l'échelle de l'histoire du web, fut celle qui marqua son entrée dans la "modernité". Or rappelons ici que l'internaute a toujours travaillé gratuitement "sur" et "pour" le web. Il l'a fait dès le départ en publiant les documents, messages qui furent l'essence du premier réseau. Il continua de le faire en bâtissant les recommandations techniques (RFC) qui permirent de garantir l'architecture du second réseau. Il le fit encore en indexant et en qualifiant, gratia pro deo google, au moyen des lliens hypertextes, les contenus de telle manière que leur repérage et leur accès puisse être optimisé. Il le fit toujours mais de manière cette fois parfaitement explicitée lors de la vague dite du web 2.0 à grands renforts d'avis étoilés, de commentaires déposés, d'interactions situées au coeur même des contenus culturels et marchands qu'il estimait être dignes d'intérêt.

Derrière les Col(l)in(es) de la fiscalité.

Or il advint qu'alors même que le cycle du capitalisme linguistique (cf Frédéric Kaplan cité plus haut) battait son plein, le politique se réveillât avec une idée que certains observateurs présentèrent comme révolutionnaire : il fallait taxer les données détenues par les grands acteurs du web à proportion de leur appétit de conservation exclusive desdites données, pour lever l'impôt sans qu'ils puissent prétendre pouvoir y échapper. Telle est en effet la thèse du récent rapport Colin et Collin dont cause plutôt en bien tout le landerneau internautique (même si le meilleur article sur le sujet est paru 3 mois avant la publication du rapport sur feu l'excellentissime Owni). Un enthousiasme que je ne partage pas.

Pour faire simple, le rapport Colin et Collin commet à mon sens 3 erreurs capitales. Mais notez quand même qu'à côté de ça il est tout plein de qualités et que ça fait plaisir de lire un rapport sur le numérique qui pour une fois donne l'impression de savoir de quoi il parle, et qui dit des trucs très justes, notamment sur :

  • la part et le rôle du capital-risque – p.11-12,
  • les modèles d'affaires à plusieurs faces – p.27-29,
  • l'importance de la neutralité des données vis à vis des modèles d'affaires, des technologies et des stratégies d'établissement – p.36-37,
  • une typologie des données personnelles p.43 qui distingue entre données observées (recueil de traces), données soumises (de manière déclarative et intentionnelle) et données inférées (recoupements statistiques et algorithmiques),
  • le rôle joué par les données issues de l'activité des utilisateurs sur les marchés d'intermédiation (prédire l'évolution de la demande, maximiser le volume d'affaire, optimiser l'appariement entre offre et demande, élargir le marché) p.95-96.

Trois erreurs donc. Et une omission : la lecture de Vu, Lu, Su de Jean-Michel Salaun. En se focalisant sur les stratégies de Google, Amazon, Apple et Facebook on sent que les deux auteurs ne sont parfois pas très loin du cadre d'analyse proposé par Jean-Michel Salaun à la suite des travaux du Rtp-Doc. Mais ne le connaissant pas (le cadre d'analyse), ils ne peuvent naturellement pas en exploiter les pistes (par exemple décliner 3 grands types de fiscalité autour des 3 grands types de modèles proposés ou pour faire – très très – simple, une fiscalité des contenus, une fiscalité de la propriété et du calcul (la forme), et une fiscalité des ingénieries sociales autour de laquelle tourne en fait le rapport Colin et Collin en étant incapable de la nommer).

Mais je vous parlais de 3 erreurs. Les voici 🙂

Primo (scénario 1, p.4), le rapport continue de raisonner sur un postulat territorial. N'étant ni économiste ni juriste, et a fortiori pas fiscaliste, je me garderai bien d'émettre un avis sur la possibilité d'envisager une fiscalité "déterritorialisée" (même si l'évasion fiscale peut paraître reposer précisément sur des logiques de déterritorialisation). Mais le fait est que l'on ne peut proposer de gouvernance, y compris fiscale du numérique, sur des logiques et des contraintes exclusivement territoriales, puisque la nature même du numérique est d'opérer par déterritorialisation (et re-teritorialisations successives dirait le camarade Deleuze). Même si à la toute fin du rapport (p.139) on apprend qu'à partir de 2015 la territorialité de la TVA sera étendue à tous les services fournis "par voie électronique à un preneur non assujeti établi ou ayant son domicile en France, quelque soit le lieu d'établissement du prestataire" (sic), je maintiens avec Michel Serres qu'on n'imposera pas un droit ancien dans la forêt de Sherwood du numérique. Et que ce sont ses actuels occupants/brigands qui, in fine, diront seuls le droit qui pourra y prévaloir.

Deuxio, la théorie du travail gratuit peut certes apparaître séduisante mais en face de ce travail gratuit se trouvent des services … gratuits. Google, Facebook et Amazon ne me paient certes pas pour le travail d'indexation, de repérage, de commentaire, ou de marketing auto-référentiel que je produis à longueur de connexion, mais ils ne me demandent pas non plus de payer pour utiliser leurs services, leur bande-passante, etc. Or dans leur rapport la question de la gratuité du service offert est bien sûr évoquée p. 27 mais pour souligner que "les externalités positives générées par les utilisateurs sur le marché français sont valorisées dans les comptes de sociétés étrangères, sans produire de recette fiscales pour l'état français.", retombant une nouvelle fois dans l'erreur numéro 1. Plus loin, p.29-31, on trouve une analyse très juste des différentes stratégies de gratuité (du freemium à la "traction" pour attirer dans le service le maximum de nouveaux utilisateurs, en passant par des stratégies à facette ou un versant gratuit du produit fournit les utilisateurs finançant un versant payant d'un autre produit de la même firme.) Mais là encore toutes ces analyses bouclent sur le même thème de la "fiscalité nationale", réinstallant un cadre d'analyse du 20ème siècle après avoir démontré que le changement de paradigme économique dépassait justement ledit cadre d'analyse de manière totalement "disruptive".

Tertio, et ce sera mon objection principale,il me semble que cette nouvelle TVAd (Taxe à Valeur Ajoutée sur les Données), reviendrait rapidement à taxer une fois le plus le travail (fourni bénévolement par les internautes et créateur de valeur pour tous mais créateur de profit pour seulement quelques-uns), à taxer le travail donc, plutôt que le capital. Ce que je ne peux me résoudre à accepter, en tant que premier défenseur d'une théorie marxiste du document 😉

Un commentaire pour “Oh my Graph ! Argent trop cher et travail gratuit.

  1. yep merci très intéressant.
    Ne croyez vous pas que le statut des documents et donc des hommes va beaucoup évolué avec le knowledge graph et le changement de paradigme de l”hyperlien à l’hyperconcept?

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Articles similaires

Commencez à saisir votre recherche ci-dessus et pressez Entrée pour rechercher. ESC pour annuler.

Retour en haut