HDR

Google, Andromaque, et l’algorithme.

Quand je parle "culture numérique" et plateformes à mes étudiants, j'utilise souvent le même exemple. Après leur avoir expliqué comment fonctionnent les grandes plateformes du web, quel est leur modèle économique, quels sont leurs intérêts commerciaux et stratégiques, et quel est leur régime de vérité, je leur demande d'imaginer que Mark Zuckerberg, Jeff Bezos, Serguei Brin ou Larry Page, bref que les patrons de Facebook, Amazon ou Google, deviennent subitement extrémistes. D'extrême droite ou d'extrême gauche peu importe. D'imaginer qu'ils puissent devenir super potes du pire dictateur ou du pire régime autoritaire de la planète. Je leur demande, en fait, de réfléchir à l'impact que le changement ou l'affirmation de croyances politiques ou idéologiques d'un seul homme pourraient avoir sur toutes nos vies. Parce que les médias dits sociaux et autres moteurs de recherche sont souvent associés à une dimension d'horizontalité, de liens faibles, de modèle communicationnel "one-to-one" contre le "one-to-many" des "vieux" médias (presse, télé, radio). Or il se trouve que ce qui fut vrai dans le jeunesse du web ne l'est plus vraiment aujourd'hui qu'il avance sur ses 30 ans ** et que l'on oublie que jamais dans l'histoire de l'humanité et des médias, jamais aussi peu de personnes n'eurent autant du pouvoir sur une telle masse d'individus. Jamais.  

** Le "web" fêtera son trentième anniversaire en 2019 puisqu'il est officiellement né en 1989

30 ans de web dont au moins 15 de Soft (Social) Power.

On a ces derniers temps beaucoup parlé de l'affaire des publicités russes sur Facebook et des logiques d'influence dans le cadre de la dernière élection américaine. Et l'on va continuer d'en parler encore longtemps. Dans quelle mesure des publicités, des fausses informations (fake news) peuvent influencer les résultats d'un vote, et quelle est la responsabilité des plateformes où circulent ces publicités et ces fausses informations dans leur repérage, leur signalement et leur éventuel blocage, voilà tout l'enjeu du siècle politique qui s'ouvre. Et qui va nous réserver bien des surprises. Des surprises dont il serait fort présomptueux d'affirmer qu'elles seront agréables et fort inconséquent de croire qu'elles pourraient ne pas être que cela. 

Cet été, fin Juillet début Août 2017, deux histoires sont passées (relativement) inaperçues, ou ont en tout cas été rapidement oubliées et remplacées par d'autres agendas médiatiques.

Google ennemi de l'extrême-droite.

La première est celle de cet employé licencié par Google suite au texte qu'il avait rédigé et fait circuler et dans lequel il expliquait que les femmes avaient moins de tolérance au stress que les hommes, que du coup elles étaient moins efficaces en management, et que du coup les efforts de Google pour permettre à plus de femmes d'accéder à davantage de postes à responsabilité étaient idiots et mauvais pour le business. Ledit employé se retrouva propulsé égérie de l'alt-right la plus nauséabonde qui l'éleva naturellement au rang de martyr. Nous étions le 9 Août 2017 et le New-York Times titrait :

"The Alt-Right Finds a New Enemy in Silicon Valley." L'extrême-droite a trouvé un nouvel ennemi dans la Silicon Valley.

Et cet ennemi s'appellerait donc Google. Lequel virait sans ménagement les opinions de l'alt-right et les gens qui les diffusent. Lequel Google serait donc l'ami de la gauche ? Voire de l'extrême-gauche ? Pas si vite. 

Google ennemi … de l'extrême-gauche.

Le 28 Juillet 2017, "Le grand soir", "journal militant d'information alternative", publiait un édito qui dénonçait le rôle joué par Google dans la censure des idées (et des sites web) … de gauche : 

"Un nouvel algorithme de Google limite l’accès aux sites Web progressistes et de gauche."

Et le 25 août c'est le responsable du World Socialist Web Site, qui adressait solennellement une lettre aux responsables de Google en les accusant, suite à la dernière mise à jour de leur algorithme, de limiter à l'extrême (et donc de censurer) la visibilité des informations et des idées progressistes et "de gauche". Lettre qui était ainsi titrée

"An open letter to Google: Stop the censorship of the Internet! Stop the political blacklisting of the World Socialist Web Site !

Lettre ouverte à Google : Cessez de censurer internet ! Cessez la censure politique du World Socialist Web Site.

De fait le "World Socialist Web Site" (qui existe aussi en version française) n'est pas simplement "un" site mais plutôt un écosystème, un portail qui agrège toute une galaxie d'infos et de sites se revendiquant – en gros – des idées de l'internationale socialiste. Même s'il serait vain d'en chercher un équivalent francophone, disons, pour faire simple, que Rezo.net "le portail des copains" est assez semblable dans l'idée. Donc de l'info en effet "bien à gauche".

Et voilà donc en moins de deux mois le premier moteur de recherche de la planète accusé par la gauche de censurer les informations progressistes de gauche, et par la droite dure américaine de virer les employés trop marqués à droite et de censurer leurs idées.

Peut-on être à la fois l'ennemi de la gauche et de la droite ? Google aurait-il voté Bayrou ? Peut-on être à la fois Jean Dutourd et Jean Moulin ? 

Ben non.

On ne peut pas être à la fois Jean Dutourd et Jean Moulin.

Comme le chantait le Renaud de gauche avant que lui même ne se découvre une passion pour l'honnêteté de François Fillon et ne se mette à vouloir rouler des pelles à des condés. Mister Renaud mister Renard. Mister Google de gauche, mister Google de droite. 

De fait l'algorithme de Google, à force de vouloir s'attaquer techniquement (algorithmiquement) aux Fake News et aux logiques de propagande, est presque inévitablement et mathématiquement contraint de générer des dégâts collatéraux très problématiques et très dommageables. 

Le paradoxe du complot.

A l'origine de la chute des sites d'informations alternatives de gauche, la modification de l'algorithme de Google pour mieux lutter contre … la désinformation et les fake news. Comme le rappelle et l'explique très bien Le Grand Soir

"Le 25 avril 2017, Google a annoncé qu’il avait mis en place des modifications de son service de recherche pour rendre plus difficile pour les usagers d’accéder à ce qu’il appelait des informations « de mauvaise qualité » telles que les « théories du complot » et les « fausses nouvelles ».

La société a déclaré dans un article de blogue que l’objectif central de la modification de son algorithme de recherche était de donner au géant des recherches un plus grand contrôle dans l’identification du contenu jugé répréhensible par ses directives. Il a déclaré qu’il avait « amélioré nos méthodes d’évaluation et effectué des mises à jour algorithmiques » afin de « contenir un contenu plus autorisé ». Google a poursuivi : « Le mois dernier, nous avons mis à jour nos lignes directrices sur la qualité de la recherche (Search Quality Rater Guidelines) pour fournir des exemples plus détaillés de pages Web de mauvaise qualité pour que les évaluateurs puissent les signaler de manière appropriée ». Ces modérateurs sont invités à signaler « les expériences qui pourraient perturber des usagers », y compris les pages qui présentent de « théories du complot », sauf si « la requête indique clairement que l’usager recherche un autre point de vue ».

Google n’explique pas précisément ce qu’il entend par le terme « théorie du complot ». En utilisant la catégorie large et amorphe des « fausses nouvelles », l’objectif du changement dans le système de recherche de Google est de restreindre l’accès à des sites Web présentant des opinions différentes, dont la couverture et l’interprétation des événements s’opposent à celles des médias de l’establishment tels que le New York Times et le Washington Post."

Dans cette histoire, tout est donc parti d'une modification de l'algorithme de Google qui avait pour but de faire chuter la popularité des sites évoquant ou reprenant des éléments apparentés aux théories du complot, lesquelles théories du complot sont – souvent à raison – identifiées comme l'élément structurant ou le plus petit dénominateur commun du plus grand nombre des Fake News en circulation. 

Est-il possible d'évoquer les théories du complot sans être automatiquement étiqueté comme complotiste soi-même ? La réponse est oui. En tout cas si l'on est un minimum fin rhétoricien et pour autant que l'on le fasse en s'adressant à un public qui ne soit pas déjà lui-même complotiste. Mais quand même disons que oui. Oui il est possible d'évoquer les théories du complot sans être automatiquement étiqueté comme complotiste. En revanche.

En revanche est-il possible, sur un média numérique qui ne soit pas un site de presse "officiel et reconnu" (y compris d'ailleurs Fox News, d'où le problème), est-il possible sur un média numérique qui ne soit pas un site de presse, d'évoquer les théories du complot sans que l'algorithme ne nous apparie à des groupements ('clusters') de pages complotistes ? La réponse est beaucoup moins spontanée et évidente. Il y a même de fortes chances pour que la réponse soit carrément … non.

Et c'est ce qui semble s'être produit pour la chute d'audience dont nombre de sites de gauche disent avoir été les victimes suite à la traque algorithmique des Fake News pourtant paradoxalement plutôt en général de droite. Car au-delà du World Socialist Web Site et comme rappelé par "Le grand soir"

"Au cours des trois mois écoulés depuis que Google a mis en œuvre les modifications apportées à son moteur de recherche, moins de personnes ont eu accès aux sites d’information de gauche et anti-guerre. Sur la base des informations disponibles sur les analyses d’Alexa, d’autres sites qui ont subi des baisses dans le classement incluent WikiLeaks, Alternet, Counterpunch, Global Research, Consortium News et Truthout. Même les groupes de défense des droits démocratiques tels que l’Union américaine pour des libertés civiles et Amnesty International semblent avoir été touchés."

Et soudain c'est le drame et en effet trois mois après la modification de l'algorithme, au beau milieu de l'été alors que tout le monde est à la plage (tiens tiens, encore un complot … ;-), nombres des sites évoqués plus haut étaient en effet devenus presqu'invisibles sur certaines requêtes. "Sauf si la requête indique clairement que l'usager recherche un autre point de vue". OK. Mais un autre point de vue par rapport … à quoi ? Etant entendu que la compréhension fine des requêtes qui est ici présupposée se heurte à de violents effets de réel comme l'a encore récemment démontré l'histoire de la requête concernant l'holocauste qui n'aurait peut-être pas existé

Le poids des mots, le choc des algos.

Et une nouvelle fois se pose la question des mots. Car derrière ces logiques algorithmiques de visibilité s'affrontent deux régimes documentaires : celui de la circulation sociale des discours (= comment et pourquoi certaines informations, certains articles passent rapidement de main en main, trouvant des audiences parfois inédites ou inespérées, et comment à l'inverse d'autres articles bénéficient d'une audience captive liée au support), et celui de l'organisation algorithmique de l'accès aux traces instanciées de ces discours (= les questions du référencement et surtout celles du capitalisme cognitif). Et dans ces deux régimes documentaires, ce qui compte c'est autant la capacité à formuler une question que la capacité à ne pas se laisser entraîner vers les réponses stéréotypées déjà programmées et qui font gagner du temps (et donc de l'argent) aux moteurs de recherche (comme je vous l'ai déjà de nombreuses fois expliqué, ici en 2013 ou là en 2010).

Pour reprendre l'exemple du Google de gauche et du Google de droite, la circulation sociale des discours politiques fait que dans certaines régions, dans un certain contexte, à la faveur de certaines actualités circonstancielles, auprès de personnes d'un certain âge et d'un certain niveau de vie, ce seront plutôt des idées de gauche (ou de droite) qui se trouveront partagées et adoptées jusque dans les urnes. Mais cette circulation sociale des discours politiques peut n'avoir rien de commun avec l'organisation et la gestion algorithmique de l'accès aux traces instanciées des mêmes discours. Déjà parce que la "trace" d'un discours peut être partiale ou partielle. Et ensuite parce qu'il y a non pas un "choix" (au sens cartésien) mais un déterminisme (au sens mathématique c'est à dire calculable) des algorithmes qui vont produire un effet de réel au sein duquel certains discours seront sur-représentés et sur-documentés, même si l'espace de leur circulation sociale est infime, confidentiel ou inaudible. Et là vous vous attendez à ce que j'écrive que c'est dommage et dangereux. Hé bé non. C'est ainsi et c'est très bien ainsi. Mais c'est très bien ainsi, si et seulement si les règles de ce déterminisme algorithmique sont connues, auditables et donc robustes contre toute tentative de manipulation. Ce qui n'est absolument pas le cas aujourd'hui. Et ce qui est donc LE Problème principal qu'il nous faut traiter. 

Et tant que nous ne serons pas capables de nous doter d'outils et de cadres sociétaux, législatifs, économiques mais aussi cognitifs, capables de garantir la traçabilité de ces univers de discours algorithmiques et de fait "algorithmisés", nous n'aurons pas d'autre choix pour éviter d'en être les sujets et les victimes, que de maîtriser mieux qu'eux ce sur quoi ils s'entraînent quotidiennement à spéculer, c'est à dire les mots, la langue, le vocabulaire. Cesser de considérer la langue comme une ressource (au sens économique) et la remettre à la seule place qu'elle n'aurait jamais du quitter, celle d'un droit des individus qui la maîtrisent à disposer d'eux-mêmes en devenant des citoyens plutôt que des utilisateurs. 

Seule la maîtrise des mots et de la langue nous mettra hors de portée de certains déterminismes algorithmiques tout à fait toxiques.  

C'est là aussi ce que j'essaie d'apprendre à mes étudiants. A trouver les mots. Les bons mots. Ne pas avoir les bons mots, ne pas connaître, par exemple, le mot négationnisme ou le révisionnisme, ne pas être capable de poser la bonne question avec les bons mots, c'est laisser Google nous dire que l'Holocauste n'a peut-être pas vraiment existé

Et si les algorithmes ne nous calculaient (même) pas ?

9cwimc

La complexité de la pensée, de l'intelligence, des sentiments, du rapport au monde n'est pas purement comptable et calculable. Et l'idée qu'un algorithme serait capable de "comprendre" ou "d'apprendre", même à grands coups d'intelligence artificielle et de machine learning, même à partir de gigantesques corpus de données, cette idée est en l'état actuel des connaissances, totalement impropre et inexacte et me semble s'installer dans une forme de storytelling un peu trop vendeuse et marketée pour être intellectuellement tout à fait honnête.

Aucun algorithme, aucune technologie n'est aujourd'hui et pour probablement encore un siècle ou deux, capable de "comprendre" ou "d'apprendre". Les algorithmes ne comprennent pas, ils calculent. Et les algorithmes (ou les intelligence artificielles) ne "gagnent" pas non plus, ni aux échecs ni au jeu de Go. Des algorithmes ont effectivement battu des champions du monde d'échecs ou du jeu de Go mais pour autant des algorithmes n'ont pas "gagné" ; car "gagner" suppose avoir conscience de la victoire et donc de la compétition et de l'adversaire au regard de son niveau de compétence attendu ou supposé.

On m'objectera que je joue un peu sur les mots, et que s'ils ont "battu" un champion du monde c'est bien qu'ils ont "gagné". Ben non. Je ne joue pas. Justement. Les mots ont en effet un sens. La bonne formulation serait donc de dire que des programmes d'intelligence artificielle ont produit, du point de vue des instructions pour lesquelles ils ont été programmés, une itération aboutie d'une partie de jeu de Go ou d'échecs. Qu'ils jouent contre le champion du monde de la discipline, contre ma tante Élise, ou contre une commode en pin des landes n'entre pas une seule seconde en ligne de compte. Justement.

En revanche, il est clair qu'à chaque fois que dans l'histoire de l'humanité nous nous sommes mis à calculer, à utiliser des "formules" **, nous avons été en capacité de produire de nouvelles formes de compréhension du monde. La bonne question est donc de savoir ce que ces nouvelles formes de calcul algorithmique (plus rapides, instantanées, difficilement auditables parce qu'invisibles, etc.) sont en capacité de produire ou d'induire comme (nouvelles) forme(s) de compréhension du monde. Et peut-être et surtout, et cela est en effet inédit, de quelles formes de compréhension du monde ces nouvelles formes de calculs peuvent également nous priver.

"L'essentiel est invisible pour les yeux" écrivait Saint-Exupéry et "Ce que l'on conçoit bien s'énonce clairement" écrivait Boileau. Or dans les effets de réel que produisent ces itérations algorithmiques, dans l'organisation algorithmique de l'accès aux traces instanciées des discours, des opinions et des idées qui nous permettent de faire société en constituant une mémoire commune, l'essentiel de ce qui se joue est invisible pour les yeux et il n'y a plus grand monde qui soit capable d'énoncer clairement la réalité des processus en cause dans ces mêmes itérations. 

** D'après les travaux de Jack Goody sur l'histoire des écritures dans "La raison graphique", la "formule" vient après la liste et le tableau. 

Si ma tante en avait et si les algorithmes comprenaient.

Si les algorithmes "apprenaient" ou "comprenaient" les mots, les textes, et les idées dont ils fixent le prix et dont ils décident de la visibilité, alors il n'y aurait aucun débat sur les Fake News, les discours de haine sur internet et tous les autres sujets qui alimentent l'actualité polémique du secteur depuis déjà plus de 10 ans, puisque les algorithmes ne permettraient jamais que de telles énormités puissent se (re)produire et bénéficier d'un tel écho favorisé par leur propre fonctionnement (aux algorithmes).

Et comme les algorithmes n'apprennent pas et ne comprennent rien mais que ces polémiques existent, c'est bien que les mêmes algorithmes incapables d'apprendre ou de comprendre quoi que ce soit sont par contre tout à fait en capacité de transmettre à des corpus (de textes, de données …) des valeurs qui, elles, ne sont plus uniquement des variables mathématiques ou calculatoires, mais de "vraies" valeurs morales, éthiques, religieuses ou politiques. Des valeurs que des êtres humains chargent l'algorithme non pas de "transmettre" mais simplement "d'itérer". Au nom d'autres valeurs et d'autres principes qui sont eux-même dictés par les intérêt du "marché". C'est l'opacité de la transmission de ces valeurs qui doit nous interpeller et dont nous devons nous emparer collectivement. Si nous n'y parvenons pas, nous permettons qu'aux formidables possibilités nouvelles de compréhension du monde permises par la technique, se substituent presqu'entièrement des (plate)formes d'appréhension du monde. Car puisque les mots ont un sens, "appréhender" c'est à la fois "l'action de saisir par l'intelligence" mais c'est aussi "la crainte vague d'un danger futur". Si nous comprenons mieux nos peurs, alors nous aurons moins peur de comprendre. 

Andromaque et l'algorithme.

Des souvenirs que j'ai de mes études de lettres, Racine est l'un des auteurs dramatiques qui utilise le moins de "mots" et pourtant peu de pièces de théâtre sont aussi fortes que les siennes. C'est le fameux "600 mots ont suffi à Racine pour composer ses tragédies", et moins de 1300 mots pour écrire Andromaque ; théorie d'ailleurs controversée si l'on veut être précis. Voilà pour le théâtre. Mais sur l'autre théâtre, sur le petit théâtre des opérations, de nos opérations quotidiennes d'information et de tentative de compréhension du monde, chaque mot compte.

Moins il y a de mots et moins nous sommes capables d'exercer notre libre-arbitre. Or le modèle marchand de la langue tel que défini par le capitalisme linguistique des liens sponsorisés, est un modèle qui préfère multiplier le prix des mots plutôt que de multiplier les mots eux-mêmes. Point n'est besoin d'avoir plusieurs mots puisqu'un seul d'entre eux peut, chaque seconde, changer de prix et de sens en fonction du "marché". Point n'est besoin d'avoir trop de mots inutiles, de mots qui rendraient la spéculation moins dense, moins "concentrée", et donc moins génératrice de bénéfices. 

Le choix d'un mot plutôt qu'un autre, pour autant qu'on soit encore en capacité de le choisir et qu'il ne nous soit pas tellement suggéré qu'il ne finisse par nous être imposé, le choix d'un mot nous donnera et nous mènera vers des visions du monde parfois totalement opposées, différentes, divergentes, irréconciliables, qui ne se recouvrent que très peu. Jamais avant l'invention des liens sponsorisés et du capitalisme linguistique, jamais l'accès aux connaissances n'avait été à ce point et à cette échelle subordonné non pas aux mots comme éléments de la langue, mais aux mots comme vecteurs d'une idéologie marchande de circonstance. Cette rupture là est, je crois, fondamentale. Et elle peut être expliquée et décrite en 4 phrases simples (les deux premières étant celles de l'analyse proposée par Frédéric Kaplan) :

1. Les mots avaient un sens. Ils ont désormais aussi un prix.

2. Ce sont des algorithmes qui fixent ce prix.

3. Ce prix change le sens des mots puisqu'il rend certaines pages, certains contenus et donc certaines idées, totalement invisibles.

4. Aucun algorithme n'a conscience qu'en fixant le prix d'un mot il en change le sens social ; c'est à dire qu'il modifie la réalité sociale, culturelle, historique, idéologique ou religieuse que nous associons à ce mot dans les constructions linguistiques qui nous servent ensuite à bâtir l'ensemble de nos représentations intellectuelles et à structurer notre rapport au monde et aux autres. 

Jamais en plus de 10 siècles d'histoire du livre, jamais en cinq millénaires que compte l'histoire de l'écriture, jamais les mots n'avaient eu un prix, jamais on n'avait organisé la spéculation sur les mots, jamais ni les mots ni d'ailleurs la connaissance n'avaient été un "marché".

Et puis voilà le web. 1989. Et puis voilà les premiers liens sponsorisés, en 1997 chez GoTo qui deviendra ensuite Overture, puis en 2003 chez Google, lui-même alors âgé d'à peine 5 ans. 

#JeSuisTorrent

Et les mots. Comme des jeux. Interdits. Les mots interdits. Un "torrent" par exemple. Que vaut une société prête à interdire certains mots pour des raisons que l'on nous dit … "industrielles" comme avant elles les lectures (industrielles aussi), et puis les écritures (industrielles toujours) ?

Des écritures saintes aux écritures industrielles, justement parlons-en. L'inquisition avait ses livres interdits et ses bibliothèques leur "Enfer". Et l'on voudrait aujourd'hui interdire certains mots, certaines associations de mots comme autant d'associations de malfaiteurs, interdire certaines suggestions et donc certaines réponses qui sont pourtant les bonnes ? "Torrent" pour l'industrie musicale aujourd'hui, et quoi d'autre demain ? Quels mots interdits ? Et pour quelle industrie ? Que vaut une société prête à interdire certains mots ? Interdire la copie alors même qu'aucune société jamais ne s'est construite sur autre chose que sur sa capacité de copier, et interdire les mots. Certains mots pour commencer. Certaines associations de mots pour commencer à nous habituer. Cette société là, ces industries là, se vautrent dans le spectacle de leur propre sclérose, y trouvant un plaisir aussi fécond que celui d'un onaniste nécrophile.  

Je redis ce que j'ai déjà écrit plus haut : il nous faut impérativement cesser de considérer la langue comme une ressource (au sens économique) et la remettre à la seule place qu'elle n'aurait jamais du quitter, celle d'un droit des individus qui la maîtrisent à disposer d'eux-mêmes en devenant des citoyens dotés de libre-arbitre plutôt que des utilisateurs dotés de pseudo-privilèges arbitraires. 

Je-suis-torrent-640x480

La solution ? 

Elle est connue. Et ce sont même les deux fondateurs du moteur de recherche qui l'ont le mieux décrite, en partant du constat qu'eux-mêmes ont dressé, souvenez-vous

"A l'heure actuelle, le business model prédominant pour les moteurs de recherche est celui de la publicité. L'objectif de ce modèle publicitaire ne correspond pas toujours à la capacité de fournir des résultats de recherche de qualité pour les utilisateurs. A titre d'exemple, dans notre moteur de recherche, lorsque l'on tape "téléphone mobile", l'un des 1ers résultats organiques est un article de recherche "Les effets de l'usage du téléphone portable sur la capacité d'attention des conducteurs", qui détaille les raisons pour lesquelles il est dangereux de téléphoner en conduisant. Ce résultat est sur la 1ère page du fait de sa pertinence calculée par notre algorithme. Il est clair qu'un moteur de recherche dont la régie publicitaire bénéficierait de l'argent versé par des annonceurs qui vendent des téléphones portables aurait des difficultés à justifier la présence de cet article en première page de résultats. C'est actuellement le cas de Google. Pour cette raison et du fait de notre longue expérience avec d'autres médias, nous déclarons que les moteurs de recherche reposant sur un modèle économique de régie publicitaire sont biaisés de manière inhérente et très loin des besoins des utilisateurs.

(…) le droit d'être listé en lien sponsorisé tout en haut de la page de résultats pour certaines requêtes (…) est encore plus insidieux que la "simple" publicité parce qu'il masque l'intention à l'origine de l'affichage du résultat. Si nous persistons dans ce modèle économique, Google cessera d'être un moteur de recherche viable."

(…) En général et du point de vue de l'utilisateur, le meilleur moteur de recherche est celui qui nécessite le moins de publicité possible pour lui permettre de trouver ce dont il a besoin. Ce qui, bien sûr, condamne le modèle de régie publicitaire de la plupart des moteurs de recherche actuels. De toute façon, il y aura toujours d'énormes quantités d'argent investies par des publicitaires soucieux d'orienter le consommateur vers leurs produits ou de créer chez lui un besoin de "nouveauté". Mais nous croyons que le modèle publicitaire cause un nombre tellement important d'incitations biaisées qu'il est crucial de disposer d'un moteur de recherche compétitif qui soit transparent et transcrive la réalité du monde."

Voilà. Nous étions alors en 1998. Et très loin d'imaginer que ce débat autour des biais publicitaires induits dans le recherche de simples biens de consommation allait s'étendre à des questions politiques, idéologiques, ou historiques. Et aujourd'hui nous y sommes. Moyennant finance, il est possible de changer significativement et durablement les résultats répondant à la requête "L'Holocauste a-t-il vraiment existé" pour faire en sorte que le moteur n'affiche plus que des thèses révisionnistes en première page. Avant l'histoire de l'Holocauste, c'étaient les lobbys religieux anti-avortement qui à grands coups de budget publicitaire rendaient "invisibles" les résultats liés au planning familial et à l'information sur l'IVG. A chaque fois les dégâts ont été immenses. A chaque fois Google s'est excusé. A chaque fois il a tenté de régler le problème. Et à chaque fois le problème s'est reproduit. Sur un autre sujet, à une autre échelle, dans une autre plateforme, et avec à chaque fois un impact encore plus grand. Et cela ne cessera jamais. Jamais. Et aucun des fondateurs de Google ne renoncera à court terme au modèle économique de leur moteur, ce même modèle dont ils avaient pourtant magistralement analysé la dangerosité lorsqu'ils étaient en train de l'inventer. 

Voilà pourquoi il ne nous reste que deux solutions : soit nationaliser ces géants, soit déployer un index indépendant du web permettant d'avoir une volumétrie et une scalabilité sur laquelle d'autres solutions de recherche pourraient se déployer et (un peu) défaire les logiques purement spéculatives que les monopoles favorisent. Et retrouver le sens des mots. 

Sinon ça va finir comme Andromaque. C'est à dire assez mal.

Je n'ai pas évoqué Racine par hasard. Il y a dans Andromaque, cette phrase, ces deux alexandrins, qui résument, avec quelques siècles d'avance, l'ensemble des points évoqués dans cet article.

"Il peut Seigneur, il peut dans ce désordre extrême épouser ce qu'il hait et punir ce qu'il aime."

Ce "Il" est celui des algorithmes, des plateformes, et de ce modèle économique devenu tellement toxique au regard des oligopoles constitués. Mais ce "il" est également celui des dirigeants des mêmes plateformes. 

C'est peut-être cela, d'ailleurs, la seule neutralité algorithmique possible. Quand les temps sont confus, quand les guerres idéologiques occupent des pans entiers du débat public, quand explosent les communautarismes et quand chaque éditorial se mesure à sa capacité à entretenir l'incendie plutôt qu'à tenter de le circonscrire ou de l'éteindre, alors oui : 

Un algorithme peut, dans ce désordre extrême, épouser ce qu'il hait et punir ce qu'il aime.

Oh bien sûr un algorithme n'aime rien et ne hait personne. Je vous l'ai dit plus haut. Car il n'apprend ni ne comprend ni l'amour ni la haine. Mais par le seul fait de la spéculation qu'il est programmé pour organiser sur la langue, sur le vocabulaire, il peut en effet, dans un désordre extrême, nous pousser à épouser ce que l'on hait et/ou à punir ce(ux) que l'on aime. 

Il en va de même pour "les plateformes" et leurs dirigeants. Croyez-vous que Zuckerberg soit convaincu que l'Origine du Monde soit de la pornographie ? Que le prix pulitzer de la petite Kim fuyant les bombardements au napalm soit de la pédo-pornographie ? Croyez-vous que le même épouse par adhésion idéologique l'existence de discours suprémacistes sur la plateforme qu'il possède ? Non. Zuckerberg et sa plateforme sont amenés à épouser des causes qu'il haïssent et à en punir d'autres qu'ils "aiment" ou qu'ils aimeraient pouvoir défendre comme, parmi tant d'autres, celle de campagnes publicitaires de lutte contre le cancer du sein parce que l'on y voit un … téton. 

Nous-mêmes d'ailleurs, ne l'éprouvons nous pas souvent ce désordre extrême qui nous fait liker ce que l'on hait et surveiller (et punir) ceux que l'on aime ? 

Zuckerberg et les autres sont dépassés. Mais pas uniquement dépassés par leur créature ou par leur création en mode "syndrome de Frankenstein" même si "la créature plateforme" s'est, en partie, affranchie de leur tutelle. Non, plus fondamentalement et plus essentiellement, Zuckerberg et les autres sont dépassés par le dilemme moral qu'ils ont choisi de ne pas vouloir résoudre.

"Nous déclarons que les moteurs de recherche et les réseaux sociaux reposant sur un modèle économique de régie publicitaire sont biaisés de manière inhérente et très loin des besoins des utilisateurs. (…) Nous croyons que le modèle publicitaire cause un nombre tellement important d'incitations biaisées qu'il est crucial de disposer de moteurs de recherche et de réseaux sociaux compétitifs qui soient transparents et transcrivent la réalité du monde."   

Tant qu'ils n'auront pas tranché cela, ils pourront, dans un désordre extrême …  

Catégorie : HDR

2 commentaires pour “Google, Andromaque, et l’algorithme.

  1. Je n’ai pû m’empêcher d’associer l’exemple du début d’article concernant Google qui serait à la fois de gauche et de droite, à la pensée d’Alain Deneault.
    Ni de gauche, ni de droite, ou la “Politique de l’extrême centre”, de “La Médiocratie” pour reprendre les titres d’ouvrages de l’auteur.
    Une simple gestion de la politique, une simple gestion de la morale, où les questions ne sont jamais tranchée, sauf, bien sûr, en faveur de la financiarisation de tout le réel.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Articles similaires

Commencez à saisir votre recherche ci-dessus et pressez Entrée pour rechercher. ESC pour annuler.

Retour en haut