Les algorithmes seront-ils tondus à la libération ?

Revoilà le déjà vieux serpent de mer. Dans la tempête des Fake News et à l'ère de la post-vérité, Google, ou plus précisément son algorithme, est accusé de mettre en avant des résultats de recherche antisémites ou négationnistes. Ce n'est pourtant pas la première fois que "Google cache des juifs …" ni que les algorithmes font preuve de racisme ou que les "intelligences artificielles" s'essaient au fascisme.

En quelques mots la clé de ces problèmes est la suivante : les algorithmes produisent une forme de déterminisme (dans la sélection des informations et les choix, nos choix, qui en découlent). Ce déterminisme s'inscrit dans un régime de vérité différent selon chaque plateforme (sur les régimes de vérité de Google – la popularité -, de Facebook – l'engagement – ou de Wikipédia – la vérifiabilité, voir ce que j'écrivais ici), et quels que soient les différents régimes de vérité des différentes plateformes, tous donnent une prime à la tyrannie des agissants (cf les travaux de Dominique Cardon). Et il n'y a qu'une seule solution pour régler ce problème de déterminisme algorithmique et de biais dans les résultats de recherche : remettre de l'entropie et de la décentralisation en créant un index indépendant du web.

L'holocauste a-t-il vraiment eu lieu ? La bonne réponse est qu'il ne faut pas poser la mauvaise question au parti Nazi.

Or donc à a question : "L'holocauste a-t-il eu lieu ?" posée à Google, apparaît en premier un site néo-nazi (Stormfront) qui publie un article clickbait intitulé : "Les 10 meilleures raisons pour lesquelles l'holocauste n'a jamais eu lieu." (vous pouvez cliquer tranquille le lien précédent pointe vers un article du Guardian qui raconte l'histoire, pas vers le site néo-nazi).

Vous avez 2 minutes ? OK. Quand j'explique à mes étudiants de DUT infocom l'histoire des algorithmes et des outils de recherche et que nous nous interrogeons sur la notion de "pertinence" et de "popularité, je leur donne tout le temps le même exemple. Sur le moteur Google américain, la requête "nazi" donne comme premier résultat le site du parti nazi américain.

Nazi

La même requête ("Nazi") mais sur la version allemande du moteur, donnait pendant très longtemps comme premier résultat le site du musée de l'holocauste (elle donne aujourd'hui uniquement une compil des pages Wikipédia sur le nazisme).

Une même requête, un même algorithme, aucune intervention manuelle sur les résultats de recherche et pourtant deux premiers liens parfaitement antagonistes : le parti nazi américain et le site du musée de l'holocauste. Fin de la démonstration, mes étudiants ont compris que la notion de "pertinence" était totalement subjective, que la notion de "popularité" disposait de biais culturels, historiques et législatifs (le parti nazi est légal aux Etats-Unis), et que le déterminisme algorithmique était lui-même contraint par un déterminisme culturel. Et que tout cela allait donner un cours très intéressant 😉

Et donc aujourd'hui, quand on pose la mauvaise question (l'holocauste a-t-il eu lieu ?) à un moteur de recherche dont le business algorithmique est de donner une prime aux agissants et à la "popularité", et le parti nazi en particulier et la fachosphère en général étant passés maîtres dans l'art d'agir et de créer des polémiques, on obtient en premier une réponse qui explique les 10 bonnes raisons pour lesquelles l'holocauste n'a jamais eu lieu.

Une journaliste du Guardian a parfaitement bien résumé tout le cynisme de l'affaire (et sa résolution) dans l'article intitulé "Comment virer les sites négationnistes des premières places de Google ? En payant Google." Et oui. Je vous en traduis l'essentiel :

"J'ai réussi à faire ce que Google disait être impossible. Moi, une journaliste sans aucune connaissance informatique, j'ai réussi à changer l'ordre des résultats de recherche de Google sur la requête "est-ce que l'holocauste a vraiment eu lieu ?" (…) J'ai viré Stormfront du haut de la liste. J'ai inséré un résultat issu de la page Wikipédia sur l'Holocauste. J'ai remplacé un mensonge par un fait."

Comment ? En jouant avec la régie publicitaire Adwords et en achetant un lien payant (la page Wikipédia sur l'Holocauste) pour l'ensemble des requêtes négationnistes mentionnant l'holocauste. Coût de l'opération : entre 24 et 289 livres sterling. Business As Usual. Le journalisme a un prix. 

"Si vous ne voyez plus ce lien sponsorisé c'est que je n'ai plus d'argent. Chaque clic me coûte 1,12 livres et j'ai une limite journalière de 200 livres."

Deux cent fois la vérité par jour. Si quelqu'un a décidé d'acheter cette vérité. Pour les milliers d'autres requêtes quotidiennes sur l'Holocauste, il faudra se satisfaire des 10 meilleurs raisons pour lesquelles il n'a pas eu lieu. Et l'article de conclure en citant Danny Sullivan :

"Google a modifié son algorithme** pour récompenser les résultats populaires par rapport à ceux faisant autorité. Pour la seule raison que cela rapport davantage d'argent à Google."

(**Sur la modification de l'algorithme de Google ayant "de manière non-intentionnelle" boosté les intoxs au détriment des infos voir cet article de Venture Beat)

Et quand ce n'est pas l'Holocauste qui n'a pas eu lieu, le Knowledge Graph de Google nous affiche un "feature snippet" qui à la question "Les noirs sont-ils intelligents ?" répond qu'il s'agit à n'en pas douter de "la race la moins intelligente." (double sic). Et l'on pourrait multiplier les exemples, ces derniers temps, de ce qui est perçu comme un total barrage en couille de l'algorithme mais qui n'est que la démonstration qu'il remplit parfaitement l'office qui lui a été assigné : rapporter davantage d'argent à Google.

On en pensera ce qu'on voudra mais cette énième démonstration devrait achever de convaincre ceux qui ne l'étaient pas encore que toute notion d'éthique à l'échelle de ce plateformes est, sinon superfétatoire, à tout le moins soluble dans leur modèle économique. Ce qui revient donc au même.

Viennent ensuite deux autres problèmes distincts : celui de la confiance que nous accordons à ces résultats de recherche, et celui de la responsabilité des plateformes dans l'affichage de ce genre de résultats.

Concernant la confiance, factuellement elle est croissante (toutes les études montrent que nous accordons toujours davantage de crédits aux résultats de recherche issus du web, à concurrence directe de ceux venant de la télé, de la radio ou de la presse) et cette confiance s'éduque. C'est donc aux acteurs du monde éducatif de construire un enseignement citoyen autour de la confiance que l'on est en droit d'accorder à des résultats de recherche passés au filtre algorithmique. C'est à dire d'expliquer comment fonctionnent les algorithmes, leurs régimes de vérité, leurs logiques de viralité.

Concernant la responsabilité des plateformes, c'est une plaisanterie. Je veux dire que, à l'exception notable de la pédophilie et dans une moindre mesure de l'appel explicite au terrorisme, c'est une plaisanterie que de croire que les plateformes prendront leurs responsabilités. Il n'est qu'à voir, à l'occasion de cette nouvelle affaire, comment a réagi Google, expliquant qu'ils ne voulaient pas faire de business avec les sites négationnistes (ce qui n'a pas empêché le journaliste du Guardian d'acheter ce mot-clé …), et expliquant selon une ligne qui n'a pas bougé depuis les premiers Google Bombing que ces résultats de recherche ne reflétaient pas les opinions de Google et qu'il n'y avait pas d'intervention humaine dans leur algorithme, et qu'ils étaient désolés (et que bien sûr sans aucune intervention manuelle ils vont quand même nettoyer à la main les suggestions ou résultats les plus mauvais pour le Business).

Et maintenant la question des sites pro-life se faisant passer pour des sites d'info sur l'IVG.

On a beaucoup parlé du récent débat tendant à étendre le délit d'entrave à l'IVG aux sites "pro-life" se présentant comme des sites "officiels". Sur Rue89, Nicolas Falempin a publié un texte qui met le doigt là où ça fait mal : "Pénaliser la désinformation c'est pénaliser l'information" dans lequel il explique que si c'est aujourd'hui les sites pro-life qui sont visés, le précédent ainsi créé pourrait ouvrir la voie à toutes les dérives et à toutes les formes de censure.

Il s'agit là d'un vieux serpent de mer, au moins aussi vieux que celui sur la liberté d'expression et le 1er amendement de la constitution américaine.

Permettez-moi de vous parler (encore) de mes cours en DUT infocom. Lorsque j'aborde avec mes étudiants de 2ème année les questions de référencement, de fonctionnement des moteurs de recherche et de culture numérique, je prends systématiquement le même exemple. Celui de l'avortement. J'explique aux étudiants que dans le cadre de la régie publicitaire de Google, aux Etats-Unis, le lobby chrétien pro-life avait investi massivement dans une campagne de liens sponsorisés contre l'avortement. Ainsi, lorsque l'on tapait une requête liée à l'interruption volontaire de grossesse, on se trouvait alors avec des liens sponsorisés uniquement en faveur du lobby pro-life, lesquels liens sponsorisés étaient agrémentés d'images absolument dégueulasses de foetus ou d'embryons après un avortement. Suite à la polémique qui suivit, Google prit alors deux décisions : d'abord il décida d'interdire l'insertion d'images dans les liens sponsorisés, et ensuite il modifia les Guidelines desdits liens sponsorisés en interdisant d'y pratiquer toute forme de prosélytisme :

"Ainsi, la promotion du contenu suivant n'est pas autorisée :

Contenu incitant à la haine, à la violence, au harcèlement, au racisme, à l'intolérance sur la base de l'orientation sexuelle, des convictions religieuses ou politiques, ou relatif à toute organisation prônant de tels actes

Contenu susceptible de choquer ou de répugner."

Deux hypothèses s'offrent à nous aujourd'hui.

Soit nous laissons les grandes plateformes, seules, définir elles-mêmes les règles, et le risque – déjà largement avéré et observé – est que le "code" l'emporte définitivement sur la "loi". Cette solution est naturellement extrêmement dangereuse car la tentation du marché (pour lesdites plateformes) supplantera toujours les questionnements éthiques et sociétaux (cf toute la première partie de ce billet sur la question de l'holocauste).

Soit le législateur intervient pour dire, non pas ce que les plateformes doivent faire, mais le cadre dans lequel elles peuvent le faire. C'est la raison pour laquelle je suis plutôt favorable à l'extension du délit d'entrave à l'IVG aux sites web tout en restant un farouche défenseur de la liberté d'expression.

Je vous explique.

Ce qui – à mes yeux – serait une forme de censure inacceptable serait d'interdire, au nom d'une quelconque "morale", à certains sites d'exister et d'être référencés. Si cela devait advenir alors Nicolas Falempin aurait raison d'indiquer que "pénaliser la désinformation c'est pénaliser l'information". Mais ce que vise cet amendement est – me semble-t-il – différent : il ne s'agit pas d'interdire une opinion mais de pénaliser ce que je qualifierai de "tromperie explicite", c'est à dire que des sites religieux pro-life se fassent passer pour des sites d'informations "officiels" sur la question de l'avortement. Et là encore, dans le champ de la santé publique, il ne s'agit que d'accompagner juridiquement des décisions qui ont déjà été prises par le moteur de recherche à l'encontre d'annonceurs qui avaient diffusé du contenu "trompeur, factuellement incorrect et imprécis."

Cette législation n'invente donc rien, elle accompagne une réalité déjà en place. Mais elle inscrit aussi cette réalité dans le droit et ne la laisse pas à la seule discrétion des règles actionnariales qui régissent les grandes plateformes. Elle offre ainsi un recours et une garantie supplémentaire aux victimes de ces sites de désinformation, mais aussi, et c'est là l'essentiel me semble-t-il, aux associations ou aux organismes d'état en charge de repérer et de dénoncer ces sites de désinformation.

Enfin, si son grand mérite est d'acter que des sites explicitement trompeurs puissent être juridiquement sanctionnables, son plus grand échec est de ne rien prévoir à l'encontre des plateformes qui affichent ces sites au même niveau que ceux du planning familial. Qu'un algorithme sur le mot-clé IVG soit incapable d'établir une différence de traitement entre un site du lobby pro-life et un site du planning familial est un problème équivalent au fait qu'un article du parti nazi américain puisse apparaître comme premier résultat de recherche à une question sur l'existence de l'holocauste.

Et donc on boucle sur la première partie de ce billet. Sans trouver de solution ?

Si, la solution existe. Au risque de me répéter.

"les algorithmes produisent une forme de déterminisme (dans la sélection des informations et les choix, nos choix, qui en découlent). Ce déterminisme s'inscrit dans un régime de vérité différent selon chaque plateforme, et quels que soient les différents régimes de vérité des différentes plateformes, tous donnent une prime à la tyrannie des agissants. Et il n'y a qu'une seule solution pour régler ce problème de déterminisme algorithmique et de biais dans les résultats de recherche : remettre de l'entropie et de la décentralisation en créant un index indépendant du web."

Faute d'y parvenir, il ne nous restera qu'à tondre les algorithmes à la libération.

Cet index indépendant du web n'est pas une lubie de chercheur. Ni une nouvelle utopie solutioniste. L'enjeu est bien plus important et urgent qu'il n'y paraît. Pour s'en convaincre il faut relire les 14 points caractéristiques du fascisme selon Umberto Eco. Parmi lesquels ceux-ci :

  1. Appeal to social frustration. “One of the most typical features of the historical fascism was the appeal to a frustrated middle class, a class suffering from an economic crisis or feelings of political humiliation, and frightened by the pressure of lower social groups.”
  2. The obsession with a plot. “The followers must feel besieged. The easiest way to solve the plot is the appeal to xenophobia.”
  3. Selective populism. “There is in our future a TV or Internet populism, in which the emotional response of a selected group of citizens can be presented and accepted as the Voice of the People.”
  4. Ur-Fascism speaks Newspeak. “All the Nazi or Fascist schoolbooks made use of an impoverished vocabulary, and an elementary syntax, in order to limit the instruments for complex and critical reasoning.”

"Appel à la frustration sociale", "obsession du complot", "populisme sélectif", "novlangue appauvrie et à la syntaxe élémentaire" : ces quatre traits sont aussi (je n'ai pas dit uniquement, j'ai dit "aussi"), ces quatre traits sont aussi les traits les plus saillants de la viralité, ceux dont le déterminisme algorithmique se satisfait le plus, ceux capables de faire du déterminisme algorithmique une arme de destruction matheuse (Weapon of Maths Destruction).

Et puis bien sûr il faut aussi et surtout relire Hannah Arendt pour se souvenir que le totalitarisme commence très exactement lorsque la prévisibilité ou la prédictibilité supposée des faits permet de les remplacer par la construction d'une fiction disposant d'une adhésion et d'une "confiance" supérieure à l'expérience sensible.

« La prétention de tout expliquer… promet l’explication totale du passé, la connaissance totale du présent et la prévision certaine de l’avenir. (…) Dans leur prétention de tout expliquer, les idéologies ont tendance à ne pas rendre compte de ce qui est, de ce qui naît et meurt … La pensée idéologique s’affranchit de toute expérience dont elle ne peut rien apprendre de nouveau, même s’il s’agit de quelque chose qui vient de se produire. Dès lors, la pensée idéologique s’émancipe de la réalité que nous percevons (…) et affirme l’existence d’une réalité plus vraie qui se dissimule derrière les choses sensibles.".

Jusqu'à parvenir à ce point où l'idéologie va totalement couper "les masses" du "monde réel" :

"(elles) ne croient à rien de visible, à la réalité de leur propre expérience. Elles se laissent convaincre, non par les faits, même inventés, mais seulement par la cohérence du système dont ils font partie."

Vous avez dit … post-vérité ?

Oui il y a un vrai risque de bascule dans une forme de totalitarisme. Oui "les plateformes" et "leurs algorithmes" sont, dans l'analyse de cette possible bascule, un horizon qu'il faut saisir et analyser. Non il ne s'agit pas d'un horizon lointain mais d'une dystopie possible pour 2017. Oui j'espère que cette idée d'un index indépendant du web, que je pense être la seule solution possible et raisonnable, fera des émules et débouchera sur des états généraux du web indépendant. Rapidement.

 

2 commentaires pour “Les algorithmes seront-ils tondus à la libération ?

  1. ravi de voir enfin un article aussi dense consacré à ce phénomène de biais cognitif auquel je me suis trouvé familiarisé par le biais (sic) de Gérald Bronner et sa démocratie des crédules. Je sens que votre article fort complexe et dense, dont je vous remercie, vient de semer en moi bien des développements, encore insoupçonnables. Militant antifasciste, il a donc forcément en moi des résonances bien particulières… J’ai déjà planté un premier jalon dans les archives de mon propre blog. travail à poursuivre, inlassablement…. Encore merci. https://gauchedecombat.net/2016/12/26/google-ce-trop-gros-vecteur-de-pestebrune-et-de-desinformation-stormfront-antifa/

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Articles similaires

Commencez à saisir votre recherche ci-dessus et pressez Entrée pour rechercher. ESC pour annuler.

Retour en haut