Spéculation faciale : panique dans le panoptique.

D'abord il y a l'euphémisation. La novlangue. La guerre c'est la paix. D'abord on ne parle plus de vidéo-surveillance mais de vidéo-protection. Et bien sûr comme à chaque fois tout commence là. Quand la barrière de la langue est levée, quand les mots sont suffisamment travestis pour ne plus dire le vrai en se mettant au service d'une idéologie et d'un marché, alors toutes les digues cèdent. Les unes après les autres.

Toutes, je dis bien toutes, toutes les études scientifiques qui se sont penchées sur ce marché pour en mesurer l'efficacité, toutes sont unanimes pour pointer le fait que la chose que ces caméras de surveillance protègent le mieux, ce sont les intérêts dudit marché. 

Il y a 10 ans déjà, la vidéo-surveillance était un mirage technologique et politique. Dix ans plus tard c'est le cauchemar Orwellien qui est là, lui qui n'était pourtant pas supposé être un manuel d'instructions.

1984-was-not-supposed-to-be-an-instruction-manual-31725

A Nice on apprend que "les passagers du tramway sont filmés par un système qui lit les émotions sur leur visage pour détecter toute situation anormale." C'est une filiale d'Engie qui s'y colle. Plus loin dans l'article du Monde, mais toujours à Nice on apprend encore que :

"le conseil municipal a voté, en juin, l’expérimentation d’une batterie de solutions safe city avec Thales, à la tête d’un consortium de quinze sociétés spécialisées dans l’analyse des réseaux sociaux, la géolocalisation, la biométrie ou la simulation de foules."

Je rappelle qu'en Chine, en plus du déjà tristement célèbre système de "Social Credit Score", on découvrait récemment des projets gouvernementaux de surveillance permettant de déployer

"des capteurs cérébraux ("Brain-reading technology") pour détecter les changements d'état émotionnel des employés sur les chaînes de production, dans l'armée et dans les postes de pilotage de trains à haute-vitesse."

En Chine. En 2018. Et donc à Nice, en 2018 toujours, tout le monde à l'air de trouve ça normal que "les passagers du tramway soient filmés par un système qui lit les émotions sur leur visage pour détecter toute situation anormale." 

Le panoptique de la panique.

Partout les espaces publics ou privés, urbains ou campagnards se rêvent en panoptiques, partout les investisseurs sont au rendez-vous, partout les politiques sont au garde à vous, partout tout le monde trouve ça "smart", parce qu'il y a "de l'IA" et du "Big Data", bé ouais coco, c'est la Tech-Town, la Smart-city quoi. Partout, chaque jour, l'espace public recule de manière dramatique. Car il n'est d'espace public que celui qui peut échapper structurellement à l'enregistrement et à la captation privée. 

La Smart-City c'est le monde miroir du panoptique Facebook : la superposition d'un espace réel de contrôle permanent à un espace virtuel de contrôle permanent. Il en est que cette perspective excite, elle devrait individuellement nous navrer et collectivement nous alarmer.

Car si l'argument sécuritaire du panoptique joue sur les ressorts de la panique de ce que pourrait être un monde laissé sans surveillance, la seule vraie cause de panique est celle qui fait que nous assistons impuissants à un double mouvement de systématisation et d'anecdotisation des régimes de surveillance. Et ce alors même que partout dans le monde une crise politique globale porte au pouvoir des régimes de plus en plus explicitement autoritaires et anti-démocratiques. Nous sommes en train de construire les infrastructures nécessaires à des lendemains d'oppression que nous n'avons même plus l'air de craindre tant ils paraissent irrémédiables. 

La résignation est le poison de ce monde vidéo-surveillé, l'oppression son modèle économique, et l'assignation son paradigme (assignation à consommer, à résider, à se déplacer dans des espaces contraints selon des trajets qui le sont également, et ainsi de suite).

Comme dans tout naufrage, il existe heureusement encore quelques poches d'air qui permettent d'espérer. Au moins temporairement. Ainsi le contrat qui mettait à disposition de la police d'Orlando la technologie de reconnaissance faciale mise au point par Amazon a été dénoncé par des dizaines d'associations de défense des libertés mais également par les employés d'Amazon eux-mêmes. 

Et à chaque fois, à chaque fois le même argument, qui tourne en boucle, tant du côté de ceux qui veulent surveiller tout le monde que de ceux qui leur en fournissent les moyens : 

"La ville d’Orlando est constamment à la recherche de nouvelles solutions pour assurer la sécurité de nos résidents et nos visiteurs. Mener des partenariats avec des entreprises innovantes pour tester leurs dernières technologies – tout en nous assurant du respect des lois sur la vie privée – est crucial."

Renforcer la sécurité et en même temps respecter non pas la vie privée mais "les lois sur la vie privée". Nuance. Car bien sûr à l'échelle de la massification du  déploiement de ces technologies de surveillance et au regard de ce qu'elles permettent désormais de faire "à la volée" et en temps réel dans le domaine par exemple de la reconnaissance automatique de visage, affirmer qu'elles sont compatibles avec une quelconque forme de respect de la vie privée à autant de sens que de prétendre qu'une coloscopie est nécessaire et utile pour réaliser un fond d'oeil.

En fait la vidéo-surveillance et la reconnaissance faciale c'est toujours la même histoire : au début tu commences par t'en servir pour identifier les invités à une fête, ensuite tu mets ta technologie au service de la police de ton pays ou de ton état, et puis à la fin ça finit toujours par retomber sur les immigrés. Simple, basique. Et authentique. Au final, ceux qui ont pour seul tort d'avoir une couleur de peau différente de celle de ceux qui les surveillent sont les premiers à faire les frais de ces systèmes profondément et structurellement pervers. Reconnaissance faciale et discrimination ethnique sont les deux faces d'une même médaille.

Et maintenant : devinette.

Quelle est la différence entre Christian Estrosi et Taylor Swift ?

Aucune. Tous les deux sont des maniaco-dépressifs du contrôle et de la vidéo-surveillance. 

Côté Estrosi, sa dernière trouvaille est de permettre à deux lycées de Marseille et de Nice de tester la reconnaissance faciale comme "outil anti-intrusion". Ahem. Là on ne parle pas de caméras installées au dessus du parking à vélos hein, on parle d'un portique qui va scanner tous les jours tous les visages de tous les élèves pour leur permettre d'entrer. Ahem. Ahem. Mais bon tout va bien puisque la CNIL a donné non pas son aval mais son "avis" sur l'expérimentation, lequel "avis" était positif, et que "la communauté pédagogique" à également, nous dit-on, donné son accord. AHEM. Je sais pas ce qu'ils fument en ce moment à la CNIL mais va quand même sérieusement falloir qu'ils arrêtent. 

Numerama a publié un papier très complet sur le "mais bordel comment ça va se passer" dans lequel on apprend notamment que cela ne concernera (au début en tout cas) que les élèves volontaires et avec l'aval des familles concernées : 

"Le lycée proposera une file d’attente distincte pour les élèves volontaires, de sorte à ce que leurs camarades ne soient pas filmés sans consentement. Les participants enregistreront leur profil biométrique, qui sera retranscris sur un badge. La forme de celui-ci, QR code sur smartphone ou badge physique, n’est pas clairement communiquée."

Il paraît aussi que Cisco (le prestataire de service) n'aura pas accès aux données biométriques captées par son portail à l'aide de son logiciel faisant tourner sa technologie de reconnaissance faciale : 

"le lycéen valide son badge à une borne lorsqu’il entre, et les caméras confirment que le profil enregistré correspond à celui à l’image. Mais elles ne devraient pas conserver de données, et seulement opérer localement. Les lycéens garderont la main sur les gabarits faciaux enregistrés dans leur support individuel, et Cisco ne devrait pas y avoir accès."

Vous noterez l'emploi du conditionnel de circonstance. Et une fois fait, vous pourrez insérer ici un grand éclat de rire ou un grand coup de pied dans la gueule du premier truc qui passera non loin du susdit pied. 

<Anecdote personnelle enrichissante> Moi personnellement j'ai des enfants, et il est vrai que je suis un lâche. Lorsque dans le petit bled de campagne où est implanté leur collège tout neuf, la "biométrie" a fait son apparition sous la forme d'une empreinte de la main (ou du pouce) permettant d'aller se gaver de frites et de ketchup dans ce paradis de l'orgasme gustatif qu'est "LE SELF", j'ai gueulé. J'ai filé 10 balles à La Quadrature du Net pour me détendre (et parce que c'est super important). J'ai dit à la réunion des parents d'élèves que :

"hum, bon ben quand même certes y'a des choses plus graves mais quand même le fichage biométrique dès la 6ème pour accéder au self alors même que tout le monde sait que ce pignouf de Jonathan le pion neurasthénique (les prénoms ont été changés) il part fumer des clopes plutôt que d'empêcher les 3èmes de piétiner les 6èmes à l'entrée du Self, hein, quand même quoi."

Et puis je suis rentré tout fier chez moi et j'ai commencé à expliquer à ma glorieuse descendance qu'il allait falloir envisager d'entrer en résistance contre ce monde Orwellien tout pourri. Ce qui a eu pour effet immédiat que le "classe-de-6ème" concerné s'effondre en larmes en mode "noooon mais je vais être le seuuuuul c'est trop la loooooooose tous mes copains ils ont déjà rempli le papier bouhouhou" et que le "classe-de-4ème" concerné se mette à me promettre de m'éviscérer et que "non mais c'est quoi cette famille pourrie où déjà on n'a même pas la télé et où en plus maintenant genre on va trop passer pour des boloss". Je cite de mémoire hein, mais c'est pour restituer l'ambiance.

Le message était donc parfaitement passé et ma mission éducative de résistance citoyenne s'arrêtait là. J'ai signé ce putain de papier pour que mes loustics parmi 400 autres mettent leur doigt (ou leur main) dans un vague scanner avant d'aller bouffer 5 jours sur 7 et je suis retourné filer 10 balles à la Quadrature du net pour me re-calmer. On ne gagne jamais tout seul. Donc allez filer 10 balles à la Quadrature du net et revenez ici. </Anecdote personnelle enrichissante>

Donc Estrosi et la région PACA, ils collent des portiques à l'entrée des lycées pour faire de la reconnaissance faciale. Portiques et technologies de l'entreprise CISCO … Ben oui. Quitte à filer les clés du ministère de la défense à Microsoft, quitte à lui offrir également celles du Ministère de l'éducation nationale, autant être cohérent en filant le travail de flicage de notre jeunesse à une autre entreprise américaine. Mais bon, tant que la CNIL a un "avis" qui est que "faut bien essayer pour voir", tout va bien, c'est cool. Je vais quand même retourner mettre 10 balles dans le jukebox de la Quadrature du Net mais c'est cool. 

Mais quand même. Quand même c'est vraiment super con que ni Christian Estrosi, ni la CNIL (Commission Nationale Informatique et Laissez-faire), ni les instances qui ont permis la mise en place de ce bordel, ni "la communauté éducative" n'aient pris le temps d'aller lire un article scientifique datant de 2010, écrit par Tanguy Le Goff, en accès libre, et titré : "La vidéosurveillance dans les lycées. De la prévention des intrusions à la régulation des indisciplines". Ben oui. Tout y est dans cet article de 2010. A commencer par la démonstration qu'à part pour les vols sur le parking à vélo (et encore) ça ne marche pas et ça ne donne aucun résultat probant autre que celui, en effet, de systématiquement finir par réaffecter un système visant à limiter les intrusions à un système permettant de discipliner les comportements. Pour ne pas être supposé de tordre la réalité je recopie ici la conclusion de l'article de Tanguy Le Goff : 

"Les résultats de la vidéosurveillance en termes de sécurisation ne sont pourtant guère probants. Son impact dissuasif est très limité sur les intrusions bien qu’il s’agisse de la principale finalité en légitimant l’installation dans un établissement scolaire. Il n’est guère plus probant sur les cambriolages et les vols, hormis ceux commis dans les parkings. En définitive, la finalité pour laquelle la vidéosurveillance donne ses résultats les plus significatifs est le maintien de l’ordre scolaire. Au prix d’un quadrillage de l’ensemble des espaces d’un lycée, elle peut servir d’appui au personnel, aussi bien enseignant que chargé de la vie scolaire, pour contrôler les actes d’indiscipline des élèves. On ne saurait toutefois surévaluer ses effets sur la modélisation des comportements des lycéens et moins encore considérer que la vidéosurveillance constitue un véritable dispositif de sécurité au sens foucaldien du terme. Son utilisation marginale, le caractère occasionnel de la surveillance en temps réel et son absence d’intégration à la politique de gestion de l’ordre scolaire en réduisent fortement les capacités à discipliner les corps."

Le grand danger, huit ans plus tard, c'est la réalité sociale et technologique qui fait que nous sommes désormais essentiellement sortis de "l'utilisation marginale" et que l'ordre du jour est à la capacité à discipliner les comportements et les corps. Surveiller et punir.

Et puis donc arrive Taylor Swift. Qui lors de l'un de ses concerts, a scanné la totalité de la foule présente pour "identifier ses harceleurs". (car Taylor Swift a visiblement des gens qui la harcèlent et dont elle connaît le visage. Bref). Voilà. Concrètement lors de la validation du billet pour entrer dans le concert, étaient disposés des écrans de télé qui diffusaient des clips, et que donc les gens faisant la queue regardaient tranquillou, mais qui étaient en fait des écrans équipés de dispositifs de reconnaissance faciale et que comme ça on avait bien le temps de bien scanner ton petit visage tout concentré que tu étais à fixer l'écran. Ha ha ha qu'est-ce qu'on rigole bien.

Je suis sûr que si Taylor Swift avait demandé la permission à la CNIL ils auraient dit "Wesh Banco, comme ça en plus on pourra croiser avec la base de Christian histoire de voir si y'a pas un lycéen de Marseille qui a séché les cours pour prendre un avion pour assister au concert à Las Vegas." Faut bien essayer. Bref. Je ne sais pas vous, je ne sais pas si c'est la période des fêtes ou quoi, mais depuis quelques temps j'ai l'impression que c'est vraiment tous les jours le Noël de la connerie.

Spéculation faciale.

Je vous ai souvent parlé des travaux de Sushana Zuboff sur le capitalisme de surveillance. Pas plus tard que dans ce dernier billet. De Google à Facebook, l'ensemble du web a muté d'une économie des documents (capitalisme linguistique) à une économie des profils (capitalisme de surveillance donc). Nous sommes aujourd'hui à la phase d'après. Celle où après avoir mis en place l'essentiel des infrastructures techniques, physiques ou numériques, d'une surveillance de chaque individu à chaque instant et dans chaque espace public ou privé, il faut, pour que le marché tienne et que les actionnaires se gavent, entretenir la spéculation.

A ce titre, la dernière "création" de la société Nvidia est proprement fascinante. Il s'agit d'une "intelligence artificielle" (en fait du Deep Learning) capable de créer des visages "qui n'existent pas" à partir de ceux de vraies personnes (l'article scientifique est disponible sur ArXiv).

Pokerface

 

On savait déjà reconstituer des (vrais) visages à partir d'un simple brin d'ADN, on disposait également d'immenses bases de données répertoriant, classant et indexant l'ensemble de nos émotions et de leurs traductions en autant d'expressions faciales. D'une certaine manière il ne manquait plus que cette dernière pièce dans le grand puzzle du capitalisme de la surveillance : créer des visages qui n'existent pas. En créer autant que possible. De manière infinie. Dont certains d'ailleurs finiront, et ce n'est pas le moins troublant, par être ou devenir de "vrais" visages un peu comme dans le paradoxe du singe savant ou dans la bibliothèque de Babel

Un nombre infini mais observable, quantifiable, analysable de visages qui n'existent pas mais pourraient être utilisés comme autant de masques, de leurres, ou simplement comme outil de spéculation. Des visages "qui n'existent pas" et qui donc ne nous appartiennent pas alors même que ceux-là qui nous appartiennent et nous définissent ne nous appartiennent plus vraiment et sont avant tout devenus "la propriété de plates-formes capitalistes".  

Google. Du moteur de recherche à la bourse des mots et à leurs enchères. Capitalisme linguistique. Facebook. Du livre des visages à la bourse des visages. Capitalisme de surveillanceDes ravages du premier nous sommes informés mais n'avons déjà presque plus de prise sur l'horizon culturel que dessinent ces architectures techniques toxiques. Des ravages du second nous paierons le prix fort d'un risque de déshumanisation encore plus grand.

Lorsque nos mots et nos visages ne seront plus rien d'autre qu'un marché, lorsque des mécanismes spéculatifs dits "à haute fréquence" les entraîneront sans que nous ne puissions plus y prendre part autrement qu'en spectateurs hébétés, la panique s'emparera du panoptique. Nous n'avons à ce jour aucune idée des conséquences de l'inévitable Krach qui prendra place après ce vertige. Mais une société où les mots ont un prix avant d'avoir un sens et où chaque émotion lue sur un visage ne vaut qu'à proportion de son coût transactionnel est une société déjà plus que flétrie. 

La spéculation sur les mots, leur appartenance à une sphère essentiellement marchande, est un appauvrissement mécaniquement proportionnel de la capacité de faire société. La spéculation sur les visages et sur les émotions qu'ils expriment est un appauvrissement mécaniquement proportionnel de nos capacités individuelles et collectives d'empathie. De notre désir même d'empathie que la spéculation vide de tout sens et de toute nécessité. Ne reste alors qu'une mécanique sociale vide de sens qui fait le lit de tous les autoritarismes pour mieux préparer celui de tous les fascismes. 

On ne protège pas une société en ne la surveillant que pour la conditionner à l'être encore davantage demain. Et s'il s'agit là du seul projet de société que l'on est en capacité de porter, de Christian Estrosi à Taylor Swift en passant par l'ensemble de nos démocraties modernes, alors il ne faut pas s'étonner que les espaces – physiques ou numériques – qui sont les plus plébiscités et dans lesquels on semble avoir "plaisir" à se retrouver soient aussi les plus carcéraux, les plus étouffants et les plus "surveillants". Ce paradoxe n'est que d'apparence. Car la fabrique du consentement a partie liée avec la rhétorique de l'enfermement. Dans ces espaces surveillés, la démocratie n'y est plus que d'apparat autant que d'apparence et la spéculation s'y est parfaitement et durablement substituée à toute forme d'argumentation. 

<Mise à jour du lendemain> La Quadrature du Net revient sur les démarches qu'elle a engagée pour s'opposer au projet porté par Estrosi et les différentes réponses reçues des élus et de la CNIL. </Mise à jour du lendemain>

8 commentaires pour “Spéculation faciale : panique dans le panoptique.

  1. Je partage en tout point tout tes constats et toute ta désolation… Je crois que nous sommes là face à un programme politico-économique qui est intimement lié à la réassurance que procure l’apparente efficacité technologique : http://www.internetactu.net/2018/06/01/videosurveillance-ou-avons-nous-failli/ Le problème, c’est que la reconnaissance faciale et la vidéosurveillance font des promesses si simples qu’aucun argument ne savent les contrecarrer, comme l’explique très bien Gérald Bronner dans la démocratie des crédules, qui montre combien la simplicité l’emporte souvent sur la réalité. Et quand on ne peut pas contrer la bêtise de la simplicité, je ne vois pas d’autres principes à opposer qu’une interdiction. Face à l’argument du oeil pour oeil, on a interdit la peine de mort. Les technologies de vidéosurveillance et de reconnaissance faciale sont une plaie dont l’inefficacité n’égale que la croyance qu’elles deviennent un jour efficace. C’est un peu comme les banques : personne ne voit que c’est un piège un con qui fonctionne à la perfection.

  2. Passionnant et terrifiant billet, merci beaucoup.
    La question que je me pose à son issue (entre autres) c’est si les concepteurs desdits systèmes assument et savent qu’ils s’adonnent à la reproduction du carcéral dans la vie publique (comme les bracelets de liberté surveillée chez DisneyLand) où s’ils les ré-inventent naïvement comme l’inventeur de l’open-space à qui j’accorde le bénéfice du doute d’être aller chercher son invention dans sa propre tête plutôt que dans le panoptique original. Si ces mecs l’ignorent c’est toujours un peu plus rassurant (pour leur cynisme) mais flippant (pour la société), ça voudrait dire qu’on est dans un monde où la ré-invention des systèmes pénitentiaires passe pour une bonne idée, “valorisable” et souhaitable (pour les investisseurs, élus, boîtes privés etc.). Il faut bien innover, pas vrai ?
    Ça témoignerait d’un monde en roue libre où le marché et la course à l’innovation en viennent logiquement à mettre consommateurs et citoyens (c’est pareil) en taule pour s’assurer qu’ils ne fassent rien qui ne soit contrôlé, administré, monétisé ou “corrigé” le cas échéant.
    Si au contraire ils sont moins naïfs que ça et articulent en pleine connaissance de cause en “travaillant l’opinion” par la novlangue pour faire accepter ces dispositifs de la même manière que les neuro-marketeurs se mettent à l’éthologie pour étudier le consommateur-animal (et agissent sur les pulsions et l’eye-tracking etc), ça voudrait dire que nos chers dirigeants se jugent à ce point supérieurs qu’ils n’ont pas plus de problème que ça à équiper la planète entière en systèmes tyranniques ou ne demandant qu’à le devenir. Auraient-ils peur de quelque-chose ?

  3. Bonjour, La CNIL n’a donné ni un aval ni un avis puisque dans le cadre du RGPD cette démarche n’est pas soumise à autorisation. Les services de la CNIL ont juste accompagné le responsable de traitement pour le conseiller sur la manière de s’y prendre la plus sécurisée possible et la moins préjudiciable à la vie privée possible (eg : pas de gabarit en base centrale), et de les aider à s’interroger sur la pertinence de la démarche (notamment le coût au regard du résultat attendu…) mais n’a pas le pouvoir d’autoriser ou d’interdire ce type d’expérimentation. Donc non, nous ne fumons rien de particulier à la CNIL en ce moment ni à aucun autre d’ailleurs, nous essayons juste de faire au mieux avec les outils juridiques dont nous disposons. Que ces outils ne soient pas à la hauteur des enjeux actuels est un débat en soi, qui ne peut en aucun cas être porté par la CNIL seule.

  4. Bonjour et merci d’être venu commenter sous ce billet. Je prends bonne note de vos remarques. J’ai énormément de respect pour le boulot de la CNIL (et pour le votre également au passage) mais je maintiens cependant mon incompréhension dans cette affaire. Il me semble que le rôle de la CNIL, indépendamment de ses attributions et des outils juridiques dont elle dispose est également (et peut-être avant tout) de dénoncer publiquement les risques de dérive de ce genre de pratique.
    Le simple fait que la CNIL se trouve associée à ce genre d’étude est – de mon point de vue – un risque fort de discrédit sur le remarquable travail qu’elle produit par ailleurs.
    Pour le dire plus simplement : je trouve dommage que la CNIL ne “profite” pas de ce genre de dossier pour avertir sur les énormes risques qu’il représente pour les libertés publiques. Cela, me semble-t-il, entre pourtant bien dans ses attributions.

  5. Merci beaucoup pour ce tres bon article La CNIL avait retoqué le projet de l’Université de Lille d’utiliser les données biométriques pour controler les accès N’est on pas exactement dans le meme cas ? Merci a Mme Peugeot pour sa réaction mais je suis d’accord avec le commentaire precedent : non seulement il faudrait mettre au point la position de la CNiL si elle n’a pas « donné d’avis positif » mais effectivement publier un commentaire d’alerte et de mise en garde L’article souligne à juste titre les dangers potentiels de ce tupe de projet Merci en tout cas pour cet utile debat

  6. J’aime bien le contenu. Cependant “google.com” et “gstatic.com” que NoScript détecte sur ce site web, ainsi que “fonts.googleapis.com”, ça parait pas trop compatible avec le discours. Petit bonus contre la vie privée : j’ai dû activer JavaScript pour poster ce commentaire !

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Articles similaires

Commencez à saisir votre recherche ci-dessus et pressez Entrée pour rechercher. ESC pour annuler.

Retour en haut