DDIY : Don’t Do It Yourself. Les technologies de l’à ta place.

Après vous avoir hier parlé de Face-Swapping et de "DeepFakes", ces possibles autorisés par le champ des technologies de l'artefact, je voudrais cette fois prolonger la réflexion en expliquant de quelle manière nous finissons par n'être plus que les spectateurs d'interactions qui nous échappent, du fait de l'empilement de couches technologiques faisant office de médiation entre nous et le monde, ou plus exactement entre notre action sur le monde et la manière dont cette action est ensuite éditée et affichée sur un écran quelconque. 

Les technologies de l'à ta place. From DIY to TIYS.

Le champ de la photographie a récemment été – relativement – bouleversé par deux annonces que je voudrais ici commenter et relier aux mêmes technologies de l'artefact. Il s'agit de technologies de "l'à ta place" : des technologies qui font les choses et prennent des décisions … "à ta place".

Oui bon ben pour l'instant j'ai pas trouvé mieux comme nom. Ou plutôt si : on avait le "DIY", le Do It Yourself ("fais le toi-même", prononcer "Dis Aïe Ouaille"), on entre aujourd'hui dans une ère du DDIY (Don't Do It Yourself). Et ce sont les technologies et les algorithmes qui vont donc faire le boulot à notre place.

On appellerait ça le TIYS (Technology In Your Stead => la technologie le fait à ta place) ou le AIYS (Algorithms In Your Stead => les algorithmes le font à votre place). Je vous explique. 

AmaplassEt d'abord je mets des fausses pochettes de disques d'Axel Bauer et de Zazie si je veux. 
 

La photographie ambiante.

En Octobre 2017, Google lançait "Clips", un appareil photo dit "intelligent", mais dont l'intelligence en question consistait à décider tout seul de prendre telle ou telle photo. Il s'agit donc de laisser l'appareil posé sur une table ou agrafé au revers de votre veste … et de vivre votre vie. Et en fonction de ce que l'appareil "verra", il "décidera" de prendre une photo. Ou pas. Par exemple, lorsqu'il détecte un sourire, il prend une photo. Ou pas. Bon en fait en gros il prend des photos quasiment tout le temps. Dans la vidéo promotionnelle de la chose, Google indique que Clips "reconnaît les gens avec qui vous passez le plus de temps" et poursuit : 

"The more you're with them, the more Google Clips will capture them."

Le terme "capture" pouvant être ici compris comme son premier sens littéral … francophone 🙁

Une sorte de soft-surveillance comme on avait du soft-power. Un appareil qu'on porte sur soi et qui "décide seul" quand et quelle photo prendre. Comme le rappelle justement Numérama, cet épisode de Black Mirror a déjà été tourné

Anecdotisation des régimes de surveillance.

A mon sens, et au même titre que les interfaces vocales ou l'internet des objets, l'approche de Google Clips participe de l'un des aspects les plus essentiels et les plus inquiétants de la société post-numérique, à savoir une anecdotisation des régimes de surveillance.

Facebook avait fini par instituer, en inventant le News Feed et l'internet moderne en 2006, une banalisation de fait de ces régimes de surveillance réciproque en les rendant faussement nécessaires et trivialement sympathiques pour pouvoir bénéficier d'une bonne "User-Experience". Il s'agit aujourd'hui, au travers d'initiatives comme celle de Google Clips, de maintenir ces régimes de surveillance permanente accessibles à coût cognitif nul (plus la peine de réfléchir à quelle photo prendre, plus la peine non plus donc de … la prendre), de les rendre simplement anecdotiques, de les faire basculer vers un niveau de conscience encore plus "infra". 

Cela ne doit pas nous empêcher d'imaginer ce monde dans lequel chaque sortie dans la rue nous place sous le double regard de caméras de vidéo-surveillance et de nos propres mouchards géo-localisés qui nous permettent accessoirement de téléphoner, ce monde dans lequel chaque retour chez soi multiplie cette forme d'anecdotisation des régimes de surveillance puisqu'au déjà cité smartphone s'ajoutent les enceintes vocales connectées de chaque foyer qui captent nos conversations de manière ambiante pour en faire nul ne sait trop quoi, ainsi donc, que les nouveaux dispositifs de type Google Clips destinés à nous filmer en permanence. Je le redis une nouvelle fois dans le sillage de Numérama, cet épisode de Black Mirror a déjà été tourné

Le recadrage-débordement.

Et puis le 24 Janvier 2018 (la semaine dernière donc), Twitter a annoncé une nouvelle fonctionnalité à base de machine-learning permettant de recadrer automatiquement les photos que nous prenons. La reconnaissance de visage n'étant pas suffisante (toutes les photos ne comportant pas de visage), Twitter explique donc qu'il doit trouver de nouvelles "heuristiques" pour détecter les zones intéressantes de la photo.

"A better way to crop is to focus on “salient” image regions. A region having high saliency means that a person is likely to look at it when freely viewing the image.

Il s'agit donc, notamment sur la base d'immenses jeux de données (Datasets) "d'entraîner" l'algorithme à reconnaître les zones que les gens ont l'habitude de "regarder librement" (zones que l'on a identifiées de manière semi-automatique mais aussi à l'aide d'expériences d'Eye-Tracking) et, à partir de là, de "prédire" quelles seront ces zones sur les photos soumises à Twitter et d'effectuer les recadrages nécessaires. Pour celles et ceux souhaitant approfondir, l'article scientifique original est déposé sur ArXiv (Disclaimer : je ne l'ai pas lu).

Et pour que tout le monde comprenne bien, le résultat de ce recadrage automatique, ça donne ce genre de trucs (à gauche : sans recadrage, à droite : avec). 

Fig1.png.img.fullhd.medium

 

 

Je ne vais pas ici entrer dans un débat esthétique relevant des études photographiques, ni vous expliquer pourquoi je préfère la photo non-recadrée de l'aile d'avion et la photo non-recadrée du chat en bas à droite, je laisse ça aux spécialistes. Ce qu'il faut bien comprendre et ce que Twitter explique d'ailleurs en préalable à son annonce c'est la chose suivante :

"Aujourd'hui des millions d'images sont chargées tous les jours sur Twitter. Mais elles arrivent dans toutes sortes de formats et de tailles, et cela représente un vrai défi pour transformer tout cela en expérience utilisateur cohérente ("consistent"). Les photos dans votre Timeline sont recadrées pour en améliorer la cohérence ("consistency") et vous permettre de voir plus de tweets en un coup d'oeil."

En reformulant on pourrait donc dire que "nécessité fait loi" : nécessité de recadrage fait loi d'optimisation de la visibilité. Et réciproquement : nécessité d'optimiser la visibilité fait loi de recadrage obligatoire.

Assistance contrainte.

Ce qui m'intéresse dans cette affaire c'est la chose suivante : nous avons donc un algorithme qui s'occupe de recadrer automatiquement les photos que nous prenons, au risque de nous faire prendre des photos que nous ne voulions pas prendre, ou en tout cas de donner à voir une "composition photographique" qui n'est pas celle que nous voulions montrer. Et ce "choix algorithmique" de recadrage, dont on nous dit qu'il est là pour permettre d'optimiser – paradoxalement – la visibilité, se trouve lui-même soumis au choix algorithmique conditionnant la visibilité du Tweet lui-même, indépendamment des photos recadrées qu'il contient. Soit un empilement de strates et de régimes algorithmiques d'obfuscation et de dévoilement, sur lesquels nous n'avons quasiment plus aucune prise (de vue). 

Là encore, comme pour Clips de Google mais à un niveau légèrement différent, l'usage de la technologie nous installe dans une position que l'on pourrait qualifier "d'assistance contrainte" : nous n'avons pas demandé à ce que nos photos soient recadrées, mais nous n'avons pas d'autre choix en les soumettant que de les voir recadrées. La technologie et l'algorithme de machine-learning le font à notre place.  TIYS (Technology In Your Stead) & AIYS (Algorithms In Your Stead). La négociation dans l'usage se jouant autour de la promesse de gain de visibilité pour l'utilisateur (et donc d'interaction ou d'engagement pour la plateforme).

 

Le monde de l'à peu près et les technologies qui le façonnent à notre place.

Au risque – assumé – de la caricature, et pour reprendre le titre et l'argument d'un article d'Alexandre Koyré**, on pourrait dire que l'histoire des techniques nous a mené "du monde de l'à peu près à l'univers de la précision".

Koyre(Source : OpenEditions)

 

** [Alexandre Koyré, Études d’histoire de la pensée philosophique (1981), « Tel », Gallimard, 1995, p. 342‑343.]

Que les dernières avancées des sciences et techniques de la fin du 20ème et du début du 21ème siècle nous ont à leur tout mené de "l'univers de la précision" à un univers de l'hyper-précision (en gros le triptyque Big Data / Machine-Learning / IA), qui est aussi un monde de délégation technique faisant système grâce aux technologies du DDIY (Don't Do It Yourself), aux technologies de l'à ta place.

La question qui se pose est de savoir si la prochaine étape ne va pas être de nous renvoyer dans un monde de l'à peu près, un monde où ce que nous publierons sera "à peu près" ce que nous voulions publier, un monde où nous connaitrons "à peu près" le fonctionnement des algorithmes qui régissent l'accès à l'information, un monde où l'on sera "à peu près" au courant de l'installation d'une société de surveillance et où l'on adoptera "à peu près" les comportements supposés retarder un avènement dont nous serons pourtant "à peu près" certain qu'il a déjà eu lieu.  

Notre société, les citoyens que nous sommes, n'avons jamais eu autant d'information et de connaissance à notre disposition. Et jamais nous n'y avions eu aussi facilement accès. Ce qu'il faut défendre aujourd'hui et qui pourrait être le point de jonction entre l'optimisme fécond de Michel Serres et le pessimisme mortifère d'Alain Finkielkraut c'est la précision et non l'approximation de notre rapport aux informations et aux connaissances dont la technique et les technologies permettent d'assurer la médiation.

A force de laisser aux technologies, par facilité, le soin de se rappeler à notre place, nous sommes également en train de leur déléguer le soin de définir la précision** de ce souvenir, de leur laisser la charge du recadrage au risque de les laisser littéralement, trivialement et symboliquement nous déborder. Et cela semble être une erreur. Monumentale.

(**Par parenthèse rappelons que les moteurs de recherche se définissent et se jugent notamment à l'aune de leur taux de rappel et de leur taux de précision)

Je vais pour finir vous laisser avec une image et plusieurs questions.

L'image c'est celle-ci. Mais il y en aurait plein d'autres possibles. 

Images_mentent_5

Et maintenant les questions.

Si chacun des trois soldats avait été équipé d'un Clips de Google, quelles photos auraient été prises ? Et surtout quelles photos ne l'auraient pas été ?

Et si la photo représentant cette scène avait été mise en ligne via Twitter et son algorithme de recadrage automatique, sur quelle zone l'algorithme aurait-il prédit que notre regard allait se porter ? Et quel aurait été le recadrage correspondant ?

Il y a ce sentiment étrange, que plus nous disposons de technologies de très haute précision, et plus les régimes de publication sont, eux, soumis aux règles d'un inquiétant à peu près qui ne peut être viable et sans danger qu'à la condition non-négociable de la confiance. Laquelle confiance est en permanence sapée par la destruction méthodique (et parfois ludique) de la valeur de preuve de l'ensemble des formes de publications disponibles sur les plateformes.  

Moralité ?

Il faut se demander à qui bénéficie cet "à peu près" dans une société où le poids de la décision, et donc de la précision algorithmique, devient chaque jour de plus en plus déterminant à l'échelle collective comme à l'échelle individuelle. 

 

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Articles similaires

Commencez à saisir votre recherche ci-dessus et pressez Entrée pour rechercher. ESC pour annuler.

Retour en haut