Au sujet des données émotionnelles.

J'ai été interrogé il y a un mois par une journaliste du site Culture Mobile au sujet de l'économie des émotions, suite au billet que j'avais publié sur le sujet. Pour archivage personnel je reproduis ici cette interview. Et j'en profite pour remercier la journaliste avec qui nous nous sommes entretenus par mail. Ce fut un plaisir de répondre à quelqu'un qui connaissait le sujet et qui avait eu la courtoisie de lire ce que j'avais déjà écrit là dessus. Grand merci donc à Christine T.

L'entretien est consultable intégralement avec son iconographie et sa webliographie sur le site de Culture Mobile

===============================

Culture Mobile : Dans un récent article publié sur votre blog Affordance, vous parlez de la « base de données des émotions » essentielle pour les grands acteurs qui vendent et inventent produits et services individualisés sur Internet. De quoi s’agit-il et quel rôle vont jouer ces émotions dans la relation homme-machine ou homme-fournisseur de services ?

Olivier Ertzscheid : Jusqu’à présent les grandes plateformes sociales et les moteurs de recherche ont construit leur modèle économique, c’est-à-dire leur modèle publicitaire, sur la capacité à cerner nos «intentions» et à anticiper celles-ci. Le moyen pour y parvenir est assez simple à l’échelle des immenses quantités de données qu’ils brassent : chaque fois que nous effectuons une «action» (taper un mot-clé dans Google, se géolocaliser quelque part, acheter un produit en ligne, etc.), ces sociétés postulent, souvent à raison, que cette situation va se reproduire dans un contexte donné. Si tel n’est pas le cas, elles vont tout mettre en œuvre pour faciliter cette reproduction afin d’afficher toujours davantage de publicité ciblée. Voilà pour ce que l’on appelait la «base de donnée des intentions».

Aujourd’hui, avec le rôle qu’occupent Facebook ou Twitter dans nos échanges connectés, différentes études scientifiques ont montré le rôle central que jouent les émotions dans la propagation, la viralité et le partage d’une information. On sait par exemple que les émotions ou les sentiments qui se propagent le mieux sont la colère et l’indignation. On sait également que des émotions comme la joie nous placent dans un état cognitif qui permet de faciliter les achats impulsifs et les actes de consommation en général. Dès lors, il s’agit, pour ces mêmes plateformes, d’instrumentaliser ces émotions au service d’une fabrique du pulsionnel afin, là encore, de nous inciter à consommer et à interagir toujours davantage. Car ces géants de l’Internet sont aussi des colosses aux pieds d’argile : sans interaction des utilisateurs, ces plateformes s’effondreraient presque instantanément. De fait, la prochaine progression significative du marché de la publicité en ligne, qui a aujourd’hui atteint un certain optimum, se fera grâce à l’analyse de ce nouveau « contexte » émotionnel.

Les émotions se déclinent également dans les interfaces homme-machine et dans l’essor de la robotique, notamment dans le domaine des services à la personne. Il s’agit cette fois de fabriquer des interfaces capables d’une forme d’empathie ou qui susciteront chez nous une sorte d’empathie. Différentes techniques permettent d’analyser et de disséquer les différents registres émotionnels par lesquels passe un individu lorsqu’il regarde un film, une publicité, lorsqu’il écoute tel ou tel morceau de musique, lorsqu’il prend parti dans une conversation assez animée sur Twitter ou Facebook. Et de la même manière que l’on avait constitué hier d’immenses bases de données des intentions à l’aide des données collectées, on est aujourd’hui en capacité de construire d’aussi grandes bases de données émotionnelles. D’un côté c’est positif dans le sens où une compréhension plus fine de nos émotions permettra en effet d’améliorer nombre d’interfaces homme-machine, de l’autre c’est très inquiétant puisque la clé de toutes les manipulations, qu’elles soient commerciales ou politiques, est d’être capable de jouer sur les émotions des gens pour mieux les influencer.

CM : Comment procède-t-on aujourd’hui pour «capter» les émotions, et à qui destine-t-on une telle «base de données d’émotions» ?

OE : Il existe plusieurs méthodes, mais les entreprises actuellement en pointe sur ce secteur s’appuient principalement sur des techniques de reconnaissance faciale. Il s’agit de découper le visage en différentes zones, chacune remplie d’une multitude de «points», et d’observer les différents mouvements de ces points pour être capable de reconnaître quelqu’un qui sourit, qui rit aux éclats, qui est triste, en colère, etc.

L’une de ces entreprises, Affectiva, annonce qu’elle dispose d’environ 4,7 millions de visages analysés et de 50 milliards de «points émotionnels » enregistrés. La méthode consiste à équiper les gens de capteurs, à leur faire visionner différents types de contenus (publicités, scènes de film, etc.) et à saisir en temps réel les émotions exprimées. Le découpage très fin, l’importance du panel et la puissance de calcul de l’informatique font que l’on arrive en effet à détecter toute une série d’émotions, y compris avec différents niveaux de nuances (entre le sourire et le rire par exemple) et avec une marge d’erreur assez faible. Parmi les applications concrètes, la société propose ensuite «d’optimiser» certaines séquences pour déclencher ou prolonger la réponse émotionnelle souhaitée. De la même manière que les moteurs de recherche sont devenus depuis longtemps des «moteurs de réponses», Affectiva se revendique comme «la plus grande base de données de réponses émotionnelles aux médias numériques». Après les réponses informationnelles, les réponses émotionnelles…

CM : Les recherches sur les émotions ne datent pas d’aujourd’hui. Les Japonais y ont beaucoup travaillé depuis les années 1990. Un département du MIT de Boston planche depuis quelques années sur l’«affective computing», Apple a même déposé un brevet en janvier 2014 pour un dispositif permettant de «diffuser des publicités contextuelles en fonction de l’humeur de l’utilisateur». Laquelle est définie aussi bien par des informations biologiques comme la pression sanguine, le rythme respiratoire, et la température du corps, que par une expression vocale ou faciale ou des indices comportementaux – contenus consommés, ouvertures d’applications, écoutes sur i-Tunes, activités sur les réseaux sociaux, etc. Y a-t-il eu des avancées récentes qui font qu’on en reparle aujourd’hui en 2017 ?

OE : Il n’y a pas eu de découverte majeure, mais un ensemble de petits pas en avant dans différentes sciences ou technologies, allant de l’imagerie cérébrale au neuro-marketing en passant par la psychologie sociale, la robotique, les interfaces vocales et le deep learning en intelligence artificielle. Cela fait qu’aujourd’hui les «émotions» sont en capacité de fonder un nouveau marché, au-delà des stratégies de recherche et développement d’hier.

CM : Les mots sont importants : vous soulignez que les locutions employées, données «émotionnelles» et informatique «affective», sont sémantiquement absurdes. Que pensez-vous qu’elles cherchent à induire ou à travestir ?

OE : Oui, en effet, il n’y a rien de moins «émotionnel» qu’une donnée. Dire ou laisser entendre qu’une donnée est «émotionnelle» ou qu’un ordinateur est capable «d’affection» est une forme d’anthropomorphisme. Il faut distinguer deux choses : la réalité des travaux des chercheurs sur ces questions et l’écho de ce genre de formule dans l’imaginaire collectif. Un chercheur en «informatique affective» qui brasse toute la journée des «données émotionnelles» sait parfaitement qu’aucun programme informatique n’est capable d’éprouver un quelconque «affect» et que si les données se mettent à éprouver des émotions, il aura du mal à continuer de travailler sur elles. Mais dans l’imaginaire collectif (que le marketing vient souvent nourrir et renforcer), ces expressions installent l’idée selon laquelle les ordinateurs sont des «compagnons» et légitiment une forme d’empathie qui, si elle peut être souhaitable ou opératoire dans des cas précis d’aide à la personne ou de situations thérapeutiques particulières, nous conduit également à entrer dans un rapport encore plus fusionnel avec les machines qui nous entourent. Et tous les psychologues vous confirmeront que les rapports fusionnels ou pulsionnels sont les ennemis de la raison. Donc, pour le dire autrement, derrière cet anthropomorphisme se cache aussi une forme de déréalisation et d’euphémisation qu’il est important de questionner. Pour le dire différemment, de la même manière qu’il est plus facile de vendre de la «vidéo-protection» plutôt que de la «vidéo-surveillance», il est plus facile de justifier des collectes massives de données personnelles lorsqu’on dit qu’elles sont «émotionnelles», qui plus est dans un cadre d’informatique «affective».

CM : N’est-il pas inquiétant de penser que nos réactions intimes puissent être ainsi scrutées et utilisées ? On se sent comme pris dans une nasse au maillage de plus en plus fin. Quelles limites éthiques et juridiques peut-on mettre en place pour se protéger de telles intrusions ?

OE : C’est incontestablement la bonne question. La limite est celle du respect de la vie privée. Mais c’est une limite impossible à circonscrire clairement, aussi bien en droit qu’en pratique, car nos pratiques informationnelles et communicationnelles au sein des grandes plateformes oscillent en permanence entre le public et le privé. Danah Boyd, grande spécialiste de ces questions, parle d’ailleurs de plateformes et d’environnements «semi-publics». En réalité, notre force de résistance est à la fois individuelle et collective. Individuelle car, avec un peu de formation et d’acculturation à ces questions, il est possible de limiter la capacité de surveillance de ces grands acteurs de l’Internet, de se soustraire ou en tout cas de ne pas se soumettre complètement à cette captation permanente de nos intentions comme de nos émotions. Et collective car, comme le souligne Antonio Casilli, «la vie privée est devenue une négociation collective». C’est-à-dire qu’à chaque fois qu’une limite est franchie par ces plateformes, le seul moyen de les contraindre à revenir en arrière est de parvenir à se mobiliser collectivement.

CM : Vous parlez fréquemment d’un «nouvel ordre documentaire du monde» dans lequel les «algorithmes opaques» des grands acteurs du Net indexent et analysent diverses «entités » afin de «servicialiser» nos moindres actes en ligne. Parmi ces entités, les documents et profils liés à la primo-économie de l’attention, les comportements et déplacements traduisant des intentions, liés à l’économie de l’occupation, et enfin les objets et le génome captés pour servir une «biologie» de l’attention dans laquelle l’humain deviendra la première source documentaire. Où s’inscrit ce nouvel item des émotions et quelle nouvelle ère introduit-il ?

OE : Les émotions sont un peu le chaînon manquant qui peut permettre aux grandes plateformes d’affiner encore l’indexation, le «séquençage» de l’ensemble de nos comportements. Toute l’économie du Web est bâtie sur une économie de l’attention : devant la profusion de l’information disponible, la prime revient à l’acteur qui sera capable d’attirer, de fixer et de mobiliser le plus longtemps notre attention sur un document, une ressource ou un produit particulier. Or on sait également qu’il existe une corrélation directe entre «l’attention portée» et «l’émotion suscitée». Les articles, sujets, statuts, images, posts dont on parle le plus, ceux que l’on partage le plus, sont ceux qui disposent du plus fort capital émotionnel. Ainsi, être capable de faire avec les émotions ce que l’on a fait hier avec les documents (pour les premiers moteurs de recherche), puis avec les profils (pour les premiers réseaux sociaux) et enfin avec nos intentions, c’est être en capacité d’instrumentaliser toujours davantage ce qui, dans nos interactions, est de l’ordre du pulsionnel et non du rationnel. Là encore, la seule justification à cette approche est celle d’un rendement publicitaire toujours plus ciblé et efficient.

CM : Quel scénario imaginez-vous que la publicité et ces IA très indiscrètes puissent produire dans, disons dix ans ?

OE : La prospective est un exercice toujours difficile. Disons que tout ce que nous observons déjà aujourd’hui va se systématiser : les interfaces vocales seront notre premier moyen d’interaction avec le monde, qu’il s’agisse de conduire notre voiture, de discuter avec un «bot» du service après-vente de tel ou tel produit, ou de déclencher toute une série d’actions dans l’enceinte de notre maison. Il va également être nécessaire, avec la systématisation de ces commandes vocales, de la robotique et de l’IA, d’étudier des processus de même nature que celui du «transfert» en psychanalyse. C’est-à-dire la possibilité que nous éprouvions de «vraies» émotions, une empathie réelle avec des artefacts mécaniques ou informatiques. A ce titre, le film Her de Spike Jonze, dans la relation qui s’installe entre le héros et la voix de l’intelligence artificielle de son ordinateur, est davantage une anticipation scientifique que de la pure «science-fiction».

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Articles similaires

Commencez à saisir votre recherche ci-dessus et pressez Entrée pour rechercher. ESC pour annuler.

Retour en haut