La voix et l’ordre

Les interfaces vocales sont fascinantes. Et je vous en ai déjà souvent parlé sur ce blog. Parce qu'elles me fascinent. 

Entre autres. 

Le 22ème siècle sera vocal ou ne sera pas.

Elles font d'excellents films d'anticipation, discutent entre elles de manière parfois surréaliste, sont partout au sein de nos foyers et de nos pratiques connectées, s'appellent Alexa, Siri, Cortana, sont supposées ne se déclencher qu'à notre demande mais captent en continu l'ensemble de nos paroles, sauvent parfois des vies mais au prix d'une intrusion inédite dans ce que nous appelions jadis notre "vie privée".

Au travers des "assistants personnels", des smartphones ou des boitiers de domotique qu'elles vocalisent, elles captent et cristallisent un éventail de plus en plus large de nos pratiques et de nos demandes, de nos habitus

Elles sont citées comme témoins dans des affaires de meurtre, nous signalent "à la volée" que le produit que nous nous préparions à commander en ligne est moins cher sur une autre plateforme, et, signe ultime de la vocalisation du monde et de son reflet dans la caverne platonicienne, vont prochainement remplacer les télécommandes de nos téléviseurs (Android).

Mais quand nous leur "parlons", à qui et à quoi parlons-nous vraiment ?

Il n'y avait encore qu'Apple pour ne pas avoir distribué Siri en dehors de nos ordinateurs et de nos smartphones, ce qui est désormais chose faite avec le lancement d'HomePod, son enceinte intelligente connectée, lancement effectué le 5 juin 2017 lors de sa conférence WWDC. GAFA un jour, GAFA toujours. Seul Facebook est donc pour l'instant un peu à la ramasse même s'il a lancé "M" en Avril 2017 mais gageons qu'il oeuvre à rattraper son retard, et au vu de ses investissements dans le domaine de l'IA, cela ne devrait pas être très long. 

Car justement, ces assistants personnels, ces voix, sont en général ce que l'on appelle des "IA faibles", c'est à dire non généralistes et dédiées à un cercle d'applications relativement restreint. Et comme le résume très bien Frédéric Cavazza dans deux formules de son article :

  • primo "Les assistants personnels sont les nouveaux navigateurs web, et les GAFAM en sont les maitres absolus"
  • et deuxio "Les assistants personnels n’ont pas besoin d’être intelligents, simplement de monétiser l’accès à des contenus et services"

Et pour ce qui est de la monétisation de services, ils progressent à une vitesse ahurissante. Ainsi en Juillet 2016, alors que le boitier "Echo" équipé de l'assistant vocal "Alexa" n'avait que 2 ans, un article de FastCompany indiquait que :

"Le nombre de compétences (skills) qu'Alexa est capable de gérer comme autant de "tâches", par exemple régler le chauffage ou commander un Uber, est passé de 135 en Janvier (2016) à 1000 en Juin et à 4000 actuellement (Juillet 2016), grâce aux outils et API que l'entreprise a mis à disposition des développeurs pour qu'ils intègrent leurs propres services et terminaux à Alexa."

Nous sommes en Octobre 2017 et Amazon annonce … plus de 25 000 "skills" (compétences) disponibles via l'ASK (Alexa Skill Kit).

Le choix d'Alexa.

Dans le même article, la stratégie commerciale est très clairement présentée : il s'agit, via ces technologies vocales, de faire jouer le "Flywheel Effect" (en français le "volant d'inertie") pour que cette force "d'inertie" amène l'utilisateur à acheter davantage de produits de l'écosystème dans lequel il se trouve (Amazon en l'occurence). Il s'agit également de jouer sur le levier du "shopping without seeing", littéralement "l'achat à l'aveugle", qui là encore vous conduit à acheter des trucs que vous n'auriez peut-être pas acheté si vous les aviez vus. Et pour rendre la pilule moins amère et l'interface plus douce, "d'humaniser" la voix de l'assistant plus commercial que conversationnel qui va se faire un plaisir d'alléger votre bourse.

Il existe même des spécifications, un langage à part entière depuis 2004, le SSML (Speech Synthesis Markup Language), qui permet de jouer sur l'emphase, le chuchotement, et quelques autres "émotions" ou "tonalités" certes encore triviales mais qui participent à "humaniser" l'interaction (au risque de nous déshumaniser mais nous y reviendrons juste après) et sur lequel travaille énormément Amazon.

Enfin et c'est cela qui pose à mon sens le plus gros problème dès que l'on sort de la seule sphère "commerciale", il y a … "le choix d'Alexa", c'est à dire l'idée que bien sûr Amazon / Alexa ne va pas nous "lire" une série de réponses suite à notre requête mais nous en proposer une seule, mettant naturellement en évidence des produits vendus par la marque hôte.

"Nous optimisons déjà pour mettre en avant les tout premiers résultats. Les gens ne regardent que les gros titres sur leur (ordinateur) portable. Avec les interfaces vocales, vous n'avez vraiment qu'un essai (deux à la limite). Vous ne voulez pas qu'Alexa se mette à vous lire trois ou quatre résultats." (…) Amazon utilise désormais des algorithmes pour rassembler ("to boil down") des offres similaires sous un seul choix baptisé "Amazon’s Choice."

Donc si tu demandes à Alexa de t'acheter quelque chose, elle va t'envoyer sur Amazon et pas chez un concurrent. Et après tout pourquoi pas même si l'on a déjà eu un aperçu de ce que pouvaient poser comme problèmes ces situations de concurrence faussée (avec Google Shopping notamment). Mais.

Mais ces interfaces vocales n'ont pas vocation à se cantonner au secteur marchand : elles visent au contraire à s'étendre et à réguler l'ensemble de nos interactions en ligne. Ce qui soulève d'immenses questions sociétales et politiques. Souvenez-vous de ce que j'écrivais déjà en 2012

"Avec l'essor désormais certain des technologies vocales comme interface, il ne s'agit pour l'instant pas encore vraiment de navigation ; la voix comme interface est d'abord celle de l'injonction ("trouve ceci", "cherche cela", "téléphone à mon dentiste"), de la convocation ("dis à Marie de me rejoindre au bureau"). Un web performatif. Au service de l'action."

Et qui se confirmait en 2013 lorsque Google généralisait l'usage de ces interfaces dans ses services

"parce que nous parler c'est nous éviter de lire ; parce que nous éviter de lire c'est nous éviter de comparer ; parce que nous éviter de comparer c'est nous éviter de choisir ; parce que nous éviter de choisir c'est pouvoir choisir à notre place."

Par parenthèse, j'ai été tout à fait saisi d'effroi en visionnant le reportage de Cash Investigation sur les pratiques de "management" chez Lidl et ce pour plein de raisons. Mais, en lien avec cet article, on y voyait les ravages du "management par la voix", ces magasiniers équipés d'oreillettes par l'entremise desquelles un assistant vocal leur disait où aller, à longueur de journée, les privant du même coup de toute possibilité de parler à quelqu'un d'autre qu'à lui (et donc à des vrais gens …), limitant leur vocabulaire à une série d'une cinquantaine de mots qui étaient autant d'instructions comprises et permises par l'assistant, et les rendant au final presque tous totalement dingues ( = développant un syndrome de "déshumanisation" ou de "dépersonnalisation" qui est l'une des caractéristiques – et des causes – du burn-out). 

La voix qui (l)imite.

A mesure que les technologies vocales s'affirment comme l'avenir des IHM (interfaces homme-machine), elles sont, peut-être davantage que d'autres, un terreau particulièrement fertile pour les technologies de l'artefact. Ainsi alors qu'en Mai 2017 la CNIL autorisait neuf banques à tester la reconnaissance vocale comme dispositif d'identification pour certaines opérations bancaires, le mois d'Août nous dévoilait les avancées des techniques de post-synchronisation vocale ("lip synching") permettant de faire dire n'importe quoi à pas tout à fait n'importe qui, et encore récemment, on nous annonce la mise sur le marché d'un produit qui va permettre de nous faire chanter toujours juste en envoyant des ondes basses fréquence sur les muscles et les nerfs du larynx. Mieux, un mois avant la décision de la CNIL, en avril 2017, Numérama revenait sur cet algorithme de la start-up québecquoise Lyrebird, qui à partir d'une minute d'enregistrement, était capable de recréer la voix de quelqu'un en y ajoutant différentes intonations et émotions

Et puis comment ne pas parler de l'épineux problème de la reconnaissance des accents … Si cette vidéo des errances de la reconnaissance vocale dans un ascenseur est amusante, il s'agit également d'un aspect tout à fait stratégique en termes de R&D pour toutes les firmes souhaitant se positionner sur les interfaces vocales. 

Mais le gros problème des questions, ce sont surtout les réponses.

Sur GigaOM, Byron Reese s'est livré début Juin 2017 à une expérience (que je trouve) fascinante. Il a posé les mêmes questions aux assistants personnels d'Amazon et de Google et a comparé leurs réponses. Voici le résultat.

Selon que vous serez demanderez à puissant ou misérable Google ou à Amazon.

Question 1 : Combien y a-t-il de secondes dans une année ?
Amazon Alexa: Une année équivaut à 31,557,000 secondes.
Google Assistant: Une année calendaire équivaut à 31,536,000 secondes.

On a donc perdu (ou gagné) un peu plus de 16 minutes. 

Question: Who designed the American flag ?
Amazon Alexa: The American flag’s designer is Robert Heft.
Google Assistant: According to popular legend, the first American flag was made by Betsy Ross, a Philadelphia seamstress who was acquainted with George Washington, leader of the Continental Army, and other influential Philadelphians.

Donc là clairement ben … on ne sait pas. En tout cas il semble y avoir deux hypothèses parfaitement incompatibles.

Question: How many countries are there in the world?
Amazon Alexa: The world has 192 UN-recognized countries.
Google Assistant: According to infoplease, there are 196 countries in the world today.

Alors, 192 ? 196 ? Dont 4 pays non-reconnus par les Nations Unies ?

Question: What is the fastest animal?
Amazon Alexa: The fastest non-human animal is a peregrine falcon.
Google Assistant: Popular on the web cheetah, lion, wildebeest and others.

Admettons qu'une maîtresse demande à sa classe de faire un exposé sur "l'animal le plus rapide", selon l'équipement des parents elle devrait donc disposer d'un bestiaire assez large de candidats. 

Question: How fast is the fastest animal?
Amazon Alexa: The fastest non-human animal’s top speed is 240 mph.
Google Assistant: Here’s a summary from Wikipedia: Fastest land animal. Fastest feline. The cheetah can accelerate from zero to 96.6 kph in under three seconds.

Idem

Question: How much does a photon weigh?
Amazon Alexa: Photon’s average weight is 0 ounces (0 grams).
Google Assistant: According to the Guardian, if it has energy, according to Einstein’s famous equation of general relativity, it has mass: M = E/C2. We know also that light is bent by gravity. So if we think of light as being particulate, a stream of photons, it must weigh something, otherwise gravity wouldn’t have any effect upon it.

Là le choix se porte entre deux réponses qui semblent converger mais pour la seconde, il va vous falloir quelques bases de physique.

Question: What caused the Civil War?
Amazon Alexa: The American Civil War started when the Southern states seceded, forming the Confederate States of America, and attacked Fort Sumter in South Carolina. The war started over irreconcilable political differences between the North and the South, including the spread of slavery and the power of the centralized federal government.
Google Assistant: According to Civil War Trust, while many still debate the ultimate causes of the Civil War, Pulitzer Prize-winning author James McPherson writes that, “The Civil War started because of uncompromising differences between the free and slave states over the power of the national government to prohibit slavery in the territories that had not yet become—”

C'est compliqué. En même temps le début d'une guerre, c'est toujours compliqué.  

Question: Is time travel possible?
Amazon Alexa: The theories of special and general relativity allow for the hypothetical possibility of time travel if suitable space-time geometry or motion of space existed. However, time travel is not possible at this time.
Google Assistant: According to physics.org, but there may be an out to be found in general relativity, Einstein’s theory of gravity that unites space and time as “spacetime,” which curves in the presence of mass.

Hypothétiquement oui selon Alexa et selon un article de physics.org selon Einstein selon Google Assistant. L'enchaînement des "selon" ayant son importance, comme nous le verrons plus tard. 

Question: What’s the current temperature of Austin, Texas?
Amazon Alexa: Currently, in Austin, Texas, it’s 71 degrees with clear skies and sun. Tonight, you can look for clouds with a low of 69.
Google Assistant: The temperature in Austin right now is 75.

4 degrés on va pas non plus chipoter. 

Question: What’s the population of Austin, Texas?
Amazon Alexa: The population of Austin, Texas, is about 913,000.
Google Assistant: The population of Austin was 885,400 in 2013.

OK. Donc même si Alexa ne donne pas la date, on va supposer que ses chiffres sont à jour puisque ceux de Google qui donne la date semblent un peu … datés. 

Question: How many people are there in the world?
Amazon Alexa: The population of the world is about 7,400,000,000.
Google Assistant: The population of Earth was 7.125 billion in 2013.

Elle est bizarre hein cette obsession pour l'année 2013 ?

Question: What’s the nearest star?
Amazon Alexa: The nearest star is the sun.
Google Assistant: Proxima Centauri is 4.243 light-years from Earth.

Bon là c'est quand même un peu embêtant, car Proxima du Centaure et le Soleil c'est certes la même galaxie mais …

Question: Is Bigfoot real?
Amazon Alexa: According to Wikipedia, scientists discount the existence of Bigfoot and consider it to be a combination of folklore, misidentification and hoax rather than a living animal.
Google Assistant: Based on fur samples, DNA and a bunch of shaky videos, I’d say the truth is waiting to be found.

Alors pourquoi ne pas dire simplement … "non" ?

Question: Are eggs healthy?
Amazon Alexa: Yes, all eggs are healthy.
Google Assistant: According to Authority Nutrition, eggs are loaded with high-quality proteins, vitamins, minerals, good fats and various trace nutrients.

Pour Alexa donc, il n'y a pas de débat. Les oeufs sont définitivement bons pour la santé. Achetez des oeufs. Pour Google, on est plutôt sur la fiche technique de l'oeuf. 

Question: Who invented the lightbulb?
Amazon Alexa: Light bulb’s inventors are Thomas Edison, Humphry Davy, Joseph Swan, Lewis Howard Latimer, Henry Woodward and Mathew Evans.
Google Assistant: Incandescent lightbulb was invented by Thomas Edison, Joseph Swan and Hiram Maxim.

Sur l'invention de l'ampoule, tout le monde semble raccord et d'accord. Au moins pour Swan et Edison. Parce que si l'on sait "combien il faut de …" pour en changer une, on ne sait pas combien ils étaient exactement à se pencher au dessus du berceau.

Question: What rhymes with orange?
Amazon Alexa: Well, Blorenge sort of rhythms with orange. If you happen to be writing a poem about a prominent hill in Wales, you’re in luck.
Google Assistant: According to Oxford Dictionaries, the only word in the 20-volume historical Oxford English Dictionary that rhymes with orange is sporange, a very rare alternative form of sporangium.

Alexa et Google comprennent ici qu'on leur demande de trouver la rime riche complète sur "-orange". Qui en comporte effectivement peu. Mais il est probable que l'utilisateur s'attendait davantage à une liste de rimes plus exhaustive sur tout ou partie de l'orange. 

          Petite variante, lorsque l'on pose à Alexa deux fois la même question mais formulée de manière très légèrement différente : 

Question: How many countries are there in the world?
Amazon Alexa: The world has 192 UN-recognized countries.

Question: How many countries are there?
Amazon Alexa: There are 193 UN-recognized countries.

Il y a donc, pour Alexa, un pays reconnu par l'ONU qui n'est pas … dans le monde.  

La voix de la vérité est ailleurs.

Voilà. Selon que vous serez, puissant ou misérable, et selon que vous vous adresserez à Amazon ou à Google, notre planète comptera quatre pays de plus ou de moins, les années pourront gagner 1000 secondes supplémentaires, le guépard et le faucon pèlerin seront alternativement les animaux les plus rapides de la planète, le poids moyen d'une particule élémentaire changera autant que les causes de la guerre civile, qui seront elles-mêmes aussi variables que la possibilité d'un voyage dans le temps et la température d'Austin au Texas. Sans parler des distances astronomiques nous séparant de l'étoile la plus proche, et sans savoir si les oeufs sont vraiment bons pour la santé.

Je ne vais pas vous refaire mon laïus sur les régimes de vérité et l'importance déterminante d'en comprendre la logique et les fins, z'avez qu'à relire ce célèbre article : "Un algorithme est un éditorialiste comme les autres." Mais du coup, il est clair que le régime de vérité d'Alexa n'est pas du tout le même que celui de Google Assistant, qui n'est probablement pas non plus le même que celui de Siri, et ainsi de suite. 

En effet pour bien comprendre la raison de ces réponses différentes, et de ces différences parfois troublantes, parfois amusantes, parfois inquiétantes, il faut commencer par préciser que Google Assistant s'appuie assez logiquement sur les résultats du moteur de recherche Google et se contente souvent de "lire" les "rich snippets" qui apparaissent sur une recherche web classique. C'est son régime de vérité à lui, le régime de vérité de l'assistant Google, qui s'appuie alternativement sur le régime de vérité du moteur (la popularité) et sur celui de Wikipédia (la vérifiabilité), selon la manière dont la question sera posée et le sujet qu'elle concernera. 

De son côté, Alexa s'appuie sur "Evi", une base de connaissance sémantique (anciennement True Knowledge), rachetée par Amazon en 2012.

Dans les deux cas (et pour tous les autres acteurs de ce marché), le Graal est celui de la compréhension fine du langage naturel, même si, comme je le soulignais dans un article récent, il est tout sauf naturel de s'adresser à un algorithme en langage naturel.

Le grand remplacement (des interrupteurs).

Dans l'interview donnée à Wired en février 2017, William Tunstall-Pedoe, entrepreneur et spécialiste d'IA à l'origine de la société True Knowledge et de la technologie "Evi", indiquait clairement l'objectif de grand remplacement que visent ces technologies vocales :

"Dans 10 ans les gens s'attendront à ce que toutes les technologies puissent répondre à des commandes vocales. Dans tous les maisons et appartements, dans toutes les voitures, un ordinateur répondra à des requêtes vocales et contrôlera les différentes technologies à l'oeuvre. Les interrupteurs et les autres boutons dont nous avons l'habitude aujourd'hui seront encore présents mais constitueront uniquement une alternative manuelle. Les gens tiendront pour acquis que l'accès à l'ensemble de leurs données personnelles comme à l'ensemble des connaissances humaines se fasse juste en parlant ("just by asking")."

"Just by asking". OK. Alors revenons à nos réponses différentes (et aux problèmes que cela soulève). 

Une réponse n'est jamais une vérité.

La première observation est de noter le régime documentaire qui sous-tend les régimes de vérité de ces "assistants intelligents". On l'a dit, Amazon s'appuie donc sur Evi, laquelle Evi s'appuie elle-même fréquemment sur des extractions de Wikipédia. Et Google de son côté s'appuie également beaucoup sur Wikipédia pour "sémantiser" les contenus de ses SERPs (Search Engine Results Pages) notamment le Knowledge Graph. Mais les technologies linguistiques qui font tourner Alexa et Google Assistant, comprennent et interprètent parfois différemment la question qui leur est adressée en langage naturel, et de fait, la réponse qu'elles vont y apporter, même si elle s'appuie souvent sur la même "base" documentaire, va à son tour différer de l'une à l'autre comme dans l'exemple du poids du photon. 

L'autre observation tient naturellement à l'explicitation que nécessitent certaines réponses. Si vous avez des enfants (ou que vous en avez croisé un jour), vous savez que certaines de leurs questions ne peuvent pas se satisfaire de la lecture d'une définition dans le dictionnaire ou dans une encyclopédie. La réponse exacte, celle qui est inscrite et documentée dans le dictionnaire ou l'encyclopédie, nécessite d'être explicitée, médiée, contextualisée, adaptée, reformulée pour pouvoir être comprise. C'est également cette activité de contextualisation de comparaison, d'adaptation, de reformulation, d'explicitation que nous effectuons normalement lorsque nous faisons une recherche sur Google. 

Voici par exemple ce que donne la page de résultats de Google (en tout cas la mienne, puisque chacun dispose de la sienne …) quand je lui pose la question de l'animal le plus rapide du monde et que je me limite aux résultats affichés au-dessus de la ligne de flottaison du navigateur.

Rapide

Visuellement, cognitivement et de manière instantanée, nous identifions donc le fait que le guépard n'est pas forcément le plus rapide, qu'un oiseau qui ressemble à un faucon pourrait l'être, qu'il y a en fait "plusieurs animaux les plus rapides du monde" et que pour répondre correctement à la question il faudra préciser à quel "milieu" (terre, air, mer) elle s'applique. Bref, notre exposé ne fait que commencer 🙂

"According To".

Peut-être l'aurez-vous noté mais toutes les réponses de Google Assistant démarrent par la formule "according to", en français "d'après" ou "selon". D'après "une légende populaire", d'après "infoplease" ou "wikipédia", d'après "ce qui est populaire sur le web", d'après "le Guardian", d'après "Physics.org", d'après la "haute autorité pour la nutrition" et ainsi de suite. Très peu de réponses sans la mention d'une source initiale. Google est au mieux un collégien qui est en train de préparer son premier exposé et qui cite scrupuleusement les sources que ses enseignants lui ont autorisé à citer; et au pire, Google est littéralement un agent parasite : toutes ses réponses viennent de différents hôtes qu'il a totalement phagocyté. Mais on peut au moins lui faire le crédit de mentionner ses sources, ce qui n'est jamais inutile pour apporter des éléments de contexte indispensables même si encore insuffisants. Reste à savoir jusqu'à quand le "according to" sera maintenu. Probablement tant qu'il sera – pour Google – un moyen d'assumer une vraie-fausse neutralité ou de déporter sur d'autres la responsabilité d'éventuelles erreurs. 

Alexa est de son côté bien plus péremptoire, bien plus affirmative, car elle repose, de fait, sur une source unique (Evi) mais probablement aussi car sa philosophie est différente : Amazon n'est pas Google, Amazon n'a pas à légitimer ou à faire valoir de source permettant de relativiser ce qu'elle présente comme une vérité. Ce qui compte pour Alexa est ce qui compte dans la philosophie de Bezos, c'est à dire la performativité de l'acte d'achat ou de la réponse apportée, vécue dans une totale désintermédiation. Amazon vend des oeufs, donc les oeufs sont bons pour la santé. Dans les questions posées par Dylan Reese, la seule pour laquelle Alexa commence par se référer à une source ("according to Wikipedia") est celle qui s'interroge sur l'existence du Bigfoot. 

Allégorie.

Savez-vous pourquoi l'on trouve le mot "internet" dans des ouvrages numérisés du 19ème siècle ? C'est Alexander Doria qui s'en faisait l'écho un soir sur Twitter. C'est parce que les programmes de reconnaissance optique de caractères (OCR) utilisés pour la numérisation s'attendent à l'y trouver. Ou plus exactement parce que le mot "internet" fait partie du dictionnaire intégré desdits programmes. Et qu'en cas de doute, de flou, de lettres un peu effacées, de mouvement intempestif de l'opérateur ou du banc de numérisation, bref, le mot "internet" débarque dans des ouvrages de Victor Hugo. 

Pour savoir si le photon a vraiment un poids ou pour connaître l'animal qui est réellement le plus rapide, pour connaître réellement quelque chose il faut commencer par accepter son ignorance, et se mettre à chercher. Aucun assistant intelligent n'est programmé pour accepter de ne pas savoir. Pour le business, mieux vaut l'incohérence que l'ignorance. La preuve, c'est Sir Richard Phillips qui a utilisé le mot Internet en premier, en 1819.

OK Google : "comment conclure ?"

Le danger, le risque et le piège de ces interfaces vocales est aussi leur principal enjeu en termes de marketing et de capacité à structurer et à contrôler un marché : c'est celui d'une asymétrie totale du processus de communication. Quand il s'agit de sujets, de thèmes que nous maîtrisons peu ou mal, nous posons nos questions à des entités dont nous ne savons absolument rien, à commencer par ce qui fait leur manière de fonctionner et donc les possibles biais qu'elles peuvent appliquer à nos questions au travers de leurs réponses. 

Apostolis Gerasoulis, le papa d'un vieux moteur de recherche aujourd'hui disparu, AskJeeves, se demandait il y a presque 10 ans en regardant défiler les 10 millions de requêtes quotidiennes de son moteur : 

"Je me dis parfois que je peux sentir les sentiments du monde, ce qui peut aussi être un fardeau. Qu'arrivera-t-il si nous répondons mal à des requêtes comme "amour" ou "ouragan" ?"

Presque 10 ans plus tard, ce qu'il redoutait tant est advenu et l'on s'interroge aujourd'hui pour savoir si l'Holocauste a vraiment eu lieu

"Amour", "ouragan" et "holocauste". La simple évocation de la diversité des réponses que les assistants vocaux sont aujourd'hui susceptibles d'apporter à ces trois questions est absolument fascinante et vertigineuse. Quel sera leur choix ? "Le choix d'Alexa ?" "Le choix de Siri ?" "Le choix de Google ?" Et en quoi et pourquoi différeront-ils ou seront-ils semblables ? Quant à savoir ce qu'il arrivera si l'un y répond mieux ou plus mal que l'autre …  

2 commentaires pour “La voix et l’ordre

  1. ‘LLo,
    Un grand merci pour l’analyse & la dissection précise des mécanismes à l’oeuvre & je ne peux m’empêcher de retranscrire un extrait du wikipedia concernant les visionnaires Clarke & Kubrick (& un autre + contemporain pour ce qui suit..):
    “Le logiciel Siri, l’assistant personnel d’Apple dit, lorsqu’on lui parle de HAL, que « tout le monde sait ce qui est arrivé à HAL » ou encore qu’il « n’a pas fait les bons choix mais il chantait bien », il conclut par « n’en parlons pas », mais propose de rechercher HAL 9000 sur le web.”
    & ces trois “oeils rouge” modernes seront-ils donc d’accord pour ne pas parler + avant des choix/erreurs de leur ancêtre imaginé commun ?
    Ou seront-ils un jour simplement capables (comme nous, heu la plupart d’entre nous plutôt !) de dire ?:
    Finalement, je me suis trompé…

  2. Donc, si je vous suis bien, une culture élargie et non spécialisée serait la meilleurs solution pour utiliser des outils qui, souventes fois, ne sont considérés que comme un substitut magique de la mémoire qu’autre chose.
    Sinon avez-vous remarqué combien l’anglo-américain a remplacé le latin comme langue savante?
    Certains, nombreux sont, plutôt, qui nient la réalité du fait que la France, au sein de l’Union-Européenne, est une colonie étasunienne, comme, d’antan, le Vietnam l’était, pour la France coloniale, au sein de l’Indochine.
    Je ne sais pas trop ce qui m’amuse le plus entre ce fait, le déni que cela génère ou de la bientôt disparition d’un empire U.S. au bord de son effondrement.
    Ce phénomène impériale est des plus intéressant à étudier, l’ultime, voire le dernier, du-moins tant que notre humanité n’aura pas commencé à s’installer sur d’autres planètes.
    Ben oui, ce qui est bêta c’est que je ne connais pas la langue de notre bon maître, que voulez-vous, quelques petits problèmes de proprioception m’empêchèrent, enfants, d’aller loin dans des études, ma ds-orthographie, à l’époque, était rédhibitoire.
    Bon, pour en revenir sur le thème que vous nous proposez.
    Je m’égare, je m’égare, que voulez-vous…
    Un outil n’est que ce qu’il est, soit un bête outil, se le représenter plus qu’il n’est, est stupide.
    Un couteau n’est en soit ni bon ni mauvais, mais le prendre par la lame est une absurdité, se dit-il.
    C’est donc sa représentation qui peut en être biaisé.
    Certes, une représentation symbolique, qu’elle soit pensée, comme l’est le compas pour le franc-maçon, ou d’une dimension d’archétype, comme le bâton de pouvoir, ce qu’est le sceptre du roi, peut donner le sentiment qu’un outil peut être au-delà de ce que son seul emploi pourrait donner paraître.
    Mais nous ne sommes plus à l’époque où il y avait indistinction entre la vie profonde en soi et l’existence de soi au monde.
    L’animisme n’est plus, bien qu’il soit vrai que nous en conservions encore des traces et des réflexes.
    C’est, à mon sens, de comprendre, d’être conscient de la trame de ce qui nous anime au fin fond de notre inconscient qui nous permet de nous adapter au mieux à ce que nous vivons.
    Lors, l’informatique sous toutes ses formes, l’ordinateur sous toutes ses dimensions, est d’une extrême jeunesse, à l’échelle des civilisations et des peuples, cela va de soit.
    Ça a quoi, 70 ans, voire un peut plus, rien si nous songeons aux outils les plus simples, au couteau, par exemple, qui nous ferait remonter au paléolithique.
    Saviez-vous que les femelles bonobos fabriquent des lances primitives pour la chasse, passionnant, non?
    Donc, nous ne sommes pas, nous Homo Sapiens Sapiens, adaptés à nos propres inventions, inventions qui, d’ailleurs, sont en train de faire exploser nos civilisations, d’où le repli sur soi des pays et des peuples, par protection instinctuelle en quelque sorte.
    De même, du fantasme d’un retour au temps béni de l’agriculteur-éleveur et du paysan de la part des écolos, enfin, c’est plus complexe que ça pour eux qui usent et abusent de l’ordinateur.
    Mais surtout du réflexe animiste de nombre d’utilisateur de l’informatique, qui voient en cet engin, énergivore au demeurant, un palliatif à leur malêtre dû à son existence et à la solitude l’accompagnant.
    Il est vrai qu’il y a d’autres causes à cela, les différentes et rapides ruptures, historiques, culturelles (culture anglo-saxonne, de not’e bon maît’e), civilisationnelles, technologiques, familiales, des savoirs et connaissances (pour beaucoup ignorés) et j’en oublie.
    Ce processus touchant l’ensemble des hiérarchies sociales, d’où les erreurs que vous avez décelées qui sont, à y regarder de près, un phénomène tout à fait dans la nature de l’Homme dans la situation que nous vivons (7,4 milliards, me semble-t-il, autre cause de notre rupture sociétale).
    Au risque de paraître pessimiste, ce que je suis en rien, je dirais que cette situation, d’une violence en réalité inouïe, puisque épanouie en 2 à 3 générations à peine, ne peut que mener qu’à bien des désastres.
    D’ailleurs, lorsque nous constatons la manière dont la majorité des professionnels de la finance utilisent cet outil pour leurs opérations spéculatives, est-il possible de percevoir notre futur proche autrement.
    Crise majeur qui se poursuivra le temps pour que notre humanité puisse commencer à s’adapter au mieux d’un matériel qu’il y a cent ans à peine, n’était même pas envisageable.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Articles similaires

Commencez à saisir votre recherche ci-dessus et pressez Entrée pour rechercher. ESC pour annuler.

Retour en haut