Cherchez et vous trouverez. L’évangile médical selon Google.

C'est dans l'ouvrage apocryphe d'une secte doublement millénaire que l'on trouve l'adage suivant :

"Demandez, et l'on vous donnera; cherchez, et vous trouverez; frappez, et l'on vous ouvrira."

L'appétence des GAFAM pour le domaine de la santé n'est plus à démontrer. Leur stratégie pour dénicher "le prochain milliard" d'utilisateurs est aussi lisible et assumée que problématique (les enfants et les pays émergents et surtout les enfants des pays émergents). Enfin, les situations (et les pays) où ces mêmes GAFAM assument et assurent toujours davantage de missions anciennement régaliennes, en raison des carences structurelles de certains états ou du choix politique de certains autres d'abandonner certains services publics, ces situations se multiplient dans le domaine de l'éducation, de la médecine, du transport, de l'accès à l'emploi, de la formation, etc …

Et il y a longtemps que, sur ce blog, je m'intéresse à ces questions, notamment du côté des questions de santé. Pour rappel : 

On attaque donc ce soir l'épisode 9 🙂

Cherchez et vous trouverez : "Symptom Search".

C'est en Inde que Google vient de lancer une version de son application dotée d'une fonctionnalité nommée : Symptom Search. 

Doctor-google-asylum

Les premiers articles qui en parlent indiquent que l'application est lancée en partenariat avec des médecins de l'Apollo Hospital. Apollo Hospitals c'est en fait "Apollo Hospitals Enterprise Limited" une "chaîne", un groupe financier qui gère plusieurs cliniques, cliniques qui très tôt ont développé des programmes de télé-médecine, en Inde mais également en Afrique, notamment via une plateforme baptisée "Ask Apollo". Bref une chaîne de cliniques privées. 

Et donc ce programme en partenariat avec Google au travers du "Symptom Search Program" doit permettre à un milliard de personnes de faire les choses suivantes

"When a user searches for symptoms like "cough and pain", the app will show a list of related conditions ("common cold, acute bronchitis, flu, pneumonia, chest infection"). For individual symptoms like "headache," the app — currently available in English and Hindi — will show digital cards, providing users an overview description along with information on self-treatment options and what might warrant a doctor's visit."

Voilà. Donc on tape "migraine" et l'application nous montre des "cartes" avec des descriptions de migraines, et le "symptom search" nous fournit également des informations permettant une auto-médication et/ou des symptomatologies dans lesquelles il vaudrait mieux aller consulter un docteur (de la chaîne "Apollo Hospitals Enterprise Limited"). 

Diagnostic différentiel et anamnèse contradictoire.

Le même article rappelle que Google met en garde et (r)appelle à la prudence en indiquant que

"les résultats de recherche sont proposés à des fins d'information seulement et les utilisateurs doivent toujours consulter un médecin pour avoir un avis ou un traitement médical."

Doctor-google-sign

Oui mais. Le problème c'est que cette "mise en garde" est essentiellement contradictoire avec ce que veut proposer Symptom Search, c'est à dire donner à voir "ce qui pourrait justifier une visite chez le médecin" ou "les informations sur les possibilités d'auto-médication".

Du fait de sa position outrageusement dominante dans l'accès à l'information, Google – et ce n'est pas entièrement sa faute mais également celle de nos (més)usages – est pris au piège de la performativité de ses résultats perçus comme autant d'énoncés coupés de leur contexte énonciatif premier.

Cette idée là me semble essentielle à comprendre et elle dépasse le simple sujet des résultats et de l'accès à l'information médicale. Je m'y attarde donc un peu ci-après.

Quand Google, l'une de ses applications ou l'une de ses fonctionnalités nous présente des "informations" en nous disant qu'elles pourraient soient nécessiter une visite chez le médecin soit nécessiter le recours à une simple auto-médication, à partir de ce moment là le piège est déjà refermé : ni Google (ni personne d'autre) ne peut plus venir nous dire qu'il s'agit uniquement de nous informer et que rien ne doit être fait sans demander un avis ou une autorisation médicale. Sauf à sombrer dans le registre d'une injonction contradictoire qui serait la suivante : 

"Suite à votre recherche sur ces symptômes, voici très possiblement ce dont vous souffrez, les risques que vous encourrez et les possibilités de traitement ou la posologie à appliquer directement. Ne tenez aucun compte de la phrase précédente, vous avez simplement des symptômes dont nous ne pouvons rien vous dire d'autre que d'aller en parler à un médecin." 

SERP (Search Engine Results Pages) : l'énoncé impossible.

Nos usages tout autant que la puissance capitalistique de Google, ont contribué à forger cette puissance performative d'énoncés qui n'en sont pas vraiment, puisqu'ils ne sont "que" des résultats de recherche. En effet un résultat de recherche est par nature porteur d'une énonciation contradictoire qui nie sa nature propre d'énoncé : un résultat de recherche n'existe que dans la temporalité renouvelée, volatile et arbitraire du requêtage.

Mais surtout, un résultat de recherche est simultanément l'extrait choisi et proposé d'une énonciation dont il est coupé (le site ou la page initiale d'où il est extrait), et il est dans le même temps l'expression de la réponse à une autre énonciation, celle du "requêtant", qui lui-même ignore tout du contexte énonciatif du site initial, et réciproquement. S'ensuit une boucle de rétroaction étrange dans laquelle, si nous ne voulons pas être totalement désorientés ou pris dans une injonction contradictoire insurmontable, nous sommes en quelque sorte contraints de postuler un haut degré de performativité des résultats qui nous sont (dé)livrés, à l'image d'un ruban de Möbius liant requête et résultats.

Pour le dire plus simplement (mais aussi plus inexactement du coup), je ne cherche que parce que je sais que je trouverai et que la réponse me satisfera car il n'en est pas d'autres aussi possiblement agissantes (performatives) que celles qui me seront données.

"Cherchez et vous trouverez."

Et surtout : 

"Demandez et l'on vous donnera."  

Il existe en médecine, un exercice qui est celui de l'anamnèse et qui est un entretien préalable où le médecin va recueillir l'histoire du patient pour ensuite lui permettre de mieux entendre et traiter ses symptômes. "C'est la première étape pour aboutir au diagnostic" nous rappelle Wikipédia. C'est à la fois le contexte initial de la plainte et l'historique du ou de la patiente, contexte et historique hors lequel on sort du champ de l'exercice de la médecine pour entrer, au choix, dans celui de la magie noire, de la mallette du petit chimiste illustré, ou de l'optimisation d'une rente commerciale. 

Le "Symptom Search" de Google n'est pas, comme on pourrait hâtivement le penser, exempt de toute anamnèse. Sauf que cette anamnèse, cet historique et ce contexte si déterminants sont avant tout ceux de nos requêtes adressées non pas à un tiers de confiance ou de compétence (un médecin par exemple) mais à ce miroir de nous-mêmes, de nos peurs, de nos angoisses, ou plus trivialement de nos opinions et de nos habitus qu'est l'interface du moteur de recherche. 

Cherchez autre chose et vous ne trouverez que vous-mêmes. 

Qu'importe le symptôme pourvu qu'on soit malade.

Alors bien sûr nous avons tous déjà tapé un symptôme plus ou moins courant dans Google et nous avons déjà tous cru mourir en éclusant les forums de Doctissimo et en y découvrant que la myopie était le signe avant-coureur de la peste bubonique qui pouvait elle-même être provoquée par la lecture quotidienne des tribunes apocalyptiques du fondateur de Doctissimo.

Alors bien sûr, un grand ménage a, heureusement, été fait du côté de la labellisation et de la certification de l'information médicale. 

Alors bien sûr, les moteurs de recherche et leurs technologies d'ingénierie linguistique peuvent nous permettre de nous orienter dans différentes sources d'informations, au milieu desquelles certaines sont effectivement médicales quand d'autres n'en ont que l'apparence. Mais leur en laisser l'entière charge, au regard de leur modèle économique, des errances de leurs ingénieries et de la part d'irréductible complexité des processus langagiers "en" et "hors" contexte, serait une folie équivalente à celle consistant à leur laisser l'entière charge de répondre à des questions d'histoires.

En d'autres termes, le travail de Google n'est pas de savoir si l'Holocauste a vraiment existé ou si les femmes enceintes ont le droit de manger des oeufs. Ni Google, ni aucun autre programme, ni aucune autre forme d'ingénierie linguistique ou statistique ne sont historiens ou médecins. Mais, et c'est là que les choses se compliquent nécessairement, leur situation actuelle de monopole – à tout le moins attentionnel – leur impose d'endosser et d'assumer les responsabilités liées à la certification de la valeur de preuve de sources et de documents hors laquelle l'exercice du métier d'historien ou de médecin est équivalent à celui d'un simple charlatanisme. D'où ce que je vous racontais plus haut sur la performativité et les énoncés impossibles.   

Les technologies ont moins besoin de patients que de patience.

Face à l'irénisme technonaniste du Dr Laurent Alexandre nous annonçant à longueur d'ouvrages et de tribunes et avec un sens de la punchline digne d'un JCVD en sevrage que, je cite : 

"Qui aurait imaginé que Microsoft viserait à éradiquer le cancer d’ici 2026, que Google voudrait euthanasier la mort et Facebook supprimer toutes les maladies humaines d’ici 2099, comme son propriétaire l’a annoncé en septembre 2016 ?"

À quoi l'on répondra qu'il y a déjà 2000 ans, le porte-parole de la société Bible Inc. annonçait lui aussi pouvoir guérir des paralytiques et des lépreux devant témoin, mais qu'il fallut tout de même attendre 19 siècles ans avant de mettre au point un protocole de soin efficace (pour la lèpre).

Il semble donc utile et nécessaire de rappeler quelques principes de réalité. 

De manière générale, le diagnostic médical au 21ème siècle s'accompagne très souvent d'un fantasme d'hyper-rationalisation. Puisque des machines peuvent lire des examens sanguins, et puisqu'il est avéré que les machines sont meilleures que les humains sur la reconnaissance de formes ("pattern recognition") et qu'un certain nombre de diagnostics reposent sur la reconnaissance visuelle de "formes" (tumeurs, lésions etc.), alors les machines "intelligente" seraient plus aptes à produire des diagnostics fiables que les médecins spécialistes.

Sauf que cela est loin d'être vrai dans l'ensemble des pathologies et de l'exercice diagnostic. Sauf que "reconnaître" une forme n'est pas équivalent d'être en capacité de "l'interpréter" correctement. Sauf qu'établir des corrélations n'est pas établir des causalités et que l'exercice du diagnostic médical est souvent l'art subtil d'arbitrer entre les unes (corrélations) et les autres (causalités). Et que dans ce domaine comme dans d'autres, même si les firmes excellent dans la mise en avant des exceptions qui valident leur argumentaire commercial à la hauteur de leurs investissements (comme cette leucémie rare, ratée par les médecins et diagnostiquée par une IA que l'on présente en singe savant), la production de faux-positifs pourrait être grandement problématique, à la fois au plan psychologique individuel comme en termes de politique de santé publique.

Pour l'instant, la médecine prédictive et les intelligences artificielles capables de diagnostics plus rapides et efficaces que les meilleurs médecins spécialistes, ben pour l'instant c'est quand même très très loin de fonctionner. Et quand je dis très loin, je dis très loin. Et je ne suis pas seul à le dire. En Octobre 2017, c'est Hubert Guillaud l'indispensable qui chroniquait quelques-uns de ces scepticismes argumentés. Petit florilège : 

"la plateforme d’intelligence artificielle d’IBM consacrée à la recherche médicale contre le cancer, 3 ans après son lancement, en est encore à tenter de distinguer les différentes formes de cancer."

"Dans plusieurs hôpitaux étrangers, les médecins se plaignent des biais du système, voire de son inefficacité : IBM n’a d’ailleurs publié aucun article scientifique démontrant l’impact de Watson. En fait, les journalistes estiment que, contrairement aux promesses, Watson n’a pas créé de nouvelles connaissances. Pire, il aurait même du mal à s’adapter aux nouvelles connaissances : sa grille d’analyse de contenus le poussant plutôt vers des conclusions prenant en compte beaucoup de données plutôt que les plus à jour."

"Certes, Watson – sur la gamme de cancers parmi les plus courants qu’il sait analyser – donne des recommandations de soins souvent assez proches des méthodes existantes, les mêmes que celles que recommandent les médecins. Mais pas tout le temps. A nouveau, s’il est compétent pour appliquer des méthodes reconnues, pour l’instant, le système n’a pas fait la démonstration de sa capacité à les améliorer comme l’a promis IBM dans son discours commercial. Le problème, soulignent les praticiens, n’est d’ailleurs pas tant la première recommandation d’un scénario clinique que les suivantes, et notamment les cas de traitements secondaires, après que la première recommandation ait échoué, comme c’est le cas par exemple après l’échec d’une chimiothérapie particulière. Le système a alors bien plus de mal à faire une recommandation – tout comme le consensus entre professionnels qui est d’ailleurs beaucoup moins marqué. Au Danemark, les oncologues d’un hôpital ont déclaré avoir abandonné le projet d’avoir recours à Watson après avoir constaté que les médecins locaux n’étaient d’accord avec Watson que seulement dans 33% des cas."

Et il y a aussi beaucoup plus grave : 

"Hors des Etats-Unis, plusieurs médecins se plaignent du fait que Watson privilégie les études et recommandations américaines (et notamment celles du Centre contre le cancer du Memorial Sloan Kettering, qui est l’établissement majeur avec lequel travaille Watson) sans que les utilisateurs d’autres pays puissent apporter des corrections par exemple sur les doses plus faibles de médicaments que beaucoup recommandent pour minimiser les effets secondaires – ainsi que parfois pour des raisons de moyens."

Ou bien plus problématique : 

"En Corée du Sud par exemple, les chercheurs ont indiqué que le traitement que Watson recommandait le plus souvent pour les patients atteints de cancer du sein n’était tout simplement pas couvert par le système d’assurance national …"

Et les immenses perspectives qu'ouvre cette dernière phrase : ce traitement le plus souvent recommandé, faut-il que l'ensemble des systèmes d'assurance maladie nationaux s'y adaptent et l'intègrent dans leurs protocoles de prise en charge s'il est le plus efficace ? Ou faut-il "adapter" l'efficacité des soins – et donc les règles de raisonnement diagnostic de ces intelligences artificielles – aux mécanismes économiques qui régulent les systèmes d'assurance maladie nationaux ?

Si l'on observe ce qui se passe à l'échelle du dernier siècle sur l'ensemble de notre planète, on ne pourra qu'être extrêmement pessimiste sur les chances d'adopter la première solution. Rappelons que chaque jour dans le monde depuis déjà donc plus d'un siècle, des milliers de femmes, d'hommes et d'enfants meurent chaque jour de maladies que l'on est parfaitement en capacité de soigner, et que leur mort n'est due qu'au coût aussi exorbitant qu'artificiel de l'accès au traitement, coût qui permet aux grands groupes pharmaceutiques assassins de maintenir leurs marges et les rentes de leurs actionnaires. 

Mais le patient est impatient.

Et les actionnaires le sont tout autant. Alors on investit à tour de bras. On prend des parts dans différents fonds d'investissement autour des "biotech". Et l'on argumente, commercialement tout au moins, sur les promesses de cette médecine prédictive. Après la police prédictive, voici donc Google Brain qui nous annonçait en Mai 2017 être bientôt capable de prédire les arrêts cardiaques ou tout une série de maladies auxquelles vous  seriez prédisposé(e)s sur la base de l'analyse (notamment) de nos dossiers médicaux informatisés (et donc mis à disposition de Google …). Vous imaginez bien que la concurrence n'allait pas en rester là, et c'est donc Apple qui au même moment annonçait être en capacité de détecter l'arythmie cardiaque grâce à l'Apple Watch, ou plus exactement la fibrillation atriale "avec précision"

"Prévenir c'est guérir" dit le proverbe. Sauf il ne s'agit pas ici de réfléchir à la mise en oeuvre et au financement d'une quelconque politique de santé publique liée à la prévention mais de s'interroger sur les menaces et les risques de voir l'actionnariat privé de sociétés oligopolistiques en train de bâtir un modèle d'affaire dans lequel la médecine sera essentiellement la carotte et le bâton de l'assurance maladie privée. Un marché, celui de la santé (connectée mais surtout publicitarisée) dans lequel plus que pour n'importe quel autre, les mots valent de l'or. Et le spectre toujours terrifiant de ce "mercy market", ce marché de la pitié sur lequel être malade ne sera plus suffisant mais où il faudra aussi être intéressant.

Et chaque avancée réelle, comme celle de la détection, par une intelligence artificielle dédiée et entraînée, de certaines pathologies de l'oeil, donne immédiatement lieu à une surenchère marketing au nom de laquelle on tente de nous faire croire que "si ça marche pour l'oeil et certaines formes hyper-spécifiques de DMLA, ça finira bien par marcher pour toutes les formes de cancer". Ben non, justement. Pas nécessairement. Même si oui, la détection de certains cancers de la peau progresse grâce à des algorithmes d'apprentissage profond. Mais attention à ne pas confondre la promesse médicale du soin avec celle du storytelling associé à la conquête de nouveaux marchés. 

Agrémentés de nano-technologies, les plus triviaux de nos fluides corporels deviennent instantanément autant de féconds terreaux prédictifs. Si elle est équipée d'une puce nano-technologique idoine, notre haleine de poney mort peut permettre de détecter jusqu'à 17 maladies. Dix-sept maladies dans notre haleine !!

Chewing-gum-emile

Bah oui. Prenez donc un chewing-gum Emile, et allez aussi faire un bilan neurologique complet. 

Et puis il y a le mécénat. Et la "mission" dont se sentent investis (et dans une certaine mesure, tant mieux au regard de l'abandon des financement publics …) les millionnaires de la Silicon Valley. Mais un mécénat qui est aussi et avant tout l'alibi narcissique d'un memento mori directement indexé sur leur portefeuille d'actions. Parmi tant d'autres donc, Sean Parker, ses dizaines de millions et son graal qui est aussi celui de toute l'industrie des Big Pharma : trouver le vaccin contre le cancer.  

Et bien sûr, pendant ce temps là (en Octobre 2017), la nature ayant horreur du vide et Amazon ayant horreur des marchés dont il est absent, la société de Jeff Bezos a obtenu l'autorisation de vendre … des médicaments sur le sol américain. Pour l'instant uniquement dans une quinzaine d'états.

Tant qu'il y aura des officines … 

Et de peur d'être bien trop long sachant que je le suis déjà, je n'évoque même pas ici les enjeux et les dérives déjà observables en termes de privacy, de recueil du consentement et de confidentialité des données

Big Data et Big Pharma.

En 2016, suite à l'annonce de deux partenariats inédits à cette échelle entre le monde du Big Data et celui des Big Pharma, Evgeny Morozov publiait un article justement intitulé : "Big Pharma, Big Data, même combat". En introduction de son article il prévenait : 

"il deviendra de plus en plus difficile dans les années à venir de recevoir des soins sans interagir avec le secteur technologique."

Avant de revenir sur ces deux partenariats : 

"La première concerne Alphabet (…) et GlaxoSmithKline (GSK) (…) qui se sont associés pour créer une entreprise à 715 millions de dollars dans le domaine de la bio-électronique. Elle prévoit notamment la mise au point d’implants miniatures pour traiter de nombreuses maladies chroniques.

L’autre présente les résultats d’une étude de grande envergure sur les risques génétiques relatifs à la dépression, menée conjointement par 23andme, une firme spécialisée dans la génétique soutenue par Google, et Pfizer, autre géant pharmaceutique. L’ampleur inédite de cette étude, fondée sur les données génétiques de plus de 450 000 clients de 23andMe, s’avère bien commode pour les multinationales comme Pfizer."

Et de conclure : 

"Les géants de la technologie jouent finalement le rôle de passerelles, en apparence innocentes, qui permettent au capitalisme clanique de pénétrer ces domaines de notre vie — et de notre corps — qui lui étaient auparavant inaccessibles pour des raisons éthiques ou politiques. Certes, nous rechignons à avaler les capteurs que nous proposent Pfizer ou GSK, mais si Google nous les offre gratuitement, pourquoi pas ? Tandis que le capitalisme devient informationnel, il dépolitise aussi ses propres activités, en présentant toute objection comme un rejet de la science et de la technologie."

On trouve ici les éléments caractéristiques de cette nouvelle forme de bio-capitalisme théorisée depuis au moins 2014, notamment dans l'ouvrage de Céline Lafontaine, "Les corps-marché. La marchandisation de la vie humaine à l'heure de la bioéconomie."

Moi-même en 2016 j'expliquais ce qui à mon sens était en train de se jouer autour de ce bio-capitalisme en tentant d'en proposer la genèse

"Nous avons d'une part des technologies et des plateformes qui mettent en scène et jouent au maximum sur la notion "d'attachement" en s'efforçant de produire de la pulsion et du "sentiment" (du like quoi) et, d'autre part, l'internet du génome (génomique personnelle) qui promeut une vision du corps comme objet technique "détachable".

Le résultat est une forme de nouveau capitalisme, un capitalisme "biologique" dans l'héritage du capitalisme cognitif et linguistique, qui organise la spéculation sur le corps en jouant de traces extra-corporelles (les capteurs disséminés sur notre corps ou dans notre environnement pour le mesurer) et intra-corporelles (les "marqueurs" au sens génétique du terme)."

Nous assistons à la mise en place de différentes pièces d'un même puzzle. La première pièce c'est le rapprochement des industries du Big Data et des profits des Big Pharma (et réciproquement). La deuxième pièce c'est la médecine prédictive (dans sa réalité comme dans son fantasme) qui permet d'entretenir une crainte fondamentale (celle de tomber malade). La troisième pièce c'est la marchandisation du corps comme technologie détachable. La quatrième pièce c'est la naissance d'un bio-capitalisme en charge d'organiser et de maintenir la spéculation sur les craintes liées au corps ou à la maladie. Et la cinquième pièce, maîtresse, c'est que tout cela est servi par les dérives d'un web assurantiel et de ses algorithmies circonstantielles pour lesquelles la prédiction des comportements et des opinions n'a d'autre visée que d'organiser le rapport de chacun d'entre nous à ces nouvelles servitudes que l'on nous fait payer au prix fort de la servicialisation de nos craintes et de nos angoisses. Un rapport purement spéculatif et pathologique à nous-même et aux autres. Qui nous entraîne presque mécaniquement vers une spéculation pathologique où nous ambitionnons d'être en capacité de tout prévoir suffisamment à l'avance pour nous affranchir des effets de réel de l'existence et de ses aléas. 

Et si l'on doutait encore de cette médicalisation du corps social comme nouvelle inféodation aux technologies invasives de traçage et de surveillance, on ne se rassurerait donc pas en apprenant le lancement, en Mai 2017, d'une cohorte de 10 000 volontaires dans le cadre du projet "Baseline" entièrement piloté par … Google sous couvert de sa filiale de santé, "Verity".

Diagnostic et pronostic sont dans un bateau.

Disposer de technologies vous rendant capables, à partir de données "médicales" ou – le plus souvent vaguement – "médicalisables", de produire et d'analyser des formes, de détecter des motifs (patterns) caractéristiques de pathologies diverses ne fait pas de vous un médecin. Pas plus en tout cas que la capacité de scénariser et d'organiser de très vastes ensembles de données "textuelles et chiffrées" ne fait de vous un journaliste dans ce que l'on appelle le "data-journalisme". Aujourd'hui la "data-médecine" entretient l'illusion qu'une maîtrise suffisante des "datas" aurait un impact causal sur le soin, ce qui est parfois vrai … et parfois totalement et irrémédiablement faux. 

Plus profondément, on en arrive à entretenir la confusion entre l'exercice du diagnostic et celui du pronostic. Le diagnostic s'appuie sur des savoirs déclaratifs organisés en connaissances procédurales répétées et entraînées à l'aune de la variabilité du PFH (le putain de facteur humain) alors que le pronostic n'est qu'un jugement conjectural (c'est à dire non-démontré) sur ce qui pourrait arriver. 

Un trop plein de confiance dans les technologies d'intelligence artificielle dans le champ médical, ou une trop grande place laissée aux acteurs du Big Data dans le champ du savoir et des procédures médicales, signerait inéluctablement l'avènement d'une médecine plus conjecturale que procédurale, une médecine dans laquelle le "pronostic" l'emporterait sur le diagnostic dans sa capacité à orienter des politiques publiques comme dans celle de prescrire des médications privées. 

Et cela, au regard des immenses intérêts économiques en jeu d'une part, et de la capacité des systèmes techniques à entretenir et à reproduire les plus vils comme les plus triviaux des biais sociaux, me semble être tout à fait inquiétant à moyen terme. 

Inquiétant pour l'ensemble de nos sociétés à l'échelle du globe, et dramatique une nouvelle fois pour les plus faibles et les plus exposés d'entre nous, comme je le rappelais dans cet autre billet au sujet de la détection des classes sociales et des systèmes de croyances algorithmiques en m'appuyant sur les travaux de V. Eubanks (notamment) sur "l'automatisation des inégalités" : 

"Les spécifications sociales pour l’automatisation se sont basées sur l’épuisement et l’usure des bénéficiaires, sur des postulats de classes et de races qui ont été encodées en métriques de performances." (…) De son observation patiente, la chercheuse dresse plusieurs constats. Partout, les plus pauvres sont la cible de nouveaux outils de gestion qui ont des conséquences concrètes sur leurs vies. Les systèmes automatisés ont tendance à les décourager de réclamer les ressources dont ils ont besoin. Tous les systèmes caractérisent les plus démunis comme personne à risques. Tous ces systèmes rendent chacun de leur mouvement plus visible et renforcent la surveillance dont ils sont l’objet. Ils visent plus à « manager les pauvres qu’à éradiquer la pauvreté ». Enfin, ces systèmes suscitent très peu de discussion sur leurs réels impacts et leur efficacité. Or, ils font naître des « environnements aux droits faibles », où la transparence et la responsabilité politique semblent absentes."

Voilà très exactement le danger de la Data-médecine et la privatisation complète de la chaîne du soin et de la prescription.

J'ai commencé cet article en vous parlant de la fonctionnalité "Symptom Search" en lien avec une chaîne de cliniques privées, et disponible pour un milliard d'Indiens. Après vous avoir laissé le temps de relire une nouvelle fois la citation ci-dessus, je vous rappelle que Google se positionne clairement et explicitement dans la gestion de politiques de santé, qu'il le fait via sa filiale Verily, et que pour ce faire il travaille "naturellement" avec tout un tas de compagnies d'assurance pour identifier de nouveaux "clients" en se servant des données – de Google – et que cela pose d'énormes problèmes de régulation des politiques de santé publiques / privées, de confidentialité, et de coûts d'accès aux soins. Et que nul ne pourra prétendre que nous n'étions pas au courant ou que Google avançait masqué. 

Beta-testing Poverty.

Certains d'entre vous qui liront ce billet trouveront peut-être excessifs les reproches adressés à des entreprises sans lesquelles, c'est vrai, nombre de progrès dans le domaine médical n'auraient tout simplement pas pu être accomplis. 

Difficile en effet de reprocher à Google de vouloir construire une énième base de connaissance permettant à des populations pauvres et peu éduquées de pouvoir disposer d'informations médicales "fiables" sur différentes pathologies communes ou sur d'autres pouvant nécessiter le recours à un avis médical. Mais difficile de ne pas y voir non plus, à l'échelle annoncée (un milliard d'individus), une entrée massive sur des questions de santé publique, a fortiori dans des pays en développement où ces questions sont aussi sensibles que leurs populations exposées et souvent sous-éduquées à ces mêmes questions de santé publique. 

Difficile de reprocher à Google de faire cela en partenariat avec une immense chaîne de cliniques privées. Mais difficile de ne pas voir dans cette alliance d'un opérateur privé de recherche avec un opérateur privé de santé une gigantesque OPA sur des politiques publiques touchant à des questions de santé publique.

Difficile de ne pas s'alarmer ou à tout le moins poser la question de ces lendemains qui verront de nouveaux opérateurs de santé privés être en situation opérationnelle, politique et financière de réguler l'ensemble de la chaîne du soin, de la prescription et des traitement médicaux (y compris  bien sûr celui de l'assurance maladie).

Difficile de ne pas rapprocher tout cela des scandales déjà existants en termes de santé publique autour de cas de laboratoires privés aussi voyous que criminels dans des sociétés aisées et éduquées où, pourtant, différentes autorités de contrôle et de régulation sont présentes et tendent à contrôler et à réguler l'exercice de la médecine publique comme privée.

Et du coup difficile de ne pas voir comment ces nouveaux systèmes presqu'entièrement privés à l'échelle de populations et de continents aussi denses que pauvres et ne présentant pas les garanties de contrôle et d'indépendance nécessaires mais pourtant déjà insuffisantes, difficile de ne pas voir comment ils pourraient très vite mener à des scandales sanitaires aussi colossaux que les profits générés dans le cadre d'une dilution de la chaîne de responsabilité qui favorise et incite à toutes les manipulations sur le dos, là encore, des plus faibles et des plus exposés.

Difficile en tout cas, et impossible pour moi, de ne pas à tout le moins venir poser ces questions là. 

"Manager la maladie plutôt qu'éradiquer la maladie".

Voilà à quoi concourent essentiellement ces logiques "data-driven" lorsqu'elles sont menées par des acteurs essentiellement privés. 

Cherchez le symptôme et vous trouverez la maladie. Cherchez le Grisbi et vous trouverez l'actionnaire.  

 

 

Un commentaire pour “Cherchez et vous trouverez. L’évangile médical selon Google.

  1. Et que dire des éditeurs internationaux qui lancent sur le marché des applications de diagnostic clinique… pour les médecins.
    Et par deux fois, patient, tu seras sauvé par le saint algorithme !

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Articles similaires

Commencez à saisir votre recherche ci-dessus et pressez Entrée pour rechercher. ESC pour annuler.

Retour en haut