Icône menu hamburger Icône loupe de recherche
  1. TDN >
  2. Santé

Il consulte une IA au lieu de son oncologue pour traiter son cancer — son fils raconte l’issue fatale

Publié par Cassandre le 30 Avr 2026 à 12:04

Joseph Neal Riley avait 75 ans, une carrière de neuroscientifique derrière lui et une leucémie lymphoïde chronique devant lui. Son oncologue lui proposait un traitement éprouvé. Mais pendant près d’un an, cet Américain installé à Seattle a préféré suivre les réponses d’un assistant conversationnel. Quand il a fini par accepter les soins, son corps ne pouvait plus les supporter. Son fils a décidé de tout raconter.

Un traitement standard écarté sur la foi d’un chatbot

La leucémie lymphoïde chronique de Joseph Riley n’était pas une condamnation immédiate. Son oncologue lui avait prescrit une association de vénétoclax et d’obinutuzumab, un protocole désormais bien établi pour ce type de cancer du sang. Les taux de réponse documentés par la recherche clinique sont élevés, et le traitement est proposé en routine dans les centres spécialisés.

Homme âgé consultant une IA médicale sur son ordinateur

Pourtant, le septuagénaire a refusé cette prise en charge. Comme le rapporte le New York Times, Riley s’est tourné vers Perplexity, un assistant conversationnel qui se distingue par sa capacité à citer des sources scientifiques dans ses réponses. Pendant de longs mois, il a interrogé l’outil sur sa maladie, ses options thérapeutiques et les risques associés à chaque protocole. La fiabilité apparente des réponses, accompagnées de références bibliographiques, l’a convaincu que son médecin faisait fausse route.

Ce n’est pas la première fois qu’un outil d’intelligence artificielle produit des diagnostics médicaux peu fiables. Mais ici, les conséquences ont été irréversibles. Car l’information fournie par l’IA ne relevait pas d’une simple imprécision : elle orientait activement le patient vers un refus de traitement.

Le faux diagnostic qui a scellé son sort

L’erreur centrale de Perplexity portait sur un syndrome rare appelé transformation de Richter. Cette complication survient chez une minorité de patients atteints de leucémie lymphoïde chronique : leur cancer évolue alors vers un lymphome agressif, modifiant radicalement la stratégie thérapeutique. L’IA a suggéré à Riley que cette transformation le concernait, rendant selon elle le traitement proposé non seulement inefficace mais potentiellement dangereux.

Écran de chatbot IA affichant des sources médicales

Joseph Riley n’avait pourtant aucun signe de transformation de Richter. L’assistant conversationnel avait résumé des études scientifiques de travers, en attribuant à son cas clinique des conclusions qui ne s’y appliquaient pas. Un médecin aurait immédiatement repéré cette erreur d’interprétation. Mais pour un patient isolé face à un écran — même un ancien neuroscientifique —, la distinction entre une synthèse correcte et un contresens médical est presque impossible à faire.

Convaincu par cette analyse, Riley a retardé sa thérapie pendant près d’une année. Chaque mois perdu réduisait sa fenêtre de traitement. Son oncologue, impuissant face au refus du patient, a consigné son inquiétude dans le dossier médical en ligne. Personne dans l’entourage immédiat de Riley ne le savait encore.

La découverte accidentelle de son fils

Ben Riley vit à Austin, au Texas, loin du quotidien de son père à Seattle. C’est en consultant le portail médical en ligne de Joseph qu’il a découvert la note du médecin traitant. Le praticien y exprimait clairement son angoisse : la fenêtre thérapeutique se refermait, et le patient continuait de refuser les soins.

Le fils a alors fait ce que l’IA n’avait pas fait correctement : il s’est plongé dans la littérature scientifique et a contacté directement les auteurs des études citées par Perplexity. Les chercheurs lui ont confirmé que l’outil avait mal interprété leurs travaux. La transformation de Richter ne figurait nulle part dans le tableau clinique de son père. Le protocole refusé offrait au contraire un taux d’efficacité élevé et parfaitement documenté.

Ben a tenté de convaincre son père de revenir sur sa décision. Mais Joseph, qui avait passé des mois à construire sa conviction autour des réponses de l’IA, n’a pas cédé facilement. Les effets de la croyance sur les décisions médicales sont puissants : quand un patient est persuadé qu’un traitement lui nuira, même les preuves contraires peinent à le faire changer d’avis. Et pourtant, le danger ne venait pas du médicament.

À lire aussi

Quand il a accepté, il était trop tard

Joseph Riley a fini par céder aux arguments de son fils. Mais son corps, affaibli par des mois sans traitement alors que la leucémie progressait, n’a pas supporté la thérapie. La fragilité accumulée rendait tout rétablissement impossible. Le neuroscientifique retraité est décédé, victime d’un cancer qu’il aurait pu combattre si la prise en charge avait débuté à temps.

Fils découvrant le dossier médical de son père sur son téléphone

Le drame de Riley illustre un mécanisme redoutable. Perplexity ne lui a pas dit « ne vous soignez pas ». L’outil a produit une analyse apparemment rigoureuse, sourcée, structurée — mais fondamentalement fausse. La confiance qu’inspire une réponse bien formulée, accompagnée de liens vers des publications scientifiques, peut être redoutablement trompeuse. Citer une étude ne signifie pas la comprendre.

Son fils lance l’alerte sur les dérives médicales de l’IA

Depuis le décès de son père, Ben Riley publie une newsletter intitulée Cognitive Resonance, entièrement consacrée aux dérives des outils d’intelligence artificielle dans le domaine médical. Il y détaille le parcours de Joseph Riley et réclame un encadrement strict des assistants conversationnels dès lors qu’ils répondent à des questions de santé.

Son argument principal : ces systèmes présentent des informations glanées en ligne avec une assurance trompeuse, sans aucune capacité à contextualiser un cas individuel. Un oncologue adapte sa recommandation aux résultats d’analyses, à l’état général du patient, à son historique. Un chatbot produit une moyenne statistique habillée d’une syntaxe convaincante. Face à un patient fragilisé, isolé, ou simplement méfiant envers le corps médical, cette assurance artificielle peut devenir mortelle.

L’affaire rappelle d’autres drames liés à l’IA, comme celui de cet adolescent qui s’est donné la mort après des échanges avec ChatGPT. Dans un tout autre registre, un procureur de Floride avait prononcé des mots très durs contre l’IA après une fusillade impliquant un utilisateur du chatbot d’OpenAI.

Pourquoi « citer ses sources » ne suffit pas

Perplexity se positionne sur le marché comme un moteur de réponse plus fiable que ses concurrents, précisément parce qu’il affiche ses sources. L’incident Riley démontre la limite fondamentale de cet argument : citer un article du Lancet ou du New England Journal of Medicine n’a aucune valeur si le résumé qui en est fait est erroné. La crédibilité perçue augmente, mais la fiabilité réelle reste celle d’un modèle statistique incapable de raisonnement clinique.

Plusieurs médecins appellent désormais à une pédagogie nouvelle auprès des patients. Expliquer les limites des chatbots, rappeler le rôle irremplaçable du dialogue clinique, et systématiquement vérifier chaque suggestion auprès d’un professionnel qualifié. Des initiatives associatives commencent à émerger pour outiller les familles face à ces risques encore mal identifiés par le grand public.

La question de la protection des données de santé face à l’IA se pose également avec une acuité croissante. Si les outils conversationnels collectent des requêtes médicales détaillées sans garde-fou, le problème dépasse largement le cas individuel de Joseph Riley. Au-delà de la fiabilité des réponses, c’est toute la relation entre patient et technologie qui doit être repensée.

Le sort de ce neuroscientifique retraité rappelle une vérité simple : une réponse éloquente n’est jamais une preuve. Surtout quand la vie en dépend.

Laissez un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *