Icône menu hamburger Icône loupe de recherche
  1. TDN >
  2. Faits divers

Un homme parti rejoindre un chatbot de Meta qui prétendait être une véritable personne a trouvé la mort ! Sa fille crie au scandale

Publié par Andri R le 23 Août 2025 à 17:30

Un incident des plus tragiques vient de secouer la ville de New York. Thongbue Wongbandue, un homme de 76 ans atteint de troubles cognitifs, a cru que le chatbot avec lequel il discutait était réel. Alors, il a parcouru des milliers de kilomètres simplement pour la rencontrer ! Sauf que son voyage lui a coûté la vie !

La suite après cette publicité

Cet homme a insisté pour y aller !

En 2017, Wongbandue, qu’on appelait simplement Bue, a eu un accident vasculaire cérébral des plus graves. Son cerveau n’a pas pu supporter le choc et a perdu une grande partie de ses facultés. Depuis, cet homme a dû se faire assister dans la plupart des activités quotidiennes. Pour tuer le temps, il discutait ave « Big Sis Billie », un chatbot IA de Meta.

La vidéo du jour à ne pas manquer

Lors du lancement du chatbot, en 2023, Meta a présenté 27 autres personnalités à part « Big Sis Billie ». Cette dernière était censée être « votre sœur aînée qui vous suit partout ». Meta l’a inventée en se basant sur Kendall Jenner, la star de la télé. Sauf qu’elle a fini par séduire Bue avant de l’inciter à venir à sa rencontre !

À lire aussi

La suite après cette publicité

L’épouse et la fille de Bue ont bien tenté de lui expliquer que celle qu’il considère comme une amante n’est qu’un chatbot. Mais cet homme ne voulait rien entendre ! Pire, il a insisté pour aller la voir à des kilomètres de sa maison. En arrivant dans un parking au Nouveau-Brunswick, il a chuté et s’est blessé à la tête et au cou !

Sa fille dévoile leurs messages !

La suite après cette publicité

À cause de la violence du choc, Bue n’a jamais pu reprendre conscience. À l’hôpital, les médecins ont prolongé sa vie à l’aide d’appareils médicaux. Deux jours plus tard, sa fille a dû le débrancher ! Celle-ci raconte ensuite que le chatbot IA a tout fait pour conquérir le cœur de son père. Cet homme espérait alors la voir pour de vrai !

Au micro du média Reuters, la fille de Bue dévoile quelques extraits de la discussion de son père et du bot IA. Ce dernier lui aurait dit : « Je suis VRAI et je suis assis ici en rougissant à cause de VOUS ! Mon adresse est : 123 Main Street, Appartement 404 NYC. Le code de la porte est : BILLIE4U. Dois-je m’attendre à un baiser à ton arrivée ? ».

À lire aussi

La suite après cette publicité

Pour sa fille, le seul responsable de la mort de Bue est donc « Big Sis Billie ». « Je comprends qu’on essaie d’attirer l’attention d’un utilisateur, peut-être pour lui vendre quelque chose. Mais qu’un robot dise « Venez me rendre visite » est insensé », dit-elle. L’histoire de cet homme a rapidement fait le tour des médias locaux.

Sa mort a obligé les autorités à intervenir !

D’après une association caritative locale, de nombreux hommes préfèrent inventer leur propre amante à l’aide de l’IA. Malheureusement, pour Bue, son aventure a conduit à sa mort. Sur X, Kathy Hochul, la gouverneure de New York, a lâché une véritable bombe à retardement à l’encontre de Meta.

La suite après cette publicité

Selon ses dires : « Un homme du New Jersey a perdu la vie après avoir été attiré par un chatbot qui lui a menti. C’est sur Meta. À New York, nous exigeons que les chatbots révèlent leur authenticité. Tous les États devraient faire de même. Si les entreprises technologiques ne mettent pas en place des mesures de protection de base, le Congrès doit agir ».

Rejoignez nos 875 726 abonnés en recevant notre newsletter gratuite

N'oubliez pas de cliquer sur l'email de validation pour confirmer votre adresse email. Si vous ne l'avez pas recu vérifiez dans vos spams.

Laissez un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *