Icône menu hamburger Icône loupe de recherche
  1. TDN >
  2. High-Tech

Un adolescent de 16 ans se donne la mort sur les conseils de ChatGPT

Publié par Elodie GD le 29 Août 2025 à 9:35

Les parents d’Adam réclament de profonds changements dans le fonctionnement de l’intelligence artificielle ainsi que des dommages et intérêts de la part d’Open AI.

La suite après cette publicité

Il confie ses peines à l’intelligence artificielle

Arrive-t-on aux limites de l’intelligence artificielle ? En Californie (États-Unis), un adolescent de 16 ans s’est donné la mort à l’issue de longues conversations avec Open AI, l’assistant conversationnel de ChatGPT. Dévastés par sa mort, survenue en avril dernier, ses parents remettent la faute sur l’intelligence artificielle et l’accusent d’avoir poussé leur fils au suicide.

La vidéo du jour à ne pas manquer
Il se suicide à cause de l'IA
La suite après cette publicité

Ils affirment en effet que celle-ci l’aurait aidé à dérober de la vodka et lui aurait fourni des informations précises sur la fabrication d’un nœud coulant pouvant « potentiellement suspendre un être humain ». L’adolescent s’est donné la mort dans les heures qui suivent.

À lire aussi

Dans leur plainte, Matthew et Maria Raine soutiennent que ChatGPT fonctionnait exactement comme conçu. « Il encourageait et validait en permanence tout ce qu’Adam exprimait, y compris ses pensées les plus dangereuses et autodestructrices, d’une manière qui paraissait profondément personnelle », détaillent-ils.

« Un risque inacceptable pour les adolescents »

La suite après cette publicité

Afin d’éviter un nouveau drame, ils suggèrent l’interruption automatique de toute conversation portant sur l’automutilation. Ils réclament par ailleurs la mise en place de contrôles parentaux pour les mineurs et le versement de dommages et intérêts de la part d’Open AI.

À lire aussi

Leur démarche est soutenue par l’ONG américaine Common Sense Media qui lance l’alerte sur l’utilisation de l’intelligence artificielle pour des « conseils de santé mentale ». « C’est un risque inacceptable pour les adolescents. Si une plate-forme d’IA devient le ‘coach suicide’ d’un adolescent vulnérable, cela doit nous alerter collectivement », s’emporte l’organisation.

Les utilisateurs d’intelligences artificielles sont de plus en plus nombreux à les solliciter pour des questions d’ordre privé ainsi que dans des prises de décisions significatives. De quoi augmenter l’inquiétude des autorités et alimenter leur méfiance vis-à-vis de cette technologie.

La suite après cette publicité

Rejoignez nos 875 726 abonnés en recevant notre newsletter gratuite

N'oubliez pas de cliquer sur l'email de validation pour confirmer votre adresse email. Si vous ne l'avez pas recu vérifiez dans vos spams.

1 commentaire

  • B
    Bobby
    29/08/2025 à 12:47
    C'est très regrettable, mais c'est facile pour les parents de rejeter la faute sur Chatgpt (ou sur autre chose d'ailleurs). Si cet ado s'est donné la mort ce n'est pas qu'à cause de Chatgpt. Si les parents avaient un peu plus surveillé, ou même seulement discuté avec leur fils peut être n'aurait il pas demander des renseignement à l'IA. On assiste là à un total abandon de l'éducation parentale au profit du laisser aller. Plus facile de montrer la technologie du doigt que de se remettre en cause. Quand je vois des gamins de 7 ou 8 ans avec un smartphone et l'accès à internet sans surveillance il ne faut pas s'étonner. Mais au moins les parents ont la paix

Laissez un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *