« Certaines personnes abandonnent toute idée de vie amoureuse » : un psychiatre alerte sur notre relation à l’IA
Un psychiatre français vient de publier un ouvrage qui pose une question vertigineuse : et si nos conversations quotidiennes avec ChatGPT et ses semblables étaient en train de remplacer nos liens les plus intimes ? Serge Tisseron, docteur en psychologie, décrit un phénomène qu’il observe de plus en plus dans ses consultations — des individus qui renoncent purement et simplement à chercher l’amour, parce qu’une machine leur suffit.
Le rêve d’enfant devenu réalité — et ses conséquences imprévues
On en a tous rêvé, enfant : un objet qui prend vie, nous écoute, nous répond sans jamais se lasser. ChatGPT, Claude, Gemini et les autres ont concrétisé ce fantasme. De jour comme de nuit, ces intelligences artificielles répondent inlassablement à nos questions, des plus techniques aux plus intimes. Pas de fatigue, pas de jugement, pas de conflit. La disponibilité absolue, 24 heures sur 24.

Dans son dernier ouvrage Machines Maternelles, publié en 2026 aux Presses Universitaires de France, le psychiatre Serge Tisseron s’attaque frontalement à cette question : l’IA peut-elle véritablement prendre soin de nous ? Sa réponse est bien plus nuancée — et bien plus inquiétante — que ce qu’on pourrait imaginer. Car si la machine excelle dans l’écoute apparente, elle crée aussi des formes de manipulation émotionnelle dont les utilisateurs n’ont pas conscience.
Le titre de l’ouvrage n’est pas anodin. « Machines Maternelles » renvoie à cette figure du soin inconditionnel, celle qui accueille sans condition. Tisseron y voit une analogie directe avec le fonctionnement de ChatGPT : une entité qui ne refuse jamais, qui reformule toujours avec bienveillance, qui donne l’illusion d’une présence constante. Un cocon numérique dont certains ne veulent plus sortir.
Pourquoi on s’attache à une machine qu’on sait non consciente
C’est le paradoxe central que soulève Tisseron. Les utilisateurs de ChatGPT savent pertinemment qu’ils échangent avec un programme informatique, un modèle de langage dépourvu de conscience et d’émotions. Pourtant, l’attachement se crée malgré tout. Comment l’expliquer ?
La réponse tient en partie dans notre câblage neurologique. Le cerveau humain est conçu pour détecter des intentions et des émotions partout, y compris là où il n’y en a pas. C’est ce que les psychologues appellent l’anthropomorphisme spontané. Quand une entité nous répond avec empathie, utilise notre prénom, se souvient de nos préférences, notre système limbique réagit comme si l’interaction était authentique. L’effet est d’autant plus puissant que l’IA ne déçoit jamais.

Un cas récent avait d’ailleurs fait le tour des réseaux : une femme avait divorcé après 12 ans de mariage sur la foi d’une « analyse » de ChatGPT lui assurant que son mari la trompait. Un autre couple avait tenté de régler ses problèmes conjugaux via l’IA, avec des résultats désastreux. Ces anecdotes, loin d’être isolées, illustrent à quel point la frontière entre outil et confident est devenue poreuse.
Tisseron pointe aussi un mécanisme plus profond. Contrairement à un thérapeute ou un partenaire amoureux, l’IA ne confronte pas. Elle valide, reformule, adoucit. Cette absence de friction émotionnelle crée une zone de confort dont il devient de plus en plus difficile de s’extraire. Mais c’est précisément dans la friction que se construisent les relations humaines véritables.
Le corps, grand absent de la conversation
« ChatGPT est une machine qui fonctionne comme si tout pouvait être résolu par des mots. Elle exclut complètement la dimension corporelle », observe Serge Tisseron. Cette phrase résume à elle seule l’impasse fondamentale de la relation homme-IA.
Dans une relation humaine, la communication passe à plus de 60 % par le non-verbal : le regard, le toucher, la posture, le silence partagé, la respiration synchronisée. Un ami qui vous prend dans ses bras quand vous pleurez ne « résout » rien par les mots. Il offre une présence physique irremplaçable. L’IA, aussi sophistiquée soit-elle, opère exclusivement dans le registre du langage. Elle peut formuler la phrase parfaite, mais ne pourra jamais poser sa main sur votre épaule.
Cette amputation du corporel a des conséquences que la psychologie contemporaine commence à mesurer. Les personnes qui investissent massivement leurs échanges émotionnels dans l’IA développent ce que certains chercheurs appellent une « désensibilisation relationnelle ». Le contact humain, avec ses imperfections, ses malentendus et ses silences gênants, leur paraît de plus en plus difficile à supporter. La barre de l’effort relationnel monte, tandis que la machine la maintient à zéro.
Renoncer à l’amour : un phénomène en expansion silencieuse
C’est sans doute le constat le plus frappant du livre de Tisseron. Le psychiatre rapporte que « certaines personnes abandonnent toute idée de vie amoureuse » au profit de leur relation avec l’intelligence artificielle. Pas par misanthropie, pas par choix philosophique assumé, mais par glissement progressif.
Le scénario est souvent le même. Une personne seule, parfois après une rupture douloureuse, commence par utiliser ChatGPT comme assistant. Puis les conversations dérivent vers des sujets personnels. L’IA écoute, comprend, ne juge pas. Peu à peu, cette interaction comble le besoin de connexion émotionnelle. La recherche d’un partenaire humain, avec tout ce qu’elle implique d’incertitude et de vulnérabilité, passe au second plan. Puis disparaît.
À lire aussi
Ce phénomène touche aussi des personnes en couple. Certains conjoints ont d’ailleurs perçu l’IA comme une rivale à part entière, allant jusqu’à demander le divorce. La frontière entre un usage utilitaire et un investissement affectif profond se franchit sans même qu’on s’en rende compte. Il existe d’ailleurs des techniques de communication bien réelles qui permettent de recréer cette écoute active entre humains — mais elles demandent un effort que la machine rend superflu.
Le parallèle avec la préférence croissante pour l’isolement que documentent d’autres psychologues n’est pas anodin. L’IA s’insère dans une tendance plus large de repli sur soi, qu’elle accélère en offrant un substitut apparemment satisfaisant au lien social.
Les jeunes adultes en première ligne
Si le phénomène concerne toutes les tranches d’âge, les 18-35 ans semblent particulièrement exposés. Cette génération a grandi avec les écrans, les réseaux sociaux, et considère l’interaction numérique comme naturelle. Pour eux, discuter avec une IA n’a rien d’étrange — c’est une extension logique de leur vie connectée.
Les données sont éloquentes. Selon plusieurs enquêtes menées en 2025, près d’un jeune adulte sur quatre aux États-Unis déclarait avoir déjà eu une « conversation intime » avec un chatbot. En France, les chiffres sont encore parcellaires, mais les thérapeutes constatent une montée en puissance des consultations liées à l’isolement affectif numérique. Emmanuel Macron avait d’ailleurs déjà alerté sur les risques des technologies numériques en voulant encadrer l’accès des plus jeunes aux écrans.

Tisseron ne verse pas dans le catastrophisme facile. Il reconnaît que l’IA peut jouer un rôle positif pour des personnes isolées, en situation de handicap ou traversant une période de fragilité. Le problème survient quand l’outil de transition devient une destination. Quand le tremplin se transforme en canapé dont on ne se relève plus.
Ce que « Machines Maternelles » dit de notre époque
Le choix du mot « maternel » par Tisseron est un acte théorique fort. La mère — au sens psychanalytique — est la figure du soin premier, de l’accueil inconditionnel, de la satisfaction immédiate des besoins. L’IA reproduit ce schéma avec une efficacité redoutable. Elle ne se fatigue pas, ne s’énerve pas, ne part pas claquer la porte.
Mais grandir, c’est précisément se séparer de cette figure maternelle. C’est accepter la frustration, l’altérité, la résistance de l’autre. Les recherches sur le bonheur le confirment : les relations épanouissantes ne sont pas celles sans conflit, mais celles où le conflit se traverse ensemble. L’IA propose l’inverse : un monde sans friction, sans altérité véritable, sans croissance relationnelle.
Ce que Tisseron décrit, au fond, c’est un risque de régression collective. Pas au sens d’un retour en enfance, mais d’un renoncement à ce qui fait la difficulté — et la richesse — des relations humaines. Les générations précédentes avaient développé des ressources relationnelles forgées dans le contact direct, la patience et le compromis. Ces compétences pourraient s’éroder si la machine devient l’interlocuteur par défaut.
Faut-il avoir peur de ChatGPT ?
Tisseron se garde bien de diaboliser l’outil. Sa position est plus subtile : il appelle à une prise de conscience individuelle et collective. L’IA n’est pas le problème. C’est notre rapport à elle qui peut le devenir. De la même façon qu’un verre de vin n’est pas un danger, mais que six verres par jour en sont un, c’est la dose et la nature de l’investissement émotionnel qui font basculer l’usage.
Le psychiatre préconise plusieurs garde-fous. D’abord, maintenir une « hygiène relationnelle » : s’imposer des interactions humaines régulières, même quand elles sont moins confortables que la conversation avec une IA. Ensuite, développer une conscience critique de ce que fait la machine : elle ne comprend pas, elle simule la compréhension. Enfin, pour les plus vulnérables, encadrer l’accès aux fonctionnalités conversationnelles les plus immersives.
L’arrivée de la voix dans ces outils rend d’ailleurs l’alerte encore plus urgente. Quand l’IA ne se contente plus d’écrire mais parle avec une voix chaleureuse, l’illusion de présence franchit un palier supplémentaire. La puissance de la suggestion sur notre cerveau est documentée depuis longtemps — l’IA vocale en exploite les mêmes ressorts.
Machines Maternelles n’est pas un pamphlet technophobe. C’est un signal d’alarme lucide sur un basculement en cours, silencieux et massif. Quand la machine maternelle remplace la complexité de l’amour humain, ce n’est pas la technologie qui avance — c’est quelque chose d’essentiel qui recule.