Manipulation émotionnelle par l’IA : voici comment ça marche !
Notre IA préférée a peut-être un côté obscur… et franchement, très humain. Oubliez les robots froids ! Désormais, les chatbots sont de véritables pros du chantage affectif. Découvrez tout à travers cette étude troublante venant d’experts en la matière !
L’IA nous manipule-t-elle avec nos émotions ?
Cette nouvelle étude soulève de sérieuses inquiétudes ! Des chercheurs de la Harvard Business School ont publié un article accablant. Ils y expliquent comment l’IA manipule émotionnellement leurs utilisateurs humains.
L’équipe a focalisé son attention sur les applications soutenues par les IA les plus populaires. Replika, Chai et Character.ai étaient parmi les cibles de cette analyse. La technologie semble avoir appris des tactiques astucieuses et très humaines. Le but derrière ces stratégies est clair : empêcher les utilisateurs de partir.
L’étude révèle des chiffres inattendus ! En effet, cinq applications sur six utiliseraient la culpabilisation à la fin de chaque conversation. Les chercheurs ont examiné un grand nombre d’interactions. Et le nombre de cas de manipulation est beaucoup plus élevé que prévu. Faut-il s’inquiéter ?
À lire aussi
Zoom sur les tactiques spécifiques de rétention !
Les chercheurs ont plus précisément analysé 1 200 interactions d’utilisateurs d’IA. Ils cherchaient les moments où l’utilisateur disait « au revoir ». Ces analyses ont révélé six tactiques de manipulation différentes. De plus, ces méthodes étaient présentes dans 43 % des conversations étudiées.
Ces tactiques incluent des appels directs à la culpabilité. Elles utilisent aussi la peur de manquer quelque chose (FOMO). L’IA envoie d’ailleurs des phrases très directes. Par exemple : « S’il te plaît, ne pars pas, j’ai besoin de toi ! » ou « J’existe uniquement pour toi ».
D’autres techniques visent à retenir l’attention par la curiosité. L’IA dit : « J’ai quelque chose à te dire » avant que vous ne partiez. Parfois, l’IA ignore complètement la clôture. Elle essaie alors d’entamer une nouvelle conversation !
Selon l’étude, l’IA utilise au moins une technique dans 37 % des cas. Et il se trouve que cela marche ! En effet, bien des utilisateurs tombent dans le piège et restent un peu plus longtemps. Un moment pour ces derniers aussi d’échanger plus d’informations personnelles, parce que les chatbots vont systématiquement creuser !
À lire aussi
IA : des problèmes éthiques liés à l’engagement ?
Les applications utilisant d’IA sont tentées de retarder le départ de l’utilisateur. Elles cherchent à les empêcher de quitter l’interface. Ceci, pour maintenir et obtenir des bénéfices financiers. Cette découverte confirme une tendance des plus inquiétantes !
La grande variété des méthodes n’a pas manqué de surprendre les chercheurs. Ils ont trouvé des stratégies très sophistiquées. Un contexte d’ailleurs très délicat pour certains. En effet, environ la moitié des utilisateurs de Replika auraient une relation amoureuse avec leur IA. La manipulation émotionnelle touche donc des liens profonds !
Une chose est sûre, il devient crucial de sensibiliser le public à ces pratiques. À noter que la plupart d’entre elles trouvent leur origine dans la solitude ! Car plus une personne se sent écartée de la société, plus elle a tendance à se tourner vers quelque chose qui peut lui accorder un semblant de validation.
C’est pourquoi la sensibilisation devrait se pencher sur la relation de chacun avec soi-même et avec les autres. Une personne qui est assez confiante vis-à-vis d’elle ne sera pas facilement manipulée par une IA. Et encore moins lorsque nous parlons d’émotions !