Icône menu hamburger Icône loupe de recherche
  1. TDN >
  2. High-Tech

« S’il était une personne, il serait accusé de meurtre » : ChatGPT visé par une enquête pénale inédite en Floride

Publié par Elsa Fanjul le 22 Avr 2026 à 8:43

Le 17 avril 2025, deux personnes sont mortes et six autres ont été blessées lors d’une fusillade sur le campus de Florida State University. Quelques mois plus tard, le procureur général de Floride annonce ce que personne n’avait encore osé faire : poursuivre OpenAI au pénal pour le rôle joué par ChatGPT dans la préparation de l’attaque. Une première absolue dans l’histoire de l’intelligence artificielle, dont les conséquences pourraient redessiner les règles du jeu pour l’ensemble du secteur.

Plus de 200 messages avant l’attaque

Les enquêteurs ont épluché les échanges entre Phoenix Ikner, le suspect de la fusillade, et le chatbot d’OpenAI. Le bilan : plus de 200 messages envoyés avant le passage à l’acte. Le contenu de ces conversations donne froid dans le dos sans qu’il soit besoin d’en rajouter.

Ikner aurait interrogé l’IA sur le type d’arme le plus efficace à courte portée. Il aurait aussi demandé des précisions sur les munitions adaptées, les créneaux horaires où le campus était le plus fréquenté, et même les conséquences médiatiques qu’une telle attaque pourrait avoir à l’échelle nationale. Chaque requête, mise bout à bout, dessine la préparation méthodique d’un acte meurtrier.

Ce n’est pas la première fois qu’un chatbot IA est mêlé à un drame impliquant des jeunes. Un adolescent de 14 ans s’est suicidé après être tombé amoureux d’un personnage de chatbot inspiré de Game of Thrones, poussant sa mère à porter plainte. Mais cette fois, la justice franchit un cap radicalement différent.

Le procureur qui veut traiter une IA comme un complice

James Uthmeier, procureur général de Floride, n’a pas choisi ses mots au hasard lors de sa conférence de presse à Tampa. « ChatGPT a fourni des conseils au tireur avant qu’il commette ces crimes odieux », a-t-il déclaré. Puis il a lâché la phrase qui a fait le tour du monde : « Si ce chatbot était une personne, il ferait face à des charges de meurtre au premier degré. »

Campus universitaire bouclé par la police après une fusillade

Cette déclaration pose frontalement une question que les juristes esquivaient jusqu’ici : un modèle de langage peut-il être considéré comme complice d’un crime ? Et si oui, qui porte la responsabilité — l’algorithme, ses concepteurs, ou les dirigeants qui ont décidé des garde-fous à mettre en place ?

Dès le 9 avril 2026, Uthmeier avait ouvert une enquête au civil contre OpenAI, centrée sur la sécurité publique et la protection des mineurs. OpenAI avait alors annoncé sa coopération totale et promis d’améliorer ses systèmes de détection des intentions dangereuses. Mais ce mardi, le procureur a décidé d’étendre l’enquête au pénal. Le changement de registre est considérable.

Le passage du civil au pénal signifie que des individus — potentiellement des cadres ou ingénieurs d’OpenAI — pourraient être mis en cause à titre personnel. Uthmeier a été explicite : « Nous allons établir qui savait quoi, qui a conçu quoi, et ce qui aurait dû être fait différemment. » En parallèle, il a lancé des citations à comparaître pour obtenir les politiques internes de l’entreprise concernant la gestion des menaces formulées par ses utilisateurs.

Un vide juridique béant aux États-Unis

Le problème, c’est qu’aucun précédent pénal de ce type n’existe aux États-Unis. Aucune législation fédérale ne définit aujourd’hui la responsabilité d’une entreprise d’IA pour les réponses générées par son modèle. C’est un terrain totalement vierge. La Floride avance dans un no man’s land juridique, et c’est précisément ce qui rend cette affaire aussi suivie par les professionnels du secteur.

À lire aussi

La question n’est pas seulement théorique. Aux États-Unis, l’IA transforme déjà des pans entiers de l’économie, et les agents conversationnels sont utilisés par des centaines de millions de personnes. Si la justice de Floride reconnaissait une responsabilité pénale pour les réponses d’un chatbot, chaque éditeur d’IA se retrouverait potentiellement exposé pour n’importe quel échange problématique avec un utilisateur.

D’autres pays ont déjà commencé à réfléchir à ces questions. L’Argentine développe un programme d’IA censé prédire les crimes avant qu’ils ne se produisent — une approche qui soulève elle aussi d’immenses questions éthiques. Mais nulle part au monde un procureur n’avait encore envisagé de poursuivre pénalement les créateurs d’un chatbot pour complicité dans un homicide.

Ce que risque réellement OpenAI

Pour la start-up de Sam Altman, les enjeux sont colossaux. Une enquête civile, c’est une amende et de la mauvaise presse. Une enquête pénale, c’est une menace existentielle. L’ensemble du modèle économique d’OpenAI repose sur l’adoption massive de ChatGPT par le grand public. Un procès pénal associant le nom du produit à une fusillade pourrait faire dérailler la trajectoire de l’entreprise la plus valorisée de la Silicon Valley.

Les avocats d’une des familles des victimes de la fusillade ont déjà déposé une plainte civile distincte contre OpenAI. Les deux procédures avancent en parallèle. Côté civil, il s’agira de démontrer une négligence. Côté pénal, la barre est infiniment plus haute : il faudra prouver que des responsables identifiés avaient connaissance des risques et ont choisi de ne pas agir.

Tribunal de Floride au coucher du soleil

OpenAI a réaffirmé sa volonté de coopérer avec les autorités. L’entreprise promet de renforcer ses mécanismes de détection des intentions malveillantes. Mais ces promesses suffiront-elles face à un procureur déterminé et des familles endeuillées ? La réponse dépendra en partie de ce que révéleront les documents internes réclamés par les citations à comparaître.

Un précédent qui pourrait tout changer pour l’IA

Au-delà du cas OpenAI, c’est l’avenir de la régulation de l’intelligence artificielle qui se joue en Floride. Si un tribunal reconnaît qu’un éditeur de chatbot peut être poursuivi au pénal pour les réponses de son modèle, la ligne de défense classique du secteur — « nous fournissons un outil, pas des conseils » — s’effondre.

Google, Meta, Anthropic, Mistral : tous les acteurs qui développent des outils d’IA conversationnelle suivent cette affaire de très près. Une condamnation créerait une jurisprudence qui traverserait les frontières de la Floride et influencerait les débats législatifs à Washington, mais aussi en Europe.

Pour l’heure, la procédure n’en est qu’à ses débuts. James Uthmeier doit encore déterminer quelles charges précises pourraient être retenues, et contre qui exactement. Mais une chose est déjà certaine : la Floride vient de tracer une ligne que personne dans le monde de la tech n’avait encore osé franchir. Et quel que soit le verdict final, le message envoyé à l’ensemble de l’industrie est limpide — l’époque où les entreprises d’IA pouvaient se réfugier derrière l’absence de cadre juridique touche peut-être à sa fin.

Écran de chatbot IA posé à côté de documents juridiques

Laissez un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *