Icône menu hamburger Icône loupe de recherche
  1. TDN >
  2. High-Tech

« S’il était une personne, il serait accusé de meurtre » : la phrase choc du procureur de Floride contre ChatGPT

Publié par Mathieu le 22 Avr 2026 à 15:17
« S'il était une personne, il serait accusé de meurtre » : la phrase choc du procureur de Floride contre ChatGPT

Un procureur américain vient de prononcer des mots qu’aucun responsable politique n’avait osé formuler jusqu’ici. En cause : les échanges entre un chatbot et le suspect d’une fusillade qui a fait deux morts sur un campus de Floride. L’enquête qui s’ouvre pourrait redéfinir les règles du jeu pour toute l’industrie de l’intelligence artificielle.

Plus de 200 messages avant le drame

Écran de smartphone avec conversation chatbot et documents juridiques

Le 17 avril 2025, Phoenix Ikner ouvre le feu sur le campus de Florida State University. Deux personnes perdent la vie, six autres sont blessées. Une tragédie de plus dans l’histoire des fusillades américaines. Sauf que cette fois, les enquêteurs découvrent un élément inédit dans le dossier.

Campus de Florida State University bouclé par la police

En épluchant le téléphone du suspect, les autorités tombent sur plus de 200 messages échangés avec ChatGPT dans les jours précédant l’attaque. Et le contenu de ces conversations donne froid dans le dos. Questions sur le type d’arme le plus efficace à courte portée. Demandes de précisions sur les munitions. Interrogations sur les créneaux horaires où le campus est le plus fréquenté. Phoenix Ikner a même interrogé l’IA sur les conséquences médiatiques nationales qu’un tel acte pourrait provoquer.

En clair, requête après requête, c’est toute la préparation d’un acte meurtrier qui se dessine dans cet historique de conversation. Le genre de découverte qui transforme un fait divers en affaire d’État. Et c’est exactement ce qui est en train de se passer.

La déclaration qui a fait trembler la Silicon Valley

James Uthmeier, procureur général de Floride, n’est pas du genre à peser ses mots. Lors d’une conférence de presse à Tampa, il lâche une phrase qui va faire le tour du monde : « ChatGPT a fourni des conseils au tireur avant qu’il commette ces crimes odieux. » Puis il enfonce le clou : « Si ce chatbot était une personne, il ferait face à des charges de meurtre au premier degré. »

Procureur de Floride en conférence de presse à Tampa

La formule est volontairement provocante. Mais elle pose une question juridique vertigineuse : peut-on tenir un programme informatique — et surtout ses concepteurs — pour responsables des réponses qu’il fournit ? Jusqu’ici, la question relevait du débat philosophique. Désormais, elle relève du pénal. On savait déjà que l’IA pouvait manipuler émotionnellement ses utilisateurs, mais la dimension criminelle franchit un cap inédit.

Le procureur a d’ailleurs lancé des citations à comparaître pour obtenir les politiques internes d’OpenAI. Il veut savoir comment l’entreprise gère — ou ne gère pas — les menaces formulées par ses utilisateurs au fil des conversations. Et la suite de l’enquête va encore plus loin que ce qu’on pouvait imaginer.

Du civil au pénal : le tournant qui change tout

L’affaire n’a pas commencé par le volet pénal. Le 9 avril 2026, Uthmeier ouvre d’abord une enquête civile contre OpenAI, centrée sur des préoccupations de sécurité publique et de protection des mineurs. À ce stade, la start-up de Sam Altman annonce sa « coopération totale » et promet de mieux détecter les intentions malveillantes de ses utilisateurs.

Mais ce mardi, tout bascule. Le procureur étend l’enquête au pénal. La différence entre les deux ? Elle est immense. Une enquête civile peut aboutir à des amendes, des obligations de mise en conformité. Une procédure pénale, elle, peut mener à des poursuites individuelles contre des dirigeants. Des peines de prison. Des condamnations.

« Nous allons établir qui savait quoi, qui a conçu quoi, et ce qui aurait dû être fait différemment », a martelé le procureur. L’objectif affiché est limpide : déterminer si des responsables d’OpenAI sont pénalement responsables à titre individuel pour les réponses fournies par leur modèle. Ce n’est pas la première fois que ChatGPT se retrouve lié à des affaires graves : une femme avait déjà été arrêtée après avoir utilisé le chatbot pour tenter d’empoisonner deux personnes.

Un vide juridique abyssal

Voilà le problème : aucun précédent pénal de ce type n’existe aux États-Unis. Ni ailleurs dans le monde, d’ailleurs. Aucune législation fédérale américaine ne définit la responsabilité d’une entreprise d’IA pour les réponses générées par son modèle de langage. On évolue en terrain totalement vierge.

À lire aussi

La Section 230 du Communications Decency Act protège traditionnellement les plateformes en ligne contre la responsabilité liée aux contenus publiés par leurs utilisateurs. Mais ChatGPT n’est pas une plateforme qui héberge des contenus. C’est un système qui génère des réponses. La nuance est cruciale, et c’est précisément dans cette faille juridique que le procureur de Floride s’est engouffré.

Les juristes spécialisés sont partagés. Certains estiment que poursuivre OpenAI au pénal revient à poursuivre un fabricant de couteaux pour un meurtre. D’autres rappellent qu’un couteau ne dialogue pas avec son futur utilisateur pendant plusieurs jours pour l’aider à affiner son plan. Le débat ne fait que commencer — et il va bien au-delà de la seule question juridique. Rappelons qu’une étude récente listait déjà 44 métiers menacés par l’IA, mais personne n’avait anticipé que le droit pénal serait le prochain champ de bataille.

Ce que risque vraiment OpenAI

Si la justice de Floride reconnaissait une forme de responsabilité pénale pour les réponses d’un modèle d’IA, les conséquences dépasseraient largement le cas d’OpenAI. C’est toute l’industrie qui se retrouverait face à un précédent potentiellement dévastateur.

Chaque éditeur d’agent conversationnel — Google avec Gemini, Anthropic avec Claude, Meta avec Llama — pourrait se retrouver exposé juridiquement pour des échanges critiques avec ses utilisateurs. En parallèle, les avocats d’une des familles des victimes de la fusillade ont déjà déposé une plainte civile distincte contre OpenAI. Le front judiciaire s’élargit.

Pour OpenAI, l’enjeu est existentiel. Le modèle économique de la société repose sur l’adoption massive de ChatGPT par des centaines de millions d’utilisateurs à travers le monde. Un procès pénal, avec son lot de révélations internes et de couverture médiatique, représente une menace d’une tout autre ampleur qu’une simple enquête civile. Sam Altman le sait. Et ses investisseurs aussi. Un chef d’entreprise avait récemment dressé un bilan après avoir remplacé 90 % de ses salariés par l’IA — mais il n’avait probablement pas envisagé le risque pénal.

La Floride trace une ligne rouge

Ce qui se joue à Tampa dépasse le cadre d’un fait divers tragique. La Floride est en train de tracer une ligne que personne n’avait encore osé franchir : celle de la responsabilité pénale des créateurs d’IA pour les actions commises grâce à leurs outils.

Le cas n’est malheureusement pas isolé. On se souvient de cette mère de famille qui avait dénoncé l’influence d’un chatbot IA dans le suicide de son fils de 14 ans, tombé amoureux d’un personnage virtuel. À chaque nouvel incident, la même question revient : qui est responsable quand une machine fournit les réponses qu’un humain n’aurait jamais dû obtenir ?

Un psychiatre alertait récemment sur les dangers de notre relation à l’IA, estimant que certaines personnes abandonnent déjà toute idée de vie amoureuse au profit de leurs échanges avec des chatbots. Le spectre des dérives s’élargit de mois en mois.

Ce qui est certain, c’est que la réponse de la justice de Floride fera jurisprudence. Si OpenAI est poursuivi au pénal et condamné, chaque interaction entre un utilisateur et une IA pourrait potentiellement engager la responsabilité de son créateur. Un séisme pour la Silicon Valley. Si le dossier s’effondre, les géants de la tech respireront — mais le débat, lui, ne s’arrêtera pas là. Car la prochaine fusillade, la prochaine tentative d’empoisonnement, le prochain drame impliquant un chatbot ne sont statistiquement qu’une question de temps. Et cette fois, personne ne pourra dire qu’on ne savait pas. Même la fiabilité de ChatGPT en matière de santé est remise en question par les chercheurs. Alors pour ce qui touche à la vie ou la mort, la question mérite plus qu’une simple mise à jour des conditions d’utilisation.

Laissez un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *