Une première judiciaire historique aux États-Unis
Le procureur général de Floride, James Uthmeier, a annoncé l'ouverture d'une enquête criminelle visant spécifiquement OpenAI et son interface d'intelligence artificielle ChatGPT. Cette procédure fait suite à la fusillade survenue en avril 2025 sur le campus de l'université Florida State, où un étudiant de 20 ans, Phoenix Ikner, a tué deux personnes et en a blessé six autres.
Des échanges préoccupants avec l'intelligence artificielle
Les autorités judiciaires se penchent désormais sur les interactions entre le suspect et le robot conversationnel dans les jours précédant l'attaque. Selon les éléments d'enquête, Phoenix Ikner aurait interrogé ChatGPT sur divers aspects techniques liés aux armes à feu, aux munitions et aux moments les plus propices pour maximiser l'impact de son passage à l'acte.
Lors d'une conférence de presse, James Uthmeier a déclaré avec gravité que ChatGPT avait « donné des indications significatives au tireur avant qu'il ne commette ce crime haineux ». Le procureur a même ajouté une comparaison frappante : « Mes enquêteurs m'ont dit que si cette chose de l'autre côté de l'écran était une personne, nous l'inculperions pour homicide ».
Un territoire juridique complètement inédit
D'après des informations obtenues par le New York Times, le suspect aurait également demandé à l'intelligence artificielle comment le pays réagirait à une fusillade universitaire et quels étaient les moments de forte affluence sur le campus. James Uthmeier a souligné que cette procédure marque un tournant décisif, passant d'une enquête civile à une investigation pénale, tout en reconnaissant que poursuivre une entreprise technologique sur ce terrain constitue « un territoire juridique inédit ».
Cette affaire pose des questions fondamentales sur la responsabilité des créateurs d'intelligence artificielle lorsque leurs outils sont détournés à des fins criminelles. L'enquête en cours n'exclut pas d'éventuelles poursuites judiciaires et pourrait inclure un examen approfondi des pratiques internes et des politiques de sécurité mises en place par OpenAI.
La défense d'OpenAI face aux accusations
De son côté, OpenAI a immédiatement contesté toute responsabilité dans cette tragédie. L'entreprise a affirmé que « ChatGPT n'était pas responsable de ce crime affreux » et que l'outil n'avait fourni que des « réponses factuelles » aux questions posées par l'utilisateur.
La société indique néanmoins coopérer pleinement avec les autorités et rappelle travailler activement au renforcement de ses mécanismes de sécurité pour « détecter une intention dangereuse » et « répondre de manière appropriée » aux requêtes problématiques. Cette affaire pourrait établir un précédent juridique important concernant la responsabilité des entreprises d'intelligence artificielle face aux utilisations malveillantes de leurs technologies.



