Un test de surveillance d'IA tourne à l'interpellation à Strasbourg
Un homme de 37 ans a été interpellé à Strasbourg après avoir évoqué son intention d'acheter une arme pour tuer un agent du renseignement de la CIA, du Mossad ou de la DGSI lors d'une conversation avec une intelligence artificielle. Selon les informations du quotidien régional L'Est Républicain, l'individu expliquait vouloir tester la fiabilité et la surveillance des systèmes d'intelligence artificielle.
Le FBI alerte les autorités françaises via Pharos
Le message inquiétant a été repéré par le Federal Bureau of Investigation (FBI) américain, qui l'a immédiatement signalé aux autorités françaises via la plateforme Pharos, dédiée au signalement des contenus illicites en ligne. Cette alerte transatlantique a déclenché une intervention rapide des forces de l'ordre françaises.
Le RAID est intervenu vendredi dernier pour procéder à l'interpellation de l'homme concerné. Lors de la perquisition, aucune arme n'a été retrouvée sur les lieux, confirmant partiellement les déclarations de l'individu qui insistait sur la dimension expérimentale de ses propos.
Un profil psychiatrique et une affaire classée sans suite
Après sa garde à vue, l'homme a été relâché. Les enquêteurs ont établi qu'il souffrait de troubles psychiatriques nécessitant une prise en charge médicale. Il a donc été hospitalisé d'office pour recevoir les soins appropriés.
Face à ces éléments, les autorités judiciaires ont décidé de classer l'affaire sans suite, considérant que les propos tenus relevaient davantage d'une expérience maladroite que d'une réelle intention criminelle. Cette décision met fin à la procédure pénale engagée suite à cette alerte internationale.
Les enjeux éthiques de l'IA et de la surveillance
Cet incident survient dans un contexte où l'utilisation de l'intelligence artificielle à des fins de surveillance suscite de vives controverses, notamment aux États-Unis. L'administration Trump a fait face à des critiques concernant ses projets d'emploi de l'IA dans le domaine du renseignement.
La société Anthropic a récemment refusé que son intelligence artificielle soit utilisée pour de la surveillance de masse, créant des tensions avec le département de la Défense américain. Cette position illustre les débats éthiques qui traversent le secteur des technologies avancées.
De son côté, ChatGPT précise dans ses conditions d'utilisation que, dans des cas exceptionnels de danger grave et imminent, certains contenus peuvent être transmis aux autorités compétentes. Cette politique de modération proactive vise à prévenir les dérives potentielles liées à l'usage des assistants conversationnels.



