Une tuerie scolaire au Canada révèle les lacunes d'OpenAI
Devant l'école secondaire de Tumbler Ridge, en Colombie-Britannique, le 12 février 2026, les fleurs et les bougies s'accumulent en mémoire des victimes. Dans ce village canadien, Jesse Van Rotselaar, un jeune homme de 18 ans, a commis un massacre le 10 février, abattant d'abord sa mère et son demi-frère, puis ouvrant le feu dans l'établissement scolaire.
Un bilan tragique et des questions éthiques
La fusillade a coûté la vie à cinq enfants et une éducatrice, tandis qu'une vingtaine de personnes ont été blessées. L'auteur des faits s'est ensuite suicidé. Ce drame a rapidement mis en lumière le rôle controversé d'OpenAI, la société mère de ChatGPT.
Huit mois avant les événements, OpenAI savait que Jesse Van Rotselaar échangeait avec son robot conversationnel sur des scénarios de violence armée. Pourtant, l'entreprise n'a pas alerté les autorités policières. Sous la pression du gouvernement canadien à Ottawa, OpenAI affirme aujourd'hui avoir tiré les leçons de cette tragédie.
Un système de détection défaillant
Le compte de l'adolescent avait été signalé par le système de détection automatique d'OpenAI et fermé en juin 2025 pour violation des règles de la plateforme concernant les contenus violents. Selon l'entreprise, les messages ne révélaient alors « aucune planification crédible et imminente » de violence, justifiant ainsi sa décision de ne pas prévenir les autorités canadiennes.
Cependant, le Wall Street Journal rapporte que ces échanges avaient alarmé plusieurs employés d'OpenAI. Ces derniers les percevaient comme un signe avant-coureur d'un assaut et souhaitaient alerter les forces de l'ordre. Cette divergence interne soulève des questions cruciales sur la responsabilité des entreprises technologiques face aux menaces potentielles.
Les implications pour la régulation de l'IA
Cet incident met en évidence les défis éthiques et légaux auxquels sont confrontées les sociétés d'intelligence artificielle. Les points clés à retenir sont :
- La nécessité de protocoles clairs pour signaler les menaces crédibles aux autorités.
- L'importance de la formation des employés sur la détection des signaux d'alerte.
- Les limites des systèmes automatisés dans l'évaluation des risques humains.
La communauté de Tumbler Ridge, toujours en deuil, appelle à une réflexion approfondie sur la prévention de la violence et le rôle des technologies émergentes. OpenAI, quant à elle, promet des réformes pour éviter qu'un tel drame ne se reproduise.



