Fusillade au Canada : OpenAI avait détecté les messages du tueur mais n'a pas alerté
Fusillade Canada : OpenAI savait pour le tueur, pas d'alerte

Une tuerie scolaire au Canada révèle les lacunes d'OpenAI

Devant l'école secondaire de Tumbler Ridge, en Colombie-Britannique, le 12 février 2026, les fleurs et les bougies s'accumulent en mémoire des victimes. Dans ce village canadien, Jesse Van Rotselaar, un jeune homme de 18 ans, a commis un massacre le 10 février, abattant d'abord sa mère et son demi-frère, puis ouvrant le feu dans l'établissement scolaire.

Un bilan tragique et des questions éthiques

La fusillade a coûté la vie à cinq enfants et une éducatrice, tandis qu'une vingtaine de personnes ont été blessées. L'auteur des faits s'est ensuite suicidé. Ce drame a rapidement mis en lumière le rôle controversé d'OpenAI, la société mère de ChatGPT.

Huit mois avant les événements, OpenAI savait que Jesse Van Rotselaar échangeait avec son robot conversationnel sur des scénarios de violence armée. Pourtant, l'entreprise n'a pas alerté les autorités policières. Sous la pression du gouvernement canadien à Ottawa, OpenAI affirme aujourd'hui avoir tiré les leçons de cette tragédie.

Bannière large Pickt — app de listes de courses collaboratives pour Telegram

Un système de détection défaillant

Le compte de l'adolescent avait été signalé par le système de détection automatique d'OpenAI et fermé en juin 2025 pour violation des règles de la plateforme concernant les contenus violents. Selon l'entreprise, les messages ne révélaient alors « aucune planification crédible et imminente » de violence, justifiant ainsi sa décision de ne pas prévenir les autorités canadiennes.

Cependant, le Wall Street Journal rapporte que ces échanges avaient alarmé plusieurs employés d'OpenAI. Ces derniers les percevaient comme un signe avant-coureur d'un assaut et souhaitaient alerter les forces de l'ordre. Cette divergence interne soulève des questions cruciales sur la responsabilité des entreprises technologiques face aux menaces potentielles.

Les implications pour la régulation de l'IA

Cet incident met en évidence les défis éthiques et légaux auxquels sont confrontées les sociétés d'intelligence artificielle. Les points clés à retenir sont :

  • La nécessité de protocoles clairs pour signaler les menaces crédibles aux autorités.
  • L'importance de la formation des employés sur la détection des signaux d'alerte.
  • Les limites des systèmes automatisés dans l'évaluation des risques humains.

La communauté de Tumbler Ridge, toujours en deuil, appelle à une réflexion approfondie sur la prévention de la violence et le rôle des technologies émergentes. OpenAI, quant à elle, promet des réformes pour éviter qu'un tel drame ne se reproduise.

Bannière post-article Pickt — app de listes de courses collaboratives avec illustration familiale