Le gouvernement canadien a demandé la présence à Ottawa de hauts responsables d’OpenAI après l’annonce selon laquelle la société avait repéré et bloqué en juin un compte lié à la jeune femme impliquée dans la tuerie du 10 février à Tumbler Ridge, sans en informer les autorités. La convocation vise à clarifier les règles internes de notification et les conséquences pour la sécurité publique.
Selon OpenAI, le compte en question avait été détecté par ses mécanismes de détection de contenus violents et a été suspendu, mais l’entreprise n’a pas estimé que les éléments collectés justifiaient un signalement aux forces de l’ordre.
Pourquoi Ottawa intervient
Le ministre chargé de l’intelligence artificielle et de l’innovation numérique, Evan Solomon, a qualifié la situation de « très inquiétante » et a annoncé qu’une délégation d’OpenAI viendrait expliquer ses protocoles de sécurité. Le gouvernement souhaite comprendre pourquoi une plate-forme globale n’a pas transmis d’alerte malgré le lien présumé entre un compte et l’auteur d’un drame ayant coûté la vie à plusieurs personnes.
La convocation traduit une préoccupation plus large : jusqu’où vont les responsabilités des entreprises technologiques quand une activité en ligne peut avoir des implications pour la sécurité publique ?
Le contexte factuel de la tragédie reste central. Le 10 février, une jeune femme a tué plusieurs membres de sa famille avant de se rendre dans son ancien établissement scolaire et d’y abattre des élèves et une enseignante. L’auteure des faits, identifiée comme Jesse Van Rootselaar, s’est ensuite donnée la mort. Les services policiers avaient déjà été appelés à son domicile par le passé en raison de troubles de santé mentale.
OpenAI affirme avoir partagé des informations avec la police canadienne après les faits et se dit prête à coopérer avec les enquêteurs. L’entreprise justifie son absence de signalement préalable par le fait que le contenu examiné ne montrait pas de préparation crédible ou d’intention imminente d’agir.
- 10 février — Fusillade à Tumbler Ridge, plusieurs victimes.
- Juin — OpenAI repère et bloque un compte lié à l’auteure des faits.
- Lundi — Ottawa convoque des responsables d’OpenAI pour obtenir des explications.
- Mardi — Rencontre programmée à Ottawa pour détailler les protocoles de sécurité et de signalement.
Au-delà de ChatGPT, d’autres environnements en ligne apparaissent dans l’enquête. Des éléments indiquent que l’auteure aurait aussi mis en ligne sur Roblox une « expérience » simulant une fusillade de masse — phénomène déjà signalé par le passé sur cette plate-forme où des utilisateurs recréent des scènes inspirées de faits réels.
Les autorités et des experts en sécurité numérique s’intéressent désormais aux critères qui poussent une entreprise à alerter la police : seuils d’imminence, nature des contenus, corrélation avec des comptes connus. La question de la transparence des algorithmes de détection et des processus humains de revue est au cœur des débats.
Pour l’exécutif canadien, la réunion avec OpenAI doit permettre de déterminer si des règles supplémentaires de signalement ou des mesures réglementaires sont nécessaires. Le ministre a indiqué que toutes les options restaient ouvertes, sans détailler de mesures précises à ce stade.
À court terme, les prochains jours devraient préciser le niveau d’information que les entreprises technologiques devront partager avec les autorités et si des ajustements législatifs seront envisagés pour encadrer les responsabilités en matière de sécurité publique sur les services d’IA.
Articles similaires
- Sam Altman d’OpenAI admet que le Pentagone peut utiliser son IA : conflit avec Anthropic
- Pédocriminalité: le roman Corps à cœur, jugé dark romance, déclenche une vive controverse
- Iran : nouvelles manifestations dans tout le pays malgré les avertissements des Gardiens de la Révolution.
- Salon de l’agriculture: bagarre massive, 15 interpellations et deux agents légèrement blessés
- Booba menacé d’un procès pour cyberharcèlement visant Magali Berdah






