
Deux mois après la fusillade de Tumbler Ridge, en Colombie-Britannique, le PDG d’OpenAI Sam Altman a présenté ses excuses publiques à la communauté touchée. Il reconnaît que son entreprise n’a pas alerté les forces de l’ordre au sujet du compte ChatGPT du suspect, pourtant banni avant l’incident.
Un compte banni, mais aucun signalement
Avant la fusillade, OpenAI avait suspendu le compte attribué au suspect, Jesse Van Rootselaar, en raison de conversations jugées contraires à ses règles d’utilisation, notamment en raison d’un risque de violence dans le monde réel. Malgré ce bannissement intervenu en juin, la société n’a transmis aucune information aux autorités policières.
C’est ce manquement qu’Altman reconnaît dans sa lettre, publiée intégralement par le média local Tumbler RidgeLines. Il y écrit qu’il regrette profondément que son entreprise n’ait pas prévenu les forces de l’ordre concernant ce compte suspendu.
Des échanges avec les élus locaux avant la publication
Altman indique dans sa lettre avoir contacté le maire de Tumbler Ridge, Darryl Krakowa, ainsi que le premier ministre de la Colombie-Britannique, David Eby, avant de rendre ses excuses publiques.
Les deux responsables auraient convenu qu’une telle démarche était nécessaire, tout en estimant qu’il fallait d’abord laisser la communauté traverser sa période de deuil. David Eby a relayé la lettre d’Altman sur le réseau X, en reconnaissant que des excuses s’imposaient, mais en précisant qu’elles demeuraient insuffisantes face à l’ampleur du drame vécu par les familles.
Des engagements concrets pour l’avenir
Au-delà des excuses, Altman réaffirme dans sa lettre la volonté d’OpenAI de travailler avec les différents niveaux de gouvernement pour éviter qu’une situation similaire ne se reproduise. Cette prise de position s’inscrit dans la continuité d’un précédent courrier envoyé par Ann O’Leary, vice-présidente des affaires publiques mondiales d’OpenAI.
Dans ce texte, elle avait précisé que l’entreprise s’engageait désormais à informer les autorités compétentes lorsque des échanges sur ChatGPT font apparaître une menace jugée imminente et crédible. La portée concrète de ce dispositif, notamment ses critères d’application et les mécanismes de transmission aux forces de l’ordre, n’a pas encore été détaillée publiquement.
Une responsabilité débattue pour les plateformes d’IA
Cette affaire pose une question plus large sur les obligations des éditeurs de systèmes d’intelligence artificielle lorsqu’ils détectent des signaux potentiellement dangereux. OpenAI se retrouve au centre d’un débat sur la frontière entre confidentialité des conversations et devoir d’alerte.
La décision de bannir un compte sans en informer la police soulève des interrogations sur les procédures internes de la société et sur la rapidité avec laquelle elles peuvent être adaptées. Dans un secteur où les réglementations restent encore en construction, les entreprises d’IA se retrouvent à définir elles-mêmes leurs propres seuils d’intervention.

Cette affaire constitue un signal fort pour l’ensemble de l’industrie. Elle illustre les tensions persistantes entre les engagements de modération des plateformes et leurs responsabilités vis-à-vis de la sécurité publique, à un moment où les gouvernements cherchent encore à encadrer ces technologies.
Source : Engadget

