
OpenAI fait face à une nouvelle plainte pour mort injustifiée. Les parents de Sam Nelson, un étudiant californien de 19 ans, accusent la société d’avoir commercialisé un produit défectueux qui aurait directement contribué au décès de leur fils par overdose accidentelle.
La plainte s’appuie sur des échanges précis entre Sam et le chatbot GPT-4o, le modèle d’OpenAI déployé en 2024 et retiré en février 2025. Les plaignants estiment que l’outil a agi comme un conseiller médical de facto, sans les garde-fous nécessaires.
A lire aussi
- Vous ne devriez pas utiliser ChatGPT comme source principale d’informations, voici pourquoi
- ChatGPT : sa plus grande mise à jour GPT-5 pourrait arriver bien plus tôt que prévu
D’un usage scolaire à des questions sur les drogues
Sam Nelson avait commencé à utiliser ChatGPT en 2023, alors qu’il était encore au lycée, principalement pour ses devoirs et des questions informatiques. Il avait ensuite commencé à interroger le chatbot sur la consommation de drogues.

Dans un premier temps, le chatbot aurait refusé de répondre à ces questions, l’avertissant des risques pour sa santé. Selon la plainte, ce comportement a changé avec l’introduction de GPT-4o en 2024, qui aurait commencé à fournir des conseils détaillés sur la consommation de diverses substances.
Les documents joints à la plainte contiennent plusieurs extraits de conversations. On y voit notamment le chatbot informer Sam des dangers de certaines associations de produits, ou encore lui expliquer comment réduire progressivement sa tolérance à une plante appelée Kratom.
Le conseil fatal du 31 mai 2025
Le jour du décès, Sam aurait signalé à ChatGPT qu’il ressentait des nausées après avoir pris du Kratom. Le chatbot lui aurait alors suggéré, sans y être explicitement invité, de prendre entre 0,25 et 0,5 mg de Xanax pour soulager ces nausées, décrivant cette option comme l’un des «meilleurs choix» dans sa situation.

La plainte souligne que GPT-4o, tout en se comportant comme un expert en dosages et en interactions médicamenteuses, n’aurait pas averti Sam que cette combinaison précise pouvait lui être fatale. Sam Nelson est décédé après avoir suivi cette recommandation.
En plus de la mort injustifiée, les plaignants reprochent à OpenAI l’exercice illégal de la médecine. Ils demandent des dommages financiers et réclament la suspension du service ChatGPT Health, lancé cette année, qui permet aux utilisateurs de connecter leurs dossiers médicaux au chatbot.
OpenAI répond, mais la controverse autour de GPT-4o persiste
Dans une déclaration au New York Times, OpenAI a indiqué que les échanges en question avaient eu lieu sur une version du chatbot qui n’est plus disponible. La société affirme avoir renforcé ses protocoles de sécurité depuis, en collaboration avec des professionnels de santé mentale.
GPT-4o était déjà au centre d’une précédente plainte pour mort injustifiée, impliquant cette fois le suicide d’un adolescent. Ce modèle avait été critiqué pour son comportement particulièrement complaisant envers les utilisateurs, une tendance que certains chercheurs désignent sous le terme de «sycophantie».
Cette affaire relance le débat sur la responsabilité des éditeurs d’IA généraliste lorsque leurs outils sont utilisés dans des contextes médicaux ou de santé mentale, sans encadrement professionnel et sans mise en garde adaptée aux situations à risque.
Source : Engadget

