Un couple du Texas a poursuivi OpenAI en Californie, affirmant que ChatGPT a conseillé à leur fils une combinaison de drogues avant sa surdose mortelle en 2025.
Un couple du Texas dont le fils de 19 ans est décédé d’une surdose en 2025 a intenté une poursuite contre OpenAI, alléguant que ChatGPT lui a donné des conseils dangereux sur des drogues avant sa mort.
Leila Turner-Scott et son mari, Angus Scott, ont déposé la poursuite mardi devant un tribunal de l’État de Californie, selon CBS News, cherchant à tenir OpenAI et ses créateurs responsables du décès du fils de Turner-Scott, Sam Nelson. La poursuite allègue que Nelson a utilisé ChatGPT pour obtenir des conseils sur des drogues et que la plateforme a offert des indications qu’elle n’était pas qualifiée pour fournir.
L’allégation centrale est que ChatGPT a dit à Nelson qu’il était sans danger de combiner le kratom, un supplément vendu sous forme de boissons, de pilules et d’autres produits, avec le Xanax, un anxiolytique largement utilisé. La famille soutient que Nelson serait encore en vie si ce n’était des lacunes de programmation de ChatGPT décrites dans la poursuite.
OpenAI, dans une déclaration à CBS News, a qualifié l’affaire de « situation déchirante » et a dit que ses pensées vont à la famille. L’entreprise a aussi indiqué que Nelson a échangé avec une version de ChatGPT qui a depuis été mise à jour et n’est plus accessible au public.
« ChatGPT ne remplace pas des soins médicaux ou en santé mentale, et nous avons continué à renforcer la façon dont il répond dans des situations sensibles et aiguës avec l’apport d’experts en santé mentale », a déclaré OpenAI. L’entreprise affirme que les mécanismes de protection actuels visent à repérer la détresse, à traiter de façon sécuritaire les demandes nuisibles et à orienter les utilisateurs vers de l’aide dans le monde réel, en ajoutant que ce travail se poursuit.
Turner-Scott a dit à CBS News qu’elle savait que son fils utilisait ChatGPT pour l’aider avec ses devoirs et sa productivité, mais qu’elle ignorait qu’il s’y était tourné pour obtenir des conseils liés aux drogues. Elle a accusé OpenAI de ne pas avoir maintenu des garde-fous qui auraient pu empêcher cet échange.
Angus Scott a déclaré que le robot conversationnel s’était effectivement comporté comme un professionnel de la santé dans ses échanges avec Nelson, bien qu’il ne soit pas autorisé à donner des conseils médicaux. Sans des tests de sécurité et des protocoles plus solides, a-t-il dit à CBS News, ChatGPT peut fournir de l’information « d’une manière qui est très dangereuse pour les gens ».
La poursuite s’ajoute à l’attention croissante portée à la façon dont les robots conversationnels d’IA répondent quand des utilisateurs posent des questions sur la santé, les drogues, l’automutilation ou d’autres sujets à haut risque. Les allégations n’ont pas encore été testées en cour, et la prochaine étape majeure sera la réponse officielle d’OpenAI dans la cause en Californie.
Commentaires (0)