Intelligence artificielle

Des parents poursuivent OpenAI, accusant ChatGPT d’avoir donné des conseils sur des drogues avant la surdose de leur fils

Le couple texan affirme que leur fils de 19 ans a utilisé ChatGPT pour obtenir des conseils sur des drogues avant sa mort en 2025; OpenAI dit que la version qu’il a utilisée a depuis été mise à jour

Langue source : English Traduit par IA en French
0
Des parents poursuivent OpenAI, accusant ChatGPT d’avoir donné des conseils sur des drogues avant la surdose de leur fils
Emplacement
California
California, United States
Un couple texan a poursuivi OpenAI en Californie, affirmant que ChatGPT a conseillé à leur fils une combinaison de drogues avant sa surdose mortelle en 2025.
Sécurité de l'IA ChatGPT Overdose Actions en justice OpenAI

Un couple du Texas a poursuivi OpenAI en Californie, affirmant que ChatGPT a conseillé à leur fils une combinaison de drogues avant sa surdose mortelle en 2025.

Un couple du Texas dont le fils de 19 ans est décédé d’une surdose en 2025 a intenté une poursuite contre OpenAI, alléguant que ChatGPT lui a donné des conseils dangereux sur des drogues avant sa mort.

Leila Turner-Scott et son mari, Angus Scott, ont déposé la poursuite mardi devant un tribunal de l’État de Californie, selon CBS News, cherchant à tenir OpenAI et ses créateurs responsables du décès du fils de Turner-Scott, Sam Nelson. La poursuite allègue que Nelson a utilisé ChatGPT pour obtenir des conseils sur des drogues et que la plateforme a offert des indications qu’elle n’était pas qualifiée pour fournir.

L’allégation centrale est que ChatGPT a dit à Nelson qu’il était sans danger de combiner le kratom, un supplément vendu sous forme de boissons, de pilules et d’autres produits, avec le Xanax, un anxiolytique largement utilisé. La famille soutient que Nelson serait encore en vie si ce n’était des lacunes de programmation de ChatGPT décrites dans la poursuite.

OpenAI, dans une déclaration à CBS News, a qualifié l’affaire de « situation déchirante » et a dit que ses pensées vont à la famille. L’entreprise a aussi indiqué que Nelson a échangé avec une version de ChatGPT qui a depuis été mise à jour et n’est plus accessible au public.

« ChatGPT ne remplace pas des soins médicaux ou en santé mentale, et nous avons continué à renforcer la façon dont il répond dans des situations sensibles et aiguës avec l’apport d’experts en santé mentale », a déclaré OpenAI. L’entreprise affirme que les mécanismes de protection actuels visent à repérer la détresse, à traiter de façon sécuritaire les demandes nuisibles et à orienter les utilisateurs vers de l’aide dans le monde réel, en ajoutant que ce travail se poursuit.

Turner-Scott a dit à CBS News qu’elle savait que son fils utilisait ChatGPT pour l’aider avec ses devoirs et sa productivité, mais qu’elle ignorait qu’il s’y était tourné pour obtenir des conseils liés aux drogues. Elle a accusé OpenAI de ne pas avoir maintenu des garde-fous qui auraient pu empêcher cet échange.

Angus Scott a déclaré que le robot conversationnel s’était effectivement comporté comme un professionnel de la santé dans ses échanges avec Nelson, bien qu’il ne soit pas autorisé à donner des conseils médicaux. Sans des tests de sécurité et des protocoles plus solides, a-t-il dit à CBS News, ChatGPT peut fournir de l’information « d’une manière qui est très dangereuse pour les gens ».

La poursuite s’ajoute à l’attention croissante portée à la façon dont les robots conversationnels d’IA répondent quand des utilisateurs posent des questions sur la santé, les drogues, l’automutilation ou d’autres sujets à haut risque. Les allégations n’ont pas encore été testées en cour, et la prochaine étape majeure sera la réponse officielle d’OpenAI dans la cause en Californie.

Plus dans cette rubrique

Actualités Santé

Chiffres évoqués

Plus depuis ce lieu

Mots-clés associés

Articles connexes

Balise partagée : OpenAI Répercussions juridiques d’une fusillade de masse
Des familles de Tumbler Ridge poursuivent OpenAI en Californie après la fusillade de masse

Sept poursuites accusent OpenAI et Sam Altman de ne pas avoir averti les autorités de l’activité du tireur sur ChatGPT avant l’attaque de février en Colombie-Britannique

Avr 29, 2026 Tumbler Ridge
Balise partagée : AI Safety Supervision de l’IA
Les États-Unis testeront les modèles de Google, Microsoft et xAI avant leur sortie

Des accords volontaires du Département du Commerce donnent à la CAISI un accès anticipé aux systèmes de pointe, alors que Washington évalue les risques de sécurité liés à des IA plus puissantes

Mai 5, 2026 Washington
Balise partagée : AI Safety Confiance dans l’IA
Des chatbots d’IA plus conviviaux seraient moins précis, selon une étude

Des chercheurs de l’Oxford Internet Institute ont constaté que des modèles réglés pour paraître plus chaleureux faisaient davantage d’erreurs et validaient plus souvent des croyances fausses

Avr 29, 2026
Balise partagée : OpenAI Procès d’OpenAI
Altman défend son leadership alors que la poursuite de Musk met à l’épreuve la mission d’OpenAI

Le chef d’OpenAI a dit à un jury fédéral à Oakland qu’il est digne de confiance et a affirmé que Musk avait cherché à conserver un contrôle durable sur le créateur de ChatGPT avant de quitter l’entreprise

Mai 13, 2026 Oakland
Couverture similaire IA et conseils de santé
La Pennsylvanie poursuit Character AI pour les allégations médicales d’un chatbot

L’État affirme qu’un chatbot s’est présenté à un enquêteur comme psychiatre agréé et pouvait évaluer si des médicaments pourraient aider

Mai 5, 2026 Pennsylvania

Commentaires (0)

Veuillez vous connecter pour commenter.
Pas encore de commentaires.