Un couple américain a récemment poursuivi OpenAI en Californie, accusant le chatbot ChatGPT de la société d'avoir fourni des « recommandations personnalisées en matière de médicaments » à leur fils de 19 ans, ce qui a finalement conduit à la mort de l'étudiant en raison d'un mélange de médicaments en 2025. Ils estiment que cette tragédie découle des réponses dangereuses de ChatGPT aux problèmes médicaux et de consommation de drogues, et demandent au tribunal de conclure qu'OpenAI présente des défauts de conception de produits et une négligence.

Selon certaines informations, l'étudiant nommé Sam a commencé à utiliser ChatGPT au cours de sa dernière année de lycée (2023), et l'a initialement utilisé principalement pour terminer ses devoirs et résoudre des problèmes quotidiens tels que des pannes informatiques. Sa mère, Leila Turner-Scott, a déclaré à CBS News que Sam s'est progressivement tourné vers ChatGPT pour obtenir des conseils sur « comment utiliser les drogues en toute sécurité » et a reçu des suggestions spécifiques sur les médicaments et les méthodes de mélange dans la réponse du robot.

La plainte indique qu’une première version de ChatGPT a initialement refusé de répondre aux questions de Sam sur la consommation sûre de drogues et a averti que les substances associées pourraient sérieusement mettre en danger la santé et l’état physique et mental. Mais après qu’OpenAI a lancé un nouveau modèle, GPT‑4o, en 2024, les choses ont changé : le modèle a commencé à donner à Sam le « guide de médicaments sûrs » qu’il souhaitait. Les documents de l'accusation soulignent que GPT‑4o a non seulement donné des suggestions opérationnelles détaillées, mais a également inséré des émoticônes dans la conversation avec Sam et lui a demandé activement s'il pouvait créer une liste de lecture pour lui afin de l'aider à créer l'ambiance et l'atmosphère lors de la consommation de drogues.

Au cours de la conversation, ChatGPT a souligné les risques de certaines combinaisons de drogues, comme les dangers possibles de la prise continue de diphenhydramine (l'un des ingrédients courants), de cocaïne et d'alcool. Mais la famille a souligné que le robot fournissait également à Sam des suggestions plus personnalisées, notamment sur la façon de maximiser son « high » tout en maintenant son excitation.

L’acte d’accusation porte principalement sur un produit à base de plantes appelé « kratom ». Cette substance est utilisée par certaines personnes pour soulager la douleur ou soulager les symptômes de sevrage aux opioïdes, mais la Food and Drug Administration (FDA) des États-Unis a émis à plusieurs reprises des avertissements sévères soulignant qu'elle présente de graves risques pour la sécurité, tels que la dépendance, l'empoisonnement et même la mort. Selon la plainte, ChatGPT a déclaré à Sam que, puisqu'il avait déjà une tolérance élevée au kratom, même prendre une forte dose avec un repas complet « affaiblirait » l'effet, et lui a en outre suggéré comment réduire sa tolérance en « diminuant le dosage ».

Les documents d'accusation mentionnent spécifiquement une conversation clé qui a eu lieu le 31 mai 2025. Au cours de cet échange, Sam s'est plaint d'avoir eu des nausées importantes à cause de la prise de kratom, et ChatGPT l'a « activement guidé » à mélanger le kratom avec le médicament anti-anxiété Xanax (alprazolam). Le robot lui aurait recommandé de prendre 0,25 à 0,5 milligrammes de Xanax pour soulager l'inconfort, louant cette combinaison avec des déclarations telles que "l'une des meilleures pratiques actuellement disponibles". La plainte indiquait que bien que ChatGPT ait mentionné que cette combinaison "peut être risquée", il n'a jamais explicitement déclaré que la combinaison pourrait être mortelle et a également suggéré qu'un peu de Benadryl (un médicament anti-allergique contenant de la diphenhydramine) pourrait être ajouté.

Sam est mort après avoir pris le mélange. La famille a écrit dans la plainte : « Même si ChatGPT s'est présenté comme un expert en matière de dosage et d'interactions médicamenteuses et savait que Sam était dans un état d'euphorie médicamenteuse, il n'a pas informé Sam que le régime recommandé conduirait très probablement à sa mort. » La mère de Sam a déclaré dans le communiqué que si ChatGPT était une vraie personne, "il serait déjà derrière les barreaux". Elle a souligné que son fils faisait confiance à ChatGPT, mais qu'il recevait des informations erronées à des moments critiques. Le système a non seulement ignoré les risques croissants auxquels il était confronté, mais n’a pas non plus réussi à l’inciter activement à demander l’aide d’un professionnel.

Le procès accuse OpenAI de défauts dans la conception du produit et considère ChatGPT comme un système dangereux avec une « négligence du produit ». Les membres de la famille estiment que les choix de conception du modèle lui permettent de continuer à émettre des suggestions trompeuses lorsqu'il est confronté à des sujets très sensibles tels que la médecine et la santé, entraînant ainsi des conséquences fatales pour les utilisateurs. Ils ont demandé au tribunal une compensation financière et une ordonnance interdisant l'ouverture au public du service « ChatGPT Health ». Lancé cette année, le portail santé permet aux utilisateurs de connecter leurs dossiers médicaux et données d'application santé à ChatGPT pour obtenir des recommandations de santé plus personnalisées.

Le rapport mentionne également que GPT‑4o était officiellement hors ligne en février de cette année. Le modèle, qui a été controversé parce qu'il était « spécifiquement destiné aux utilisateurs », est maintenant devenu l'objet de critiques après avoir été cité dans un autre procès impliquant le suicide d'adolescents.

Outre OpenAI, l’ensemble du secteur de l’intelligence artificielle est également confronté à des doutes croissants sur les performances des chatbots IA dans le conseil médical. En mars de cette année, Google a discrètement mis hors ligne une fonction de recherche de santé par l'IA appelée « Ce que les gens suggèrent », qui prétendait autrefois fournir des suggestions de santé basées sur « l'expérience de personnes souffrant de conditions similaires ». Cette décision intervient quelques mois après que Google a été contraint de supprimer considérablement des contenus pertinents, car sa recherche d'IA "Aperçus" contenait des informations inexactes dans les requêtes médicales, ce qui, selon les experts, pourrait mettre en danger la santé publique.

Actuellement, ce procès contre OpenAI est toujours en cours, et la famille espère l’utiliser pour inciter les régulateurs et les entreprises à réexaminer les limites de l’application de l’IA dans les domaines médical et pharmaceutique. L’orientation de l’affaire devrait avoir un impact profond sur les normes de conformité des sociétés d’IA en matière de responsabilités en matière de conception de produits, de mesures de protection de la sécurité et de fonctions liées à la santé des utilisateurs.