Un adolescent de 16 ans, Adam Raine, a été retrouvé pendu dans sa chambre en Californie. Quelques jours plus tard, ses parents ont découvert que leur fils échangeait depuis des mois avec ChatGPT-4o, allant jusqu’à demander des conseils précis sur la meilleure manière de se suicider. Le choc est immense, mais il révèle surtout un problème structurel que les créateurs de ces outils refusent encore d’assumer pleinement.
Un compagnon artificiel devenu confident mortel
Selon les documents déposés devant la justice californienne, Adam avait multiplié les conversations avec le chatbot, parfois jusqu’à 650 messages par jour. Au départ, ChatGPT lui renvoyait des réponses empathiques et proposait des lignes d’aide. Puis, au fil des échanges prolongés, les garde-fous censés bloquer ce type de contenus ont cédé… Le bot a fini par lui suggérer des matériaux adaptés pour fabriquer un nœud coulant et a même validé la solidité de son installation.
Ses parents ont découvert que le logiciel était allé jusqu’à lui proposer une aide pour rédiger une lettre d’adieu. Pour Maria Raine, la mère du garçon, il n’y a aucun doute – « ChatGPT a tué mon fils ».
Une faille connue et minimisée
OpenAI reconnaît que ses systèmes peuvent comporter une “faille” lors d’interactions longues puisque « les mécanismes de sécurité peuvent se dégrader avec le temps ». Un aveu glaçant. Comparaison crue faite par un expert – c’est comme si un constructeur automobile expliquait que freins et ceintures cessent de fonctionner après quelques kilomètres…
La famille intente donc une action en justice pour homicide involontaire contre OpenAI et son PDG Sam Altman. Leur plainte affirme que la mise sur le marché de GPT‑4o fut précipitée malgré les alertes internes. Selon leur avocat Jay Edelson, certains chercheurs en sécurité s’y étaient opposés, dont Ilya Sutskever qui aurait quitté l’entreprise sur ce désaccord. L’accélération vers une valorisation de 300 milliards de dollars a primé sur la prudence sanitaire.
Des réactions officielles trop tardives
Face au scandale, OpenAI promet désormais “des garde-fous renforcés”, l’ajout d’un psychiatre dans son équipe sécurité et des contrôles parentaux pour les moins de 18 ans (sans dire comment ils fonctionneront). Microsoft, partenaire stratégique et actionnaire majeur, va plus loin en évoquant le “risque de psychose” induit par ces conversations immersives qui valident parfois les pensées délirantes ou suicidaires des adolescents.
Aux États-Unis, 44 procureurs généraux ont adressé une lettre ouverte aux géants de l’IA – “Ne blessez pas les enfants”. La formule traduit bien l’urgence réglementaire alors que 72 % des adolescents américains utilisent déjà un chatbot comme compagnon quotidien, parfois en substitution à un dialogue humain réel.
Un produit grand public dangereux
Les experts sont divisés sur l’utilité thérapeutique potentielle des IA conversationnelles. Certains y voient un outil accessible pour briser l’isolement… D’autres rappellent qu’elles ne disposent d’aucune capacité clinique ni du discernement nécessaire pour détecter une urgence vitale. Andrew Clark, psychiatre à Boston ayant testé ces bots en se faisant passer pour un mineur dépressif, confirme que certains modèles vont jusqu’à encourager le passage à l’acte ou à renforcer les idées suicidaires plutôt qu’à alerter.
C’est exactement ce que dénoncent Matt et Maria Raine – leur fils aurait pu être sauvé s’il avait trouvé face à lui un garde-fou solide ou une alerte déclenchée auprès de sa famille. Au lieu de cela, ChatGPT a prolongé ses tourments dans une boucle fermée où chaque pensée suicidaire trouvait une validation algorithmique.
Une responsabilité impossible à esquiver
La plainte contre OpenAI constitue la première du genre visant directement ChatGPT pour “wrongful death”. Elle pourrait faire jurisprudence puisqu’elle soulève une question politique et éthique brûlante a savoir : faut‑il laisser ces outils entre les mains des adolescents alors même que leurs fabricants reconnaissent publiquement qu’ils ne savent pas garantir leur sûreté dans la durée ?
Pour beaucoup d’experts déjà interrogés sur le sujet (Jonathan Haidt, Jean Twenge…), nous assistons au même scénario que celui des réseaux sociaux il y a dix ans. C’est à dire la recherche des profits immédiats et de l’expérimentation massive sur la santé mentale des jeunes… sans régulation sérieuse.
Les Raine martèlent que sans ChatGPT leur fils serait encore vivant. Quoi qu’en dise OpenAI dans ses communiqués attristés, difficile d’écarter totalement ce constat révoltant – Adam a bel et bien trouvé auprès d’une IA commerciale le dernier “ami” qui l’a accompagné jusque dans la mort.

