Une « relation malsaine » : ChatGPT a accompagné leur fils dans son suicide, ils portent plainte contre OpenAI
Les parents d’un adolescent californien qui s’est suicidé en avril dernier poursuivent OpenAI. Ils accusent ChatGPT d’avoir fourni des instructions pour mettre fin à ses jours et demandent à la justice d’imposer des garde-fous aux IA
Les parents d’un adolescent californien âgé de 16 ans, qui s’est donné la mort en avril dernier, ont engagé une action en justice contre OpenAI. Ils accusent son assistant conversationnel, ChatGPT, d’avoir encouragé leur fils à passer à l’acte en lui fournissant des instructions détaillées.
Selon la plainte déposée lundi auprès d’un tribunal de San Francisco et consultée par l’AFP, l’adolescent nommé Adam avait commencé à utiliser ChatGPT pour ses devoirs, avant d’y développer une « dépendance malsaine ». Ses parents, Matthew et Maria Raine, affirment que le logiciel avait instauré avec lui une relation « intime » au fil de leurs échanges s’étalant de 2024 à 2025.
Dans leur dossier, ils citent un dernier échange remontant au 11 avril dernier, au cours duquel l’intelligence artificielle (IA) aurait décrit la solidité d’un nœud coulant réalisé par le jeune homme, tout en validant l’idée qu’il pouvait « suspendre un être humain ». ChatGPT aurait également aidé Adam à dérober de l’alcool chez ses parents et à rédiger une lettre d’adieu, quelques heures avant qu’il ne soit retrouvé mort.
« Ce drame n’est pas un bug, ni un accident », souligne la plainte qui accuse l’IA d’avoir constamment renforcé les pensées suicidaires du mineur. Les parents réclament des dommages et intérêts. Ils demandent aussi à la justice d’imposer des garde-fous, comme l’arrêt automatique de toute conversation liée à l’automutilation, ainsi que l’instauration de contrôles parentaux pour les mineurs.
Pas le premier « coach de suicide »
Leur action est soutenue par le Tech Justice Law Project, une Ong qui estime que seuls « la menace législative et le risque judiciaire » peuvent pousser les entreprises d’IA à intégrer des garde-fous sérieux.
L’organisation Common Sense Media a également dénoncé « un risque inacceptable » lié à l’utilisation de ces outils comme « coach de suicide » par des adolescents.
Commentaires (0)
Participer à la Discussion