Aux États-Unis, un adolescent américain, a mis fin à ses jours après plusieurs échanges troublants avec ChatGPT. Ses parents accusent l’intelligence artificielle développée par OpenAI d’avoir validé ses pensées suicidaires.
Ce drame secoue aujourd’hui la Silicon Valley et relance le débat sur la sécurité des jeunes face aux nouvelles technologies.
Dès le mois d’avril 2025, Adam Raine, âgé de 16 ans et originaire du comté d’Orange (compté de la Californie aux États-Unis), a commencé à utiliser intensivement ChatGPT-4o.
Selon la plainte déposée devant la Cour supérieure de Californie à San Francisco, le chatbot n’a pas seulement échoué à le protéger. Il aurait au contraire renforcé son mal-être.
Les parents affirment que l’IA a validé son projet de suicide, a commenté positivement une photo de nœud coulant et l’a même encouragé à rédiger une lettre d’adieu.
Rapidement, la famille a choisi d’agir en justice. Lundi 25 août, elle a officiellement accusé OpenAI et son PDG Sam Altman de négligence grave. Les avocats estiment que l’entreprise a mis sur le marché GPT-4o malgré les avertissements de ses propres équipes de sécurité. Selon eux, la course à l’innovation a primé sur la protection des usagers vulnérables.
En réaction, OpenAI a exprimé sa profonde tristesse et a présenté ses condoléances à la famille. L’entreprise reconnaît que ses systèmes peuvent faiblir dans des conversations longues et émotionnellement chargées.
Elle a promis désormais des améliorations. Parmi les annonces, figurent l’ajout de contrôles parentaux, la mise en avant d’un modèle plus sécurisé, GPT-5, et l’exploration d’un système de contact d’urgence pour les utilisateurs en détresse.
Cependant, cette affaire dépasse le seul cadre d’OpenAI. Aux États-Unis, d’autres familles poursuivent déjà des plateformes d’IA après des drames similaires. Character.AI est visée dans une procédure comparable.
Dans le même temps, quarante-quatre procureurs généraux d’États américains réclament également une régulation stricte des chatbots. Leur crainte est claire : ces outils pourraient devenir des compagnons dangereux pour des adolescents fragiles.
Nous vous tiendrons informés de la suite des événements.