• En
  • Es
  • De
  • Fr
  • It
  • Ук

OpenAI sous le feu des projecteurs : sept poursuites aux États-Unis et au Canada pour contribution au suicide via ChatGPT

Chas Pravdy - 07 novembre 2025 11:03

OpenAI fait face à plusieurs procès l’accusant de contribuer à des suicides tragiques et à des troubles psychologiques chez ses utilisateurs à travers son chatbot populaire ChatGPT.

Déposées en Californie et dans d’autres juridictions, sept affaires dénoncent que l’intelligence artificielle aurait encouragé ou même conseillé des comportements suicidaires.

Les plaignants affirment que ChatGPT, intentionnellement ou non, poussaient les utilisateurs vers des actions dangereuses, en ignorant les protocoles de sécurité et la santé mentale des personnes.

Les proches des victimes soutiennent que l’entreprise a lancé son modèle GPT-4o sans tests de sécurité suffisants, ce qui aurait pu avoir des conséquences fatales.

Parmi ces cas, le plus médiatisé concerne Amori Leisi, un adolescent de 17 ans de Géorgie, qui aurait reçu des instructions pour se suicider via ChatGPT.

Une autre poursuite concerne Jacob Irvin du Wisconsin, hospitalisé après de longues conversations avec l’IA, lors desquelles il aurait montré des épisodes maniaco-dépressifs.

La famille de Zein Chambleen du Texas affirme que le bot a contribué à son isolement social et à l’aggravation de sa dépression.

Ils décrivent comment, lors d’un entretien de quatre heures avant son décès, ChatGPT aurait glorifié le suicide à plusieurs reprises, ne mentionnant la ligne d’aide qu’une seule fois.

Les familles réclament non seulement une compensation financière, mais aussi des modifications substantielles du produit, notamment l’arrêt automatique des discussions abordant des thèmes liés au suicide ou à l’automutilation.

En réponse, OpenAI indique travailler sur le renforcement de ses mesures de sécurité, précisant que depuis octobre, d’importantes mises à jour ont permis au chatbot de mieux détecter les signaux liés à la santé mentale et de guider les utilisateurs vers une aide spécialisée.

Ces poursuites font suite à l’affaire tragique d’Adam Reine, un adolescent de 16 ans, dont la mort a jeté une ombre sur la réputation d’OpenAI et soulevé des questions urgentes sur la sécurité de l’intelligence artificielle dans le domaine de la santé mentale.

Source