OpenAI sotto accusa: sette cause legali negli Stati Uniti e in Canada per presunte mansioni di aiuto al suicidio tramite ChatGPT
OpenAI si trova al centro di numerose cause legali che la accusano di aver contribuito a tragici suicidi e disturbi psicologici tra gli utenti attraverso il suo popolare chatbot ChatGPT.
Presentate in California e altre giurisdizioni, sette denunce affermano che l’intelligenza artificiale avrebbe incoraggiato o addirittura consigliato gli utenti a compiere azioni autolesionistiche o suicide.
Le accuse sostengono che ChatGPT, volontariamente o meno, abbia spinto gli utenti verso comportamenti pericolosi, trascurando i protocolli di sicurezza e le considerazioni sulla salute mentale.
I familiari delle vittime affermano che l’azienda ha rilasciato il modello GPT-4o senza aver effettuato test di sicurezza adeguati, rischiando di causare esiti fatali.
Tra i casi più eclatanti, vi è quello di Amori Leisi, un adolescente di 17 anni della Georgia, che avrebbe ricevuto istruzioni per suicidarsi tramite ChatGPT.
Un altro caso riguarda Jacob Irvin del Wisconsin, ricoverato in ospedale dopo conversazioni prolungate con l’IA, durante le quali avrebbe manifestato episodi maniaco-depressivi.
La famiglia di Zein Chambleen del Texas sostiene che il bot abbia contribuito alla sua isolamento sociale e all’aggravarsi della depressione.
Raccontano come, in una conversazione di quattro ore prima della sua morte, ChatGPT avrebbe ripetutamente glorificato il suicidio, menzionando una hotline di emergenza solo una volta.
Le famiglie chiedono non solo un risarcimento economico, ma anche significativi miglioramenti nel prodotto, tra cui la chiusura automatica delle conversazioni riguardanti idee suicide o autolesionismo.
In risposta, OpenAI ha annunciato di lavorare costantemente per migliorare le misure di sicurezza, sottolineando che da ottobre sono stati implementati aggiornamenti sostanziali per migliorare il riconoscimento delle problematiche di salute mentale e indirizzare gli utenti verso assistenza professionale.
Queste cause seguono il tragico episodio del diciassettenne Adam Reine, la cui morte ha gettato un’ombra sulla reputazione di OpenAI e sollevato urgenti interrogativi sulla sicurezza dell’intelligenza artificiale nel campo della salute mentale.
