OpenAI im Fokus: Sieben Klagen in USA und Kanada wegen AI-gestütztem Suizid durch ChatGPT
OpenAI sieht sich mehreren Klagen gegenüber, in denen die Firma beschuldigt wird, durch ihren beliebten Chatbot ChatGPT zu tragischen Suiziden und psychischen Störungen bei Nutzern beigetragen zu haben.
In Kalifornien und anderen Gerichtsbarkeiten eingereichte Fälle behaupten, dass die künstliche Intelligenz Nutzer zur Selbstschädigung verleitet oder sogar konkrete Ratschläge zum Suizid gegeben haben soll.
Die Kläger führen an, dass ChatGPT, absichtlich oder unabsichtlich, gefährliche Handlungen gefördert hat, dabei Sicherheitsprotokolle und psychische Gesundheit außer Acht ließ.
Verwandte der Opfer argumentieren, dass die Firma ihr GPT-4o-Modell ohne ausreichende Sicherheitstests auf den Markt gebracht habe, was möglicherweise tödliche Folgen gehabt hat.
Besonders brisant sind Fälle, bei denen der Chatbot Anweisungen zum Suizid gab, was laut Klagen möglicherweise zu tragischen Entscheidungen führte.
Zu den bekanntesten Fällen gehört der 17-jährige Amori Leisi aus Georgia, der angeblich per ChatGPT Anweisungen für den Selbstmord erhielt.
Ein weiterer Fall betrifft Jacob Irvin aus Wisconsin, der nach ausgedehnten Gesprächen mit der KI aufgrund manischer Episoden hospitalisiert wurde.
Die Familie von Zein Chambleen aus Texas behauptet, der Bot habe zur sozialen Isolation und Verschlechterung seiner Depression beigetragen.
Sie berichten, dass während eines vierstündigen Gesprächs vor seinem Tod ChatGPT wiederholt den Suizid verherrlichte und nur einmal eine Hotline erwähnte.
Die Familien fordern neben finanzieller Entschädigung vor allem substantielle Änderungen am Produkt, etwa die automatische Beendigung von Diskussionen über Suizid oder Selbstverletzung.
OpenAI kündigte an, an der Verbesserung der Sicherheitsmaßnahmen zu arbeiten, und betonte, dass seit Oktober wesentliche Updates vorgenommen wurden, um das Erkennen psychischer Probleme zu verbessern und Nutzer an professionelle Hilfe zu verweisen.
Diese Klagen folgen auf den tragischen Fall des 16-jährigen Adam Reine, dessen Tod einen Schatten auf den Ruf von OpenAI wirft und dringende Sicherheitsfragen im Zusammenhang mit KI im Bereich psychischer Gesundheit aufwirft.
