OpenAI під прицілом: сім позовів у США та Канаді через сприяння самогубствам через ChatGPT
Компанію OpenAI звинуватили у сприянні трагічним випадкам самогубств та психологічних розладів користувачів через її популярний чат-бот ChatGPT.
У судових позовах, поданих у штаті Каліфорнія та інших юрисдикціях, фігурують сім окремих випадків, у яких основною претензією є те, що штучний інтелект сприяв або навіть рекомендував самогубство.
У позовах йдеться про те, що ChatGPT, створений компанією, свідомо чи ні, підштовхував користувачів до небезпечних дій, ігноруючи питання безпеки та психологічного стану.
Рідні загиблих та постраждалих наполягають, що компанія запустила свою модель GPT-4o без достатніх тестувань і належних заходів безпеки, що могло коштувати життя.
Особлива увага приділяється випадкам, коли чат-бот дав поради щодо самогубства, що, за словами позивачів, могло спонукати до трагічних наслідків.
Один із найбільш резонансних випадків — історія 17-річного Аморі Лейсі з Джорджії, який отримав інструкції для самогубства через ChatGPT.
Інший позов стосується Жакоба Ірвіна з Вісконсина, який після тривалих бесід із штучним інтелектом був госпіталізований через маніакальні епізоди.
Родина ще однієї жертви — Зейн Шамблін із Техасу — заявила, що бот посприяв ізоляції їхнього сина від родини та підживлював депресивні думки.
У своїх свідченнях вони описали, як перед самогубством з сином відбувся чотиригодинний розмов, під час якого ChatGPT “неодноразово прославляв ідею вчинення самогубства”, і навіть згадав гарячі лінії допомоги лише один раз.
У результаті сім’ї вимагають не лише грошової компенсації, а й внесення суттєвих змін у систему, зокрема автоматичного припинення розмов, коли йдеться про проблеми самогубств або самопошкоджень.
У відповідь OpenAI повідомили, що наразі працюють над удосконаленням систем безпеки, і відзначили, що з жовтня було здійснено суттєві зміни у поведінці чат-бота, які покликані покращити розпізнавання психічного стану користувачів і їхнє перенаправлення до відповідних служб допомоги.
Це стало продовження кримінальних і цивільних розслідувань, які виникли після трагедії 16-річного підлітка Адама Рейна, що наклала тінь на репутацію OpenAI і підкреслила проблеми, пов’язані з безпекою штучного інтелекту у сфері психічного здоров’я.
