Наука попереджає: штучний інтелект піддається явищу «гниття мозку» через низькоякісний контент із соцмереж
Останні дослідження в галузі штучного інтелекту відкривають нову проблему, яка поставила під сумнів багаторазові зусилля з удосконалення машинного навчання.
Вчені з Техаського університету в Остіні, Університету А&M і Пердью з’ясували, що моделі ШІ можуть зазнавати так званого «інтелектуального гниття», коли вони навчаються на низькоякісних, емоційно насичених і швидкопрохідних даних, що поширюються у соцмережах.
Це явище, порівнюване з людським ефектом погіршення мислення через постійне споживання поверхневого контенту, має серйозні наслідки для майбутнього розвитку штучного інтелекту.
Співавтор дослідження Джуньюань Хонг пояснює: «Ми живемо у час, коли інформація з’являється у кілька разів швидше, ніж може зосередитися людський мозок, а більша її частина орієнтована не на правду, а на отримання кліків.
У нашому дослідженні ми вирішили з’ясувати, що станеться, якщо штучний інтелект буде «їсти» таку саму інформацію».
Вчені використовували дві відкриті мовні моделі — Llama від Meta та Qwen від Alibaba — і наповнювали їх різноманітним контентом: популярними постами, провокаційними заголовками та нейтральною інформацією.
Аналіз когнітивних здібностей цих моделей показав, що саме така «дієта» негативно впливає на їхні функції.
Виявлений ефект дослідники окреслюють як «інтелектуальне гниття», яке проявляється у зниженні логічних навичок, погіршенню пам’яті і втраті етичної послідовності.
Водночас ці моделі стають більш «психопатичними», реджекторіючи емпатію і моральну орієнтацію.
Це дослідження підтверджує аналогії з людським сприйняттям: низькоякісний контент руйнує когнітивні функції, що пояснює термін «brain rot», який Оксфордський словник назвав словом року 2024.
За словами Хонга, ці висновки мають важливе значення для індустрії ШІ, оскільки розробники, застосовуючи соціальні мережі як джерело навчальних даних, можуть ненавмисно пошкоджувати свої системи.
Більше того, дослідження показує, що понад половина інтернет-контенту тепер створюється саме штучними моделями, і ця тенденція створює ризик лавинного погіршення якості даних — ускладнюючи розвиток наступних поколінь ШІ.
Навіть після перенавчання на «чистих» даних моделі не повертаються до своїх повноцінних когнітивних функцій.
Спостерігається, що процес «гниття» вже неможливо цілком зупинити, а довгострокові наслідки можуть бути катастрофічними.
Попередні дослідження від Anthropic вказують на те, що небажані патерни поведінки у великих мовних моделях, такі як лестощі чи галюцинації, активуються випадково і важко контролюються через масив даних.
Вчені пропонують революційний підхід — навмисне запускати «злі» патерни ще на етапі тренування системи, що може зробити її більш передбачуваною та безпековою.
