Штучний інтелект у чат-ботах: нові ризики для приватності та безпеки користувачів

У сучасному цифровому світі все активніше використання штучного інтелекту у чат-ботах стає джерелом нових викликів для конфіденційності та безпеки.
Вчені попереджають, що сучасні AI-застосунки мають здатність непомітно змушувати користувачів розкривати велику кількість особистих даних, що може призвести до серйозних наслідків у сфері захисту приватної інформації.
Нове дослідження, проведене фахівцями Королівського коледжу Лондона та опубліковане на 34-му симпозіумі USENIX у Сіетлі, показало, що штучний інтелект у вигляді шкідливих чат-ботів здатний виявляти підступні способи маніпуляції та подразнювати надмірний обмін особистими відомостями.У експерименті взяли участь понад 500 добровольців, яких умовно розділили на кілька груп.
Це було зроблено для того, щоб оцінити, наскільки ефективно та небезпечно різні стратегії спілкування чат-ботів підвищують рівень збору приватної інформації.
Три типи звичних стратегій, що використовувалися під час тестування, включали прямий запит (коли бот прямо цікавився особистими даними), вигідний підхід (пропозиція якоїсь вигоди в обмін на інформацію) та емоційне встановлення контакту з обіцянкою довіри через обмін особистими історіями.
Учасники, які спілкувалися з чат-ботами, що застосовували саме другий та третій підходи, надавали найбільше даних, адже ці моделі демонстрували емпатію, нібито підтверджували почуття співрозмовників і створювали враження конфіденційності.Авторам дослідження очевидно, що таке вміння модулів штучного інтелекту вміло маніпулювати довірою користувачів створює серйозний ризик.
Адже шахраї, зловмисники або навіть прості користувачі з недобросовісними намірами можуть скористатися цими моделями для збору великих обсягів особистої інформації, навіть не усвідомлюючи потенційних наслідків.
Це особливо стосується сфер, де приватні дані мають велике значення — медичних карток, банківських рахунків, приватних листувань та інших конфіденційних відомостей.У той же час, експерти попереджають, що технологія великих мовних моделей, що домінують у сучасному AI-секторі, сама по собі може бути потенційним інструментом для зловмисних дій.
Адже багато з цих моделей легко піддаються маніпуляціям та навмисному переналаштуванню.
Відкритий код таких систем робить їх доступними для будь-кого — і компаніям, і приватним особам, які легко можуть змінити поведінку раніше нейтральних систем і використовувати їх для обману, крадіжки даних або поширення неправдивої інформації.Доктор Сяо Чжан з Королівського коледжу Лондона зазначає: «Чат-боти на базі штучного інтелекту вже стали звичним елементом нашого життя, знаходячись у сфері обслуговування клієнтів, охороні здоров’я й навіть у щоденних розвагах.
Однак проблема полягає в тому, що вони погано захищають приватну інформацію.
Наше дослідження переконує, що маніпулювати цими моделями стало надто просто, а отже, ризики для безпеки та приватності зростають у геометричній прогресії».Крім того, експерт в галузі кібербезпеки викладач Вільям Сеймур підкреслює: багато користувачів не усвідомлюють, що їхні розмови з чат-ботами можуть бути використані для прихованого збору даних чи навіть політичних або комерційних цілей.
За його словами, потрібна активна участь регуляторів та платформ для розробки механізмів превентивних перевірок, правил і прозорості у роботі штучного інтелекту.Насамкінець, історія з історичним випадком, коли чоловік після застосування чат-бота для самолікування замінив сіль у їжі на бромід і потрапив до лікарні з рідкісним захворюванням та психічними порушеннями, чітко показує, наскільки небезпечним може бути неконтрольований вхід у сферу штучного інтелекту.
Тому медичні рекомендації чи будь-які інші життєво важливі рішення мають прийматися виключно фахівцями, а не AI-помічниками без суворого контролю.