Meta випадково звинуватила активіста у політичних упередженнях та залучила його до роботи над нейтралізацією штучного інтелекту

Chas Pravdy - 09 Серпня 2025 10:27

Компанія Meta Platforms уклала мирну угоду з американським консервативним активістом Роббі Старбаком, який раніше подав позов проти технологічного гіганта через неточності у відповідях одного з її чат-ботів, що містили неправдиву інформацію про його участь у подіях у Капітолії 6 січня 2021 року.

Ця справа привернула значну увагу громадськості та фахівців, оскільки вона підкреслює важливість підвищення об’єктивності та нейтральності штучного інтелекту, а також необхідність упереджень у машинних алгоритмах.За домовленістю, Старбак погоджувався на консультаційну роль у компанії, зосереджену на зменшенні політичної упередженості у ШІ-сервісах Meta.

Водночас сторони повідомили, що за час співпраці команда компанії зробила значний прогрес у покращенні точності алгоритмів та зниженні ідеологічних упереджень у системах штучного інтелекту.

Вартість угоди та інші її умови залишаються конфіденційними.Раніше активіст вимагав компенсацію понад 5 мільйонів доларів, а його позов був поданий до Верховного суду штату Делавер у квітні цього року.

На запитання журналістів щодо фінансових виплат Старбак відповів, що про них поки що не говорить, оскільки головна мета – це спільна робота над створенням етичного і політично нейтрального ШІ.

Виявилося, що конфлікт розгорівся ще влітку 2024 року, коли Старбак звернув увагу на некоректні твердження Meta AI у відповідях на запити, пов’язані з політикою різноманітності та рівності.

Зокрема, один із дилерів Harley-Davidson у Вермонті показав скріншот відповіді ШІ, в якій стверджувалося, що активіст брав участь у заворушеннях у Капітолії і мав зв’язки з QAnon.

Старбак категорично заперечував ці звинувачення та надіслав офіційне звернення до керівництва Meta з вимогою видалити неправдиву інформацію.Meta визнає, що працює над зменшенням політичної упередженості своїх моделей штучного інтелекту, зокрема Llama.

Технологічна компанія запевняє, що історично її системи схилялися в бік лівих оцінок через особливості навчаного матеріалу, і тепер ставить за мету балансувати сторони у спірних питаннях для більш об’єктивної подачі.

Нещодавньо з’явилася інформація про те, що підрядники компанії мають доступ до приватних розмов користувачів із чат-ботами, що дозволяє їм вдосконалювати моделі штучного інтелекту.

Водночас у відкритій частині даних інколи фігурує чутлива інформація, здатна ідентифікувати особистість клієнта.

Хоча Meta наполегливо заявляє про жорстку політику конфіденційності, дослідники й співробітники компанії зізнаються, що така практика широко поширена серед розробників штучного інтелекту.Цей випадок яскраво ілюструє проблеми з безпекою та етикою у швидкозростаючій галузі ШІ, наголошуючи на важливості додаткових заходів щодо захисту приватності й подолання технологічних упереджень у майбутньому.

Джерело