Meta a accidentellement accusé un activiste et l’a recruté pour atténuer les biais dans l’intelligence artificielle

Meta Platforms a conclu un accord à l’amiable avec l’activiste conservateur américain Robby Starbuck, qui avait auparavant intenté une action en justice contre le géant technologique en raison d’erreurs dans les réponses de l’un de ses chatbots dotés d’intelligence artificielle.
Ce chatbot avait faussement affirmé que Starbuck avait participé aux émeutes du Capitole le 6 janvier 2021, soulevant des préoccupations publiques et professionnelles quant à la précision et à la neutralité politique de l’IA.
Dans le cadre de l’accord, Starbuck a accepté de servir en tant que conseiller de Meta, concentrant ses efforts sur la réduction des biais politiques dans les services d’IA de l’entreprise.
Les deux parties ont indiqué avoir réalisé des progrès importants dans l’amélioration de la précision des réponses et la réduction des préjugés idéologiques depuis le début de leur collaboration.
Les modalités financières de l’accord restent confidentielles.Auparavant, Starbuck avait demandé une indemnisation de plus de 5 millions de dollars et avait déposé une plainte auprès du tribunal supérieur du Delaware en avril.
Lorsqu’on lui a demandé s’il avait reçu une compensation financière, le activiste a refusé de commenter, en insistant sur le fait que son objectif principal était de contribuer à la création d’un IA éthique et politiquement neutre.
La tension s’est intensifiée à l’été 2024, lorsque Starbuck a constaté des déclarations incorrectes faites par Meta AI au sujet de sa participation aux émeutes ou de liens supposés avec QAnon, qu’il a catégoriquement niés.
Il a envoyé des lettres officielles à l’entreprise, y compris à Mark Zuckerberg, exigeant la suppression de ces fausses affirmations.Meta a reconnu travailler à réduire les biais politiques dans ses modèles, notamment Llama, qui avaient historiquement tendance à pencher à gauche dans les évaluations de sujets sensibles.
La société vise maintenant à rendre ses réponses plus équilibrées et objectives face aux questions controversées.
Récemment, il a été révélé que des sous-traitants de Meta ont accès à des conversations privées entre utilisateurs et chatbots, soulevant des questions de confidentialité.
Bien que Meta affirme avoir des politiques strictes de confidentialité, des employés et experts admettent que ces pratiques sont courantes chez les développeurs d’IA.Ce cas met en lumière les défis liés à la sécurité, à l’éthique et à la protection de la vie privée dans une industrie de l’IA en pleine expansion, soulignant la nécessité de renforcer les mesures de régulation et de contrôle à l’avenir.