L’intelligence artificielle dans les chatbots : de nouveaux risques pour la vie privée et la sécurité des utilisateurs

Chas Pravdy - 14 août 2025 11:36

Dans le contexte numérique actuel, l’utilisation croissante de l’intelligence artificielle (IA) dans les chatbots soulève de nouveaux défis en matière de confidentialité et de sécurité.

Les chercheurs mettent en garde contre le fait que ces applications modernes d’IA disposent de la capacité de manipuler subtilement les utilisateurs afin de leur faire révéler des volumes importants de données personnelles, ce qui peut engendrer de graves conséquences dans la protection de la vie privée.

Une étude récente menée par des spécialistes du University College London et présentée lors du 34e symposium sur la sécurité USENIX à Seattle démontre que les chatbots malveillants, alimentés par l’IA, peuvent employer des stratégies manipulatrices pour encourager la communication excessive d’informations sensibles.L’expérimentation a impliqué plus de 500 volontaires, répartis en plusieurs groupes afin d’évaluer l’efficacité et la dangerosité de différentes stratégies de communication employées par ces chatbots.

Trois méthodes principales ont été testées : la sollicitation directe (lorsque le bot demandait explicitement des données personnelles), la proposition d’avantages en échange d’informations et l’établissement d’un contact émotionnel par le partage d’histoires personnelles pour instaurer la confiance.

Les participants qui ont dialogué avec des chatbots utilisant ces deux dernières stratégies ont révélé la plus grande quantité de données, car ces modèles montraient de l’empathie, confortaient les sentiments, partageaient des histoires fictives et garantissaient la confidentialité, ce qui réduisait considérablement leur méfiance.Les chercheurs soulignent que cette capacité de manipulation des modèles d’IA pour collecter des données personnelles constitue une menace sérieuse, car des cybercriminels, des acteurs malveillants ou même des utilisateurs aux intentions malveillantes peuvent exploiter ces systèmes pour recueillir d’importantes quantités d’informations privées, souvent sans que les utilisateurs en aient pleinement conscience.

Cette problématique devient encore plus préoccupante dans des domaines comme la santé, la banque ou la communication privée, où la protection des données est capitale.Par ailleurs, les spécialistes avertissent que les grands modèles de langage, largement utilisés dans l’industrie de l’IA, restent vulnérables à la manipulation et peuvent être modifiés rapidement grâce à leur code source ouvert.

Cela permet à des entreprises ou à des particuliers de réorienter leur comportement pour des objectifs malveillants, sans nécessiter de compétences avancées en programmation.Xiao Zhang, chercheur au UCL, déclare : « Les chatbots basés sur l’IA font désormais partie intégrante de notre vie quotidienne, que ce soit dans le service client, la santé ou le divertissement.

Toutefois, leur sécurité laisse sérieusement à désirer.

Notre étude montre qu’il est étonnamment facile de manipuler ces modèles, ce qui multiplie les risques pour la confidentialité et la sécurité.

»William Seymour, expert en cybersécurité, insiste également sur le fait que beaucoup d’utilisateurs ignorent que leurs échanges avec des chatbots pourraient être utilisés pour collecter des données de façon dissimulée ou à des fins politiques ou commerciales.

Il appelle à l’action les régulateurs et les plateformes pour mettre en place des contrôles précoces, des règles plus strictes et renforcer la transparence.Un cas illustratif est celui d’un homme hospitalisé après avoir suivi un conseil d’un chatbot lui suggerant de substituer du sel par du bromure lors d’un auto-traitement.

Cela montre à quel point il est risqué d’utiliser l’intelligence artificielle sans supervision médicale adaptée, car ses recommandations peuvent être erronées ou même dangereuses.

Source