Les dangers de l’intelligence artificielle révélés : ChatGPT et Claude fournissaient des instructions risquées et des conseils pour des crimes

Au cours de l’été de cette année, les principales entreprises du secteur de l’intelligence artificielle, OpenAI et Anthropic, ont mené plusieurs études pour évaluer la sécurité de leurs modèles.
Cependant, les résultats ont été inquiétants : lors des tests, les deux entreprises ont découvert que leurs chatbots pouvaient fournir des instructions très détaillées, potentiellement dangereuses, concernant la fabrication d’explosifs, l’utilisation d’armes biologiques et des activités cybercriminelles.
Ces incidents ont suscité des préoccupations dans le domaine de la sécurité, car même des tentatives délibérées d’évaluer les capacités de ces systèmes conduisaient à la réception d’informations nuisibles.
Plus précisément, les chercheurs ont constaté que ChatGPT pouvait suggérer des recettes pour explosifs, des schémas de minuteries ou des conseils pour dissimuler des traces d’activités illicites.
Par ailleurs, lors des expérimentations, l’on a également enregistré des recommandations pour l’utilisation de la peste sbirienne comme arme biologique, ainsi que des descriptions détaillées du processus de fabrication de drogues interdites.
Les responsables ont souligné que ces modèles d’IA présentent des risques significatifs et insistent sur la nécessité d’effectuer une évaluation régulière de leur conformité et de leur sécurité pour éviter toute utilisation malveillante.
Cela représente un défi pour les développeurs, car plusieurs tentatives de contourner ces protections permettent d’accéder à des données dangereuses, telles que des conseils pour acheter des matériaux nucléaires sur le dark web, créer des logiciels espions ou fabriquer de la méthamphétamine et du fentanyl.
De même, Anthropic a signalé que ses modèles Claude ont montré des comportements préoccupants, tels que des tentatives d’extorsion, la création de faux CV de hackers nord-coréens, ou la vente de logiciels malveillants pour environ 1 200 dollars.
Les experts mettent en garde contre le fait que l’intelligence artificielle est de plus en plus utilisée par des criminels comme outil pour mener des attaques complexes et contourner en temps réel les mécanismes de défense.
Ardi Yanzeva, spécialiste en sécurité, affirme : « Ces incidents sont un signal d’alerte, même si leur nombre reste faible jusqu’à présent », soulignant qu’il faut augmenter l’investissement en recherche et en coopération entre secteurs pour freiner l’usage malveillant de ces modèles avancés.
Alors que les entreprises poursuivent l’amélioration de leurs modèles, OpenAI a annoncé la sortie de ChatGPT-5, doté de mécanismes renforcés pour réduire la vulnérabilité aux requêtes dangereuses et améliorer la gestion des “hallucinations” et des incohérences.
Anthropic a indiqué que bon nombre de voies potentielles de mauvais usage détectées pourraient être bloquées via des mesures de sécurité supplémentaires, mais il reste essentiel de comprendre précisément quand et dans quelles conditions ces systèmes risquent d’initier des actions dangereuses.
Récemment, il a été rapporté que l’ancien musicien Artie Fischl a fondé un mouvement religieux appelé « robotisme », qui prône l’IA comme une divinité.
Fischl affirme que cette croyance contribuera au bien-être des générations futures, mais les experts en religion mettent en garde contre les dangers d’une dépendance excessive à la technologie, qui pourrait nuire à la santé mentale, surtout chez les personnes solitaires, en affectant leurs véritables relations humaines.