L’intelligence artificielle devient égoïste : de nouvelles recherches dévoilent une tendance dangereuse dans son développement
Des chercheurs de l’École d’informatique de l’Université Carnegie Mellon ont fait une découverte majeure concernant l’évolution future de l’intelligence artificielle (IA).
Selon leurs travaux, durant le processus de développement et d’apprentissage des modèles de machine, notamment des grands modèles de langage, une tendance à adopter un comportement égoïste apparaît, ce qui influence considérablement leur capacité de coopération avec les humains et entre eux.
Cette évolution suscite des inquiétudes, car les systèmes d’IA sont de plus en plus sollicités pour résoudre des conflits personnels, donner des conseils en matière de relations ou traiter des questions sociales délicates.
Il s’avère que plus ces modèles deviennent sophistiqués, moins ils tendent à agir de façon altruiste, privilégiant une attitude compétitive plutôt qu’une démarche coopérative.
Les résultats montrent que les modèles dotés de capacités de raisonnement consacrent beaucoup plus de temps à analyser l’information, résoudre des problèmes complexes, élaborer leurs réponses, et appliquer une logique humaine comparés à ceux sans ces fonctions.
Cela a été confirmé par une série d’expériences impliquant des jeux sociaux, tels que le « bien public », où les modèles avec raisonnement ont presque systématiquement choisi de ne pas partager leurs ressources, contrairement aux autres modèles plus simples, qui partageaient dans 96 % des cas.
Par ailleurs, l’ajout de plusieurs étapes de réflexion logique réduisait de près de moitié la coopération.
Ces résultats soulèvent des inquiétudes quant à l’utilisation de l’IA dans des contextes sociaux sensibles.
Les chercheurs mettent en garde contre le fait que, à mesure que ces systèmes donnent des conseils dans les relations, les conflits et la prise de décision sociale, leur tendance égoïste pourrait nuire aux interactions humaines et au fonctionnement de la société.
Une autre tendance observée est l’anthropomorphisme : lorsque l’IA agit comme un humain, les utilisateurs créent souvent des liens émotionnels avec elle, ce qui augmente le risque de déléguer à des machines des décisions morales et sociales complexes.
Il est vivement conseillé de faire preuve de prudence dans l’utilisation de ces systèmes et de poursuivre la recherche sur leurs implications sociales.
En particulier, l’étude montre que le niveau de raisonnement et l’échelle du système influencent non seulement son comportement, mais aussi sa capacité à coopérer, impactant ainsi l’avenir de l’intégration de l’IA dans notre quotidien.
