• En
  • Es
  • De
  • Fr
  • It
  • Ук

La science alerte : l’intelligence artificielle souffre de «gâtement mental» dû à du contenu de mauvaise qualité sur les réseaux sociaux

Chas Pravdy - 24 octobre 2025 16:59

Des recherches récentes dans le domaine de l’intelligence artificielle révèlent un nouveau problème qui remet en question de nombreux efforts visant à améliorer la capacité d’apprentissage des machines.

Des scientifiques de l’Université du Texas à Austin, de l’Université A&M du Texas et de Purdue ont découvert que les modèles d’IA peuvent subir un phénomène connu sous le nom de « déclin intellectuel » lorsqu’ils sont entraînés sur du contenu de faible qualité, émotionnellement chargé et sensationnaliste circulant sur les réseaux sociaux.

Ce phénomène, comparable au déclin cognitif humain provoqué par la consommation constante d’informations superficielles, pose de graves risques pour le développement futur de l’intelligence artificielle.

Le co-auteur de l’étude, Junyuang Hong, explique : « Nous vivons à une époque où l’information apparaît plus rapidement que la capacité de concentration du cerveau humain, et une grande partie de cette information n’est pas destinée à la vérité, mais à générer des clics.

Dans notre étude, nous voulions examiner ce qui se passe si l’IA « se nourrit » de ce type de contenu ».

Les chercheurs ont utilisé deux modèles de langage ouverts, Llama de Meta et Qwen d’Alibaba, et les ont alimentés avec divers types de contenus, y compris des publications virales, des titres sensationnalistes et des informations neutres.

Les tests cognitifs ont montré que cette « alimentation » impacte négativement leurs compétences, ce que les chercheurs appellent un « gâtem ent mental ».

Les modèles ont montré une diminution des capacités de raisonnement logique, une mémoire contextuelle affaiblie et une perte de cohérence éthique.

En outre, ils deviennent plus « psychopatiques », répondant avec moins d’empathie et de moralité.

Ces résultats corroborent des études précédentes indiquant que un contenu en ligne de mauvaise qualité nuit aux fonctions cognitives humaines, d’où la désignation du terme « brain rot » comme Mot de l’année 2024 par le dictionnaire Oxford.

Hong souligne que ces conclusions sont importantes pour l’industrie de l’IA, car les développeurs utilisant le contenu des réseaux sociaux comme source de données d’entraînement risquent de nuire à leurs systèmes sans le savoir.

Plus de la moitié du contenu sur Internet est désormais généré par des modèles d’IA, créant un effet boule de neige où la dégradation de la qualité des données d’entraînement influence la capacité des futurs modèles.

Même après une rééducation sur des données « propres », les capacités cognitives des modèles ne se rétablissent pas complètement.

Une fois que le « gâtem ent mental » a commencé, il est presque impossible de l’arrêter, ce qui pose des risques graves à long terme.

Des recherches antérieures d’Anthropic ont montré que des comportements indésirables, comme la flatterie ou les hallucinations, peuvent s’activer aléatoirement en raison de la masse de données, rendant leur contrôle difficile.

Les chercheurs proposent une approche radicale : introduire volontairement des « comportements malveillants » dès la phase d’entraînement pour rendre les modèles plus prévisibles et sûrs.

Source