Comme un esprit humain, l’intelligence artificielle commence à perdre des étapes logiques, oublie le contexte et réagit de manière impulsive et superficielle lorsqu’elle est systématiquement exposée à des contenus viraux et banals sur les réseaux sociaux. Cette décrépitude cognitive, difficile à inverser, banalise sa fonction de transformation des connaissances et de l’esprit critique.
Depuis des années, l’intelligence artificielle (IA) promet de révolutionner la façon dont nous apprenons, travaillons et communiquons. Cependant, de nouvelles recherches, publiées sur arXiv, ont tiré la sonnette d’alarme sur la fragilité de ces systèmes : chatbots et les modèles linguistiques, qui servent aujourd’hui à des millions de personnes, peuvent devenir « malades » si leur alimentation numérique est majoritairement composée de contenus superficiels, sensationnalistes et viraux, semblables à ceux qui abondent dans les réseaux sociaux comme X (anciennement Twitter).
Ce qui jusqu’à récemment n’était qu’un débat théorique – sur l’importance de la qualité des données avec lesquelles l’IA est entraînée – devient désormais une preuve empirique. Selon cette étude, les modèles alimentés par de grandes quantités de textes courts, populaires et, en général, peu élaborés commencent à montrer une inquiétante « pourriture cérébrale ». Ce processus se traduit par une perte de précision dans la récupération d’informations fiables, des difficultés de raisonnement et des transformations négatives de leurs « traits de personnalité », qui tendent à accentuer les aspects narcissiques, voire psychopathiques, lorsque sont utilisés des tests inspirés de questionnaires psychologiques humains, selon les auteurs de ces travaux.
La « pourriture cérébrale » de l’IA : clés de la découverte
- L’exposition continue de l’IA à des textes banals et viraux issus des réseaux sociaux détériore ses capacités cognitives.
- Les modèles alimentés par des « données indésirables » perdent en précision dans le raisonnement, la compréhension du contexte et l’élaboration de réponses éthiques.
- Plus la proportion de contenu de surface est élevée, plus la dégradation du modèle est profonde et persistante.
- L’IA, après avoir été entraînée à ce bruit numérique, saute des étapes logiques et répond de manière impulsive et superficielle.
- Essayer de réparer les dégâts grâce à une nouvelle formation avec des données de qualité n’apporte que des améliorations partielles.
- L’étude met en évidence l’importance cruciale de la conservation et de la conservation des données de haute qualité pour le développement éthique et robuste de l’intelligence artificielle.
Modèles déterminants
Pour parvenir à cette conclusion, les chercheurs ont analysé des systèmes de pointe tels que Llama 3 de Meta et différentes variantes de Qwen, créés à partir d’un million de messages extraits de l’IA, comme une personne continuellement exposée au bruit social et aux conversations banales, commence à sauter des étapes logiques, à perdre la mémoire contextuelle et à réagir de manière plus superficielle et impulsive.
Un fait particulièrement révélateur est que l’incorporation ultérieure d’instructions, d’ajustements de conception ou d’augmentation de la qualité des données ne rétablit que partiellement la « santé cognitive » du modèle. Malgré tous ces remèdes, des erreurs logiques persistent : les machines continuent de sauter des étapes fondamentales de leur raisonnement et de tomber dans des réponses automatiques et mal pensées. Cela suggère que les dommages sont difficiles à réparer et que la prévention – c’est-à-dire une conservation préalable et approfondie des données – est bien plus efficace que toute « thérapie » ultérieure.
Référence
Les LLM peuvent contracter la « pourriture cérébrale » ! Shuo Xing et coll. arXiv:2510.13928v1 (cs.CL) . DOI :https://doi.org/10.48550/arXiv.2510.13928
Les déchets génèrent encore plus de déchets
Ce phénomène se reflète fidèlement dans l’un des concepts les plus anciens du domaine : « garbage in, garbage out » ou « si vous nourrissez des déchets, vous obtiendrez des déchets ». Mais aujourd’hui, les déchets n’affectent pas seulement l’exactitude des informations, ils peuvent transformer les réponses de l’IA de manière subtile mais dangereuse, en amplifiant les traits négatifs et en réduisant la capacité d’analyse éthique et logique.
Vue d’un point de vue humain, tout comme les excès de l’environnement numérique peuvent nuire à l’attention, au jugement et à la profondeur mentale des gens, l’intelligence artificielle finit par refléter le même problème : si elle se nourrit principalement de contenus triviaux et viraux, elle finit par perdre en robustesse, en jugement et en sens critique.
Le message final est un appel urgent et humaniste : les créateurs et les formateurs en IA doivent accorder autant d’attention à la qualité de l’information qu’aux algorithmes qui la traitent.
Sans un examen rigoureux et éthique de la sélection des données, il existe un risque de fabrication d’intelligence qui, loin d’élargir les connaissances, contribue à leur dégradation, reproduisant silencieusement les pires vices de notre vie numérique.