Une équipe scientifique de Google DeepMind a développé un outil capable de ajouter des filigranes à textes générés par de grands modèles linguistiques, améliorant ainsi sa capacité à identifier et suivre les contenus créés avec l’Intelligence Artificielle.
Les grands modèles de langage (LLM) sont un type d’intelligence artificielle (IA) largement utilisé qui peut générer du texte pour les chatbots, aide à la rédaction et à d’autres fins. Cependant, il se peut difficile d’identifier et d’attribuer le contenu produite par cette IA à une source précise, ce qui remet en cause la fiabilité des informations.
Dans les images, les vidéos ou les audios, il est relativement facile d’insérer des filigranes, mais dans les textes, c’est un défi : toute altération des mots peut affecter le sens et la qualité du contenu. Le filigrane a été proposé comme solution, mais n’a pas été mis en œuvre à grande échelle.
L’algorithme SynthID-Text insère une signature reconnaissable par un logiciel de détection
Or, dans un article publié dans la revue Nature, des chercheurs Sumanth Dathathri et Pushmeet Kohli, de Google DeepMind, décrivez une stratégie qui utilise un nouvel algorithme échantillonnage pour appliquer des filigranes au texte généré par l’IA, connu sous le nom de SynthID-Texte. L’outil utilise cet algorithme « pour fausser subtilement le choix des mots du LLM, en insérant une signature reconnaissable par le logiciel de détection associé », expliquent les chercheurs.
La détectabilité de ces filigranes a été évaluée avec plusieurs modèles accessibles au public et SynthID-Text a montré une efficacité améliorée par rapport aux approches existantes, indique un résumé de la revue.
Le filigrane peut aider à identifier le texte synthétique et à limiter les utilisations abusives accidentelles ou délibérées.
Selon les scientifiques, l’utilisation de SynthID-Text a également un impact négligeable sur la puissance de calcul requise pour exécuter le LLM, réduisant ainsi les obstacles à sa mise en œuvre.
Les grands modèles linguistiques ont permis la génération de textes synthétiques de haute qualité, souvent impossible à distinguer du contenu écrit par l’hommeà une échelle qui peut affecter de manière significative la nature de l’écosystème de l’information, écrivent les auteurs dans leur article.
Le filigrane peut aider à identifier le texte synthétique et à limiter les utilisations abusives accidentelles ou délibérées, ajoute l’équipe Google DeepMind. « Nous décrivons ici SynthID-Text, une stratégie de filigrane qui préserve la qualité du texte et permet une précision de détection élevée », disent-ils.
Une solution techniquement robuste
Pour Pablo Haya, du Laboratoire de Linguistique Informatique de l’Université Autonome de Madrid, l’article présente « une solution techniquement robuste » pour l’identification de texte généré par l’IA à travers des filigranes.
Ici, le filigrane consiste à modifier l’algorithme de génération de mots afin qu’ils suivent un modèle statistique traçable sans en modifier le sens, détaille Haya dans un commentaire à Science Media Center España, une plateforme de ressources scientifiques pour les journalistes.
Actuellement, les systèmes permettant de détecter si un document a été généré par l’IA ont de faibles taux de réussite. Les technologies facilitant l’identification de la paternité sont donc très nécessaires, explique Haya, qui ne participe pas à l’étude.
« De plus, ces techniques sont alignées sur les obligations de transparence du règlement sur l’IA qui impose aux fournisseurs, à certains niveaux de risque, de s’assurer que le contenu généré par l’IA est identifiable. »
Cependant, ajoute-t-il, son adoption généralisée reste un défi, principalement parce que ce type de filigrane est vulnérable aux manipulations ultérieures, telles que des modifications du texte ou l’utilisation de techniques de paraphrase, ce qui réduit l’efficacité de la marque à détecter.